Wie kann ich mit Ubuntu und ZEVO eine Festplatte an einen vorhandenen ZFS-Zpool-Spiegel anhängen?

Ist es möglich, mit ZEVO eine dritte Festplatte an einen bereits erstellten Spiegel, bestehend aus zwei Festplatten, anzuschließen?

Ubuntu

Ich betreibe eine Ubuntu Virtual Machine mit nativer ZFS-Unterstützung. Wenn ich die dritte Festplatte anschließe, funktioniert es einwandfrei.

OS X Löwe

Wenn ich den Pool in Lion importiere, argumentiert ZEVO, dass ein Pool fehlt, obwohl er vorhanden ist und im Moment neu versilbert wird.


Unter Ubuntu:

$ zpool status Toshiba_ZFS

pool: Toshiba_ZFS
state: ONLINE
status: One or more devices is currently being resilvered.  The pool will
continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
scan: resilver in progress since Sun Aug 19 15:03:18 2012
12.1G scanned out of 598G at 14.4M/s, 11h33m to go
929M resilvered, 2.02% done

config:

NAME        STATE     READ WRITE CKSUM
Toshiba_ZFS  ONLINE       0     0     0
  mirror-0  ONLINE       0     0     0
    sdd     ONLINE       0     0     0
    sdc     ONLINE       0     0     0
    sdb5    ONLINE       0     0     5  (resilvering)

Unter Mac OS X (Lion):

$ zpool status Toshiba_ZFS

pool: Toshiba_ZFS
state: DEGRADED
status: One or more devices is currently being resilvered.  The pool will
continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
scan: resilver in progress since Sun Aug 19 15:03:18 2012
1,52Gi scanned out of 598Gi at 24,0Mi/s, 7h4m to go
242Mi resilvered, 0,25% done
config:

NAME                                           STATE     READ WRITE CKSUM
Toshiba_ZFS                                    DEGRADED     0     0     0
  mirror-0                                     DEGRADED     0     0     0
    GPTE_1C3475D8-AB6F-3547-AE5D-571C2389DCC7  ONLINE       0     0     0  at disk3s1
    GPTE_11059782-DA42-654B-8577-431C1B80814C  ONLINE       0     0     0  at disk5s1
    16494388674814556229                       UNAVAIL      0     0     0  was /dev/sdb5

Aus irgendeinem Grund speichert ZEVO die Pools in /dev/dsk/, aber da meine dritte Festplatte noch kein Pool ist und an einen vorhandenen zfs-Spiegelpool angehängt wird, wird sie nicht erkannt

$diskutil info disk2s5

Device Identifier:        disk2s5
Device Node:              /dev/disk2s5
Part of Whole:            disk2
Device / Media Name:      tank

Volume Name:              Not applicable (no file system)

Mounted:                  Not applicable (no file system)

File System:              None

Partition Type:           FFFFFFFF-FFFF-FFFF-FFFF-FFFFFFFFFFFF
OS Can Be Installed:      No
Media Type:               Generic
Protocol:                 USB
SMART Status:             Not Supported

Total Size:               751.6 GB (751591690240 Bytes) (exactly 1467952520 512-Byte-Blocks)
Volume Free Space:        Not applicable (no file system)
Device Block Size:        512 Bytes

Read-Only Media:          No
Read-Only Volume:         Not applicable (no file system)
Ejectable:                Yes

Whole:                    No
Internal:                 No[/code]

$ zpool attach Toshiba_ZFS disk3s1 disk2s5
cannot open 'disk2s5': no such device in /dev/dsk
must be a full path or shorthand device name

Wie kann ich mit ZEVO eine andere Festplatte anhängen?

BEARBEITEN : Hier sind einige Protokollinformationen aus der Konsolenanwendung:

20.08.12 09:52:01,000 kernel: ZFSLabelScheme:start: 0xffffff801160e700 created proxy         disk for pool 'Toshiba_ZFS'
20.08.12 09:52:01,000 kernel: ZFSLabelScheme:start: 'Toshiba_ZFS' critical mass with 1     vdev(s) (skip import)
20.08.12 09:52:01,000 kernel: ZFSLabelScheme:probe: label 'Toshiba_ZFS', vdev     8248481474682216015
20.08.12 09:52:01,000 kernel: zfsx_vdm_open: couldn't find vdevMedia for 'sde5'
20.08.12 09:52:01,000 kernel: ldi_open_by_name: Toshiba_ZFS /dev/sde5 error 2, flag 3
20.08.12 09:52:01,000 kernel: zfsx_vdm_open: 'Toshiba_ZFS' disk3s1
20.08.12 09:52:01,000 kernel: zfsx_vdm_open: 'Toshiba_ZFS' disk5s1
20.08.12 09:52:02,000 kernel: zfsx_vdm_open: couldn't find vdevMedia for 'sde5'
20.08.12 09:52:02,000 kernel: ldi_open_by_name: Toshiba_ZFS /dev/sde5 error 2, flag 3
20.08.12 09:52:02,000 kernel: zfsx_mount: '/Volumes/Toshiba_ZFS'
20.08.12 09:52:07,235 com.tenscomplement.zfs.delegate: taking GPTE_11059782-DA42-654B-    8577-431C1B80814C online in pool 'Toshiba_ZFS'
20.08.12 09:52:17,239 com.tenscomplement.zfs.delegate: post mount fsgetpath: err 2, using "/.vol/234881038/2" instead
20.08.12 09:52:17,239 com.tenscomplement.zfs.delegate: post mount processing "/.vol/234881038/2"

Und die Partitionstabelle von parted:

$ sudo parted /dev/sdb
GNU Parted 2.3
Using /dev/sdb
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) p                                                                
Model: External RAID (scsi)
Disk /dev/sdb: 1000GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt

Number  Start   End     Size    File system  Name                  Flags
 1      20.5kB  210MB   210MB   fat32        EFI System Partition  boot
 2      210MB   58.6GB  58.3GB               Macintosh HD
 3      58.7GB  59.3GB  650MB   hfs+         Recovery HD
 4      59.3GB  248GB   189GB   hfs+         Backups
 5      248GB   1000GB  752GB   zfs          Apple_HFS_Untitled_4
Obwohl von GreenBytes gekauft, unterstützt Zevo das Produkt weiterhin offiziell - zevo.zendesk.com/home . Ich würde dort um Hilfe gehen, da es ein ziemlich geschlossenes Produkt ist.
Oder Sie können auf die Community Edition von GreenBytes warten oder zu MacZFS (maczfs.org) wechseln.
Habe schon eine Mail an den Support geschrieben.

Antworten (2)

Abhilfe gefunden. Sie müssen die Partitionstabelle des aktuellen zpool-Geräts auf das Gerät replizieren, das Sie anschließen möchten, und dann die eindeutigen GUIDs der Partitionen (sollten zwei sein) randomisieren. Dann fügen Sie das Gerät zum zpool-Spiegel hinzu und formatieren den nicht zugeordneten Speicherplatz auf HFS+ oder was auch immer Sie möchten. Dies alles geschieht innerhalb von Linux mit gdisk und parted , aber es wird vom Mac OS X Zevos ZFS-Port richtig erkannt.

$ zpool status Toshiba_ZFS
NAME                                           STATE     READ WRITE CKSUM
Toshiba_ZFS                                    ONLINE      0     0     0
  mirror-0                                     ONLINE      0     0     0
    GPTE_1C3475D8-AB6F-3547-AE5D-571C2389DCC7  ONLINE      0     0     0  at disk4s1
    GPTE_11059782-DA42-654B-8577-431C1B80814C  ONLINE      0     0     0  at disk3s1
    GPTE_79E12ED8-31EE-384C-B115-2759039256C0  ONLINE      0     0     0  at disk2s1

$ diskutil list 
/dev/disk2
#:                       TYPE NAME                    SIZE       IDENTIFIER
0:      GUID_partition_scheme                        *1.0 TB     disk2
1:                        ZFS                         750.1 GB   disk2s1
2: 6A945A3B-1DD2-11B2-99A6-080020736631               8.4 MB     disk2s2
3:          Apple_CoreStorage                         60.5 GB    disk2s3
4:                 Apple_Boot Recovery HD             650.0 MB   disk2s4
5:                        EFI                         209.7 MB   disk2s5
6:                  Apple_HFS Backups                 188.4 GB   disk2s6

$ gdisk /dev/disk2
GPT fdisk (gdisk) version 0.8.2

Partition table scan:
MBR: protective
BSD: not present
APM: not present
GPT: present

Found valid GPT with protective MBR; using GPT.

Command (? for help): p
Disk /dev/disk2: 1953525168 sectors, 931.5 GiB
Logical sector size: 512 bytes
Disk identifier (GUID): B51307F7-D090-E64A-ADDF-800BFE2EA9AB
Partition table holds up to 128 entries
First usable sector is 34, last usable sector is 1953525134
Partitions will be aligned on 32-sector boundaries
Total free space is 526309 sectors (257.0 MiB)

Number  Start (sector)    End (sector)  Size       Code  Name
1            2048      1465131007   698.6 GiB   BF01  zfs
2      1465131008      1465147391   8.0 MiB     BF07  
3      1465147392      1583354079   56.4 GiB    AF05  Macintosh_HD
4      1583616224      1584885759   619.9 MiB   AB00  Recovery HD
5      1584885760      1585295359   200.0 MiB   EF00  EFI System Partition
6      1585295360      1953262983   175.5 GiB   AF00  

… Aus irgendeinem Grund speichert zevo die Pools in /dev/dsk/

In der neuen ZEVO-Wissensdatenbank (2012-09-14) liefert Disk-Gerätenamen die Erklärung.

Eine vergleichbare Erklärung wurde veröffentlicht, als Ten's Complement ZEVO verkaufte.

Wie kann ich mit Zevo eine Festplatte an einen vorhandenen zfs zpool-Spiegel anhängen?

… Ubuntu … Wenn ich die dritte Festplatte anschließe, funktioniert es einwandfrei, aber wenn ich den Pool in Lion importiere …

In der Wissensdatenbank bietet das Erstellen von ZFS-Pools drei Beispiele, die sich auf Spiegelungen beziehen.

Aus der Sicht von ZEVO und OS X ist es mit ziemlicher Sicherheit besser, ZFS-bezogene Routinen mit ZEVO zu beginnen als mit Ubuntu. Zitat aus dem QuickStart Guide für ZEVO Community Edition 1.1:

… ZEVO verwendet das Standard-ZFS-On-Disk-Format (v28) und ist daher binärkompatibel mit ZFS auf anderen Plattformen. Der direkte Austausch mit anderen Plattformen wird in dieser Version jedoch nicht unterstützt. ….

Eine vergleichbare Notiz wurde veröffentlicht, als Ten's Complement ZEVO verkaufte.

Ausgangspunkte

http://zevo.getgreenbytes.com Links zur Wissensdatenbank, zum Support-Forum und mehr.