opensuse 42.2 ; mdadm raid 5 - Fragen

Hinweis: In dem Thema opensuse 42.2 ; mdadm raid 5 - Fragen gibt es 4 Antworten. Der letzte Beitrag () befindet sich ganz unten auf dieser Seite.
  • opensuse 42.2 ; mdadm raid 5 - Fragen

    Liebe openSUSElerInnen,

    ich habe mir ein neues RAID 5 aufgesetzt. Alles ist in Ordnung, nur fehlt mir doch einiges Verständnis.
    Zunächst war es ein RAID 5 mit 3 Disks. Das RAID wurde dann auf 4 disk (4x3TB; ohne spare) erweitert. Die Kapazität ist nun ~ 9 TB.

    Quellcode

    1. cat /proc/mdstat
    2. Personalities : [raid6] [raid5] [raid4]
    3. md127 : active raid5 sda1[0] sdd1[3] sdc1[1] sdb1[4]
    4. 8790377472 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4] [UUUU]
    5. bitmap: 0/22 pages [0KB], 65536KB chunk
    6. unused devices: <none>
    disk free sagt:

    Quellcode

    1. df
    2. Filesystem 1K-blocks Used Available Use% Mounted on
    3. devtmpfs 1945944 0 1945944 0% /dev
    4. tmpfs 1954120 0 1954120 0% /dev/shm
    5. tmpfs 1954120 2552 1951568 1% /run
    6. tmpfs 1954120 0 1954120 0% /sys/fs/cgroup
    7. ....
    8. /dev/md127 5813947936 1710288584 3810630388 31% /myRAID5
    des weiteren habe ich bei der Konfiguration das RAID als myRAID5 benannt. Das Block-Dev war in /dev/md/myRAID5 angelegt worden.

    Quellcode

    1. more /etc/mdadm.conf
    2. ARRAY /dev/md/myRAID5 metadata=1.2 name=wNAS:myRAID5 UUID=792e5b7b:b305fcc0:374d7a0f:22a67682
    So, nun zu den Verständnisfragen:
    1. Warum zeigt df nur 5.8 TB?
    2. Was ist md127 (plötzlich war ein link von /dev/md/myRAID5 auf /dev/md127)
    3. In der mdadm.conf, steht eine UUID, für was wird die benötigt. Ich mounte das RAID (fstab) mit UUID, diese UUID ist nicht die UUID aus der mdadm.conf


    Wie kann ich das RAID wieder zum Block-Device myRAID5 bringen?

    Vielen Dank für die Erklärungen.

    zappa.frank

    Für den Inhalt des Beitrages 103017 haftet ausdrücklich der jeweilige Autor: zappa.frank

  • Das /dev/md127 kann vom kernel erzeugt werden.
    Das tut er, wenn er Inkonsistenzen im Arraysetup findet.

    Ich schätze, du hast die Platte einfach angeklemmt und mit Booten&Beten gehofft.

    Du solltest -wenn dem so ist- auch die initramfs neu basteln lassen.
    Dann sollte das wieder verschwunden sein.
    Und vielleicht sogar die schräge Größe, die df anzeigt.

    Mit deinen Angaben lässt sich nicht weiter sinnvoll raten.

    Sollte der Initramfsneubau nicht helfen, dann poste bitte detailiierte Infos.
    mdadm --examine|--details
    Sokrates sagte, dass er nichts wisse.
    Ich bin viel, viel klüger als Sokrates.
    Ich weiß ganz genau, dass ich gar nichts weiß.

    Für den Inhalt des Beitrages 103049 haftet ausdrücklich der jeweilige Autor: Berichtigung

  • Hallo,

    hier noch etwas ausführliche Angaben.
    Mein RAID5 ist keine Systemdisk, kein OS. Es beinhaltet ausschliesslich user-data!
    Create RAID 5 on NAS; first RAID 5 with 3 disks XX= a,c,d

    Quellcode

    1. parted /dev/sdX mklabel gpt

    für XX= a,c,d

    Quellcode

    1. parted -a optimal -- /dev/sdXX mkpart primary 2048s -8192s

    Quellcode

    1. parted /dev/sdXX set 1 raid on
    Create RAID5 mit 3 Disks

    Quellcode

    1. mdadm --create /dev/md/myRAID5 --level=5 --raid-devices=3 /dev/sdd1 /dev/sdc1 /dev/sda1
    filesystem drauf, vorher noch Chunk Size abfragen.

    Quellcode

    1. mdadm -D /dev/md/myRAID5 | grep "Chunk Size"
    2. mkfs.ext4 -b 4096 -E stride=128,stripe-width=384 /dev/md/myRAID5
    mdadm.conf ablegen:

    Quellcode

    1. mdadm --detail --scan > /etc/mdadm.conf
    Alles klar, df zeigt ~ 6 TB an mit 3 DISKS! Jetzt die Erweiterung auf 4 disks

    Quellcode

    1. mdadm --add /dev/md/myRAID5 /dev/sdb1
    2. mdadm --grow /dev/md/myRAID5 --raid-devices=4
    3. mdadm --detail --scan > /etc/mdadm.conf
    Nicht klar; df zeigt immer noch ~ 6 TB !!

    Quellcode

    1. mdadm --detail /dev/md/myRAID5
    2. /dev/md/myRAID5:
    3. Version : 1.2
    4. Creation Time : Wed Dec 21 16:46:40 2016
    5. Raid Level : raid5
    6. Array Size : 8790377472 (8383.16 GiB 9001.35 GB)
    7. Used Dev Size : 2930125824 (2794.39 GiB 3000.45 GB)
    8. Raid Devices : 4
    9. Total Devices : 4
    10. Persistence : Superblock is persistent
    11. Intent Bitmap : Internal
    12. Update Time : Mon Jan 2 12:04:40 2017
    13. State : clean
    14. Active Devices : 4
    15. Working Devices : 4
    16. Failed Devices : 0
    17. Spare Devices : 0
    18. Layout : left-symmetric
    19. Chunk Size : 512K
    20. Name : wNAS:myRAID5 (local to host wNAS)
    21. UUID : 792e5b7b:b305fcc0:374d7a0f:22a67682
    22. Events : 36581
    23. Number Major Minor RaidDevice State
    24. 0 8 1 0 active sync /dev/sda1
    25. 1 8 33 1 active sync /dev/sdc1
    26. 3 8 49 2 active sync /dev/sdd1
    27. 4 8 17 3 active sync /dev/sdb1
    Alles anzeigen
    Immer noch nicht klar die UUID.


    Quellcode

    1. l /dev/disk/by-uuid/
    2. total 0
    3. drwxr-xr-x 2 root root 140 2. Jan 09:21 ./
    4. drwxr-xr-x 7 root root 140 2. Jan 09:19 ../
    5. lrwxrwxrwx 1 root root 11 2. Jan 09:21 82dac5e5-8d7f-4e8b-8652-8e8f26fb71cd -> ../../md127

    Quellcode

    1. more /etc/mdadm.conf
    2. ARRAY /dev/md/myRAID5 metadata=1.2 name=wNAS:myRAID5 UUID=792e5b7b:b305fcc0:374d7a0f:22a67682
    Danke für jeden Tipp.


    zappa.frank

    Für den Inhalt des Beitrages 103152 haftet ausdrücklich der jeweilige Autor: zappa.frank

  • alles gelöst. Danke für die Unterstützung. Dass habe ich noch durchgeführt. und nun liegt das fs in voller Grösse vor.

    Quellcode

    1. umount /dev/md/myRAID5 # Das Dateisystem aushängen
    2. fsck.ext4 -f /dev/md/myRAID5 # vorsichtshalber mal checken
    3. resize2fs /dev/md/mdRAID # Das Dateisystem erweitern
    4. mount -a # Mount-Informationen lagen ja noch in der fstab
    request ist geschlossen

    zappa.frank

    Für den Inhalt des Beitrages 103822 haftet ausdrücklich der jeweilige Autor: zappa.frank

www.cyberport.de