Opsæt RAID niveau 6 (striping med dobbelt distribueret paritet) i Linux - del 5


RAID 6 er en opgraderet version af RAID 5, hvor den har to distribuerede paritet, som giver fejltolerance, selv efter at to drev fejler. Missionskritisk system er stadig i drift i tilfælde af to samtidige disksfejl. Det er ens RAID 5 , men giver mere robust, fordi det bruger endnu en disk til paritet.

I vores tidligere artikel har vi set distribueret paritet i RAID 5, men i denne artikel vil vi se RAID 6 med dobbeltfordelt paritet. Forvent ikke ekstra ydelse end nogen anden RAID, hvis det er tilfældet, skal vi også installere en dedikeret RAID-controller. Her i RAID 6 , selvom vi mister vores 2 diske, kan vi få dataene tilbage ved at udskifte et ekstra drev og bygge dem fra paritet.

For at opsætte en RAID 6 kræves mindst 4 antal diske eller mere i et sæt. RAID 6 har flere diske, selv i nogle sæt. Det kan være, at der er nogle bundte diske, mens du læser, læses det fra alle drev, så læsning ville være hurtigere, mens skrivning ville være dårlig, fordi den skal stribe over flere diske.

Nu kommer mange af os til den konklusion, hvorfor vi har brug for RAID 6 , når det ikke fungerer som nogen anden RAID. Hmm ... de, der rejser dette spørgsmål, skal vide, at hvis de har brug for høj fejltolerance, vælger RAID 6. I alle højere miljøer med høj tilgængelighed til database, bruger de RAID 6 fordi database er den vigtigste og skal være sikkert for enhver pris, det kan også være nyttigt til videostreamingsmiljøer.

  1. Ydelse er god.
  2. RAID 6 er dyr, da det kræver, at der bruges to uafhængige drev til paritetsfunktioner.
  3. Mister kapacitet på to diske til brug af paritetsoplysninger (dobbelt paritet).
  4. Intet datatab, selv efter at to diske mislykkes. Vi kan genopbygges fra paritet efter udskiftning af den mislykkede disk.
  5. Læsning vil være bedre end RAID 5, fordi den læser fra flere diske, men skriveydelse vil være meget dårlig uden dedikeret RAID-controller.

Minimum 4 antal diske kræves for at oprette en RAID 6. Hvis du vil tilføje flere diske, kan du, men du skal have en dedikeret raid-controller. I RAID-software får vi ikke bedre ydelse i RAID 6. Så vi har brug for en fysisk RAID-controller.

Dem, der er nye med RAID-opsætning, anbefaler vi at gennemgå RAID-artikler nedenfor.

  1. Grundlæggende koncepter for RAID i Linux - Del 1
  2. Oprettelse af software RAID 0 (Stripe) i Linux - del 2
  3. Opsætning af RAID 1 (spejling) i Linux - del 3

Operating System :	CentOS 6.5 Final
IP Address	 :	192.168.0.228
Hostname	 :	rd6.tecmintlocal.com
Disk 1 [20GB]	 :	/dev/sdb
Disk 2 [20GB]	 :	/dev/sdc
Disk 3 [20GB]	 :	/dev/sdd
Disk 4 [20GB]	 : 	/dev/sde

Denne artikel er en del 5 af en 9-tutorial RAID-serie, her skal vi se, hvordan vi kan oprette og opsætte software RAID 6 eller Striping med dobbelt distribueret paritet i Linux-systemer eller servere ved hjælp af fire 20 GB-diske med navnet/dev/sdb,/dev/sdc,/dev/sdd og/dev/sde.

Trin 1: Installation af mdadm-værktøj og undersøg drev

1. Hvis du følger vores sidste to Raid-artikler (del 2 og del 3), hvor vi allerede har vist, hvordan du installerer 'mdadm' -værktøjet. Hvis du er ny med denne artikel, så lad mig forklare, at 'mdadm' er et værktøj til at oprette og administrere Raid i Linux-systemer. Lad os installere værktøjet ved hjælp af følgende kommando i henhold til din Linux-distribution.

# yum install mdadm		[on RedHat systems]
# apt-get install mdadm 	[on Debain systems]

2. Efter installation af værktøjet er det nu tid til at kontrollere de vedhæftede fire drev, som vi skal bruge til raid-oprettelse ved hjælp af følgende 'fdisk' kommando.

# fdisk -l | grep sd

3. Inden du opretter et RAID-drev, skal du altid undersøge vores diskdrev, om der allerede er oprettet RAID på diskene.

# mdadm -E /dev/sd[b-e]
# mdadm --examine /dev/sdb /dev/sdc /dev/sdd /dev/sde

Bemærk: I ovenstående billede vises, at der ikke er opdaget nogen superblok, eller at der ikke er defineret RAID i fire diskdrev. Vi kan gå videre for at begynde at oprette RAID 6.

Trin 2: Drevpartitionering til RAID 6

4. Opret nu partitioner til raid på '/ dev/sdb', '/ dev/sdc', '/ dev/sdd' og '/ dev/sde' ved hjælp af følgende fdisk-kommando. Her vil vi vise, hvordan du opretter partition på SDB-drev og senere samme trin, der skal følges for resten af drevne.

# fdisk /dev/sdb

Følg instruktionerne som vist nedenfor for at oprette partition.

  1. Tryk på 'n' for at oprette en ny partition.
  2. Vælg derefter 'P' til primær partition.
  3. Vælg derefter partitionsnummeret som 1.
  4. Definer standardværdien ved blot at trykke to gange på Enter-tasten.
  5. Tryk derefter på 'P' for at udskrive den definerede partition.
  6. Tryk på 'L' for at liste alle tilgængelige typer.
  7. Skriv ‘t’ for at vælge partitionerne.
  8. Vælg 'fd' til Linux raid auto, og tryk på Enter for at anvende.
  9. Brug derefter igen 'P' til at udskrive de ændringer, vi har foretaget.
  10. Brug ‘w’ til at skrive ændringerne.

# fdisk /dev/sdc
# fdisk /dev/sdd
# fdisk /dev/sde

5. Efter oprettelse af partitioner er det altid god vane at undersøge drevne for superblokke. Hvis der ikke findes superblokke, kan vi gå til at oprette en ny RAID-opsætning.

# mdadm -E /dev/sd[b-e]1


or

# mdadm --examine /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1

Trin 3: Oprettelse af md-enhed (RAID)

6. Nu er det tid til at oprette Raid-enhed 'md0' (dvs./dev/md0) og anvende raid-niveau på alle nyoprettede partitioner og bekræfte raidet ved hjælp af følgende kommandoer.

# mdadm --create /dev/md0 --level=6 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
# cat /proc/mdstat

7. Du kan også kontrollere den aktuelle raidproces ved hjælp af urkommandoen som vist i skærmgrebet nedenfor.

# watch -n1 cat /proc/mdstat

8. Kontroller raid-enhederne ved hjælp af følgende kommando.

# mdadm -E /dev/sd[b-e]1

Bemærk :: Ovenstående kommando viser oplysningerne om de fire diske, som er ret lange, så det er ikke muligt at sende output eller skærmgreb her.

9. Kontroller derefter RAID-arrayet for at bekræfte, at re-synkronisering er startet.

# mdadm --detail /dev/md0

Trin 4: Oprettelse af FileSystem på Raid Device

10. Opret et filsystem ved hjælp af ext4 til ‘/ dev/md0’, og monter det under /mnt/raid6 . Her har vi brugt ext4, men du kan bruge enhver form for filsystem efter eget valg.

# mkfs.ext4 /dev/md0

11. Monter det oprettede filsystem under /mnt/raid6 og kontroller filerne under monteringspunkt, vi kan se tabt + fundet bibliotek.

# mkdir /mnt/raid6
# mount /dev/md0 /mnt/raid6/
# ls -l /mnt/raid6/

12. Opret nogle filer under monteringspunktet, og tilføj noget tekst i en hvilken som helst af filen for at bekræfte indholdet.

# touch /mnt/raid6/raid6_test.txt
# ls -l /mnt/raid6/
# echo "tecmint raid setups" > /mnt/raid6/raid6_test.txt
# cat /mnt/raid6/raid6_test.txt

13. Tilføj en post i /etc/fstab for automatisk at montere enheden ved systemstart, og tilføj nedenstående post, monteringspunktet kan variere alt efter dit miljø.

# vim /etc/fstab

/dev/md0                /mnt/raid6              ext4    defaults        0 0

14. Udfør derefter kommandoen 'mount -a' for at kontrollere, om der er nogen fejl i fstab-indtastningen.

# mount -av

Trin 5: Gem RAID 6-konfiguration

15. Bemærk venligst, at RAID som standard ikke har en konfigurationsfil. Vi er nødt til at gemme det ved manuelt at bruge nedenstående kommando og derefter kontrollere status for enhed '/ dev/md0'.

# mdadm --detail --scan --verbose >> /etc/mdadm.conf
# mdadm --detail /dev/md0

Trin 6: Tilføjelse af et ekstra drev

16. Nu har den 4 diske, og der er to paritetsoplysninger tilgængelige. I nogle tilfælde, hvis nogen af disken fejler, kan vi hente dataene, fordi der er dobbelt paritet i RAID 6.

Det kan være, hvis den anden disk mislykkes, kan vi tilføje en ny, inden vi mister den tredje disk. Det er muligt at tilføje et ekstra drev, mens vi opretter vores RAID-sæt, men jeg har ikke defineret reservedrevet, mens jeg oprettede vores raid-sæt. Men vi kan tilføje et ekstra drev efter drevfejl eller under oprettelse af RAID-sæt. Nu har vi allerede oprettet RAID-sættet, lad mig nu tilføje et ekstra drev til demonstration.

Til demonstrationsformålet har jeg hot-plug en ny HDD-disk (dvs./dev/sdf), lad os kontrollere den vedhæftede disk.

# ls -l /dev/ | grep sd

17. Bekræft nu igen, at den nye vedhæftede disk til enhver raid allerede er konfigureret eller ikke bruger den samme mdadm-kommando.

# mdadm --examine /dev/sdf

Bemærk: Som normalt, ligesom vi har oprettet partitioner til fire diske tidligere, skal vi også oprette ny partition på den nye tilsluttede disk ved hjælp af kommandoen fdisk.

# fdisk /dev/sdf

18. Igen efter at have oprettet en ny partition på/dev/sdf, skal du bekræfte raid på partitionen, inkludere reservedrevet til/dev/md0 raid-enheden og kontrollere den tilføjede enhed.

# mdadm --examine /dev/sdf
# mdadm --examine /dev/sdf1
# mdadm --add /dev/md0 /dev/sdf1
# mdadm --detail /dev/md0

Trin 7: Kontroller Raid 6 Fejltolerance

19. Lad os nu kontrollere, om reservedrevet fungerer automatisk, hvis nogen af disken fejler i vores Array. Til test har jeg personligt markeret, at et af drevet er mislykket.

Her markerer vi /dev/sdd1 som mislykket drev.

# mdadm --manage --fail /dev/md0 /dev/sdd1

20. Lad mig få indstillingen af RAID nu og kontrollere, om vores reserve begyndte at synkronisere.

# mdadm --detail /dev/md0

Hurra! Her kan vi se reserven blev aktiveret og startet genopbygningsprocessen. Nederst kan vi se det defekte drev /dev/sdd1 angivet som defekt. Vi kan overvåge byggeprocessen ved hjælp af følgende kommando.

# cat /proc/mdstat

Konklusion:

Her har vi set, hvordan man opsætter RAID 6 ved hjælp af fire diske. Dette RAID-niveau er en af de dyre opsætninger med høj redundans. Vi vil se, hvordan du opsætter en Nestet RAID 10 og meget mere i de næste artikler. Indtil da skal du forblive forbundet med TECMINT.