(software)raid 5 drama, tips zijn welkom : OPGELOST! en docje toegevoegd

Started by hifiman, July 26, 2011, 09:43:59

Previous topic - Next topic

0 Members and 1 Guest are viewing this topic.

EJ

Hmm, je offert niets op, in tegenstelling tot raid5 (waar je geacht wordt een spare disk te hebben), de spare disk wordt ook gewoon gebruikt, en je mag 2 simultaan failende disks hebben zonder dat er data verloren gaat.

Zenoss is een verademing vergeleken met nagios (en netsaint), de hoeveelheid configwerk verandert naar bijna 0. Tevens is het een cmdb (indien nodig) en een IP admin tool. Echt fantastisch. Ik doe er alle monitoring mee, in een grote omgeving hadden we in een dag de volledige server omgeving zinvol in monitoring zitten. (inclusief de windows server omgeving). Volgens de netwerk groep hadden we whatsup gold moeten gebruiken, daarvoor schatten ze minimaal 3 weken werk voor configuratie in...

Auto-discovery.... :D

hifiman

Ik heb even een documentje gemaakt (zie de pdf bijlage) met daarin de stappen om een raid 5 array icm lvm volumes aan te maken. Wellicht heeft iemand er nog wat aan als voorbeeld  :angel:

hifiman

Quote from: EJ on July 28, 2011, 11:51:21
Hmm, je offert niets op, in tegenstelling tot raid5 (waar je geacht wordt een spare disk te hebben), de spare disk wordt ook gewoon gebruikt, en je mag 2 simultaan failende disks hebben zonder dat er data verloren gaat.
Aangezien ik geen spare disk gebruik gaat dit dus niet op  ;)

Quote from: EJ on July 28, 2011, 11:51:21
Zenoss is een verademing vergeleken met nagios (en netsaint), de hoeveelheid configwerk verandert naar bijna 0. Tevens is het een cmdb (indien nodig) en een IP admin tool. Echt fantastisch. Ik doe er alle monitoring mee, in een grote omgeving hadden we in een dag de volledige server omgeving zinvol in monitoring zitten. (inclusief de windows server omgeving). Volgens de netwerk groep hadden we whatsup gold moeten gebruiken, daarvoor schatten ze minimaal 3 weken werk voor configuratie in...
Auto-discovery.... :D
Ok, ik zal er eens naar kijken! In nagios heb ik destijds (op het werk) heel veel scripts zelf gemaakt om allerlei zaken uit te kunnen lezen die niet middels snmp of andere standaarden uitgelezen konden worden. Neem maar even voor het gemak aan dat die mogelijkheid bij zenoss ook aanwezig is..

hifiman

Voor degenen die het docje hebben gedowload, ik heb er nog even een sectie over het vervangen van een failed disk aan toegevoegd (even opnieuw downloaden dus).

riwi

Quote from: Audioloog on July 28, 2011, 14:15:55
Voor degenen die het docje hebben gedowload, ik heb er nog even een sectie over het vervangen van een failed disk aan toegevoegd (even opnieuw downloaden dus).

Leuk. Dus met mdadm maak je een groot fysieke device, met lvm lv maak je kleinere stukken aan.

Ik gebruik wel lvm, maar niet mdadm. De commando's gaan dan ook wat anders bij mij.

pvcreate /dev/sdb /dev/sdc /dev/sdd /dev/sde
pvdisplay /dev/sdb
vgcreate vg2  /dev/sdb /dev/sdc /dev/sdd /dev/sde
vgdisplay
lvcreate -l 1907728 -i4 -I1024 vg2 -n lv2
lvdisplay
mkfs.ext3 /dev/vg2/lv2 -m 0.1


De lvcreate pakt alle PE uit de vg pool vg2, met 4 stripes met een stripesize van 1024kB en noemt deze lv2. Hier is de Raid 0 dus gemaakt.

Is het wel veilig om de -m 0 te doen? Ik durfde het niet op 0 te zetten en heb wat kleins (0.1) genomen, maar met 8TB volume is dat nog steeds 8GB verlies. Met mijn huidige linux versie zou ik nu voor ext4 gaan trouwens. Dit stamt nog van toen ext3 recommended was en ext4 experimental.

Is er nog voordeel te behalen als ik mijn raid-0 ook met mdadm zou maken ipv binnen lvm zou aanmaken?


root@riwilinux:/home/richard# lvdisplay
 --- Logical volume ---
 LV Name                /dev/vg2/lv2
 VG Name                vg2
 LV UUID                TM6383-1CkC-RPTv-338P-FRxP-ORF4-8V1Wl3
 LV Write Access        read/write
 LV Status              available
 # open                 1
 LV Size                7.28 TiB
 Current LE             1907728
 Segments               1
 Allocation             inherit
 Read ahead sectors     auto
 - currently set to     16384
 Block device           253:0

 --- Logical volume ---
 LV Name                /dev/vg/lv
 VG Name                vg
 LV UUID                5FdJT3-ZVks-Qx02-6SBj-OaLY-f3Bs-3gNmFp
 LV Write Access        read/write
 LV Status              available
 # open                 1
 LV Size                5.46 TiB
 Current LE             1430796
 Segments               1
 Allocation             inherit
 Read ahead sectors     auto
 - currently set to     16384
 Block device           253:1

riwi

Quote from: Audioloog on July 28, 2011, 13:49:46
Aangezien ik geen spare disk gebruik gaat dit dus niet op  ;)

Volgens mij is de 2TB die je niet kan gebruiken toch je 'spare' disk? Dat die ruimte niet precies op 1 fysieke schijf staat maakt niet uit dacht ik.

hifiman

Quote from: riwi on July 28, 2011, 20:28:12
Volgens mij is de 2TB die je niet kan gebruiken toch je 'spare' disk? Dat die ruimte niet precies op 1 fysieke schijf staat maakt niet uit dacht ik.
Er is geen disk die ik niet kan gebruiken, je bent een extra disk kwijt vanwege de over de disken verspreide parity, maar dat betekent niet dat er 1 disk geen functie heeft. Een spare disk daarentegen zit op de bank te wachten tot er een speler geblesseerd raakt en hij het over kan namen  ;) Of bedoel je wellicht wat anders?

Je andere post reageer ik morgen op, teveel gedoe op de ipad ;-)

hifiman

Quote from: riwi on July 28, 2011, 20:20:07
Leuk. Dus met mdadm maak je een groot fysieke device, met lvm lv maak je kleinere stukken aan.
Klopt, 1 logische raid 5 drive gepartitioneerd met lvm. Je kunt uiteraard ook op de normale manier een raid 5 device partitioneren, maar lvm heeft zoals bekend het voordeel dat je de partities nog live kunt resizen achteraf.

Quote from: riwi on July 28, 2011, 20:20:07
Ik gebruik wel lvm, maar niet mdadm. De commando's gaan dan ook wat anders bij mij.
Duidelijk, jij gebruikt lvm juist om grotere parities dan er fysiek mogelijk zou zijn te maken, in mijn geval niet nodig omdat raid 5 dat per definitie al voor me gedaan heeft  ;)

Quote from: riwi on July 28, 2011, 20:20:07
Is het wel veilig om de -m 0 te doen? Ik durfde het niet op 0 te zetten en heb wat kleins (0.1) genomen, maar met 8TB volume is dat nog steeds 8GB verlies. Met mijn huidige linux versie zou ik nu voor ext4 gaan trouwens. Dit stamt nog van toen ext3 recommended was en ext4 experimental.
Daar is helemaal niks mis mee om die waarde op nul te zetten, zolang het maar geen OS gerelateerde partitie is, dan is het niet handig om te doen. Voor alle andere meuk zie ik het probleem niet.

Quote from: riwi on July 28, 2011, 20:20:07
Is er nog voordeel te behalen als ik mijn raid-0 ook met mdadm zou maken ipv binnen lvm zou aanmaken?
Lijkt me niet, als er een disk uitvalt ben in in beide gevallen de sjaak  ;) Of er op andere vlakken verschillen zitten weet ik niet.

Groetjes,

Ronald

EJ

Ik zou verwachten dat mdadm sneller is dan lvm, lager niveau, minder overhead.

Ik gebruik eigenlijk standaard xfs, zeer naar tevredenheid. Al heel lang trouwens. ;)

hifiman

Quote from: EJ on July 29, 2011, 10:56:25
Ik gebruik eigenlijk standaard xfs, zeer naar tevredenheid. Al heel lang trouwens. ;)
En ik eigenlijk altijd reiserfs, dit is voor het eerst dat ik van mijn geloof afstap en ext4 gebruik, tsja ome Hans zit in de bak en reiserfs op een dood spoor.  :sneaky2: