NAS nodig ? Nieuwtjes op CEBIT

Started by ShellBeach, March 8, 2009, 18:04:21

Previous topic - Next topic

0 Members and 1 Guest are viewing this topic.

ShellBeach

S h e l l   B e a c h,  i t' s  j u s t  f o r  f u n

sr7000

En dat voor thuisgebruik ?? Mag ik eerst wel even controleren of m'n fundering sterk genoeg is ;)
Wel een enorm bruut apparaat.

BarcoCRT

Leuk die grote NAS-sen, maar het probleem van het zinvol rebuilden van grote schijven wordt hier ook al aangekaart. Tijd dat RAID een opvolger krijgt om zeer grote volumes redundant en snel rebuildable te maken. Ook de snelheid van uitbreiden van huidige RAID systemen laat te wensen over, dus ik ben benieuwd wat de oplossing voor dit probleem is/wordt. Met name het uitbreiden van RAID sets voor thuisgebruik is erg belangrijk voor 'ons' soort NAS gebruikers. Elk jaar je NAS vervangen of opnieuw opbouwen vanwege ruimtegebrek is ook zonde van de tijd (en geld).
2 * Barco Cine 9 | Da-Lite tab-tensioned 3m | Crystalio II | Meridian 568.2MM | Meridian HD621 | Chord SPM 2000 | Pioneer HLD-X9 | PS3
Pioneer LX5090 | Dune BD Prime 3.0

ShellBeach

#3
Quote from: BarcoCRT on March  8, 2009, 19:49:39
Leuk die grote NAS-sen, maar het probleem van het zinvol rebuilden van grote schijven wordt hier ook al aangekaart. Tijd dat RAID een opvolger krijgt om zeer grote volumes redundant en snel rebuildable te maken. Ook de snelheid van uitbreiden van huidige RAID systemen laat te wensen over, dus ik ben benieuwd wat de oplossing voor dit probleem is/wordt. Met name het uitbreiden van RAID sets voor thuisgebruik is erg belangrijk voor 'ons' soort NAS gebruikers. Elk jaar je NAS vervangen of opnieuw opbouwen vanwege ruimtegebrek is ook zonde van de tijd (en geld).

de oplossing: ZFS
ik ken een bedrijf wat hun volledige SAN erop gebaseerd heeft als product, staan binnenkort op infosecurity (Aserver)
er is enkel nog geen deftige linux port (enkel fuse), license OSS shit issues

TROUWENS: raid 5 wordt eigenlijk afgeraden icm grote schijven (bvb 1T) omdat de kans groter is dat een tweede schijf faalt binnen de rebuild tijd :
http://hardware.slashdot.org/article.pl?sid=08/10/21/2126252

och voor de mensen zonder funds, try this http://rs79.vrx.net/works/photoblog/2005/Sep/15/DSCF0007s.jpg
S h e l l   B e a c h,  i t' s  j u s t  f o r  f u n

sr7000

Quote from: klinktbeter on March  8, 2009, 19:54:10

TROUWENS: raid 5 wordt eigenlijk afgeraden icm grote schijven (bvb 1T) omdat de kans groter is dat een tweede schijf faalt binnen de rebuild tijd :
http://hardware.slashdot.org/article.pl?sid=08/10/21/2126252

Hoewel ik me dit kan voorstellen als de harde schijven permantent gebruikt worden, valt dit voor thuisgebruik wel mee lijkt me. Als je een harde schijf 100% belast: dus constant bezig bent met lezen/schrijven, dan gaat hij ongeveer een jaar mee. Bij server situaties komt het voor dat een harde schijf bijna permanent belast wordt. En dan moet je er inderdaad serieus rekening mee houden, dat al je harde schijven er ongeveer op het zelfde moment mee ophouden.
Bij een nas voor thuisgebruik heb je hier nauwelijks last van. Dan belast je de schijven hooguit een paar procent van de tijd. Oftewel dan is je levensverwachting van je harde schijf vele jaren. En dus zul je hem in de praktijk al vervangen hebben voor hij is versleten. En mocht er eens een bij toeval kapot gaan, dan is raid 5 voorlopig voldoende bescherming voor thuisgebruik lijkt me.

BarcoCRT

2 * Barco Cine 9 | Da-Lite tab-tensioned 3m | Crystalio II | Meridian 568.2MM | Meridian HD621 | Chord SPM 2000 | Pioneer HLD-X9 | PS3
Pioneer LX5090 | Dune BD Prime 3.0

jantje112

Alleen al het idee dat van de 180 schijven er 100 aan redundancy verloren gaan :(

Ik zie het al voor me "honey I'm home" oftewel, de ultieme WAF test..

donaldk

Quote from: BarcoCRT on March  8, 2009, 21:13:10
Zoiets dan:
Low-power DIY nas met ZFS


Hier het hele verhaal: http://blogs.sun.com/mebius/entry/diy_home_nas_box_with2

Performance is niet hoog, zelfs niet met een zraid van 7200 rpm schijven, komt dat door het filesysteem?

Nogal veel problemen met dondersteuning van bestaande en recente legacy onderdelen, met opensolaris, dat is niet erg bemoedigend.

Wist niet dat er ook dualcore atoms waren, weer wat geleerd.

ShellBeach

Quote from: donaldk on March  8, 2009, 23:19:59
Performance is niet hoog, zelfs niet met een zraid van 7200 rpm schijven, komt dat door het filesysteem?

Nogal veel problemen met dondersteuning van bestaande en recente legacy onderdelen, met opensolaris, dat is niet erg bemoedigend.

Wist niet dat er ook dualcore atoms waren, weer wat geleerd.

ik ken geen enkele NAS die met smb/cifs meer doet dan wat ze in deze blog halen
zelfs de kant en klare NAS voor consumers doen niet echt beter
S h e l l   B e a c h,  i t' s  j u s t  f o r  f u n

donaldk

Ook die 50 MByte van de 7200 toeren schijven is lager in een raid dan de snelheid van de meeste recente schijven op zich. Het komt dus doordat het over een netwerk gaat met conversie en protocollen en overgangen tussen merdere hardware onderdelen?

ShellBeach

#10
Quote from: donaldk on March  8, 2009, 23:38:09
Ook die 50 MByte van de 7200 toeren schijven is lager in een raid dan de snelheid van de meeste recente schijven op zich. Het komt dus doordat het over een netwerk gaat met conversie en protocollen en overgangen tussen merdere hardware onderdelen?

ik heb 320G maxtor & seagate schijven van +- 3 jaar oude gisteren nog getimed, als ik de volledige disk overschrijf dan haal ik gemiddeld 60 mbyte/sec, leessnelheid iets hoger tss 60 a 70Mbyte/sec

als netbios/samba/cifs/smb ertussen moet dan zie je daar nog max 36Mbyte/sec piek van terug (rond de 32 Mbyte/s continue na zware tuning)
dus of daar nu raid of zfs tussen zit, uiteindelijk moet je stack die 36 Mbyte/sec halen meer is enkel leuk voor lokale benchmarks

de volle gigabit die haal je nooit ..... tenzij we andere protocollen gebruiken

S h e l l   B e a c h,  i t' s  j u s t  f o r  f u n

donaldk

De schijven/array bepaald hier niet de prestatie, maar de networking/fileserver protocollen. Snelle conclusie na even scannen van wikipedia entry over smb.

DJ-Foxx

Quote from: klinktbeter on March  8, 2009, 23:49:04
ik heb 320G maxtor & seagate schijven van +- 3 jaar oude gisteren nog getimed, als ik de volledige disk overschrijf dan haal ik gemiddeld 60 mbyte/sec, leessnelheid iets hoger tss 60 a 70Mbyte/sec

als netbios/samba/cifs/smb ertussen moet dan zie je daar nog max 36Mbyte/sec piek van terug (rond de 32 Mbyte/s continue na zware tuning)
dus of daar nu raid of zfs tussen zit, uiteindelijk moet je stack die 36 Mbyte/sec halen meer is enkel leuk voor lokale benchmarks

de volle gigabit die haal je nooit ..... tenzij we andere protocollen gebruiken



volproppen met SSD ;)

ShellBeach

S h e l l   B e a c h,  i t' s  j u s t  f o r  f u n

donaldk


DJ-Foxx

#15

garmtz

Ik gooi af en toe wat verpulverde speed in mijn NAS, gaat 'ie weer als de bliksem... ;D

DJ-Foxx

Quote from: garmtz on March  9, 2009, 21:27:31
Ik gooi af en toe wat verpulverde speed in mijn NAS, gaat 'ie weer als de bliksem... ;D

dat bedoel ik, dat werkt altijd! mwuhaha... :devil:

hifiman

Ik ga waarschijnlijk binnenkort eens met freebsd/zfs aan de slag. Ik wil namelijk de volgende 3 zaken tegelijkertijd:
- meer opslagruimte
- redundancy (draai nu met JBOD zonder raid of wat dan ook)
- zelfde machine moet tevens bruikbaar blijven als squeezeboxserver/mailserver/spam filter/imap server/webserver/nfs server/cifs server/enz.. enz...

Freebsd lijkt me dan een mooie keuze ivm volledige native ZFS ondersteuning.  :headbanging:



mansm

wat heel veel kan uitmaken met je doorvoer snelheden over netwerk. Steek er eens een echte server netwerkkaart in

die realtek gevallen trekken behoorlijk wat van je CPU.

Als raid5 niet betrouwbaar genoeg is, doe je toch raid 6, kunnen er 2 disken uitvallen voordat je in de shit zit.

EJ

Quote from: mansm on April 21, 2011, 11:20:44
wat heel veel kan uitmaken met je doorvoer snelheden over netwerk. Steek er eens een echte server netwerkkaart in

die realtek gevallen trekken behoorlijk wat van je CPU.
Ach wel nee, je cpu heeft toch niets te doen in een nas. 0copy werkt prima, de tijd dat de realteks veel slechtere performance hadden dan 'echte' netwerkkaarten ligt al weer een tijdje achter ons. Mijn server draait keurig tegen de gigabit aan, en dan draaien er nog een stuk of 5 virtual machines op.

root@pvr:~# lspci
00:06.0 Ethernet controller: nVidia Corporation MCP65 Ethernet (rev a3)
01:08.0 Ethernet controller: Realtek Semiconductor Co., Ltd. RTL-8169 Gigabit Ethernet (rev 10)


Quote
Als raid5 niet betrouwbaar genoeg is, doe je toch raid 6, kunnen er 2 disken uitvallen voordat je in de shit zit.
Raid 6 is niet 'betrouwbaarder' dan raid 5. Het is anders. Normaal heb je in raid 5 een spare disk, en ben je alleen kwetsbaar tijdens de rebuild. Heb de situatie gehad dat 4 disken tegelijk kapot gingen, dan ben je volkomen machteloos.

@audioloog: weet je wel zeker dat je met zfs wilt gaan werken? Opensolaris is dood, solaris closed (en dood). Oracle op het oorlogspad van de patenten...

hifiman

#21
Quote from: EJ on April 21, 2011, 12:20:22
@audioloog: weet je wel zeker dat je met zfs wilt gaan werken? Opensolaris is dood, solaris closed (en dood). Oracle op het oorlogspad van de patenten...
Er is toch een open source fork van opensolaris? Tsja freebsd 8.x ondersteund net een beetje behoorlijk zfs en ik zit er inderdaad niet op te wachten dat de ZFS ondersteuning er een paar versies later weer uitgesloopt zou worden. Lastig, lastig..

Misschien toch maar raid5/lvm onder linux dan  :-\

hifiman

Misschien is de toekomst toch zonniger dan het lijkt:

And this is what Pawel said on the mailinglists, when announcing his new experimental ZFS v28 patchset:

This patchset is also a message we, as the FreeBSD project, would like to send to our users: Eventhough OpenSolaris is dead, the ZFS file system is going to stay in FreeBSD.
At this point we have quite a few developers involved in ZFS on FreeBSD as well as serveral companies.
We are also looking forward to work with IllumOS.

mansm

Quote from: EJ on April 21, 2011, 12:20:22
Ach wel nee, je cpu heeft toch niets te doen in een nas. 0copy werkt prima, de tijd dat de realteks veel slechtere performance hadden dan 'echte' netwerkkaarten ligt al weer een tijdje achter ons. Mijn server draait keurig tegen de gigabit aan, en dan draaien er nog een stuk of 5 virtual machines op.

root@pvr:~# lspci
00:06.0 Ethernet controller: nVidia Corporation MCP65 Ethernet (rev a3)
01:08.0 Ethernet controller: Realtek Semiconductor Co., Ltd. RTL-8169 Gigabit Ethernet (rev 10)

Raid 6 is niet 'betrouwbaarder' dan raid 5. Het is anders. Normaal heb je in raid 5 een spare disk, en ben je alleen kwetsbaar tijdens de rebuild. Heb de situatie gehad dat 4 disken tegelijk kapot gingen, dan ben je volkomen machteloos.

@audioloog: weet je wel zeker dat je met zfs wilt gaan werken? Opensolaris is dood, solaris closed (en dood). Oracle op het oorlogspad van de patenten...


weet niet, maar de meeste raid5 systemen hebben toch zeer zeker geen hotspare er in zitten....
tja als je een failure hebt met 4 disken hebt.... hopen dat je backups hebt!

ach ja 5 vm's.... wat zegt dat.... nog niks... als ze alle 5 uit een hun neus staan te eten is er nog geen load.

EJ

Quote from: mansm on April 21, 2011, 13:37:33
weet niet, maar de meeste raid5 systemen hebben toch zeer zeker geen hotspare er in zitten....
tja als je een failure hebt met 4 disken hebt.... hopen dat je backups hebt!

ach ja 5 vm's.... wat zegt dat.... nog niks... als ze alle 5 uit een hun neus staan te eten is er nog geen load.


Ik weet niet waar jij naar raid 5 systemen kijkt, degene die ik ken hebben allemaal een spare disk. En dat zijn er best wel veel, raid 5 systemen die ik zie. Geef zelf overigens de voorkeur aan raid 6, maar niet vanwege betrouwbaarheid.

ej@pvr:~$ w
14:49:38 up 24 days, 20:06,  2 users,  load average: 0.49, 0.49, 0.41

top - 14:51:47 up 24 days, 20:08,  2 users,  load average: 0.37, 0.44, 0.39
Tasks: 331 total,   4 running, 327 sleeping,   0 stopped,   0 zombie
Cpu0  :  1.3%us,  7.6%sy,  7.9%ni, 82.8%id,  0.0%wa,  0.0%hi,  0.3%si,  0.0%st
Cpu1  :  2.3%us, 26.4%sy, 32.7%ni, 38.6%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st
Mem:   8196492k total,  8124808k used,    71684k free,   301492k buffers
Swap: 21036924k total,   529388k used, 20507536k free,  1946964k cached

Nee, dus, staan niet uit hun neus te eten.

Maar je verhaal over realteks is dus zwaar achterhaald en zwaar overtrokken. Zeker voor een thuisnas.