RAID based storage oplossingen

Started by Robert T, July 28, 2012, 23:34:34

Previous topic - Next topic

0 Members and 1 Guest are viewing this topic.

Robert T

Laat ik even voorop stellen dat het mij geen moer uitmaakt wat iedereen doet. Dit topic gaat over storage en tot op heden heb ik alleen software oplossingen en dan met name unraid gevonden op het forum. Wellicht kies ik uiteindelijk ook voor unraid of een ander software product als m'n NAS dit jaar vol is - geen idee.

Dit topic gaat in op "redundant" storage oplossingen en HW raid is een realistische optie. Als je bijvoorbeeld op tweakers rondkijkt zitten de grootste NAS oplossingen veelal op een HW raid kaart - dat zal ook niet zonder reden zijn... al moet ook daar ieder het voor zich weten.

SW raid is voor performance thuis prima - maar dat is niet het enige wat telt natuurijk. Gebruiksgemak, uitbreidbaarheid, stabiliteit etc telt allemaal mee. Wat dat betreft scoort een Areca kaart ook punten bij mij.

EJ: Waar doel je op met adaptec? Hoe is dat een slechte oplossing? (ik ben niet bekend met die kaarten...)

Bart: is zo'n Norco kast een beetje stil te krijgen????


Sony VW95 / Screenint Tab tensioned 110" electrisch scherm / Marantz MM8802a / Parasound HALO A51 / Speakers: MA PL200/PLC150/PL100/SVS SB13 Ultra / Bronnen: Denon HEOS / UD5005 / Dune D1 / PS3

bart_nl

Quote from: Robert T on July 31, 2012, 01:15:57is zo'n Norco kast een beetje stil te krijgen????
De kast zelf is natuurlijk stil  ;D 
Bij mij staat de kast op zolder dus in feite maakt geluid mij niet zo veel uit. We wonen in een huis met houten vloeren en de Norco maakte standaard zo veel herrie dat het een verdieping lager op een slaapkamer nog storend was. De geïnstalleerde 6 ventilatoren die Norco standaard mee levert maken op 12V dus wel heel veel herrie.
Ik heb zelf 4 van die ventilatoren (die zitten in een frame tussen mobo en de schijven) vervangen door 3x stille 120mm ventilatoren waarvoor je bij Norco voor €15 ook een aangepast frame kunt kopen. Volgens mij doen heel veel mensen voor thuisgebruik deze aanpassing. De beide uitlaat ventilatoren achterin de kast heb ik wat terug geregeld met een zalman fanmate. Daarmee is de Norco een stuk stiller. In mijn situatie vind ik goede koeling belangrijker dan stilte en dat doet de Norco wel goed.
Uiteindelijk bepaald de hoeveelheid warmte die je in een kast genereert hoeveel je moet koelen en hoe hard de ventilatoren moeten draaien. De Norco lijkt mij qua ontwerp goed om de schijven effectief te koelen. In een filserver zou je normaal gesproken ook met een niet te veel warmte producerende CPU toe moeten kunnen. Ideaal gezien zou je geluidstechnisch een moederbord moeten installeren waarop je PWM fans kunt aansluiten. Volgens mij zijn de ventilatoren in de kast dan wel fluisterstil te krijgen.

dennism

Ik denk dat HWraid vs Software raid uiteindelijk een keuze is met het kosten plaatje v.s. gebruiksgemak in het achterhoofd. Iedereen heeft natuurlijk een bepaalde max te besteden, en bij de een zal het stoppen bij een 4 bay Nas qua betaalbaarheid, terwijl de ander misschien wel een 60TB Array neer kan zetten en nog geld overheeft.

Hardware raid kaart voor rond de 24 disk +- 1000 euro + Windows Server licentie als je voor gebruikers gemak gaat is een redelijke kosten post, daar staat natuurlijk tegenover dat voor de gemiddelde gebruiker qua kennis dit makkelijker te behappen is dan geavanceerde zaken op de Linux cli.

Ik denk echter dat vooral door deze kosten veel mensen Syno's / Qnap's / Unraid machines e.d. als serieus alternatief zien. Als je namelijk geen geavanceerde zaken nodig hebt is vaak de webinterface voldoende en deze zijn vaak ook zeer gebruiksvriendelijk wanneer je wat minder inhoudelijke kennis hebt. Tevens ook uitermate geschikt om langzaam kennis op te bouwen daar de basis allemaal via de webinterface kan, maar de CLI altijd beschikbaar is om er dieper in te duiken mocht je dit willen.

Dan heb je verder natuurlijk nog de ZFS/Freenas enz enz. zelfbouw machines, waar ZFS momenteel misschien wel het veiligste filesystem is beschikbaar voor consumenten gezien de geavanceerde checksums en de mogelijkheden met snapshots e.d. Echter dit is vaak wel wat voor de gevordere gebruikers daar je vooral bij ZFS een goed plan moet hebben hoe je het systeem gaat opbouwen qua storage pool, raidsets binnen de pool, wel of geen Zil cache, L2ARC cache alsmede eventuele uitbreidingen achteraf, bij ZFS kan je namelijk niet zomaar een drive bijsteken, je moet of een nieuwe set aanmaken, of alle drives binnen een set vervangen en dan nog wat configs aanpassen om de array daadwerkelijk te extenden.

Een verdere optie qua voor gebruiks gemak zonder dure raid kaarten is mogelijk de storage spaces welke komen met Windows 2012 Server. Momenteel in de RC zijn deze met de Mirror functionaliteit goed te gebruiken met snelheden rond de 100MB's. Ik heb zelf ook de Parity opties even getest, maar deze vallen qua snelheid nog wat tegen qua write snelheiden, 20-40MB's gemiddeld bij het vullen van een share. Moet wel zeggen dat dit op een Virtuele machine was, met maar 1 Core en 1GB ram en virtuele schijven, dus met betere hardware valt hier vast nog wel wat te halen en het is natuurlijk nog een release candidate, mogelijk bevat de uiteindelijke versie ook nog optimalisaties. Wat ik wel vond van dit systeem is dat het zeer gebruiksvriendelijk is, en zeer flexibel. Verschillende formaten drives is een pool is geen probleem, drives bij steken gaat zeer makkelijk en het beheer is natuurlijk wat je al kent van Windows. Deze functionaliteit zal ook in Windows 2012 Essentials zitten, een versie van 2012 Server die MS in de markt zal zetten voor thuis servers en ter vervanging van SBS Essentials waardoor je met een voor windows server begrippen redelijk goedkope licentie weg komt.   

Ik ben zelf IT'er dus heb wat minder moeite met geavanceerde zaken op de commandline maar ik kan me zeer zeker voorstellen dat dit voor veel gebruikers, zeker op een forum als dit waar natuurlijk wel raakvlakken zijn met automatiseren maar dit vaak niet het hoofddoel is van de meeste gebruikers, dit geen gemeengoed is. Vandaar dat imho iedereen gewoon een oplossing moet kiezen waar hij/zij zich prettig bij voelt en nog controle over het systeem heeft, in plaats van dat het systeem de gebruiker compleet onderdompelt in opties en commando's waarvan de gebruiker niet weet waarvoor het is, en wat het doet met alle mogelijke gevolgen voor de opgeslagen data.

EJ

Adaptec was populair vooral onder scsi gebruikers, zowel professioneel als amateurs. Bagger spul. Een van de allergrootste producenten van raid kaarten, maatje groter dan areca.

De grootste raidsystemen momenteel beschikbaar zijn software raid. ;) Backblaze. http://blog.backblaze.com/2009/09/01/petabytes-on-a-budget-how-to-build-cheap-cloud-storage/


Robert T

EJ - behalve dat het bagger was (dat kan ik overigens niet beoordelen) maar wat is er NU mis mee? Heb je ervaring met de adaptec kaarten?

En ja - die BB pod ken ik idd en is idd een SW oplossing maar goed, kijk ook eens op tweakers naar de storage topics. het is redelijk verdeeld allemaal.
Sony VW95 / Screenint Tab tensioned 110" electrisch scherm / Marantz MM8802a / Parasound HALO A51 / Speakers: MA PL200/PLC150/PL100/SVS SB13 Ultra / Bronnen: Denon HEOS / UD5005 / Dune D1 / PS3

bart_nl

Quote from: EJ on July 31, 2012, 19:33:29De grootste raidsystemen momenteel beschikbaar zijn software raid. ;) Backblaze. http://blog.backblaze.com/2009/09/01/petabytes-on-a-budget-how-to-build-cheap-cloud-storage/
Met een paar extenders zit je met hardware raid ook zo op dergelijke aantallen. Mijn Areca doet al meer dan de 45 disks in een pod. Backblaze is veruit de minst dure maar ik geloof niet dat ze daadwerkelijk grotere systemen kunnen leveren dan de concurrenten. Daarbij is de bandbreedte van een setup met sata port multipliers ook niet vergelijkbaar met extenders.
Begin nu eigenlijk wel te twijfelen aan je ervaring met en kennis van dit soort systemen  :P

jaco

Ja in theory is een paar extenders makkelijk, maar kijk eens wat dat kost met behuizing en kabels.

'Goedkope' oplossing: http://www.servethehome.com/sas-expanders-diy-cheap-low-cost-jbod-enclosures-raid/
Dat is ook al meer dan 750 voor 22 drives (zonder de drives uiteraard)

De bandbreedte is dan toch ook maar matig ?
Is het niet gewoon een infiniband signaal, wat eigenlijk 4 x sata 150 is qua bandbreedte ?

9.1.6 setup  Marantz AV10, Genelec G4 x9 voor base layer. Genelec G3 x6  voor hoogte kanalen. Genelec hts-4 subwoofer. VPL-XW5000ES. Screen Excelence enlightor 4k scherm

jaco

Quote from: dennism on July 31, 2012, 15:13:24
Een verdere optie qua voor gebruiks gemak zonder dure raid kaarten is mogelijk de storage spaces welke komen met Windows 2012 Server. Momenteel in de RC zijn deze met de Mirror functionaliteit goed te gebruiken met snelheden rond de 100MB's. Ik heb zelf ook de Parity opties even getest, maar deze vallen qua snelheid nog wat tegen qua write snelheiden, 20-40MB's gemiddeld bij het vullen van een share. Moet wel zeggen dat dit op een Virtuele machine was, met maar 1 Core en 1GB ram en virtuele schijven, dus met betere hardware valt hier vast nog wel wat te halen en het is natuurlijk nog een release candidate, mogelijk bevat de uiteindelijke versie ook nog optimalisaties. Wat ik wel vond van dit systeem is dat het zeer gebruiksvriendelijk is, en zeer flexibel. Verschillende formaten drives is een pool is geen probleem, drives bij steken gaat zeer makkelijk en het beheer is natuurlijk wat je al kent van Windows. Deze functionaliteit zal ook in Windows 2012 Essentials zitten, een versie van 2012 Server die MS in de markt zal zetten voor thuis servers en ter vervanging van SBS Essentials waardoor je met een voor windows server begrippen redelijk goedkope licentie weg komt.   
Hmm: https://www.microsoft.com/en-us/server-cloud/windows-server/2012-editions.aspx
Dat is Standard $882
en Essentials $425
9.1.6 setup  Marantz AV10, Genelec G4 x9 voor base layer. Genelec G3 x6  voor hoogte kanalen. Genelec hts-4 subwoofer. VPL-XW5000ES. Screen Excelence enlightor 4k scherm

EJ

Quote from: bart_nl on August  1, 2012, 01:31:54
Met een paar extenders zit je met hardware raid ook zo op dergelijke aantallen. Mijn Areca doet al meer dan de 45 disks in een pod. Backblaze is veruit de minst dure maar ik geloof niet dat ze daadwerkelijk grotere systemen kunnen leveren dan de concurrenten. Daarbij is de bandbreedte van een setup met sata port multipliers ook niet vergelijkbaar met extenders.
Begin nu eigenlijk wel te twijfelen aan je ervaring met en kennis van dit soort systemen  :P

Ach, dat is jouw probleem, niet het mijne. :D

De grootste raid systemen leveren petabytes. Zo heel veel systemen staan daarvan niet in Nederland, en ik ken er wel een paar (als in heb daar toegang toe of gehad op root niveau (EMC, HP, IBM, etc). Natuurlijk zijn die systemen groter dan die van backblaze, maar backblaze 1) doet het met software raid en 2) heeft een enorme dichtheid.

San en nas systemen zie je zelden op windows (vanwege licentiekosten?), meestal op linux of eigen browsel.

En nee, geen recente ervaring met Adaptec, die wil ik niet meer vanwege het gesloten karakter van het bedrijf. 1x je neus stoten is genoeg. En nee, dat is niet op alleen mijn ervaring gebaseerd en nee, dat is niet op 1 ervaring gebaseerd.

jaco

#34
Ik kom voor mijn werk in datacenters van banken. De EMC oplossingen die daar al jaren terug stonden (SAN) wil je niet eens thuis. Dat is gewoon een kast van 2 m3 die vol zit met hdd's en waar een batterij fan's lucht doorheen blaast. Geen gesprek mogelijk binnen 10 meter van die unit.

Laatst in een testlab nog een setup gezien met allemaal SSD drives, was een Oracle/Sun oplossing volgens mij. Niet eens zo veel opslag, maar ik denk wel erg snel.. Dat zit dan met meerdere fibers aan een SAN switch wat dan 2, 4 of 8 GE verbindingen per stuk kunnen zijn.

Dit soort oplossingen kosten heel veel geld, en zijn niet voor thuis situaties.

De grootste prive setup die ik ken is van iemand die > 100 TB heeft.
Dat zijn allemaal (3) Norco 24 disk 19" units. Een moederbord met PCI-E 8 x sloten en 3x Supermicro 8 poort SAS/SATA kaarten voor de HDD's  (1 en 2 TB disks volgens mij)
Die draait windows XP/7 met snapraid als ik het goed onthouden heb.
9.1.6 setup  Marantz AV10, Genelec G4 x9 voor base layer. Genelec G3 x6  voor hoogte kanalen. Genelec hts-4 subwoofer. VPL-XW5000ES. Screen Excelence enlightor 4k scherm

bart_nl

Quote from: jaco on August  1, 2012, 06:46:32
Ja in theory is een paar extenders makkelijk, maar kijk eens wat dat kost met behuizing en kabels.

'Goedkope' oplossing: http://www.servethehome.com/sas-expanders-diy-cheap-low-cost-jbod-enclosures-raid/
Dat is ook al meer dan 750 voor 22 drives (zonder de drives uiteraard)

De bandbreedte is dan toch ook maar matig ?
Is het niet gewoon een infiniband signaal, wat eigenlijk 4 x sata 150 is qua bandbreedte ?
dat met die HP SAS expander is toch een prima oplossing? Stel dat je echt 24 schijven wilt dan is er qua behuizing en harde schijven volgens mij niet zo veel verschil. Zo'n HP SAS expander kaart koop je voor €300 en dat ga je met SATA port multipliers voor 24 disks niet veel goedkoper redden. Voordeel an zo'n HP SAS expander is dat het volgens mij makkelijk in elkaar te zetten is.
Bandbreedte is inderdaad ook beperkt maar ik denk dat het voor die HP expander 4x sata600 is? Zit je met 24 disks op ongeveer 100MB/s en dan is het normaliter geen beperking. Stel dat het 4x sata150 is zit je op 25MB/s per disk en dat zou je piek kunnen beperken. Zolang je het over NAS voor thuisgebruik hebt zal dat niet het probleem zijn. Dat kan trouwens ook ook best gelden voor de Backblaze oplossing.
 

Robert T

Tijd voor wat nieuw leven hier.. Unraid heb ik voorlopig even helemaal laten vallen en ben nu maar even naar ZFS aan het kijken en het vergelijk maken met HW raid oplossing middels een areca kaart.

Probleem met HW en ook SW raid is dat je niet beschermd bent tegen data integrity problemen. Dingen zoals bit rot, silent corruption is nog steeds een probleem voor Raid oplossingen. ZFS is het enige file en raid systeem wat selfhealing is en data integrity garandeerd. Downside is dat het geen vendor support heeft en gezien de solaris basis - moeilijker te bedienen is (ja, ik heb het geprobeerd)

Nu ik duidelijk heb dat dit toch wel een realiteit is voor een grote (20/30/40TB) array vraag ik me af in hoeverre ik me hier druk over moet maken? Ik sla voornamelijke blu-rays, muziekfiles e.d. op dus stel dat er data corrupt raakt zonder dat een raid controller het merkt... wat dan? Volgens mij ga ik dit in mijn geval niet merken... anders dan bijv medische of financial info.

Voor de kritische data laat ik denk ik m'n gewone NAS staan - is ook wel zo makkelijk met data overzetten.

Sony VW95 / Screenint Tab tensioned 110" electrisch scherm / Marantz MM8802a / Parasound HALO A51 / Speakers: MA PL200/PLC150/PL100/SVS SB13 Ultra / Bronnen: Denon HEOS / UD5005 / Dune D1 / PS3

skank1

Ga je bij zfs niet missen dat je een hdd gewoon kunt adden? Bij zfs kan je wel een nieuwe Vdev maken maar je kunt ze niet uitbreiden... Als je plaats tekort hebt
HT stijnopolis: Epson TW9300, Marantz sr7010, Custom 21:9 widescreen, Vero 4K, Fronts: Focal 826V, Center: Focal CC800V, Surrounds: Focal SR700 SurroundBacks: Focal 807V + Norstone stylum 2 stands.., Dual sub: SVS PC12SND-DSP/SVS Pb12+
Woonkamer setup: LG 4K Oled Tv 55C7V, Shield TV, Orange TV , JBL Bar 9.1
Gaming: : PS5, PS4, Nintendo Switch, Wii

dennism

Quote from: Robert T on September 10, 2012, 17:04:39
Tijd voor wat nieuw leven hier.. Unraid heb ik voorlopig even helemaal laten vallen en ben nu maar even naar ZFS aan het kijken en het vergelijk maken met HW raid oplossing middels een areca kaart.

Probleem met HW en ook SW raid is dat je niet beschermd bent tegen data integrity problemen. Dingen zoals bit rot, silent corruption is nog steeds een probleem voor Raid oplossingen. ZFS is het enige file en raid systeem wat selfhealing is en data integrity garandeerd. Downside is dat het geen vendor support heeft en gezien de solaris basis - moeilijker te bedienen is (ja, ik heb het geprobeerd)

Nu ik duidelijk heb dat dit toch wel een realiteit is voor een grote (20/30/40TB) array vraag ik me af in hoeverre ik me hier druk over moet maken? Ik sla voornamelijke blu-rays, muziekfiles e.d. op dus stel dat er data corrupt raakt zonder dat een raid controller het merkt... wat dan? Volgens mij ga ik dit in mijn geval niet merken... anders dan bijv medische of financial info.

Voor de kritische data laat ik denk ik m'n gewone NAS staan - is ook wel zo makkelijk met data overzetten.

ZFS is een mooi systeem mits goed ingericht. Nadeel is inderdaad wel wat Skank zegt dat je niet zomaar disks kan bijplaatsen, je moet dan een compleet nieuwe Vdev plaatsen met het minimum aantal disks, of net als Raid uitbreiden door alle drivers 1 voor 1 te vervangen en te rebuilden. Bit rot e.d. zul je denk ik niet super snel tegenaan lopen wanneer je moderne hardware gebruikt, dit lijkt voornamelijk voor te komen wanneer hardware ouder wordt (slijtage). Het is echter natuurlijk niet uit  te sluiten dat bij moderne apparatuur het kan gebeuren. Bij niet kritische data hoefg je, je hier natuurlijk niet druk om te maken, anders zou het wel kritische data zijn. Van alle wel kritische data heb je uiteraard een validated backup ;)

ZFS is ook nogal hardware hongerig qua performance. Wanneer je echt een snelle bak wil zit je al snel aan minimaal 1GB ram per 1TB opslag (Deduplicatie en Caching, meer dan 1GB pet TB kan de prestaties nog verder vergroten), een SSD voor je ZIL (vaak wordt hier een duurdere SSD versie aangeraden, met een supercap tegen stroom uitval en SLC chips, hoeft geen grote capaciteit te zijn) en een 2de SSD voor je L2ARC (zo groot mogelijk, maar mag een normale SSD zijn).

Voordeel is wel dat je met ZFS wel zo'n beetje het veiligste systeem tegen iedere vorm van datacorruptie hebt (hardware falen daargelaten natuurlijk), daar tegenover staat dat enige kennis/goed inlezen wel een vereiste is.

Robert T

Idd - dat is wel een drawback maar ik was van plan in 1x m'n disks te kopen en een "be done with it" aanpak te hanteren.... goed punt maar in mijn geval maakt het niet uit, kan me goed voorstellen dat meer mensen hier moeite mee hebben.

Quote from: skank1 on September 10, 2012, 17:30:05
Ga je bij zfs niet missen dat je een hdd gewoon kunt adden? Bij zfs kan je wel een nieuwe Vdev maken maar je kunt ze niet uitbreiden... Als je plaats tekort hebt
Sony VW95 / Screenint Tab tensioned 110" electrisch scherm / Marantz MM8802a / Parasound HALO A51 / Speakers: MA PL200/PLC150/PL100/SVS SB13 Ultra / Bronnen: Denon HEOS / UD5005 / Dune D1 / PS3

Robert T

Quote from: dennism on September 10, 2012, 17:53:53
ZFS is een mooi systeem mits goed ingericht. Nadeel is inderdaad wel wat Skank zegt dat je niet zomaar disks kan bijplaatsen, je moet dan een compleet nieuwe Vdev plaatsen met het minimum aantal disks, of net als Raid uitbreiden door alle drivers 1 voor 1 te vervangen en te rebuilden. Bit rot e.d. zul je denk ik niet super snel tegenaan lopen wanneer je moderne hardware gebruikt, dit lijkt voornamelijk voor te komen wanneer hardware ouder wordt (slijtage). Het is echter natuurlijk niet uit  te sluiten dat bij moderne apparatuur het kan gebeuren. Bij niet kritische data hoefg je, je hier natuurlijk niet druk om te maken, anders zou het wel kritische data zijn. Van alle wel kritische data heb je uiteraard een validated backup ;)

ZFS is ook nogal hardware hongerig qua performance. Wanneer je echt een snelle bak wil zit je al snel aan minimaal 1GB ram per 1TB opslag (Deduplicatie en Caching, meer dan 1GB pet TB kan de prestaties nog verder vergroten), een SSD voor je ZIL (vaak wordt hier een duurdere SSD versie aangeraden, met een supercap tegen stroom uitval en SLC chips, hoeft geen grote capaciteit te zijn) en een 2de SSD voor je L2ARC (zo groot mogelijk, maar mag een normale SSD zijn).

Voordeel is wel dat je met ZFS wel zo'n beetje het veiligste systeem tegen iedere vorm van datacorruptie hebt (hardware falen daargelaten natuurlijk), daar tegenover staat dat enige kennis/goed inlezen wel een vereiste is.

Helemaal mee eens, wat betreft de HW specs voor ZFS is voor een beetje performance niet zo'n probleem, zeker als ik het afzet tegen een HW raid controller van 500-1000EUR (in het geval van Areca waar ik persoonlijk voor zou kiezen)

Heb je nog bepaalde schijven in gedachte Dennis (of een ander...)? WD RED vs Hitachi bijv?
Sony VW95 / Screenint Tab tensioned 110" electrisch scherm / Marantz MM8802a / Parasound HALO A51 / Speakers: MA PL200/PLC150/PL100/SVS SB13 Ultra / Bronnen: Denon HEOS / UD5005 / Dune D1 / PS3

riwi

Het nieuwe filesysteem op linux btrfs brengt veel van de wensen die er zijn voor een grote NAS toepassing. Uitbreidbaar, raid, data dedup, alleen de stabiliteit is nog niet goed genoeg om het toe te passen momenteel. Dus nog een jaartje (of meer) geduld daarvoor.

dennism

Quote from: riwi on September 10, 2012, 20:44:43
Het nieuwe filesysteem op linux btrfs brengt veel van de wensen die er zijn voor een grote NAS toepassing. Uitbreidbaar, raid, data dedup, alleen de stabiliteit is nog niet goed genoeg om het toe te passen momenteel. Dus nog een jaartje (of meer) geduld daarvoor.

Klinkt intressant, ga ik me eens op inlezen.

Verder is ZFS zeker in de tussentijd nog steeds intressant kan zijn voor iemand die nu iets nodig heeft. Ik weet dat ZFS op BSD ook steeds volwassener wordt in bijv ZFSguru (zfsguru.com) en Freenas waardoor het ook voor niet solaris kennis goed te behappen kan zijn wanneer je jezelf er even in verdiept. Voordeel hiervan is dat Applicaties als Sickbeard/Sabnzbd hier ook beschikbaar zijn voor een alles in een downloadstation/NAS. Mocht je ondersteuning nodig hebben, en hier een redelijk bedrag voor overhebben is ook NExenta te overwegen, kost wel wat. Maar dan zit er ook een professionele organisatie achter.

@RobertT, Qua schijven zouden WD Reds niet noodzakelijk moeten zijn (bij HW raid vaak wel), echter moet ik zeggen dat ik ze qua garantie e.d. redelijk goed in de markt vind staan qua prijs/prestatie/garantie. Neemt niet weg dat Hitachi ook top schijven maakt voor zelfbouw/Qnap/Syno builds. Als ik op dit moment schijven nodig zou hebben zouden deze 2 merken/series bij mij boven aan staan.

Qua SSD's zou ik kijken naar SSD zonder een Sandforce controller. Deze schijnen het alleen goed te doen bij data welke on-the-fly gecomprimeerd kan worden, wat in een NAS situatie lang niet altijd zo is.

LB06

Wat veel mensen zich niet realiseren is dat voor SW-raid zoals MDADM en ZFS het beste een 'domme' / 'pure' disk controller kan worden gebruikt. Hierin heb je eigenlijk maar 3 categorieën: onboard-controllers in AHCI of IDE-modus, LSI based PCI-E controllers (met de Initiator-Target firmware) of soms van die hele simpele 2-poorts controllers. Met anderssoortige controllers (dus ook HW-controllers) loop je het risico dat schijven onnodig worden gekicked en dat de array moet worden geresynct.

De reden hiervoor is dat de raid-laag die logisch gezien tussen het besturingssysteem en de schijven in staat en daarmee liegt tegen het besturingssystem en bestandssysteem over wanneer er sync()'s e.d. plaatsvinden. Hierdoor worden er in feite een aantal maatregelen uit het bestandssysteem uitgeschakeld die bedoeld zijn om de integriteit te waarborgen. En ook al zet je je fakeraid of HW-raid controller in JBOD-modus, dan zal er, behalve bij LSI-based controllers, nog steeds een raid-laag tussenzitten. Je hebt dan in feite single drive raid0-arrays met dus nog steeds het verstorende effect dat de raid-logica heeft. Die raid-logica hoort bij software-raid thuis in de software. Als de hardware ook nog eens iets met raid probeert te doen gaan ze elkaar in de weg zitten.

Beter niet doen dus!

Robert T

Staat hier toch ook nergens dat dat gebeurt? En ja, dat is vrij duidelijk, met name bij ZFS is dat veelvuldig gedocumenteerd.
Sony VW95 / Screenint Tab tensioned 110" electrisch scherm / Marantz MM8802a / Parasound HALO A51 / Speakers: MA PL200/PLC150/PL100/SVS SB13 Ultra / Bronnen: Denon HEOS / UD5005 / Dune D1 / PS3

Robert T

Beetje uitgesteld de afgelopen tijd en het eea opgeschoond maar nu zit m'n DDIY Netgear NAS toch echt >70% vol en dus maar eens tot aanschaf over de komende week om een wat groter DIY NAS neer te zetten. Dit is HW RAID based en dan wel met een Areca + BBU controller.

Ik begin met 8 schijven van 3TB in RAID6 dus netto ~18TB ipv de huidige ~5.5TB. Ik vind RAID5 met 8 schijven weer net te riskant. Liever iets minder netto met een iets betere fault tolerance.

Beetje lopen klikken in webshopjes en ik kom op dit uit:

Behuizing + voeding:

  • Fractal Design Define XL USB3, ATX, Grijs     159,00     159,00
  • Be Quiet! Efficient F1 500W     69,00     69,00    

Mainboard / CPU / RAM:


  • Intel Core i5-2400S, 2.50GHz, 6MB, HD2000, S1155     183,00     183,00    
  • Asus P8Z77-M Pro S1155 Z77 4xDDR3 mATX     125,00     125,00    
  • Corsair Dominator 16GB(4x4GB) DDR3 1333MHz CL9     119,00     119,00

Schijven (de SSD is voor ESXi install + OS installs, die gaan niet op het RAID array


  • WD Green 3TB IntelliPower 64MB SATA3     139,00     556,00    
  • Samsung 830 Series 128GB 2.5" SATA3 Desktop Kit     119,00     119,00    
  • Seagate SV35.5 3TB 7200rpm 64MB SATA3     158,00     632,00    

Areca controller is de 1223-8i + BBU.

Als OS gebruik ik Win7 voor filesharing, dit zal zo kaal mogelijk zijn maar wel met de gebruikelijke programma's (Logitech media server, SABnzb, Sickbeard enz.). Mogelijk dat ik dit in een andere VM doe maar aangezien de data dan toch een mapped drive is op m'n "NAS" weet ik niet of dit veel zin heeft.

Totale kosten zijn zo rond de 2600EUR voor 18TB met de kanttekening dat het systeem een stuk krachtiger is dan nodig en dus ook meer zal draaien.

Comments?
Sony VW95 / Screenint Tab tensioned 110" electrisch scherm / Marantz MM8802a / Parasound HALO A51 / Speakers: MA PL200/PLC150/PL100/SVS SB13 Ultra / Bronnen: Denon HEOS / UD5005 / Dune D1 / PS3

bart_nl

Sowieso je keuze om in één array 4x 7200rpm te combineren met 4x 5900rpm schijven. Als je al verschillende schijven wilt gebruiken koop dan schijven die ongeveer even snel zijn.
Je geeft aan met 8 schijven te beginnen. Ik neem aan dat je die allemaal aan de Areca hangt. Met zo'n setup kun je de raid array op die controller niet meer uitbreiden. Misschien dat je later nog wel een SAS expander kunt bijplaatsen maar of dat voor uitbreiding van je raid array werkt weet ik niet.

Robert T

Het idee is idd verschillende schijven ja, liefst ook nog uit verschillende batches (dus apart gekocht bij verschillende winkels). Kan wel even kijken welke schijven ik dan beter zou kunnen nemen. Ideeen welkom.

Uitbreiden kan op verschillende manieren maar zal betekenen dat ik de kaart moet wisselen of er een kaart bij moet prikken en een nieuwe array aan moet maken.. de rest van de hardware voorziet erin om er een kaart bij de prikken en geleidelijk aan over te gaan naar een groter array (met nieuwe schijven). Ik verwacht dat ik met 18TB nog even vooruit kan en dat nog niet nodig is......

Sony VW95 / Screenint Tab tensioned 110" electrisch scherm / Marantz MM8802a / Parasound HALO A51 / Speakers: MA PL200/PLC150/PL100/SVS SB13 Ultra / Bronnen: Denon HEOS / UD5005 / Dune D1 / PS3

dennism

Ik zou gaan voor WD reds, deze krijgen zeer goede reviews voor het gebruik in NAS/Raid omgevingen en zijn hier ook speciaal voor. Mixen en matchen zou ik alleen doen bij verschillende volumes, mixen was verschillende fabrikanten/series binnen een volume is sowieso niet aan te raden daar schijven nog wel eens een miniem verschil in sector count e.d. willen hebben. Verschillende batches is uiteraard geen probleem. De schijven welke je nu geselecteerd hebben missen TLER voor zover ik kan zien (De WD's zeker, de seagates benoemen de feature niet in de specs), iets wat bij software raid niet belangrijk is, bij een hardware raid echter wel daar zonder TLER schijven uit de array gegooid kunnen worden omdat de controller te lang moet wachten op reactie van schijf, en dit is iets van je absoluut niet wil.

Verder staat de Areca niet op de VMware HCL, let hier goed op, dit kan namelijk problemen opleveren daar VMware vrij strict is op de HCL. De Areca 16xx en 18xx series staan wel op de HCL.

Ook zou ik VMware starten vanaf een USB stick. Er staat me iets van bij dat de schijf waarop VMware geinstalleerd staan niet gebruikt kan worden als storage volume voor andere zaken. Nogal zonde van de SSD ruimte naar mijn mening.

Verder heeft het moederbord een realtek nic, ook dit is drama icm VMware. Ik zou of een Intel nic plaatsen, of een moederbord uitzoeken met geintegreerde intel nic(s).

riwi

Waarom heb je de Seagate ST3000DM001 schijven er niet bij staan? Die zijn het goedkoopste momenteel. Ik dacht er aan om er daar 4 van aan te schaffen binnenkort. Maar ik hoef geen 24/7 gebruik en heb geen raid eisen.

Wel een mooie LianLi kast die nieuwe D8000 met ruimte voor 20 schijven en dan nog 5x 5.25inch bays over. (325 euro)
http://www.lian-li.com/v2/en/product/product06.php?pr_index=628&cl_index=1&sc_index=25&ss_index=62&g=f