WD schijven speciaal voor NAS

Started by FvP, July 19, 2012, 16:10:07

Previous topic - Next topic

0 Members and 1 Guest are viewing this topic.

FvP

Zag dit bij m'n computerwinkel:

De eerste harde schijf ter wereld die specifiek is ontworpen en geproduceerd voor NAS-systemen voor thuis en kleine kantoren. De exclusieve NASware-technologie van WD die in elke WD Red harde schijf is geïntegreerd verbetert de NAS-opslagprestaties door vaak voorkomende problemen met schijven in NAS-systemen te verminderen, waaronder problemen met compatibiliteit, integratie, upgrades, betrouwbaarheid en eigenaarskosten die optreden bij harde schijven die voor desktopcomputers zijn ontworpen. De WD20EFRX van Western Digital heeft een opslagcapaciteit van 2000 GB en een cache van 64 MB. De 3,5 inch SATA harddisk is voorzien van een Serial ATA/600 interface.

Wel nog aan de prijzige kant, betaalde destijds net geen 75 eur incl BTW voor een 2 TB samsung die nu nog steeds in m'n nas zit.

skank1

3tb is ook beschikbaar in red hoor
HT stijnopolis: Epson TW9300, Marantz sr7010, Custom 21:9 widescreen, Vero 4K, Fronts: Focal 826V, Center: Focal CC800V, Surrounds: Focal SR700 SurroundBacks: Focal 807V + Norstone stylum 2 stands.., Dual sub: SVS PC12SND-DSP/SVS Pb12+
Woonkamer setup: LG 4K Oled Tv 55C7V, Shield TV, Orange TV , JBL Bar 9.1
Gaming: : PS5, PS4, Nintendo Switch, Wii

FvP

Ze hebben anderzijds wel wat goed te maken bij WD.

Heb heel wat green drives zien sneuvelen, met groene features die zeer nas onvriendelijk waren zoals een headpark na enkele seconden die korter was dan de tijd waarin Linux (en dus de meeste nassen) hun buffer naar disk flushen. En dan de error recovery die onmogelijk uit te zetten was.

Bij enterprise versies hebben ze er dan een feature van gemaakt om dit in te korten: TLER.

Volgens mij lijkt deze red disk gewoon op een green, maar dan met alle green annoyances disabled

skank1

Quote from: Klinkt Beter on July 19, 2012, 16:26:35
Ze hebben anderzijds wel wat goed te maken bij WD.

Heb heel wat green drives zien sneuvelen, met groene features die zeer nas onvriendelijk waren zoals een headpark na enkele seconden die korter was dan de tijd waarin Linux (en dus de meeste nassen) hun buffer naar disk flushen. En dan de error recovery die onmogelijk uit te zetten was.

Bij enterprise versies hebben ze er dan een feature van gemaakt om dit in te korten: TLER.

Volgens mij lijkt deze red disk gewoon op een green, maar dan met alle green annoyances disabled

Nu nog de prijs gelijk trekken :)
HT stijnopolis: Epson TW9300, Marantz sr7010, Custom 21:9 widescreen, Vero 4K, Fronts: Focal 826V, Center: Focal CC800V, Surrounds: Focal SR700 SurroundBacks: Focal 807V + Norstone stylum 2 stands.., Dual sub: SVS PC12SND-DSP/SVS Pb12+
Woonkamer setup: LG 4K Oled Tv 55C7V, Shield TV, Orange TV , JBL Bar 9.1
Gaming: : PS5, PS4, Nintendo Switch, Wii

FvP

Ze hebben idd de annoyances van hun green drives voor NAS opgelost:

http://www.wdc.com/nl/products/products.aspx?id=810

Spijtig dat ik dit twee jaar geleden niet kon kopen :( Heb zeer veel WD greens zien sneuvelen onder Linux helaas.

EJ

Ze hebben/hadden ook de raid edition schijven (RE), die was van andere lagering voorzien en speciaal voor, je raadt het al, raid omgevingen dus NAS bedoeld. Nog steeds geen errors op die schijven (op 1 gesneuvelde en door WD vervangen schijf na). Nu al een jaar of zes in gebruik. Ze konden het dus wel. De green edition is inderdaad dramatisch.

De prijs van alle schijven ligt nog behoorlijk boven het laagste punt van net voor de overstromingen. Het is dus niet verwonderlijk dat de red schijven duurder zijn dan indertijd.

Thunder

Quote from: Klinkt Beter on July 19, 2012, 16:26:35
Ze hebben anderzijds wel wat goed te maken bij WD.

Heb heel wat green drives zien sneuvelen, met groene features die zeer nas onvriendelijk waren zoals een headpark na enkele seconden die korter was dan de tijd waarin Linux (en dus de meeste nassen) hun buffer naar disk flushen. En dan de error recovery die onmogelijk uit te zetten was.

Bij enterprise versies hebben ze er dan een feature van gemaakt om dit in te korten: TLER.

Volgens mij lijkt deze red disk gewoon op een green, maar dan met alle green annoyances disabled

Waarom heeft WD wat goed te maken? Is het niet de fout van de gebruiker dat hij een schijf gebruikt waar die niet voor geschikt is? Green schijven zijn ervoor gemaakt om verbruik te minimaliseren en dat doen ze door een lage rotationspeed, snelle downspin en headpark. Voor een NAS heb je een schijf nodig met hoge rotationspeed en minimale downspin/headpark. En tot de RED serie werd aangekondigd, was de RE (RAID Edition) DE schijf die daar voor geschikt was. Maarja die is een stukje duurder. En dat komt omdat er bijvoorbeeld betere lagers gebruikt worden die in staat zijn langdurig 24/7 in continue bedrijf te zijn.

Sony 46W5500 - Onkyo TX-NR609 - Zelfbouw HTPC Win7x64-XMBC 8.5TB Schijfruimte - PS3 Slim 320GB - Apple iPad2 16GB 3G - 6x Boston Acoustics A25 - Boston Acoustics A225C Center - Soundstyle Z2 Stands Front - Apollo A2 20cm Stands Back - Epik Legend Subwoofer - Fisual Havana SW cable

martin778

En de beste allrounder blijft toch een HD502HJ van Samsung :)
Aan een snelle schijf in een NAS heb je niet veel, omdat je LAN netwerk toch de bottleneck blijft. In principe is elke gewone harde schijf prima voor 24/7 werk, ik heb ergens gelezen dat het zelfs beter is voor de schijf als hij constant blijft draaien dan als hij elke keer opnieuw moet starten en weer stoppen.

FvP

Quote from: Thunder on July 20, 2012, 11:44:16
Voor een NAS heb je een schijf nodig met hoge rotationspeed en minimale downspin/headpark. En tot de RED serie werd aangekondigd, was de RE (RAID Edition) DE schijf die daar voor geschikt was. Maarja die is een stukje duurder. En dat komt omdat er bijvoorbeeld betere lagers gebruikt worden die in staat zijn langdurig 24/7 in continue bedrijf te zijn.

De RE versie was 1.5 keer duurder, als je dan een stevige raid6 bouwt dan loopt dat verschil snel op. Was 50 eur per schijf destijds verschil. Ik spreek dan over meer disken dan wat in een doorsnee consumer nas past.

Dit artikel was destijds aanleiding om geen RE versie te kopen:

http://static.googleusercontent.com/external_content/untrusted_dlcp/research.google.com/en/us/archive/disk_failures.pdf

Gezien de gunstige prijs van de RED edition en raid features zoals TLER en balancing is het terug een optie om voor WD te gaan.

Thunder

Quote from: Klinkt Beter on July 21, 2012, 01:27:51
De RE versie was 1.5 keer duurder, als je dan een stevige raid6 bouwt dan loopt dat verschil snel op. Was 50 eur per schijf destijds verschil. Ik spreek dan over meer disken dan wat in een doorsnee consumer nas past.

Dit artikel was destijds aanleiding om geen RE versie te kopen:

http://static.googleusercontent.com/external_content/untrusted_dlcp/research.google.com/en/us/archive/disk_failures.pdf

Gezien de gunstige prijs van de RED edition en raid features zoals TLER en balancing is het terug een optie om voor WD te gaan.

Als je Green schijven constant het loodje leggen, dan betaal ik toch liever meer, dan iedere keer een kapotte schijf te RMA'en. Per saldo kost je dat meer tijd, moeite en frustratie dan dat het aan geld oplevert. In de tijd dat ik voor het laatst RE schijven kocht voor mijn PC, was het verschil hooguit 10euro per schijf. Dit is inderdaad een aantal jaar geleden, heb de laatste jaren mijn main PC niet meer geupdate.

Wat dat artikel trouwens met RE schijven te maken heeft is mij een raadsel, er wordt niet 1x gerefereert aan die specifieke schijven. Daarnaast is het rapport in 2007 gepubliceerd en in 5 jaar staat de ontwikkeling ook niet stil.

Quote from: martin778 on July 20, 2012, 18:13:17
En de beste allrounder blijft toch een HD502HJ van Samsung :)
Aan een snelle schijf in een NAS heb je niet veel, omdat je LAN netwerk toch de bottleneck blijft. In principe is elke gewone harde schijf prima voor 24/7 werk, ik heb ergens gelezen dat het zelfs beter is voor de schijf als hij constant blijft draaien dan als hij elke keer opnieuw moet starten en weer stoppen.

Met een beetje Gigabit netwerk moet je een 5400rpm schijf toch echt wel het vuur aan de schenen kunnen leggen. En als er 2 clients data vanaf dezelfde schijf gaan trekken, dan zakt je performance verder.

Voorheen was het downspinnen en het parkeren van de heads altijd een riskante gebeurtenis. Als het mis ging, crashte de schijf. Ga ervan uit dat bij Green schijven, die heel snel deze actie uitvoeren, dit probleem is opgelost. Verder is het continue laten draaien voor een schijf natuurlijk wel een belasting voor de lagers. Als deze niet ontworpen zijn voor 24/7 bedrijf, kan het zijn dat deze vroegtijdig aan hun eind komen. Een X aantal jaar geleden waren er bepaalde series WD schijven waarbij uitdrukkelijk werd vermeld dat die niet voor 24/7 bedrijf waren ontworpen en geschikt.
Sony 46W5500 - Onkyo TX-NR609 - Zelfbouw HTPC Win7x64-XMBC 8.5TB Schijfruimte - PS3 Slim 320GB - Apple iPad2 16GB 3G - 6x Boston Acoustics A25 - Boston Acoustics A225C Center - Soundstyle Z2 Stands Front - Apollo A2 20cm Stands Back - Epik Legend Subwoofer - Fisual Havana SW cable

EJ

Om je uit de droom te helpen: geen van de consumenten schijven is ontworpen op 24/7 draaien. Meestal op 8/7. Kijk maar eens goed naar de specs.

Raphie

Ik heb m'n synology link aggregated naar 2gbit, link kan meer aan dan een single schijf kan doorgeven
JBL PRX Power!

FvP

Quote from: EJ on July 21, 2012, 09:06:27
Om je uit de droom te helpen: geen van de consumenten schijven is ontworpen op 24/7 draaien. Meestal op 8/7. Kijk maar eens goed naar de specs.

1% uitval op deskstar (=consumer) disken in een 24/7 datacenter environment, zie bvb

http://blog.backblaze.com/2011/07/20/petabytes-on-a-budget-v2-0revealing-more-secrets/

Dus backblaze droomt ?



EJ

Quote from: Klinkt Beter on July 21, 2012, 10:04:32
1% uitval op deskstar (=consumer) disken in een 24/7 datacenter environment, zie bvb

http://blog.backblaze.com/2011/07/20/petabytes-on-a-budget-v2-0revealing-more-secrets/

Dus backblaze droomt ?

De wereld, zoals je nog niet weet, is niet zwart of wit maar kent allerlei tinten grijs. Dat iets beter blijkt te zijn dan de specs doen vermoeden betekent nog niet dat die specs niet juist zijn.

FvP

Quote from: EJ on July 21, 2012, 10:31:46
De wereld, zoals je nog niet weet, is niet zwart of wit maar kent allerlei tinten grijs. Dat iets beter blijkt te zijn dan de specs doen vermoeden betekent nog niet dat die specs niet juist zijn.

De reallife specs t.o.v. de vendor specs zijn een wereld van verschil (meer dan één tint grijs, doe maar een dikke schep ;) )

http://storagemojo.com/2007/02/19/googles-disk-failure-experience/

"Bottom line: MTBF figures are just like any other storage performance statistic: it's a miracle if you see them in real life."

Spijtig dat sommige believers nog steeds vendor specs blind geloven.

EJ

Een apparaat dient ten minste te voldoen aan de specs. Dat maakt mij geen 'believer', je hoort geen etiketjes te plakken op anderen.

Wij maakten ook A/D converters die heel veel beter waren dan de specs. Voordeel? Als de concurrentie een verbetering aanbracht aan hun A/D converters waardoor hun specs wat beter werden hoefden wij alleen het papier aan te passen. Big improvement. :D

Het probleem bij consumer grade disks is de lagering. Die is niet gemaakt om in huis lang te draaien (onder relatief grote temperatuur wisselingen). Als je dat in een datacenter doet zoals backblaze of google, dan is de temperatuur constant. Schijven, mechanica en elektronica i.h.a. gaan kapot aan temperatuurwisselingen. Uitzetten en krimpen.

Ik dacht dat jij ingenieur was? Dat is standaard lesstof bij opleidingen, net als de bijbehorende statistiek.

FvP

Quote from: EJ on July 21, 2012, 10:52:56
Een apparaat dient ten minste te voldoen aan de specs. Dat maakt mij geen 'believer', je hoort geen etiketjes te plakken op anderen.

Maar doen ze dat dan ? Voldoen ze aan de specs ?



Annual failure rate hoort 2.88% te zijn volgens de spec, maar wat zien we in het 2e jaar ?

Quote from: EJ on July 21, 2012, 10:52:56
Het probleem bij consumer grade disks is de lagering. Die is niet gemaakt om in huis lang te draaien (onder relatief grote temperatuur wisselingen). Als je dat in een datacenter doet zoals backblaze of google, dan is de temperatuur constant. Schijven, mechanica en elektronica i.h.a. gaan kapot aan temperatuurwisselingen. Uitzetten en krimpen.

Ik dacht dat jij ingenieur was? Dat is standaard lesstof bij opleidingen, net als de bijbehorende statistiek.

Zelfs in een datacenter met ideale omstandigheden halen de google schijven hun specs niet in het 2e jaar volgens hun study. Dus in de brakke thuissituatie met zware temperatuurschommelingen en veel meer on/off en load cycles zal het niet op verbeteren.

Real-life specs interesseren me daarom meer dan.

We zouden nu bvb red schijven kunnen kopen van WD, maar de real-life ervaring zal pas uitwijzen of ze effectief hun mooie belofte (=betere specs) kunnen hardmaken.

jaco

Dus minimaal 3 jaar wachten voordat je red serie disken koopt ?

Ik heb WD RE (green) disks in mijn pc zitten. Dat draait al  bijna 4 jaar zonder problemen, elke dag starten en weer stoppen. Ze gaan ook spindown als er geen activiteit is.

FvP

Quote from: jaco on July 21, 2012, 11:45:14
Dus minimaal 3 jaar wachten voordat je red serie disken koopt ?

Ik heb WD RE (green) disks in mijn pc zitten. Dat draait al  bijna 4 jaar zonder problemen, elke dag starten en weer stoppen. Ze gaan ook spindown als er geen activiteit is.

Anderzijds:

op de RED versie zit nu een MTBF van maar liefst 1 miljoen uur

http://www.wdc.com/wdproducts/library/SpecSheet/ENG/2879-771442.pdf

Dat is mooier dan de typische 300.000 uur uit de google disk studie.

In een jaar heb je 'slechts' 8760 uur, dus een schijf gaat gemiddeld na 114 jaar dood!
Anderzijds kan je je afvragen wat de waarde van zo'n MTBF claim is, als je ze maar 3 jaar limited garantie geven.

martin778

#19
Quote from: EJ on July 21, 2012, 09:06:27
Om je uit de droom te helpen: geen van de consumenten schijven is ontworpen op 24/7 draaien. Meestal op 8/7. Kijk maar eens goed naar de specs.
Nog nooit gezien dat een fabrikant zoiets vermeldt, meestal geven ze 100k uur MTBF op en dat is alles, als je bij een normale computerwinkel kijkt  zie je ook "normale" en 24/7 schijven, maar nergens staat een waarschuwing dat de normale HDD niet geschikt is voor 24/7 gebruik.

Een gigabit netwerk = omgerekend 128MB/s (onder ideale omstandigheden) in werkelijkheid zit je vaak op 80-90MB/s en dat haalt een 5400RPM schijf wel.
Met meerdere gebruikers kom je in principe met elke gewone HDD (misschien met die vreselijk dure SAS schijven niet maar dat is weer wat anders) power te kort, daarom gebruiken ze ook RAID.

Ernst Jan

Quote from: Klinkt Beter on July 21, 2012, 12:27:04
Anderzijds:

op de RED versie zit nu een MTBF van maar liefst 1 miljoen uur

http://www.wdc.com/wdproducts/library/SpecSheet/ENG/2879-771442.pdf

Dat is mooier dan de typische 300.000 uur uit de google disk studie.

In een jaar heb je 'slechts' 8760 uur, dus een schijf gaat gemiddeld na 114 jaar dood!
Anderzijds kan je je afvragen wat de waarde van zo'n MTBF claim is, als je ze maar 3 jaar limited garantie geven.

Een gewone schijf dus 34 jaar volgens jouw redenering, alleen is MTBF iets anders dan gemiddelde levensduur.

FvP

#21
Quote from: Ernst Jan on July 21, 2012, 22:44:27
Een gewone schijf dus 34 jaar volgens jouw redenering, alleen is MTBF iets anders dan gemiddelde levensduur.

nee, zie http://en.wikipedia.org/wiki/Annualized_failure_rate

Als je een grote set disken koopt, sneuvelt de heft binnen de MTBF, en de andere helft houdt het minstens of langer uit dan de MTBF. Dit tenminste als we definitie van wikipedia mogen geloven.

Koop je bvb 1000 RED disken met 1.000.000 MTBF als specificatie, dan sneuvelen 500 binnen de 114 jaar, en zouden de resterende 500 het minstens 114 jaar moeten uitzingen.

Iets wat gevoelsmatig te goed klinkt om waar te zijn, maar dat is helaas de betekenis van de MTBF spec.

EJ

Integendeel, herhaaldelijk wordt uitgesproken dat getallen als MTBF geen uitspraak doen over individuele drives! Dus MTBF is wel degelijk iets anders dan gemiddelde levensduur. Gelukkig maar.

Je gebruikt een veel te simpele blik op een statistische grootheid.

http://en.wikipedia.org/wiki/Mean_time_between_failures

Quote from: martin778 on July 21, 2012, 19:56:40
Nog nooit gezien dat een fabrikant zoiets vermeldt, meestal geven ze 100k uur MTBF op en dat is alles, als je bij een normale computerwinkel kijkt  zie je ook "normale" en 24/7 schijven, maar nergens staat een waarschuwing dat de normale HDD niet geschikt is voor 24/7 gebruik.

Een gigabit netwerk = omgerekend 128MB/s (onder ideale omstandigheden) in werkelijkheid zit je vaak op 80-90MB/s en dat haalt een 5400RPM schijf wel.
Met meerdere gebruikers kom je in principe met elke gewone HDD (misschien met die vreselijk dure SAS schijven niet maar dat is weer wat anders) power te kort, daarom gebruiken ze ook RAID.


Kijk maar eens bij de specs van de fabrikanten. Waarom denk je dat ze bij de 'bijzondere drives' zoals WD20eurs wel vermelden dat deze voor 24/7 bedrijf geschikt is? Omdat ze ergens anders op de site hebben staan dat er standaard wordt uitgegaan van 8uur/dag. De volledige specs staan uiteraard alleen bij de fabrikant op de site. Wat een winkel vermeld is veel minder relevant omdat er in de kleine letters altijd wel wordt vermeld dat de volledige specs bij de fabrikant te vinden zijn. Er hoeft geen waarschuwing bij te staan omdat normaal gebruik nu eenmaal 8 uur per dag is, en geen 24 uur per dag. Mensen plegen wel eens te moeten slapen op een dag.

Nog meer slecht nieuws voor je: een gigabit netwerk zal nooit 128 MByte/s kunnen halen, het theoretische maximum (en let wel, dat is theoretisch!) is 125 MByte/s (8*125=1000). En waar zie je staan dat drives een sustained data rate specificeren? Er worden peak rates genoemd.

Ben jij ook van de categorie 'er moet sata 3 opzitten, want dan is de drive 6 Gbit/s'? Dat is ook een peak data rate spec. Alleen SSD's zullen in de buurt kunnen komen en hebben echt baat bij hoge overdrachtssenelheden. Bij consumentenharddrives is het nut beperkt.

FvP

Quote from: EJ on July 22, 2012, 09:39:09
Integendeel, herhaaldelijk wordt uitgesproken dat getallen als MTBF geen uitspraak doen over individuele drives! Dus MTBF is wel degelijk iets anders dan gemiddelde levensduur. Gelukkig maar.

Je gebruikt een veel te simpele blik op een statistische grootheid.

http://en.wikipedia.org/wiki/Mean_time_between_failures

Dat schrijf ik net (dat het over een populatie van disken gaat, en niet één enkele disk). Waarom denk je dat ik http://en.wikipedia.org/wiki/Annualized_failure_rate post ?

Spijtig dat je mensen beschuldigt dat ze iets niet begrijpen of ze te simplistisch denken, terwijl je eigenlijk over hun posts heen leest en het er wel degelijk staat. Hierdoor wek je enkel ergernis op, en dat is het niet waard.

EJ

Mag ik je "Spijtig dat sommige believers nog steeds vendor specs blind geloven." in herinnering brengen? Volgens zo ongeveer iedere thread hier op het forum hoor jij tot een groep van believers. Ik niet. Denk je niet dat die opmerking geen irritatie of ergernis oproept?
Daarnaast letterlijk:

Quotels je een grote set disken koopt, sneuvelt de heft binnen de MTBF, en de andere helft houdt het minstens of langer uit dan de MTBF. Dit tenminste als we definitie van wikipedia mogen geloven.

Koop je bvb 1000 RED disken met 1.000.000 MTBF als specificatie, dan sneuvelen 500 binnen de 114 jaar, en zouden de resterende 500 het minstens 114 jaar moeten uitzingen.

Iets wat gevoelsmatig te goed klinkt om waar te zijn, maar dat is helaas de betekenis van de MTBF spec.

Het vetgedrukte geeft echt aan dat jij claimt dat de MTBF spec op individuele drives betrekking heeft. Anders heb je het dusdanig ongelukkig of onduidelijk geformuleerd dat er zeer grote reden tot twijfel is aan je begrip. Jij doet in de bovengenoemde quote juist vermoeden (door je opmerking dat dat de betekenis van MTBF spec is) dat het wel degelijk betrekking heeft op individuele drives.