HELP! Synology NAS: schijf vervangen, NAS kapot??

Started by sandervg, February 12, 2018, 22:10:40

Previous topic - Next topic

0 Members and 1 Guest are viewing this topic.

sandervg

Ik heb een Synology DS413. Omdat de schijven volliepen wilde ik een 3 TB schijf eruit halen en een 6 TB schijf erin doen (WD Red). Hoewel hot swap wordt ondersteund, keurig de NAS eerst uitgezet alle schuiven er even uitgehaald, stof weggezogen en alle schijven er weer in gestopt (natuurlijk met 6 TB ipv de 3 TB). NAS aangezet, gewacht tot deze is opgestart om daarna in DSM de nieuwe schijf te initialiseren. Echter: geen verbinding meer met de NAS te krijgen! Synology Assist ziet de nas wel, maar zegt dat verbinden niet mogelijk is.

6 TB schijf er weer uitgehaald en weer verbinding gekregen met drie schijven erin (opluchting!). 6 TB er in weer in gezet, geen verbinding mogelijk.

Ik dacht: okay, nieuwe schijf van 6 TB is stuk. Dus weer de 3 TB schijf erin gedaan.... geen verbinding mogelijk. 3 TB er weer uitgehaald (dus met drie schijven opgestart)... geen verbinding mogelijk.... 6 TB er in.... geen verbinding mogelijk.

Héél soms lukt het om verbinding te krijgen met de drie schijven erin (dus zonder de schijf die ik wilde wisselen), maar die momenten zijn schaars.

Wat gebeurt hier???? Ik heb wel vaker een schijf vervangen en dat heeft nooit problemen gegeven. Kan een 'foute'  schijf een hele NAS kapot maken?

Momenteel heb ik weer even verbinding. Ik heb uiteraard voor de schijf upgrade een backup gemaakt van de belangrijkste gegevens van de NAS, maar hoe moet ik nu handelen om de boel weer 'up & running' te krijgen?

Gewoon de 'oude' 3 TB schijf er weer in doen terwijl de NAS aan staat?
Of de nieuwe 6 TB schijf erin doen terwijl de NAS aan staat (heb ik ook al één keer geprobeerd, maar toen liep alles helemaal vast)
Stereo: Audio Note - 47 Labs - Auralic - Pel
HT: JVC - WLM - Velodyne - Arcam - Meridian

frankp

Als je nu verbinding hebt met je NAS, dan meteen een support-ticket aanmaken en de experts van Synology er even naar laten kijken.
Zij hebben het waarschijnlijk zo gefixt (of niet, als je NAs echt kapot is).

Raphie

Licht er aan wat je "verbinding" noemt?
Kom je in de webinterface?
Heb je een storage pool opgezet?
JBL PRX Power!

sandervg

Dank voor jullie replies!

Nee, ik kom meestal niet in de webinterface. Chrome zegt iets van 'niet bereikbaar'. Geen idee wat een 'storage pool' is dus waarschijnlijk heb ik die niet :-)

Gisterenavond voor ik naar bed ging heb ik de gok genomen toen ik verbinding had: nog een keer de 6TB schijf erin gedaan. Dat lukte en daarna 'herstellen' gekozen. Heeft de hele nacht gedraaid en is nog bezig. Fingers crossed dat hij het goed gaat tot het einde!

Als het straks gelukt is: kan ik op de één of andere manier een 'check' doen als alles klaar is of de schijven nog allemaal okay zijn en er geen bad sectors oid op zitten? Ben er niet helemaal gerust op.  (

Als het straks niet gelukt is zal ik een ticket aanmaken bij Synology.

Stereo: Audio Note - 47 Labs - Auralic - Pel
HT: JVC - WLM - Velodyne - Arcam - Meridian

frankp

Je kan via DSM naar Opslagbeheer -> HDD/SSD -> Integriteitsinfo -> SMART test, de uitgebreide SMART test te doen voor desbetreffende schijf. Dan zou je al eventuele errors zichtbaar moeten krijgen.

Kjelt

Maar als je raid hebt dan werkt 1 grotere hdd toch niet om meer ruimte te krijgen?

denoontje

Quote from: Kjelt on February 13, 2018, 20:21:38
Maar als je raid hebt dan werkt 1 grotere hdd toch niet om meer ruimte te krijgen?
In raid 5 bepaald kleinste schijf (helaas) grote van het volume.

Reden dat ik net 3 5tb schijven heb besteld en er een 3 en 2 van 4 nu uitgaan.
[emoji1303]


Verzonden vanaf mijn iPhone met Tapatalk

sandervg

Quote from: Kjelt on February 13, 2018, 20:21:38
Maar als je raid hebt dan werkt 1 grotere hdd toch niet om meer ruimte te krijgen?
Klopt, maar 2 grote wel :-). Ik heb SHR raid. Ik had 3x 3 TB + 1x 6 TB. Daar heb je dus niets aan (was een investering in de toekomst). Nu 1x 3 TB vervangen door 1x 6 TB en dat geeft 3 TB extra ruimte. De vrijgekomen 3 TB schijf gaat in een dune  waar een interne HD in past en dan ga ik 3 TB data van de NAS naar de Dune verplaatsen. Scheelt ook nog eens 3 TB dus dan moet ik er weer een tijdje tegen kunnen.

De SMART test loopt. Morgen zien wat het resultaat is. So far so good.
Stereo: Audio Note - 47 Labs - Auralic - Pel
HT: JVC - WLM - Velodyne - Arcam - Meridian

Kjelt

Gedoe hoor met dat opnieuw uit laten rekenen en repareren van de raid.
Ik koop als de ruimte op is meestal na een paar of zelfs drie a vier jaar een nieuwe NAS stop daar grotere schijven in, zet data van oude NAS over naar nieuwe en gebruik de oude als backup NAS of in de verkoop  :)
Succes hoop dat het allemaal goed komt.

holco

<a href="http://www.htforum.nl/yabbse/index.php?topic=150715.0">My Showcase, click</a>
Auralic Aries G1 (hoer-wege PSU) / Audio-GD R8 (2021) DAC / Hattor The Big preamp / Purifi Audio 1ET400A (SPARKOS LABS SS3602 Dual) / Daudio C1 speakers met ASP / Rythmik F18 subwoofer / Duelund DCA12GA-DCA16GA bi-wire speakerkabel / CANARE L-2T2S XLR kabels / VDH Ultimate USB kabel / Power regenerator AG1500S / Supra LoRad Power cables.

br@m

Quote from: denoontje on February 13, 2018, 22:11:30
In raid 5 bepaald kleinste schijf (helaas) grote van het volume.

Reden dat ik net 3 5tb schijven heb besteld en er een 3 en 2 van 4 nu uitgaan.
[emoji1303]


Verzonden vanaf mijn iPhone met Tapatalk


RAID5 of RAID6 gebruiken met >=4TB schijven is af te raden. Heeft te maken met de URE van de grote schijven - door hun capaciteit/dichtheid is de kans zeer groot dat na het falen en vervangen van een schijf in zo'n array, een andere schijf in het array ook faalt, maar dan tijdens het herstel. Als je meer wilt weten over het hoe en waarom - zie hier http://www.zdnet.com/article/why-raid-6-stops-working-in-2019/.

Zelf gebruik ik uitsluitend RAID1 (mirrorring) plus cloud back-up van de data die ik echt niet verliezen wil. Voor thuisgebruik is dit mijns inziens de beste keus.
B&W 803N | Classé CA-2200 | Classé CP-800ii | Classé CDP-300 / Denon DP-30Lii / HP T610 Daphile

blue-eyes

#11
Quote from: br@m on February 14, 2018, 08:29:22

RAID5 of RAID6 gebruiken met >=4TB schijven is af te raden. Heeft te maken met de URE van de grote schijven - door hun capaciteit/dichtheid is de kans zeer groot dat na het falen en vervangen van een schijf in zo'n array, een andere schijf in het array ook faalt, maar dan tijdens het herstel. Als je meer wilt weten over het hoe en waarom - zie hier http://www.zdnet.com/article/why-raid-6-stops-working-in-2019/.

Zelf gebruik ik uitsluitend RAID1 (mirrorring) plus cloud back-up van de data die ik echt niet verliezen wil. Voor thuisgebruik is dit mijns inziens de beste keus.

Ik heb voor weinig een 2e Syno aangeschaft en gebruik deze als daadwerkelijke back-up. Eens per week gaat deze aan en doet wat back-up taken.

Zeker als je minder hoeft te backuppen dan dat je aan data hebt kan je voor een paar tientjes een oudere serie Synology kopen. Schijf is dan een keuze, oudere schijf, nieuw, misschien heb je een liggen, etc.
Zelf ga ik dadelijk deze nieuwe NAS uitrusten met mirroring, dus dan een "dubbele" back-up (redundatie van back-up).
Speakers: WB Vector, WB Vertex, WB Fulcrum 650, Velodyne DD15, Atmos: Revel W783; App.: Arcam AV41, EV: 3 * Arcam P429, Bron: Apple TV 4k, Oppo UPD-203, Dune 4K Solo; Kabel: HDMI: Audioquest Vodka / Carbon, LS: Linn K200 / DHZ, Audioquest, XLR: Linn, DHZ, Cinch: Linn, TV: Sony KD-75XE9005; Stroom: AH! DC; Belden 4mm2, Furutech; Data: 2 * Synology 19", Rack: Finite Pagode Signature; AB: Homey

StefaanD

@b@ram, dat ZDnet artikel dateert uit 2010 en is wat ik noem een non-artikel met hoge click bait titel, 'stops working'  :blink:, dus serieus kan ik dit artikel niet nemen.

RAID 5 zou dus volgens de auteur stoppen met werken in 2009, of toch betrouwbaar. Ken nog genoeg Synology 4-bay NASsen in productie omgeving die nog altijd RAID 5 draaien. Wat moeten deze bedrijven dan doen eenmaal het 2019 is, overstappen naar RAID1? In een 4-bay NAS met 4x4TB dan hou je nog 4TB over, serieus paranoia gevoel mijn gedacht.
En wat moet ik dan met mijn 12-bay beest doen volgens diezelfde auteur?  :crazy:
Auteur spreekt ook over URE (unrecoverable read error) wat dan gaat over een slechte sector. Nu een slechte sector, of zelfs meerdere, is helemaal géén probleem in een NAS zoals de Synology, want de software van de NAS zal netjes die sectoren markeren. De software op de Synology houdt met tal van parameters de schijven in de gaten, en zal altijd waarschuwen als iets niet in orde is.

Vermoed dat de rebuild bij sandervg ondertussen wellicht klaar is?

En om af te sluiten een torenhoog cliché RAID ≠ backup  ;D

br@m

Quote from: StefaanD on February 14, 2018, 09:30:09
@b@ram, dat ZDnet artikel dateert uit 2010 en is wat ik noem een non-artikel met hoge click bait titel, 'stops working'  :blink:, dus serieus kan ik dit artikel niet nemen.

RAID 5 zou dus volgens de auteur stoppen met werken in 2009, of toch betrouwbaar. Ken nog genoeg Synology 4-bay NASsen in productie omgeving die nog altijd RAID 5 draaien. Wat moeten deze bedrijven dan doen eenmaal het 2019 is, overstappen naar RAID1? In een 4-bay NAS met 4x4TB dan hou je nog 4TB over, serieus paranoia gevoel mijn gedacht.
En wat moet ik dan met mijn 12-bay beest doen volgens diezelfde auteur?  :crazy:
Auteur spreekt ook over URE (unrecoverable read error) wat dan gaat over een slechte sector. Nu een slechte sector, of zelfs meerdere, is helemaal géén probleem in een NAS zoals de Synology, want de software van de NAS zal netjes die sectoren markeren. De software op de Synology houdt met tal van parameters de schijven in de gaten, en zal altijd waarschuwen als iets niet in orde is.

Vermoed dat de rebuild bij sandervg ondertussen wellicht klaar is?

En om af te sluiten een torenhoog cliché RAID ≠ backup  ;D
Ik zie dat je er meer verstand van hebt dan ik. Je argumenten zijn een stuk inhoudelijker dan het door jou gewraakte artikel.

Verstuurd vanaf mijn SM-G903F met Tapatalk

B&W 803N | Classé CA-2200 | Classé CP-800ii | Classé CDP-300 / Denon DP-30Lii / HP T610 Daphile

StefaanD

Wil zeker niet beweren dat ik een expert ben, maar heb toch reeds wat jaartjes ervaring met eigen Synology NASsen en we hebben er ook een aantal bij onze klanten draaien.

Zwaarste wat ik zelf op mijn eigen Syno heb moeten uitvoeren, was toen in eens drie schijven in RAID6 eruit laggen in korte tijd, en het dus via de interface niet meer te repareren was. Dat betekent natuurlijk niet dat alle data weg was, deze staat er nog gewoon maar de RAID structuur is wel stuk. Dan was het kwestie van via iets als Putty in te loggen op de NAS en commando's gebruiken om de RAID alsnog te herstellen (mdadm commando voor wie het interesseert). Dat was toch even zweten en zwoegen maar uiteindelijk wel gelukt.
Volgende stap was de belangrijkste data zo snel mogelijk backuppen en schijven vervangen. Heb ook WD RED, 2 TB, in mijn Syno en ze beginnen een beetje op hun laatste benen te lopen, 43000+ uren wat dus wil zeggen bijna 5 jaar 24/7 in bedrijf zijn.

Is het allemaal rozegeur en maneschijn, nee. Heb nu twee 4TB zitten die toch wat reconnection fouten aangeven hoewel die betrekkelijk nieuw zijn, dus deze moeten ik even via de SMART testen in de gaten houden.


Maar voor de rest zou ik echt niet meer zonder mijn Synology NAS kunnen.

StefaanD

Voor ik het vergeet een tip voor mensen met wat Terminal (OSX) of Putty (Windows) ervaring en die geen schrik hebben. Je kan de rebuild aanzienlijk versnellen door deze meer 'resources' aan te bieden. Zie dit draadje op synology-forum.nl

Trouwens in DSM 6.2, momenteel nog in beta, zal je dat gewoon via de GUI kunnen regelen.

sandervg

Bij mij is het gelukkig goed gegaan  :pompom:  Alles werkt weer. Ik kan nergens een rapportje vinden van de SMART test, maar er staat 'normaal' dus dat klinkt prima.

Geen idee waarom de NAS zo moeilijk deed na het plaatsen van de lege 6TB, maar dat wekt niet heel veel vertrouwen als het er ooit echt op aan komt. Misschien is de werkwijze van Kjelt wel slimmer: gewoon een nieuwe NAS ernaast zetten. Hoef je ook de schijven niet af te danken.

Overigens: wat is de levensduur van harde schijven bij 24x7 gebruik (maar niet intensief). Oudste zijn nu zo'n 5 jaar oud. Is het slimmer om de nas 's nachts uit te zetten? (heb ooit gelezen dat 'aan staan' niet slecht is voor de schijven, maar aan/uit zetten juist wel)
Stereo: Audio Note - 47 Labs - Auralic - Pel
HT: JVC - WLM - Velodyne - Arcam - Meridian

Kjelt

#17
Quote from: sandervg on February 14, 2018, 20:05:47
Overigens: wat is de levensduur van harde schijven bij 24x7 gebruik (maar niet intensief). Oudste zijn nu zo'n 5 jaar oud. Is het slimmer om de nas 's nachts uit te zetten? (heb ooit gelezen dat 'aan staan' niet slecht is voor de schijven, maar aan/uit zetten juist wel) 
Eerste hangt helemaal af van welke schijven je hebt. Ik koop nu zelf WD gold of Seagate server grade schijven en die overleven een partikulier gebruik toch echt wel een groot aantal jaren. Hoeveel is altijd een kwestie van geluk (maandagochtend exemplaren), gebruik en omstandigheden (temperatuur, spanningsschommelingen etc), maar 5 jaar lijkt me een mooie richtlijn om te upgraden.

Het andere daar zijn de meningen over verdeeld. Er was een mythe dat aan/uit zetten slecht zou zijn want veel schijven starten niet meer op en maken zo'n klik-klik geluid dat ten onrechte werd aangezien dat de schijfarm (met de koppen) niet meer uit zijn parkeerstand zou kunnen komen. Eigenlijk is het klikken gewoon een resultaat dat een of meerdere van de koppen niet meer correct informatie kunnen lezen en/of dat het tracking spoor niet meer gevonden kan worden (head-crash):

https://www.youtube.com/watch?v=vbq8vfs1wYY

Ik zelf laat de schijven uitzetten door de NAS als er twee uur geen access is geweest en dat is gewoon praktisch. Voor mijn film NAS die zet ik alleen aan als ik films kijk en weer uit als ik klaar ben. Trouwens als het zo slecht zou zijn om een harddisk elke keer aan of uit te zetten dan zouden de harddisk bij normale computers toch ook sneller kapot gaan? Zelf nooit iets van gemerkt gelukkig.

sandervg

Goed punt. Ik gebruik Western Digital Red. Speciaal voor NAS gemaakt, maar niet voor prof gebruik. Wilde de NAS eigenlijk ook laten slapen als deze niet gebruikt werd, maar dat werkt bij mij niet. Als je Squeezebox Server geinstalleerd hebt gaat deze nooit in slaap, zo ben ik achter gekomen na vele uren experimenteren en contact met de helpdesk van Synology. Toen maar besloten om ze aan te laten staan. Nooit gerealiseerd dat de schijven daarmee sneller achteruit gaan. Overigens: verouderen de schijven ook als de NAS aan staat, maar niet gebruikt wordt?
Stereo: Audio Note - 47 Labs - Auralic - Pel
HT: JVC - WLM - Velodyne - Arcam - Meridian

Kjelt

#19
Oh ik denk niet dat het aan laten staan van de drive deze veroudert of achteruit laat gaan tenzij de temperatuur boven de gespec'te 55 graden Celsius komt.
Wat wel geldt is statistiek.
Hoe langer je harddisk operationeel is des te meer kans je maakt dat er iets fout gaat, in de technische specificatie staat de AFR (jaarlijkse fout ratio) vermeld:
https://en.wikipedia.org/wiki/Annualized_failure_rate

Bij de WD Red disks is deze 0,8% en bij de WD Gold disks is deze 0,35% wat dus inhoudt dat als je harddisk continu draait je een 0,8% en 0,35% kans hebt dat je harddisk binnen het jaar faalt.
Dat bedoel ik dus met geluk, dit is gemeten over een grote steekproef er zijn altijd zwakke schakels in de keten dat krijgen ze er helaas nooit uit.
Nu neem ik aan dat dit geldt voor een jaar gebruik dus 8766 uur 24/7 gebruik, als je hem dus denk ik maar een kwart van de tijd gebruikt is de kans op een failure ook weer met een factor 4 afgenomen. Maar ja statistiek is niet mijn beste vak geweest vroeger  :D

Het aantal keren aan zetten / opstarten staat ook aangegeven als load cycle en die staan op 600000 gespec'd stel je doet 5 jaar met een harddisk dan mag je hem volgens de spec per dag 328 keer aan en uitzetten  :o


dennism

#20
Quote from: StefaanD on February 14, 2018, 09:30:09
@b@ram, dat ZDnet artikel dateert uit 2010 en is wat ik noem een non-artikel met hoge click bait titel, 'stops working'  :blink:, dus serieus kan ik dit artikel niet nemen.

RAID 5 zou dus volgens de auteur stoppen met werken in 2009, of toch betrouwbaar. Ken nog genoeg Synology 4-bay NASsen in productie omgeving die nog altijd RAID 5 draaien. Wat moeten deze bedrijven dan doen eenmaal het 2019 is, overstappen naar RAID1? In een 4-bay NAS met 4x4TB dan hou je nog 4TB over, serieus paranoia gevoel mijn gedacht.
En wat moet ik dan met mijn 12-bay beest doen volgens diezelfde auteur?  :crazy:
Auteur spreekt ook over URE (unrecoverable read error) wat dan gaat over een slechte sector. Nu een slechte sector, of zelfs meerdere, is helemaal géén probleem in een NAS zoals de Synology, want de software van de NAS zal netjes die sectoren markeren. De software op de Synology houdt met tal van parameters de schijven in de gaten, en zal altijd waarschuwen als iets niet in orde is.

Vermoed dat de rebuild bij sandervg ondertussen wellicht klaar is?

En om af te sluiten een torenhoog cliché RAID ≠ backup  ;D

Het compleet niet serieus nemen van dat artikel is vrij gevaarlijk ;) Maar het ligt er wel aan wat voor schijven je gebruikt. Simpel weg zeggen "Raid 5 of Raid 6 werkt niet meer" is inderdaad niet juist, het werkt nog zeker wel, echter kan het in bepaalde situaties, zeker met veel schijven met een lage URE waarde statistisch gezien niet veilig meer zijn. Een slechte sector kan ook in veel gevallen zoals jij al terecht aangeeft geen kwaad, de sector zal gemarkeerd worden en de data hersteld worden vanuit de parity data en weggeschreven op een goede sector. Waar het echter wel gevaarlijk kan zijn is wanneer een schijf volledig uitvalt (in een raid 5 array) of wanneer er 2 schijven volledig uitvallen (in een raid 6 array) en tijdens de rebuild van de raidset na het plaatsen van een vervangende schijf kom je beschadigde sectoren tegen die nog niet eerder gedetecteerd zijn. Op dat moment kan namelijk de data niet meer hersteld worden doordat je raidset niet meer volledig is, er is immers al een schijf uitgevallen en zal je in het beste geval corrupte data krijgen, en in het slechtste geval kan het je al je data kosten.

Je kan je hier echter wel enigzins tegen wapenen, maar volledig risicoloos zal het nooit worden, daarom is Raid inderdaad ook geen backup.

Hoe dit risico zoveel mogelijk af te dekken:

1. Zet Raid scrubbing aan in de Synology. Deze zal dan op de frequentie dat je raidscrubbing laat lopen van alle schijven all sectoren controleren en waar nodig beschadigde sectoren markeren, de data herstellen via de aanwezige partity data en wegschrijven in goede sectoren. (1x per maand is een mooie frequentie in veel gevallen)

https://www.synology.com/en-global/knowledgebase/DSM/help/DSM/StorageManager/volume_diskgroup_data_scrubbing

En als je een Synology hebt met BTFRS ook nog https://www.synology.com/en-global/knowledgebase/DSM/help/DSM/StorageManager/volume_diskgroup_data_scrubbing2


2: Koop schijven met een URE rating van 10^15 ipv 10^14, een schijf met een URE 10^14 rating heeft gemiddeld 1x per 12,5TB aan verwerkte data een URE, een schijf met een URE van 10^15 gemiddeld eens per 125TB, een stuk veiliger dus.

Hier bijv. een plaatje van disk grootte en aantal schijven en de statistische kans op een URE tijdens een Raid 5 rebuild wanneer deze schijven een URE 10^14 rating hebben:



Je kan dus al zien dat je bij een Raid 5 array van 4x een 3TB of 4TB disk (niet ongewoon tegenwoordig) je al een kans van meer dan 50% hebt tijdens een rebuild op dataverlies (zij het minimaal en enkel wat corruptie: denk aan bijv een jpgje dat niet meer openen, een muziek file / video file die niet meer af wil spelen, tot het verlies van alle data). Het blijft echter statistiek, dus je kan ook de mazzel bij een 12x 10TB array in raid 5 met URE 10^14 disks dat het wel goed gaat.

Enkele schijven consumenten / instap zakelijke NAS schijven met 10^15 URE

Seagate Ironwolf NAS (4TB modellen en groter) en Ironwolf Pro (alle modellen)
Western Digital Gold serie, Western Digital Red Pro
Hitachi heeft er ook een paar uit mijn hoofd, maar hun website is wat onduidelijk om het snel te vinden :P

Quote from: Kjelt on February 14, 2018, 23:00:13


Het aantal keren aan zetten / opstarten staat ook aangegeven als load cycle en die staan op 600000 gespec'd stel je doet 5 jaar met een harddisk dan mag je hem volgens de spec per dag 328 keer aan en uitzetten  :o

Ligt er ook aan de firmware van de schijf, een bepaalde WD Green serie stond daar om bekend, die konden zeer snel al in standby gaan bij geen activiteit, wat in NASsen er voor kon zorgen dat ze na een paar weken al op honderdduizenden load cycles konden zitten en ook vaak zeer snel defect raakten.