@b@ram, dat ZDnet artikel dateert uit 2010 en is wat ik noem een non-artikel met hoge click bait titel, 'stops working'
, dus serieus kan ik dit artikel niet nemen.
RAID 5 zou dus volgens de auteur stoppen met werken in 2009, of toch betrouwbaar. Ken nog genoeg Synology 4-bay NASsen in productie omgeving die nog altijd RAID 5 draaien. Wat moeten deze bedrijven dan doen eenmaal het 2019 is, overstappen naar RAID1? In een 4-bay NAS met 4x4TB dan hou je nog 4TB over, serieus paranoia gevoel mijn gedacht.
En wat moet ik dan met mijn 12-bay beest doen volgens diezelfde auteur? 
Auteur spreekt ook over URE (unrecoverable read error) wat dan gaat over een slechte sector. Nu een slechte sector, of zelfs meerdere, is helemaal géén probleem in een NAS zoals de Synology, want de software van de NAS zal netjes die sectoren markeren. De software op de Synology houdt met tal van parameters de schijven in de gaten, en zal altijd waarschuwen als iets niet in orde is.
Vermoed dat de rebuild bij sandervg ondertussen wellicht klaar is?
En om af te sluiten een torenhoog cliché RAID ≠ backup 
Het compleet niet serieus nemen van dat artikel is vrij gevaarlijk

Maar het ligt er wel aan wat voor schijven je gebruikt. Simpel weg zeggen "Raid 5 of Raid 6 werkt niet meer" is inderdaad niet juist, het werkt nog zeker wel, echter kan het in bepaalde situaties, zeker met veel schijven met een lage URE waarde statistisch gezien niet veilig meer zijn. Een slechte sector kan ook in veel gevallen zoals jij al terecht aangeeft geen kwaad, de sector zal gemarkeerd worden en de data hersteld worden vanuit de parity data en weggeschreven op een goede sector. Waar het echter wel gevaarlijk kan zijn is wanneer een schijf volledig uitvalt (in een raid 5 array) of wanneer er 2 schijven volledig uitvallen (in een raid 6 array) en tijdens de rebuild van de raidset na het plaatsen van een vervangende schijf kom je beschadigde sectoren tegen die nog niet eerder gedetecteerd zijn. Op dat moment kan namelijk de data niet meer hersteld worden doordat je raidset niet meer volledig is, er is immers al een schijf uitgevallen en zal je in het beste geval corrupte data krijgen, en in het slechtste geval kan het je al je data kosten.
Je kan je hier echter wel enigzins tegen wapenen, maar volledig risicoloos zal het nooit worden, daarom is Raid inderdaad ook geen backup.
Hoe dit risico zoveel mogelijk af te dekken:
1. Zet Raid scrubbing aan in de Synology. Deze zal dan op de frequentie dat je raidscrubbing laat lopen van alle schijven all sectoren controleren en waar nodig beschadigde sectoren markeren, de data herstellen via de aanwezige partity data en wegschrijven in goede sectoren. (1x per maand is een mooie frequentie in veel gevallen)
https://www.synology.com/en-global/knowledgebase/DSM/help/DSM/StorageManager/volume_diskgroup_data_scrubbingEn als je een Synology hebt met BTFRS ook nog
https://www.synology.com/en-global/knowledgebase/DSM/help/DSM/StorageManager/volume_diskgroup_data_scrubbing22: Koop schijven met een URE rating van 10^15 ipv 10^14, een schijf met een URE 10^14 rating heeft gemiddeld 1x per 12,5TB aan verwerkte data een URE, een schijf met een URE van 10^15 gemiddeld eens per 125TB, een stuk veiliger dus.
Hier bijv. een plaatje van disk grootte en aantal schijven en de statistische kans op een URE tijdens een Raid 5 rebuild wanneer deze schijven een URE 10^14 rating hebben:

Je kan dus al zien dat je bij een Raid 5 array van 4x een 3TB of 4TB disk (niet ongewoon tegenwoordig) je al een kans van meer dan 50% hebt tijdens een rebuild op dataverlies (zij het minimaal en enkel wat corruptie: denk aan bijv een jpgje dat niet meer openen, een muziek file / video file die niet meer af wil spelen, tot het verlies van alle data). Het blijft echter statistiek, dus je kan ook de mazzel bij een 12x 10TB array in raid 5 met URE 10^14 disks dat het wel goed gaat.
Enkele schijven consumenten / instap zakelijke NAS schijven met 10^15 URE
Seagate Ironwolf NAS (4TB modellen en groter) en Ironwolf Pro (alle modellen)
Western Digital Gold serie, Western Digital Red Pro
Hitachi heeft er ook een paar uit mijn hoofd, maar hun website is wat onduidelijk om het snel te vinden

Het aantal keren aan zetten / opstarten staat ook aangegeven als load cycle en die staan op 600000 gespec'd stel je doet 5 jaar met een harddisk dan mag je hem volgens de spec per dag 328 keer aan en uitzetten 
Ligt er ook aan de firmware van de schijf, een bepaalde WD Green serie stond daar om bekend, die konden zeer snel al in standby gaan bij geen activiteit, wat in NASsen er voor kon zorgen dat ze na een paar weken al op honderdduizenden load cycles konden zitten en ook vaak zeer snel defect raakten.