www.wikidata.de-de.nina.az
Dieser Artikel beschaftigt sich mit der Festplattentechnik Zu weiteren Bedeutungen siehe Raid Ein RAID System dient zur Organisation mehrerer physischer Massenspeicher 1 ublicherweise Festplattenlaufwerke oder Solid State Drives zu einem logischen Laufwerk das eine hohere Ausfallsicherheit oder einen grosseren Datendurchsatz erlaubt als ein einzelnes physisches Speichermedium Der Begriff ist ein Akronym fur englisch redundant array of independent disks also redundante Anordnung unabhangiger Festplatten ursprunglich englisch redundant array of inexpensive disks deutsch redundante Anordnung kostengunstiger Festplatten was aus Marketinggrunden aufgegeben wurde Wahrend die meisten in Computern verwendeten Techniken und Anwendungen darauf abzielen Redundanzen in Form von mehrfachem Vorkommen derselben Daten zu vermeiden werden bei RAID Systemen redundante Informationen gezielt erzeugt damit beim Ausfall einzelner Speichermedien das RAID als Ganzes seine Integritat und Funktionalitat behalt und nach Ersetzen der ausgefallenen Komponente durch einen Rebuild der ursprungliche Zustand wiederhergestellt werden kann Diese Redundanz darf nicht mit einer Datensicherung gleichgesetzt werden Inhaltsverzeichnis 1 Geschichte 2 Aufbau und Anschluss Hardware RAID Software RAID 2 1 Hardware RAID 2 1 1 Host RAID 2 2 Software RAID 2 2 1 Pro 2 2 2 Contra 2 2 3 Software Raid und Storage Server 3 Probleme 3 1 Grossenanderung 3 2 Austausch 3 3 Defekte Controller 3 4 Fehlerhaft produzierte Datentragerserien 3 5 Statistische Fehlerrate bei grossen Festplatten 3 6 Rebuild 4 Die gebrauchlichen RAID Level im Einzelnen 4 1 RAID 0 Striping Beschleunigung ohne Redundanz 4 2 RAID 1 Mirroring Spiegelung 4 3 RAID 5 Leistung Paritat Block Level Striping mit verteilter Paritatsinformation 5 Weniger gebrauchliche oder bedeutungslos gewordene RAID Level 5 1 RAID 2 Bit Level Striping mit Hamming Code basierter Fehlerkorrektur 5 2 RAID 3 Byte Level Striping mit Paritatsinformationen auf separater Festplatte 5 3 RAID 4 Block Level Striping mit Paritatsinformationen auf separater Festplatte 5 4 RAID 6 Block Level Striping mit doppelt verteilter Paritatsinformation 5 5 RAID DP Block Level Striping mit doppelter Paritatsinformation auf separaten Festplatten 6 Nichteigentliche RAIDs Festplattenverbund 6 1 NRAID 6 2 SPAN 6 3 JBOD 7 RAID Kombinationen 7 1 RAID 01 7 2 RAID 03 7 3 RAID 05 7 4 RAID 10 7 5 RAID 1 5 7 6 RAID 15 7 7 RAID 1E 7 8 RAID 1E0 7 9 RAID 30 Verbund 7 10 RAID 45 Verbund 7 11 RAID 50 Verbund 7 12 RAID 51 7 13 RAID 53 7 14 RAID 55 7 15 RAID 5E 7 16 RAID 5EE 7 17 RAID 5DP und RAID ADG 7 18 RAID 60 Verbund 7 19 Matrix RAID 7 20 RAID S beziehungsweise Parity RAID 7 21 RAID TP beziehungsweise RAID Triple Parity 7 22 RAID Z im Dateisystem ZFS 8 Zusammenfassung 9 Andere Begriffe 9 1 Cache 9 2 Cache Controller mit Pufferbatterie 9 3 Logical Volume Manager 9 4 Leistung Performance 9 4 1 Performance RAID 10 zu RAID 5 9 5 Drive Extender 9 6 Stripe Chunk Size 9 7 Hot Swapping 9 8 Hot Spare Laufwerk 9 9 Drive Clone 9 10 RAIDIOS RAID I O Steering 9 11 Tape RAID 10 Siehe auch 11 Weblinks 12 EinzelnachweiseGeschichte Bearbeiten nbsp SLED Laufwerksmodul einer IBM 3380 die dem Vergleich mit kleineren Laufwerken standhalten musste nbsp Eine Fujitsu M2351 Eagle ein ahnliches Eagle Modell wurde von Patterson Gibson und Katz fur ihren Vergleich mit RAID herangezogen Das Akronym RAID wurde erstmals 1987 durch David A Patterson Garth A Gibson und Randy H Katz von der University of California Berkeley USA als Abkurzung fur Redundant Array of Inexpensive Disks definiert 2 In der zur International Conference on Management of Data 1988 Chicago Illinois USA veroffentlichten Publikation A case for redundant arrays of inexpensive disks RAID 3 entwickeln die Autoren Vorschlage um langsame Plattenzugriffe zu beschleunigen und die Mean Time Between Failures MTBF zu erhohen Dazu sollten die Daten auf vielen kleineren preisgunstigen Platten anstatt auf wenigen grossen teuren abgelegt werden deshalb die ursprungliche Leseweise als Redundant Arrays of Inexpensive Disks RAID steht damit als Gegensatz zu den damaligen SLEDs Single Large Expensive Disk In ihrer Arbeit untersuchen die Autoren die Moglichkeit kostengunstige kleinere Festplatten eigentlich Zubehor fur Personalcomputer im Verbund als grosseres logisches Laufwerk zu betreiben um so die Kosten fur eine grosse zum damaligen Zeitpunkt uberproportional teure SLED Festplatte Grossrechner Technologie einzusparen Dem gestiegenen Ausfallrisiko im Verbund sollte durch die Speicherung redundanter Daten begegnet werden Die einzelnen Anordnungen wurden als RAID Level diskutiert A case for redundant arrays of inexpensive disks RAID ABSTRACT Increasing performance of CPUs and memories will be squandered if not matched by a similar performance increase in I O While the capacity of Single Large Expensive Disks SLED has grown rapidly the performance improvement of SLED has been modest Redundant Arrays of Inexpensive Disks RAID based on the magnetic disk technology developed for personal computers offers an attractive alternative to SLED promising improvements of an order of magnitude in performance reliability power consumption and scalability This paper introduces five levels of RAIDs giving their relative cost performance and compares RAID to an IBM 3380 and a Fujitsu Super Eagle D A Patterson G Gibson und R H Katz 1988 Die Varianten RAID 0 und RAID 6 wurden erst spater von der Industrie gepragt Seit 1992 erfolgt eine Standardisierung durch das RAB RAID Advisory Board bestehend aus etwa 50 Herstellern Die weitere Entwicklung des RAID Konzepts fuhrte zunehmend zum Einsatz in Serveranwendungen die den erhohten Datendurchsatz und die Ausfallsicherheit nutzen Der Aspekt der Kostenersparnis fiel damit weg Die Moglichkeit in einem solchen System einzelne Festplatten im laufenden Betrieb zu wechseln entspricht der heute gebrauchlichen Ubersetzung Redundant Array of Independent Disks redundante Anordnung unabhangiger Festplatten Aufbau und Anschluss Hardware RAID Software RAID BearbeitenDer Betrieb eines RAID Systems setzt mindestens zwei Speichermedien voraus Diese werden gemeinsam betrieben und bilden einen Verbund der unter mindestens einem Aspekt betrachtet leistungsfahiger ist als die einzelnen Medien Mit RAID Systemen kann man folgende Vorteile erreichen allerdings schliessen sich einige gleichzeitig aus Erhohung der Ausfallsicherheit Redundanz Steigerung der Datenubertragungsrate Leistung Aufbau grosser logischer Laufwerke Austausch von Speichermedien auch wahrend des Betriebes Vergrossern des Speichers auch wahrend des Betriebs Kostenreduktion durch Einsatz mehrerer kleiner preiswerter MedienDie genaue Art des Zusammenwirkens der einzelnen Speichermedien wird durch den RAID Level spezifiziert Die gebrauchlichsten RAID Level sind RAID 0 RAID 1 und RAID 5 Sie werden unten beschrieben In der Regel erkennen die RAID Implementierungen nur den Gesamtausfall eines Mediums beziehungsweise Fehler die vom Medium signalisiert werden siehe z B SMART Auch konnen viele Implementierungen schon von der Theorie her nur einzelne Bitfehler erkennen und nicht korrigieren Da Bitfehler mittlerweile selten sind und das Erkennen von Einzelfehlern ohne Korrekturmoglichkeit nur von relativ geringem Nutzen ist verzichten heute einige Implementierungen auf die zusatzliche Integritatsprufung beim Schreiben read after write oder Lesen read and compare und bieten hierdurch eine zum Teil beachtlich hohere Performance Beispielsweise verzichten manche RAID 5 Implementierungen 4 heute beim Lesen auf das Uberprufen der Plausibilitat mittels Paritats Stripes analog arbeiten auch viele RAID 1 Implementierungen So erreichen diese Systeme beim Lesen Datendurchsatze wie sie sonst nur bei RAID 0 erzielt werden Auch wird bei solchen Implementierungen nicht notwendigerweise der Cache eines Speichermediums deaktiviert Dennoch legen einige RAID Level RAID 2 je nach Hersteller auch RAID 6 ihr besonderes Augenmerk auf die Datenintegritat und Fehlerkorrektur ECC dort sind folglich die Cache Speicher der Platten deaktiviert und zusatzlich werden dann jederzeit alle moglichen Prufungen durchgefuhrt read after write usw woraus zum Teil erhebliche Performanceeinbussen resultieren Aus Sicht des Benutzers oder eines Anwendungsprogramms unterscheidet sich ein RAID System nicht von einem einzelnen Speichermedium Hardware RAID Bearbeiten nbsp PCI X SCSI RAID Controller von AdaptecVon Hardware RAID spricht man wenn das Zusammenwirken der Speichermedien von einer speziell dafur entwickelten Hardware Baugruppe dem RAID Controller organisiert wird Der Hardware RAID Controller befindet sich typischerweise in physischer Nahe der Speichermedien Er kann im Gehause des Computers enthalten sein Besonders im Rechenzentrumsumfeld befindet er sich haufiger in einem eigenen Gehause einem Disk Array in dem auch die Festplatten untergebracht sind Die externen Systeme werden oft auch als DAS oder SAN bezeichnet oder auch NAS wenngleich nicht jedes dieser Systeme auch RAID implementiert Professionelle Hardware RAID Implementierungen verfugen uber eigene eingebettete CPUs sie nutzen grosse zusatzliche Cache Speicher und bieten somit hochsten Datendurchsatz und entlasten dabei gleichzeitig den Hauptprozessor Durch eine durchdachte Handhabung und einen soliden Herstellersupport wird gerade auch bei Storungen eine bestmogliche Unterstutzung des Systemadministrators erreicht Einfache Hardware RAID Implementierungen bieten diese Vorteile nicht in gleichem Masse und stehen daher in direkter Konkurrenz zu Software RAID Systemen Host RAID Bearbeiten nbsp PCI IDE ATA Host Adapter von AbitIm unteren Preissegment praktisch ausschliesslich fur IDE ATA oder SATA Festplatten werden sogenannte Host RAID Implementierungen angeboten 5 Rein ausserlich ahneln diese Losungen den Hardware RAID Implementierungen Es gibt sie als Kartenerweiterungen aus dem Niedrigpreis Sektor haufig sind sie aber auch direkt in die Hauptplatinen engl mainboards fur den Heimcomputer und Personal Computer integriert Meistens sind diese Implementierungen auf RAID 0 und RAID 1 beschrankt Um solche nichtprofessionellen Implementierungen so erschwinglich wie moglich zu halten verzichten sie weitestgehend auf aktive Komponenten und realisieren die RAID Level durch eine Software die in den Treibern der Hardware integriert ist allerdings fur die notwendigen Rechenarbeiten den Hauptprozessor nutzt und auch die internen Bussysteme deutlich mehr belastet Es handelt sich also eher um eine Software RAID Implementierung die an eine spezielle Hardware gebunden ist Die Bindung an den Controller ist ein bedeutender Nachteil erschwert die Wiederherstellung und birgt bei einer Fehlfunktion desselben die Gefahr eines Datenverlustes Solche Controller werden im Linux Jargon daher oft auch als Fake RAID 6 bezeichnet vgl auch die sogenannten Win oder Softmodems die ebenfalls den Hauptprozessor und Bussysteme zusatzlich belasten Software RAID Bearbeiten Von Software RAID spricht man wenn das Zusammenwirken der Festplatten komplett softwareseitig organisiert wird Auch der Begriff Host based RAID ist gelaufig da nicht das Speicher Subsystem sondern der eigentliche Computer die RAID Verwaltung durchfuhrt Die meisten modernen Betriebssysteme wie FreeBSD OpenBSD Apple macOS HP HP UX IBM AIX Linux Microsoft Windows ab Windows NT oder Solaris sind dazu in der Lage Die einzelnen Festplatten sind in diesem Fall entweder uber einfache Festplattencontroller am Computer angeschlossen oder es werden externe Storage Gerate wie Disk Arrays von Unternehmen wie EMC Promise AXUS Proware oder Hitachi Data Systems HDS an den Computer angeschlossen Die Festplatten werden zunachst ohne RAID Controller als sogenannte JBODs just a bunch of disks in das System integriert dann wird per Software RAID z B unter Linux mit dem Programm mdadm die RAID Funktionalitat realisiert Eine besondere Variante des Software RAID sind Dateisysteme mit einer integrierten RAID Funktionalitat Ein Beispiel dafur ist das von Sun Microsystems entwickelte RAID Z 7 Pro Bearbeiten Der Vorteil von Software RAID ist dass kein spezieller RAID Controller benotigt wird Die Steuerung wird von der RAID Software erledigt Diese ist entweder schon Teil des Betriebssystems oder wird nachtraglich installiert Dieser Vorteil kommt besonders bei der Disaster Recovery zum Tragen wenn der RAID Controller defekt und nicht mehr verfugbar ist Praktisch alle derzeit verfugbaren Software RAID Systeme benutzen die Festplatten so dass diese auch ohne die spezifische Software ausgelesen werden konnen Contra Bearbeiten Bei einem Software RAID werden bei Festplattenzugriffen neben dem Hauptprozessor des Computers auch die System Busse wie PCI starker belastet als bei einem Hardware RAID Bei leistungsschwachen CPUs und Bus Systemen verringert dies deutlich die Systemleistung bei leistungsstarken wenig ausgelasteten Systemen ist dies belanglos Storage Server sind in der Praxis oft nicht voll ausgelastet auf solchen Systemen konnen Software RAID Implementierungen unter Umstanden sogar schneller sein als Hardware RAIDs Ein weiterer Nachteil ist dass bei vielen Software RAID kein Cache genutzt werden kann dessen Inhalt auch nach einem Stromausfall erhalten bleibt wie es bei Hardware RAID Controllern mit einer Battery Backup Unit der Fall ist Dieses Problem lasst sich mit einer unterbrechungsfreien Stromversorgung fur den gesamten PC vermeiden Um die Gefahr von Datenverlusten und Fehlern in der Datenintegritat bei einem Stromausfall oder Systemabsturz zu minimieren sollten ausserdem die Schreib Caches der Festplatten deaktiviert werden 8 Da die Platten eines Software RAIDs prinzipiell auch einzeln angesprochen werden konnen besteht bei gespiegelten Festplatten die Gefahr dass Anderungen nur noch an einer Platte durchgefuhrt werden wenn etwa nach einem Betriebssystem Update die RAID Software oder der Treiber fur einen RAID Festplatten Controller nicht mehr funktionieren eine der gespiegelten Festplatten aber weiterhin uber einen generischen SATA Treiber angesprochen werden kann Entsprechende Warnhinweise oder Fehlermeldungen wahrend des Bootens sollten deshalb nicht ignoriert werden nur weil das System trotzdem funktioniert Ausnahmen bilden hier Software RAID mit Datenintegritat wie z B ZFS Unvollstandige Speichervorgange werden zuruckgesetzt Fehlerhafte Spiegeldaten werden erkannt und durch korrekte Spiegeldaten ersetzt Es wird wohl beim Lesen eine Fehlermeldung geben da die fehlerhafte oder alte Spiegelseite nicht mit dem aktuellen Block ubereinstimmt Software Raid und Storage Server Bearbeiten Mit einem Software RAID ahnlichen Ansatz lassen sich auch logische Volumes die von unterschiedlichen Storage Servern zur Verfugung gestellt werden auf Seite des Anwendungsservers spiegeln Das kann in hochverfugbaren Szenarien nutzlich sein weil man damit unabhangig von entsprechender Cluster Logik in den Storage Servern ist welche haufig fehlt andere Ansatze verfolgt oder herstellerabhangig und somit in gemischten Umgebungen nicht zu gebrauchen ist Allerdings muss das Host Betriebssystem entsprechende Features mitbringen z B durch Einsatz von GlusterFS des Logical Volume Manager oder von NTFS Solche Storage Server sind ublicherweise in sich schon redundant Ein ubergreifendes Cluster richtet sich also eher gegen den Ausfall des ganzen Servers oder eines Rechnerraumes Stromausfall Wasserschaden Brand usw Ein einfacher Spiegel vergleichbar mit RAID 1 reicht hier aus siehe auch Hauptartikel Storage Area Network Probleme BearbeitenGrossenanderung Bearbeiten Fur Grossenanderungen von RAIDs bestehen grundsatzlich zwei Alternativen Entweder das bestehende RAID wird ubernommen und angepasst oder die Daten werden andernorts gesichert das RAID in der gewunschten Grosse dem gewunschten Level neu aufgesetzt und die zuvor gesicherten Daten zuruckgespielt Letzterer trivialer Fall wird nachfolgend nicht weiter behandelt es geht ausschliesslich um die Grossenveranderung eines bestehenden RAID Systems Das Verkleinern eines bestehenden RAID Systems ist in der Regel nicht moglich Bezuglich einer Vergrosserung gibt es allgemein keine Garantie dass ein bestehendes RAID System durch das Hinzufugen weiterer Festplatten erweitert werden kann Das gilt sowohl fur Hardware als auch fur Software RAIDs Nur wenn ein Hersteller sich der Erweiterung als Option explizit angenommen hat besteht diese Moglichkeit Sie ist ublicherweise recht zeitintensiv da sich durch eine veranderte Laufwerksanzahl die Organisation samtlicher Daten und Paritatsinformationen andert und daher die physische Ordnung restrukturiert werden muss Weiterhin mussen das Betriebssystem und das verwendete Dateisystem in der Lage sein den neuen Plattenplatz einzubinden Eine RAID Vergrosserung setzt einen neuen Datentrager voraus der mindestens die Grosse des kleinsten bereits verwendeten Datentragers aufweist Austausch Bearbeiten nbsp Error Log das den Ausfall eines Laufwerks in einem RAID 5 Spiegel eines wenig belasteten 7 Jahre alten RAID 51 zeigt Der Wiederaufbau der Hotspare begann vollautomatisch jedoch fuhrte die hohe Belastung durch den Plattenaufbau zu weiteren Lesefehlern eines weiteren Laufwerks Der Wiederaufbau des RAID Arrays konnte abgeschlossen werden bevor die zweite Platte versagte Muss zum Beispiel nach einem Plattenfehler ein RAID Array wiederhergestellt werden so benotigt man eine Festplatte die mindestens so gross wie die ausgefallene Festplatte ist Dies kann problematisch sein wenn man zum Beispiel Platten maximaler Grosse verwendet Ist ein Plattentyp auch nur zeitweise nicht lieferbar und die alternativ erhaltlichen Platten sind auch nur ein Byte kleiner kann das RAID Array nicht mehr einfach wiederhergestellt werden Vorsorglich nutzen daher manche Hersteller z B HP oder Compaq Platten mit einer geanderten Plattenfirmware welche die Platte gezielt geringfugig verkleinert So wird sichergestellt dass sich auch Platten anderer Hersteller mit ebenfalls angepasster Firmware auf die vom RAID Array genutzte Grosse einstellen lassen Ein anderer Ansatz den einige Hersteller von RAID Controllern verfolgen ist die Plattenkapazitat beim Einrichten des Arrays geringfugig zu beschneiden somit konnen auch Platten unterschiedlicher Serien oder verschiedener Hersteller mit annahernd gleicher Kapazitat problemlos verwendet werden Ob ein Controller diese Funktion unterstutzt sollte aber vor Einrichten eines Arrays uberpruft werden da eine nachtragliche Grossenanderung meist nicht moglich ist Manche RAID Implementierungen uberlassen es dem Benutzer einigen Plattenplatz nicht auszunutzen Es empfiehlt sich dann aber naturlich auch bei Software RAID bereits von Anfang an einen geringen Plattenplatz fur den Fall eines Modellwechsels zu reservieren und nicht zu nutzen Aus diesem Grund sollte man auch maximal grosse Platten fur die es nur einen Hersteller gibt im Bereich redundanter RAID Systeme behutsam einsetzen Defekte Controller Bearbeiten Auch Hardware kann defekt sein z B in Form eines RAID Controllers Das kann zum Problem werden besonders dann wenn kein identischer Ersatzcontroller verfugbar ist In der Regel kann ein intakter Plattensatz nur am gleichen Controller beziehungsweise an der gleichen Controller Familie betrieben werden an dem er auch erstellt wurde Haufig kommt es besonders bei alteren Systemen auch vor dass nur exakt der gleiche Controller Hardware Firmware den Plattensatz ohne Datenverlust ansprechen kann Im Zweifelsfall sollte man unbedingt beim Hersteller nachfragen Aus dem gleichen Grund sind unbekannte Hersteller aber auch onboard RAID Systeme mit Vorsicht einzusetzen In jedem Fall sollte sichergestellt sein dass man auch nach Jahren einen leicht zu konfigurierenden passenden Ersatz bekommt Abhilfe schafft unter Umstanden Linux die Plattensatze einiger IDE SATA RAID Controller Adaptec HostRAID ASR Highpoint HPT37X Highpoint HPT45X Intel Software RAID JMicron JMB36x LSI Logic MegaRAID Nvidia NForce Promise FastTrack Silicon Image Medley SNIA DDF1 VIA Software RAID und Kompatible konnen direkt mit dem dmraid Tool 9 vom Betriebssystem eingelesen werden Fehlerhaft produzierte Datentragerserien Bearbeiten Festplatten konnen wie andere Produkte auch in fehlerhaften Serien produziert werden Gelangen diese dann zum Endverbraucher und in ein RAID System so konnen solche serienbehafteten Fehler auch zeitnah auftreten und dann zu Mehrfachfehlern dem gleichzeitigen Ausfall mehrerer Festplatten fuhren Solche Mehrfachfehler lassen sich dann ublicherweise nur durch das Ruckspielen von Datensicherungen kompensieren Vorsorglich kann man Diversitats Strategien nutzen also einen RAID Array aus etwa leistungsgleichen Platten mehrerer Hersteller aufbauen wobei man beachten muss dass die Plattengrossen geringfugig variieren konnen und sich die maximale Arraygrosse ggf von der kleinsten Platte ableitet Statistische Fehlerrate bei grossen Festplatten Bearbeiten Ein verdecktes Problem liegt in dem Zusammenspiel von Arraygrosse und statistischer Fehlerwahrscheinlichkeit der verwendeten Laufwerke Festplattenhersteller geben fur ihre Laufwerke eine Wahrscheinlichkeit fur nicht korrigierbare Lesefehler an unrecoverable read error URE Der URE Wert ist ein Durchschnittswert der innerhalb der Gewahrleistungszeit zugesichert wird er erhoht sich alters und verschleissbedingt Fur einfache Laufwerke aus dem Consumer Bereich IDE SATA garantieren die Hersteller typischerweise URE Werte von maximal 10 14 displaystyle 10 14 nbsp max ein fehlerhaftes Bit pro 10 14 displaystyle 10 14 nbsp gelesene Bit fur Serverlaufwerke SCSI SAS sind es meist zwischen 10 16 displaystyle 10 16 nbsp und 10 15 displaystyle 10 15 nbsp Fur Consumer Laufwerke bedeutet das also dass es wahrend der Verarbeitung von 10 14 displaystyle 10 14 nbsp Bit etwa 12 TB maximal zu einem URE kommen darf Besteht ein Array also beispielsweise aus acht je 2 TB grossen Platten so garantiert der Hersteller nur noch dass der Rebuild statistisch gesehen mindestens in einem von drei Fallen ohne URE klappen muss obwohl alle Laufwerke korrekt nach Herstellerspezifikation funktionieren Fur kleine RAID Systeme stellt dies kaum ein Problem dar Der Rebuild eines RAID 5 Arrays aus drei 500 GB grossen Consumer Laufwerken 1 TB Nutzdaten wird im Schnitt in 92 von 100 Fallen erfolgreich sein wenn nur URE Fehler betrachtet werden Deswegen stossen praktisch schon jetzt alle einfachen redundanten RAID Verfahren RAID 3 4 5 usw ausser RAID 1 und RAID 2 an eine Leistungsgrenze 10 Das Problem kann naturlich durch hoherwertige Platten aber auch durch kombinierte RAID Level wie RAID 10 oder RAID 50 entscharft werden In der Realitat ist das Risiko dass tatsachlich ein derartiger URE basierter Fehler eintritt durchaus geringer denn es handelt sich bei den Herstellerangaben nur um garantierte Maximalwerte Dennoch ist der Einsatz hochwertiger Laufwerke mit Fehlerraten von 10 15 displaystyle 10 15 nbsp oder besser besonders bei professionellen Systemen anzuraten Rebuild Bearbeiten Als Rebuild bezeichnet man den Wiederherstellungsprozess eines RAID Verbundes Dieser wird notwendig wenn eine oder mehrere Festplatten je nach RAID Level im RAID Verbund ausgefallen oder entfernt worden sind und anschliessend durch neue Festplatten ersetzt wurden Da die neuen Festplatten unbeschrieben sind mussen mit Hilfe der noch vorhandenen Nutzdaten bzw Paritatsdaten die fehlenden Daten auf diese geschrieben werden Unabhangig von der Konfiguration des RAID Systems bedeutet ein Rebuild immer eine hohere Belastung der beteiligten Hardwarekomponenten Ein Rebuild kann abhangig vom RAID Level der Plattenanzahl und grosse durchaus mehr als 24 Stunden dauern Um bei einem Rebuild weitere Plattenausfalle zu vermeiden sollte man Festplatten aus unterschiedlichen Herstellungschargen fur ein RAID verwenden Da die Platten unter gleichen Betriebsbedingungen arbeiten und dasselbe Alter besitzen besitzen sie auch eine ahnliche Lebens bzw Ausfallerwartung Ein automatischer Rebuild kann je nach verwendetem Controller uber Hot Spare Platten welche dem RAID Verbund zugeordnet sind erfolgen Allerdings verfugt nicht jeder Controller oder jede Software uber die Moglichkeiten eine oder mehrere Hot Spare Platten anzubinden Diese ruhen im normalen Betrieb Sobald der Controller eine defekte Festplatte erkennt und aus dem RAID Verbund entfernt wird eine der Hot Spare Platten in den Verbund eingefugt und der Rebuild startet automatisch Es findet aber i A weder bei Controllern noch bei Softwarelosungen eine regelmassige Uberprufung der Hot Spare Platte n auf Verfugbarkeit und Schreib Lesefunktionalitat statt Unter den vorgenannten Problempunkten sollte der Zustand Rebuild eines Systems neu betrachtet werden Die ursprungliche Bedeutung RAID s a Erlauterung zu Beginn des Artikels und dessen Prioritat Ausfallsicherheit durch Redundanz wandelt sich in der Praxis mehr und mehr zu einem System dessen Prioritat in der Maximierung des zur Verfugung gestellten Speicherplatzes durch einen Verbund von gunstigen Festplatten maximaler Kapazitat liegt Der ehemals kurzzeitige Betriebszustand Rebuild in dem verfugbare Hotspare Festplatten sehr kurzfristig den Normalzustand wiederherstellen konnten entwickelt sich dabei zu einem tagelangen Notfallszenario Der verhaltnismassig lange Zeitraum unter maximaler Beanspruchung erhoht dabei das Risiko eines weiteren Hardwareausfalls oder anderer Storfalle betrachtlich Eine weitere Erhohung der Redundanz insbesondere bei grosseren Festplattenverbanden z B durch Verwendung eines RAID 6 eines ZFS Raid Z3 oder sogar einer weiteren Spiegelung des gesamten Festplattenverbundes gt GlusterFS Ceph etc scheint in solchen Szenarien angeraten Die gebrauchlichen RAID Level im Einzelnen BearbeitenDie gebrauchlichsten RAID Level sind die RAID Level 0 1 und 5 Bei der Prasenz von drei Platten a 1 TB die jeweils eine Ausfallwahrscheinlichkeit von 1 in einem gegebenen Zeitraum haben gilt RAID 0 stellt 3 TB zur Verfugung Die Ausfallwahrscheinlichkeit des RAIDs betragt 2 9701 1 in 34 Fallen RAID 1 stellt 1 TB zur Verfugung Die Ausfallwahrscheinlichkeit des RAIDs betragt 0 0001 1 in 1 000 000 Fallen RAID 5 stellt 2 TB zur Verfugung Die Ausfallwahrscheinlichkeit des RAIDs betragt 0 0298 1 in 3 356 Fallen Technisch wird dieses Verhalten wie folgt erreicht RAID 0 Striping Beschleunigung ohne Redundanz Bearbeiten nbsp RAID Level 0Bei RAID 0 fehlt die Redundanz daher gehort es streng genommen nicht zu den RAID Systemen es ist nur ein schnelles Array of Independent Disks RAID 0 bietet gesteigerte Transferraten indem die beteiligten Festplatten in zusammenhangende Blocke gleicher Grosse aufgeteilt werden wobei diese Blocke quasi im Reissverschlussverfahren zu einer grossen Festplatte angeordnet werden Somit konnen Zugriffe auf allen Platten parallel durchgefuhrt werden engl striping was in Streifen zerlegen bedeutet abgeleitet von stripe oder Streifen Die Datendurchsatzsteigerung bei sequentiellen Zugriffen aber besonders auch bei hinreichend hoher Nebenlaufigkeit beruht darauf dass die notwendigen Festplattenzugriffe in hoherem Masse parallel abgewickelt werden konnen Die Grosse der Datenblocke wird als Striping Granularitat auch stripe size chunk size oder interlace size bezeichnet Meistens wird bei RAID 0 eine chunk size von 64 kB gewahlt Fallt jedoch eine der Festplatten durch einen Defekt vollstandig aus kann der RAID Controller ohne deren Teildaten die Nutzdaten nicht mehr vollstandig rekonstruieren Die Daten teilweise wiederherzustellen ist unter Umstanden moglich namlich genau fur jene Dateien die nur auf den verbliebenen Festplatten gespeichert sind was typischerweise nur bei kleinen Dateien und eher bei grosser Striping Granularitat der Fall sein wird Im Vergleich dazu wurde die Benutzung getrennter Dateisysteme fur die einzelnen Festplatten bei einem Ausfall eines Speichermediums die nahtlose Weiternutzung der Dateisysteme der verbliebenen Medien ermoglichen wahrend der vollstandige Ausfall eines einzelnen und entsprechend grosseren Speichermediums einen vollstandigen Verlust aller Daten zur Folge hatte RAID 0 ist daher nur in Anwendungen zu empfehlen bei denen Ausfallsicherheit nicht von Bedeutung ist Auch wenn uberwiegend lesende Zugriffe auftreten wahrend andernde Zugriffe durch entsprechende Verfahren redundant auch auf einem anderen Medium ausgefuhrt werden kann RAID 0 empfehlenswert sein Die bei einfachem RAID 0 unvermeidbare Betriebsunterbrechung infolge eines Festplatten Ausfalls auch einzelner Platten sollte bei der Planung berucksichtigt werden Der Einsatzzweck dieses Verbundsystems erstreckt sich demnach auf Anwendungen bei denen in kurzer Zeit besonders grosse Datenmengen vor allem gelesen werden sollen etwa auf die Musik oder Videowiedergabe und die sporadische Aufnahme derselben Die Ausfallwahrscheinlichkeit eines RAID 0 aus n displaystyle n nbsp Festplatten in einem bestimmten Zeitraum betragt 1 1 p n displaystyle 1 1 p n nbsp Das gilt nur unter der Annahme dass die Ausfallwahrscheinlichkeit p displaystyle p nbsp einer Festplatte statistisch unabhangig von den ubrigen Festplatten und fur alle Festplatten identisch ist Eine Sonderform stellt ein Hybrid RAID 0 Verbund aus SSD und konventioneller Festplatte dar s a Fusion Drive unter OS X wobei die SSD als grosser Cachespeicher fur die konventionelle Festplatte dient Ein echtes RAID 0 entsteht hier aber nicht da nach einer Trennung der beiden Laufwerke die Daten beider Datentrager auch separat noch lesbar sind RAID 1 Mirroring Spiegelung Bearbeiten nbsp RAID Level 1RAID 1 ist der Verbund von mindestens zwei Festplatten Ein RAID 1 speichert auf allen Festplatten die gleichen Daten Spiegelung und bietet somit volle Redundanz Die Kapazitat des Arrays ist hierbei hochstens so gross wie die kleinste beteiligte Festplatte Ein Vorteil von RAID 1 gegenuber allen anderen RAID Verfahren liegt in seiner Einfachheit Beide Platten sind identisch beschrieben und enthalten alle Daten eines Systems somit kann die passende Hardware vorausgesetzt normalerweise auch jede Platte einzeln in zwei unabhangigen Rechnern intern oder im externen Laufwerk unmittelbar betrieben und genutzt werden Aufwandige Rebuilds sind nur dann notwendig wenn die Platten wieder redundant betrieben werden sollen Im Storfall wie auch bei Migrationen beziehungsweise Upgrades bedeutet das einen erheblichen Vorteil Fallt eine der gespiegelten Platten aus kann jede andere weiterhin alle Daten liefern Besonders in sicherheitskritischen Echtzeitsystemen ist das unverzichtbar RAID 1 bietet eine hohe Ausfallsicherheit denn zum Totalverlust der Daten fuhrt erst der Ausfall aller Platten Die Ausfallwahrscheinlichkeit eines RAID 1 aus n displaystyle n nbsp Festplatten in einem bestimmten Zeitraum betragt p n displaystyle p n nbsp falls die Ausfallwahrscheinlichkeit p displaystyle p nbsp einer Festplatte statistisch unabhangig von den ubrigen Festplatten und fur alle Festplatten identisch ist Aus historischen Grunden wird zwischen Mirroring alle Festplatten am selben Controller und Duplexing fur jede Festplatte ein eigener Controller unterschieden was heute jedoch nur bei Betrachtungen uber den Single Point of Failure eine Rolle spielt Festplatten Controller fallen im Vergleich zu mechanisch beanspruchten Teilen also Festplatten relativ selten aus so dass das Risiko eines Controller Ausfalls aufgrund seiner geringen Wahrscheinlichkeit haufig noch toleriert wird Zur Erhohung der Leseleistung kann ein RAID 1 System beim Lesen auf mehr als eine Festplatte zugreifen und gleichzeitig verschiedene Sektoren von verschiedenen Platten einlesen Bei einem System mit zwei Festplatten lasst sich so die Leistung verdoppeln Die Lesecharakteristik entspricht hierbei einem RAID 0 System Diese Funktion bieten aber nicht alle Controller oder Softwareimplementierungen an Sie erhoht die Lesegeschwindigkeit des Systems geht aber auf Kosten der Sicherheit Eine solche Implementierung schutzt vor einem kompletten Datentragerausfall aber nicht vor Problemen mit fehlerhaften Sektoren zumindest falls diese erst nach dem Speichern read after write verify auftreten Zur Erhohung der Sicherheit kann ein RAID 1 System beim Lesen stets auf mehr als eine Festplatte zugreifen Dabei werden die Antwortdatenstrome der Festplatten verglichen Bei Unstimmigkeiten wird eine Fehlermeldung ausgegeben da die Spiegelung nicht langer besteht Diese Funktion bieten nur wenige Controller an auch reduziert sie die Geschwindigkeit des Systems geringfugig Eine Spiegelplatte ist kein Ersatz fur eine Datensicherung da sich auch versehentliche oder fehlerhafte Schreiboperationen Viren Stromausfall Benutzerfehler augenblicklich auf die Spiegelplatte ubertragen Dies gilt insbesondere fur unvollstandig abgelaufene schreibende Programme etwa durch Stromausfall abgebrochene Update Transaktionen auf Datenbanken ohne Logging System wobei es hier nicht nur zu der Beschadigung der Spiegelung sondern auch zu einem inkonsistenten Datenzustand trotz intakter Spiegelung kommen kann Abhilfe schaffen hier Datensicherungen und Transaktions Logs Eine Sonderform stellt ein Hybrid RAID 1 Verbund aus SSD und konventioneller Festplatte dar welche die Vorteile einer SSD Lesegeschwindigkeit mit der Redundanz verbindet RAID 5 Leistung Paritat Block Level Striping mit verteilter Paritatsinformation Bearbeiten nbsp RAID Level 5RAID 5 implementiert Striping mit auf Block Level verteilten Paritatsinformationen Zur Berechnung der Paritat wird durch die jeweils an gleicher Adresse anliegenden Datenblocke der am RAID Verbund beteiligten Festplatten eine logische Gruppe gebildet Von allen Datenblocken einer Gruppe enthalt ein Datenblock die Paritatsdaten wahrend die anderen Datenblocke Nutzdaten enthalten Die Nutzdaten von RAID 5 Gruppen werden wie bei RAID 0 auf alle Festplatten verteilt Die Paritatsinformationen werden jedoch nicht wie bei RAID 4 auf einer Platte konzentriert sondern ebenfalls verteilt RAID 5 bietet sowohl gesteigerten Datendurchsatz beim Lesen von Daten als auch Redundanz bei relativ geringen Kosten und ist dadurch eine sehr beliebte RAID Variante In schreibintensiven Umgebungen mit kleinen nicht zusammenhangenden Anderungen ist RAID 5 nicht zu empfehlen da bei zufalligen Schreibzugriffen der Durchsatz aufgrund des zweiphasigen Schreibverfahrens deutlich abnimmt An dieser Stelle ware eine RAID 01 Konfiguration vorzuziehen RAID 5 ist eine der kostengunstigsten Moglichkeiten Daten auf mehreren Festplatten redundant zu speichern und dabei das Speichervolumen effizient zu nutzen Dieser Vorteil kann bei wenigen Platten allerdings durch hohe Controllerpreise vernichtet werden Daher kann es in einigen Situationen dazu fuhren dass ein RAID 10 kostengunstiger ist Die nutzbare Gesamtkapazitat errechnet sich aus der Formel Anzahl der Festplatten 1 Kapazitat der kleinsten Festplatte Rechenbeispiel mit vier Festplatten a 1 TB 4 1 1 TB 3 TB Nutzdaten und 1 TB Paritat Da ein RAID 5 nur dann versagt wenn mindestens zwei Platten gleichzeitig ausfallen ergibt sich bei einem RAID 5 mit n displaystyle n nbsp 1 Festplatten eine theoretische Ausfallwahrscheinlichkeit von 1 1 p n 1 p 1 p n n 1 displaystyle 1 Bigl 1 p n 1 p 1 p n cdot n 1 Bigr nbsp falls die Ausfallwahrscheinlichkeit p displaystyle p nbsp einer Festplatte statistisch unabhangig von den ubrigen Festplatten und fur alle Festplatten identisch ist In der Praxis wird jedoch wahrend des Rebuild Vorganges das gesamte Array hoch belastet so dass weitere Ausfalle in diesem Zeitraum mit hoherer Wahrscheinlichkeit zu erwarten sind Die Berechnung der Paritatsdaten eines Paritatsblocks erfolgt durch XOR Verknupfung der Daten aller Datenblocke seiner Gruppe was wiederum zu einer leichten bis erheblichen Verminderung der Datentransferrate im Vergleich zu RAID 0 fuhrt Da die Paritatsinformationen beim Lesen nicht benotigt werden stehen alle Platten zum parallelen Zugriff zur Verfugung Dieser theoretische Vorteil greift allerdings nicht bei kleinen Dateien ohne nebenlaufigen Zugriff erst bei grosseren Dateien oder geeigneter Nebenlaufigkeit tritt eine nennenswerte Beschleunigung ein Bei n Festplatten erfordert der Schreibzugriff entweder ein Volumen das genau n 1 korrespondierende Datenblocke ausfullt oder ein zwei phasiges Verfahren alte Daten lesen neue Daten schreiben Jungere RAID Implementierungen berechnen die neue Paritatsinformation bei einem Schreibzugriff nicht durch XOR Verknupfung uber die Daten aller korrespondierenden Datenblocke sondern durch XOR Verknupfung von altem und neuen Datenwert sowie des alten Paritatswerts Anders gesagt Wechselt ein Datenbit den Wert dann wechselt auch das Paritatsbit den Wert Das ist mathematisch dasselbe aber es sind nur zwei Lesezugriffe erforderlich namlich auf die beiden alten Werte und nicht n 2 Lesezugriffe auf die sonstigen Datenblocke wie fruher Dies erlaubt den Aufbau von grosseren RAID 5 Arrays ohne Leistungsabfall beispielsweise mit n 8 In Verbindung mit Schreibcaches erreicht man im Vergleich zu RAID 1 beziehungsweise RAID 10 hiermit ahnlichen Datendurchsatz bei geringeren Hardwarekosten Storage Server werden daher wenn uberhaupt noch klassische RAID Verfahren zur Anwendung kommen ublicherweise in RAID 5 Arrays aufgeteilt Bei RAID 5 ist die Datenintegritat des Arrays beim Ausfall von maximal einer Platte gewahrleistet Nach Ausfall einer Festplatte oder wahrend des Rebuilds auf die Hotspare Platte bzw nach Austausch der defekten Festplatte lasst die Leistung deutlich nach beim Lesen jeder n 1 te Datenblock muss rekonstruiert werden beim Schreiben jeder n 1 te Datenblock kann nur durch Lesen der entsprechenden Bereiche aller korrespondierenden Datenblocke und anschliessendes Schreiben der Paritat geschrieben werden hinzu kommen die Zugriffe des Rebuilds n 1 Lesen 1 Schreiben Bei dem Rebuild Verfahren ist daher die Berechnung der Paritat zeitlich zu vernachlassigen im Vergleich zu RAID 1 dauert somit das Verfahren unwesentlich langer und benotigt gemessen am Nutzdatenvolumen nur den n 1 ten Teil der Schreibzugriffe Eine noch junge Methode zur Verbesserung der Rebuild Leistung und damit der Ausfallsicherheit ist praemptives RAID 5 Hierbei werden interne Fehlerkorrekturstatistiken der Festplatten zur Vorhersage eines Ausfalls herangezogen siehe SMART Vorsorglich wird nun die Hotspare Platte mit dem kompletten Inhalt der ausfallverdachtigsten Festplatte im RAID Verbund synchronisiert um zum vorhergesagten Versagenszeitpunkt sofort an deren Stelle treten zu konnen Das Verfahren erreicht bei geringerem Platzbedarf eine ahnliche Ausfallsicherheit wie RAID 6 und andere Dual Parity Implementierungen Allerdings wurde praemptives RAID 5 aufgrund des hohen Aufwands bislang nur in wenigen High End Speichersystemen mit serverbasierten Controllern implementiert Zudem zeigt eine Studie von Google Februar 2007 dass SMART Daten zur Vorhersage des Ausfalls einer einzelnen Festplatte nur eingeschrankt nutzlich sind 11 Einfluss der Anzahl der FestplattenBei RAID 5 Systemen sind Konfigurationen mit 3 oder 5 Festplatten haufig anzutreffen das ist kein Zufall denn die Anzahl der Festplatten hat einen Einfluss auf die Schreibleistung Einfluss auf die Read PerformanceSie wird weitestgehend durch die Anzahl der Festplatten aber auch durch Cache Grossen bestimmt mehr ist hier immer besser Einfluss auf die Write PerformanceIm Unterschied zur Read Performance ist das Ermitteln der Write Performance bei RAID 5 deutlich komplizierter und hangt sowohl von der zu schreibenden Datenmenge als auch von der Anzahl der Platten ab 4 Ausgehend von Festplatten mit weniger als 2 TB Plattenplatz ist die atomare Blockgrosse auch Sektorgrosse genannt der Platten haufig 512 Byte siehe Festplattenlaufwerk Geht man weiter von einem RAID 5 Verbund mit 5 Platten 4 5 Daten und 1 5 Paritat aus so ergibt sich folgendes Szenario Will eine Anwendung 2 048 Byte schreiben wird in diesem gunstigen Fall auf alle 5 Platten genau je ein Block zu 512 Byte geschrieben wobei einer dieser Blocke keine Nutzdaten enthalt Im Vergleich zu RAID 0 mit 5 Platten ergibt sich daraus eine Effizienz von 80 bei RAID 5 mit 3 Platten waren es 66 Mochte eine Anwendung nur einen Block von 512 Byte schreiben so ergibt sich ein ungunstigerer Fall es mussen zuerst der abzuandernde Block und der Paritatsblock eingelesen werden danach wird der neue Paritatsblock berechnet und erst dann konnen beide 512 Byte Blocke geschrieben werden Das bedeutet einen Aufwand von 2 Lesezugriffen und 2 Schreibzugriffen um einen Block zu speichern Geht man vereinfacht davon aus dass Lesen und Schreiben gleich lange dauern so betragt die Effizienz in diesem ungunstigsten Fall dem sogenannten RAID 5 write Penalty noch 25 In der Praxis wird dieser Worst Case Fall bei einem RAID 5 mit 5 Platten aber kaum eintreten denn Dateisysteme haben haufig Blockgrossen von 2 kB 4 kB und mehr und zeigen daher praktisch ausschliesslich das Well Case Schreibverhalten Gleiches gilt analog fur RAID 5 mit 3 Platten Unterschiedlich verhalt sich hingegen etwa ein RAID 5 System mit 4 Platten 3 4 Daten und 1 4 Paritat soll hier ein Block von 2 048 Byte geschrieben werden sind zwei Schreibvorgange notwendig es werden dann einmal 1 536 Byte mit Well Case Performance geschrieben und noch einmal 512 Byte mit Worst Case Verhalten Diesem Worst Case Verhalten wirken zwar Cache Strategien entgegen aber dennoch ergibt sich hieraus dass bei RAID 5 moglichst ein Verhaltnis von zwei vier oder auch acht Platten fur Nutzdaten plus einer Platte fur Paritatsdaten eingehalten werden sollte Daher haben RAID 5 Systeme mit 3 5 oder 9 Platten ein besonders gunstiges Performanceverhalten Weniger gebrauchliche oder bedeutungslos gewordene RAID Level BearbeitenRAID 2 Bit Level Striping mit Hamming Code basierter Fehlerkorrektur Bearbeiten RAID 2 spielt in der Praxis keine Rolle mehr Das Verfahren wurde nur bei Grossrechnern verwendet Die Daten werden hierbei in Bitfolgen fester Grosse zerlegt und mittels eines Hamming Codes auf grossere Bitfolgen abgebildet zum Beispiel 8 Bit fur Daten und noch 3 Bit fur die ECC Eigenschaft Die einzelnen Bits des Hamming Codeworts werden dann uber einzelne Platten aufgeteilt was prinzipiell einen hohen Durchsatz erlaubt Ein Nachteil ist jedoch dass die Anzahl der Platten ein ganzzahliges Vielfaches der Hamming Codewortlange sein muss wenn sich die Eigenschaften des Hamming Codes nach aussen zeigen sollen diese Forderung entsteht wenn man einen Bit Fehler im Hamming Code analog zu einem Festplatten Ausfall im RAID 2 sieht Der kleinste RAID 2 Verbund benotigt drei Festplatten und entspricht einem RAID 1 mit zweifacher Spiegelung Im realen Einsatz sah man daher zumeist nicht weniger als zehn Festplatten in einem RAID 2 Verbund RAID 3 Byte Level Striping mit Paritatsinformationen auf separater Festplatte Bearbeiten nbsp RAID Level 3Der wesentliche Gedanke bei RAID 3 ist ein moglichst hoher Leistungsgewinn mit Redundanz im Verhaltnis zum Anschaffungspreis Im RAID 3 werden die eigentlichen Nutzdaten normal auf einer oder mehreren Datenplatten gespeichert Ausserdem wird eine Summeninformation auf einer zusatzlichen Paritatsplatte gespeichert Fur die Paritatsplatte werden die Bits der Datenplatten zusammengezahlt und die errechnete Summe wird darauf untersucht ob sie eine gerade oder eine ungerade Summe darstellt eine gerade Summe wird auf der Paritatsplatte mit dem Bit Wert 0 gekennzeichnet eine ungerade Summe wird mit dem Bit Wert 1 gekennzeichnet Die Datenplatten enthalten also normale Nutzdaten wahrend die Paritatsplatte nur die Summeninformationen enthalt Beispiel mit zwei Datenplatten und einer Paritatsplatte Bits der Datenplatten Summe gerade oder ungerade Summen Bit der Paritatsplatte 0 0 Summe 0 ist gerade Summen Bit 0 0 1 Summe 1 ist ungerade Summen Bit 1 1 0 Summe 1 ist ungerade Summen Bit 1 1 1 Summe 2 ist gerade Summen Bit 0 Ginge beispielsweise das Bit der ersten Datenplatte verloren konnte man es aus dem Bit der zweiten Datenplatte und dem Summen Bit der Paritatsplatte errechnen Bits der Datenplatten amp Summen Bit der Paritatsplatte rekonstruiertes Datum 0 amp 0 also eine gerade Summe 0 denn das erste Bit kann nicht 1 sein 1 amp 1 also eine ungerade Summe 0 denn das erste Bit kann nicht 1 sein 0 amp 1 also eine ungerade Summe 1 denn das erste Bit kann nicht 0 sein 1 amp 0 also eine gerade Summe 1 denn das erste Bit kann nicht 0 sein Beispiel mit drei Datenplatten und einer Paritatsplatte Bits der Datenplatten Summe gerade oder ungerade Summen Bit der Paritatsplatte 0 0 0 Summe 0 ist gerade Summen Bit 0 1 0 0 Summe 1 ist ungerade Summen Bit 1 1 1 0 Summe 2 ist gerade Summen Bit 0 1 1 1 Summe 3 ist ungerade Summen Bit 1 0 1 0 Summe 1 ist ungerade Summen Bit 1 Ginge beispielsweise das Bit der ersten Datenplatte verloren konnte man es aus den Bits der anderen Datenplatten und dem Summen Bit der Paritatsplatte errechnen Bits der Datenplatten amp Summen Bit der Paritatsplatte rekonstruiertes Datum 0 0 amp 0 also eine gerade Summe 0 denn das erste Bit kann nicht 1 sein 0 0 amp 1 also eine ungerade Summe 1 denn das erste Bit kann nicht 0 sein 1 0 amp 0 also eine gerade Summe 1 denn das erste Bit kann nicht 0 sein 1 1 amp 1 also eine ungerade Summe 1 denn das erste Bit kann nicht 0 sein 1 0 amp 1 also eine ungerade Summe 0 denn das erste Bit kann nicht 1 sein In der Mikroelektronik ist dies identisch mit der XOR Verknupfung Der Gewinn durch ein RAID 3 ist folgender Man kann beliebig viele Datenplatten verwenden und braucht fur die Paritatsinformationen trotzdem nur eine einzige Platte Die eben dargestellten Berechnungen liessen sich auch mit 4 oder 5 oder noch mehr Datenplatten und nur einer einzigen Paritats Platte durchfuhren Damit ergibt sich auch gleich der grosste Nachteil Die Paritatsplatte wird bei jeder Operation vor allem Schreiboperation benotigt sie bildet dadurch den Flaschenhals des Systems auf diese Platten wird bei jeder Schreiboperation zugegriffen RAID 3 ist inzwischen vom Markt verschwunden und wurde weitgehend durch RAID 5 ersetzt bei dem die Paritat gleichmassig uber alle Platten verteilt wird Vor dem Ubergang zu RAID 5 wurde RAID 3 zudem partiell durch RAID 4 verbessert bei dem Ein beziehungsweise Ausgabe Operationen mit grosseren Blockgrossen aus Geschwindigkeitsgrunden standardisiert wurden Ein RAID 3 Verbund aus nur zwei Festplatten eine Datenplatte eine Paritatsplatte ist ein Spezialfall Die Paritatsplatte enthalt in diesem Fall die gleichen Bit Werte wie die Datenplatte damit entspricht der Verbund in der Wirkung einem RAID 1 mit zwei Festplatten eine Datenplatte eine Kopie der Datenplatte RAID 4 Block Level Striping mit Paritatsinformationen auf separater Festplatte Bearbeiten nbsp Diagramm eines speziellen RAID 4 mit gesonderter Paritatsplatte wobei jede Farbe eine Paritatsgruppe stripe set darstelltEs werden ebenfalls Paritatsinformationen berechnet die auf eine dedizierte Festplatte geschrieben werden Allerdings sind die Einheiten die geschrieben werden grossere Datenblocke englisch stripes oder chunks und nicht einzelne Bytes was die Gemeinsamkeit zu RAID 5 ausmacht Ein Nachteil bei klassischem RAID 4 besteht darin dass die Paritatsplatte bei allen Schreib und Leseoperationen beteiligt ist Dadurch ist die maximal mogliche Datenubertragungsgeschwindigkeit durch die Datenubertragungsgeschwindigkeit der Paritatsplatte begrenzt Da bei jeder Operation immer eine der Datenplatten und die Paritatsplatte verwendet werden muss die Paritatsplatte weit mehr Zugriffe durchfuhren als die Datenplatten Sie verschleisst dadurch starker und ist daher haufiger von Ausfallen betroffen Wegen der fest definierten Paritatsplatte bei RAID 4 wird stattdessen fast immer RAID 5 bevorzugt Eine Ausnahme bildet ein Systemdesign bei dem die Lese und Schreiboperationen auf ein NVRAM erfolgen Das NVRAM bildet einen Puffer der die Ubertragungsgeschwindigkeit kurzfristig erhoht die Lese und Schreiboperationen sammelt und in sequenziellen Abschnitten auf das RAID 4 Plattensystem schreibt Dadurch werden die Nachteile von RAID 4 vermindert und die Vorteile bleiben erhalten NetApp nutzt RAID 4 in ihren NAS Systemen das verwendete Dateisystem WAFL wurde speziell fur den Einsatz mit RAID 4 entworfen Da RAID 4 nur bei sequentiellen Schreibzugriffen effektiv arbeitet verwandelt WAFL wahlfreie Schreibzugriffe random writes im NVRAM Cache in sequentielle und merkt sich jede einzelne Position fur den spateren Abruf Beim Lesen tritt allerdings das klassische Fragmentierungsproblem auf Zusammengehorige Daten stehen nicht notwendigerweise auf physisch hintereinanderliegenden Blocken wenn sie im Nachhinein aktualisiert oder uberschrieben wurden Die verbreitetste Beschleunigung von Lesezugriffen der Cache prefetch ist daher ohne Wirkung Die Vorteile beim Schreiben ergeben somit einen Nachteil beim Lesen Das Dateisystem muss dann regelmassig defragmentiert werden RAID 6 Block Level Striping mit doppelt verteilter Paritatsinformation Bearbeiten nbsp RAID Level 6RAID 6 unter diversen Handelsnamen angeboten zum Beispiel Advanced Data Guarding funktioniert ahnlich wie RAID 5 verkraftet aber den gleichzeitigen Ausfall von bis zu zwei Festplatten Insbesondere beim intensiven Einsatz hochkapazitiver SATA IDE Festplatten kann die Wiederherstellung der Redundanz nach dem Ausfall einer Platte viele Stunden bis hin zu Tagen dauern bei RAID 5 besteht wahrenddessen kein Schutz vor einem weiteren Ausfall RAID 6 implementiert Striping mit doppelten auf Block Level verteilten Paritatsinformationen Im Gegensatz zu RAID 5 gibt es bei RAID 6 mehrere mogliche Implementierungsformen die sich insbesondere in der Schreibleistung und dem Rechenaufwand unterscheiden Im Allgemeinen gilt Bessere Schreibleistung wird durch erhohten Rechenaufwand erkauft Im einfachsten Fall wird eine zusatzliche XOR Operation uber eine weitere Datenzeile berechnet Auch die zweite Paritat wird rotierend auf alle Platten verteilt Eine andere RAID 6 Implementierung rechnet mit nur einer Datenzeile produziert allerdings keine Paritatsbits sondern einen Zusatzcode der 2 Einzelbit Fehler beheben kann Das Verfahren ist rechnerisch aufwandiger Zum Thema Mehrbit Fehlerkorrektur siehe auch Reed Solomon Code Fur alle RAID 6 Implementierungen gilt gemeinsam Der Leistungseinbruch bei Schreiboperationen Write Penalty ist bei RAID 6 etwas grosser als bei RAID 5 die Leseleistung ist bei gleicher Gesamtplattenzahl geringer eine Nutzdatenplatte weniger beziehungsweise der Preis pro nutzbarem Gigabyte erhoht sich um eine Festplatte je RAID Verbund also im Schnitt um ein Siebtel bis zu ein Funftel Ein RAID 6 Verbund benotigt mindestens vier Festplatten RAID DP Block Level Striping mit doppelter Paritatsinformation auf separaten Festplatten Bearbeiten nbsp RAID DPRAID DP double dual oder manchmal diagonal parity ist eine von NetApp weiterentwickelte Version von RAID 4 Hierbei wird eine zweite Paritat nach derselben Formel wie die erste Paritat P berechnet jedoch mit anderen Datenblocken Die erste Paritat wird horizontal die zweite Paritat Q diagonal berechnet Zudem wird bei der Berechnung der diagonalen Paritat jeweils die erste Paritat mit einbezogen dafur aber abwechselnd eine Festplatte nicht Da in einem RAID DP zwei beliebige Festplattenfehler kompensiert werden konnen ist die Verfugbarkeit eines solchen Systems gegenuber einer Single Paritatslosung also z B RAID 4 oder RAID 5 gesteigert RAID DP Sets bestehen in der Regel aus 14 2 Platten Somit liegt der Brutto Netto Verschnitt ahnlich niedrig wie bei RAID 4 RAID 5 P 1 xor A 1 B 1 C 1 displaystyle P 1 operatorname xor left A 1 B 1 C 1 right nbsp P 2 xor A 2 B 2 C 2 displaystyle P 2 operatorname xor left A 2 B 2 C 2 right nbsp P 3 xor A 3 B 3 C 3 displaystyle P 3 operatorname xor left A 3 B 3 C 3 right nbsp displaystyle dots nbsp Q 1 xor P 1 A 2 B 3 0 displaystyle Q 1 operatorname xor left P 1 A 2 B 3 0 right nbsp Q 2 xor P 2 A 3 0 C 1 displaystyle Q 2 operatorname xor left P 2 A 3 0 C 1 right nbsp Q 3 xor P 3 0 B 1 C 2 displaystyle Q 3 operatorname xor left P 3 0 B 1 C 2 right nbsp displaystyle dots nbsp RAID DP vereinfacht die Wiederherstellung Hierbei werden zuerst mit der diagonalen Paritat die Daten der ersten ausgefallenen Festplatte berechnet und danach aus der horizontalen Paritat der Inhalt der zweiten Festplatte Die Rechenoperationen beschranken sich im Gegensatz zum RAID 6 wo ein Gleichungssystem zu losen ist auf einfache XOR Operationen RAID DP kann jederzeit auf RAID 4 umgeschaltet werden und umgekehrt indem man einfach die zweite Paritatsplatte abschaltet bzw wiederherstellt Dies geschieht ohne ein Umkopieren oder Umstrukturieren der bereits gespeicherten Daten im laufenden Betrieb Details zu RAID DP konnen in der USENIX Veroffentlichung Row Diagonal Parity for Double Disk Failure Correction gefunden werden 12 RAID DP erfullt die SNIA RAID 6 Definition 13 Nichteigentliche RAIDs Festplattenverbund BearbeitenNRAID Bearbeiten Streng genommen handelt es sich bei NRAID Non RAID kein eigentliches RAID nicht um ein wirkliches RAID es gibt keine Redundanz Bei NRAID auch als linear mode oder concat enation bekannt werden mehrere Festplatten zusammengeschlossen Die von einigen RAID Controllern angebotene NRAID Funktion ist mit dem klassischen Herangehen uber einen Logical Volume Manager LVM zu vergleichen und weniger mit RAID 0 denn im Gegensatz zu RAID 0 bietet NRAID kein Striping uber mehrere Platten hinweg und daher auch keinen Gewinn beim Datendurchsatz Dafur kann man Festplatten unterschiedlicher Grosse ohne Speicherverlust miteinander kombinieren Beispiel eine 10 GB Festplatte und eine 30 GB Festplatte ergeben in einem NRAID eine virtuelle 40 GB Festplatte wahrend in einem RAID 0 nur 20 GB 10 10 GB genutzt werden konnten Da es bei dem zugrunde liegenden linear mode keine Stripes gibt wird bei einem solchen Verbund erst die erste Festplatte mit Daten gefullt und erst dann wenn weiterer Platz benotigt wird kommt die zweite Platte zum Einsatz Reicht auch diese nicht aus wird falls vorhanden die nachste Platte beschrieben Folglich gibt es bei einem Ausfall einer Platte zwei Moglichkeiten Zum einen kann diese noch keine Daten enthalten dann gehen je nach Implementierung der Datenwiederherstellung moglicherweise auch keine Daten verloren Zum anderen kann die defekte Platte bereits Daten enthalten haben dann hat man auch hier den Nachteil dass der Ausfall der einzelnen Platte den gesamten Verbund beschadigt Das fehlende Striping erleichtert aber auch das Wiederherstellen einzelner nicht betroffener Dateien Im Unterschied zu RAID 0 fuhrt der Ausfall einer Platte hier also nicht unbedingt zu einem kompletten Datenverlust zumindest solange sich die Nutzdaten komplett auf der noch funktionierenden Platte befinden NRAID ist weder einer der nummerierten RAID Levels noch bietet es Redundanz Man kann es aber durchaus als entfernten Verwandten von RAID 0 betrachten Beide machen aus mehreren Festplatten eine einzige logische Einheit deren Datenkapazitat mit denen fur RAID 0 genannten Einschrankungen der Summe der Kapazitaten aller verwendeten Platten entspricht Heutzutage sind Controller die mit der Eigenschaft NRAID verkauft werden in der Lage dies zu tun Die Platten die auch von unterschiedlicher Grosse sein konnen werden einfach aneinandergehangt Im Unterschied zu RAID 0 werden allerdings keine Stripesets gebildet Es gibt weder Ausfallsicherheit noch Performancegewinn Der Vorteil liegt im Wesentlichen in der Grosse des resultierenden Laufwerks so wie in einer etwas verbesserten Situation bei der Datenrettung Ein Vorteil im Vergleich zu einer LVM Losung ist dass es bei NRAID problemlos moglich ist vom RAID Verbund zu booten Da die meisten modernen Betriebssysteme mittlerweile uber einen Logischen Volume Manager LVM wird manchmal auch als Manager fur dynamische Datentrager bezeichnet verfugen ist es aber oft sinnvoller diesen zu benutzen Der im Betriebssystem integrierte LVM birgt praktisch keine messbaren Performancenachteile und arbeitet unabhangig von spezieller Hardware er kann daher auch Festplatten verschiedener Typen SCSI SATA USB iSCSI AoE uvm miteinander zusammenfassen Auch braucht man bei einem defekten RAID Controller nicht nach einem baugleichen Modell zu suchen die Platten konnen in der Regel einfach an jeden beliebigen Controller mit gleichem Festplatten Interface angeschlossen werden Die Wiederherstellung erfolgt dann uber das jeweilige Betriebssystem Wurde allerdings falls dies uberhaupt moglich ist direkt vom zusammengesetzten logischen Volume gebootet kann dies die Wiederherstellung enorm erschweren SPAN Bearbeiten Von VIA wird in seiner RAID Konfiguration unter anderem die Option SPAN angeboten Sie dient zur Kapazitatserweiterung ohne Leistungsgewinn wie bei NRAID Wahrend bei RAID 0 Striping die Daten gleichzeitig auf mehrere Festplatten verteilt werden gelangen die Daten bei SPAN zusammenhangend auf eine Festplatte Bei RAID 0 sollten nach Moglichkeit gleich grosse Festplatten verwendet werden da die uberschussige Kapazitat des grosseren Datentragers verlorengeht Bei SPAN sind unterschiedlich grosse Festplatten ohne Kapazitatsverlust zu einer grossen Festplatte zusammenfassbar was Linear Mode oder NRAID entspricht JBOD Bearbeiten nbsp JBODJBOD bedeutet Just a Bunch of Disks also Nur ein Haufen Festplatten Bei JBOD fehlt die Redundanz daher gehort es nicht zu den RAID Systemen es ist nur ein einfaches Array of Independent Disks Der Begriff wird in der Praxis in Abgrenzung zu RAID Systemen auf drei verschiedene Arten verwendet Konfiguration eines RAID Controllers mit mehreren Festplatten die keinen Verbund bilden Viele Hardware RAID Controller sind in der Lage die angeschlossenen Festplatten dem Betriebssystem einzeln zur Verfugung zu stellen die RAID Funktionen des Controllers werden dabei abgeschaltet und er arbeitet als einfacher Festplatten Controller Ein JBOD kann auch unabhangig vom Controller eine auf beliebige Arten an den Computer angeschlossene Anzahl von Festplatten bezeichnen Mithilfe einer Volume Management Software kann ein solches JBOD zu einem gemeinsamen logischen Volume zusammengeschaltet werden Konfiguration eines RAID Controllers als Aneinanderreihung concatenation einer oder mehrerer Festplatten die so als ein einziges Laufwerk erscheinen Es ist jedoch auch moglich eine Festplatte in mehrere logische Datentrager aufzuteilen um diese fur das Betriebssystem als mehrere Festplatten erscheinen zu lassen zum Beispiel um Kapazitatsgrenzen zu umgehen Diese Konfiguration ist identisch mit NRAID oder SPAN und ist genau genommen auch kein RAID System RAID Kombinationen BearbeitenObwohl die RAID Level 0 1 und 5 die weitaus grosste Verwendung finden existieren neben den Leveln 0 bis 6 noch RAID Kombinationen Hier wird ein RAID nochmals zu einem zweiten RAID zusammengefasst Beispielsweise konnen mehrere Platten zu einem parallelen RAID 0 zusammengefasst werden und aus mehreren dieser RAID 0 Arrays zum Beispiel ein RAID 5 Array gebildet werden Man bezeichnet diese Kombinationen dann etwa als RAID 05 0 5 Umgekehrt wurde ein Zusammenschluss von mehreren RAID 5 Arrays zu einem RAID 0 Array als RAID 50 oder RAID 5 0 bezeichnet werden Auch RAID 1 und RAID 5 Kombinationen sind moglich RAID 15 und RAID 51 die beliebtesten Kombinationen sind allerdings das RAID 01 bei dem je zwei Platten parallel arbeiten und dabei von zwei anderen Platten gespiegelt werden insgesamt vier Platten oder RAID 10 bei dem mindestens zwei mal zwei Platten gespiegelt werden und dabei per RAID 0 zu einem Ganzen erganzt werden Selten werden RAIDs auch mit mehr Layern zusammengefasst z B RAID 100 RAID 01 Bearbeiten nbsp RAID 01 mit vier Platten Syn RAID 0 1 Ein RAID 01 Verbund ist ein RAID 1 uber mehrere RAID 0 Dabei werden die Eigenschaften der beiden RAIDs kombiniert Sicherheit geringer als beim RAID 10 und gesteigerter Datendurchsatz Haufig wird behauptet ein konventioneller aktueller RAID 01 Verbund benotige mindestens vier Festplatten Das ist nicht ganz richtig Mindestens vier oder genereller eine gerade Anzahl 4 Festplatten werden nur fur den bekannteren klassischen RAID 10 Verbund benotigt Aber auch mit nur drei Festplatten lasst sich auf vielen RAID Controllern ein RAID 01 Verbund bilden Die Vorgehensweise ist folgende Zunachst werden die Platten genau wie bei RAID 0 nur in fortlaufend nummerierte Chunks Blocke Nummerierung beginnend mit 1 eingeteilt dann werden alle Chunks mit ungeraden Nummern mit dem nachsthoheren Nachbarn mit gerader Nummer gespiegelt Die Platten werden dabei jeweils zu 50 mit Nutzdaten belegt die ubrigen 50 jeder Platte enthalten eine Kopie der Nutzdaten einer der anderen Platten Die Nutzdaten sowie die gespiegelten Daten werden verteilt striped Bei drei Platten sieht das so aus Platte A 50 Nutzdaten 50 Spiegelung Nutzdaten Platte C Platte B 50 Nutzdaten 50 Spiegelung Nutzdaten Platte A Platte C 50 Nutzdaten 50 Spiegelung Nutzdaten Platte BDie Nutzdaten werden dabei ebenso wie die gespiegelten Daten RAID 0 typisch uber die Platten A B und C verteilt striped Bei Ausfall einer Platte sind immer noch alle Daten vorhanden Hinsichtlich der Ausfallwahrscheinlichkeit gibt es theoretisch keinen Unterschied zu RAID 5 mit drei Festplatten Zwei von drei Laufwerken mussen intakt bleiben damit das System funktioniert Im Unterschied zu RAID 5 steht bei RAID 01 mit vier Festplatten jedoch weniger Speicherplatz zur Verfugung RAID 03 Bearbeiten nbsp RAID 03RAID 03 ist gleichwertig mit RAID 30 RAID 05 Bearbeiten Ein RAID 05 Verbund besteht aus einem RAID 5 Array das aus mehreren striped RAID 0 besteht Er benotigt mindestens drei RAID 0 somit mind 6 Festplatten Bei RAID 05 besteht fast doppelte Ausfallchance im Vergleich zu einem herkommlichen RAID 5 aus Einzelplatten da bei einem RAID 0 schon beim Defekt eines Laufwerkes alle Daten verloren sind RAID 10 Bearbeiten nbsp RAID 10Ein RAID 10 Verbund ist ein RAID 0 uber mehrere RAID 1 Es werden dabei die Eigenschaften der beiden RAIDs kombiniert Sicherheit und gesteigerte Schreib Lesegeschwindigkeit Ein RAID 10 Verbund benotigt mindestens vier Festplatten Wahrend die RAID 1 Schicht einer RAID 0 1 Implementation nicht in der Lage ist einen Schaden in einem untergeordneten RAID 0 differenziert den einzelnen Festplatten zuzuordnen bietet RAID 10 gegenuber RAID 0 1 eine bessere Ausfallsicherheit und schnellere Rekonstruktion nach einem Plattenausfall da nur ein Teil der Daten rekonstruiert werden muss 14 Auch hier hat man wie bei RAID 0 1 nur die Halfte der gesamten Festplattenkapazitat zur Verfugung RAID 1 5 Bearbeiten RAID 1 5 ist eigentlich kein eigenes RAID Level sondern ein durch das Unternehmen Highpoint eingefuhrter Ausdruck fur eine RAID 1 Implementierung mit gesteigerter Performance Es nutzt typische Vorteile einer RAID 0 Losung auch bei RAID 1 Die Optimierungen konnen im Unterschied zu RAID 10 bereits mit nur zwei Festplatten verwendet werden Dabei werden die beiden Platten in einfacher Geschwindigkeit wie bei RAID 1 ublich gespiegelt beschrieben wahrend beim Lesen beide Platten mit hohem Datendurchsatz wie bei RAID 0 genutzt werden Die RAID 1 5 Erweiterungen nicht zu verwechseln mit RAID 15 werden allerdings nicht nur von Highpoint implementiert Versierte RAID 1 Implementierungen wie die unter Linux oder Solaris lesen ebenfalls von allen Platten und verzichten auf den Ausdruck RAID 1 5 der keinen Extravorteil bietet RAID 15 Bearbeiten Das RAID 15 Array wird gebildet indem man mindestens drei RAID 1 Arrays als Bestandteile fur ein RAID 5 verwendet es ist im Konzept ahnlich wie RAID 10 ausser dass das Striping mit einer Paritat erfolgt Bei einem RAID 15 mit acht Festplatten durfen bis zu drei beliebige Platten gleichzeitig ausfallen insgesamt bis zu funf sofern maximal ein Mirrorset komplett ausfallt Ein RAID 15 Verbund benotigt mindestens sechs Festplatten Der Datendurchsatz ist gut aber nicht sehr hoch Die Kosten sind mit denen anderer RAID Systeme nicht direkt vergleichbar dafur ist das Risiko eines kompletten Datenverlustes recht gering RAID 1E Bearbeiten nbsp RAID 1EBeim RAID 1E werden einzelne Datenblocke auf die jeweils nachste Festplatte gespiegelt Es durfen hierbei weder zwei benachbarte noch die erste und die letzte Festplatte gleichzeitig ausfallen Fur ein RAID 1E wird immer eine ungerade Anzahl von Festplatten benotigt Die nutzbare Kapazitat reduziert sich um die Halfte Es gibt allerdings noch andere Versionen von RAID 1E die flexibler sind als die hier dargestellte Variante RAID 1E0 Bearbeiten nbsp RAID 1E0Bei einem RAID 1E0 werden mehrere RAID 1E mit einem RAID 0 zusammengeschaltet Die maximale Anzahl der redundanten Platten und die Nettokapazitat entspricht dem zugrundeliegenden RAID 1E RAID 30 Verbund Bearbeiten nbsp RAID 30RAID 30 wurde ursprunglich von American Megatrends entwickelt Es stellt eine Striped Variante von RAID 3 dar das heisst ein RAID 0 welches mehrere RAID 3 zusammenfasst Ein RAID 30 Verbund benotigt mindestens sechs Festplatten zwei Legs mit je drei Festplatten Es darf eine Festplatte in jedem Leg ausfallen RAID 45 Verbund Bearbeiten Ein RAID 45 Verbund fasst ahnlich dem RAID 55 mehrere RAID 4 mit einem RAID 5 zusammen Man benotigt hierfur mindestens drei RAID 4 Legs zu je drei Festplatten und damit neun Festplatten Bei neun Festplatten sind nur vier Festplatten nutzbar das Verhaltnis verbessert sich allerdings mit der Anzahl der verwendeten Festplatten RAID 45 wird daher nur in grossen Festplattenverbanden eingesetzt Die Ausfallsicherheit ist sehr hoch da mindestens drei beliebige Festplatten zusatzlich eine Festplatte in jedem Leg und dazu noch ein komplettes Leg ausfallen durfen RAID 50 Verbund Bearbeiten Ein RAID 50 Verbund besteht aus einem RAID 0 Array das aus mehreren striped RAID 5 besteht Ein RAID 50 Verbund benotigt mindestens sechs Festplatten beispielsweise zwei RAID 5 Controller mit jeweils drei Platten pro Controller zusammengeschaltet mit einem Software Stripe RAID 0 Das garantiert einen sehr hohen Datendurchsatz beim Schreiben und Lesen da die Rechenarbeit auf zwei XOR Units verteilt wird Bei einem RAID 50 Verbund mit sechs Festplatten darf nur eine Platte gleichzeitig ausfallen insgesamt bis zu zwei sofern die beiden Platten nicht zum selben RAID 5 Verbund gehoren Ein RAID 50 Verbund wird bei Datenbanken verwendet bei denen Schreibdurchsatz und Redundanz im Vordergrund stehen RAID 51 Bearbeiten nbsp RAID 51Der RAID 51 Verbund wird ahnlich wie RAID 15 gebildet indem man die gesamte Reihe eines RAID 5 spiegelt und ist ahnlich wie RAID 01 abgesehen vom Paritatsschutz 15 Bei einem Sechs Festplatten RAID 51 durfen bis zu drei beliebige gleichzeitig ausfallen Daruber hinaus durfen vier Festplatten ausfallen solange nur eine Platte aus dem gespiegelten RAID 5 Verbund betroffen ist Ein RAID 51 Verbund benotigt mindestens sechs Festplatten Die Datenubertragungs Leistung ist gut aber nicht sehr hoch Die Kosten sind mit denen anderer RAID Systeme nicht direkt vergleichbar RAID 53 Bearbeiten RAID 53 ist eine in der Praxis gangige Bezeichnung fur ein RAID 30 RAID 55 Bearbeiten Der RAID 55 Verbund wird ahnlich wie RAID 51 gebildet indem mehrere RAID 5 Systeme uber ein weiteres RAID 5 zu einem RAID 55 zusammengeschaltet werden Im Gegensatz zu RAID 51 ist der Overhead geringer und es ist moglich schneller die Daten zu lesen Bei einem Neun Festplatten RAID 55 System durfen bis zu drei beliebige Festplatten gleichzeitig ausfallen Insgesamt durfen maximal funf Festplatten ausfallen 3 1 1 Ein RAID 55 Verbund benotigt mindestens neun Festplatten drei Legs zu je drei Festplatten Die Datenubertragungs Geschwindigkeit ist gut aber nicht sehr hoch Die Kosten sind mit denen anderer RAID Systeme nicht direkt vergleichbar RAID 5E Bearbeiten nbsp RAID 5ERAID 5E ist die Abkurzung fur RAID 5 Enhanced Es kombiniert ein RAID 5 mit einem Hot Spare Der Hot Spare wird dabei allerdings nicht als getrenntes Laufwerk ausgefuhrt sondern auf die einzelnen Platten aufgeteilt Anders ausgedruckt wird auf jeder Platte Speicherplatz fur den Fall eines Ausfalles reserviert Sollte eine Festplatte ausfallen wird der Inhalt dieser Platte im freien Speicherplatz mit Hilfe der Paritat wiederhergestellt und das Array kann als RAID 5 weiterbetrieben werden Der Vorteil liegt nicht in einer gesteigerten Sicherheit gegenuber RAID 5 sondern in der hoheren Geschwindigkeit durch standige Nutzung aller vorhandenen Plattenspindeln inklusive der ublicherweise leer mitlaufenden Hot Spare Platte Die Technik wird schon lange bei IBM fur RAID Controller eingesetzt jedoch immer mehr durch RAID 5EE ersetzt RAID 5EE Bearbeiten nbsp RAID 5EERAID 5EE arbeitet ahnlich wie RAID 5E Allerdings wird hierbei der freie Speicherplatz nicht am Ende der Festplatten reserviert sondern ahnlich der RAID 5 Paritat uber die Platten diagonal verteilt Dadurch bleibt beim Ausfall eine hohere Ubertragungsgeschwindigkeit bei der Wiederherstellung der Daten RAID 5DP und RAID ADG Bearbeiten RAID 5DP ist die von Hewlett Packard verwendete Bezeichnung der Implementierung fur RAID 6 in den Speicher Systemen der VA Baureihe Durch die Ubernahme von Compaq AG durch Hewlett Packard ging die fur die durch Compaq entwickelte RAID 6 Variante RAID ADG fur die Compaq Smart Arrays ebenfalls in das geistige Eigentum von Hewlett Packard uber Das Akronym ADG steht hier fur Advanced Data Guarding RAID 60 Verbund Bearbeiten Ein RAID 60 Verbund besteht aus einem RAID 0 Array das mehrere RAID 6 kombiniert Hierzu sind mindestens zwei Controller mit je vier Festplatten also gesamt acht Festplatten notwendig Prinzipiell skalieren sich die Unterschiede von RAID 5 und RAID 6 hoch auf die Unterschiede zwischen RAID 50 und RAID 60 Der Durchsatz ist geringer wahrend die Ausfallsicherheit hoher ist Der gleichzeitige Ausfall von zwei beliebigen Laufwerken ist jederzeit moglich weitere Ausfalle sind nur dann unkritisch wenn maximal zwei Platten je gestriptem RAID 6 betroffen sind Matrix RAID Bearbeiten nbsp Matrix RAIDAb der Intel ICH6R Southbridge ist seit etwa Mitte 2004 erstmals eine Technik integriert die als Matrix RAID vermarktet wird und die Idee von RAID 1 5 aufgreift Sie soll die Vorteile von RAID 0 und RAID 1 auf nur zwei Festplatten vereinen Jede der beiden Platten wird vom Controller zu diesem Zweck in zwei Bereiche aufgeteilt Ein Bereich wird dann auf die andere Festplatte gespiegelt wahrend im verbleibenden Bereich die Daten auf beide Platten aufgeteilt werden Man kann dann zum Beispiel im aufgeteilten Bereich sein unwichtiges Betriebssystem und Programme installieren um von RAID 0 zu profitieren wahrend man im gespiegelten Bereich dann seine wichtigen Daten abspeichern kann und auf die Redundanz von RAID 1 vertrauen kann Im Falle eines Plattencrashes musste man dann nur sein Betriebssystem und Programme neu aufspielen wahrend die wichtigen Daten im anderen Festplattenbereich erhalten bleiben Mit mehreren Festplatten kann man in einem Matrix RAID auch andere RAID Typen einsetzen und beispielsweise ab drei Festplatten eine Partition als RAID 5 betreiben RAID S beziehungsweise Parity RAID Bearbeiten RAID S beziehungsweise Parity RAID manchmal auch als RAID 3 1 RAID 7 1 oder RAID 6 2 beziehungsweise RAID 14 2 bezeichnet ist ein proprietares Striped Parity RAID des Herstellers EMC Ursprunglich nannte EMC diese Form RAID S bei den Symmetrix Systemen Seit dem Marktauftritt der neuen Modelle DMX heisst diese RAID Variante Parity RAID Inzwischen bietet EMC auch Standard RAID 5 an Laut Angaben von EMC durfen bei Parity RAID 2 Typen bis zu zwei Festplatten ausfallen RAID S stellt sich wie folgt dar Ein Volume ist jeweils auf einem physischen Laufwerk mehrere Volumes meistens drei bzw sieben werden willkurlich zu Paritatszwecken kombiniert Dies ist nicht genau identisch mit RAID 3 4 oder 5 denn bei RAID S geht es immer um zahlreiche evtl 100 oder 1 000 Laufwerke die nicht alle gemeinsam einen einzelnen Verbund bilden Vielmehr bilden wenige Platten typisch 4 bis 16 einen RAID S Verbund ein oder mehrere dieser Verbunde bilden logische Einheiten eine Ahnlichkeit zu den RAID Leveln 50 oder 60 und RAID Z ist unverkennbar Ausserdem werden bei RAID 5 die auf physischen Laufwerken befindlichen Volumes abweichend Chunks genannt Mehrere Chunks fur Daten werden zusammen mit einem Paritats Chunk zu einem Stripe zusammengefasst Aus beliebig vielen Stripes wird dann die Basis fur eine Partition oder ein logisches Volume gebildet Ein Parity RAID 3 1 beinhaltet drei Daten Volumes und ein Paritats Volume Hiermit ist eine Nutzung von 75 der Kapazitat moglich Beim Parity RAID 7 1 hingegen sind sieben Daten Volumes und ein Paritats Volume vorhanden Hiermit ist jedoch bei geringerer Ausfallsicherheit eine Nutzung von 87 5 der Kapazitat moglich Bei normalem RAID 5 aus vier Platten beinhaltet ein Stripe drei Chunks mit Daten und einen Paritats Chunk Bei normalem RAID 5 aus acht Platten beinhaltet ein Stripe dann sieben Chunks mit Daten und ebenfalls einen Paritats Chunk Daruber hinaus bietet EMC noch als Option fur diese RAID Varianten die Hypervolume Extension HVE an HVE erlaubt mehrere Volumes auf demselben physischen Laufwerk EMC parity RAID EMC parity RAID mit HVE A1 B1 C1 pABC A B C pABC A2 B2 C2 pABC D E pDEF F A3 B3 C3 pABC G pGHI H I A4 B4 C4 pABC pJKL J K L Hinweis A1 B1 etc stellen einen Datenblock dar jede Spalte stellt eine Festplatte dar A B etc sind gesamte Volumes RAID TP beziehungsweise RAID Triple Parity Bearbeiten RAID TP beziehungsweise RAID Triple Parity ist ein proprietares RAID mit dreifacher Paritat vom Hersteller easyRAID Laut Herstellerangaben konnen bei RAID TP ohne Datenverlust bis zu drei Festplatten ausfallen Eine weitere Triple Parity Implementierung stammt von Sun Microsystems und wird als Triple Parity RAID Z oder RAID Z3 vermarktet 16 Diese in das ZFS integrierte Version nutzt zur Absicherung der Daten einen Reed Solomon Code auch hier konnen ohne Datenverlust bis zu drei Festplatten eines RAID Verbunds defekt sein Beim RAID TP von easyRAID werden die Datenblocke und die Paritaten zeitgleich jeweils auf die einzelnen physischen Festplatten geschrieben Die drei Paritaten werden auf verschiedene Stripes auf unterschiedlichen Platten abgelegt Der RAID Triple Parity Algorithmus benutzt einen speziellen Code mit einem Hamming Abstand von mindestens 4 RAID TP beziehungsweise RAID Triple Parity Disk1 Disk2 Disk3 Disk4 Disk5A1 B1 pP A1 B1 pQ A1 B1 pR A1 B1 C1 pP C1 D1 pQ C1 D1 pR C1 D1 D1pP E1 F1 pQ E1 F1 pR E1 F1 E1 F1A2 B2 pP A2 B2 pQ A2 B2 pR A2 B2 C2 pP C2 D2 pQ C2 D2 pR C2 D2 D2pP E2 F2 pQ E2 F2 pR E2 F2 E2 F2Hinweis A1 B1 etc stellen einen Datenblock dar jede Spalte stellt eine Festplatte dar A B etc sind gesamte Volumes Hierzu benotigt man mindestens vier Festplatten Die Kapazitat errechnet sich aus Festplattenanzahl minus drei RAID Z im Dateisystem ZFS Bearbeiten RAID Z ist ein von Sun Microsystems im Dateisystem ZFS integriertes RAID System ZFS ist ein weiterentwickeltes Dateisystem welches zahlreiche Erweiterungen fur die Verwendung im Server und Rechenzentrumsbereich enthalt Hierzu zahlen die enorme maximale Dateisystemgrosse eine einfache Verwaltung selbst komplexer Konfigurationen die integrierten RAID Funktionalitaten das Volume Management sowie der prufsummenbasierte Schutz vor Platten und Datenubertragungsfehlern Bei redundanter Speicherung ist so eine automatische Fehlerkorrektur moglich Die Integration der RAID Funktionalitat in das Dateisystem hat den Vorteil dass Blockgrossen des Dateisystems und der RAID Volumes aufeinander abgestimmt werden konnen 17 wodurch sich zusatzliche Optimierungsmoglichkeiten ergeben 18 Das ins Dateisystem integrierte RAID Subsystem bietet gegenuber klassischen Hardware oder Software RAID Implementierungen den Vorteil dass durch das integrierte RAID System zwischen belegten und freien Datenblocken unterschieden werden kann und somit bei der Rekonstruktion eines RAID Volumens nur belegter Plattenplatz gespiegelt werden muss woraus im Schadensfall besonders bei wenig gefullten Dateisystemen eine enorme Zeitersparnis resultiert Elementare redundante Einheiten nennt das ZFS Redundancy Groups Diese sind als Verbunde aus RAID 1 RAID Z1 RAID 5 und RAID Z2 RAID 6 realisiert Eine oder mehrere Redundancy Groups bilden analog zu kombiniertem RAID 0 zusammen ein ZFS Volume oder ZFS Pool aus dem dynamisch Partitionen angefordert werden konnen RAID Z1 arbeitet analog zu RAID 5 gegenuber einem traditionellen RAID 5 Array ist RAID Z1 gegen Synchronisationsprobleme write hole geschutzt und bietet daher Performance Vorteile analog gilt dies auch fur RAID Z2 und RAID 6 Seit Juli 2009 ist auch RAID Z3 also eine RAID Z Implementierung mit drei Paritatsbits verfugbar 16 Der Begriff write hole bezeichnet eine Situation die bei Schreibzugriffen entsteht wenn die Daten bereits auf die Festplatten geschrieben wurden die dazugehorige Paritatsinformation aber noch nicht Sollte wahrend dieses Zustands ein Problem beim Berechnen oder Schreiben der Paritatsinformation auftreten passen diese nicht mehr zu den gespeicherten Datenblocken Zusammenfassung BearbeitenAnzahl der Festplatten Die Anzahl der Festplatten n displaystyle n nbsp gibt an wie viele Festplatten benotigt werden um das jeweilige RAID aufzubauen Nettokapazitat Die Nettokapazitat k displaystyle k nbsp gibt die nutzbare Kapazitat in Abhangigkeit von der Anzahl der verwendeten Festplatten n displaystyle n nbsp an Dies entspricht der Anzahl der benotigten Festplatten ohne RAID die die gleiche Speicherkapazitat aufweisen Ausfallsicherheit Die Ausfallsicherheit S displaystyle S nbsp gibt an wie viele Festplatten ausfallen durfen ohne dass ein Datenverlust auftritt Zu beachten ist dass es insbesondere bei den Kombinations RAIDs einen Unterschied geben kann zwischen der Anzahl der Festplatten die auf jeden Fall ausfallen konnen S m i n displaystyle S mathrm min nbsp und der Anzahl der Festplatten die im gunstigsten Fall ausfallen konnen S m a x displaystyle S mathrm max nbsp Es gilt immer S m i n S m a x displaystyle S mathrm min leq S mathrm max nbsp und fur Standard RAIDs sind diese beiden Werte identisch Leg Ein Leg englisch fur Bein oder lower level RAID ist ein RAID Array welches mit anderen gleichartigen Legs uber ein ubergeordnetes RAID Array upper level RAID zusammengefasst wird Hierbei ist in unten stehender Tabelle i displaystyle i nbsp die Anzahl der Festplatten in einem Leg und j displaystyle j nbsp die Anzahl der Legs im ubergeordneten Array sofern das RAID tatsachlich kombiniert ist Ubersicht uber die Standard RAIDs RAID n Anzahl der Festplatten k Nettokapazitat S Ausfallsicherheit Leseleistung Schreibleistung0 2 displaystyle geq 2 nbsp n displaystyle n nbsp keine 0 nbsp nbsp nbsp nbsp 1 2 displaystyle geq 2 nbsp 1 Grosse des kleinsten Mediums n 1 displaystyle n 1 nbsp nbsp nbsp nbsp siehe Text nbsp 2 3 displaystyle geq 3 nbsp n log 2 n displaystyle n lceil log 2 n rceil nbsp 1 displaystyle 1 nbsp 3 n 1 displaystyle n 1 nbsp 45 nbsp nbsp nbsp nbsp mit 8 displaystyle geq 8 nbsp Platten die Performance steigt mit der Anzahl der Platten siehe Text 6 4 displaystyle geq 4 nbsp n 2 displaystyle n 2 nbsp 2 displaystyle 2 nbsp DP 3 displaystyle geq 3 nbsp Anmerkung Die RAIDs 3 und 4 konnen prinzipiell auch mit zwei Festplatten benutzt werden allerdings erhalt man dann exakt die gleiche Ausfallsicherheit wie mit RAID 1 bei der gleichen Anzahl Festplatten Dabei ist aber RAID 1 technisch einfacher und wurde in dem Fall immer bevorzugt werden Dasselbe trifft fur ubergeordnete Arrays oder Legs in Kombinations RAIDs zu Ubersicht uber die Kombinations RAIDs RAID n Anzahl der Festplatten k Nettokapazitat S Ausfallsicherheit Leseleistung Schreibleistung00 k 1 j i k i k 2 j 2 4 displaystyle begin alignedat 2 amp sum k 1 j i k quad i k geq 2 text j geq 2 amp geq 4 end alignedat nbsp n displaystyle n nbsp keine 0 nbsp nbsp nbsp nbsp 10 i j i 2 j 2 4 displaystyle begin alignedat 2 amp i times j quad i geq 2 text j geq 2 amp geq 4 end alignedat nbsp n 2 displaystyle frac n 2 nbsp Mindestens alle Gerate bis auf eines in einem Leg S m i n i 1 displaystyle S mathrm min i 1 nbsp hochstens alle Gerate bis auf eines in jedem Leg S m a x j i 1 j i j displaystyle S mathrm max j i 1 ji j nbsp nbsp nbsp nbsp siehe Text nbsp nbsp mit 8 displaystyle geq 8 nbsp Platten Performance steigt mit der Anzahl der Platten siehe Text 0 1 Mindestens ein Gerat in jedem Leg bis auf einen S m i n j 1 displaystyle S mathrm min j 1 nbsp hochstens alle Gerate in jedem Leg bis auf einen S m a x j 1 i j i i displaystyle S mathrm max j 1 i ji i nbsp 1E 2 i 1 i 1 3 und ungerade displaystyle begin alignedat 2 amp 2 times i 1 quad i geq 1 amp geq 3 text und ungerade end alignedat nbsp Mindestens ein Gerat S m i n 1 displaystyle S mathrm min 1 nbsp hochstens jedes zweite Gerat das erste und letzte sind auch Nachbarn S m a x n 1 2 displaystyle S mathrm max frac n 1 2 nbsp nbsp nbsp 1E0 2 i 1 j i 1 j 2 6 displaystyle begin alignedat 2 amp 2 times i 1 times j quad i geq 1 text j geq 2 amp geq 6 end alignedat nbsp Mindestens ein Gerat S m i n 1 displaystyle S mathrm min 1 nbsp hochstens jedes zweite Gerat das erste und letzte sind auch Nachbarn in jedem Leg S m a x j i displaystyle S mathrm max ji nbsp 1 5 2 displaystyle geq 2 nbsp 1 displaystyle 1 nbsp nbsp Matrix RAID Abhangig von der Aufteilung der Partitionen der Festplatten und vom verwendeten RAID fur die redundante Partition Fur die RAID 0 Partition 0 fur die redundante Partition abhangig vom verwendeten RAID15 i j i 2 j 3 6 displaystyle begin alignedat 2 amp i times j quad i geq 2 text j geq 3 amp geq 6 end alignedat nbsp j 1 displaystyle j 1 nbsp Mindestens alle Gerate eines Legs und alle Gerate bis auf eines in einem anderen Leg S m i n 2 i 1 displaystyle S mathrm min 2i 1 nbsp hochstens alle Gerate eines Legs und alle Gerate bis auf eines in jedem anderen Leg S m a x i j 1 i 1 i j i i j 1 j i j 1 displaystyle S mathrm max i j 1 i 1 i ji i j 1 ji j 1 nbsp 51 i j i 3 j 2 6 displaystyle begin alignedat 2 amp i times j quad i geq 3 text j geq 2 amp geq 6 end alignedat nbsp i 1 displaystyle i 1 nbsp Mindestens ein Gerat in jedem Leg und zusatzlich ein Gerat in jedem Leg bis auf einen S m i n 2 j 1 displaystyle S mathrm min 2j 1 nbsp hochstens alle Gerate in jedem Leg bis auf einen und ein Gerat in dem anderen Leg S m a x j 1 i 1 j i i 1 displaystyle S mathrm max j 1 i 1 ji i 1 nbsp 55 i j i 3 j 3 9 displaystyle begin alignedat 2 amp i times j quad i geq 3 text j geq 3 amp geq 9 end alignedat nbsp i 1 j 1 displaystyle i 1 j 1 nbsp Mindestens das Minimum aus den Legs und den Geraten pro Leg S m i n min j i displaystyle S mathrm min min j i nbsp hochstens alle Gerate eines Legs und ein Gerat in jedem anderen Leg S m a x i j 1 displaystyle S mathrm max i j 1 nbsp nbsp 455E 4 displaystyle geq 4 nbsp n 2 displaystyle n 2 nbsp 1 displaystyle 1 nbsp nbsp nbsp nbsp 5EE nbsp 30 genannt 53 i j i 3 j 2 6 displaystyle begin alignedat 2 amp i times j quad i geq 3 text j geq 2 amp geq 6 end alignedat nbsp n j displaystyle n j nbsp Mindestens ein Gerat S m i n 1 displaystyle S mathrm min 1 nbsp hochstens ein Gerat pro Leg S m a x j displaystyle S mathrm max j nbsp nbsp 5DP 4 displaystyle geq 4 nbsp n 2 displaystyle n 2 nbsp 2 displaystyle 2 nbsp nbsp nbsp ADGS 3 1 4 displaystyle 4 nbsp 3 4 n displaystyle frac 3 4 n nbsp 1S 7 1 8 displaystyle 8 nbsp 7 8 n displaystyle frac 7 8 n nbsp 1TP 4 displaystyle geq 4 nbsp n 3 displaystyle n 3 nbsp 3Anmerkung Die fur S m i n displaystyle S mathrm min nbsp angegebenen Falle welche Gerate genau ausfallen dienen zur anschaulichen Darstellung Die Werte geben lediglich an dass in jedem beliebigen Fall genau diese Anzahl an Geraten ausfallen kann ohne dass Daten verloren gehen Die Angabe erhebt nicht den Anspruch darauf dass in dem speziellen Fall nicht noch weitere Festplatten ohne Datenverlust ausfallen konnen Andere Begriffe BearbeitenCache Bearbeiten Der Cache Speicher spielt bei RAID eine grosse Rolle Grundsatzlich sind folgende Caches zu unterscheiden Betriebssystem RAID Controller Enterprise Disk ArrayEine Schreibanforderung wird heute ublicherweise bereits quittiert wenn die Daten im Cache angelangt sind und somit bevor die Daten tatsachlich permanent gespeichert wurden weiterhin kann es vorkommen dass der Cache nicht in der Reihenfolge bereinigend entleert wird in der er gefullt wurde hierdurch kann ein Zeitraum entstehen in dem bereits als gespeichert angenommene Daten durch einen Strom oder Hardware Ausfall verloren gehen konnen was zu fehlerhaften Datei Inhalten fuhren kann etwa wenn das Dateisystem von einer Verlangerung der Datei ausgeht obwohl die entsprechenden Daten noch gar nicht geschrieben wurden In Enterprise Speichersystemen uberlebt der Cache daher Resets Der Schreib Cache bringt einen Geschwindigkeitsgewinn solange der Cache RAM nicht voll ist oder solange die Schreibanforderungen in suboptimaler Reihenfolge oder uberlappend eingehen da das Schreiben in den Cache schneller ist als das Schreiben auf Platte Der Lese Cache ist heute in Datenbank Anwendungen oft von grosser Bedeutung da hierdurch fast nur noch zum Schreiben auf das langsame Speichermedium zugegriffen werden muss Cache Controller mit Pufferbatterie Bearbeiten nbsp EISA SCSI Raid Controller mit vier PufferbatterienDie Pufferbatteriefunktion ist nicht zu verwechseln mit einer unterbrechungsfreien Stromversorgung Diese schutzt zwar auch vor Stromausfall kann aber keine Systemabsturze oder das Einfrieren des Systems verhindern Hoherwertige RAID Controller bieten daher die Moglichkeit den eigenen Cachespeicher vor Ausfall zu schutzen Dies wird klassisch durch eine Pufferbatterie fur den Controller oder bei neueren Systemen mit einem nichtfluchtigen NAND Flash Speicher und hochkapazitativen Kondensatoren erreicht Diese Sicherung des Cachespeichers soll dafur sorgen dass Daten die bei einem Stromausfall oder einem Systemausfall im Cache liegen und noch nicht auf die Platten geschrieben wurden nicht verloren gehen und damit das RAID konsistent bleibt Die Pufferbatterie wird haufig als BBU Battery Backup Unit oder BBWC Battery Backed Write Cache bezeichnet Vor allem fur performanceoptimierte Datenbanksysteme ist das zusatzliche Absichern des Cache wichtig um gefahrlos den Schreibcache zu aktivieren Den Cachespeicher zu schutzen ist fur diese Systeme besonders wichtig da bei einem eventuellen Beschadigen der Datenbank Daten verloren gehen konnen und dieses nicht sofort erkannt werden kann Da aber in den Datenbanken kontinuierlich weitergearbeitet wird konnen die Daten im Fall dass ihr Verlust spater bemerkt wird auch nicht einfach durch Rucksicherung aus dem hoffentlich vorhandenen Backup wiederhergestellt werden da die nachfolgenden Anderungen dann verloren waren Um optimal zu funktionieren setzt dies voraus dass der in den Festplatten eingebaute und nicht per Batterie abgesicherte Cache der Festplatten deaktiviert ist Wurde der Plattencache zusatzlich zum Controllercache Daten vor dem Schreiben zwischenspeichern wurden diese beim Systemausfall naturlich verloren gehen Logical Volume Manager Bearbeiten Die Funktionen eines Logical Volume Managers LVM werden oft mit denen eines Software RAID Systems vermischt Das liegt wohl hauptsachlich daran dass die Verwaltung beider Subsysteme meist uber eine gemeinsame grafische Benutzeroberflache erfolgt Dabei gibt es eine klare Abgrenzung Echte RAID Systeme bieten immer Redundanz ausser RAID 0 und verfugen folglich auch immer uber eine RAID Engine welche die zusatzlichen fur die Redundanz benotigten Daten erzeugt Die haufigsten Engine Varianten sind bei RAID 1 die Datenduplizierung und bei RAID 5 und den meisten anderen Verfahren die XOR Bildung Es werden bei RAID also immer zusatzliche Datenstrome in erheblichem Umfang erzeugt der Datendurchsatz der RAID Engine ist daher ein wichtiger Performancefaktor Aufgabe eines LVM ist es physische Datentrager oder Partitionen auf logische Datentrager abzubilden Einer der haufigsten Anwendungsfalle ist das nachtragliche Vergrossern von Partitionen und Dateisystemen die durch den LVM verwaltet werden Ein LVM erzeugt hierbei aber keine zusatzlichen Datenstrome er hat auch keine Engine und bietet daher auch keine Redundanz somit erzeugt er auch nur minimalen Rechenaufwand Daher hat er auch praktisch keinen Performance Einfluss wenngleich auch einige LVM Implementierungen integrierte RAID 0 Erweiterungen besitzen Die Aufgabe des LVMs besteht im Wesentlichen also darin Datenstrome aus den Dateisystemen auf die jeweils zugehorigen Datentragerbereiche zu verteilen sie ahnelt am ehesten der Arbeitsweise einer MMU In einigen Systemen z B HP UX oder Linux sind Software RAID und LVM optionale Erweiterungen und konnen vollig unabhangig voneinander installiert und genutzt werden Manche Hersteller lizenzieren daher das Volume Management und RAID Mirroring und oder RAID 5 auch separat Leistung Performance Bearbeiten Zur Bestimmung der Leistungsfahigkeit eines Festplattensubsystems gibt es zwei wesentliche Parameter die Anzahl der bei zufalligem Zugriff moglichen I O Operationen pro Zeit also IOPS I O pro Sekunde und der Datendurchsatz bei sequentiellem Zugriff gemessen in MB s Die Leistung eines RAID Systems ergibt sich aus der kombinierten Leistung der verwendeten Festplatten Die Anzahl der IOPS leitet sich direkt von der mittleren Zugriffszeit und der Drehzahl einer Festplatte ab Bei SATA Platten liegt die Zugriffszeit bei 8 bis 10 ms eine halbe Umdrehung dauert je nach Drehzahl etwa 2 bis 4 ms Vereinfacht ist das gleichbedeutend mit einer Dauer fur einen nicht sequentiellen Zugriff von gerundet 10 ms Hieraus ergibt sich dass pro Sekunde maximal 100 I Os moglich sind also ein Wert von 100 IOPS Leistungsstarkere SCSI oder SAS Platten haben Zugriffszeiten von unter 5 ms und arbeiten mit hoheren Drehzahlen daher liegen deren I O Werte bei ungefahr 200 IOPS Bei Systemen die viele gleichzeitige Benutzer oder Tasks abzuarbeiten haben ist der IOPS Wert eine besonders wichtige Grosse Der sequentielle Datendurchsatz ist ein Wert der im Wesentlichen von der Drehzahl und der Schreibdichte und der Anzahl der beschriebenen Oberflachen einer Festplatte abhangt Erst beim wiederholten Zugriff hat auch der Platten Cache einen leistungssteigernden Einfluss Bei gleicher Konfiguration Schreibdichte Oberflachen liefert eine aktuelle Platte mit 10 000 Umdrehungen pro Minute also etwa doppelt so schnell Daten wie eine einfache IDE Platte die mit 5 200 Umdrehungen pro Minute arbeitet Beispielsweise liefert die Samsung Spinpoint VL40 mit 5 400 min 1 einen Datenstrom mit im Mittel etwa 33 MB s die WD Raptor WD740GD mit 10 000 min 1 hingegen schafft im Mittel 62 MB s IOPS und MB s bei RAID 0Bei kleinen Chunk Grossen 2 kB nutzt ein RAID 0 Verbund aus zwei Platten praktisch bei jedem Zugriff beide Platten also verdoppelt sich der Datendurchsatz pro I O Prozess jedoch bleiben die IOPS unverandert Bei grossen Chunks hingegen 32 kB wird fur einen einzelnen Zugriff meist nur eine Platte genutzt folglich kann ein weiterer I O auf der zweiten Platte stattfinden somit verdoppeln sich die IOPS Werte wobei der Datenstrom pro I O Prozess gleich bleibt und sich nur bei Systemen mit vielen gleichzeitigen Tasks kumuliert Besonders Server profitieren also von grosseren Chunks Systeme mit zwei Platten Typ 100 IOPS im RAID 0 konnen theoretisch also bis zu 200 IOPS bei etwa 60 MB s erreichen IOPS und MB s bei RAID 1Moderne RAID 1 Implementierungen verhalten sich beim Schreiben wie die einzelnen verwendeten Platten Die Chunkgrosse ist fur schreibende Zugriffe nicht von Belang Beim Lesen hingegen arbeiten zwei Platten gleichzeitig analog zu den RAID 0 Systemen Daher haben auch bei RAID 1 die Chunkgrossen den gleichen Einfluss auf die Performance von Lesezugriffen wie bei RAID 0 auch hier profitieren besonders Server von grosseren Chunks Systeme mit zwei Platten Typ 100 IOPS im RAID 1 konnen also theoretisch lesend bis zu 200 IOPS bei etwa 60 MB s erreichen schreibend bis zu 100 IOPS bei etwa 30 MB s IOPS und MB s bei RAID 10Die Kombination aus RAID 0 und RAID 1 verdoppelt die Leistung im Vergleich zu purem RAID 1 Aktuelle Systeme mit acht Platten Typ 100 IOPS im RAID 10 konnen also theoretisch lesend bis zu 800 IOPS bei etwa 240 MB s erreichen schreibend bis zu 400 IOPS bei etwa 120 MB s IOPS und MB s bei RAID 5RAID 5 arbeitet mit mindestens drei Platten wobei sich auch hier die Lese und Schreibperformance stark unterscheidet In minimaler RAID 5 Konfiguration mit drei Platten Typ 100 IOPS ergeben sich lesend bis zu 300 IOPS Da aber fur einen Schreibzugriff bei kleinen Blocken lt Stripe Size immer zwei lesende Sektor alt Parity alt und zwei schreibende Zugriffe Sektor neu Parity neu 18 notig sind werden beim Schreiben eines RAID 5 Verbunds mit drei Platten im Mittel nur 50 bis 75 IOPS erreicht je nachdem ob die dritte Platte fur andere Zugriffe genutzt wird beim Schreiben kompletter Stripes kann der Lesezugriff allerdings entfallen und dann bis zu 200 IOPS erreichen Die Schreibleistung steht also in Abhangigkeit zur linear zusammenhangenden Datenmenge gt Stripe Size zur Lage der Daten Stripe Alignment und steht im direkten Zusammenhang zur Stripe Size Daher sollten zum Erzielen einer guten Schreibleistung bei Systemen mit vielen Platten die Chunk Size niedrig gewahlt werden im Besonderen niedriger als bei Systemen die mit wenig Platten drei im Verbund arbeiten Eine Chunk Size von 128 kB im RAID 5 mit drei Platten fuhrt beispielsweise zu einer Stripe Size von 256 kB fur ein RAID 5 System mit funf Platten ergibt sich eine Stripe Size von 256 kB jedoch aus einer Chunk Size von 64 kB Die Schreibleistung kann also im ungunstigen Fall durchaus geringer sein als die eines RAID 1 Verbunds oder einer einzelnen Platte besonders wenn haufig kleinere nicht zusammenhangende Daten geschrieben werden sollen Aktuelle Systeme mit beispielsweise acht Platten Typ 100 IOPS im RAID 5 konnen theoretisch lesend bis zu 800 IOPS erreichen schreibend je nach Zugriffsmuster von 200 bis zu 700 IOPS Einfluss der Anzahl der FestplattenBei RAID 0 hat die Anzahl der beteiligten Festplatten einen linearen Einfluss auf die Performance Die I O Geschwindigkeit lesend ist bei acht Platten auch achtmal so hoch wie die einer einzelnen Platte ebenso wie die Schreibgeschwindigkeit Bei RAID 10 hingegen steigt nur die Lesegeschwindigkeit genau so schnell wie bei RAID 0 die Schreibgeschwindigkeit hingegen nur halb so schnell Weitaus komplizierter verhalt sich der Zugewinn bei RAID 5 siehe vorigen Absatz Der Zugewinn beim Schreibzugriff liegt im ungunstigen Fall bei nur einem Viertel Im Mischbetrieb 50 read 50 write ergeben sich bei solchen Zugriffsmustern fur ein RAID 10 aus acht Platten etwa 533 IOPS und fur RAID 5 ungefahr 320 IOPS 4 RAID 6 verhalt sich ganz ahnlich wie RAID 5 jedoch sind beim Schreiben die Zusammenhange noch etwas komplexer lesend ist der Zugewinn gleich hoch schreibend jedoch noch niedriger Vorteilhafterweise ist der netto zur Verfugung stehende Platz bei RAID 5 im Vergleich zu RAID 10 bei 8 Platten im Verhaltnis 7 4 deutlich hoher Aus diesen Gesichtspunkten sind RAID 5 und RAID 6 besonders dort hervorragend geeignet wo Daten in grossen Blocken verarbeitet werden oder Lesezugriffe dominieren etwa bei der Bild und Videobearbeitung und generell auch bei Archiven Hat man haufig nicht sequentielle Schreibzugriffe auf kleine Datenmengen lt Stripe Size zum Beispiel bei einem gut ausgelasteten Messaging SMS oder Mailserver oder einer interaktiven Datenbankanwendung ist RAID 10 die bessere Wahl Rechenbeispiel MailserverEin Mail Server fuhrt heute neben dem Mailversand haufig noch eine Virenprufung und eine Spam Analyse durch Daher gehen wir davon aus dass pro Mail inklusive Anhang im Mittel rund 25 Schreibzugriffe und etwa 50 Lesezugriffe IOPS notwendig sind Weiter gehen wir davon aus dass keine weiteren Ressourcen einen begrenzenden Einfluss haben Das RAID 1 System mit zwei einfachen Platten siehe weiter oben kann folglich etwa 240 Mails pro Minute verarbeiten das RAID 5 System mit acht Platten hingegen kommt auf maximal 480 Mails pro Minute Als RAID 10 Konfiguration mit acht Platten sind bereits knapp 1 000 Mails pro Minute moglich Wechselt man bei dem RAID 10 System auf Hochleistungsplatten so kann der Durchsatz auf das Zwei bis Dreifache gesteigert werden also maximal etwa 2 500 Mails pro Minute Performance RAID 10 zu RAID 5 Bearbeiten Vielerorts wird die Frage diskutiert ob RAID 10 auch RAID 01 oder RAID 5 fur verschiedene Anwendungen das bessere System sei Dabei sind generell zwei Aspekte zu beachten die Read Performance und die Write Performance eines Systems Eine genauere Betrachtung lohnt eigentlich nur bei Verwendung von hochwertigen Hardware Cache Controllern Bei Verwendung von Software RAID oder Fake RAID Systemen ist die Performance stark von anderen Faktoren wie Prozessorleistung und verfugbaren Arbeitsspeicher abhangig und daher schwer vergleichbar Read PerformanceSie ist bei beiden Systemen praktisch identisch und wird weitestgehend durch die Anzahl der Festplatten aber auch durch Cache Grossen bestimmt mehr ist hier immer besser Write PerformanceHier verhalten sich beide Systeme unterschiedlich Da bei RAID 10 alles doppelt geschrieben wird reduziert sich die nutzbare Write Performance im Vergleich zur maximal moglichen Schreibleistung die sich ebenfalls aus der Anzahl der Platten ergibt immer auf 50 Effizienz ist 50 Blockgrossen oder andere Parameter haben bei RAID 10 keinen Einfluss auf die Leistung Bei RAID 5 ist der Sachverhalt komplizierter und hangt von der zu schreibenden Datenmenge ab Ausgehend von Festplatten mit weniger als 2 TB Plattenplatz ist die atomare Blockgrosse auch Sektorgrosse genannt der Platten haufig 512 Byte siehe Festplatte Speichern und Lesen von Daten Geht man weiter von einem RAID 5 Verbund mit 5 Platten 4 5 Daten und 1 5 Paritat aus so ergibt sich folgendes Szenario Will eine Anwendung 2 048 Byte schreiben wird in diesem gunstigen Fall auf alle 5 Platten genau je ein Block zu 512 Byte geschrieben wobei einer dieser Blocke keine Nutzdaten enthalt Daraus ergibt sich eine theoretische Effizienz von 80 bei RAID 5 mit 3 Platten waren es 66 Mochte eine Anwendung aber nur einen Block von 512 Byte schreiben so ergibt sich ein ungunstigerer Fall siehe RAID 5 write Penalty es mussen zuerst der abzuandernde Block und der Paritatsblock eingelesen werden danach wird der neue Paritatsblock berechnet und erst dann konnen beide 512 Byte Blocke geschrieben werden 4 Das bedeutet einen Aufwand von 2 Lesezugriffen und 2 Schreibzugriffen um einen Block zu speichern geht man vereinfacht davon aus dass Lesen und Schreiben gleich lange dauern so betragt die Effizienz in diesem ungunstigsten Fall nur noch 25 Zusatzlich zur Blockgrosse muss bei RAID 5 Systemen noch die Paritatsberechnung beachtet werden Bei sehr schreibintensiven Zugriffen z B Datenbank Log Dateien fuhrt die zeitintensive Parity Berechnung bei RAID 5 Systemen zu einer weiteren moglichen Geschwindigkeitseinbussen gegenuber RAID 10 FazitIn der Praxis hat das schlechtere Worst case Verhalten und die zeitintensive Parityberechnung von RAID 5 merklich negative Einflusse nur dann wenn viele schnelle und kleine Schreibzugriffe erfolgen Bei Zugriffen als Fileserver uberwiegen dann die Vorteile von RAID 5 der hoheren Lesegeschwindigkeit und gunstigeren Kosten pro Kapazitat Bei performanceorientierten Datenbanksystemen wird jedoch RAID 1 beziehungsweise 10 empfohlen da hier keine Paritatsberechnung stattfindet und die Blockgrosse nicht relevant ist Bei neueren Festplatten deren atomare Blockgrosse oft 4 096 Byte betragt gewinnt die schlechtere Worst Case Effizienz weiter an Bedeutung Fur alle performanceorientierten Systeme mit Schutz vor Datenverlust bei Plattenausfall gilt der deutlich erhohte Kostenfaktor Fur den sicheren Betrieb wird ein hochwertiger Hardware RAID Controller mit entsprechender Hardware Cacheabsicherung BBU benotigt Dafur erhalt man ein deutlich sichereres und schnelleres System Viele Hersteller von Datenbanksystemen empfehlen fur ihre Systeme RAID 1 oder 10 zumindest fur die schreibintensiven Log Dateien 19 Drive Extender Bearbeiten Mit dem Drive Extender des Microsoft Windows Home Servers findet sich eine Art virtuelles RAID das aber auf JBOD basiert Neue Dateien landen in der Regel zunachst auf der Systemplatte und werden dann erst spater auf eine der anderen Festplatten verschoben hinterlassen aber einen Verweis Tombstone der 4 kB Festplattenspeicher belegt Der Benutzer kann dadurch arbeiten als ob der Server uber eine einzige grosse Festplatte verfugen wurde Stripe Chunk Size Bearbeiten Stripes Chunks sind Untereinheiten eines Stripe Set die Stripe Size bezeichnet die Grosse eines Datenblocks der auf einer Platte gespeichert wird Alle Blocke oder Sektoren eines Stripes liegen auf der gleichen Platte Ein Stripe Set setzt sich aus je einem Stripe pro Datentrager eines RAID Verbunds zusammen So besitzt beispielsweise ein aus vier Festplatten bestehendes RAID 0 Array mit einer Stripe Size von 256 KiB einen Stripe Set von 1 MiB Unabhangig davon wird beim Formatieren eines Arrays die File System Block Size fur das jeweilige Dateisystem gesetzt Die Performanceauswirkungen der eingestellten Stripe Chunk Size 18 im Verhaltnis zu der gewahlten File System Block Size sind komplex Hot Swapping Bearbeiten Mit Hot Swapping bietet sich die Moglichkeit Speichermedien im laufenden Betrieb auszutauschen Dazu muss der Bus Controller Hot Plugging unterstutzen i d R nur SCSI SAS oder SATA Damit es nicht zu einem Ausfall des Systems fuhrt ist ein Austausch nur in Arrays mit redundanter Datenhaltung moglich bei einem RAID 0 System wurde das Ersetzen bzw Entfernen eines Mediums unweigerlich zum Ausfall fuhren Hot Spare Laufwerk Bearbeiten nbsp RAID Level 5 mit Hot Spare LaufwerkDas Hot Spare Laufwerk ist ein unbenutztes Reservelaufwerk Fallt ein Laufwerk innerhalb des RAID Verbundes aus wird es durch das Reservelaufwerk ersetzt Dadurch ist die Redundanz schnellstmoglich wiederhergestellt Wahrend der Rebuild Phase hat man allerdings keine Redundanz Zur Vermeidung dieses Problems kann ein RAID 6 oder RAID DP statt RAID 5 verwendet werden da hier zwei Paritatsplatten vorhanden sind Ausserdem gibt es Speichersysteme die intern standig alle Plattenbereiche prufen Sollte ein Datenblock dirty sein so wird die Platte bis zu diesem Bereich kopiert der Dirty Block aus der Prufsumme beziehungsweise der Spiegelplatte rekonstruiert und dann weiter kopiert Dadurch kann die Wiederherstellungszeit reduziert werden In grosseren RAID Systemen in denen die Moglichkeit besteht an einem RAID Controller mehrere unterschiedliche RAID Arrays einzurichten gibt es daruber hinaus auch die Moglichkeit dass ein Hot Spare Laufwerk entweder einem einzelnen RAID Array oder einer Gerateeinheit Shelf Enclosure zugeordnet ist oder fur die Verwendung im gesamten RAID System zur Verfugung steht In diesem Fall spricht man dann von einem Local Spare Laufwerk oder auch Dedicated Hot Spare Laufwerk bei Zuordnung zu einem bestimmten Array oder einem Global Spare Laufwerk wenn das Laufwerk fur alle Arrays verwendet werden kann Drive Clone Bearbeiten Viele RAID Controller bieten die Moglichkeit auftretende Laufwerksfehler durch Medien Tests oder den SMART Status fruhzeitig zu erkennen Wenn ein Laufwerk zu viele dieser meist korrigierbaren Fehler liefert besteht die Moglichkeit das betroffene Laufwerk schon vor dem endgultigen Ausfall zu ersetzen Dazu kopiert der Controller alle vorhandenen Daten der einen Festplatte auf ein bisher unbenutztes Spare Laufwerk Beim Ausfall der Originalfestplatte verkurzt sich dadurch die Wiederherstellungszeit und damit auch die kritische Zeit fur einen weiteren Ausfall auf ein Minimum RAIDIOS RAID I O Steering Bearbeiten Zertifizierter Standard von Intel zur Verwendung der vorhandenen Anschlusse Es wird nur der fehlende I O Controller mit 0 Kanalen nachgerustet Kostengunstige und okonomische Variante Tape RAID Bearbeiten Auch Hersteller von Backup Programmen haben das Problem dass durch defekte Medien Bander wie DAT DLT QIC usw Daten einer Datensicherung oder Archivierung teilweise oder ganz verloren gehen konnen Daher nutzen umfangreiche Backup Losungen 20 die gleichen Mechanismen zur Herstellung redundanter Datentragersatze wie sie auch bei Festplatten zum Einsatz kommen Haufig werden die Daten uber mehrere Bandlaufwerke verteilt auf mehreren Bandern im RAID 3 oder RAID 5 Modus gespeichert Da sich Backups auch uber viele Bander hinweg durchfuhren lassen muss dies auch bei Tape RAID moglich sein Die eingesetzte Software muss folglich in der Lage sein den Bandsatz dynamisch zu erweitern Das bedeutet die Software muss aus zusatzlichen Bandern automatisch weitere zusatzliche RAID Verbunde herstellen und diese automatisch an bestehende Bandsatze anhangen konnen RAIL Eine ahnliche Implementierung ist ein Redundant Array of Independent Libraries redundante Reihe unabhangiger Bandbibliotheken 20 Dabei werden die RAID Level nicht uber mehrere Bandlaufwerke verteilt gebildet sondern uber mehrere unabhangige Bandbibliotheken Tape Libraries hinweg wobei die Librarys auch auf mehrere Standorte verteilt sein konnen um die Daten beispielsweise auch im Katastrophenfall sicher und redundant zu lagern Siehe auch BearbeitenDisk Data FormatWeblinks Bearbeiten nbsp Commons RAID Sammlung von Bildern Videos und Audiodateien RAID Informationen tecchannel de Patterson Gibson Katz Original Dokument PDF 1 1 MB cs cmu edu garth englisch Einzelnachweise Bearbeiten Im Kontext dieses Artikels sind sofern nicht anders angegeben die Begriffe Festplatte solid state drive Speichermedium oder Massenspeicher synonym zu betrachten The Story so Far in ComputerWorld D A Patterson G Gibson R H Katz A case for redundant arrays of inexpensive disks RAID 1988 PDF a b c d Tom Treadway Adaptec Storage Advisors Yet another RAID 10 vs RAID 5 question Nicht mehr online verfugbar Archiviert vom Original am 31 Januar 2010 abgerufen am 17 April 2007 Serial ATA SATA chipsets Linux support status Ubersicht RAID und Host RAID mit SATA 31 Dezember 2007 Fake RAID Howto Ludwin Janvier How to install Ubuntu onto a fakeRAID system 18 Januar 2010 Die Besonderheiten von RAID Z Servermeile Technet Die Wissens Datenbank Cache Einstellungen von RAID Controllern und Festplatten Thomas Krenn Wiki dmraid Tool 2004 2011 Heinz Mauelshagen Red Hat GmbH Robin Harris Why RAID 5 stops working in 2009 Storage Bits ZD Net Blog 18 Juli 2007 Failure Trends in a Large Disk Drive Population PDF 247 kB Eduardo Pinheiro Wolf Dietrich Weber Luiz Andre Barroso 5th USENIX Conference on File and Storage Technologies FAST 07 im Februar 2007 Proceedings of the Third USENIX Conference on File and Storage Technologies PDF 216 kB Usenix Publikation 31 Marz bis 2 April 2004 SNIA Dictionary R Storage Networking Industry Association SNIA abgerufen am 2 Februar 2011 RAID Level 6 Storage System Any form of RAID that can continue to execute read and write requests to all of a RAID array s virtual disks in the presence of any two concurrent disk failures aput net AABBOO GmbH Hrsg RAID 50 51 15 Datenrettung und Datenwiederherstellung aabboo de abgerufen am 9 Mai 2017 a b Adam Leventhal Triple Parity RAID Z Memento vom 4 August 2009 imInternet Archive In Adam Leventhal s Weblog abgerufen am 2 November 2009 ZFS When To And Not To Use RAID Z Sun Blogs 31 Mai 2006 a b c The Software RAID HOWTO 5 10 Chunk sizes 3 Juni 2004 technet microsoft com Storage Top 10 Best Practices a b Tape RAID Tecchannel im Artikel Kostenguenstig optisch speichern 12 Oktober 2001 nbsp Dieser Artikel wurde am 12 Juli 2005 in dieser Version in die Liste der lesenswerten Artikel aufgenommen Normdaten Sachbegriff GND 4323080 5 lobid OGND AKS LCCN sh2003006440 Abgerufen von https de wikipedia org w index php title RAID amp oldid 239317179