Sunteți pe pagina 1din 18

Tehnologia RAID: aplica ie de disk management

1. Obiectivul lucr rii


Lucrarea urm re te n elegerea tehnologiei RAID (Redundant Array of
Independent Disks), a modului de scriere i de citire al datelor i verific rile care au
loc pentru fiecare nivel n parte.

2. Introducere teoretic
Tehnologia RAID (Redundant Array of Independent/Inexpensive Disks
matrice redundant de discuri independente/ieftine) a fost definit pentru prima dat
de un grup de oameni de tiin de la Universitatea Berkeley din California, n 1987.
Ace tia au studiat posibilitatea de a utiliza dou sau mai multe hard disk-uri, astfel
nct acestea s apar sistemului gazd ca fiind un singur dispozitiv.
Pe lng definirea nivelelor RAID ini iale de la 1 la 5, oamenii de tiin au
studiat data striping distribuirea (partajarea) datelor pe o matrice de discuri
nerendundante. Cunoscut ca RAID 0, aceast configura ie nu ofer niciun mecanism
de protec ie a datelor, dar permite un flux maxim pentru aplica iile care realizeaz
transferuri masive de date, cum ar fi produc ia video digital .
Datorit evolu iei complexit ii programelor, n timp au ap rut urm toarele
probleme de rezolvat:
asigurarea securit ii datelor;

rirea vitezei de acces la date.


S-a trecut la realizarea unor matrice de discuri fizice grupate logic n volume,
care trebuie s asigure distribuirea datelor, precum i implementarea unei structuri
care s asigure securitatea datelor prin utilizarea redundan ei.
Conceptul RAID implic patru componente:
zonarea datelor;
performan e ridicate ale timpului de acces;
capacitate de stocare m rit ;
redundan a datelor i fiabilitatea.
2.1. Organizarea datelor
Organizarea datelor n cadrul ariilor de discuri presupune dou componente
complementare:
mecanismul de redundan ;
schema de distribu ie.
Mecanismul de redundan specific tipul, scopul i localizarea fiec rei
informa ii redundante din zona de discuri. n mod curent, se folosesc disk mirroring
(dublarea discului) i informa ia de paritate. Acest mecanism permite sistemului de
discuri s poat fi folosit f
erori i dup ce un disc fizic s-a defectat, avnd loc
reconstruc ia datelor.
Schema de distribu ie a datelor define te algoritmul de transla ie al adresei
logice externe (care este vizibil utilizatorului) i adresele fizice ale discurilor incluse
n zonele respective.
Exist dou arhitecturi de baz :

Tehnologii i echipamente multimedia lucr ri practice

adresarea independent a fiec rui disc (arhitectura conven ional );


disk striping (presupune mp irea discului n p i egale).
Distribuirea datelor presupune maparea adreselor logice ale volumului de
discuri la discurile fizice componente. Abordarea curent implic adresarea curent a
fiec rui disc i maparea blocului logic direct c tre blocul de pe fiecare disc.
Distribuirea datelor este f cut manual de c tre administratorii de sistem, de
programele de aplica ii sau de c tre sistemul de operare. n general, administratorul de
sistem este responsabil pentru decizia privind stabilirea locului fiec rei date pe disc.
Arhitectura de disk striping transform mai multe spa ii de adresare ntr-un
singur spa iu de adrese, spa iul unificat folosit de c tre procesorul gazd pentru
realizarea transferurilor necesare
2.2. Redundan a datelor
Mecanismele de implementare a redundan ei datelor sistemului de stocare
reduc capacitatea de stocare, ns asigur protec ia datelor n cazul c derii sistemului.
Timpul mediu dintre dou defecte consecutive (MTBF Mean Time Between
Failures) este de circa 500.000 ore; cu toate acestea timpul mediu de via al unui
volum de discuri neredundant este de ordinul lunilor, fiind invers propor ional cu
num rul de discuri care alc tuiesc sistemul. Dac discurile sunt adresate independent,
se poate pierde 1/N din num rul de fi iere sau 1/N din datele fiec rui fi ier n cazul
folosirii disk striping-ului. Din acest motiv, trebuie s se includ un mecanism de
implementare a redundan ei datelor, mecanism care poate asigura protec ia n cazul
uneia sau a mai multor c deri ale discurilor. O solu ie simpl de protec ie este aceea
de a folosi cpii identice; astfel, un bloc de date este scris pe M discuri distincte,
datele considerndu-se pierdute atunci cnd originalul i cele M copii sunt pierdute.
Pentru protec ie se folosesc urm toarele metode:
disk mirroring;
disk duplexing;
parity;
Metoda disk mirroring realizeaz scrierea datelor identic pe cele dou discuri
distincte. n acest caz, fiecare sistem de N+1 discuri distincte poate supravie ui c derii
a N discuri.
Metoda disk duplexing realizeaz scrierea datelor tot pe dou discuri, ns
canalul de date este distinct pentru fiecare disc.
Metoda parity folose te un disc suplimentar N+1, care stocheaz datele de
paritate ale celorlalte N discuri. Se folose te unul din cei doi algoritmi de protec ie:
codul Hamming de corec ie al erorilor (ECC Error Correction Code) sau opera ia
logic sau-exclusiv (XOR).
Solu ia software este inferioar , n acest caz procesorul gazd (host-processor)
trebuind s execute i opera iile de I/O pentru matricea de discuri, reducnd astfel
performan ele sistemului; aceast solu ie se practic atunci cnd se dore te capacitate
de stocare mare i toleran la defect ri.
Solu ia hardware este optim , ea folosindu-se atunci cnd viteza i
performan ele de acces sunt factori critici. Aceast solu ie este mai costisitoare, ea
implicnd utilizarea unui controler dedicat comunica iei dintre CPU i discuri; acest
controler specializat con ine un procesor RISC dedicat implement rii algoritmului
RAID, n acest caz unitatea central (sau serverul sistemului, dac se lucreaz n
re ea) fiind degrevate de opera iile I/O, men inndu- i astfel performan ele neafectate.

Tehnologia RAID: aplica ie de disk management

2.3. Nivelele RAID


2.3.1. RAID 0
RAID 0 nu a fost definit de inginerii de la Berkeley, dar a devenit un termen
comun. Este o matrice de discuri independent , f redundan , care acceseaz datele
de pe toate hard disk-urile la nivel de blocuri de date. Pentru a realiza acest lucru, este
scris/citit primul bloc de date pe/de pe primul hard disk, apoi al doilea bloc pe/de pe al
doilea hard disk .a.m.d. RAID 0 se adreseaz doar cre terii fluxului de date i
capacit ii de stocare. Datele sunt partajate (data striping) pe mai multe discuri, f
nicio informa ie redundant .
Nivelul RAID 0 este reprezentat n figura 1.

Fig. 1. RAID 0: Non-redundant striped array matrice de discuri cu date distribuite, nerendundant

La acest nivel nu exist niciun fel de toleran la erori. Dac apare un defect la
unul din hard disk-uri, ntregul sistem se pr bu te. La fel s-ar fi ntmplat i dac
datele s-ar fi g sit pe un singur disc. Avantajul principal al matricei de discuri este
transferul mai rapid de date. Acesta cre te cu cre terea num rului de unit i SCSI.
RAID 0 necesit minimum dou discuri pentru a fi implementat.
Scrierea se poate face simultan pe toate hard disk-urile.
Citirea se poate face simultan de pe toate hard disk-urile
2.3.2. RAID 1
Aceast tehnologie realizeaz toleran a la erori altfel dect RAID 0, 3 sau 5. n
RAID 1, cnd se face scrierea datelor pe disc, se face o copie exact a acestora pe un
al doilea disc (mirror disk disc oglind ), n mod automat i transparent pentru
sistem, aplica ie sau utilizator. Discul oglind devine astfel o copie exact a discului
principal.
Interfa a cu discurile se poate face cu unul sau dou controlere. Un singur
controler ofer o performan de citire/scriere asem toare celei a unui singur hard
disk. Dac se folosesc dou controlere (cte unul pentru fiecare hard disk =
duplexing), se reduce riscul de a avea un singur dispozitiv care, n cazul unui defect,
ar duce la c derea ambelor hard disk-uri. De asemenea, duplexing-ul poate mbun i
rata de transfer prin scrierea/citirea alternativ a datelor pe/de pe cele dou unit i.
Comparativ, n cazul unui singur controler, performan a la scriere este mai redus ,
pentru c datele trebuie scrise nti pe discul principal i apoi pe discul oglind .
Nivelul RAID 1 este reprezentat n figura 2.

10

Tehnologii i echipamente multimedia lucr ri practice

Fig. 2. RAID 1: Mirrored array matrice de discuri oglindite (dublate).

ntre nivelele RAID, nivelul 1 ofer cea mai mare disponibilitate a datelor,
pentru c sunt men inute dou cpii complete. n plus, performan a la citire poate fi
mbun it dac controlerul matricei de discuri permite citirea simultan de pe
ambele unit i ale unei perechi.
La scriere, va ap rea o u oar sc dere n performan , comparativ cu scrierea
pe un disc obi nuit. O disponibilitate mai mare poate fi ob inut dac cele dou discuri
ale unei perechi sunt conectate la magistrale I/O separate. Marele dezavantaj este c
numai jum tate din capacitatea de stocare este efectiv util i m rirea acesteia se poate
face numai n perechi de discuri.
RAID 1 necesit minimum dou discuri pentru a fi implementat.
Datele se scriu pe o pereche de hard disk-uri.
Citirile se pot face simultan de pe toate hard disk-urile.
2.3.3. RAID 2
RAID 2 stocheaz datele pe un grup de discuri mp indu-le n felii
(chunks), de obicei de m rimea unui sector. Un cod Hamming pentru fiecare ,,felie
este stocat pe un disc separat, numit check disk. Codul permite i corec ia erorilor.
Datele sunt partajate pe mai multe hard disk-uri, cteva dintre ele fiind
dedicate stoc rii informa iilor de detec ie i corec ie a erorilor (ECC Error Checking
and Correction) pentru fiecare sector. Oricum, pentru c cele mai multe din hard diskurile actuale au incluse facilit i ECC la nivel de sector ca facilitate standard, RAID 2
nu ofer avantaje semnificative comparativ cu arhitectura RAID 3.

Fig. 3. RAID 3: Parallel array with ECC matrice paralel cu corec ie ECC.

Tehnologia RAID: aplica ie de disk management

11

Nivelul RAID 2 este reprezentat n figura 3.


n prezent, produc torii au renun at s mai fabrice matrice RAID 2.
RAID 2 necesit minimum dou discuri.
Datele sunt distribuite pe toate hard disk-urile.
Citirea se face de pe toate hard disk-urile.
2.3.4. RAID 3
n RAID 3, datele sunt distribuite pe mai multe discuri, la nivel de bit sau
octet. Unul din hard disk-urile din matrice asigur protec ia datelor, p strnd octetul
de verificare a parit i pentru fiecare unitate de alocare. La fel ca la RAID 0, discurile
sunt accesate simultan, dar exist n plus hard disk-ul de paritate.
Nivelul RAID 3 este reprezentat n figura 4.

Fig. 4. RAID 3: Parallel array with parity matrice paralel cu informa ii de paritate.

Datele sunt scrise/citite simultan pe/de pe toate unit ile, iar bitul de paritate
este calculat i comparat cu cel de pe discul de paritate (la citire), sau scris pe
respectivul disc (la opera ia de scriere). Astfel, pentru fiecare octet scris, se calculeaz
un bit de paritate pentru a men ine integritatea datelor. Aceasta permite ca matricea de
discuri i sistemul s fie 100% func ionale i n cazul defect rii unui hard disk din
matrice. n acest caz, se poate continua citirea sau scrierea de pe celelalte unit i. Bitul
de paritate permite refacerea datelor de pe discul defect. nlocuirea unit ii defecte se
poate face on-line (hot-swapped), dup care controlerul matricei de discuri
reconstruie te datele pe acesta.
Avantajele RAID 3 fa de nivelele anterioare este c procentul ocupat de
informa ia redundant (de paritate) din totalul capacit ii de stocare descre te pe
sur ce cre te num rul hard disk-urilor.
De asemenea, dispune de c i paralele de transmitere a datelor, oferind astfel
rate de transfer ridicate pentru aplica iile care manipuleaz fi iere de dimensiuni mari.
Capacitatea matricei poate fi m rit cu cte un hard disk sau n grupuri.
RAID 3 necesit minimum trei discuri pentru a fi implementat.
Scrierea i citirea se face pe/de pe toate hard disk-urile.
Accesul paralel reduce timpul de citire pentru fi ierele mari.
2.3.5. RAID 4
n RAID 4, informa ia de paritate este ntre esut cu datele utile la nivel de
sector dau bloc de date. Ca la RAID 3, un singur drive este utilizat pentru stocarea

12

Tehnologii i echipamente multimedia lucr ri practice

datelor redundante, folosind un octet de paritate pentru fiecare bloc de date. C ile
paralele de transfer a datelor i distribu ia datelor pe hard disk-urile din matrice la
nivel de sector sau bloc permit efectuarea de opera ii independente pe diversele unit i
i executarea n paralel a opera iilor de intrare/ie ire.
Nivelul RAID 4 este identic cu RAID 3, cu excep ia faptului c se utilizeaz
unit i de alocare mai mari, astfel nct informa iile pot fi citite de pe un hard disk din
matrice independent de discul de paritate. Acest lucru permite suprapunerea n timp a
opera iilor de citire.
Nivelul RAID 4 este reprezentat n figura 5.

Fig. 5. RAID 4: Striped array with parity matrice de discuri cu datele distribuite, cu paritate.

RAID 4 ofer performan e ridicate de citire i relativ bune de scriere. Aceasta


este o solu ie de utilitate general , aplicabil mai ales acolo unde raportul citiri/scrieri
este ridicat. Astfel, RAID 4 este o alegere bun pentru transferuri de blocuri de date
mici, tipice pentru sistemele de procesare a tranzac iilor.
Performan ele la scriere sunt sc zute, pentru c la fiecare scriere trebuie s se
scrie i bitul de paritate pe hard disk-ul respectiv. Astfel, hard disk-ul de paritate
devine o frn n calea performan ei ridicate cnd sunt necesare multe scrieri ale
informa iei de paritate. n acest caz, RAID 5 este o solu ie mai bun , deoarece
informa ia de paritate este distribuit pe toate discurile disponibile.
RAID 4 aproape c nu a fost implementat n practic , pentru c nu ofer
avantaje semnificative fa de RAID 5.
RAID 4 necesit minimum trei discuri pentru a fi implementat.
Fiecare opera ie de scriere trebuie s actualizeze drive-ul de paritate.
Citirea se poate face simultan de pe toate hard disk-urile.
2.3.6. RAID 5
RAID 5 combin fluxul masiv de date oferit de RAID 1 prin partajarea
datelor la nivel de bloc cu mecanismul de refacere a datelor prin intermediul
informa iilor de paritate. Acest nivel de toleran la erori integreaz informa ia de
paritate la nivel de sector cu partajarea datelor i informa iilor de paritate pe toate hard
disk-urile, f a avea deci o unitate dedicat stoc rii informa iilor de paritate. Aceasta
permite multiple opera ii de intrare/ie ire concurente, ceea ce conduce la un flux de
date mbun it, cu men inerea integrit ii datelor. Un disc anume din matrice este
accesat doar atunci cnd trebuie scrise/citite date sau informa ii de paritate pe/de pe
acesta.
Nivelul RAID 5 este reprezentat n figura 6.

Tehnologia RAID: aplica ie de disk management

13

Fig. 6. RAID 5: Striped array with distributed parity matrice distribuit cu paritate distribuit .

n RAID 5, discurile pot r spunde independent cererilor de acces, ceea ce


ofer o performan sporit la citire ntr-un mediu cu solicit ri intense de acces.
Datorit informa iilor de paritate, o matrice RAID 5 poate supravie ui c derii unui
disc f pierderea datelor sau ntreruperea accesului la acestea.
Punctul forte al acestei tehnologii este manipularea unui num r mare de fi iere
mici. Rata de transfer este ridicat , pentru c nu mai exist strangularea de la RAID 4
datorat drive-ului de paritate.
De i nivelul RAID 5 este mai eficient din punct de vedere al costurilor, pentru
nu mai este necesar un drive separat pentru paritate, performan a la scriere are de
suferit.
Fiecare opera ie de scriere necesit 4 accese independente la disc. nti, datele
vechi i informa ia de paritate este citit de pe discuri separate. Apoi este calculat
noua paritate. n fine, noile date i informa iile de paritate sunt scrise pe discuri
separate.
Mul i produc tori de sisteme RAID utilizeaz caching-ul pentru a compensa
performan ele slabe la scriere. n acest caz, este important ca acesta s fie sus inut de
un sistem UPS (Uninterruptible Power Supply).
n aplica iile grafice, dezavantajul RAID 5 fa de RAID 3 este slaba
performan la scriere datorat informa iilor de paritate distribuite, astfel nct RAID
5 este de obicei ntlnit n aplica ii cu num r mare de opera ii de citire/scriere scurte.
Utilizarea maxim a capacit ii se ob ine atunci matricea are mai pu in de 7 discuri.
La un num r mai mare, aceasta este asem toare nivelului RAID 3.
RAID 5 necesit minimum trei discuri pentru a fi implementat.
Scrierea necesit actualizarea parit ii.
Citirile se pot face simultan de pe toate hard disk-urile.
2.3.6.1. Reactualizarea parit ii
Cnd data este scris n matricea RAID 5, informa ia de paritate trebuie s fie
reactualizat n unul din urm toarele moduri (vezi figura 7a, 7b):
1. n primul mod, informa ia de paritate este o opera ie XOR a datelor de pe
fiecare disc din matrice. Ori de cte ori data de pe oricare disc este schimbat ,
celelalte discuri din matrice care memoreaz date sunt citite i li se aplic o opera ie
XOR pentru a crea noua paritate. Aceasta implic accesarea fiec rui drive din matrice
pentru fiecare opera ie de scriere.

14

Tehnologii i echipamente multimedia lucr ri practice

Fig. 7.a. Reactualizarea parit ii n timpul scrierilor cu RAID 5 (modul 1).

XOR

XOR

Read

Read
Write

W rite

Data

Data

Data

PARITY

Fig. 7.b. Reactualizarea parit ii n timpul scrierilor cu RAID 5 (modul 2).

2. Al doilea mod implic g sirea bi ilor de date care au fost schimba i de c tre
opera ia de scriere, iar apoi schimbarea bi ilor de paritate corespunz tori. Aceast
metod este acompaniat mai nti de citirea datei vechi pentru a fi rescris . Aceast
dat este aplicat unui XOR cu noua dat care va fi scris . Rezultatul este o masc de
bit (bit mask), care are 1 n pozi ia fiec rui bit care a fost schimbat. Aceast masc de
bit este apoi aplicat unui XOR cu vechea informa ie de paritate care este citit de la
drive-ul de paritate din matrice. n acest fel, este posibil s se determine care bi i din
vechea paritate au fost schimba i, iar noua paritate reactualizat este apoi scris napoi
pe discul de paritate. Aceasta rezult n doar dou citiri, dou scrieri i dou opera ii
XOR.
Acest dezavantaj al memor rii informa iei de paritate mai trziu dect copierea
datelor este datorat timpului suplimentar de la durata opera iilor de scriere pn la
regenerarea informa iei de paritate.
Acest timp adi ional reduce performan ele de scriere pentru RAID 5 fa de
RAID 1 cu un factor cuprins ntre 3/5 i 1/3. Din acest motiv, nivelul RAID 5 nu este
recomandat pentru aplica iile de scriere n care performan a este important .

Tehnologia RAID: aplica ie de disk management

15

2.3.6.2. Refacerea datelor


n cazul c derii unui disc, opera ia de refacere a datelor const n folosirea
discurilor r mase (discul de paritate i discurile de date), datele ref cndu-se cu
aceea i sum de paritate folosit la construc ia discului de paritate (vezi figura 8).
XOR

XOR

Read

Read

Read

Data

Data

PARITY

Fig. 8. Procesul de reconstruc ie al datelor pe un sistem cu RAID 5.

n cadrul nivelului RAID 5, data este mp it de-a lungul tuturor discurilor


din matrice, folosind felii largi, cu cte o felie pe linie, con innd datele de paritate.
Alocarea acestei felii de paritate este rotit printre toate discurile din matrice, astfel
nct feliile succesive de paritate sunt ntotdeauna scrise pe cte un disc diferit. n
eventualitatea c derii unuia din ele (drive failure), con inutul fiec rei felii lips
poate fi reconstruit din data de paritate pentru acea linie, astfel nepierzndu-se
niciun fel de date. C derea ntregii matrice reclam c derea simultan a dou drive-uri
un eveniment foarte improbabil.
Atunci cnd un disc defect este nlocuit ntr-o matrice RAID 1 sau 5,
controlerul SCSI va reconstrui data pierdut pe noul drive. Aceast opera ie de
reconstruc ie are loc n decursul citirilor i scrierilor normale din matrice.
n cazul matricei RAID 1, reconstruc ia va avea loc relativ repede, deoarece ea
implic doar copierea datei con inute n discul oglind pe noul disc renlocuit. n cazul
matricei RAID 5, noua dat care urmeaz a fi scris pe cel mai nou renlocuit disc
trebuie s fie recreat prin citirea i aplicarea unei func ii XOR feliei de date
corespunz toare de la discurile remanente n matrice. Acest lucru cauzeaz o
degradare considerabil a performan ei pe durata opera iei de reconstruire, care va
dura cu att mai mult cu ct sunt mai multe discuri n matrice.
2.3.7. RAID 6
RAID 6 poate fi imaginat ca fiind RAID5, dar ceva mai mult. Se bazeaz pe
aceea i arhitectur ca RAID5, dar cu un grup de benzi de paritate suplimentar
(dubl ). Scopul acestei duplic rii este de a mbun i toleranta la defecte. RAID 6 se
poate ocupa de defectarea a dou discuri din arie, n timp ce alte configura ii RAID nu
pot s se ocupe dect de un singur disc.
Din punct de vedere al performan ei, RAID 6 este, n general, mai slab dect
RAID5 n termeni de scriere, datorit ad ug rii unui num r i mai mare de calcule de
paritate, dar poate fi mai rapid n termeni de citire, datorit mpr tierii datelor peste
nc un hard disk.

16

Tehnologii i echipamente multimedia lucr ri practice

Fig. 9. RAID 6: Striped array with two independent distributed parity schemes matrice distribuita cu
dou scheme independente de paritate distribuit .

Nivelul RAID 6 este reprezentat n figura 9.


La fel ca la RAID 4 i RAID 5, performan a poate fi ajustat experimentnd
diferite m rimi ale f iilor.
RAID 6 necesit minimum patru discuri pentru a fi implementat.
Scrierea necesit actualizarea parit ii.
Citirile se pot face simultan de pe toate hard disk-urile.
2.3.8. RAID 7
Spre deosebire de celelalte nivele RAID, RAID 7 nu este un standard; este o
marc nregistrat a firmei Storaqe Computer Corporation, folosit pentru a descrie
designul lor propriu de RAID. RAID 7 se bazeaz pe conceptele folosite la nivelele
RAID 3 i RAID 4, dar mult mbun ite n mediul limit rilor acelor nivele. O
particularitate a acestui nivel este includerea unui cache aranjat n nivele multiple i
un procesor real-time specializat, care se ocup cu sincronizarea ariei. Suportul
hardware, n special cache-ul, permite ariei s se ocupe cu mai multe opera ii
simultan, aceasta mbun ind performan a i toleran a la defect ri. n particular,
RAID 7 ofer o performan mbun it la citire i la scriere fa de RAID 3 i
RAID 4, deoarece dependen a de discul de paritate dedicat este mult redus prin
ad ugarea hardware-ului. Desigur c performan a crescut a lui RAID 7 se face
sim it n costul crescut al acestuia. RAID 7 este o solu ie scump , fabricat i
promovat de o singur companie.
Nivelul RAID 7 este reprezentat n figura 10.

Fig. 10. RAID 7: Asynchronous, cached striping with dedicated parity cache asincron distribuit cu
paritate dedicat .

Tehnologia RAID: aplica ie de disk management

17

2.4. Nivele RAID hibride


Pentru crearea de nivele etajate de RAID, un nivel poate fi combinat cu alt
nivel, dar cel mai uzual sunt utilizate nivelele 0 si 1. Orice controler hardware (chiar si
cele ATA paralel sau serial, foarte accesibile azi, incluse chiar pe placa de baz )
suport RAID 0, RAID 1 i RAID 0+1, mai rar RAID 10, n func ie de implementare.
2.4.1. RAID 0+1
RAID 0+1 este implementat ca o suprafa oglindit , ale c rei segmente sunt
suprafe e RAID 0. RAID 0+1 are aceea i toleran la erori ca RAID 5 i acela i
control al toleran elor la erori ca oglindirea simpl . Ratele mari I/O se ob in datorit
multiplelor segmente divizate.
Nivelul RAID 0+1 este reprezentat n figura 11.

Fig. 11. RAID 0+1: Striping and mirroring combination without parity combina ie de distribuire i
oglindire, f paritate.

RAID 0+1 nu trebuie confundat cu RAID 10. Defectarea unui singur drive va
duce la transformarea matricei ntr-o matrice RAID 0. RAID 0+1 ofer o scalabilitate
foarte limitat la un pre foarte mare. Este o solu ie ideal pentru site-uri care necesit
o performan ridicat , dar nu vizeaz o fiabilitate maxim .
RAID 0+1 necesit minimum patru discuri pentru a fi implementat.
2.4.2. RAID 10
Este implementat ca o matrice distribuit , ale c rei segmente sunt matrice
RAID 1. RAID 10 are aceea i tolerant la erori ca RAID 1. Ratele de transfer mai
bune sunt ob inute datorit distribuirii segmentelor RAID 1. n anumite circumstan e,
RAID 10 poate rezista la defect ri multiple simultane ale discurilor. Este o solu ie
foarte bun pentru sisteme care necesit RAID 1, deoarece aduce un plus de
performan fa de acesta.
RAID 10 este foarte costisitor i are un nivel ridicat de control. Poate fi utilizat
n aplica ii cu servere de baze de date, care necesit o performan bun i toleran la
erori.
RAID 10 necesit minimum patru discuri pentru a putea fi implementat.
Nivelul RAID 10 este reprezentat n figura 12.

18

Tehnologii i echipamente multimedia lucr ri practice

Fig. 12. RAID 10: Mirroring and striping combination without parity combina ie de oglindire i
distribuire, f paritate.

2.4.3. RAID 53
RAID 53 ar trebui numit, de fapt, RAID 03, deoarece este implementat ca o
matrice distribuit ale c rei segmente sunt matrice RAID 3. RAID 53 are aceea i
toleran la defecte ca RAID 3 i acela i nivel de control.
Datorit segmentelor RAID 3, se ob in rate mari de transfer, iar datorit
distribuirii RAID 0 se ob in rate de transfer i mai bune pentru opera ii de
scriere/citire scurte. Este folositor pentru sistemele care folosesc RAID 3 i necesit
un plus de performan .

Fig. 13. RAID 53: High I/O rates and data transfer performance transferuri I/O la rate m rite i
performan la transferul datelor.

Este foarte scump de implementat. Toate acele discurilor trebuie sincronizate,


ceea ce limiteaz alegerea discului.
RAID 53 necesit minimum cinci discuri pentru implementare.
2.5. Fiabilitatea nivelelor RAID
MTTR (Mean Time To Replace) este timpul ct matricea este defect . Acesta
este calculat f cnd suma ntre doi termeni. Primul este H, timpul pn cnd
tehnicianul observ c un disc s-a defectat i l nlocuie te. H este aproximativ 0 dac
se folose te un disc de rezerv . Al doilea termen este timpul necesar refacerii datelor
alterate. ntr-un sistem optim n care controlerul poate ine ritmul cu rata de transfer a

Tehnologia RAID: aplica ie de disk management

19

discurilor i opera ia XOR este f cut ntr-o singura rota ie, refacerea datelor poate fi
calculat ca timpul necesar pentru citirea discurilor bune, opera ia XOR/rota ie i
scrierea datelor pe discul nlocuit. Astfel, considernd C ca fiind capacitatea i M fiind
rata de transfer, MTTR este calculat cu rela ia:

MTTR = H +

C
. (1)
M
3

Fiabilitatea unei matrice este legat de fiabilitatea discurilor i de num rul de


defec iuni ale discurilor care poate fi tolerat nainte ca matricea s devin inaccesibil .
Fiabilitatea discurilor este caracterizat de timpul mediu dintre defec iuni, MTBF
(Mean Time Before Failure).
Fiabilitatea unei matrice neredundante ca RAID 0 este egal cu raportul dintre
etalonul MTBF i num rul de discuri N. Aceasta este cunoscut i sub numele de
MTTDL_DF (Mean Time To Data Loss due to Disk Failure timpul mediu pn la
pierderea datelor datorat defec iunii discului):
MTTDL _ DF =

MTBF
. (2)
N

Deoarece matricea RAID 5 poate tolera defec iunea unui singur disc,
fiabilitatea discurilor r mase se poate calcula cu rela ia:
MTTDL _ DF _ R5 _ DEFECT =

MTBF
. (3)
N 1

Combinnd ecua iile (2) i (3) i lund n considerare timpul de reconstruire al


unui disc, se ob ine:
Fiabilitate RAID5 =

MTTF 2
. (4)
N * ( N 1) * MTTR

Fiabilitatea pentru matricea RAID 6 se ob ine n mod asem


Fiabilitate RAID6

tor:

MTTF 3
. (5)
=
N * ( N 1) * ( N 2) * MTTR 2

Se consider c probabilitatea defect rii al unui al doilea disc dup primul este
mult mai mare, datorit problemelor hardware ap rute. Aceasta este cunoscut sub
numele de defec iune corelat a discului.
Se presupune c etalonul MTBF al celui de-al doilea disc este o zecime din
etalonul MTBF al primului disc. Astfel, etalonul MTBF al celui de-al treilea disc este
o sutime din etalonul MTBF al primul disc etc.
Lund n considerare defect rile corelate ale discurilor, se ob in urm toarele
rela ii:

20

Tehnologii i echipamente multimedia lucr ri practice

MTBF
10
, (6)
MTTDL _ DF _ R5 =
N * ( N 1) * MTTR
MTBF *

MTBF MTBF
*
10
100
. (7)
MTTDL _ DF _ R6 =
N * ( N 1) * ( N 2) * MTTR 2
MTBF *

Un al treilea factor pentru etalonul MTTDL este e ecul citirii unuia sau al mai
multor blocuri de pe discurile bune r mase n timpul reconstruiri datelor discului
defectat. ansa ca aceasta s se ntmple este propor ional cu rata de eroare a bi ilor
BER (Bit Error Rate), sau cu num rul mediu de bi i care trebuie citi i pentru a avea un
bit eronat. Dac dimensiunea unui sector este de 512 octe i, num rul de sectoare care
trebuie citite pentru a avea n medie un sector defect se poate calcula cu rela ia:
Sector _ Error _ Rate =

BER
. (8)
512 * 8

Presupunnd c erorile sunt aleatoare, probabilitatea p de succes a citirii


tuturor sectoarelor unui disc se calculeaz cu rela ia:
C

512

1
p = 1
. (9)
BER

512 * 8

Atunci etalonul MTTDL corespunz tor unei defec iuni a discului n RAID 5 i
unei erori de bit n timpul refacerii discului se calculeaz cu rela ia:

MTTDL _ BER _ R5 =

MTBF
. (10)
N * (1 p ( N 1) )

n cazul RAID 6, corespunz tor defect rii a dou discuri i erorii de bit n
timpul refacerii discului, acela i etalon se calculeaz cu rela ia:
MTBF
10
. (11)
MTTDL _ BER _ R6 =
N * ( N 1) * (1 p ( N 2 ) ) * MTTR
MTBF *

n final, etalonul MTTDL corespunz tor fie unei c deri de disc, fie unei erori
de bit este media armonic ntre MTTDL_DF i MTTDL_BER:
1
MTTDL =
. (12)
1
1
+
MTTDL _ DF MTTDL _ BER

Tehnologia RAID: aplica ie de disk management

21

Etalonul MTTDL poate fi folosit la compararea fiabilit ii diferitelor matrice


cu tipuri diferite de discuri, num r diferit de discuri i nivele diferite de RAID.
n concluzie, este important s se ia n seam faptul c fiabilitatea sistemului
nu depinde numai de fiabilitatea discurilor din sistem. n multe cazuri, sistemul de
operare este cel care cauzeaz pierderi de date. De asemenea, fiabilitatea depinde de
etalonul MTBF al altor componente, cum ar fi ventilatoarele sau sursele de curent,
care, dac nu sunt nlocuite prompt, pot contribui la o c dere mai deas a sistemului
dect discurile.

3. Descrierea aplica iei


Aplica ia RAID ofer posibilitatea vizualiz rii nivelelor RAID, calculul
eficien ei i fiabilit ii acestora, precum i n elegerea modului de protec ie a datelor.
Din meniul principal, se poate alege nivelul RAID i se poate calcula eficien a,
pe baza num rului total de discuri disponibile, parametru introdus de utilizator.

Fig. 14. Meniul principal al aplica iei RAID.

Nivelul RAID poate fi ales i un segment al unei matrice hibride, la care exist
de asemenea posibilitatea de a o vizualiza i de a-i calcula eficien a, dup cum se
poate observa n figura 14.
Pentru nivelele RAID 5 i 6, exist op iunea de a calcula fiabilitatea matricei i
timpul mediu n care se pot pierde date dup defectarea unuia sau mai multor discuri
din sistem, dup defectarea sistemului, sau dup erori de bit la citire. La alegerea
op iunii de a calcula fiabilitatea, apare o nou fereastr , n care se pot alege parametrii
MTTF, MTTR, num rul de discuri din sistem, probabilitatea de citire a tuturor
sectoarelor unui disc i caracteristicile defec iunii, iar dup procesarea parametrilor de
intrare men iona i se ob in parametrii de ie ire MTBF i MTTDL, dup cum se poate
observa n figura 15.
Pentru matricele RAID 2 i RAID 5, se poate alege op iunea de
Scriere/Refacere date, la alegerea c reia apare o nou fereastr . La RAID 2, se
observ modul de detec ie al erorii folosind codul Hamming corector de o eroare,
dup cum se poate observa n figura 16. Pentru matricea RAID 5, se explic modul de
calcul al parit ii i modul de rescriere al datelor n cazul defect rii unui disc, dup
cum se poate observa n figura 17.

22

Tehnologii i echipamente multimedia lucr ri practice

Fig. 15. Fereastra Fiabilitate.

Fig. 16. Scrierea/Refacerea datelor la RAID 2.

Tehnologia RAID: aplica ie de disk management

23

Fig. 17. Scrierea/Refacerea datelor la RAID 5.

4. Desf urarea lucr rii


1. Se verific dac este instalat pe calculator programul RAID. Dac aplica ia
nu este instalat , atunci se va instala din Setup. Se va lansa n execu ie
aplica ia. (Calea default este: C:\Program Files\UPB\NivRAID\).
2. Se calculeaz eficien a fiec rui nivel RAID pentru 4 valori distincte ale
num rului de discuri. Se noteaz datele ntr-un tabel.
3. Se compar fiabilitatea nivelelor RAID 5 i RAID 6 pentru acelea i date
de intrare de la punctul 2. Se observ i se noteaz dependen a fiabilit ii
fa de num rul de discuri.
4. Se observ modul de control al erorilor pentru nivelele RAID 2 i 5.
4.1. Se calculeaz bi ii codului Hamming corector de o eroare n cazul
RAID 2. Se observ ce se ntmpl la introducerea unui bit eronat,
apoi la introducerea a doi bi i erona i.
4.2. Pentru RAID 5, se calculeaz pe hrtie paritatea cu func ia XOR ntre
3 iruri de bi i alese, apoi se reconstruie te unul din acestea folosind
bi ii de paritate.

24

Tehnologii i echipamente multimedia lucr ri practice

5. ntreb ri
1. Care este diferen a ntre nivelele RAID 4 i RAID 5? Dar ntre RAID 5 i
RAID 6?
2. De ce nu se mai folose te nivelul RAID 2?
3. Cum se calculeaz bi ii de control cu codul Hamming i cum se poate
detecta bitul introdus gre it?
4. Care nivel RAID are o mai bun toleran la defecte?
5. Care dintre nivelele RAID 0+1 i 10 este mai bun din punct de vedere al
performan ei? Care dintre acestea prezint o toleran mai bun la defecte?
6. Cum se actualizeaz datele de paritate pentru sistem RAID 5?
7. Cum se refac datele pierdute de pe un disc dintr-o matrice RAID 5?
8. Care este timpul mediu de pierdere a datelor pentru matricea RAID 5,
tiind c fiabilitatea unui disc este de 100.000 ore?
9. Dar fiabilitatea matricei RAID 6 n acela i caz?
10. Cum influen eaz probabilitatea erorii de bit durata n care se pot pierde
date?

S-ar putea să vă placă și