Documente Academic
Documente Profesional
Documente Cultură
2. Introducere teoretic
Tehnologia RAID (Redundant Array of Independent/Inexpensive Disks
matrice redundant de discuri independente/ieftine) a fost definit pentru prima dat
de un grup de oameni de tiin de la Universitatea Berkeley din California, n 1987.
Ace tia au studiat posibilitatea de a utiliza dou sau mai multe hard disk-uri, astfel
nct acestea s apar sistemului gazd ca fiind un singur dispozitiv.
Pe lng definirea nivelelor RAID ini iale de la 1 la 5, oamenii de tiin au
studiat data striping distribuirea (partajarea) datelor pe o matrice de discuri
nerendundante. Cunoscut ca RAID 0, aceast configura ie nu ofer niciun mecanism
de protec ie a datelor, dar permite un flux maxim pentru aplica iile care realizeaz
transferuri masive de date, cum ar fi produc ia video digital .
Datorit evolu iei complexit ii programelor, n timp au ap rut urm toarele
probleme de rezolvat:
asigurarea securit ii datelor;
Fig. 1. RAID 0: Non-redundant striped array matrice de discuri cu date distribuite, nerendundant
La acest nivel nu exist niciun fel de toleran la erori. Dac apare un defect la
unul din hard disk-uri, ntregul sistem se pr bu te. La fel s-ar fi ntmplat i dac
datele s-ar fi g sit pe un singur disc. Avantajul principal al matricei de discuri este
transferul mai rapid de date. Acesta cre te cu cre terea num rului de unit i SCSI.
RAID 0 necesit minimum dou discuri pentru a fi implementat.
Scrierea se poate face simultan pe toate hard disk-urile.
Citirea se poate face simultan de pe toate hard disk-urile
2.3.2. RAID 1
Aceast tehnologie realizeaz toleran a la erori altfel dect RAID 0, 3 sau 5. n
RAID 1, cnd se face scrierea datelor pe disc, se face o copie exact a acestora pe un
al doilea disc (mirror disk disc oglind ), n mod automat i transparent pentru
sistem, aplica ie sau utilizator. Discul oglind devine astfel o copie exact a discului
principal.
Interfa a cu discurile se poate face cu unul sau dou controlere. Un singur
controler ofer o performan de citire/scriere asem toare celei a unui singur hard
disk. Dac se folosesc dou controlere (cte unul pentru fiecare hard disk =
duplexing), se reduce riscul de a avea un singur dispozitiv care, n cazul unui defect,
ar duce la c derea ambelor hard disk-uri. De asemenea, duplexing-ul poate mbun i
rata de transfer prin scrierea/citirea alternativ a datelor pe/de pe cele dou unit i.
Comparativ, n cazul unui singur controler, performan a la scriere este mai redus ,
pentru c datele trebuie scrise nti pe discul principal i apoi pe discul oglind .
Nivelul RAID 1 este reprezentat n figura 2.
10
ntre nivelele RAID, nivelul 1 ofer cea mai mare disponibilitate a datelor,
pentru c sunt men inute dou cpii complete. n plus, performan a la citire poate fi
mbun it dac controlerul matricei de discuri permite citirea simultan de pe
ambele unit i ale unei perechi.
La scriere, va ap rea o u oar sc dere n performan , comparativ cu scrierea
pe un disc obi nuit. O disponibilitate mai mare poate fi ob inut dac cele dou discuri
ale unei perechi sunt conectate la magistrale I/O separate. Marele dezavantaj este c
numai jum tate din capacitatea de stocare este efectiv util i m rirea acesteia se poate
face numai n perechi de discuri.
RAID 1 necesit minimum dou discuri pentru a fi implementat.
Datele se scriu pe o pereche de hard disk-uri.
Citirile se pot face simultan de pe toate hard disk-urile.
2.3.3. RAID 2
RAID 2 stocheaz datele pe un grup de discuri mp indu-le n felii
(chunks), de obicei de m rimea unui sector. Un cod Hamming pentru fiecare ,,felie
este stocat pe un disc separat, numit check disk. Codul permite i corec ia erorilor.
Datele sunt partajate pe mai multe hard disk-uri, cteva dintre ele fiind
dedicate stoc rii informa iilor de detec ie i corec ie a erorilor (ECC Error Checking
and Correction) pentru fiecare sector. Oricum, pentru c cele mai multe din hard diskurile actuale au incluse facilit i ECC la nivel de sector ca facilitate standard, RAID 2
nu ofer avantaje semnificative comparativ cu arhitectura RAID 3.
Fig. 3. RAID 3: Parallel array with ECC matrice paralel cu corec ie ECC.
11
Fig. 4. RAID 3: Parallel array with parity matrice paralel cu informa ii de paritate.
Datele sunt scrise/citite simultan pe/de pe toate unit ile, iar bitul de paritate
este calculat i comparat cu cel de pe discul de paritate (la citire), sau scris pe
respectivul disc (la opera ia de scriere). Astfel, pentru fiecare octet scris, se calculeaz
un bit de paritate pentru a men ine integritatea datelor. Aceasta permite ca matricea de
discuri i sistemul s fie 100% func ionale i n cazul defect rii unui hard disk din
matrice. n acest caz, se poate continua citirea sau scrierea de pe celelalte unit i. Bitul
de paritate permite refacerea datelor de pe discul defect. nlocuirea unit ii defecte se
poate face on-line (hot-swapped), dup care controlerul matricei de discuri
reconstruie te datele pe acesta.
Avantajele RAID 3 fa de nivelele anterioare este c procentul ocupat de
informa ia redundant (de paritate) din totalul capacit ii de stocare descre te pe
sur ce cre te num rul hard disk-urilor.
De asemenea, dispune de c i paralele de transmitere a datelor, oferind astfel
rate de transfer ridicate pentru aplica iile care manipuleaz fi iere de dimensiuni mari.
Capacitatea matricei poate fi m rit cu cte un hard disk sau n grupuri.
RAID 3 necesit minimum trei discuri pentru a fi implementat.
Scrierea i citirea se face pe/de pe toate hard disk-urile.
Accesul paralel reduce timpul de citire pentru fi ierele mari.
2.3.5. RAID 4
n RAID 4, informa ia de paritate este ntre esut cu datele utile la nivel de
sector dau bloc de date. Ca la RAID 3, un singur drive este utilizat pentru stocarea
12
datelor redundante, folosind un octet de paritate pentru fiecare bloc de date. C ile
paralele de transfer a datelor i distribu ia datelor pe hard disk-urile din matrice la
nivel de sector sau bloc permit efectuarea de opera ii independente pe diversele unit i
i executarea n paralel a opera iilor de intrare/ie ire.
Nivelul RAID 4 este identic cu RAID 3, cu excep ia faptului c se utilizeaz
unit i de alocare mai mari, astfel nct informa iile pot fi citite de pe un hard disk din
matrice independent de discul de paritate. Acest lucru permite suprapunerea n timp a
opera iilor de citire.
Nivelul RAID 4 este reprezentat n figura 5.
Fig. 5. RAID 4: Striped array with parity matrice de discuri cu datele distribuite, cu paritate.
13
Fig. 6. RAID 5: Striped array with distributed parity matrice distribuit cu paritate distribuit .
14
XOR
XOR
Read
Read
Write
W rite
Data
Data
Data
PARITY
2. Al doilea mod implic g sirea bi ilor de date care au fost schimba i de c tre
opera ia de scriere, iar apoi schimbarea bi ilor de paritate corespunz tori. Aceast
metod este acompaniat mai nti de citirea datei vechi pentru a fi rescris . Aceast
dat este aplicat unui XOR cu noua dat care va fi scris . Rezultatul este o masc de
bit (bit mask), care are 1 n pozi ia fiec rui bit care a fost schimbat. Aceast masc de
bit este apoi aplicat unui XOR cu vechea informa ie de paritate care este citit de la
drive-ul de paritate din matrice. n acest fel, este posibil s se determine care bi i din
vechea paritate au fost schimba i, iar noua paritate reactualizat este apoi scris napoi
pe discul de paritate. Aceasta rezult n doar dou citiri, dou scrieri i dou opera ii
XOR.
Acest dezavantaj al memor rii informa iei de paritate mai trziu dect copierea
datelor este datorat timpului suplimentar de la durata opera iilor de scriere pn la
regenerarea informa iei de paritate.
Acest timp adi ional reduce performan ele de scriere pentru RAID 5 fa de
RAID 1 cu un factor cuprins ntre 3/5 i 1/3. Din acest motiv, nivelul RAID 5 nu este
recomandat pentru aplica iile de scriere n care performan a este important .
15
XOR
Read
Read
Read
Data
Data
PARITY
16
Fig. 9. RAID 6: Striped array with two independent distributed parity schemes matrice distribuita cu
dou scheme independente de paritate distribuit .
Fig. 10. RAID 7: Asynchronous, cached striping with dedicated parity cache asincron distribuit cu
paritate dedicat .
17
Fig. 11. RAID 0+1: Striping and mirroring combination without parity combina ie de distribuire i
oglindire, f paritate.
RAID 0+1 nu trebuie confundat cu RAID 10. Defectarea unui singur drive va
duce la transformarea matricei ntr-o matrice RAID 0. RAID 0+1 ofer o scalabilitate
foarte limitat la un pre foarte mare. Este o solu ie ideal pentru site-uri care necesit
o performan ridicat , dar nu vizeaz o fiabilitate maxim .
RAID 0+1 necesit minimum patru discuri pentru a fi implementat.
2.4.2. RAID 10
Este implementat ca o matrice distribuit , ale c rei segmente sunt matrice
RAID 1. RAID 10 are aceea i tolerant la erori ca RAID 1. Ratele de transfer mai
bune sunt ob inute datorit distribuirii segmentelor RAID 1. n anumite circumstan e,
RAID 10 poate rezista la defect ri multiple simultane ale discurilor. Este o solu ie
foarte bun pentru sisteme care necesit RAID 1, deoarece aduce un plus de
performan fa de acesta.
RAID 10 este foarte costisitor i are un nivel ridicat de control. Poate fi utilizat
n aplica ii cu servere de baze de date, care necesit o performan bun i toleran la
erori.
RAID 10 necesit minimum patru discuri pentru a putea fi implementat.
Nivelul RAID 10 este reprezentat n figura 12.
18
Fig. 12. RAID 10: Mirroring and striping combination without parity combina ie de oglindire i
distribuire, f paritate.
2.4.3. RAID 53
RAID 53 ar trebui numit, de fapt, RAID 03, deoarece este implementat ca o
matrice distribuit ale c rei segmente sunt matrice RAID 3. RAID 53 are aceea i
toleran la defecte ca RAID 3 i acela i nivel de control.
Datorit segmentelor RAID 3, se ob in rate mari de transfer, iar datorit
distribuirii RAID 0 se ob in rate de transfer i mai bune pentru opera ii de
scriere/citire scurte. Este folositor pentru sistemele care folosesc RAID 3 i necesit
un plus de performan .
Fig. 13. RAID 53: High I/O rates and data transfer performance transferuri I/O la rate m rite i
performan la transferul datelor.
19
discurilor i opera ia XOR este f cut ntr-o singura rota ie, refacerea datelor poate fi
calculat ca timpul necesar pentru citirea discurilor bune, opera ia XOR/rota ie i
scrierea datelor pe discul nlocuit. Astfel, considernd C ca fiind capacitatea i M fiind
rata de transfer, MTTR este calculat cu rela ia:
MTTR = H +
C
. (1)
M
3
MTBF
. (2)
N
Deoarece matricea RAID 5 poate tolera defec iunea unui singur disc,
fiabilitatea discurilor r mase se poate calcula cu rela ia:
MTTDL _ DF _ R5 _ DEFECT =
MTBF
. (3)
N 1
MTTF 2
. (4)
N * ( N 1) * MTTR
tor:
MTTF 3
. (5)
=
N * ( N 1) * ( N 2) * MTTR 2
Se consider c probabilitatea defect rii al unui al doilea disc dup primul este
mult mai mare, datorit problemelor hardware ap rute. Aceasta este cunoscut sub
numele de defec iune corelat a discului.
Se presupune c etalonul MTBF al celui de-al doilea disc este o zecime din
etalonul MTBF al primului disc. Astfel, etalonul MTBF al celui de-al treilea disc este
o sutime din etalonul MTBF al primul disc etc.
Lund n considerare defect rile corelate ale discurilor, se ob in urm toarele
rela ii:
20
MTBF
10
, (6)
MTTDL _ DF _ R5 =
N * ( N 1) * MTTR
MTBF *
MTBF MTBF
*
10
100
. (7)
MTTDL _ DF _ R6 =
N * ( N 1) * ( N 2) * MTTR 2
MTBF *
Un al treilea factor pentru etalonul MTTDL este e ecul citirii unuia sau al mai
multor blocuri de pe discurile bune r mase n timpul reconstruiri datelor discului
defectat. ansa ca aceasta s se ntmple este propor ional cu rata de eroare a bi ilor
BER (Bit Error Rate), sau cu num rul mediu de bi i care trebuie citi i pentru a avea un
bit eronat. Dac dimensiunea unui sector este de 512 octe i, num rul de sectoare care
trebuie citite pentru a avea n medie un sector defect se poate calcula cu rela ia:
Sector _ Error _ Rate =
BER
. (8)
512 * 8
512
1
p = 1
. (9)
BER
512 * 8
Atunci etalonul MTTDL corespunz tor unei defec iuni a discului n RAID 5 i
unei erori de bit n timpul refacerii discului se calculeaz cu rela ia:
MTTDL _ BER _ R5 =
MTBF
. (10)
N * (1 p ( N 1) )
n cazul RAID 6, corespunz tor defect rii a dou discuri i erorii de bit n
timpul refacerii discului, acela i etalon se calculeaz cu rela ia:
MTBF
10
. (11)
MTTDL _ BER _ R6 =
N * ( N 1) * (1 p ( N 2 ) ) * MTTR
MTBF *
n final, etalonul MTTDL corespunz tor fie unei c deri de disc, fie unei erori
de bit este media armonic ntre MTTDL_DF i MTTDL_BER:
1
MTTDL =
. (12)
1
1
+
MTTDL _ DF MTTDL _ BER
21
Nivelul RAID poate fi ales i un segment al unei matrice hibride, la care exist
de asemenea posibilitatea de a o vizualiza i de a-i calcula eficien a, dup cum se
poate observa n figura 14.
Pentru nivelele RAID 5 i 6, exist op iunea de a calcula fiabilitatea matricei i
timpul mediu n care se pot pierde date dup defectarea unuia sau mai multor discuri
din sistem, dup defectarea sistemului, sau dup erori de bit la citire. La alegerea
op iunii de a calcula fiabilitatea, apare o nou fereastr , n care se pot alege parametrii
MTTF, MTTR, num rul de discuri din sistem, probabilitatea de citire a tuturor
sectoarelor unui disc i caracteristicile defec iunii, iar dup procesarea parametrilor de
intrare men iona i se ob in parametrii de ie ire MTBF i MTTDL, dup cum se poate
observa n figura 15.
Pentru matricele RAID 2 i RAID 5, se poate alege op iunea de
Scriere/Refacere date, la alegerea c reia apare o nou fereastr . La RAID 2, se
observ modul de detec ie al erorii folosind codul Hamming corector de o eroare,
dup cum se poate observa n figura 16. Pentru matricea RAID 5, se explic modul de
calcul al parit ii i modul de rescriere al datelor n cazul defect rii unui disc, dup
cum se poate observa n figura 17.
22
23
24
5. ntreb ri
1. Care este diferen a ntre nivelele RAID 4 i RAID 5? Dar ntre RAID 5 i
RAID 6?
2. De ce nu se mai folose te nivelul RAID 2?
3. Cum se calculeaz bi ii de control cu codul Hamming i cum se poate
detecta bitul introdus gre it?
4. Care nivel RAID are o mai bun toleran la defecte?
5. Care dintre nivelele RAID 0+1 i 10 este mai bun din punct de vedere al
performan ei? Care dintre acestea prezint o toleran mai bun la defecte?
6. Cum se actualizeaz datele de paritate pentru sistem RAID 5?
7. Cum se refac datele pierdute de pe un disc dintr-o matrice RAID 5?
8. Care este timpul mediu de pierdere a datelor pentru matricea RAID 5,
tiind c fiabilitatea unui disc este de 100.000 ore?
9. Dar fiabilitatea matricei RAID 6 n acela i caz?
10. Cum influen eaz probabilitatea erorii de bit durata n care se pot pierde
date?