Sunteți pe pagina 1din 122

1 CONFIGURAIA HARDWARE A SISTEMELOR DE CALCUL ......

4
1.1 Structura sistemelor de calcul ........................................................ 4
1.2 Structura sistemelor de operare ...................................................... 4
1.2.1 Managementul memoriei ....................................................... 4
1.2.2 Procesele ................................................................................ 4
1.2.3 Magistrala de sistem ............................................................... 5
1.2.4 Managementul ntreruperilor ................................................. 5
1.2.5 Drivere de dispozitiv .............................................................. 5
1.2.6 Sistemul de fiiere .................................................................. 5
1.3 Magistrala PCI (Peripheral Component Interconnect) Express ..... 5
1.3.1 Informaia de configurare ....................................................... 7
1.3.2 Identificarea dispozitivelor..................................................... 9
1.3.3 Nivelul fizic.......................................................................... 10
1.3.4 Nivelul legtur de date ....................................................... 13
1.3.5 Nivelul de tranzacie ............................................................ 14
1.4 SCSI i SAS ................................................................................ 15
1.4.1 Prezentare general SCSI ..................................................... 15
1.4.2 Termeni SCSI i SAS ........................................................... 16
1.4.3 Exemplu de lucru SCSI ........................................................ 18
1.4.4 Exemplu de lucru SAS ......................................................... 20
1.5 ATA i SATA ................................................................................ 23
1.5.1 Principiul de funcionare ATA .............................................. 23
1.5.2 Nivelurile interfeei SATA ................................................... 26
1.6 Lab 2.A: Instalarea Hyper-V n Windows 10 Pro ........................ 26
1.6.1 Etapa I. Instalarea Hyper-V.................................................. 27
1.6.2 Etapa II. Configurarea Hyper-V ........................................... 27
1.7 Lab 2.B: Instalarea unei maini virtuale cu Centos 7.2 n Hyper-V
27
1.7.1 Etapa IV. Instalarea unui server i client Centos 7.2 ............ 29
1.8 Lab 2.C. Instalarea KVM n Ubuntu ............................................ 30
1.8.1 Etapa I. Instalarea KVM ...................................................... 31
1.8.2 Etapa II. Configurarea KVM cu Virt Machine Manager ..... 31
1.9 Lab 2.D: Instalarea unei maini virtuale cu Centos 7.2 n Ubuntu
KVM 32
1.9.1 Etapa IV. Clonarea unei maini virtuale existente ............... 33
1.10 Lab 2.E: Instalarea unei maini virtuale cu Ubuntu n Hyper-V.. 34
1.10.1 Etapa I. Instalarea Ubuntu Server 14.04 LTS....................... 34
1.10.2 Etapa II. Instalarea unei maini virtuale cu Ubuntu Desktop
15.10 36
1.11 Lab 2.G: Aflarea detaliilor cu privire la configuraia hardware a
mainilor cu Linux ................................................................................... 36
1.12 Aplicaii i ntrebri...................................................................... 42

2 MECANISMUL DE STOCARE PERSISTENT A DATELOR........ 43


2.1 Structura discului rigid ................................................................. 44
2.2 Formatarea discului ...................................................................... 46
2.2.1 Formatarea de nivel inferior ................................................. 47
2.2.2 Partiionarea ......................................................................... 49
2.2.3 Partiionarea MBR/MSDOS ................................................ 49
2.2.4 Tabela de partiii cu identificatori unici globali ................... 52
2.2.1 Scrierea unui sistem de fiiere.............................................. 56
2.3 Lab 3.A: Partiionarea discurilor n linux .................................... 56
2.3.1 Etapa I. Partiionarea discurilor cu MBR ............................. 57
2.3.2 Etapa II. Partiionarea discurilor cu GPT ............................. 57
2.4 Lab 3.B: Partiionarea discurilor n Windows .............................. 58
2.5 Cofiguraii RAID ......................................................................... 58
2.6 Lab 3.C: Instalarea sistemelor Linux ntr-o configuraie RAID
software .................................................................................................... 67
2.7 Lab 3.D: Configurarea RAID software a discurilor adugate dup
instalare n Linux...................................................................................... 67
2.8 Lab 3.E: Configuraii RAID n sistemele Windows..................... 67
2.9 Aplicaii i ntrebri...................................................................... 67

3 INIIALIZAREA SISTEMULUI DE OPERARE .............................. 69


3.1 BIOS ............................................................................................. 69
3.1.1 Procesul de iniializare a sistemului ..................................... 70
3.1.2 Limitrile BIOS-ului ............................................................ 71
3.2 UEFI ............................................................................................. 71
3.2.1 Procesul de iniializare a sistemului ..................................... 72
3.2.2 Configuraia firmware .......................................................... 73
3.3 ncrctorul de sistem .................................................................. 73
3.3.1 Anatomia unui ncrctor de sistem ..................................... 74
3.4 Aplicaii i ntrebri...................................................................... 74

4 Comunicaii n reea ............................................................................. 77


4.1 Serviciul numelor de domeniu ..................................................... 78
4.1.1 Cereri directe ........................................................................ 80
4.1.2 Cereri inverse ....................................................................... 82
4.1.3 Rezolvarea numelor de domeniu la nivelul staiei client ..... 82
4.1.4 Rezolvarea numelor de domeniu la nivelul serverului DNS 83
4.1.5 Tipuri de servere DNS.......................................................... 84
4.1.6 nregistrri de resurse ........................................................... 85

5 Dispozitive de stocare persistent accesate prin reea ......................... 91


5.1 DAS (Direct Attached Storage) .................................................... 91
5.2 NAS (Network Attached Storage) ................................................ 92
5.2.1 SMB ..................................................................................... 93
5.2.2 NFS (Network File System) ................................................. 93
5.3 Lab 5.A: Configurarea NFS n sistemele Linux........................... 94
5.4 Lab 5.B: Configurarea SMB n sistemele Linux (Samba) ........... 94
5.5 Lab 5.B: configurarea SMB n sistemele Windows Server (File
Server) 94
5.6 Lab 5.C: Configurarea NFS n sistemele Windows Server .......... 94
5.7 SAN (Storage Area Network) ...................................................... 94
5.8 FC (Fibre Channel) ...................................................................... 95
5.8.1 Topologia FC ........................................................................ 95
5.8.2 Controlul accesului............................................................... 97
5.8.3 Arhitectura FC ...................................................................... 99
5.9 iSCSI .......................................................................................... 101
5.10 Lab 5.E: Configurarea iSCSI n sistemele Linux ....................... 104
5.11 Lab 5.F: configurarea iSCSI n sistemele Windows Server ....... 104

6 Windows Active Directory ................................................................. 106

7 Introducere n virtualizare .................................................................. 108


7.1 Servicii de Cloud ........................................................................ 108
7.2 Virtualizarea ............................................................................... 109
7.2.1 Avantajele mainilor virtuale ............................................. 111
7.2.2 Platforme de virtualizare .................................................... 112
7.2.3 Virtualizarea resurselor fizice ............................................ 113

8 VMware vSphere ............................................................................... 118


8.1 Instalarea VMware ESXi ........................................................... 121
1 CONFIGURAIA HARDWARE A
SISTEMELOR DE CALCUL

http://www.tldp.org/LDP/tlk/tlk-toc.html

1.1 Structura sistemelor de calcul

http://www.tldp.org/LDP/tlk/basics/hw.html

1.2 Structura sistemelor de operare

http://www.tldp.org/LDP/tlk/basics/sw.html

structura plcii de baz, descriere chipset

1.2.1 Managementul memoriei

http://www.tldp.org/LDP/tlk/mm/memory.html

1.2.2 Procesele

http://www.tldp.org/LDP/tlk/kernel/processes.html
http://www.tldp.org/LDP/tlk/ipc/ipc.html
1.2.3 Magistrala de sistem

http://www.tldp.org/LDP/tlk/dd/pci.html

https://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=di
splayKC&externalId=2047927

1.2.4 Managementul ntreruperilor

http://www.tldp.org/LDP/tlk/dd/interrupts.html

1.2.5 Drivere de dispozitiv

http://www.tldp.org/LDP/tlk/dd/drivers.html

1.2.6 Sistemul de fiiere

http://www.tldp.org/LDP/tlk/fs/filesystem.html

1.3 Magistrala PCI (Peripheral Component


Interconnect) Express

PCIe este o conexiune serial care opereaz mai degrab ca o reea i nu ca


magistral. n loc s foloseasc o singur magistral paralel ca suport pentru
transferul de date ntre dispozitive, PCIe folosete un comutator (switch) care
controleaz cteva conexiuni seriale punct-la-punct (vezi Fig. 1). Aceste conexiuni
pleac din comutator direct la dispozitive. Fiecare dispozitiv are propria conexiune
dedicat, astfel nct limea de band nu mai este partajat ntre dispozitive. La
pornirea calculatorului, PCIe detecteaz dispozitivele prezente pe placa de baz, apoi
identific legturile dintre ele, crend o hart de trafic i negociind limea de band
a fiecrei legturi. Procesul de identificare a dispozitivelor i conexiunilor folosete
acelai protocol ca PCI, aadar PCIe nu necesit modificri ale sistemului de operare.

Fig. 1 Comutatorul ofer comunicaii punct-la-punct ntre diferite dispozitive.

Arhitectura PCIe, structurat pe niveluri, este reprezentat n Fig. 2. Nivelul de


configurare asigur compatibilitatea cu modul de adresare PCI i mecanismul de
configurare definit n specificaiile PCI Plug-and-Play. Pstrarea compatibilitii cu
PCI nseamn c nu sunt necesare modificri la nivelul aplicaiilor sau driverelor de
dispozitiv. Nivelul software genereaz cereri de citire i scriere care sunt transportate
la dispozitive prin intermediul nivelului de tranzacie. Nivelul de tranzacie folosete
un protocol bazat pe pachete.
Fig. 2. Arhitectura PCIe

Pentru un transfer ct mai eficient, nivelul legturii de date adaug acestor pachete
numere de secven i sume de verificare (coduri CRC). Nivelul fizic const dintr-
un canal serial, dual, implementat ca o pereche de transmisie i una de recepie.

1.3.1 Informaia de configurare

Fiecare dispozitiv PCI are un spaiu de configurare de 256 de octei. Formatul


primilor 64 de octei este definit de specificaiile PCI. Aceast zon reprezint
antetul de configurare al dispozitivului. Restul octeilor rmn la discreia
productorului i de obicei sunt folosii pentru schimbul de informaie ntre
dispozitiv i driverul de dispozitiv.

Specificaiile definesc dou formate de antet, numite tipul 0 i 1. Tipul 1 este definit
pentru punile de legtur ntre dou magistrale PCI. Tipul 0 este utilizat de toate
celelalte dispozitive. Formatul antetului de tip 0 este prezentat n Fig. 3.
Cmpurile din antet se mai numesc i registre. De aceea le putem meniona cu
denumirile: registrul de identificare a dispozitivului, registrul de identificare a
productorului, registre pentru controlul funciilor i detectarea strii dispozitivului,
etc.. Nu toat informaia din primii 64 de octei este obligatorie. Dac nu sunt
necesare dispozitivului, unele cmpuri pot fi iniializate cu zero. Cmpurile
obligatorii sunt marcate cu gri (identificatorul productorului, identificatorul
dispozitivului, registrul de comand, registrul de stare, identificatorul de versiune,
tipul de antet). Valorile din registrele PCI sunt date ntotdeauna n format little-
endian.

Biii 6 0 din cmpul Tip antet definesc formatul antetului de configuraie: 0 sau 1.
Bitul 7 indic dac dispozitivul are o singur funcie sau este multifuncional
(ncorporeaz mai multe funcii).

Identificatorul productorului i identificatorul dispozitivului specific productorul


i tipul dispozitivului. Primul este atribuit de un consoriu industrial (PCI Special
Interest Group) pentru identificarea companiilor individuale, iar cel din urm poate
fi selectat liber de productor. De exemplu, toate dispozitivele Intel sunt etichetate
cu acelai numr de productor, 0x8086. mpreun, cei doi identificatori formeaz
semntura dispozitivului. Pentru o descriere mai exact a interfeelor generice pot fi
folosite nc dou registre adiionale cu nume similare - productorul subsistemului
i identificatorul subsistemului.

Identificatorul de versiune reprezint versiunea dispozitivului. Permite utilizatorilor


s selecteze versiuni mbuntite de drivere de dispozitiv, n care au fost eliminate
disfuncionaliti hardware cunoscute sau n care au fost adugate noi funcionaliti.

Codul de clas, registru de 24 de bii, este folosit n procesul de atribuire a


dispozitivului la diferite grupuri funcionale i este mprit n dou pri. Primii 8
bii indic clasa de baz (de exemplu, controler pentru dispozitive de stocare), iar
urmtorii 16 bii o subclas a clasei de baz (de exemplu, controler SCSI).

Registrul de comand poate specifica anumite funcii: activarea dispozitivului,


activarea accesului la memoria dispozitivului, activarea funciei de master a
dispozitivului, activarea paritii, activarea semnalrii erorilor de sistem.

Registrul de stare pstreaz informaii de stare, cum ar fi frecvena de funcionare


(33 sau 66 MHz), etc..

Cele ase adrese de baz, fiecare de 32 de bii, sunt folosite la definirea adreselor n
vederea comunicaiei ntre dispozitivul PCI i restul sistemului.

1.3.2 Identificarea dispozitivelor

Fiecare dispozitiv conectat la o magistral PCI este identificat printr-o adres unic
format dintr-un set de trei numere:
Numrul de magistral, 8 bii, este numrul magistralei la care este conectat
dispozitivul; numerotarea ncepe de la 0. Specificaiile PCI permit maxim
256 de magistrale per sistem.
Numrul de dispozitiv, 5 bii, este un numr de identificare unic n cadrul
unei magistrale. La o magistral pot fi ataate maxim 32 de dispozitive.
Dispozitivele conectate la magistrale diferite pot avea acelai numr de
dispozitiv.
Numrul de funcie, 3 bii, este folosit pentru dispozitive cu mai multe uniti
funcionale. De exemplu, o singur plac de reea gzduiete dou interfee,
caz n care interfeele individuale sunt identificate prin numere de funcie
diferite. Standardul PCI definete un numr maxim de 8 uniti funcionale
per dispozitiv.

Specificaiile PCI permit unui sistem s conin pn la 256 de magistrale, dar


deoarece acest numr nu este suficient de mare pentru sistemele mari, Linux
folosete noiunea de domenii PCI. Fiecare domeniu PCI poate gzdui pn la 256
de magistrale. Fiecare magistral gzduiete pn la 32 de dispozitive i fiecare
dispozitiv poate fi o plac multifuncional cu maxim 8 funcii.

1.3.3 Nivelul fizic

nainte de PCIe, toate magistralele i sloturile de expansiune ale calculatoarelor


personale foloseau transmisia paralel. n comunicaia paralel, ntr-un singur ciclu
de ceas, sunt transferai mai muli bii n acelai timp, fiecare parcurgnd firul
electric corespunztor. n comunicaia serial, ntr-un ciclu de ceas este transferat
numai un singur bit. La nceput, comunicaia paralel era mai rapid, deoarece cu
ct transmitem mai muli bii odat cu att obinem viteze de transfer mai mari. Dar
comunicaia paralel ntmpin cteva probleme care mpiedic transmisiile s
ating rate mari de transfer. Cu ct ciclul de ceas este mai mic, cu att efectul
interferenei electromagnetice (cmpul electromagnetic creat n jurul unui fir induce
curent electric n firele adiacente, corupnd informaia transmis) i al ntrzierii de
propagare (este greu s obinem pe placa de baz exact aceeai dimensiune pentru
toate firele, iar la rate mari de transfer, datele care parcurg firele mai scurte ajung
primele i, n consecin, nainte de a ncepe procesarea datelor receptorul trebuie s
atepte sosirea tuturor biilor) este mai pronunat.

Transmisia serial PCIe

Procesul de transmisie serial din PCIe este mai simplu de implementat, deoarece
sunt necesare mai puine fire. PCIe folosete patru fire - dou pentru transmisie, dou
pentru recepie -, folosind o tehnic de evitare a interferenelor electromagnetice
numit transmisie diferenial. Transmisia diferenial se refer la faptul c acelai
semnal este transmis pe dou fire, al doilea fir transmind semnalul oglindit
(polaritate inversat) fa de semnalul original.

La receptor, semnalele sunt comparate. n mod ideal, ar trebui ca ele s fie egale, dar
oglindite. n realitate ele nu sunt egale, dar e uor de dedus faptul c diferena dintre
cele dou semnale este zgomot. n acest fel, acest procedeu de transmisie uureaz
sarcina receptorului n operaia sa de detecie i eliminare a zgomotului. Pe lng
imunitate crescut la interferenele electromagnetice, comunicaia serial este imun
i la ntrzierile de propagare.
O alt diferen major ntre cele dou tipuri de comunicaii const din faptul c o
comunicaie paralel, de obicei, din cauza numrului mare de fire necesar, are loc
ntr-un singur sens (half duplex - acelai fir este utilizat fie pentru transmisie, fie
pentru recepie). Comunicaia serial poate avea loc mult mai uor n ambele sensuri
n acelai timp (transmisia i recepia folosesc un set de fire separate), deoarece este
nevoie de numai dou fire n fiecare direcie. n cazul transmisiei ntr-un singur sens,
dou dispozitive nu pot comunica n acelai timp, unul din ele ori transmite, ori
recepioneaz. n cazul transmisiei simultane n ambele sensuri, ambele dispozitive
pot transmite n acelai timp.

i totui, cum este posibil ca transmisia serial s fie mai rapid? Rspunsul este
frecvena. n comunicaia serial pot fi folosite frecvene mai mari. O conexiune
paralel de 32 de bii per ciclu de ceas, la frecvena de 33 MHz, atinge o rat maxim
de 32/8 33 MHz, adic 133 MB/s. O conexiune serial PCIe de 2.5 GHz 1 bit,
atinge o rat de transfer de 250 MB/s.

Conexiunile PCIe

Conexiunea PCIe se bazeaz pe noiunea de lane (canal de comunicaie), care


descrie o comunicaie serial de 1 bit, de mare vitez, cu transmisie simultan n
ambele sensuri. Ceasul de date este ncorporat. Se transmite un bit per ciclu de ceas
n fiecare direcie. Pentru a crete limea de band, lane-urile pot fi grupate. De
exemplu, cnd dou dispozitive folosesc pentru conexiunea lor patru lane-uri,
aceasta se consider conexiune x4 i va fi capabil s ating de 4 ori mai mult lime
de band dect o singur conexiune, x1. Fig. 4 ilustreaz dou dispozitive conectate
prin dou lane-uri, altfel spus, o conexiune x2. Dei, n teorie, poate fi grupat orice
numr de lane-uri ntre 1 i 32, cele mai ntlnite conexiuni sunt x4, x8 i x16. Octeii
sunt distribuii ntre lane-uri ca n Fig. 9.
PCIe 1.0 i 2.0 folosesc sistemul de codare 8b/10b. Acest lucru nseamn c fiecare
octet de date este codificat i transmis ca numr de 10 bii. De obicei, din moment
ce un octet reprezint un grup de opt bii, o valoare dat este convertit din bii pe
secund (bps) n octei pe secund (B/s) prin mprire la 8. Totui, n cazul PCIe,
din cauza codrii 8b/10b, trebuie s mprim la 10, nu la 8. Acesta este motivul
pentru care cu o frecven de 2.5 GHz sau 5 GHz, limea de band pentru o
conexiune x1 este de 250 MB/s, respectiv 500 MB/s, i nu 312.5 MB/s, respectiv
625 MB/s. Cei doi bii n plus se numesc ncrcare suplimentar i mnnc
20% din limea de band a canalului.

PCIe 3.0 folosete un sistem de codare diferit, 128b/130b. Dup cum putem deduce,
acest sistem transmite 130 de bii pentru fiecare 128 de bii de date, lucru care ofer
o ncrcare suplimentar mult mai mic. Din cauza acestei codri, PCIe 3.0 poate
obine rate de transfer duble fa de PCIe 2.0 la o frecven de ceas de 8 GHz n loc
de 10 GHz.

PCIe 4.0 va folosi aceeai codare ca PCIe 3.0, dar va dubla frecvena de ceas, i
astfel, va dubla limea de band disponibil.

Versiune Codare Frecven Lime de band (x1)


1.0 8b/10b 2.5 Ghz 250 MB/s
2.0 8b/10b 5 Ghz 500 MB/s
3.0 128b/130b 8 Ghz 1 GB/s
4.0 128b/130b 16 GHz 2 GB/s

Aa cum am menionat, gruparea lane-urilor ne permite s multiplicm limea de


band. Astfel, o conexiune x4 cu PCIe 3.0 are o band teoretic de 4 GB/s (1 GB/s
x 4), n timp ce o conexiune x16 cu PCIe 3.0 va avea o lime de band de 16 GB/s.

Sloturi i carduri

Specificaiile PCIe permit crearea unor sloturi de dimensiuni diferite, n funcie de


numrul de lane-uri conectate la slot. Mai mult, un adaptor care are nevoie de un
numr de lane-uri mai mic dect dispune slotul poate fi inserat n orice slot PCIe. De
exemplu, putem instala o plac x1 n orice tip de slot PCIe. Astfel, dac avem o plac
de expansiune x4 i placa de baz nu dispune de un slot PCIe x4, putem s o
introducem ntr-un slot x8 sau x16.

n timpul iniializrii sistemului, numrul de lane-uri i frecvena de operare este


negociat de doi ageni (capetele conexiunii) pentru fiecare legtur PCIe. n acest
proces nu este implicat niciun firmware i nici sistem de operare.

1.3.4 Nivelul legtur de date

Rolul principal al acestui nivel este acela de a asigura transmisia eficient a


pachetelor de-a lungul legturilor PCIe. Nivelul legtur de date este responsabil cu
integritatea datelor i adaug la pachetele primite de la nivelul de tranzacie un numr
de secven i o sum de verificare.
n majoritatea cazurilor, transferul de date este iniiat de nivelul de tranzacie. Un
protocol de control se asigur de faptul c pachetele sunt transmise numai atunci
cnd se tie c la recepie este disponibil un buffer necesar pentru primirea acestora.
Acest lucru elimin necesitatea retransmiterii pachetelor i, n consecin, legtura
este utilizat mai eficient. Nivelul legtur de date va retransmite automat un pachet
semnalizat ca fiind corupt.

1.3.5 Nivelul de tranzacie

Nivelul de tranzacie recepioneaz cererile de citire/scriere de la nivelul software i


creaz pachete de cerere transmisie. Toate cererile sunt implementate sub forma unor
tranzacii divizate (permit unui iniiator s efectueze o cerere pentru un transfer i
apoi s elibereze magistrala). Tranzaciile sunt definite ca o serie de una sau mai
multe transmisii de pachete necesare finalizrii unui transfer de informaie ntre un
client (requester) i o surs (completer). Unele pachete de cerere vor avea nevoie de
un pachet de rspuns. De asemenea, nivelul de tranzacie recepioneaz pachete de
rspuns de la nivelul de legtur de date i le compar cu cererile originale primite
de la nivelul software. Fiecare pachet are un identificator unic care permite nivelului
de tranzacie s direcioneze pachetele de rspuns la sursa corect. Formatul
pachetelor permite adresarea pe 32 i 64 de bii. Totodat, pachetele au atribute ce
pot fi folosite pentru rutarea optim prin sistemul de I/O (no-soop, relaxed-
ordering i priority).

Nivelul de tranzacie recunoate patru spaii de adrese: cele trei spaii de adrese PCI
(memorie, I/O i configuraie), plus un spaiu de mesaje (Message Space).
Specificaiile PCI 2.2 au introdus ca opiune o metod alternativ de propagare a
ntreruperilor numit MSI (Message Signaled Interrupt, ntreruperi semnalate prin
mesaje). La PCIe, MSI devine metoda principal de procesare a ntreruperilor. n loc
de un semnal transmis fizic, PCIe scrie la o adres rezervat de memorie un mesaj
cu un format special. Totodat, PCIe folosete spaiul de mesaje pentru a pstra
compatibilitatea cu toate semnalele dinainte, cum ar fi ntreruperi, cereri de gestiune
a puterii consumate, reset-uri, .a.m.d..
1.4 SCSI i SAS

1.4.1 Prezentare general SCSI

n 1986, la apariie, SCSI (Small Computer System Interface) suporta limi de


band de aproximativ 5 MB/s. De-a lungul anilor, standardul a suferit transformri
succesive. Asemenea magistralei de sistem, SCSI este definit att de limea
magistralei ct i de rata de ceas. Creterea unuia din aceti doi parametrii duce la
creterea limii de band a magistralei SCSI. Limea magistralei este ori ngust
(narrow, 8 bii) ori larg (wide, 16 bii). Limea magistralei determin numrul de
octei de date care pot fi transmii ntr-un ciclu de ceas. Limea de band determin
i numrul de dispozitive care poate fi conectat la o singur magistral SCSI.
Magistralele nguste puteau gestiona 8 dispozitive, iar magistralele largi, 16
dispozitive. Cum un numr de dispozitiv este rezervat pentru controlerul SCSI,
fiecare tip de magistral putea conecta 7, respectiv 15 discuri.
Prima implementare SCSI-1, avea o magistral de 8 bii i o frecven de
ceas de 5 MHz. Un octet de date transmis de 5 milioane de ori pe secund nseamn
o lime de band de 5 MB/s. De la SCSI-1 au fost folosite mai multe frecvene de
ceas. Fast SCSI definea o frecven de 10 MHz (genernd o rat de transfer de 10
MB/s). Apoi au fost definite i implementate Ultra SCSI (20 MHz), Ultra2 SCSI (40
MHz), Ultra3 SCSI (80 MHz), Ultra 160 SCSI (magistral larg la 160 MHz).
Pentru a facilita apariia modificrilor, standardele SCSI au fost grupate n
cteva niveluri.

Definiiile globale SCSI sunt specificate n standardul SAM (SCSI Architectural


Model), n timp ce seturile de comenzi specifice diferitelor tipuri de dispozitive sunt
grupate ntr-un nivel al seturilor de comenzi. Nivelul seturilor de comenzi conine
setul principal de comenzi SCSI (SPC - SCSI Primary Commands), comun pentru
toate dispozitivele, plus alte seturi de comenzi necesare fiecrui tip specific de
dispozitiv. Al treilea nivel definete modul n care comenzile sunt mapate la un
anumit protocol, de exemplu, SPI (SCSI Parallel Interface), FCP (Fiber Channel
Protocol) sau SAS (Serial Attached SCSI). n final, al patrulea nivel, definete
interconectrile prin care dispozitivele pot comunica unele cu altele folosind
protocoalele de pe nivelurile superioare.

Avantaje SCSI:
detaliile de nivel inferior au fost lsate la discreia productorilor de discuri;
acest lucru a ascuns detaliile de implementare hardware fa de software-ul
de sistem i a permis acomodarea rapid cu noile dispozitive aprute.
spre deosebire de alte tehnologii (de exemplu IDE, devenit ulterior ATA)
care permiteau conectarea unui singur sau a dou discuri la o magistral,
SCSI gestiona 16 discuri pe o magistral extins.

n sistemele SCSI, interfaa magistralei SCSI cu magistrala de sistem (de exemplu,


PCI) a calculatorului este asigurat de un HBA (Host Bus Adapter). Acest lucru are
un avantaj major deoarece decupleaz magistrala SCSI de magistrala de sistem i
pot avea loc tranzacii simultan att pe magistrala de sistem ct i pe magistrala
SCSI.

1.4.2 Termeni SCSI i SAS

Unitile de extensie (expanders). Asemenea switch-urilor din reelele de


calculatoare, unitile de extensie ruteaz cererile de conexiune i apoi folosesc
aceste conexiuni la transmiterea cadrelor de date. Aa cum reiese din figura
urmtoare, exist dou tipuri de uniti de extensie - fanout i edge.
Un domeniu SAS poate conine numai o singur unitate de extensie fanout (Fanout
Expander din figura de mai jos). Prin definiie, un domeniu SAS are o structur
arborescent, cu unitatea de extensie fanout ca rdcin. Aceast unitate trebuie s
in minte toate adresele prezente n domeniu i, n consecin, are nevoie de mai
mult memorie.

Unitile de extensie edge (de margine) sunt dispozitive mai simple, care pot fi
cascadate pentru a crea mai multe posibiliti de adresare. Acest tip de unitate de
extensie are i un port folosit ca destinaie implicit pentru cererile de conexiune pe
care nu le poate transforma n adres.

Iniiator. Dispozitivul care poate iniia comenzi SCSI i recepiona rspunsuri. n


SCSI, iniiatorii sunt dispozitive relativ simple care, odat ce comanda a fost
transmis, transfer controlul tranzaciei dispozitivului int. HBA-ul este iniiator.

int. Dispozitivul cu rol de receptor pentru comenzi SCSI, acceptnd / returnnd


date i furniznd informaii legate de finalizarea tranzaciei. n SCSI, dispozitivul
int este dispozitivul mai complex i acesta preia controlul tranzaciei odat ce
comanda a fost recepionat. El decide dac trebuie s se deconecteze nainte de
returnarea datelor, cnd s trimit datele citite sau cnd s preia de la iniiator datele
ce trebuie scrise pe discuri. Harddisk-urile sunt inte.

Unitatea logic (Logical Unit) este o unitate (de ex. o partiie sau un volum logic)
din dispozitivul int care funcioneaz ca surs sau destinaie pentru date. O int
poate conine mai multe uniti logice, identificate printr-un numr de unitate logic
(LUN - Logical Unit Number); minim, o int trebuie s dispun de LUN 0.

Nexus. Derivat din cuvntul latinesc care nseamn legtur sau conexiune, un nexus
descrie relaia dintre lucruri. n SCSI, memorarea reciproc a adreselor dispozitivelor
aflate n comunicaie n vederea monitorizrii desfurrii tranzaciei reprezint un
nexus. Informaia de nexus permite unei inte s elibereze magistrala i s se
reconecteze mai trziu, atunci cnd are de transmis date, iar unui iniiator s in
evidena intelor cu care se afl n comunicaie.

Identificator de port (Port ID). O adres unic dintr-un domeniu SCSI sau SAS
pentru fiecare port. n SAS, adresa de 64 de bii asociat unui port servete drept
identificator de port. Un dispozitiv poate atribui aceeai adres SAS mai multor
porturi fizice pentru a permite gruparea lor ntr-un port de capacitate mai mare.

Numele de dispozitiv. Pentru SAS este tot adresa SAS.

WWN (World-Wide Name). Un identificator unic de 8 sau 16 octei. Dimensiunea i


formatul sunt determinate de cei mai semnificativi patru bii, denumii NAA
(Network Address Authority). Ceilali bii identific compania (OUI) i o valoare
definit de productor. Fiecare unitate logic (LUN) deine de asemenea un WWN.

1.4.3 Exemplu de lucru SCSI

n figura urmtoare este ilustrat o magistral SCSI (magistral paralel, SCSI Bus)
care leag un singur iniiator (SCSI HBA) de cteva dispozitive int. Sistemul client
(Client System) ruleaz o aplicaie care la un moment dat are nevoie de date aflate
pe un disc (int). Pentru a primi datele, clientul apeleaz driverul de dispozitiv SCSI.
Driverul transmite la HBA o comand (cerere), de-a lungul magistralei de sistem.
HBA-ul are de fapt doar rol de punte ntre magistrala SCSI i magistrala de sistem.
Arbitrarea i selecia

HBA-ul, cu rol de iniiator, trebuie s foloseasc magistrala SCSI pentru a transmite


comanda. Deoarece magistrala este partajat (ntre mai multe inte, reprezentate de
discuri), pentru a preveni preluarea controlului magistralei de mai mult de un
dispozitiv n acelai timp, este necesar un mecanism de arbitrare. Pentru a putea
selecta dispozitivul int, iniiatorul trebuie s ctige el nsui controlul magistralei.
n acest scop, protocolul SCSI include o etap de arbitrare i o etap de selecie.
Iniiatorul folosete propriul identificator pentru arbitrare. Dac iniiatorul ctig
controlul magistralei, selecteaz inta folosind identificatorul acesteia. De exemplu,
identificatorul pentru fiecare dispozitiv SCSI este format, de obicei, numai din unul
din cele 16 posibiliti i este setat n hardware prin jumperi. Valori de identificator
pot fi 7 pentru iniiator i 4 pentru int.

Conexiune n progres

Odat inta selectat, att ea ct i iniiatorul particip activ la tranzacie i se spune


c sunt conectate. Cnd dispozitivele se conecteaz, fiecare stocheaz (ine minte)
identificatorul celuilalt dispozitiv n vederea unor referine ulterioare (acest lucru
poart numele de stabilire a unui nexus; un nexus reprezint relaia ntre iniiator i
int). Nexus-ul este util pentru int deoarece aceasta poate alege s renune la
magistral pe durata prelucrrii cererii i s se reconecteze la iniiator mai trziu.
Pentru a face acest lucru, inta trebuie s cunoasc identificatorul iniiatorului.
Iniiatorul are nevoie de nexus deoarece mai multe inte se pot deconecta de la
magistral, ajungnd n situaia de a avea comenzi n ateptare pentru mai multe inte
n acelai timp. Ulterior, cnd primete rspunsuri, folosete informaiile de nexus
ca s tie care int a rspuns.

Odat stabilit o conexiune, inta preia controlul i decide cnd s transfere datele
pentru comenzile primite de la iniiator. Din moment ce SCSI este o magistral half-
duplex (cu transmisie ntr-un singur sens), acest lucru nseamn c este necesar un
mecanism de handshaking (pentru ca iniiatorul i inta s preia pe rnd magistrala).
Magistrala rmne dedicat pentru utilizarea celor dou dispozitive pn cnd inta
o elibereaz. Deoarece magistrala este comun tuturor dispozitivelor, acest lucru
nseamn c toate celelalte dispozitive vor trebui s atepte pn cnd conexiunea
curent se ncheie i magistrala devine disponibil. n timpul unei conexiuni ntre
dou dispozitive pot avea loc mai multe transferuri, dar pn la urm, inta se va
deconecta i magistrala va fi disponibil i altor dispozitive.

ncheierea conexiunii

Dup ce HBA-ul a primit de la int rspunsul cerut (datele citite de pe un LUN),


informeaz sistemul client de faptul c a finalizat comanda. Acest lucru se face de
obicei printr-o ntrerupere adresat unui driver de dispozitiv. La rndul su, driverul
de dispozitiv raporteaz aplicaiei client c datele sunt disponibile n bufferul
corespunztor. Aplicaia extrage datele, finaliznd acea secven de comand.

1.4.4 Exemplu de lucru SAS

S considerm topologia SAS din figura urmtoare.

Spre deosebire de SCSI, SAS este o magistral punct-la-punct care conecteaz direct
dou dispozitive. Punctele de conexiune se numesc porturi iar fiecare dispozitiv va
avea cel puin unul, n timp ce unitile de extensie i HBA-urile vor avea mai multe.
Un port poate consta dintr-un singur port fizic (PHY) (interfaa electric individual
la o legtur) sau mai multe. Un port care are numai un PHY se numete Narrow
Port (port ngust), iar un port care dispune de mai multe, se numete Wide Port (port
larg). O legtur unete dou PHY-uri unul de altul i const dintr-o pereche de fire
cu transmisie diferenial, pentru a forma un canal de transmisie, i o alt pereche de
fire cu transmisie diferenial, pentru a forma un canal de recepie. Figura urmtoare,
care prezint un HBA cu mai multe PHY-uri, ilustreaz noiunile de porturi nguste
i largi.

Arbitrarea i selecia

La fel ca la SCSI, clientul transmite cererea la driver care, la rndul su, o transmite
la HBA. HBA-ul nu trebuie s arbitreze accesul deoarece toate magistralele
(legturile) sunt acum punct la punct. Totui, pentru a obine serviciul, HBA-ul tot
trebuie s se conecteze la int. n acest sens, trimite o cerere de conexiune care
include adresa destinaie. Adresa destinaie este examinat de unitile de extensie
n vederea determinrii portului pe care trebuie rutat comunicaia.

Fiecrui port al unui dispozitiv SAS i este atribuit o adres SAS de 64 de bii, iar
cererile sunt direcionate la un dispozitiv pe baza adresei sale. Aceast adres este
atribuit din fabric de productor i este stocat n hardware-ul sau firmware-ul
dispozitivului. Ca parte a secvenei de resetare, dispozitivele raporteaz aceast
adres unic vecinilor cu care are legturi. Mai trziu, iniiatorii execut o secven
de pai, numit proces de descoperire, pentru a citi informaia din unitile de
extensie (expanders) i a crea o list cu toate adresele accesibile lor n sistem.
Acestea sunt adresele folosite la selecia dispozitivului int. Pentru a ti ce
magistral trebuie accesat, HBA-ul are de asemenea nevoie de o hart prin care s
determine ce adres corespunde crei magistrale. Mecanismul de mapare este
specific fiecrui productor.

Stabilirea conexiunii

Odat determinat magistrala care duce ctre int, nainte de a putea avea loc
transferul de date, ntre HBA i dispozitivul destinaie trebuie deschis o conexiune.
n acest sens, portul HBA transmite o cerere de conexiune sub forma unui cadru
special. Acest cadru este rutat n funcie de adres i n final ajunge la dispozitivul
destinaie. La primirea cererii de conexiune, inta o accept sau o refuz prin
transmiterea unei primitive de rspuns. Aceast primitiv nu are adres i nu este
rutat; pur i simplu parcurge conexiunea stabilit de cadrele cererii de conexiune n
drumul lor ntre iniiator i int. Dac inta accept cererea de conexiune, fiecare
dispozitiv de pe traseu recunoate faptul c conexiunea a fost complet stabilit i
legtura devine un circuit dedicat de comunicaie ntre cele dou dispozitive.

Conexiune n desfurare

Odat conexiunea stabilit, informaia de nexus este stocat la fel ca la SCSI. Tot la
fel ca la SCSI, inta preia controlul magistralei i decide cnd s extrag datele care
trebuie scrise sau s transmit datele citite. Pot fi transmise mai multe cadre n
ambele direcii, chiar i n acelai timp (operaiile full-duplex reprezint un avantaj
major pentru SAS), pn cnd unul sau ambele dispozitive decide c e timpul s
nchid conexiunea. nchiderea conexiunii n protocolul SSP (Serial SCSI Protocol)
presupune ca fiecare dispozitiv s indice mai nti c a terminat de utilizat
conexiunea i apoi s trimit o primitiv de nchidere.

ncheierea conexiunii

La fel ca la SCSI, cnd HBA-ul a primit de la int rspunsul cerut (datele citite, de
exemplu), informeaz clientul de finalizarea comenzii prin intermediul unei
ntreruperi.
1.5 ATA i SATA1

Pentru a nelege protocolul SATA (Serial ATA) sunt necesare cteva


lmuriri. Protocoalele ATA (Advanced Technology Attachement) i SATA sunt de
obicei implementate n medii de lucru cu un singur utilizator. n consecin, sunt
optimizate pentru cel mult dou discuri n configuraie master/slave, lucru care
permite ca protocolul s fie simplu.

1.5.1 Principiul de funcionare ATA

Standardul ATA permitea conectarea dispozitivelor de stocare la placa de baz prin


intermediul unui cablu care avea 40 de fire paralele i trei conectori (de obicei,
conectorul albastru pentru placa de baz, iar conectorul negru i gri pentru cele dou
uniti de stocare2).

Pe cablu, unul din periferice trebuia s fie declarat master, cellalt slave. Conectorul
de la extremitate (negru) era rezervat pentru master iar cel din mijloc (gri) pentru
slave. La discurile IDE, un jumper aflat pe disc, numit CS (cable select) permitea
definirea automat a perifericelor master i slave ct timp aceast funcionalitate era
suportat de BIOS. n ciuda nomenclaturii nefericite, ambele discuri puteau opera
independent odat sistemul iniializat, dei discul care opera n modul slave avea
performane mai reduse. Totodat, numai dispozitivul master poate fi utilizat ca
dispozitiv de boot, dar se putea folosi dispozitivul master de pe fiecare canal. Fiecare
1
ATA este cunoscut i sub denumirea de IDE (Integrated Drive Electronics) sau EIDE
(Enhanced IDE)
2
Standardul ATA a fost destinat iniial pentru conectarea discurilor, totui o extensie numit
ATAPI (ATA Packet Interface) permite conectarea altor periferice de stocare. cum ar fi
CD-ROM, DVD-ROM, etc..
plac de baz coninea dou controlere ATA, la fiecare se putea ataa un cablu,
formnd cte un canal de transfer. n consecin, ntr-un sistem standard puteam avea
maxim dou dispozitive de boot i un total de patru dispozitive ATA. Majoritatea
utilizatorilor conectau discul principal pe prima interfa master i unitatea CD-
ROM pe a doua, astfel nct ambele puteau fi folosite ca dispozitive de boot.

Programarea transferurilor de date

Iniial, la apariia protocolului ATA, nivelul de aplicaie iniia un transfer prin


scrierea unui set de registre aflat n interiorul dispozitivului int (acest lucru avea
loc prin intermediul procesorului). Setul de registre se numete Task File. HBA-ul
ATA pasa pur i simplu informaiile primite de la procesor direct la aceste registre,
aa cum se arat n figura de mai jos. Cnd registrul de comand era actualizat,
dispozitivul ncepea s execute cererea n funcie de parametrii prezeni n alte
registre.

Ulterior, cu intenia de a da o definiie i o structur proprie standardului SATA, s-a


folosit o metod descris ntr-o specificaie separat, numit AHCI (Advanced Host
Controller Interface). Cu AHCI, aplicaiile creeaz o list de comenzi i o list de
date pe care le citete/scrie ntr-o structur de memorie i apoi HBA-ului i se
transmite numai locaia acestei structuri. HBA-ul extrage fiecare cadru, numit FIS
(Frame Information Structure), deja formatat corespunztor, i l nainteaz discului.
La SATA, o copie separat registrelor Task file, numit Shadow task file, este
inclus n HBA, iar software-ul acceseaz aceste registre n loc de registrele discului.
Acest lucru permite host-ului s grupeze actualizrile la registre n pachete mai mari
i mai eficiente care sunt livrate discului la vitez mai mare.
Folosind una din cele dou metode de programare, comanda este livrat
discului i acesta o execut.

Transmisia datelor3

n transmisia datelor poate fi folosit:

3
http://en.kioskea.net/contents/pc/ide-ata.php3
protocolul PIO (Programmed Input/Output). PIO permite perifericelor s
schimbe date cu memoria RAM prin intermediul comenzilor gestionate
direct de procesor. Totui, pentru transferuri mari de date acest lucru poate
folosi intens procesorul i n consecin poate ncetini tot sistemul;
protocolul DMA (Direct Memory Access). Tehnica DMA permite
calculatoarelor s elibereze procesorul de controlul transferului, permind
fiecrui periferic s acceseze direct memoria. Protocolul DMA permite
transferul unui singur cuvnt (single word DMA - 2 octei pentru fiecare
sesiune de transfer) sau transferul succesiv a mai multor cuvinte n fiecare
sesiune de transfer (multi word DMA).

Modul PIO Rata de transfer Modul DMA Rata de transfer


(Mb/s) (Mb/s)
Mode 0 3.3 0 (single word) 2.1
Mode 1 5.2 1 (single word) 4.2
Mode 2 8.3 2 (single word) 8.3
Mode 3 11.1 0 (multi-word) 4.2
Mode 4 16.7 1 (multi-word) 13.3
2 (multi-word) 16.7

Standardul ATA era bazat pe modul de transfer asincron multiplexat; altfel spus,
transferul comenzilor i datelor avea loc la viteza magistralei pe fiecare front
cresctor al semnalului de ceas i nu puteau fi transmise n acelai timp comenzi i
date. Pentru a crete rata de transfer a datelor, cum creterea frecvenei pe o
magistral paralel nu este o soluie, a fost introdus tehnica Ultra DMA (UDMA).
UDMA folosea pentru transferul de date att frontul cresctor ct i frontul
descresctor (lucru care a crescut rata de transfer de la 16.6 Mb/s la 33.3 Mb/s). Mai
mult, UDMA introducea coduri CRC pentru detecia erorilor de transmisie.
Diferitele moduri UDMA definesc frecvena transferurilor de date.

Modul UDMA Rata de transfer (Mb/s)


UDMA 0 16.7
UDMA 1 25.0
UDMA 2 (Ultra-ATA/33) 33.3
UDMA 3 44.4
UDMA 4 (Ultra-ATA/66 66.7
UDMA 5 (Ultra-ATA/100) 100
UDMA 6 (Ultra-ATA/133) 133

Odat cu introducerea UDMA 4, pentru a limita interferenele ntre fire (crosstalk),


a fost folosit un nou cablu. Acest tip de cablu adaug 40 de fire (obinndu-se un
total de 80 de fire) intercalate cu firele de date cu scopul de a le izola. n schimb, au
fost pstrai aceeai conectori. Discurile au implementat numai UDMA 2, 4, 5, 6.
1.5.2 Nivelurile interfeei SATA

SATA folosete conexiuni punct-la-punct dedicate ntre int i host. Interfaa SATA
este structurat pe niveluri: aplicaie, transport, legtur i fizic. Trebuie reinut c
arhitectura definit de specificaiile SATA este diferit de cea SAS. Nivelul de
aplicaie reprezint interfaa de programare pentru mediul de lucru SATA. Interfaa
de programare reprezint un set de registre cu rol de pstrare a compatibilitii
software cu ATA. Nivelul de transport creaz sau livreaz cadrele de date. n
specificaiile SATA, cadrele de date sunt numite FIS. La primirea unui FIS, acest
nivel decodific FIS-ul i raporteaz nivelului de aplicaie posibilele erori. Nivelul
de legtur gestioneaz aproape tot protocolul de legtur. n timpul transmisiei,
acest nivel genereaz o sum de verificare pentru fiecare cadru FIS, formateaz
cadrul FIS pentru a reduce influena interferenelor electromagnetice i genereaz
primitive folosite n protocolul SATA. n timpul recepiei sunt efectuate operaiile
inverse. n timpul transmisiei i recepie, nivelul fizic furnizeaz funciile de
tranceiver. Tot acest nivel este responsabil cu iniializarea legturii i detecia
vitezei.

1.6 Lab 2.A: Instalarea Hyper-V n Windows 10


Pro

Obiective
Instalarea Hyper-V.
Modificarea configuraiei Hyper-V.
Crearea unei maini virtuale cu Centos 7.2.
Folosirea discului mainii virtuale ca template pentru alte dou.

Cerine hardware
Windows 10 Pro pe 64 de bii.
Un spaiu de 50 GB liber pe disc.
2 GB de memorie (de preferat ct mai mult).
Procesor care recunoate extensiile de virtualizare (Intel VT sau AMD-V).

nainte de nceperea instalrii, repornii calculatorul, intrai n BIOS/EFI i asigurai-


v c opiunile pentru virtualizare i protecia memoriei (Data Execution Prevention)
sunt active.
1.6.1 Etapa I. Instalarea Hyper-V

1. Click dreapta pe logo-ul Windows, selectai Programs and Features,


Turn Windows features on or off din meniul din stnga al
ferestrei care se deschide.
2. n fereastra Windows Features, bifai Hyper-V i apsai OK.
3. Repornii calculatorul.

1.6.2 Etapa II. Configurarea Hyper-V

1. Deschidei Hyper-V Manager din seciunea Windows


Administrative Tools a meniului All Apps.
2. Selectai Virtual Switch Manager din meniul principal Action.
3. Creai un nou switch virtual de tip External:
Nume: External Switch
Asigurai-v c la External network este listat placa
dumneavoastr de reea. Dac avei dou plci de reea, putei
selecta placa de reea dezactivat. Dac o conectai i pe aceasta la
Internet, mainile virtuale vor putea accesa reeaua separat fa de
calculator (gazd).
Bifai Allow management operating system to share
this network adapter.
4. Creai un nou switch virtual de tip Internal:
Nume: Private Switch
Bifai Private network
5. Acceptai modificrile.
Tot de la Action selectai Hyper-V Settings.
6. n cadrul seciunii Server, avei posibilitatea s modificai directoarele
folosite pentru stocarea fiierelor discurilor virtuale (Virtual Hard
Disks) i cel al fiierelor de configuraie a mainilor virtuale (Virtual
Machines).
7. nainte s apsai OK, parcurgei i celelalte opiuni prezente n fereastra
Hyper-V Settings.

1.7 Lab 2.B: Instalarea unei maini virtuale cu


Centos 7.2 n Hyper-V

1. Deschidei Hyper-V Manager. n seciunea din stnga selectai numele


calculatorului.
8. Din meniul Action selectai New > Virtual Machine.
2. Urmai paii cerui pentru crearea unei maini virtuale alegnd urmtoarele
opiuni:
Numii maina virtual Centos 7.2 i doar reinei locaia implicit
a discului virtual. Apsai Next.
Pstrai opiunea Generation 1. Apsai Next.
n fereastra Assign Memory pstrai de asemenea valorile
implicite. Apsai Next.
n fereastra Configure Networking alegei External
Switch. Apsai Next.
n fereastra Connect Virtual Hard Disk selectai Create
a virtual hard disk. Pstrai numele i calea, modificai
dimensiunea la 8 GB. Apsai Next.
Apsai Finish.
3. Click dreapta pe numele mainii virtuale din seciunea Virtual
Machines. Selectai Settings...
4. Click DVD Drive n lista de componente hardware a mainii virtuale.
Bifai Image file i selectai imaginea CentOS-7-x86_64-DVD-
1511.iso. Acceptai modificrile.
5. Click dreapta pe numele mainii virtuale i selectai Connect...
6. Click butonul Start sau apelai la combinaia de taste Ctrl+S.
7. Parcurgei paii unei instalri obinuite. n fereastra INSTALLTION
SUMMARY:
KDUMP: debifai Enable kdump. Apsai Done.
NETWORK & HOST NAME: Activai conexiunea Ethernet
(eth0). Presupunnd c maina virtual primete dinamic adrese
de IP putei verifica adresa de IP primit. Apsai Done.
DATE & TIME: selectai Europe/Bucharest, grafic sau derulnd
csuele Region i City. Activai Network Time dac nu este
deja activat. Apsai Done.
SECURITY POLICY: dezactivai Apply security policy.
Apsai Done.
SOFTWARE SELECTION: selectai Server with GUI.
Apsai Done.
INSTALLATION DESTINATION: observai c este selectat discul
virtual cu capacitatea de 8 GB. Apsai Done.
8. Apsai Begin Installation.
9. Selectai ROOT PASSWORD i alegei o parol. Aceasta este parola
utilizatorului root (echivalentul administratorului din sistemele
Windows).
10. Selectai USER CREATION i alegei un nume de utilizator i o parol.
11. La sfrit apsai Reboot.
12. nainte de intrarea n cont, vei fi interogat dac acceptai licena. Apsai
1, 2 i c de dou ori.
13. Actualizai sistemul de operare:
Deschidei un terminal folosind combinaia de taste Ctrl+Alt+T.
n terminal introducei comanda su , introducei parola i
observai c promptul a trecut din $ n #, ceea ce nseamn c acum
avei drepturi de root.
Actualizai sistemul de operare: yum -y update
14. Oprii maina virtual, grafic sau introducnd comanda shutdown h
now.
15. tergei maina virtual Centos 7.2. Click dreapta pe numele mainii i
selectai Remove.

1.7.1 Etapa IV. Instalarea unui server i client Centos 7.2

Discul mainii virtuale create i terse n etapa anterioar poate fi folosit ca template
pentru alte maini virtuale cu Centos 7.2. n aceast etap crem nc dou maini
virtuale. Una destinat a fi server, cealalt a fi client. Cele dou maini vor fi instalate
identic, numai numele este diferit.
2. Deschidei Hyper-V Manager.
3. Click dreapta pe numele calculatorului i alegei New > Virtual
Machine.
4. Specify Name: centos-server. Apsai Next.
5. Generation 1. Apsai Next.
6. Assign Memory, cu ct mai mult cu att mai bine, dar 1024 MB este
suficient. Bifai Use Dynamic Memory for this virtual
machine. Apsai Next.
7. External Switch. Apsai Next.
8. n fereastra Connect Virtual Disk, selectai Attach a virtual
hard disk later i apsai Next.
9. Apsai Finish.
10. Din meniul principal selectai Action i New > Hard Disk.
11. Apsai Next.
12. Alegei formatul discului: VHDX.
13. Alegei tipul discului Differencing.
14. Specificai numele i locaia:
Nume: centos-server.vhdx
Pstrai locaia.
15. n fereastra urmtoare selectai discul printe: Centos 7.2. Apsai
Finish.
16. Click dreapta pe numele mainii virtuale centos-server i selectai
Settings...
17. Selectai IDE Controller 0 i apsai Add.
18. Selectai Browse i navigai ctre directorul n care se afl centos-
server.vhdx. Apsai Open i OK.
19. Pornii centos-server. Deschidei consola.
20. Putei opri maina virtual.
Pentru instalarea unui client cu Centos 7.2 urmai exact paii menionai n acest
laborator, doar schimbai centos-server cu centos-client. La sfritul acestui
laborator avei dou maini virtuale care ruleaz Centos 7.2.

1.8 Lab 2.C. Instalarea KVM n Ubuntu

Obiective
Instalarea KVM.
Configurarea KVM prin Virt Machine Manager.
Crearea unei maini virtuale cu Centos 7.2.
Folosirea discului mainii virtuale ca template pentru alte dou.
Cerine hardware
Ubuntu Desktop pe 64 de bii.
Un spaiu de 50 GB liber pe disc.
2 GB de memorie (de preferat ct mai mult).
Procesor care recunoate extensiile de virtualizare (Intel VT sau AMD-V).
nainte de nceperea instalrii, repornii calculatorul, intrai n BIOS/EFI i asigurai-
v c opiunile pentru virtualizare i protecia memoriei (Data Execution Prevention)
sunt active.
1.8.1 Etapa I. Instalarea KVM

1. Deschidei un terminal folosind combinaia de taste Ctrl+Alt+T.


2. Verificai faptul c suportul de virtualizare este activat.
Dac comanda egrep -c '(vmx|svm)' /proc/cpuinfo
afieaz ceva n terminal nseamn c suportul de virtualizare este
activat.
3. Instalai KVM i aplicaia Virt Machine Manager
sudo apt-get install qemu-kvm virt-manager
libvirt-bin
4. Configurai o interfa de reea ca punte pentru accesul mainilor virtuale la
Internet. Dac avei dou plci de reea n calculator, putei dedica una
pentru mainile virtuale. Dac dispunei numai de una, mainile virtuale vor
partaja interfaa cu calculatorul.
Comanda ip a afieaz interfeele de reea prezente n sistem. Nu
folosii interfaa logic lo i nici virbr0 i virbr0-nic.
sudo cp /etc/network/interfaces
/etc/network/interfaces.orig
Comanda sudo gedit /etc/network/interfaces
deschide fiierul interfaces cu editorul de text gedit (gedit
este asemntor notepad din Windows). Adugai liniile de mai jos.
Avei grij s modificai numele interfeei. n cazul de fa, n loc
de enp2s0 folosii numele interfeei dumneavoastr.
auto br0
iface br0 inet dhcp
bridge_ports enp2s0
bridge_stp off
bridge_fd 0
bridge_maxwait 0
5. Repornii calculatorul.

1.8.2 Etapa II. Configurarea KVM cu Virt Machine


Manager

1. Apsai logo-ul Ubuntu din stnga sus a ecranului i scriei virt n csua
de cutare.
Selectai Virtual Machine Manager.
2. Selectai fereastra Virtual Machine Manager. Din meniul global
(bara superioar a ecranului), selectai Edit > Connection Details.
3. n fereastra Connection Details, selectai Virtual Networks i
apsai butonul + din colul stnga jos al ferestrei.
Network Name: Internal. Apsai Forward.
Debifai Enable IPv4 network address space
definition. Apsai Forward.
Lsai bifat Isolated virtual network. Apsai Finish.
4. nchidei fereastra Connection Details.
5. Selectai fereastra Virtual Machine Manager. Selectai Edit >
Preferences din meniul global.
New VM: debifai Add sound device.
Parcurgei i celelalte opiuni i apsai Close.

1.9 Lab 2.D: Instalarea unei maini virtuale cu


Centos 7.2 n Ubuntu KVM

1. Selectai fereastra Virtual Machine Manager. Click dreapta pe


localhost (QEMU) i selectai New.
2. Pstrai Local install media (ISO image or CDROM) i apsai
Forward.
3. Sub Use ISO image, apsai Browse i selectai calea ctre directorul
n care se afl imaginea CentOS-7-x86_64-DVD-1511.iso. Ca s ajungei n
directorul Downloads trebuie s folosii Browse Local din colul din
stnga jos. Selectai imaginea i apsai Open. Tot n aceast fereastr:
OS type: Linux
Version: Red Hat Enterprise Linux 7 (or later)
4. n fereastra Choose Memory and CPU settings pstrai opiunile
implicite: 1024 MB RAM i 1 CPU. Apsai Forward.
5. Pstrai opiune de creare a unui disc cu dimensiunea de 8 GB. Apsai
Forward. Ignorai eroarea Storage parameter error. nchidei
fereastra de eroare i apsai iarsi Forward. Imaginea se va afla n
directorul personal al utilizatorului.
6. n fereastra Ready to begin the installation bifai
Customize configuration before install, derulai
Advanced options i asigurai-v c este selectat Host device ...
(Bridge br0). Apsai Finish.
7. n fereastra rhel7 Virtual Machine:
Disk 1: derulai Advanced options i alegei VirtIO ca Disk
bus. Apsai Apply.
8. Apsai Begin installation.
9. n fereastra INSTALLTION SUMMARY
KDUMP: debifai Enable kdump. Apsai Done.
NETWORK & HOST NAME: Activai conexiunea Ethernet
(eth0). Presupunnd c maina virtual primete dinamic adrese
de IP putei verifica adresa de IP primit. Apsai Done.
DATE & TIME: selectai Europe/Bucharest grafic sau derulnd
csuele Region i City. Activai Network Time dac nu este
deja activat. Apsai Done.
SECURITY POLICY: dezactivai Apply security policy.
Apsai Done.
SOFTWARE SELECTION: selectai Server with GUI.
Apsai Done.
INSTALLATION DESTINATION: observai c este selectat discul
virtual cu capacitatea de 8 GB. Apsai Done.
10. Apsai Begin Installation.
11. Selectai ROOT PASSWORD i alegei o parol. Aceasta este parola
utilizatorului root (echivalentul administratorului din sistemele
Windows).
12. Selectai USER CREATION i alegei un nume de utilizator i o parol.
13. La sfrit apsai Reboot.
14. nainte de intrarea n cont, vei fi interogat dac acceptai Licena. Apsai
1, 2 i c de dou ori.
15. Actualizai sistemul de operare:
Deschidei un terminal folosind combinaia de taste Ctrl+Alt+T.
n terminal introducei comanda su , introducei parola i
observai c promptul a trecut din $ n #, ceea ce nseamn c acum
avei drepturi de root.
Actualizai sistemul de operare: yum -y update
16. Oprii maina virtual, grafic sau introducnd comanda shutdown h
now.

1.9.1 Etapa IV. Clonarea unei maini virtuale existente

1. n fereastra Virtual Machine Manager selectai numele mainii


virtuale. Click dreapta i selectai Clone.
Name: centos-server

2. Apsai Clone.
Urmai aceeai pai pentru crearea unei alte clone numite centos-client. La sfrit
putei terge maina iniial. Click dreapta pe rhel7, selectai Delete i iari
Delete. Dac dorii s pstrai discul virtual debifai Delete associated
storage files.

1.10 Lab 2.E: Instalarea unei maini virtuale cu


Ubuntu n Hyper-V

1.10.1 Etapa I. Instalarea Ubuntu Server 14.04 LTS

1. Deschidei Hyper-V Manager. n seciunea din stnga click dreapta pe


numele calculatorului i selectai New > Virtual Machine.
2. Urmai paii cerui pentru crearea unei maini virtuale alegnd urmtoarele
opiuni:
Numii maina virtual Ubuntu 14.04 LTS i doar reinei locaia
implicit a discului virtual. Apsai Next.
Pstrai opiunea Generation 2. Apsai Next.
n fereastra Assign Memory pstrai de asemenea valorile
implicite. Apsai Next.
n fereastra Configure Networking alegei External
Switch. Apsai Next.
n fereastra Connect Virtual Hard Disk selectai Create
a virtual hard disk. Pstrai numele i calea, modificai
dimensiunea la 8 GB. Apsai Next.
Apsai Finish.
3. Click dreapta pe numele mainii virtuale din seciunea Virtual
Machines. Selectai Settings...
4. Click Security din lista de componente hardware a mainii virtuale.
Debifai Enable Secure Boot. Click Apply.
5. Click SCSI Controller din lista de componente hardware a mainii
virtuale. Alegei DVD Drive i apsai Add. Bifai Image file i
selectai imaginea ubuntu-14.04.4-server-amd64.iso. Click Apply.
6. Click Firmware din lista de componente hardware a mainii virtuale.
Selectai DVD Drive i apsai Move Up pn devine prima opiune de
boot. Acceptai modificrile.
7. nchidei fereastra Settings.
8. Click dreapta pe numele mainii virtuale i selectai Connect...
9. Click butonul Start sau apelai la combinaia de taste Ctrl+S.
10. Parcurgei paii unei instalri obinuite:
Acceptai limba folosit n timpul instalrii ca fiind Engleza.
Apsai Enter.
n fereastra Select your location apsai Enter.
n ferestrele Configure the keyboard pstrai valorile
implicite.
n fereastra Configure the network, putei schimba numele
sistemului sau lasai valoarea implicit i doar apsai Enter.
Specificai un nume de utilizator i parola acestuia. Reinei c
utilizatorul creat n timpul instalrii este oarecum privilegiat, n
sensul c are posibilitatea s ruleze comenzi cu drept de root
folosind comanda sudo.
Nu criptai directorul utilizatorului.
Dac n fereastra Configure the clock a fost detectat locaia
corect, Europe/Bucharest nseamn c maina virtual a reuit s
se conecteze la Internet. Indiferent de rezultat, selectai Enter.
n meniul de partiionare selectai Guided use entire
disk and set up LVM. La ntrebarea Write the changes
to disk and configure LVM selectai Yes. Apsai Enter.
La fel pentru ntrebrile referitoare la dimensiunea discului i
Write the changes to disks?
Nu specificai niciun proxy. Apsai Enter.
Pstrai No automatic updates. Apsai Enter.
Selectai OpenSSH server apsnd tasta Space. Apsai
Enter.
11. Dup restart, intrai n sistem cu utilizatorul i parola configurate la instalare.
12. Scriei comanda sudo i pentru a obine drepturi de root.
13. Actualizai sistemul de operare folsind comanda apt-get update &&
apt-get upgrade && apt-get dist-upgrade.
14. Repornii sistemul: shutdown r now.
15. Oprii sistemul: shutdown h now.
1.10.2 Etapa II. Instalarea unei maini virtuale cu Ubuntu
Desktop 15.10

Creai o nou main virtual a crei configuraie hardware este identic cu cea
folosit n Etapa I, numai c de aceast dat folosii imaginea ubuntu-15.10-desktop-
amd64.iso. Urmai paii standard de instalare. Acceptai toate valorile implicite cu
excepia Keyboard layout unde selectai English(US). Dac la finalul
instalrii maina virtual rmne blocat fr posibilitatea de a se restarta singur,
apsai Reset. Dup repornire, acceptai actualizarea sistemului. Parola cerut este
cea a utilizatorului curent.

1.11 Lab 2.G: Aflarea detaliilor cu privire la


configuraia hardware a mainilor cu Linux

Pornii una din mainile virtuale Ubuntu Desktop sau Centos i rulai comenzile de
mai jos. Toate comenzile se ruleaz ntr-un terminal. n Ubuntu terminalul se
deschide prin combinaia de taste Ctrl+Alt+T. n Centos clik pe Applications
> Favorites > Terminal.

Kernelul de Linux reprezint dispozitivele PCI ca pseudo-dispozitive n sistemul de


fiiere sysfs:

root@centos:~# ls -la /sys/bus/pci/devices/


total 0
drwxr-xr-x. 2 root root 0 Feb 28 12:55 .
drwxr-xr-x. 5 root root 0 Feb 28 12:55 ..
lrwxrwxrwx. 1 root root 0 Feb 28 12:55 0000:00:00.0 ->
../../../devices/pci0000:00/0000:00:00.0
lrwxrwxrwx. 1 root root 0 Feb 28 12:55 0000:00:01.0 ->
../../../devices/pci0000:00/0000:00:01.0
lrwxrwxrwx. 1 root root 0 Feb 28 12:55 0000:00:02.0 ->
../../../devices/pci0000:00/0000:00:02.0

Pentru o intrare ca

lrwxrwxrwx 1 root root 0 Mar 27 13:27 0000:00:04.0 ->


../../../devices/pci0000:00/0000:00:04.0

numrul de dispozitiv 0000:00:04.0 este compus din:

0000 domeniul PCI (fiecare domeniu poate conine pn la 256 de


magistrale PCI);
04 numrul magistralei PCI la care este ataat dispozitivul;
00 numrul de dispozitiv;
.0 numrul de funcie al dispozitivului.

Fiierele din directorul 0000:04:00.0 conin informaii cu privire la dispozitiv.

root@centos:~# cd 0000:04:00.0
root@centos:~# ls -la
total 0
drwxr-xr-x. 4 root root 0 Feb 28 10:55 .
drwxr-xr-x. 39 root root 0 Feb 28 12:55 ..
-r--r--r--. 1 root root 4096 Feb 28 12:55 class
-rw-r--r--. 1 root root 4096 Feb 28 10:55 config
-r--r--r--. 1 root root 4096 Feb 28 10:55 device
-r--r--r--. 1 root root 4096 Feb 28 10:55 vendor

Unele informaii fac parte din antetul standard de 64 de octei al dispozitivelor PCI.
Fiecare fiier conine o informaie unic, cum ar fi productorul dispozitivului
(vendor), clasa dispozitivului (class), identificatorul dispozitivului (device),
informaii despre ntreruperile folosite sau alte resurse atribuite.

root@centos:~# cat vendor


0x8086
root@centos:~# cat device
0x340b
root@centos:~# cat class
0x060400

Pe lng interogarea direct a fiierelor din sysfs, distribuiile de linux pun la


dispoziie i un pachet de utilitare care pot interoga, configura i actualiza informaia
dispozitivelor PCI. De exemplu, utilitarul lspci furnizeaz informaii cu privire la
magistralele PCI prezente n sistem i dispozitivele conectate la acestea.

Comparai rezultatul comenzii lspci afiat n maina dumneavoastr virtual cu


listingul de mai jos. Spre deosebire de diagrama structurii hardware a sistemelor din
prezent, studiat de noi n primul curs, n diagrama structurii hardware de mai jos
observai c chipsetul este mprit n dou blocuri separate: North Bridge i South
Bridge. North Bridge-ul conecteaz dispozitivele de mare vitez din sistem:
procesor, memorie, plac video. Magistrala care conecteaz North Bridge-ul de
procesor se numete FSB (Front Side Bus). South Bridge-ul conecteaz dispozitivele
mai lente: sloturi PCI, magistrale PATA, SATA, USB, autio, etc.. n prezent,
funcionalitile North Bridge-ului au migrat ctre procesor: controlerul de memorie
i controlerul video sunt integrate n procesor, iar procesoarele de ultim generaie
ncorporeaz chiar i un controler PCIe. Dei caracteristic pentru sistemele mai
vechi, platformele de virtualizare folosesc nc structura prezentat n diagrama de
mai jos pentru descrierea hardware a mainilor virtuale. Aadar, ncercai s v
familiarizai cu termenii folosii de lspci pentru descrierea diverselor componente.
n special, reinei termenul de Host Bridge pentru descrierea North Bridge-ului
i termenul de PCI Bridge pentru descrierea South Bridge-ului. Celelalte
componente au o denumire intuitiv.

http://www.via.com.tw/en/products/chipsets/k7-series/km400/

root@centos:~# lspci
00:00.0 Host bridge: VIA Technologies, Inc. VT8378 [KM400/A] Chipset
Host Bridge
00:01.0 PCI bridge: VIA Technologies, Inc. VT8237/VX700 PCI Bridge
00:08.0 Ethernet controller: Realtek Semiconductor Co., Ltd. RTL-
8139/8139C/8139C+ (rev 10)
00:09.0 Ethernet controller: Realtek Semiconductor Co., Ltd. RTL-
8139/8139C/8139C+ (rev 10)
00:0a.0 Ethernet controller: Realtek Semiconductor Co., Ltd. RTL-
8139/8139C/8139C+ (rev 10)
00:10.0 USB Controller: VIA Technologies, Inc. VT82xxxxx UHCI USB 1.1
Controller (rev 80)
00:10.1 USB Controller: VIA Technologies, Inc. VT82xxxxx UHCI USB 1.1
Controller (rev 80)
00:10.2 USB Controller: VIA Technologies, Inc. VT82xxxxx UHCI USB 1.1
Controller (rev 80)
00:10.3 USB Controller: VIA Technologies, Inc. USB 2.0 (rev 82)
00:11.0 ISA bridge: VIA Technologies, Inc. VT8235 ISA Bridge
00:11.1 IDE interface: VIA Technologies, Inc.
VT82C586A/B/VT82C686/A/B/VT823x/A/C PIPC Bus Master IDE (rev 06)
00:11.5 Multimedia audio controller: VIA Technologies, Inc.
VT8233/A/8235/8237 AC97 Audio Controller (rev 50)
00:12.0 Ethernet controller: VIA Technologies, Inc. VT6102 [Rhine-II]
(rev 74)
01:00.0 VGA compatible controller: ATI Technologies Inc RV350 AS
[Radeon 9550]
01:00.1 Display controller: ATI Technologies Inc RV350 AS [Radeon
9550] (Secondary)

Comanda lspci citete intrrile din sysfs i decodific identificatorii de


productor i dispozitiv folosind informaia din /usr/share/hwdata/
pci.ids. Acest fiier se modific pe msur ce sunt adugai noi productori i
dispozitive i poate fi actualizat cu ajutorul utilitarului update-pciids. Dac n
sistem este introdus un dispozitiv nou i lspci nu afieaz detalii despre el,
actualizai fiierul pci.ids la ultima variant.

root@centos:~# update-pciids
% Total % Received % Xferd Average Speed Time Time Time
Current
Dload Upload Total Spent Left
Speed
100 196k 100 196k 0 0 201k 0 --:--:-- --:--:-- --:-
-:-- 250k
Done.

Pentru o perspectiv ierarhic a dispozitivelor PCI prezente n sistem, lspci


folosete opiunea t.

root@centos:~# lspci -tv


-[0000:00]-+-00.0 VIA Technologies, Inc. VT8378 [KM400/A] Chipset Host Bridge
+-01.0-[0000:01]--+-00.0 ATI Technologies Inc RV350 AS [Radeon 9550]
| \-00.1 ATI Technologies Inc RV350 AS [Radeon 9550] (Secondary)
+-08.0 Realtek Semiconductor Co., Ltd. RTL-8139/8139C/8139C+
+-09.0 Realtek Semiconductor Co., Ltd. RTL-8139/8139C/8139C+
+-0a.0 Realtek Semiconductor Co., Ltd. RTL-8139/8139C/8139C+
+-10.0 VIA Technologies, Inc. VT82xxxxx UHCI USB 1.1 Controller
+-10.1 VIA Technologies, Inc. VT82xxxxx UHCI USB 1.1 Controller
+-10.2 VIA Technologies, Inc. VT82xxxxx UHCI USB 1.1 Controller
+-10.3 VIA Technologies, Inc. USB 2.0
+-11.0 VIA Technologies, Inc. VT8235 ISA Bridge
+-11.1 VIA Technologies, Inc. VT82C586A/B/VT82C686/A/B/VT823x/A/C PIPC Bus Master
IDE
+-11.5 VIA Technologies, Inc. VT8233/A/8235/8237 AC97 Audio Controller
\-12.0 VIA Technologies, Inc. VT6102 [Rhine-II]

Opiunea -x afieaz partea standard a spaiului de configurare (primii 64 de octei),


sub form hexazecimal.

root@centos:~# lspci -x | head -11


00:00.0 Host bridge: VIA Technologies, Inc. VT8378 [KM400/A]
Chipset Host Bridge
00: 06 11 05 32 06 00 30 22 00 00 00 06 00 08 00 00
10: 08 00 00 b0 00 00 00 00 00 00 00 00 00 00 00 00
20: 00 00 00 00 00 00 00 00 00 00 00 00 43 10 18 81
30: 00 00 00 00 80 00 00 00 00 00 00 00 00 00 00 00

n Linux, clasele de baz i subclasele corespunztoare lor sunt enumerate n fiierul


pci_ids.h din linux-headers (tot aici se gsete i identificatorul
productorului, identificatorul dispozitivului, identificatorul productorului de
subsistem, identificatorul subsistemului)4.

#define PCI_BASE_CLASS_STORAGE 0x01


#define PCI_CLASS_STORAGE_SCSI 0x0100
#define PCI_CLASS_STORAGE_IDE 0x0101
#define PCI_CLASS_STORAGE_FLOPPY 0x0102

#define PCI_BASE_CLASS_NETWORK 0x02


#define PCI_CLASS_NETWORK_ETHERNET 0x0200
#define PCI_CLASS_NETWORK_TOKEN_RING 0x0201
#define PCI_CLASS_NETWORK_FDDI 0x0202

Opiunea -D afieaz numrul complet de dispozitiv.

root@desktop:~# lspci -D
0000:00:00.0 Host bridge: VIA Technologies, Inc. VT8378 [KM400/A]
Chipset Host Bridge

Primul numr, 0000, reprezint numrul de domeniu PCI. Al doilea numr, 00,
reprezint numrul de magistral. Urmtoarele numere reprezint numrul de
dispozitiv i numrul de funcie.

Opiunea nn afieaz tipul de dispozitiv, de exemplu PCI Bridge [0604],


identificatorul productorului i identificatorul dispozitivului [1106:b198].

4
n Centos trebuie instalat pachetul kernel-devel. Folosii comanda yum y
install kernel-devel. Locaia fiierului pci_ids.h poate fi aflat cu find sau
locate.
root@desktop:~# lspci -nn
00:01.0 PCI bridge [0604]: VIA Technologies, Inc. VT8237/VX700 PCI
Bridge [1106:b198]

Alte opiuni utile ale lspci sunt k, care afieaz driverele componentelor din
sistem, -v i vv pentru detalii suplimentare. Mai multe detalii cu privire la
opiunile primite de lspci le putei afla cu man lspci sau lspci h.

Alte utilitare pentru detectarea hardware-ului sunt prezentate n tabelul de mai jos:

Informaii Comenzi i utilitare


Sistem lshw
hardinfo
dmidecode
dmidecode t system
dmidecode t baseboard
Procesor lscpu
lstopo
lstopo-no-graphics
dmidecode t processor
cat /proc/cpuinfo
Memorie cat /proc/meminfo
free m
dmidecode t memory
NUMA numactl hardware
Dispozitive PCI lspci
Discuri lsscsi
hdparm I /dev/sda
lshw c disk
Interfee de reea ethtool
lshw c network
USB lsusb
ls -la /dev/disk/by-id/usb-*
Partiionare i sistem de fiiere lsblk
df hT
pydf
parted l
sfdisk l
gdisk l /dev/sda
Sistem de operare uname a
lsb_release sd
cat /etc/debian_version
cat /etc/redhat-release
cat /etc/os-release
Nu toate distribuiile de linux includ toate utilitarele din table. De asemenea, unele
fac parte din instalarea standard, altele trebuie instalate. Mai mult, e posibil ca unele
s nu aib efect cnd sunt folosite ntr-o main virtual.

1.12 Aplicaii i ntrebri

Aplicaii

1. Instalai o main virtual cu Ubuntu Server (64 de bii) n Hyper-V cu


configuraia hardware Generation 1. Placa de reea trebuie s fie conectat ntr-
un switch de tip Extern. n timpul instalrii folosii partiionarea automat i nu
uitai s instalai serverul OpenSSH.
2. Instalai o main virtual cu Centos 7.2 (64 de bii) n Hyper-V cu configuraia
hardware Generation 2 i dou plci de reea, una conectat la un switch Extern
i una la un switch Private. n timpul instalrii folosii partiionarea automat i
Minimum install.
3. Instalai o main virtual cu Centos 7.2 (64 de bii) n Ubuntu KVM. Folosii
bridge-ul virbr0 i NAT pentru conectarea mainii virtuale la Internet. Metoda
minim de instalare i partiionarea automat.
4. Instalai o main virtual cu Ubuntu Server (64 de bii) n Ubuntu KVM.
Folosii bridge-ul br0 pentru conectarea mainii virtuale la Internet. Folosii
partiionarea automat i nu uitai s instalai serverul OpenSSH.
5. Conectai-v la maina virtual i afiai toate dispozitivele PCI din sistem.
6. Conectai-v la maina virtual i specificai numrul registrului de comand sau
registrului de stare pentru placa de reea.
7. Conectai-v la maina virtual i specificai productorul i identificatorul de
dispozitiv al North Bridge-ului i South Bridge-ului.
8. Conectai-v la maina virtual i specificai codul de clas al controlerului
SATA, SAS sau IDE.
9. Conectai-v la maina virtual i specificai driverul folosit de sistemul de
operare pentru placa de reea.
10. Conectai-v la maina virtual i afiai toate dispozitivele produse de Intel
prezente n sistem.
11. Conectai-v la maina virtual i specificai cte magistrale PCI sunt prezente
n sistem.
12. Conectai-v la maina virtual i precizai la ce magistral PCI sunt conectate
interfeele de reea.
13. Conectai-v la maina virtual i afiai n hexazecimal partea standard a
spaiului de configurare a dispozitivelor PCI prezente n sistem.
14. Conectai-v la maina virtual i afiai informaii despre procesor (memorie,
discuri, partiionare, sistem de fiiere, interfee de reea, versiunea kernelului i
sistemului de operare).

ntrebri

1. Ce reprezint fiecare cmp din adresa PCI 0000:00:01.0?


2. Care sunt caracteristicile care descriu PCIe mai degrab ca reea dect
magistral?
3. Descriei ntr-o fraz topologia PCIe.
4. Cte magistrale PCI pot exista ntr-un sistem?
5. Cte dispozitive pot fi conectate la o magistral PCI?
6. Cte funcii poate ncorpora un dispozitiv PCI?
7. Care sunt cele dou probleme majore ale unei transmisii paralele?
8. Cum este posibil ca transmisia serial s fie mai rapid dect transmisia paralel?
9. Ce nseamn transmisie diferenial i ce rol are?
10. Care din cele dou metode de transmisie PCI, paralel i serial, este full duplex?
11. Cte fire de trasmisie folosete un lane PCIe?
12. Ce nseamn PCI x8?
13. Care este limea de band pentru PCIe ver. 3 x4?
14. Ce nseamn codare 8b/10b?
15. Cte dispozitive pot fi conectate la o magistral SCSI ngust (narrow)?
16. Cte dispozitive pot fi conectate la o magistral SCSI larg (wide)?
17. Ce reprezint setul principal de comenzi SCSI?
18. Ce nseamn domeniu SAS?
19. Ce rol are dispozitivul iniiator n SCSI/SAS?
20. Ce rol are dispozitivul int n SCSI/SAS?
21. Cine folosete mecanismul de arbitrare, SAS sau SCSI? Ce rol are mecanismul
de arbitrare.
22. Prin ce este identificat un dispozitiv ataat la o magistral SCSI (de ex. un disc
SCSI)?
23. Cte discuri pot fi ataate la un controler ATA?
24. Cine folosete specificaiile AHCI i cum lucreaz acestea?
25. Ce nseamn PIO i cum funcioneaz?
26. Ce nseamn DMA i cum funcioneaz?
27. Care sunt caracteristicile care descriu SATA mai degrab ca reea dect
magistral?
28. Care sunt protocoalele folosite la programarea transferurilor de date n SATA?
29. Care sunt protocoalele folosite la transmisia datelor n SATA?

2 MECANISMUL DE STOCARE
PERSISTENT A DATELOR

De obicei, sistemele de operare permit stocarea persistent a datelor (pentru perioade


lungi de timp), astfel nct acestea s poat rezista la disfuncionaliti ale sistemului,
lipsa temporar a alimentrii cu energie electric sau altor probleme de acest tip.
Arhitectura mecanismului de stocare persistent este influenat de tehnologia
hardware folosit n acest scop. Pentru muli ani, tehnologia dominant a fost aceea
a discurilor rigide - dispozitive electromagnetice cu discuri de stocare aflate n
micare. n prezent, sunt din ce n ce mai folosite dispozitivele SSD (Solid State
Disk). SSD-urile folosesc memorie nevolatil NAND i nu au pri mobile, lucru
care genereaz viteze de acces mai mari i totodat le face mai rezistente la ocuri
mecanice. Dar, cel puin pentru viitorul apropiat, discurile rigide vor rmne
principala form de stocare. n consecin, vom dezbate n continuare caracteristicile
de performan ale discurilor rigide.

Un disc rigid stocheaz datele n blocuri de dimensiune fix cunoscute sub numele
de sectoare fizice. Dimensiunea tipic pentru un sector fizic este de 512 octei.
Sistemul de operare vede discul ca pe un ir de sectoare numerotate consecutiv,
ncepnd cu 0 pn la un numr maxim ce depinde de capacitatea discului.
Procesorul poate cere controler-ului de disc s efectueze dou operaii:
s scrie date, adic s preia date de la o anumit adres de memorie i s le
duc pe disc, la un anumit numr de sector. O cerere de scriere poate
specifica i transferul la mai multe sectoare consecutive.
s citeasc date, adic s preia date de pe disc, de la un anumit sector, i s
le duc n memorie, la o anumit adres. Iari, o cerere de citire poate
specifica transferul a mai multor sectoare consecutive.

Reprezentarea discului ca numr secvenial de sectoare ascunde cteva aspecte


hardware ce pot influena substanial viteza de acces. Mai exact, din cauza modului
de funcionare, n unele condiii, discurile pot asigura rate de transfer de ordinul
zecilor de MB/s, iar n altele rate de transfer de numai civa zeci de kB/s.

2.1 Structura discului rigid

Un disc conine o stiv de platane montate pe un ax central. Platanele se rotesc la o


vitez fix, de exemplu 10000 rotaii pe minut. Datele sunt nregistrate pe suprafaa
platanelor i citite prin intermediul unor capete de citire. Pentru fiecare suprafa
exist un cap de citire i unul de scriere. Capetele de citire sunt prinse de un bra care
poate pivota astfel nct s poziioneze capetele mai aproape sau mai departe de axul
central. Figura de mai jos arat relaia dintre platane, axul central i braul capetelor
de citire.

Dac braul este lsat ntr-o poziie fix, rotaia platanelor creaz o regiune circular
pe fiecare suprafa care trece pe sub capul de citire corespunztor. Regiunea
circular rezultat pe o singur suprafa se numete pist; fiecare pist este mprit
n sute de sectoare. Colecia de piste, cte una pe suprafaa fiecrui platan, accesibil
la o anumit poziie a capului de citire se numete cilindru.

Numai un singur cap de citire poate fi activ la un moment dat. n funcie de capul de
citire activ i de poziia braului, pot fi citite numai sectoarele unei singure piste.
Pentru a putea accesa mai multe date avem dou opiuni. (1) Schimbm capul de
citire activ i astfel avem acces la o alt pist din acelai cilindru (proces de
comutare). (2) Micm capul de citire pe o poziie mai apropiat sau mai deprtat
de ax pentru a avea acces la un alt cilindru (proces numit seek, cutare). n prezent,
timpul de comutare a capului de citire este similar cu timpul necesar trecerii la un
cilindru adiacent o fraciune de milisecund astfel nct distincia nu este
important. Timpul de cutare este mai mare pentru pistele mai deprtate (trecerea
braului de citire la o pist mai ndeprtat), dar nu proporional. Rezultatul este c
trecerea (procesul de cutare) la o pist aflat la zeci de sute de cilindri deprtare
poate consuma 5 ms, de zece ori mai mult dect trecerea la o pist adiacent. Acesta
nu este singurul timp pierdut. Odat ce capul de citire este poziionat deasupra pistei
corecte, controlerul de disc trebuie s atepte ca sectorul corespunztor s se alinieze
cu poziia capului de citire, o ntrziere cunoscut sub numele de laten de rotaie.
Deoarece timpul necesar discului s efectueze o rotaie complet este comparabil cu
timpul de cutare (trecere) necesar poziionrii capului de citire la zeci de mii de
cilindrii, latena de rotaie poate influena semnificativ timpul total de acces la un
sector aleator.

Odat capul de citire poziionat corespunztor, sectoarele consecutive pot fi citite


sau scrise la vitez mare. Chiar i un transfer care implic trecerea la o pist adiacent
va fi penalizat numai cu timpul de cutare (micarea braului de citire) i nu cu timpul
enorm al latenei de rotaie, deoarece primul sector al pistei este poziionat astfel
nct s poat fi accesat imediat ce trecerea a avut loc.
Dac programele acceseaz un numr mare de sectoare consecutive, este mai
avantajos ca acest proces s se fac ntr-un singur tranfer de dimensiune mare dect
n cteva transferuri mai mici. Unul din avantaje rezult din evitarea ncrcrii
suplimentare ntlnite la nivelul interfeei dintre calculator i disc. Cellalt avantaj,
mai semnificativ, const din faptul c mai multe cereri separate nseamn rotaii
suplimentare, n special pentru scrieri; ratarea unui sector la timpul potrivit implic
ateptarea unei rotaii complete (pn apare din nou). Citirile nu sunt att de
problematice deoarece discurile conin memorie RAM, numit i cache buffers, care
pstreaz datele sectoarelor deja traversate de capul de citire, astfel nct ele pot fi
citite fr s se atepte apariia sectorul ratat. Discurile pot folosi cache-ul i pentru
scrieri, dar numai dac programul este proiectat s tolereze unele pierderi de date
recent scrise. De exemplu, o disfuncionalitate (ntreruperea energiei electrice)
aprut nainte ca datele din cache s fie scrise pe disc.

Din acest motiv, secretul utilizrii discului la potenial maxim const n localizarea
datelor. Trebuie reinut c:
accesul la un sector cu numr de identificare similar cu cel mai recent accesat
va fi mai rapid dect accesul la un sector cu numr total diferit.
accesul la sectoare consecutive va fi mai rapid dect accesul la sectoare chiar
foarte apropiate, dar nu consecutive.
accesul la sectoare consecutive ntr-o singur operaie de transfer va fi mai
rapid dect accesul lor n cteva operaii mai mici.

2.2 Formatarea discului

Crearea unui sistem de fiiere implic de obicei trei etape:


1. Formatarea de nivel inferior (cea mai apropiat de hardware) marcheaz
suprafaa discului cu delimitatori care indic nceputul fiecrui sector, plus alte
informaii, cum ar fi suma de control a sectorului, folosite mai trziu de ctre
controlerul de disc n operaiile de citire i scriere. Formatarea de nivel inferior este
fundamentul permanent al discului i n prezent este un proces realizat din fabric.
2. Partiionarea, creaz structurile de date necesare sistemului de operare.
Acest nivel de formatare include de obicei verificarea pistelor sau sectoarelor n
vederea detectrii defectelor.
3. Scrierea partiiilor cu un sistem de fiiere. Aceast etap include crearea
structurilor de date folosite de sistemul de operare la identificarea partiiei sau
coninutului partiiei. Scrierea unui sistem de fiiere poate avea loc n timpul
instalrii sistemului de operare sau la adugarea unui disc nou.
2.2.1 Formatarea de nivel inferior

n prezent, formatarea de nivel inferior, adic mprirea pistelor n sectoare (blocuri


fizice) de cte 512 octei, are loc n timpul procesului de fabricaie a discului. De
fapt, chiar dac am dori, nu mai este posibil s formatm discurile la acest nivel
deoarece discurile moderne sunt formatate nainte de introducerea lor n carcas.
Altfel spus, discurile sunt preformatate. Sectoarele fizice sunt n realitate mai mari
de 512 octei. n plus fa de cei 512 octei de date mai exist i un cmp de
identificare a sectorului, un cmp ECC (octei folosii la corecia erorilor) i spaii
libere ntre sectoare. n mod obinuit, aceti octei adiionali nu sunt inclui n
capacitatea total a discului.

Dei este imposibil s formatezi la nivel inferior majoritatea discurilor moderne,


termenul de formatare de nivel inferior este nc utilizat pentru ceea ce poate fi
considerat o reiniializare a discului la configuraia din fabric. Reiniializarea ar
trebui s includ identificarea (i izolarea dac este posibil) oricrui sector care nu
poate fi scris sau citit corect. Termenul ns este folosit i numai atunci cnd se scrie
fiecare sector cu o anumit valoare. O metod uzual const n scrierea discurilor cu
valoarea 0, proces numit umplere cu zero. n Linux acest lucru se poate face cu
ajutorul utilitarului dd astfel:

dd if=/dev/zero of=/dev/sdb bs=16M5

Din 2009 toi productorii importani de discuri au nceput s formateze discurile n


blocuri de 4096 de octei, conform aa numitului format avansat. Modificarea
formatului de sector la o structur de 4096 de octei nseamn utilizarea mai eficient
a suprafeei de stocare, atunci cnd se lucreaz cu fiiere mari i mai puin eficient
atunci cnd se lucreaz cu fiiere mici. Totodat, pentru a pstra integritatea datelor
la densiti mari de stocare, sunt necesari algoritmi mai performani de corecie a
erorilor. Prima generaie de format avansat combin 8 sectoare de 512 octei ntr-un
singur sector de 4096 de octei. Toate elementele eseniale ale arhitecturii
tradiionale de 512 octei sunt pstrate; adic delimitatorii de identificare i
sincronizare de la nceputul sectorului i zona codului corector de erori (ECC) de la
sfritul acestuia. ntre antetul de sector i zonele ECC sunt combinate 8 sectoare

5
http://www.howtoforge.com/how-to-securely-destroy-wipe-data-on-hard-drives-with-
shred
de 512 octei, eliminndu-se zonele de antet redundante dintre fiecare bloc individual
de 512 octei. Dimensiunea de 4 kiB a fost aleas din motive de coresponden cu
dimensiunea paginilor de memorie folosite de procesoare i de unele sistemele de
operare, precum i corelaia sa cu dimensiunea tranzaciilor standard din sistemele
de baze de date. Formatul de 4 kiB ofer destul spaiu pentru extinderea cmpului
ECC de la 50 la 100 de octei n vederea noilor algoritmi ECC. Acest lucru
mbuntete abilitatea de detecie i corecie a defectelor mai mari de 50 de octei
asociate cu sectorul vechi de 512 octei. Cmpul ECC poate fi i distribuit.

Primele asemenea discuri continu s prezinte sistemului de operare sectoare fizice


de 512 octei, astfel nct poate aprea o pierdere de performan atunci cnd
graniele de sector (ascunse) interne de 4 KiB nu coincid cu blocurile logice de 4
KiB, dimensiunea obinuit pentru paginile de memorie virtual i paginile
sistemului de fiiere. Aceast problem este evident la scrieri, cnd discul este forat
s efectueze dou operaii citete-modific-scrie pentru a satisface o singur operaie
de scriere a unei pagini de 4 KiB nealiniate.

Not rapid cu privire la prefixele SI6


kB = 103 octei kiB = 210 octei
MB = 106 octei MiB = 220 octei
GB = 109 octei GiB = 230 octei
TB = 1012 octei TiB = 240 octei

6
Este indicat s inem cont de distincia ntre prefixele zecimale (SI) i binare (standardul
IEEE 1541) atunci cnd discutm despre dimensiunea discurilor i a sectoarelor.
2.2.2 Partiionarea

Partiionarea reprezint mprirea discului fizic n mai multe uniti logice, numite
partiii. Partiiile se folosesc, de obicei, pentru a delimita fiierele utilizate de
sistemul de operare de cele ale utilizatorilor. n cazul unei defeciuni aprute la
sistemul de operare, acesta poate fi reinstalat fr a pune n pericol datele
utilizatorilor. Un alt motiv care a condus la partiionarea discurilor a fost cel al
instalrii mai multor sisteme de operare pe acelai disc.

Majoritatea sistemelor de operare folosesc formatul MBR/MSDOS de etichetare a


discurilor, reprezentat n figura de mai jos. Pn recent, pentru arhitecturile
x86/x86_64, acesta era formatul standard.

2.2.3 Partiionarea MBR/MSDOS

Primul sector fizic de pe disc, numit MBR (Master Boot Record), conine o tabel
de partiii primare i un mic cod executabil (o parte din ncrctorul de sistem).
Codul executabil are rolul s ncarce n memorie primul sector al partiiei care
conine sistemul de operare ales de utilizator la pornirea sistemului. Structura
primului sector este dat n tabelul de mai jos.

Structura sectorului MBR (primul sector de 512 bii de pe disc)


Deplasament Lungime Descriere
(n cadrul sectorului) (n octei)
n zecimal n hexa
000 445 000 1BD 446 Zona de cod executabil
446 509 1BE 1FD 64 Tabela de partiii primare
510 511 1FE 1FF 2 Semntura MBR
Tabela de partiii primare ocup numai 64 de octei din cei 512 ai sectorului.
Semntura MBR, numit uneori i numr magic, este un cuvt de 16 bii exprimat n
hexazecimal cu valoarea 0xAA55. Acest cuvnt este reprezentat de ultimii doi octei
ai sectorului. Aceast semntur semnific faptul c sectorul conine cod executabil

i face propriu-zis acest sector bootabil.

Tabela de partiii primare conine patru intrri de cte 16 octei. Fiecare intrare
conine informaii despre o singur partiie. Astfel, discurile care folosesc tabelul de
partiii primare nu permit crearea a mai mult de patru partiii primare. n schimb, aa
cum vom arta n urmtoarea seciune, poate conine trei partiii primare i o partiie
extins. Primul sector al unei partiiei extinse (EBR - Extended Boot Record) conine
o tabel de partiii identic celei de partiii primare, dar care este numit tabela de
partiii extinse.

Tabelul urmtor prezint o intrare n tabela de partiii (primare sau extinse).

Structura unei intrri de 16 octei din tabela de partiii


Deplasamentul relativ Lungimea Coninut
(din cadrul intrrii) (octei)
0 1 Indicatorul de boot (80H = partiie activ)
13 3 Valorile CHS de nceput ale partiiei
4 1 Identificator pentru tipul partiiei (tipul partiiei)
57 3 Valorile CHS de sfrit ale partiiei
8 14 4 Sectorul de nceput al partiiei (valoare LBA)
12 15 4 Dimensiunea partiiei (n sectoare)

Indicatorul de boot. Cmp cu dimensiunea de un octet, al crui bit cel mai


semnificativ este setat dac pe partiia respectiv este instalat un sistem de
operare. Teoretic, numai partiia primar activ (bootabil) trebuie s aib
setat cel mai semnificativ bit, rezultnd un octet cu valoarea 80H.
Sectorul de nceput al partiiei, dat n valori CHS (Cylinder, Head,
Sector) (3 octei). Aceste valori indic locaia primului sector al partiiei,
dac se afl n primii 1024 de cilindrii ai discului. Cnd sectorul trece peste
aceast limit, numerele CHS sunt setate la valorile lor maxime permise,
1023, 254, 63. Deoarece numerotarea cilindrului i a capul de citire ncepe
de la zero, ele denot cel de al 1024 cilindru, 255-lea cap de citire i al 63-
lea sector. Aceste valori apar pe disc sub forma a trei octei FE FF FF (n
aceast ordine) i arat c partiia are capacitatea mai mare de 8 GB.
Tipul partiiei. Acest octet poate lua maxim 256 de valori i indic tipul de
date stocat n cadrul partiiei. Cel mai adesea sunt stocate sisteme de fiiere.
Valorile sunt n hexazecimal. O valoare de 83H indic un sistem de fiiere
din familia Linux EXT, 07H nseamn NTFS. Pe lng sisteme de fiiere,
partiiile pot conine i alte tipuri de date, cum ar fi memoria virtual utilizat
de Linux, sau identificatorul de partiie extins care conine informaii
despre alte partiii aflate pe disc (05H).
Sectorul de sfrit al partiiei, dat n valori CHS (3 octei).
Sectorul de nceput (4 octei), dat n valori LBA. La fel ca sectorul de
nceput dat n valori CHS, aceast valoare identific primul sector al
partiiei, dar utilizeaz o adres logic de bloc reprezentat pe 4 octei
(numrtoarea ncepe de la sectorul 0). Acest lucru nseamn c poate
localiza nceputul unei partiii n primele FFFF FFFFH sau 4.294.967.296
sectoare (discuri de pn la 2.048 GB).
Dimensiunea partiiei, exprimat n numr de sectoare (4 octei). La fel
ca n cazul valorilor pentru sectorul de nceput, aceti patru octei permit un
numr de pn la 2.048 GB (2 TB) pentru memorarea capacitii fiecrei
partiii.

Tabela de partiii extinse difer de tabela de partiii primare prin faptul c indicatorul
de boot are ntotdeauna valoarea 0 i cmpurile sectorului de nceput dat n valori
LBA i dimensiunea partiiei sunt relative la primul sector al partiiei extinse.
Utilizarea partiiilor extinse conduce la apariia unui arbore de partiii. n cadrul unei
partiii extinse pot fi definite partiii logice. Fiecare partiie logic ncepe cu un EBR.
Dac tabela de partiii primare a unui disc conine o intrare de partiie extins, atunci
trebuie examinat fiecare EBR n parte. O intrare de partiie extins din MBR nu arat
ce conine aceasta, tim doar c este posibil s conin un anumit numr de partiii
logice (pentru DOS 3.30, un numr maxim de 23 de partiii logice).

Limitrile formatului MBR/MSDOS

n prezent, discurile rigide au capaciti mari i formatul MBR / MSDOS de


etichetare a discurilor nu mai scaleaz corespunztor. n decursul timpului au fost
ntmpinate probleme legate n special de dimensiunea maxim a partiiilor i,
implicit, a capacitii discurilor recunoscute de sistemele de operare. Cea mai
important limit a fost cea de 8 GB rezultat din produsul celor mai mari valori
CHS, presupunnd un sector de 512 octei.

Capacitatea maxim a unei partiii calculat cu CHS este:

LBA = (1024 255 + 255) 63 + (63 - 1) = 16466687


Capacitatea partiiei = 16466687 512 B = 8430943744 B 8 GB

Apoi sistemele de operare au nvat s foloseasc dimensiunea partiiei dat n


valori LBA. Dar, din cauza faptului c numrul de sectoare de pe disc este
reprezentat printr-un numr ntreg fr semn de 32 de bii, dimensiunea unei partiii
este limitat la 2 TB. n prezent, nici aceast valoare nu mai este suficient.

Pe de alt parte, partiiile care conin MBR sau EBR trebuie s nceap ntotdeauna
la granie de pist i s se sfreasc la granie de cilindru; partiiile extinse ncep
ntotdeauna la granie de cilindru. Acest lucru face ca prima partiie primar s
nceap la LBA 63, lsnd un gol de 62 de sectoare pe partiiile ce conin MBR-ul
(sau EBR-ul), numit MBR gap sau boot track. De la Windows Vista, prima partiie
ncepe dup un spaiu liber (gol) de 2047 de sectoare, la LBA 2048, conform noii
sale politici de aliniere la grania de 1 MiB, astfel nct s fie evitat nealinierea
sectoarelor cu dimensiune mai mare de 512 octei.
Dintre limitrile formatului MBR / MSDOS de etichetare, enumerm:
Disc limitat la 232 512 = 2 147 483 648 kiB (2 TiB, ~ 2.2 TB).
Probleme de integritate a datelor. Sectorul MBR reprezint un singur punct
de eec. n plus, deoarece fiecare partiie logic este definit printr-o list de
EBR-uri, defectarea unuia poate duce la blocarea accesului la partiiile
logice urmtoare. Structurile MBR i EBR nu conin informaii capabile de
detecia erorilor.
mprirea discului n mai mult de patru partiii necesit soluii neatrgtoare
(partiii primare/extinse/logice).
Sunt folosite anumite reprezentri fr relevan n prezent (C/H/S, etc.).

2.2.4 Tabela de partiii cu identificatori unici globali

GPT (GUID Partition Table) este cel mai recent standard de partiionare. A fost creat
de Intel ca parte a specificaiilor EFI (Extensible Firmware Interface) destinate
nlocuirii BIOS-ului. Acest lucru nseamn c un sistem bazat pe UEFI trebuie
neaprat s foloseasc GPT. Totui, este posibil ca sistemele cu BIOS s foloseasc
GPT. Pentru definirea partiiei, GPT folosete identificatori unici globali (GUID).
Un GUID este un numr unic folosit ca identificator. Termenul GUID se refer la
diferite implementri ale standardului UUID (Universally Unique Identifier) 7 .
Numrul GUID este reprezentat de obicei ca valoare de 128 de bii, reprezentai ca
32 de digii hexazecimali, afiai n cinci grupuri separate prin liniu. De exemplu,
{21EC2020-3AEA-4069-A2DD-08002B30309D}. De asemenea, GPT folosete
exclusiv adresarea LBA n loc de CHS. Urmtoarea figur reprezint structura unui
disc GPT.

n acest exemplu, fiecare bloc logic (LBA) are dimensiunea de 512 de octei i
fiecare intrare tip partiie (Entry 1, Entry 2, ...) are 128 de octei. Intrrile
corespunztoare nregistrrilor tip partiie sunt de la LBA 2 la LBA 33. Adresele
LBA negative indic poziia tabelului de partiii secundar fa de sfritul volumului,
cu -1 ca ultim bloc adresabil.

Pentru un GPT, primul sector de disc, LBA 0, este tot un MBR, numit MBR de
protecie. Aici este prezent o tabel de partiii cu o singur nregistrare care descrie
o partiie de tipul 0xEE (adic partiie EFI GPT). Aceast nregistrare acoper tot
discul sau maxim 2 TiB, oricare din acestea este valoarea mai mic. Rolul su este
s protejeze discul GPT de daune provocate de utilitare care nu recunosc un disc
GPT. Dac un astfel de utilitar scaneaz discul, ele vor vedea un disc MBR fr

7
UUID este un identificator standard de 128 de bii folosit n programe, standardizat de Open
Software Foundation i parte a Distributed Computing Environment. Scopul UUID este s
permit sistemelor distribuite s identifice unic informaia, fr o coordonare central.
spaiu liber. Tot el permite unui calculator ce folosete BIOS s poat boota de pe
un disc GPT, folosind un ncrctor de sistem (boot loaderul) stocat n zona de cod
a MBR-ului de protecie, dar asta n condiiile n care att ncrctorul de sistem ct
i sistemul de operare recunosc GPT. n mod obinuit, MBR-ul de protecie nu mai
conine ncrctorul de sistem (boot loader-ul).
Indiferent de dimensiunea sectorului, LBA 1 conine antetul tabelei de partiii GPT.
Structura antetului GPT (LBA 1) este prezentat n urmtorul tabel.

Lungime
Depl. Coninut
(octei)
+0 8 Semntur ("EFI PART", 45h 46h 49h 20h 50h 41h 52h 54h)
Revizie (pentru GPT versiune 1.0 (pn la cel puin versiunea
+8 4
UEFI 2.3.1), valoarea este 00h 00h 01h 00h)
Dimensiunea antetului exprimat n little-endian (n octei, de
+12 4
obicei 5Ch 00h 00h 00h, nsemnnd 92 de octei)
CRC2 pentru antet (offset +0 pn la dimensiunea antetului), cu
+16 4
acest cmp zero n timpul calculului
+20 4 Rezervat; trebuie s fie zero
+24 8 LBA curent (locaia acestei copii a antetului)
+32 8 LBA de backup (locaia celeilalte copii a antetului)
Primul LBA utilizabil pentru partiii (pentru tabelul de partiii
+40 8
principal este ultimul LBA + 1)
Ultimul LBA utilizabil (pentru tabelul secundar de partiii este
+48 8
primul LBA - 1)
+56 16 GUID-ul discului (n Linux se numete UUID)
LBA-ul de nceput pentru irul de intrri tip partiie (ntotdeauna
+72 8
2 n copia principal)
+80 4 Numrul de intrri de tip partiie din ir
+84 4 Dimensiunea unei singure intrri tip partiie (de obicei 128)
+88 4 CRC2 pentru irul de partiii
Rezervat; trebuie s fie zero pn la sfritul blocului (420 de
+92 * octei pentru un sector de 512 octei; dar poate fi mai mult pentru
sectoare de dimensiune mai mare.

Se observ, printre alte informaii, cum antetul GPT definete numrul maxim de
partiii, dimensiunea unei singure nregistrri de partiie, i cum specific suma de
verificare i GUID-ul discului. Formatul GPT folosit n mod obinuit permite pn
la 128 de nregistrri de partiie, fiecare cu dimensiunea de 128 de octei. GPT ofer
i redundan, scriind antetul GPT i tabelul de partiii att la nceput ct i la sfritul
discului. Valorile LBA curent i LBA de backup trebuie s adreseze al doilea sector
de disc (LBA 1), respectiv ultimul sector de disc. Al doilea antet de la sfritul
discului identific propriile intrri de tip partiie, care sunt localizate chiar naintea
acelui antet.
Dup antetul GPT urmeaz cteva intrri de tip partiie. Specificaiile UEFI
stipuleaz c pentru intrrile de tip partiie trebuie alocai minim 16.384 octei,
indiferent de dimensiunea sectorului. Pentru un disc cu sectoare de 512 octei
nseamn 16.384 / 512, adic 32 de blocuri logice LBA. Plus dou dinainte, rezult
c nregistrrile de tip partiie ncep la LBA 34. Structura acestora este prezentat
n tabelul urmtor.

Structura unei intrri de tip partiie


Lungime
Deplasament Coninut
(octei)
0 16 GUID-ul pentru tipul partiiei
16 16 GUID-ul unic pentru partiie
32 8 Primul LBA (n little-endian)
40 8 Ultimul LBA (inclusiv, de obicei numr impar)
48 8 Indicatori de atribute (de ex., bitul 60 denot read-only)
56 72 Numele partiiei (36 de uniti de cod UTF-16LE)
128 Total

Primii 16 bii denot GUID-ul pentru tipul partiiei. De exemplu, GUID-ul pentru
partiia EFI este {C12A7328-F81F-11D2-BA4B-00A0C93EC93B}. Alte cteva
tipuri de partiii sunt specificate n urmtorul tabel.

Tipuri de partiii GUID


Date Linux/Windows EBD0A0A2-B9E5-4433-87C0-68B6B72699C7
Linux swap 0657FD6D-A4AB-43C4-84E5-0933C84B4F4F
Linux LVM E6D6D379-F507-44C2-A23C-238F2A3DF928
Linux RAID A19D880F-05FC-4D3B-A006-743F0F84911E

Urmtorul cmp de 16 octei conine GUID-ul unic al partiiei. Adresele LBA de


nceput i sfrit ale partiiei, fiecare de 64 de bii, sunt nregistrate n cmpurile trei
i patru. Apoi urmeaz intrri pentru numele partiiei i diverse alte atribute.

Prima partiie a discului de boot este o partiie special EFI (ESP - EFI System
Partition), formatat cu sistemul de fiiere FAT32. Linux o monteaz de obicei n
/boot/efi. Un numr de variabile UEFI specific calea ctre ncrctorul de
sistem din ESP. Linux o administreaz cu utilitarul efibootmgr. Pentru a boota
un sistem de operare de pe un disc GPT, trebuie ca acesta s recunoasc UEFI.

Avantajele GPT:
Sector limitat la 264 512= 8 ZiB (8,6 miliarde TiB).
Tabelul de partiii, complet, este prezent att la nceputul ct i sfritul
discului.
n timp ce MBR folosete un singur octet pentru identificarea tipului de
partiie, GPT folosete o valoare GUID de 16 octei. Acest lucru scade
posibilitatea coliziunilor.
Folosete valori CRC pentru structurile de date, crescnd ansele deteciei
datelor corupte.
GPT stocheaz toate partiiile ntr-o singur tabel (cu backup), astfel nct
nu sunt necesare partiii extinse sau logice. Numr maxim de partiii este
flexibil (implicit 128).
Mai mult spaiu pentru informaii cu privire la tipul unei partiii, un GUID
i o etichet Unicode unic pentru fiecare partiie.
GPT permite stocarea unui nume de partiie lizibil. Acest cmp poate fi
folosit la denumirea partiiilor cu numele din Linux, /home, /var, etc.,
pentru o identificare mai facil n programul de partiionare.

2.2.1 Scrierea unui sistem de fiiere

Scrierea unei partiii cu un sistem de fiiere se numete i formatare de nivel nalt


sau formatare rapid (deoarece este o operaie care nu consuma mult timp). Sistemul
de fiiere reprezint o modalitate de organizare a datelor pe disc, specific fiecrei
familii de sisteme de operare. Tot n aceast etap, opional, ntreaga partiie poate
fi scanat n vederea detectrii defectelor, proces care poate fi mare consumator de
timp.

2.3 Lab 3.A: Partiionarea discurilor n linux

1. Deschidei Hyper-V Manager. Click dreapta pe maina virtual care


ruleaz Ubuntu Desktop 15.10 i selectai Settings
2. Selectai SCSI Controller i adugai Hard Drive. Sub Virtual
hard disk apsai New i urmai etapele de creare a unui nou disc. Alegei
un nume, dar avei grij ca tipul discului s fie Fixed size iar
dimensiunea egal cu 2 GB.
3. Urmai pasul 2 de nc trei ori, astfel nct la sfrit maina virtual s aib
nc patru discuri suplimentare de cte 2 GB fiecare.
4. Salvai i pornii maina virtual.
5. Deschidei un terminal folosind combinaia de taste Ctrl+Alt+T i obinei
drepturi de root cu sudo i.
6. Afiai schema de partiionare curent cu parted l. Parted este un
utilitar n linie de comand capabil s partiioneze discuri.
7. Obsevai detaliile cu privire la partiionarea discului /dev/sda pe care se
afl sistemul de operare. Partition Table specific tabela de partiii
folosit pe acest disc, GPT.
8. Pentru discul nou introdus n sistem, valoarea Partition Table este
unknown, ceea ce nseamn c acesta nc nu a fost etichetat.

2.3.1 Etapa I. Partiionarea discurilor cu MBR

1. Selectm discul /dev/sdb n vederea partiionrii cu schema MBR:


Introducei comanda parted /dev/sdb
Observai modificarea promptului. n loc de promptul standard de
linux ne aflm ntr-un prompt (parted). Acest lucru ne anun c
lucrm cu interpretorul de comenzi al utilitarului parted.
2. Comanda help afieaz lista de comenzi recunoscute de parted. De
asemenea, help poate afia detalii cu privire la alt comand dac este
specificat nainte de aceasta. De exemplu, help print, help
mklabel, etc..
3. Etichetm discul ca fiind de tip MBR i crem o singur partiie:
Discul va folosi schema de partiionare MBR: mklabel msdos
4. Verificm: print
Afim spaiu disponibil: print free
Crem o partiie care cuprinde tot spaiul disponibil: mkpart
primary 1M -1. Pentru detalii cu privire la aceast comand
apelai la help mkpart.
Salvai i ieii din parted: quit
5. Verificm cu parted l faptul c partiia a fost creat. Observm cum
Partition Table pentru discul /dev/sdb este msdos (ceea ce
nseamn MBR).
6. Scriem un sistem de fiiere n partiia nou creat:
Folosim sistemul de fiiere EXT4: mkfs.ext4 /dev/sdb1
7. Montm discul la directorul /mnt: mount /dev/sdb1 /mnt
8. Comanda df hT verific faptul c partiia /dev/sdb1 este montat la
directorul /mnt. La fel i mount.
9. Demontai partiia /dev/sdb1 de la directorul /mnt: umount /mnt

2.3.2 Etapa II. Partiionarea discurilor cu GPT

1. Selectm discul /dev/sdc n vederea partiionrii cu schema GPT.


Introducei comanda parted /dev/sdc
Observai modificarea promptului.
2. Partiionm discul:
Discul folosete schema de partiionare GPT: mklabel gpt
Crem o singur partiie: mkpart primary 1M -1
Salvm i prsim parted: quit
3. Scriem n noua partiie sistemul de fiiere EXT4: mkfs.ext4
/dev/sdc1
4. Montm noua partiie: mount /dev/sdc1 /media
5. Verificm faptul c partiia /dev/sdc1 a fost montat cu succes: df
hT

2.4 Lab 3.B: Partiionarea discurilor n Windows

diskpart

2.5 Cofiguraii RAID

Termenul RAID este un acronim din limba englez Redundant Array of


Independent Disks care definete o configuraie de discuri menit s reduc timpul
de acces la date sau s ofere toleran mai bun la defeciuni.

Tehnologia RAID a fost dezvoltat iniial n 1987 la Universitatea Berkeley din


California. Intenia iniial a echipei de cercetare a fost s reduc costul spaiului de
stocare prin nlocuirea discurilor scumpe de capacitate mare i combinarea unor
discuri de capacitate mic, mai ieftine. Totodat, pentru a se asigura c defectarea
unui disc nu duce la pierderea datelor, au inventat o modalitate de protecie a datelor
prin utilizarea redundanei.

Configuraiile RAID sunt obinute folosind o component hardware sau o aplicaie


software. n funcie de aceste dou moduri de implementare vorbim de soluii
hardware i soluii software. Soluiile hardware folosesc un controler dedicat pentru
implementarea mecanismelor RAID. Controlerul dispune de resurse de procesare i
memorare proprii. Unitatea logic de stocare configurat de controler este prezentat
sistemului de operare ca disc singular, fr ca sistemul de operare s cunoasc
arhitectura real. Soluiile software folosesc procesorul i memoria sistemului pentru
efectuarea operaiilor RAID, iar logica este implementat n kernel.
n prezent, tehnologia RAID combin mai multe discuri fizice ntr-o singur unitate
logic de stocare (LUN Logical Storage Unit), capabil s asigure integritatea i
disponibilitatea datelor ntr-o msur mai mare fa de cea obinut cu un disc
standard. Berkeley a definit cinci niveluri diferite de RAID, RAID 1 pn la 5,
fiecare din ele destinat s protejeze datele mai bine dect nivelul anterior. Pe lng
acestea sunt folosite i multe altele. n continuare vom prezenta cele mai ntlnite
configuraii RAID.

RAID 0 (blocuri ntreesute)

RAID 0, numit i striping (ntreesere), nu a fost inclus n specificaiile Berkeley


originare i nici nu este, strict vorbind, o form de RAID deoarece nu asigur nicio
redundan a datelor. A fost definit ulterior ca modalitate de mbuntire
substanial a performanei I/O.

n RAID 0, sistemul de operare sau un controler separat mparte datele n blocuri8


i le scrie n mod alternativ pe discuri diferite. Aceast configuraie genereaz cea
mai mare performan i folosete la maxim capacitatea de stocare disponibil, ct
timp discurile membre au dimensiuni identice. De regul, dac discurile au capaciti
diferite, atunci fiecare membru al configuraei poate folosi numai spaiul egal cu
capacitatea celui mai mic disc. Totodat, configuraiile RAID 0 care folosesc discuri
cu viteze diferite pot experimenta gtuiri n timpul perioadelor cu numr mare de
cereri I/O. Din aceste motive este indicat s se foloseasc discuri identice. Unele
implementri aranjeaz blocurile astfel nct este folosit tot spaiul disponibil. n
acest mod, datele sunt distribuite de-a lungul tuturor discurilor pn cnd se umple
cel mai mic disc. Apoi procesul continu pe celelalte i se repet pn cnd nu mai
este spaiu liber pe niciun disc. Kernelul Linux mparte blocurile n acest fel.
Deoarece nu exist redundan n RAID 0, defectarea unui singur disc duce
la pierderea tuturor datelor. Distribuirea blocurilor conform RAID 0 este potrivit

8
Blocurile pot avea dimensiunea de la 512 octei pn la civa MB. Acest lucru este valabil
pentru toate tipurile de RAID.
pentru situaiile n care discul este accesat intensiv, dar n care pierderea datelor este
acceptabil.

RAID 1 (blocuri oglindite)

RAID 1 furnizeaz cea mai complet form de redundan, deoarece poate


supravieui la defectarea mai multor discuri fr a fi nevoie de vreun algoritm de
recuperare a datelor. Datele sunt oglindite bloc cu bloc pe fiecare disc membru.

Astfel, pentru fiecare N discuri configurate n (array) RAID 1, matricea poate rezista
la defectarea a N-1 discuri fr a se pierde date.

De exemplu, ntr-o matrice RAID 1 de patru discuri se pot defecta pn la trei, fr


s se piard date. Dar cu ct crete numrul de discuri, cu att scade performana la
scriere. Deoarece fiecare bloc trebuie s fie scris pe fiecare disc din matrice, fiecare
scriere implic o penalitate de performan. n schimb, datorit accesului n paralel
se obine un avantaj substanial la citire. Avnd la dispoziie copii ale datelor pe
discuri diferite sistemul poate efectua cereri de citire concurente.
RAID 1 asigur toleran complet la defeciuni. Singurul dezavantaj rezult
din faptul c preul implementrii este cel puin dublu (dac folosim numai dou
discuri) pentru o capacitate de stocare dat.

RAID 4 (disc de paritate)


RAID 4 distribuie blocuri de date pe fiecare disc din matrice destinat a fi disc de
date. n plus, un disc din matrice este folosit exclusiv pentru stocarea informaiei de
paritate. Dedicarea unui disc informaiei de paritate nseamn c se pierde
capacitatea unui disc atunci cnd se calculeaz spaiul total al unitii logice.

Suma de verificare folosit n cazurile de recuperare a datelor este generat n timpul


fiecrei operaii de scriere, la nivel de bloc, cu operaia XOR. Operaia XOR
folosete discul de paritate dedicat. Acesta conine informaia de paritate derivat
din blocurile discurilor de date. n cazul defeciunii unui disc, se poate efectua
operaia XOR ntre suma de verificare i blocurile de date corespunztoare rmase
pe celelalte discuri active. Utilizatorii i aplicaiile pot continua s acceseze datele
din unitatea logic (matrice), dar performana este mai sczut deoarece, n vederea
reconstruirii datelor lips, operaia XOR trebuie efectuat n timpul fiecrei citiri.
Cnd discul defect este nlocuit, controlerul reface datele pierdute pe baza
informaiei de paritate i a blocurilor rmase pe celelalte discuri (are loc un XOR
ntre informaia de paritate i blocurile corespunztoare rmase pe celelalte discuri
i se scrie rezultatului pe noul disc).

Dei specificaiile originare RAID cereau numai un singur disc de paritate pentru
RAID 4, unele implementri moderne permit utilizarea mai multor discuri de
paritate. Din moment ce fiecare scriere genereaz informaie de paritate, este
inerent o pierdere de performan.

Cu excepia unor cazuri foarte specializate, RAID 4 nu se mai folosete n prezent.


RAID 5 ofer performan mai bun. Totui, muli productori de sisteme de stocare
n reea (NAS Network Attached Storage) folosesc nc RAID 4 deoarece
extinderea matricii (introducerea de discuri noi n timpul funcionrii hot swap) n
timpul funcionrii sistemului de stocare este mai uor de implementat i mai rapid,
deoarece nu este nevoie s se repoziioneze toate blocurile de paritate.
Operaia XOR

Cnd o configuraie RAID genereaz informaia de paritate, efectueaz operaia


XOR pentru fiecare octet de date. De exemplu, o matrice RAID 5 cu trei discuri
scrie primul octet 11011011 pe primul disc i octetul 01101100 pe al doilea disc.
Primii doi octei sunt octei de date. Urmtorul, octetul de paritate 10110111 este
scris pe al treilea disc. Dac se defecteaz primul sau al doilea disc, i este pierdut
unul din octeii de date, controlerul RAID efectueaz operaia XOR ntre octetul
de date rmas i octetul de paritate ca s afle octetul de date lips. Acest lucru este
valabil pentru orice numr de octei de date sau, n acest caz, discuri.

RAID 5

RAID 5 elimin discul de paritate dedicat i distribuie informaia de paritate de-a


lungul tuturor discurilor din matrice. Folosete acelai algoritm XOR din RAID 4.
La fiecare scriere, un bloc de date din fiecare linie (stripe) este folosit pentru stocarea
paritii. Discul care stocheaz paritatea alterneaz cu fiecare linie, pn cnd fiecare
disc conine un bloc de paritate. Apoi procesul se repet ncepnd cu primul disc.

De exemplu, pentru o matrice RAID 5 de cinci discuri, fiecare al cincilea bloc de


date devine bloc de paritate pentru celelalte 4 blocuri dinainte. Acest lucru nseamn
c o parte din spaiul de stocare va fi neutilizat. ntr-o matrice cu cinci discuri
informaia de paritate ocup capacitatea unui singur disc, ca i la RAID 4, numai c
informaia de paritate este distribuit pe fiecare disc din matrice. Aadar, RAID 4 i
RAID 5 obin aceeai capacitate de stocare. RAID 5 poate rezista tot la defeciunea
unui singur disc. Dac se defecteaz mai mult de un disc, se pierd toate datele din
matrice.
La citiri, RAID 5 are aproape aceeai performan cu RAID 0. Performana
la scrierea unei linii complete este de asemenea comparabil, dar cnd apar scrieri
mai mici de o singur linie, performana poate fi mult mai mic. Reducerea
performanei apare ca urmare a unei pre-citiri care trebuie realizat n vederea
obinerii paritii de linie corecte. n timpul defeciunii unui disc, performana la
citire pentru RAID 5 scade deoarece, de fiecare dat cnd sunt necesare datele de pe
discul defect, acestea trebuie generate de algoritmul de paritate. Scrierile din timpul
defeciunii unui disc nu sufer pierderi de performan i chiar vor fi mai rapide.
Odat discul defect nlocuit, refacerea datelor poate ncepe automat sau dup
intervenia administratorului de sistem, n funcie de hardware i setri.

RAID 6

Configuraia RAID 6 este o extensia a RAID 5 care permite toleran adiional la


defeciuni prin utilizarea unei scheme de paritate distribuite (paritate bi-
dimensional). Blocurile de date sunt ntreesute de-a lungul unui set de discuri, ca
i la RAID 5, i este calculat i scris un al doilea set de paritate distribuit pe toate
discurile din matrice. RAID 6 este extrem de rezistent la defeciuni i poate rezista
la defectarea mai multor discuri simultan. Este soluia perfect pentru aplicaiile
critice. Dezavantajul const dintr-un controler foarte complex. ncrcarea
suplimentar cu calculul paritii este foarte mare. Performan foarte slab la scrieri.

Are nevoie de N+2 discuri din cauza schemei de paritate bi-dimensionale.

RAID 10 (oglindiri ntreesute)

Cea mai utilizat i util combinaie de configuraii RAID standard (cele prezente n
specificaiile Berkeley) rezult din combinaia RAID 0 i RAID 1. Performana
ridicat a configuraiei RAID 0 cuplat cu redundana asigurat de RAID 1 creeaz
o soluie rapid i eficient dei este soluia cea mai scump. O oglindire
ntreesut, sau RAID 10, este simpl. Sunt create dou oglindiri separate, fiecare cu
un set unic de discuri, apoi cele dou oglindiri sunt ntreesute. Datele scrise pe
unitatea logic obinut sunt distribuite de-a lungul celor dou oglindiri. Nu este
nevoie de informaie de paritate.
Fig 2-10. O matrice hibrid format din combinarea a dou oglindiri (RAID 1), combinate
apoi ntr-o ntreesere (RAID 0)

Dei acest aranjament are nevoie multe discuri suplimentare, ofer o soluie rapid
i rezistent. Ratele de transfer I/O sunt comparabile cu soluia RAID 0. Cnd un
disc din RAID 10 se defecteaz, fiecare oglindire nc poate opera, dei oglindirea
cu discul defect opereaz n mod deteriorat (degraded). O configuraie RAID 10
poate rezista la defectarea a mai multor discuri dac acestea se produc n ramuri
diferite.

Dei se pot oglindi dou ntreeseri (dou ntreeseri combinate ntr-o oglindire),
RAID 0+1, aceast configuraie nu crete nici performana nici redundana fa de
RAID 10. De fapt, RAID 10 poate funciona cu mai multe discuri defecte dect
RAID 0+1. Chiar dac este adevrat c RAID 0+1 poate rezista la defectarea a dou
discuri din aceeai ntreesere, defectarea celui de al doilea disc nu mai are
importan deoarece face deja parte dintr-o ntreesere nefuncional.

RAID 50 (striping parity)

Dac utilizatorii nu i permit s configureze RAID 0+1 din cauza risipei importante
de spaiu, pot combina dou matrici RAID 5 ntr-o ntreesere (RAID 0).
Performana la citire este mai mic dect RAID 0+1, dar performana la scriere este
mai bun, deoarece fiecare ramur a ntreeserii este format din matrici RAID 5,
care folosesc de asemenea blocuri ntreesute. Fiecare ramur RAID 50 poate
supravieui defectrii unui disc. n schimb, defectarea a mai mult de un disc ntr-o
ramur duce la pierderea tuturor datelor.

RAID 1E

RAID 10 este implementat folosind un numr par de discuri. Figura urmtoare


ilustreaz un exemplu de RAID 10 care conine cinci discuri. n aceast configuraie,
fiecare bloc de date al unui disc este oglindit pe urmtorul disc din matrice, ultimul
disc continund cu primul .a.m.d.. Aceast tehnic se numete RAID 1E i a fost
propus prima dat de IBM.

Cnd numrul de discuri este par, structura este identic cu RAID 10, fiecare disc
fiind oglindit cu alt disc unic. n consecin, toate caracteristicile configuraiei RAID
10 se aplic i pentru RAID 1E cu numr par de discuri. Cnd numrul de discuri
este impar, RAID 1E are cteva proprieti interesante. Numrul maxim de discuri
defecte la care rezist o configuraie RAID 1E de N discuri este N/2. Cnd N este
par, rezult o valoare egal cu cea a unei configuraii RAID 10 ce folosete un disc
adiional. Dar se dovedete c pentru RAID 1E cu numr impar de discuri N, numrul
total de combinaii n care discurile se pot defecta fr ca matricea s devin
inoperabil este mai mic dect RAID 10 cu N-1 discuri. RAID 10 este reprezint o
alegere mai bun atunci cnd tolerana la un numr mare de combinaii de defectri
este important. Cu alte cuvinte este preferabil ntotdeauna s se foloseasc RAID
1E cu un numr par de discuri dac se dorete toleran mai mare la defectarea
discurilor. n concluzie, RAID 1E este puin mai flexibil n ce privete numrul de
discuri care pot constitui o matrice. Numrul poate fi i impar. Totui, este preferabil
s se foloseasc RAID 10. RAID 10 este rezist la mai multe posibiliti de defectare
chiar dac folosete discuri mai puine.

Defectarea discurilor

Un alt beneficiu al RAID const din abilitatea acestuia de a gestiona defectarea


discurilor fr intervenia utilizatorului. Matricile redundante, pe lng faptul c pot
funciona n timpul defectrii unui disc, pot reface matricea automat dac sunt
disponibile discuri nefolosite.

Modul degradat

Cnd discul unei matrice se defecteaz, se spune c matricea intr n modul degradat.
Acest lucru nseamn c matricea nu funcioneaz la parametri optimi i redundana
a fost compromis. Modul degradat poate fi ntlnit numai la configuraiile
redundante. De exemplu, RAID 0 cunoate numai dou stri: operaional i defect.
Modul degradat permite configuraiilor redundante s continue s opereze pn cnd
administratorul rezolv problema de obicei prin nlocuirea discului defect.

Rezerve la cald (hot-spare)

Cum am vzut mai nainte, configuraiile RAID redundante pot nlocui un disc defect
cu unul nou fr intervenia utilizatorului. Aceast funcionalitate, numit hot-
spares, este prezent n fiecare controler RAID. De asemenea, este implementat i
de kernelul Linux. La crearea unei matrici RAID redundante, administratorul de
sistem pstra unele discuri pe post de rezerve n cazul apariiei unei defeciuni. Odat
ce se defecteaz un disc i matricea intr n modul degradat, controlerul poate
introduce automat n matrice o rezerv. Acest lucru uureaz sarcina
administratorului, deoarece matricea i reia automat operarea normal, permindu-
i acestuia s nlocuiasc discul defect mai trziu. n plus, folosirea unor rezerve scade
riscul pierderii datelor prin defectarea unui alt disc la puin timp dup primul.

nlocuirea discului la cald (hot-swap)


Toate configuraiile RAID redundante sunt capabile i de nlocuirea discului n
timpul funcionrii. Hot-swap denot abilitatea extragerii unui disc defect dintr-un
sistem activ astfel nct s poat fi nlocuit cu un disc nou. Acest lucru nseamn c
se poate nlocui un disc fr a fi necesar oprirea sau restartarea sistemului.

2.6 Lab 3.C: Instalarea sistemelor Linux ntr-o


configuraie RAID software

https://www.youtube.com/watch?v=iwRrzE2ExX4

https://www.youtube.com/watch?v=c-N08aU1h50

2.7 Lab 3.D: Configurarea RAID software a


discurilor adugate dup instalare n Linux

https://www.youtube.com/watch?v=9sJ2Crrlcdw

2.8 Lab 3.E: Configuraii RAID n sistemele


Windows

https://www.youtube.com/watch?v=9nRK3tmjzck

2.9 Aplicaii i ntrebri

Aplicaii

1. ntr-o main virtual cu Linux existent i oprit, adugai un disc suplimentar


de 2 GB. Porniia maina virtual i partiionai noul disc cu MBR. Pe disc creai
dou partiii, fiecare de 1 GB. Scriei partiiile cu sistemul de fiiere EXT4 i
montai-le n /mnt i /media.
2. ntr-o main virtual cu Linux existent i oprit, adugai un disc suplimentar
de 2 GB. Porniia maina virtual i partiionai noul disc cu GPT. Pe disc creai
dou partiii de cte 1 GB. Scriei partiiile cu sistemul de fiiere EXT4 i
montai-le n /mnt i /media.
3. ntr-o main virtual cu Windows existent i oprit, adugai un disc
suplimentar de 2 GB. Porniia maina virtual i partiionai noul disc cu GPT.
Pe disc creai dou partiii de cte 1 GB. Atribuii noilor partiii etichetele E i
F.
4. ntr-o main virtual cu Linux existent i oprit, adugai 2 discuri
suplimentare de 2 GB fiecare. Porniia maina virtual i creai din cele dou
discuri suplimentare o configuraie RAID 1 software. Formatai partiia RAID
cu EXT4 i montai-o n /mnt.
5. ntr-o main virtual cu Windows existent i oprit, adugai doua discuri
suplimentare de 2 GB. Porniia maina virtual i creai din cele dou discuri un
volum ntreesut (oglindit).

ntrebri

1. Ce nseamn a citi date, respectiv a scrie date cnd ne referim la transferuri


cu discul?
2. Ce nseamn disc SAS de 10K RPM?
3. La ce se refer procesul de comutare n funcionarea unui disc rigid?
4. La ce se refer procesul de cutare (seek) n funcionarea unui disc rigid?
5. Ce nseamn laten de rotaie n funcionarea unui disc rigid?
6. Ce proces (cutare, comutare, laten de rotaie) influeneaz cel mai mult
timpoul de acces la un sector aleatori?
7. Ce nseamn citire/scriere secvenial vs citire/scriere aleatorie?
8. Care este mai rapid: scrierea aleatorie sau scrierea secvenial?
9. Care sunt metodele prin care productorii de discuri rigide ncearc s reduc
influena problemelor de performan ale acestora?
10. Care sunt metodele prin care dezvoltatorii de sisteme de operare ncearc s
reduc influena problemelor de performan ale discurilor rigide?
11. Care este structura formatului avansat de formatare inferioar i cnd este acesta
benefic i mai puin benefic?
12. Care sunt cmpurile suplimentare ale unui sector fizic de 512 de octei al unui
disc rigid?
13. Care este diferena dintre 4 GiB i 4 GB?
14. De ce partiionm discurile?
15. Care sunt cele dou metode de partiionare folosite n sistemele din familia Intel?
16. n ce const partiionarea MBR/MSDOS?
17. n ce const partiionarea GPT?
18. Precizai trei avantaje ale metodei de partiionare GPT fa de MBR.
19. Precizai trei dezavantaje ale metodei de partiionare MBR.
20. Cte partiii primare poate avea un disc partiionat cu MBR?
21. Cte intrri de tip partiie se gsesc implicit n tabela GPT?
22. Ce conin primii 446 de octei ai sectorului MBR?
23. Ci octei are o intrare tip partiie n tabela de partiii primare MBR?
24. Ci octei are o intrare de tip partiie n tabela GPT?
25. Precizai trei cmpuri dintr-o nregistrare tip partiie din MBR.
26. Precizai trei cmpuri dintr-o nregistrare tip partiie folosit n GPT.
27. Ce nseamn GUID?
28. Ce nseamn ESP i la ce folosete?
29. Ce configuraii RAID pot crea cu trei discuri?
30. Cte discuri sunt necesare pentru o configuraie RAID 10?
31. Care este diferena dintre RAID 4 i RAID 5?
32. Care este configuraia RAID destinat unui surplus de performan?
33. Ce nseamn RAID hardware?
34. Ce nseamn RAID software?
35. Ce nseamn o configuraie RAID n mod degradat?
36. Ce nseamn hot-spare n RAID?
37. Ce nseamn hot-swap?

3 INIIALIZAREA SISTEMULUI DE
OPERARE

3.1 BIOS

Firmware-ul reprezint o colecie de programe distribuit sub form binar,


ncrcat ntr-o memorie persistent de ctre productorul sistemului de calcul.
Pentru arhitecturile x86, setul de programe este stocat ntr-o memorie ROM de pe
placa de baz. Deoarece conine i cteva proceduri de nivel inferior folosite de
sistemele de operare n timpul iniializrii sistemului la gestionarea dispozitivelor,
firmware-ul poart numele de BIOS (Basic Input Output System). Alturi de
memoria ROM este prezent i o memorie nevolatil de mici dimensiuni i consum
redus de energie (CMOS) n care utilizatorul are posibilitatea s salveze civa
parametri de funcionare a calculatorului. Aceast memorie CMOS este alimentat
prin intermediul unei baterii. Atunci cnd bateria este scoas, opiunile modificate
se pierd i BIOS-ul revine la configuraia implicit.

3.1.1 Procesul de iniializare a sistemului

BIOS-ul folosete procesorul n modul real (procesorul emuleaz un 8088),


deoarece este singurul mod de funcionare disponibil la pornirea calculatorului.
Procedura de iniializare a BIOS-ului efectueaz n principal urmtoarele patru
operaii:
Verific componentele hardware ale sistemului. n acest sens, execut o
serie de teste asupra dispozitivelor pentru a stabili ce dispozitive sunt
prezente n sistem i dac acestea funcioneaz corespunztor. Aceast etap
se numete POST (Power-On Self Test). Sunt verificate placa de baz,
memoria, controlerele de disc, adaptorul video, tastatura i alte componente
ale sistemului. Testele efectuate pot genera erori fatale, caz n care BIOS-ul
genereaz mesaje de eroare scrise sau semnale sonore. n cazul funcionrii
corecte, rezultatele POST sunt scrise n memorie sub forma unui tabel. n
prezent, sistemele x86 folosesc standardul ACPI (Advanced Configuration
and Power Interface). Codul de iniializare dintr-un BIOS compatibil ACPI
creaz cteva tabele cu informaii despre dispozitivele prezente n sistem.
Aceste tabele au un format independent de productor i sunt citite de
sistemul de operare pentru a nva cum s gestioneze dispozitivele.
Iniializeaz dispozitivele. Chiar alimentat cu energie, un dispozitiv PCI
rmne inactiv. Cu alte cuvinte, dispozitivul rspunde numai la tranzacii de
configuare. La pornire, dispozitivul PCI nu dispune de locaii de memorie i
porturi I/O mapate n spaiul de adrese. La fel, orice alt funcionalitate
specific dispozitivului, cum ar fi raportarea ntreruperii, este de asemenea
dezactivat. BIOS-ul citete i scrie registrele din spaiul de configurare al
fiecrui dispozitiv n vederea alocrii locaiilor de memorie i regiunilor I/O
necesare. La sfritul acestei etape este generat un tabel cu toate
dispozitivele PCI.
Caut un sistem de operare pe care s-l lanseze n execuie. n funcie de
setrile BIOS, procedura de iniializare poate ncerca s acceseze (de o
manier predefinit, customizabil) primul sector al fiecrei uniti de disc
rigid sau flexibil din sistem, pentru a verifica dac este bootabil. Sectorul
bootabil se caracterizeaz prin faptul c ultimii doi octei sunt 0xAA55.
Imediat ce a gsit un sector bootabil, BIOS-ul copiaz coninutul zonei sale
executabile n RAM, ncepnd de la o adresa fizic fix, apoi sare la acea
adres i execut codul tocmai ncrcat.
3.1.2 Limitrile BIOS-ului

BIOS-ul a aprut n primul IBM PC din 1981 i a fost mbuntit de-a


lungul timpului pentru a face fa noilor cerine. Actualizarea i mbogirea acestuia
cu funcii noi este restricionat de cteva limitri arhitecturale semnificative. O
problem major o reprezint faptul c BIOS-ul ruleaz n modul de lucru de 16 bii
al procesorului, cauznd urmtoarele limitri de funcionalitate:
poate fi adresat numai 1 MB de memorie; n consecin,
o spaiul de memorie disponibil pentru ROM-urile cu opiuni PCI este
limitat, restrngnd att numrul de adaptoare ce pot fi instalate
(aproximativ patru) ct i ct funcionalitate pot acestea ngloba;
o spaiul de memorie disponibil pentru funcionaliti avansate este
limitat;
imaginea de firmware este monolitic i ne-modular.

Pe de alt parte, nc de la origine, BIOS-ul nu a fost proiectat pentru


tehnologii folosite n servere, cum ar fi mecanismele prin care se obine
scalabilitatea sistemelor: managementul i plafonarea consumului de energie,
consol accesat de la distan sau posibilitatea managementului de sistem.

3.2 UEFI

n sistemele din prezent, BIOS-ul este nlocuit cu firmware-uri compatibile


cu specificaiile UEFI (Unified Extensible Firmware Interface). La fel ca BIOS-ul,
acestea sunt responsabile cu iniializarea componentelor hardware eseniale
(memorie, procesoare, magistrale PCI), crearea funciilor i structurilor de date
necesare sistemului de operare, iniializarea dispozitivelor de boot i ncrcarea boot
loader-ului (ncrctorului de sistem). Pentru a boota, UEFI are nevoie de prezena
unei partiii de sistem EFI (ESP EFI System Partition). ESP trebuie s conin un
sistem de fiiere FAT32. Standardul EFI nu specific o dimensiune, dar este
suficient o partiie cu capacitatea ntre 100 MiB i 500 MiB.
UEFI definete o interfa standard ntre sistemul de operare, firmware-ul
platformei i dispozitivele externe. Pune la dispoziie funcionaliti mult mai
eficiente dect cele BIOS. Din mediul de lucru UEFI (aadar nainte de iniializarea
sistemului) pot fi lansate n execuie:
ncrctorul de sistem (boot loader-ul) al sistemului de operare. Acesta
trebuie s fie o aplicaie compatibil UEFI.
Aplicaii UEFI. Fiiere care conin cod main specific unei arhitecturi sau
cod octet EFI ce poate fi ncrcat n memorie i invocat. Exemple de astfel
de aplicaii sunt interpretorul de comenzi UEFI (mediu de lucru n linie de
comand) i diverse utilitare.
3.2.1 Procesul de iniializare a sistemului

Deschidem discuia cu o observaie: un sistem de operare bootabil cu BIOS


poate fi instalat numai pe o partiie MBR, iar un sistem de operare bootabil EFI poate
fi instalat numai pe o partiie GPT. Partiiile MBR i GPT nu pot coexista pe acelai
volum. Aadar, dac partiia selectat este MBR, atunci sistemul de operare este
bootat prin BIOS, dac este GPT, este bootat prin EFI. nainte de a ncerca s se
instaleze un sistem de operare compatibil UEFI pe un disc deja formatat cu MBR,
trebuie s se tearg toate partiiile de pe disc sau discul s fie reformatat cu GPT.
Procesul de boot UEFI difer semnificativ de cel BIOS. n loc s booteze
dispozitive, sistemul booteaz anumite inte din ci de directoare de pe dispozitive
fizice sau logice, astfel nct dispozitivele pot conine un numr de inte de boot
(instane de sistem de operare) teoretic nelimitat.
Specificaiile UEFI extind procesul de boot cu cteva caracteristici noi.
Caracteristicile cheie din UEFI includ abilitatea utilizatorului de a crea opiuni de
boot specifice, posibilitatea asocierii unor parametrii adiionali la boot loader,
atribuirea unor nume unice (de exemplu, Kernelul recompilat) i gestionarea mai
multor instane de sisteme de operare pe un singur dispozitiv de boot.
Urmtorul tabel compar procesele de boot i evideniaz cteva diferene
ntre bootarea BIOS i bootarea UEFI.

Procesul de iniializare BIOS Procesul de iniializare UEFI


ncarc n memorie codul executabil din Execut un boot loader din partiia ESP
MBR i l lanseaz n execuie. UEFI.
Un singur MBR per dispozitiv de boot. Pe un singur dispozitiv de boot pot exista
mai multe boot loadere.
Opiunile sunt limitate la categorii de Utilizatorul poate defini opiuni de boot n
genul unitilor de CD sau disc rigid. plus fa de categoriile de dispozitive
generice.
Nu exist posibilitatea transmiterii unei Utilizatorul sau un agent al sistemului de
informaii de configurare la MBR sau la operare poate aduga parametri la
sistemul de operare. opiunile de boot.
Informaia cu privire la ordinea de boot Opiunile de boot i ordinea lor este
este stocat ntr-o memorie CMOS. stocat n NVRAM.

Pentru un mediu bootabil UEFI (disc sau CD), boot loaderul compatibil UEFI se afl
de obicei n calea \efi\boot\bootx64.efi. Boot loaderul trebuie s se afle la
aceast locaie dac se dorete ca firmware-ul s l ncarce automat fr a fi nevoie
ca utilizatorul s adauge manual o opiune de boot n care s specifice calea unde se
afl binarul boot loaderului. Specificaia UEFI 2.4 permite boot managerului UEFI
s caute pe disc, n \efi\boot\bootx64.efi, un boot loader valid UEFI atunci
cnd nu este specificat un boot loader n opiunile de boot. Specificaiile UEFI
anterioare puneau acest lucru la dispoziie numai pentru medii de boot externe, cum
ar fi stick-uri USB.
Observaie: Toate mediile de boot UEFI trebuie s fie formatate FAT32.

3.2.2 Configuraia firmware

Sistemele cu BIOS folosesc pentru stocarea configuraiei o memorie CMOS


alimentat de o baterie. Printre problemele asociate cu un astfel de mecanism sunt
incluse limitrile de spaiu i faptul c decodificarea setrilor se bazeaz pe mapri
specifice tipului de CMOS. Totodat, setrile pot fi actualizate numai dup ce
serverul este alimentat i iniializat. n schimb, pentru stocarea setrilor, sistemele
UEFI pot folosi o strategie cu dou niveluri de memorie flash. n primul nivel,
setrile sunt stocate ntr-o memorie NVRAM standard, la care codul UEFI are acces
direct i rapid. n al doilea nivel, setrile sunt modelate (XML), stocate i gestionate
de o aplicaie de management, cum ar fi IBM IMM (Integrated Management
Module), DELL iDRAC, HP iLO, n propriul su NVRAM. Aceast strategie
permite dezvoltarea de noi funcionaliti, pstrnd n acelai timp disponibilitatea
specific strategiilor mai simple, cu funcionaliti mai reduse. Cu UEFI setrile pot
fi gestionate, clonate i restaurate n timp ce sistemele sunt oprite (power off), dar
alimentate.

3.3 ncrctorul de sistem

ncrctorul de sistem (bootloader) ncarc sistemul de operare n memorie


la pornirea calculatorului.
Pe sistemele cu BIOS, atunci cnd utilizatorul apas butonul de pornire,
calculatorul ncepe s ruleze BIOS-ul. BIOS-ul ncarc n memorie zona de cod din
MBR. Aceasta conine o parte din sau ncrctorul de sistem complet. Din cauza
spaiului redus de date (446 de octei) accesibil BIOS-ului, majoritatea
ncrctoarelor de sistem scriu n MBR numai o parte a ncrctorului de sistem. n
acest caz, procesul de iniializare a sistemului cuprinde dou etape. n prima etap,
BIOS-ul ncarc n memorie aceast prim component a ncrctorului de sistem.
Prima component interogheaz tabela de partiii (caut o partiie activ) n vederea
localizrii celei de a doua componente a ncrctorului de sistem. A doua
component conine interfaa cu utilizatorul i ncrctorul de kernel. Interfeele cu
utilizatorul pot fi grafice sau n linie de comand.
ncrctoarele de sistem pot fi configurate ca principale sau secundare. n
cazul ncrctoarelor de sistem principale, prima component a acestora este
instalat n MBR. n cazul ncrctoarelor de sistem secundare, prima component
este instalat pe o partiie bootabil (activ). n acest ultim caz este nevoie ca n MBR
s fie deja prezent un ncrctor de sistem separat, configurat astfel nct s predea
controlul ncrctorului de sistem secundar.
Distribuiile Linux din prezent folosec ncrctorul de sistem GRUB 2.

3.3.1 Anatomia unui ncrctor de sistem

Figura de mai sus prezint procesul de iniializare a sistemului folosit de


GRUB 2. BIOS-ul ncarc primul sector al unui dispozitiv activ i ncepe s execute
codul pe care l conine. n cazul unui disc rigid, acest prim sector este MBR i
conine prima component a ncrctorului de sistem (stage 1) i tabela de partiii.
Deoarece majoritatea discurilor folosesc un sector de 512 octei, codul din prima
component trebuie s fie mic. Mai mult cod, numit stage 2, folosit la gestionarea
diferitelor tipuri de partiii, sisteme de fiiere i alte extensii este stocat n fiiere din
partiia de boot Linux (directorul /boot). Tot etapa a doua ncarc fiierul
grub.conf. n acest moment apare interfaa grafic GRUB.
ntr-un sistem cu mai multe sisteme de operare exist i un ncrctor de
sistem secundar (de exemplu ncrctorul de sistem NTLDR, specific sistemelor
Windows), care poate stoca alte fiiere de configuraie n alt parte a discului.

3.4 Aplicaii i ntrebri

ntrebri

1. Ce rol are etapa POST rulat ntr-un sistem cu BIOS?


2. Cum detecteaz BIOS-ul sectorul de boot?
3. Cum lanseaz n execuie sistemul de operare un calculator cu BIOS?
4. Precizai dou dezavantaje BIOS.
5. Cu ce sistem de fiiere trebuie scris partiia ESP?
6. Ce rol are partiia ESP?
7. Care este procesul de iniializare a unui calculator cu UEFI?
8. Unde se afl ncrctorul de sistem ntr-un sistem cu BIOS?
9. Unde se afl ncrctorul de sistem ntr-un sistem cu UEFI?
10. Un sistem cu UEFI poate folosi discuri partiionate cu MBR?
11. Un sistem cu BIOS poate folosi discuri partiionate cu GPT?
12. Cum se numete ncrctorul de sistem din Linux?
13. Cum se numete ncrctorul de sistem din Windows?
MODULUL II

NOIUNI FUNDAMENTALE DE
REELISTIC
4 Comunicaii n reea

Carte: Networking for Vmware Administrators.pdf

Capitolul 2. A Tale of Two Network Models

Stiva de protocoale OSI


Stiva de protocoale TCP/IP
ncapsularea datelor

Capitolul 3. Ethernet Networks

Ethernet
Structura adreselor MAC
Echipamente de reea (hub, switch)

Capitolul 4. Advanced Layer 2


- Fr Loop Avoidance and Spanning Tree

Reele locale virtuale (VLAN)


Combinarea legturilor de reea (Link Aggregation)

Capitolul 5. Layer 3

Configuraia de reea (adresa de IPv4, masca de reea, ruterul implicit, serverul de


nume)
Servicii de reea (DNS - Sistemul numelor de domeniu, DHCP - Alocarea dinamic
a adreselor de IP)
Translatarea adreselor de reea i redirecionarea porturilor

Alte noiuni menionate la curs:

Tipuri de reele (LAN, MAN, WAN)


Tipuri de comunicaii n reea (unicast, multicast, broadcast, anycast)
Reele private virtuale (PPTP, L2TP, IPsec, OpenVPN)
4.1 Serviciul numelor de domeniu

Un calculator aflat ntr-o reea este identificat prin adresa sa de IP. Un serviciu care
ruleaz pe acel calculator este identificat printr-un numr, numit port. Ca s acceseze
acel serviciu, o aplicaie client trebuie s cunoasc adresa de IP a calculatorului pe
care ruleaz serviciul, portul de identificare al serviciului i un protocol (set de
reguli) specific acelui serviciu. De exemplu, s presupunem c un calculator cu IP-
ul 141.85.216.217 pune la dispoziie un site web. Protocolul prin care o aplicaie
client comunic cu serverul web este HTTP, identificat prin portul 80. Aplicaia
client care permite accesarea site-urilor web se numete navigator sau browser
(Mozilla Firefox, Google Chrome, Internet Explorer).

Exerciiul 1. Deschidei un browser i scriei 141.85.216.217:80 n csua de cutare.


Observai c browserul afieaz site-ul.

Aadar, dac tii adresa de IP la care se afl un site, l putei specifica direct. Dar
oamenii rein mai degrab nume dect numere. n plus, numele poate descrie mai
clar specificul acelui site.

Exerciiul 2. ntr-un terminal din Linux, introducei comanda: host


www.pub.ro, dig www.pub.ro i nslookup www.pub.ro. Care este
comanda echivalent n sistemul de operare Windows?
4.1.1 Cereri directe

Sistemul numelor de domeniu (Domain Name System - DNS) traduce numele


simbolic al unui calculator la adresa sa de IP. n acest scop folosete un spaiu de
nume cu structur ierarhic.

Fiecare nod din ierarhie reprezint un domeniu (o parte din spaiul de nume). Pe cea
mai nalt poziie se afl domeniul rdcin, simbolizat printr-un punct (.). Pe
urmtorul nivel sunt domeniile de vrf (Top-Level Domains - TLD). Acestea cuprind
dou categorii de coduri: coduri generice (Generic TLD - gTLD) i coduri de ar
(Country Code TLD ccTLD). Codurile generice sunt utilizate global i descriu
organizaiile n funcie de activitatea pe care o ndeplinesc. De exemplu, com
reprezint o companie comercial, edu reprezint o instituie educaional, gov -
organizaie guvernamental, mil - domeniu militar, net - furnizor de servicii
Internet, org - organizaie non-profit, int - organizaie internaional (de exemplu,
NATO). Codurile de ar evideniaz zona geografic din care provin organizaiile:
au Australia, uk United Kingdom, us United States, ro Romania, etc..
Fiecare din domeniile de vrf se ramific n alte nume care mpreun formeaz ceea
ce numim de obicei nume de domeniu, cum ar fi upb.ro.

Exerciiul 3. La ce instituie trebuie s apelai ca s obinei un sub-domeniu n


domeniul cu codul de ar ro?

Numele de domeniu este un identificator unic n Internet, format din caractere


alfanumerice (a-z, A-Z, 0-9 i -) separate prin puncte (de exemplu,
www.trans.upb.ro). Acest identificator se numete nume de domeniu complet
calificat (FQDN - Fully-Qualified Domain Name). Numele de domeniu complet
calificat include punctul de la final care indic nodul rdcin, dar n practic este
ignorat. Cuvintele individuale sau caracterele dintre puncte sunt numite etichete. De
exemplu, n cazul numelui de domeniu www.upb.ro, prima etichet din dreapta
este un TLD (ro), iar urmtoarea nspre stnga reprezint un domeniu de nivel
secundar (upb). Eticheta care urmeaz poate reprezenta un host (cazul www.upb.ro)
sau un sub-domeniu (www.transport.pub.ro). Fiecare etichet poate avea maxim
63 de caractere, iar lungimea total a numelui de domeniu nu poate depi 255.

Versatilitatea sistemului de nume const din posibilitatea delegrii controlului


asupra unor pri din spaiul de nume. De exemplu, ICANN (Internet Corporation
for Assigned Names and Numbers) atribuie controlul asupra domeniilor TLD uneia
sau mai multor organizaii. La rndul lor, aceste organizaii deleag pri din spaiul
de nume altor organizaii. De exemplu, spaiul de nume ro este delegat Intitutului
Naional de Cercetare-Dezvoltare n Informatic - ICI Bucureti. La rndul su, ICI
a delegat controlul asupra domeniului pub.ro Universitii Politehnica din
Bucureti. Din acest moment, niciun alt nod conectat direct la ro nu mai poate fi
numit pub. n cadrul spaiului de nume controlat de UPB (pub.ro), pot fi create
mapri de translatare a numelui de calculator la adresa de IP sau alte nregistrri
despre care vorbim mai trziu, dar totodat domeniul pub.ro poate fi mprit mai
departe i controlul delegat unor faculti sau departamente. De exemplu, Facultatea
de Automatic deine controlul asupra domeniului cs.pub.ro. Fiecare domeniu
(sau subdomeniu delegat) este asociat cu un server de nume. Altfel spus, pentru
fiecare nod din ierarhia DNS exist unul sau mai multe servere care pot rspunde
unor interogri legate de numele de domeniu respectiv.

Pentru administrare, domeniile sunt mprite n zone. Zona semnific domeniul sau
sub-domeniul gestionat de un anumit server. Se spune c acel server este autoritar
(stpn) pe zona respectiv. Serverul autoritar poate:
realiza operaii de administrare a zonei,
introduce noi nregistrri,
delega autoritatea unor sub-domenii ale sale altor servere de nume.

n prezent, zona rdcin . este deservit de treisprezece servere rdcin care fac
parte din domeniul root-servers.net, fiecare identificat printr-o liter, de la
a la m. Acestea sunt distribuite n ntreaga lume. O list cu serverele rdcin,
mpreun cu operatorii i adresele lor de IP, sunt disponibile la adresa
http://www.root-servers.org/.

Exerciiul 4. Deschidei un terminal i introducei comanda: dig @a.root-


servers.net ns . (punctul face parte din comand).

Serverele rdcin cunosc numai serverele TLD. Serverele TLD cunosc numai
serverele de nivel secundar, .a.m.d.. Fiecare server cunoate numai serverele de la
nivelul imediat inferior. n consecin, dac interogm un server rdcin cu privire
la www.upb.ro, acesta ne va putea furniza numai numele serverelor cu autoritate
pe domeniul ro. Putem efectua aceast interogare cu ajutorul comenzii dig
@a.root-servers.net www.upb.ro

Exerciiul 5. Interogai toat ierarhia de servere de nume pn obinei IP-ul host-


ului www din domeniul upb.ro. Interogai un server rdcin, apoi un server cu
autoritate pe domeniul ro, apoi un server cu autoritate pe upb.

Exerciiul 6. Introducei comanda: dig www.upb.ro +trace

4.1.2 Cereri inverse

Cererea invers caut un FQDN corespunztor unei adrese de IP. Acest lucru este
posibil cu ajutorul domeniului .arpa (Address and Routing Parameter Area).
Domeniul .arpa este administrat de IANA i destinat exclusiv la gestionarea
infrastructurii Internet. El cuprinde domeniul .in-addr.arpa care mapeaz
adrese de IP la nume de domeniu. Pe lng sufixul .in-addr.arpa, mai pot fi
utilizate nc patru etichete, fiecare reprezetnd un octet al adresei de IP, n ordine
invers fa de progresia gsit n aceasta. De exemplu, adresa de IP 141.85.216.217
este reprezentat 217.216.85.141.in-addr.arpa.

Exerciiul 7. Introducei pe rnd comenzile:


dig @b.root-servers.net x 141.85.216.217,
dig @b.root-servers.net -x 141.85.216.217 +trace i
dig -x 141.85.216.217

4.1.3 Rezolvarea numelor de domeniu la nivelul staiei


client

La nivelul unei staii, rezolvarea numelui de domeniu se bazeaz pe o aplicaie client


inclus n sistemul de operare care recunoate protocolul DNS. Aplicaia se numete
resolver.

Formatul mesajelor transmise ntre aplicaie (User Program) i resolver este specific
sistemului de operare (de exemplu, UNIX gethostbyname).
Mesajele transmise ntre resolver i serverul de nume (Foreign Name Server)
respect un protocol standard (protocolul DNS).

Cache reprezint o memorie care nregistreaz temporar numele de domeniu recent


rezolvate mpreun cu adresele de IP corespunztoare. Memorarea se face pentru
perioada specificat de cmpul TTL (Time To Live) prezent n mesajele DNS.

O cerere de rezolvare a unui nume de domeniu primit de resolver de la o aplicaie


(de exemplu, un browser) va fi tratat astfel:
1. Resolverul ncearc s afle adresa de IP corespunztoare numelui de
domeniu interognd memoria cache local;
2. Dac memoria cache nu conine nregistrarea dorit, resolverul interogheaz
fiierul hosts (n Linux, acesta se afl n directorul /etc. n Windows se
afl n C:\Windows\system32\drivers\etc.);
3. Dac informaia nu exist local, nici n memoria cache i nici n fiierul
hosts, resolver-ul staiei iniiaz procesul de interogare a serverului de
nume specificat de utilizator la momentul configurrii plcii de reea.

Exerciiul 8. Editai fiierul hosts dintr-un sistem de operare Windows. Introducei


linia 194.102.255.23 www.google.ro i salvai. Introducei n
browser http://www.google.ro.

4.1.4 Rezolvarea numelor de domeniu la nivelul


serverului DNS

Fiecare server de nume are autoritate asupra zonei de nume pe care o gestioneaz.
Dac cererea conine un nume aflat n autoritatea sa, rspunde direct. De exemplu,
serverul de nume cu autoritate pe domeniul upb.ro poate rezolva direct
interogrile (queries) cu sufixul upb.ro. Dac nu, dup chestionarea memoriei sale
cache, poate ncerca rezolvarea numelui prin dou motode, n funcie de cum este
configurat: recursiv sau iterativ.

n cazul rezolvrii recursive, serverul de nume interogat parcurge toi paii necesari
rezolvrii cererii i trimite resolver-ului staiei care a iniiat cererea numai rezultatul
final. Urmtorul exemplu prezint paii parcuri de serverul de nume pentru
rezolvarea recursiv a numelui de domeniu www.transport.pub.ro
(rezolvarea o face resolver-ul serverului de nume).
1. Resolverul staiei client trimite o cerere recursiv serverului de nume
configurat de utilizator cu privire la adresa de IP a numelui de domeniu
www.transport.pub.ro. Fiind o cerere recursiv, serverul de nume
este responsabil cu rezolvarea numelui de domeniu.
2. Resolverul serverului DNS verific zonele sale i afl c niciuna nu
corespunde numelui de domeniu solicitat de client.
3. Resolverul serverului DNS interogheaz unul din cele 13 servere DNS
rdcin cu privire la www.transport.pub.ro. Serverul rdcin va
rspunde cu adresele de IP corespunztoare serverelor DNS autoritare pe
domeniul ro;
4. Resolverul serverului DNS interogheaz un server din domeniul ro. Acesta
rspunde cu adresele de IP ale serverelor autoritare pe domeniul pub.
5. Resolverul serverului DNS interogheaz un server din domeniul pub, care
rspunde cu adresele de IP ale serverelor autoritare pe domeniul
transport.
6. Interogat de resolverul serverului DNS, serverul cu autoritate pe zona de
nume transport.pub.ro furnizeaz adresa de IP a hostului www.

n cazul rezolvrii iterative, serverul de nume trimite resolverului staiei care a iniiat
cererea numai adresa urmtorului server care trebuie interogat. Urmtorul exemplu
prezint paii parcuri unei rezolvri iterative pentru www.transport.pub.ro
(rezolvarea o face resolverul staiei client).
1. Resolverul staiei client interogheaz serverul de nume configurat de
utilizator;
2. Serverul de nume interogheaz unul din cele 13 servere rdcin i trimite
rspunsul resolverului staiei client (serverul cu autoritate pe ro);
3. Resolver-ul staiei client trimite interogarea unui server autoritar pe
domeniul ro i primete adresa urmtorului server gsit n ierarhie, pub;
4. Resolverul staiei client interogheaz serverul autoritar pe zona pub i
obine adresa serverului autoritar pe zona transport;
5. etc.

4.1.5 Tipuri de servere DNS

Exist trei tipuri de servere DNS:


Caching-only
Primare
Secundare

Serverele caching-only sunt autoritare numai pe domeniul localhost i


0.0.0.127.in-addr.arpa. Rolul lor este s resolve recursiv cererile primite
de la staiile dintr-o reea i s memoreze n cache cererile rezolvate. Ele sunt servere
de nume care rezolv cereri recursive, dar care nu sunt autoritare pe niciun domeniu.

Serverele primare/secundare sunt servere autoritare pe o anumit zon de nume.


Pentru un domeniu pot exista mai multe servere de nume, dar numai unul dintre ele
va fi server primar (master), celelalte vor fi secundare (slave). Serverul primar poate
terge, aduga sau modifica intrri din zona de nume. Serverele secundare doar
rspund la interogri; toate informaiile din zona de nume sunt preluate de la serverul
primar. La iniializare, un server de nume secundar va ncerca s contacteze serverul
primar, preconfigurat, pentru a obine o copie a fiierului care conine nregistrrile
de domeniu.

4.1.6 nregistrri de resurse

Fiierul cu nregistrri de domeniu se numete i baz de date DNS. O baz de date


DNS conine nregistrri de resurse (Resource Records RR) n format text.
Urmtorul exemplu prezint o nregistrare de tip host prin care numele de domeniu
este tradus n adres de IP.

www.transport.upb.ro. 3600 IN A 141.85.216.237

Primul cmp reprezint numele de domeniu n format complet (ultimul punct este
rdcina). Al doilea cmp este timpul de via n secunde pentru care clientul poate
memora n cache aceast nregistrare. IN reprezint clasa nregistrrii i semnific
Internet. A reprezint tipul nregistrrii. La sfrit se afl adresa de IP
corespunztoare numelui.

Principalele tipuri de nregistrri DNS:


SOA (Start of Authority) - specific parametrii specifici pentru aceast zon
(numele serverului DNS autoritar/primar pentru zon, adresa de email a
administratorului de sistem, etc.).
A (Address) - adresa de IP a staiei.
NS (Name Server) - server de nume: definete serverul autoritar pentru zona
specificat.
CNAME (Canonical Name) - nume canonic: creeaz un alias pentru o staie
care are deja o nregistrare.
MX (Mail eXchange) - server de mail: specific serverul de email pentru
domeniul specificat.
PTR (Pointer) - numele corespunztor unei adrese de IP (nregistrri regsite
n fiierul de interogare invers).
TXT (Text ASCII) - orice informaie util despre entitate.
SRV (SerVeR) - mapeaz servicii la nume de domeniu.

nregistrare de tip SOA

Fiecare fiier de zon ncepe cu o nregistrare SOA.

upb.ro. IN SOA ns.upb.ro. admin.upb.ro. (


2016032508 ; serial
86400 ; refresh (1 day)
10800 ; retry (3 hours)
1209600 ; expire (2 weeks)
86400 ; min TTL (1 day)
)

Informaiile descrise de nregistrarea SOA dat ca exemplu sunt prezentate n tabel:

Descriere
upb.ro. Numele de domeniu. Numele de domeniu poate fi declarat
explicit, cum este n acest exemplu, sau poate fi reprezentat
prin semnul @.
ns.upb.ro. Numele serverului primar cu autoritate asupra zonei.
admin.upb.ro. Adresa de email a persoanei responsabile cu administrarea
domeniului. Simbolul rezervat @ (vezi mai sus) se
nlocuiete cu punct.
2016032508 Serialul curent pentru domeniu. Aceast valoare este
verificat de serverele secundare de nume ca s determine
dac a fost adus vreo modificare fa de versiunea deinut
de acestea. Valoarea se bazeaz de obicei pe data la care a
fost efectuat modificarea. De exemplu, n aceast caz,
serialul are forma AAAALLZZVV, unde AAAA
reprezint anul, LL, luna, ZZ, ziua i VV, a cta modificare
pe ziua respectiv. Dup fiecare modificare a zonei,
administratorul trebuie s incrementeze acest serial, astfel
nct modificrile s poat fi detectate de serverele
secundare.
86400 Perioada, n secunde, la care serverul secundar
interogheaz serverul primar. La expirarea acestui timp,
serverul secundar cere de la serverul primar o copie a
nregistrrii SOA i compar serialul acesteia cu serialul
propriei nregistrri SOA. Dac cele dou seriale difer,
serverul secundar va realiza un transfer de zon de la
serverul primar. Valoarea implicit este 3600 (1 or).
10800 Timpul, n secunde, pe care l ateapt un server de nume
secundar nainte de a rencerca un transfer de zon dup o
ncercare ratat. Valoarea implicit este 600 (10 minute).
1209600 Timpul, n secunde, n care serverul de nume secundar va
tot ncerca s finalizeze un transfer de zon. Dac acest
timp expir nainte de un transfer de zon reuit, serverul
secundar consider ca a expirat i fiierul de zon pe care l
deine. Acest lucru nseamn c serverul secundar
nceteaz s mai rspund la interogri, deoarece consider
c fiierul este prea vechi ca datele s mai fie de actualitate.
Valoarea implicit este 86400 (o zi).
86400 Valoarea TTL (Time-To-Live) minim pentru toate
nregistrrile din fiierul de zon. Aceast valoare este
inclus n rspunsurile date la interogri i informeaz
celelalte servere pentru ct timp s rein datele n cache.
Valoarea implicit este 3600.

nregistrrile SOA pot fi interogate folosind dig. Comanda dig -t soa pub.ro
cere nregistrarea SOA a domeniului pub.ro.

nregistrare de tip NS

O nregistrare de tip NS deleag un subdomeniu unuia sau mai multor servere de


nume. n urmtorul exemplu, zona cs.pub.ro este delegat serverelor
ns1.pub.ro i ns2.pub.ro. Numele de domeniu complet poate lipsi deoarece
nregistrrile fac parte din fiierul de zon pentru pub.ro.

$ORIGIN pub.ro.
cs NS ns1.cs
NS ns2.cs
ns1.cs A 141.85.226.5
ns2.cs A 141.85.241.113

nregistrare de tip MX

O nregistrare de tip MX specific serverul de email responsabil cu primirea


mailurilor pe domeniul respectiv. n exemplu, serverul de email corespunztor
domeniului tet.pub.ro este mail.tet.pub.ro.

$ORIGIN pub.ro.
mail.tet A 141.85.200.5
tet MX 5 mail.tet

Valoarea 5 prioritizeaz livrarea mailurilor ctre un anumit server atunci cnd un


domeniu folosete mai multe servere de email. De exemplu, urmtorul domeniu
folosete GMail sau Google Apps pentru gestionarea emailurilor.

$ORIGIN pub.ro.
tpc IN MX 1 aspmx.l.google.com.
IN MX 5 alt1.aspmx.l.google.com.
IN MX 5 alt2.aspmx.l.google.com.
IN MX 10 alt3.aspmx.l.google.com.
IN MX 10 alt4.aspmx.l.google.com.
Observai c atunci cnd specificm numele de domeniu complet calificat trecem
punctul de la final.

nregistrare de tip TXT

nregistrrile TXT specific informaii n format text folosite de anume mecanisme


de protecie antispam sau alte aplicaii. Urmtorul exemplu arat c domeniul
tet.pub.ro folosete Google Apps i c domeniul a fost verificat printr-un ir de
68 de caractere care ncepe cu google-site-verification=.

$ORIGIN pub.ro.
tet MX 5 aspmx.l.google.com.
TXT google-site-verification=P5VzDT8rLbli0XAq
zmBOp7M1XoRbJErBvVOXZDMI7Kc

nregistrare de tip CNAME

O nregistrare de nume canonic (CNAME - Canonical Name) specific faptul c


numele de domeniu este aliasul unui alt nume de domeniu, numele canonic. Toate
informaiile, inclusiv subdomeniile, adresele de IP, etc., sunt definite de domeniul
canonic. n urmtorul exemplu, www.eaii este un alias pentru numele
vala.elia.pub.ro.

$ORIGIN pub.ro.
www.eaii CNAME vala.elia.pub.ro.

nregistrare de tip SRV

nregistrrile de tip SRV identific un serviciu prin specificarea protocolului, host-


ului i portului pe care ruleaz. De obicei indic locaia serverelor SIP din
configuraiile VoIP dar pot fi folosite de orice tip de serviciu. Urmtorul exemplu
prezint o configuraie SIP.

_sip._tls.tet.pub.ro. IN SRV 100 1 443 sipdir.on


line.lync.com.

_sipfederationstls._tcp.tet.pub.ro. IN SRV 100 1


5061 sipfed.online.lync.com.

Prima nregistrare, _sip._tls.tet.pub.ro., reprezint numele serviciului,


_sip, numele protocolului, _tls, i numele de domeniu. n acest caz, seviciul SIP
folosete protocolul TLS. Valoarea 100 reprezint prioritatea serviciului; dac sunt
mai multe servicii aceast valoare indic care trebuie ncercat mai nti. Valoarea 1
reprezint ponderea (weight) serviciului; cnd dou servicii au aceeai prioritate
aceast valoare indic pe cel preferat. 443 este portul pe care ascult serviciul. La
final este numele de domeniu al serverului care pune la dispoziie serviciul.

nregistrare de tip PTR

O nregistrare PTR poate fi gndit ca inversul unei nregistrri A. n timp ce o


nregistrare A mapeaz numele de domeniu la o adres de IP, nregistrarea PTR
mapeaz adresa de IP la numele de domeniu. nregistrrile PTR sunt folosite pentru
cererile de rezolvarea invers.
MODULUL III

STOCAREA DATELOR N
REEA
5 Dispozitive de stocare persistent
accesate prin reea

n funcie de poziia reelei, exist trei tipuri de conectare a dispozitivelor de stocare


la main (calculator): DAS, NAS i SAN.

5.1 DAS (Direct Attached Storage)

Aa cum spune i acronimul, DAS se refer la dispozitivele de stocare ataate direct


la main. De exemplu, conexiunea SATA la un disc intern sau la o unitate de discuri
extern, un disc extern accesat prin conexiune USB, etc..

Un handicap al metodei tradiionale DAS l reprezint cuplarea strns ntre unitatea


de stocare i sistemul de operare. Un server de uz general realizeaz concurent o
varietate de sarcini, de la rularea aplicaiilor, manipularea i verificarea integritii
bazelor de date, deservirea fiierelor / imprimantelor, efectuarea de comunicaii n
reea, pn la multe alte funcii de monitorizare i funcionalitate obinuit. Acest
lucru nseamn c toate cererile de citire / scriere primite de la un client trebuie s
concureze continuu cu sarcinile din fundal. Odat cu creterea numrului de sarcini,
accesul la fiiere are o prioritate din ce n ce mai mic, rezultnd timpi mari de
rspuns.

Un alt neajuns impus de arhitectura DAS l reprezint distana limitat ntre server
i unitatea de discuri (JBOD Just a Bunch Of Disks). De exemplu, n cazul unor
conexiuni SAS, distana este de civa metri (aproximativ 8), dar la SATA este de
maxim 1 metru.

5.2 NAS (Network Attached Storage)

Comparativ cu DAS, NAS este un server de fiiere dedicat i optimizat pentru o


singur funcie - furnizarea de fiiere. NAS este un sistem independent, cu spaiu de
stocare partajat, conectat direct la reea i accesibil direct de orice numr de clieni
eterogeni.

Cele mai cunoscute servicii de partajare a unui spaiu de stocare n reea sunt Unix
NFS (Network File System) i Windows SMB (Server Message Block).

O problem a arhitecturii NAS este aceea c, adesea, reeaua pe care ruleaz serverul
NAS este folosit simultan nu numai pentru accesul datelor ci i pentru comunicaia
cu serverele de aplicaii, accesul la Internet, etc.. Cnd numrul de utilizatori este
considerabil, acest lucru creeaz o trangulare la nivelul reelei.

NAS se preteaz pentru partajarea documentelor, manipularea de fiiere i deservirea


unor aplicaii bazate pe tranzacii dar, deoarece este orientat pe transferul de fiiere,
nu este indicat pentru stocarea unor baze de date.
5.2.1 SMB

SMB este un protocol de partajare a fiierelor n reea inventat de IBM pe la mijlocul


anilor 1980. SMB permite calculatoarelor s citeasc i s scrie fiiere aflate pe un
alt calculator din reeaua local. Directoarele disponibile prin SMB aflate pe
calculatorul din reea se numesc shares. CIFS (Common Internet File System) este
un dialect al SMB, adic o implementare particular a protocolului SMB creat de
Microsoft. Majoritatea utilizatorilor folosesc noiunile interschimbabil, dar n
prezent ar trebui folosit ntotdeauna acronimul SMB. Din dou motive:
1. Implementarea CIFS a SMB este folosit rar, i asta din motive istorice sau
de pstrare a compatibilitii. CIFS a fcut parte din Microsoft Windows NT
4.0 n 1996, iar Windows NT nu mai are suport de la Microsoft, aadar CIFS
nu mai este actual nc din 2000. Totodat, majoritatea sistemelor moderne
de stocare NAS nu mai folosesc CIFS chiar dac specific acest lucru. n
substrat folosesc SMB 2 sau SMB 3. n universul Windows, SMB 2.1 este
versiunea standard pentru Windows 7 i Windows Server 2008 R2 i SMB
3.02 pentru Windows 8.1 i Windows Server 2012 R2. Aceste ultime
variante au introdus chiar posibilitatea dezactivrii complete a suportului
CIFS i SMB1, inclusiv posibilitatea dezinstalrii binarelor cu privire la ele.
Aceast opiune este recomandat mai ales n scenariile n care nu este util,
cum ar fi Hyper-V peste SMB.
2. CIFS are conotaii negative printre specialiti. SMB 2 i SMB 3 reprezint
mbuntiri masive la dialectul CIFS i acetia nu apreciaz folosirea unui
termen impropriu.

Samba este o implementare a SMB scris pentru Unix. Samba permite clienilor
Windows s acceseze directoare i fiiere Unix prin protocolul SMB, ca i cum
acetia ar comunica cu un server Windows. n prezent, Samba ruleaz pe o
diversitate de platforme i face parte din majoritatea distribuiilor de Linux. Samba
3 implementeaz versiunea SMB 2.1 iar Samba 4 SMB 3.

5.2.2 NFS (Network File System)


5.3 Lab 5.A: Configurarea NFS n sistemele Linux

https://www.youtube.com/watch?v=tlyxAxk6shI

5.4 Lab 5.B: Configurarea SMB n sistemele


Linux (Samba)

https://www.youtube.com/watch?v=4Ml29lCVj48

5.5 Lab 5.B: configurarea SMB n sistemele


Windows Server (File Server)

5.6 Lab 5.C: Configurarea NFS n sistemele


Windows Server

https://www.youtube.com/watch?v=Zzh4cQDHtaY&index=42&list=PLUZTRmX
EpBy06eKXAAkirop9xgT_iMnq7

5.7 SAN (Storage Area Network)

SAN este o reea de nalt performan dedicat pentru transfer de date ntre servere
i dispozitive de stocare. Fiind o reea separat de reeaua standard, se evit orice
conflict ntre diferitele tipuri de trafic. Cele mai cunoscute protocoale SAN sunt FC
(Fibre Channel), iSCSI (Internet SCSI) i FCoE (Fibre Channel over Ethernet).
5.8 FC (Fibre Channel)

Exist dou metode principale de comunicaie ntre noduri (orice ar reprezenta


acestea: dispozitive, servere, etc..): canale i reele. Un canal (channel) reprezint o
conexiune direct sau punct-la-punct ntre nodurile care comunic. De obicei, un
canal consum mai multe resurse hardware dar transport date la vitez mare i cu
laten mic. n contrast, o reea este un conglomerat de noduri distribuite (cum ar fi
staii de lucru, servere de fiiere sau periferice), fiecare cu propriul protocol, care pot
interaciona unele cu altele. O reea are o laten relativ mare deoarece se bazeaz pe
mecanisme software. n consecin, o reea este un mediu de comunicaie mai lent
dect un canal, dar poate satisface o gam mai larg de servicii deoarece acestea
opereaz ntr-un mediu care nu folosete conexiuni predefinite. n schimb, canalele
opereaz cu un numr redus de dispozitive cu adrese predefinite. FC ncearc s ia
ce e mai bun din aceste dou metode de comunicaie i adreseaz nevoia de transfer
a unor cantiti mari de informaie. FC este un termen general care descrie un set de
standarde dezvoltate de ANSI (American National Standards Institute).

Dei se numete Fibre Channel, arhitectura sa nu seamn cu un canal. Mai degrab


seamn cu o reea. Dar este o legtur punct-la-punct de nalt performan care
folosete propriul su protocol (FCP).

5.8.1 Topologia FC

Figura urmtoare prezint o topologie FC simpl, cu un server conectat la un


dispozitiv de stocare printr-un switch de fibr.

n terminologie FC, switch-ul care conecteaz dispozitivele se numete Fabric. O


legtur const din dou fibre unidirecionale care transmit n direcii opuse,
mpreun cu transmitorul i receptorul asociat. Fiecare fibr este ataat la
transmitorul unui port, la un capt, i la receptorul portului din cellalt capt. Cnd
n configuraie este prezent un fabric, fibra este ataat la portul unui nod i la portul
unui fabric.
Deoarece FC se bazeaz pe conexiuni port - port sau port - fabric, nu conteaz dac
Fabric este un switch, un hub activ sau o bucl. Topologia poate fi selectat n funcie
de performana necesar. Topologiile FC posibile includ conexiunea punct-la-punct,
fabric central sau bucla arbitrat.

Terminologie

Nodul este un punct final care conine informaie. Poate fi un calculator (staie), un
controler de dispozitiv sau un periferic (cum ar fi un disc). Nodurile i porturile au o
adres unic de 64 de bii folosit la identificarea lor n topologia FC. Aceste adrese
sunt atribuite de productor i conin o parte specific acestuia definit de IEEE.
Aceste adrese (n standardul FC) sunt numite Node_Names i Port_Names, iar cnd
sunt unice la nivel mondial, sunt numite WWNN (World-Wide Node Name),
respectiv WWPN (World Wide Port Name).

Fiecare nod are cel puin un port (o interfa hardware) care l conecteaz la topologia
FC. Portul unui nod se numete N_Port. Fiecare N_Port are un un nume de port (Port
Name). Numele portului este un identificator unic de 64 de bii atribuit de
productor. N_Port -ul este utilizat ca punct de acces la resursele nodului. Alte tipuri
de porturi sunt:
NL_Port (Node Loop Port) - este un N_Port cu funcionalitate de a lucra n
configuraii de tip bucl.
E_Port - port de extensie (Expansion Port), folosit la interconectarea switch-
urilor;
F_Port (Fabric Port) - folosit la conectarea unui N_Port la un fabric;
FL_Port (Fabric Loop Port) - folosit la conectarea unui NL_Port la un switch
ntr-o configuraie de tip bucl;
G_Port (Generic Port) - port care nu are niciun rol n Fabric.
L_Port (Loop Port) - port dintr-o topologie FC-AL (Fibre Channel Arbitratet
Loop);
5.8.2 Controlul accesului

Controlul accesului se refer la abilitatea FC de a controla accesul la noduri i/sau


dispozitive. Controlul accesului este o funcie a switch-urilor (Fabric) i
controlerelor (de exemplu HBA-urile). Pentru switch-uri funcia se numete zonare
(zoning), iar pentru controlere, mascarea LUN-urilor (LUN masking). De exemplu,
zonarea i i mascarea LUN-urilor pot preveni accesul serverelor la spaii de stocare
nepermise.

Mascarea LUN-urilor
Un LUN reprezint o parte a spaiului de stocare. Prin intermediul LUN-urilor, un
spaiu de stocare dintr-un nod poate fi mprit logic n uniti independente (partiii).
Accesul la LUN-uri poate fi restricionat n funcie de WWPN-uri (n sensul c un
LUN poate fi accesat numai printr-unul sau mai multe WWPN-uri). Aceast metod
se numete mascarea LUN-urilor. Figura urmtoare d un exemplu de mascare. n
exemplu, numai primului server, Server1 (WWPN1), i este permis s acceseze
LUN1. LUN2 poate fi accesat de Server1 i Server2 (WWPN2), iar LUN3 poate fi
accesat numai de Server3 (WWPN3).

Zonarea

Segmentarea unei infrastructuri FC care folosete switch-uri (switched fabric9) se


realizeaz la nivelul switch-urilor prin zonare. Zonarea permite partiionarea n zone
de acces, n fiecare zon pot comunica numai membrii care fac parte din aceasta.
Toi cei care nu fac parte din zon sunt refuzai. Zonarea poate fi implementat hard
sau soft:
Zonarea hard (hard zoning) se bazeaz pe numrul portului fizic. Un numr
de port poate aparine mai multor zone.
Zonarea soft (soft zoning) este definit n switch, folosind WWN-uri. De
asemenea, WWN-ul poate aparine mai multor zone.

9
Infrastructur FC comutat
Figura urmtoare ilustreaz un exemplu de zonare. n acest exemplu, membrii
grupului 1 sunt Server1 i Target4, Target5, Target6. Membrii grupului 2 sunt
Server2 i Target5. Aadar, Server2 nu poate comunica cu Target4 i Target6.
Membrii grupului 3 sunt Server3 i Target6. Aadar, Server4 nu poate comunica cu
Target4 i Target5.

5.8.3 Arhitectura FC

FC opereaz la o mare varietate de viteze (2 Gb/s, 4 Gb/s, 8 Gb/s, 16 Gb/s) i pe trei


tipuri de cabluri electrice i optice. Distanele de transmisie variaz n funcie de
combinaia dintre vitez i mediul de transmisie. Soluia cea mai performant
folosete fibra optic single-mode i surs de lumin laser.

n topologiile cu Fabric, adresa (identificatorul de nod) este compus din trei pri:
domeniu (8 bii), zon (8 bii) i port (8 bii).
Din punct de vedere arhitectural, FC este structurat ca un set de funcii ierarhice.

FC-0 definete legtura fizic, incluznd fibr, conectori, parametrii electrici i


optici pentru o varietate de rate de transfer.

FC-1 definete protocolul de transmisie, incluznd regulile de codare i decodare


serial, ordinea de transmisie a cuvintelor, caractere speciale i controlul erorilor (de
exemplu codarea 8b/10b). Acest nivel este prezent n standardul FC-PH.

FC-2 definete protocolul de semnalizare i formare a cadrelor; servete ca


mecanism de transport pentru FC. Aici sunt definite regulile de ncapsulare a
cadrului de date, diferitele mecanisme de control a claselor de serviciu i mijloacele
de gestionare a transferului de date. i acest nivel este n FC-PH.

FC-3 nu are nc definit un standard, dar descrie funcionaliti avansate cum ar fi:
Striping - gruparea mai multor N_Port-uri n paralel pentru a crete
capacitatea legturii;
Hunt groups - posibilitatea ca mai mult de un singur port s rspund la
aceeai adres / alias;
Multicast - livreaz o singur transmisie la mai multe porturi destinaie.
Acest mod lucru poate transmite un pachet recepionat la toate N_Port-urile
din Fabric (broadcast) sau numai la un subset de N_Port-uri din Fabric
(multicast).

FC-4 definete maparea ntre nivelurile inferioare ale FC i setul de comenzi care
folosete FC. Specific regulile de mapare a protocoalelor la nivelurile FC de mai
jos. FC se poate comporta att ca o reea ct i ca un canal virtual i permite ambelor
tipuri de protocol s fie transportate concurent de-a lungul aceleiai conexiuni fizice.
SCSI
IPI (Intelligent Peripheral Interface)
HIPPI (High Performance Parallel Interface Framing Protocol)
IP (Internet Protocol)
AAL5 (ATM Adaptation Layer 5 for computer data)

De exemplu, SCSI va pstra setul su de comenzi i o mare parte din driverii de


dispozitiv, dar n loc s foloseasc cablurile tradiionale de 50 sau 68 de fire,
conectorii i controlerele SCSI, nivelurile inferioare vor fi gestionate de FC.

Driverul HBA, n loc s comunice cu circuitul SCSI al magistralei paralele, va


asambla pachetele SCSI i le va direciona nivelului FC-4 din driverul FC. Similar,
la cellalt capt al legturii FC, modulul de recepie FC-4 va direciona pachetele
recepionate driverului de periferic. Implementarea FC pentru SCSI are dou
versiuni: Fibre Channel Protocol (FCP) i Generic Packetized Protocol (GPP). FCP
menine natura half-duplex a SCSI paralel din cadrul unei sarcini. FCP a fost selectat
de grupul de iniiativ Fibre Channel Systems (FCSI) ca principala lor implementare
a SCSI peste Fibre Channel. GPP folosete un model full-duplex pentru a opera
eficient pe distane lungi. Are funcionaliti opionale care permit folosirea a mai
mult de o pereche de porturi n transferul informaiei i un mod automat de comutare
a conexiunii, dac una din aceste perechi devine inoperabil.

5.9 iSCSI

iSCSI (Internet SCSI) este un protocol care ncapsuleaz comenzi SCSI n pachete
Ethernet (TCP/IP). Ca i FCP (Fibre Channel Protocol), este un protocol care
folosete comenzi SCSI, dar n loc s le transmit printr-o infrastructur costisitoare
FC, utilizeaz reeaua Ethernet obinuit. Astfel, o companie are posibilitatea ca, n
loc s cumpere switch-uri costisitoare Brocade i HBA-uri de FC la fel de
costisitoare, s foloseasc switch-uri i plci de reea Ethernet. iSCSI poate transmite
date n reele locale (LAN), n WAN sau chiar prin Internet. Deoarece protocolul
SCSI folosete intens procesorul n timpul transferurilor ridicate de I/O, au fost
inventate HBA-uri iSCSI. HBA-urile iSCSI sunt asemntoare HBA-urilor FC,
numai c n loc de conexiuni FC, sunt folosite conexiuni Ethernet. Avantajul
utilizrii HBA-urilor iSCSI este c cererile SCSI sunt gestionate de ASIC-ul prezent

pe HBA i nu mai ajung la procesor. Totui hardware-ul specializat, HBA-uri iSCSI


i chiar switch-uri de reea, este opional.

iSCSI pstreaz arhitectura de tip client-server a SCSI. Un client (de exemplu, o


staie de lucru) este un iniiator, adic iniiaz cereri. Un server (de exemplu, un
dispozitiv de stocare) este o int, stocheaz datele i rspunde la cererile
iniiatorului. Iniiatorii sunt de dou feluri: software i hardware. Un iniiator
software este un driver care administreaz cererile i leag driverul de interfeelor de
reea de driverele SCSI. Folosind un iniiator software, orice sistem dotat cu plac
de reea poate aciona ca iniiator. Un iniiator hardware este reprezentat de un HBA
iSCSI, de fapt, doar o plac de reea echipat cu un ASIC SCSI care elibereaz
procesorul de sarcinile procesrii cererilor SCSI.

Este important s nelegem c, spre deosebire de protocoalele NAS, iSCSI mapeaz


n reea dispozitive bloc. n sensul c acestea pot fi efectiv montate de sistemele
client i folosite ca orice alt dispozitiv bloc (hard disk). Ca s foloseti un dispozitiv
iSCSI, acesta trebuie partiionat, etichetat i formatat cu un sistem de fiiere,
asemenea unui disc obinuit. Spre deosebire de NAS, kernelul poate citi i scrie
dispozitivul iSCSI ca i cum ar fi un disc local. De asemenea, deoarece este tratat ca
dispozitiv bloc, numai un singur sistem poate folosi dispozitivul iSCSI la un moment
dat (acest lucru se schimb dac este formatat cu un sistem de fiiere ce permite
accesul global sau este limitat la drepturi de citire).
Toate dispozitivele dintr-un sistem iSCSI au adrese, inclusiv iniiatorii i intele.
Fiecare adres trebuie s fie unic. Atunci cnd este creat o int, administratorul
poate specifica el nsui adresa. Pentru un iniiator, de obicei adresa este deja
definit. iSCSI folosete adrese de forma urmtoare:

Exist dou tipuri de adrese, iqn (iSCSI Qualified Name) i eui (formatul IEEE EUI-
64). n continuare prezentm formatul iqn, deoarece este cel mai folosit. Cmpul de
dat reprezint luna la care autoritile n drept au nregistrat numele de domeniu.
Cmpul Naming Auth reprezint numele de domeniu pentru int, inversat. Numele
de domeniu este urmat de dou puncte, dup care poate urma orice descriere care
ajut utilizatorul s identifice mai repede resursa. n exemplul de mai sus, pentru a
doua nregistrare, acest ultim cmp este lsat complet liber. Prima i a treia
nregistrare ilustreaz diferite convenii de compunere a numelui n vederea
descrierii tipului de resurs. Teoretic, iqn-urile sunt compuse astfel nct s poat fi
transformate n adrese de IP. Dar aproape ntotdeauna se folosete direct adresa de
IP a intei i atunci numele de domeniu din cadrul iqn nu prezint mare importan.

Ali termeni ntlnii n iSCSI sunt cei de portal i descoperire. Un portal iSCSI
reprezint adresa de IP i portul TCP prin care poate fi accesat o int. Dac portul
nu este specificat, este folosit cel implicit, 3260. Descoperirea sau auto-descoperirea
reprezint procesul prin care un iniiator interogheaz un portal n vederea aflrii
intelor sale. De cele mai multe ori, folosirea procesului de descoperire asupra unui
portal reprezint cea mai facil metod de conectare. Dei, alternativ, este posibil ca
portalul i inta s fie specificate direct. Pe lng interogarea unui portal, pentru
descoperirea intelor se poate folosi i iSNS (Internet Storage Name Service). iSNS
este echivalentul sistemului DNS pentru dispozitivele de stocare n reea.
Pentru toleran la defeciuni, o resurs iSCSI poate fi accesat prin mai multe ci
(multi-pathing). ntr-un astfel de caz, un dispozitiv de stocare int este accesat prin
dou sau mai multe portaluri (sau specificat ca atare n zona iSNS).
iSCSI permite accesul dispozitivelor de stocare prin reea. n consecin, este
important ca transferul n reea s fie protejat. Deoarece iSCSI folosete
infrastructura de reea existent, este supus acelorai riscuri ca i traficul de reea
obinuit. iSCSI recunoate un set important de metode de protecie, incluznd liste
de control al accesului (ACL), protocolul IPsec, i autentificarea CHAP. Totui cea
mai important msur de securitate este segregarea traficului iSCSI de traficul de
reea (). Aceast segregarea se poate face fizic, prin folosirea unei reele Ethernet
dedicate pentru iSCSI, sau logic, prin folosirea reelelor virtuale private (VLAN) i
liste de control al accesului la nivel de reea.

Autentificarea cu CHAP recunoate dou configuraii posibile: autentificarea CHAP


ntr-o singur direcie (one-way CHAP) i autentificarea CHAP mutual (mutual
CHAP authentication). n autentificarea CHAP ntr-o singur direcie inta iSCSI
autentific iniiatorul. n autentificarea CHAP mutual, inta i iniiatorul se
autentific una pe alta folosind parole (secrets) separate pentru fiecare direcie a
conexiunii.

5.10 Lab 5.E: Configurarea iSCSI n sistemele


Linux

https://www.youtube.com/watch?v=5nOChGNX91A

5.11 Lab 5.F: configurarea iSCSI n sistemele


Windows Server

Book: Hyper-V for Vmware Administrators Brien Posey.pdf

https://www.youtube.com/watch?v=FFTAAXsq57I

https://www.youtube.com/watch?v=1QWasRLaA-Y
MODULUL IV

MANAGEMENTUL
IDENTITII N REEA
6 Windows Active Directory
MODULUL V

VIRTUALIZAREA
7 Introducere n virtualizare

7.1 Servicii de Cloud

Cloud computing reprezint un model de furnizare de servicii care export o


infrastructur de calcul, o platform de dezvoltare a aplicaiilor i/sau o aplicaie ca
serviciu accesat de utilizator. Acest lucru nseamn c utilizatorul nu trebuie s
achiziioneze propriul hardware, platform de dezvoltare sau aplicaie, deoarece le
poate accesa ca resurse puse la dispoziie de un furnizor de soluii cloud. n acest fel,
costurile de achiziie, administrare i ntreinere a resurselor hardware i software
necesare utilizatorului final se reduc: pltete numai pentru ce are nevoie, ct are
nevoie i ct timp are nevoie. Soluiile de cloud ofer costuri reduse, implementare
rapid, scalabilitate ridicat, costuri reduse de mentenan i redundan
mbuntit. n funcie de ceea ce este exportat ca serviciu, serviciile de cloud se
mpart n trei categorii:
Infrastructura ca serviciu (IaaS Infrastructure as a Service).
Platforma ca serviciu (PaaS Platform as a Service)10.
Aplicaia ca serviciu (SaaS Software as a Service).

n cazul IaaS, furnizorul de cloud pune la dispoziia clientului servere fizice sau
virtuale configurate, att din punct de vedere hardware (numr de procesoare,
capacitate memorie, spaiu de stocare, etc.) ct i software (tip de sistem de operare,
aplicaii software), n funcie de nevoile acestuia. Deoarece furnizorul de soluii
cloud administreaz resursele fizice, clientul nu investete n hardware. Pe lng
servere, pot fi oferite i alte resurse, cum ar fi elemente de stocare sau reea. Clientul
nu are acces la infrastructura cloud, ci doar la resursele de procesare, stocare i reea
cerute. Acestea din urm pot fi ajustate la cerere, n funcie de necesiti, fcnd din
IaaS un model la cerere (on-demand) foarte flexibil (resursele sunt disponibile
atunci cnd este nevoie de ele, fr ntrzieri de livrare/implementare). Clientul
acceseaz infrastructura pentru care a pltit printr-o interfa de tip portal online.

n cazul PaaS, furnizorul de servicii pune la dispoziia clientului o platform de


dezvoltare/gzduire a aplicaiilor n care le este permis s ruleze, dezvolte sau
administreze aplicaii (de exemplu aplicaii Web) fr a fi nevoie s achiziioneze
sau s ntrein o infrastructur. Platforma este aleas de client n funcie de necesiti
i are control deplin asupra utilitarelor acesteia. Acest lucru permite clientului s

10
A se nelege platforme de dezvoltare software, cum ar fi platforma ce ne permite s
dezvoltm aplicaii n Java, PHP, etc...
creeze, testeze, ncarce o aplicaie folosind uneltele oferite de furnizor. Pe lng
aceasta, un furnizor de servicii PaaS poate include i gzduirea, managementul bazei
de date, operaiunile de securitate, monitorizare, ntreinere a serviciilor. PaaS ofer
infrastructura i software-ul necesar pentru crearea, testarea i utilizarea unei
aplicaii pe baza unei sume pltite de utilizator.

SaaS semnific accesul clientului la un software aflat pe serverele furnizorului pe


baza unei cotizaii. Prin SaaS se nelege c utilizatorul nchiriaz un software de la
furnizor, nu l cumpr. Pe lng acest beneficiu, clientul nu trebuie s plteasc
pentru hardware i mentenan. Alt avantaj este c aplicaia este disponibil de
oriunde prin Internet i nu este limitat la un singur dispozitiv sau tip de platform.

7.2 Virtualizarea

Virtualizarea este tehnologia din spatele tuturor acestor platforme de cloud. n mod
tradiional, sistemele de operare sunt instalate pe servere fizice iar aplicaiile ruleaz
n cadrul acestora. Dar odat ce numrul de servere fizice crete, centrele de date
trebuie s adreseze cteva probleme legate de organizare i cost de ntreinere (spaiu
limitat, numr de rack-uri, alimentare cu energie, sistem de rcire, cablare,
suplimentarea serverelor). Faptul c aplicaia este legat direct de hardware-ul pe
care ruleaz duce la o utilizare ineficient a acestuia din urm. Statistic, majoritatea
serverelor sunt folosite n procent de aproximativ 10% din capacitatea disponibil.
De asemenea, adugarea unor servere noi este un proces mare consumator de timp.
Timpul consumat de procurarea hardware-ului, instalarea acestuia n centrul de date,
instalarea sistemului de operare, actualizarea sistemului de operare, instalarea i
configurarea aplicaiilor necesare poate fi de ordinul a zeci de zile. Alte aciuni
suplimentare care pot aprea, de asemenea consumatoare de timp, sunt cele de
reconfigurare a regulilor de firewall, switch-urilor i dispozitivelor de stocare
accesate prin reea.

Virtualizarea este tehnologia care decupleaz hardware-ul fizic de sistemul de


operare i ascunde platforma hardware ntr-un mod care permite utilizarea i
partajarea acesteia ntre mai multe sisteme de operare. Fiecare instan a unui sistem
de operare gzduit se numete main virtual, deoarece pentru aceste sisteme de
operare, hardware-ul pare ca fiind dedicat lor, dar nu este. Fiecare main virtual
conine propriul hardware virtual (procesor, memorie, disc, plac de reea). Mainile
virtuale sunt 100% software, dar sistemul de operare crede c ruleaz pe un hardware
real. Legtura mainii virtuale cu platforma fizic este realizat de un mic program,
numit hipervizor (hypervisor) sau VMM (Virtual Machine Monitor). Hipervizorul
multiplexeaz dinamic resursele hardware astfel nct sistemele de operare s
perceap hardware-ul virtual ca fiind unul real.

Hipervizorul pune la dispoziia sistemelor de operare gzduite (mainile virtuale)


dispozitivele necesare operrii lor dar, totodat, permite mainilor virtuale s nu fie
strns legate de hardware-ul fizic. De exemplu, o main virtual poate migra de pe
un server fizic pe altul sau discul virtual poate fi mutat de pe un spaiu de stocare pe
altul fr a fi afectat funcionarea mainii virtuale. Prin acest tip de operaiuni,
virtualizarea permite alocarea resurselor ntr-un mod optim i flexibil. Prin folosirea
virtualizrii sau, altfel spus, prin reducerea numrului de maini fizice, trecerea la un
centru de date virtualizat reduce necesarul de spaiu, rack-uri, alimentare, rcire,
cablare, spaiu de stocare i conectare la reea. Reducerea numrului de maini fizice
are loc prin convertirea mainilor fizice n maini virtuale i rularea mai multor
sisteme de operare pe un singur host. Virtualizarea faciliteaz i adugarea unor
servere noi. Nu se mai consum timp cu procurarea, instalarea, configurarea
harware-ului sau ntinderea cablurilor de alimentare sau reea. Crearea mainii
virtuale se rezum la cteva click-uri date ntr-o interfa grafic, proces de ordinul
a ctorva minute.

Virtualizarea a permis apariia modelelor de cloud discutate anterior i n cel mai


nalt grad apariia modelului IaaS. Acum nelegem mai bine noiunea de IaaS. Un
furnizor de IaaS deine i administreaz serverele fizice care ruleaz software-ul de
virtualizare. Utilizatorul configureaz prin intermediul portalului online o main
virtual preciznd caracteristicile hardware (procesor, memorie, discuri, reea) i
software (sistem de operare, aplicaii).
7.2.1 Avantajele mainilor virtuale

Modul tradiional de furnizare de servicii se bazeaz pe existena unei infrastructuri


hardware. Una sau mai multe aplicaii client-server ruleaz ntr-un sistem de operare
instalat direct peste un hardware fizic. Punerea n funciune, ntreinerea, mutarea,
migrarea sau recuperarea dup accident (ntreruperea cu energie electric, defectarea
instalaiei de climatizare, infiltrarea apei pluviale, incendiu n centrul de date, etc.) a
unui server fizic poate fi o sarcin dificil i mare consumatoare de timp. Pe lng
acestea, sarcinile obinuite de administrare a serverele fizice (creterea puterii de
procesare, creterea capacitii de memorare / stocare, remedierea unei defeciuni
hardware sau software) necesit prezena fizic a unui administrator de sistem.
Soluiile de backup i recuperare a ntregului sistem difer major ntre diverse
sisteme de operare i de cele mai multe ori nu sunt posibile n timpul funcionrii
acestuia. Scalabilitatea problematic i gradul de utilizare redus al serverelor fizice
reprezint alte dezavantaje importante.

Virtualizarea rspunde la multe din problemele modelului tradiional de furnizare de


servicii. Deoarece maina virtual este un set de fiiere, sunt posibile funcionaliti
mai eficiente sau chiar indisponibile atunci cnd se lucreaz cu maini fizice. Maina
virtual poate fi creat rapid sau migrat de pe un server fizic pe altul n timp ce
funcioneaz. Modificarea configuraiei hardware este foarte facil i pot fi adugate
componente chiar n timp ce ruleaz. Maina virtual nu sufer defeciuni hardware,
iar cele software sunt mai uor de prentmpinat i/sau rezolvat prin folosirea unor
soluii de asigurarea a toleranei la defeciuni, disponibilitate continu, recuperare
dup accidente, backup i recuperare, inexistente pentru mainile fizice. De
asemenea, ntr-o infrastructur virtual pot fi folosite soluii de securitate
indisponibile ntr-o infrastructur fizic. Mai jos sunt exemplificate cteva cazuri.

ntr-o main fizic, sistemul de operare este instalat direct peste hardware i are
nevoie de drivere specifice hardware-ului prezent n sistem. Dac este adugat o
nou component hardware, sistemul de operare are nevoie de un driver nou.
Virtualizarea abstractizeaz resursele fizice ale unui calculator. Mainile virtuale
folosesc un set simplificat de drivere virtuale standardizate. Hardware-ul poate fi
actualizat fr a modifica maina virtual.

Dac rulm un server web i trebuie s modificm hardware-ul (adugm memorie


suplimentar, o nou plac de reea, un nou controler de disc), serviciul sufer o
ntrerupere. Dac aplicaia ruleaz ntr-o main virtual i trebuie s actualizm
hardware-ul serverului fizic, migrm maina virtual pe alt server.

Mainile virtuale sunt izolate unele de altele. Aceast izolare nseamn c un conflict
ntre aplicaii nu reprezint o problem. La fel, defectarea unui sistem de operare nu
ntrerupe funcionarea ntregului server, nici performana i operarea celorlalte
maini virtuale. Izolarea aduce i beneficii de securitate: drepturi de acces limitate
pentru utilizatori iar compromiterea unei maini nu are impact asupra celorlalte.

7.2.2 Platforme de virtualizare

vSphere, KVM, XEN, Hyper-V

VMware a inventat virtualizarea arhitecturilor x86 i a deschis i dominat piaa


soluiilor de virtualizare pe acest arhitectur pentru muli ani. n prezent,
competitorii au recuperat avansul tehnologic i piaa soluiilor de virtualizare este
mai competitiv ca oricnd, cu oferte de la Microsoft i de la diferite implementri
comerciale ale proiectelor cu surs deschis Xen i KVM. Odat cu maturizarea
tehnologiilor de virtualizare, hipervizoarele au devenit mai puin un produs n sine
i mai mult o parte a unei soluii de virtualizare. Majoritatea hipervizorilor sunt acum
integrai ntr-un sistem de operare sau inclui ntr-un pachet mai larg de soluii de
cloud.

VMware vSphere

Microsoft Hyper-V

Citrix XenServer este o platform de virtualizare cu suport pentru infrastructuri


virtualizate de tip cloud, centre de date i desktop. XenServer este folosit de mari
furnizori de soluii cloud public sau privat i folosete hipervizorul Xen.
Hipervizorul Xen a fost rezultatul unui proiect de cercetare de la University of
Cambridge, condus de Ian Pratt, profesor la Cambridge i fondator al companiei
XenSource. Aceast companie a finanat dezvoltarea proiectului cu surs deshis
Xen Project i de asemenea vindea versiuni destinate mediului enterprise. Prima
lansare public a Xen a fost n 2003. Citrix Systems a achiziionat XenSource n
octombrie 2007 i Xen Project s-a mutat la www.xenproject.org. Din 2011, codul
Xen este integrat n kernelul de linux. Chiar i varianta enterprise, Citrix XenServer,
de obicei comercializat, are o variant gratuit din 2013. Amazon EC2, IBM
SoftLayer, Liquid Web, Fujitsu Global Cloud Platform, Linode, OrionVM i
Rackspace Cloud folosesc hipervizorul Xen.

Red Hat KVM (Kernel-based Virtual Machines) este primul hipervizor integrat n
kernelul de Linux. KVM a fost creat de o firm israelian Qumranet n scopul
dezvoltrii unei platforme de virtualizare desktop mpreun cu protocolul lor
proprietar (acum cu surs deschis) SPICE. KVM a profitat de apariia extensiilor
de virtualizare incluse de procesoarele Intel i AMD. Din 2007 codul KVM a fost
integrat n kernelul de linux. n 2008, Qumranet a fost cumprat de Red Hat. Pe
baza KVM Red Hat a nfiinat proiectul oVirt, o platform de virtualizare cu surs
deschis pentru care Intel a contribuit cu suport TPM (Trusted Platform Module),
HP a mbuntit funcionalitile NUMA (Non Uniform Memory Access). RHEV
(Red Hat Enterprise Virtualization) este varianta comercial a lui oVirt.

7.2.3 Virtualizarea resurselor fizice

Virtualizarea permite partajarea resurselor hardware ntre mai multe maini virtuale.
Mainile virtuale partajeaz accesul la procesorul fizic i sunt planificate s ruleze
de ctre hipervizor. n plus, hipervizorul atribuie mainilor virtuale propriile regiuni
de memorie i mediaz accesul la placile de reea i controlerele de disc. Mainile
virtuale pot rula diferite sisteme de operare pe aceeai platform fizic. Sistemele de
operare rulate de mainile virtuale se numesc sisteme de operare gazd. Maina
fizic se numete host.

Cnd mai multe maini virtuale ruleaz pe acelai server fizic, fiecare primete o
parte din resursele fizice. Dac sistemele de operare virtualizeaz accesul aplicaiilor
la resursele sistemului, hipervizoarele virtualizeaz accesul sistemelor de operare la
resursele sistemului. Hipervizoarele creeaz sistemelor operare gazd iluzia unui
acces deplin la hardware-ul sistemului fizic.

Nu trebuie s confundm virtualizarea cu emularea. Virtualizarea folosete emularea


pentru cteva componente hardware din sistem, dar din ce n ce mai puine i mai
puin importante. De exemplu, virtualizarea procesorului nu este emulare. Emularea
ar nseamna c toate operaiile sunt rulate n software de ctre un program numit
emulator. Procesorul virtual ar putea fi un emulator care reproduce comportamentul
unui procesor prin acceptarea acelorai instruciuni sau date i genernd aceleai
rezultate. n acest caz, hipervizorul ar prelua instruciunile primite de emulator i le-
ar converti n instruciuni specifice procesorului real. Dar virtualizarea procesorului
pune accent pe performan i n realitate hipervizorul folosete direct procesoarele
fizice disponibile. De fapt, acest lucru este valabil pentru toate componentele din
sistem. Hipervizorul folosete resursele fizice oricnd este posibil i ruleaz
instruciuni numai atunci cnd este neaprat necesar. Dac numrul de procesoare
virtuale este mai mare dect numrul de procesoare fizice, hipervizorul
multiplexeaz procesoarele fizice ntre toate mainile virtuale astfel nct fiecare
main virtual s ruleze ca i cnd folosete numrul specificat de procesoare
virtuale. Aadar, virtualizarea procesorului nu este emulare, dei o folosete atunci
cnd este nevoie. De exemplu, trebuie s rulm o aplicaie scris pentru arhitecturi
Power pe arhitecturi Intel sau dorim s studiem funcionarea unui procesor Power
dar dispunem de un calculator x86. Un emulator permite programelor s ruleze pe o
arhitectur hardware diferit (de exemplu, Intel x86) fa de cea pentru care au fost
scrise (IBM Power). Emularea are beneficiul portabilitii, dar performana este grav
afectat. n schimb, n ce privete procesoarele, virtualizarea folosete extensii de
virtualizare 11 , VT-x i AMD-V 12 , prezente n procesoarele Intel i AMD. Cnd
hardware-ul pune la dispoziie mecanisme destinate utilizrii n virtualizare vorbim
de virtualizare asistat. Virtualizarea asistat are performane mult mai bune dect
virtualizarea prin emulare 13 i reduce complexitatea hipervizorului. Dezavantajul
acestei abordri const din scderea versatilitii virtualizrii. Din cauza cuplrii
dintre hardware i hipervizor este dificil de virtualizat o platform 14 diferit de cea
hardware.

Chiar dac, n cazul procesorului, hipervizorul folosete emularea numai atunci cnd
este nevoie de portabilitate, nu este i cazul dispozitivelor. n virtualizare ntlnim
dou tipuri de dispozitive: emulate i paravirtualizate (laten mic, throughput I/O
mare). Dispozitivele emulate sunt de obicei mai vechi, generice, cu drivere existente
n majoritatea sistemelor de operare, lucru care d posibilitatea sistemelor de operare
gzduite s ruleze fr modificri (dispozitivele emulate nu folosesc drivere
speciale). Exemple de dispozitive emulate sunt:
dispozitive bloc: IDE, Floppy, SCSI, USB.
dispozitive de reea: e1000, rtl8139, ne2k+pci.
*Plci video (controlere grafice): cirrus, vga.
*Plci de sunet: intel-hda (recomandat), ac97, es1370.
*Mouse, port serial15

Emularea are loc la nivelul hipervizorului sau la nivelul spaiului utilizator. KVM
este un exemplu de emulare n spaiul utilizator.

11
Un mod nou de execuie al procesorului, structuri de control i instruciuni destinate
operrii cu maini virtuale.
12
Denumit i SVM (Secure Virtual Machine).
13
Virtualizarea prin emulare se numete i virtualizare complet (full virtualization). Exist
programe, de exemplu QEMU din linux, care emuleaz pe platforme x86 orice tip de
hardware: procesoare cu arhitecturi diferite, dispozitive I/O i chiar hardware inexistent.
Mainile virtuale create cu QEMU sunt complet independente de platforma fizic. Dar
QEMU doar emuleaz i se numete emulator, nu hipervizor.
14
n acest caz, platforma este setul de instruciuni al unui procesor.
15
Dispozitivele etichetate cu stelu nu sunt vizate pentru paravirtualizare.
Pentru toate celelalte soluii de virtualizare, hipervizorul intercepteaz cererile I/O
ale mainii virtuale i emuleaz comportamentul unui dispozitiv hardware real.

Dispozitivele paravirtualizate sunt tot implementri software ale dispozitivelor


hardware dar, n loc s execute instruciuni specifice protocoalele reale (protocolul
SCSI, acces la memorie standard, gestionarea ntreruperilor,etc..), execut apeluri
ctre hipervizor. Dispozitivele paravirtualizate i hipervizorul vorbesc aceeai limb.
Altfel spus, hipervizorul comunic cu sistemul de operare gzduit printr-o interfa
optimizat (mai rapid i eficient). Pe de alt parte, dispozitivele paravirtualizate
necesit ca sistemul de operare gzduit s fie modificat pentru a comunica cu
hipervizorul. n unele soluii, cum ar fi Xen, pentru o cooperare eficient cu
hipervizorul, este paravirtualizat ntreg sistemul de operare. n KVM i VMware sunt
paravirtualizate numai driverele de dispozitiv.

Dispozitivele emulate trebuie s respecte ntocmai comportamentul dispozitivelor


hardware pe care le emuleaz, n caz contrar driverele de dispozitiv din sistemele de
operare gzduite ar putea s lucreze incorect. Pentru procesul de cooperare ntre
hipervizor i sistemul de operare gazd acest lucru poate s nu fie tocmai eficient.
Dispozitivele paravirtualizate nu trebuie s respecte aceast cerin. Ele folosesc un
API16 care ofer performane optime pentru operaiile I/O ale sistemelor de operare
gazd.

Pe lng emulare i paravirtualizare, hipervizoarele pot permite accesul direct la


dispozitive, tehnic numit PCI passthrough. PCI passthrough nseamn atribuirea
direct a unei componente hardware (plac de reea, plac video, controler de disc)
unei maini virtuale. n acest caz, componenta hardware devine indisponibil
sistemului gazd i celorlalte maini virtuale. Avantajul este cel al performanei,
maina virtual respectiv nu mai trebuie s emuleze un dispozitiv de reea.

Pentru acest lucru este necesar suport din partea hardware-ului. Gazda trebuie s
implementeze tehnologiile Intel VT-d 17 sau AMD-Vi 18 . Pe lng atribuirea unui
dispozitiv, alte funcionaliti principale ale VT-d constau din remaparea DMA i a
ntreruperilor.

VT-c19 introduce suport nativ pentru virtualizare n plcile de reea n vederea unei
partajri optime a acestora ntre mainile virtuale. Prin cele dou tehnologii VMDQ
(Virtual Machine Device Queues) i SR-IOV (Single Root I/O Virtualization)
introduse n adaptoarele Ethernet, VT-c scade utilizarea procesorului, reduce latena
sistemului i mbuntete ratele de transfer prin reea. VMDQ mbuntete
managementul traficului de reea n interiorul serverului. Cu VMDQ, operaiile de
sortare i rutare ale pachetelor de reea sunt realizate de controlerul Ethernet i nu de
switch-ul virtual controlat de hipervizor. Plcile de reea cu suport pentru

16
http://ozlabs.org/~rusty/virtio-spec/virtio-paper.pdf
17
Virtualization Technology for Directed I/O
18
Se numea IOMMU.
19
Intel Virtualization Technology for Connectivity
virtualizarea transmisiilor I/O sunt cele care implementeaz specificaiile SR-IOV.
Acestea pot crea mai multe dispozitive cu funcie virtual (VF) care comunic cu
dispozitivul cu funcie fizic (PV).

Fiecare VF opereaz ca un dispozitiv PCI independent ce poate fi folosit cu PCI


passthrough. i n acest caz este nevoie de VT-d sau IOMMU pentru a ruta mesajele
de semnalizare a ntreruperilor.

Un alt aspect foarte important n ce privete performana platformelor virtualizate l


reprezint medierea accesul la memorie. Virtualizarea unitii de management a
memoriei (MMU Memory Management Unit) se bazeaz pe suport hardware pus
la dispoziie att de Intel, EPT (Extended Page Tables), ct i de AMD, NPT (Nested
Page Tables).

Nu intrm n detalii, ceea ce trebuie s reinem este c, n prezent, virtualizarea este


asistat hardware la toate componentele majore ale sistemului.
8 VMware vSphere

Suita VMware vSphere cuprinde o colecie de produse care mpreun ofer


funcionaliti de virtualizare de nivel enterprise. n continuare sunt prezentate
cteva din componentele fundamentale.

VMware ESXi

Hipervizor Type 1, versiunea 6.0 poate gestiona un numr de 4096 de procesoare


virtuale per host, 320 de procesoare fizice (incluznd hyperthreading), 32 de
procesoare virtuale per core i 6 TB de memorie per host.

VMware vCenter Server

vCenter Server este o platform de management centralizat pentru toate hosturile


ESXi mpreun cu mainile lor virtuale. Permite administratorilor s implementeze,
gestioneze, monitorizeze, automatizeze i securizeze o infrastructur de virtualizare
ntr-o manier centralizat. Pentru scalabilitate, vCenter Server folosete o baz de
date (Microsoft SQL Server, Oracle, Postgresql) n care stocheaz toate informaiile
despre hosturi i maini virtuale. Este disponibil n dou variante: ca aplicaie
instalat ntr-un server Windows sau ca appliance preconfigurat (vCenter Server
Appliance) bazat pe SUSE Linux.

vSphere Update Manager

Pachet suplimentar la varianta Windows a vCenter Server care permite utilizatorilor


s actualizeze automat pachetele hosturilor ESXi.

VMware vSphere Web Client i vSphere Desktop Client

Pe lng mecanismul centralizat de management a hosturilor ESXi, utilizatorul se


poate conecta la acestea individual prin intermediul clientului web sau desktop.
Clientul desktop ruleaz numai pe sisteme Windows.

VMware vRealize Orchestrator

Un mecanism de programare i automatizare a proceselor IT prezent n fiecare


instan vCenter Server. De exemplu, poate aduga automat o main virtual n
Active Directory, personaliza sistemul de operare a mainii virtuale, anuna
utilizatorul de disponibilitatea mainii virtuale, etc.. Alte extensii pot porni, opri,
crea maini virtuale. Funcionalitile nu sunt limitate numai la maini virtuale, poate
administra hosturi, reele, spaii de stocare (datastore).

Pe lng componente, vSphere nglobeaz i un numr de funcionaliti.

vSphere Virtual Symmetric Multi-Processing

Funcionalitatea abreviat ca vSMP sau Virtual SMP permite mainilor virtuale s


recunoasc mai multe procesoare sau sloturi. Prin aceast funcionalitate, aplicaiile
care au nevoie sau sunt capabile s foloseasc mai multe procesoare pot rula n
maini virtuale.

vSphere vMotion i vSphere Storage vMotion

vSphere vMotion, cunoscut i ca live migration, este o caracteristic a ESXi i


vCenter Server care permite utilizatorilor s mute o main virtual de pe un host pe
altul chiar n timp ce aceasta ruleaz, fr a fi nevoie s fie oprit. Aceast migrare
are loc fr ntreruperea funcionrii i fr pierderea conectivitii la reea a mainii
virtuale. vMotion mut execuia mainii virtuale, relocnd procesoarele i memoria
fizic ntre serverele fizice dar pstrnd neatins locaia discului (fiierului) virtual.
Storage vMotion nseamn pstrarea resurselor de procesare i memorie neatinse dar
migreaz discul virtual de pe un host pe altul n timp ce maina virtual ruleaz.
Funcionalitatea Storage vMotion este foarte important dac ne gndim c putem
migra o main virtual ntre spaii de stocare FC, iSCSI sau NFS.

vSphere Distributed Resource Scheduler

vMotion este o operaie manual, n sensul c administratorul trebuie s iniieze


operaia de migrare, dar aceasta poate fi automatiza prin vSphere DRS. n acest caz
este necesar ca hosturile ESXi s fie configurate n cluster. Un cluster ESXi
reprezint agregarea resurselor de procesare i memorie a tuturor hosturilor
componente. Dup gruparea ntr-un cluster a dou sau mai multor hosturi ESXi,
acestea funcioneaz la unison. DRS are dou scopuri:
La pornire, DRS ncearc s plaseze maina virtual pe hostul cel mai
indicat (capacitate resurse, ncrcare host, etc..) s ruleze acea main
virutal la acel moment (plasare inteligent).
Odat maina virtual pornit, DRS caut s asigure mainii virtuale
resursele hardware necesare i s minimizeze totodat influena altora
asupra acestora sau cel puin s asigure un nivel de utilizare echitabil.

DRS nu este limitat la operaii efectuate la pornirea unei maini virtuale. DRS
administreaz i locaia mainii virtuale n timp ce aceasta ruleaz. De exemplu, dac
ntr-un cluster de trei hosturi ESXi cu DRS activat, unul din servere ncepe s
experimenteze utilizarea ridicat a procesoarelor sau memoriei, DRS detecteaz
utilizarea dezechilibrat a resurselor clusterului i migreaz mainile virtuale pe baza
unui algoritm intern.

vSphere Storage DRS

vSphere Storage DRS aplic ideea vSphere DRS la spaiul de stocare. Dac DRS
asigur echilibrul resurselor de procesare i memorie n cluster, Storage DRS
ncearc s echilibreze capacitatea i performana spaiului de stocare.

Storage I/O Control i Network I/O Control

Pe lng controlul i modificarea alocrilor de resurse de procesare i memorie,


vSphere poate controla i accesul la resursele de stocare i reea. Storage I/O Control
(SIOC) permite prioritizarea operaiilor de I/O sau aplicarea unor limite I/O pentru
mainile virtuale. Aceste au efect la nivelul clusterului. Cnd un host ESXi
detecteaz o cretere a latenei peste un nivel specificat de utilizator, aplic setrile
configurate pentru acea main virtual. Prin astfel de politici anumite maini
virtuale pot avea prioritate la resurse.

Acelai lucru este valabil i pentru Network I/O Control (NIOC), numai c politicile
de control se refer la modul n care mainile virtuale pot folosi limea de band
pus la dispoziie de interfeele de reea fizice.

vSphere High Availability

vSphere HA pune la dispoziie un proces automat de repornire a mainilor virtuale


care rulau pe un host ESXi la momentul apariiei unei disfuncionaliti a serverului
fizic. Repornirea acestora are loc pe un alt server. vSphere HA, spre deosebire de
DRS, nu folosete tehnologia vMotion ca mijloc de migrare a mainilor virtuale pe
alt host. vMotion se aplic numai migrrilor planificate, unde att hostul ESXi surs
ct i hostul ESXi destinaie sunt pornite i funcioneaz corespunztor. ntr-o
situaie vSphere HA, momentul defectrii nu poate fi anticipat, astfel nct nu este
timp pentru o migrare. Cu vSphere HA va fi experimentat o ntrerupere a
serviciului. Dac hostul fizic sau dispozitivul de stocare se defecteaz, vSphere HA
repornete maina virtual, i pn cnd aceasta pornete, aplicaiile i serviciile
oferite sunt indisponibile.

vSphere Fault Tolerance

vSphere HA protejeaz la defectarea neplanificat a serverului fizic prin asigurarea


unui mecanism de repornire automat a mainilor virtuale pe alt host, i ct timp
aceasta repornete serviciile sunt indisponibile. vSphere FT elimin timpul de
nefuncionare prin meninerea unei imagini secundare a mainii virtuale pe un host
fizic separat. Tehnologia vSphere Fast Checkpointing permite FT cu maini virtuale
dotate cu unul pn la patru procesoare virtuale. Orice se ntmpl pe maina primar
(protejat) este replicat pe maina secundar (oglind), astfel nct dac hostul fizic
pe care ruleaz maina virtual primar se defecteaz, a doua main virtual poate
fi imediat pus n funciune fr nicio pierdere a conectivitii. vSphere FT este
integrat n vSphere DRS, dei aceast funcionalitate are nevoie de Enhanced
vMotion Compatibility (EVC).

Virtual SAN (VSAN)

VSAN are nevoie de cel puin trei hosturi ESXi (noduri) dar poate scala pn la un
numr de 32. De asemenea, VSAN necesit ca aproximativ 10% din spaiu de stocare
al nodurilor s fie asigurat de SSD-uri. VSAN grupeaz spaiul de stocare al
nodurilor permind crearea unui datastore comun. VSAN integreaz algoritmi
pentru protejarea la pierderea datelor. De exemplu, se asigur c aceleai date exist
pe mai multe noduri VSAN n acelai timp.

vSphere Replication

vSphere Replication permite replicarea mainilor virtuale ntre diferite platforme


vSphere. De obicei, acest lucru nseamn de la un centru de date (numit centru de
date primar) la altul (numit centru de date secundar, de backup). Spre deosebire de
soluiile bazate pe hardware, vSphere Replication opereaz la nivel de main
virtual, dnd clienilor posibilitatea s controlere granular serviciile care vor fi
replicate i care nu vor fi replicate.

vSphere Flash Read Cache

vSphere Flash Read Cache folosete dispozitive SSD ca mecanism cache. n acest
fel, administratorul poate atribui spaiu cache mainilor virtuale n aproximativ
aceeai manier prin care atribuie procesoare, memorie, interfee de reea.

8.1 Instalarea VMware ESXi

Hipervizorul ESXi poate fi instalat n trei moduri:


Interactiv
Unattended (scripted)
Automat

Cea mai simpl este instalarea interactiv. Cea mai complex este instalarea
automat. Instalarea interactiv nseamn introducerea unui CD cu VMware ESXi
n CDROM i parcurgerea pailor de instalare de la consol. Ca alternativ, ESXi
poate fi instalat i dup un stick USB.