Documente Academic
Documente Profesional
Documente Cultură
Library TUM
Reason: I attest to the
accuracy and integrity
of this document UNIVERSITATEA TEHNICĂ A MOLDOVEI
Ciclu de prelegeri
Chişinău
2021
UNIVERSITATEA TEHNICĂ A MOLDOVEI
Ciclu de prelegeri
Chişinău
Editura „Tehnica-UTM”
2021
CZU 004.7(075.8)
N 29
Nazaroi, Ion.
Virtualizarea funcțiilor de rețea: Ciclu de prelegeri/
Ion Nazaroi; Universitatea Tehnică a Moldovei,
Facultatea Electronică și Telecomunicații, Departamentul
Telecomunicații și Sisteme Electronice. – Chișinău:
Tehnica-UTM, 2021. – 96 p.: fig., tab.
Bibliogr.: p. 87-88 (19 tit.). – 50 ex.
ISBN 978-9975-45-674-6.
004.7(075.8)
N 29
3
rețelelor 5G, realizată de tehnologii precum NFV/SDN și practici de
implementare native în cloud. Aceasta este probabil cea mai mare
transformare tehnologică și de afaceri a industriei de
telecomunicații de la consolidarea infrastructurilor de comunicații
mobile. Rețelele de telecomunicații în urma acestor transformări
vor deveni extrem de distribuite și complet definite de software,
funcționând în principal pe resurse cloud omogene [1].
Virtualizarea funcției de rețea NFV se bazează pe tehnologia
de virtualizare standard și servere industriale. Pentru comoditatea
cititorului, în primul capitol se propune o succintă recapitulare a
tipurilor și metodologiilor de virtualizare în tehnologia informației
(IT). Informațiile aduse corespund nivelului de cunoaștere minim
necesar pentru a înțelege noțiunile de bază ale tehnologiei NFV.
Descrierea principiilor de bază, arhitecturii și blocurilor
funcționale ale tehnologiei NFV sunt prezentate în capitolul doi.
Pentru a ilustra rolul fiecărei entități funcționale și a
interacțiunii dintre ele, în capitolul trei se examinează un exemplu
de implementare a NFV într-o rețea IMS.
Ultimul capitol se axează pe exemple de posibilă
implementare a tehnologiei rețelelor definite prin software SDN în
cadrul arhitectural NFV.
Lucrarea finalizează cu descrierea platformei CORD care
permite operatorilor de rețea să creeze servicii inovatoare.
Platforma Oficiu central reproiectat ca centru de date sau abreviat
CORD folosește tehnologiile SDN, NFV și Cloud pentru a construi
un centru de date agile pentru rețelele de frontieră. Exemplul
prezentat se referă la rețeaua de acces formată din CPE (Customer
premises equipment) la domiciliu și terminale de linie optică OLT
(optical line terminator ) GPON, Switch-ul de agregare și BNG
(Broadband Network Gateway) la oficiul central. Implementarea
presupune utilizarea doar a elementelor SW și HW open source.
Descrierea tehnologiei SDN și a platformei IMS pot fi găsite
în lucrările editate de autor anterior [13,15].
4
1. VIRTUALIZAREA ÎN TEHNOLOGIA INFORMAȚIEI
5
a) Virtualizarea serverului este procesul de împărțire a unui
server fizic în mai multe servere virtuale unice și izolate prin
intermediul unei aplicații software. Fiecare server virtual poate rula
propriile sale sisteme de operare independent.
Software-ul de virtualizare a serverului permite mai multor
sisteme de operare să ruleze independent unul de celălalt pe o
singură mașină dintr-un centru de date. Software-ul de virtualizare
numit Hypervisor încapsulează o versiune invitată a sistemului de
operare și emulează resurse hardware. În acest fel, software-ul de
virtualizare folosește hypervizoare pentru a permite mai multe
instanțe de server să ruleze pe o singură mașină.
b) Virtualizarea rețelei este un concept confundat adesea cu
NFV. În realitate, ea a apărut înaintea NFV și are puțină relevanță
pentru acesta. Nu are o relație cu ideile de virtualizare care au fost
discutate până acum. Folosește cuvântul „virtual” într-un context
diferit de virtualizarea serverului. Virtualizarea rețelei este o
abordare în care o singură rețea fizică este împărțită logic în mai
multe rețele logice. Aceste rețele partajează infrastructura
subiacentă, dar pentru utilizatorul final această partajare nu este
vizibilă, iar protocoalele și tehnologiile utilizate fac ca aceste rețele
să pară complet independente și rețele separate care rulează pe o
infrastructură dedicată. Rețelele logice (sau rețelele virtuale așa
cum sunt adesea menționate) oferă izolare, confidențialitate și
segregare între rețele la nivel de rețea.
Cel mai relevant exemplu de virtualizare a rețelei este
utilizarea rețelei LAN virtuale (VLAN). Alte exemple de astfel de
tehnologii de rețea virtuală sunt rețeaua privată virtuală IP de
nivelul 3 (L3VPN), LAN extensibilă virtuală (VXLAN),
comutatorul ATM și circuitele virtuale permanente (SVC/PVC).
Fiecare dintre aceste tehnologii suprapune rețele virtuale pe o rețea
fizică.
Pentru furnizorii de servicii de internet (ISP) posibilitatea de
suprapunere a câtorva rețele prin partajarea infrastructurii face
posibilă oferirea de servicii fără implementarea rețelelor fizice
6
separate pentru fiecare dintre ele. Tehnicile de virtualizare a rețelei
permit rularea simultană a serviciilor, precum accesul la internet în
bandă largă, streaming video și voce peste IP ca rețele separate
logic într-o rețea fizică comună, ceea ce conduce la o economie
semnificativă a costurilor de implementare, gestionare și întreținere
a infrastructurii.
c) Virtualizarea funcțiilor de rețea (NFV) extinde ideea
virtualizării serverului la echipamentele cu funcții specifice în rețea.
Succesul virtualizării serverului a motivat operatorii de rețea să se
desprindă de la principiul „un dispozitiv, o funcție pe hardware
specializat” și să treacă la sisteme de operare din rețea care rulează
într-un mediu virtualizat. Cu NFV sistemul de operare este
virtualizat și rulează pe servere COTS, iar volumul de resurse de
calcul și stocare necesar poate fi ușor ajustat. Virtualizarea
funcțiilor de rețea utilizează o serie de instrumente dezvoltate
pentru virtualizarea serverului, relativ matură.
7
Mașinile virtuale sunt create în interiorul sistemului de operare-
gazdă.
Pentru virtualizarea proceselor se utilizează aşa-numiţii
hypervisori. Hypervizorul este stratul de virtualizare în arhitectura
NFV. Un hypervizor permite crearea, alocarea resurselor,
modificarea parametrilor și ștergerea mașinii virtuale. Hypervisorii
sunt clasificați în două tipuri numite tip-1 și tip-2.
Hypervizor
Resurse Hardware
8
sistemul de operare în două niveluri de privilegii - modul kernel și
modul utilizator.
Exemple de hypervizoare de tip 1 sunt Xen, VMware ESXi,
Hyper-V și multe altele.
Deoarece rulează direct pe hardware, această implementare se
mai numește și implementare bare-metal (simplu-metal). Alte
denumiri sunt hypervizor X sau microkernel.
Sistem de operare-gazdă
Resurse Hardware
10
Comunicarea în rețea. Mașinile virtuale sunt medii izolate și
au nevoie de conectivitate pentru a transmite date în afara serverului
fizic pe care sunt găzduite sau pentru comunicare între mașinile
virtuale găzduite pe același server. În acest scop este utilizată placa
sau controlerul de interfață de rețea NIC (Network Interface
Controller ) ale serverului fizic. Ca și în cazul altor resurse, cum ar
fi CPU și memorie, NIC-urile fizice sunt partajate între mașinile
virtuale. Pentru această partajare sunt folosite diverse tehnici. Una
dintre ele este bazată pe hypervizor care creează instanțe NIC
virtuale (vNIC) și le prezintă ca NIC-uri sistemului de operare
invitat. Hypervizorul (în cazul tipului 1) sau sistemul de operare-
gazdă (în cazul tipului 2) mapează multiple vNIC la NIC fizice.
Pentru a realiza conectivitatea vNIC la NIC fizic este utilizat un
switch virtual (vSwitch).
11
mediu virtual, mașină virtuală și containere sunt destul de des
folosiți ca sinonime.
Containerele oferă virtualizare ușoară prin tehnica de
virtualizare a sistemului de operare. Pentru a realiza acest lucru, se
utilizează capabilități integrate în nucleul Linux, cum ar fi
namespace, cgroup, chroot, apparmor și altele. Două dintre aceste
capabilități de nucleu, izolarea spațiului de nume (namespace) și
grupul de control (cgroup), contribuie mai mult decât celelalte la
containerizare.
Izolarea spațiului de nume (namespace) a fost implementată
în nucleele Linux pentru a limita vizibilitatea anumitor resurse
utilizate de un proces și pentru a nu permite proceselor care folosesc
spații de nume separate să-și vadă reciproc resursele. Aplicația
utilizează propriul spațiu de nume și poate genera multe procese în
acest spațiu. Aceste procese și ID-uri de proces nu sunt vizibile
pentru alte aplicații care nu utilizează același spațiu de nume de
proces.
Una dintre condițiile prealabile pentru virtualizare este de a nu
restricționa utilizarea resurselor. De exemplu, spațiul de nume de
montare (mount) nu poate limita cantitatea maximă de spațiu pe disc
pe care un proces îl poate consuma. Alocarea resurselor este
realizată prin funcționalitatea grupului de control. Control-group
(cgroup) gestionează resursele kernel-ui Linux. Funcționalitatea
cgroup controlează resurse precum CPU, memorie, I/O de disc etc.
Astfel, capabilitățile kernel-ui cgroup și namespace se completează
reciproc. Cgroup impune restricțiile privind cantitatea de resurse
care poate fi utilizată de procese. Pe de altă parte, namespace
permite independența și vizualizarea separată a resurselor
sistemului la proces. LXC folosește combinația acestor două
(precum și alte caracteristici) pentru a implementa virtualizarea.
Care sunt diferențele importante dintre cele două metodologii
de virtualizare - container și mașină virtuală?
În cazul containerizării, nucleul sistemului de operare-gazdă
este partajat de toate containerele, iar virtualizarea are loc la nivel
12
de proces prin utilizarea funcțiilor nucleului (cum ar fi namespace,
cgroup).
Deoarece containerul folosește sistemul de operare-gazdă, nu
este necesar să ruleze un nou sistem de operare. Aceasta permite
containerelor să ruleze aplicații direct în interiorul OS-gazdă, spre
deosebire de o mașină virtuală, unde este necesar un sistem de
operare pentru ca o aplicație să poată fi rulată. Acest lucru
economisește resurse când aplicațiile care urmează a fi virtualizate
pot utiliza același nucleu, binare și biblioteci ca sistemul de operare-
gazdă. Partajarea kernel-ului OS, a programelor binare și a
bibliotecilor-gazdă economisește resurse, dar are unele dezavantaje
în comparație cu implementarea unei mașini virtuale.
O aplicație care are nevoie de un alt sistem de operare nu
poate fi introdusă într-un container de pe această gazdă. Mașinile
virtuale sunt mai flexibile și pot rula orice tip de aplicație și pe orice
sistem de operare invitat care necesită aceeași arhitectură hardware
ca și gazda. Din cauza partajării nucleului între containere, există o
posibilă vulnerabilitate în care comportamentul unui container îi
poate afecta pe ceilalți.
Aplicațiile care rulează într-un container pot fi aplicații
autonome sau un sistem de operare invitat. Pe baza aplicației,
containerele pot fi împărțite în două categorii:
• container OS;
• container de aplicare.
Containerul este denumit container de sistem de operare
(OS) dacă aplicația din container este un sistem de operare. La fel,
ca și în cazul mașinilor virtuale, acest sistem de operare se numește
OS invitat. Aplicațiile rulează apoi în cadrul acestui OS invitat. În
acest tip de containere, aplicația folosește bibliotecile și binare de
sistem din OS invitat ceea ce elimină dependența de bibliotecile și
binarele sistemului de operare-gazdă, asigură o mai bună izolare și
securitate pentru aplicația containerizată.
Containerele OS se aseamănă cu mașinile virtuale, dar în loc
de hypervizor folosește API pentru containere. Evident, sistemul de
13
operare invitat trebuie să fie compatibil cu nucleul gazdei, de
exemplu, un sistem de operare Windows nu poate rula pe un nucleu
Linux.
Containerele pentru aplicații sunt pur și simplu containere
care rulează direct aplicația. Aplicația folosește binarele și
bibliotecile din sistemul de operare-gazdă și același kernel, dar are
propriul spațiu de nume pentru rețea și punct de montare pe disc.
Containerele pentru aplicații pot rula la un moment dat un singur
serviciu.
Utilizarea containerelor de aplicații face posibilă izolarea
diferitelor servicii care rulează în sistemul de operare-gazdă. Se
creează astfel un grup de containere de aplicații, fiecare oferind un
serviciu. Această abordare a arhitecturii software a câștigat multă
popularitate în ultimii ani și este denumită microservicii.
Docker. Containerul este compus din fișiere de configurare,
fișiere pe disc care reprezintă spațiul său de nume, fișiere
executabile și biblioteci ale aplicației. Ca urmare, portarea unui
container nu este la fel de simplă ca mutarea doar a fișierului de
configurare și a aplicației binare. LXC nu oferă o modalitate de a
împacheta împreună fișierele și mediul container ca grup.
Replicarea și portarea unui container de la o gazdă la alta poate
necesita considerații speciale. Pentru înlăturarea acestor inconviențe
se utilizează așa-numitul docker.
Docker este o tehnologie open source dezvoltată pentru a
permite replicarea, ambalarea și portabilitatea containerelor.
Docker împachetează aplicațiile în containere - componente
executabile standardizate care combină codul sursă al aplicației cu
toate bibliotecile sistemului de operare (OS) și dependențele
necesare pentru a rula codul în orice mediu. Cu docker devine mai
ușor și mai sigur construirea, implementarea și gestionarea
containerelor.
Docker este un sistem de operare pentru containere.
Dezvoltatorii, utilizând setul de instrumente docker, construiesc,
implementează, rulează, actualizează și opresc containerele,
14
folosind comenzi simple și automatizări care economisesc munca.
Similar cu modul în care o mașină virtuală virtualizează (elimină
necesitatea de a gestiona direct) hardware-ul serverului,
containerele virtualizează sistemul de operare al unui server. Docker
este instalat pe fiecare server și oferă comenzi pentru a construi,
porni sau opri containere.
Software-ul care găzduiește containerele se numește Docker
Engine. Docker Engine este un software de conectivitate la
infrastructură care lansează și gestionează containere. Docker
Engine funcționează cu fișiere Docker Image. Fișierele de imagini
Docker împachetează împreună aplicația, toate binarele și
dependențele necesare ca o singură imagine care poate fi portată și
reprodusă.
Kubernetes. Kubernetes este un instrument de orchestrare a
containerelor dezvoltat și pus la dispoziție ca sursă deschisă de
Google. Scopul său este de a gestiona grupurile de containere. În
timp ce Docker gestionează ciclul de viață al containerului,
Kubernetes ajută la implementarea și plasarea containerului în
mașini virtuale noi sau existente.
În mod tradițional, platformele NFV erau limitate la
utilizarea tehnologiilor de virtualizare standard (de exemplu, Xen,
KVM, VMWare, Hyper-V etc.) care rulează OS invitați pe baza
unor sisteme de operare de uz general precum Windows, Linux sau
FreeBSD.
În ultimul timp, o serie de tehnologii de virtualizare ușoare
(lightweight virtualization technologies), inclusiv containere,
unikernel-uri (VM-uri specializate) și distribuții minimaliste ale
sistemelor de operare de uz general (minimalistic distributions of
general-purpose OSes), au apărut ca abordări de virtualizare care
pot fi utilizate la construirea unei platforme NFV [2].
Unikernels sunt în esență mașini virtuale cu o singură
aplicație bazate pe sisteme de operare minimaliste. Astfel de
sisteme de operare minimaliste au cheltuieli generale minime și au
spațiu cu o singură adresă (spațiu unicast) și programator
15
(scheduler) cooperativ (reducând astfel costurile de comutare ale
contextului).
Crearea unei distribuții minimaliste a unui sistem de operare
de uz general, cum ar fi Linux sau FreeBSD, implică două acțiuni:
(1) configurarea nucleului astfel încât să fie activate doar modulele
necesare (de exemplu, eliminate driverele străine); și (2) includerea
doar a bibliotecilor și aplicațiilor necesare la nivel de utilizator și
executarea doar a unei cantități minime de procese.
De exemplu, în [3] sunt descrise provocările construirii unei
astfel de platforme și se discută în ce măsură aceste tehnologii,
precum și VM-urile tradiționale, sunt capabile să le abordeze.
16
de specificații detaliate care abordează aspectele virtualizării rețelei,
a cerințelor în ceea ce privește orchestrarea, gestionarea,
performanța, fiabilitatea și securitatea, precum și interfețele,
modelele de informații și date necesare. Obiectivul principal al
Release-ului 3 îl constituie integrarea procedurilor NFV cu practica
operațională, astfel încât infrastructurile și serviciile NFV să poată
fi încorporate în procesele industriale actuale și să ofere o cale de
migrare clară.
În ultimul, la momentul scrierii acestei lucrări, Release 4, sunt
abordate următoarele domenii tehnice:
• consolidarea aspectelor de infrastructură prin optimizarea
abstractizării infrastructurii NFV (NFVI), încorporând tehnologiile
ușoare de virtualizare (cu containere), pentru reducerea cuplării
funcțiilor la infrastructură;
• consolidarea automatizării NFV, prin îmbunătățirea
gestionării și orchestrării ciclului de viață, simplificarea gestionării
funcțiilor și serviciilor;
• optimizarea cadrului de management și orchestrare
(MANO);
• simplificarea spațiului de specificații NFV pentru a ușura
implementarea soluțiilor NFV, a procedurilor de certificare și
integrare a tehnologiei în rețea;
• întărirea securității orchestrării, funcțiilor și serviciilor NFV.
În modelul de rețea tradițional, fiecare funcție de rețea
necesită un echipament suplimentar, o componentă „fieră”.
Virtualizarea elimină dependența dintre o funcție de rețea (NF) și
hardware-ul acesteia prin crearea unui mediu de execuție
standardizat și a interfețelor de gestionare a funcțiilor de rețea
virtualizate (VNF). Acest lucru are ca rezultat partajarea hardware-
ului fizic de mai multe VNF-uri sub formă de mașini virtuale (VM).
Punerea în comun a hardware-ului facilitează partajarea masivă și
agilă a resurselor infrastructurii NFV (NFVI) de către VNF. Acest
fenomen este deja văzut în infrastructurile de cloud computing.
Realizând modele de servicii ca infrastructura ca serviciu (IaaS),
17
Platforma ca serviciu (PaaS) sau Software ca serviciu (SaaS),
proprietarul VNF nu deține neapărat infrastructura NFV necesară
pentru buna funcționare a VNF.
Tehnologiile de virtualizare și cloud permit ca funcțiile de
rețea convenționale să fie implementate flexibil sub formă de
software pe servere standard. Astfel, ideea principală a NFV este
decuplarea funcțiilor de rețea de la hardware și rularea acestora pe o
platformă software (figura 2.1).
19
În plus, odată cu apariția tehnologiei 5G, există un impuls
către dezvoltarea de noi servicii în timp real în domeniile plăților
mobile, realității augmentate, conducerii autonome și internetului
obiectelor (IoT).
20
Funcții de rețea virtualizate (VNFs)
Nivel de virtualizare
Resurse Hardware
21
Figura 2.3 reprezintă un exemplu de graf de redicționare VNF
al unui serviciu de rețea end-to-end (E2E) cu diferite niveluri care
sunt implicate în procesul de virtualizare al acestor funcții. În acest
exemplu, serviciul de rețea end-to-end este compus din cinci VNF-
uri și două puncte finale. Decuplarea hardware-ului și software-ului
în virtualizarea funcțiilor de rețea se realizează printr-un nivelul de
virtualizare. Acest nivel abstractizează resursele hardware ale
infrastructurii NFV. Funcțiile de rețea virtualizate rulează deasupra
nivelului de virtualizare, care face parte din NFV.
23
Os-Ma
OSS/BSS Orchestrator
VNF
EM 1 EM 2 EM 3 Ve-Vnfm
Manager(i)
Ve-Vnfm
Vn-Nf
Vi-Vnfm
NFVI
Or-Vi
Calcul Stocare Rețea
virtual virtuală virtuală
Manager(i)
Nf-Vi Infrastructură
virtualizată
Nivel de virtualizare
VI-Ha VI-Ha
Resurse hardware
Managemant și
Resursă Resurs Resursă
Orchestrare NFV
calcul stocare rețea
(MANO)
Puncte de referință:
de executare , principale NFV , alte
24
Figura 2.4 reprezintă cadrul arhitectural NFV care include
blocurile funcționale nominalizate mai sus și punctele de referință.
Ultimele sunt clasificate în trei tipuri – de executare, principale și
alte.
Principalele puncte de referință și cele de executare sunt
prezentate prin linii continui și se află în sfera NFV. Acestea sunt
ținte potențiale pentru standardizare.
Punctele de referință punctate, denumite alte, sunt disponibile
în implementările actuale, dar ar putea avea nevoie de extensii
pentru gestionarea virtualizării funcției de rețea. Cu toate acestea,
punctele de referință punctate nu sunt în prezent principalul obiectiv
al NFV. În general, un punct de referință în arhitectură definește o
vedere externă pe care o expune un bloc funcțional al arhitecturii.
Un punct de referință este de obicei realizat ca o interfață standard
în design-ul sistemului.
Cadrul arhitectural prezentat se concentrează pe
funcționalitățile necesare pentru virtualizare, dar nu specifică ce
funcții de rețea ar trebui virtualizate, deoarece aceasta este doar o
decizie a proprietarului rețelei.
În ceea ce urmează sunt descrise mai detaliat blocurile
funcționale ale arhitecturii NFV.
25
nou, înlănțuirea serviciilor - și procesul de furnizare a aplicațiilor -
sunt simplificate și scurtate folosind VNF-uri.
Comportamentul funcțional și interfețele SWA (Software
Architecture) ale VNF cu alte funcții de rețea, managerul VNF, EM
și NFVI sunt bine definite.
EM
SWA-4
VNF
VNF
VNFC SWA-2 VNFC
SWA-1 aSW SWA-3 Manager
Ve-Vnfm-vnf
Vn-Nf Vn-Nf
SWA-5 SWA-5
NFVI
VNF1 VNF 2
VNFC1
VNFC1
VNFC2 VNFC3
container de
virtualizare a) VNF cu o singură b) VNF cu multiple
componentă componente
27
Configurarea implementării și comportamentul operațional al
unei VNF sunt descrise de un șablon de specificații numit
descriptorul funcției de rețea virtualizată (VNFD). Configurarea
de implementare definește starea și mediul pentru un VNF care
urmează a fi implementat, pe când comportamentul operațional
definește funcțiile necesare pentru ca un VNF să fie operat și
gestionat corect. Fiecare VNF are exact un descriptor VNF asociat
(VNFD) care este utilizat în procesul implementării VNF și
gestionării ciclului de viață al unei instanțe VNF.
Deci, VNFD descrie cerințele de resurse virtuale ale unui
VNF. Acesta este utilizat de funcțiile de gestionare și orchestrare
NFV pentru a determina modul de executare a operațiilor ciclului de
viață VNF.
Figura 2.7 ilustrează un exemplu simplificat de descriptor
VNF (VNFD) și relația acestuia cu VNF. Exemplul din această
figură arată o instanță VNFI care este formată din 4 instanțe VNFCI
de 3 tipuri diferite: „A”, „B” și „C”. Fiecare tip VNFC are propriile
cerințe privind sistemul de operare (OS) și mediul de execuție (de
exemplu, mașina virtuală). Aceste resurse virtuale și cerințele lor de
interconectivitate sunt descrise în elementele modelului de date care
formează un VNFD. Pe lângă cerințele de resurse, un VNFD
conține referințe lipsite de ambiguitate la binare VNF, scripturi,
date de configurare etc., care sunt necesare pentru funcțiile de
gestionare și orchestrare NFV la configurarea corespunzătoare a
VNF.
Cerințele pentru resursele NFVI (de exemplu, cerințe de
conectivitate, lățime de bandă, latență etc.) nu sunt arătate în figura
2.7, dar sunt prezente în VNFD. VNFD poate specifica, de
asemenea, reguli de localizare (de exemplu, unele instanțe VNFC
trebuie să fie pe VM-urile furnizate pe resursele situate în același
rack).
Funcțiile de gestionare și orchestrare NFV iau în considerare
toate atributele VNFD pentru a verifica fezabilitatea instanțierii
28
unui VNF dat, de exemplu se verifică ce tip de resurse necesită
fiecare instanță VNFC.
29
o anumită categorie de VM-uri preconfigurate în domeniul
operatorului.
Ca orice produs, un VNF necesită dezvoltarea continuă a
noilor funcționalități și întreținerea celor existente. Modificările
introduse în timpul dezvoltării și întreținerii sunt adesea clasificate
în actualizări și upgrade-uri. Deși nu există o definiție formală a
unei actualizări (update) și a unui upgrade, la general ele se pot
distinge astfel:
• o actualizare (update) VNF nu introduce funcționalități noi
și interfețe noi;
• un upgrade VNF introduce noi funcționalități și noi
interfețe.
Diferența-cheie constă în faptul că upgrade-urile VNF
necesită planificare la nivelul serviciului de rețea, în timp ce
actualizările VNF pot fi implementate fără coordonare cu alte VNF
participante la același graf de redirecționare VNFFG.
O VNF poate presupune o serie de stări interne care reprezintă
statutul ei (tabelul 2.1). Tranzițiile dintre aceste stări oferă modele
arhitecturale pentru unele funcționalități VNF așteptate.
Stare Descriere
Nulă Instanța VNF nu există și este pe cale
să fie creată
Instanțiată neconfigurată Instanța VNF există, dar nu este
configurată pentru serviciu
Instanțiată configurată- Instanța VNF este configurată pentru
inactivă serviciu
Instanțiată configurată- Instanța VNF participă la serviciu
activă
Încheiată (terminată) Instanță VNF a încetat să mai existe
30
Înainte ca un VNF să-și poată începe ciclul de viață, trebuie să
existe o condiție prealabilă ca VNF să fie încărcat (înregistrarea
VNF la NFVO și încărcarea datelor VNF (VNFD, imagini SW
etc.)). Se poate face o comparație cu ciclul de viață al unui
echipament fizic: se despachetează, se plasează într-o locație, se
alimentează, se conectează la rețea și trece prin diferite etape ale
configurațiilor. Procesul de instanțiere a unui VNF este echivalentul
despachetării, instalării și alimentării unui echipament de rețea.
Pașii de configurare sunt similari cu cei utilizați în dispozitivele
fizice după cum se arată în continuare:
1. La integrarea unui dispozitiv, virtual sau fizic, inițial este
necesară crearea unei adrese IP pentru gestionare (de exemplu,
atribuirea unei adrese prin DHCP). Pentru VNF, configurația este
specificată în VNFD și utilizată în procesul de creare a VM.
2. Înainte ca echipamentul să poată furniza orice funcție,
fiecăreia dintre interfețele sale de date trebuie să i se atribuie o
adresă, de nivelul L2 sau trei L3 (de exemplu, atribuirea adreselor
IP pentru toate interfețele unui router). Pentru instanțierea VNF,
configurația dată este, de asemenea, parte a procesului de creare a
VM.
3. Urmează configurarea de bază, după care dispozitivul de
rețea poate începe să își îndeplinească funcțiile.
Alte evenimente ale ciclului de viață includ scoaterea din
exploatare a VM, actualizarea software-ului pentru o VM,
recuperarea dintr-o stare de eșec sau mutarea unei VM într-o altă
locație. Toate evenimentele sunt gestionate de componenta NFV
MANO așa cum este descris în paragraful 2.4.
Evoluția în virtualizarea serverului are o influență directă
asupra modului în care sunt implementate VNF. De exemplu,
microserviciile cu containere sunt explorate ca o opțiune pentru a
31
optimiza în continuare eficiența implementării NFV, deoarece
timpul de reîncărcare și ștergere a containerelor este mult mai scurt.
Pe termen lung, această opțiune poate justifica o tendință spre
utilizarea containerelor în NFV, mai degrabă decât o mașină
virtuală.
În mod similar, unele îmbunătățiri sunt împinse în virtualizare
datorită utilizării sale de către NFV. De exemplu, interconectivitatea
VNF utilizează aceleași instrumente pe care le utilizează
virtualizarea pentru a interconecta mașinile virtuale sau
containerele. Acest lucru a determinat dezvoltarea unor switch-uri
virtuale mai eficiente, precum și tehnici optimizate de procesare a
pachetelor la nivel de nucleu și la nivelul cardului de interfață de
rețea (NIC), cum ar fi kitul de dezvoltare a planului de date (DPDK)
de la Intel.
32
gestionate de VNFM, dar necesită sprijinul din partea EM pentru a
interacționa cu VNF pe marginea acestui aspect al managementului.
Managementul
FCAPS al VNF
prin intermediul
EM
VNF
EM #1 Manager(s)
(VNFM)
Metode proprietere
VNFM
pentru FCAPS
interacționeză
VNF #1 direct cu VNF
pentru FCAPS
35
Aplicație Aplicație
VNFC imagine
OS kernel OS kernel
invitată invitată Aplicație Aplicație
OS OS
Hypervizor kernel kernel
invitată invitată
OS gazdă Hypervizor
Hardware Hardware
VNFC imagine
Aplicație Aplicație
Hardware
OS containere
36
ale unei funcții de rețea (de exemplu, instanțe pe utilizator pentru un
gateway rezidențial virtual).
În timp ce virtualizarea bazată pe hypervizor oferă o
flexibilitate ridicată în migrarea instanțelor VNFC de la o gazdă de
calcul la alta. Tehnologiile de virtualizare OS containere are o serie
de limitări ale capacităților de migrare. Acest lucru este legat de
distribuția stărilor de execuție VNFC între spațiile utilizatorului și
ale kernel-ului și dificultățile în migrare a structurilor kernel-ului
specifice containerelor (de exemplu, descriptori de proces OS,
descriptori de fișiere).
Containerele sunt o tehnologie ușoară de virtualizare la nivel
de sistem de operare, care partajează kernel-ul gazdă. Containerele
nu abstractizează resursele hardware, spre deosebire de virtualizarea
bazată pe hypervizor. Astfel, pentru anumite scenarii containerele
pot funcționa mai bine în comparație cu mașinile virtuale bazate pe
hypervizori. În alte zone, containerele pot să nu asigure nivelul de
performanță sau să nu suporte tipul de utilizare. În general,
comparativ cu soluțiile bazate pe hypervizor, această abordare poate
rula mai multe instanțe VNFC pe aceeași gazdă fizică, reducând
astfel costurile infrastructurii.
Pentru a rezuma, este esențial înainte de a alege tehnologia de
virtualizare potrivită să se ia în considerare cerințele de abstractizare
și performanță ale sarcinilor de lucru VNF.
Hardware-ul de rețea este abstractizat și realizează căi
virtualizate de conectivitate între VM-urile unui VNF sau între
diferite VNF. Conectivitatea poate fi realizată pe mai multe tehnici,
de exemplu printr-o rețea locală virtuală (VLAN).
37
Elementele principale ale NFVI sunt ilustrate în figura 2.10:
CPU - procesorul generic care execută codul VNFC;
NIC - controlerul interfeței de rețea asigură interconectarea
fizică cu infrastructura domeniu de rețea;
HDD – depozitare, un spațiu de stocare la scară largă și
nevolatil. În implementarea practică, acestea includ discuri rotative
(HDD) și unități SSD.
NFVI
HD
IND
CD
40
• procesoare sistem pe cip care integrează mai multe nuclee,
interfețe DRAM, interfețe de rețea, interfețe de stocare și accelerare
hardware;
• instrucțiuni specifice CPU pentru a controla alocarea
memoriei și accesul direct pe dispozitivele I/O la alocările de
memorie VM;
• îmbunătățiri ale magistralei PCIe, în special SR-IOV (Single
Root-Input Output Virtualisation).
Acestea permit VM-urilor de înaltă performanță să ruleze
eficient ca și cum ar rula nativ pe hardware, fiind sub controlul
complet al hypervizorului.
Domeniul rețelei de infrastructură îndeplinește o serie de
roluri și oferă următoarele:
• canal de comunicare între VNFC-urile unui VNF distribuit;
• canal de comunicare între diferite VNF-uri;
• canal de comunicare între VNF-uri și elementele de
orchestrare și gestionare a acestora;
• canal de comunicare dintre componentele NFVI și
elementele de orchestrare și gestionare a acestora;
• mijloace de implementare la distanță a VNFC-urilor;
• resurse de interconectare cu rețeaua de transport existentă.
Serviciile de conectivitate de bază sunt găzduite de interfața
containerului de infrastructură în numele VNF-urilor. Rolul
infrastructurii este de a furniza un număr mare de instanțe de
servicii de conectivitate discrete. În general, este o cerință
fundamentală ca aceste servicii să fie separate între ele și să nu fie
interconectabile între ele. Aceasta este antiteza rețelei universale a
internetului sau a PSTN-lui.
În arhitectura NFV ESTI, blocul NFVI are nivelul de
virtualizare implementat printr-un hypervizor (dacă se utilizează
VNF ca mașini virtuale) sau LXC/Docker (când se utilizează
containere pentru VNF).
41
2.3.4. Sistemul de suport operațiuni și afaceri (OSS/BSS)
Sistemul de suport operațiuni și afaceri OSS/BSS este o
entitate externă față de NFV care interacționează cu componente
funcționale din cadrul NFV-MANO. Funcțiile OSS/BSS în rețeaua
unui operator asigură gestionarea și orchestrarea sistemelor
moștenite cu vizibilitate completă a serviciilor furnizate.
NFV este o schimbare de paradigmă a modului în care rețelele
actuale sunt construite, operate și modului în care serviciile
furnizate sunt gestionate. Gestionarea rețelei adică adăugarea,
schimbarea și eliminarea resurselor devine dinamică. Pentru ca
NFV-MANO să ofere toate avantajele tehnologiei NFV, ea trebuie
să se integreze și să interacționeze cu entități de management
existente (OSS, BSS), utilizând interfețe oferite de acele entități și
oferind propriile interfețe pentru a fi utilizate de entități externe.
Pentru ca furnizorii de servicii să obțină întregul beneficiu al
NFV, o simplă extindere a modelelor OSS/BSS existente pentru
virtualizare nu va fi suficientă. Evoluția NFV-MANO și OSS/BSS
trebuie coordonată astfel, încât împreună să susțină următoarele:
• interfețe deschise, pentru a facilita automatizarea,
operațiunile de autoservire la nivel de servicii și produse;
• automatizare adaptivă în care funcțiile de management
analizează cerințe de resurse, permițând infrastructurii să furnizeze
resursele și serviciile necesare în acel moment;
• politici care ghidează deciziile necesare pentru a schimba tot
sau o parte a sistemului pentru a îndeplini o funcție dată;
• servicii personalizate care sunt configurate de către operator
sau utilizator pentru a se potrivi preferințelor și cerințelor
individuale ale clienților.
Gestionarea serviciilor end-to-end de către OSS/BSS necesită
convergența prezentării informațiilor de management atât din
sistemele de rețea moștenite, cât și din cele bazate pe NFV.
Un rol important îl are procesarea automatizată în timp real.
Gestionarea agilă a funcțiilor, aplicațiilor și serviciilor de rețea oferă
noi oportunități de venituri, reducând în același timp costurile.
42
Automatizarea poate fi susținută de o abordare aliniată între
OSS/BSS și funcționalitatea NFV-MANO bazată pe următoarelr:
• interfețe deschise și standardizate;
• modele comune de informații;
• mapări la diferite modele de date;
• capacitatea de analize de date în timp real.
Este necesară o abordare flexibilă și dinamică a
managementului bazată pe politici. O provocare-cheie în contextul
OSS/BSS și NFV este suportul procesării în timp real a unei
cantități uriașe de date de la mai multe surse de date (structurate,
semistructurate și nestructurate). Pentru a răspunde nevoii de
operare dinamică a managementului și orchestrării NFV, arhitectura
de management trebuie să sprijine integrarea în timp de execuție a
funcțiilor și proceselor de management. Acest lucru este diferit de
integrarea statică de astăzi, deoarece implică faptul că interfețele
trebuie să fie adaptive pentru a sprijini agilitatea proceselor.
Această abordare adaptivă permite în continuare o evoluție
constantă a sistemelor vechi existente pentru a se integra cu NFV.
43
• Catalog NS;
• Catalog VNF;
• Depozit de instanțe NFV;
• Depozit de resurse NFVI.
Os-Ma-nfvo
OSS/BSS Orchestrator NFV (NFVO)
Or-Vnfm
Ve-Vnfm-em
EM Manager VNF (VNFM)
Ve-Vnfm-vnf Vi-Vnfm
VNF
Vn-Nf Nf-Vi Or-Vi
Managerul infrastructurii virtualizate
NFVI
(VIM)
NFV - MANO
44
Lista care urmează descrie aceste puncte de referință mai
detaliat.
Os-Ma-nfvo: definește comunicarea dintre OSS/BSS și
NFVO și este singurul punct de referință dintre aceste entități. Este
utilizat pentru descrierea serviciului și gestionarea pachetelor VNF,
interogarea serviciului de rețea și a instanțelor VNF din OSS/BSS,
transmiterea evenimentelor și informațiilor despre utilizarea și
performanța instanțelor serviciului de rețea la OSS/BSS.
Ve-Vnfm-vnf: definește comunicarea dintre VNFM și VNF.
Este utilizat de VNFM pentru gestionarea ciclului de viață VNF și a
schimbului de informații de configurare și stare cu VNF.
Ve-Vnfm-em: definește comunicarea dintre blocurile
funcționale VNFM și EM. Suportă gestionarea ciclului de viață
VNF, gestionarea defecțiunilor și a configurației.
Nf-Vi: definește schimbul de informații dintre VIM și
blocurile funcționale din NFVI. VIM îl folosește pentru a aloca, a
gestiona și a controla resursele NFVI.
Or-Vnfm: definește comunicarea dintre NFVO și VNFM,
cum ar fi instanțierea VNF și alte fluxuri de informații legate de
ciclul de viață VNF.
Or-Vi: orchestratorul NFV (NFVO) este definit pentru a avea
un mod direct de comunicare cu VIM pentru a influența gestionarea
resurselor infrastructurii, cum ar fi rezervarea resurselor pentru
VM-uri sau adăugarea de software VNF.
Vi-Vnfm: definește standardele pentru schimbul de informații
între VIM și VNFM, cum ar fi cererea de actualizare a resurselor
pentru VM care rulează un VNF.
Vn-Nf: este singurul punct de referință care nu include nici un
bloc funcțional de managament. Acest punct de referință este
destinat să comunice cerințele de performanță și portabilitate ale
VNF către blocul de infrastructură.
45
2.4.1. Managerul(ii) infrastructurii virtualizate
Managerul infrastructurii virtualizate (VIM) efectuează
controlul și gestionarea resurselor de calcul, stocare și rețea NFVI,
aflate sub autoritatea sa, precum și virtualizarea acestora. Un VIM
poate fi specializat în gestionarea unui anumit tip de resursă NFVI
(de exemplu, numai pentru calcul, numai pentru stocare, numai
pentru rețea) sau poate fi capabil să gestioneze mai multe tipuri de
resurse NFVI.
Conform listei de resurse hardware specificate în arhitectură,
managerul infrastructurii virtualizate efectuează:
Managementul resurselor responsabil de următoarele:
Inventarierea de software (hypervizoare), resurse de calcul,
stocare și rețea dedicate infrastructurii NFV. VIM menține depozite
pentru imagini software, pentru a simplifica alocarea resurselor de
calcul virtualizate.
Gestionarea imaginilor software (adăugarea, ștergerea,
actualizarea, interogarea, copierea) așa cum este solicitat de alte
blocuri funcționale NFV-MAN (de exemplu, NFVO).
Alocarea mijloacelor de virtualizare, de exemplu, VM-uri
pe hypervizoare, resurse de calcul, stocare și conectivitate de rețea
relevantă. VIM păstrează un inventar alocării resurselor virtuale
resurselor fizice.
Gestionarea și alocarea resurselor infrastructurii, de
exemplu, majorarea resurselor alocate VM-urilor, creșterea
eficienții energetice și recuperarea resurselor.
46
(hypervizoare) și resurselor virtualizate (VM). Analiza cauzelor
fundamentale ale problemelor de performanță din perspectiva
infrastructurii NFV.
Colectarea informațiilor privind defectele de infrastructură.
Colectarea de informațiilor pentru planificarea capacității,
monitorizare și optimizare.
47
2.4.3. Orchestratorul NFV (NFVO)
Orchestratorul NFV este responsabil de orchestrarea și
gestionarea infrastructurii și resurselor software NFV și de
realizarea serviciilor de rețea pe NFVI.
Orchestratorul NFV are două responsabilități principale:
1) orchestrarea resurselor NFVI pe mai multe VIM-uri
(Virtualised Infrastructure Manager);
2) gestionarea ciclului de viață al serviciilor de rețea,
îndeplinind funcțiile de orchestrare a serviciilor de rețea.
Mai detaliat:
1) Funcția orchestrarea resurselor NFVI accesează resursele
într-un mod abstract, independent de orice VIM și guvernează
instanțele VNF care partajează resursele infrastructurii NFVI.
Următoarea listă exprimă setul neexhaustiv de funcționalități
efectuate de funcția orchestrarea resurselor NFVI:
• validarea și autorizarea solicitărilor de resurse NFVI de la
managerul (managerii) VNF, deoarece acestea pot avea impact
asupra modului în care resursele solicitate sunt alocate pe unul sau
mai multe puncte de prezență NFVI-PoP. Acordarea resurselor
solicitate este guvernată de politici și poate necesita rezervare
prealabilă;
• gestionarea resurselor NFVI, inclusiv distribuirea,
rezervarea și alocarea lor către instanțele de serviciu de rețea și
instanțele VNF, utilizând un depozit de resurse NFVI. Localizarea
și accesarea unuia sau mai multor VIM-uri și furnizarea locației
VIM corespunzător către VNFM;
• managementul relației dintre instanțele VNF și resursele
NFVI alocate acelor instanțe VNF prin utilizarea depozitului de
resurse NFVI și a informațiilor primite de la VIM;
• gestionarea și aplicarea politicilor pentru instanțele
serviciului de rețea și instanțele VNF. De exemplu, controlul
accesului, rezervarea și alocarea resurselor NFVI, optimizarea
plasării pe baza regulilor de afinitate (affinity)* sau antiafinitate
(anti-affinity) etc.;
48
*) NOTĂ. Afinitate - politică persistentă care forțează linkurile
virtuale (VL) să partajeze aceeași conectivitate fizică.
Antiafinitate - politică persistentă care obligă linkurile virtuale
(VL) să nu partajeze nici o conectivitate fizică.
„Persistent” este utilizat aici pentru a indica faptul că afinitatea
sau antiafinitatea rămâne în vigoare până când consumatorul nu
solicitată o schimbare.
49
• actualizarea serviciului de rețea prin modificarea
configurației serviciului de rețea, cum ar fi schimbarea conectivității
inter-VNF sau a instanțelor VNF constitutive;
• crearea, ștergerea, interogarea și actualizarea VNFFG-urilor
asociate unui serviciu de rețea;
• încheierea serviciului de rețea, adică încetarea instanțelor
VNF constitutive, eliberarea resurselor NFVI asociate NS-urilor și
returnarea în grupul de resurse NFVI, dacă este cazul.
51
redirecționare VNF, informații legate de servicii și modele de
informații privind infrastructura NFV. Aceste șabloane/descriptori
sunt utilizați intern în cadrul managementului și orchestrării NFV.
Blocurile funcționale NFV Management and Orchestration
(MANO) gestionează informațiile conținute în șabloane/descriptori
și pot expune (subseturi de) astfel de informații blocurilor
funcționale aplicabile, după necesitate.
Deci, repozitoriile NFV conțin elemente de informații
utilizate la gestionarea și orchestrarea NFV. Acest paragraf descrie
elementele de informații relevante pentru îmbarcarea și gestionarea
ciclului de viață al VNF și NS.
Serviciul de rețea descrie relația dintre VNF și, eventual, PNF
(Physical Network Functions) și linkurile necesare pentru
conectarea VNF-urilor implementate în rețeaua NFVI. Link-urile
sunt utilizate pentru interconectarea VNF-urile la PNF-uri și
punctele finale.
Se utilizează mai multe categorii de informații:
• informații care se află în descriptori. Acestea sunt șabloane
de implementare (deployment templates) care conțin informații
relativ statice utilizate în procesul de îmbarcare VNF și NS;
• informații care se află în înregistrări. Acestea conțin date de
rulare relativ dinamice, reprezentând instanțe VNF sau NS. Aceste
date sunt menținute pe tot parcursul vieții instanței;
• informații care pot fi transmise între blocurile funcționale la
aceste interfețe.
Informația este structurată în elemente de informații. Un
element de informații conține informații specifice. Poate conține o
singură valoare, dar poate conține și alte elemente de informații.
Prin urmare, elementele de informații pot construi o structură
arbore, specificând separarea acestor elemente.
Elementul de informații poate fi clasificat în trei tipuri
diferite: file (leafs), elemente de referință și sub elemente care
sunt practic un element în sine. Fiecare dintre aceste elemente de
52
informații are un nume unic de-a lungul întregii căi din arbore care
duce la acel element din rădăcina arborelui.
O filă este un singur element de informații care specifică o
valoare. Tipul de date al valorii depinde de informațiile pe care ar
trebui să le transporte.
Elementul de referință este un element de informații care
poartă o referință la un alt element de informații. Acest lucru poate
fi reprezentat de un URI, dar depinde de implementarea concretă a
modelului informațional.
Sub element este un element de informații în sine care
specifică un alt nivel în arbore.
După cum s-a explicat mai sus, fiecare dintre aceste elemente
are un nume unic între ramurile unui arbore. Numele elementului
este reprezentat ca parte a anteturilor clauzelor de mai jos. Clauzele
în sine conțin tabele cu patru coloane. Prima coloană conține
numele elementului de informații, a doua indică tipul său. A treia
coloană oferă cardinalitatea elementului de informații. Dacă
cardinalitatea este un număr întreg pozitiv x, atunci elementul apare
exact de x ori. A patra coloană descrie serviciul. Pentru ilustrare
este adus un fragment de tabel ce descrie serviciul de rețea NSD
(tabelul 2.2).
Tabelul 2.2. Elemente de bază NSD
Cardi-
Nume Tip nalita- Descriere
te
Id Filă 1 ID-ul descriptorului serviciiului
de rețea
vendor Filă 1 Furnizor al serviciului de rețea
vld Referință 0 ... N Legătură virtuală care face
parte din serviciul de rețea
connection Element 1 ...N Acest element descrie un punct
_point de conexiune care acționează ca
punct final al serviciului de
rețea
53
Pentru a descrie un serviciu de rețea și componentele sale sunt
introduse elemente de informații care reprezintă aceste componente.
Există patru elemente de informații definite în afară de elementul de
informație de serviciu de rețea (NS) de nivel superior:
• element de informații despre funcția de rețea virtualizată
(VNF);
• element de informații despre funcția de rețea fizică (PNF);
• element de informație Link Virtual (VL);
• element de informație VNF Forwarding Graph (VNFFG).
Elementele de informații NS, VNF și PNF includ descrieri ale
punctelor de conexiune.
Elementele de informații pot fi utilizate în două contexte
diferite: ca descriptori într-un context de catalog sau ca
înregistrări de instanță într-un context de execuție.
Descriptorul de servicii de rețea (NSD) este un șablon de
implementare pentru un serviciu de rețea care face referire la toți
ceilalți descriptori ce descriu componentele care fac parte din acel
serviciu de rețea.
Descriptorul VNF (VNFD) este un șablon de implementare
care descrie un VNF în ceea ce privește cerințele sale de
implementare și comportament operațional. VNFD este utilizat în
principal de VNFM în procesul de instanțare VNF și gestionare a
ciclului de viață al unei instanțe VNF. Informațiile furnizate în
VNFD sunt, de asemenea, utilizate de NFVO pentru a gestiona și a
orchestra serviciile de rețea și resursele virtualizate pe NFVI.
VNFD conține cerințe de conectivitate, interfață și KPIs care pot fi
utilizate de blocurile funcționale NFV-MANO pentru a stabili
linkuri virtuale adecvate în cadrul NFVI între instanțele sale VNFC
sau între o instanță VNF și interfața punctului final cu celelalte
funcții de rețea.
Descriptorul grafului de redirecționare (VNFFGD - VNF
Forwarding Graph Descriptor) este un șablon de implementare care
descrie o topologie a serviciului de rețea sau o porțiune a serviciului
54
de rețea, făcând referință la VNF și PNF și la linkurile virtuale care
le conectează.
Descriptorul de link virtual (VLD) este un șablon de
implementare care descrie cerințele de resurse necesare pentru o
legătură între VNF-uri, PNF-uri și puncte finale ale serviciului de
rețea, care pot fi îndeplinite prin diferite opțiuni de linkuri
disponibili în NFVI. NFVO poate selecta o opțiune după
consultarea VNFFG pentru a determina NFVI adecvat care trebuie
utilizat pe baza unor necesități funcționale.
Descriptorul de funcții de rețea fizică (PNFD) descrie
cerințele de conectivitate, interfață și KPIs ale linkurilor virtuale
către o funcție de rețea fizică atașată. Acest lucru este necesar dacă
un dispozitiv fizic este încorporat într-un serviciu de rețea pentru a
facilita evoluția rețelei.
NFVO încorporează toți descriptorii:
NSD, VNFFGD și VLD într-un catalog NS;
VNFD este integrat într-un catalog VNF ca parte a unui
pachet VNF.
După cele explicate mai sus se poate defini succint fiecare tip
de repozitoriu reprezentat în figura 2.12.
Catalogul NS reprezintă depozitul tuturor serviciilor de rețea
integrate, susținând crearea și gestionarea șabloanelor de
implementare NS (Network Service Descriptor (NSD), Virtual Link
Descriptor (VLD) și VNF Forwarding Graph Descriptor
(VNFFGD)) prin intermediul operațiunilor de interfață expuse de
NFVO.
Catalogul VNF reprezintă depozitul tuturor pachetelor VNF
încorporate, susținând crearea și gestionarea pachetului VNF
(descriptori VNF, imagini software, fișiere manifest etc.) prin
operații de interfață expuse de NFVO. Atât NFVO, cât și VNFM,
pot interoga catalogul VNF pentru găsirea și recuperarea unui
VNFD pentru a sprijini diferite operațiuni (de exemplu, validarea
sau verificarea fezabilității instanțierii).
55
Depozitul de instanțe NFV conține informații despre toate
instanțele VNF și instanțele serviciului de rețea. Fiecare instanță
VNF este reprezentată de o înregistrare VNF, iar fiecare instanță NS
este reprezentată de o înregistrare NS. Aceste înregistrări sunt
actualizate pe parcursul ciclului de viață al instanțelor respective,
reflectând modificările rezultate din executarea operațiunilor de
gestionare a ciclului de viață NS și a operațiunilor de gestionare a
ciclului de viață VNF. Aceasta susține responsabilitățile NFVO și
VNFM în menținerea integrității și vizibilității instanțelor NS,
respectiv a instanțelor VNF, și a relației dintre acestea.
Depozitul de resurse NFVI conține informații despre
resursele NFVI disponibile, rezervate și alocate, astfel cum sunt
abstractizate de VIM în toate domeniile de infrastructură.
Informațiile sunt utilizate în scopul rezervării, alocării și
monitorizării resurselor. Depozitul de resurse NFVI joacă un rol
important în susținerea orchestrării și guvernării resurselor de
NFVO.
56
exemplu ilustrează cazul în care MRF-P și MRF-C au nevoie de
resurse diferite.
Rf/Ro
Ut Charging
AS
Sh
Functions
Dh
ISC/Ma
UPSF Rf/Ro Iw
Cx Dx SLF IWF
Ib
Network
Attachment Mw Mx
Subsystem I/S-CSCF Ic
Mx IBCF
« Core IMS » Mi Mk
Mr
BGCF
e2
Mw
Other IP Networks
MRB
Mj
Mx Mg
P-CSCF MGCF
MRFC Ie
Gq' Gq'
SGF
PSTN/ISDN
Mn
Gm RACS MRF Mp RACS
MRFP T-MGF
C-BGF I-BGF
UE
Transport Processing Functions (Access and Core)
59
Se observă că, ca orice alt VNF, MRF virtualizat
interacționează cu alte elemente ale arhitecturii NFV, cum ar fi
Managementul și orchestrarea NFV, Infrastructura NFV, OSS/BSS
și sistemele existente.
O instanțiere MRF virtualizată necesită interfețe atât cu
platforma de Management și Orchestrare, cât și cu infrastructura
virtualizată.
60
- alocarea resurselor rețelei IP, cum ar fi subrețele IP,
VLAN-urile și setul de adrese IP ce corespund cerințelor privind
lățimea de bandă și QoS (pierderea de pachete, Jitter, latență);
- capacitate de stocare virtuală care se potrivește cu lățimea
de bandă de citire/scriere I/O prognozată;
• definirea grupului de VM-uri împreună cu regulile lor de
afinitate și antiafinitate;
• modificarea politicii de alocare pentru scenariul scale-in și
scale-out;
• setarea unui set de sonde ale indicatorilor-cheie de
performanță cu praguri corespunzătoare pentru fiecare mașină
virtuală alocată. Această cerința este necesară pentru a informa
VNF (sau VNF EM) în caz de lipsă de resurse;
• oferirea capacității de operațiuni pe VM, cum ar fi migrarea
în timp real a unei VM de la o resursă HW pe alta, oprirea VM și
ștergerea instanței VM.
În ceea ce privește cerințele față de OSS/BSS și sistemele
moștenite, instanțierea MRF virtualizată necesită doar o interfață cu
aceste sisteme existente.
În continuare se expune un caz ilustrativ al mapării
subfuncțiilor de mai sus la VNF și VNFC. Pentru fiecare VNF
identificată, este definit un descriptor VNF (VNFD) cu informații
descrise în termeni funcționali împărțiți în informații de
implementare și operaționale, care abordează ciclul de viață al VNF.
61
descriptorul VNF. Pentru a spori disponibilitatea generală a soluției
se recomandă implementarea a două instanțe pe două VM-uri
situate pe resurse hardware fizice diferite. Se cere o conexiune de
rețea sigură între instanțele MRB. Rețea IP disponibilă cu cel puțin
0,9999, maximum un Ping pierdut în caz de eșec al rețelei, cota
pachetelor pierdute mai mică de 0,5%, întârziere dus-întors mai
mică de 120 ms, întârziere de jitter mai mică de 40 ms.
Din punct de vedere operațional să se asigure suport pentru
procesele tipice în sprijinul tranzițiilor de stare VNF: instanțiere,
configurare, pornire, oprire și terminare.
MRF
MRF-
C+P
MRF
Stocare
62
MRF-C are nevoie de o anumită stocare externă (de tip
RDBMS sau SAN) cu propriul model de redundanță. Reprezentarea
MRF VNF este ilustrată în figura 3.4.
63
de 0,5%, întârziere dus-întors mai mică de 120 ms, întârziere de
jitter mai mică de 40 ms).
65
Procesul general de îmbarcare IMS MRF VNF cu graful de
redirecționare este prezentat în figura 3.6.
Acest scenariu de îmbarcare presupune că s-au realizat toate
configurările de rețea necesare ca premisă (de exemplu, VLAN cu
QoS adecvat, găuri în firewall deschise, multicast/IGMP activat).
Succesiunea generală a îmbarcării este următoarea:
1) NFVO primește o cerere de îmbarcare MRB VNF cu
descriptorul MRB VNFD atașat.
2) NFVO validează conținutul MRB VNFD și, dacă este
valid, îl stochează în catalogul său VNF.
MRB
VNFD
NFVO
MRF Catalog
VNFD VNF
66
3) NFVO primește o cerere de îmbarcare MRF VNF cu MRF
VNFD atașat.
4) NFVO validează conținutul MRF VNFD și, dacă este valid,
îl stochează în catalogul său VNF.
5) NFVO primește o cerere de îmbarcare a grafului de
redirecționare IMS MRF VNF cu IMS MRF VNFFGD atașat.
6) NFVO validează conținutul IMS MRF VNFFGD. Aceasta
verifică dacă MRB și MRF VNFD sunt prezenți în catalogul VNF,
deoarece aceștia sunt menționați de IMS MRF VNFFGD. Dacă IMS
MRF VNFFGD este valid, NFVO îl stochează în catalogul său NS.
7) Dacă există o eroare, eroarea se returnează către apelant.
În final, cei doi descriptori VNFD (MRB, MRF) și
descriptorul IMS MRF VNF Forwarding Graph sunt acum
îmbarcați și disponibili pentru NFVO.
67
2) NFVO verifică dacă IMS MRF VNF Forwarding Graph
este îmbarcat și descriptorul respectiv este prezent în catalogul NS,
precum și prezența MRB VNFD și MRF VNFD în catalogul VNF.
3) NFVO verifică validitatea datelor de instanțiere furnizate
față de VNFD-urile catalogate pentru MRB și MRF și IMS MRF
VNFFGD.
4- Verifică regulile de
afinitate și anti-afinitate
pentru a determina
locația instanțelor
5- Verifică
disponibilitatea
6- Returnare eroare resurselor identificate
68
cum a fost descris anterior. Caracteristicile necesare pentru fiecare
VM sunt furnizate de informațiile din VNFD.
5) NFVO validează disponibilitatea îndeplinirii cererii de
către resursele identificate în etapa anterioară.
6) Dacă există o eroare, ea se returnează către apelant.
9-Creare server
(MRF-1, VM-2,...)
10- Creare VM-2
Răspuns VM-2 info
VM-2
Răspuns VM-2 info
11-Creare server
(MRF Storage-1,
VM-3,...)
12- Creare VM-3 VM-3
Răspuns VM-3 info
Răspuns VM-3 info
69
7) NFVO trimite o comandă de creare server către
infrastructura NFV pentru a crea VM-1, unde va fi găzduită
instanța MRB-1 cu informațiile provenite de la MRB VNF.
8) NFVI trimite la rândul său o cerere către hypervizor pentru
a crea VM-1, folosind imaginea furnizată. NFVI returnează
informația despre VM creată la NFVO.
9) NFVO trimite o comandă de creare server către NFVI
pentru a crea VM-2, unde va fi găzduită instanța MRF-1 cu
informațiile provenite de la MRF VNF.
10) NFVI trimite la rândul său o cerere către hypervizor
pentru a crea VM-2, folosind imaginea furnizată. NFVI returnează
informația despre VM creată la NFVO.
11) NFVO trimite o comandă de creare server către NFVI
pentru a crea VM-3, unde va fi găzduită instanța MRF Storage-1 cu
informațiile provenite de la MRF VNF.
12) NFVI trimite la rândul său o cerere către hypervizor
pentru a crea VM-3, folosind imaginea furnizată. NFVI returnează
informația despre VM creată la NFVO.
13) Dacă există o eroare, ea se returnează către apelant.
14) Pașii de la 7 la 13 se repetă pentru a doua resursă HW#2
pentru a crea:
a) VM-4 ce găzduiește MRB-2 (rol: standby);
b) VM-5 ce găzduiește MRF-2, (rol: activ);
c) VM-6 ce găzduiește MRF Storage 2 (rol: slave).
15) Pașii 8 și 9 se repetă pentru a treia resursă HW#3 pentru a
crea VM-7 ce găzduiește MRF-3 (rol: activ).
Pornește aplicația
21-Aplicația se
sincronizează
cu alte
71
19) Imediat ce toate fișierele de definire a instanțierii au fost
transmise, NFVO oferă un răspuns de succes la furnizarea IMS
MRF.
20) Fiecare VM citește fișierul de definire a instanțierii, își
descoperă tipul VDU și pornește aplicația.
21) Pe baza tipului său de VDU și a datelor din fișierul
definiție a instanței, instanța aplicației (MRB-1, MRB-2, MRF-1,
MRF-2, MRF-3, MRB Storage-1 și MRB Storage-2) se
sincronizează între ele. De exemplu, registrele secundare cu cele
primare.
După obținerea fișierului de definiție a instanțierii de VM
aplicația se configurează și pornește în mod automat.
Succesiunea descrisă este ilustrată de diagrama de secvență
(figura 3.9) în care VM#X este una dintre instanțările VM și
VNF#X este una dintre instanțele artefactului aplicației.
72
SDN, pe de altă parte, simplifică conectivitatea dintre
elementele de rețea fizice și virtuale la nivelul 2/3 prin protocoale
de virtualizare a rețelei, cum ar fi OpenFlow.
Principiile generale și arhitectura rețelelor definite prin
software SDN, precum și protocolul OpenFlow sunt explicate în
[15].
NFV și SDN introduc schimbări radicale în arhitectura rețelei
de telecomunicații. Atât SDN cât și NFV oferă abordări diferite
pentru implementarea rețelei flexibile, scalabile, elastice și agile.
Deși aceste două tehnologii pot fi implementate independent,
principiile SDN pot fi aplicate NFV prin virtualizarea funcției de
rețea, precum și prin separarea funcției nivelului de control de
nivelul resurselor. Principiile NFV și SDN pot fi aplicate majorității
elementelor de rețea de acces și la nivel de core. Routerele și
comutatoarele, în rețelele LAN și WAN, pot fi înlocuite cu
comutatoare white box care acceptă abordări SDN cum ar fi
OpenFlow. În mod similar, majoritatea elementelor bazate pe
hardware, cum ar fi nodurile IMS, platformele EPC (Evolved
Packet Core) și platformele CDN (Content Delivery Network), pot
fi virtualizate pe infrastructura cloud cu NFV. Furnizorii de servicii
cloud explorează, de asemenea, alternative pentru migrarea
echipamentelor periferice ale clienților (CPE) bazate pe hardware,
cum ar fi STB (Set Top Boxes), la principiile bazate pe NFV.
În cadrul arhitectural NFV, soluțiile SDN ar putea fi utilizate
în domeniul infrastructurii, în domeniul chiriașilor sau în ambele.
Când este utilizat în domeniul infrastructurii, controlerul SDN
acționează ca un controler de rețea, conform ETSI GS NFV-MAN
001 [11]. Controlerul de rețea este bloc funcțional care centralizează
unele sau toate funcționalitățile de control și gestionare ale unui
domeniu de rețea și oferă o vedere abstractă a domeniului său către
alte blocuri funcționale prin interfețe bine definite.
În prezenta lucrare, SDN se referă la controlul software al
resurselor fizice sau virtuale ale rețelei care utilizează interfețe
73
standard (API-uri deschise) pentru a facilita interoperabilitatea și
evoluția într-un mediu multifurnizor.
Controlerul SDN nu este neapărat o entitate fizică autonomă,
el poate fi de exemplu o componentă software a VIM. Dacă
tehnologia SDN este utilizată în domeniul infrastructurii, managerul
VIM, controlerul SDN și resursele de rețea (fizice sau virtuale)
formează o ierarhie pentru furnizarea de servicii de conectivitate. În
unele cazuri, mai multe controlere SDN formează o ierarhie între
management și resurse, în funcție de plasarea funcționalității.
Responsabilitatea controlerului SDN include funcții de control
foarte specifice, interacționând cu agenții responsabili de funcțiile
de control și management.
În IETF RFC 7426 [16] se discută distincția dintre nivelul de
control și funcțiile de management într-un mediu SDN. Pe scurt,
nivelul de control ia decizii cu privire la modul în care pachetele
sunt redirecționate de resursele de rețea și impune aceste decizii
resurselor de rețea pentru executare. Funcțiile de managament sunt
în principal responsabile de monitorizarea, configurarea și
întreținerea resurselor de rețea, de exemplu luarea deciziilor cu
privire la starea resurselor rețelei. Distincția dintre nivelul de
control și cel de management a devenit oarecum confuză datorită
centralizării logice a controlului, care este specifică mai mult
managementului.
Deci, nivelul de control se ocupă de traficul de date, nivelul
de management are responsabilitatea configurării, monitorizării
defecțiunilor și gestionării resurselor de rețea.
După cum s-a menționat mai sus, accentul se pune pe modul
în care serviciile de rețea și resursele asociate ar putea fi integrate
cu cadrul arhitectural NFV. În procesul de integrare a SDN în NFV
apar multe probleme tehnice și nontehnice cu privire la entitățile
funcționale care constituie acest cadru arhitectural integrat, cum ar
fi:
• poziția resurselor SDN;
• poziția controlerului SDN;
74
• softwarizarea și virtualizarea diferitelor entități SDN;
• interacțiunea dintre managerul de elemente EM, managerii
VNF, controlorii SDN și aplicațiile SDN care devin VNF activate;
• ierarhia rețelelor SDN;
• poziția rețelelor SDN suprapuse;
• altele.
Diferite entitățile SDN pot fi plasate în mai multe locații în
cadrul NFV. În cele ce urmează se va discuta despre plasarea
resurselor, controlerului și aplicațiilor SDN în structura NFV.
75
*) NOTĂ. Arendaș sau chiriaș (tenant): unul sau mai mulți
utilizatori de servicii NFV-MANO care partajează accesul la un set de
resurse fizice, virtuale sau de servicii [6].
Os-Ma
OSS/BSS Orchestrator
(NFVO)
VNF
EM 1 EM 2 EM 3 Ve-Vnfm
Manager(i)
Ve-Vnfm
(VNFM)
Vn-Nf
Vi-Vnfm
NFVI
Or-Vi
Calcul Stocare Rețea
virtual virtuală virtuală b
Manager(i)
Nf-Vi Infrastructură
virtualizată
(VIM)
Nivel de virtualizare
VI-Ha VI-Ha
Resurse hardware
Managemant și
Resursă Resurs Resursă
calcul stocare rețea a Orchestrare NFV
c (MANO)
X - Resurse SDN
76
Un exemplu de caz d este ilustrat în NFV PoC#14 (clauza
B.5) [18]. Acest PoC (Proof of Concept) a demonstrat utilizarea
SDN într-un mediu NFV împărțind Gateway-rile de servicii (SGW)
și pachete (PGW) al arhitecturii LTE (Long Term Evolution) în
straturi de control și de date cu interfețe deschise între ele. PoC#14
demonstrează că funcționalitatea stratului de date ar putea fi
implementată ca VNF și controlată ca resursă de rețea.
O altă entitate considerată în procesul de integrare a
tehnologiilor este controlerul SDN, care interacționează cu resursele
de rețea SDN prin intermediul interfeței de control al resurselor RCI
(Resource Control Interfaces). Un controler SDN poate interacționa
cu mai multe resurse de rețea SDN.
Există câteva posibile scenarii de locație a controlerului SDN
în cadru NFV (figura 4.2):
• Cazul 1. Controlerul SDN poate fi fuzionat cu
funcționalitatea managerului de infrastructură virtualizată (VIM). În
acest caz, cele două funcții nu se disting.
• Cazul 2. Controlerul SDN poate fi virtualizat în calitate de
funcție de rețea VNF în sine, cu managerul său EM & VNF sau ca
parte dintr-o VNF.
• Cazul 3. Controlerul SDN ca parte din infrastructura NFVI.
Acesta este un caz clasic al controlerului SDN pentru conectivitatea
de rețea din NFVI, unde controlerul SDN nu este implementat ca
VNF.
• Cazul 4. Controlerul SDN ca parte din sistemele de suport
operațiuni și afaceri OSS/BSS.
• Cazul 5. Controlerul SDN poate fi și ca funcție de rețea
fizică (PNF).
Pot exista controlere SDN pentru infrastructura fizică,
infrastructura virtuală și funcțiile de rețea virtuală și fizică. Unele
dintre aceste controlere SDN pot fi plasate în blocurile funcționale
NFVI sau MANO.
77
Os-Ma
Orchestrator
4 OSS/BSS V (NFVO)
IV
VNF
EM 1 EM 2 EM 3 Ve-Vnfm
Manager(i)
Ve-Vnfm
(VNFM)
78
Controlerele SDN ar putea apărea ierarhizate pe blocuri
funcționale. De exemplu, un controler SDN colocalizat cu VIM
(cazul 1) invocă un controler SDN în NFVI (cazul 3) pentru a aloca
resurse de rețea NFVI. Cazul dat este posibil când controlerul VIM
SDN controlează direct vSwitch activat SDN și indirect printr-un
controler NFVI SDN comutatoarele SDN fizice. Controlerul SDN
virtualizat (cazul 2) poate fi o componentă VNFC sau o VNF, sau
un serviciu de rețea (NS) compus din mai multe VNF ca
subelemente ale controlerului SDN.
Controler SDN se implementează într-un cadru arhitectural
NFV printr-o imagine software și o descriere a resurselor necesare
dată de descriptorii respectivi.
A treia entitate considerată este aplicația SDN. O aplicație
SDN poate interacționa cu mai multe controlere SDN. Sunt posibile
mai multe scenarii de poziționare a aplicațiilor SDN în cadrul
arhitectural NFV, cum ar fi:
• Cazul I, ca parte a unui PNF. Echipamentul de rețea poate fi
un dispozitiv fizic care interacționează cu un controler SDN.
• Cazul II, ca parte a VIM. VIM poate fi o aplicație care
interacționează cu un controler SDN în NFVI - de exemplu,
OpenStack Neutron ca VIM care interacționează cu un controler
SDN în NFVI.
• Cazul III, virtualizată ca VNF. O careva aplicație SDN ar
putea fi un VNF care interacționează cu un controler SDN. De
exemplu, o funcție virtualizată PCRF (Policy Control and Routing
Function) VNF ar putea interacționa cu un controler SDN pentru
gestionarea politicilor și redirecționarea traficului.
• Cazul IV, ca parte a unui EM. Aplicația SDN ca manager de
elemente care interacționează cu controlerul SDN pentru a colecta
unele valori sau a configura unii parametri.
• Cazul V, ca parte a OSS/BSS. Aplicația SDN
interacționează cu controlerul SDN în OSS/BSS pentru definițiile
serviciului SDN pentru chiriași.
79
În desfășurare sunt o serie de proiecte care utilizează în mod
colectiv instrumentele open source disponibile atât în SDN, cât și în
NFV. Un astfel de exemplu este proiectul comun Open Networking
Lab (ON.Lab) și AT&T numit CORD (Central Office Re-
Architected as Datacenter). Acest proiect este discutat mai detaliat
pentru a prezenta și explica integrarea SDN și NFV.
80
Figura 4.3. Topologia Leaf-Spine a arhitecturii centrului de date
81
4.3.2. Proiectul R-CORD
Diagrama generică a arhitecturii CORD este reprezentată de
figura 4.4. Arhitectura CORD include un set de hardware și
software. Sistemul de operare ONOS (Open Network Operating
System) este utilizat ca controler SDN. Sistemul de operare ONOS®
este principalul controler open source SDN pentru construirea de
soluții SDN/NFV de generație următoare găzduit de Linux
Foundation.
Serviciile de rețea sunt implementate de VNF-urile care
rulează pe hardware COTS, iar orchestrarea NFVI se efectuează de
OpenStack. OpenStack este o platformă open source de cloud
computing, desfășurată în cea mai mare parte ca infrastructură ca
serviciu (IaaS) atât în cloud public, cât și privat.
Sistemul de operare în cloud deschis XOS îmbină aceste
elemente pentru a face posibilă crearea, gestionarea, rularea și
oferirea de servicii. XOS îndeplinește rolul de VNFM, rulează
deasupra OpenStack și ONOS pentru managementul serviciilor în
CORD.
Așa cum se arată în figura 4.4, serverele COTS și rețeaua de
bază sunt construite în stilul leaf - spine al arhitecturii centrului de
date.
Echipa de coordonare tehnică (TST) CORD a stabilit un șir de
proiecte sub umbrela CORD printre care:
Rezidențial - Residential CORD (R-CORD);
De întreprindere - Enterprise CORD (E-CORD);
Mobil - Mobile CORD (M-CORD);
Pentru analize - Analytics for CORD (A-CORD).
82
XOS
Controler Orchestrator
SDN (ONOS) NFVI (OpenStack)
SPINE SPINE
Switch Switch
83
Obiectivele principale sunt:
reducerea cheltuielilor CAPEX/OPEX;
evitarea dependenței de furnizorii de echipamente de
telecomunicații;
crearea de servicii agile.
Exemplul dat prevede utilizarea SDN, NFV și Cloud la
rețeaua de acces formată din CPE (Customer premises equipment)
la domiciliu și terminale de linie optică OLT (optical line
terminator ) GPON, Switch-ul de agregare și BNG (Broadband
Network Gateway) la oficiul central CO. Implementarea presupune
utilizarea doar a elementelor SW și HW open source. De exemplu,
echipamente HW: White BoX SDN Switch, server x86, Open OLT
blade, Open Blade ROADM și soluții SW: ONOS, OpenStack,
XOS.
În primul rând, planul de control OLT (conectarea ONT,
autentificarea, alocarea/gestionarea abonat 802.1X VLAN, IGMP
snooping, OAM etc.) procesat de CPU în placa de control a OLT
veche a fost îndepărtat și plasat pe serverul x86 situat în rețea
(aplicația vOLT din figura 4.5).
Dispozitivul OLT dezagregat și virtualizat pentru GPON este
numit vOLT.
Funcțiile care erau îndeplinite de planul de control al BNG în
sistemul vechi vor fi gestionate de asemenea de aplicația vOLT.
Aplicația vOLT interacționează:
I) cu serverul Radius (pentru autentificare);
II) cu controlerul SDN (pentru alocarea VLAN per abonat la
blade-ul cardului de linie OLT);
III) cu aplicație de control SF (switch fabric) pentru
configurarea căii la structura comutatorului în CO.
Rolul plăcii de control, care este de a controla, configura și
gestiona placa de comutare și cârdurile de linie GPON prin
interfețele proprietare ale furnizorului, este înlocuit de controlerul
SDN ONOS. Plăcile de comutare sunt înlocuite de switch-uri ToR
(Leaf) în CO.
84
Figura 4.5. Oficiul central GPON după implementarea R-CORD
85
sine. Fiecare paletă (blade) de cartelă open GPON este conectată la
un comutator ToR prin porturi uplink de 40 Gbps.
L3 CPE (cunoscut și sub numele de RG, Residential
Gateway) instalat în casele abonaților este responsabil de funcții
precum autentificarea, DHCP și NAT. CPE este virtualizat și toate
funcțiile software sunt mutate pe containerul din VM-ul din serverul
vSG (Virtual Subscriber Gateway) situat în CO. La domiciliul
abonatului rămâne doar CPE HW (funcțiile de Switch și Wi-Fi
modem).
Odată cu efectuarea modificărilor descrise, rețeaua de acces
moștenită se va transforma într-o arhitectură complet inovată,
bazată pe SDN și NFV.
Planul de date din rețeaua de acces este procesat de HW open
source și VNF (vSG) la prețuri reduse. HW open source este
controlat de controlerul SDN și orchestratorul NFV, care sunt, de
asemenea, SW open source, cum ar fi ONOS, XOS și OpenStack.
Încheiere. Transformarea digitală bazată pe NFV este o
revoluție care se desfășoară în industria comunicațiilor electronice.
Ea poate fi comparată doar cu înlocuirea centralelor telefonice
automate (CTA) analogice cu cele digitale, care a avut loc în urmă
cu 40-50 de ani și a durat mulți ani în șir. La fel, ca „digitalizarea”
CTA în urmă cu jumătate de secol, „NFV-zarea” probabil va dura
destul de mult timp.
86
BIBLIOGRAFIE
87
12. Nazaroi Ion. Sisteme și rețele de comunicații digitale.
Ciclu de prelegeri. Partea 2. Chișinău: Editura ”Tehnica-UTM”,
2015. - 60 p.
13. Nazaroi Ion. Subsistemul mutimedia IP. Ciclu de
prelegeri. Chișinău: Editura ”Tehnica-UTM”, 2020. - 87 p.
14. ETSI TS 123 218: ”Digital cellular telecommunications
system (Phase 2+); Universal Mobile Telecommunications System
(UMTS); LTE; IP Multimedia (IM) session handling; IM call
model; Stage 2 (3GPP TS 23.218)”.
15. Nazaroi Ion. Rețele definite prin software. Ciclu de
prelegeri. Chișinău: Editura ”Tehnica-UTM”, 2019. - 56 p.
16. IETF RFC 7426. ”Software-Defined Networking (SDN):
Layers and Architecture Terminology”, 2015.
17. ETSI GS NFV-EVE 005: ”Network Functions
Virtualisation (NFV); Ecosystem; Report on SDN Usage in NFV
Architectural Framework, v1.1.1”, 2015.
18.https://nfvwiki.etsi.org/index.php?title=E2E_vEPC_Orche
stration_in_a_multi-vendor_open_NFVI_environment#PoC_Report
19. https://opennetworking.org/cord/
88
ACRONIME ȘI ABREVIERI
89
DPDK Data Plane Development Kit
DSL Digital Subscriber Line
DSP Digital Signal Processor
E2E End-to-End
EM Element Manager
EMS Element Management System
EPC Evolved Packet Core
ETSI European Telecommunications Standards Institute
FCAPS Fault, Configuration, Accounting, Performance and
Security
FG Forwarding Graph
FTTdp Fibre-To-The distribution point
FTTH Fibre-To-The Home
FTTN Fibre-To-The-Node
FTTP Fibre To The Premises
FW Firewall
GGSN Gateway GPRS Support Node
GPON Gigabit Passive Optical Network
GPRS General Packet Radio Services
GUI Graphical User Interface
GW Gateway
HA/LB High Availability/Load Balancing
HDD Hard Disk Drive
HLR Home Location Register
HSS Home Subscriber Server
HTTP Hypertext Transfer Protocol
HW Hardware
IaaS Infrastructure as a Service
I-CSCF Interrogating-Call Session Control Function
IDS Intrusion Detection System
IGMP Internet Group Management Protocol
IMS IP Multimedia Subsystem
I/O Input Output
IoT Internet of Things
90
IP Internet Protocol
IPSec Internet Protocol Security
ISP Internet Service Provider
IT Information Technology
IVR Interactive Voice Response
KPI Key Performance Indicator
KVM Kernel Virtual Machine
L3VPN Layer 3 Virtual Private Networks
LAN Local Area Network
LB Load Balancer
LTE Long-Term Evolution
LTE-A Long-Term Evolution-Advanced
LXC Linux container
MAC Media Access Control
MANO Management and Orchestration
MGCF Media Gateway Control Function
MRB Media Resource Broker
MRF Media Resource Function
MRF-C Multimedia Resource Function Controller
MRF-P Multimedia Resource Function Processor
NaaS Network as a Service
NAT Network Address Translation
NF Network Function
NFV Network Functions Virtualisation
NFVI Network Functions Virtualisation Infrastructure
NFVIaaS Network Functions Virtualisation Infrastructure as a
Service
NFVI-PoP Network Functions Virtualisation Infrastructure Point
of Presence
NFV ISG NFV Industry Specification Group
NFV-MANO NFV Management and Orchestration
NFVO NFV Orchestrator
NGN Next Generation Networks
NIC Network Interface Controller
91
NIST National Institute of Standards and Technology
NMS Network Management System
NS Network Service
NSD Network Service Descriptor
OLT Optical Line Termination
ONF Open Networking Foundation
ONOS Open Network Operating System
ONT Optical Network Terminal
ONU Optical Network Unit
OPEX Operational Expenses
OS Operating System
OSS Operations Support System
OTT Over-The-Top
PaaS Platform as a Service
PCI Peripheral Component Interconnect
PCRF Policy and Charging Control Function
PDN-GW Packet Data Network Gateway
PGW Packet Data Network Gateway
PNF Physical Network Function
PNFD Physical Network Function Descriptor
PoC Proof of Concept
PON Passive Optical Network
PoP Point of Presence
PSTN Public Switched Telephone Network
QoE Quality of Experience
QoS Quality of Service
RAM Random Access Memory
RAN Radio Access Network
RCI Resource Control Interfaces
R-CORD Residential Central Office Re-architected as a Datacenter
RDBMS Relational DataBase Management System
RISC Reduced Instruction Set Computer
RGW Residential Gateway
RNC Radio Network Controller
92
SaaS Software as a Service
SAN Storage Area Network
SBC Session Border Controller
SDD Solid-State Drive
SDN Software Defined Networks
S-CSCF Serving Call Session Control Function
SD-WAN Software Defined Wide Area Network
SGW Serving Gateway
SGSN Serving GPRS Support Node
SIP Session Initiation Protocol
SLA Service Level Agreement
SNMP Simple Network Management Protocol
SR-IOV Single Root Input Output Virtualisation
SSD Solid State Disk
SSL Secure Sockets Layer
STB Setup Box
SVC/PVC Switched Virtual Circuit /Permanent Virtual Circuit
SW SoftWare
SWA Software Architecture Work group
ToR Top-of-Rack
URI Uniform Resource Indetifier
vCPU Virtualised CPU
VDU Virtualisation Deployment Unit
VIM Virtual Infrastructure Manager
VL Virtual Link
VLD Virtual Link Descriptor
VLAN Virtual Local Access Network
VM Virtual Machine
VMM Virtual Machine Manager
VNF Virtual Network Function
VNF FG VNF Forwarding Graph
VNFC Virtualised Network Function Component
VNFCI VNF Component Instance
VNFD VNF Descriptor
93
VNFFG VNF Forwarding Graph
VNFFGD VNFFG Descriptor
VNFI VNF Instance
VNFM Virtualised Network Function Manager
vNIC Virtual Network Interface Controller
VPN Virtual Private Network
VPLS Virtual Private LAN Service
vRAM Virtualised Random Access Memory
VR/AR Virtual Reality/Augmented Reality
VXLAN Virtual Extensible LAN
WAN Wide Area Network
94
CUPRINS
Introducere........................................................................................3
1. Virtualizarea în tehnologia informației......................................5
1.1 Definiția virtualizării.............................................................5
1.2 Tehnici de virtualizare...........................................................7
1.3 Containere și Docker...........................................................11
95
Virtualizarea funcțiilor de rețea
Ciclu de prelegeri
––––––––––––––––––––––––––––––––––––––––––––––––––––––
Bun de tipar 09.02.21 Formatul 60x84 1/16
Hârtie ofset. Tipar RISO Tirajul 50 ex.
Coli de tipar 6,0 Comanda nr. 12
––––––––––––––––––––––––––––––––––––––––––––––––––––––
2004, UTM, bd. Ştefan cel Mare şi Sfânt, 168
Editura „Tehnica-UTM”
2045, Chişinău, str. Studenţilor, 9/9