Sunteți pe pagina 1din 13

Anlisis de Teoras y Modelos para Calidad de

Servicio en Internet
Stephen Rodrguez Ortegn

RESUMEN - Se realiza un anlisis del entorno de


Calidad de Servicio actual, para identificar como se
puede aplicar en la red ms grande que es Internet. El
documento se encuentra dividido en dos partes: en la
primera de ellas se hace una revisin rpida de
conceptos bsicos de QoS como Arquitecturas,
Mecanismos de Encolamiento y Algoritmos de
Regulacin de Velocidad; necesarios para entender la
segunda parte. En la segunda parte se hace un
seguimiento del artculo Teoras y Modelos para
Calidad de Servicio en Internet [1], donde se analizan
conceptos modernos como Network Calculus y la
propuesta de Ion Stoica [2] para un Stateless Core; si es
conocedor del tema, podra iniciarse directamente por
aqu. El objetivo final del documento es bajar la teora
general de QoS a un nivel ms comprensible.
Palabras Clave: Calidad de Servicio, Servicios
Diferenciados, Servicios Integrados, Encolamiento,
Conformado de Trfico, Agregacin de Flujos, Ncleo
Sin-Estado.

ABSTRACT - This is an analysis about Quality of


Service current environment to identificate how to use it
on bigger network that is Internet. Paper has two parts:
first is a quick review about QoS basic concepts such as
Architectures, Queueing and Packet Rate Control
Algorithms; all them necessaries for second part
understanding. Second part is analysis about QoS on
Internet and modern concepts such as Network Calculus
and Stoica's Stateless Core. The goal of this document is
do QoS theory more compressible by beginner students.
Keywords: Quality of Service, Differentiated Services,
Integrated Services, Packet Scheduling, Queueing
Algorithms, Traffic Shaping, Traffic Policing, Leaky
Bucket, Token Bucket, Flow Aggregation, Stateless
Core.

INTRODUCCIN
Calidad de servicio o QoS (Quality of Service, por sus
siglas en ingls) refiere a una coleccin de tcnicas y
tecnologas usadas en las redes de datos para mejorar la
percepcin del usuario sobre el rendimiento de los
servicios de red que utiliza. La meta principal de QoS es

proveer garantas en la habilidad de la red para entregar


resultados predecibles, segn una definicin de la ITU
[3].

El incremento de servicios y necesidades de


comunicacin en las redes de datos provoca un
incremento en el trfico de informacin tal que supera
las capacidades de los canales usados, causando
congestin. El tratamiento incorrecto de la congestin
provoca que la percepcin del servicio sea desfavorable
y que el rendimiento de ciertas aplicaciones que
requieren tiempo real se vea afectado severamente.

La red de un Proveedor de Servicios de Internet o ISP


(Internet Service Provider) debe crecer a mayor
velocidad de lo que crece la demanda de servicios que
puede ofrecer y adems de ello necesita garantizar una
calidad de servicio aceptable para complacer a sus
clientes. La ecuacin de inversin necesaria para crecer
debe ser rentable, y segn el sistema actual, el hardware
es costoso. Queremos optimizar el hardware. Y sin
embargo, queremos que el cliente est satisfecho.

El trfico de capa 2 y 3 es estadstico, por ello funciona


con rfagas. Es predecible a largo plazo y en grandes
cantidades, por ejemplo a nivel de una ISP. Los
fabricantes o vendors optimizan el hardware para disear
ms servicios y agregar caractersticas o features a sus
dispositivos. Eso tambin tiene impacto ambiental y
publicitario favorable en cuanto al menor uso de energa.

Las redes IP fueron diseadas originalmente como NO


orientadas a la conexin, de tal forma que descartar
informacin era aceptable, pero los servicios de nueva
generacin exigen rendimiento similar al de redes de
circuitos en redes de paquetes. Las tecnologas como
Ethernet son un ejemplo de redes no diseadas para
soportar trfico priorizado o trfico garantizado, pero su
alta difusin hace tomar medidas para llevarla a un nivel
que lo simule. De ah, el xito de MetroEthernet.

Availability: Es la disponibilidad del servicio, medido en


la cantidad de tiempo total que el servicio permanece
activo o Uptime.

Ilustracin 1. Diferentes tipos de trfico vs. Diferentes tipos de


Latencia. [4]

Paralelamente con la implementacin del QoS debera


ser desplegado el sistema de monitoreo para la medicin
de los parmetros de calidad de la red, que permita
asegurar el rendimiento al nivel deseado. La
administracin de red que se agrega debido a la
aplicacin de QoS debe ser mnima y por consecuencia
simple, para que el esfuerzo sea dedicado a la ingeniera
de trfico.

Parte I

Throughput: Refiere al volumen de trabajo de la red, es


afectado por el Packet Loss debido a que los continuos
reenvos de paquetes disminuyen la eficiencia de la
relacin entre el volumen de trfico enviado y el trfico
realmente usable o til. Afecta directamente el Ancho de
Banda o Bandwidth (capacidad del enlace) consumido
de la red en bit/s.

Performance: Desempeo medido en porcentaje de


paquetes ntegros. Deseable que sea muy alto para
aprovechar al mximo el recurso.

Reliability: Confiabilidad. Representa la tolerancia a las


perdidas en el flujo de paquetes.

Granularity: Capacidad de separar el trfico en flujos


dependiendo del tipo o del cliente. Un flujo es el trfico
enviado desde el emisor hasta un receptor en el otro
extremo a travs de la red.

Parmetros de QoS [RFC2330]


Packet Loss: Refiere a la cantidad de paquetes que son
descartados en una comunicacin, dependiendo del
trfico estos paquetes son reenvados o son ignorados.
En aplicaciones de lectura en continuo o Streaming
como video Online los paquetes perdidos son ignorados,
en cambio en otras como FTP son reenvado desde la
fuente.

Delay: Retardo en la transmisin. Se mide con el RoundTrip-Time que es tiempo que tarda un paquete en ir al
destino y regresar la fuente del trfico.

Latency: Refiere a la suma de retardos temporales dentro


de la red debido a la propagacin, transmisin y
procesamiento en los equipos de red. Servicios como
VoIP exigen un rango mximo de latencia para que la
comunicacin sea entendible.

Jitter o Delay Jitter: Fluctuacin o variacin del retardo


entre paquetes consecutivos, esta variacin hace que los
servicios sincrnicos pierdan la comunicacin.

Clasificadores
En cada tecnologa suele usarse un campo especfico
dentro del encabezado para marcar los paquetes y as
realizar la clasificacin:

En capa 2 para el protocolo Ethernet 802.1p se


usa el campo PCP (Priority Code Point) de 3
bits que permite asignar hasta 8 clases de
prioridad diferente.
En capa 3 para IPv4 se usa el campo ToS/DSCP
o el campo Traffic Class en IPv6.
En MPLS, que es intermedio entre capa 2 y 3, se
usa el campo Exp (Experimental) de 3 bits.

Nos vamos a centrar en los campos de IP (Internet


Protocol) dado que las otras tecnologas estn fuera del
alcance de este documento.

TOS/DSCP and ECN


Inicialmente ToS (Type of service) [RFC791] [5] refera
a un campo experimental de 8 bits en el encabezado de
IPv4, que posteriormente, se redefine para especificar
los primeros 6 bits como el campo DSCP (Differentiated
Services Code Point) [RFC5865] [6] que caracterizan el
trfico para asignarle prioridad y los siguientes 2 bits
para el campo ECN (Explicit Congestion Notification)

que trabajan a nivel IP/TCP para notificar congestin,


este ltimo con la desventaja de no tener compatibilidad
hacia atrs.

sensitive), sensibles al retardo (Delay-sensitive),


sensibles a la variacin del retardo (Jitter-sensitive) o
tienen otros requerimientos importantes que no son
soportados por el nivel de entrega de Internet.

Arquitecturas de QoS actuales

Ilustracin 2. ToS en el Encabezado IPv4 [7]

Dentro de DSCP los primeros 3 bits definen las clases (8


clases en total), los bits 4 y 3 definen la probabilidad de
descarte (4 niveles de descarte) y el bit 2 siempre es 0.

A continuacin el detalle de los cdigos DSCP segn su


homlogo en IP:
Precedencia en IP
CS0
CS1
CS2
CS3
CS4
CS5
CS6
CS7

Nombre DSCP
CS0
CS1,AF11-13
CS2,AF21-23
CS3,AF31-33
CS4,AF41-43
CS5,EF
CS6
CS7

Se introduce el concepto de PHB (Per-Hop Behavior),


que establecen grupos segn las caractersticas del
trfico para las cuales se define un comportamiento en
cada nodo, o sea que son locales. Descripcin de los
cdigos DSCP:

CS: PHB Selector de Clase o Class Selector


[RFC 2474] Mantiene compatibilidad hacia
atrs con el campo de precedencia IP.
EF: PHB de Reenvo Expedito o Expedited
Forwarding [RFC 3246] Despacho
acelerado, dedicado a trfico que requiere bajo
Packet Loss, baja Latency o bajo Jitter.
AF: PHB de Reenvo Asegurado o Assured
Forwarding [RFC2597] Asegura el despacho
bajo condiciones preestablecidas. Especifica la
existencia de cuatro clases de prioridad donde
cada clase tiene sus propios recursos (Bandwidth
y Buffer). La nomenclatura es AFxy: (x=clase,
y= precedencia de descarte).
DF: PHB de Reenvo por defecto o Default
Forwarding Es tpicamente trfico de mejor
esfuerzo o Best-effort, sin ninguna garanta.

Internet slo soporta servicio Best-effort. Las


aplicaciones pueden ser sensibles al tiempo (Time-

Best Effort
Filosofa de entregar la mayor cantidad de paquetes en el
menor tiempo posible. No se controla ningn parmetro.
Los paquetes se mezclan en las colas de routers y stas
son tipo FIFO (First In First Out).

DiffServ
Servicios Diferenciados o DiffServ (Differentiated
Services) [RFC2474] [8] es una arquitectura para redes
IP, que analiza varios flujos de datos, clasificando el
trfico en grupos ms grandes o PHB (Per-Hop
Behavior) y manejndolos con prioridad diferente segn
su grupo. Para lograr esto utiliza el campo DSCP en
IPv4 o Traffic Class en IPv6.

En este modelo los paquetes son clasificados luego y


marcados para recibir un tratamiento de despacho
particular en cada nodo a lo largo del camino segn el
PHB. Los paquetes sin marca se envan a un PHB por
defecto.

Los PHB son definidos en cada nodo pero la solucin


abarca todo un dominio de red con Calidad de Servicio.
Diffserv provee QoS end-to-end, apuntando a un modelo
de servicio borde a borde en un dominio nico, usando
el Acuerdo de Nivel de Servicio o SLA (Service Level
Agreement). El marcado se realiza nicamente en la
frontera del dominio DiffServ, en los equipos de borde
(operaciones complejas) y el Ncleo o Core de la red no
necesita analizar nada ms que el campo DSCP
(operacin simple). La red brinda garanta parcial con
alta probabilidad de entrega, as que la misma frontera
puede limitar la velocidad de flujos asignndolo a un
PHB de baja prioridad.

Las fuentes de trfico y nodos intermedios en un


dominio no DiffServ pueden emplear acondicionadores
de trfico o pre-marcar el trfico antes de que llegue al
ingreso de un dominio DiffServ inferior. De esta manera
las polticas locales para clasificacin y marcado pueden
ser canceladas [9]. El router puede aceptar las marcas
del paquete o sobrescribirlas ya que el modelo no crea
informacin de estado a lo largo del camino.

DiffServ reduce la congestin en los dispositivos de red


y es escalable cuando la red crece. Provee baja latencia,
dndole preferencia al trfico tipo Streaming o que
utilice RTP (Real Time Protocol) [RFC3550] [10] y
descartando trfico DF (Default Forwarding) en caso de
congestin. No especifica un estndar de clases de
trfico, as que las PHB definidas dependen de la
implementacin de cada red.

DiffServ es un mecanismo de granularidad gruesa


(Coarse-grained) porque los PHB son grandes grupos
que contienen flujos de diferentes tipos y clientes. En
dominios MPLS la sealizacin generalmente usada es
LDP.

RSVP (Resource Reservation Protocol) [RFC2205]


[15]. RSPV es uno de protocolos de sealizacin usado
en redes MPLS.

RSVP no es un protocolo de ruteo sino que se basa en


alguno de ellos para realizar la reserva en una sola
direccin. Est orientado al receptor, siendo ste el que
inicia y mantiene la reserva de recursos. La fuente
genera un camino o Path que identifica la sesin y se
enva segn la tabla de ruteo. La idea es permitir que
todas las aplicaciones que requieren alguna clase de
garanta reserven recursos en todos los routers del
dominio. La red debe disponer de mecanismo para avisar
si la reserva es posible, aunque en el estndar no se
especifica como los nodos intermedios debe
implementar la reserva [16].

Componentes [11]:
Condicionado de Trfico o Traffic Conditioning:
Polticas y Conformado o Shaping de trfico que asegura
la entrada al dominio del DiffServ.
Clasificacin de Paquetes o Packet Classification: Usa
descriptores de trfico para categorizar los paquetes en
un grupo especfico.
Marcado de Paquetes o Packet Marking: Marca y
clasifica el paquete segn el descriptor de trfico
especifico al que pertenece.
Administracin
de
Congestin
o
Congestion
Management: Permite la Planificacin o Scheduling y
Encolamiento o Queuing.
Congestion Avoidance: Monitorea la carga de trfico de
red para de evitar la congestin en los cuellos de botella,
a travs del descarte de paquetes.

IntServ afronta el problema de proveer niveles de


servicio asegurado para aplicaciones mediante explicito
manejo de recursos de Bandwidth y despacho por flujos
en los Planificadores o Schedulers: los recursos son
reservados y el control de admisin lo ejecuta para cada
flujo.

DiffServ es un mecanismo de granularidad gruesa,


basada en clases (coarse-grained, class-based) para la
administracin de trfico. En contraste, IntServ es un
mecanismo de granularidad fina, basada en flujos (finegrained, flow-based). En este sentido es un modelo de
garanta estricta donde se manejan flujos individuales.
Se dice que es una garanta estricta porque se mantiene
permanentemente reservado el Bandwidth.

IntServ agrega sobrecarga de procesamiento a los


equipos en comparacin con DiffServ, ya que simula un
sistema de circuitos sobre IP. Se dice que IntServ no
funciona en Internet debido a que apunta a un modelo
orientado a la conexin, totalmente contrario a lo que
hace exitoso a IP [9].

Componentes [17]:

Ilustracin 3. Modelo DiffServ dividiendo el trfico en clases. [12]

Protocolo de Sealizacin o Signaling Protocol:


Mecanismo de sealizacin que transporta informacin
entre routers para proveer la reserva de recursos. El
protocolo ms conocido es RSVP.

IntServ
IntServ [RFC2212] [13] es un servicio colectivo para
controlar la demanda de trfico en un dominio
especfico, limitando y reservando recursos [14]. La
reserva de recursos se realiza mediante el protocolo

Rutina de Control de Admisin o Admission Control


Routine: Cada nodo realiza una rutina que le permite
asegurar que tiene suficientes recursos disponibles para
proveer los requerimientos de cada flujo, de tal manera
que acepta o rechaza los flujos. Esto requiere

sealizacin por flujos y un plano de control por flujos


en cada nodo.
Clasificador o Classifier: La clasificacin es realizada
por flujos en el plano de datos de cada nodo usando los
campos de direcciones IP fuente y destino, nmeros de
puertos de fuente y destino, protocolo UDP/TCP.
Planificador de Paquetes o Packet Scheduler: Es un
recurso de encolamiento (planificador) que tambin va a
manejar el trfico por flujos. En algunos casos puede
mapear los flujos en clases as provengan de una misma
cola.

Mecanismos de gestin de trfico

control de tasa o Rate Controlled PQ, que determina


umbrales de uso de la salida para cada cola.

Encolamiento Equitativo FQ (Fair Queueing)


Mtodo
de
planificacin
para
seleccionar
equitativamente los elementos, se recorren todos los
flujos circularmente a lo cual se le conoce como Round
Robin. El Scheduler se encarga de transmitir paquetes
de diferentes colas sin una prioridad estricta, por tanto es
un encolamiento basado en flujos de datos.

La longitud del paquete incide en la Performance debido


a que los flujos con tamaos de paquete grandes
terminan obteniendo ms Bandwidth.

Mecanismos ms utilizados:

Scheduling: Planificacin de paquetes a nivel de


enlace.
Regulacin de velocidad: Administracin por
flujos.

Disciplinas de colas de Planificacin Algoritmos de Packet Scheduling


Primero en Entrar Primero en Salir FIFO (First In
First Out)
Mecanismo por defecto en el que el primer paquete en
entrar es el primero en salir, tal como se mencion antes
es el mecanismo usado por el trfico Best-effort.
Favorece ms a los flujos UDP que a los TCP cuando
hay congestin, ya que TCP disminuye su tasa para
minimizar las prdidas y adems usa reenvos, esto
quiere decir que intenta mejorar su Performance
disminuyendo el Bandwidth usado [18].

Encolamiento Prioritario PQ (Priority Queueing)


Es un mecanismo que nicamente utiliza el campo ToS
para tomar las decisiones de encolamiento, o sea que
toma cada paquete marcado y lo coloca en la cola de
prioridad respectiva.

En este encolamiento simple, varias comunicaciones


prioritarias compiten por el ancho de banda, as que al
final todas sufriran degradacin. No se garantizan
mnimos a los flujos, por tanto una comunicacin
prioritaria podra ocupar todo el Bandwidth disponible
haciendo que el resto queden sin servicio; a esta
situacin se le conoce como inanicin o Starvation. Para
solucionarlo se usa encolamiento de prioridad con

Encolamiento Equitativo Ponderado WFQ


(Weighted Fair Queuing)
A cada cola se le asigna un peso W i y se recorren
circularmente (Round Robin). La suma de los pesos de
las colas es el 100% del Bandwidth de la puerta de
salida. Si hay paquetes en la cola i se transmiten W i
paquetes, sino se salta a la siguiente cola. Esto permite
priorizar sin que nunca se deje a una cola con menor
peso sin servicio, evitando la inanicin.

Turno Rotativo Ponderado WRR (Weighted Round


Robin) o Encolamiento Basado en Clases CBQ
(Class-Bassed Queueing)
Primero se divide el trfico en clases. A cada clase se le
asigna un peso W i , as que la suma de los pesos de todas
las clases es el 100% del Bandwidth de la puerta de
salida. Se recorren las clases en Round Robin. El
porcentaje de Bandwidth asignado a cada clase, se
refleja en la cantidad de tiempo que el Scheduler estar
presente en dicha clase.

Despus se aplica una segunda instancia de Scheduling


dentro de cada clase, en la que se realiza un FQ creando
colas segn los flujos y recorrindolos en Round Robin
tambin. Una variacin del CBQ es CB-WFQ en la cual,
dentro de cada clase usa WFQ.

Turno Rotativo Conformado SRR (Shaped Round


Robin)
Disciplina usada por fabricantes como Cisco. Clasifica
con prioridades y especifica estrictamente la tasa a la
que los paquetes pueden ser extrados de la cola. Recorre
las colas en Round Robin y establece tiempos estrictos
en los que el Scheduler est presente, ajustando as en

Bandwidth de la puerta de salida. Existe una versin ms


flexible denominada Round Robin Compartido o Shared
Round Robin que logra mayor eficiencia utilizando el
tiempo de las colas ociosas [18].

Algoritmos de Traffic Shaping y Traffic


Policing
Son mecanismos para asegurar que el trfico no exceda
un mximo establecido. Se intenta maximizar el uso del
Bandwidth disponible y mantener la Disponibilidad o
Availability. Los parmetros bsicos para medir la
velocidad de un flujo son: Tasa de envo de Paquetes o
Packet Rate, Tasa Pico o Peak Rate y Tamao de Rfaga
o Burst Rate.

Custodiando Trfico o Traffic Policing


Traffic Policing es un mecanismo que usa polticas de
remarcado y probable descarte de los paquetes que
hacen parte de una rfaga que sobrepasa la tasa de
trfico establecido como lmite, en la mayora de los
casos debido al SLA (Service Level Agreement).

Este mtodo no modifica el trfico de ningn otro modo,


as que se conserva el Delay/Jitter y las caractersticas
del trfico original. Su principal desventaja es el Packet
Loss que afecta severamente la Performance de los
flujos TCP debido a las retransmisiones de los paquetes
descartados [18]. El trfico en el tiempo luce como en la
siguiente figura:

Ilustracin 4. Traffic Policing [18]

Confomardo de Trfico o Traffic Shaping


Traffic Shaping es un mecanismo que usa polticas de
encolamiento para mantener la tasa de trfico o Packet
Rate en un valor especfico constante. A diferencia del
Traffic Policing, no se propaga el Delay/Jitter ni otras
caractersticas originales del trfico y slo se aplica en la
interfaz de salida [19]. Reduce el Packet Loss
manipulando las rfagas del trfico entrante para obtener
un trfico ms suave y continuo en sentido de salida
[18]. Su principal desventaja es que afecta el trfico
Streaming o que utilice RTP debido a que aumenta el
Delay y modifica el Jitter.

Ilustracin 5. Traffic Shaping [18]

Disciplinas de Regulacin de Velocidad


Cubeta con Prdidas o Leaky Bucket
Disciplina del tipo Traffic Shaping, que utiliza un nico
repartidor con tiempo de reparticin constante. La
expresin Cubeta con Prdidas refiere a que los
paquetes se van transmitiendo gota a gota, situacin
similar a una cubeta goteando por un hoyo.

El trfico de entrada se va encolando en una cola FIFO


de tamao definido que despacha paquetes a una
velocidad fija de salida, si la cola se llena porque llega
trfico a mayor velocidad entonces los paquetes
entrantes se descartan.

Si las unidades de informacin o Data Units son todas


del mismo tamao se pueden considerar paquetes, si no
se deben considerar bytes para que la regulacin de
velocidad sea en cantidad de trfico comparable o
bytes/seg. Las desventajas del mecanismo son el patrn
rgido de salida y la no aceptacin de rfagas.

Cubeta con fichas o Token Bucket


Disciplina en la cual el trfico entrante se va encolando
en una cola FIFO de tamao determinado que despacha
paquetes a una velocidad controlada por medio de una
cubeta con fichas o tokens. La cubeta recibe tokens a una
velocidad fija hasta un tope mximo y cada token sirve
para despachar un solo paquete.

Si hay un slo token, este se retira de la cubeta y se


despacha un paquete. Si hay N tokens en la cubeta
entonces se retiran y se despachan N paquetes. Si no hay
ningn token en la cubeta no se despacha ningn
paquete, as que el trfico se descarta hasta que vuelva a
recibir un nuevo token.

Mientras la cola FIFO se encuentre vaca, la cubeta se


puede llenar hasta su capacidad mxima de M tokens. El
parmetro M controla las rfagas debido a que si llega

una rfaga slo se puede transmitir hasta M paquetes a la


mxima velocidad de la puerta de salida.

La velocidad de entrada de los tokens a la cubeta regula


la velocidad de transmisin, puesto que si se gotean N
tokens por segundo, se puede despachar mximo hasta N
paquetes por segundo.

Al igual que en Leaky Bucket, se pueden considerar


bytes en vez de paquetes para mayor precisin en la
regulacin.

Jerarqua de Cubetas con Fichas o HTB


(Hierarchical Token bucket)
Es una ampliacin del Token Bucket, en la cual se crea
una estructura jerrquica de cubetas que permite el
control de la velocidad a varios niveles. Adems de
regular la velocidad tambin se clasifica el trfico
previamente y se asigna a una de las posibles cubetas de
la jerarqua, lo que permite un control ms granular
(fine-grained).

HTB tiene tres tipos de clases: raz o root, internas o


inner y finalmente hojas o leaf, donde root est en lo
ms alto de la jerarqua y las leaf son las ms bajas.
Todo el trfico pasa por root y se va clasificando y
priorizando a medida que baja en la jerarqua, para
finalmente ser regulada su velocidad en las leaf.

Suele utilizarse como reemplazo de CBQ, debido a que


permite limitar la tasa de download/upload por flujo o
cliente.

Virtual Scheduling
Usado en redes ATM [20]. Monitorea el tiempo
intermedio de llegada entre dos celdas y la compara con
el tiempo terico de llegada (Theoretical Arrival Time),
de tal forma que si es menor las celdas se consideran no
conformes y se descartan.

Descarte
Una vez existe la congestin y se llena el buffer de
encolamiento se debe tomar decisiones de cmo hacer el
descarte, dependiendo de las polticas de eliminacin:

a. Eliminacin por final de cola o Tail Drop: La


accin por defecto es descartar los ltimos

paquetes que van llegando, hasta que se


despachen los primeros y se libere espacio en el
buffer.
b. Eliminacin Frontal o Drop Front: Similar al
caso anterior, pero se descartan paquetes del
principio de la cola para hacer espacio a los
nuevos paquetes. Mejora la deteccin de la
cogestin para que los protocolos que hacen
control de flujo como TCP bajen la tasa de
transmisin.
c. Protocolo para eliminacin controlada: Al igual
que la priorizacin para el despacho, se puede
priorizar el descarte y asegurar primero el
descarte del trfico Best Effort.

Deteccin Temprana Aleatoria o RED (Random


Early Detection)
Se establece un lmite, menor que el tamao de la cola
para iniciar el descarte de paquetes, eliminando paquetes
de diferentes flujos cuando se supera la media de la
longitud de la cola. A los paquetes encolados tras el
valor medio se les asigna una probabilidad de
eliminacin[16].Los protocolos con alerta de congestin
o congestion-aware como TCP detectan congestin
luego de prdida de paquetes y reducen la tasa de
transmisin e implementan un algoritmo para
detectar un Throughput sostenible.

Deteccin Temprana Aleatoria Ponderada o WRED


(Weighted Random Early Detection)
Puede utilizarse para asegurar que en caso de
congestin, el trfico out-of-profile o sea que requiere
procesamiento, remarcado o Re-Shaping sea descartado
antes que el trfico in-profile que puede ser transmitido
sin ningn otro procesamiento.

WRED monitorea el tamao de la cola de un dado


puerto
y
aleatoriamente
descarta
trfico al aumentar la probabilidad de aumento de
tamaos de la cola. La utilizacin de WRED para
controlar el promedio de ocupacin del buffer permite
tener un nivel de utilizacin de puerta de salida ms
estable y aumenta el Throughput del trfico TCP.

Parte II
Modelos para Internet
A continuacin se presenta una sntesis en espaol del
artculo Teoras y Modelos para Calidad de Servicio en
Internet [1]. La investigacin est centrada en las
garantas del Performance de QoS ofrecidas por la red.

Usando mtricas de Performance como Bandwidth,


Jitter y Packet Loss se puede especificar las garantas
ofrecidas por la red de varias formas:

Absoluta (o Determinista) cuando se garantiza


un Bandwidth estable permanentemente, por
ejemplo 10Mbps todo el tiempo.
Probabilstica (o Estocstica) cuando se
garantiza un Delay mximo, por ejemplo no ms
de 100mseg para el 95% de los paquetes.
Tiempo Promedio cuando se garantiza un
Packet Loss mximo, por ejemplo una tasa
menor que 10-5 en un mes.

La Garanta es la caracterstica de una red con QoS


que la diferencia de una red Best Effort.

Un aspecto clave de los controles de QoS es la escala de


tiempo con la que opera el mecanismo empleado. Se
pueden dividir en varias escalas de tiempo:

Las ms rpida es a nivel de Paquete


(aproximadamente 1-100seg) que es la unidad
ms pequea en la que la red puede ejercer
control. En esta escala se encuentran los
mecanismos como Clasificacin, Marcado,
Polticas, Shaping, Scheduling y Encolamiento.
La siguiente escala es a nivel de Round-TripTime (aproximadamente 1-100mseg). En esta
escala opera el control de flujo.
Una escala ms lenta es a nivel de Sesin de
Usuario (segundos, minutos o ms) con
mecanismos como control de admisin.
La ltima es la escala de largo plazo que opera
en horas, das, semanas o meses. Aqu se
encuentra la Ingeniera de Trfico o TE (Traffic
Engineering), Reserva de Recursos y
Planificacin de Capacidad.

La Ubicacin del control, referente a donde


operan los mecanismos; en los equipos finales,
en el borde o internamente en el ncleo de la
red.

Se puede ver la Granularidad del control, el Portador del


estado de control y la Ubicacin del control como
la Dimensin Espacial del control de QoS, mientras que
la escala de tiempo se puede ver como la Dimensin
Temporal del control de QoS. Estos dos planos tienen
implicaciones enormes en el diseo, operacin y
administracin del plano de control de la red, que
tambin debe equilibrase con el costo de
implementacin. El equipamiento necesario para proveer
una arquitectura de QoS por flujos y almacenar los
estados de control requieren alto procesamiento y un
sofisticado plano de control que puede incluso afectar la
escalabilidad de la red.

Clculo de Red o Network Calculus


A medida que el trfico pasa por la red es expuesto a
restricciones propias de los elementos que la componen.
Estas restricciones se introducen inherentemente debido
al tiempo que tarda el elemento en realizar su tarea, por
ejemplo la tarea de Encolamiento en un router.

Network Calculus proporciona un marco terico para el


anlisis de las garantas de Performance, lo cual se
utiliza para planificar y dimensionar parmetros de red
para utilizarlos en los SLA.

Consideremos un modelo de flujo de datos que se


describe con una funcin acumulativa (), o sea que se
consideran los bits de un flujo en un intervalo de tiempo
definido.

Esta funcin acumulativa se introduce en un sistema S


(que puede ser considerado como una caja negra, para
simplificar) y despus entrega los datos con un retraso
variable, descrito con la funcin de salida () [21].

Otro aspecto importante es la Granularidad del control,


que est estrechamente relacionada con dos aspectos del
control de QoS:

El Portador del estado de control, que refiere a


donde se guarda el estado del control; en routers
o en los encabezados de los paquetes.

Ilustracin 6. Backlog y Delay [21]

El Backlog es la cantidad de bits que estn en trnsito


dentro del sistema cuando se comparan las dos funciones
en un instante t de la funcin resultante () ()
como la de la Ilustracin 6.
El Delay es el tiempo que tardan los bits dentro del
sistema. Para sistemas de gran tamao como Internet, es
conveniente que el Delay sea considerado como
Latency, ya que este ltimo incluye la suma de todos los
retrasos.

Para lograr el modelamiento con Network Calculus se


necesita un fundamento matemtico del algebra
denominado Min-Plus, que utiliza el concepto de
Convolucin anlogo al de circuitos electrnicos, pero
aplicado a flujos de datos. Para dos funciones () y
() existe una tercera ()() llamada la
Convolucin Min-Plus, que conserva todas las
propiedades de la Convolucin estndar.

En el algebra Min-Plus se definen las Funciones


Crecientes de buen-comportamiento o wide-sense: se
cumple si y solo si () () para todo . Otras
funciones que hacen parte de la teora no sern
mencionadas en este artculo.

Curvas de Llegada o Arrival Curves: Dada una funcin


wide-sense ()definida para 0, la funcin
acumulativa () est limitada por () si y solo si
. Por tanto:
() () ( )

(1)

Se dice que () tiene a () como curva de llegada o


que () est -suavizada, o sea que () siempre
permanece restringida por (), tal como se muestra en
la Ilustracin 7.

Diffserv e Intserv asumen que los flujos de trfico son


limitados, por ejemplo con los conceptos de Token
Bucket o Leaky Bucket. Suponen una funcin de tiempo
relativo que cohbe el nmero de eventos que pueden
ocurrir en un intervalo de tiempo.

La Arrival Curve sirve para predecir las garantas que se


fijan en el SLA de los clientes. En un Token Bucket con
tasa y rfaga corresponde a () = + , que es la
restriccin comnmente impuesta en un contrato entre
ISP-cliente.

Conformador o Shaper: fuerza el trfico a satisfacer una


Curva de Llegada con ciertas restricciones. Tngase una
funcin (), el Shaper almacena bits entrantes en un
buffer y los despacha por una puerta de salida con una
resultante -suavizada. Si llamamos a la salida del
Shaper, se cumple que:


(2)

Si el Shaper inserta poco Delay entonces se dice que es


Voraz o Greedy. Una propiedad fsica de estos
Conformadores Voraces o Greedy Shapers es que
preservan las restricciones de llegada, o sea que la salida
del Shaper satisface las restricciones de la Curva de
Llegada original; retrasan la entrada de bits al buffer
cada vez que podra violarse la restriccin de ,
siembargo les da salida lo mas pronto posible [22]. Se
dice que lo que se ha hecho por Conformacin (Shaping)
no
se
puede
deshacer
por
Conformacin.
Matemticamente el Greedy Shaper es una de las
soluciones mximas de la ecuacin (2), por tanto:
=

(3)

Una consecuencia esta representacin Min-Plus de los


Shapers es que la concatenacin de Shapers en
secuencia con curvas , = 1,2, . . , es igual a un solo
Shaper con Curva de Llegada = 1 2 , o
sea que Shapers en cascada es equivalente a un solo
Shaper global con su Curva de Llegada igual a la
Convolucin de todas las que la componen.

Es importante aclarar que se asume un tamao mximo


de paquete definido para cumplir con estas condiciones.
Ilustracin 7. Curva de Llegada de R(t) [21]

Curva de servicio o Service Curves: Es la funcin que


representa la tasa de bits mnima que garantiza el
Scheduler para un flujo durante una congestin.

Para que un sistema S ofrezca una curva de servicio


() se debe cumplir que esta funcin sea wide-sense,
(0) = 0 y .
Se dice que la funcin () es la curva de servicio para
la funcin de salida (), como se muestra en la
Ilustracin 8.

Ilustracin 8. Curva de Servicio para R(t) [21]

acumulacin de rfagas. Debido a que el primer Shaper


ha introducido un Delay durante el -suavizado, durante
un nuevo proceso de Shaping, el Delay ya fue absorbido
por el primero. El Delay agrupado para el sistema sin el
nuevo Shaper es tambin valido para el sistema con
Shaper, en otras palabras, los nodos pueden hacer ReShape de flujos sin exportar esa informacin.

IntServ para routers en Internet


Algunos Schedulers estn diseados con Curvas de
Servicio sin tasa de Latencia, sin embargo, sus
propiedades no son bien explotadas dentro del marco de
IntServ. Todos los clculos asumen que el sistema est
vaco en el tiempo 0; lo cual es vlido para reservas
estticas, pero no para las dinmicas como las de
IntServ.

Servidor de Tasa Garantizada o GR (Guaranteed Rate)


Server: Es un nodo que ofrece una tasa de datos
garantizada segn su Curva de Servicio. En estos routers
existe una tasa reservada por cada flujo ms un Delay
garantizado fijando lmites estrictos de Delay en el
encolamiento.

Esto permite hacer la reserva de recursos, ya que


establece las garantas mnimas.

IntServ con Network Calculus


Se asume que se puede realizar la reserva de recursos
para proveer garantas de servicio determinsticas y que
cada router en el camino acepta tener la habilidad para
proveer este servicio garantizado y suficiente buffer para
una operacin libre de perdidas por medio de las Curvas
de Servicio.

La concatenacin de un nodo con tasa garantizada y un


nodo con mximo Delay ofrece una Curva de Servicio
llamada Rate-Latency (Tasa-Latencia). IntServ
requiere que todos los routers puedan ser abstrados con
una Curva de Servicio.

Se puede computar una Curva de Servicio extremo a


extremo como la Convolucin Min-Plus de las Curvas
de Servicio de todos los nodos, tambin puede establecer
que el peor caso de Delay sobre la concatenacin de los
nodos es menor que la suma de los peores casos de
Delay en todos los nodos, a esto se le conoce como
pagar por la rfaga una sola vez.

Otra propiedad que se puede establecer es que el ReShaping es gratis. Se utiliza Re-Shaping para controlar la

Cada router acta como un Procesador de Conformacin


Generalizado de Paquetes o PGPS (Packet Generalized
Processor Sharing). De forma ms general es un nodo
GR.

Limites del Performance


Refiere a los lmites de Backlog y Delay/Latency
restringidos por la curva de llegada (), que atraviesa
un sistema con una curva de servicio ().
Work-conserving vs. Non-work-conserving
Un work-conserving Scheduler es un nodo que
tpicamente est inactivo slo cuando no tiene paquetes
por transmitir. La mayor parte de las disciplinas de
encolamiento bien conocidas son de tipo workconserving. Los algoritmos Non-work-conserving han
sido propuestos para reducir el Jitter y tamaos de buffer
en la red. En estos a cada paquete le es asignado un
tiempo de elegibilidad y el Non-work-conserving
Scheduler slo puede trasmitir un paquete si ste es
elegible. Si ningn paquete es elegible, el nodo volver
al estado inactivo as hayan paquetes en la cola [23].

Las disciplinas work-conserving distorsionan el patrn


de trfico en la red, en cambio las disciplinas Non-work-

conserving pueden reducir el Jitter porque los paquetes


se hacen elegibles para transmisin despus de un corto
tiempo desde la salida del paquete previo en el mismo
flujo. La desventaja de esto es que se desperdicia mucho
Bandwith y adems que se reduce el Jitter a expensas de
aumentar en promedio de Delay de un flujo.

Agregacin de Flujos o Flow Aggregation


Para mantener la Escalabilidad de las redes se usa
tcnica conocida como Flow Aggregation, que tiene las
siguientes ventajas [24]:

1. Pocos flujos en el Ncleo o Core, por tanto poca


complejidad porque no hay tratamiento por
flujos.
2. La Eficiencia de los Schedulers est
comprobada matemticamente.
3. Tasa reservada por flujo y Delay garantizado
con los GR

Sin embargo, se tienen las siguientes desventajas:


1. La agregacin FIFO de trfico EF (Expedited
Forwarding) en grandes redes arbitrarias
puede explotar si el lmite del Delay sobrepasa
cierto umbral. No es posible fijar lmite de
Delay para altos niveles de utilizacin en dichas
grandes redes arbitrarias.
2. Necesita ser del tipo Non-work-conserving para
poder ser Equitativo para flujos individuales.
Las garantas de Bandwidth pueden ser
alcanzadas a travs de reservas estticas, las
cuales son Non-Work-conserving.

Ncleo Sin-Estado o Stateless Core [2]


Internet es una red de distribucin de datagramas al
mejor esfuerzo o Best effort datagram delivery [2].
Esto quiere decir que todo el trfico tiene el mismo
tratamiento y no permite ofrecer alta calidad de servicios
Inelsticos. Los servicios llamados Inelsticos requieren
al menos un mnimo nivel de Bandwidth y al menos una
mxima latencia para funcionar. En contraste, los
servicios llamados Elsticos tienen la habilidad de que
pueden tomar ventaja de mucho o poco Bandwidth.
Aplicaciones de transferencia de archivos en masa que
utilizan TCP son generalmente Elsticas. [25]

Para ofrecer QoS en Internet se han propuesto dos


soluciones: Mantener la propiedad Stateless del Internet
original (por ejemplo DiffServ), o una nueva arquitectura
Con-Estado o Stateful (por ejemplo IntServ).

Una arquitectura Stateful es poderosa y flexible, porque


se puede ofrecer Bandwidth por flujo y Delay
garantizado
con
mtodos
matemticamente
comprobados, pero no permite Escalabilidad debido a la
complejidad que implica en los routers mantener la
clasificacin, encolamiento y administracin de buffers.
Por otro lado, no es robusto debido a las dificultades
asociadas al mantenimiento dinmico de estado por flujo
en un entorno distribuido.

Es actualmente posible provisionar servicios tan


poderosos como flexibles que los implementados por
una red Con-Estado usando una red Sin-Estado, para
proveer esta tesis, Ion Stoica [2] usa una tcnica llamada
Estado de Paquete Dinmico o DPS (Dynamic Packet
State). La idea principal del comportamiento de DPS es
que en lugar de tener routers manteniendo Estado por
flujo, los paquetes carguen el estado. As, los routers
estaran en la posibilidad de procesar paquetes en base a
flujos, a pesar de que ellos no mantienen ningn flujo
por estado. Basado en DPS [26], Stoica [2] desarrolla
una arquitectura llamada Core Sin-Estado o Stateless
Core (SCORE) en el que los routers no mantienen
ningn flujo por estado.

SCORE
Stateless Core permite a Internet ser Sin-Estado o
Stateless, esto quiere decir, los routers no necesitan
mantener ninguna informacin granular fina sobre el
trfico. Como resultado de esta arquitectura Sin-Estado,
el Internet es al mismo tiempo Escalable y Robusta. Es
Escalable porque los routers no aumentan su
procesamiento si aumenta la cantidad de flujos y es
Robusta porque si ocurre una falla el router, ste
recupera su estado en la red una vez se restablece.

Los routers procesan paquetes en una base por flujos


pero no mantienen estado por flujo, para ello proponen
que el paquete contenga su propio estado. Se hace un
dominio dividiendo los equipos de red en dos tipos:

Ilustracin 9. (a) Red Stateful de referencia (b) Aproximacin con


Stateless Core [2]

Los equipos de Borde o Edge inicializan el estado del


paquete, despus los equipos del Ncleo o Core lo
procesan segn dos parmetros: el estado que contiene el
paquete y la actualizacin del estado del nodo. De esta
manera logra simular una red Stateful siendo una
arquitectura Stateless.

Tres objetivos se establecen: Servicios Garantizados,


Servicios Diferenciados y Proteccin de Flujos. SCORE
adopta ventajas de los dos tipos de arquitecturas
Stateless y Stateful. Por un lado, con DiffServ se puede
asegurar un Bandwith y diferenciacin de trfico con
prioridades. Con IntServ se pueden ofrecer mltiples
granularidades y se pueden manipular tanto flujos
individuales como conglomerados de flujos para grandes
organizaciones. Adems se puede ofrecer proteccin de
flujo en la medida que se permite el trfico de buen
comportamiento y se descarta el trfico malicioso, por
ejemplo en el caso de trfico que satura los enlaces con
fines de ataque. De esta manera se pueden tener diversos
esquemas de control de congestin end-to-end o se
puede optar por una red Sin-Costuras o Seamless
coexistiendo en Internet.

La principal ventaja de esta metodologa es que al


aumentar la cantidad de flujos se mantiene un tiempo
constante de transporte en la red, en cambio con los
mtodos anteriores a mayor cantidad de flujos ese
tiempo aumenta logartmicamente. Todas las anteriores
propuestas a esta se basan en Scheduling de paquetes,
Administracin de buffers o Sealizacin, y en todos los
casos eso significa agregar complejidad a la red
afectando la Robustez y Escalabilidad.

Estado de Paquete Dinmico o DPS (Dynamic Packet


State)
Para lograr la red SCORE Stoica [2] dise el protocolo
DPS, que permite una agregacin de flujos eficiente
usando una filosofa muy parecida a la aplicada con las
etiquetas o tags de MPLS para el transporte de paquetes.
Se agrega un encabezado al paquete en el Edge con el
estado por flujo o requerimientos a modo de etiquetas o
labels en un intermedio entre la capa 2 y 3 de OSI. Estos
labels son retirados al final del dominio en el Edge del
otro extremo, permitiendo interoperabilidad como
MPLS, tal como se muestra en la siguiente imagen:

Ilustracin 10. Interpretacin grfica de DPS [2]

Los labels contienen estados dinmicos que establecen


el estado actual del flujo, el cual es recomputado en cada
nodo. Con esta informacin los labels permiten
coordinar acciones de algoritmos distribuidos dentro del
dominio de red.

Los routers del Egde son GR (Guarenteed Rate


Scheduler) que tienen capacidad de agregacin, o sea
que entran flujos de caractersticas similares y son
agrupados en un flujo agregado de manera que los
equipos de Core desconocen los integrantes de cada
grupo, ofreciendo QoS a flujos individuales que hacen
parte de un gran flujo agregado. Un borrador o Draft
de RFC fue creado en la IETF para proponer una familia
de PHB (Per Hop Behaviors) basados en DPS en el
contexto de la arquitectura DiffServ [27].
En el 2014 se propuso una variacin de la arquitectura
SCORE para ofrecer QoS en Internet [24]. En ella se
hace uso de la Escalabilidad del Flow Aggregation
sumado al uso de DPS para eliminar el work-conserving.
Para ello, en el Egde se usan GR virtuales sin agregacin
usando la tasa de flujo de un Scheduler simple ms la
suma de las tasas de flujo agregadas.

Bibliografa
[1]

J.-Y. L. B. D. T. Z.-L. Z. Victor Firoiu, Theories


and Models for Internet Quality of Service.

[2]

I. Stoica, Stateless Core: A Scalable Approach for


Quality of Service in the Internet.

[3]

M. Matin. [En lnea]. Available:


https://books.google.com.ar/books?id=DeBGAw
AAQBAJ&dq=the+goal+of+qos+is+provide+gua
rantees+on+the+ability+of+a+network+to+delive
r+predictable+results&hl=es&source=gbs_navlin
ks_s.

[4]

[En lnea]. Available:


https://www.makethenetwork.eu/wpcontent/uploads/2015/02/different-types-oftraffic-different-sensitivities-latency.jpg.

[5]

IETF. [En lnea]. Available:


https://www.ietf.org/rfc/rfc791.txt.

[6]

IETF. [En lnea]. Available:


https://tools.ietf.org/html/rfc5865.

[7]

[En lnea]. Available:


http://www.cisco.com/c/dam/en/us/td/i/100001200000/110001-120000/119001120000/119474.ps/_jcr_content/renditions/11947
4.jpg.

[16]

P. Ruiz de Clavijo. [En lnea]. Available:


http://www.dte.us.es/docencia/etsii/giiti/tecnologias-avanzadas-de-lainformacion/Tema3-QoS.pdf.

[17]

J. Evans y C. Filsfils, Deploying IP and MPLS


QoS for Multiservice Networks: Theory &
Practice.

[18]

J. Ramos de Santiago. [En lnea]. Available:


http://arantxa.ii.uam.es/~jramos/publications/TF
M_Javier_Ramos_De_Santiago.pdf.

[19]

Cisco. [En lnea]. Available:


http://www.cisco.com/c/en/us/td/docs/routers/100
00/10008/configuration/guides/qos/qoscf/10qshap
e.html.

[20]

G. Sierra y J. Guevara, Algoritmos de gestin de


trfico: Leaky Bucket, Token Bucket y Vir tual
Scheduling, [En lnea]. Available:
http://www.scielo.org.co/pdf/tecn/v15n29/v15n29
a08.pdf.

[21]

T. Andres,
https://es.scribd.com/doc/231882164/TesisAplicacion-de-Network-Calculus-Para-Analisisde-Redes-de-Datos#scribd, [En lnea].

[22]

P. T. Jean-Yvesleboudec, Network Calculus A


Theory of Deterministic Queuing Systems for the
Internet.

[8]

IETF. [En lnea]. Available:


https://tools.ietf.org/html/rfc2474.

[23]

Z. Wang, Internet QoS: Architectures and


Mechanisms for Quality of Service.

[9]

Rivero y Delfino. [En lnea]. Available:


http://iie.fing.edu.uy/ense/asign/perfredes/trabajos
/trabajos_2003/diffserv/Trabajo%20Final.pdf.

[24]

Y. J. Addisu Eshete, Flow Aggregation using


Dynamic Packet State, [En lnea]. Available:
https://hal.inria.fr/hal-01056488/document.

[10]

IETF. [En lnea]. Available:


https://www.ietf.org/rfc/rfc3550.txt.

[25]

R. S. Atote, Quality of Services in IP Network,


[En lnea]. Available: http://www.ijcitb.com/wpcontent/uploads/2014/04/Rupali-S.-Atote1.pdf.

[11]

D. Gati, Network Control and Engineering for


QoS, Security and Mobility, IV.

[26]

T. J. Abbas. [En lnea]. Available:


http://es.slideshare.net/ThamerAlamery/intservdiffserv.

IETF. [En lnea]. Available:


https://www.ietf.org/proceedings/44/slides/diffser
v-dps-99mar.pdf.

[27]

IETF. [En lnea]. Available:


https://tools.ietf.org/html/draft-stoica-diffservdps-01.

[28]

http://www.kth.se/polopoly_fs/1.197449!/Menu/
general/column-content/attachment/schedulingstudent11.pdf, [En lnea].

[12]

[13]

IETF. [En lnea]. Available:


https://tools.ietf.org/html/rfc2212.

[14]

Z. A. B. M. Noh, Telemedicine and Its


Application in Healthcare Management:
Telemedicine Management.

[15]

IETF. [En lnea]. Available:


https://tools.ietf.org/html/rfc2205.