Sunteți pe pagina 1din 53

APLICACIONES DE REDES DE COMPUTADORAS

1.1 Introducción a los sistemas distribuidos.


Existen redes de computadoras en cualquier parte. Una de ellas es Internet y ésta a su vez está
compuesta por muchas otras redes.

Definimos un sistema distribuido como aquel en el que los componentes de hardware y/o
software, localizados en una computadora y unidos mediante una red, comunican y coordinan
sus acciones solo mediante el intercambio de mensajes. Las computadoras que están
conectados mediante una red pueden estar separados físicamente por cualquier distancia.

Nuestra definición de sistemas distribuidos tiene aspectos a considerar para el diseño e


implementación como son: concurrencia, inexistencia de reloj global y fallos independientes.

Actualmente se tienen varios sistemas distribuidos en el ámbito de las tecnologías de la


información, por citar algunos ejemplos tenemos:

- Internet: Es una red con una gran cantidad de servicios en diversas computadoras. Permite
a los usuarios, donde quieran que estén hacer uso de dichos servicios como son la World
Wide Web (www), correo electrónico y la transferencia de ficheros por poner algunos
ejemplos. Se aprecia cómo la Internet para ser funcional tuvo que superar los problemas de
concurrencia, inexistencia de un reloj global y de fallos independientes.
- Intranet: Es una proporción de Internet que es administrada por una entidad u organización
separada de Internet para hacer cumplir los requerimientos operativos y de seguridad de
dicha empresa. Se puede considerar como Intranet la red de comunicaciones corporativa
de una empresa como la de una casa. Da las mismas prestaciones que la Internet pero a un
nivel mucho menor y de acuerdo a las necesidades de la empresa. A veces es muy común
que esta sea conectada a Internet y tendrá que tomar sus precauciones contra amenazas
(ataques de hackers y virus).

1.2 Operación y características de los sistemas


La operación de los sistemas distribuidos nos permite:
- Compartir recursos: Normalmente compartimos recursos que están conectados a la red
como son impresoras, archivos, páginas web, discos duros, software y en algunos casos
capacidades de procesamiento de equipo de cómputo entre otras cosas, esto sin importar
las distancias físicas.
- Proporcionar Servicios: Es la gestión que hace un sistema de cómputo sobre sus recursos
con el fin de presentar una funcionalidad al usuario final. Por ejemplo accedemos a archivos
mediante el servicio de ficheros, enviamos documentos a una impresora mediante el
servicio de impresión, compramos un regalo mediante un servicio de pago electrónico,
podemos revisar nuestro correo mediante el servicio de correo electrónico, etc. Cada
servicio define sus operaciones, por ejemplo el servicio de ficheros permite lectura,
escritura y borrado.

Por otro lado las características de los sistemas distribuidos son:


- Heterogeneidad: Se refiere a que se usan diferentes tecnologías en equipos de
comunicaciones de redes de datos, equipos de cómputo y aplicaciones de software para
prestar las mismas funcionalidades o exista intercomunicación entre estos al realizar un
sistema distribuido, obviamente también tenemos diversidad en fabricantes para proveer
todo lo relacionado al software y al hardware. Internet es un ejemplo de la gran variedad
de hardware y software que se usa para la red de comunicación y para la implementación
de servicios.
- Extensibilidad: Indica la posibilidad de añadir nuevos servicios y ponerlos a disposición de
los usuarios para su uso. También pueden ser extensibles a nivel hardware por la inserción
de más computadoras o equipo de comunicaciones a la red. Un fabricante o un
desarrollador, no puede tener la extensibilidad sí no se tiene la documentación o
especificaciones de las interfaces clave. Por ejemplo, los protocolos de Internet presentan
las especificaciones de dichos protocolos en un documento de distribución libre llamado
RFC y están a disposición de manera gratuita (distribución libre) a fabricantes,
desarrolladores y público interesado. Un sistema desarrollado a base de documentación de
distribución libre se le suele denominar sistemas distribuidos abiertos y se sobre entiende
que son extensibles.
- Seguridad: Entre los recursos de información que se ofrecen y se mantienen en los sistemas
distribuidos, muchos tienen un alto valor intrínseco para sus usuarios. Por esto su seguridad
es de considerable importancia. La seguridad de los recursos de información tiene tres
componentes: confidencialidad (protección contra el descubrimiento por individuos no
autorizados), integridad (protección contra la alteración o corrupción) y disponibilidad
(protección contra la interferencia de uso de los servicios o recursos). Ponemos dos
ejemplos donde se puede apreciar la delicadeza de datos que circulan por la red de un
sistema distribuido por lo que es importante considerar mecanismos de seguridad en sus
tres componentes: a) Un médico puede solicitar acceso a los datos hospitalarios de un
paciente o enviar modificaciones sobre su tratamiento; b) en comercio electrónico y banca,
los usuarios envían su número de tarjeta de crédito a través de Internet.
- Escalabilidad: Se dice que un sistema es escalable si conserva funcionalidad y desempeño
cuando ocurre un incremento significativo en el número de usuarios y demanda de servicios
que este tiene. Por ejemplo, Internet ha presentado incrementos exponenciales desde 1979
a 1999. El diseño de sistemas distribuidos escalables presenta los siguientes retos: a) control
del costo de los recursos físicos, es decir, según crece la demanda de un recurso, debiera ser
posible extender el sistema a costo razonable. Por ejemplo, la frecuencia con la que se
acceden a los archivos de una Intranet suele crecer con el incremento del número de
usuarios, por lo que para evitar un embotellamiento se debe añadir otros servidores
configurados de tal forma que compartan la carga de trabajo para el mismo servicio pero
en este punto hay que resaltar que esto genera un costo. b) control de las pérdidas de
prestaciones, se refiere al desempeño o respuestas del sistema distribuido el cual siempre
sufre una disminución cuando se incrementa la demanda de un servicio por el aumento de
usuarios, pero esta disminución no debe pasar de ciertos límites. c) prevención de
desbordamiento en los recursos de software, para ejemplificar este punto se puede
mencionar el caso de que las direcciones IP ya se agotaron por lo que el mecanismo
diseñado no fue escalable ante su demanda. d) Evitar cuellos de botella en las prestaciones,
este punto se ejemplifico con el del inciso a).
- Tratamiento de Fallos: Los sistemas distribuidos a veces fallan. Cuando aparecen fallos de
hardware o software, los programas pueden producir resultados incorrectos o pudieran
parar antes de haber completado el cálculo pedido. Los fallos en los sistemas distribuidos
son parciales, es decir, algunos componentes fallan mientras otros siguen trabajando, por
lo que es necesario tener en cuenta que siempre se debe contar con técnicas para tratar
fallos como son:
 Detección de Fallos: Por ejemplo se pueden usar sumas de comprobación
(checksum) para detectar datos corruptos en un mensaje o un archivo. Es difícil o
incluso imposible detectar algunos otros fallos como la caída de un servidor remoto
en Internet. Por lo que la filosofía es estar prevenidos contrata fallos que si se
pueden dar aunque no se pueden detectar.
 Enmascaramiento de fallos: Algunos fallos que han sido detectados se pueden
ocultar o atenuar, por ejemplo, los mensajes se pueden retransmitir cuando falla la
recepción; otro ejemplo, los archivos con datos, pueden escribirse en una pareja de
discos de forma que si uno se llega a dañar se tiene el otro.
 Tolerancia a fallos: la mayoría de los servicios de Internet tienen fallos y muchos
veces es mejor diseñar al cliente de tal forma que los tolere, por ejemplo, si un
cliente Web no puede conectarse con el servidor, no se bloqueara indefinidamente,
más bien dará aviso al usuario para que lo intente posteriormente.
 Recuperación frente a fallos: Se refiere a que ante la presencia de un fallo que
provoque corrupción en la información o deterioro en los sistemas de
almacenamiento estos se puedan recuperar.
 Redundancia: Esto implica que los sistemas tengan componentes redundantes para
que en caso de un fallo de uno de estos, el otro componente siga ofreciendo el
servicio. Por ejemplo, que existan dos rutas para alcanzar un servidor en Internet;
otro ejemplo, el Sistema de Nombres de Dominio, DNS, tiene sus tablas en dos
servidores.
Un término que nos ayuda a determinar la frecuencia de fallo de un componente es el de la
disponibilidad, el cual es un valor que pueden dar a conocer algunos fabricantes de
hardware, el cual nos indica el tiempo de trabajo continuo que está disponible un
componente.
- Transparencia: Es ocultarle al usuario y al programador de aplicaciones, los componentes
que tiene un sistema distribuido de tal forma que vea al sistema como una sola entidad. Por
ejemplo el usuario trata los sistemas de almacenamiento remoto y local de igual forma,
imprime de forma local o remota de la misma forma, para referirse a una cuenta de correo
o a una computadora es de la misma forma.
- Concurrencia: Es poder compartir simultáneamente recursos y/o funcionalidades del
sistema distribuido entre varios usuarios sin que el sistema se colapse o que el recurso al
que acceden los usuarios se corrompa. Por ejemplo, en una subasta por internet, en el
momento de cierre de esta, varios usuarios mandaran sus ofertas y estas al ser procesadas,
almacenadas en disco y consultadas deben mostrar veracidad. Hay técnicas que permiten
el poder compartir un recurso como es la técnica de los semáforos.

1.3 MODELOS DE LOS SISEMAS DISTRIBUIDOS

La arquitectura de un sistema es una estructura en términos de componentes especificados por


separado, define la forma en cómo los componentes del sistema interaccionan unos con otros y
cómo están vinculados en la red de computadoras subyacente. El objetivo global de la
arquitectura del sistema es satisfacer las demandas presentes y previsibles sobre él.

Antes de empezar a estudiar los modelos arquitectónicos veamos que son las Capas de Software.

1.3.1 LAS CAPAS DE SOFTWARE.

El término arquitectura de software se refiere inicialmente a la estructura del software como


capas o módulos en una única computadora y de los servicios ofrecidos y solicitados entre los
procesos en el mismo o diferente computadora. Un visión de este modelo de capas de software se
presenta en la siguiente figura.

Aplicación de Servicios

Middleware

Sistema Operativo
Plataforma

Computador y Hardware de la red.

Figura 1.X Capas de Servicio software y hardware en los sistemas distribuidos.

La figura es la representación de interacción que hay entre el hardware y el software en una


computadora, donde la capa de abajo dan servicio a la capa de arriba. También se ve las
dependencias entre las capas ya que una capa dada dependerá de la capa que tiene
inmediatamente abajo.

Obviamente esta representación es la de una computadora. Las Aplicaciones de Servicios o


Servidor son procesos que aceptan peticiones de otros procesos. Un Servicio Distribuido puede
proveerse desde uno o más procesos servidor, interactuando entre cada uno de ellos y con los
procesos cliente.
La Plataforma es el nivel de hardware y la capa más baja de software; a menudo se le conoce
como plataforma para sistemas distribuidos y aplicaciones. Como se dijo, debe dar servicio a las
capas superiores y que son implementados independientemente en cada computadora. Como
ejemplo de la capa de Computador y Hardware de la red podemos pensar en un tipo de
microprocesador, alguna marca de memoria RAM, tipos y marcas de discos duros, lectoras de
DVD, monitore, tarjeta de red, etc. Para la capa de Sistema Operativo podemos poner como
ejemplo a Windows Server, Linux, Solaris, Unix, etc. El Sistema Operativo es la primera capa de
software que resuelve los problemas de heterogeneidad del hardware de tal forma que el usuario
persive el hardware de un computador a otro como iguales además administra dichos recursos de
hardware de tal forma que se les va proporcionando a las aplicaciones que lo demanden.

Middleware: Es una capa de software cuyo propósito principal es enmascarar u ocultar la


heterogeneidad y proporcionar un modelo de programación conveniente para los programadores
de aplicación. El middleware se ocupa de proporcionar bloque útiles para la construcción de
componentes de software que puedan trabajar con otros componentes de software en un sistema
distribuido. Mejora el nivel de las actividades de comunicación de los programas de aplicación
soportando abstracciones como: procedimientos de invocación remota, comunicación entre un
grupo de procesos, notificación de eventos, replicación de datos compartidos y transmisión de
datos multimedia en tiempo real.

1.3.2 CLIENTE SERVIDOR: Es la arquitectura que se cita más a menudo cuando se discuten
sistemas distribuidos. Es de las arquitecturas la más ampliamente usada. La figura XX muestra
cómo trabaja esta arquitectura, en ella se observa que en un computador tenemos procesos
cliente que hacen uso de los servicios proporcionados por procesos servidor en otra computadora.
Los clientes generan solicitudes o peticiones a los servidores, que al llegar las atienden y envían la
información requerida a través de mensajes que llamamos respuestas.

Cliente

Servidor Cliente

Cliente
Figura YY. Clientes que hacen uso de los servicios proporcionados por un proceso servidor.

Los procesos servidor están en computadoras dimensionadas para soportar la cantidad de


peticiones cliente del sistema y normalmente estos servicios siempre están ejecutándose, es decir,
normalmente están las 24 hrs los 365 días del año a excepción de que la aplicación sea tal que el
servicio deba estar disponibles en un horario específico durante ciertos días definidos.

Los procesos cliente por el contrario están en computadoras que menos recursos de hardware
comparados con los recursos de un servidor. Normalmente el usuario puede ejecutar su proceso
cliente en tiempos muy aleatorios pero siempre dentro del horario que este establecido en el que
el servidor está ejecutándose.

Ejemplo de esta arquitectura es un servidor WEB el cual puedo instalarse con la aplicación WEB
Apache y un cliente para este servidor puede ser Internet Explorer, Firefox y Google Chrome.

Otro ejemplo es un servidor de correo electrónico como puede ser uno instalado con SendMail
para Linux y el cliente puede ser Outlook de Microsoft.

1.3.3 SERVICIOS PROPORCIONADOS POR MULTIPLES SERVIDORES.

Lo servicios pueden proporcionarse como distintos procesos de servidor en computadores


separados interaccionando cuando es necesario, para proporcionar un servicio a los procesos
cliente. Vea la figura Y1.

Cliente Servidor

Servidor

Cliente Servidor

Figura Y1 Un servicio proporcionado por múltiples servidores.

Los servidores pueden dividir el conjunto de objetos en los que está basado el servicio y
distribuírselos entre ellos mismos, o puede mantener copias replicadas de ellos en varias
máquinas. Por ejemplo un servidor WEB puede tener alojada su página en un servidor e
interactuar con otro servidor que tenga la información de existencias del producto que está
vendiendo en una base de datos la cual consulta dependiendo de lo que busca el cliente.

1.3.4 SERVIDORES PROXY Y CACHE.

Una cache es un almacén de objetos de datos utilizados recientemente. Los datos son
almacenados en un medio que responde más rápidamente por lo que se recuperan más rápido
que si se obtuvieran de la fuente original. Cuando se recibe un objeto nuevo en la computadora,
se almacena en la cache reemplazando , si es necesario el objeto existente. Si un servicio cliente
necesita un objeto, el servidor cache lo buscará primero en su repositorio, si lo tiene lo
proporcionara al cliente.

Los navegadores Web mantienen (Internet Explorer, Firefox, Google Chrome, etc) mantienen en
disco duro un repositorio de páginas Web recientemente visitadas.

Los Servidores Proxy son procesos que a nombre de un cliente reenvían la solicitud de éste a algún
servidor. Es muy común los servidores proxy Web o de correo electrónico, los cuáles los utilizan
los clientes para que estos reenvíen sus peticiones a los servidores pero la petición la realizará el
servidor proxy como si este fuese el que genero la petición por lo que el servidor le contestará al
servidor proxy, éste al tener la respuesta la procesara de tal forma que se la reenvíe al cliente que
genero la petición de tal forma que el cliente la ve como si le hubiera contestado directamente el
servidor. Vea la figura Y2.

Cliente

Servidor Servidor
Proxy Web

Cliente

Figura Y2 Servidor Proxy para la Web


1.3.5 SISTEMA ENTRE PARES.

Este modelo también se le conoce como de igual a igual, todos los procesos desempeñan tareas
semejantes, interactuando cooperativamente como iguales para realizar una actividad distribuida
sin distinción entre servidores o clientes. Por ejemplo un equipo de profesionistas puede estar
haciendo una parte de una documento y conforme avanza su parte lo comparten para hacer
observaciones o complementarlo con alguna parte que les toca. Vea la figura Y3.

Proceso
Igual

Proceso
Igual

Proceso
Igual

Figura Y3 Interacción entre procesos igual a igual.

1.3.6 MODELO DE INTERACCION Y DE FALLAS.

Los modelos que se van a discutir a continuación se llaman Modelos Fundamentales, los cuales
proporcionan vistas de aquellas características de los sistemas distribuidos que afectan su
confianza, fiabilidad y seguridad. Especifica cuestiones, dificultades y amenazas que deben
resolverse para desarrollar sistemas distribuidos que realicen correctamente, de forma fiable y
segura sus tareas. Los Modelos que vamos a estudiar son el de Interacciones y el Fallos

a) Modelo de Interacción.

La mayoría de los programadores están familiarizados con el concepto de algoritmo: secuencia de


pasos que hay que seguir para realizar un cómputo deseado. El comportamiento del programa y el
estado de sus variables está determinado por el algoritmo. En un sistema distribuido su
comportamiento y estado esta descrito por un algoritmo distribuido: que es una definición de los
pasos que hay que llevar a cabo por cada uno de los procesos de que consta el sistema, incluyendo
los mensajes de transmisión entre ellos. Los procesos transmiten mensajes de uno a otro para
transferir información y coordinar su actividad. Hay dos factores significativos que afectan los
procesos que interactúan entre si de un sistema distribuido:

a.1) Prestaciones de los canales de comunicación.

Las características de prestaciones de los canales de comunicación sobre una red de


computadoras son:

- La latencia: que es el retardo entre el envío de un mensaje por un proceso y su recepción


por otro. La latencia incluye el tiempo que toma en llegar a su destino el primero de una
trama de bits transmitidos a través de una red; el retardo en acceder a una red, el cual es
grande si esta está muy cargada; el tiempo empleado por los servicios de comunicación
del sistema operativo tanto en el proceso en que envía como en el que recibe y que varia
según la carga del sistema operativo.
- El ancho de banda de una red de comunicaciones: es la cantidad de información que
puede transmitirse en un tiempo dado. Cuando la red está siendo utilizada para varios
canales de comunicación, el ancho de banda es compartido entre estos.
- La fluctuación o jitter: es la variación del tiempo en la entrega de mensajes, es decir es la
variación de la latencia o retardo. Un jitter de 0 indica que el retardo es constante. Esto es
importante en aplicaciones multimedia ya que si el sonido de una aplicación se transmite
por una red con un jitter alto, el sonido presentará distorciones.

a.2) Relojes de computadoras y eventos de temporización.

Cada computador de un sistema distribuido tiene su reloj interno; los procesos locales obtienen
de él el valor de tiempo actual. Dese cuenta que si dos procesos en dos computadoras leen a la vez
su reloj local obtendrán tiempos diferentes debido a las desviaciones que en estos sistemas de
computo tiene en sus relojes. Para mantener estas desviaciones lo más pequeñas posibles de usan
protocolos como NTP para sincronizar las computadoras de red que hay en un sistema distribuido.

En un sistema distribuido es difícil establecer cuotas sobre el tiempo que debe tomar la ejecución
de un proceso, el envío de un mensaje o la deriva del reloj. Para atacar estos problemas tenemos
dos tipos de sistemas distribuidos para resolver los problemas de tiempo:

- Sistemas Distribuidos Síncronos: Hadzilacos y Touegg definen lo definen como aquel en el


que se establecen los siguientes límites: El tiempo de ejecución de cada etapa de un
proceso tiene ciertos límites inferior y superior conocidos; cada mensaje transmitido sobre
un canal se recibe en un tiempo limitado conocido y cada proceso tiene un reloj local cuya
desviación de un reloj de referencia tiene un límite conocido. Para construir estos tipos de
sistemas se requiere que los procesos implementen tareas con requisitos de recursos
conocidos, para que se puedan garantizar ciclos suficientes de procesador y capacidad de
red y que se provea a estos procesos con las limitantes antes mencionadas.
- Sistemas Distribuidos Asíncronos: muchos sistemas distribuidos, por ejemplo el Internet,
son de gran utilidad sin ser síncronos. El Sistema Distribuido Asíncrono es aquel que: La
velocidad de ejecución de una tarea por un proceso tomará un tiempo aleatorio que
puede ser muy pequeño o muy largo; los retardos o delay de transmisión de un mensaje
puede de 0 o de varios años; y la desviación del reloj local con respecto al reloj de
referencia también es arbitraría. Con estas premisas se pueden resolver algunos
problemas de diseño, por ejemplo a pesar que la WEB no siempre puede proveer una
respuesta en un límite de tiempo razonable, los navegadores se diseñan para permitir que
los usuarios realicen otras tareas mientras están a la espera.

b) Modelo Fallas.

En este modelo, más que hablar de su tratamiento habla de las formas como puede ocurrir un
fallo:

- Fallos por omisión: Se refiere a casos en que los procesos o los canales de comunicación
no pueden realizar las funciones que supone pueden hacer. Como ejemplos podemos citar
los casos en que un proceso se ha parado por lo que no puede continuar ofreciendo su
servicio; en caso de errores en el canal de comunicación se puede deber a buffer de los
sistemas de comunicación llenos o errores en los medios de transmisión.
- Fallos arbitrarios: Es aquel en que se omiten pasos deseables para el proceso o realiza
pasos no intencionados, son errores relacionados con la semántica de la información, por
ejemplo, un proceso podría cargar valores equivocados en su área de datos, o podría
responder a un valor incorrecto a una petición. No se pueden detectar simplemente
verificando si el proceso responde o no a las peticiones. Los medios de comunicación
pueden presentar Fallos Arbitrarios cuando por ruido en el medio se corrompen los
mensajes.
- Fallos de temporización: Este tipo de fallos son de los sistemas síncronos, donde se
exceden los límites de tiempo impuestos en el sistema. La tabla x muestra un resumen de
los fallos de temporización que se pueden presentar.

Clase de fallo Afecta a Descripción


Reloj Proceso El reloj local excede su tiempo de desviación con recto al de
referencia
Prestaciones Proceso El proceso excede el límite sobre el intervalo de dos pasos.
Prestaciones Canal La transmisión de un mensaje toma más tiempo que el tiempo
permitido.
Tabla x. Fallos de Temporización.

En los sistemas distribuidos asíncronos se puede presentar lentitud en la red o en los procesos, esto
sucede cuando están sobrecargados. Esto normalmente afecta a aplicaciones multimedia.

- Enmascaramiento de Fallos: trata de cómo se puede ocultar un fallo o convertirlo a una


forma que sea más aceptable al usuario. En el punto 1.2 se comento de una clasificación
para lograr esto.
1.4 CARACTERIZACIÓN DE UNA RED.
1.4.1 DISPONIBILIDAD, FUNDAMENTOS MATEMÁTICOS Y MODELOS.
1.4.2 CARGA Y RETARDO.
1.4.3 DESEMPEÑO.

1.5 PROTOCOLOS DE CAPA 2 PARA SISTEMAS DE DISPONIBILIDAD.

1.5.1 SPANNING TREE.

El Protocolo Spanning Tree (STP) proporciona respaldo de enlaces a nivel capa 2 del modelo OSI en
caso de que fallen alguno; está definido en la norma 802.1D de la IEEE.

Aparentemente una solución obvia para proporcionar redundancia en una red de switch´s es
insertar otro switch al sistema o enlaces redundantes, de esta forma evitaríamos fallos de
comunicación si un enlace falla o incluso si un switch falla. La figura Y4 muestra una red con
switch´s y enlaces redundantes.

PC Mac 1
PC Mac 2
SW de Flaco SW de Flanco
SW´s de Core
Figura Y4 Red de Switch´s con enlaces y switches redundantes.

Los switch´s al centro de la figura 4 normalmente se conocen como de core, pues ellos concentran
la comunicación e interconectan a switch´s de acceso que son que se conectan directamente con
la PC´s. Además los switch´s de core normalmente están conectados a los equipos de
comunicación que proporcionan el servicio de Internet o hacia otra red fuera del edificio, LAN o
campus donde están instalados.

La solución presentada en la figura Y4 parece sencilla de implementar pero si consideramos como


funciona un siwtch entonces con el esquema propuesto veríamos que la comunicación de la red se
pierde. Para entender esto recodemos como funciona un switch con el apoyo de la figura Y5.
2
1
3
PC Mac 2
PC Mac 1 SW A

SAT SWA
Pto Dir MAC

1 Mac 1
2 Mac 2 PC Mac 3
3 Mac 3

Figura Y5 Llenado dinámico de tabla SAT de switch .

Inicialmente un switch no posee ningún conocimiento de la red, la SAT del switch está vacía,
recodemos que la SAT es una tabla que posee un switch que usa para buscar en que puertos está
conectado un dispositivo de red en base de su dirección MAC y así decidir por cuál puerto reenviar
la trama.

Un caso de funcionamiento de un switch es cuando está vacía la SAT, el switch debe esperar el
arribo de las tramas que llegan a cada uno de sus puertos para registrar la MAC Fuente en la SAT
en la entrada del puerto en que fue recibida y así sabe en qué puerto está dicha MAC (Recordemos
que la MAC es la dirección de capa 2 de un dispositivos de red de datos). A medida que arriban
más tramas en el switch la tabla SAT termina de llenarse y todas las MAC ya estarán registradas en
la SAT, vea la figura Y5. Así la próxima vez que llegue una trama al switc, además de checar que la
MAC fuente ya este registrada en la SAT, se busca la MAC Destino en la SAT y se reenvía la trama
por el puerto asociado.

Otro caso en el funcionamiento de un switch es cuando llega una trama con una dirección destino
de broadcast, en ese caso el switch debe enviar la trama por todos los puertos activos que tenga
excepto por donde llego.

Y el último caso de funcionamiento de un switch es cuando llega una trama que no está registrada
en su SAT o la SAT está vacía, en este caso el switch envía la trama por todos los puertos que
tenga activos excepto por donde llego. Este tipo de reenvío le llaman algunos autores Unicast
Desconocido, se parece al procedimiento de reenvío de un broadcast, pero difiere porque la
dirección MAC Destino es del tipo unicast.

Esta manera de funcionar de un switch de tecnología Ethernet, asegura que reenviará las tramas
que le estén llegando.
Retomemos ahora el funcionamiento de llenado de la SAT cuando está vacía y hay switch y enlaces
redundantes, para ello nos apoyaremos de la figura Y6

De la PC de
Mac 1 a 2
2 1
1 3
3 2

PC Mac 1 SW A SW B
PC Mac 2

SAT SWA SAT SWB


Pto Dir MAC Pto Dir MAC

1 1
2 2
3 3

Figura Y5 Red con Switch y enlaces redundantes.

La PC con Mac 1 envía una trama a la Pc con Mac 2, esta al llegar al SW A registra la Mac 1 en el
puerto 1 y se reenvía la trama por el resto de sus puertos, el 2 y 3, cuando la trama llega al SW B
llega por sus puertos 1 y 2 y el swicth registra la MAC 1 en su SAT en dichos puertos. Vea la figura
Y6

De la PC de
2 Mac 1 a 2 1
1 3
3 2
De la PC de
PC Mac 1 SW A Mac 1 a 2 SW B
PC Mac 2

SAT SWA SAT SWB


Pto Dir MAC Pto Dir MAC

1 Mac 1 1 Mac 1
2 2 Mac 1
3 3

Figura Y6 Red con Switch y enlaces redundantes y registro de la primera trama.

El SW B tratara ambas tramas por separado, por ejemplo, sí trata la trama que llega por su puerto
1, el switch registra la Mac fuente (Mac 1) en su SAT y reenviará la trama por todos sus puertos
menos por donde llego, vea la figura Y7, provocando un bucle porque la trama sale por el puerto 2
del SW B que conecta al SW A. Esto mismo sucede con la trama que llega por el puerto 2, se
registra en la SAT y regresa al SW A por el reenvío de unicast desconocido.
2 1
1 3
3 2
De la PC de
SW B De la PC de
PC Mac 1 SW A Mac 1 a 2
Mac 1 a 2 PC Mac 2
SAT SWA SAT SWB
Pto Dir MAC Pto Dir MAC

1 1 Mac 1
2 2 Mac 1
3 Mac 1 3

Figura Y7 Red con Switch y enlaces redundantes y bucles de trama.

Vea también en la figura Y7 quela trama que llega al SW A por el puerto 3, hace que se actualice su
SAT, el SWA buscará la MAC destino de la trama y como no se encuentra registrada la enviará por
todos sus puertos activos menos por donde llego, provocando que se reenvíe por el puerto 2 y
retorne al SW B.

Como apreciará el lector el proceso se repite provocando que la trama gire indefinidamente en un
bucle formado por los dos enlaces que unen los dos switches: SW A y SW B.

Ya que vimos que pasa en los enlaces redundantes entre dos switch´s, apreciamos que esto
sucede entre cualquier circuito cerrado (bucle ) en una red formada por switch´s. La forma de
solucionar esto es bloquear lógicamente puertos, es decir que un puerto dado de un switch no se
use para reenvío de tramas aunque físicamente éste esté conectado. Pero ¿Cuál puerto es el que
se bloquera? Esto lo resolverá el Algoritmo de Spanning Tree (STA).

Algoritmo de Spanning Tree.

Cada switch ejecutará el algoritmo de STA basándose en la información que recibe de cada switch
a través de tramas llamadas BPDU (Unidad de Datos del Protocolo del Bridge). El algoritmo forma
una topología tipo árbol entre los switch´s, un switch será el switch raíz del árbol y establecerá
caminos libres de bucles entre los switch´s. El lector puede aplicar practicar el STA siguiendo las
reglas de la tabla X1:

Num Nombre de la regla Procedimiento o comentario.


Regla
1 Elección del Switch Raiz El switch raíz es el switch con menor ID de switch.
2 Elección del puerto raíz. Se determina el puerto del switch con la mejor ruta
al switch raíz. Para establecer esta ruta, un switch
evalúa en orden tres criterios
2.1 1er criterio El puerto raíz es aquel que tenga la ruta de menor
costo para alcanzar el switch raiz, si hay rutas con
costos iguales, se aplica el segundo criterio.
2.2 2do criterio El puerto raíz es aquel que nos lleve al switch
vecino con menor ID de switch, si en este criterio
hay empates se aplica el tercer criterio
2.3 3er criterio El puerto raíz es la que nos conecta con el puerto
con menor ID de puerto en el switch vecino.
3 Dibuje una LAN en enlace no
elegidos por un switch como
mejores rutas para alcanzar la
raíz.
4 Cada LAN establece una ruta al Para establecer esta ruta, se evalúa otra vez los
switch raíz criterios 1, 2 y 3.
Tabla X1. Reglas STA.

Aplicando las reglas en la figura Y8 para ejemplificarlas. Para aplicar la primer regla veamos que es
el ID de Switch. El ID del switch está formado por la MAC del Swicth (el fabricante le asigna una
MAC a su equipo que es único en el mundo) concatenado con un número conocido como
prioridad: Prioridad:MAC del Switch. Ejemplo: 800A:00-01-AB-AB-00-12. La MAC es inamovible
pero la prioridad se puede modificar por el administrador del equipo.

En la figura Y8 ¿Cuál es el switch raíz? De acuerdo a la primer regla del STA, será el menor
Id de Switch. Si observa bien, el menor ID de MAC es: 8000:00-01-AA-CD-AB-9A del SW4 por lo
que este switch es el switch raíz. En la figura también mostramos los bucles que existen, al final de
la explicación del algoritmo ya no deben de existir.
SW1 SW2 SW3
8000:00-01-AA-CD-CE-03 8000:00-01-AA-CD-CB-99 8000:00-01-AA-CD-AE-A9
80:1 80:2
80:2 80:4
80:6 80:3
80:3 80:4 80:2 80:4 80:5

80:2 80:1 80:3 80:3 80:2

80:3 80:5
80:1 80:4
SW4 SW5 SW6
8000:00-01-AA-CD-AB-9A 8000:00-01-AA-CD-FE-03 8000:00-01-AA-CD-FE-89
Switch Raiz
Figura Y8. Red LAN. Elección del switch raíz.

Continuando con la figura Y8, determinemos el puerto raíz para el SW6. Para alcanzar la raíz
aplicando los criterios de la regla 2. El primer criterio dice que es la ruta con menor costo, ¿Qué es
el costo? El costo es inversamente proporcional a la velocidad de un puerto o un enlace, por
ejemplo si un enlace de 1000mbps tendrá menos costo que un enlace de 100Mbps. El costo antes
106
estaba definido por la fórmula 𝐶𝑜𝑠𝑡𝑜 = 𝑉𝑒𝑙𝑜𝑐𝑖𝑑𝑎𝑑 , donde la velocidad es la velocidad del puerto,
pero actualmente por el desarrollo de tecnologías de altas velocidades se usa una tabla definida
en la norma 802.1t de la IEEE.

El SW6 de la figura Y8 puede alcanzar la raíz por el SW5 o por el SW3, si hacemos la consideración
que todos los enlaces tienen la misma velocidad entonces todos los enlaces tienen el mismo costo,
si suponemos que cada enlace tiene un costo de 10 entonces el costo para que SW6 alcance la raíz
por la ruta SW6 - SW3 - SW2 - SW1- SW4 es de 30 ya que el último enlace que conecta a SW1 con
SW4 ya no cuenta por ser la conexión a la raiz, este costo es mayor comparándolo con la ruta SW6
- SW5 - SW4 que es de 10, por lo que esta ruta es mejor que la anterior. Vea la figura Y9, se tiene
marcado el puerto 4 del SW6 como raíz ya que este establece la ruta SW6 – SW5 – SW4 para el
SW6.

SW1 SW2 SW3


8000:00-01-AA-CD-CE-03 8000:00-01-AA-CD-CB-99 8000:00-01-AA-CD-AE-A9
80:1 80:2
80:2 80:4
80:6 80:3
80:3 80:4 80:2 80:4 80:5

80:2 80:1 80:3 80:3 80:2

80:3 80:5
80:1 80:4
SW4 SW5 SW6
8000:00-01-AA-CD-AB-9A 8000:00-01-AA-CD-FE-03 8000:00-01-AA-CD-FE-89
Switch Raiz
Figura Y9. Puerto raíz del SW6

Para elegir el puerto raíz del SW5, consideramos que tiene dos rutas para alcanzar la raíz: SW5 –
SW4 con consto de 0 y SW5 – SW2- SW1 – SW4 con un costo de 20, por lo que la primer ruta es
mejor por lo tanto el puerto raíz de SW5 es el 5, puerto con el que el switch establece su ruta SW5
– SW4. Vea la figura Y10.
SW1 SW2 SW3
8000:00-01-AA-CD-CE-03 8000:00-01-AA-CD-CB-99 8000:00-01-AA-CD-AE-A9
80:1 80:2
80:2 80:4
80:6 80:3
80:3 80:4 80:2 80:4 80:5

80:2 80:1 80:3 80:3 80:2

80:3 80:5
80:1 80:4
SW4 SW5 SW6
8000:00-01-AA-CD-AB-9A 8000:00-01-AA-CD-FE-03 8000:00-01-AA-CD-FE-89
Switch Raiz

Figura Y10 Puerto raíz de SW5 y SW6

Establezcamos el puerto raíz para el SW2, para alcanzar la raíz tiene las rutas SW2 – SW1 – SW4,
SW2 – SW5 – SW4 y SW2 – SW3 – SW6 – SW5 – SW1, esta última con costo de 30 y las dos primeras
con costos de 10, por lo que son estas dos mejores pero hay empate, en este caso aplicamos el 2do
criterio: la mejor ruta es la del switch con menor ID de Switch, los vecinos de SW2 son SW1 y SW5 y
el que tiene menor ID de Switch es el SW1 por lo que el puerto 4 del SW4 que conecta al SW1 será
el puerto raíz. Vea la Figura Y11.
SW1 SW2 SW3
8000:00-01-AA-CD-CE-03 8000:00-01-AA-CD-CB-99 8000:00-01-AA-CD-AE-A9
80:1 80:2
80:2 80:4
80:6 80:3
80:3 80:4 80:2 80:4 80:5

80:2 80:1 80:3 80:3 80:2

80:3 80:5
80:1 80:4
SW4 SW5 SW6
8000:00-01-AA-CD-AB-9A 8000:00-01-AA-CD-FE-03 8000:00-01-AA-CD-FE-89
Switch Raiz

Figura 11. Puerto raíz de SW1, SW5 y SW6.

Establezcamos el puerto raíz para el SW1, aplicando el 1er criterio que es escoger la ruta con menor
costo para alcanzar la raíz, vemos que tenemos dos rutas para alcanzar la raíz con consto de 0 la del
SW1 – SW4 por el puerto 3 a 2 y por el puerto 4 a 1, hay otra ruta la del SW1 – SW2 – SW5 – SW4
pero evidentemente es más alto costo por ello ya no lo consideramos. Para las dos rutas con costo
de 0 de SW1 a SW4 hay empate aplicamos el 2do criterio que dice que escojamos la ruta que nos
lleva al ID de Switch menor pero ambas rutas del SW1 – SW4 nos llevan al mismo switch por lo que
volvemos a tener empate, por lo que aplicamos 3er criterio que es la ruta que tenga menor ID de
puerto en el switch vecino, el vecino del SW1 en esta ruta es el SW4, y estamos considerando las
dos rutas que estable con sus puertos 2 y 3 que tienen asociados los ID de puerto 80:2 y 80:3,
obviamente el menor es 80:2 por lo que escogemos la ruta SW1 – SW4 por el puerto 3 a 2 como
mejor ruta, por lo que el puerto 3 del SW1 es su puerto raíz. Ve la figura 12.

Por último establezcamos el puerto raíz para el SW3, el cual también tiene dos rutas SW3 – SW2 –
SW1 – SW4 y SW3 – SW6 – SW5 – SW4 ambos con un costo de 20 por lo que hay empate en el 1er
criterio, aplicamos 2do criterio: menor ID de Switch, en este caso los vecinos de SW3 son SW2 y
SW6 y el que tienen menor ID de Switch es SW2, pero tenemos hacia este switch dos enlaces: el que
se establece del puerto 2 al 1 y de 3 a 6 del SW3 al SW2, por lo que hay que escoger el mejor enlace.
Si escogemos por el 1er criterio (menor costo) vemos que tenemos empate en estos dos enlaces,
por lo que aplicamos 2do criterio (el que nos lleve al switch con menor ID de switch) donde volvemos
a tener empate por llevarnos al mismo switch, por lo que aplicamos 3er criterio, (el que tenga menor
ID de puerto en el switch vecino) el switch vecino es SW2 y el menor ID de puerto para los dos enlace
que estamos considerando es el puerto 1 con Id 80:1 por lo que el puerto raíz del SW3 es el puerto
2. Vea la figura 12.

SW1 SW2 SW3


8000:00-01-AA-CD-CE-03 8000:00-01-AA-CD-CB-99 8000:00-01-AA-CD-AE-A9
80:1 80:2
80:2 80:4
80:6 80:3
80:3 80:4 80:2 80:4 80:5

80:2 80:1 80:3 80:3 80:2

80:3 80:5
80:1 80:4
SW4 SW5 SW6
8000:00-01-AA-CD-AB-9A 8000:00-01-AA-CD-FE-03 8000:00-01-AA-CD-FE-89
Switch Raiz

Figura 12. Puertos Raíz del SW1, SW2, SW3, SW5 y SW6.

Las flechas marcadas en la figura 12 tiene una dirección tal que salen de un puerto que es el puerto
raíz de un switch y señalan a otro puerto en el switch vecino, este puerto se llama puerto designado.
Vea que en la figura 12 marcamos con un punto el puerto designado.
Hasta ahora lo que hemos hecho es indicar que puertos no se bloquean que son los puertos raíz y
designados. Los bucles todavía existen, esto se resuelve con la 3er regla: Dibuje una LAN en cada
enlace no elegido. Vea la figura Y13.
SW1 SW2 SW3
8000:00-01-AA-CD-CE-03 8000:00-01-AA-CD-CB-99 8000:00-01-AA-CD-AE-A9
80:1 80:2
80:2 80:4
80:6 80:3
LA
80:3 80:4 80:2 80:4 80:5
N3
LAN1 LAN2 LAN4 LAN5

80:2 80:1 80:3 80:3 80:2

80:3 80:5
80:1 80:4
SW4 SW5 SW6
8000:00-01-AA-CD-AB-9A 8000:00-01-AA-CD-FE-03 8000:00-01-AA-CD-FE-89
Switch Raiz

Figura Y13. Regla 3: Dibuje una LANen los enlaces no escogidos.

Cada LAN de la figura Y13 deberá definir también una ruta para alcanzar la raíz usando los mismos
criterios definidos en la regla 2. Por ejemplo la LAN1 puede alcanzar la raíz usando rutas por el SW1
o usando al SW4 usando el primer criterio (menor costo) vemos que el enlace que conecta la LAN1
al SW4 tiene un costo de 0, mejor que cualquier otro costo ofrecido por las rutas del SW1, por lo
que el puerto designado para la LAN1 es el 1 del SW4 y el otro puerto de la LAN 1 se bloquea, es
decir se bloquea el puerto 4 del SW1. Vea la LAN1 en la figura Y14.
SW1 SW2 SW3
8000:00-01-AA-CD-CE-03 8000:00-01-AA-CD-CB-99 8000:00-01-AA-CD-AE-A9
80:1 80:2
80:2 80:4
80:6 80:3
LA
80:3 80:4 80:2 80:4 80:5
N3
LAN1 LAN2 LAN4 LAN5

80:2 80:1 80:3 80:3 80:2

80:3 80:5
80:1 80:4
SW4 SW6
SW5
8000:00-01-AA-CD-AB-9A 8000:00-01-AA-CD-FE-89
Switch Raiz 8000:00-01-AA-CD-FE-03
Figura Y14. Rutas de las LAN´s, puertos bloqueados y designados para las LAN´s

La LAN2 tiene la ruta LAN2 - SW2 – SW1 – SW4 y LAN2 - SW5 – SW4, podemos pensar en rutas
alternativas de SW2 – SW3 …, pero las dos primeras son más cortas. Aplicando el 1er criterio (menor
costo) la primer ruta tiene un costo de 20 y la segunda un costo de 10, por lo que la mejor ruta es la
segunda: LAN2 – SW5 – SW4, por lo que el puerto designado de la LAN2 es el 3 de SW5 y se bloque
el otro puerto, es decir el puerto 2 del SW2. La LAN2 Vea la figura 14.

Siguiendo el mismo procedimiento se resuelve la LAN3, LAN4 y LAN5 como muestra la figura Y14.
En estos ejemplos no hubo empate en costos pero si los hubiera habido se aplicaría el 2do criterio
y en caso de otro empate se aplicaría el 3er criterio.

El resumen del estado de un switch después de haberse ejecutado STA se muestra en la tabla X2.

Switch Switch Raiz Puerto Raiz Puertos Puertos Switch


Designados Bloqueados Designado.
SW1 SW4 4 2 3 SW4
SW2 SW4 4 1, 6 2 SW1
SW3 SW4 2 NA 3, 4, 5 SW2
SW4 SW4 NA 1, 2, 3 NA NA
SW5 SW4 5 1, 3 NA SW4
SW6 SW4 4 2, 3 NA SW5
Tabla X2. Resumen del estado de los switch´s de la figura Y14 en una topología Spanning Tree.

Vea en la tabla X2 un concepto nuevo, el switch designado, es el switch vecino del switch señalado
en la primer columna y que lo usa para alcanzar la raíz. Si nos entráramos al ambiente de monitoreo
de un switch de nuestro ejemplo y ejecutáramos el comando correspondiente para verificar su
estado de acuerdo a Spanning Tree, veríamos los que nos indica la tabla X2 para dicho switch, por
ejemplo monitorearíamos que para el SW1 su switch raíz es SW4, su puerto raíz es el 3, sus puerto
designado es el 2, su puerto bloqueado es el 4 y su switch designado es el SW4.

ESTADOS DE LOS PUERTOS EN EL PROTOCOLO DE SPANNING TREE (STP)

Para participar en el proceso de STP cada puerto tiene que progresar a través de una serie de
estados. Un puerto comienza en el estado desconectado hasta llegar al estado de activo sí es que al
final tiene permitido enviar tramas.

Los estados de STP son los siguientes:

- Desconectado. Son los puertos que se han dado de baja administrativamente o estén
desconectados o por algún fallo en el cable y no participa en el STA.
- Escuchando. Un puerto esta en este estado al inicio de la ejecución del Spanning Tree. Este
estado indica que el puerto puede ser seleccionado como puerto raíz, designado, o
bloquearlo. En este estado no se puede enviar tramas de datos de usuario pero se están
enviando BPDU, (Unidad de Datos del Protocolo del Bridge) que son tramas que se usan
para intercambiar información de Spanning Tree. Tarda 15 seg aproximadamente en este
estado.
- Aprendiendo. Luego del periodo del estado de Escuchando se pasa a este estado donde ya
con información proporcionada en los BPDU el switch empieza a ejecutar el STA. Este estado
dura aproximadamente 15 seg.
- Enviando. Después del estado de Aprendiendo, el puerto puede pasar a este estado que
indica que ya es completamente funcional, envía tramas de datos de usuario y BPDU para
monitorear enlaces o ejecutar cambios en Spannin Tree.
- Bloqueado. Este es otro estado en que se pone un puerto al final del estado Aprendiendo.
Este estado no puede recibir ni enviar tramas de datos de usuario, es necesario para abrir
bucles, solo puede recibir BPDU.

FUNCIONAMIENTO DEL PROTOCOLO DE SPANNING TREE (STP).

STP funciona de manera que los switch´s puedan operar entre allos intercambiando mensajes de
datos a través de los BPDU´s. Cada Switch envía las BPDU´s a través de un puerto usando la dirección
MAC de ese puerto como dirección de origen, el switch no sabe de la existencia de otros switch´s
por lo que las BPDU´s son enviadas con las dirección de destino multicast 01-80-C2-00-00-00.

Existen dos tipos de BPDU´s:

- Configuration BPDU´s: Utilizadas para el cálculo del STA.


- Topology Change Notification (TCN) BPDU: utilizado para anunciar los cambios en la
topología de la red.

Una vez que es seleccionado el switch raíz, este envía Configuration BPDU y los switch´s que lo
reciben los reenvían haciendo cambios en algunos campos para indicar quien lo está reenviando y
cual es costo hacia la raíz acumulado el costo local al del BPDU. Los Configuration BPDU contienen
los campos mostrados en la siguiente tabla X3.

Campo Tamaño Comentario


Id del protocolo 2 Identificador que identifica a la trama como un BPDU
Versión 1 Versión de Spanning Tree, en la actualidad hay tres versiones.
Message Type 1
Flags 1
Root Bridge ID 8 Indica quien es el switch raíz. Al inicio todos participan por lo que
cada switch se propone como switch raíz. Cuando finaliza el STA,
este campo contiene el ID del Switch que haya quedado como raíz
Rooth Path Cost 4 Costo al switch raíz. A medida que el BPDU atraviesa la red los
switch´s incrementan el costo. Recuerde que ya seleccionado el
switch raíz, este es el encargado de generar los BPDU de
configuración y el resto de los switch´s los reenvían.
Sender Bridge ID 8 ID del switch que envía el BPDU
Port ID 2 ID del puerto del puerto que envía el BPDU
Message Age 2 Es el tipo de vida que tiene este mensaje, lo incrementa cada
switch hasta llegar al valor señalado por el campo Maximun Age,
en este caso se descarta.
Maximum Age 2 Es el intervalo de tiempo que un switch guarda el mejor BPDU que
ha escuchado antes de descartarla. Esto se requiere porque el raíz
genera periódicamente BPDU que deben seguir llegando a los
switch´s, si no se refresca el BPDU en el tiempo señalado por este
temporizador, significa que hay cambios en la red. Default 20 seg.
Hello Time 2 Es el intervalo de tiempo en el que los configuration BPDU son
enviados desde la raíz.
Forward Delay 2 Es el intervalo de tiempo en el que un switch está enre los estados
de Escuchando y Aprendiendo. Por default 15 seg.
Tabla X3. Campos de un Configuration BPDU.

TIPOS DE SPANNING TREE.

En la actualidad hay tres versiones de Spanning Tree, aquí se estudio la primer versión que esta
documentada en la norma 802.1d, esta versión tiene como principal inconveniente su lenta
convergencia la cual duraba 30 seg aproximadamente. Este retardo ocurría en cualquier cambio de
topología, por lo que los usuarios de la red experimentaban por 30 seg que la red se había caído.

Para corregir el problema del tiempo de convergencia, se reviso la norma 802.1d y nació la 802.1w
(Spanning Tree Rápido, RSTP), esta norma es la más utilizada actualmente, reduce el tiempo de
convergencia a unas cuantas decimas de segundo. Un switch que funcione con RSTP podrá funcionar
con STP, hay compatibilidad. Cambio el valor de los temporizadores y suprimió el estado de
Escuchando, quedando solamente Aprendiendo, Reenviando y Deshabilitado. Los roles de los
puertos también tuvo sus modificaciones, el puerto bloqueado desaparece y aparece respaldo y
alternativo. El puerto de respaldo es un puerto que recibe una BPDU idéntica a la BPDU que recibe
el puerto raíz de un switch, esto solo es posible si hay un hub o un switch que no soporta en Spanning
Tree como intermedio entre dos switch que si lo soportan, el puerto de respaldo no reenvía tramas
de usuario, es decir esta deshabilitado. El puerto alternativo es una ruta alternativa para alcanzar el
switch raíz, no envía tramas de usuario, es decir está deshabilitado.

La siguiente versión de Spanning Tree es el múltiple, MST que corresponde a la norma 802.1s, es
compatible con las dos versiones anteriores, su nombre se debe a que se puede correr el algoritmo
de Spanning Tree o instancia por cada VLAN que pueda contener el sistema. No tiene un uso muy
extendido pero se espero alcance más popularidad. No se estudiará en este texto.

1.5.2 ADICION DE PUERTOS.

La adición de puertos son métodos para unir varios enlaces físicos entre switch´s de tal forma que
forman un solo enlace virtual con más ancho de banda. Esto es una forma económica para
implementar enlaces con mayor ancho de banda además de proveer redundancia en enlaces por lo
que incrementa la tolerancia contra fallos.
Para es Spanning Tree ver un enlace lógico creado con el protocolo de adición de puertos es tomarlo
como si fuese un enlace real y como tal toma su lugar en la topología creada por STP.

La norma 802.3ad adición de puertos (Link Aggregation) es la más aceptada en la industria, existen
varios protocolos propietarios con las mismas capacidades de otros fabricantes. Este protocolo
permite al switch determinar por si solo que enlace es el que puede ser integrado y configurado
para que sea parte de un enlace lógico.

Para que un enlace físico pueda ser agregado a un enlace lógico debe cumplir con ser de tecnología
Ethernet, los enlaces deben tener la misma velocidad y trabajar en full dúplex. Vea figura 15.

100 Mbps, Full Duplex

100 Mbps, Full Duplex

SW A SW B
Enlace
lógico de
200 MBps

Figura 15. Formación de un enlace lógico con el 802.3ad.

PROTOCOLO DE CONTROL DE AGREGACIÓN DE ENLACE (LACP).

El LACP es un protocolo que forma parte del 802.3ad y permite la comunicación entre switch´s para
determinar que enlaces físicos pueden formar un enlace lógico. Dentro de la terminología del
802.3ad se dice que un enlace lógico es un Grupo de Agregación de Enlaces (Link Aggregation Group,
LAG). Un enlace físico solo puede pertenecer a un LAG en un momento dado.

La operación del LACP involucra:

- Checar si hay enlaces físicos que puedan ser agregados a un LAG.


- Controlar la adición de enlaces a un LAG y la creación del LAG si es necesario.
- Monitorear el estado de los enlaces agregados y asegurarse que la agregación es todavía
válida.
- Remover un enlace físico del LAG si ya no es válido y remover el LAG si ya no tiene miembros.

BENEFICIOS DEL 802.3ad.

Los beneficios de este protocolo son:

- Configuración dinámica: Automáticamente se determina los enlaces que son válidos para
ser agregados al LAG y automáticamente los configura. Aunque esto lo hace de forma
automática existen posibilidades que el administrador configure ciertas propiedades.
- Disponibilidad de enlaces más veloces: Si en LAG hay un enlace físico que falla, el fallo se
limita a dicho enlace y los demás seguirán funcionando.
- Incremento de Ancho de Banda: Se incrementa anchos de bando ya que se suman las
velocidades de los enlaces físicos en el LAG.
- Soporta los clientes MAC del 802.3: Esto significa que cualquier dispositivo que maneje una
MAC como Ethernet o Token Ring se le puede implementar por el fabricante esta norma.
- Compatible con dispositivos que no reconozcan a 802.3ad: si hay dispositivos que no
entienden esta norma funcionaran de manera normal.
- 802.3ad es de capa 2 del modelo OSI: el 802.3ad adiciona una subcapa en la capa 2 del
modelo OSI, entre las subcapas MAC y LLC como lo muestra la figura 16. Esta posición nos
dice que trabaja directamente con direcciones MAC y las trabaja de tal forma que presenta
a las capas superiores una MAC que identifica al LAG.

Aplicación

Presentación

Sesión

Transporte Sub capa LLC


Red Subcapa 802.3ad
Subcapa MAC
Enlace de datos

Física

Figura 16. Posición del 802.3ad en el modelo OSI.

TERMINOLOGÍA 802.3ad

La terminología más común es la siguiente:

- Link Aggregation Group (LAG): Una vez que los puertos físicos son asociados con un puerto
lógico, la agregación resultante es representado como un LAG. Un LAG es conocido como un
puerto TRUNK en otros protocolos propietarios de agregación de puertos.

- Sistema de agregación: una identidad totalmente identificable conformado por un grupo


arbitrario de LAG de uno o más puertos. El LAG siempre conecta a dos Sistemas de Agregación. En
nuestro caso lo más común es que sea un switch o computadora tipo servidor.

- Llaves de agregación: Parámetros asociados con cada puerto, y con cada LAG de un sistema de
agregación, identifican a esos puertos que pueden ser agregados a un LAG. Estas llaves resumen
características como son velocidad, parámetros configurados por el administrador de red, etc.

- Protocolo de marcado: permite a la función de distribución distribuir los flujos en los enlaces
físicos que forman el LAG, es decir, ayuda al algoritmo de distribución a repartir los flujos entre los
enlaces físicos. Un flujo es la conexión identificada entre dos terminales identificada por sus MAC.
Es decir que el 802.3ad solo distingue conversaciones diferentes si hay direcciones MAC diferentes
en una conversación. Vea la figura 17.

- Actor: Es el dispositivo local en el LACP. Vea figura 17. Si esta monitoreando en un switch un LAG,
el witch en donde están conectados es el equipo actor.

- Partner: Es el dispositivo remoto en el LACP. Vea Figura 17. Si esta monitoreando en un switch
un LAG, el witch remoto que forma el LAG con el switch que monitorea es el Partner.

LAG
Actor Partner De Mac 1 a
De Mac 1 a De Mac 1 a Mac 3
Mac 2 Mac 2
De Mac 1 a
Administrador Mac 3

PC Mac 1 PC Mac 2 PC Mac 3


Figura 17. Protocolo de marcado y actor y partner en el 802.3ad

Como última mención diremos que este protocolo es muy utilizado no solo en enlaces entre
switch´s, sino también entre servidores. Hay tarjetas de red que soportan este protocolo y pueden
ser instaladas en servidores de alta demanda.

1.6 PROTOCOLOS DE CAPA 3 Y SU RELACIÓN CON LA DISPONIBILIDAD.

En el apartado anterior vimos los protocolos más usuales de capa 2 en redes de alta disponibilidad
para lograr redundancias y maximizar velocidad entre switch´s. En capa 3 también tenemos
protocolos para lograr la alta disponibilidad pero en otros contextos. En las siguientes dos
secciones estudiaremos estos protocolos.

1.6.1 LSNAT.

Load Shared NAT (LSNAT) también conocido como NAT PAT (PAT = Traductor de Direcciones
de Puerto), nos da la facilidad de que varias PC´s con direcciones IP privadas puedan crear peticiones
a los servicios que ofrece Internet (páginas WEB, correo electrónico, etc) o red pública y obtener
respuesta, es decir es un protocolo para proporcionar a los usuarios disponibilidad de recursos pero
en el caso de que su salida a una red pública este limitada. Para ello si se da cuenta en la figura 18,
el enrutador que conecta a cada una de las LAN a la red pública, debe tener una dirección pública,
es decir válida en Internet, al ser válida se puede acceder desde cualquier punto de la red de
Internet. Cuando se configura NAT PAT en el enrutador, la dirección pública de éste se presta a cada
una de las PC´s de la red privada cuando generan una petición dirigida a la red de Internet.

Para analizar el funcionamiento de NAT PAT, considere que la red privada A tiene el
direccionamiento que se muestra en la figura 18, además adicionamos un servidor WEB en dicha
figura.

Supongamos que las tres PC´s generan peticiones de acceso al servidor de la red WEB que
está en la red de Internet. Las PC´s enviarán sus peticiones al enrutador y este prestará su dirección
IP a cada una de estas peticiones pero para distinguir entre cada una de las peticiones también
considerará el número de puerto que distingue a la aplicación cliente de dichas peticiones.

El número de puerto es un valor entero entre 0 y 65534 que distingue a una aplicación de
red que se está ejecutando en una terminal. Recuerde que casi todos los servicios que tenemos en
Internet son Cliente-Servidor. Esto quiere decir que hay una aplicación Servidor (porque ofrece un
servicio) que está en espera de las peticiones de una aplicación cliente para darle la información que
solicite. Estas aplicaciones Cliente y Servidor se reconocen por un número, el número de puerto.
Para las aplicaciones servidor, este número ya está bien definido para una aplicación dada, por
ejemplo para el servidor WEB es el número 80, para el servidor telnet es el 23, para servidor de
correo electrónico es 25, etc. Pero para el caso de los clientes, estos se generan aleatoriamente a
partir del número 1025.

Servidor WEB
210.1.1.10/24

192.168.1.2/24

192.168.1.1/24

200.1.1.1/24

Red Pública

192.168.1.3/24
200.1.1.0/24 210.1.1.0/24

192.168.1.4/24 192.168.1.0/24
220.1.1.0/24
Red Privada B
192.168.1.0/24

Red Privada A

192.168.1.0/24

Red Privada C
Figura 18 Direccionamiento de la red LAN A y un servidor WEB

NAT PAT en base de las peticiones que generan los clientes, forma una tabla, la cual se ilustra
en la tabla X10 y muestra como el NAT PAT cambia la dirección de las PC´s de la red privada por la
pública del enrutador y cambia el número de puerto que distingue la aplicación cliente por otro
número de puerto que controle el mismo NAT PAT. De esta forma cuando el servidor WEB envíe su
respuesta, se la enviará a la dirección pública del enrutador. Cuando llegue dicha respuesta, el
enrutador se fijará en el número de puerto de la aplicación cliente al que va dirigido dicha respuesta
y en su tabla podrá distinguir la PC a la que le corresponde. De esta forma podrá cambiar la dirección
IP pública y el número de puerto por la dirección de la PC y por el número de puerto de la aplicación
cliente que generó la petición.

Paquete de Información en la Red Privada Paquete de Información en la Red Pública


Dirección Número Dirección Número de Dirección Nuevo Dirección Número de
Privada de Puerto Destino Puerto Pública Número de Destino Puerto
Cliente Destino Puerto Destino
Cliente
192.168.1.2 2020 210.1.1.10 80 200.1.1.1 3000 210.1.1.10 80
192.168.1.3 2020 210.1.1.10 80 200.1.1.1 3001 210.1.1.10 80
192.168.1.4 2100 210.1.1.10 80 200.1.1.1 3002 210.1.1.10 80
Tabla X10 Relación de conversiones de NAT PAT

Por ejemplo en la tabla X10 se muestra que la PC 192.168.1.2 tiene una aplicación que se identifica
con el número 2020 y genera una petición a la dirección 210.1.1.10 donde reside la aplicación 80 (servidor
WEB) pero NAT PAT cambia la dirección IP origen y número de puerto origen por la 200.1.1.1 (IP pública) y
número de puerto 3000 (un número de puerto que pueda contralar el NAT PAT y así evitar que los números
de puerto del cliente se repitan, como sucede en la segunda entrada de la tabla X10, recuerde que los números
de los clientes son aleatorios pero por lo mismo existe la probabilidad de que se repitan en diferentes PC´s).
Con estos cambios sale la petición a Internet y cuando llegue su respuesta al enrutador, este podrá regresarlo
a su forma original gracias al número de puerto que se conteste, en nuestro ejemplo al 3000.

1.6.2 VRRP.

Hay varios métodos que puede usar una terminal final (de usuario) para determinar su puerta de
enlace, por ejemplo usar un protocolo de ruteo dinámico, aunque esta solución es poco viable por
la carga de trabajo que se genera en la terminal final. El uso de configuraciones de ruta estática es
más popular, esto se logra configurando de manera manual el Gateway o asignándolo a través de
DHCP. Sin embargo tener una sola puerta de enlace crea una posibilidad de falla, la pérdida del
Gateway podría dejar a las terminales finales sin comunicaciones debido a que las terminales
finales no pueden detectar un camino o algún otro Gateway alterno.

El Protocolo de Redundancia de Ruteo Virtual (VRRP) está especificado en el RFC 2338 y está
diseñado para eliminar este tipo de fallas. VRRP tiene como principal fin designar siempre a un
enrutador como responsable de una dirección IP que esté dando servicio como puerta de enlace,
es decir, especifica un protocolo de elección que dinámicamente asigna la responsabilidad de que
un dirección IP virtual pertenezca a un enrutador VRRP de un conjunto de enrutadores VRRP que
están conectados a un segmento IP o una LAN. El enrutador VRRP que controla la IP del enrutador
Virtual es llamado Maestro y reenvía los paquetes IP de las terminales finales que usan ésta IP
Virtual como Gateway. El proceso de elección dinámica del Maestro nos da un método dinámico
de recuperación contra fallas en el caso de la pérdida del Maestro.

DEFINICIONES.

Primeramente vamos a familiarizarnos con la terminología VRRP:

- Enrutador VRRP: Un enrutador con VRRP. Puede participar en uno o más enrutadores
virtuales.
- Enrutador virtual: Un objeto abstracto administrado por VRRP que actual como puerta de
enlace o gateway de un conjunto de terminales finales en una LAN o segmento IP.
Consiste de un Identificador de Enrutador Virtual y un conjunto de direcciones IP que tiene
asociadas. Un Enrutador VRRP puede ser respaldo de uno o más Enrutadores Virtuales.
- Dueño de una Dirección IP: Es el Enrutador VRRP que tiene la dirección IP virtual asignada
a una de sus interfaces reales y cuando éste esté en funcionamiento responderá de
acuerdo a sus funciones de enrutamiento a los paquetes que le lleguen a dicha interfaz.
- Dirección IP primaria. Una dirección IP seleccionada de un conjunto de direcciones IP
asignadas a interfaces reales. Los anuncios VRRP siempre los manda usando como
dirección IP fuente la dirección IP primaria.
- Maestro: Es el enrutador VRRP que es responsable del reenvío de paquetes mandados a la
dirección IP asociada con el Enrutador Virtual además de contestar las peticiones ARP para
esta dirección IP. Si el Dueño de la Dirección IP del Enrutador Virtual está activo este se
convertirá en el Maestro.
- Respaldo: Enrutador (es) VRRP que están disponibles para asumir la responsabilidad del
reenvío del enrutador Maestro en caso de que este falle.

FORMA DE TRABAJAR.

Para mostrar la forma en que trabaja VRRP estudiaremos dos casos. En el primer ejemplo se
muestran dos enrutadores VRRP respaldando a un enrutador virtual. Vea la figura Y19. En este
escenario, las terminales finales tienen instalada una ruta por default o puerta de enlace instalada
que la dirección IP del enrutador virtual #1 (IP A) y los enrutadores físicos están corriendo VRRP. El
enrutador de la derecha de la figura Y19 se convierte en el enrutador Maestro para el enrutador
virtual #1 (su identificador de VRRP es 1, VRID = 1) por lo que el enrutador de la derecha se
convierte en el respaldo. Si el enrutador de la derecha llega a fallar, el otro enrutador tomará el
enrutador virtual #1 y su dirección IP de tal forma que el servicio de las terminales finales no se
verá interrumpido. Para seleccionar el enrutador Maestro en VRRP, se tomo como parámetro la
prioridad de un enrutador, el cual es un valor configurable en estos.

Normalmente si una IP asociada a un enrutador virtual es asignada físicamente a la interfaz de un


enrutador real, este se volverá Maestro ya que el VRRP le asigna la prioridad más alta configurable
que es 255. Los demás enrutadores tomarán por default el valor de 100, pero como comentamos
es configurable. Si llega a fallar el Maestro un enrutador de respaldo se volverá Maestro, el cual
será el que tenga la mayor la prioridad, si hubiera enrutadores con la prioridad igual se escogerá al
que tenga la dirección IP más alta configurada en sus interfaces.

VRID =1

MR1 BR2

IP A IP B

Gtw = IP A Gtw = IP A
Gtw = IP A Gtw = IP A

PC 1 PC 2 PC 3 PC 4
Figura Y19. Aplicación básica de VRRP.

Note que la dirección IP B no se está utilizando como puerta de enlace, para ello se debe
configurar un segundo enrutador dinámico como se muestra en la figura Y20.

VRID =1 VRID = 2

MR1 para VRID 1 BR2 para VRID 1


BR1 para VRID 2 MR2 para VRID 2
IP A IP B

Gtw = IP A Gtw = IP B
Gtw = IP A Gtw = IP B

PC 1 PC 2 PC 3 PC 4
Figura Y20. Respaldo de dos puertas de enlace.

Como se muestra en la figura Y20, ahora tenemos dos enrutadores virtuales con las terminales
finales dividiendo su tráfico entre ellos. Este tipo de configuración debería ser más común en la
práctica. El enrutador físico de la izquierda es el Maestro para el enrutador virtual VRID = 1 y
respaldo para el VRID = 2, el enrutador de la izquierda es Maestro para el enrutador virtual VRID =
2 y respaldo del VRID = 1. El enrutador virtual VRID = 1 tiene asociada la IP A y el enrutador virtual
VRID = 2 tiene asociada IP B las cuales se usan como puerta de enlace para las terminales finales.

FORMATO DE LA TRAMA VRRP.

La figura Y21 muestra los campos de un PDU de VRRP.

Versión Tipo VRID Prioridad Cantidad. de Direcc. IP


Tipo de Autentif Inter de Anuncios Checksum
Dirección IP (1)
.
.
.
Dirección IP (n)
Datos de Autenticación (1)
Datos de Autenticación (2)
Figura Y21. Paquete VRRP.

El paquete VRRP está encapsulado en un paquete IP cuya dirección IP destino es la dirección IP


multicast 224.0.0.18, el campo TTL está en 255 y el campo Protocolo en 112, valor asignado por la
IANA. Ahora considerando la capa 2 en el campo dirección MAC destino es puesto con el valor: 00-
00-5E-00-01-{VRID}.

Los campos del paquete VRRP tienen los siguientes significados:

- Versión: Versión del protocolo VRRP que al momento de escribir estas notas tenemos el
valor 2.
- Tipo: Normalmente tiene el valor de 1 que define que el paquete es de tipo
ADVERTISIMENT, el único tipo de paquete existente para VRRP.
- Prioridad: Indica la prioridad del enrutador que envía el paquete VRRP. Mayor valor mayor
prioridad. Este campo es de 8 bit´s por lo que su máximo valor es 255, valor reservado para
el enrutador físico que tiene configurado la IP virtual que del enrutador virtual que se está
respaldando. Si se pone este campo a 0 indica que el enrutador Maestro deja su rol. Valor
por default es 100 pero es configurable este valor.
- Cantidad. de Direcc. IP: Este campo tiene el número de direcciones IP que aparecen en los
campos Dirección IP (1), Dirección IP (2), … Dirección IP (n).
- Tipo de autentificación: Indica el tipo de autentificación. El campo es de 8 bits. Sus valores
son: 0 (No se usa autentificación), 1 (Contraseña en texto claro las cuales deben ser
configuradas manualmente en todos los enrutadores VRRP) y 2 (Cabecera de autentificación
IP). En último tipo de autentificación indica que se usará HMAC-MD5-96 con ESP o AH donde
sus llaves pueden ser configurados manualmente o vía un protocolo de distribución.
- Inter de Anuncios: Indica el tiempo en segundos entre cada ADVERTISEMENT que envía el
enrutador Maestro.
- Checksum: Campo que ejecuta el algoritmo Checksum sobre el paquete VRRP para detectar
errores.
- Dirección IP (1) … Dirección IP (n): Una o más direcciones IP asociadas con el enrutador
virtual.
- Datos de Autenticación (1), Datos de Autenticación (2): Cadena de autentificación utilizada
cuando se usa tipo autentificación de contraseñas en texto claro.

UNIDAD II PROTOCOLOS Y SERVICIOS TCP/IP FUNDAMENTALES

2.1 INTERNET E INTRANET

2.2 TCP Y UDP

2.3 RUTEO

Recordemos que la función de enrutamiento se define en el modelo OSI en la capa 3, por


ello los dispositivos que llevan a cabo esta función se conocen como dispositivos de capa 3 pero su
nombre correcto son enrutadores. Revisemos algunos conceptos que nos serviran más adelante.
Protocolo de Enrutamiento: Conjunto de reglas que ejecutaran los dispositivos de capa 3
del modelo OSI para intercambiar mensajes con el fin de llenar, actualizar y borrar sus tablas de
enrutamiento como función principal.

Sistema Autónomo: Es una red que está bajo la misma entidad de administración, por
ejemplo, la red del IPN es un sistema autónomo, así como la red Banamex, la de una aseguradora o
una empresa. Esto es porque cada entidad tiene a su cargo la administración de su red, ninguna de
ellas tiene que consultar a otra para tomar decisiones sobre la administración de cada una de sus
redes de datos.

La tabla de enrutamiento de los enrutadores, es una tabla que ayuda al enrutador a tomar
sus decisiones de enrutamiento. En la figura 2.4, mostramos un ejemplo de una tabla de
enrutamiento para un enrutador CISCO.

Figura 2.4 Tabla de enrutamiento.

Los campos más importantes de la figura 2.4 son Red, Interfaz de Salida, Métrica y Siguiente
Salto. Por ejemplo en el caso de la línea:

B 216.221.5.0/24 [200/200000] vía 213.11.14.19, 1w5d

Podemos ver que la Red que se quiere alcanzar es 216.221.5.0/24 tiene una Métrica de
200000, el Siguiente Salto es 213.11.19 y la Interfaz de Salida sería por donde algún protocolo de
enrutamiento le dio a conocer dicha red al enrutador, para ver con más detalle dicha interfaz puede
teclear el comando show ip route 213.11.14.19 y veríamos, por ejemplo, que sería la interfaz fa0/1.

Ahondemos en los campos de la tabla de enrutamiento:

a) El campo Red: Este campo contiene las redes destino a las que se enrutarán los
paquetes IP por el enrutador. Estas redes las aprendió el enrutador por una
configuración dada por el administrador (rutas estáticas) o por que se dieron a conocer
por medio de un protocolo de enrutamiento (rutas dinámicas); si son rutas estáticas, la
entrada estará precedida por la letra S, en otro caso aparecerá la letra que identifica al
protocolo de enrutamiento. Como se observo en la figura 2.4, solo se almacena el ID de
la red y su máscara correspondiente.
b) El campo métrica: es el valor asignado a cada camino, basándose en los criterios
específicos de cada protocolo de enrutamiento, el cual sirve para escoger el mejor
camino a un destino en el caso de que existan varios caminos hacia este. La tabla 2.1,
muestra los criterios que utilizan diversos protocolos de enrutamiento para asignar una
métrica.

PROTOCOLO DE ENRUTAMIENTO CRITERIOPARA ASIGANAR UNA MÉTRICA


RIP v1 y v2 Conteo de saltos o enrutadores
IGRP y EIGRP Ancho de banda, carga, retardo, confiabilidad
OSPF Coste: La norma indica que el coste será inversamente
proporcional a la velocidad del enlace.
Tabla 2.1. Creterios para asignar métricas a las rutas anunciadas por los protocolos de enrutamiento.

c) El campo Siguiente Salto: Este campo indica la dirección IP del siguiente enrutador en el
camino hacia la red destino. La dirección debe estar en la subred en la que está la
dirección de la interfaz de salida. También se le conoce a esta dirección como Puerta de
Enlace o Gateway. Esta dirección normalmente representa otro enrutador y este debe
estar conectado por un cable o un equipo de capa 2 al enrutador que lo señala como
Siguiente Salto.

Las tablas de enrutamiento se usan mucho para encontrar errores, se acostumbra a


borrarlas en el proceso de pruebas o puesta a punto, en enrutadores Cisco, esto se hace tecleando
los siguientes comandos en la consola del enrutador: clear ip route * ó clear ip route {red [máscara]}

Hay muchas formas de clasificar los protocoles de enrutamiento una es classful y classless.
Los protocolos de enrutamiento classful (que significa: basado en clases) no envían la máscara de
red en sus paquetes esto limita el diseño de la red:

a) La sumarización no se puede realizar. La sumarización es representar un conjunto de


sub redes redes de la misma clase por una que las incluya, esta representación ayuda a
compactar las tablas de enrutamiento.
b) Todas las subredes deben tener el mismo tamaño de máscara de subred para que el
protocolo de enrutamiento funcione.

Los protocolos de enrutamiento classless, sí envían sus máscaras en los mensajes que se
intercambian entre enrutadores. Las características de este tipo de protocolos de
enrutamiento son:

a) Evita las limitaciones en el diseño de las redes que imponen los protocolos de
enrutamiento classful.
b) Las subredes del sistema pueden tener diferentes tamaños de máscara de subred, esto
se le llama diseño VLSM (Máscara de Subred de Longitud Variable).
c) Los protocolos classless se usan en el CIDR. El CIDR (Classless Inter-Domain Routing) es
un método de diseño de sistemas de red usando subredes con VLSM, sumarización e
implementando protocolos classless.
d) Los protocolos de enrutamiento classless soportan sumarización.

Ejemplos de protocolos de enrutamiento classless: OSPF, EIGRP, RIPv2, IS-IS, BGP.

Por último recordemos que la función de switcheo (capa 2 del modelo OSI) la sigue haciendo
un enrutador; después de ejecutar su labor principal de capa 3, dará el paquete IP a su parte
funcional de capa 2 para convertirla en una trama y dependiendo de la tecnología de capa 2 que
soporte el enrutador, será el tratamiento que se le dará para reenviarla.

2.3.1 RUTEO ESTATICO

La configuración manual de la tabla de enrutamiento significa la utilización de rutas


estáticas. Las ventajas de las rutas estáticas son:

a) Ahorro de recursos del enrutador.


b) Ahorro de ancho de banda en la red de datos.

La desventaja es el trabajo por parte del administrador en redes grandes. Si ocurre un cambio
el administrador es el encargado de actualizar las tablas de enrutamiento por lo que la rapidez en
que estén las tablas de enrutamiento actualizadas dependerá de la velocidad con la que configure
el administrador todos los enrutadores del sistema.

Tanto en el ruteo estático como en el dinámico, se debe tener el diseño de las subredes que se
ocuparan en el sistema de red, principalmente el tamaño de máscara que se usará antes de proceder
a la configuración del ruteo estático o dinámico. Aquí se considera que el lector ya tuvo un curso de
redes de datos y ya conoce como se asignan las subredes a una red de datos empresarial usando
máscara de igual tamaño para todas las sudredes del sistema. En caso contrario recomendamos
revisar estos las notas del documento “Redes LAN” u otra literatura para revisar este método. Aquí
discutiremos un método para la asignación de subredes con máscara variable (VLSM) a un sistema
de red de datos pero si enfatizamos que el lector podría no entenderle bien si no conoce un método
para la asignación de subredes con máscara de igual tamaño.

Ejemplo de asignación de subredes para un sistema de red de datos usando VLSM

Suponga el sistema de red de datos de la figura 2.5


Backbone del ISP (Proveedor de
Servicios de Internet)

Regiones
Sonora Jalisco Nuevo León

Campus Campus Campus

Hermosillo Nogales Monterrey


Ciudad Guadalajara Ciudad Apodaca
Obregón Guadalupe

Edificios
Edif 1 Edif 2 Edif 3

Pisos Pisos Pisos

Figura 2.5. Sistema de red de datos tipo empresarial.

Para el direccionamiento de este caso de estudio tenemos que definir la topología por lo que
requerimos los siguientes datos:

a) Determinar el número de regiones.


b) Determinar el número de campus.
c) Determinar el número de edificios.
d) Determinar el número de pisos.
e) Determinar el número de hosts.

Para esto el cliente nos da los siguientes datos:

a) Número de regiones: 3 pero el cliente dice que va a crecer a 8.


b) Número de campus: 3 para Sonora, 1 para Jalisco y 3 para Nuevo León.
c) Número de edificios: El número de edificios va de 1 a 4 para cada uno de los diferentes
campus.
d) Número de pisos: 3 pisos por edificio.
e) Determinar el número de hosts: se nos indica que se tienen 50 host como máximo por piso.
Recuerde la fórmula 2𝑛 ≥ 𝑁𝑢𝑚. 𝑑𝑒 𝑟𝑒𝑑𝑒𝑠 𝑜 𝑠𝑢𝑏 𝑟𝑒𝑑𝑒𝑠 𝑦 2𝑛 − 2 ≥ ℎ𝑜𝑠𝑡, la utilizaremos para
calcular la máscara que ocuparemos en la asignación de sub redes y sumarizaciones. También
recordemos que una dirección IP al, igual que la máscara, tiene 32 bits.

El problema dice que las regiones crecerán a 8, por lo que el número de bits que requerimos para
las regiones, nos lo da la siguiente desigualdad:

2𝑛 ≥ 8 𝑝𝑜𝑟 𝑙𝑜 𝑡𝑎𝑛𝑡𝑜 𝑛 = 3

Las combinaciones con estos 3 bits (128, 64 y 32) son 0, 32, 64, 96, 128, 160, 192, 224 los cuales se
asignaran en orden a las regiones. Las 3regiones iníciales las vemos marcadas en la figura 2.6.

Backbone del ISP (Proveedor de


Servicios de Internet)

Regiones
Sonora Jalisco Nuevo León

Campus Campus Campus

Figura 2.6 Regiones Sonora, Jalisco y Nuevo León.

Vamos a calcular los bits necesarios para la red de Sonora. Vea la figura 2.7, se tienen marcado con
línea gruesa punteada 3 campus y un área de enlaces punto a punto, por lo que se tienen 4 subredes,
aplicando la fórmula tenemos:

2𝑛 ≥ 4 𝑝𝑜𝑟 𝑙𝑜 𝑡𝑎𝑛𝑡𝑜 𝑛 = 2

Son necesarios 2 bits para crear subredes para el campus Hermosillo, campus Cd. Obregón campus
Nogales y el área de los enlaces punto a punto.
Sonora

Campus Campus Campus

Hermosillo Cd Obregón Nogales

Edificios
Edificios Edificios

E1 E2 E3 E4 E1 E2 E1 E2 E3

Pis Pis Pis


Pis Pis Pis

Pis Pis
Pis

Figura 2.7 Campus de la región de Sonora.

Siguiendo con la figura 2.7, calcularemos los bits que se requieren para los edificios del campus
Hermosillo. Las redes requeridas son las marcadas para este campus con las líneas punteadas menos
gruesas, son 4 subredes: una por cada edificio y una más para los enlaces punto a punto, en total,
se requieren 5 subredes.

2𝑛 ≥ 5 𝑝𝑜𝑟 𝑙𝑜 𝑡𝑎𝑛𝑡𝑜 𝑛 = 3

Para este caso se requieren 3 bits,

De a cuerdo a la figura 2.7, para Cd Obregón se tiene 3 subredes: 2 para los edificios y una más para
los enlaces punto a punto por lo que la fórmula queda:

2𝑛 ≥ 3 𝑝𝑜𝑟 𝑙𝑜 𝑡𝑎𝑛𝑡𝑜 𝑛 = 2

Para este caso se requieren 2 bits.

De a cuerdo a la figura 2.7, para el campus de Nogales se requieren 4 sub redes en total: 3 para los
edificios y una para los enlaces punto a punto.

2𝑛 ≥ 4 𝑝𝑜𝑟 𝑙𝑜 𝑡𝑎𝑛𝑡𝑜 𝑛 = 2

Para este caso se requieren 2 bits.


Por último calcularemos los bits necesarios para crear las sub redes a los pisos. Para ello nos
apoyaremos de la figura 2.8.

Edificio
E1

Pisos

Figura 2.8 Topología del enrutador del edificio conectado a los swtch´s de los pisos

Todos los enrutadores de los edificios conectaran a tres pisos de acuerdo al problema por lo que la
cantidad de bits que se requieren para realizar 3 sub redes (son 3 pisos) son:

2𝑛 ≥ 3 𝑝𝑜𝑟 𝑙𝑜 𝑡𝑎𝑛𝑡𝑜 𝑛 = 2

De acuerdo a la fórmula son 2 bits.

En resumen se requieren 3 bits para las garantizar subredes para las 8 regiones; 2 bits para el
campus de Sonora y Nuevo León, y como Jalisco solo tiene un campus también se cubriría este caso;
para los edificios tenemos 3 bits por el caso de los edificios de Hermosillo, con estos bit´s cubrimos
el de los demás edificios para las otras ciudades y por último el número de los bits requeridos para
los pisos son 2, por lo que la máscara de las subredes de los pisos quedaría de la siguiente forma:

Edificios Pisos

111 11 111 . 11 000000 Hosts

Regiones Campus

Y quedarían 6 bits para host que cubrirían los 50 hot´s por piso que el problema indica.

Con esto podemos ver que requerimos una dirección de clase B. Pensando que se va usar
direccionamiento privado, entonces tomaremos la dirección IP de red 192.168.0.0/16 para nuestro
sistema. El procedimiento aplicado nos sirve también para sumarizar: en las regiones se sumariza
con una máscara de 19 bits, en los campus con una máscara de 21bits y en los edificios con 24 bits.

En la imagen 2.9, mostramos la dirección de sub red que le toco a las regiones considerando la red
192.168.0.0/16 subneteandola a 19 bits de acuerdo al procedimiento realizado.
Backbone del ISP (Proveedor de
Servicios de Internet)

Regiones
Sonora Jalisco Nuevo León

Campus Campus Campus


Sub red Sub red Sub red
192.168.0.0/19 192.168.32.0/19 192.168.64.0/19

Figura 2.9 Dirección de sub red para las regiones.

Nuestro procedimiento lo dirigimos hacia el campus de Sonora por lo que el


direccionamiento de red queda como se muestra en la figura 2.10.

En esta figura nos muestra que las sub redes asignadas a los campus Hermosillo, Cd.
Obregón y Nogales tienen máscara de 21 bits así como la sub red que se le asigna a los enlaces punto
a punto, pero en este caso fueron subneteadas a 30 bits; la figura 2.10 muestra la dirección de sub
red que le toca a cada enlace punto a punto a 30 bits y las dirección IP de host en su último octeto
que le toca a cada interfaz en el enrutador de Sonora así como la dirección IP de host en su último
octeto que le toca a la interfaz que conecta al enrutador de Hermosillo, Cd. Obregón y Nogales con
el enrutador de Sonora. Es importante notar que el subneteo a 30 bits se hace para todo enlace
punto a punto con la intención de optimizar las IP de host´s ya que con una máscara de 30 bits solo
existen 2 direcciones IP de host que se pueden realizar.

Otro punto que debemos enfatizar es que al subnetear la red 192.168.24.0 de 21 bits a 30
bits, tenemos 9 bits de diferencia los cuales nos dan la posibilidad de hacer 29 = 512 sub redes de
las cuales solo ocupamos 3 para los enlaces punto a punto. Es responsabilidad del administrador
tener una relación de las redes ya asignadas, desocupadas e indicar si estás fueran subneteadas de
otra sub red o de una red IP
.5 Sonora 192.168.24.0/21
.9 .13
192.168.24.4/30
192.168.24.8/30 192.168.24.12/30
.6 Campus .10 .14
Campus Campus

Hermosillo Cd Obregón Nogales

D
E C
Edificios
Edificios Edificios

E1 E2 E3 E4 E1 E2 E1 E2 E3

A B C D B A B C
A

Pis Pis Pis


Pis Pis Pis

Pis Pis
Pis

192.168.8.0/21 192.168.16.0/21
192.168.0.0/21
Figura 2.10 Subneteo a 21 bits para el campus Sonora.

De la figura 2.10 también se tiene marcadas con letras las sub redes que se asignaran par los edificios
del campus de Hermosillo, Cd Obregon y Nogales. Recuerde que estas subredes se realizarán
subneteando la red de máscara de 21 bits que le toca a cada campus y de acuerdo al procedimiento
que llevamos quedo la máscara de 24 bits. La tabla 2.2 resume la asignación.

Campus Edificio 1 Edificio 2 Edificio 3 Edificio 4 Sub red de


enlaces punto a
punto
Hermosillo 192.168.0.0/24 192.168.1.0/24 192.168.2.0/24 192.168.3.0/24 192.168.4.0/24
(A) (B) (C) (D) (E)
Cd 192.168.8.0/24 192.168.9.0/24 192.168.10.0 (C)
Obregón (A) (B)
Nogales 192.168.16.0/24 192.168.17.0/24 192.168.18.0/24 192.168.19.0/24
(A) (B) (C) (D)
Tabla 2.2 Asignación de subredes para los edificios del campus Sonora.

En la tabla 2.3 nos apoyamos con una letra que corresponde a las que se marcaron en la figura 2.10
para hacer más clara la asignación de sub redes.

Igual que en el caso anterior, los enlaces punto a punto tienen asignado una sub red de 24 bit´s de
máscara pero se subneteara a 30 bits quedando como lo indica la tabla 2.3
Campus Sub red a 24 Sub red a 30 bits
bits de máscara Edificio 1 Edificio 2 Edificio 3 Edificio 4
Hermosillo 192.168.4.0/24 192.168.4.0/30 192.168.4.4/30 192.168.4.8/24 192.168.4.12/30
Rango IP de (E) 192.168.4.1 a 192.168.4.5 a 192.168.4.9 a 192.168.4.13 a
hosts 192.168.4.2 192.168.4.6 192.168.4.10 192.168.4.14
Cd Obregón 192.168.10.0 192.168.10.0/30 192.168.10.4/30
Rango IP de (C) 192.168.10.1 a 192.168.10.5 a
hosts 192.168.10.2 192.168.10.6
Nogales 192.168.19.0/24 192.168.19.0/30 192.168.19.4/30 192.168.19.8/30
Rango IP de (D) 192.168.19.1 a 192.168.19.5 a 192.168.19.9 a
hosts 192.168.19.2 192.168.19.6 192.168.19.9.10
Tabla 2.3 Sub redes asignadas a los enlaces punto a punto de Hermosillo, Cd Obregon y Nogales a los
edificios.

La tabla 2.3 nos muestra las direcciones IP de host que se pueden utilizar en los enlaces punto a
punto, como se subneteo con una máscara de 30 bits, solo se puede tener 2 IP de hots por cada
subred; así por ejemplo para el enlace punto a punto Hermosillo – Edificio 1, tenemos que este
enlace pertenece a la subred 192.168.4.0/30 asignando la dirección IP de host de 192.168.4.1 a un
extremo y al otro 192.168.4.2 con una máscara de 30 bits.

Por último se subneteará la sub red asignada a los edificios, de acuerdo a nuestro análisis está red
quedará con una máscara de 26 bits. Por ejemplo para Hermosillo tenemos 4 edificios, cada una con
tres pisos y lo mostramos en la figura 2.11.

Edificio Edificio
E1 E2
192.168.0.0/26 .1 .65
.129 192.168.1.0/26 .1 .129
192.168.0.128/26 .65
192.168.1.128/26
192.168.1.64/26
192.168.0.64/26
Pisos Pisos

192.168.0.0/24 192.168.1.0/24

Edificio Edificio
E3 E4
.1 .129 .1 .129
192.168.2.0/26 .65 192.168.3.0/26 .65
192.168.2.128/26 192.168.3.128/26
192.168.2.64/26 192.168.3.64/26
Pisos Pisos

192.168.2.0/24 192.168.3.0/24

Figura 2.11 Subneteo para los edifcios del campus Hermosillo, Sonora.
La figura 2.11 también muestra las sub redes a 24 bits que le toco a cada edificio de acuerdo a la
tabla 2.2, esto se señala con círculos punteados y al pie de cada círculo la sub red que le corresponde.
Dentro de cada círculo, en cada enlace del enrutador a un switch está la sub red a 26 bits
(subneteada de la red de 24 bits) y la IP de la interfaz del enrutador, el switch no requiere una
dirección IP para realizar su función de capa 2 por lo que no se le ha señalado ninguna.

Obviamente faltaría el subneteo para el resto de los edificios de la región de Sonora así como realizar
todo este diseño para Jalisco y Nuevo León, pero esta parte se la dejaremos al lector como ejercicio.

Cabe aquí señalar que se usaron figuras por fines didácticos pero, por lo regular, también se
acostumbra a tener todo éste registro en tablas. Por otro lado aquí generalizamos en el diseño como
fue el caso de los edificios ya que hay diferente número en cada campus, pero si se quiere ahorrar
más direcciones IP, se puede poner la máscara justa para cada caso.

Ya teniendo todo el diseño el ingeniero de campo tendría que configurar los enrutadores con la IP
de hots en las interfaces correspondientes además de agregarlas rutas estáticas para que los
enrutadores conocieran las subredes del sistema y muy posiblemente una ruta por default para el
resto de las sub redes y redes fuera del sistema. Este último paso es muy laborioso para una red tan
grande por lo que se prefiere hacer uso de Ruteo Dinámico. De todas formas en el apéndice A damos
a conocer la configuración para la región de Sonora, echa en un simulador, los comandos tipo CISCO
que se usaron para realizar el ejercicio son:

Configurar una Interfaz: interfaz fastEthertnet #/#


Ip address Dirección_IP Máscara
Exit

Configurar una ruta: ip route Subred_o_Red Máscara Puerta_de_enlace

Configurar ruta por default: ip route 0.0.0.0 0.0.0.0 Puerta_de_enlace

2.3.2 RUTEO DINAMICO: RIP Y OSPF

Un protocolo de enrutamiento es un software complejo que se ejecuta de manera simultánea en


un conjunto de enrutadores, con el objetivo de completar y actualizar su tabla de enrutamiento con
los mejores caminos para alcanzar o enrutar información a un destino dado. Así, podríamos resumir
que un protocolo de enrutamiento tiene como objetivos lo siguiente:

 Descubrir redes o sub redes lejanas para reenviarles o enrutarles paquetes IP


 Mantener la información de las tablas enrutamiento actualizada de manera fiable
 Elegir el mejor camino posible en cada momento hacia las redes de destino
 Encontrar un nuevas rutas para sustituir a aquellas que dejen de estar disponibles en los
términos necesarios.
Frente al enrutamiento estático, el enrutamiento ofrece nuevas posibilidades, se
adapta mejor a nuevas circunstancias pero requiere una mayor complejidad en los
sistemas y en la gestión de estos. Vea la figura 2.4.

Tabla 2.4 Ruteo Dinámico VS Ruteo estático

Los protocolos de enrutamiento dinámico se clasifican (en una primera instancia) según sean de
aplicación a sistemas de Gateway interior o exterior, y los primeros se agrupan según consideren
como variable el vector distancia o el estado del enlace.

Primero vamos a estudiar un protocolo de vector de distancia y posteriormente uno de estado de


enlace.

2.3.2.1 RIP (Protocolo de Información de Ruteo)

Este protocolo de vector de distancia muy extendido en todo el mundo por su simplicidad en
comparación con otros protocolos de enrutamiento. Está basado en el algoritmo de Bellman Ford y
busca su camino óptimo mediante el conteo de saltos considerando que cada enrutador atravesado
para llegar a su camino es un salto. RIP al estar su métrica basada en saltos no puede detectar otra
información que indique el estado del enlace como ancho de banda, retardos, etc. por lo que su
métrica es muy simple.

2.3.2.1.1 Operación de los protocolos de enrutamiento basados en vector de distancia

El algoritmo de Bellman-Ford puede usarse en muchas aplicaciones en la teoría de los grafos. Si


nosotros conocemos el costo entre nodos nosotros podemos usar el algoritmo de Bellman-Ford para
encontrar la ruta de menor costo entre cualquiera de los dos nodos. La figura 2.12 nos muestra un
mapa con nodos y líneas.

7
A B

5 4

3 C

D E

Figura 2.12 Grafo con costo entre nodos.


Si el grafo representará un mapa entre ciudades donde los nodos serían las ciudades y las
líneas carreteras con tiempos aproximados para recorrerlas, se podría encontrar la ruta más corta
entre dos ciudades cualesquiera.

El algoritmo está basado en el hecho de que cada nodo vecino de i conoce la distancia más
corta al nodo j por lo que la distancia más corta entre el nodo i al j puede ser encontrada adicionando
la distancia entre el nodo i a la distancia más corta de cada vecino para llegar a j y así se seleccionará
la mínima.

Para redes de datos el algoritmo de ruteo de Bellman-Ford o Vector de Distancia trabaja


hace las siguientes consideraciones:

- Las sub redes conectadas directamente a un enrutador (nodo), se les considerará su métrica
o costo como 0 pero se anunciará a los vecinos con un costo de 1.
- Cada enrutador actualizará su tabla de enrutamiento o refrescará por lo menos un
temporizador cada vez que reciba información desde sus vecinos.
- Después de que un enrutador a actualizado su tabla de enrutamiento, la enviará a los
enrutadores vecinos para que la actualicen si se requiere.
- Cada enrutador deberá mantener tres partes de cada ruta: la red destino, el costo y el
siguiente salto.
- Cada enrutador anunciará a sus vecinos la red de destino y el costo, la dirección IP del
siguiente salto se toma del paquete IP que encapsula al paquete de RIP.

El funcionamiento del algoritmo es el siguiente:


- El enrutador crea una tabla de enrutamiento preliminar con todos las redes o subredes
directamente conectados a él, el cual le sirve para enrutar paquetes IP que tengan como
destino estas sub redes.
- Para cada entrada en la tabla de enrutamiento manda un registro a sus vecinos con
únicamente dos campos: el destino y la métrica. El enrutador siempre envía todas las
entradas de su tabla de enrutamiento.
- Los enrutadores que reciban las actualizaciones realizarán las siguientes acciones:
o Si la actualización recibida anuncia una ruta que no se encuentre en la tabla de
enrutamiento, esta se adicionará.
o Si la ruta ya se encuentra, entonces se le suma 1 al costo de la ruta anunciada y si
el resultado es menor al que se tiene en la tabla, entonces se actualizará la tabla
con la nueva ruta.
o Si la ruta anunciada se encuentra y tiene un costo de infinito (16) entonces la ruta
se da de baja de la tabla de enrutamiento.

Por ejemplo, suponga la red de datos mostrada en la figura 2.13, se muestran las tablas de
enrutamiento inicial para un Sistema Autónomo (SA), como se dijo cada enrutador crea sus tablas
de enrutamiento al momento que estos arrancan.

Dest Costo Siguiet


Dest Costo Siguiet
Red 1 1 ------
Red 2 1 ------
Red 2 1 ------
Red 3 1 ------
Red 1 Red 4 1 ------
Red 2 Red 6 1 ------
Red 5 1 ------

A B
Red 3

Red 6
Red 4 Red 5
C
Dest Costo Siguiet Dest Costo Siguiet Red 7 Dest Costo Siguiet
Red 4 1 ------ Red 5 1 ------ Red 7 1 ------
Red 6 1 ------
D Red 7 1 ------ E

Figura 2.13 Ejemplo de tablas de enrutamiento iniciales.

El enrutador A manda 4 registros a sus vecinos (B, C y D). La figura 2.14 muestra los cambios
de la tabla de enrutamiento de B cuando este recibe los anuncios.
Red 5, 1 Red 4, 1 Red 2, 1 Red 1, 1

A B
Dest Costo Siguiet
Red 1 2 A
Red 2 1 ------
Red 3 1 ------
Red 4 2 A
Red 5 2 A
Red 6 1 ------

Figura 2.14. Tabla de ruteo de B después de los anuncios RIP de A.

El enrutador “A” mando 4 anuncios, cuando llego el primero al enrutador “B”, éste buscó en su tabla
de enrutamiento la red 1 y como no la encontró, le sumo un 1 a la métrica y la inserto en su tabla
de enrutamiento con Siguiente Salto igual a “A”, cuando el enrutador “B” recibió el segundo
anuncio, lo encuentra pero con un costo menor porque al anuncio se le sumaría 1 para insertarlo en
la tabla por lo que se descarta; y así sucesivamente para los demás anuncios.

2.3.2.1.2 Problema del Conteo a Infinito

Un problema con los protocolos de enrutamiento del tipo Vector de Distancia es que se
requiere más tiempo para propagar una actualización indicando que un enlace ya está caído en
comparación con un enlace que ya es funcional. Esto se debe al problema del Conteo a Infinito.

Un ejemplo el Conteo a Infinito es el problema de un bucle entre dos hops. Para entender
el problema analicemos el escenario mostrado en la figura 2.15, la cual muestra un sistema con dos
enrutadores y sola una porción de sus tablas de enrutamiento para la explicación. Al inicio el
enrutador A y B saben cómo alcanzar la red 1, pero de repente el enlace del enrutador “A” que
conecta a la red 1 falla. El enrutador “A” cambia el estado de su tabla poniendo una métrica para
alcanzar la red 1 como infinito (∞), Si “A” manda su tabla de enrutamiento a “B” inmediatamente,
todo está bien pero si “B” manda la suya en ese momento porque periódicamente se envían las
tablas de enrutamiento, el enrutador “A” creerá que puede alcanzar la red 1 a través del enrutador
“B”. Vea el tercer evento de la figura 2.15 donde se ve que “A” actualiza su tabla de enrutamiento
para alcanzar la red 1 a través del enrutador “B” con una métrica de 3. Ahora el enrutador “A” envía
su actualización a “B” y en el cuarto evento de la figura 2.15, el enrutador “B” actualiza su tabla de
ruteo para alcanzar la red 1 a través de “A” con una métrica de 4 y el enrutador “B” vuelve a enviar
su tabla de enrutamiento con estos nuevos cambios; así este proceso continua hasta que ambos
enrutadores alcanzan un valor de infinito que les indica que las redes son inalcanzables.
Antes de la falla.
Red A B
Dest Costo Siguiet Dest Costo Siguiet
Red 1 1 ___ Red 1 2 A

Después de la falla.
A B
Dest Costo Siguiet Dest Costo Siguiet
Red 1 ∞ Red 1 2 A

Después de que el enrutador


“A” recibe una actualización A B
desde “B” Dest Costo Siguiet Dest Costo Siguiet
Red 1 3 B Red 1 2 A
Después de que el enrutador
“B” recibe una actualización A B
desde “A” . Dest Costo Siguiet Dest Costo Siguiet
Red 1 3 B Red 1 4 A
.
.
Al final del conteo a infinito
A B
Dest Costo Siguiet Dest Costo Siguiet
Red 1 ∞ Red 1 ∞

Figura 2.15 Problema de conteo a infinito.

Para resolver este problema se implementaron las siguientes soluciones:


a) Definir el infinito: En este caso se estableció que el valor de infinito es 16, por lo que
cualquier ruta en la tabla de enrutamiento o anuncio con este valor indica que la red es
inalcanzable. Este también indica que la cantidad máxima de enrutadores entre dos redes
es de 15, si fuesen 16 serían inalcanzables. Este hecho marca el porque dicen que RIP es
para redes pequeñas.
b) Split Horizon: En esta estrategia cada enrutador anuncia solo una parte de su tabla de
enrutamiento, es decir, si el enrutador ya eligió que para llegar a una red debe utilizar un
enrutador vecino dado, no le anunciará al enrutador vecino lo que aprendió y uso para
actualizar su tabla de enrutamiento. Esto evitará que algún enrutador, al perder
conectividad con alguna red no reciba actualizaciones del enrutador vecino que aprendió
de él.
c) Trigger Update: Cuando hay un cambio en una ruta, el enrutador que detecto este cambio
inmediatamente mandará el anuncio de dicho cambio. Recordemos que las tablas de
enrutamiento se mandan en los anuncios cada 30 segundos aproximadamente por lo que
esperar el anuncio periódico puede ser muy tardado, por lo que se implemento esta
solución. En el caso que de que el cambio sea la caída de un enlace, el anuncio será el valor
de 16 que se definió en el inciso “a”, a este tipo de mensaje en particular también se le llama
Envenenamiento de Ruta (Route Poisoning).
d) Poison Reverse: Se permite anunciar una ruta por la interfaz donde la aprendió pero está
será anunciada con un valor de 16. Esta solución se crea porque en las redes que no
soportan los broadcast (multidifusión) deben seguir propagando los anuncios a otro
enrutador por la interfaz por donde aprendió cierta ruta. Tal es el caso de la red Frame Relay
que no soporta la multidifusión.

2.3.2.1.3 Temporizadores en RIP

RIP usa tres temporizadores para soportar su operación:


a) Temporizador Periódico: Controla el anuncio regular de la tabla de enrutamiento a los
enrutadores vecinos. La norma especifica que debe estar configurado a 30 segundos pero
en la práctica se utiliza un valor aleatorio entre 25 y 35 segundos, esto es con la idea de
prevenir que todos los enrutadores de un sistema llegaran a enviar mensajes al mismo
tiempo e inundaran la red de datos con anuncios.
b) Temporizador de Expiración: Ayuda a definir la valides de una ruta. Cuando un enrutador
ya no recibe anuncios de cierta o ciertas rutas de su tabla de enrutamiento, entonces se
consideran como que han expirado y se marcan con métrica de 16, es decir la ruta que
tienen es inalcanzable. Este temporizador se reinicia cada vez que hay nuevo anuncio, que
lo normal sería cada 30 segundos. La ruta no se puede borrar inmediatamente porque se
debe anunciar a los demás enrutadores así que permanece allí hasta que expira el
Temporizador Recolector de Basura.
c) Temporizador de Recolector de Basura: Puesto a 120 segundos. Cuando una ruta se
convierte en inválida, se continúa anunciando con una métrica de 16 por el tiempo
configurado en Temporizador Recolector de Basura, después de este tiempo ya es borrada
la ruta, a menos que llegue un anuncio de dicha ruta indicando que es alcanzable por lo que
se volvería válida otra vez y los temporizadores se reinicializan otra vez.

2.3.2.1.4 Formato del Mensaje o Anuncios RIP.

La figura 2.16 muestra el formato del mensaje RIP. Donde:

a) Comando: Es un campo de 8 bits que especifica el tipo de mensaje, es decir, si es una


petición (request) o una respuesta (response).
b) Versión: Campo de 8 bits que indica la versión del protocolo RIP que se está usando.
Actualmente solo tenemos las versiones 1 y 2.
c) Familia: Campo de 16 bits que define la familia de protocolos que se esta usando. Para
TCP/IP su valor es 2.
d) Dirección de Red: Define la dirección de red destino que se anuncia. RIP ha asignado 14
bytes para este campo pensando que se pueda usar en cualquier otra familia como puede
ser IPX; IP solo usa 4 bytes por lo que los demás se ponen a 0.
e) Distancia: Es el valor de la métrica o el mejor dicho el número de saltos para alcanzar la red.
Cabe mencionar que los campos Familia, Dirección de Red y Distancia se usan para el anuncio
de la red; la norma indica que se pueden anunciar hasta 25 redes en un solo mensaje así que estos
campos se repiten hasta 25 veces como máximo.

Comando. Versión. Reservado.


Familia. Todos en 0.
Dirección de Red. Se pueden repetir
estos campos
Todos en 0.
para anunciar 25
Todos en 0. redes.

Distancia.

Figura 2.16 Formato del mensaje RIP

Como se mencionó RIP tiene dos tipos de mensajes:


a) Petición: Este es mandado por un enrutador que ha arrancado o por alguna entrada cuyo
Temporizador de Expiración ya finalizo. Este mensaje puede preguntar por todas las rutas
o por una en específica. Vea la figura 2.17.
b) Respuesta: Este mensaje puede ser solicitada o no solicitada; en el primer caso, es solicitada
por un mensaje Petición y da respuesta de las subredes o redes que solicita, y en el segundo
caso son los que se mandan periódicamente (cada 30 segundos) o cuando hay un cambio
en la tabla de ruteo por el proceso Trigger Update.

1. Versión. Reservado. 1. Versión. Reservado.


Familia. Todos en 0. Familia. Todos en 0.
Red 1. Todos en 0.
Todos en 0. Todos en 0.
Todos en 0. Todos en 0.
Distancia = ¿? Distancia = ¿?
a) Pregunta por una red b) Pregunta por todas las redes.
Figura 2.17 Mensaje RIP tipo Petición

La figura 2.18 muestra un mensaje RIP donde un enrutador anuncia 3 rutas, pero como este
mensaje sale por una interfaz del enrutador por donde aprendió la red 2, le pone su métrica a 16,
con esto se previene el conteo a infinito. Este es un ejemplo de usar Split Horizon con Poison
Reverse.
2. Versión. Reservado.
Famila = 2 Todos en 0.
1.1.1.0
Todos en 0.
Todos en 0.
Distancia = 2
Familia = 2 Todos en 0.
1.1.2.0
Todos en 0.
Todos en 0.
Distancia = 16
Familia = 2 Todos en 0.
1.1.3.0
Todos en 0.
Todos en 0.
Distancia = 2
Figura 2.18 Mensaje RIP que anuncia 3 sub redes

2.3.2.1.4 Problema de la Máscara.

Como se ha podido apreciar el formato del mensaje RIP no anuncia la máscara, pero también
recordará que un enrutador al momento de insertar una ruta a su una tabla de enrutamiento debe
poner la red que quiere alcanzar con su máscara. Por lo que la pregunta es ¿De dónde toma la
máscara el enrutador para asociarla a una ruta dada. Para explicar esto nos apoyaremos de la figura
2.19. Vea como la red de datos cumple con lo siguiente:

a) La red de clase con la que se diseño es la misma subredes creadas: 172.16.0.0/16


b) La máscara de subred es la misma para todas subredes mostradas, en este caso solo son
dos.

172.16.2.1/24 172.16.2.2/24

172.16.1.0/ A B

172.16.1.0, 1 Dest Costo Siguiente


172.16.1.1/24
172.16.1.0/24 2 A

Figura 2.19 Asociación de la máscara a un anuncio de forma correcta.


Las dos condiciones anteriores son necesarias para que el enrutador “B” pueda asociar la
máscara correcta al anuncia de RIP que envía el enrutador “A”. Como se dijo el anuncio no envía la
sub máscara de red, solo la subred y la métrica; por lo que enrutador “B” tomará como submáscara
la que tiene configura en la interfaz por donde le llego el anuncio, esto es la máscara de 24 bits que
tiene asociada su dirección IP 172.16.2.2

Si no se cumplen las condiciones anteriores, el enrutador “B” insertará la ruta con máscara de 16
bits como se ve en la tabla de enrutamiento siguiente.

Destino Costo Siguiente


172.16.0.0/16 2 A

Lo cual obviamente es un error.

2.3.2.1.4 RIP v2 y su Formato de Mensaje.

RIP v1 funciona muy bien en redes que cumplan las condiciones señaladas en el apartado anterior,
pero no todas las redes las pueden cumplir, así que para solucionar este problema y otros de
seguridad se creó la versión 2 de RIP. El formato del mensaje se muestra en la figura 2.20.

Comando Versión. Reservado.


Familia. Etiqueta de Ruta.
Dirección de Red Destino.
Máscara de red o sub red.
Dirección del siguiente hop.
Distancia.
Figura 2.20 Mensaje RIP versión 2.

Los campos que se adicionaron en la versión 2 de RIP son:


a) Etiqueta de Ruta: Este campo puede llevar información como por ejemplo el número de
sistema autónomo de la red.
b) Máscara de sub red o red: Este campo está dedicado a llevar la máscara de la red o sub red
que se está anunciando, de tal forma que esta versión de RIP ya no depende de que cumpla
las dos condiciones señaladas anteriormente. En esta versión se puede hacer
sumarizaciones a cualquier número de bits y puede ser usado en un diseña de red tipo CIDR.
c) Dirección del Siguiente Hop: Este campo muestra la dirección del siguiente salto. Habíamos
comentado que esta dirección IP se tomaba del paquete IP que envolvía al mensaje RIP,
pero en la versión 2 se da la alternativa de especificar una puerta de enlace diferente.
d) Autenticación: La versión 2 de RIP tiene mecanismos para autentificar el origen de un
mensaje por parte del receptor que recibió dicho mensaje. Las dos opciones existentes es
usar contraseñas compartidas o usar la técnica del desafío apoyándose del algoritmo de
resúmenes MD5. Para hacer la autentificación, se usan los campos del primer anuncio en
RIP (recuerde que soporta hasta 25 anuncios en un solo mensaje) de tal forma que se llenan
con la información de autentificación. Vea la figura 2.21. Vea que el campo Familia, se
cambia por el valor 0xFFFF para indicar que se lleva información de autentificación. Aparece
el campo Tipo de Autentificación que indica sí usará contraseñas en texto claro o la técnica
del desafío y los siguientes campos llevan la información de autentificación: la contraseña o
la información del desafió dependiendo de qué tipo de autentificación se escogió.

Comando. Versión. Reservado.


oxFFFF Tipo de autentificación
Datos de autentificación
Datos de autentificación
Datos de autentificación
Datos de autentificación
Familia Etiqueta de Ruta
Dirección de red destino Se repite de tal
Máscara de red o sub red forma que se
Dirección del siguiente hop pueden enviar
hasta 24 anuncios
Distancia
. más la parte de
. autentificación
.

Figura 2.21 Formato de un mensaje RIP con autentificación

2.3.2.2 OSPF

El enrutamiento del tipo Estado de Enlace tiene una filosofía diferente de trabajar en
comparación con los protocolos de enrutamiento de Vector de Distancia. Usando Enlace de Estado,
los enrutadores de una red de datos conocen la topología completa de la red, es decir conocen los
enrutadores existentes dentro de la red y sus enlaces, cómo están conectados entre ellos incluyendo
el costo y el estado de sus enlaces (funcionales o se dieron de baja). Bajo estas condiciones el
enrutador puede usar el algoritmo de Dijkstra y construir la tabla de enrutamiento.

Cuando cambia la topología, el protocolo de enrutamiento debe encargarse de darlas a


conocer a los enrutadores del sistema y estos deberán ejecutar nuevamente el algoritmo de Dijkstra
para recalcular su tabla de enrutamiento.

2.4 PRINCIPALES SERVICIOS DEL PROTOCOLO TCP/IP


2.4.1 CORREO ELECTRONICO

2.4.2 SERVIDORES E INFORMACION

2.4.3 FTP y TFTP

2.4.4 DHCP

2.4.5 TELNET

2.4.6 SNMP

2.4.7 DNS

2.4.8 SNTP

S-ar putea să vă placă și