Documente Academic
Documente Profesional
Documente Cultură
Definimos un sistema distribuido como aquel en el que los componentes de hardware y/o
software, localizados en una computadora y unidos mediante una red, comunican y coordinan
sus acciones solo mediante el intercambio de mensajes. Las computadoras que están
conectados mediante una red pueden estar separados físicamente por cualquier distancia.
- Internet: Es una red con una gran cantidad de servicios en diversas computadoras. Permite
a los usuarios, donde quieran que estén hacer uso de dichos servicios como son la World
Wide Web (www), correo electrónico y la transferencia de ficheros por poner algunos
ejemplos. Se aprecia cómo la Internet para ser funcional tuvo que superar los problemas de
concurrencia, inexistencia de un reloj global y de fallos independientes.
- Intranet: Es una proporción de Internet que es administrada por una entidad u organización
separada de Internet para hacer cumplir los requerimientos operativos y de seguridad de
dicha empresa. Se puede considerar como Intranet la red de comunicaciones corporativa
de una empresa como la de una casa. Da las mismas prestaciones que la Internet pero a un
nivel mucho menor y de acuerdo a las necesidades de la empresa. A veces es muy común
que esta sea conectada a Internet y tendrá que tomar sus precauciones contra amenazas
(ataques de hackers y virus).
Antes de empezar a estudiar los modelos arquitectónicos veamos que son las Capas de Software.
Aplicación de Servicios
Middleware
Sistema Operativo
Plataforma
1.3.2 CLIENTE SERVIDOR: Es la arquitectura que se cita más a menudo cuando se discuten
sistemas distribuidos. Es de las arquitecturas la más ampliamente usada. La figura XX muestra
cómo trabaja esta arquitectura, en ella se observa que en un computador tenemos procesos
cliente que hacen uso de los servicios proporcionados por procesos servidor en otra computadora.
Los clientes generan solicitudes o peticiones a los servidores, que al llegar las atienden y envían la
información requerida a través de mensajes que llamamos respuestas.
Cliente
Servidor Cliente
Cliente
Figura YY. Clientes que hacen uso de los servicios proporcionados por un proceso servidor.
Los procesos cliente por el contrario están en computadoras que menos recursos de hardware
comparados con los recursos de un servidor. Normalmente el usuario puede ejecutar su proceso
cliente en tiempos muy aleatorios pero siempre dentro del horario que este establecido en el que
el servidor está ejecutándose.
Ejemplo de esta arquitectura es un servidor WEB el cual puedo instalarse con la aplicación WEB
Apache y un cliente para este servidor puede ser Internet Explorer, Firefox y Google Chrome.
Otro ejemplo es un servidor de correo electrónico como puede ser uno instalado con SendMail
para Linux y el cliente puede ser Outlook de Microsoft.
Cliente Servidor
Servidor
Cliente Servidor
Los servidores pueden dividir el conjunto de objetos en los que está basado el servicio y
distribuírselos entre ellos mismos, o puede mantener copias replicadas de ellos en varias
máquinas. Por ejemplo un servidor WEB puede tener alojada su página en un servidor e
interactuar con otro servidor que tenga la información de existencias del producto que está
vendiendo en una base de datos la cual consulta dependiendo de lo que busca el cliente.
Una cache es un almacén de objetos de datos utilizados recientemente. Los datos son
almacenados en un medio que responde más rápidamente por lo que se recuperan más rápido
que si se obtuvieran de la fuente original. Cuando se recibe un objeto nuevo en la computadora,
se almacena en la cache reemplazando , si es necesario el objeto existente. Si un servicio cliente
necesita un objeto, el servidor cache lo buscará primero en su repositorio, si lo tiene lo
proporcionara al cliente.
Los navegadores Web mantienen (Internet Explorer, Firefox, Google Chrome, etc) mantienen en
disco duro un repositorio de páginas Web recientemente visitadas.
Los Servidores Proxy son procesos que a nombre de un cliente reenvían la solicitud de éste a algún
servidor. Es muy común los servidores proxy Web o de correo electrónico, los cuáles los utilizan
los clientes para que estos reenvíen sus peticiones a los servidores pero la petición la realizará el
servidor proxy como si este fuese el que genero la petición por lo que el servidor le contestará al
servidor proxy, éste al tener la respuesta la procesara de tal forma que se la reenvíe al cliente que
genero la petición de tal forma que el cliente la ve como si le hubiera contestado directamente el
servidor. Vea la figura Y2.
Cliente
Servidor Servidor
Proxy Web
Cliente
Este modelo también se le conoce como de igual a igual, todos los procesos desempeñan tareas
semejantes, interactuando cooperativamente como iguales para realizar una actividad distribuida
sin distinción entre servidores o clientes. Por ejemplo un equipo de profesionistas puede estar
haciendo una parte de una documento y conforme avanza su parte lo comparten para hacer
observaciones o complementarlo con alguna parte que les toca. Vea la figura Y3.
Proceso
Igual
Proceso
Igual
Proceso
Igual
Los modelos que se van a discutir a continuación se llaman Modelos Fundamentales, los cuales
proporcionan vistas de aquellas características de los sistemas distribuidos que afectan su
confianza, fiabilidad y seguridad. Especifica cuestiones, dificultades y amenazas que deben
resolverse para desarrollar sistemas distribuidos que realicen correctamente, de forma fiable y
segura sus tareas. Los Modelos que vamos a estudiar son el de Interacciones y el Fallos
a) Modelo de Interacción.
Cada computador de un sistema distribuido tiene su reloj interno; los procesos locales obtienen
de él el valor de tiempo actual. Dese cuenta que si dos procesos en dos computadoras leen a la vez
su reloj local obtendrán tiempos diferentes debido a las desviaciones que en estos sistemas de
computo tiene en sus relojes. Para mantener estas desviaciones lo más pequeñas posibles de usan
protocolos como NTP para sincronizar las computadoras de red que hay en un sistema distribuido.
En un sistema distribuido es difícil establecer cuotas sobre el tiempo que debe tomar la ejecución
de un proceso, el envío de un mensaje o la deriva del reloj. Para atacar estos problemas tenemos
dos tipos de sistemas distribuidos para resolver los problemas de tiempo:
b) Modelo Fallas.
En este modelo, más que hablar de su tratamiento habla de las formas como puede ocurrir un
fallo:
- Fallos por omisión: Se refiere a casos en que los procesos o los canales de comunicación
no pueden realizar las funciones que supone pueden hacer. Como ejemplos podemos citar
los casos en que un proceso se ha parado por lo que no puede continuar ofreciendo su
servicio; en caso de errores en el canal de comunicación se puede deber a buffer de los
sistemas de comunicación llenos o errores en los medios de transmisión.
- Fallos arbitrarios: Es aquel en que se omiten pasos deseables para el proceso o realiza
pasos no intencionados, son errores relacionados con la semántica de la información, por
ejemplo, un proceso podría cargar valores equivocados en su área de datos, o podría
responder a un valor incorrecto a una petición. No se pueden detectar simplemente
verificando si el proceso responde o no a las peticiones. Los medios de comunicación
pueden presentar Fallos Arbitrarios cuando por ruido en el medio se corrompen los
mensajes.
- Fallos de temporización: Este tipo de fallos son de los sistemas síncronos, donde se
exceden los límites de tiempo impuestos en el sistema. La tabla x muestra un resumen de
los fallos de temporización que se pueden presentar.
En los sistemas distribuidos asíncronos se puede presentar lentitud en la red o en los procesos, esto
sucede cuando están sobrecargados. Esto normalmente afecta a aplicaciones multimedia.
El Protocolo Spanning Tree (STP) proporciona respaldo de enlaces a nivel capa 2 del modelo OSI en
caso de que fallen alguno; está definido en la norma 802.1D de la IEEE.
Aparentemente una solución obvia para proporcionar redundancia en una red de switch´s es
insertar otro switch al sistema o enlaces redundantes, de esta forma evitaríamos fallos de
comunicación si un enlace falla o incluso si un switch falla. La figura Y4 muestra una red con
switch´s y enlaces redundantes.
PC Mac 1
PC Mac 2
SW de Flaco SW de Flanco
SW´s de Core
Figura Y4 Red de Switch´s con enlaces y switches redundantes.
Los switch´s al centro de la figura 4 normalmente se conocen como de core, pues ellos concentran
la comunicación e interconectan a switch´s de acceso que son que se conectan directamente con
la PC´s. Además los switch´s de core normalmente están conectados a los equipos de
comunicación que proporcionan el servicio de Internet o hacia otra red fuera del edificio, LAN o
campus donde están instalados.
SAT SWA
Pto Dir MAC
1 Mac 1
2 Mac 2 PC Mac 3
3 Mac 3
Inicialmente un switch no posee ningún conocimiento de la red, la SAT del switch está vacía,
recodemos que la SAT es una tabla que posee un switch que usa para buscar en que puertos está
conectado un dispositivo de red en base de su dirección MAC y así decidir por cuál puerto reenviar
la trama.
Un caso de funcionamiento de un switch es cuando está vacía la SAT, el switch debe esperar el
arribo de las tramas que llegan a cada uno de sus puertos para registrar la MAC Fuente en la SAT
en la entrada del puerto en que fue recibida y así sabe en qué puerto está dicha MAC (Recordemos
que la MAC es la dirección de capa 2 de un dispositivos de red de datos). A medida que arriban
más tramas en el switch la tabla SAT termina de llenarse y todas las MAC ya estarán registradas en
la SAT, vea la figura Y5. Así la próxima vez que llegue una trama al switc, además de checar que la
MAC fuente ya este registrada en la SAT, se busca la MAC Destino en la SAT y se reenvía la trama
por el puerto asociado.
Otro caso en el funcionamiento de un switch es cuando llega una trama con una dirección destino
de broadcast, en ese caso el switch debe enviar la trama por todos los puertos activos que tenga
excepto por donde llego.
Y el último caso de funcionamiento de un switch es cuando llega una trama que no está registrada
en su SAT o la SAT está vacía, en este caso el switch envía la trama por todos los puertos que
tenga activos excepto por donde llego. Este tipo de reenvío le llaman algunos autores Unicast
Desconocido, se parece al procedimiento de reenvío de un broadcast, pero difiere porque la
dirección MAC Destino es del tipo unicast.
Esta manera de funcionar de un switch de tecnología Ethernet, asegura que reenviará las tramas
que le estén llegando.
Retomemos ahora el funcionamiento de llenado de la SAT cuando está vacía y hay switch y enlaces
redundantes, para ello nos apoyaremos de la figura Y6
De la PC de
Mac 1 a 2
2 1
1 3
3 2
PC Mac 1 SW A SW B
PC Mac 2
1 1
2 2
3 3
La PC con Mac 1 envía una trama a la Pc con Mac 2, esta al llegar al SW A registra la Mac 1 en el
puerto 1 y se reenvía la trama por el resto de sus puertos, el 2 y 3, cuando la trama llega al SW B
llega por sus puertos 1 y 2 y el swicth registra la MAC 1 en su SAT en dichos puertos. Vea la figura
Y6
De la PC de
2 Mac 1 a 2 1
1 3
3 2
De la PC de
PC Mac 1 SW A Mac 1 a 2 SW B
PC Mac 2
1 Mac 1 1 Mac 1
2 2 Mac 1
3 3
El SW B tratara ambas tramas por separado, por ejemplo, sí trata la trama que llega por su puerto
1, el switch registra la Mac fuente (Mac 1) en su SAT y reenviará la trama por todos sus puertos
menos por donde llego, vea la figura Y7, provocando un bucle porque la trama sale por el puerto 2
del SW B que conecta al SW A. Esto mismo sucede con la trama que llega por el puerto 2, se
registra en la SAT y regresa al SW A por el reenvío de unicast desconocido.
2 1
1 3
3 2
De la PC de
SW B De la PC de
PC Mac 1 SW A Mac 1 a 2
Mac 1 a 2 PC Mac 2
SAT SWA SAT SWB
Pto Dir MAC Pto Dir MAC
1 1 Mac 1
2 2 Mac 1
3 Mac 1 3
Vea también en la figura Y7 quela trama que llega al SW A por el puerto 3, hace que se actualice su
SAT, el SWA buscará la MAC destino de la trama y como no se encuentra registrada la enviará por
todos sus puertos activos menos por donde llego, provocando que se reenvíe por el puerto 2 y
retorne al SW B.
Como apreciará el lector el proceso se repite provocando que la trama gire indefinidamente en un
bucle formado por los dos enlaces que unen los dos switches: SW A y SW B.
Ya que vimos que pasa en los enlaces redundantes entre dos switch´s, apreciamos que esto
sucede entre cualquier circuito cerrado (bucle ) en una red formada por switch´s. La forma de
solucionar esto es bloquear lógicamente puertos, es decir que un puerto dado de un switch no se
use para reenvío de tramas aunque físicamente éste esté conectado. Pero ¿Cuál puerto es el que
se bloquera? Esto lo resolverá el Algoritmo de Spanning Tree (STA).
Cada switch ejecutará el algoritmo de STA basándose en la información que recibe de cada switch
a través de tramas llamadas BPDU (Unidad de Datos del Protocolo del Bridge). El algoritmo forma
una topología tipo árbol entre los switch´s, un switch será el switch raíz del árbol y establecerá
caminos libres de bucles entre los switch´s. El lector puede aplicar practicar el STA siguiendo las
reglas de la tabla X1:
Aplicando las reglas en la figura Y8 para ejemplificarlas. Para aplicar la primer regla veamos que es
el ID de Switch. El ID del switch está formado por la MAC del Swicth (el fabricante le asigna una
MAC a su equipo que es único en el mundo) concatenado con un número conocido como
prioridad: Prioridad:MAC del Switch. Ejemplo: 800A:00-01-AB-AB-00-12. La MAC es inamovible
pero la prioridad se puede modificar por el administrador del equipo.
En la figura Y8 ¿Cuál es el switch raíz? De acuerdo a la primer regla del STA, será el menor
Id de Switch. Si observa bien, el menor ID de MAC es: 8000:00-01-AA-CD-AB-9A del SW4 por lo
que este switch es el switch raíz. En la figura también mostramos los bucles que existen, al final de
la explicación del algoritmo ya no deben de existir.
SW1 SW2 SW3
8000:00-01-AA-CD-CE-03 8000:00-01-AA-CD-CB-99 8000:00-01-AA-CD-AE-A9
80:1 80:2
80:2 80:4
80:6 80:3
80:3 80:4 80:2 80:4 80:5
80:3 80:5
80:1 80:4
SW4 SW5 SW6
8000:00-01-AA-CD-AB-9A 8000:00-01-AA-CD-FE-03 8000:00-01-AA-CD-FE-89
Switch Raiz
Figura Y8. Red LAN. Elección del switch raíz.
Continuando con la figura Y8, determinemos el puerto raíz para el SW6. Para alcanzar la raíz
aplicando los criterios de la regla 2. El primer criterio dice que es la ruta con menor costo, ¿Qué es
el costo? El costo es inversamente proporcional a la velocidad de un puerto o un enlace, por
ejemplo si un enlace de 1000mbps tendrá menos costo que un enlace de 100Mbps. El costo antes
106
estaba definido por la fórmula 𝐶𝑜𝑠𝑡𝑜 = 𝑉𝑒𝑙𝑜𝑐𝑖𝑑𝑎𝑑 , donde la velocidad es la velocidad del puerto,
pero actualmente por el desarrollo de tecnologías de altas velocidades se usa una tabla definida
en la norma 802.1t de la IEEE.
El SW6 de la figura Y8 puede alcanzar la raíz por el SW5 o por el SW3, si hacemos la consideración
que todos los enlaces tienen la misma velocidad entonces todos los enlaces tienen el mismo costo,
si suponemos que cada enlace tiene un costo de 10 entonces el costo para que SW6 alcance la raíz
por la ruta SW6 - SW3 - SW2 - SW1- SW4 es de 30 ya que el último enlace que conecta a SW1 con
SW4 ya no cuenta por ser la conexión a la raiz, este costo es mayor comparándolo con la ruta SW6
- SW5 - SW4 que es de 10, por lo que esta ruta es mejor que la anterior. Vea la figura Y9, se tiene
marcado el puerto 4 del SW6 como raíz ya que este establece la ruta SW6 – SW5 – SW4 para el
SW6.
80:3 80:5
80:1 80:4
SW4 SW5 SW6
8000:00-01-AA-CD-AB-9A 8000:00-01-AA-CD-FE-03 8000:00-01-AA-CD-FE-89
Switch Raiz
Figura Y9. Puerto raíz del SW6
Para elegir el puerto raíz del SW5, consideramos que tiene dos rutas para alcanzar la raíz: SW5 –
SW4 con consto de 0 y SW5 – SW2- SW1 – SW4 con un costo de 20, por lo que la primer ruta es
mejor por lo tanto el puerto raíz de SW5 es el 5, puerto con el que el switch establece su ruta SW5
– SW4. Vea la figura Y10.
SW1 SW2 SW3
8000:00-01-AA-CD-CE-03 8000:00-01-AA-CD-CB-99 8000:00-01-AA-CD-AE-A9
80:1 80:2
80:2 80:4
80:6 80:3
80:3 80:4 80:2 80:4 80:5
80:3 80:5
80:1 80:4
SW4 SW5 SW6
8000:00-01-AA-CD-AB-9A 8000:00-01-AA-CD-FE-03 8000:00-01-AA-CD-FE-89
Switch Raiz
Establezcamos el puerto raíz para el SW2, para alcanzar la raíz tiene las rutas SW2 – SW1 – SW4,
SW2 – SW5 – SW4 y SW2 – SW3 – SW6 – SW5 – SW1, esta última con costo de 30 y las dos primeras
con costos de 10, por lo que son estas dos mejores pero hay empate, en este caso aplicamos el 2do
criterio: la mejor ruta es la del switch con menor ID de Switch, los vecinos de SW2 son SW1 y SW5 y
el que tiene menor ID de Switch es el SW1 por lo que el puerto 4 del SW4 que conecta al SW1 será
el puerto raíz. Vea la Figura Y11.
SW1 SW2 SW3
8000:00-01-AA-CD-CE-03 8000:00-01-AA-CD-CB-99 8000:00-01-AA-CD-AE-A9
80:1 80:2
80:2 80:4
80:6 80:3
80:3 80:4 80:2 80:4 80:5
80:3 80:5
80:1 80:4
SW4 SW5 SW6
8000:00-01-AA-CD-AB-9A 8000:00-01-AA-CD-FE-03 8000:00-01-AA-CD-FE-89
Switch Raiz
Establezcamos el puerto raíz para el SW1, aplicando el 1er criterio que es escoger la ruta con menor
costo para alcanzar la raíz, vemos que tenemos dos rutas para alcanzar la raíz con consto de 0 la del
SW1 – SW4 por el puerto 3 a 2 y por el puerto 4 a 1, hay otra ruta la del SW1 – SW2 – SW5 – SW4
pero evidentemente es más alto costo por ello ya no lo consideramos. Para las dos rutas con costo
de 0 de SW1 a SW4 hay empate aplicamos el 2do criterio que dice que escojamos la ruta que nos
lleva al ID de Switch menor pero ambas rutas del SW1 – SW4 nos llevan al mismo switch por lo que
volvemos a tener empate, por lo que aplicamos 3er criterio que es la ruta que tenga menor ID de
puerto en el switch vecino, el vecino del SW1 en esta ruta es el SW4, y estamos considerando las
dos rutas que estable con sus puertos 2 y 3 que tienen asociados los ID de puerto 80:2 y 80:3,
obviamente el menor es 80:2 por lo que escogemos la ruta SW1 – SW4 por el puerto 3 a 2 como
mejor ruta, por lo que el puerto 3 del SW1 es su puerto raíz. Ve la figura 12.
Por último establezcamos el puerto raíz para el SW3, el cual también tiene dos rutas SW3 – SW2 –
SW1 – SW4 y SW3 – SW6 – SW5 – SW4 ambos con un costo de 20 por lo que hay empate en el 1er
criterio, aplicamos 2do criterio: menor ID de Switch, en este caso los vecinos de SW3 son SW2 y
SW6 y el que tienen menor ID de Switch es SW2, pero tenemos hacia este switch dos enlaces: el que
se establece del puerto 2 al 1 y de 3 a 6 del SW3 al SW2, por lo que hay que escoger el mejor enlace.
Si escogemos por el 1er criterio (menor costo) vemos que tenemos empate en estos dos enlaces,
por lo que aplicamos 2do criterio (el que nos lleve al switch con menor ID de switch) donde volvemos
a tener empate por llevarnos al mismo switch, por lo que aplicamos 3er criterio, (el que tenga menor
ID de puerto en el switch vecino) el switch vecino es SW2 y el menor ID de puerto para los dos enlace
que estamos considerando es el puerto 1 con Id 80:1 por lo que el puerto raíz del SW3 es el puerto
2. Vea la figura 12.
80:3 80:5
80:1 80:4
SW4 SW5 SW6
8000:00-01-AA-CD-AB-9A 8000:00-01-AA-CD-FE-03 8000:00-01-AA-CD-FE-89
Switch Raiz
Figura 12. Puertos Raíz del SW1, SW2, SW3, SW5 y SW6.
Las flechas marcadas en la figura 12 tiene una dirección tal que salen de un puerto que es el puerto
raíz de un switch y señalan a otro puerto en el switch vecino, este puerto se llama puerto designado.
Vea que en la figura 12 marcamos con un punto el puerto designado.
Hasta ahora lo que hemos hecho es indicar que puertos no se bloquean que son los puertos raíz y
designados. Los bucles todavía existen, esto se resuelve con la 3er regla: Dibuje una LAN en cada
enlace no elegido. Vea la figura Y13.
SW1 SW2 SW3
8000:00-01-AA-CD-CE-03 8000:00-01-AA-CD-CB-99 8000:00-01-AA-CD-AE-A9
80:1 80:2
80:2 80:4
80:6 80:3
LA
80:3 80:4 80:2 80:4 80:5
N3
LAN1 LAN2 LAN4 LAN5
80:3 80:5
80:1 80:4
SW4 SW5 SW6
8000:00-01-AA-CD-AB-9A 8000:00-01-AA-CD-FE-03 8000:00-01-AA-CD-FE-89
Switch Raiz
Cada LAN de la figura Y13 deberá definir también una ruta para alcanzar la raíz usando los mismos
criterios definidos en la regla 2. Por ejemplo la LAN1 puede alcanzar la raíz usando rutas por el SW1
o usando al SW4 usando el primer criterio (menor costo) vemos que el enlace que conecta la LAN1
al SW4 tiene un costo de 0, mejor que cualquier otro costo ofrecido por las rutas del SW1, por lo
que el puerto designado para la LAN1 es el 1 del SW4 y el otro puerto de la LAN 1 se bloquea, es
decir se bloquea el puerto 4 del SW1. Vea la LAN1 en la figura Y14.
SW1 SW2 SW3
8000:00-01-AA-CD-CE-03 8000:00-01-AA-CD-CB-99 8000:00-01-AA-CD-AE-A9
80:1 80:2
80:2 80:4
80:6 80:3
LA
80:3 80:4 80:2 80:4 80:5
N3
LAN1 LAN2 LAN4 LAN5
80:3 80:5
80:1 80:4
SW4 SW6
SW5
8000:00-01-AA-CD-AB-9A 8000:00-01-AA-CD-FE-89
Switch Raiz 8000:00-01-AA-CD-FE-03
Figura Y14. Rutas de las LAN´s, puertos bloqueados y designados para las LAN´s
La LAN2 tiene la ruta LAN2 - SW2 – SW1 – SW4 y LAN2 - SW5 – SW4, podemos pensar en rutas
alternativas de SW2 – SW3 …, pero las dos primeras son más cortas. Aplicando el 1er criterio (menor
costo) la primer ruta tiene un costo de 20 y la segunda un costo de 10, por lo que la mejor ruta es la
segunda: LAN2 – SW5 – SW4, por lo que el puerto designado de la LAN2 es el 3 de SW5 y se bloque
el otro puerto, es decir el puerto 2 del SW2. La LAN2 Vea la figura 14.
Siguiendo el mismo procedimiento se resuelve la LAN3, LAN4 y LAN5 como muestra la figura Y14.
En estos ejemplos no hubo empate en costos pero si los hubiera habido se aplicaría el 2do criterio
y en caso de otro empate se aplicaría el 3er criterio.
El resumen del estado de un switch después de haberse ejecutado STA se muestra en la tabla X2.
Vea en la tabla X2 un concepto nuevo, el switch designado, es el switch vecino del switch señalado
en la primer columna y que lo usa para alcanzar la raíz. Si nos entráramos al ambiente de monitoreo
de un switch de nuestro ejemplo y ejecutáramos el comando correspondiente para verificar su
estado de acuerdo a Spanning Tree, veríamos los que nos indica la tabla X2 para dicho switch, por
ejemplo monitorearíamos que para el SW1 su switch raíz es SW4, su puerto raíz es el 3, sus puerto
designado es el 2, su puerto bloqueado es el 4 y su switch designado es el SW4.
Para participar en el proceso de STP cada puerto tiene que progresar a través de una serie de
estados. Un puerto comienza en el estado desconectado hasta llegar al estado de activo sí es que al
final tiene permitido enviar tramas.
- Desconectado. Son los puertos que se han dado de baja administrativamente o estén
desconectados o por algún fallo en el cable y no participa en el STA.
- Escuchando. Un puerto esta en este estado al inicio de la ejecución del Spanning Tree. Este
estado indica que el puerto puede ser seleccionado como puerto raíz, designado, o
bloquearlo. En este estado no se puede enviar tramas de datos de usuario pero se están
enviando BPDU, (Unidad de Datos del Protocolo del Bridge) que son tramas que se usan
para intercambiar información de Spanning Tree. Tarda 15 seg aproximadamente en este
estado.
- Aprendiendo. Luego del periodo del estado de Escuchando se pasa a este estado donde ya
con información proporcionada en los BPDU el switch empieza a ejecutar el STA. Este estado
dura aproximadamente 15 seg.
- Enviando. Después del estado de Aprendiendo, el puerto puede pasar a este estado que
indica que ya es completamente funcional, envía tramas de datos de usuario y BPDU para
monitorear enlaces o ejecutar cambios en Spannin Tree.
- Bloqueado. Este es otro estado en que se pone un puerto al final del estado Aprendiendo.
Este estado no puede recibir ni enviar tramas de datos de usuario, es necesario para abrir
bucles, solo puede recibir BPDU.
STP funciona de manera que los switch´s puedan operar entre allos intercambiando mensajes de
datos a través de los BPDU´s. Cada Switch envía las BPDU´s a través de un puerto usando la dirección
MAC de ese puerto como dirección de origen, el switch no sabe de la existencia de otros switch´s
por lo que las BPDU´s son enviadas con las dirección de destino multicast 01-80-C2-00-00-00.
Una vez que es seleccionado el switch raíz, este envía Configuration BPDU y los switch´s que lo
reciben los reenvían haciendo cambios en algunos campos para indicar quien lo está reenviando y
cual es costo hacia la raíz acumulado el costo local al del BPDU. Los Configuration BPDU contienen
los campos mostrados en la siguiente tabla X3.
En la actualidad hay tres versiones de Spanning Tree, aquí se estudio la primer versión que esta
documentada en la norma 802.1d, esta versión tiene como principal inconveniente su lenta
convergencia la cual duraba 30 seg aproximadamente. Este retardo ocurría en cualquier cambio de
topología, por lo que los usuarios de la red experimentaban por 30 seg que la red se había caído.
Para corregir el problema del tiempo de convergencia, se reviso la norma 802.1d y nació la 802.1w
(Spanning Tree Rápido, RSTP), esta norma es la más utilizada actualmente, reduce el tiempo de
convergencia a unas cuantas decimas de segundo. Un switch que funcione con RSTP podrá funcionar
con STP, hay compatibilidad. Cambio el valor de los temporizadores y suprimió el estado de
Escuchando, quedando solamente Aprendiendo, Reenviando y Deshabilitado. Los roles de los
puertos también tuvo sus modificaciones, el puerto bloqueado desaparece y aparece respaldo y
alternativo. El puerto de respaldo es un puerto que recibe una BPDU idéntica a la BPDU que recibe
el puerto raíz de un switch, esto solo es posible si hay un hub o un switch que no soporta en Spanning
Tree como intermedio entre dos switch que si lo soportan, el puerto de respaldo no reenvía tramas
de usuario, es decir esta deshabilitado. El puerto alternativo es una ruta alternativa para alcanzar el
switch raíz, no envía tramas de usuario, es decir está deshabilitado.
La siguiente versión de Spanning Tree es el múltiple, MST que corresponde a la norma 802.1s, es
compatible con las dos versiones anteriores, su nombre se debe a que se puede correr el algoritmo
de Spanning Tree o instancia por cada VLAN que pueda contener el sistema. No tiene un uso muy
extendido pero se espero alcance más popularidad. No se estudiará en este texto.
La adición de puertos son métodos para unir varios enlaces físicos entre switch´s de tal forma que
forman un solo enlace virtual con más ancho de banda. Esto es una forma económica para
implementar enlaces con mayor ancho de banda además de proveer redundancia en enlaces por lo
que incrementa la tolerancia contra fallos.
Para es Spanning Tree ver un enlace lógico creado con el protocolo de adición de puertos es tomarlo
como si fuese un enlace real y como tal toma su lugar en la topología creada por STP.
La norma 802.3ad adición de puertos (Link Aggregation) es la más aceptada en la industria, existen
varios protocolos propietarios con las mismas capacidades de otros fabricantes. Este protocolo
permite al switch determinar por si solo que enlace es el que puede ser integrado y configurado
para que sea parte de un enlace lógico.
Para que un enlace físico pueda ser agregado a un enlace lógico debe cumplir con ser de tecnología
Ethernet, los enlaces deben tener la misma velocidad y trabajar en full dúplex. Vea figura 15.
SW A SW B
Enlace
lógico de
200 MBps
El LACP es un protocolo que forma parte del 802.3ad y permite la comunicación entre switch´s para
determinar que enlaces físicos pueden formar un enlace lógico. Dentro de la terminología del
802.3ad se dice que un enlace lógico es un Grupo de Agregación de Enlaces (Link Aggregation Group,
LAG). Un enlace físico solo puede pertenecer a un LAG en un momento dado.
- Configuración dinámica: Automáticamente se determina los enlaces que son válidos para
ser agregados al LAG y automáticamente los configura. Aunque esto lo hace de forma
automática existen posibilidades que el administrador configure ciertas propiedades.
- Disponibilidad de enlaces más veloces: Si en LAG hay un enlace físico que falla, el fallo se
limita a dicho enlace y los demás seguirán funcionando.
- Incremento de Ancho de Banda: Se incrementa anchos de bando ya que se suman las
velocidades de los enlaces físicos en el LAG.
- Soporta los clientes MAC del 802.3: Esto significa que cualquier dispositivo que maneje una
MAC como Ethernet o Token Ring se le puede implementar por el fabricante esta norma.
- Compatible con dispositivos que no reconozcan a 802.3ad: si hay dispositivos que no
entienden esta norma funcionaran de manera normal.
- 802.3ad es de capa 2 del modelo OSI: el 802.3ad adiciona una subcapa en la capa 2 del
modelo OSI, entre las subcapas MAC y LLC como lo muestra la figura 16. Esta posición nos
dice que trabaja directamente con direcciones MAC y las trabaja de tal forma que presenta
a las capas superiores una MAC que identifica al LAG.
Aplicación
Presentación
Sesión
Física
TERMINOLOGÍA 802.3ad
- Link Aggregation Group (LAG): Una vez que los puertos físicos son asociados con un puerto
lógico, la agregación resultante es representado como un LAG. Un LAG es conocido como un
puerto TRUNK en otros protocolos propietarios de agregación de puertos.
- Llaves de agregación: Parámetros asociados con cada puerto, y con cada LAG de un sistema de
agregación, identifican a esos puertos que pueden ser agregados a un LAG. Estas llaves resumen
características como son velocidad, parámetros configurados por el administrador de red, etc.
- Protocolo de marcado: permite a la función de distribución distribuir los flujos en los enlaces
físicos que forman el LAG, es decir, ayuda al algoritmo de distribución a repartir los flujos entre los
enlaces físicos. Un flujo es la conexión identificada entre dos terminales identificada por sus MAC.
Es decir que el 802.3ad solo distingue conversaciones diferentes si hay direcciones MAC diferentes
en una conversación. Vea la figura 17.
- Actor: Es el dispositivo local en el LACP. Vea figura 17. Si esta monitoreando en un switch un LAG,
el witch en donde están conectados es el equipo actor.
- Partner: Es el dispositivo remoto en el LACP. Vea Figura 17. Si esta monitoreando en un switch
un LAG, el witch remoto que forma el LAG con el switch que monitorea es el Partner.
LAG
Actor Partner De Mac 1 a
De Mac 1 a De Mac 1 a Mac 3
Mac 2 Mac 2
De Mac 1 a
Administrador Mac 3
Como última mención diremos que este protocolo es muy utilizado no solo en enlaces entre
switch´s, sino también entre servidores. Hay tarjetas de red que soportan este protocolo y pueden
ser instaladas en servidores de alta demanda.
En el apartado anterior vimos los protocolos más usuales de capa 2 en redes de alta disponibilidad
para lograr redundancias y maximizar velocidad entre switch´s. En capa 3 también tenemos
protocolos para lograr la alta disponibilidad pero en otros contextos. En las siguientes dos
secciones estudiaremos estos protocolos.
1.6.1 LSNAT.
Load Shared NAT (LSNAT) también conocido como NAT PAT (PAT = Traductor de Direcciones
de Puerto), nos da la facilidad de que varias PC´s con direcciones IP privadas puedan crear peticiones
a los servicios que ofrece Internet (páginas WEB, correo electrónico, etc) o red pública y obtener
respuesta, es decir es un protocolo para proporcionar a los usuarios disponibilidad de recursos pero
en el caso de que su salida a una red pública este limitada. Para ello si se da cuenta en la figura 18,
el enrutador que conecta a cada una de las LAN a la red pública, debe tener una dirección pública,
es decir válida en Internet, al ser válida se puede acceder desde cualquier punto de la red de
Internet. Cuando se configura NAT PAT en el enrutador, la dirección pública de éste se presta a cada
una de las PC´s de la red privada cuando generan una petición dirigida a la red de Internet.
Para analizar el funcionamiento de NAT PAT, considere que la red privada A tiene el
direccionamiento que se muestra en la figura 18, además adicionamos un servidor WEB en dicha
figura.
Supongamos que las tres PC´s generan peticiones de acceso al servidor de la red WEB que
está en la red de Internet. Las PC´s enviarán sus peticiones al enrutador y este prestará su dirección
IP a cada una de estas peticiones pero para distinguir entre cada una de las peticiones también
considerará el número de puerto que distingue a la aplicación cliente de dichas peticiones.
El número de puerto es un valor entero entre 0 y 65534 que distingue a una aplicación de
red que se está ejecutando en una terminal. Recuerde que casi todos los servicios que tenemos en
Internet son Cliente-Servidor. Esto quiere decir que hay una aplicación Servidor (porque ofrece un
servicio) que está en espera de las peticiones de una aplicación cliente para darle la información que
solicite. Estas aplicaciones Cliente y Servidor se reconocen por un número, el número de puerto.
Para las aplicaciones servidor, este número ya está bien definido para una aplicación dada, por
ejemplo para el servidor WEB es el número 80, para el servidor telnet es el 23, para servidor de
correo electrónico es 25, etc. Pero para el caso de los clientes, estos se generan aleatoriamente a
partir del número 1025.
Servidor WEB
210.1.1.10/24
192.168.1.2/24
192.168.1.1/24
200.1.1.1/24
Red Pública
192.168.1.3/24
200.1.1.0/24 210.1.1.0/24
192.168.1.4/24 192.168.1.0/24
220.1.1.0/24
Red Privada B
192.168.1.0/24
Red Privada A
192.168.1.0/24
Red Privada C
Figura 18 Direccionamiento de la red LAN A y un servidor WEB
NAT PAT en base de las peticiones que generan los clientes, forma una tabla, la cual se ilustra
en la tabla X10 y muestra como el NAT PAT cambia la dirección de las PC´s de la red privada por la
pública del enrutador y cambia el número de puerto que distingue la aplicación cliente por otro
número de puerto que controle el mismo NAT PAT. De esta forma cuando el servidor WEB envíe su
respuesta, se la enviará a la dirección pública del enrutador. Cuando llegue dicha respuesta, el
enrutador se fijará en el número de puerto de la aplicación cliente al que va dirigido dicha respuesta
y en su tabla podrá distinguir la PC a la que le corresponde. De esta forma podrá cambiar la dirección
IP pública y el número de puerto por la dirección de la PC y por el número de puerto de la aplicación
cliente que generó la petición.
Por ejemplo en la tabla X10 se muestra que la PC 192.168.1.2 tiene una aplicación que se identifica
con el número 2020 y genera una petición a la dirección 210.1.1.10 donde reside la aplicación 80 (servidor
WEB) pero NAT PAT cambia la dirección IP origen y número de puerto origen por la 200.1.1.1 (IP pública) y
número de puerto 3000 (un número de puerto que pueda contralar el NAT PAT y así evitar que los números
de puerto del cliente se repitan, como sucede en la segunda entrada de la tabla X10, recuerde que los números
de los clientes son aleatorios pero por lo mismo existe la probabilidad de que se repitan en diferentes PC´s).
Con estos cambios sale la petición a Internet y cuando llegue su respuesta al enrutador, este podrá regresarlo
a su forma original gracias al número de puerto que se conteste, en nuestro ejemplo al 3000.
1.6.2 VRRP.
Hay varios métodos que puede usar una terminal final (de usuario) para determinar su puerta de
enlace, por ejemplo usar un protocolo de ruteo dinámico, aunque esta solución es poco viable por
la carga de trabajo que se genera en la terminal final. El uso de configuraciones de ruta estática es
más popular, esto se logra configurando de manera manual el Gateway o asignándolo a través de
DHCP. Sin embargo tener una sola puerta de enlace crea una posibilidad de falla, la pérdida del
Gateway podría dejar a las terminales finales sin comunicaciones debido a que las terminales
finales no pueden detectar un camino o algún otro Gateway alterno.
El Protocolo de Redundancia de Ruteo Virtual (VRRP) está especificado en el RFC 2338 y está
diseñado para eliminar este tipo de fallas. VRRP tiene como principal fin designar siempre a un
enrutador como responsable de una dirección IP que esté dando servicio como puerta de enlace,
es decir, especifica un protocolo de elección que dinámicamente asigna la responsabilidad de que
un dirección IP virtual pertenezca a un enrutador VRRP de un conjunto de enrutadores VRRP que
están conectados a un segmento IP o una LAN. El enrutador VRRP que controla la IP del enrutador
Virtual es llamado Maestro y reenvía los paquetes IP de las terminales finales que usan ésta IP
Virtual como Gateway. El proceso de elección dinámica del Maestro nos da un método dinámico
de recuperación contra fallas en el caso de la pérdida del Maestro.
DEFINICIONES.
- Enrutador VRRP: Un enrutador con VRRP. Puede participar en uno o más enrutadores
virtuales.
- Enrutador virtual: Un objeto abstracto administrado por VRRP que actual como puerta de
enlace o gateway de un conjunto de terminales finales en una LAN o segmento IP.
Consiste de un Identificador de Enrutador Virtual y un conjunto de direcciones IP que tiene
asociadas. Un Enrutador VRRP puede ser respaldo de uno o más Enrutadores Virtuales.
- Dueño de una Dirección IP: Es el Enrutador VRRP que tiene la dirección IP virtual asignada
a una de sus interfaces reales y cuando éste esté en funcionamiento responderá de
acuerdo a sus funciones de enrutamiento a los paquetes que le lleguen a dicha interfaz.
- Dirección IP primaria. Una dirección IP seleccionada de un conjunto de direcciones IP
asignadas a interfaces reales. Los anuncios VRRP siempre los manda usando como
dirección IP fuente la dirección IP primaria.
- Maestro: Es el enrutador VRRP que es responsable del reenvío de paquetes mandados a la
dirección IP asociada con el Enrutador Virtual además de contestar las peticiones ARP para
esta dirección IP. Si el Dueño de la Dirección IP del Enrutador Virtual está activo este se
convertirá en el Maestro.
- Respaldo: Enrutador (es) VRRP que están disponibles para asumir la responsabilidad del
reenvío del enrutador Maestro en caso de que este falle.
FORMA DE TRABAJAR.
Para mostrar la forma en que trabaja VRRP estudiaremos dos casos. En el primer ejemplo se
muestran dos enrutadores VRRP respaldando a un enrutador virtual. Vea la figura Y19. En este
escenario, las terminales finales tienen instalada una ruta por default o puerta de enlace instalada
que la dirección IP del enrutador virtual #1 (IP A) y los enrutadores físicos están corriendo VRRP. El
enrutador de la derecha de la figura Y19 se convierte en el enrutador Maestro para el enrutador
virtual #1 (su identificador de VRRP es 1, VRID = 1) por lo que el enrutador de la derecha se
convierte en el respaldo. Si el enrutador de la derecha llega a fallar, el otro enrutador tomará el
enrutador virtual #1 y su dirección IP de tal forma que el servicio de las terminales finales no se
verá interrumpido. Para seleccionar el enrutador Maestro en VRRP, se tomo como parámetro la
prioridad de un enrutador, el cual es un valor configurable en estos.
VRID =1
MR1 BR2
IP A IP B
Gtw = IP A Gtw = IP A
Gtw = IP A Gtw = IP A
PC 1 PC 2 PC 3 PC 4
Figura Y19. Aplicación básica de VRRP.
Note que la dirección IP B no se está utilizando como puerta de enlace, para ello se debe
configurar un segundo enrutador dinámico como se muestra en la figura Y20.
VRID =1 VRID = 2
Gtw = IP A Gtw = IP B
Gtw = IP A Gtw = IP B
PC 1 PC 2 PC 3 PC 4
Figura Y20. Respaldo de dos puertas de enlace.
Como se muestra en la figura Y20, ahora tenemos dos enrutadores virtuales con las terminales
finales dividiendo su tráfico entre ellos. Este tipo de configuración debería ser más común en la
práctica. El enrutador físico de la izquierda es el Maestro para el enrutador virtual VRID = 1 y
respaldo para el VRID = 2, el enrutador de la izquierda es Maestro para el enrutador virtual VRID =
2 y respaldo del VRID = 1. El enrutador virtual VRID = 1 tiene asociada la IP A y el enrutador virtual
VRID = 2 tiene asociada IP B las cuales se usan como puerta de enlace para las terminales finales.
- Versión: Versión del protocolo VRRP que al momento de escribir estas notas tenemos el
valor 2.
- Tipo: Normalmente tiene el valor de 1 que define que el paquete es de tipo
ADVERTISIMENT, el único tipo de paquete existente para VRRP.
- Prioridad: Indica la prioridad del enrutador que envía el paquete VRRP. Mayor valor mayor
prioridad. Este campo es de 8 bit´s por lo que su máximo valor es 255, valor reservado para
el enrutador físico que tiene configurado la IP virtual que del enrutador virtual que se está
respaldando. Si se pone este campo a 0 indica que el enrutador Maestro deja su rol. Valor
por default es 100 pero es configurable este valor.
- Cantidad. de Direcc. IP: Este campo tiene el número de direcciones IP que aparecen en los
campos Dirección IP (1), Dirección IP (2), … Dirección IP (n).
- Tipo de autentificación: Indica el tipo de autentificación. El campo es de 8 bits. Sus valores
son: 0 (No se usa autentificación), 1 (Contraseña en texto claro las cuales deben ser
configuradas manualmente en todos los enrutadores VRRP) y 2 (Cabecera de autentificación
IP). En último tipo de autentificación indica que se usará HMAC-MD5-96 con ESP o AH donde
sus llaves pueden ser configurados manualmente o vía un protocolo de distribución.
- Inter de Anuncios: Indica el tiempo en segundos entre cada ADVERTISEMENT que envía el
enrutador Maestro.
- Checksum: Campo que ejecuta el algoritmo Checksum sobre el paquete VRRP para detectar
errores.
- Dirección IP (1) … Dirección IP (n): Una o más direcciones IP asociadas con el enrutador
virtual.
- Datos de Autenticación (1), Datos de Autenticación (2): Cadena de autentificación utilizada
cuando se usa tipo autentificación de contraseñas en texto claro.
2.3 RUTEO
Sistema Autónomo: Es una red que está bajo la misma entidad de administración, por
ejemplo, la red del IPN es un sistema autónomo, así como la red Banamex, la de una aseguradora o
una empresa. Esto es porque cada entidad tiene a su cargo la administración de su red, ninguna de
ellas tiene que consultar a otra para tomar decisiones sobre la administración de cada una de sus
redes de datos.
La tabla de enrutamiento de los enrutadores, es una tabla que ayuda al enrutador a tomar
sus decisiones de enrutamiento. En la figura 2.4, mostramos un ejemplo de una tabla de
enrutamiento para un enrutador CISCO.
Los campos más importantes de la figura 2.4 son Red, Interfaz de Salida, Métrica y Siguiente
Salto. Por ejemplo en el caso de la línea:
Podemos ver que la Red que se quiere alcanzar es 216.221.5.0/24 tiene una Métrica de
200000, el Siguiente Salto es 213.11.19 y la Interfaz de Salida sería por donde algún protocolo de
enrutamiento le dio a conocer dicha red al enrutador, para ver con más detalle dicha interfaz puede
teclear el comando show ip route 213.11.14.19 y veríamos, por ejemplo, que sería la interfaz fa0/1.
a) El campo Red: Este campo contiene las redes destino a las que se enrutarán los
paquetes IP por el enrutador. Estas redes las aprendió el enrutador por una
configuración dada por el administrador (rutas estáticas) o por que se dieron a conocer
por medio de un protocolo de enrutamiento (rutas dinámicas); si son rutas estáticas, la
entrada estará precedida por la letra S, en otro caso aparecerá la letra que identifica al
protocolo de enrutamiento. Como se observo en la figura 2.4, solo se almacena el ID de
la red y su máscara correspondiente.
b) El campo métrica: es el valor asignado a cada camino, basándose en los criterios
específicos de cada protocolo de enrutamiento, el cual sirve para escoger el mejor
camino a un destino en el caso de que existan varios caminos hacia este. La tabla 2.1,
muestra los criterios que utilizan diversos protocolos de enrutamiento para asignar una
métrica.
c) El campo Siguiente Salto: Este campo indica la dirección IP del siguiente enrutador en el
camino hacia la red destino. La dirección debe estar en la subred en la que está la
dirección de la interfaz de salida. También se le conoce a esta dirección como Puerta de
Enlace o Gateway. Esta dirección normalmente representa otro enrutador y este debe
estar conectado por un cable o un equipo de capa 2 al enrutador que lo señala como
Siguiente Salto.
Hay muchas formas de clasificar los protocoles de enrutamiento una es classful y classless.
Los protocolos de enrutamiento classful (que significa: basado en clases) no envían la máscara de
red en sus paquetes esto limita el diseño de la red:
Los protocolos de enrutamiento classless, sí envían sus máscaras en los mensajes que se
intercambian entre enrutadores. Las características de este tipo de protocolos de
enrutamiento son:
a) Evita las limitaciones en el diseño de las redes que imponen los protocolos de
enrutamiento classful.
b) Las subredes del sistema pueden tener diferentes tamaños de máscara de subred, esto
se le llama diseño VLSM (Máscara de Subred de Longitud Variable).
c) Los protocolos classless se usan en el CIDR. El CIDR (Classless Inter-Domain Routing) es
un método de diseño de sistemas de red usando subredes con VLSM, sumarización e
implementando protocolos classless.
d) Los protocolos de enrutamiento classless soportan sumarización.
Por último recordemos que la función de switcheo (capa 2 del modelo OSI) la sigue haciendo
un enrutador; después de ejecutar su labor principal de capa 3, dará el paquete IP a su parte
funcional de capa 2 para convertirla en una trama y dependiendo de la tecnología de capa 2 que
soporte el enrutador, será el tratamiento que se le dará para reenviarla.
La desventaja es el trabajo por parte del administrador en redes grandes. Si ocurre un cambio
el administrador es el encargado de actualizar las tablas de enrutamiento por lo que la rapidez en
que estén las tablas de enrutamiento actualizadas dependerá de la velocidad con la que configure
el administrador todos los enrutadores del sistema.
Tanto en el ruteo estático como en el dinámico, se debe tener el diseño de las subredes que se
ocuparan en el sistema de red, principalmente el tamaño de máscara que se usará antes de proceder
a la configuración del ruteo estático o dinámico. Aquí se considera que el lector ya tuvo un curso de
redes de datos y ya conoce como se asignan las subredes a una red de datos empresarial usando
máscara de igual tamaño para todas las sudredes del sistema. En caso contrario recomendamos
revisar estos las notas del documento “Redes LAN” u otra literatura para revisar este método. Aquí
discutiremos un método para la asignación de subredes con máscara variable (VLSM) a un sistema
de red de datos pero si enfatizamos que el lector podría no entenderle bien si no conoce un método
para la asignación de subredes con máscara de igual tamaño.
Regiones
Sonora Jalisco Nuevo León
Edificios
Edif 1 Edif 2 Edif 3
Para el direccionamiento de este caso de estudio tenemos que definir la topología por lo que
requerimos los siguientes datos:
El problema dice que las regiones crecerán a 8, por lo que el número de bits que requerimos para
las regiones, nos lo da la siguiente desigualdad:
2𝑛 ≥ 8 𝑝𝑜𝑟 𝑙𝑜 𝑡𝑎𝑛𝑡𝑜 𝑛 = 3
Las combinaciones con estos 3 bits (128, 64 y 32) son 0, 32, 64, 96, 128, 160, 192, 224 los cuales se
asignaran en orden a las regiones. Las 3regiones iníciales las vemos marcadas en la figura 2.6.
Regiones
Sonora Jalisco Nuevo León
Vamos a calcular los bits necesarios para la red de Sonora. Vea la figura 2.7, se tienen marcado con
línea gruesa punteada 3 campus y un área de enlaces punto a punto, por lo que se tienen 4 subredes,
aplicando la fórmula tenemos:
2𝑛 ≥ 4 𝑝𝑜𝑟 𝑙𝑜 𝑡𝑎𝑛𝑡𝑜 𝑛 = 2
Son necesarios 2 bits para crear subredes para el campus Hermosillo, campus Cd. Obregón campus
Nogales y el área de los enlaces punto a punto.
Sonora
Edificios
Edificios Edificios
E1 E2 E3 E4 E1 E2 E1 E2 E3
Pis Pis
Pis
Siguiendo con la figura 2.7, calcularemos los bits que se requieren para los edificios del campus
Hermosillo. Las redes requeridas son las marcadas para este campus con las líneas punteadas menos
gruesas, son 4 subredes: una por cada edificio y una más para los enlaces punto a punto, en total,
se requieren 5 subredes.
2𝑛 ≥ 5 𝑝𝑜𝑟 𝑙𝑜 𝑡𝑎𝑛𝑡𝑜 𝑛 = 3
De a cuerdo a la figura 2.7, para Cd Obregón se tiene 3 subredes: 2 para los edificios y una más para
los enlaces punto a punto por lo que la fórmula queda:
2𝑛 ≥ 3 𝑝𝑜𝑟 𝑙𝑜 𝑡𝑎𝑛𝑡𝑜 𝑛 = 2
De a cuerdo a la figura 2.7, para el campus de Nogales se requieren 4 sub redes en total: 3 para los
edificios y una para los enlaces punto a punto.
2𝑛 ≥ 4 𝑝𝑜𝑟 𝑙𝑜 𝑡𝑎𝑛𝑡𝑜 𝑛 = 2
Edificio
E1
Pisos
Figura 2.8 Topología del enrutador del edificio conectado a los swtch´s de los pisos
Todos los enrutadores de los edificios conectaran a tres pisos de acuerdo al problema por lo que la
cantidad de bits que se requieren para realizar 3 sub redes (son 3 pisos) son:
2𝑛 ≥ 3 𝑝𝑜𝑟 𝑙𝑜 𝑡𝑎𝑛𝑡𝑜 𝑛 = 2
En resumen se requieren 3 bits para las garantizar subredes para las 8 regiones; 2 bits para el
campus de Sonora y Nuevo León, y como Jalisco solo tiene un campus también se cubriría este caso;
para los edificios tenemos 3 bits por el caso de los edificios de Hermosillo, con estos bit´s cubrimos
el de los demás edificios para las otras ciudades y por último el número de los bits requeridos para
los pisos son 2, por lo que la máscara de las subredes de los pisos quedaría de la siguiente forma:
Edificios Pisos
Regiones Campus
Y quedarían 6 bits para host que cubrirían los 50 hot´s por piso que el problema indica.
Con esto podemos ver que requerimos una dirección de clase B. Pensando que se va usar
direccionamiento privado, entonces tomaremos la dirección IP de red 192.168.0.0/16 para nuestro
sistema. El procedimiento aplicado nos sirve también para sumarizar: en las regiones se sumariza
con una máscara de 19 bits, en los campus con una máscara de 21bits y en los edificios con 24 bits.
En la imagen 2.9, mostramos la dirección de sub red que le toco a las regiones considerando la red
192.168.0.0/16 subneteandola a 19 bits de acuerdo al procedimiento realizado.
Backbone del ISP (Proveedor de
Servicios de Internet)
Regiones
Sonora Jalisco Nuevo León
En esta figura nos muestra que las sub redes asignadas a los campus Hermosillo, Cd.
Obregón y Nogales tienen máscara de 21 bits así como la sub red que se le asigna a los enlaces punto
a punto, pero en este caso fueron subneteadas a 30 bits; la figura 2.10 muestra la dirección de sub
red que le toca a cada enlace punto a punto a 30 bits y las dirección IP de host en su último octeto
que le toca a cada interfaz en el enrutador de Sonora así como la dirección IP de host en su último
octeto que le toca a la interfaz que conecta al enrutador de Hermosillo, Cd. Obregón y Nogales con
el enrutador de Sonora. Es importante notar que el subneteo a 30 bits se hace para todo enlace
punto a punto con la intención de optimizar las IP de host´s ya que con una máscara de 30 bits solo
existen 2 direcciones IP de host que se pueden realizar.
Otro punto que debemos enfatizar es que al subnetear la red 192.168.24.0 de 21 bits a 30
bits, tenemos 9 bits de diferencia los cuales nos dan la posibilidad de hacer 29 = 512 sub redes de
las cuales solo ocupamos 3 para los enlaces punto a punto. Es responsabilidad del administrador
tener una relación de las redes ya asignadas, desocupadas e indicar si estás fueran subneteadas de
otra sub red o de una red IP
.5 Sonora 192.168.24.0/21
.9 .13
192.168.24.4/30
192.168.24.8/30 192.168.24.12/30
.6 Campus .10 .14
Campus Campus
D
E C
Edificios
Edificios Edificios
E1 E2 E3 E4 E1 E2 E1 E2 E3
A B C D B A B C
A
Pis Pis
Pis
192.168.8.0/21 192.168.16.0/21
192.168.0.0/21
Figura 2.10 Subneteo a 21 bits para el campus Sonora.
De la figura 2.10 también se tiene marcadas con letras las sub redes que se asignaran par los edificios
del campus de Hermosillo, Cd Obregon y Nogales. Recuerde que estas subredes se realizarán
subneteando la red de máscara de 21 bits que le toca a cada campus y de acuerdo al procedimiento
que llevamos quedo la máscara de 24 bits. La tabla 2.2 resume la asignación.
En la tabla 2.3 nos apoyamos con una letra que corresponde a las que se marcaron en la figura 2.10
para hacer más clara la asignación de sub redes.
Igual que en el caso anterior, los enlaces punto a punto tienen asignado una sub red de 24 bit´s de
máscara pero se subneteara a 30 bits quedando como lo indica la tabla 2.3
Campus Sub red a 24 Sub red a 30 bits
bits de máscara Edificio 1 Edificio 2 Edificio 3 Edificio 4
Hermosillo 192.168.4.0/24 192.168.4.0/30 192.168.4.4/30 192.168.4.8/24 192.168.4.12/30
Rango IP de (E) 192.168.4.1 a 192.168.4.5 a 192.168.4.9 a 192.168.4.13 a
hosts 192.168.4.2 192.168.4.6 192.168.4.10 192.168.4.14
Cd Obregón 192.168.10.0 192.168.10.0/30 192.168.10.4/30
Rango IP de (C) 192.168.10.1 a 192.168.10.5 a
hosts 192.168.10.2 192.168.10.6
Nogales 192.168.19.0/24 192.168.19.0/30 192.168.19.4/30 192.168.19.8/30
Rango IP de (D) 192.168.19.1 a 192.168.19.5 a 192.168.19.9 a
hosts 192.168.19.2 192.168.19.6 192.168.19.9.10
Tabla 2.3 Sub redes asignadas a los enlaces punto a punto de Hermosillo, Cd Obregon y Nogales a los
edificios.
La tabla 2.3 nos muestra las direcciones IP de host que se pueden utilizar en los enlaces punto a
punto, como se subneteo con una máscara de 30 bits, solo se puede tener 2 IP de hots por cada
subred; así por ejemplo para el enlace punto a punto Hermosillo – Edificio 1, tenemos que este
enlace pertenece a la subred 192.168.4.0/30 asignando la dirección IP de host de 192.168.4.1 a un
extremo y al otro 192.168.4.2 con una máscara de 30 bits.
Por último se subneteará la sub red asignada a los edificios, de acuerdo a nuestro análisis está red
quedará con una máscara de 26 bits. Por ejemplo para Hermosillo tenemos 4 edificios, cada una con
tres pisos y lo mostramos en la figura 2.11.
Edificio Edificio
E1 E2
192.168.0.0/26 .1 .65
.129 192.168.1.0/26 .1 .129
192.168.0.128/26 .65
192.168.1.128/26
192.168.1.64/26
192.168.0.64/26
Pisos Pisos
192.168.0.0/24 192.168.1.0/24
Edificio Edificio
E3 E4
.1 .129 .1 .129
192.168.2.0/26 .65 192.168.3.0/26 .65
192.168.2.128/26 192.168.3.128/26
192.168.2.64/26 192.168.3.64/26
Pisos Pisos
192.168.2.0/24 192.168.3.0/24
Figura 2.11 Subneteo para los edifcios del campus Hermosillo, Sonora.
La figura 2.11 también muestra las sub redes a 24 bits que le toco a cada edificio de acuerdo a la
tabla 2.2, esto se señala con círculos punteados y al pie de cada círculo la sub red que le corresponde.
Dentro de cada círculo, en cada enlace del enrutador a un switch está la sub red a 26 bits
(subneteada de la red de 24 bits) y la IP de la interfaz del enrutador, el switch no requiere una
dirección IP para realizar su función de capa 2 por lo que no se le ha señalado ninguna.
Obviamente faltaría el subneteo para el resto de los edificios de la región de Sonora así como realizar
todo este diseño para Jalisco y Nuevo León, pero esta parte se la dejaremos al lector como ejercicio.
Cabe aquí señalar que se usaron figuras por fines didácticos pero, por lo regular, también se
acostumbra a tener todo éste registro en tablas. Por otro lado aquí generalizamos en el diseño como
fue el caso de los edificios ya que hay diferente número en cada campus, pero si se quiere ahorrar
más direcciones IP, se puede poner la máscara justa para cada caso.
Ya teniendo todo el diseño el ingeniero de campo tendría que configurar los enrutadores con la IP
de hots en las interfaces correspondientes además de agregarlas rutas estáticas para que los
enrutadores conocieran las subredes del sistema y muy posiblemente una ruta por default para el
resto de las sub redes y redes fuera del sistema. Este último paso es muy laborioso para una red tan
grande por lo que se prefiere hacer uso de Ruteo Dinámico. De todas formas en el apéndice A damos
a conocer la configuración para la región de Sonora, echa en un simulador, los comandos tipo CISCO
que se usaron para realizar el ejercicio son:
Los protocolos de enrutamiento dinámico se clasifican (en una primera instancia) según sean de
aplicación a sistemas de Gateway interior o exterior, y los primeros se agrupan según consideren
como variable el vector distancia o el estado del enlace.
Este protocolo de vector de distancia muy extendido en todo el mundo por su simplicidad en
comparación con otros protocolos de enrutamiento. Está basado en el algoritmo de Bellman Ford y
busca su camino óptimo mediante el conteo de saltos considerando que cada enrutador atravesado
para llegar a su camino es un salto. RIP al estar su métrica basada en saltos no puede detectar otra
información que indique el estado del enlace como ancho de banda, retardos, etc. por lo que su
métrica es muy simple.
7
A B
5 4
3 C
D E
El algoritmo está basado en el hecho de que cada nodo vecino de i conoce la distancia más
corta al nodo j por lo que la distancia más corta entre el nodo i al j puede ser encontrada adicionando
la distancia entre el nodo i a la distancia más corta de cada vecino para llegar a j y así se seleccionará
la mínima.
- Las sub redes conectadas directamente a un enrutador (nodo), se les considerará su métrica
o costo como 0 pero se anunciará a los vecinos con un costo de 1.
- Cada enrutador actualizará su tabla de enrutamiento o refrescará por lo menos un
temporizador cada vez que reciba información desde sus vecinos.
- Después de que un enrutador a actualizado su tabla de enrutamiento, la enviará a los
enrutadores vecinos para que la actualicen si se requiere.
- Cada enrutador deberá mantener tres partes de cada ruta: la red destino, el costo y el
siguiente salto.
- Cada enrutador anunciará a sus vecinos la red de destino y el costo, la dirección IP del
siguiente salto se toma del paquete IP que encapsula al paquete de RIP.
Por ejemplo, suponga la red de datos mostrada en la figura 2.13, se muestran las tablas de
enrutamiento inicial para un Sistema Autónomo (SA), como se dijo cada enrutador crea sus tablas
de enrutamiento al momento que estos arrancan.
A B
Red 3
Red 6
Red 4 Red 5
C
Dest Costo Siguiet Dest Costo Siguiet Red 7 Dest Costo Siguiet
Red 4 1 ------ Red 5 1 ------ Red 7 1 ------
Red 6 1 ------
D Red 7 1 ------ E
El enrutador A manda 4 registros a sus vecinos (B, C y D). La figura 2.14 muestra los cambios
de la tabla de enrutamiento de B cuando este recibe los anuncios.
Red 5, 1 Red 4, 1 Red 2, 1 Red 1, 1
A B
Dest Costo Siguiet
Red 1 2 A
Red 2 1 ------
Red 3 1 ------
Red 4 2 A
Red 5 2 A
Red 6 1 ------
El enrutador “A” mando 4 anuncios, cuando llego el primero al enrutador “B”, éste buscó en su tabla
de enrutamiento la red 1 y como no la encontró, le sumo un 1 a la métrica y la inserto en su tabla
de enrutamiento con Siguiente Salto igual a “A”, cuando el enrutador “B” recibió el segundo
anuncio, lo encuentra pero con un costo menor porque al anuncio se le sumaría 1 para insertarlo en
la tabla por lo que se descarta; y así sucesivamente para los demás anuncios.
Un problema con los protocolos de enrutamiento del tipo Vector de Distancia es que se
requiere más tiempo para propagar una actualización indicando que un enlace ya está caído en
comparación con un enlace que ya es funcional. Esto se debe al problema del Conteo a Infinito.
Un ejemplo el Conteo a Infinito es el problema de un bucle entre dos hops. Para entender
el problema analicemos el escenario mostrado en la figura 2.15, la cual muestra un sistema con dos
enrutadores y sola una porción de sus tablas de enrutamiento para la explicación. Al inicio el
enrutador A y B saben cómo alcanzar la red 1, pero de repente el enlace del enrutador “A” que
conecta a la red 1 falla. El enrutador “A” cambia el estado de su tabla poniendo una métrica para
alcanzar la red 1 como infinito (∞), Si “A” manda su tabla de enrutamiento a “B” inmediatamente,
todo está bien pero si “B” manda la suya en ese momento porque periódicamente se envían las
tablas de enrutamiento, el enrutador “A” creerá que puede alcanzar la red 1 a través del enrutador
“B”. Vea el tercer evento de la figura 2.15 donde se ve que “A” actualiza su tabla de enrutamiento
para alcanzar la red 1 a través del enrutador “B” con una métrica de 3. Ahora el enrutador “A” envía
su actualización a “B” y en el cuarto evento de la figura 2.15, el enrutador “B” actualiza su tabla de
ruteo para alcanzar la red 1 a través de “A” con una métrica de 4 y el enrutador “B” vuelve a enviar
su tabla de enrutamiento con estos nuevos cambios; así este proceso continua hasta que ambos
enrutadores alcanzan un valor de infinito que les indica que las redes son inalcanzables.
Antes de la falla.
Red A B
Dest Costo Siguiet Dest Costo Siguiet
Red 1 1 ___ Red 1 2 A
Después de la falla.
A B
Dest Costo Siguiet Dest Costo Siguiet
Red 1 ∞ Red 1 2 A
Distancia.
La figura 2.18 muestra un mensaje RIP donde un enrutador anuncia 3 rutas, pero como este
mensaje sale por una interfaz del enrutador por donde aprendió la red 2, le pone su métrica a 16,
con esto se previene el conteo a infinito. Este es un ejemplo de usar Split Horizon con Poison
Reverse.
2. Versión. Reservado.
Famila = 2 Todos en 0.
1.1.1.0
Todos en 0.
Todos en 0.
Distancia = 2
Familia = 2 Todos en 0.
1.1.2.0
Todos en 0.
Todos en 0.
Distancia = 16
Familia = 2 Todos en 0.
1.1.3.0
Todos en 0.
Todos en 0.
Distancia = 2
Figura 2.18 Mensaje RIP que anuncia 3 sub redes
Como se ha podido apreciar el formato del mensaje RIP no anuncia la máscara, pero también
recordará que un enrutador al momento de insertar una ruta a su una tabla de enrutamiento debe
poner la red que quiere alcanzar con su máscara. Por lo que la pregunta es ¿De dónde toma la
máscara el enrutador para asociarla a una ruta dada. Para explicar esto nos apoyaremos de la figura
2.19. Vea como la red de datos cumple con lo siguiente:
172.16.2.1/24 172.16.2.2/24
172.16.1.0/ A B
Si no se cumplen las condiciones anteriores, el enrutador “B” insertará la ruta con máscara de 16
bits como se ve en la tabla de enrutamiento siguiente.
RIP v1 funciona muy bien en redes que cumplan las condiciones señaladas en el apartado anterior,
pero no todas las redes las pueden cumplir, así que para solucionar este problema y otros de
seguridad se creó la versión 2 de RIP. El formato del mensaje se muestra en la figura 2.20.
2.3.2.2 OSPF
El enrutamiento del tipo Estado de Enlace tiene una filosofía diferente de trabajar en
comparación con los protocolos de enrutamiento de Vector de Distancia. Usando Enlace de Estado,
los enrutadores de una red de datos conocen la topología completa de la red, es decir conocen los
enrutadores existentes dentro de la red y sus enlaces, cómo están conectados entre ellos incluyendo
el costo y el estado de sus enlaces (funcionales o se dieron de baja). Bajo estas condiciones el
enrutador puede usar el algoritmo de Dijkstra y construir la tabla de enrutamiento.
2.4.4 DHCP
2.4.5 TELNET
2.4.6 SNMP
2.4.7 DNS
2.4.8 SNTP