instituto politÉcnico nacionaltesis.ipn.mx/jspui/bitstream/123456789/17218/1/anÁlisis de... ·...
TRANSCRIPT
INSTITUTO POLITÉCNICO NACIONAL
ESCUELA SUPERIOR DE INGENIERÍA
MECÁNICA Y ELÉCTRICA
ANÁLISIS DE ENRUTAMIENTO EN LA ARQUITECTURA MPLS
TESIS
QUE PARA OBTENER EL TÍTULO DE INGENIERO
EN COMUNICACIONES Y ELECTRÓNICA
PRESENTAN
JULIO CÉSAR GONZÁLEZ ORTÍZ
MARCO ALONSO JIMÉNEZ JIMÉNEZ
KAREN ROMERO CRUZ
ASESORES TÉCNICOS:
PEDRO GUSTAVO MAGAÑA DEL RÍO
CÍRILO GABINO LEÓN VEGA
ASESOR METODOLÓGICO:
PEDRO MARTÍN MORALES BECERRA
MÉXICO, D.F FEBRERO DE 2016
2
ÍNDICE DE CONTENIDO. _______________________________________________________________
Objetivo…………………………………………………………………………......................4
Introducción………………………………………………………………………………….... 6
Capítulo 1: Capa de Red y Protocolos de enrutamiento………………………………….8
1.1 Algoritmos de enrutamiento………………………………………………………...12
1.1.1 Algoritmo de camino más corto……………………………………………...13
1.1.2 Inundación de red. ……………………………………………………………13
1.1.3 Enrutamiento de vector de distancia………………………………………..13
1.1.4 Enrutamiento de estado de enlace………………………………………….14
1.2 Protocolos de enrutamiento………………………………………………………...14
1.3 Protocolos de pasarela interior……………………………………………………..15
1.3.1 Protocolo de información de enrutamiento…………………………………15
1.3.2 Protocolo de enrutamiento de pasarela de internet……………………….15
1.3.3 Protocolo primero el camino abierto más corto……………………………16
1.3.4 Protocolo mejorado de enrutamiento de pasarela de internet…………...19
1.3.5 Protocolo de sistemas intermedios………………………………………….19
1.4 Protocolos de pasarela exterior…………………………………………………….21
1.4.1 Protocolo de pasarela exterior……………………………………………….21
1.4.2 Protocolo de pasarela de frontera…………………………………………..21
Capítulo 2: Antecedentes de MPLS………………………………………………………...24
2.1 Definición de MPLS………………………………………………………………….25
2.2 Uso de una infraestructura de red unificada……………………………………...26
2.3 Mejor integración IP en ATM……………………………………………………….26
2.4 ATM……………………………………………………………………………………27
2.5 Formato de datos de las celdas ATM……………………………………………..28
2.6 Clasificación de servicios…………………………………………………………...30
3
2.7 Señalización ATM……………………………………………………………………33
Capítulo 3: Arquitectura de la Conmutación de Etiquetas Multiprotocolo.……………..34
3.1 Etiquetas MPLS……………………………………………………………………...35
3.2 Apilado de etiquetas…………………………………………………………………36
3.3 Codificación de MPLS…………………………………………………………….…36
3.4 Enrutador conmutador de etiquetas……………………………………………….37
3.5 Camino conmutado de etiquetas…………………………………………………..38
3.6 Clases de equivalencia de reenvío (FECs)……………………………………….39
3.7 Distribución de etiquetas……………………………………………………………40
3.8 IP sobre ATM…………………………………………………………………………42
3.9 Conmutación de paquetes………………………………………………………….43
Capítulo 4: Descripción funcional de MPLS…………….……………………………...….46
4.1 Paquetes etiquetados reenviados………………………………………………….47
4.1.1 Reenvío de paquetes etiquetados……………………………………………….47
4.1.1.1 Operación de etiquetas…………………………………………………………47
4.1.1.2 Etiquetas desconocidas………………………………………………………...48
4.2 Protocolo de distribución de etiquetas…………………………………………….48
4.3 Control de la información en MPLS………………………………………………..49
4.4 Funcionamiento global MPLS……………………………………………………...50
Capítulo 5: Aplicaciones de MPLS………………………………………………………….53
5.1 Red Privada Virtual MPLS………………………………………………………….54
5.2 Clase de Servicio…………………………………………………………………….58
5.3 Ingeniería de tráfico………………………………………………………………….59
5.3.1 Ingeniería de tráfico con MPLS…………………………………………………...60
Conclusiones………………………………………………………………………………….63
Anexos…………………………………………………………………………………………65
Acrónimos……………………………………………………………………………………..71
Bibliografía - Referencias……………………………………………………………………77
4
OBJETIVO
5
OBJETIVO.
_______________________________________________________________
Analizar las características de la arquitectura MPLS que se involucran en el
enrutamiento de redes de alta velocidad.
6
INTRODUCCIÓN
7
INTRODUCCIÓN.
_______________________________________________________________
En las comunicaciones y tecnologías de la información se brindan soluciones para la
demanda de servicio de Internet. Algunas de ellas se centran en el desarrollo de
dispositivos electrónicos, así como software e interfaces que mejoren el rendimiento
de las redes informáticas.
Una red está compuesta por “routers” o “enrutadores”, que son los encargados de
desplazar paquetes de información de una fuente a un destino. Estos paquetes deben
realizar una serie de saltos a través de varios enrutadores que pueden pertenecer a
una misma red o una red diferente.
En la primera década del funcionamiento de la Internet y debido al uso puramente de
paquetes, a las redes que componen la Internet se les denominó “redes de paquetes o
datagramas”. Más adelante, se fue agregando tráfico de voz y video. Para cubrir está
necesidad se requirió la implementación de una “red de circuitos”. Concepto que se
basa en las redes conmutadas empleadas en la telefonía.
El uso de una red de circuitos permitió fijar una ruta por la cual se desplazan los
paquetes para tener un mayor control de estos, además de brindar servicios para la
corrección de errores.
En la actualidad existe un cambio constante de tecnologías para el intercambio de
información, así como distintos operadores y administradores de éstas. Lo que produjo
el desarrollo de protocolos de pasarela exterior para el manejo de interoperabilidad de
redes. Para poder abastecer el tráfico de redes de alta velocidad no es suficiente con
el manejo adecuado de los recursos a través del enrutamiento. También es necesario
un buen manejo de interoperabilidad. Para ello es necesario que las redes puedan
establecer una buena comunicación sin importar el tipo de tecnología o administración
de red. Esto debe trabajar en conjunto con un enrutamiento dinámico. El conjunto de
protocolos que hace posible este manejo se conoce como Conmutación de Etiquetas
Multiprotocolo (MPLS - Multiprotocol Label Switching). MPLS se caracteriza por el
manejo eficiente de los paquetes de información y en conjunto con los enrutadores
permite el intercambio de grandes cantidades de tráfico de datos, voz y video.
8
CAPÍTULO 1: CAPA
DE RED Y
PROTOCOLOS DE
ENRUTAMIENTO
9
CAPÍTULO 1: CAPA DE RED Y PROTOCOLOS DE ENRUTAMIENTO.
_______________________________________________________________
La mayor parte de las redes se organizan como una pila de capas o niveles. Estas
capas se comunican entre sí utilizando protocolos de red. El número de capas o
niveles puede variar dependiendo de cada red. El conjunto de capas y protocolos se
conoce como arquitectura de red.
En una red existen dos capas fundamentales en intercambio de información: una es la
capa de enlace y la otra es la capa de red. En la primera capa existe una
diferenciación en el flujo de bits que se le denomina tramas. En la capa de red se
mueven mensajes de una fuente a un destino. Estos mensajes reciben el nombre de
paquetes.
Para que los paquetes lleguen al destino, antes tienen que realizar una serie de saltos
a través de dispositivos que reciben el nombre de “routers” o “enrutadores”. Al
encaminar paquetes se producen problemas como sobrecarga en algunas líneas de
comunicación, así como la inactividad de enrutadores. Para resolver esta situación, en
la capa de red se deben contar con características funcionales que mejoren el
encaminamiento de paquetes.
Debido a que la capa de red es considerada como una capa superior y la capa de
enlace es considerada inferior. En el proceso de comunicación, la capa de enlace
debe de brindar servicios a la capa de red. Estos servicios se ven reflejados en un
encabezado (o header) que es colocado junto a un paquete. Este proceso es conocido
como encapsulamiento.
“Enrutamiento” es el proceso de mover uno o más paquetes desde una fuente a un
destino de red. El enrutamiento es fundamental dentro de de las redes de la Internet,
debido a que se realiza en varias ocasiones de una máquina o varias máquinas a uno
o varios puntos destino dentro de una red de datos. En este proceso existen dos tipos:
Enrutamiento estático. Utiliza registros fijos que son definidos por el administrador de
la red. Cuando la red es de gran tamaño, es difícil escalar y mantener los registros de
enrutamiento.
Enrutamiento dinámico. Es establecido por los diferentes protocolos de enrutamiento
de datos. Es muy común y el más usado.
El elemento fundamental que une todas las partes de la Internet es el protocolo de
Internet (IP - Internet Protocol), que es el elemento donde se encuentra definido el
formato de los paquetes o datagramas y el esquema de direccionamiento utilizado.
Actualmente, se utilizan dos versiones de IP y son: IP versión 4 (IPv4) e IP versión 6
(IPv6). Ambos consisten de un formato de 32 bits.
10
Un host de red es un dispositivo conectado a una red, el cuál proporciona información,
de fuentes, servicios y aplicaciones. Un host es un nodo que se le es asignado un
número de identificación. Éste número de identificación es una porción de una
dirección IP.
Una característica de IPv4 son sus direcciones de 32 bits. Cada host y enrutador en la
Internet tiene una dirección IP que puede ser usada en los campos de dirección de los
paquetes IP de la fuente y destino.
Cuando un paquete se envía de un host para transmitirse al enrutador más cercano,
sea a través de una Red de Área Local o un enlace punto a punto a un Proveedor de
servicio de Internet (ISP - Internet Service Provider). El paquete es almacenado en
dicho enrutador hasta que el proceso de transmisión esté completo y el enlace haya
finalizado un proceso de verificación. Después es enviado al siguiente enrutador hasta
alcanzar el host destino. Este mecanismo se conoce como conmutación de paquetes y
reenvío. (Ver Figura 1.1).
Figura 1.1 Proceso de conmutación de paquetes y reenvío: el host 1 envía un paquete
al enrutador más cercano y posteriormente a otro enrutador, así sucesivamente hasta
llegar al destino (host 2).
En una red se envían varios paquetes, por lo cual, en la conmutación y reenvío de
paquetes se debe tener un control y orden sobre los paquetes. Para ello, existen
11
arreglos encargados de listar las rutas para destinos de red particulares. Estos
arreglos se conocen como tablas de enrutamiento.
Las redes pueden proveer dos tipos de servicio: orientado a la conexión, como es el
caso de las redes de circuitos y no orientado a la conexión, como en las redes de
paquetes. El tipo de servicio empleado depende del tipo de información. En el envío
de datos no es indispensable la calidad de servicio, por lo tanto, la mejor opción es el
uso de servicio no orientado a la conexión. En el caso de voz y video, la calidad de
servicio es fundamental, por ello, la opción más recomendable es el servicio orientado
a la conexión.
Para el servicio orientado a la conexión, es necesario establecer una ruta del host
fuente al host destino. Así, los paquetes tendrán que seguir un mismo camino. Caso
contrario al servicio no orientado a la conexión, donde cada paquete elige la ruta más
conveniente.
La Internet es un conjunto de redes o subredes, dónde dependiendo el tamaño de la
red o el tipo de operación, requiere manejar sus propias políticas de enrutamiento. Sin
embargo para que pueda existir un intercambio de tráfico, es importante el manejo de
determinados protocolos para el manejo de las políticas entre redes.
Un concepto importante es el Sistema Autónomo (AS - Autonomous System) que es
una porción lógica de una gran red y comprende una construcción de líneas de amplio
ancho de banda y un conjunto de enrutadores de alta velocidad con una política de
enrutamiento, que están bajo una administración técnica. La red de internet está
compuesta de subredes o Sistemas Autónomos. No es una estructura real como tal,
debido a que existen redes troncales a través de las cuales se interconectan estos
sistemas. Los Sistemas Autónomos son identificados por los Números de Sistema
Autónomo (ASN - Autonomous System Numbers), que es un número único de 16 o 32
bits asignado por el Registro Norteamericano para Números de Internet (ARIN -
American Registry for Internet Numbers). Conectados a las redes troncales se
encuentran ISPs que se encargan de proveer acceso a Internet, a casas, negocios,
centros de datos y facilidades de colocación llenas de servidores, así como redes
regionales de nivel medio. A estas redes regionales, se encuentran conectados más
ISPs, redes de área local en distintas universidades, compañías y otras redes
privadas. A continuación un breve bosquejo de esta organización (Ver figura 1.2).
12
Figura 1.2 La internet está compuesta de distintas redes.
1.1. ALGORITMOS DE ENRUTAMIENTO.
Los algoritmos de enrutamiento forman parte del software de la capa de red. Tienen la
responsabilidad de decidir sobre cual línea de salida, los paquetes entrantes deben
ser transmitidos. Si la red usa datagramas internamente, la decisión debe hacerse
nuevamente para cada paquete de datos entrante. La ruta más adecuada puede
cambiar desde la última vez, por esto se requieren nuevas decisiones. Por otro lado, si
la red utiliza circuitos virtuales internamente, las decisiones de enrutamiento deben
hacerse cada vez que un nuevo circuito virtual sea establecido.
Dentro de los enrutadores se realizan dos procesos: el primero es el reenvío de
paquetes, que es la acción de manejar cada uno de los paquetes conforme van
llegando y busca la línea de salida disponible para ser usada de las tablas de
enrutamiento y el segundo es responsable de llenar y actualizar las tablas de
enrutamiento. De este último proceso, se encargan los algoritmos de enrutamiento.
13
1.1.1 ALGORITMO DE CAMINO MÁS CORTO.
El algoritmo de camino más corto es una técnica para calcular los caminos más
óptimos en una red o conjunto de redes. Para ello proporcionan una representación de
la red o conjunto de redes.
El propósito de obtener una representación de red o conjunto de redes es para elegir
una ruta entre un par de enrutadores determinados. La ruta debe ser la más corta
entre un conjunto de rutas analizadas. Para hacer esto posible se requiere una
representación de red con cada nodo representando a un enrutador y cada límite de
dicha representación, simbolizando una línea o enlace.
1.1.2 INUNDACIÓN DE RED.
Después de la implementación de un algoritmo, cada enrutador debe tomar decisiones
respecto al conocimiento local, no necesariamente sobre la representación completa
de la red. Para ello, se requiere una técnica local denominada Inundación de red. Esta
técnica consiste en que cada paquete entrante es enviado en cada línea de salida
excepto el paquete recién llegado.
La inundación de red genera un vasto número de paquetes duplicados. Incluso, se
podría generar un número infinito de paquetes duplicados, a no ser que se tomen
medidas para abortar el proceso, si es el caso. Una medida es tener un contador de
saltos. Este contador tendría que estar contenido en el encabezado de cada paquete,
por lo tanto, tendría que ir disminuyendo en cada salto hasta que el paquete sea
descartado cuando el contador llegue a cero.
Una técnica más óptima para evitar el duplicado de paquetes. Es tener un conjunto de
enrutadores que mantengan registro de los paquetes que han sido inundados, para
evitar que sean enviados por segunda vez.
1.1.3 ENRUTAMIENTO DE VECTOR DE DISTANCIA.
Usualmente las redes utilizan algoritmos de enrutamiento dinámicos que son más
complejos que el algoritmo de inundación de red. Estos algoritmos son más eficientes
debido a que localizan el camino más corto en la topología en que son implementados.
El algoritmo de vector de distancia de enrutamiento opera haciendo que cada
enrutador mantenga una tabla que proporcione la mejor distancia conocida para cada
destino, que el enlace va a usar para llegar ahí. Las tablas son actualizadas debido al
intercambio de información entre enrutadores vecinos. Eventualmente, cada enrutador
conocerá el enlace más óptimo para alcanzar el destino.
En el enrutamiento de vector de distancia, cada tabla de enrutamiento que es
mantenida es ordenada y debe contener espacio disponible de entrada para cada
14
enrutador de la red. Esta entrada está compuesta de dos partes: la línea de salida
preferida para ser usada para cada llegar al destino que se desea y un estimado de la
distancia para llegar a tal destino. La distancia puede ser medida como un número de
saltos o utilizar una métrica similar al algoritmo de camino más corto.
Se asume que los enrutadores conocen la distancia de cada enrutador vecino. Si se
determina que la métrica son saltos, la distancia es un solo salto. Si se decide que la
métrica es la propagación de retraso, el enrutador debe medir la distancia
directamente con paquetes especiales que el receptor detenga momentáneamente y
que posteriormente reenvíe lo más pronto posible.
1.1.4 ENRUTAMIENTO DE ESTADO DE ENLACE.
El enrutamiento de vector de distancia solía ser muy utilizado, posteriormente fue
remplazado por el enrutamiento de estado de enlace. El principal problema del
enrutamiento utilizando los algoritmos de vector de distancia, fue el largo tiempo para
converger después que la topología cambiara.
El concepto del enrutamiento de estado de enlace está divido en cinco partes:
1 El descubrimiento de cada vecino y el conocimiento de sus respectivas direcciones.
2 El establecimiento de la métrica de distancia o costo de cada uno de sus enrutadores vecinos.
3 La construcción de un paquete con información sobre las direcciones y la métrica. 4 El envío del paquete construido y la recepción de paquetes de información de
otros enrutadores. 5 El registro del camino más corto para cada enrutador.
1.2. PROTOCOLOS DE ENRUTAMIENTO.
Los protocolos de enrutamiento se encargan de mantener las tablas de enrutamiento
de manera exacta a pesar de que la red sobre la cual estén operando cambie
constantemente debido a equipo o fallas al agregar nuevos segmentos de red.
La operación de un protocolo de enrutamiento tiene dos partes: la primera parte se
encarga de enviar avisos o actualizaciones de enrutamiento desde un enrutador con
respecto a números de red conocidos; la segunda parte recibe y procesa estas
actualizaciones o avisos de manera que las tablas de enrutamiento mantengan un
tráfico eficiente.
Existen dos tipos de protocolos de enrutamiento: el protocolo de enrutamiento de
pasarela interior y el protocolo de enrutamiento de pasarela exterior.
15
1.3. PROTOCOLOS DE PASARELA INTERIOR.
La Internet está compuesta por un largo número de redes independientes o Sistemas
Autónomos que son operadas por distintas organizaciones, puede ser una compañía,
una escuela o un proveedor de servicio de internet. Una organización puede utilizar
su propio algoritmo de enrutamiento para el enrutamiento interno de su propia red. No
obstante, existen protocolos estándar para realizar esa tarea.
1.3.1 PROTOCOLO DE INFORMACIÓN DE ENRUTAMIENTO (RIP).
El primer Protocolo de Pasarela Interior fue el Protocolo de Información de
Enrutamiento (RIP - Routing Information Protocol). Este protocolo fue diseñado para
un ambiente compuesto de sólo unos cuantos aparatos que están conectados a
enlaces de características similares.
El Protocolo de Información de Enrutamiento pertenece a la clase de algoritmos
conocidos como Vector de Distancia. El propósito de RIP es para el uso de la Internet
basado en IP. La Internet está organizada dentro de un número de redes conectadas a
través de Puertas de enlace. Los hosts y puertas de enlace son presentados con
datagramas IP y direccionados a algún host. RIP es destinado para permitir que hosts
y puertas de enlace intercambien información para rutas a través de redes basadas en
IP. Los paquetes realizan saltos por distintos enrutadores hasta llegar a su destino,
para ello, RIP usa el conteo de saltos de enrutadores como métrica. Existen dos
versiones: RIP versión 1 o RIPv1 y RIP versión 2 o RIPv1.
1.3.2. PROTOCOLO DE ENRUTAMIENTO DE PASARELA DE INTERNET (IGRP).
El Protocolo de Enrutamiento de Pasarela de Internet (IGRP - Internet Gateway
Routing Protocol) es un protocolo del tipo de vector de distancia. Fue desarrollado por
los sistemas Cisco para redes complejas de gran tamaño basadas en los protocolos
IP.
El propósito del desarrollo de IGRP fue para resolver problemas que limitan a RIP. La
métrica de IGRP se basa en parámetros de tiempo real de la red como: retardo, ancho
de banda, Máxima Unidad de Transmisión (MTU - Maximum Transmission Unit),
confiabilidad y carga de los recursos de la red. La métrica puede ser configurada de
acuerdo a las necesidades y requerimientos por el administrador de la red.
Una característica de este protocolo es la capacidad para permitir el enrutamiento de
una o varias subredes a través de múltiples enlaces, lo que permite converger el
tráfico en casa de fallas con algunos enlaces.
16
IGRP incluye tres tipos de paquetes de actualizaciones que permiten ampliar la
estabilidad de este protocolo: mantenimiento (Hold-down), horizonte dividido (Split-
horizon) e inversa envenenada (Poison-reverse).
Los mensajes de mantenimiento previenen reinserciones inapropiadas de rutas no
óptimas durante cierto periodo de tiempo. Las actualizaciones de horizonte dividido
trabajan bajo la regla de no enviar información innecesaria de determinadas subredes
al enrutador origen. Los mensajes de tipo de inversa envenenada tienen por finalidad
evitar grandes lazos de enrutamiento. El propósito de los mensajes es para eliminar la
ruta afectada.
1.3.3. PROTOCOLO EL CAMINO MÁS CORTO PRIMERO (OSPF).
La Fuerza Especial de Ingeniería en Internet (IETF - Internet Engineering Task
Force) empezó a trabajar en un nuevo protocolo estándar para sustituir al RIP. El
resultado fue el Protocolo de Pasarela Interior Primero el Camino Abierto más
Corto (OSPF – Open Shortest Path First). Este protocolo es una tecnología pública
sin propietario.
Este es un protocolo de enrutamiento con estructura "jerárquica", basado en una
primera versión del Protocolo de Enrutamiento de Sistemas Intermedios (IS-IS –
Intermediate System to Intermediate System). Y que trabaja basándose en el
algoritmo del camino más corto, así como en algoritmos de estado de enlace. OSPF
es un protocolo importante porque posee un número de ventajas que no se
encuentran en ningún otro protocolo de pasarela interior. Lo que lo hace la opción
preferida en las nuevas redes IP, especialmente en grandes redes.
Sus actualizaciones incluyen información referente a interfaces conectadas y métricas
usadas, entre otras variables. Estas actualizaciones son enviadas a los enrutadores
dentro del "área común de enrutamiento" cuando existe algún cambio en el estado
de los enlaces. La métrica se calcula basándose en el estado de los enlaces, y la
misma permite al enrutador determinar cuál es el camino más corto hacia uno o varios
nodos.
Este protocolo tiene como características adicionales el enrutamiento basado en
múltiples caminos con igualdad de costos, y el enrutamiento basado en
requerimientos de Tipos de Servicios (TOS - Type of Service) de las capas de alto
nivel; este tipo de enrutamiento soporta aquellos protocolos que puedan especificar
ciertos tipos de servicios. Por ejemplo, una aplicación puede requerir que ciertos
datos sean enviados urgentemente, y esto es posible si el OSPF tiene disponibilidad
de enlaces de alta prioridad.
El OSPF calcula su métrica basándose en la inversa del ancho de banda disponible
en las interfaces de los enrutadores. Además, soporta una o más métricas. Si una
métrica es usada, no se considera el TOS. Si más de una métrica es usada, el TOS
17
es usado a través del uso de una métrica aparte (y por consiguiente, utilizándose
una tabla de enrutamiento separada) para cada una de las ocho combinaciones
creadas por los tres bits IP del TOS (a saber: el retardo, la eficiencia y la
disponibilidad).
En la Figura 1.3 se muestra un ejemplo de lo que puede ser una red basada en
OSPF. En la misma se observan que las redes basadas en OSPF están
organizadas en áreas. Las áreas pueden ser definidas basándose en la ubicación o
a una región, o pueden estar basadas en límites administrativos. Todas las redes
OSPF están formadas al menos por un área, una red dorsal y tantas áreas
adicionales como sean necesarias.
Dentro de un área OSPF todos los enrutadores mantienen la topología de base de
datos, intercambiando información de estado de enlace para mantener su
sincronización. Esto asegura que los enrutadores pueden calcular el mismo mapa de
red para una misma área.
Figura 1.3 Ejemplo de Red Dorsal OSPF (Primero el Camino Abierto más Corto)
Además de las áreas, una red OSPF está compuesta por otras entidades, las
cuales se listan a continuación.
La red dorsal OSPF. Esta área debe formar parte de cualquier red OSPF, a la misma
se le asigna como identificador de área. La red dorsal tiene todas las propiedades
del área, pero además tiene la responsabilidad de distribuir la información de
enrutamiento a las áreas que están conectadas al mismo.
18
Enrutadores de Intra-Área (IA), límite de área (AB) y de frontera (ASB). A continuación
se detalla su funcionamiento.
Enrutadores de Intra-Área (IAR - Intra-Area Routers). Estos enrutadores se
encuentran situados dentro del área OSPF. Todos estos enrutadores entregan avisos
de enlaces de enrutadores en esta área para definir los enlaces a los cuales se
encuentran conectados.
Enrutadores de límite de Área (ABR - Area Border Routers). A los enrutadores que
se encuentren conectados a más de dos áreas se les denomina Enrutadores de
límite de área. Se encargan de mantener la topología de base de datos para cada
una de las áreas a las que están “conectados”.
Enrutadores de Frontera (BR - Boundary Routers). Estos son los enrutadores que
se encuentran ubicados en la periferia de una red OSPF e intercambian información
con los enrutadores en otros Sistemas Autónomos usando protocolos de pasarela
exterior.
Los mensajes de OSPF se transmiten directamente en datagramas IP. Todos los
mensajes OSPF comparten una cabecera común, la cual se muestra en la Fig. 1.5.
Cabecera común de OSPF. Esta cabecera contiene información general, como por
ejemplo: el identificador de área (ID del área) y el identificador de enrutador origen
(ID del enrutador o router), entre otros. Un campo define cada paquete OSPF como
una de los siguientes cinco tipos posibles:
Saludo (Hello). Se usa para identificar a los vecinos, elegir un enrutador designado
para una red de multienvío, para encontrar a un enrutador designado existente y
para enviar señales de “estoy vivo”.
Descripción de la base de datos (Database description). Durante el inicio, se usa
para intercambiar información de manera que un enrutador pueda descubrir los datos
que le faltan en la base de datos.
Petición del estado de enlace (Link state request). Se usa para pedir datos que un
enrutador se ha dado cuenta que le faltan en su base de datos o que están obsoletos.
Actualización del estado de enlace (Link state update). Se usa como respuesta a los
mensajes de Petición del estado de enlace y también para informar dinámicamente de
los cambios en la topología de la red.
Reconocimiento de estado de enlace (Link state acknowledgement). Se usa para
confirmar la recepción de una Actualización del estado de enlace. El emisor
retransmitirá hasta que se confirme.
El identificador del enrutador, identificador de área y la información de
autenticación son configurables en cada enrutador OSPF.
19
1.3.4. PROTOCOLO MEJORADO DE ENRUTAMIENTO DE PASARELA DE
INTERNET
El Protocolo Mejorado de Enrutamiento de Pasarela de Internet (EIGRP- Enhanced
Internet Gateway Routing Protocol) desarrollado por S i s t e m a s Cisco, combina la
facilidad del uso de los protocolos tradicionales con las ventajas del rápido re-
enrutamiento de los protocolos con algoritmos de estado de enlace, suministrando así
capacidades avanzadas en la convergencia rápida y las actualizaciones parciales.
Se usan mensajes simples periódicos de saludo para descubrir a los vecinos y para
comprobar que aún están activos. Otra mejora importante de este protocolo es el uso
del Algoritmo de Actualización por Difusión (DUAL – Diffusing Update Algorithm). La
idea básica de DUAL es simple. Se basa en la siguiente observación: Si una ruta
consistente te lleva más directo a un destino, la ruta no puede ser un bucle.
Cuando ocurre un cambio en la topología de la red el algoritmo de difusión, realiza la
convergencia en menos de 5 segundos en la mayoría de los casos; esto equivale a la
convergencia ejecutada por protocolos de enlace de estado tales como OSPF y por
IS- IS. Adicionalmente, EIGRP sólo envía actualizaciones de re-enrutamiento cuando
ocurren cambios a los enrutadores directamente afectados.
Por otra parte, EIGRP soporta enmascaramiento de rede de longitud variable (VLSM
- Variable-Length Subnet Mask). El protocolo EIGRP soporta actualizaciones
increméntales en el Protocolo de Servicio de Aviso (SAP - Service Advertisement
Protocol), elimina la limitación de RIP en el número máximo de saltos, y provee uso de
caminos óptimos. Un enrutador ejecutando EIGRP realiza actualizaciones parciales y
limitadas de enrutamiento y provee balanceo de cargas y uso de caminos óptimos.
1.3.5. PROTOCOLO DE SISTEMAS INTERMEDIOS.
El Protocolo de Enrutamiento de entre Sistemas Intermedios (IS-IS – Intermediate
System to Intermediate System), inicialmente, fue definido para los enrutadores pero
se ha extendido a redes IP. Al igual que OSPF, IS-IS es un protocolo de estado de
enlace que dispone de enrutamiento jerárquico, enrutamiento por tipo de servicio,
división del tráfico por varias rutas y autenticación.
IS-IS tiene dos tipos de Rutas: enrutamiento de nivel 1 dentro de un área y
enrutamiento de nivel 2 para destinos fuera del área.
El IS-IS hace uso de dos niveles de jerarquía en el enrutamiento. Un dominio de
enrutamiento es dividido en áreas. Esto es, los enrutadores del nivel 1 conocen la
topología de su área, incluyendo los demás enrutadores y sistemas en su área. Sin
embargo, los enrutadores de nivel 1 desconocen la identidad o los destinos de los
enrutadores fuera de su área. Estos enrutadores de nivel 1 envían todo el tráfico con
destinos fuera de su área a enrutadores de nivel 2 en su área. De manera similar, los
enrutadores de nivel 2 conocen la topología de nivel 2, y saben cuáles direcciones
20
están accesibles a través de un enrutador de nivel 2. Sin embargo, los enrutadores de
nivel 2 no necesitan conocer la topología dentro de cualquier área de nivel 1, excepto
aquellas en las que un enrutador de nivel 2 sea un enrutador de nivel 1 dentro de una
sola área. Sólo los enrutadores de nivel 2 pueden intercambiar paquetes de datos o
información de enrutamiento directamente con enrutadores externos localizados fuera
del dominio de enrutamiento. En pocas palabras, los enrutadores de nivel 1 se
podrían ver de forma análoga a los enrutadores de la red dorsal en OSPF. Un
enrutador de un Sistema intermedio de nivel 1 reenvía el tráfico a destinos fuera del
área a su enrutador de nivel más cercano.
Las direcciones están subdivididas en: parte del domino inicial (IDP-Initial Domain
Part), y la parte del dominio específico (DSP-Domain Specific Part). El IDP está
estandarizado por la Organización Internacional para la Estandarización (ISO –
International Organization for Standarization), y específica el formato y la autoridad
responsable para asignar el resto de las direcciones. El DSP es asignado por cualquier
autoridad de direccionamiento especificada por el IDP. El DSP está subdividido en:
a l t o o rden (HO-DSP - High Order of DSP), un identificador de sistema (ID), y un
selector de (SEL). El IDP junto al HO-DSP (también denominada dirección de área)
identifican el dominio de enrutamiento y el área dentro del dominio de enrutamiento.
(Ver figura 1.4).
Una ventaja del uso de IS-IS integrado tiene que ver con el esfuerzo en la gestión de
redes. Ya que el IS-IS integrado provee un protocolo de enrutamiento simple, dentro
de un dominio de enrutamiento coordinado que utiliza una sola red dorsal, existe
menos información que configurar.
Otra ventaja del IS-IS integrado es que utiliza menos recursos. Esto es, menos
recursos de implantación (ya que sólo se utiliza un protocolo), menos recursos de
CPU y memoria son usados por el enrutador, y menos recursos de red.
Figura 1.4 Estructura de dirección jerárquica ISO
21
1.4. PROTOCOLOS DE PASARELA EXTERIOR.
Los protocolos de pasarela exterior son usados para intercambiar información de
enrutamiento entre redes que no comparten una administración común. Estos
protocolos requieren la siguiente información antes de iniciar las tareas de
enrutamiento: una lista de enrutadores vecinos con los cuales se intercambia
información de enrutamiento, una lista de redes de acceso directo, un número de
sistemas autónomos del enrutador local.
1.4.1. PROTOCOLO DE PASARELA EXTERIOR.
El Protocolo de Pasarela Exterior (EGP - Exterior Gateway Protocol) es el primer
protocolo de enrutamiento al nivel de interdominios usado entre los enrutadores de
la red dorsal principal de la Internet.
A pesar de ser un protocolo de enrutamiento dinámico, no usa métricas ni realiza
decisiones inteligentes de enrutamiento, sino que sus actualizaciones contienen la
disponibilidad de redes, asumiendo que las mismas son alcanzables a través de
determinados enrutadores. Éstas se efectúan entre determinados enrutadores vecinos
por intervalos regulares de tiempo, indicando cada enrutador las subredes
directamente conectadas al mismo.
A pesar de que EGP tuvo buen desempeño por algunos años, ya había comenzado a
mostrar ciertas fallas. EGP no tenía manera de tratar con los lazos de enrutamiento
que ocurrían en redes con múltiples caminos, también las actualizaciones
frecuentemente eran muy largas. Además, el EGP no podía realizar decisiones
de enrutamiento inteligente porque no soportaba métricas de enlaces, esto se logra
con el protocolo de pasarela de frontera.
1.4.2. PROTOCOLO DE PASARELA DE FRONTERA.
El Protocolo de Pasarela de Frontera (BGP - Border Gateway Protocol) es un
protocolo de enrutamiento externo (o entre sistemas autónomos) diseñado para
corregir las fallas presentadas por el EGP, ya que detecta los lazos de enrutamiento
y usa una métrica con el fin de realizar decisiones de enrutamiento inteligente.
Este protocolo puede ser utilizado dentro de los sistemas autónomos, y sus
actualizaciones consisten en direcciones IP de las subredes y en caminos hacia
distintos sistemas autónomos. Estos caminos contienen información de sistemas
autónomos a través de los cuales ciertas subredes pueden ser alcanzadas. Estas
actualizaciones son enviadas usando los mecanismos de transporte.
Los datos inicialmente intercambiados entre dos enrutadores que manejen BGP se
representan en una tabla completa de rutas. Las actualizaciones posteriores son
22
enviadas cuando cambian las tablas de enrutamiento. A diferencia de otros
protocolos de enrutamiento de datos, éste no requiere renovaciones periódicas y
completas de las tablas de enrutamiento. En su lugar, estos enrutadores retienen la
última versión de las tablas de enrutamiento de los enrutadores vecinos con los
cuales se estén ejecutando sesiones BGP. Aunque el BGP mantiene una tabla de
enrutamiento con todos los posibles caminos hacia una subred en particular solamente
anuncia el camino óptimo.
BGP usa una métrica simple para determinar el mejor camino hacia una o varias
redes en particular. Esta métrica consiste en un número arbitrario que especifica el
grado de preferencia de un enlace en particular. Comúnmente esta métrica es
asignada sobre cada enlace por el administrador de la red, y este valor puede ser
basado en ciertos parámetros, incluyendo el número de sistemas autónomos a
través de los cuales se enrutan los datos (los caminos con el menor número de
sistemas autónomos son generalmente los mejores), la estabilidad, velocidad, el
retardo o el costo.
El protocolo BGP está compuesto por cuatro pasos principales: apertura y
confirmación de una conexión BGP con un enrutador vecino, mantenimiento de la
conexión BGP, envío de información de rutas óptimas y notificación de condición de
error.
Apertura y confirmación de una conexión BGP con un enrutador vecino. La
comunicación BGP entre dos enrutadores se inicia con el establecimiento de la
conexión del protocolo de control de transmisión (TCP – Transmission Control
Protocol). Una vez que esta conexión se establece, cada enrutador puede enviar un
mensaje abierto a su vecino.
El mensaje abierto de BGP consiste de una cabecera estándar más contenidos
específicos de tipo paquete. La cabecera estándar consta de un campo de 16 octetos,
los cuales se ponen en todos uno cuando la el código de autenticación es 0, la
longitud del mensaje de BGP (el formato de la cabecera de BGP se muestra en la
figura 1.7), y el campo de tipo que especifica si el mensaje puede ser de uno de los
siguientes tipos: OPEN. UPDATE. NOTIFICATION y KEEPALIVE.
El mensaje abierto define el número de AS del enrutador originador, su identificador
de enrutador BGP y el tiempo de mantenimiento para la conexión. Si no se reciben
mensajes keepalive, update o notification, el enrutador originador asume que existe
un error y envía un mensaje de notificación y corta la conexión. El formato del
mensaje abierto se muestra a continuación.
Mantenimiento de la conexión BGP. Los mensajes BGP deben ser intercambiados
periódicamente entre vecinos. Si no se reciben mensajes durante un período de
tiempo, el cual puede ser configurado entre 30 y 90 segundos, se asume que hubo
un error de conexión. BGP usa mensajes KEEPALIVE para mantener la conexión
23
entre vecinos. Estos mensajes KEEPALIVE consisten de un mensaje BGP solamente,
no posee datos.
Figura 1.5 Cabecera del mensaje BGP.
24
CAPÍTULO 2:
ANTECEDENTES
DE MPLS.
25
CAPITULO 2: ANTECEDENTES DE MPLS.
____________________________________________________________
Para lograr que la capa de red haga que los paquetes de información lleguen de una
fuente a un destino. Ésta debe conocer la topología de la red para el elegir el camino
apropiado. Debido a que esta acción tiene que realizarse de manera óptima, se deben
elegir rutas que eviten la sobre carga de algunas líneas de comunicación mientras
algunos routers permanezcan inactivos.
La red puede proveer a los usuarios dos clases de servicio. Para ello existen dos tipos
de organizaciones posibles dependiendo el tipo de servicio ofrecido. El primer tipo de
organización provee servicio no orientado a la conexión, los paquetes son inyectados
dentro de la red de manera individual y enrutados de manera independiente. Este tipo
de red es llamada Red de datagramas. El segundo tipo de organización provee
servicio orientado a la conexión, en este caso, se establece una trayectoria desde el
enrutador fuente hasta el enrutador destino. Esta conexión es conocida como Circuito
Virtual (VC – Virtual Circuit). A la arquitectura de red que provee este tipo de servicio
se conoce como Red de circuitos virtuales. En algunos contextos, este proceso se
llamado conmutación de etiquetas. Un ejemplo de servicio de red orientado a la
conexión es Conmutación de Etiquetas Multiprotocolo o MPLS (MPLS – Multiprotocol
Label Swtiching), el cuál es utilizado en la redes de los Proveedores de Servicio de
Internet o ISP (ISP – Internet Service Provider), con paquetes IP envueltos en una
encabezado MPLS teniendo un identificador de conexión de 20 bits, también llamado
etiqueta. MPLS es usualmente oculto de los clientes, con el ISP estableciendo
conexiones a largo plazo para grandes cantidades de tráfico. Es muy usado cuando se
requiere Calidad de Servicio (QoS – Quality of Service) y también para tareas de
manejo de tráfico proveniente de otro ISP.
2.1 DEFINICIÓN DE MPLS.
Las etiquetas MPLS son anunciadas entre los enrutadores para que éstos puedan
construir un mapeo de etiqueta a etiqueta. Estas etiquetas están adjuntas a los
paquetes IP. Lo que permite reenviar el tráfico de red basándose en la información
proporcionada en las etiquetas y no en la dirección IP. De esta forma, se habla de
conmutación de etiquetas y no conmutación IP.
La técnica de conmutación de etiquetas no es algo reciente. Frame Relay y el Modo
de Transferencia Asíncrono o ATM (ATM – Asynchronous Transfer Mode) usan esta
técnica para mover tramas o celdas a través de la red. En el caso de Frame Relay, las
tramas pueden ser de cualquier longitud, mientras que en ATM, una celda de longitud
fija consiste de un encabezado de 5 bytes y una carga útil de 48 bytes. El encabezado
de celda ATM y la trama Frame Relay se refiere al circuito virtual en el que la celda o
26
trama reside. La similitud entre ATM y Frame Relay es que en cada salto o
intercambio de router a través de la red, el valor de la etiqueta en el encabezado
cambia. Esto difiere del reenvío de paquetes IP. Cuando un router reenvía un paquete
IP, no cambia el valor que pertenece al destino del paquete, es decir, no cambia la
dirección IP del paquete. El hecho qye las etiquetas MPLS son usadas para reenviar
los paquetes y no la dirección IP destino es algo que ha acrecentado el uso del
conjunto de protocolos MPLS.
2.2 USO DE UNA INFRAESTRUCTURA DE RED UNIFICADA.
La idea de MPLS es etiquetar paquetes entrantes basados en su dirección destino u
otro criterio de configuración y conmutar todo el tráfico en una infraestructura común.
Una de las razones que hizo a IP el protocolo dominante en el mundo de las redes es
su habilidad de transportar diversas tecnologías. No sólo datos, también telefonía.
Al usar MPLS con IP, se pueden extender las posibilidades de lo que se puede
transportar. Agregar etiquetas en los paquetes permite llevar otros protocolos a parte
de IP en una dorsal capa 3 IP habilitada MPLS.
MPLS puede transportar IPv4, IPv6, Ethernet, control de enlace de datos de alto nivel
y otras tecnologías de la capa de enlace.
La característica por la cual cualquier trama de capa 2 es llevada a través de una
dorsal MPLS es conocida como AToM (AToM – Any Transport over MPLS). Los
routers que conmutan el tráfico AToM no necesitan estar consientes de la carga útil
MPLS, sólo necesitan tener permitido la conmutación de tráfico etiquetado al
inspeccionar la etiqueta en la parte superior del paquete. En esencia, la conmutación
de etiquetas MPLS es un método para conmutar múltiples protocolos en una red.
AToM permite al ISP proveer el mismo servicio de capa 2 hacia el cliente como
cualquier específica red sin MPLS. Al mismo tiempo, el proveedor de servicio necesita
una infraestructura de red unificada para llevar todos los tipos de tráfico del cliente.
2.3 MEJOR INTEGRACIÓN IP EN ATM.
Hace dos décadas, el protocolo IP prevaleció sobre todos los protocolos de red. Es
relativamente simple y omnipresente. Un protocolo de capa de enlace muy publicitado
en ese momento fue ATM.
ATM tuvo éxito a pesar de que su uso fue limitado como un protocolo de redes de área
amplia en el centro de redes de proveedores de servicio. Varios de estos proveedores
de servicio desplegaron redes troncales IP. El proceso de integración de IP sobre ATM
fue largo. Para completarse, la comunidad de redes tuvo que brindar un par de
soluciones.
27
Una solución fue la implementación IP sobre ATM de acuerdo con la “Encapsulación
Multiprotocolo sobre la Capa 5 de Adaptación ATM (AAL – ATM Adaptation Layer)”,
que específica como encapsular múltiples protocolos enrutados y puenteados sobre
AAL5. Para hacer esto posible, todos los circuitos ATM tuvieron que ser establecidos
manualmente, y todos los mapeos entre saltos siguientes IP y puntos finales ATM
tuvieron que ser manualmente configurados en cada router con ATM adjunto en la red.
Una mejor solución para la integración de IP sobre ATM fue una de las razones para la
invención de MPLS. Los prerrequisitos para MPLS en conmutadores ATM fueron que
los conmutadores ATM tuvieron que volverse más inteligentes. Los conmutatores ATM
tuvieron que ejecutar un protocolo de enrutamiento IP e implementar un protocolo de
distribución de etiquetas.
2.4 ATM.
El Modo de Transferencia Asíncrono o ATM es una tecnología de conmutación de
paquetes para alta velocidad con una serie de características muy particulares: Los
paquetes son de tamaño pequeño y constante (53 bytes); es una tecnología de
naturaleza conmutada y orientada a conexión; los nodos que componen la red no
tienen mecanismos para el control de errores de flujo; el encabezado de las celdas
tiene una funcionalidad limitada.
En ATM el flujo de información está organizado en celdas constituidas por un campo
de información y un encabezado que se transmiten en un circuito virtual y el
enrutamiento se realiza basándose en un Identificador de Circuito Virtual (VCI –
Virtual Circuit Identifier) y a un Identificador de Camino Virtual (VPI – Virtual path
Identifier) contenidos en el encabezado.
Cada conexión virtual es identificada por un número, cuyo significado es sólo local,
es decir está asociado a cada enlace. Esta función de identificación es ejecutada
por dos subcampos del encabezamiento de la celda: el VPI y el VCI. El VCI
identifica a un Circuito Virtual (VC – Virtual Circuit) específico en un Camino
Virtual (VP – Virtual Path) dado. Un VC es un concepto usado para describir un
transporte unidireccional de celdas ATM y un VP es un concepto usado para
describir un transporte unidireccional de celdas ATM pertenecientes VCs.
El propósito de los VCs y de los VPs es el de usar los conceptos de enlace virtual
y conexión virtual. Los VPs permiten que la capacidad disponible en el medio físico
sea dividida en un número de canales con velocidad de bit variable. Por otro lado,
los VCs permiten una subdivisión más pequeña de la capacidad disponible en un
VP. La conmutación puede ser ejecutada tanto a nivel del medio físico, del VP o
VC. El multiplexaje y la conmutación en ATM son siempre realizados primero en los
VPs y después en los VCs.
28
Un VC es análogo a una conexión Frame Relay. Un camino virtual es un conjunto
de VCs que tienen los mismos puntos finales. Este concepto fue desarrollado para
las redes de alta velocidad con el fin de disminuir el costo del manejo de las
señales de control.
Las conexiones virtuales ATM pueden proporcionarse utilizando gestión de red. Estas
conexiones se denominan canales virtuales permanentes (PVC-Permanent Virtual
Channels). Así mismo, los canales virtuales pueden establecerse dinámicamente
utilizando procedimientos de señalización ATM. Estos canales virtuales se denominan
canales virtuales conmutados (SVCs- Switched Virtual Channels).
En ATM no se asignan ranuras de tiempo específico periódicas al canal. La
capacidad disponible es segmentada en las unidades de información de tamaño fijo
(celdas), por tanto ATM se comporta de forma asíncrona porque transmite celdas
que no necesitan ser periódicas. Se considera que ATM es un modo de
transferencia eficiente y flexible, ya que al asignar ranuras según la demanda, se
pueden acomodar fácilmente servicios de velocidad variable. ATM puede ganar
también eficiencia en el manejo del ancho de banda multicanalizando estadísticamente
fuentes de tráfico de tipo ráfaga, donde aparecen celdas a una velocidad muy alta por
un período de tiempo muy corto. Este tipo de fuente no requiere una asignación
continua de ancho de banda a su velocidad máxima y un gran número de
estas fuentes puede compartir el mismo ancho de banda
ATM es capaz de soportar todo tipo de servicio (con y sin conexión), inclusive
emulación de redes de área local y de circuitos, Frame Relay. Además puede
soportar todo tipo de tráfico (voz, video, dato y combinaciones).
2.5. FORMATO DE DATOS DE LAS CELDAS ATM.
Una celda ATM está formada por 53 bytes, de los cuales 5 bytes son de encabezado y
48 bytes de información (ó carga útil). Los bytes son enviados en orden creciente,
empezando con el primer byte del encabezado. Dentro de un byte, los bits son
enviados en forma decreciente, comenzando por el bit 8. Para todos los campos de
una celda ATM, el primer bit enviado es también el bit más significativo (MSB).
El encabezado está dividido en diferentes campos (Ver figura 2.2). El campo más
importante es el campo de dirección, ya que identifica el circuito y provee una
dirección de enlace único entre dos nodos de red, a través de los VPI y VCI.
El campo identificador de tipo de carga (PTI – Payload Type Identifier) específica
si la celda contiene información del usuario o información a ser usada por la red
misma para operación y mantenimiento por ejemplo, que permiten supervisar la
calidad de la conexión y señalan eventuales congestiones presentes en los
elementos de la red. El campo que define la prioridad de pérdida de celdas (CLP -
Cell Loss Priority) permite diferenciar dos niveles de prioridad para las celdas de una
29
misma conexión y el valor del bit CLP puede ser asignado tanto por el usuario como
por la red, en el caso de que no exista espacio suficiente para todas las celdas.
El último campo del encabezado contiene un control de código cíclico (HEC –
Header Error Control) que permite detectar y corregir un error aislado en un bit del
encabezamiento y además detectar un número de errores superior o igual a dos, en
cuyo caso se desecha la celda. Este último campo desempeña un papel muy
importante, ya que el enrutamiento de las celdas y la propia integridad de las
conexiones dependen de la interpretación del encabezamiento.
En la interfaz entre el usuario y la red (UNI – User-Network Interface), cuatro bits del
campo VPI son reemplazados por el campo de control de flujo genérico (GFC –
Generic Flow Interface), el cual se emplea para controlar el uso de la capacidad de
la red entre el terminal y la red. Esto es, permite implementaciones básicas de
multiplexaje, es decir, puede ser utilizado por la red para controlar, en la instalación
del usuario, el flujo de algunas conexiones y arbitrar el acceso a la red de varios
terminales.
Figura 2.2 Estructura de una celda ATM
En la interfaz entre el usuario y la red (UNI – User-Network Interface), cuatro bits del
campo VPI son reemplazados por el campo de control de flujo genérico (GFC –
Generic Flow Interface), el cual se emplea para controlar el uso de la capacidad de
la red entre el terminal y la red. Esto es, permite implementaciones básicas de
multiplexaje, es decir, puede ser utilizado por la red para controlar, en la instalación
30
del usuario, el flujo de algunas conexiones y arbitrar el acceso a la red de varios
terminales.
2.6. CLASIFICACIÓN DE SERVICIOS.
El modelo de capas de ATM se encuentra en la figura 2.3. Las tres capas más bajas
son:
Capa 1, la capa física, la cual transporta información (bits/celdas). ATM no
prescribe un conjunto de reglas en particular, pero en cambio dice que las celdas
ATM se pueden enviar por sí solas por un cable o fibra o bien se pueden empacar
dentro de la carga útil de otros sistemas portadores. En otras, palabras, ATM se
diseñó para que fuera independiente del medio de transmisión.
Capa 2, la capa ATM, la cual principalmente ejecuta conmutación/enrutamiento y
multiplexación. Define la organización de las celdas y dice lo que significan los
campos del encabezado. Esta capa también tiene que ver con el establecimiento y la
liberación de circuitos virtuales. En esta capa se localiza el control y la congestión.
Capa 3, la capa de adaptación de ATM (AAL – ATM Adaptation Layer), la cual
principalmente es responsable de la adaptación de los servicios de información de las
celdas ATM. Esta capa permite a los usuarios enviar paquetes mayores a una celda
porque la mayor parte de las aplicaciones no quieren trabajar de manera directa en
celdas. Por lo que esta capa segmenta estos paquetes, transmite las celdas en forma
individual y las reensambla en el otro extremo.
El modelo que presenta ATM es un modelo tridimensional (Ver Fig. 2.3). El plano de
usuario se encarga del transporte de los datos, el control de flujo, la corrección de
errores y otras funciones de usuario. Mientras que el plano de control tiene que ver
con la administración de la conexión. Las funciones de gestión de capas y planos
se relacionan con la administración de recursos y la coordinación intercapas.
Para permitir la transferencia de datos y servicios isócronos, la información debe ser
adaptada a la red en diferentes maneras. Por esta razón, ATM ha sido dividida en
cuatro clases de servicios (A, B, C y D) basándose en tres parámetros:
Servicios sincronos y asíncronos.
Proporción de bit variable (VBR) y proporción de bit constante (CBR).
Orientado a conexión y no orientado a conexión.
Además se pueden mencionar cuatro protocolos: AAL 1, AAL 2, AAL 3/4 y AAL 5 (Ver
Fig. 2.4).
En las redes ATM cada vez que una aplicación necesita establecer una conexión
entre dos usuarios, debe negociarse un contrato de tráfico que especifica, entre
otras cosas, la clase de servicio de la conexión. La clase de servicio ATM cubre
31
una gama de parámetros de calidad de servicio. Estos parámetros de calidad de
servicio pueden definir los niveles mínimos de ancho de banda requeridos y los
límites en el retardo de las celdas y la tasa de pérdida de celdas. A continuación
se detalla brevemente éstas clases de servicio.
Figura 2.3 Modelo de Capas ATM.
Proporción de Bit Constante (CBR - Constant Bit Rate): Es el tipo más sencillo de
las clases de servicio ATM. Cuando una aplicación negocia el establecimiento de
una conexión CBR, la red garantiza una proporción de celda de cresta (PCR - Peak
Cell Rate), la cual es la máxima velocidad de datos que la conexión ATM puede
soportar sin riesgos de pérdida de celdas. No existen límites para la velocidad de
datos que se puede negociar en una conexión CBR, pero cualquier tipo de tráfico por
encima de la velocidad negociada puede ser descartado por la red.
La clase de servicio CBR provee un circuito virtual de transmisión de ancho de
banda fijo y está pensado principalmente para aquellas aplicaciones que requieren
un suministro de ancho de banda estable, tales como video en tiempo real y tráfico
vocal.
32
Figura 2.4. Descripción de los servicios de la capa AAL de ATM
Real-Time Variable Bit Rate (rt-VBR): Se parece a la clase de servicio CBR en el
sentido que deseamos un retardo por bajo tránsito pero el tráfico puede variar su
velocidad. Los datos pueden ser video comprimido, voz comprimida con supresión de
silencio, o emulación de enlaces DIC.
Non-Real-Time Variable Bit Rate (nrt-VBR): Este es un servicio de entrega
garantizado, donde el retardo de tránsito y el “jitter” son quizás menos importantes
que el caso de rt-VBR. Un ejemplo de su aplicación puede ser la distribución de video
codificado MPEG-2. En este caso, la información proviene de un disco y su
distribución de la señal TV es de una vía. Un retardo de tránsito en la red de unos
cuantos segundos no representa un problema aquí. Pero lo que sí deseamos es
un servicio garantizado ya que la pérdida de algunas celdas en video comprimido
tiene un efecto severo en la calidad de la conexión.
Unspecified Bit Rate (UBR): No provee garantías sobre la velocidad de bits
especificada, ni sobre los parámetros de tráfico ni sobre la calidad de servicio. La
clase de servicio UBR ofrece una solución parcial para aquellas aplicaciones de
ráfagas imposibles de predecir que no se ajustan realmente a los parámetros del
contrato de tráfico. Cuando la red se congestiona, las conexiones UBR continúan su
transmisión.
Las conexiones UBR no tienen contrato de gestión con la red y por lo tanto las
primeras celdas que se pierden son las suyas. El caudal de tráfico exitoso puede caer
a niveles inaceptables, menos del 50%. Este tipo de servicio se puede aplicar a
conexiones que puedan enviar datos a través de la red sin requerir garantía de cómo
y cuándo estos datos lleguen a su destino. Desde el punto de vista de la red, la
clase UBR utiliza excedentes de ancho de banda que de otro modo no se
emplearían.
Available Bit Rate (ABR): La clase de servicio ABR también hace uso de los
excedentes del ancho de banda, pero utiliza técnicas de gestión de tráfico para
estimar congestión de la red y evitar pérdidas de celdas.
33
Cuando una aplicación solicita una conexión ABR, la misma negocia con la red una
velocidad de celda de cresta, sin embargo no negocia los parámetros específicos de
tolerancia de variación de retardo de celda o de tolerancia de ráfaga. En realidad la
aplicación y la red negocian un requerimiento de velocidad mínima, el cual garantiza
a la aplicación un pequeño ancho de banda (la mínima requerida para mantener la
aplicación establecida y funcionando). El usuario ABR acuerda no transmitir a
velocidades superiores a la PCR y la red acuerda siempre proveer por lo menos la
velocidad mínima (Minimum Cell Rate= MCR).
Dado que la clase ABR provee garantías mínimas de ancho de banda para
mantener las aplicaciones en funcionamiento (pero no garantiza el retardo de la
celda), ella es apta para aplicaciones en tiempo no real en las cuales los datos no
son demasiado sensibles al retardo.
2.7. Señalización ATM.
Señalización es el proceso mediante el cual los usuarios ATM y la red intercambian
información de control, peticiones para el uso de los recursos de la red, o
negociaciones para el uso de parámetros de circuitos. El par VPI/VCI y el ancho
de banda requerido son escogidos como resultado de un intercambio de
señalización exitoso.
34
CAPÍTULO 3:
ARQUITECTURA
DE LA
CONMUTACIÓN DE
ETIQUETAS
MULTIPROTOCOLO
35
CAPÍTULO 3: ARQUITECTURA DE LA CONMUTACIÓN DE
ETIQUETAS MULTIPROTOCOLO.
_______________________________________________________________
Al principio el IPv4 fue el único protocolo en ser conmutado por medio de etiquetas.
Después, se unió IPv6. Posteriormente, con AToM o “Cualquier trasporte sobre MPLS”
fue el comienzo para etiquetar y transportar tramas de capa 2 sobre una dorsal MPLS.
Así es como se llenó el aspecto multiprotocolo de MPLS.
La conmutación de etiquetas indica que los paquetes conmutados ya no son paquetes
IPv4, paquetes IPv6 o tramas de capa 2 cuando son conmutados, pero son
etiquetados. La parte más importante para MPLS es la etiqueta.
3.1 ETIQUETAS MPLS.
Una etiqueta MPLS es un campo de 32 bits con una estructura determinada. La figura
3.1 muestra la constitución de una etiqueta.
Figura 3.1 Constitución de una etiqueta o label MPLS.
Los primeros 20 bits son los valores de la Label o etiqueta. Este valor puede estar
entre 0 y 2²º-1 o 1,048,575. Por otro lado. Los primeros 16 valores fueron exentados
de uso normal. Los bits de 20 a 22 son los tres bits experimentales o EXP. Estos tres
bits son usados para la calidad de servicio o QoS (QoS - Quality of Service).
El bit 23 es la parte trasera de la pila o BoS (BoS – Bottom of Stack). Éste es 0 menos
que sea la etiqueta trasera o la última de etiqueta en la cola. Si es así, el bit BoS es
puesto como 1. La pila es una colección de etiquetas que son encontradas en la parte
superior del paquete. La pila puede consistir de una o más etiquetas. El número de
etiquetas que se puede encontrar en la pila no tiene límite.
Los bits de 24 a 31 son 8 bits usados para el tiempo de vida o TTL (TTL-Time To
Live). TTL tiene la misma función que el TTL encontrado en el encabezado IP. Éste
puede ser de un valor decrementado de uno en uno en cada salto. Su principal función
36
es evitar que un paquete se atore en un bucle “enrutado”. Si un bucle enrutado ocurre
y no hay un TTL presente, el paquete puede enlazarse eternamente. SI el TTL de una
etiqueta alcanza el valor 0, el paquete es descartado.
3.2 APILADO DE ETIQUETAS.
Un enrutador con la capacidad de usar MPLS puede necesitar más de una etiqueta en
la parte superior de un paquete para “enrutar” dicho paquete a través de la red MPLS.
Esto es pasible si empaquetan las etiquetas en una pila. La primera etiqueta en la pila
se denomina top label o etiqueta superior, y la última etiqueta es llamada etiqueta
bottom label o última etiqueta. Entre estas etiquetas se puede tener cualquier número
de etiquetas. La figura 3.2 muestra la estructura de una pila de etiquetas.
Figura 3.2 Estructura de una pila de etiquetas MPLS.
3.3 CODIFICACIÓN DE MPLS.
La pila de etiquetas o MPLS Label Stack se coloca en enfrente del paquete de capa 3,
es decir, antes del encabezado del Protocolo Transportado o Transported Protocol
pero después del Encabezado de Capa 2 o Layer 2 Header. En la figura 3.3 se puede
visualizar la colocación de la pila de etiquetas para paquetes etiquetados.
Figura 3.3 distribución de pila de etiquetas MPLS en una trama.
37
El encapsulado del enlace puede ser casi cualquier tipo encapsulado suportado por el
sistema operativo de un determinado router.
3.4 ENRUTADOR CONMUTADOR DE ETIQUETAS.
Un enrutador conmutador de etiquetas o label switch router es un enrutador que
soporta MPLS. Es capaz de entender etiquetas MPLS; y de recibir y transmitir un
paquete etiquetado en un enlace de datos. En una red MPLS, existen tres clases de
enrutadores:
-LSRs de ingreso o Ingress LSRs.
Estos enrutadores reciben un paquete que aún no es etiquetado, insertan una etiqueta
enfrente del paquete, después es enviado en el enlace de datos.
-LSRs de egreso o Egress LSRs.
Estos enrutadores reciben paquetes ya etiquetados, su función es remover las
etiquetas y enviar estos paquetes en un enlace de datos. Los Ingress LSRs y Egress
LSRs también son conocidos como LSRs de borde o Edge LSRs.
-LSRs intermediarios o Intermediate LSRs.
Este tipo de enrutadores reciben un paquete etiquetado, realizan alguna operación en
él, conmutan el paquete y posteriormente envían el paquete al enlace de datos
correcto.
Un LSR es capaz de remover una o más etiquetas de la parte superior de la pila de
etiquetas antes de conmutar el paquete a la salida. Un LSR debe ser capaz de
empujar una o más etiquetas en el paquete recibido. Si el paquete recibido ya ha sido
etiquetado, el LSR empuja una o más etiquetas en la pila de etiquetas y conmuta el
paquete a la salida. Si el paquete no ha sido etiquetado, el LSR crea una pila de
etiquetas y la empuja en el paquete. Un LSR también debe ser capaz de intercambiar
una etiqueta. Esto significa que cuando un paquete etiquetado es recibido, la etiqueta
superior de la pila de etiquetas es intercambiada por una nueva etiqueta y el paquete
es conmutado en la salida del enlace de datos.
Un LSR que empuja etiquetas en un paquete que no ha sido etiquetado es llamado
LSR imponente o imposing LSR porque es el primer LSR en imponer etiquetas en el
paquete. Un router que realiza imposición es un LSR de ingreso. Un LSR que remueve
etiquetas de un paquete etiquetado antes de conmutar el paquete a la salida es un
LSR disponente o disposing LSR. Un router que realiza esta acción es un LSR de
egreso.
38
3.5 CAMINO CONMUTADO DE ETIQUETAS.
Un camino conmutado de etiquetas (LSP – Label Switched Path) es una secuencia de
LSRs que conmutan paquetes etiquetados a través de una red MPLS. Básicamente, el
LSP es el camino a través de la red MPLS o parte de ella que los paquetes toman. El
primer LSR de una LSP es el ingress LSR para ese LSP, mientras que el último LSR
del LSP es el egress LSR. Todos los LSRs entre los ingress y egress LSRs son los
intermédiate LSRs.
En la figura 3.4, la flecha en la parte superior indica la dirección porque un LSP es
unidireccional. El flujo de paquetes etiquetados en otra dirección, de derecha a
izquierda entre los mismos edge LSRs puede ser otro LSP.
Figura 3.4 Red MPLS.
El ingress LSR de un LSP no es necesariamente el primer enrutador en etiquetar el
paquete. El paquete puede haber sido etiquetado por un procedente LSR. Como un
caso pudo ser un LSP anidado. Lo que quiere decir, un LSP dentro otro LSP. En la
figura 3.5, se puede ver un LSP abarcando el ancho completo de una red MPLS. Otro
LSP empieza en el tercer LSR y termina en el penúltimo LSR. Por lo tanto, cuando el
paquete entra al segundo LSP en su ingress LSR (esto significa el tercer LSR), ya es
etiquetado. Este ingress LSR del LSP anidado después empuja una segunda etiqueta
en el paquete. La pila de etiquetas del paquete en el segundo LSP tiene dos etiquetas
ahora. La etiqueta superior pertenece al LSP anidado y la etiqueta inferior pertenece al
LSP que se expande en la red completa MPLS.
39
Figura 3.5 Red MPLS con LSPs anidados.
3.6 CLASES DE EQUIVALENCIA DE REENVÍO (FECs)
Una clase de equivalencia de reenvío (FEC – Forwarding Equivalence Class) es un
grupo o flujo de paquetes que son reenviados en el mismo camino y son tratados con
la misma consideración de reenvío. Todos los paquetes pertenecientes al mismo FEC
tienen la misma etiqueta. No obstante, no todos los paquetes que tienen la misma
etiqueta pertenecen al mismo FEC porque su valor EXP puede ser diferente; así que
el tratamiento de reenvío puede ser diferente y pueden pertenecer a un FEC diferente.
El enrutador que decide que paquete pertenece a que FEC es el ingress LSR. Es
lógico porque el ingress LSR clasifica y etiqueta los paquetes.
Algunos ejemplos de FECs son:
-Paquetes con direcciones de destinos IP igualando un prefijo determinado.
-Paquetes multicast perteneciendo un determinado grupo.
-Paquetes con un mismo tratamiento de reenvío.
-Tramas de capa 2 llevadas a través de una red MPLS recibidas en un VC o
subinterface en el ingress LSR y transmitido en un VC o subinterface en el egress
LSR.
-Paquetes con direcciones IP destino de Capa 3 que pertenecen a un conjunto de
prefijos de protocolos de pasarela de borde (BGP), todo con el mismo siguiente salto
BGP.
En el último ejemplo de un FEC, todos los paquetes en el ingress LSR para el cual la
dirección IP destino apunta a un conjunto de rutas BGP en la tabla de enrutamiento
pertenecen a un FEC. Es decir, todos los paquetes que entran a la red MPLS son
etiquetados dependiendo en cual es el salto siguiente BGP. La figura 3.6 muestra una
red MPLS en que todos los LSRs de borde corren BGP interno (iBGP).
40
Figura 3.6 Una red MPLS con LSR corriendo BGP o iBGP.
La dirección IP destino de todos los paquetes IP entrando al ingress LSR serán
buscadas en la tabla de reenvío IP. Todas estas direcciones pertenece a un conjunto
de prefijos que son conocidos en la tabla de enrutamiento como prefijos BGP. Varios
de los prefijos BGP en la tabla de enrutamiento tienen la misma dirección del salto
siguiente BGP, a saber esto un egress LSR. Todos los paquetes con una dirección IP
destino para los cuales la búsqueda IP en los recursos de la tabla de enrutamiento a la
misma dirección de siguiente salto BGP serán mapeados al mismo FEC. Todos los
paquetes que pertenecen al mismo FEC obtienen la misma etiqueta impuesta por el
ingress LSR.
3.7 DISTRIBUCIÓN DE ETIQUETAS.
La primera etiqueta es impuesta por el ingress LSR y la etiqueta pertenece a un LSP.
El camino del paquete a través de la red MPLS es ligado a ese LSP. Todo lo que
cambia es que esa etiqueta superior en la pila de etiquetas es intercambiada en cada
salto. El ingress LSR impone una o más etiquetas en el paquete. Los intermediate
LSRs intercambian la etiqueta superior (la etiqueta entrante) del paquete recibido
etiquetado con otra etiqueta (la etiqueta saliente) y transmite el paquete en el enlace
saliente. El egress LSR del LSP desmonta las etiquetas de este LSP y reenvía el
paquete.
En el caso de IPv4 sobre MPLS, que es una red que consiste de LSRs que corren un
protocolo de pasarela interior o IGP (Como es el caso del protocolo de información de
enrutamiento [RIP], primero el camino abierto más corto [OSPF], Sistema intermedio a
41
sistema intermedio [IS-IS] y protocolo de enrutamiento de pasarela interior mejorado
[EIGRP]). El ingress LSR busca la dirección IPv4 destino de el paquete, impone una
etiqueta y reenvía el paquete. El siguiente LSR recibe el paquete etiquetado,
intercambia la etiqueta entrante por una etiqueta saliente y reenvía el paquete. El
egress LSR remueve la etiqueta y reenvía el paquete IPv4 sin etiquetas en el enlace
saliente. Para que esto funcione correctamente los LSRs adyacentes debe estar de
acuerdo en que etiqueta debe usarse para cada prefijo IGP. Por lo tanto, cada
intermediate LSR debe tener la capacidad de figurar que etiqueta saliente, la etiqueta
entrante debe ser intercambiada. Esto significa, que se requiere un mecanismo que
indique a los enrutadores que etiquetas se deben usar cuando se reenvíe un paquete.
Etiquetas son locales para cada par de enrutadores adyacentes. Las etiquetas no
tienen significado global a través de la red. Para cada enrutador adyacente esté de
acuerdo en que etiqueta usar para que prefijo, estos necesitan alguna forma de
comunicación entre ellos; de otra forma, los enrutadores no reconocen que etiqueta
saliente es necesaria para igualar que etiqueta entrante. Por lo que es necesario un
protocolo de distribución de etiquetas.
Se pueden distribuir etiquetas en dos maneras:
-Recargar las etiquetas en un protocolo de enrutamiento IP existente.
-Tener un protocolo separado que distribuya las etiquetas.
El primer método tiene la ventaja que un nuevo protocolo no es necesario para correr
en los LSRs pero cada protocolo de enrutamiento IP necesita ser entendido para llevar
las etiquetas. La gran ventaja de tener un protocolo de enrutamiento que lleve las
etiquetas es que el enrutamiento y la distribución de etiquetas siempre están en
sincronía. Lo que significa que no se puede tener una etiqueta si el prefijo se
encuentra perdido y viceversa. También elimina la necesidad de otro protocolo para la
distribución de etiquetas. La implementación para protocolos de enrutamiento vector
de distancia (como EIGRP) es completamente plana, ya que cada enrutador origina un
prefijo de su tabla de enrutamiento.
Los protocolos de enrutamiento de estado de enlace (como IS-IS y OSPF) no
funcionan de esa forma. Cada enrutador origina actualizaciones de estado del enlace
que después son reenviadas y sin alteraciones por todos los enrutadores dentro de un
área.
El segundo método, que es correr un protocolo separado para distribución de
etiquetas tiene la ventaja de ser protocolo de enrutamiento independiente. De la forma
que sea el protocolo de enrutamiento, si es capaz de distribuir etiquetas o no, un
protocolo separado distribuye las etiquetas y permite a los protocolos de enrutamiento
distribuir los prefijos.
42
3.8 IP SOBRE ATM.
El protocolo IP fue conquistando terreno como protocolo de red ante otras
arquitecturas que se encontraban en uso. El gran auge de la Internet y su explosivo
crecimiento generó un déficit de ancho de banda, ya que las redes dorsales IP de
los proveedores de servicio estaban construidos con enrutadores conectados por
líneas dedicadas, lo que ocasionaba congestión y saturación de las redes. Por lo que
se requirieron otras alternativas de ingeniería de tráfico.
La respuesta de los proveedores de servicio de Internet o ISPs fue el incremento
del número y de la capacidad de los enlaces. Del mismo modo, se plantearon la
necesidad de aprovechar mejor los recursos de red existentes, sobre todo la
utilización eficaz del ancho de banda de todos los enlaces. Con los protocolos
habituales de encaminamiento (basados en métricas del menor número de saltos),
ese aprovechamiento del ancho de banda global no resultaba efectivo.
Por lo tanto, los esfuerzos se centraron en aumentar el rendimiento de los
enrutadores tradicionales, tratando de combinar de diversas maneras, la eficacia y
rentabilidad de los conmutadores ATM con las capacidades de control de IP.
A favor de integrar conmutación y enrutamiento, estaban las infraestructuras de
redes ATM que comenzaban a desplegar los operadores de telecomunicación. Estas
redes ofrecían entonces una buena solución a los problemas de crecimiento de los
ISPs. Por un lado, proporcionaba mayores velocidades y además, las características
de respuesta determinanticas de los circuitos virtuales ATM posibilitaban la
implantación de soluciones de ingeniería de tráfico. El modelo de red "IP sobre
ATM" (IP/ATM) pronto ganó adeptos entre la comunidad de ISPs, a la vez que
facilitó la entrada de los operadores telefónicos en la provisión de servicios IP y
de conexión a la Internet al por mayor.
El funcionamiento IP/ATM supone la superposición de una topología virtual de
enrutadores IP sobre una topología real de conmutadores ATM. Cada enrutador
se comunica con el resto mediante los circuitos virtuales permanentes (PVC) que
se establecen sobre la topología física de la red ATM, desconociendo la topología
real de la infraestructura ATM que sustenta los PVC.
La base del modelo IP/ATM está en la funcionalidad proporcionada por el nivel ATM,
es decir, los controles de software (señalización y enrutamiento) y el envío de las
celdas por hardware (conmutación). En realidad los circuitos (PVCs) se establecen a
base de intercambiar etiquetas en cada conmutador de la red, por lo tanto asociando
etiquetas entre todos los elementos ATM se determinan los PVCs.
El intercambio de etiquetas es uno de los componentes fundamentales en la
arquitectura MPLS. Las etiquetas tienen solamente significado local en los
conmutadores y son la base de la rapidez en la conmutación de celdas. La potencia
de esta solución de topologías superpuestas está en la infraestructura ATM de la
red dorsal; el papel de los enrutadores IP queda relegado a la periferia, que, a mitad
43
de los 90, tenían una calidad cuestionable, al estar basados en funcionamiento por
software.
La solución de superponer IP sobre ATM permite aprovechar la infraestructura ATM
existente. Las ventajas inmediatas son el ancho de banda disponible a precios
competitivos y la rapidez de transporte de datos que proporcionan los conmutadores.
En los casos de ISPs de primer nivel que poseen y operan la red dorsal ATM para
ofrecer el servicio de sus redes IP, los caminos físicos de los PVCs se calculan a
partir de la necesidades del tráfico IP, utilizando la clase de servicio ATM UBR (UBR
- Unspecified Bit Rate), ya que en este caso el ATM se utiliza solamente como
infraestructura de transporte de alta velocidad (no hay necesidad de apoyarse en
los mecanismos inherentes de ATM para control de la congestión y clases de servicio).
La ingeniería de tráfico se hace a base de proporcionar a los enrutadores los
PVCs necesarios con una topología lógica entre enrutadores totalmente
superpuestos. El "punto de encuentro" entre la red IP y a ATM está en el
acoplamiento de las subinterfaces en los enrutadores con los PVCs, a través de los
cuales se intercambian los enrutadores la información de enrutamiento
correspondiente al protocolo interno IGP. Lo habitual es que, entre cada par de
enrutadores, haya un PVC principal y otro de respaldo, que entra automáticamente en
funcionamiento cuando falla el principal.
El modelo IP/ATM tiene también sus inconvenientes: se debe gestionar dos redes
diferentes, una infraestructura ATM y una red lógica IP superpuesta, lo que supone a
los proveedores de servicio unos mayores costos de gestión global de sus redes.
Existe, además, lo que se llama la "tasa impuesta por la celda", una cabecera
aproximada del 20% que causa el transporte de datagramas IP sobre las celdas
ATM y que reduce en ese mismo porcentaje el ancho de banda disponible. Por otro
lado, la solución IP/ATM presenta los típicos problemas de crecimiento exponencial
n x (n-1) al aumentar el número de nodos IP sobre una topología completamente
superpuestas. Debido al crecimiento exponencial de rutas el protocolo de pasarela
interior debe realizar un mayor esfuerzo.
3.9 CONMUTACIÓN DE PAQUETES
Es la respuesta a los requerimientos de mantener una convergencia entre el
enrutamiento de IP y la conmutación ATM. El nombre de conmutación de IP (IP
switching) engloba dos términos antagónicos. IP: un protocolo no orientado a
conexión, basado en enrutamiento, y Conmutación: método empleado por las redes
ATM, gracias a la cual son posibles todas sus funcionalidades. Se basa en un
mecanismo de intercambio de etiquetas al igual que Tag Switching.
Se caracteriza por no ocultar la verdadera topología de la red a la capa IP, evitando,
entre otras cosas complejidad y duplicación de funcionalidad. Sin embargo, ciertos
artículos que analizan pruebas sobre este sistema indican que el protocolo no ha sido
44
lo suficientemente cuidadoso con el manejo de direcciones. Esto conlleva a que su
escalabilidad se ve limitada en redes grandes debido al gran número de circuitos
virtuales que se requieren para cada conexión.
La convergencia continuada hacia IP de todas las aplicaciones existentes, junto a los
problemas de rendimiento derivados de la solución IP/ATM, llevaron posteriormente a
que varios fabricantes desarrollaran técnicas para realizar la integración de niveles de
forma efectiva, sin las discontinuidades señaladas anteriormente. Esas técnicas se
conocieron como "conmutación IP" (IP switching) o "conmutación multinivel"
(multilayer switching). Una serie de tecnologías privadas condujeron finalmente a la
adopción del actual MPLS. El problema que presentaban soluciones anteriores era la
falta de interoperatividad, ya que usaban diferentes tecnologías privadas para
combinar la conmutación de nivel 2 con el enrutamiento IP (nivel 3). A continuación
se mencionan los fundamentos de esas soluciones integradoras, ya que permitirá
luego comprender mejor la esencia de la solución MPLS.
Todas las soluciones de conmutación multinivel (incluido MPLS) se basan en dos
componentes básicos comunes:
La separación entre las funciones de control (routing) y de envío (forwarding).
El paradigma de intercambio de etiquetas para el envío de datos.
La componente de control utiliza los protocolos estándar de encaminamiento
(OSPF, IS-IS y BGP) para el intercambio de información con los otros enrutadores
para la construcción y el mantenimiento de las tablas de encaminamiento. Al llegar
los paquetes, la componente de envío busca en la tabla de envío, que mantiene la
componente de control, para tomar la decisión de encaminamiento para cada
paquete. En concreto, la componente de envío examina la información de la
cabecera del paquete, busca en la tabla de envío la entrada correspondiente y
dirige el paquete desde el interfaz de entrada al de salida a través del
correspondiente hardware de conmutación.
Al separar la componente de control (encaminamiento) de la componente de envío,
cada una de ellas se puede implementar y modificar independientemente. El único
requisito es que la componente de encaminamiento mantenga la comunicación con la
de envío mediante la tabla de envío de paquetes y actualice la información. El
mecanismo de envío se implementa mediante el intercambio de etiquetas, similar a lo
visto para ATM. La diferencia está en que ahora lo que se envía por el interfaz físico
de salida son paquetes "etiquetados". De este modo, se está integrando realmente en
el mismo sistema las funciones de conmutación y de encaminamiento.
En cuanto a la etiqueta que marca cada paquete, decir que es un campo de unos
pocos bits, de longitud fija, que se añade a la cabecera del mismo y que identifica
una "clase equivalente de envío" (FEC - Forwarding Equivalence Class). Una FEC
45
es un conjunto de paquetes que se envían sobre el mismo camino a través de
una red, aun cuando sus destinos finales sean diferentes. Por ejemplo, en el
encaminamiento convencional IP por prefijos de red (longest- match) una FEC
serían todos los paquetes unicast cuyas direcciones de destino tengan el mismo
prefijo. Realmente, una etiqueta es similar a un identificador de conexión (como el
VPI/VCI de ATM o el DLCI de Frame Relay). Tiene solamente significado local y,
por consiguiente, no modifica la información de la cabecera de los paquetes; tan
sólo los encapsula, asignando el tráfico a los correspondientes FEC.
El algoritmo de intercambio de etiquetas permite así la creación de "caminos virtuales"
conocidos como LSP (Label-Switched Paths), funcionalmente equivalentes a los
PVCs de ATM y Frame Relay. En el fondo, lo que hace es imponer una
conectividad entre extremos a una red no conectiva por naturaleza, como son las
redes IP, pero todo ello sin perder la visibilidad del nivel de red (de aquí los nombres
de conmutación IP o conmutación multinivel). Esta es la diferencia básica con el
modelo IP/ATM. Al hablar de MPLS con más detalle se entenderán mejor estas
peculiaridades.
Para el envío de datos, se realiza un intercambio de etiquetas (2). Una etiqueta es un
campo de unos pocos bits y de longitud fija, que se añade a la cabecera del paquete
y que identifica a una “clase equivalente de envío” (FEC, “Forwarding Equivalente
Class”). Como se verá más adelante al explicar con detalle el protocolo MPLS, una
FEC es un conjunto de paquetes que se envían sobre el mismo camino a través de
una red, aun cuando sus destinos finales sean diferentes.
46
CAPÍTULO 4:
DESCRIPCIÓN
FUNCIONAL DE
MPLS.
47
CAPÍTULO 4: DESCRIPCIÓN FUNCIONAL DE MPLS.
_______________________________________________________________
4.1 PAQUETES ETIQUETADOS REENVIADOS.
Para que un paquete etiquetado sea enviado se realiza una búsqueda de etiqueta en
la base de información de reenvío de etiquetas (LFIB – Label Forwarding Information
Base). También se requieren diferentes operaciones de etiquetas. Estas operaciones
son removimiento o salto (pop), empuje (push) e intercambio (swap) de etiquetas
MPLS en la pila de etiquetas.
4.1.1 REENVÍO DE PAQUETES ETIQUETADOS.
4.1.1.1 OPERACIÓN DE ETIQUETAS.
Las operaciones de etiquetas intercambio, empuje y salto se muestran en la figura 4.1.
Figura 4.1 Operaciones en etiquetas.
48
Al buscar en la etiqueta superior de los paquetes etiquetados recibidos y la entrada
correspondiente en la LFIB, los LSR saben cómo reenviar el paquete. Los LSR
determinan que operación de etiqueta es necesita ser realizada (intercambio, empuje
o salto) y hacia donde es el siguiente salto en cuál el paquete necesita ser reenvía. La
operación de intercambio se refiere a que la etiqueta superior en la pila de etiquetas es
reemplazada por otra y la operación empuje significa que la etiqueta superior es
reemplazada por otra y después una o más etiquetas adicionales son empujadas en la
pila de etiquetas. La operación salto quiere decir que la etiqueta superior es removida.
El LSR observa el campo de 20 bits en la etiqueta superior, busca este valor en la
LFIB e intenta igualarlo con un valor en la lista de etiquetas local.
4.1.1.2 ETIQUETAS DESCONOCIDAS.
En una operación normal, un LSR debe recibir únicamente un paquete etiquetado con
una etiqueta en la parte superior de la pila que es conocida para el LSR, debido a que
el LSR debió anunciar esa etiqueta previamente. Por otro lado, es posible existe la
posible de algún tipo fallo en la red MPLS y el LSR al comenzar a recibir paquetes
etiquetados con una etiqueta superior que el LSR no encuentra en su LFIB. El LSR
puede teóricamente hacer dos cosas: quitarse las etiquetas e intentar reenviar el
paquete o abandonar el paquete. Algunos proveedores de sistemas de redes optan
por configurar los equipos para que éstos abandonen el paquete debido a que si los
LSR no asignaron la etiqueta superior, éste desconoce qué tipo de paquete está
detrás la pila de etiquetas. Podría ser un paquete IPv4, IPv6 o una trama. El LSR
puede intentar figurarlo al realizar una inspección de la carga útil o payload MPLS. El
LSR en que el paquete o trama llega a ser “desetiquetado” no será capaz de buscar el
destino de el paquete o trama. Aún cuando el LSR intente reenviar el paquete, no
existe garantía alguna de que el paquete no sea abandonado en el camino de los
enrutadores. Por lo tanto, es preferible abandonar el paquete de procedencia
desconocida con una etiqueta superior desconocida.
4.2 PROTOCOLO DE DISTRIBUCIÓN DE ETIQUETAS.
Todos los paquetes son etiquetados y en cada LSR se debe realizar un intercambio de
etiquetas (swapping) para reenviar el paquete. Lo que significa en todos los casos,
que las etiquetas necesitan ser distribuidas. Para lograr esto de dos maneras: recargar
las etiquetas en un protocolo de enrutamiento existente o desarrollar un nuevo
protocolo para que realice la acción. Si se desea ajustar los protocolos de pasarela
interior (IGP – Interior Gateway Protocol) como OSPF, IS-IS, EIGRP y RIP, para llevar
etiquetas. Se debe hacer en cada uno de ellos, ya que todos son usados en las redes
actualmente. Si es deseable un nuevo protocolo desde los cimientos, se puede hacer
que el enrutamiento sea independiente y capaz de trabajar con cualquier IGP. Para
eso surgió la invención del protocolo de distribución de etiquetas (LDP – Label
49
Distribution Protocol). Este protocolo lleva las uniones de etiqueta para las clases
equivalentes de envío (FECs – Forwarding Equivalence Classes) en la red MPLS.
Existe una excepción es el Protocolo de Pasarela Exterior (BGP – Border Gateway
Protocol). Ya que el BGP lleva rutas exteriores, se le es considerado más eficiente si
éste lleva las etiquetas también, junto a los prefijos. BGP es considerado como
multiprotocolo. Otra razón paque elegir BGP para llevar la información de etiqueta es
el hecho de que BGP es el único protocolo que distribuye prefijos entre sistemas
autónomos. Lo cual hace de BGP un protocolo confiable para funcionar entre
diferentes compañías.
De esta manera las uniones de etiqueta para todos los prefijos IGP en la tabla de
enrutamiento son distribuidas por LDP y todas las uniones de etiqueta para rutas de
BGP en la tabla de enrutamiento son distribuidas por el BGP.
4.3 CONTROL DE LA INFORMACIÓN EN MPLS.
Existen dos aspectos fundamentales en el control de información:
Cómo se generan las tablas de envío que establecen los LSPs.
Cómo se distribuye la información sobre las etiquetas a los LSRs.
El primero de ellos está relacionado con la información que se tiene sobre la red
tales como: topología, patrón de tráfico y características de los enlaces, entre otros.
Ésta información es la que manejan los protocolos internos IGP (OSPF, IS-IS, RIP,
entre otros) para construir sus tablas de encaminamiento (recuérdese que los LSR son
enrutadores con funcionalidad añadida). MPLS utiliza la información de estos
protocolos para establecer los caminos virtuales o LSPs. Para cada "ruta IP" en la
red se crea un "camino de etiquetas" a base de concatenar las rutas de
entrada/salida en cada tabla de los LSRs; el protocolo interno correspondiente se
encarga de pasar la información necesaria.
El segundo aspecto se refiere a la información de "señalización" (las comillas se
ponen por el impacto que puede suponer este término para los puristas del
mundo IP, de naturaleza no conectiva o no orientada a conexión). Pero siempre que
se quiera establecer un circuito virtual se necesita algún tipo de señalización para
marcar el camino, es decir, para la distribución de etiquetas entre los nodos. Sin
embargo, la arquitectura MPLS no asume un único protocolo de distribución de
etiquetas; de hecho se están estandarizando algunos existentes con las
correspondientes extensiones para soportar MPLS; uno de ellos es el protocolo
RSVP y BGP en las formas conocidas como MPLS-BGP, MPLS-RSVP-TUNNELS.
También se están definiendo nuevos protocolos específicos para la distribución de
etiquetas, como lo es el LDP (Label Distribution Protocol) y CR-LDP (Constraint
Based Routing Label). RSVP es preferido por IETF, LDP por Cisco y el CR-LDP por
Nokia.
50
Las diferentes variaciones en el intercambio de etiquetas son:
LDP: mapea los destinos IP (unicast) en etiquetas.
RSVP, CR_LDP: es usado para ingeniería de tráfico y reserva de recursos.
BGP: para etiquetas externas (VPN).
4.4 FUNCIONAMIENTO GLOBAL MPLS.
Es importante destacar que en el borde de la nube MPLS tenemos una red
convencional de enrutadores IP. El núcleo MPLS proporciona una arquitectura de
transporte que hace aparecer a cada par de enrutadores a una distancia de un sólo
salto. Funcionalmente es como si estuvieran unidos todos en una topología de malla
(directamente o por los PVCs de ATM). Ahora, esa unión a un solo salto se realiza
por MPLS mediante los correspondientes LSPs (puede haber más de uno para cada
par de enrutadores). La diferencia con topologías conectivas reales es que en
MPLS la construcción de caminos virtuales es mucho más flexible y que no se pierde
la visibilidad sobre los paquetes IP. Todo ello abre enormes posibilidades a la hora
de mejorar el rendimiento de las redes y de soportar nuevas aplicaciones de
usuario.
MPLS funciona de la siguiente forma (Ver Figura 4.2):
Paso 1. La red automáticamente crea las tablas de enrutamiento, utilizando protocolos
de pasarela interior tales como OSPF, IS-IS, RIP, entre otros. El protocolo LDP usa la
topología de enrutamiento en las tablas para establecer los valores de las etiquetas
entre dispositivos adyacentes. Esta operación crea los LSPs, preconfigurando
mapas entre puntos de destino. Contrario a lo que sucede con los circuitos
virtuales permanentes (PCV) usado en ATM, los cuales requieren una asignación
manual de VPIs/VCIs, las etiquetas son asignadas de manera automática.
Paso 2. Un paquete ingresa al LSR frontera (Edge LSR) de entrada, y éste procede a
determinar cuáles servicios de la capa 3 son requeridos como por ejemplo QoS y
manejo de ancho de banda. El LSR de frontera, basado en el enrutamiento y las
pólizas, selecciona y asigna una etiqueta a la cabecera del paquete y lo entrega al
backbone.
Paso 3. El LSR de la nube lee la etiqueta de cada paquete, la reemplaza con una
nueva según se lista en su tabla de enrutamiento, y entrega el paquete al destino.
Los LSRs de la nube (backbone) conmutan los paquetes mediante el intercambio de
etiquetas.
51
Paso 4. El LSR de frontera (Edge LSR) de salida elimina la etiqueta, lee la cabecera
del paquete y lo envía a su destino final.
Figura 4.2 Funcionamiento de una red MPLS.
(Fuente: MPLS: Una arquitectura de backbone del siglo XXI. Revista Red IRIS.)
El uso de etiquetas permite separar los tipos de tráfico tales como tráfico de mejor
esfuerzo y tráfico para misión crítica, lo que hace a MPLS una solución altamente
escalable. Las etiquetas usadas en MPLS tienen significado local, lo cual hace casi
imposible quedarse sin etiquetas. Esta característica es esencial para implementar
servicios avanzados de IP tales como: QoS, VPNs, e ingeniería de tráfico.
En la figura 4.3 se presenta un ejemplo para examinar la manera en que los
paquetes son enviados. Llega un paquete al LSR de frontera, el cual lee el prefijo de
destino del paquete, que resulta ser 128.89. Resto, el LSR frontera busca la
dirección de destino en su tabla de conmutación e inserta la etiqueta
correspondiente, en este caso 4, luego envía el paquete a través de la interfaz 1.
El LSR de la red MPLS lee la etiqueta y verifica si se encuentra en su tabla de
conmutación, luego reemplaza la etiqueta 4 por la etiqueta 9, y lo envía a través de la
interfaz 0.
52
El enrutador de salida lee y busca la etiqueta 9 en su tabla, el cual indica que se
debe eliminar la etiqueta y enviar el paquete a través de la interfaz 0.
Figura 4.3 Tratamiento de los paquetes enviados a una red MPLS.
(Fuente: Redford, Rob. Enabling Business IP Services with Multiprotocol Label
Switching. Cisco).
53
CAPÍTULO 5:
APLICACIONES
DE MPLS
54
CAPÍTULO 5. APLICACIONES DE MPLS.
_______________________________________________________________
5.1 Red Privada Virtual MPLS.
Una Red Privada Virtual o VPN (Virtual Private Network) es una red que emula
una red privada en una infraestructura en común. La VPN puede proveer
comunicación en la capa 2 o 3 del Modelo OSI; y pertenecer a una compañía y
tener diferentes sitios interconectados a través de la infraestructura de un
proveedor de servicio en común.
Los proveedores de servicio pueden desplegar dos tipos de modelo VPN: modelo
VPN de capa sobrepuesta (Overlay VPN model) y modelo VPN entre pares (Peer-
to-peer VPN model).
Modelo VPN de capa sobrepuesta.
En este modelo, el proveedor de servicio suministra un servicio de enlaces punto a
punto o circuitos virtuales a través de su red entre enrutadores del cliente. Los
enrutadores del cliente forman un enrutamiento entre pares entre ellos
directamente a través de los enlaces o circuitos virtuales de un proveedor de
servicio. Los routers o switches de un proveedor de servicio llevan la información
del cliente a través de la red del proveedor de servicio pero no existe enrutamiento
entre pares entre los enrutadores del proveedor de servicio y el cliente. Como
resultado de esto, los routers del proveedor de servicio no pueden visualizar las
rutas del cliente.
En la siguiente figura se muestra una red de capa sobrepuesta construida en
Frame Relay. En la red del proveedor de servicio se tienen switches Frame Relay
que establecen los circuitos virtuales entre los routers del cliente en el borde de la
red Frame Relay.
55
Figura 5.1 Red de capa sobrepuesta en Frame Relay.
Modelo VPN entre pares.
En este modelo, los routers del proveedor de servicio portan el flujo de datos del
cliente a través de la red, pero también participan en el enrutamiento del cliente.
Es decir, los routers del proveedor de servicio enrutan entre pares con los routers
del cliente en la capa de red. En la siguiente figura se muestra el concepto del
model VPN entre pares.
56
Figura 5.2 Concepto de modelo VPN entre pares.
El modelo VPN requiere ser de carácter privado o debe estar aislado entre los
diferentes clientes. Para lograrlo se requiere una configuración de filtros de
paquetes o listas de acceso para controlar el flujo de datos.
Antes de MPLS, el model VPN de capa sobrepuesta fue desplegado más
comúnmente que el modelo VPN entre pares. Debido a que el modelo VPN entre
pares demandaba demasiado de los suministros porque agregar un sitio de cliente
ocasionaba varios cambios de configuración en los diferentes sitios.
Una Red Privada Virtual MPLS (MPLS VPN – MPLS Virtual Private Network) es
una implementación que ha crecido exponencialmente. Esta aplicación es
considerada como el siguiente paso en el diseño de redes empresariales. MPLS
VPN provee escalabilidad y divide la red en pequeñas redes, que son necesarias
en las redes empresariales de gran tamaño, donde la estructura de tecnologías de
la información en común debe ofrecer redes aisladas a departamentos
individuales.
57
MPLS VPN es una aplicación de MPLS que hizo el modelo VPN entre pares más
fácil de implementar. Agregar y remover un sitio de cliente es ahora más simple de
configurar y por lo tanto demanda menos tiempo. Con MPLS VPN, un router de
cliente, llamado enrutador de borde de cliente (Customer Edge Router), enruta en
pares en la capa de red con al menos un router del proveedor de servicio, llamado
enrutador de borde de proveedor (Provider Edge Router).
La privacidad en las redes MPLS VPN es alcanzada debido al uso del concepto de
Enrutamiento/Reenvío Virtual (VRF – Virtual Routing/Forwarding) y el hecho de
que los datos son reenviados como paquetes etiquetados. VRF se asegura que la
información enrutada de diferentes clientes se mantenga separada y MPLS en la
dorsal se asegura que los paquetes son reenviados basados en la información de
la etiqueta y no la información del encabezado IP. En la siguiente figura se
muestra el concepto de VRF y el reenvío de paquetes etiquetados en una dorsal
utilizando MPLS VPN.
Figura 5.3 Concepto de VRF y el reenvío de paquetes etiquetados en una dorsal
utilizando MPLS VPN.
Agregar un sitio de cliente significa que en el Enrutador de Borde de Proveedor,
únicamente se empareja con el Enrutador de Borde de Cliente. No existe la
necesidad de crear distintos circuitos virtuales como en el modelo de capa
sobrepuesta en una red IP. Lo que permite el óptimo uso de la red dorsal para el
proveedor de servicio.
Otro beneficio para el proveedor de servicio es que únicamente es necesario
proveer el enlace o circuito virtual entre sitios. De esta forma es más fácil predecir
el tráfico y por lo tanto los requerimientos de ancho de banda de un sitio que
predecir el trafico completo entre todos los sitios de cliente.
58
5.2 CLASE DE SERVICIO (CoS).
Es la capacidad que tiene una red de proveer diferentes niveles de servicio para
asegurar distintos perfiles de tráfico.
Los paquetes pertenecientes a una misma Clase de Servicio tienen en común los
mismos requerimientos de tratamiento en cuanto a ancho de banda necesario,
retardo, variación de retardo y pérdidas de paquetes, es decir, Calidad de Servicio
(QoS).
La capacidad de poder asegurar que un paquete en concreto recibirá, a lo largo de
todo el dominio, el tratamiento requerido, se apoya en dos posibilidades:
• IntServ (Integrated Services): se reservan los recursos necesarios asociándose a
LSPs concretos.
• DiffServ (Differenciated Services): orientado al tráfico IP, basa su funcionamiento
en la clasificación del tráfico a la entrada de la red y en la asociación de
prioridades a estos tipos de tráfico mediante el Campo de 8 bits. En función de
este campo, cada nodo intermedio tratará el paquete de la forma adecuada. MPLS
está diseñado para poder cursar servicios diferenciados, según el Modelo DiffServ
del IETF. Este modelo define una variedad de mecanismos para poder clasificar el
tráfico en un reducido número de clases de servicio, con diferentes prioridades.
De acuerdo con los requisitos de los usuarios, DiffServ permite diferenciar
servicios tradicionales tales como correo electrónico o transferencia de ficheros
(para los que el retardo no es crítico), de otras aplicaciones mucho más
dependientes del retardo y de la variación del mismo, como son voz y video
interactiva. Para ello se emplea el campo ToS (Type of Service), rebautizado en
DiffServ como el octeto DS. Esta es la técnica QoS de marcar los paquetes que se
envían a la red.
MPLS se adapta perfectamente a ese modelo, ya que las etiquetas MPLS tienen
el campo EXP para poder propagar la clase de servicio CoS en el correspondiente
LSP. De este modo, una red MPLS puede transportar distintas clases de tráfico,
ya que:
El tráfico que fluye a través de un determinado LSP se puede asignar a diferentes colas de salida en los diferentes saltos LSR, de acuerdo con la información contenida en los bits del campo EXP.
Entre cada par de LSR exteriores se pueden provisionar múltiples LSPs, cada uno de ellos con distintas prestaciones y con diferentes garantías de ancho de banda.
La motivación para aplicar Calidad de Servicio en redes IP se resume en las siguientes necesidades:
Priorizar ciertas aplicaciones en la red que requieren de un alto nivel de servicio.
59
Maximizar el uso de la infraestructura de red, manteniendo un margen de flexibilidad, seguridad y crecimiento para servicios emergentes.
Mejorar las prestaciones para servicios en tiempo real.
Responder a los cambios en el perfil de tráfico establecido.
Proporcionar mecanismos para priorizar tráfico.
5.3 INGENIERÍA DE TRÁFICO. La ingeniería de Red se encarga de manipular la red para adaptarse al tráfico y hace las mejores predicciones que pueda acercarnos de cómo el tráfico fluirá a través de la red y por consiguiente pide los circuitos apropiados y dispositivos de red. La ingeniería de Red opera normalmente a través de una larga escala (semanas / meses / años) debido a que el tiempo de espera para instalar nuevos circuitos o equipo puede ser largo. La Ingeniería de tráfico está manipulando el tráfico para adaptarse a su red. No importa cuánto te esfuerces, el tráfico de red no coincidirá con las predicciones 100 por ciento. A veces la tasa de crecimiento del tráfico supera todas las predicciones, y no se puede actualizar su red suficientemente rápido. El tráfico no puede ser previsto. En general, aunque el crecimiento del tráfico sea rápido, eventos flash, y cortes en la red puede causar las demandas de ancho de banda en un mismo lugar, al mismo tiempo que a menudo tienen vínculos en la red que son subutilizados. Con la Ingeniería de tráfico, se tiene la capacidad de mover el tráfico de un enlace congestionado a un enlace no utilizado. La Ingeniería de tráfico con MPLS es un intento de tomar lo mejor del tráfico orientado a la conexión y a las técnicas de ingeniería y fusionarla con el enrutamiento IP. ATM, por el contrario, le permite colocar PVC a través de la red desde una fuente de tráfico a un destino. Esto significa que usted tiene más control de grano fino sobre el flujo de tráfico en la red. Algunos de los ISPs más grandes del mundo han utilizado ATM para dirigir el tráfico en torno a sus redes. Lo hacen mediante la construcción de una malla completa de los PVC ATM entre un conjunto de routers y cambian el tamaño y el reposicionamiento periódicamente, los ATM PVC se basan en el tráfico observado desde los routers. Sin embargo, un problema con hacer las cosas de esta manera es que una malla completa de routers conduce a inundaciones cuando un enlace se cae y esto no escala bien lo cual ha causado problemas importantes en grandes redes.
60
5.3.1 INGENIERÍA DE TRÁFICO CON MPLS
MPLS combina capacidades de ingeniería de tráfico de ATM con la flexibilidad y la clase de servicio de IP. MPLS te permite crear rutas de Label - Switched (LSP ) a través de su red. MPLS deja a la cabeza un control de túneles TE y el camino del tráfico llega a un destino en particular. La naturaleza de MPLS TE evita los problemas de inundaciones que ATM y otros modelos actuales de superposición no consiguieron evadir. En lugar de formar adyacencias, MPLS utiliza un mecanismo conocido como autopista (que no debe confundirse con la conmutación de circuitos - enrutamiento WAN protocolo del mismo nombre) para construir una tabla de enrutamiento. Como ATM, MPLS reserva ancho de banda en la red, cuando se construye LSP la reserva de ancho de banda para un LSP introduce el concepto de un recurso consumible en su red. Si usted construye TE- LSP que reserva ancho de banda, como LSP se añaden a la red, pueden encontrar caminos a través de la red que Ayuden a conseguir ancho de banda disponible para ser reservado. Si Label Switch Router ( LSR ) hace una reserva para 10 Mb y envía 100 Mb por ese LSP , la red intenta entregar los 100 Mb, vigilando el tráfico en la fuente usando técnicas de QoS. La ingeniería de tráfico se divide en dos ramas principalmente diferenciadas por
sus objetivos:
Orientada a tráfico: Esta rama tiene como prioridad la mejora de los indicadores
relativos al transporte de datos, como minimizar la pérdida de paquetes y
minimizar el retardo.
Orientada a recursos: Esta rama se plantea como objetivo, la optimización de la
utilización de los recursos de la red, de manera que, no se saturen partes de la red
mientras otras permanecen subutilizadas, tomando principalmente el ancho de
banda como recurso a optimizar.
Ambas ramas convergen en un objetivo global, que es minimizar la congestión.
Un reto fundamental en la operación de una red, especialmente en redes IP
públicas a gran escala, es incrementar la eficiencia de la utilización del recurso
mientras se minimiza la posibilidad de congestión.
Los paquetes compiten por el uso de los recursos de la red cuando se transportan
a través de la red. Un recurso de red se considera que está congestionado si la
velocidad de entrada de paquetes excede la capacidad de salida del recurso en un
intervalo de tiempo.
La congestión puede hacer que algunos de los paquetes de entrada sean
retardados e incluso descartados. La congestión aumenta los retardos de tránsito,
las variaciones del retardo, la pérdida de paquetes, y reduce la previsión de los
61
servicios de red. Claramente, la congestión es un fenómeno nada deseable y es
causada por la insuficiencia de recursos en la red y por la utilización ineficiente de
los recursos debido al mapeado del tráfico.
En casos de congestión de algunos enlaces, el problema se resolvía a base de
añadir más capacidad a los enlaces.
El objetivo básico de la Ingeniería de Tráfico es adaptar los flujos de tráfico a los
recursos físicos de la red.
La idea es equilibrar de forma óptima la utilización de esos recursos, de manera
que no haya algunos que estén sobre-utilizados, creando cuellos de botella,
mientras otros puedan estar subutilizados. En general, los flujos de tráfico siguen
el camino más corto calculado por el algoritmo IGP correspondiente.
La Ingeniería de Tráfico consiste en trasladar determinados flujos seleccionados
por el algoritmo IGP sobre enlaces más congestionados, a otros enlaces más
descargados, aunque estén fuera de la ruta más corta (con menos saltos).
En resumen la Ingeniería de Tráfico (TE) es una disciplina que procura la
optimización de la performance de las redes operativas y permite adaptar los flujos
de tráfico a los recursos físicos de la red. Esto quiere decir, equilibrar la utilización
de esos recursos, evitando que algún subconjunto de la red se sature mientras
otro u otros subconjuntos están sin utilizarse, así se evitan problemas y se puede
mejorar el rendimiento de la red.
Una ventaja práctica de la aplicación de Ingeniería de Tráfico a las redes
operacionales es que ayuda a identificar y estructurar las metas y prioridades en
términos de mejora de la calidad de servicio dado a los usuarios finales de los
servicios de la red. También la aplicación de los conceptos de Ingeniería de
Tráfico ayuda en la medición y análisis del cumplimiento de éstas metas.
Otra ventaja de la Ingeniería de Tráfico MPLS es que se puede aplicar
directamente sobre una red IP, independientemente de la infraestructura que le de
soporte, con un mayor nivel de detalle y de forma más sencilla y eficiente que
como se venía haciendo hasta el momento.
La idea básica detrás de la ingeniería de tráfico es utilizar la estructura de red de
forma óptima, incluyendo enlaces que son poco utilizados, debido a que no están
ligados a un camino preferente. Lo que significa que la ingeniería de tráfico debe
proveer la posibilidad de dirigir tráfico a través de la red en caminos diferentes a
los preferidos. Que es el camino de menos costo provisto por el enrutamiento IP.
El camino de menos costo es el camino más corto computado por el protocolo de
enrutamiento dinámico. Con la ingeniería de tráfico implementada en una red
MPLS, se puede tener el tráfico que es destinado para un prefijo o un flujo de
calidad de servicio particular de un punto A dirigido un punto B junto con un
62
camino que es diferente al de menos costo. En la siguiente figura se muestra de
forma clara un ejemplo de ingeniería de tráfico.
Figura 5.4 Ingeniería de tráfico.
Un operador de una red habilitada con ingeniería de tráfico MPLS puede conducir
el tráfico de A hacia B sobre el camino inferior, que no es el camino más corto. De
esta manera se puede enviar el tráfico a través de enlaces que no son tan usados.
Para guiar el tráfico de la una red en el camino inferior se requiere cambiar la
métrica de los protocolos de enrutamiento.
63
CONCLUSIONES
64
CONCLUSIONES. _______________________________________________________________
La arquitectura MPLS tiene características importantes que sirven a nivel de capa
de red en el proceso de enrutamiento de paquetes. En una red MPLS, el enrutador
de etiqueta de frontera (Edge LSR) es el único enrutador que procesa el paquete
entrante por completo, posteriormente, los enrutadores de conmutación de
etiquetas intermedios (LSR) en la red MPLS sólo se basan en etiquetas para
realizar el proceso de enrutamiento. Lo que permite un mayor aprovechamiento de
los recursos de los enrutadores de los ISP.
La capacidad multiprotocolo MPLS, la hace una arquitectura compatible con
distintos tipos tecnologías ya sean nuevas y anteriores a nivel de capa de red; y
tramas en la capa de enlace. Esta propiedad permite a una red MPLS adaptarse al
encaminamiento proveniente de otras tecnologías de red. Por lo tanto, Estas redes
presentan mejor interoperabilidad.
MPLS al ser compatible con los protocolos de enrutamiento OSPF, EIGRP y BGP.
Lo que permite buena estabilidad al tráfico entre redes dorsales.
MPLS tiene ventajas debido al manejo de la clase de servicio e ingeniería de
tráfico, escalabilidad y flexibilidad, lo que permite que los proveedores de servicio
de Internet puedan administrar sus recursos de una manera óptima.
65
ANEXOS
66
ANEXOS
_______________________________________________________________
Protocolo IP
El protocolo IP es parte de la capa de Internet del conjunto de protocolos TCP/IP. Es uno de los protocolos de Internet más importantes ya que permite el desarrollo y transporte de datagramas de IP (paquetes de datos), aunque sin garantizar su "entrega". En realidad, el protocolo IP procesa datagramas de IP de manera independiente al definir su representación, ruta y envío.
El protocolo IP determina el destinatario del mensaje mediante 3 campos:
El campo de dirección IP: Dirección del equipo;
El campo de máscara de subred: una máscara de subred le permite al protocolo IP
establecer la parte de la dirección IP que se relaciona con la red;
El campo de pasarela predeterminada: le permite al protocolo de Internet saber a
qué equipo enviar un datagrama, si el equipo de destino no se encuentra en la red
de área local.
Datagramas Los datos circulan en Internet en forma de datagramas (también conocidos como paquetes). Los datagramas son datos encapsulados, es decir, datos a los que se les agrega un encabezado que contiene información sobre su transporte (como la dirección IP de destino).
Los routers analizan (y eventualmente modifican) los datos contenidos en un datagrama para que puedan transitar. El datagrama IP es la unidad de transferencia en las redes IP. Básicamente consiste en una cabecera IP y un campo de datos para protocolos superiores. El datagrama IP está encapsulado en la trama de nivel de enlace, que suele tener una longitud máxima (MTU, Maximum Transfer Unit), dependiendo del hardware de red usado. Para Ethernet, esta es típicamente de 1500 bytes. En vez de limitar el datagrama a un tamaño máximo, IP puede tratar la fragmentación y el reensamblado de sus datagramas. En particular, IP no impone un tamaño máximo, pero establece que todas las redes deberían ser capaces de manejar al menos 576 bytes. Los fragmentos de datagramas tienen toda una cabecera, copiada básicamente del datagrama original, y de los datos que la siguen. Los fragmentos se tratan como datagramas normales mientras son transportados a su destino. Nótese, sin embargo, que si uno de los fragmentos se pierde, todo el datagrama se considerará perdido, y los restantes fragmentos también se considerarán
67
perdidos.
datagrama IP
Dónde:
Versión Es la versión del protocolo IP. La versión actual es la 4. La 5 es experimental y la 6 es IPng.
Hdr Len Es la longitud de la cabecera IP contada en cantidades de 32 bits. Esto no incluye el campo de datos.
Type Of Service Es el tipo de servicio de una indicación de la calidad del servicio solicitado para este datagrama IP.
Total Length Es la longitud total del datagrama, cabecera y datos, especificada en bytes.
Identification Es un número único que asigna el emisor para ayudar a reensamblar un datagrama fragmentado. Los fragmentos de un datagrama tendrán el mismo número de identificación.
Flags Son flags para el control de fragmentación.
68
Modelo OSI
_______________________________________________________________
A finales de la década de los setenta, la Organización Internacional para la
Normalización (ISO) empezó a desarrollar un modelo conceptual para la conexión
en red al que bautizo con el nombre de Open Systems Interconnection Reference
Model o Modelo de Referencia de interconexión de Sistemas Abiertos. En los
entornos de trabajo con redes se le conoce más comúnmente como modelo OSI
(y, con toda probabilidad, sin nisiquiera saber el significado exacto de esta sigla).
En 1984, este modelo paso a ser el estándar internacional para las
comunicaciones en red, al ofrecer un marco de trabajo conceptual que permitía
explicar el modo en que los datos se desplazaban dentro de una red.
El modelo OSI se divide en 7 capa, el proceso de trasmisión de la información
entre equipos informáticos, donde cada capa se encarga de ejecutar una
determinada parte del proceso global. Este marco de trabajo estructurado en
capas, aun siendo puramente conceptual, puede utilizarse para describir y explicar
el conjunto de protocolos reales los cuales se utilizan para la conexión de
sistemas.
Las capas del modelo OSI.
Las capas del modelo OSI describen el proceso de transmisión de los datos dentro
de una red. Las dos únicas capas del modelo con las que, de hecho, interactúa el
usuario son la primera capa. La capa física, y la última capa, la capa de aplicación.
La capa física abarca los aspectos físicos de la red (es decir, los cables, hubs y el
resto de dispositivos que conforman el entorno físico de la red).
La capa de aplicación proporciona la interfaz que utiliza el usuario en su
computadora para enviar mensajes de correo electrónico o ubicar un archivo en la
red.
69
La figura siguiente presenta la estructura de capas que conforman el modelo OSI
de arriba abajo. La pirámide invertida es uno de los modos que mejor ilustran la
estructura de este modelo, en el que los datos con un formato bastante complejo
pasan a convertirse en una secuencia simple de bits cuando alcanzan el cable de
la red. Las capas vienen numeradas de arriba hacia abajo.
Modelo OSI.
Aplicación El nivel de aplicación es el destino final de los datos donde se proporcionan los servicios al usuario.
Presentación Se convierten e interpretan los datos que se utilizarán en el nivel de aplicación.
Sesión Encargado de ciertos aspectos de la comunicación como el control de los tiempos.
Transporte Transporta la información de una manera fiable para que llegue correctamente a su destino.
Red Nivel encargado de encaminar los datos hacia su destino eligiendo la ruta más efectiva.
Enlace Enlace de datos. Controla el flujo de los mismos, la sincronización y los errores que puedan producirse.
Físico Se encarga de los aspectos físicos de la conexión, tales como el medio de transmisión o el hardware.
70
TCP/IP
_______________________________________________________________
TCP/IP es un conjunto de protocolos encaminados que puede ejecutarse en distintas plataformas de software (windows, UNIX, ETC) y casi todos los siotemas operativos de red lo soportan como protocolo de red predeterminado. TCP /IP consta de una serie de protocolos que componen de hecho la pila TCP/IP.
La siguiente figura muestra la correlacion entre el conjunto de protocolos TCP/IP y las capas del modelo OSI.
71
ACRÓNIMOS
72
ACRÓNIMOS. _______________________________________________________________
Acrónimo Inglés Español
ATM Asychronous Transfer
mode
Modo de Transferencia
Asíncrono
MPLS Multiprotocol Label
Switching
Conmutación de
Etiquetas Multiprotocolo
IP Internet Protocol
Protocolo de Internet
IPS(s) Internet Service
Provider(s)
Proveedor(es) de Servicio
de Internet
AS Autonomous System
Sistema Autónomo
ASN Autonomous System
Numbers
Números de Sistemas
Autónomos
ARIN American Registry for
Internet Numbers
Registro Norteamericano
para Números de Internet
RIP Routing Information
Protocol
Protocolo de Información
de Enrutamiento
IGRP Internet Gateway Routing
Protocol
Protocolo de
Enrutamiento de Pasarela
de Internet
73
MTU Maximum Transmission
Unit
Unidad Máxima de
Transmisión
IETF Internet Engineering Task
Force
Fuerza Especial de
Ingeniería en Internet
OSPF Open Shortest Path First
Primero el Camino
Abierto más Corto
IS-IS Intermediate System to
Intermediate System
Sistema Intermedio a
Sistema Intermedio
TOS Type of Service
Tipo de Servicio
IAR Intra-Area Routers
Enrutadores de Intra-área
ABR Area Border Routers
Enrutadores de límite de
Área
BR Boundary Routers
Enrutadores de Frontera
EIGRP Enhaced Internet
Gateway Routing
Protocol
Protocolo de
Enrutamiento Mejorado
de Pasarela de Internet
DUAL Diffusing Update
Algorithm
Algoritmo de
Actualización por Difusión
VLSM Variable-Length Subnet
Mask
Enmascaramiento de Red
de Longitud Variable
74
SAP Service Advertisement
Protocol
Protocolo de Servicio de
Aviso
IDP Initial Domain Part
Parte del Dominio Inicial
DSP Domain Specific Part
Parte Especifica de
Dominio
ISO International Organization
for Standarization
Organización
Internacional para la
estandarización
HO-DSP High Order of DSP
Alto Orden de Parte
Específica de Dominio
ID Indentification
Identificación
EGP Exterior Gateway
Protocol
Protocolo de Pasarela
Exterior
BGP Border Gateway Protocol
Protocolo de Pasarela de
Frontera
TCP Transmission Control
Protocol
Protocolo de Control de
Transmisión
VCI Virtual Circuit Identifier Identificador de Circuito
Virtual
75
VPI Virtual Path Identifier Identificador de Camino
Virtual
PVC Permanent Virtual
Channels
Canales Virtuales
Permanentes
SVC Switched Virtual Channel Canales Virtuales
Conmutados
PTI Payload Type Identifier Campo Identificador de
Tipo de Carga
CLP Cell Loss Priority Prioridad de Perdida de
Celdas
HEC Header Error Control
Control de Código Cíclico
UNI User-Network Interface Interfaz entre el usuario y
la red
GFI Generic Flow Interface
Control de Flujo Genérico
AAL ATM Adaptation Layer Capa de adaptación de
ATM
PCR Peak Cell Rate Velocidad de Celda de
Cresta
CBR Constant Bit Rate Velocidad de Bit
Constante
76
FEC Forwarding Equivalence
Class
Equivalencia de Clase de
Reenvío
LER Label Edge Router Enrutador de Etiqueta de
Frontera
LSP Label-Switched Path Camino de Etiqueta
Conmutada
Label swapping Etiquetas Intercambiadas
LSR Label switching router Enrutador de Etiqueta
Conmutada
Edge LSR Edge Label Switching
Router
Enrutador de
conmutación de etiquetas
de frontera
LDP Label Distribution Protocol Protocolo de distribución
de etiquetas
LFIB Label Forwarding
Information Base
Base de información de
reenvío de etiquetas
77
BIBLIOGRAFÍA
78
BIBLIOGRAFÍA – REFERENCIAS. _______________________________________________________________
[1] GARCÍA LOMAS, Jesús. “Alta velocidad y calidad de servicio en redes IP”.
Primera edición. Ra - Ma Editorial S.A. 2009 p. 300 – 720.
[2] DE GHEIN, LUC “MPLS Fundamentals” 1ª ed. Cisco Press, 2007 p. 2 -248.
[3] TANENBAUM, Andrew S. “Computer Networks”. 5ª ed. Pearson Education
Editorial. 2012 p. 60 – 490.
[4] LEWIS, Chris. “Cisco TCP/IP Routing Professional Reference”. 1ª ed. McGraw-
Hill Editorial. 1999 p. 240 - 456.
[5] MINOLI, Dan. “Planning and Manning ATM Networks”. Manning Publications
Editorial. 1998 p. 199 – 321.
ATM:
[5] RFC 1483 Multiprotocol Encapsulation over AAL 5
[6] RFC 1633 Integrated Services in the Internet Architecture: An Overview
[7] RFC 1932 IP over ATM: A Framework Document
BGP:
[8] RFC 1771 A border Gateway Protocol 4 (BGP–4)
[9] RFC 1773 Experience with the BGP-4 Protocol
[10] RFC 1772 Application of the Border Gateway Protocol in the Internet
EGP:
[11] RFC 904 Exterior Gateway Protocol Formal Specification
IP:
[12] RFC 1753 The recommendation for the IP next generation protocol
79
[13] RFC 1883 Internet Protocol, Version 6
[14] RFC 2373 – IP Version 6 Addressing Architecture
[15] RFC 2893– Transition Mechanisms for IPv6 Hosts and Routers
MPLS:
[16] RFC 3031 Multiprotocol Label Switching Architecture
[17] RFC 3036 LDP Specification
OSPF:
[18] RFC 1583 OSPF Version 2
[19] RFC 1793 Extending OSPF to Support Demand Circuits
[20] RFC 1586 Guidelines for Running OSPF Over Frame Relay Networks
[21] RFC 1584 Multicast Extensions to OSPF
[22] RFC 1403 BGP OSPF Interaction RFC 2328 OSPF Version 2
[23] RFC 1245 OSPF Protocol Analysis
[24] RFC 1246 Experience with the OSPF Protocol
[25] RFC 1850 OSPF Version 2: Management Information Base
RIP:
[26] RFC 1058 Routing Information Protocol
[27] RFC 1009 - Requirements for Internet Gateways
[28] RFC 1388, 1389 - RIP Version 2
[29] RFC 1723 RIP Version 2 Carrying Additional Information
[30] RFC 1582 Extensions to RIP to Support Demand Circuits
[31] RFC 1721 RIP Version 2 Protocol Analysis
[32] RFC 1722 RIP Version 2 Protocol Applicability Statement
[33] RFC 1724 RIP Version 2 MIB Extension