jueves, 29 de diciembre de 2016

MPLS

INTRODUCCION

El enorme crecimiento de la red Internet ha convertido al protocolo IP (Internet Protocol) en la base de las actuales redes de telecomunicaciones, contando con más del 80% del tráfico cursado. La versión actual de IP, conocida por IPv4 y recogida en la RFC 791, lleva operativa desde 1980. Este protocolo de capa de red (Nivel 3 OSI), define los mecanismos de la distribución o encaminamiento de paquetes, de una manera no fiable y sin conexión, en redes heterogéneas; es decir, únicamente está orientado a servicios no orientados a conexión y a la transferencia de datos, por lo que se suele utilizar junto con TCP (Transmission Control Protocol) (Nivel 4 de OSI) para garantizar la entrega de los paquetes.
A mediados de la década de los 90, la demanda por parte de los clientes de los ISP (Internet Service Providers) de aplicaciones multimedia con altas necesidades de ancho de banda y una calidad de servicio o QoS (Quality of Service) garantizada, propiciaron la introducción de ATM (Asyncronous Transfer Mode) en la capa de enlace (Nivel 2 de OSI) de sus redes. En esos momentos, el modelo de IP sobre ATM satisfacía los requisitos de las nuevas aplicaciones, utilizando el encaminamiento inteligente de nivel 3 de los "routers" IP en la red de acceso, e incrementando el ancho de banda y rendimiento basándose en la alta velocidad de los conmutadores de nivel 2 y los circuitos permanentes virtuales de los "switches" ATM en la red troncal. Esta arquitectura, no obstante, presenta ciertas limitaciones, debido a: la dificultad de operar e integrar una red basándose en dos tecnologías muy distintas, la aparición de switches ATM e IP de alto rendimiento en las redes troncales, y la mayor capacidad de transmisión ofrecida por SDH/SONET (Synchronous Digital Hierarchy / Syncronous Optical NETwork) y DWDM (Dense Wavelength Division Multiplexing) respecto a ATM.
Durante 1996, empezaron a aparecer soluciones de conmutación de nivel 2 propietarias diseñadas para el núcleo de Internet que integraban la conmutación ATM con el encaminamiento IP; como por ejemplo, "Tag Switching" de Cisco o "Aggregate Route-Based IP Switching" de IBM. La base común de todas estas tecnologías, era tomar el software de control de un "router" IP, integrarlo con el rendimiento de reenvío con cambio de etiqueta de un "switch" ATM y crear un "router" extremadamente rápido y eficiente en cuanto a coste. La integración en esta arquitectura era mayor, porque se utilizaban protocolos IP propietarios para distribuir y asignar los identificadores de conexión de ATM como etiquetas; pero los protocolos no eran compatibles entre sí y requerían aún de infraestructura ATM.
Finalmente en 1997, el IETF (Internet Engineering Task Force) establece el grupo de trabajo MPLS (MultiProtocol Label Switching) para producir un estándar que unificase las soluciones propietarias de conmutación de nivel 2. El resultado fue la definición en 1998 del estándar conocido por MPLS, recogido en la RFC 3031. MPLS proporciona los beneficios de la ingeniería de tráfico del modelo de IP sobre ATM, pero además, otras ventajas; como una operación y diseño de red más sencillo y una mayor escalabilidad. Por otro lado, a diferencia de las soluciones de conmutación de nivel 2 propietarias, está diseñado para operar sobre cualquier tecnología en el nivel de enlace, no únicamente ATM, facilitando así la migración a las redes ópticas de próxima generación, basadas en infraestructuras SDH/SONET y DWDM.

CONCEPTO DE MPLS
MPLS es un estándar IP de conmutación de paquetes del IETF, que trata de proporcionar algunas de las características de las redes orientadas a conexión a las redes no orientadas a conexión. En el encaminamiento IP sin conexión tradicional, la dirección de destino junto a otros parámetros de la cabecera, es examinada cada vez que el paquete atraviesa un router. La ruta del paquete se adapta en función del estado de las tablas de encaminamiento de cada nodo, pero, como la ruta no puede predecirse, es difícil reservar recursos que garanticen la QoS; además, las búsquedas en tablas de encaminamiento hacen que cada nodo pierda cierto tiempo, que se incrementa en función de la longitud de la tabla.
Sin embargo, MPLS permite a cada nodo, ya sea un switch o un router, asignar una etiqueta a cada uno de los elementos de la tabla y comunicarla a sus nodos vecinos. Esta etiqueta es un valor corto y de tamaño fijo transportado en la cabecera del paquete para identificar un FEC (Forward Equivalence Class), que es un conjunto de paquetes que son reenviados sobre el mismo camino a través de la red, incluso si sus destinos finales son diferentes. La etiqueta es un identificador de conexión que sólo tiene significado local y que establece una correspondencia entre el tráfico y un FEC específico. Dicha etiqueta se asigna al paquete basándose en su dirección de destino, los parámetros de tipo de servicio, la pertenencia a una VPN, o siguiendo otro criterio. Cuando MPLS está implementado como una solución IP pura o de nivel 3, que es la más habitual, la etiqueta es un segmento de información añadido al comienzo del paquete. Los campos de la cabecera MPLS de 4 bytes, son los siguientes:
  • Label (20 bits). Es el valor actual, con sentido únicamente local, de la etiqueta MPLS. Esta etiqueta es la que determinará el próximo salto del paquete.
  • CoS (3 bits). Este campo afecta a los algoritmos de descarte de paquetes y de mantenimiento de colas en los nodos intermedios, es decir, indica la QoS del paquete. Mediante este campo es posible diferenciar distintos tipos de tráficos y mejorar el rendimiento de un tipo de tráfico respecto a otros.
  • Stack (1 bit). Mediante este bit se soporta una pila de etiquetas jerárquicas, es decir, indica si existen más etiquetas MPLS. Las cabeceras MPLS se comportan como si estuvieran apiladas una sobre otra, de modo que el nodo MPLS tratará siempre la que esté más alto en la pila. La posibilidad de encapsular una cabecera MPLS en otras, tiene sentido, por ejemplo, cuando se tiene una red MPLS que tiene que atravesar otra red MPLS perteneciente a un ISP u organismo administrativo externo distinto; de modo que al terminar de atravesar esa red, se continúe trabajando con MPLS como si no existiera dicha red externa.


ELEMENTOS DE UNA RED MPLS

En MPLS un concepto muy importante es el de LSP (Label Switch Path), que es un camino de tráfico específico a través de la red MPLS, el cual se crea utilizando los LDPs (Label Distribution Protocols), tales como RSVP-TE (ReSerVation Protocol � Traffic Engineering) o CR-LDP (Constraint-based Routing � Label Distribution Protocol); siendo el primero el más común. El LDP posibilita a los nodos MPLS descubrirse y establecer comunicación entre sí con el propósito de informarse del valor y significado de las etiquetas que serán utilizadas en sus enlaces contiguos. Es decir, mediante el LDP se establecerá un camino a través de la red MPLS y se reservarán los recursos físicos necesarios para satisfacer los requerimientos del servicio previamente definidos para el camino de datos.
Una red MPLS está compuesta por dos tipos principales de nodos, los LER (Label Edge Routers) y los LSR (Label Switching Routers), tal y como se muestra en el ejemplo de la Figura 1. Los dos son físicamente el mismo dispositivo, un router o switch de red troncal que incorpora el software MPLS; siendo su administrador, el que lo configura para uno u otro modo de trabajo. Los nodos MPLS al igual que los "routers" IP normales, intercambian información sobre la topología de la red mediante los protocolos de encaminamiento estándar, tales como OSPF (Open Shortest Path First), RIP (Routing Information Protocol ) y BGP (Border Gateway Protocol), a partir de los cuales construyen tablas de encaminamiento basándose principalmente en la alcanzabilidad a las redes IP destinatarias. Teniendo en cuenta dichas tablas de encaminamiento, que indican la dirección IP del siguiente nodo al que le será enviado el paquete para que pueda alcanzar su destino final, se establecerán las etiquetas MPLS y, por lo tanto, los LSP que seguirán los paquetes. No obstante, también pueden establecerse LSP que no se correspondan con el camino mínimo calculado por el protocolo de encaminamiento.
Los LERs están ubicados en el borde de la red MPLS para desempeñar las funciones tradicionales de encaminamiento y proporcionar conectividad a sus usuarios, generalmente routers IP convencionales. El LER analiza y clasifica el paquete IP entrante considerando hasta el nivel 3, es decir, considerando la dirección IP de destino y la QoS demandada; añadiendo la etiqueta MPLS que identifica en qué LSP está el paquete. Es decir, el LER en vez de decidir el siguiente salto, como haría un "router" IP normal, decide el camino entero a lo largo de la red que el paquete debe seguir. Una vez asignada la cabecera MPLS, el LER enviará el paquete a un LSR. Los LSR están ubicados en el núcleo de la red MPLS para efectuar encaminamiento de alto rendimiento basado en la conmutación por etiqueta, considerando únicamente hasta el nivel 2. Cuando le llega un paquete a una interfaz del LSR, éste lee el valor de la etiqueta de entrada de la cabecera MPLS, busca en la tabla de conmutación la etiqueta e interfaz de salida, y reenvía el paquete por el camino predefinido escribiendo la nueva cabecera MPLS. Si un LSR detecta que debe enviar un paquete a un LER, extrae la cabecera MPLS; como el último LER no conmuta el paquete, se reducen así cabeceras innecesarias.




miércoles, 28 de diciembre de 2016

OpenFlow

OpenFlow es el corazón de la implementación SDN. El controlador de red se comunica con los switches OpenFlow usando el protoclo OpenFlow a través de un canal seguro. Usando esta conexión, el controlador es capaz de configurar las tablas del switch. 




OpenFlow es un protocolo que permite a un servidor decirle a los conmutadores de red adónde enviar paquetes. En una red convencional, cada conmutador tiene software propietario que le dice qué hacer.  Con OpenFlow se centralizan las decisiones de migración de paquetes, de modo que la red se puede programar independiente de los conmutadores individuales y equipo del centro de datos.

En un conmutador convencional, la transferencia de paquetes (la trayectoria de datos) y el enrutamiento de alto nivel (la trayectoria de control) suceden en el mismo dispositivo.  Un conmutador OpenFlow separa la trayectoria de datos de la trayectoria de control.  La porción de trayectoria de datos reside en el propio conmutador; un controlador separado toma las decisiones de enrutamiento de alto nivel.  El conmutador y el controlador se comunican por medio del protocolo de OpenFlow.  Esta metodología, conocida red definida por software (SDN, por sus siglas en inglés), permite un uso más efectivo de los recurso de la red que el que es posible con redes tradicionales.  Ha aumentado la preferencia por OpenFlow en aplicaciones como movilidad de máquina virtual (VM), redes críticas para la misión y redes móviles basadas en IP de nueva generación.
Muchas empresas establecidas incluyendo IBM, Google y HP han utilizado completamente o han anunciado su intención de soportar el estándar de OpenFlow. Big Switch Networks, una compañía de SDN con sede en Palo Alto, California, ha implementado redes de OpenFlow que funcionan sobre redes tradicionales, lo que hace posible colocar máquinas virtuales en cualquier lado dentro de un centro de datos para recuperar capacidad computación varada.  Para principios de 2012, la red interna de Google funcionaba completamente con OpenFlow.

sábado, 24 de diciembre de 2016

Virtualización

SDN permite un control y manejo de red más simple y flexible, y también virtualización de red.


La virtualización es el proceso de crear una representación basada en software (o virtual), en lugar de una física. La virtualización se puede aplicar a servidores, aplicaciones, almacenamiento y redes, y es la manera más eficaz de reducir los costos de TI y aumentar la eficiencia y la agilidad de los negocios de cualquier tamaño.



La aparición de las redes definidas por software (SDN) ha suscitado discursos entre los profesionales de TI acerca de la necesidad de virtualizar la red. Sin embargo, en muchos sentidos, todavía no ha surgido una definición singular de virtualización de red.

En una reciente entrevista con Martín Casado de VMware, aprendimos la diferencia entre SDN y virtualización de la red –Casado comparó a SDN a un mecanismo, mientras que la virtualización de la red es una aplicación.
"SDN es relevante para los fabricantes de sistemas: Lo comparo con una manera de construir un motor", dijo Casado. "Alguien que construye un coche utilizaría una nueva forma de construir un motor para el coche, pero los clientes no compran los motores, compran los coches."

Virtualización de red
La virtualización de la red es un método para proporcionar instancias virtuales de redes físicas mediante la separación de ancho de banda en canales independientes. Cada canal puede ser asignado o reasignado a un servidor específico o un dispositivo en tiempo real y se asegura de forma independiente. Con estos recursos combinados, se pueden aprovisionar túneles de red o segmentos distintos, cada uno con políticas de gestión y de enrutamiento únicas. La virtualización de red está destinada a mejorar la productividad y la eficiencia mediante la realización de tareas de forma automática, permitiendo que los archivos, imágenes y programas que se gestionen de forma centralizada desde un único sitio físico. Los medios de almacenamiento, como discos duros y unidades de cinta, por ejemplo, pueden ser fácilmente añadidos o reasignados, y el espacio de almacenamiento también se puede compartir o reasignarse entre los servidores. Se dice que la virtualización de redes es particularmente eficaz en redes que experimentan aumentos repentinos e imprevistos de datos y aplicaciones que consumen mucha capacidad.

viernes, 23 de diciembre de 2016

Plano de Datos y Plano de Control



El plano de control provee gestión de fallas y performance, gestiona la configuración de los nodos de la red y comprende la topología global de la red. Por otro lado, el plano de datos, es el responsable de conmutar el tráfico en la red.

http://www.auben.net/index.php/compania/novedades-y-eventos/167-sdn-novedades





Software-defined network (SDN) / OpenFlow

SDN / OpenFlow ha llamado la atención de muchos investigadores y compañías. La idea central de una SDN es dividir la función de reenvío de la red (network forwarding function) que hace el plano de datos (data plane), de la función de control de la red, realizado por el plano de control (control plane).

Prefacio del libro Network Innovation through OpenFlow and SDN, Principles and Design - Fei Hu