viernes, 29 de junio de 2012

#IT - #SDN Que son "Software Defined Networks"

Las redes definidas por software (SDN) se convertirán en nueva norma universal. Por ende debemos comprenderlas a cabalidad, si estamos en el medio de la administración de Infraestructuras de Tecnologia de Información.

Las arquitecturas tradicionales de la red, tal como las conocemos, fueron concebidas para que el control, enrutamiento y la señalización de la red, fuesen parte de una estructura de gestión estática, jerárquica y dependientes de la infraestructura de red. Una de sus grandes dificultades sigue siendo la imposibilidad de realizar cambios de modo dinámico, en función de requerimientos de tráfico o servicios. Por ejemplo, un control de cambios en la red para implementar rutinas, cambiar enrutamientos o implementar un nuevo servicio, implica programar rutinas para intervenir en cada uno de los dispositivos y endpoints que intervienen en el servicio.

En un esfuerzo encabezado por la Open Networking Foundation (ONF), una organización multiempresarial sin fines de lucro, se ha tratado de desarrollar un modelo de red flexible que se adapte a las realidades del impredecible tráfico de datos. Así nace la arquitectura de red SDN (Software Defined Networking, por sus siglas en inglés) o redes definidas por software, con la cual se espera cambiar la arquitectura de las redes tal como las conocemos. Entre los miembros de la ONF se encuentran Google, Verizon, T-Mobile, Alcatel-Lucent, Facebook, Yahoo, Microsoft, Cisco, IBM, HP.

La ONF ha liderado el desarrollo del SDN y la normalización de sus elementos críticos de arquitectura, entre ellos el protocolo OpenFlow, desarrollado para gestionar el software de control de la red y su interconexión con los distintos dispositivos de red, estableciendo mecanismos de comunicación entre las estructuras de control de la red, el flujo de datos y el plano de señalización.

OpenFlow es una interfaz estándar en las especificaciones del SDN, ha sido diseñado como interfaz para garantizar la conectividad y el rendimiento de todos los dispositivos, fabricados por distintos proveedores que se conectan a la red. OpenFlow está siendo desplegado en una variedad de dispositivos de red y elementos de software, tanto para empresas como para operadores, con el propósito de cubrir y garantizar los siguientes aspectos:

-Gestión centralizada para el control de múltiples dispositivos conectados a la red.

-Gestión mejorada de la red mediante el uso de API?s comunes que hacen transparente el aprovisionamiento de sistemas y aplicaciones.

-Rápida adopción de aplicaciones innovadoras al ofrecer en la misma red capacidades adicionales y/o nuevos servicios sin necesidad de configurar los dispositivos de modo individual o esperar nuevas actualizaciones o releases en los equipos, software y dispositivos por parte de los proveedores.

-Aumento de la fiabilidad y seguridad de la red consecuencia de la implementación de políticas uniformes para el control de los cambios para minimizar las fallas y una gestión centralizada y automatizada de los dispositivos de red.

-Generación de un ambiente de programación común para operadores, empresas, desarrolladores independientes de software y usuarios (como generadores de contenidos y aplicaciones), y no sólo los fabricantes de equipos, lo que le proporciona a todas las partes nuevas oportunidades tanto para la generación de ingresos como para una oferta diferenciada de aplicaciones y servicios.

-Red granular de control con la capacidad de aplicar una amplia gama de políticas estandarizadas de usuarios, dispositivos, niveles de aplicación y establecimiento de sesiones.

-Mejorar la experiencia del usuario final al adaptar la red a sus comportamientos.

GOOGLE PIONERO
En abril de 2012, en el Open Networking Summit de Santa Clara, Google hizo el anuncio de la implementación de SDN y Openflow en toda su red para interconectar todos sus centros de datos y gestionar de modo eficiente las distintas variedades de tráficos que corren en su red (como por ejemplo, Gmail y YouTube).

En la mencionada presentación, que puede ser vista en YouTube, Google no solo habla de las mejoras de rendimiento alcanzadas en su red sino de reducciones importantes en sus costos de operación, que alcanzan 8%.

El boom de los smartphones y tablets, el explosivo consumo de datos sobre estos dispositivos, la creciente demanda de contenidos, la virtualización de servidores y la entrada de los servicios en la nube, son algunas de las tendencias que han impulsado la revisión y transformación de las arquitecturas tradicionales de red y el cambio de paradigma en su gestión y operación.

Las redes actuales, tanto las TDM como las NGN, han sido diseñadas bajo una estructura de árbol jerarquizado. Este diseño tenía sentido cuando la arquitectura cliente-servidor, con la cual nació el modelo de Internet, era el dominante en la industria; pero se adapta mal a la dinámica actual de la industria, donde los patrones de datos han cambiado significativamente.

En contraste con las aplicaciones cliente-servidor donde el grueso de la comunicación se producía entre un cliente y un servidor, hoy en día las aplicaciones de acceso a diferentes servidores, la creación de una oleada de trafico máquina a máquina, el acceso a contenidos y aplicaciones corporativas o personales desde cualquier tipo de dispositivo en cualquier lugar y en cualquier momento, ha generado un modelo de «utility computing» que genera el tráfico adicional e impredecible en la red.

La «consumerization del IT» ha generado una presión adicional en las redes IT corporativas, debido al uso masivo de dispositivos personales como teléfonos inteligentes, tabletas y notebooks, para la gestión remota de aplicaciones, que sumados al aumento servicios bajo demanda en la nube para acceder a aplicaciones, infraestructura y otros recursos de TI; el incremento en las necesidades de procesamiento y el surgimiento de megabases de datos, ha generado incrementos constantes en las capacidades de infraestructura de red y demandas de anchos de banda cada vez mayores y de servicios de conectividad donde sea y cuando sea.

Consecuencia de lo anterior, se han modificado los patrones del tráfico de datos, se le ha puesto una complejidad adicional a las redes con un incremento sustancial en sus costos de equipamiento, afectando las rentabilidades y los ingresos por concepto de operación de los servicios.

Como arquitectura emergente de red, el concepto SDN trata de atender todos estos problemas. La idea en su diseño es un modelo de red donde el control sea completamente programable por software y esté totalmente desvinculado del flujo de los datos y de los dispositivos interconectados en la red (como routers, switch, dispostivos de red).

El principio que está detrás de esta arquitectura es la completa conectividad que generan los entornos orientados a la web. En el caso del modelo IMS (IP Multimedia Subsystem), la inteligencia de la red la tiene el eje central, el CSCF (Call State Control Function), que integra a tres subsistemas: P-CSCF (Proxy CSCF), S-CSCF (Serving CSCF), y I-CSCF (Interrogating CSCF); encargados, básicamente, de procesar y enrutar la señalización, controlar los recursos de transporte y realizar el registro y la autenticación de los usuarios.

En la arquitectura SDN la inteligencia de la red está centralizada desde un punto de vista lógico, y está basada en controladores de software y en objetos de datos que gestionan políticas. Los dispositivos que se conectan en la red no requieren procesar normas y protocolos de acceso, sino simplemente seguir las instrucciones de los controladores SDN. Los operadores y administradores de red pueden configurar servicios y aplicaciones mediante estos objetos de datos, en lugar de desarrollar miles de líneas de código para configurar cada uno de los dispositivos de red. La inteligencia centralizada en los controladores SDN, permite hacer cambios dinámicamente en tiempo real en la red, para con ello implementar muy rápidamente nuevas aplicaciones y servicios.

Los controladores de SDN se soportan en un conjunto de APIs que hacen posible la implementación de servicios de red comunes, como enrutamiento, reenvío de señales multi-cast, seguridad, control de acceso, gestión del ancho de banda, ingeniería de tráfico, calidad del servicio y almacenamiento.

El protocolo OpenFlow se implementa como interfaz en ambos lados, vale decir entre los dispositivos de infraestructura de red y el software de control de SDN. OpenFlow utiliza el concepto de flujos para identificar el tráfico basado en reglas predefinidas por el software de control de SDN. Adicionalmente, permite definir cómo debe ser el flujo de tráfico a través de dispositivos de red basados en parámetros tales como los patrones de uso, aplicaciones y recursos de la nube.

Todo esto le proporciona a SDN un control extremadamente granular sobre la red, lo que le permite responder a cambios en tiempo real a nivel de la aplicación, usuarios y sesiones.

SDN ofrece, tal como lo demuestra la experiencia de Google, a operadores, proveedores de servicios web, la capacidad para implementar un modelo de «utility computing» o de «IT como servicio», mediante la implementación de un concepto de autoservicio, garantizando que los recursos de red se encuentren eficientemente implementados, reduciendo los costos de capital y gastos operativos.

El futuro de las redes se basará cada vez más en software. SDN promete transformar las redes estáticas de hoy en plataformas flexibles y programables con la inteligencia para asignar recursos de forma dinámica, virtualizar servicios y optimizar las capacidades de cómputo IT y de infraestructura de red. Está en camino de convertirse en la nueva norma para las redes.

Fuente: InsideTelecom / NetworkWorld
Sent from my BlackBerry

0 comentarios:

My Tweets

Protegelas.com