Servicios WAN

wan marketLos operadores, actualmente, están involucrados en una espiral de cambio respecto al negocio de los servicios WAN. Debido a diferentes factores, es una actividad que tiene una aproximación diferente para cada tipo de cliente.

(más…)

Juan Perez: Ingeniero de Telecomunicaciones, es Director Territorial (Colombia, Perú, Chile y Brasil) en el Departamento Comercial de Teldat.

El impacto de las tecnologías y los equipos de red en la nube para las empresas

Cloud technologiesCada vez más empresas se interesan por las tecnologías de virtualización y buscan el modo de ofrecer sus servicios en la nube. No se trata solo del objetivo de las compañías TI; también es el modelo al que aspiran todo tipo de empresas que buscan una solución adecuada y moderna para sus operaciones diarias.

(más…)

Marina Evdokimova: Ingeniera de redes en el departamento de Operaciones y Servicios. Dentro de dicho departamento trabaja en el grupo de Servicios al Cliente.

La necesidad de visualización y control de aplicaciones

colibri managerSiempre ha sido deseable saber qué se está transmitiendo por la red de datos corporativa. Pero hoy en día es clave; ¿por qué la visualización de aplicaciones en red se ha convertido en un tema tan crítico? La clave está en la complejidad. 

Debido al desplazamiento a la nube de la infraestructura de TI, el conocimiento del tráfico a nivel 3 (protocolo IP) no es suficiente para caracterizar las aplicaciones que se están transmitiendo por la red: en el centro de datos tradicional, los servidores de aplicaciones tienen direcciones IP fijas y conocidas de antemano. En la nube, el direccionamiento IP no es controlado por la organización que hace uso de los servicios.

Estas son solo algunas de las dificultades. Como veremos, hay muchas más.

Escenarios cada vez más complejos

Ahora transitan por la red muchas más aplicaciones, tanto corporativas como personales, que hace unos pocos años. Estas aplicaciones no han sido diseñadas, en general, pensando en optimizar el ancho de banda de red. Además, tienen diferentes requisitos y comportamientos, con lo cual, unas aplicaciones pueden afectar negativamente a otras, si la red no es capaz de aplicar diferentes políticas para evitarlo.

La mayoría de las aplicaciones hoy en día utilizan los protocolos http y https en sus comunicaciones, para evitar o minimizar los efectos negativos de posibles políticas de seguridad o direccionamiento IP (NAT) en la red. Por lo tanto, el nivel de transporte (puerto TCP o UDP) ya no identifica convenientemente a las aplicaciones en la red, porque la mayoría de ellas usan los mismos puertos http (80) y https (443).

Para añadir todavía más complejidad al problema, actualmente las empresas tienen que dar conectividad a una gran variedad de dispositivos locales “autorizados”. Frente al modelo de terminal único tradicional, a día de hoy, las redes locales remotas son más variadas y menos controladas: oficina inalámbrica, acceso a invitados, acceso desde el hogar, BYOD, IOT… Incrementan también la complejidad del análisis del tráfico en la red los sistemas de cacheado y redes de contenido (CDN).

Finalmente esta mayor diversidad incrementa los riesgos de seguridad: virus, malware, bots, etc., que a su vez son susceptibles de generar una gran cantidad de tráfico “no controlado” en la red. Tráfico que conviene, igualmente, detectar y caracterizar. Se evidencia aquí una estrecha relación entre visibilidad y seguridad a nivel de red.

Queda claro que la complejidad en el análisis del tráfico de la red ha aumentado considerablemente en los últimos años y que se necesitan nuevas herramientas con mayor capacidad de análisis. De lo contrario, permaneceremos ciegos e ignorantes de lo que pasa por nuestra red, poniéndola en riesgo y aumentando innecesariamente su coste. Debido a la gran cantidad de información manejada, serán obligatorias herramientas que realicen un filtrado inteligente de la información recibida, y que tengan una notable granularidad en la capacidad de análisis y reporte. Es aquí donde las tecnologías del “big data” aportan también grandes ventajas frente a las herramientas tradicionales.

Soluciones de visibilidad y control de aplicaciones acordes a las nuevas necesidades

Consciente de esta nueva problemática, los usuarios demandan un servicio que esté a la altura:

* Las soluciones deben poder escalar convenientemente hacia abajo, a entornos de una oficina corporativa pequeña o media, ofreciendo un compromiso razonable entre los requisitos de CPU (coste) necesarios para realizar la detección de aplicaciones (DPI, por sus siglas en inglés, que significan “inspección profunda de paquetes”), y número de aplicaciones detectadas (utilidad para el cliente y calidad de la detección de aplicaciones).

* Frente a soluciones del mercado basadas en sondas propietarias en los puntos remotos y appliances hardware también propietarios, en el punto central, la integración de la detección inteligente en los routers remotos junto con el uso de una herramienta centralizada de gestión, permite una muy buena granularidad en la detección junto con una explotación asequible y escalable a cualquier tamaño de red.

* Para evitar soluciones propietarias, es importante utilizar proveedores que se basen en protocolos estándar para la comunicación de la información de visibilidad (por ejemplo con Netflow/IPFIX). Esto permite que los clientes utilicen sus propios colectores de información si lo desean.

Teldat ofrece soluciones de visibilidad y control de aplicaciones en red integradas con sus routers de acceso y su herramienta de gestión, Colibri Netmanager, cumpliendo con las nuevas necesidades.

Eduardo Tejedor: Ingeniero de telecomunicaciones, V.P. Marketing Estratégico

Routers y servidores para aplicaciones onsite

routers and servers for branch offices La evolución meteórica de las comunicaciones corporativas es un hecho. Hace unas décadas, los terminales “tontos”, se conectaban al mainframe mediante líneas punto a punto. Esto, que podría parecernos cosa del pleistoceno, era lo último en tecnología hace unas décadas. Las redes X25, Frame Relay o ISDN supusieron un importantísimo avance para las comunicaciones corporativas. Pero si esta tecnología supuso un salto evolutivo similar al descubrimiento del fuego, las redes IP podrían equipararse a la invención de la rueda.

Ahora, las conexiones de alta velocidad como DSL y fibra constituyen, ¡una auténtica “revolución industrial” de las comunicaciones! Y por último, evolucionamos sin olvidarnos de nuestros orígenes: si los antiguos pensaban que la sabiduría se encontraba en las divinidades que habitaban los cielos, nosotros tenemos la información alojada “en la nube”.

Las metáforas que hemos empleado no son casuales. Hablamos de evolución tecnológica. La virtualización es el próximo horizonte por conquistar.

El “Cloud Computing” y su implementación en las empresas

La expansión del Cloud Computing es la asignatura pendiente en las comunicaciones. Pero sin duda alguna, cobrará más fuerza cada vez. Prueba de ello es la forma en la que su uso se ha ido generalizando en las comunicaciones residenciales, con aplicaciones como Google Apps, Microsoft Office 365 o Dropbox. Y es que las comunicaciones residenciales suelen ir por delante de las corporativas, algo que podemos corroborar con ejemplos como la conectividad ADSL, FTTH o 4G.

Lo único que todavía genera dudas respecto a la propagación de la virtualización en el contexto corporativo, es si la nube en las empresas será pública, privada o híbrida, o el ritmo de migración que experimentaremos en los próximos años. Pero es un hecho que la virtualización está aquí, ¡y ha venido para quedarse.

Ventajas de la virtualización en empresas

La virtualización tiene ventajas obvias. Veamos algunas de ellas.

Reducción CAPEX y OPEX en la periferia de la red, debido a la centralización de recursos hardware y software en la nube.

  • Evidente mejora en el control.
  • Seguridad y fiabilidad en los datos y aplicaciones.
  • Incremento de la flexibilidad en la provisión de recursos.
  • Mayor control de licencias.

Pero no seríamos justos si no reconociéramos ciertas dificultades.

Problemas a los que se enfrenta la virtualización

La evolución en las aplicaciones en la nube no está exenta de complejidad. En primer lugar, los requisitos de conectividad para lograr una buena experiencia de usuario son más exigentes que en el caso del almacenamiento y procesamiento local. Como consecuencia de ello, hay que prestar especial atención a aspectos como la redundancia, la seguridad y la optimización del enlace de acceso a la red. En segundo lugar, determinadas aplicaciones con un trasiego de datos importante en modo local, como cartelería dinámica o gestión de contenidos, no escalan bien hacia la nube. Aquí el problema consiste en que ya no disponemos del servidor local para solventar la situación. Lo mismo ocurre cuando necesitamos conectar dispositivos no-IP, como impresoras, alarmas, control de accesos, cámaras web, etc.

¿Qué podemos hacer para sortear estos obstáculos?

El “router” como solución a diversos problemas en computación en la nube

Así es: el router, ¡importa! No se trata de algo banal en absoluto. La experiencia de usuario depende de su eficacia y estabilidad. Esto nos lleva a plantearnos una pregunta fundamental: ¿Qué rol ha de desempeñar el router en los nuevos escenarios surgidos del Cloud Computing?
Quizá se entienda mejor la cuestión si reformulamos la pregunta en otros términos: ¿Podría el router ampliar su radio de acción para adaptarse a las necesidades requeridas por el Cloud Computing?  Como habréis  observado, ahora la forma de plantear la pregunta nos da pistas sobre la dirección a seguir para ofrecer una respuesta.
El router conecta usuarios y aplicaciones, centralizando el tráfico y, por tanto, el proceso de datos. Su posición estratégica le permite aportar un plus de seguridad y optimización necesarios, y convertirse en la extensión de las aplicaciones en la nube que interactúan con los dispositivos locales.
La única cuestión que nos quedaría por resolver es: ¿tiene el router capacidad de almacenamiento y procesamiento, así como herramientas de gestión que permitan realizar procesos locales de forma fiable? En el pasado no nos planteábamos todo esto. Dichas prestaciones eran nulas o muy limitadas. En el mejor de los casos, se limitaban a soluciones artificiales que integraban una unidad de proceso (mini-PC) en el chasis.
En la actualidad existen soluciones convergentes basadas en procesadores multicore, que integran en un mismo soporte físico dos dispositivos virtuales (router + servidor), cada uno con su software y su sistema operativo independiente, orientado a una u otra tarea. También incluyen almacenamiento HDD o SSD, e interfaces USB para dispositivos locales.
Los routers de Teldat, Cloud Ready, se adecúan a las necesidades surgidas en la era de la computación en la nube, gracias a la integración de aplicaciones que ya no pueden correr en servidores locales. Los ejemplos más claros son los siguientes:

  • Seguridad: antivirus, sondas SIEM, antispam, filtrado de contenidos, etc.
  • Optimización: webcache, videoproxy, NAS replicado en la nube, repositorio para escritorios virtuales…
  • Auditoría local o cartelería dinámica: basada en DLNA

¿Estamos preparados para la era del Cloud Computing? La respuesta es, ¡sí!

Marcel Gil: Ingeniero en Telecomunicaciones y Máster en Telemática por la Universidad Politécnica de Catalunya, es Responsable de la línea de negocio SD-WAN en Teldat