NFV y SDN: ¿Routers más tontos para redes más listas?

https://www.teldat.com/blog/wp-content/uploads/2014/07/177402640.jpgNFV (Network Functions Virtualization) is a new network architecture that proposes to extend the virtualization technology used in the traditional IT environment to the different network elements, to create more flexible networks and services, easier to deploy and operate, for a reduced cost. While RAID and virtualization meant a revolution on the storage technology and on the computing and operating systems technologies respectively, SDN and NFV propose an equivalent transformation on the communications networks. Cloud Computing would not have been possible without the former technologies and SDN and NFV, in turn, rely on Cloud Computing technologies to deliver their promise.

SDN (Software Defined Networking) is also an emerging network architecture that centralizes the view and control of the network, separating the forwarding decisions (control plane) from the network elements that in fact forward the packets of information (data plane), moving, in this way, the intelligence to the “center” of the network from the previously remotely distributed networks elements, like switches or routers.

SDN and NFV can exist independently of each other, but they are, in fact, complementary technologies that reinforce themselves when used simultaneously.

The interest of network operators in NFV technology

NFV is being pushed and promoted mainly by network operators, in the fight with the “Over-the-Top” service providers, which use network operators’ networks as “dumb pipes” to offer value added services and applications to the end users. With NFV, network operators seek to reduce the time to market of new services generation and provisioning, lower the required investment (CAPEX) and the operating and maintenance cost (OPEX) and expedite the innovation by favoring open-source initiatives.

NFV (and SDN) can theoretically be applied to any network element, network part, or function. For instance, it could be applied to the Mobile Core Network of a mobile operator or to the load balancer gear of a data center.

In more or less degree, part of the functionality of these network elements is subject to be virtualized and offered, for a lower cost, in a central location, using traditional low-cost COTS (Commercial Off-The-Shelf) servers running open-source based software, instead of proprietary hardware and software from established vendors. Or at least this is what many network operators are chasing, promoting and starting to test or even trial in the real world.

But, how does all this apply to the enterprise branch office access router, that is the main network element or “function” that Teldat provides? Does this specific network element have any peculiarity or characteristic that could influence or condition the way it can benefit from the NFV and SDN technologies?

Does it make sense to virtualize the access router?

A rigorous analysis falls out of the scope of this post and one will find both advantages and disadvantages when virtualizing a network element such as the access router or CPE. But regardless of the amount of functionality that might be virtualized, let us first say that we see tough to create “smarter networks” by using “dumber routers”. This does not mean that NFV does not apply to the enterprise branch office access router, but that from all the potential benefits of the NFV and SDN technologies, the CAPEX reduction is probably the less interesting one, or in other words, the toughest to obtain.

Some market initiatives, like the HGI (Home Gateway Initiative), founded in 2004, promote a model that increases the functionality of the CPE by embedding on it a “Software Execution Environment”, able to locally execute several applications or functions. This is the opposite of the NFV model regarding where to put the “intelligence”. Both architectures will probably coexist in the foreseeable future, since both have advantages and drawbacks depending on the specific use case.

The «last mile»: A challenge for NFV  application

SDN benefits are rarely questioned on the datacenter and specifically on the datacenter switches. Nevertheless, the access network and in particular the “last mile” is a much more heterogeneous environment and the bandwidth, in roughly all the cases, cannot be considered “unlimited”, as you could “model” in a Terabit/s datacenter infrastructure. Clearly this has strong implications on the NFV possibilities for a CPE.

The more complex the network element or function, the more potential NFV has to introduce benefits for the network operator. But also, the more heterogeneous the network element environment, the more complicated is to provide an equivalent “homogeneous” virtualized scenario. The last mile is a quite complex element, with non-trivial requirements such as security, quality of service, redundancy and resilience, different media adaptation, etc. On the other side, the last mile is also a quite heterogeneous scenario, especially for integrated or converged network operators that offer a broad range of access technologies.

Interoperability issues

Before a widespread adoption of SDN and NFV can occur, a crucial issue must be solved: Interoperability must be guaranteed, so that network operators do not find themselves locked into a specific vendor solution. Carriers should be warned by their experience in the GPON world with the OMCI “proprietary” management, just one fraction of the complexity NFV can imply. The open-source oriented path the network operators are proposing can be very beneficial for them, but it will not solve this interoperability problem per-se and an “integrator” figure is needed. And “integrator” or “vendor” in this regard is pretty much the same thing.

Smart routers that suit any challenge

At Teldat we follow the SDN and NFV trends with interest and we think they will definitely change the networks for good. Being a vendor that focuses on the customer premises side of the communications, we have always needed to interoperate with the network and use and promote the use of standard-based communications. Our coming devices and many of the existing ones are future proof and SDN/NFV-ready. We do this by designing smarter devices that can create smarter networks. Although some network functions can be virtualized, the enterprise branch office network in the cloud-computing era is complex enough to benefit from a powerful future-proof access router.

Eduardo Tejedor: Ingeniero de telecomunicaciones, V.P. Marketing Estratégico

Ataques «Heartbleed» a tu seguridad en Internet: ¿Cómo prevenirlos?

heartbleed noticeEl robo de datos y el espionaje en Internet aprovechan los puntos débiles de algunos servidores y programas de software. Descúbrelos, ¡y toma precauciones!

Nuestro tráfico diario de datos en Internet ha alcanzado un volumen tal, que a menudo es difícil ponderarlo en cifras. Por ejemplo: en junio de 2014, el DE-CIX alemán (hablamos del mayor punto de intercambio de datos en Internet, ubicado en Frankfurt), transmitió un promedio de 1,7 Tbit/s.¡Asombroso!

Gran parte de esa información tiene que ver con transacciones realizadas con aplicaciones críticas, y contienen, entre otras cosas, datos financieros y personales.

Ya se trate de operaciones en el mercado de valores, compras online o gestiones bancarias, cualquier persona que efectúe este tipo de transacciones espera que la seguridad, la integridad y la autentificación estén absolutamente garantizadas en todo momento.

Errores de seguridad en nuestras comunicaciones a través de Internet

Durante años, los procesos de intercambio de información por Internet han sido sometidos adecuadamente a métodos de cifrado de datos, gracias a la implementación de tecnologías específicas para ello. Pero, y aquí viene lo importante, ¡estos sistemas no son infalibles!

Resulta que  los servidores web, NAS, los gateways y los routeres son vulnerables, debido a un error de implementación. Los datos sensibles pueden ser recuperados sin que nadie pueda detectar el ataque. De hecho, la intercepción y el espionaje de datos se ha convertido en un lucrativo negocio.

Resulta preocupante, en particular, la gran variedad de servicios cuyo objetivo es proteger los datos, por medio generalmente, de SSL y TLS, que pueden verse afectados y poner en riesgo su privacidad. Lo mismo ocurre con los e-mails (POPS, IMAPS, SMTP con STARTTLS).

Anatomía de un “fallo en el corazón” de su seguridad en Internet

Al observar de cerca el problema, se da cuenta uno de que el error más común es relativamente sencillo. Durante el proceso, el remitente transmite los datos (carga útil) al receptor, que a cambio, responde con el envío de información. El problema surge por el hecho de que el receptor no verifica la cantidad de datos transmitidos. Si el remitente “miente”, y dice haber enviado 16 Kbytes, cuando en realidad solo ha mandado un solo byte, el receptor responde de buen grado mediante la devolución de datos desde la memoria RAM (Ramdom Access Memory).

Este fallo “tonto”, si se quiere, en la Memoria de Acceso Aleatorio, le sitúa potencialmente a merced de la estación remota de cualquier atacante. No es ninguna broma. Este punto débil en su seguridad puede convertirle en objeto de prácticas tan peligrosas como el phishing, o suplantación de identidad.

Si un ciberatacante usa este procedimiento de forma sistemática y con gran potencia de cálculo, pueden hacerse con grandes cantidades de información de tarjetas de crédito y contraseñas. Puede incluso llegar al corazón de los servidores, con el objetivo de reconocer la clave privada. Los afectados, usuarios como usted, no notarían nada, dado que no recibirían ningún mensaje de aviso de certificados falsos.

¿Es posible recuperarse de este “infarto” en la seguridad de tus datos?

Las personas afectadas se encuentran en una situación incierta. En primer lugar, habría que investigar lo antes posible si realmente existe una amenaza seria respecto a los sistemas a los que tenemos acceso. El fabricante podría prestarnos su ayuda para determinar la gravedad de la situación. Si efectivamente se corre un riesgo importante, hay que tomar medidas rápidamente, con el fin de actualizar los sistemas afectados.

En este escenario, también es aconsejable declarar como no válidos los certificados digitales existentes y sustituirlos. En lo que concierne a los servicios para los que no tenemos acceso, no nos queda otra que confiar en que el proveedor garantizará la seguridad lo antes posible. Solo tiene sentido cambiar las contraseñas una vez que el proveedor haya renovado los certificados.

Toma medidas preventivas: evite ataques “de infarto” a tu privacidad en Internet

El uso de Open Source, y concretamente de OpenSSL, evidencia el modo en que una infraestructura fundamental y crítica en Internet puede desmoronarse en un abrir y cerrar de ojos.

Cuando uno analiza la situación a fondo, y teniendo en cuenta la cantidad de ingenieros de software que trabajan a tiempo completo en labores de mantenimiento y desarrollo, no puede evitar sorprenderse de la magnitud del asunto.

La pregunta que cabe hacerse es: ¿cuál es el camino para evitar este tipo de problemas de seguridad en Internet, de cara al futuro?

Lo único que podemos responder, como fabricantes, es que nosotros siempre hemos tomado medidas preventivas para cuidar la salud de sus comunicaciones y transacciones en red. Por esa razón, ninguno de nuestros productos incluye los componentes de software mencionados. Prescindimos de todo aquello que puede poner en jaque su seguridad en Internet. Aunque gracias a nuestra política preventiva no tenemos ninguna responsabilidad en este tipo de fallos de seguridad, en Teldat creemos que es nuestro deber informar a los usuarios, y por supuesto, seguir trabajando en nuestra línea, desarrollando productos de calidad que garanticen su seguridad de cara a futuras amenazas.

Bernd Buettner:

Soluciones hybird: un único dispositivo por cada oficina

Soluciones hybrid de TeldatLa oficina se ha convertido en un espacio aparatoso, repleto de dispositivos electrónicos que necesitan configuración, mantenimiento, alimentación, seguridad y cables, ¡muchos cables! (excepto si forman parte de una red WLAN). ¿Cómo hemos llegado a esta situación?

Según el principio de entropía, todo tiende al caos y el desorden. ¿Qué mayor prueba que un montón de cables embrollándose entre sí en una madeja casi imposible de desenmarañar? Y todo esto sigue sucediendo, a pesar del empeño de los fabricantes en aplicar la filosofía del plug and play, produciendo equipos que presten la mayor simplicidad y compatibilidad posible. Aun así, es un aspecto farragoso del trabajo, del que se tiene que hacer cargo el personal técnico de cualquier pyme, que pierde un tiempo precioso que podría estar empleando en atender otras necesidades de la empresa.

¿Existe algún modo de simplificar el entorno técnico en una pyme?

.

El principal problema es que las empresas poseen un abanico de necesidades respecto a determinadas funcionalidades técnicas: seguridad, acceso a Internet, velocidad, disponibilidad de servicios externos en la nube, así como aplicaciones del servidor interno de la empresa y sus sucursales (en el caso de que las haya), convergencia flexible de servicios de datos y telefonía… Y hasta ahora, cada una de ellas requería un dispositivo distinto. ¡Qué locura!, ¿verdad?

Los requisitos técnicos y funcionales, la voz, la seguridad, la gestión, etc., se cuentan entre los aspectos que más influyen en la decisión de compra en el sector de las pymes. Desde la perspectiva del cliente, todo debe funcionar de forma correcta y continua, porque de lo contrario, se pierde tiempo y dinero. Y como todos sabemos, en los negocios nadie anda sobrado, ni de lo uno, ni de lo otro.

Hoy en día, los servicios de datos y telefonía ya están integrados en las grandes empresas en determinadas aplicaciones de oficina . Pero los negocios pequeños también quieren aprovecharse de estas prestaciones para agilizar sus flujos de trabajo, y ganar en rapidez y simplicidad. ¿Cuál es el principal problema? No disponer, a diferencia de las grandes compañías, de un departamento especializado que pueda hacerse cargo de todo el proceso de integración, configuración, etc.

En ese sentido, los costes son una de las dificultades con las que muchas pymes tienen que lidiar. Todos los elementos requieren de especialistas que, además, tienen que trabajar de forma coordinada. El firewall no solo tiene que garantizar el acceso seguro a todos los servicios de vídeo, voz, datos y fax necesarios en Internet, en las comunicaciones con las filiales, etc., sino también evitar el acceso no autorizado a su propio servidor.

Así mismo, también es necesario coordinar la infraestructura IT existente, como el cableado de red y las diferentes tecnologías inalámbricas, (Wireless LAN y DECT, por ejemplo) para que los servicios de voz críticos y de transferencia de datos no se obstaculicen entre sí. Por tanto, la calidad del servicio depende de la correcta configuración en el LAN, y en el WAN, con el fin de prevenir los abandonos o incluso las pérdidas de conexión durante las llamadas telefónicas. “Afinar” cada componente individual puede suponer un desafío mayor de lo que en principio se podría suponer. Las aplicaciones y los dispositivos deben interactuar de forma fiable. La transparencia completa entre los diferentes sistemas y la capacidad para identificar errores son requisitos fundamentales para que las pymes puedan hacerse cargo del mantenimiento sin disponer de un departamento de IT creado específicamente para ello.

Otro punto a tener en cuenta es que las pymes debemos ajustarnos a los estándares del Green IT, esto es,  la exigencia de un uso eficiente de los recursos computacionales para ahorrar energía y minimizar el impacto ambiental. Qué duda cabe de que se trata de una causa noble que contribuye a la conservación de los recursos naturales de los que todos dependemos. Pero también es cierto que introduce un factor de complejidad al que las pymes tienen que hacer frente, y que puede influir en la toma de decisiones.

Existen diversos reglamentos a nivel internacional que obligan a los fabricantes y consumidores a prestar cada vez más atención a las medidas de ahorro energético. El número de dispositivos en permanente funcionamiento debe reducirse al mínimo. Por eso es tan importante operar con servidores virtuales, aunque esto no siempre se cumple en el heterogéneo entorno de protocolo de las Comunicaciones Unificadas (UC).

En la práctica, los servidores virtuales ya son un importante requisito previo para el funcionamiento local de varios servicios (en un servidor o en la nube) con el fin de ahorrar en corriente para ordenadores. Especialmente en el consumo de recursos destinados a su enfriamiento.

Los dispositivos hybrid simplifican las necesidades en IT de las pymes

Todas estas evidencias apuntan a una apuesta creciente por ofrecer sistemas integrados y compactos que cubran una gran variedad de funciones, con una forma sencilla de alineación para satisfacer las necesidades de las pymes, ayudándolas a optimizar al máximo las cuestiones técnicas. Interfaces abiertas para una mayor integración en el ámbito de las pymes ya se están implementando desde el primer puesto de trabajo.

En Teldat hemos dado un paso al frente para fijar nuestra mirada en el futuro. Ofrecemos la posibilidad de unificar las distintas áreas y funciones de la empresa, optimizando al máximo su funcionamiento y evitando la complejidad técnica que entorpece el correcto funcionamiento de tu modelo de negocio.

Todo ello gracias a nuestros dispositivos de gama hybrid, soluciones de dispositivo único con los que hemos logrado llenar un imperdonable vacío en el mercado de soluciones profesionales en IT para pymes.

Contacta con nosotros y descubrirás lo que las soluciones hybird de Teldat pueden hacer por ti.

Randolf Mayr:

Routers y servidores para aplicaciones onsite

routers and servers for branch offices La evolución meteórica de las comunicaciones corporativas es un hecho. Hace unas décadas, los terminales “tontos”, se conectaban al mainframe mediante líneas punto a punto. Esto, que podría parecernos cosa del pleistoceno, era lo último en tecnología hace unas décadas. Las redes X25, Frame Relay o ISDN supusieron un importantísimo avance para las comunicaciones corporativas. Pero si esta tecnología supuso un salto evolutivo similar al descubrimiento del fuego, las redes IP podrían equipararse a la invención de la rueda.

Ahora, las conexiones de alta velocidad como DSL y fibra constituyen, ¡una auténtica “revolución industrial” de las comunicaciones! Y por último, evolucionamos sin olvidarnos de nuestros orígenes: si los antiguos pensaban que la sabiduría se encontraba en las divinidades que habitaban los cielos, nosotros tenemos la información alojada “en la nube”.

Las metáforas que hemos empleado no son casuales. Hablamos de evolución tecnológica. La virtualización es el próximo horizonte por conquistar.

El “Cloud Computing” y su implementación en las empresas

La expansión del Cloud Computing es la asignatura pendiente en las comunicaciones. Pero sin duda alguna, cobrará más fuerza cada vez. Prueba de ello es la forma en la que su uso se ha ido generalizando en las comunicaciones residenciales, con aplicaciones como Google Apps, Microsoft Office 365 o Dropbox. Y es que las comunicaciones residenciales suelen ir por delante de las corporativas, algo que podemos corroborar con ejemplos como la conectividad ADSL, FTTH o 4G.

Lo único que todavía genera dudas respecto a la propagación de la virtualización en el contexto corporativo, es si la nube en las empresas será pública, privada o híbrida, o el ritmo de migración que experimentaremos en los próximos años. Pero es un hecho que la virtualización está aquí, ¡y ha venido para quedarse.

Ventajas de la virtualización en empresas

La virtualización tiene ventajas obvias. Veamos algunas de ellas.

Reducción CAPEX y OPEX en la periferia de la red, debido a la centralización de recursos hardware y software en la nube.

  • Evidente mejora en el control.
  • Seguridad y fiabilidad en los datos y aplicaciones.
  • Incremento de la flexibilidad en la provisión de recursos.
  • Mayor control de licencias.

Pero no seríamos justos si no reconociéramos ciertas dificultades.

Problemas a los que se enfrenta la virtualización

La evolución en las aplicaciones en la nube no está exenta de complejidad. En primer lugar, los requisitos de conectividad para lograr una buena experiencia de usuario son más exigentes que en el caso del almacenamiento y procesamiento local. Como consecuencia de ello, hay que prestar especial atención a aspectos como la redundancia, la seguridad y la optimización del enlace de acceso a la red. En segundo lugar, determinadas aplicaciones con un trasiego de datos importante en modo local, como cartelería dinámica o gestión de contenidos, no escalan bien hacia la nube. Aquí el problema consiste en que ya no disponemos del servidor local para solventar la situación. Lo mismo ocurre cuando necesitamos conectar dispositivos no-IP, como impresoras, alarmas, control de accesos, cámaras web, etc.

¿Qué podemos hacer para sortear estos obstáculos?

El “router” como solución a diversos problemas en computación en la nube

Así es: el router, ¡importa! No se trata de algo banal en absoluto. La experiencia de usuario depende de su eficacia y estabilidad. Esto nos lleva a plantearnos una pregunta fundamental: ¿Qué rol ha de desempeñar el router en los nuevos escenarios surgidos del Cloud Computing?
Quizá se entienda mejor la cuestión si reformulamos la pregunta en otros términos: ¿Podría el router ampliar su radio de acción para adaptarse a las necesidades requeridas por el Cloud Computing?  Como habréis  observado, ahora la forma de plantear la pregunta nos da pistas sobre la dirección a seguir para ofrecer una respuesta.
El router conecta usuarios y aplicaciones, centralizando el tráfico y, por tanto, el proceso de datos. Su posición estratégica le permite aportar un plus de seguridad y optimización necesarios, y convertirse en la extensión de las aplicaciones en la nube que interactúan con los dispositivos locales.
La única cuestión que nos quedaría por resolver es: ¿tiene el router capacidad de almacenamiento y procesamiento, así como herramientas de gestión que permitan realizar procesos locales de forma fiable? En el pasado no nos planteábamos todo esto. Dichas prestaciones eran nulas o muy limitadas. En el mejor de los casos, se limitaban a soluciones artificiales que integraban una unidad de proceso (mini-PC) en el chasis.
En la actualidad existen soluciones convergentes basadas en procesadores multicore, que integran en un mismo soporte físico dos dispositivos virtuales (router + servidor), cada uno con su software y su sistema operativo independiente, orientado a una u otra tarea. También incluyen almacenamiento HDD o SSD, e interfaces USB para dispositivos locales.
Los routers de Teldat, Cloud Ready, se adecúan a las necesidades surgidas en la era de la computación en la nube, gracias a la integración de aplicaciones que ya no pueden correr en servidores locales. Los ejemplos más claros son los siguientes:

  • Seguridad: antivirus, sondas SIEM, antispam, filtrado de contenidos, etc.
  • Optimización: webcache, videoproxy, NAS replicado en la nube, repositorio para escritorios virtuales…
  • Auditoría local o cartelería dinámica: basada en DLNA

¿Estamos preparados para la era del Cloud Computing? La respuesta es, ¡sí!

Marcel Gil: Ingeniero en Telecomunicaciones y Máster en Telemática por la Universidad Politécnica de Catalunya, es Responsable de la línea de negocio SD-WAN en Teldat

802.11ac. ¿Ha llegado el momento de cambio para las redes empresariales?

WLAN-150x150Actualmente hay mucho ruido en la prensa relacionado con lo que llaman el nuevo estándar Gigabit 802.11ac. Por supuesto la actualización al 802.11ac tiene ventajas tecnológicas que podrían justificarlo, , pero  ¿estamos ya ante el momento correcto para actualizar su red empresarial o aún es necesario esperar para aprovechar al máximo las ventajas de  la nueva tecnología?

Es importante considerar, para este análisis las necesidades de las empresas que es el mercado al que Teldat se dirige con su oferta de productos. Mientras que en el mercado de consumo un solo punto de acceso tiene que servir una pequeña cantidad de clientes WLAN que requieren un rendimiento  excelente. En el entorno empresarial, se tiene un gran número de puntos de acceso que cubren una gran superficie, y que  tienen que permitir conectarse a una gran cantidad de clientes itinerantes, que no están uniformemente distribuidos pero que a cambio sólo requieren una calidad media en su conexión WI-FI.  Y es bajo este prisma, bajo el que muchas de la ventajas del estándar 802.11 tienen (o dejan de tener) sentido.

802.11ac opera exclusivamente con redes de 5GHz, pero es retro compatible con clientes existentes. La tecnología actual permite  velocidades de transferencia de datos de hasta 1.3Gbit/s. Pero esto no es más que la medida de la capacidad de transmisión. La velocidad neta, si hablamos de transferencia de información,  se queda en un 50% menos. La ganancia se obtiene principalmente con dos mejoras. Primero, en lugar de un canal con 20MHz, .11ac utiliza al menos 80MHz aunque existe incluso  una variante con un ancho de banda de 160 MHz. Este alto requisito de ancho de banda complica la planificación  de canales en las empresas, si queremos evitar  solapamientos e interferencias. Dependiendo del ancho de banda, se suelen utilizar uno o dos canales en las frecuencias de interior. Así que es posible que debido al elevado ancho de banda, se generen cuellos de botella en redes empresariales con muchos puntos de acceso y muchos clientes en cada canal. Y la consecuencia es que  menos clientes puedan conectarse a la red WIFI simultáneamente, lo que puede suponer un grave problema para las redes empresariales.

Otras de las ventajas del 11.ac es  la mejora de la modulación de amplitud en cuadratura de nivel 64 (64-QAM) a  256 (256-QAM).  En este punto, es necesario tener en cuenta que el  uso de 256-QAM requiere un muy buen ratio de señal/ruido que sólo se obtiene si la distancia al punto de acceso es corta. Si este ratio no supera un cierto umbral,  el equipo cambiará su funcionamiento a 64-QAM, y se perderá esta ventaja añadida del nuevo estándar.

Un punto importante, es el aspecto económico. En una posible migración a .11ac se debe analizar la infraestructura de la red, además de los costes relacionados con la planificación. Las redes .11 ac consumen mucha energía y requieren una alimentación PoE tipo 802.3at. Por lo tanto se debe adquirir nuevos conmutadores de red. Además, los productos .11 ac actualmente disponibles son considerablemente más caros que los mejores equipos  de .11 n.

El nuevo estándar .11ac tiene otra mejoría técnica que resulta muy importante para aumentar el rendimiento de redes con muchos clientes, como son las redes empresariales. . Esta característica se llama MU-MIMO (Multi-User MIMO). Las actuales redes, que no presentan esta funcionalidad, hacen que  todos los clientes de 1×1 Mimo compartan la primera corriente o antena de un punto de acceso. Por ejemplo, el caso que se produce al conectarse tres clientes 1×1 MIMO a un punto de acceso MIMO 3×3. Sin embargo, con MU-MIMO cada cliente puede recibir su propia conexión desde el punto de acceso. Esto en el fondo significa que el sistema cuenta con un rendimiento tres veces superior o  que tres veces más clientes pueden beneficiarse del mismo punto de acceso. En cualquier caso, una ventaja significativa.

Por estas razones, MU-MIMO es de particular interés para las aplicaciones empresariales  cuya necesidad principal no es  conectar un solo cliente con la mayor velocidad de datos posible, sino que  buscan conectar el número más elevado de usuarios y proporcionarles el mejor rendimiento posible. Los equipos con  MU-MIMO todavía no están totalmente disponibles en el mercado, ya que la base tecnológica que lo soporta ha sufrido algunos retrasos. Esta es una de las razones por las cuales 802.11ac sigue sin poder aprovecharse completamente  en entornos empresariales.

El equipo de I+D de Teldat está trabajando con la última disponible y tener disponible en los próximos meses  un punto de acceso de radio dual que combine en conjunto, las ventajas de tecnología 2.4 GHz .11n y la nueva tecnología .11ac. Esta próxima generación de .11 ac será más eficiente en la administración de su energía y en el uso de terminales móviles .11 ac.

Hans-Dieter Wahl: Jefe de línea de negocio: WLAN