Uploaded by fastweb11

Principios basicos redes efectivas-final

advertisement
PRINCIPIOS ESCENCIALES DE REDES EFECTIVAS (de la serie Tecnología para Todos) En mi profesión de consultor y vendedor de soluciones de redes LAN (cableadas) y WLAN (inalámbricas) frecuentemente encuentro graves incongruencias y errores de diseño en las redes de la empresas que visito; situación que les ocasiona problemas constantes y frustración innecesaria. Para ellos, el síndrome de “se cayó el Internet” es cosa todos los días y repercute directamente en la productividad de la empresa. Y lo peor es que a veces invirtieron recientemente una cantidad considerable de dinero en equipos de redes y servicios relacionados. Esta situación probablemente se pudiera haber evitado si el tomador de decisiones hubiera tenido un entendimiento básico de los principios de redes de datos al momento de autorizar o solicitar las compras de dichos equipos. En escencia, equipos de redes recientes, caros y potentes NO garantizan que los usuarios gocen de un servicio rápido y confiable debido a que estamos lidiando con un “sistema” o conjunto de elementos individuales que interaccionan entre sí, y cambiar un elemento no implica que el resultado final sea mejor. Frecuentemente solo se transfiere el problema de un lugar a otro o el impacto es demasiado pequeño como para ser palpable. Como le expliqué a un cliente aficionado a los autos: “De nada nos sirve un Ferrari si el camino es de terracería”. Pretendo con este artículo dar un breve resumen en términos coloquiales de los conceptos esenciales de redes para que directores o tomadores de decisiones puedan involucrarse lo suficiente en la compra de equipo de redes para realizar inversiones inteligentes y efectivas. Con este pequeño artículo, profesionales fuera del ámbito de redes de datos podrán tener las bases para cuidar las inversiones en TI o mejorar el desempeño la red de su red ya sea en la empresa o en su casa. Utilizamos el término “red efectiva” para referirnos a una red que antes que nada cumple con los objetivos de la misma en cuanto a capacidad, velocidad y confiabilidad pero que además es equilibrada y eficiente en los costos de sus elementos. Siguiendo con la analogía de autos estaríamos hablando de un Vocho o Tsuru, autos consentidos de taxistas y flotas utilitarias por sus características de economía, sencillez y durabilidad, cumpliendo así con el término efectivo. 1 Cuando hablamos de redes no existe tal cosa como los lujos. Las funcionalidades que no se utilizan de nada sirven y por tanto son un desperdicio de dinero. Una red efectiva, por el contrario, además de basarse en un buen diseño y bajar los costos mediante equipos de tamaño y características adecuados, debe tomar en cuenta el crecimiento estimado de por lo menos 2 años de operación y permitir la expansión futura a un mínimo 4 o 5 años. Desgraciadamente existen muchos vendedores inexpertos que ignoran el concepto de red efectiva y simplemente ofrecen el equipo más caro que creen poder vender para evitar problemas futuros y mejorar sus comisiones. Por tanto queda en manos del usuario o un consultor externo realizar el análisis de la situación actual de la red e identificar los cuellos de botella o limitantes existentes. En este artículo, el primero de una serie que he denominando “Tecnología para Todos”, no sólo pretendo exponer cuatro de los principios fundamentales e indispensables en el diseño de redes efectivas sino proveer también a directores y tomadores de decisión a nivel empresarial o corporativo, de elementos de análisis. I. Una cadena es solo tan fuerte como su eslabón más débil Para aplicar el primero principio debemos empezar con una visión integral de la red y posteriormente buscar en ella cuál es el eslabón más débil o lento. Ese eslabón determina el máximo desempeño de toda la red. A diferencia de lo que muchos usuarios piensan, el hecho de contratar un servicio de Internet veloz, un switch Gigabit de alta capacidad, un AP (Access Point) súper potente, o cualquiera que sea el último dispositivo de redes, el desempeño de una red estará siempre limitado a al elemento más lento o de menor capacidad en toda la cadena de “saltos” entre equipos desde mi dispositivo hasta Internet. Esto es porque las redes se comportan como una cadena de eslabones o elementos que integran un “sistema”: todo sistema se compone de elementos independientes que interactúan para logar un fin común1. En el caso de redes el fin común es transmitir la mayor cantidad de datos en el menor tiempo posible entre dos elementos. Generalmente uno es nuestro dispositivo (PCs, laptops, tablets, móviles, consolas de video juegos, etc.) y el otro es algún servidor destino en Internet que contiene la información que deseamos. Los elementos más comunes que conforman una red son: el módem (si recibimos Internet por la línea telefónica) u ONT (en caso de recibir Internet por fibra), el firewall/router, un switch y un AP (Access Point o equipo inalámbrico que propaga la señal inalámbrica dentro de nuestra oficina o casa). Todos estos elementos pueden estar en una sola caja, como la que entrega el ISP (proveedor 1 Puedes leer más acerca de este campo denominado ingeniería de sistemas en Wikipedia:
https://es.wikipedia.org/wiki/Ingeniería_de_sistemas 2 de servicio Internet) o en cajas separadas si compro cada elemento por separado. Por tanto, debemos considerar cada uno de estas piezas como un eslabón en la cadena entre nuestro dispositivo y el destino final de los datos y conocer sus límites tanto de capacidad como de velocidad para poder hacer una estimación acertada del desempeño de principio a fin o “End-­‐to-­‐end”. Este principio es muy importante porque hay clientes que creen que porque contratan un servicio de Internet a 200 Mbps, automáticamente toda su red va a “volar” y a gozar de esta velocidad. Esto no es necesariamente cierto porque habría que examinar cada uno de los elementos que conforman la red y asegurarse de que puedan todos operar, de forma simultánea a 200 Mbps. Solo después de este análisis podremos asegurar un desempeño cercano a 200 Mbps desde cualquier dispositivo. Una analogía de ello sería cuando nos encontramos en nuestro auto detrás de un camión que avanza lentamente en una autopista de dos carriles sin poder rebasar. En ese momento no importa la potencia o velocidad máxima de nuestro auto o de los demás en la fila ya que no podemos ir más rápido que el camión. Es decir, la velocidad del camión se vuelve nuestra velocidad máxima. Dependiendo si el destino final de nuestra comunicación esta dentro de nuestra red LAN o en Internet, generalmente el eslabón más lento se va a encontrar en el enlace a Internet, en el AP, o en el router dependiendo de las características de cada uno de ellos. En el caso de redes empresariales o corporativa de mayor complejidad aquí es donde un consultor experto en redes puede ser de gran utilidad. II. No todas las redes son iguales El segundo principio de diseño de redes efectivas se refiere a un error común por parte de los usuarios y administradores de redes: asumir que la capacidad de una red LAN o cableada es similar a una red WLAN o inalámbrica. Esto es muy distante de ser cierto por una sencilla razón: las redes inalámbricas operan sobre un ambiente compartido mientras que las cableadas no. Es necesario que las redes inalámbricas compartan las mismas frecuencias ya que de otra manera no habría intercomunicación entre dispositivos de diferentes fabricantes. Es por ello que el ITU (International Telecommunications Union, organismo internacional encargado de la gestión de frecuencias a nivel mundial) definió cierto conjunto o banda de frecuencias para comunicación inalámbrica de dispositivos personales y por tanto tienen una capacidad total finita dentro del área de cobertura, sin importar el número de APs que se coloquen. Profundicemos un poco en este tema. En una red LAN (cableada) la cantidad de ancho de banda (capacidad para transmitir datos) se determinar multiplicando el número de puertos que tiene el switch por la velocidad máxima de cada uno de 3 ellos. Pero la realidad es que el ancho de banda es prácticamente infinito ya que con sólo agregar otro switch podemos duplicar esta capacidad y continuar de esta manera sucesivamente hasta cubrir nuestras necesidades. Es decir, con un switch Gigabit de 24 puertos tenemos una capacidad total de 24 Gbps en nuestra red. Pero si quisiéramos aumentar esta capacidad debido a una expansión, agregamos otro switch y de inmediato tenemos el doble o 48 Gbps y así sucesivamente. Sin embargo esto no ocurre en el caso de la redes inalámbricas ya que como mencioné anteriormente, comparten todas las mismas frecuencias y en determinada área de cobertura por lo que la máxima capacidad disponible es finita. En el caso de la frecuencia típica de 2.4 GHz que TODOS los dispositivos WiFi están obligados a soportar, ocupa las frecuencias de 2.4 a 2.494 GHz y tiene una capacidad de 60 MHz (son tres canales que no se traslapan de 20 GHz cada uno), lo cual dependiendo del estándar inalámbrico utilizado (802.11 b, g o n) se traduce en entre 20 y 75 Mbps efectivos por canal o de 60 a 225 Mbps sumados. Estos 200 Mbps probablemente son suficientes para una hogar o pequeña oficina pero no lo son para un colegio, auditorio, sala de exposiciones o cualquier ubicación con más de 100 dispositivos, considerado entonces de “alta densidad”. Hago un breve paréntesis aquí para mencionar cómo llegué a este número ya que existe entre fabricantes de APs, una batalla por etiquetar su dispositivo con las velocidades teóricas de los estándares que soportan y no con velocidades reales de transmisión, lo cual confunde a los prospectos y desilusiona a los compradores. Dos dispositivos conectados vía cable pueden enviar y recibir información al mismo tiempo como si fuera una autopista de 4 carriles. A esto se le llama comunicación “full-­‐duplex” en términos técnicos y se logra aprovecha aproximadamente un 95% de la capacidad total disponible. El otro 5% se pierde porque se utiliza para señales de control. Las redes inalámbricas en cambio, utilizan comunicación “half-­‐duplex”, lo cual, similar a una carretera de un sólo carril, significa que el dispositivo puede únicamente transmitir o recibir datos el dispositivo, reduciendo efectivamente la capacidad del canal al 50%. Adicionalmente, los fabricantes suelen poner velocidades que requieren agrupar dos canales adyacentes para tener 40MHz en lugar de los 20 pero esto no es práctico en la mayoría de los ambientes debido a la interferencia que generan otras redes alrededor. Es por ello que nunca se debe esperar que un AP con tecnología 802.11n que dice 300Mbps en la caja sobrepase los 100Mbps de Internet. La velocidad real del WiFi, ya considerando la situación de no poder usar 40GHz de ancho de banda, half-­‐duplex y los protocolos de control, etc. será aproximadamente de ¼ de su velocidad anunciada o teórica. Así para un AP anunciado de 300 Mbps esperamos máximo unos 70 Mbps en condiciones reales y de 40 a 50 en condiciones no óptimas. Los fabricantes de equipos especializados para redes inalámbricas como Ruckus Wireless, Cisco, Meraki, Zebra Technologies, etc. casi nunca ponen velocidades en las especificaciones sino solo los estándares que soportan ya que asumen que 4 alguien que va a desembolsar arriba de $400 USD. en un AP conoce los alcances y limitaciones de cada estándar. Regresando al tema de capacidad, 200 Mbps en un área considerada de alta densidad no es suficiente para aplicaciones de video en tiempo real pero afortunadamente los ingenieros del IEEE (la Organización Internacional de Ingenieros Eléctricos) previeron esta situación hace algunos años y por ello también asignaron la frecuencia de 5GHz (de 5.1 a 5.825 para ser más precisos), a las redes WiFi, la cual por su mayor frecuencia y ancho de banda puede acomodar hasta 23 canales que no se traslapan y aproximadamente 1 Gbps de capacidad adicional. Contar con este ancho de banda adicional sin embargo, no viene sin alguna concesión (como suelen ser las cosas en el ámbito de las redes y la computación) y ésta se refleja en una penetración menor de la señal a través de materiales incluyendo el aire debido a su mayor frecuencia. En mi experiencia un AP típico en 5GHz solo alcanza de un 60 a 70% del área que logar un AP en 2.4GHz pero este número puede variar dependiendo del fabricante del AP, tecnología utilizada y materiales presentes. La mejor práctica es obtener un AP de prueba y realizar algunas mediciones reales en sitio. Para ello existe el servicio ofrecido por empresas expertas en redes inalámbricas conocido como “site survey”, donde colocan uno o varios APs de prueba en el área que se desea cubrir y toman medidas de intensidad de la señal para poder predecir la cobertura y así asegurar la efectividad de su red WLAN. Estas mediciones se extrapolan mediante un software especial y se genera algo llamado mapa de calor en donde se reflejan las intensidades de señal mediante diferentes colores. Ejemplo de un mapa de calor para 2.4 GHz. 5 Concluyendo esta sección, la planeación requerida para instalar una red inalámbrica es fundamental, sobre todo en ambientes de alta densidad o sea con más de 100 dispositivos. III. La redundancia es tu mejor amigo Por redundancia debemos entender que se colocan dos aparatos o dos servicios para que se complementen y en caso de fallar uno, el otro pueda seguir prestando el servicio, aunque con una reducción en el desempeño. Esta práctica es actualmente factible puesto que los precios de los equipos de redes y enlaces típicos de Internet han disminuido notablemente en los últimos años por lo que es muy sencillo y económico contratar dos enlaces y tener redundancia en las organizaciones donde el servicio WiFi es indispensable. Para ello también se requiere de por lo menos dos APs, lo cual aporta el beneficio adicional de agregar más canales o capacidad a nuestra red inalámbrica. Estimo que más del 80% de las fallas en las redes se presentan en la salida a Internet o en el AP por lo que mediante esta sencilla acción vamos a incrementar la disponibilidad de nuestros servicios de redes a más de un 95% y evitar las pérdidas de productividad asociadas. En redes más grandes que cuentan con múltiples switches administrables se pueden crear adicionalmente esquemas de redundancia en los switches usando protocolos como STP (Spanning Tree Protocol), lo cual deja al router/firewall como prácticamente el único punto crítico de falla al ser la red inalámbrica la opción de respaldo para nodos cableados. Pero estos esquemas van más allá del alcance de este artículo. El enlace a Internet es el primer lugar donde debemos enfocarnos y me refiero a los servicios típicos de bajo costo (conocidos como “no-­‐dedicados”, por ejemplo Infinitum de Telmex, Extremo de Axtel, y Enlace Internet de Enlace TPE) han. Mientras que su velocidad se ha incrementado cerca de 10 veces en los últimos 5 años, permitiéndonos descargar grandes cantidades de información de manera rápida, siguen siendo servicios “best effort”, lo cual significa que su disponibilidad promedio es alrededor de 99.50% aunque ningún ISP nos lo va a garantizar. Esto equivale como a 4 hrs. al mes sin servicio y adicionalmente al considerarse de bajo costo, los tiempos de respuesta ante una falla no serán necesariamente veloces lo cual deja vulnerable a la organización por lo menos unas horas en caso de una falla. La buena noticia es que podemos tener 100% de disponibilidad en nuestra conexión a Internet a un precio muy razonable. Lo único que requerimos es un router/firewall con capacidad para dos enlaces y contratar dos servicios con proveedores diferentes de manera que mientras los dos servicios estén arriba, gozaremos de la suma de sus anchos de banda y si llegase a fallar uno de ellos, automáticamente el tráfico se redirige hacia el que permanece arriba. 6 Existe un rango bastante amplio de routers/firewall para casa o PYME con capacidad para dos enlaces: el TP-­‐Link TL-­‐R470T ($50 USD), el Linksys LRT224 ($250 USD), Peplink Balance 20 ($300 USD) o para algo más completo para PYMES recomendamos los equipos Meraki administrado en la nube como el MX64 o 64W (que incluye AP) por $595 y $945 USD. respectivamente. En la parte de APs también es recomendable tener más de uno tanto para fines de redundancia y además contar con por lo menos 2 canales (o 4 si son dual-­‐
band) para poder distribuir mejor el tráfico. Pero si se trata de una red casera o una empresa muy pequeña de menos de 20 usuarios, pueden optar por un solo AP pero que sea de alta calidad como los que fabrican Ruckus Wireless, Meraki Zebra Technologies, Aruba o Ubiquiti. Mientras coloquemos a cada radio en un canal diferente (y por lo menos con 5 canales de separación en el caso de 2.4GHz) podemos colocarlos en la misma área de cobertura sin problemas de interferencia y no solo gozaremos de mayor velocidad sino que además tendremos redundancia en caso de que uno de ellos falle. IV. Lo barato sale caro El mercado de TI es un mercado en donde invariablemente se cumple el conocido lema en inglés “You get what you pay for” cuya traducción literal es “La calidad está en función de lo que pagas” pero aplica mejor el dicho Mexicano de “Lo barato sale caro”. Es decir, al final del día son la calidad de los componentes electrónicos y la cantidad de investigación y desarrollo invertido en los productos por el fabricante los factores que determinan su desempeño y no debemos esperar que un equipo multiusos de bajo costo que incluye modem/router/fw/switch/AP como los que entregan los proveedores de Internet tenga un buen desempeño para más de 5 o 10 dispositivos, dependiendo de las aplicaciones que utilicen. Por lo tanto nuestra recomendación en este sentido, excepto para redes muy pequeñas, es separar del módem o ONT de por lo menos las funciones de NAT y red inalámbrica y agregar equipos especializados para cada una de estas aplicaciones. Esto lo logramos con el router dual-­‐wan ya mencionado en la sección anterior y un buen AP dual-­‐band (2.4 y 5GHz) con de preferencia estándar 802.11ac. Aunque en algunas ocasiones hay sorpresas de equipos costosos no tienen el desempeño esperado o fallan inesperadamente, tampoco vamos a encontrar “gangas” de equipos baratos con desempeño sobresaliente. Todo va en función del precio generalmente. Concluyendo, no se dejen engañar por la mercadotecnia de equipos baratos que supuestamente son de alto desempeño porque es muy raro que esto ocurra. 7 Mejor pregunten a los expertos para saber su opinión o consigan uno de prueba para validarlo ustedes mismos. En un segundo artículo titulado “Guía para Diseño de Redes Efectivas”. detallaré el proceso completo de diseño de redes. En resumen si aplican estos cuatro principios fundamentales lograrán crear una red confiable y eficiente en su organización a un costo razonable, es decir, una red efectiva. Andrés Arizpe es Director Técnico y Comercial de Soluciones Aplicadas Fastweb, una empresa dedicada a integración de redes LAN y WLAN y soluciones integrales IP para la pequeña y mediana empresa. Cuenta con certificación CCENT y está en proceso de certificación CCNA Wireless, ambos por parte de Cisco. Además, está certificado en redes inalámbricas por parte de Ruckus Wireless, Meraki, Zebra Technologies y Aruba. Puede ser contactado mediante correo electrónico en andres@fw1.mx. 8 
Download