CCNA - Cisco Certified Network Associate MicroCisco - staky 1 CCNA - Cisco Certified Network Associate 2 MicroCisco - staky MicroCisco - staky CCNA - Cisco Certified Network Associate Módulo 1: Introducción al enrutamiento sin clase Descripción general Los administradores de red deben anticipar y manejar el crecimiento físico de las redes. Es posible que esto signifique la compra o el alquiler de otro piso del edificio para colocar los nuevos equipos de red como por ejemplo bastidores, paneles de conexión, switches y routers. Los diseñadores de red deberán elegir esquemas de direccionamiento que permitan el crecimiento. La máscara de subred de longitud variable (VLSM) se utiliza para crear esquemas de direccionamiento eficientes y escalables. La implementación de un esquema de direccionamiento IP es necesaria para casi todas las empresas. Muchas organizaciones seleccionan TCP/IP como el único protocolo enrutado para utilizar en sus redes. Desafortunadamente, los diseñadores de TCP/IP no pudieron predecir que, con el tiempo, su protocolo sostendría una red global de información, comercio y entretenimiento. IPv4 ofreció una estrategia de direccionamiento escalable durante un tiempo pero que pronto dio como resultado una asignación de direcciones totalmente ineficiente. Es posible que IPv4 pronto sea reemplazado por IP versión 6 (IPv6) como protocolo dominante de Internet. IPv6 posee un espacio de direccionamiento prácticamente ilimitado y algunas redes ya han empezado a implementarlo. Durante los últimos veinte años, los ingenieros han modificado con éxito el protocolo IPv4 para que pueda sobrevivir al crecimiento exponencial de Internet. VLSM es una de las modificaciones que ha ayudado a reducir la brecha entre los protocolos IPv4 e IPv6. Las redes deben ser escalables, debido a la evolución de las necesidades de los usuarios. Cuando una red es escalable, puede crecer de manera lógica, eficiente y económica. El protocolo de enrutamiento utilizado en una red ayuda a determinar la escalabilidad de la red. Es importante elegir bien el protocolo de enrutamiento. La versión 1 del Protocolo de Información de Enrutamiento (RIP v1) es adecuada en el caso de redes pequeñas. Sin embargo, no es escalable para las redes de gran envergadura. La versión 2 de RIP (RIP v2) se desarrolló para superar estas limitaciones. Este módulo abarca algunos de los objetivos de los exámenes CCNA 640-801 e ICND 640-811. Los estudiantes que completen este módulo deberán ser capaces de realizar las siguientes tareas: • Definir VLSM y describir brevemente las razones para su utilización • Dividir una red principal en subredes de distintos tamaños con VLSM • Definir la unificación de rutas y su resumen a medida en relación con VLSM • Configurar un router con VLSM • Identificar las características clave de RIP v1 y RIP v2 • Identificar las diferencias principales entre RIP v1 y RIP v2 • Configurar RIP v2 • Verificar y realizar el diagnóstico de fallas en la operación de RIP v2 • Configurar las rutas por defecto mediante los comandos ip route e ip default-network 1.1 VLSM 1.1.1 ¿Qué es VLSM y por qué se usa? A medida que las subredes IP han crecido, los administradores han buscado formas de utilizar su espacio de direccionamiento con más eficiencia. En esta sección se presenta una técnica que se denomina VLSM. Con VLSM, un administrador de red puede usar una máscara larga en las redes con pocos hosts, y una máscara corta en las subredes con muchos hosts. Figura 1 3 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 Figura 3 Para poder implementar VLSM, un administrador de red debe usar un protocolo de enrutamiento que brinde soporte para él. Los routers Cisco admiten VLSM con los protocolos de enrutamiento OSPF, IS-IS integrado,EIGRP, RIP v2 y enrutamiento estático. Figura 4 VLSM permite que una organización utilice más de una máscara de subred dentro del mismo espacio de direccionamiento de red. La implementación de VLSM maximiza la eficiencia del direccionamiento y con frecuencia se la conoce como división de subredes en subredes. Figura 5 Los protocolos de enrutamiento con clase necesitan que una sola red utilice la misma máscara de subred. Por ejemplo, una red con la dirección de 192.168.187.0 puede usar sólo una máscara de subred, por ejemplo 255.255.255.0. 4 MicroCisco - staky CCNA - Cisco Certified Network Associate Un protocolo de enrutamiento que admite VLSM le confiere al administrador de red la libertad para usar distintas máscaras de subred para redes que se encuentran dentro de un sistema autónomo. La Figura muestra un ejemplo de cómo un administrador de red puede usar una máscara de 30 bits para las conexiones de red, una máscara de 24 bits para las redes de usuario e incluso una máscara de 22 bits para las redes con hasta 1000 usuarios. Figura 6 Figura 7 En la siguiente sección se tratarán los esquemas de direccionamiento de red. 1.1.2 Un desperdicio de espacio En esta sección se explicará cómo determinados esquemas de direccionamiento pueden desperdiciar espacio de direccionamiento. En el pasado, se suponía que la primera y la última subred no debían utilizarse. El uso de la primera subred, conocida como la subred cero, no se recomendaba debido a la confusión que podría producirse si una red y una subred tuvieran la misma dirección. Este concepto también se aplicaba al uso de la última subred, conocida como la subred de unos. Con la evolución de las tecnologías de red y el agotamiento de las direcciones IP, el uso de la primera y la última subred se ha convertido en una práctica aceptable si se utilizan junto con VLSM. Figura 1 En la Figura , el equipo de administración de red ha pedido prestados tres bits de la porción de host de la dirección Clase C que se ha seleccionado para este esquema de direccionamiento. Si el equipo decide usar la subred cero, habrá ocho subredes utilizables. Cada subred puede admitir 30 hosts. Si el equipo decide 5 MicroCisco - staky CCNA - Cisco Certified Network Associate utilizar el comando no ip subnet-zero, habrá siete subredes utilizables con 30 hosts en cada subred. Los routers Cisco con la versión 12.0 o posterior del IOS Cisco, utilizan la subred cero por defecto. En la Figura , cada una de las oficinas remotas de Sydney, Brisbane, Perth y Melbourne puede tener 30 hosts. El equipo se da cuenta que tiene que direccionar los tres enlaces WAN punto a punto entre Sydney, Brisbane, Perth y Melbourne. Si el equipo utiliza las tres últimas subredes para los enlaces WAN, se usarán todas las direcciones disponibles y no habrá más espacio para el crecimiento. El equipo también habrá desperdiciado las 28 direcciones de host de cada subred simplemente para direccionar tres redes punto a punto. Este esquema de direccionamiento implicaría un desperdicio de un tercio del espacio de direccionamiento potencial. Figura 2 Este tipo de esquema de direccionamiento es adecuado para las LAN pequeñas. Sin embargo, representa un enorme desperdicio si se utilizan conexiones punto a punto. Figura 3 En la siguiente sección se explicará la forma de evitar el desperdicio de direcciones mediante el uso de VLSM. 1.1.3 Cuándo usar VLSM Es importante diseñar un esquema de direccionamiento que permita el crecimiento y no implique el desperdicio de direcciones. Esta sección permitirá analizar la manera de usar VLSM para evitar el desperdicio de direcciones en los enlaces punto a punto. 6 MicroCisco - staky CCNA - Cisco Certified Network Associate Como se muestra en la Figura , el equipo de administración de red ha decidido evitar el desperdicio debido al uso de la máscara /27 en los enlaces punto a punto. El equipo aplica VLSM al problema de direccionamiento. Figura 1 Para aplicar VLSM al problema de direccionamiento, el equipo divide la dirección Clase C en subredes de distintos tamaños. Subredes más grandes se crean para las LAN. Se crean subredes muy pequeñas para los enlaces WAN y otros casos especiales. Una máscara de 30 bits se utiliza para crear subredes con sólo dos direcciones de host válidas. Ésta es la mejor solución para las conexiones punto a punto. El equipo tomará una de las tres subredes que anteriormente quedaba asignada a los enlaces WAN y la volverá a dividir en subredes con una máscara de 30 bits. En el ejemplo, el equipo ha tomado una de las últimas tres subredes, la subred 6, y la ha dividido nuevamente en varias subredes. Esta vez, el equipo utiliza una máscara de 30 bits. Las Figuras y demuestran que después de aplicar VLSM, el equipo posee ocho intervalos de direcciones que se pueden usar para los enlaces punto a punto. Figura 2 7 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 3 En la siguiente sección se enseñará a los estudiantes a calcular subredes con VLSM. 1.1.4 Cálculo de subredes con VLSM VLSM ayuda a manejar las direcciones IP. En esta sección se explicará cómo usar VLSM para establecer máscaras de subred que cumplan con los requisitos del enlace o del segmento. Una máscara de subred debe satisfacer los requisitos de una LAN con una máscara de subred y los requisitos de una WAN punto a punto con otra máscara de subred. El ejemplo de la Figura muestra una red que necesita un esquema de direccionamiento. Figura 1 El ejemplo incluye una dirección Clase B de 172.16.0.0 y dos LAN que requieren al menos 250 hosts cada una. Si los routers usan un protocolo de enrutamiento con clase, el enlace WAN debe formar una subred de la misma red de Clase B. Los protocolos de enrutamiento con clase, como por ejemplo RIP v1, IGRP y EGP, no admiten VLSM. Sin VLSM, el enlace WAN necesitaría la misma máscara de subred que los segmentos LAN. La máscara de 24 bits de 255.255.255.0 puede admitir 250 hosts. El enlace WAN sólo necesita dos direcciones, una para cada router. Esto significa que se han desperdiciado 252 direcciones. Si se hubiera utilizado VLSM, todavía se podría aplicar una máscara de 24 bits en los segmentos LAN para los 250 hosts. Se podría usar una máscara de 30 bits para el enlace WAN dado que sólo se necesitan dos direcciones de host. La Figura muestra dónde se pueden aplicar las direcciones de subred de acuerdo a los requisitos de cantidad de host. Los enlaces WAN usan direcciones de subred con un prefijo de /30. Este prefijo sólo permite dos direcciones de host lo que es justo lo suficiente para una conexión punto a punto entre un par de routers. 8 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 Figura 3 Figura 4 En la Figura las direcciones de subred utilizadas se generan cuando la subred 172.16.32.0/20 se divide en subredes /26. Para calcular las direcciones de subred que se utilizan en los enlaces WAN, siga subdividiendo una de las subredes /26 que no se utilizan. En este ejemplo, 172.16.33.0/26 se sigue subdividiendo con un prefijo de /30. Esto permite obtener cuatro bits de subred adicionales y por lo tanto 16 (24) subredes para las WAN. La Figura muestra cómo calcular un sistema VLSM. VLSM se puede usar para dividir en subredes una dirección que ya está dividida en subredes. Se puede tomar a modo de ejemplo, dirección de subred 172.16.32.0/20 y una red que necesita diez direcciones de host. Con esta dirección de subred, existen 212 – 2 ó 4094 direcciones de host, la mayoría de las cuales quedarán desperdiciadas. Con VLSM es posible dividir 172.16.32.0/20 en subredes para crear más direcciones de red con menos hosts por red. Cuando 172.16.32.0/20 se divide en subredes dando como resultado 172.16.32.0/26, existe una ganancia de 26 ó 64 subredes. Cada subred puede admitir 26 – 2 ó 62 hosts. 9 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 5 Figura 6 Para aplicar VLSM en 172.16.32.0/20, siga los pasos que aparecen a continuación: Paso 1 Escribir172.16.32.0 en su forma binaria. Paso 2 Trazar una líneavertical entre el bit número 20 y 21, tal como aparece en la Figura subred original fue /20. . El límite de Paso 3 Trazar una línea vertical entre el bit número26 y 27, tal como aparece en la Figura subred original /20 se extiende a seis bits hacia la derecha, convirtiéndose en /26. . El límite de Paso 4 Calcular las 64 direcciones de subred por medio de los bits que se encuentran entre las dos líneas verticales, desde el menor hasta el mayor valor. La figura muestra las primeras cinco subredes disponibles. Es importante recordar que se pueden seguir subdividiendo sólo las subredes no utilizadas. Si se utiliza alguna dirección de una subred, esa subred ya no se puede subdividir más. En la Figura , se utilizan cuatro números de subred en las LAN. La subred 172.16.33.0/26 no utilizada se sigue subdividiendo para utilizarse en los enlaces WAN. La práctica de laboratorio ayudará a los estudiantes a calcular las subredes VLSM. En la sección siguiente se describirá la unificación de rutas. 10 MicroCisco - staky CCNA - Cisco Certified Network Associate 1.1.5 Unificación de rutas con VLSM En esta sección se explicarán los beneficios de la unificación de rutas con VLSM. Cuando se utiliza VLSM, es importante mantener la cantidad de subredes agrupadas en la red para permitir la unificación. Por ejemplo, redes como 172.16.14.0 y 172.16.15.0 deberían estar cerca de manera que los routers sólo tengan que poseer una ruta para 172.16.14.0/23. Figura 1 El uso de enrutamiento entre dominios sin clase (CIDR) y VLSM evita el desperdicio de direcciones y promueve la unificación o el resumen de rutas. Sin el resumen de rutas, es probable que el enrutamiento por el backbone de Internet se habría desplomado antes de 1997. Figura 2 La Figura muestra cómo el resumen de rutas reduce la carga de los routers corriente arriba. Esta compleja jerarquía de redes y subredes de varios tamaños se resume en diferentes puntos con una dirección prefijo, hasta que la red completa se publica como sola ruta unificada de 200.199.48.0/22. El resumen de ruta o la superred, sólo es posible si los routers de una red utilizan un protocolo de enrutamiento sin clase, como por ejemplo OSPF o EIGRP. Los protocolos de enrutamiento sin clase llevan un prefijo que consiste en una dirección IP de 32 bits y una máscara de bits en las actualizaciones de enrutamiento. En la Figura , el resumen de ruta que finalmente llega al proveedor contiene un prefijo de 20 bits común a todas las direcciones de la organización. Esa dirección es 200.199.48.0/22 ó 11001000.11000111.0011. Para que el resumen funcione, las direcciones se deben asignar cuidadosamente de manera jerárquica para que las direcciones resumidas compartan la misma cantidad de bits de mayor peso. Es importante recordar las siguientes reglas: • Un router debe conocer con detalle los números de las subredes conectadas a él. • No es necesario que un router informe a los demás routers de cada subred si el router puede enviar una ruta unificada que represente un conjunto de routers. • Un router que usa rutas unificadas tiene menos entradas en su tabla de enrutamiento. VLSM aumenta la flexibilidad del resumen de ruta porque utiliza los bits de mayor peso compartidos a la izquierda, aun cuando las redes no sean contiguas. 11 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 3 La Figura muestra que las direcciones comparten los primeros 20 bits. Estos bits aparecen en rojo. El bit número 21 no es igual para todos los routers. Por lo tanto, el prefijo para el resumen de ruta será de 20 bits de largo. Esto se utiliza para calcular el número de red del resumen de ruta. La Figura muestra que las direcciones comparten los primeros 21 bits. Estos bits aparecen en rojo. El bit número 22 no es igual para todos los routers. Por lo tanto, el prefijo para el resumen de ruta será de 21 bits de largo. Esto se utiliza para calcular el número de red del resumen de ruta. Figura 4 La siguiente sección le enseñará a los estudiantes como configurar VLSM. 1.1.6 Configuración de VLSM En esta sección se enseñará a los estudiantes cómo calcular y configurar VLSM correctamente. A continuación, se presentan los cálculos de VLSM para las conexiones LAN de la Figura : • Dirección de red: 192.168.10.0 • El router Perth tiene que admitir 60 hosts. Esto significa que se necesita un mínimo de seis bits en la porción de host de la dirección. Seis bits proporcionan 26 – 2 ó 62 direcciones de host posibles. Se asigna la subred 192.168.10.0/26 a la conexión LAN para el router Perth. • Los routers Sydney y Singapur deben admitir 12 hosts cada uno. Esto significa que se necesitan un mínimo de cuatro bits en la porción de host de la dirección. Cuatro bits proporcionan 24 – 2 ó 14 direcciones de host posibles. Se asigna la subred 192.168.10.96/28 a la conexión LAN para el router Sydney y la subred 192.168.10.112/28 a la conexión LAN para el router Singapur. • El router KL tiene que admitir 28 hosts. Esto significa que se necesitan un mínimo de cinco bits en la porción de host de la dirección. Cinco bits proporcionan 25 – 2 ó 30 direcciones de host posibles. Se asigna la subred 192.168.10.64/27 a la conexión LAN para el router KL. A continuación, se presentan los cálculos de VLSM para las conexiones punto a punto de la Figura 12 : MicroCisco - staky CCNA - Cisco Certified Network Associate • • • La conexión de Perth a Kuala Lumpur requiere sólo dos direcciones de host. Esto significa que se necesita un mínimo de dos bits en la porción de host de la dirección. Dos bits proporcionan 22 – 2 ó 2 direcciones de host posibles. Se asigna la subred 192.168.10.128/30 a la conexión de Perth a Kuala Lumpur. La conexión de Sydney a Kuala Lumpur requiere sólo dos direcciones de host. Esto significa que se necesita un mínimo de dos bits en la porción de host de la dirección. Dos bits proporcionan 22 – 2 ó 2 direcciones de host posibles. Se asigna la subred 192.168.10.132/30 a la conexión de Sydney a Kuala Lumpur. La conexión de Singapur a Kuala Lumpur requiere sólo dos direcciones de host. Esto significa que se necesita un mínimo de dos bits en la porción de host de la dirección. Dos bits proporcionan 22 – 2 ó 2 direcciones de host posibles. Se asigna la subred 192.168.10.136/30 a la conexión de Singapur a Kuala Lumpur. Figura 1 Figura 2 La siguiente configuración es para la conexión punto a punto de Singapur a KL: Singapore(config)#interface serial 0 Singapore(config-if)#ip address 192.168.10.137 255.255.255.252 KualaLumpur(config)#interface serial 1 KualaLumpur(config-if)#ip address 192.168.10.138 255.255.255.252 13 MicroCisco - staky CCNA - Cisco Certified Network Associate Con esta sección se concluye la lección. En la siguiente lección se hablará de RIP. En la primera sección se describe RIP v1. 1.2 RIP Versión 2 1.2.1 Historia de RIP En esta sección se explicarán las funciones y limitaciones de RIP. La Internet es una colección de varios sistemas autónomos (AS). Cada AS posee una tecnología de enrutamiento que puede diferir de otros sistemas autónomos. El protocolo de enrutamiento utilizado dentro de un AS se conoce como Protocolo de enrutamiento interior (IGP). Un protocolo distinto utilizado para transferir información de enrutamiento entre los distintos sistemas autónomos se conoce como Protocolo de enrutamiento exterior (EGP). RIP está diseñado para trabajar como IGP en un AS de tamaño moderado. No ha sido concebido para utilizarse en entornos más complejos. RIP v1 se considera un IGP con clase. RIP v1 es un protocolo de vector-distancia que envía la tabla de enrutamiento completa en broadcast a cada router vecino a determinados intervalos. El intervalo por defecto es de 30 segundos. RIP utiliza el número de saltos como métrica, siendo 15 el número máximo de saltos. Figura 1 Figura 2 Si el router recibe información sobre una red y la interfaz receptora pertenece a la misma red pero se encuentra en una subred diferente, el router aplica la máscara de subred que está configurada en la interfaz receptora: • Para las direcciones de Clase A, la máscara con clase por defecto es 255.0.0.0. • Para las direcciones de Clase B, la máscara con clase por defecto es 255.255.0.0. • Para las direcciones de Clase C, la máscara con clase por defecto es 255.255.255.0. RIP v1 es un protocolo de enrutamiento común dado que prácticamente todos los routers IP lo admiten. La popularidad de RIP v1 se basa en la simplicidad y su demostrada compatibilidad universal. RIP es capaz de equilibrar las cargas hasta en seis rutas de igual costo, siendo cuatro rutas la cantidad por defecto. 14 MicroCisco - staky CCNA - Cisco Certified Network Associate RIP v1 posee las siguientes limitaciones: • No envía información de máscara de subred en sus actualizaciones. • Envía las actualizaciones en broadcasts a 255.255.255.255. • No admite la autenticación • No puede admitir enrutamiento entre dominios de VLSM o sin clase (CIDR). RIP v1 es de muy fácil configuración, como lo muestra la Figura . En la sección siguiente se presenta RIP v2. 1.2.2 Funciones de RIP v2 En esta sección se analizará RIP v2, que es una versión mejorada de RIP v1. Ambas versiones de RIP comparten las siguientes funciones: • Es un protocolo de vector-distancia que usa el número de saltos como métrica. • Utiliza temporizadores de espera para evitar los bucles de enrutamiento – la opción por defecto es 180 segundos. • Utiliza horizonte dividido para evitar los bucles de enrutamiento. • Utiliza 16 saltos como métrica para representar una distancia infinita Figura 1 RIP v2 ofrece el enrutamiento por prefijo, que le permite enviar información de máscara de subred con la actualización de la ruta. Por lo tanto, RIP v2 admite el uso de enrutamiento sin clase en el cual diferentes subredes dentro de una misma red pueden utilizar distintas mascaras de subred, como lo hace VLSM. RIP v2 ofrece autenticación en sus actualizaciones. Se puede utilizar un conjunto de claves en una interfaz como verificación de autenticación. RIP v2 permite elegir el tipo de autenticación que se utilizará en los paquetes RIP v2. Se puede elegir texto no cifrado o cifrado con Message-Digest 5 (MD5). El texto no cifrado es la opción por defecto. MD5 se puede usar para autenticar el origen de una actualización de enrutamiento. MD5 se utiliza generalmente para cifrar las contraseñas enable secret y no existe forma reconocida de descifrarlo. RIP v2 envía sus actualizaciones de enrutamiento en multicast con la dirección Clase D 224.0.0.9, lo cual ofrece mejor eficiencia. En la sección siguiente se analizará RIP en mayor detalle. 1.2.3 Comparación entre RIP v1 y v2 En esta sección se presentará información sobre el funcionamiento de RIP. También describirá las diferencias entre RIP v1 y RIP v2. RIP utiliza algoritmos por vector-distancia para determinar la dirección y la distancia hacia cualquier enlace en la internetwork. Si existen varias rutas hasta un destino, RIP elige la ruta con el menor número de saltos. 15 MicroCisco - staky CCNA - Cisco Certified Network Associate Sin embargo, debido a que el número de saltos es la única métrica de enrutamiento que RIP utiliza, no siempre elige el camino más rápido hacia el destino. Figura 1 RIP v1 permite que los routers actualicen sus tablas de enrutamiento a intervalos programables. El intervalo por defecto es de 30 segundos. El envío continuo de actualizaciones de enrutamiento por parte de RIP v1 implica un crecimiento muy rápido del tráfico de red. Para evitar que un paquete entre en un bucle interminable, RIP permite un número máximo de 15 saltos. Si es necesario pasar por más que 15 routers para llegar al destino, la red se considera inalcanzable y el paquete se descarta. Esta situación crea un problema de escalabilidad cuando se efectúa el enrutamiento en redes heterogéneas más grandes. RIP v1 usa el horizonte dividido para evitar los bucles. Esto significa que RIP v1 publica las rutas por una interfaz sólo si las rutas no se conocieron por medio de actualizaciones que entraron por esa interfaz. Utiliza temporizadores de espera para evitar bucles de enrutamiento. Las esperas pasan por alto cualquier nueva información acerca de una subred si esa subred tiene una métrica menos conveniente en un lapso de tiempo igual al del temporizador de espera. La Figura resume el comportamiento de RIP v1 cuando lo utiliza un router. Figura 2 16 MicroCisco - staky CCNA - Cisco Certified Network Associate RIP v2 es una versión mejorada de RIP v1. Comparte muchas de las mismas funciones que RIP v1. RIP v2 también es un protocolo de vector-distancia que utiliza el número de saltos, temporizadores de espera y horizonte dividido. La Figura muestra las similitudes y diferencias entre RIP v1 y RIP v2. Figura 3 La primera práctica de laboratorio de esta sección enseñará a los estudiantes cómo instalar y configurar el RIP en los routers. La segunda actividad de laboratorio revisará la configuración básica de los routers. La actividad de medios interactivos ayudará a los estudiantes a comprender las diferencias entre RIP v1 y RIP v2. En la siguiente sección se explicará la configuración de RIP v2. 1.2.4 Configuración de RIP v2 En esta sección se enseñará los estudiantes cómo configurar RIP v2. RIP v2 es un protocolo de enrutamiento dinámico que se configura dando al protocolo de enrutamiento el nombre de RIP Versión 2 y luego asignando números de red IP sin especificar los valores de subred. Esta sección describe los comandos básicos que se utilizan para configurar RIP v2 en un router Cisco. Figura 1 17 MicroCisco - staky CCNA - Cisco Certified Network Associate Para habilitar un protocolo de enrutamiento dinámico, se deberán completar las siguientes tareas: • Seleccionar un protocolo de enrutamiento como por ejemplo RIP v2. • Asignar los números de red IP sin especificar los valores de subred. • Asignar a las interfaces las direcciones de red o de subred y la máscara de subred adecuada. RIP v2 se comunica con otros routers por medio de multicast. La métrica de enrutamiento ayuda a los routers a encontrar la mejor ruta hacia cada red o subred. El comando router inicia el proceso de enrutamiento. El comando network provoca la implementación de las siguientes tres funciones: • Las actualizaciones de enrutamiento se envían por una interfaz en multicast. • Se procesan las actualizaciones de enrutamiento si entran por la misma interfaz. • Se publica la subred que se conecta directamente a esa interfaz. Figura 2 El comando network es necesario, ya que permite que el proceso de enrutamiento determine cuáles son las interfaces que participan en el envío y la recepción de las actualizaciones de enrutamiento. El comando network inicia el protocolo de enrutamiento en todas las interfaces que posee el router en la red especificada. El comando network también permite que router publique esa red. La combinación de los comandos router rip y version 2 especifica RIP v2 como el protocolo de enrutamiento, mientras que el comando network identifica una red adjunta participante. Figura 3 18 MicroCisco - staky CCNA - Cisco Certified Network Associate En este ejemplo, la configuración del Router A incluye lo siguiente: • router rip – Habilita el protocolo de enrutamiento RIP • version 2 – Indica que se utilizará la versión 2 de RIP • network 172.16.0.0 – Especifica una red directamente conectada • network 10.0.0.0 – Especifica una red directamente conectada. La interfaces del Router A conectadas a las redes 172.16.0.0 y 10.0.0.0, o las subredes correspondientes, enviarán y recibirán las actualizaciones de RIP v2. Estas actualizaciones de enrutamiento permiten que el router aprenda la topología de red. Los routers B y C tienen configuraciones RIP similares pero con distintos números de red. Figura 4 La Figura muestra otro ejemplo de una configuración de RIP v2. Las actividades de laboratorio en esta sección le mostrarán a los estudiantes cómo convertir RIP v1 en RIP v2. 1.2.5 Verificación de RIP v2 Los comandos show ip protocols y show ip route muestran información sobre los protocolos de enrutamiento y la tabla de enrutamiento. En esta sección se explica cómo se utilizan los comandos show para verificar una configuración RIP. Figura 1 19 MicroCisco - staky CCNA - Cisco Certified Network Associate El comando show ip protocols muestra valores sobre los protocolos de enrutamiento e información sobre el temporizador de protocolo de enrutamiento asociado al router. En el ejemplo, el router está configurado con RIP y envía información de la tabla de enrutamiento actualizada cada 30 segundos. Este intervalo se puede configurar. Si un router que ejecuta RIP no recibe una actualización de otro router por 180 segundos o más, el primer router marca las rutas proporcionadas por el router que no envía actualizaciones como no válidas. En la Figura , el temporizador de espera se ha establecido en 180 segundos. Por lo tanto, la actualización de una ruta que estuvo deshabilitada y que ahora está habilitada podría quedarse en el estado de espera hasta que transcurran los 180 segundos en su totalidad. Si después de 240 segundos no ha habido actualización, el router elimina las entradas de la tabla de enrutamiento. El router inyecta rutas para las redes que aparecen a continuación de la línea "Routing for networks". El router recibe rutas de parte de los routers RIP vecinos que aparecen después de la línea "Routing Information Sources". La distancia por defecto de 120 se refiere a la distancia administrativa para la ruta de RIP. El comando show ip interface brief también se puede usar para visualizar un resumen de la información y del estado de la interfaz. El comando show ip route muestra el contenido de una tabla de enrutamiento IP. La tabla de enrutamiento contiene entradas para todas las redes y subredes conocidas, así como un código que indica la forma en que se obtuvo la información. Figura 2 Examine el resultado para ver si la tabla de enrutamiento tiene información de enrutamiento. Si faltan entradas, la información de enrutamiento no se está intercambiando. Ejecute los comandos EXEC privilegiados show running-config o show ip protocols en el router para verificar la posibilidad de que exista un protocolo de enrutamiento mal configurado. La actividad de laboratorio enseñará a los estudiantes cómo usar los comandos show para verificar las configuraciones de RIP v2. En la siguiente sección se analizará el comando debug ip rip. 1.2.6 Diagnóstico de fallas de RIP v2 Esta sección explica el uso del comando debug ip rip. El comando debug ip rip muestra las actualizaciones de enrutamiento RIP a medida que éstas se envían y reciben. Los comandos no debug all o undebug all desactivarán totalmente la depuración. 20 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 El ejemplo muestra que el router que se está depurando ha recibido actualizaciones de parte de un router con dirección origen 10.1.1.2. El router de la dirección origen 10.1.1.2 envió información sobre dos destinos en la actualización de la tabla de enrutamiento. El router que se está depurando también envió actualizaciones, en ambos casos utilizando la dirección de multicast 224.0.0.9 como destino. El número entre paréntesis representa la dirección origen encapsulada en el encabezado IP. Figura 2 Las siguientes entradas representan algunos de los otros resultados que aparecen a veces con el comando debug ip rip: RIP: broadcasting general request on Ethernet0 RIP: broadcasting general request on Ethernet1 Estos resultados aparecen en el inicio o cuando se produce un evento como por ejemplo una transición de interfaz o cuando un usuario despeja la tabla de enrutamiento manualmente. Figura 3 21 MicroCisco - staky CCNA - Cisco Certified Network Associate Es probable que una entrada, como la que aparece a continuación, se deba un paquete mal formado desde el transmisor: RIP: bad version 128 from 160.89.80.43 En la Figura aparecen ejemplos de resultados de debug ip rip y su significado. Las actividades de laboratorio ayudarán a los estudiantes a familiarizarse con los comandos debug. En la sección siguiente se analizarán las rutas por defecto. 1.2.7 Rutas por defecto En esta sección se describirán las rutas por defecto y se explicará su configuración. Por defecto, los routers aprenden las rutas hacia el destino de tres formas diferentes: • Rutas estáticas: El administrador del sistema define manualmente las rutas estáticas como el siguiente salto hacia un destino. Las rutas estáticas son útiles para la seguridad y la reducción del tráfico ya que no se conoce ninguna otra ruta. • Rutas por defecto: El administrador del sistema también define manualmente las rutas por defecto como la ruta a tomar cuando no existe ninguna ruta conocida para llegar al destino Las rutas por defecto mantienen las tablas de enrutamiento más cortas. Cuando no existe una entrada para una red destino en una tabla de enrutamiento, el paquete se envía a la red por defecto. • Rutas dinámicas: El enrutamiento dinámico significa que el router va averiguando las rutas para llegar al destino por medio de actualizaciones periódicas enviadas desde otros routers. En la Figura , una ruta estática se indica con el siguiente comando: Router(config)#ip route 172.16.1.0 255.255.255.0 172.16.2.1 Figura 1 El comando ip default-network establece una ruta por defecto en las redes que utilizan protocolos de enrutamiento dinámico: Router(config)#ip default-network 192.168.20.0 Figura 2 Por lo general, después de establecer la tabla de enrutamiento para manejar todas las redes que deben configurarse, resulta útil garantizar que todos los demás paquetes se dirijan hacia una ubicación específica. Un ejemplo es un router que se conecta a la Internet. Éste se denomina ruta por defecto para el router. Todos los paquetes que no se definen en la tabla de enrutamiento irán a la interfaz indicada del router por defecto. Generalmente, se configura el comando ip default-network en los routers que se conectan a un router con una ruta estática por defecto. 22 MicroCisco - staky CCNA - Cisco Certified Network Associate En la Figura , Hong Kong 2 y Hong Kong 3 usarían Hong Kong 4 como el gateway por defecto. Hong Kong 4 usaría la interfaz 192.168.19.2 como su gateway por defecto. Hong Kong 1 enrutaría los paquetes hacia la Internet para todos los hosts internos. Para permitir que Hong Kong 1 enrute estos paquetes es necesario configurar una ruta por defecto de la siguiente manera: HongKong1(config)#ip route 0.0.0.0 0.0.0.0 192.168.20.2 Figura 3 Los ceros representan cualquier red destino con cualquier máscara. Las rutas por defecto se conocen como rutas quad zero. En el diagrama, la única forma de que Hong Kong 1 pueda acceder a la Internet es a través de la interfaz 192.168.20.2. Con esta sección se concluye la lección. En la siguiente sección se resumen los puntos principales de este módulo. Resumen En esta sección se resumen los temas analizados en este módulo. Máscaras de subred de longitud variable (VLSM), las cuales se conocen comúnmente como "división de subredes en subredes", se utilizan para maximizar la eficiencia del direccionamiento. Es una función que permite que un solo sistema autónomo tenga redes con distintas máscaras de subred. El administrador de red puede usar una máscara larga en las redes con pocos hosts y una máscara corta en las redes con muchos hosts. Es importante diseñar un esquema de direccionamiento que permita el crecimiento y sin el desperdicio de direcciones. Para aplicar el VLSM al problema de direccionamiento, se crean grandes subredes para direccionar a las LAN. Se crean subredes muy pequeñas para los enlaces WAN y otros casos especiales. VLSM ayuda a manejar las direcciones IP. VLSM permite la configuración de una máscara de subred adecuada para los requisitos del enlace o del segmento. Una máscara de subred debe satisfacer los requisitos de una LAN con una máscara de subred y los requisitos de una WAN punto a punto con otra máscara de subred. Las direcciones se asignan de manera jerárquica para que las direcciones resumidas compartan los mismos bits de mayor peso. Existen reglas específicas para un router. Debe conocer con detalle los números de subred conectados a él y no necesita comunicar a los demás routers acerca de cada subred individual si el router puede enviar una ruta unificada para un conjunto de routers. Un router que usa rutas unificadas tiene menos entradas en sus tablas de enrutamiento. 23 CCNA - Cisco Certified Network Associate MicroCisco - staky Si se elige usar el esquema VLSM, es necesario calcularlo y configurarlo correctamente. RIP v1 se considera un protocolo de enrutamiento interior con clase. RIP v1 es un protocolo de vectordistancia que envía en broadcast la tabla de enrutamiento en su totalidad a cada router vecino a determinados intervalos. El intervalo por defecto es de 30 segundos. RIP utiliza el número de saltos como métrica, siendo 15 el número máximo de saltos. Para habilitar un protocolo de enrutamiento dinámico, seleccione un protocolo de enrutamiento, como por ejemplo RIP v2, asigne los números de red IP sin especificar los valores de subred y luego asigne a las interfaces las direcciones de red o de subred y la máscara de subred adecuada. En RIP v2, el comando router inicia el proceso de enrutamiento. El comando network provoca la implementación de tres funciones. Las actualizaciones de enrutamiento se envían en multicast por una interfaz, se procesan las actualizaciones de enrutamiento si entran por esa misma interfaz y la subred que se encuentra directamente conectada a esa interfaz se publica. El comando version 2 habilita RIP v2. El comando show ip protocols muestra valores sobre los protocolos de enrutamiento e información sobre el temporizador de protocolo de enrutamiento asociado al router. El comando debug ip rip muestra las actualizaciones de enrutamiento RIP a medida que éstas se envían y reciben. Los comandos no debug all o undebug all desactivarán totalmente la depuración. 24 CCNA - Cisco Certified Network Associate MicroCisco - staky Módulo 2: OSPF de un área Descripción general Las dos clases principales de IGP son de vector-distancia y del estado de enlace. Ambos tipos de protocolos de enrutamiento buscan rutas a través de sistemas autónomos. Los protocolos de enrutamiento por vector-distancia y del estado de enlace utilizan distintos métodos para realizar las mismas tareas. Los algoritmos de enrutamiento del estado de enlace, también conocidos como algoritmos Primero la ruta libre más corta (SPF ), mantienen una compleja base de datos de información de topología. El algoritmo de enrutamiento del estado de enlace mantiene información completa sobre routers lejanos y su interconexión. Por otra parte, los algoritmos de vector-distancia proporcionan información no especifica sobre las redes lejanas y no tiene información acerca de los routers distantes. Es importante entender la manera en que operan los protocolos de enrutamiento del estado de enlace para poder configurarlos, verificarlos y realizar el diagnóstico de fallas. Este módulo explica cómo funcionan los protocolos de enrutamiento del estado de enlace, describe sus funciones, describe el algoritmo que utilizan y pone de relieve las ventajas y desventajas del enrutamiento del estado de enlace. Todos los primeros protocolos de enrutamiento como RIP v1 eran protocolos de vector-distancia. En la actualidad, se usan muchos protocolos de enrutamiento por vector-distancia, como por ejemplo RIP v2, IGRP y el protocolo de enrutamiento híbrido EIGRP. A medida que las redes se hicieron más grandes y más complejas, las limitaciones de los protocolos de vector-distancia se volvieron más aparentes. Los routers que utilizan un protocolo de enrutamiento por vector-distancia aprenden la topología de red a partir de las actualizaciones de la tabla de enrutamiento de los routers vecinos. El uso del ancho de banda es alto debido al intercambio periódico de las actualizaciones de enrutamiento y la convergencia de red es lenta, lo que da como resultado malas decisiones de enrutamiento. Los protocolos de enrutamiento del estado de enlace difieren de los protocolos de vector-distancia. Los protocolos del estado de enlace generan una inundación de información de ruta, que da a cada router una visión completa de la topología de red. El método de actualización desencadenada por eventos permite el uso eficiente del ancho de banda y una convergencia más rápida. Los cambios en el estado de un enlace se envían a todos los routers en la red tan pronto como se produce el cambio. OSPF es uno de los protocolos del estado de enlace más importantes. OSPF se basa en las normas de código abierto, lo que significa que muchos fabricantes lo pueden desarrollar y mejorar. Es un protocolo complejo cuya implementación en redes más amplias representa un verdadero desafío. Los principios básicos de OSPF se tratan en este módulo. La configuración de OSPF en un router Cisco es parecido a la configuración de otros protocolos de enrutamiento. De igual manera, es necesario habilitar OSPF en un router e identificar las redes que serán publicadas por OSPF. OSPF cuenta con varias funciones y procedimientos de configuración únicos. Estas funciones aumentan las capacidades de OSPF como protocolo de enrutamiento, pero también complican su configuración. En grandes redes, OSPF se puede configurar para abarcar varias áreas y distintos tipos de área. La capacidad para diseñar e implementar OSPF en las grandes redes comienza con la capacidad para configurar OSPF en una sola área. Este módulo también tratará la configuración de OSPF en una sola área. Este módulo abarca algunos de los objetivos de los exámenes CCNA 640-801 e ICND 640-811. Los estudiantes que completen este módulo deberán ser capaces de realizar las siguientes tareas: • Identificar las funciones clave de los protocolos de enrutamiento del estado de enlace. • Explicar la forma de mantiene la información de enrutamiento del estado de enlace • Analizar el algoritmo del enrutamiento del estado de enlace • Examinar las ventajas y desventajas de los protocolos de enrutamiento del estado de enlace • Indicar las similitudes y diferencias entre los protocolos de enrutamiento del estado de enlace y los protocolos de enrutamiento por vector-distancia • Habilitar OSPF en un router • Configurar una dirección de loopback para establecer la prioridad del router • Modificar la métrica de costo para cambiar la preferencia de ruta de OSPF • Configurar la autenticación de OSPF 25 MicroCisco - staky CCNA - Cisco Certified Network Associate • • • • • • • • Cambiar los temporizadores de OSPF Describir los pasos para crear y propagar una ruta por defecto Usar los comandos show para verificar la operación de OSPF. Configurar el proceso de enrutamiento de OSPF Definir los términos clave de OSPF Describir los distintos tipos de red OSPF Describir el protocolo Hello de OSPF Identificar los pasos básicos de la operación de OSPF 2.1 Protocolo de enrutamiento del estado de enlace 2.1.1 Descripción general del enrutamiento del estado de enlace El funcionamiento de los protocolos de enrutamiento del estado de enlace es distinto al de los protocolos de vector-distancia. Esta sección explicará las diferencias entre los protocolos de vector-distancia y los del estado de enlace. Esta información es esencial para los administradores de red. Una diferencia importante es que los protocolos de vector-distancia utilizan un método más sencillo para intercambiar información de ruta. La Figura expone las características de los protocolos de vector-distancia y del estado de enlace. Figura 1 Los protocolos de enrutamiento de estado del enlace mantienen una base de datos compleja, con la información de la topología de la red. Mientras que el algoritmo de vector-distancia posee información no específica acerca de las redes distantes y ningún conocimiento acerca de los routers distantes, un algoritmo de enrutamiento del estado de enlace tiene pleno conocimiento de los routers distantes y la forma en que se interconectan. La Actividad de Medios Interactivos ayudará a los estudiantes a identificar las distintas funciones de los protocolos de vector-distancia y del estado de enlace. La siguiente sección describirá los protocolos de enrutamiento del estado de enlace. 26 MicroCisco - staky CCNA - Cisco Certified Network Associate 2.1.2 Características del protocolo de enrutamiento del estado de enlace En esta sección se explica de qué manera los protocolos del estado de enlace enrutan los datos. Los protocolos de enrutamiento del estado de enlace reúnen la información de ruta de todos los demás routers de la red o dentro de un área definida de la red. Una vez que se haya reunido toda la información, cada router calcula las mejores rutas hacia todos los destinos de la red. Dado que cada router mantiene su propia visión de la red, es menos probable que se propague información incorrecta de parte de cualquiera de los routers vecinos. • • • • A continuación, se presentan algunas funciones de los protocolos de enrutamiento del estado de enlace: Responden rápidamente a los cambios de red Envían actualizaciones desencadenadas sólo cuando se haya producido un cambio de red Envían actualizaciones periódicas conocidas como actualizaciones del estado de enlace Usan un mecanismo hello para determinar la posibilidad de comunicarse con los vecinos Figura 1 Figura 2 Cada router envía los paquetes hello en multicast para realizar un seguimiento del estado de los routers vecinos. Cada router usa varias LSA para realizar el seguimiento de todos los routers en el área donde se encuentra la red. Los paquetes hello contienen información acerca de las redes conectadas al router. En la Figura , P4 conoce a sus vecinos, P1 y P3, en la red Perth3. Las LSA proporcionan actualizaciones sobre el estado de los enlaces que son interfaces en otros routers de la red. • Los routers que usan protocolos de enrutamiento del estado de enlace tienen las siguientes características: Usan la información hello y las LSA que han recibido de otros routers para crear una base de datos de la red 27 MicroCisco - staky CCNA - Cisco Certified Network Associate • • Usan el algoritmo SPF para calcular la ruta más corta hacia cada red Almacenan la información de ruta en la tabla de enrutamiento Figura 3 En la siguiente sección se ofrece más información sobre los protocolos del estado de enlace. 2.1.3 Mantenimiento de la información de enrutamiento En esta sección se explica la forma en que los protocolos del estado de enlace utilizan las siguientes funciones. • • • • • Las LSA Una base de datos topológica El algoritmo SPF El árbol SPF Una tabla de enrutamiento de rutas y puertos para determinar la mejor ruta para los paquetes Figura 1 Los protocolos de enrutamiento del estado de enlace se diseñaron para superar las limitaciones de los protocolos de enrutamiento por vector-distancia. Por ejemplo, los protocolos de vector-distancia sólo intercambian actualizaciones de enrutamiento con sus vecinos inmediatos mientras que los protocolos de 28 MicroCisco - staky CCNA - Cisco Certified Network Associate enrutamiento del estado de enlace intercambian información de enrutamiento a través de un área mucho más amplia. Cuando se produce una falla en la red, como por ejemplo que un vecino se vuelve inalcanzable, los protocolos del estado de enlace inundan el área con LSA mediante una dirección multicast especial. La inundación es un proceso que envía información por todos los puertos, salvo el puerto donde se recibió la información. Cada router de estado de enlace toma una copia de la LSA y actualiza su base de datos del estado de enlace o topológica. Luego, el router de estado de enlace envía la LSA a todos los dispositivos vecinos. Las LSA hacen que cada router que se encuentra dentro del área vuelva a calcular las rutas. Por esta razón, es necesario limitar la cantidad de routers de estado de enlace dentro de un área. Un enlace es igual a una interfaz en un router. El estado de enlace es la descripción de una interfaz y de su relación con los routers vecinos. Por ejemplo, una descripción de interfaz incluiría la dirección IP de la interfaz, la máscara de subred, el tipo de red a la cual está conectada, los routers conectados a esa red, etc. La recopilación de estados de enlace forma una base de datos del estado de enlace que con frecuencia se denomina base de datos topológica. La base de datos del estado de enlace se utiliza para calcular las mejores rutas por la red. Los routers de estado de enlace aplican el algoritmo de Primero la ruta libre más corta de Dijkstra a la base de datos del estado de enlace. Esto permite crear el árbol SPF utilizando el router local como raíz. Luego se seleccionan las mejores rutas del árbol SPF y se colocan en la tabla de enrutamiento. En la siguiente sección se describe el algoritmo de enrutamiento del estado de enlace. 2.1.4 Algoritmos de enrutamiento del estado de enlace Los algoritmos de enrutamiento del estado de enlace mantienen una base de datos compleja de la topología de red intercambiando publicaciones del estado de enlace (LSAs) con otros routers de una red. En esta sección se describe el algoritmo de enrutamiento del estado de enlace. Los algoritmos de enrutamiento del estado de enlace poseen las siguientes características: • Se conocen colectivamente como protocolos SPF. • Mantienen una base de datos compleja de la topología de la red. • Se basan en el algoritmo Dijkstra. Los protocolos del estado de enlace desarrollan y mantienen pleno conocimiento de los routers de la red y de su interconexión. Esto se logra a través del intercambio de LSA con otros routers de la red. Cada router construye una base de datos topológica a base de las LSA que recibe. Entonces se utiliza el algoritmo SPF para computar la forma de alcanzar los destinos. Esta información se utiliza para actualizar la tabla de enrutamiento. A través de este proceso se puede descubrir los cambios en la topología de red provocados por la falla de algunos componentes o el crecimiento de la red. Figura 1 29 MicroCisco - staky CCNA - Cisco Certified Network Associate El intercambio de LSA se desencadena por medio de un evento en la red en lugar de actualizaciones periódicas. Esto acelera el proceso de convergencia porque no hay necesidad de esperar que un conjunto de temporizadores expire antes de que los routers puedan convergir. Si en la red que se muestra en la figura , se está utilizando un protocolo de estado de enlace; éste se hará cargo de la comunicación entre los routers A y B. Basado en el protocolo que se emplea y en la métrica que se selecciona, el protocolo de enrutamiento puede discriminar entre dos rutas con el mismo destino y utilizar la mejor ruta. En la Figura aparecen dos entradas de enrutamiento en la tabla para la ruta que va desde el Router A hasta el Router D. En esta figura, la rutas tienen costos iguales y, por lo tanto, el protocolo de enrutamiento del estado de enlace registra ambas rutas. Algunos protocolos del estado de enlace ofrecen una forma de evaluar las capacidades de rendimiento de las dos rutas y elegir la mejor. Si la ruta preferida a través del Router C experimenta dificultades operacionales como por ejemplo congestión o falla en algún componente, el protocolo de enrutamiento del estado de enlace puede detectar este cambio y enrutar los paquetes a través del Router B. Figura 2 En la siguiente sección se describen algunas ventajas de los protocolos del estado de enlace. 2.1.5 Ventajas y desventajas del enrutamiento del estado de enlace En esta sección se enumeran las ventajas y desventajas de los protocolos de enrutamiento de estado de enlace. Figura 1 A continuación, se presentan las ventajas de los protocolos de enrutamiento de estado de enlace: 30 MicroCisco - staky CCNA - Cisco Certified Network Associate • • • • • • • Los protocolos del estado de enlace utilizan métricas de costo para elegir rutas a través de la red. La métrica del costo refleja la capacidad de los enlaces en estas rutas. Los protocolos del estado de enlace utilizan actualizaciones generadas por eventos e inundaciones de LSA para informar los cambios en la topología de red a todos los routers de la red de forma inmediata. Esto da como resultado tiempos de convergencia más rápidos. Cada router posee una imagen completa y sincronizada de la red. Por lo tanto, es muy difícil que se produzcan bucles de enrutamiento. Los routers utilizan la información más actualizada para tomar las mejores decisiones de enrutamiento. El tamaño de la base de datos del estado de enlace se pueden minimizar con un cuidadoso diseño de red. Esto hace que los cálculos de Dijkstra sean más cortos y la convergencia más rápida. Cada router, al menos, asigna una topología de su propia área de la red. Este atributo ayuda a diagnosticar los problemas que pudieran producirse. Los protocolos del estado de enlace admiten CIDR y VLSM. A continuación, se presentan las desventajas de los protocolos de enrutamiento de estado de enlace: • Requieren más memoria y potencia de procesamiento que los protocolos de vector-distancia. Esto hace que su uso resulte más caro para las organizaciones de bajo presupuesto y con hardware de legado. • Requieren un diseño de red jerárquico estricto para que una red se pueda dividir en áreas más pequeñas a fin de reducir el tamaño de las tablas de topología. • Requieren un administrador que comprenda bien los protocolos. • Inundan la red de LSA durante el proceso inicial de detección. Este proceso puede reducir significativamente la capacidad de la red para transportar datos. Puede degradar considerablemente el rendimiento de la red. En la siguiente sección continúa la comparación de los protocolos del estado de enlace y de vectordistancia. 2.1.6 Similitudes y diferencias entre el enrutamiento por vector-distancia y del estado de enlace. En esta sección se analizan las similitudes y diferencias entre el enrutamiento por vector-distancia y del estado de enlace. Todos los protocolos de vector-distancia aprenden rutas y luego envían estas rutas a los vecinos directamente conectados. Sin embargo, los routers de estado de enlace publican los estados de sus enlaces a todos los demás routers que se encuentren en el área, de manera que cada router pueda crear una base de datos del estado de enlace completa. Estas publicaciones se denominan publicaciones del estado de enlace o LSA. A diferencia de los routers de vector-distancia, los routers de estado de enlace pueden formar relaciones especiales con sus vecinos y otros routers de estado de enlace. Esto permite asegurar un intercambio correcto y eficaz de la información de la LSA. Figura 1 La inundación inicial de LSA permite que los routers obtengan la información necesaria para crear una base de datos del estado de enlace. Las actualizaciones de enrutamiento ocurren sólo al producirse cambios en la red. Si no hay cambios, las actualizaciones de enrutamiento se producen después de un intervalo específico. Si la red cambia, se envía una actualización parcial de inmediato. Esta actualización parcial sólo contiene información acerca de los enlaces que han cambiado. Los administradores de red encargados de 31 MicroCisco - staky CCNA - Cisco Certified Network Associate la utilización de los enlaces WAN descubrirán que estas actualizaciones parciales y poco frecuentes son una alternativa eficiente a los protocolos de enrutamiento por vector-distancia, los cuales envían una tabla de enrutamiento completa cada 30 segundos. Cuando se produce un cambio, se notifica simultáneamente a todos los routers de estado de enlace mediante la actualización parcial. Los routers de vector-distancia esperan que los vecinos anoten el cambio, implementen este cambio y luego transmitan la actualización a los routers vecinos. Las ventajas de los protocolos del estado de enlace sobre los de vector-distancia incluyen una convergencia más rápida y una utilización mejorada del ancho de banda. Los protocolos del estado de enlace admiten CIDR y VLSM. Esto hace que sean muy buenas opciones para las redes más complejas y escalables. De hecho, los protocolos del estado de enlace generalmente superan a los protocolos de vector-distancia en una red de cualquier tamaño. Los protocolos del estado de enlace no se implementan en cada red dado que requieren más memoria y potencia de procesador que los protocolos de vector-distancia y pueden abrumar al equipo más lento. Otra razón por la cual no se han implementado más comunmente es el hecho de que los protocolos del estado de enlace son bastante complejos. Los protocolos de enrutamiento de estado de enlace requieren administradores muy capacitados para que los configuren y los mantengan correctamente. Con esta sección se concluye la lección. La siguiente lección presenta un protocolo del estado de enlace denominado OSPF. En la primera sección se ofrece una descripción general. 2.2 Conceptos de OSPF de área única 2.2.1 Descripción general de OSPF En esta sección se presenta el protocolo OSPF. OSPF es un protocolo de enrutamiento del estado de enlace basado en estándares abiertos. Se describe en diversos estándares de la Fuerza de Tareas de Ingeniería de Internet (IETF). El término "libre" en "Primero la ruta libre más corta" significa que está abierto al público y no es propiedad de ninguna empresa. Figura 1 Figura 2 32 MicroCisco - staky CCNA - Cisco Certified Network Associate En comparación con RIP v1 y v2, OSPF es el IGP preferido porque es escalable. RIP se limita a 15 saltos, converge lentamente y a veces elige rutas lentas porque pasa por alto ciertos factores críticos como por ejemplo el ancho de banda a la hora de determinar la ruta. OSPF ha superado estas limitaciones y se ha convertido en un protocolo de enrutamiento sólido y escalable adecuado para la redes modernas. OSPF se puede usar y configurar en una sola área en las redes pequeñas. También se puede utilizar en las redes grandes. Tal como se muestra en la Figura , las redes OSPF grandes utilizan un diseño jerárquico. Varias áreas se conectan a un área de distribución o a un área 0 que también se denomina backbone. El enfoque del diseño permite el control extenso de las actualizaciones de enrutamiento. La definición de área reduce el gasto de procesamiento, acelera la convergencia, limita la inestabilidad de la red a un área y mejora el rendimiento. Figura 3 Figura 4 La siguiente sección proporciona más información acerca de OSPF. 2.2.2 Terminología de OSPF En esta sección se presentan algunos términos relacionados con el protocolo OSPF. Los routers de estado de enlace identifican a los routers vecinos y luego se comunican con los vecinos identificados. El protocolo OSPF tiene su propia terminología. Los nuevos términos aparecen en la Figura OSPF reúne la información de los routers vecinos acerca del estado de enlace de cada router OSPF. Con esta información se inunda a todos los vecinos. Un router OSPF publica sus propios estados de enlace y traslada los estados de enlace recibidos. 33 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Figura 2 Figura 3 34 MicroCisco - staky CCNA - Cisco Certified Network Associate Los routers procesan la información acerca de los estados de enlace y crean una base de datos del estado de enlace. Cada router del área OSPF tendrá la misma base de datos del estado de enlace. Por lo tanto, cada router tiene la misma información sobre el estado del enlace y los vecinos de cada uno de los demás routers. Figura 4 Figura 5 Cada router luego aplica el algoritmo SPF a su propia copia de la base de datos. Este cálculo determina la mejor ruta hacia un destino. El algoritmo SPF va sumando el costo, un valor que corresponde generalmente al ancho de banda. La ruta de menor costo se agrega a la tabla de enrutamiento, que se conoce también como la base de datos de envío. Cada router mantiene una lista de vecinos adyacentes, que se conoce como base de datos de adyacencia. La base de datos de adyacencia es una lista de todos los routers vecinos con los que un router ha establecido comunicación bidireccional. Esto es exclusivo de cada router. Para reducir la cantidad de intercambios de la información de enrutamiento entre los distintos vecinos de una misma red, los routers de OSPF seleccionan un router designado (DR) y un router designado de respaldo (BDR) que sirven como puntos de enfoque para el intercambio de información de enrutamiento. 35 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 6 Figura 7 Figura 8 36 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 9 En la siguiente sección se hace comparación entre OSPF y los protocolos de vector-distancia. 2.2.3 Comparación de OSPF con los protocolos de vector-distancia En esta sección se explica la comparación entre el protocolo OSPF y los protocolos de vector-distancia como RIP. Los routers de estado de enlace mantienen una imagen común de la red e intercambian información de enlace en el momento de la detección inicial o de efectuar cambios en la red. Los routers de estado de enlace no envían las tablas de enrutamiento en broadcasts periódicos como lo hacen los protocolos de vector-distancia. Por lo tanto, los routers de estado de enlace utilizan menos ancho de banda para enrutar el mantenimiento de la tabla de enrutamiento. Figura 1 RIP es adecuado para pequeñas redes y la mejor ruta se basa en el menor número de saltos. OSPF es apropiado para internetworks grandes y escalables y la mejor ruta se determina a base de la velocidad del enlace. RIP, así como otros protocolos de vector-distancia, utiliza algoritmos sencillos para calcular las mejores rutas. El algoritmo SPF es complejo. Los routers que implementan los protocolos de vectordistancia necesitan menos memoria y menos potencia de procesamiento que los que implementan el protocolo OSPF. 37 MicroCisco - staky CCNA - Cisco Certified Network Associate OSPF selecciona las rutas en base al costo, lo que se relaciona con la velocidad. Cuanto mayor sea la velocidad, menor será el costo de OSPF del enlace. OSPF selecciona la ruta más rápida y sin bucles del árbol SPF como la mejor ruta de la red. OSPF garantiza un enrutamiento sin bucles. Los protocolos de vector-distancia pueden provocar bucles de enrutamiento. Figura 2 Si los enlaces son poco estables, la inundación de la información del estado de enlace puede provocar publicaciones del estado de enlace no sincronizadas y decisiones incoherentes entre los routers. Figura 3 OSPF ofrece soluciones a los siguientes problemas: • Velocidad de convergencia • Admite la Máscara de subred de longitud variable (VLSM) • Tamaño de la red • Selección de ruta. • Agrupación de miembros 38 MicroCisco - staky CCNA - Cisco Certified Network Associate En las redes grandes, la convergencia de RIP puede tardar varios minutos dado que la tabla de enrutamiento de cada router se copia y se comparte con routers directamente conectados. Después de la convergencia OSPF inicial, el mantenimiento de un estado convergente es más rápido porque se inundan los otros routers del área con los cambios en la red. OSPF admite VLSM y por lo tanto se conoce como un protocolo sin clase. RIP v1 no admite VLSM, pero RIP v2 sí la admite. RIP considera inalcanzable a una red que se encuentra a más de 15 routers de distancia porque el número de saltos se limita a 15. Esto limita el RIP a pequeñas topologías. OSPF no tiene límites de tamaño y es adecuado para las redes intermedias a grandes. RIP selecciona una ruta hacia una red agregando uno al número de saltos informado por un vecino. Compara los números de saltos hacia un destino y selecciona la ruta con la distancia más corta o menos saltos. Este algoritmo es sencillo y no requiere ningún router poderoso ni demasiada memoria. RIP no toma en cuenta el ancho de banda disponible en la determinación de la mejor ruta. OSPF selecciona la ruta mediante el costo, una métrica basada en el ancho de banda. Todos los routers OSPF deben obtener información acerca de la redes de cada router en su totalidad para calcular la ruta más corta. Éste es un algoritmo complejo. Por lo tanto, OSPF requiere routers más poderosos y más memoria que RIP. RIP utiliza una topología plana. Los routers de una región RIP intercambian información con todos los routers. OSPF utiliza el concepto de áreas. Una red puede subdividirse en grupos de routers. De esta manera, OSPF puede limitar el tráfico a estas áreas. Los cambios en un área no afectan el rendimiento de otras áreas. Este enfoque jerárquico permite el eficiente crecimiento de una red. Figura 4 La Actividad de Medios Interactivos ayudará a los estudiantes a entender las diferencias que existen entre los protocolos del estado de enlace y de vector-distancia. En la siguiente sección se analiza el algoritmo de la ruta más corta. 2.2.4 Algoritmo de la ruta más corta En esta sección se explica la manera en que OSPF utiliza el algoritmo de la ruta más corta para determinar la mejor ruta hacia un destino. En este algoritmo, la mejor ruta es la de menor costo. El algoritmo fue desarrollado por Dijkstra, un especialista holandés en informática en 1959. El algoritmo considera la red como un conjunto de nodos conectados con enlaces punto a punto. Cada enlace tiene un costo. Cada nodo tiene un nombre. Cada nodo cuenta con una base de datos completa de todos los enlaces y por lo tanto se conoce la información sobre la topología física en su totalidad. Todas las bases de datos del estado de enlace, dentro de un área determinada, son idénticas. La tabla de la Figura muestra la información que el nodo D ha recibido. Por ejemplo, D recibió información de que estaba conectado al nodo C con un costo de enlace de 4 y al nodo E con un costo de enlace de 1. 39 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 El algoritmo de la ruta más corta calcula entonces una topología sin bucles con el nodo como punto de partida y examinando a su vez la información que posee sobre nodos adyacentes. En la Figura , el nodo B ha calculado la mejor ruta hacia D, la cual es a través del nodo E, con un costo de 4. Esta información se convierte en una entrada de ruta en B que enviará el tráfico a C. Los paquetes hacia D desde B fluirán de B a C y a E, luego a D en esta red OSPF. Figura 2 En el ejemplo, el nodo B determinó que para llegar al nodo F la ruta más corta tiene un costo de 5, a través del nodo C. Todas las demás topologías posibles tendrán bucles o rutas con costos más altos. La siguiente sección explicará el concepto de las redes OSPF. 2.2.5 Tipos de red OSPF En esta sección se presentan los tres tipos de red OSPF. Se requiere una relación de vecino para que los routers OSPF puedan compartir la información de enrutamiento. Un router tiende a ser adyacente (o vecino) con por lo menos un router en cada red IP a la cual está conectado. Los routers OSPF determinan con qué routers pueden intentar formar adyacencias 40 MicroCisco - staky CCNA - Cisco Certified Network Associate tomando como base el tipo de red a la cual están conectados. Algunos routers tratarán de tender a la adyacencia con respecto a todos los routers vecinos. Otros routers tratarán de hacerse adyacentes con respecto a sólo uno o dos de los routers vecinos. Una vez que se forma una adyacencia entre vecinos, se intercambia la información del estado de enlace. Las interfaces OSPF reconocen tres tipos de redes: • Multiacceso de broadcast como por ejemplo Ethernet • Redes punto a punto. • Multiacceso sin broadcast (NBMA), como por ejemplo Frame Relay Figura 1 Un administrador puede configurar un cuarto tipo, punto a multipunto, en una interfaz. Figura 2 En una red multiacceso, no se sabe de antemano cuántos routers estarán conectados. En las redes punto a punto, sólo se pueden conectar dos routers. En un segmento de red multiacceso de broadcast, se pueden conectar muchos routers. Si cada router tuviera que establecer adyacencia completa con cada uno de los otros routers e intercambiar información del estado de enlace con cada vecino, el procesamiento tendría un gasto demasiado grande. Si existieran 5 routers, se necesitarían 10 relaciones de adyacencia y se enviarían 10 estados de enlace. Si existieran 10 routers, entonces se necesitarían 45 adyacencias. Por lo general, para n routers, se necesitan n*(n-1)/2 adyacencias. La solución para este gasto es elegir un router designado (DR). Este router se hace adyacente a todos los demás routers del segmento de broadcast. Todos los demás routers del segmento envían su información del estado de enlace al DR. El DR a su vez actúa como portavoz del segmento. El DR envía información del estado de enlace a todos los demás routers del segmento a través de la dirección de multicast 224.0.0.5 para todos los routers OSPF. A pesar de la ganancia en eficiencia que permite la elección de DR, existe una desventaja. El DR representa un punto único de falla. Se elige un segundo router como router designado de respaldo (BDR) 41 MicroCisco - staky CCNA - Cisco Certified Network Associate para que se haga cargo de las responsabilidades del DR en caso de que éste fallara. Para asegurar de que tanto el DR como el BDR vean todos los estados de enlace que los routers envían a través del segmento, se utiliza la dirección multicast 224.0.0.6 para todos los routers designados. Figura 3 En las redes punto a punto sólo existen dos nodos y no se elige ningún DR ni BDR. Ambos routers llegan a ser completamente adyacentes entre sí. En la siguiente sección se describe el protocolo Hello de OSPF. 2.2.6 Protocolo Hello de OSPF En esta sección se presentan los paquetes hello y el protocolo Hello. Cuando un router inicia un proceso de enrutamiento OSPF en una interfaz, envía un paquete hello y sigue enviando hellos a intervalos regulares. Las reglas que gobiernan el intercambio de paquetes hello de OSPF se denominan protocolo Hello. En la capa 3 del modelo OSI, los paquetes hello se direccionan hacia la dirección multicast 224.0.0.5. Esta dirección equivale a "todos los routers OSPF". Los routers OSPF utilizan los paquetes hello para iniciar nuevas adyacencias y asegurarse de que los routers vecinos sigan funcionando. Los Hellos se envían cada 10 segundos por defecto en las redes multiacceso de broadcast y punto a punto. En las interfaces que se conectan a las redes NBMA, como por ejemplo Frame Relay, el tiempo por defecto es de 30 segundos. En las redes multiacceso el protocolo Hello elige un router designado (DR) y un router designado de respaldo (BDR). Aunque el paquete hello es pequeño, consiste en un encabezado de paquete OSPF. hello, el campo de tipo se establece en 1. Para el paquete Figura 1 El paquete hello transmite información para la cual todos los vecinos deben estar de acuerdo antes de que se forme una adyacencia y que se pueda intercambiar información del estado de enlace. 42 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 En la siguiente sección se describe el proceso de enrutamiento OSPF. 2.2.7 Pasos en la operación de OSPF En esta sección se explica de qué manera se comunican los routers en una red OSPF. Cuando un router inicia un proceso de enrutamiento OSPF en una interfaz, envía un paquete Hello y sigue enviando Hellos a intervalos regulares. El conjunto de reglas que rigen el intercambio de paquetes Hello de OSPF se denomina protocolo Hello. En las redes multiacceso el protocolo Hello elige un router designado (DR) y un router designado de respaldo (BDR). Hello transmite información que todos los vecinos deberán aceptar para que se pueda formar una adyacencia y para que se pueda intercambiar información del estado de enlace. En las redes multiaceso, el DR y el BDR mantienen adyacencias con todos los demás routers OSPF en la red. Figura 1 Los routers adyacentes pasan por una secuencia de estados. Los routers adyacentes deben estar en su estado completo antes de crear tablas de enrutamiento y enrutar el tráfico. Cada router envía publicaciones del estado de enlace (LSA) en paquetes de actualización del estado de enlace (LSU). Estas LSA describen todos los enlaces de los routers. Cada router que recibe una LSA de su vecino registra la LSA en la base de datos del estado de enlace. Este proceso se repite para todos los routers de la red OSPF. Una vez completas las bases de datos, cada router utiliza el algoritmo SPF para calcular una topología lógica sin bucles hacia cada red conocida. Se utiliza la ruta más corta con el menor costo para crear esta topología, por lo tanto, se selecciona la mejor ruta. 43 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 Figura 3 La información de enrutamiento ahora se mantiene. Cuando existe un cambio en el estado de un enlace, los routers utilizan un proceso de inundación para notificar a los demás routers en la red acerca del cambio. El intervalo muerto del protocolo Hello ofrece un mecanismo sencillo para determinar que un vecino adyacente está desactivado. Con esta sección se concluye la lección. En la siguiente lección se ofrecen más explicaciones acerca de OSPF. En la primera sección se analiza la configuración de OSPF. 2.3 Configuración de OSPF de un área 2.3.1 Configuración del proceso de enrutamiento OSPF En esta sección se enseñará a los estudiantes a realizar la configuración de OSPF. Figura 1 44 MicroCisco - staky CCNA - Cisco Certified Network Associate El enrutamiento OSPF utiliza el concepto de áreas. Cada router contiene una base de datos completa de los estados de enlace de un área específica. A un área de la red OSPF se le puede asignar cualquier número de 0 a 65.535. Sin embargo a una sola área se le asigna el número 0 y se la conoce como área 0. En las redes OSPF con varias áreas, se requiere que todas las áreas se conecten al área 0. El área 0 también se denomina el área backbone. La configuración de OSPF requiere que el proceso de enrutamiento OSPF esté activo en el router con las direcciones de red y la información de área especificadas. Las direcciones de red se configuran con una máscara wildcard y no con una máscara de subred. La máscara wildcard representa las direcciones de enlaces o de host que pueden estar presentes en este segmento. Los ID de área se pueden escribir como número entero o con la notación decimal punteada. Figura 2 Para habilitar el enrutamiento OSPF, utilice la sintaxis de comando de configuración global: Router(config)#router ospf process-id El ID de proceso es un número que se utiliza para identificar un proceso de enrutamiento OSPF en el router. Se pueden iniciar varios procesos OSPF en el mismo router. El número puede tener cualquier valor entre 1 y 65.535. La mayoría de los administradores de red mantienen el mismo ID de proceso en todo un sistema autónomo, pero esto no es un requisito. Rara vez es necesario ejecutar más de un proceso OSPF en un router. Las redes IP se publican de la siguiente manera en OSPF: Router(config-router)#network address wildcard-mask area area-id Cada red se debe identificar con un área a la cual pertenece. La dirección de red puede ser una red completa, una subred o la dirección de la interfaz. La máscara wildcard representa el conjunto de direcciones de host que admite el segmento. Esto es distinto de lo que ocurre con una máscara de subred que se utiliza al configurar las direcciones IP en las interfaces. Las prácticas de laboratorio ayudarán a los estudiantes a configurar y verificar el enrutamiento OSPF. En la siguiente sección se enseña a los estudiantes a configurar una interfaz de loopback OSPF. 2.3.2 Configuración de la dirección de loopback OSPF y la prioridad del router En esta sección se explica el propósito de una interfaz de loopback OSPF. Los estudiantes también aprenderán a asignar una dirección IP a una interfaz de loopback. Cuando se inicia el proceso OSPF, Cisco IOS utiliza la dirección IP activa local más alta como su ID de router OSPF. Si no existe ninguna interfaz activa, el proceso OSPF no se iniciará. Si la interfaz activa se 45 MicroCisco - staky CCNA - Cisco Certified Network Associate desactiva, el proceso OSPF se queda sin ID de router y por lo tanto deja de funcionar hasta que la interfaz vuelve a activarse. Para asegurar la estabilidad de OSPF, deberá haber una interfaz activa para el proceso OSPF en todo momento. Es posible configurar una interfaz de loopback, que es una interfaz lógica, para este propósito. Al configurarse una interfaz loopback, OSPF usa esta dirección como ID del router, sin importar el valor. En un router que tiene más de una interfaz loopback, OSPF toma la dirección IP de loopback más alta como su ID de router. Para crear y asignar una dirección IP a una interfaz de loopback use los siguientes comandos: Router(config)#interface loopback number Router(config-if)#ip address ip-address subnet-mask Se considera buena práctica usar interfaces loopback para todos los routers que ejecutan OSPF. Esta interfaz de loopback se debe configurar con una dirección que use una máscara de subred de 32 bits de 255.255.255.255. Una máscara de subred de 32 bits se denomina una máscara de host porque la máscara de subred especifica la red de un host. Cuando se solicita que OSPF publique una red loopback, OSPF siempre publica el loopback como una ruta de host con una máscara de 32 bits. Figura 1 En las redes multiacceso de broadcast es posible que haya más de dos routers. OSPF elige un router designado (DR) para que sea el punto de enfoque de todas las actualizaciones del estado de enlace y de las publicaciones del estado de enlace. Debido a que la función del DR es crítica, se elige un router designado de respaldo (BDR) para que reemplace a DR en caso de que éste falle. Si el tipo de red de una interfaz es broadcast, la prioridad OSPF por defecto es 1. Cuando las prioridades OSPF son iguales, la elección de OSPF para DR se decide a base del ID del router. Se selecciona el router de ID más elevado. El resultado de la elección puede determinarse asegurándose de que las votaciones, los paquetes hello, contengan un prioridad para dicha interfaz de router. La interfaz que registra la mayor prioridad para un router permitirá asegurar de que se convertirá en DR. Las prioridades se pueden establecer en cualquier valor de 0 a 255. Un valor de 0 evita que el router sea elegido. Se seleccionará como DR al router con la prioridad OSPF más alta. El router con la segunda prioridad más alta será BDR. Después del proceso de elección, el DR y el BDR conservan sus funciones aun cuando se agreguen a la red routers con valores de prioridad OSPF más altos. Se modifica la prioridad OSPF introduciendo el comando de configuración de interfaz ip ospf priority en una interfaz que participa en OSPF. El comando show ip ospf interface mostrará el valor de prioridad de interfaz así como otra información clave. Router(config-if)#ip ospf priority number Router#show ip ospf interface type number La actividad de laboratorio enseñará a los estudiantes a configurar las interfaces loopback para OSPF y les permitirá observar el proceso de elección para DR y BDR. 46 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 Figura 3 Figura 4 En la siguiente sección se describe la métrica de costos de OSPF. 47 MicroCisco - staky CCNA - Cisco Certified Network Associate 2.3.3 Modificación de la métrica de costos de OSPF En esta sección se enseña a los estudiantes a modificar los valores de costo en las interfaces de red. Figura 1 OSPF utiliza el costo como métrica para determinar la mejor ruta. Un costo se asocia con el lado de salida de cada interfaz de router. Los costos también se asocian con datos de enrutamiento derivados en forma externa. Por lo general, el costo de ruta se calcula mediante la fórmula 10^8/ancho de banda, donde el ancho de banda se expresa en bps. El administrador de sistema también puede usar otros métodos para configurar el costo. Cuanto más bajo sea el costo, más probabilidad hay de que la interfaz sea utilizada para enviar tráfico de datos. Cisco IOS determina automáticamente el costo en base al ancho de banda de la interfaz. Resulta esencial para la operación correcta de OSPF que se establezca el ancho de banda de interfaz correcto. Router(config)#interface serial 0/0 Router(config-if)#bandwidth 64 El ancho de banda por defecto para las interfaces seriales Cisco es 1,544 Mbps o 1544 kbps. Es posible cambiar el costo para afectar el resultado de los cálculos de costo OSPF. Una situación común que requiere un cambio de costo es un entorno de enrutamiento de diversos fabricantes. Un cambio de costo puede asegurar que el valor de costo de un fabricante coincida con el valor de costo de otro fabricante. Otra situación se produce al utilizar Gigabit Ethernet. Con la configuración por defecto, se asigna el valor de costo más bajo (1) a un enlace de 100 Mbps. En una situación con con enlaces Gigabit Ethernet y 100-Mbps, los valores de costo por defecto podrían hacer que el enrutamiento tome una ruta menos deseable a menos que estos se ajusten. El número de costo se puede establecer entre 1 y 65.535. Figura 2 Utilice el siguiente comando de configuración de interfaz para establecer el costo del enlace: 48 MicroCisco - staky CCNA - Cisco Certified Network Associate Router(config-if)#ip ospf cost number Las prácticas de laboratorio demostrarán a los estudiantes cómo modificar la métrica de costo OSPF de una interfaz. La siguiente sección explicará la configuración de la autenticación de OSPF. 2.3.4 Configuración de la autenticación de OSPF En esta sección se explica la razón por la que se utilizan las claves de autenticación de OSPF y la manera de configurarlas. Por defecto, un router confía en que la información de enrutamiento proviene de un router que debería estar enviando información. Un router también confía en que la información no haya sido alterada a lo largo de la ruta. Para garantizar esta confianza, los routers de un área específica pueden configurarse para autenticarse entre sí. Figura 1 Cada interfaz OSPF puede presentar una clave de autenticación para que la usen los routers que envían información de OSPF hacia otros routers del segmento. La clave de autenticación, conocida como contraseña, es un secreto compartido entre los routers. Esta clave se utiliza para generar los datos de autenticación en el encabezado del paquete de OSPF. La contraseña puede contener hasta ocho caracteres. Utilice la siguiente sintaxis de comando para configurar la autenticación de OSPF: Router(config-if)#ip ospf authentication-key password Una vez configurada la contraseña, se debe habilitar la autenticación: Router(config-router)#area area-number authentication Con la autenticación sencilla, se envía la contraseña como texto sin cifrar. Esto significa que se puede decodificar fácilmente si un husmeador de paquetes captura un paquete de OSPF. Se recomienda cifrar la información de autenticación. Para enviar la información de autenticación cifrada y asegurar mayor seguridad, se utiliza la palabra clave message-digest. La palabra clave MD5 especifica el tipo de algoritmo de hash de message-digest a utilizar y el campo de tipo de cifrado se refiere al tipo de cifrado, donde 0 significa ninguno y 7 significa propietario. Utilice la sintaxis del modo de comando de configuración de interfaz: Router(config-if)#ip ospf message-digest-key key-id encryption-type md5 key El key-id es un identificador y toma un valor en el intervalo de 1 a 255. Key es una contraseña alfanumérica de hasta dieciséis caracteres. Los routers vecinos deben usar el mismo identificador clave con el mismo valor clave. Se configura lo siguiente en el modo de configuración del router: Router(config-router)#area area-id authentication message-digest La autenticación MD5 crea un message-digest. Un message-digest son datos cifrados en base a la contraseña y el contenido del paquete. El router receptor utiliza la contraseña compartida y el paquete para recalcular el digest. Si los digests coinciden, el router considera que el origen y el contenido del paquete no 49 MicroCisco - staky CCNA - Cisco Certified Network Associate han sido alterados. El tipo de autenticación identifica qué clase de autenticación, de haber alguna, se está utilizando. En el caso de la autenticación del message-digest, el campo de datos de autenticación contiene el key-id y la longitud del message-digest que se ha adjuntado al paquete. El message-digest es como una filigrana que no se puede falsificar. Figura 2 En las Prácticas de Laboratorio se requerirá que los estudiantes establezcan un esquema de dirección IP para un área OSPF. Los estudiantes luego configurarán una autenticación de OSPF para el área. En la siguiente sección se enseñará a los estudiantes cómo configurar los temporizadores de OSPF. 2.3.5 Configuración de los temporizadores OSPF En esta sección se explica la forma en que los intervalos hello y muertos se configuran en una red OSPF. Los routers OSPF deben tener los mismos intervalos hello y los mismos intervalos muertos para intercambiar información. Por defecto, el intervalo muerto es de cuatro veces el valor del intervalo hello. Esto significa que un router tiene cuatro oportunidades de enviar un paquete hello antes de ser declarado muerto. En las redes OSPF de broadcast, el intervalo hello por defecto es de 10 segundos y el intervalo muerto por defecto es de 40 segundos. En las redes que no son de broadcast, el intervalo hello por defecto es de 30 segundos y el intervalo muerto por defecto es de 120 segundos. Estos valores por defecto dan como resultado una operación eficiente de OSPF y muy pocas veces necesitan ser modificados. Un administrador de red puede elegir estos valores de temporizador. Se necesita una justificación de que el rendimiento de red OSPF mejorará antes de cambiar los temporizadores. Estos temporizadores deben configurarse para que coincidan con los de cualquier router vecino. Figura 1 Para configurar los intervalos hello y muertos de una interfaz, utilice los siguientes comandos: 50 MicroCisco - staky CCNA - Cisco Certified Network Associate Router(config-if)#ip ospf hello-interval seconds Router(config-if)#ip ospf dead-interval seconds Las Actividades de Laboratorio ayudarán a los estudiantes a comprender cómo configurar los temporizadores OSPF para mejorar la eficiencia de red. La siguiente sección explicará la configuración de una ruta por defecto. 2.3.6 OSPF, propagación de una ruta por defecto En esta sección se enseña a los estudiantes cómo configurar una ruta por defecto para un router OSPF. El enrutamiento OSPF asegura rutas sin bucles para cada red dentro del dominio. Para alcanzar las redes fuera del dominio, OSPF debe conocer la red u OSPF debe tener una ruta por defecto. Tener una entrada para cada red del mundo requeriría enormes recursos para cada router. Una alternativa práctica es agregar una ruta por defecto al router OSPF conectado a la red externa. Esta ruta se puede redistribuir a cada router en el AS mediante las actualizaciones OSPF normales. Figura 1 Un router utiliza la ruta por defecto configurada para generar un gateway de último recurso. La sintaxis de configuración de la ruta estática por defecto utiliza la dirección de red 0.0.0.0 y una máscara de subred 0.0.0.0: Router(config)#ip route 0.0.0.0 0.0.0.0 [interface | next-hop address] Esto se conoce como la ruta quad-zero y la coincidencia con cualquier dirección de red se basa en la siguiente regla. El gateway de red se determina haciendo AND al destino de paquete con la máscara de subred. La siguiente sentencia de configuración propagará esta ruta hacia todos los routers en un área de OSPF normal: Router(config-router)#default-information originate Todos ls routers del área OSPF aprenderán una ruta por defecto siempre y cuando la interfaz del router límite hacia el gateway por defecto esté activa. Las actividades de laboratorio ayudarán a los estudiantes a configurar una red OSFP y luego a configurar una ruta por defecto. En la siguiente sección se presentan algunas consideraciones importantes para los routers OSPF. 51 MicroCisco - staky CCNA - Cisco Certified Network Associate 2.3.7 Problemas frecuentes en la configuración de OSPF En esta sección se presentarán algunos temas de configuración que podrían impedir la comunicación entre los routers OSPF. Figura 1 Un router OSPF debe establecer una relación de vecino o de adyacencia con otro router OSPF para intercambiar la información de enrutamiento. A continuación se presentan las razones por las cuales no se establece esta relación de vecino: • Los Hellos no se envían desde ambos vecinos. • Los temporizadores de los intervalos hello y muertos no son iguales. • Las interfaces se encuentran en tipos de red distintos. • Las contraseñas o claves de autenticación son distintas. En el enrutamiento OSPF también es importante asegurar lo siguiente: • Todas las interfaces tienen las direcciones y la mascara de subred correctas. • Las sentencias network area tienen las máscaras wildcard correctas. • Las sentencias network area colocan a las interfaces en el área correcta. En la siguiente sección se presentan algunos comandos show. 2.3.8 Verificación de configuración OSPF Figura 1 52 MicroCisco - staky CCNA - Cisco Certified Network Associate En esta sección se explica la manera en que los comandos show se pueden utilizar para realizar el diagnóstico de fallas de OSPF. Para verificar la configuración de OSPF existe una serie de comandos show. La Figura enumera estos comandos. La Figura muestra los comandos que resultan útiles para el diagnóstico de fallas de OSPF. Figura 2 Con esta sección se concluye la lección. En la siguiente sección se resumen los puntos principales de este módulo. Resumen En esta sección se resumen los temas analizados en este módulo. Una diferencia esencial entre los protocolos de enrutamiento de estado de enlace y los protocolos de vectordistancia es la forma en que intercambian información de enrutamiento. Los protocolos de enrutamiento de estado de enlace responden rápidamente a los cambios de red, envían actualizaciones desencadenadas por eventos sólo cuando se ha producido un cambio en la red, envían actualizaciones periódicas conocidas como actualizaciones del estado de enlace y utilizan un mecanismo hello para determinar la posibilidad de alcanzar a los vecinos. Un router que ejecuta un protocolo del estado de enlace utiliza la información hello y LSA que recibe desde otros routers para crear una base de datos acerca de la red. También utiliza el algoritmo Primero la ruta libre más corta (SPF) para calcular la ruta más corta a cada red. Para superar las limitaciones de los protocolos de vector-distancia, los protocolos de enrutamiento de estado de enlace utilizan publicaciones del estado de enlace (LSA), una base de datos topológica, el algoritmo de ruta más corta (SPF), el consiguiente árbol SPF y una tabla de enrutamiento de rutas y puertos para que cada red determine las mejores rutas para los paquetes. Un enlace es igual a una interfaz en un router. El estado de enlace es la descripción de una interfaz y la relación que tiene con los routers vecinos. A través de las LSA, los routers de estado de enlace publican los estados de sus enlaces a todos los demás routers que se encuentran en el área, de manera que cada router pueda crear una base de datos del estado de enlace completa. Tienen relaciones especiales con sus vecinos y con los demás routers de estado de enlace. Los routers de estado de enlace son una buena elección para las redes complejas y escalables. Las ventajas de los protocolos de enrutamiento de estado de enlace sobre los de vector-distancia incluyen una convergencia más rápida y una utilización mejorada del ancho de banda. Los protocolos del estado de enlace admiten un enrutamiento interdominio sin clase (CIDR) y una máscara de subred de longitud variable (VLSM). El protocolo público conocido como Primero la ruta libre más corta (OSPF) es un protocolo de enrutamiento de estado del enlace basado en estándares abiertos. El término "libre" en OSPF significa que está abierto al público y no es propiedad de ninguna empresa. Los routers OSPF seleccionan un router designado (DR) y un router designado de respaldo (BDR) que sirve como punto de enfoque para el intercambio de información de enrutamiento a fin de reducir el número de intercambios de información de enrutamiento entre varios vecinos en la misma red. OSPF selecciona las rutas a base del costo, que en la implementación de Cisco se relaciona con el ancho de banda. OSPF selecciona la ruta más rápida sin bucles del árbol Primero la ruta libre más corta como la mejor ruta en la red. OSPF garantiza un enrutamiento sin bucles. Los protocolos de vector-distancia pueden provocar bucles de enrutamiento. Cuando un router inicia un proceso de enrutamiento OSPF en una interfaz, envía un paquete hello y sigue enviando hellos a intervalos regulares. Las reglas que gobiernan el intercambio de paquetes hello de OSPF se denominan protocolo Hello. Si todos los parámetros de los paquetes Hello de OSPF concuerdan, los routers se convierten en vecinos. 53 CCNA - Cisco Certified Network Associate MicroCisco - staky Cada router envía publicaciones del estado de enlace (LSA) en paquetes de actualización del estado de enlace (LSU). Cada router que recibe una LSA de su vecino registra la LSA en la base de datos del estado de enlace. Este proceso se repite para todos los routers de la red OSPF. Una vez completas las bases de datos, cada router utiliza el algoritmo SPF para calcular una topología lógica sin bucles para cada red conocida. Se utiliza la ruta más corta con el menor costo para crear esta topología, por lo tanto, se selecciona la mejor ruta. Esta información de enrutamiento se mantiene. Cuando existe un cambio en el estado de un enlace, los routers utilizan un proceso de inundación para notificar a los demás routers en la red acerca del cambio. El intervalo muerto del protocolo Hello ofrece un mecanismo sencillo para determinar que un vecino adyacente está desactivado. 54 CCNA - Cisco Certified Network Associate MicroCisco - staky Módulo 3: EIGRP Descripción general EIGRP es un protocolo de enrutamiento propietario de Cisco basado en IGRP. EIGRP admite CIDR y VLSM, lo que permite que los diseñadores de red maximicen el espacio de direccionamiento. En comparación con IGRP, que es un protocolo de enrutamiento con clase, EIGRP ofrece tiempos de convergencia más rápidos, mejor escalabilidad y gestión superior de los bucles de enrutamiento. Además, EIGRP puede reemplazar al Protocolo de Mantenimiento de Tablas de Enrutamiento (RTMP) AppleTalk y Novell RIP. EIGRP funciona en las redes IPX y AppleTalk con potente eficiencia. Con frecuenca, se describe EIGRP como un protocolo de enrutamiento híbrido que ofrece lo mejor de los algoritmos de vector-distancia y del estado de enlace. EIGRP es un protocolo de enrutamiento avanzado que se basa en las características normalmente asociadas con los protocolos del estado de enlace. Algunas de las mejores funciones de OSPF, como las actualizaciones parciales y la detección de vecinos, se usan de forma similar con EIGRP. Sin embargo, EIGRP es más fácil de configurar que OSPF. EIGRP es una opción ideal para las grandes redes multiprotocolo construidas principalmente con routers Cisco. Este módulo abarca las tareas de configuración comunes de EIGRP. Se enfatiza la forma en que EIGRP establece relaciones con routers adyacentes, la manera en que calcula las rutas primaria y de respaldo y cómo responde a las fallas en las rutas conocidas hacia un destino en particular. Una red se compone de varios dispositivos, protocolos y medios que permiten la comunicación de datos. Cuando un componente de red no funciona correctamente, puede afectar toda la red. En todo caso, los administradores de red deben identificar y diagnosticar los problemas rápidamente cuando se produzcan. A continuación se presentan algunas de las razones por las que surgen problemas en la red. • • • • Se introducen comandos de forma incorrecta Se construyen o colocan las listas de acceso de forma incorrecta Los routers, switch u otros dispositivos de red están configurados de forma incorrecta Las conexiones físicas son de mala calidad Un administrador de red debe realizar el diagnóstico de fallas de forma metódica, mediante un modelo general de resolución de problemas. A menudo es útil verificar si hay problemas de la capa física en primer lugar y luego ir subiendo por las capas de forma organizada. Aunque este módulo se concentra en la forma de diagnosticar las fallas de los protocolos de Capa 3, es importante diagnosticar y eliminar los problemas existentes en las capas inferiores. Este módulo abarca algunos de los objetivos de los exámenes CCNA 640-801 e ICND 640-811. Los estudiantes que completen este módulo deberán ser capaces de realizar las siguientes tareas: • Describir las diferencias entre EIGRP e IGRP. • Describir los conceptos, tecnologías y estructuras de datos claves de EIGRP • Comprender la convergencia de EIGRP y la operación básica del Algoritmo de Actualización Difusa (DUAL) • Realizar una configuración básica de EIGRP • Configurar el resumen de rutas EIGRP • Describir los procesos utilizados por EIGRP para construir y mantener las tablas de enrutamiento • Verificar las operaciones de EIGRP • Describir el proceso de ocho pasos para la detección general de fallas • Aplicar un proceso lógico para diagnosticar las fallas de enrutamiento • Usar los comandos show y debug para diagnosticar las fallas de RIP • Usar los comandos show y debug para diagnosticar las fallas de IGRP • Usar los comandos show y debug para diagnosticar las fallas de EIGRP • Usar los comandos show y debug para diagnosticar las fallas de OSPF 55 MicroCisco - staky CCNA - Cisco Certified Network Associate 3.1 EIGRP 3.1.1 Comparación entre IGRP e EIGRP Cisco lanzó EIGRP en 1994 como una versión escalable y mejorada de su protocolo propietario de enrutamiento por vector-distancia, IGRP. En esta sección se explican las diferencias y similitudes existentes entre EIGRP e IGRP. La información de distancia y la tecnología de vector-distancia que se usan en IGRP también se utilizan en EIGRP. EIGRP mejora las propiedades de convergencia y opera con mayor eficiencia que IGRP. Esto permite que una red tenga una arquitectura mejorada y pueda mantener las inversiones actuales en IGRP. Las comparaciones entre EIGRP e IGRP se pueden dividir en las siguientes categorías principales: • Modo de compatibilidad • Cálculo de métrica • Número de saltos • Redistribución automática de protocolos • Etiquetado de rutas IGRP y EIGRP son compatibles entre sí. Esta compatibilidad ofrece una interoperabilidad transparente con los routers IGRP. Esto es importante, dado que los usuarios pueden aprovechar los beneficios de ambos protocolos. EIGRP ofrece compatibilidad multiprotocolo, mientras que IGRP no lo hace. EIGRP e IGRP usan cálculos de métrica diferentes. EIGRP multiplica la métrica de IGRP por un factor de 256. Esto ocurre porque EIGRP usa una métrica que tiene 32 bits de largo, e IGRP usa una métrica de 24 bits. La información EIGRP puede multiplicarse o dividirse por 256 para un intercambio fácil con IGRP. Figura 1 IGRP tiene un número de saltos máximo de 255. El límite máximo para el número de saltos en EIGRP es 224. Esto es más que suficiente para admitir los internetworks grandes y correctamente diseñadas. Se requiere una configuración avanzada para permitir que protocolos de enrutamiento diferentes como OSPF y RIP compartan información. La redistribución, o la capacidad para compartir rutas, es automática entre IGRP e EIGRP, siempre y cuando ambos procesos usen el mismo número AS. En la Figura , RTB distribuye de forma automática las rutas aprendidas de EIGRP al AS de IGRP, y viceversa. EIGRP rotula como externas las rutas aprendidas de IGRP o cualquier otra fuente externa porque no se originan en los routers EIGRP. IGRP no puede diferenciar entre rutas internas y externas. Observe que en el resultado del comando show ip route de los routers de la Figura , las rutas de EIGRP se rotulan con una D, mientras que las rutas externas se rotulan con EX. RTA identifica la diferencia entre la red 172.16.0.0, que se aprendió mediante EIGRP, y la red 192.168.1.0 que se redistribuyó desde IGRP. En la tabla RTC, el protocolo IGRP no indica este tipo de diferencia. RTC, que usa solamente IGRP, sólo ve las rutas IGRP, a pesar de que tanto 10.1.1.0 como 172.16.0.0 se redistribuyeron desde EIGRP. 56 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 Figura 3 La Actividad de Medios Interactivos ayudará a los estudiantes a reconocer las características de IGRP y EIGRP. En la sección siguiente se explica EIGRP con mayor detalle. 3.1.2 Conceptos y terminología de EIGRP En esta sección se analizan las tres tablas que EIGRP utiliza para almacenar información de red. Los routers EIGRP mantienen información de ruta y topología a disposición en la RAM, para que puedan reaccionar rápidamente ante los cambios. Al igual que OSPF, EIGRP guarda esta información en varias tablas y bases de datos. EIGRP guarda las rutas que se aprenden de maneras específicas. Las rutas reciben un estado específico y se pueden rotular para proporcionar información adicional de utilidad. EIGRP mantiene las siguientes tres tablas: 57 MicroCisco - staky CCNA - Cisco Certified Network Associate • • • Tabla de vecinos Tabla de topología Tabla de enrutamiento La tabla de vecinos es la más importante de EIGRP. Cada router EIGRP mantiene una tabla de vecinos que enumera a los routers adyacentes. Esta tabla puede compararse con la base de datos de adyacencia utilizada por OSPF. Existe una tabla de vecinos por cada protocolo que admite EIGRP. Figura 1 Al conocer nuevos vecinos, se registran la dirección y la interfaz del vecino. Esta información se guarda en la estructura de datos del vecino. Cuando un vecino envía un paquete hello, publica un tiempo de espera. El tiempo de espera es la cantidad de tiempo durante el cual un router considera que un vecino se puede alcanzar y que funciona. Si un paquete de salutación (hello) no se recibe dentro del tiempo de espera, entonces vence el tiempo de espera. Cuando vence el tiempo de espera, se informa al Algoritmo de Actualización Difusa (DUAL), que es el algoritmo de vector-distancia de EIGRP, acerca del cambio en la topología para que recalcule la nueva topología. Figura 2 La tabla de topología se compone de todas las tablas de enrutamiento EIGRP en el sistema autónomo. DUAL toma la información proporcionada en la tabla de vecinos y la tabla de topología y calcula las rutas de EIGRP rastrea esta información para que los routers EIGRP puedan menor costo hacia cada destino. identificar y conmutar a rutas alternativas rápidamente. La información que el router recibe de DUAL se utiliza para determinar la ruta del sucesor, que es el término utilizado para identificar la ruta principal o la 58 MicroCisco - staky CCNA - Cisco Certified Network Associate mejor. Esta información también se introduce a la tabla de topología. Los routers EIGRP mantienen una tabla de topología por cada protocolo configurado de red. La tabla de enrutamiento mantiene las rutas que se aprenden de forma dinámica. A continuación se muestran los campos que conforman la tabla de enrutamiento: • Distancia factible (FD): Ésta es la métrica calculada más baja hacia cada destino. Por ejemplo, la distancia factible a 32.0.0.0 es 2195456. • Origen de la ruta: Número de identificación del router que publicó esa ruta en primer lugar. Este campo se llena sólo para las rutas que se aprenden de una fuente externa a la red EIGRP. El rotulado de rutas puede resultar particularmente útil con el enrutamiento basado en políticas. Por ejemplo, el origen de la ruta a 32.0.0.0 es 200.10.10.10 a 200.10.10.10. • Distancia informada (RD): La distancia informada (RD) de la ruta es la distancia informada por un vecino adyacente hacia un destino específico. Por ejemplo, la distancia informada a 32.0.0.0 es 2195456 tal como lo indica (90/2195456). • Información de interfaz: La interfaz a través de la cual se puede alcanzar el destino. • Estado de ruta: El estado de una ruta. Una ruta se puede identificar como pasiva, lo que significa que la ruta es estable y está lista para usar, o activa, lo que significa que la ruta se encuentra en el proceso de recálculo por parte de DUAL. La tabla de enrutamiento EIGRP contiene las mejores rutas hacia un destino. Esta información se recupera de la tabla de topología. Los routers EIGRP mantienen una tabla de enrutamiento por cada protocolo de red. DUAL identifica esta Un sucesor es una ruta seleccionada como ruta principal para alcanzar un destino. ruta en base a la información que contienen las tablas de vecinos y de topología y la coloca en la tabla de enrutamiento. Puede haber hasta cuatro rutas de sucesor para cada destino en particular. Éstas pueden ser de costo igual o desigual y se identifican como las mejores rutas sin bucles hacia un destino determinado. Un sucesor factible (FS) es una ruta de respaldo. Estas rutas se identifican al mismo tiempo que los sucesores, pero sólo se mantienen en la tabla de topología. Los múltiples sucesores factibles para un destino se pueden mantener en la tabla de topología, aunque no es obligatorio. Figura 3 Un router visualiza los sucesores factibles como vecinos corriente abajo, o más cerca del destino que él. El costo del sucesor factible se calcula a base del costo publicado del router vecino hacia el destino. Si una ruta del sucesor colapsa, el router busca un sucesor factible identificado. Esta ruta se promoverá al estado de sucesor. Un sucesor factible debe tener un costo publicado menor que el costo del sucesor actual hacia el destino. Si es imposible identificar un sucesor factible en base a la información actual, el router coloca un estado Activo en una ruta y envía paquetes de consulta a todos los vecinos para recalcular la topología actual. El router puede identificar cualquier nuevo sucesor o sucesor factible a partir de los nuevos datos recibidos de los paquetes de respuesta que responden a los pedidos de consulta. Entonces, el router establecerá el estado de la ruta en Pasivo. Es posible registrar información adicional acerca de cada ruta en la tabla de topología. EIGRP clasifica a las rutas como internas o externas. EIGRP agrega un rótulo de ruta a cada ruta para identificar esta clasificación. Las rutas internas se originan dentro del AS EIGRP. 59 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 4 Figura 5 Figura 6 60 MicroCisco - staky CCNA - Cisco Certified Network Associate Las rutas externas se originan fuera del AS EIGRP. Las rutas aprendidas o redistribuidas desde otros protocolos de enrutamiento como RIP, OSPF e IGRP son externas. Las rutas estáticas que se originan fuera del AS EIGRP son externas. El rótulo puede establecerse en un número entre 0-255 para adaptar el rótulo. Figura 7 En la sección siguiente se explican algunas ventajas de EIGRP. 3.1.3 Características de diseño de EIGRP Esta sección describe algunos de los aspectos claves del diseño de EIGRP. EIGRP opera de una manera bastante diferente de IGRP. EIGRP es un protocolo de enrutamiento por vector-distancia avanzado, pero también actúa como protocolo del estado de enlace en la manera en que actualiza a los vecinos y mantiene la información de enrutamiento. A continuación se presentan algunas de las ventajas de EIGRP sobre los protocolos de vector-distancia simples: • Convergencia rápida • Uso eficiente del ancho de banda • Compatibilidad con VLSM y CIDR • Compatibilidad con capas de varias redes • Independencia de los protocolos enrutados Figura 1 Los módulos dependientes de protocolo (PDM) protegen a EIGRP de las revisiones prolongadas. Es posible que los protocolos enrutados en evolución, como IP, requieran un nuevo módulo de protocolo, pero no necesariamente una reelaboración del propio EIGRP. Los routers EIGRP convergen rápidamente porque se basan en DUAL. DUAL garantiza una operación sin bucles durante todo el cálculo de rutas, lo que permite la sincronización simultánea de todos los routers involucrados en cambio de topología. EIGRP envía actualizaciones parciales y limitadas, y hace un uso eficiente del ancho de banda. EIGRP usa un ancho de banda mínimo cuando la red es estable. Los routers EIGRP no envían las tablas en su 61 MicroCisco - staky CCNA - Cisco Certified Network Associate totalidad, sino que envían actualizaciones parciales e incrementales. Esto es parecido a la operación de OSPF, salvo que los routers EIGRP envían estas actualizaciones parciales sólo a los routers que necesitan la información, no a todos los routers del área. Por este motivo, se denominan actualizaciones limitadas. En vez de enviar actualizaciones de enrutamiento temporizadas, los routers EIGRP usan pequeños paquetes hello para mantener la comunicación entre sí. Aunque se intercambian con regularidad, los paquetes hello no usan una cantidad significativa de ancho de banda. EIRGP admite IP, IPX y AppleTalk mediante los PDM. EIGRP puede redistribuir información de IPX, RIP y SAP para mejorar el desempeño general. En efecto, EIGRP puede reemplazar estos dos protocolos. Los routers EIGRP reciben actualizaciones de enrutamiento y de servicio y actualizan otros routers sólo cuando se producen cambios en las tablas de enrutamiento o de SAP. En las redes EIGRP, las actualizaciones de enrutamiento se realizan por medio de actualizaciones parciales. EIGRP también puede reemplazar el RTMP de AppleTalk. Como protocolo de enrutamiento por vector-distancia, RTMP se basa en intercambios periódicos y completos de información de enrutamiento. Para reducir el gasto, EIGRP usa actualizaciones desencadenadas por eventos para redistribuir la información de enrutamiento AppleTalk. EIGRP también usa una métrica compuesta configurable para determinar la mejor ruta a una red AppleTalk. RTMP usa el número de saltos, lo que puede dar como resultado un enrutamiento por debajo del óptimo. Los clientes AppleTalk esperan información RTMP desde los routers locales, de manera que EIGRP para AppleTalk sólo debe ejecutarse en una red sin clientes, como un enlace WAN. En la sección siguiente se analizan algunas tecnologías EIGRP. 3.1.4 Tecnologías EIGRP En esta sección se analizan algunas de las nuevas tecnologías que incluye EIGRP. Cada nueva tecnología representa una mejora con respecto a la eficiencia en la operación de EIGRP, la velocidad de convergencia o la funcionalidad con respecto a IGRP y otros protocolos de enrutamiento. Estas tecnologías pertenecen a una de las siguientes cuatro categorías: • Detección y recuperación de vecinos • Protocolo de transporte confiable • Algoritmo de máquina de estado finito DUAL • Módulos dependientes de protocolo Los routers de vector-distancia simples no establecen ninguna relación con sus vecinos. Los routers RIP e IGRP simplemente envían las actualizaciones en broadcast o multicast por las interfaces configuradas. En cambio, los routers EIGRP establecen relaciones activamente con los vecinos, tal como lo hacen los routers OSPF. Figura 1 • 62 Los routers EIGRP establecen adyacencias tal como se describe en la Figura . Los routers EIGRP lo logran mediante paquetes hello pequeños. Los hellos se envían por defecto cada cinco segundos. Un router EIGRP supone que, siempre y cuando reciba paquetes hello de los vecinos conocidos, MicroCisco - staky CCNA - Cisco Certified Network Associate • • estos vecinos y sus rutas seguirán siendo viables o pasivas. Lo siguiente puede ocurrir cuando los routers EIGRP forman adyacencias: Aprender de forma dinámica las nuevas rutas que se unen a la red Identificar los routers que llegan a ser inalcanzables o inoperables Redetectar los routers que habían estado inalcanzables anteriormente El Protocolo de Transporte Confiable (RTP) es un protocolo de capa de transporte que garantiza la entrega ordenada de paquetes EIGRP a todos los vecinos. En una red IP, los hosts usan TCP para secuenciar los paquetes y asegurarse de que se entreguen de manera oportuna. Sin embargo, EIGRP es independente de los protocolos. Esto significa que no se basa en TCP/IP para intercambiar información de enrutamiento de la forma en que lo hacen RIP, IGRP y OSPF. Para mantenerse independiente de IP, EIGRP usa RTP como su protocolo de capa de transporte propietario para garantizar la entrega de información de enrutamiento. EIGRP puede hacer una llamada a RTP para que proporcione un servicio confiable o no confiable, según lo requiera la situación. Por ejemplo, los paquetes hello no requieren el gasto de la entrega confiable porque se envían con frecuencia y se deben mantener pequeños. La entrega confiable de otra información de enrutamiento puede realmente acelerar la convergencia porque entonces los routers EIGRP no tienen que esperar a que un temporizador expire antes de retransmitir. Con RTP, EIGRP puede realizar envíos en multicast y en unicast a diferentes pares de forma simultánea. Esto maximiza la eficiencia. El núcleo de EIGRP es DUAL, que es el motor de cálculo de rutas de EIGRP. El nombre completo de esta tecnología es máquina de estado finito DUAL (FSM). Una FSM es una máquina de algoritmos, no un dispositivo mecánico con piezas que se mueven. Las FSM definen un conjunto de los posibles estados de algo, los acontecimientos que provocan esos estados y los eventos que resultan de estos estados. Los diseñadores usan las FSM para describir de qué manera un dispositivo, programa de computador o algoritmo de enrutamiento reaccionará ante un conjunto de eventos de entrada. La FSM DUAL contiene toda la lógica que se utiliza para calcular y comparar rutas en una red EIGRP. DUAL rastrea todas las rutas publicadas por los vecinos. Se comparan mediante la métrica compuesta de cada ruta. DUAL también garantiza que cada ruta esté libre de bucles. DUAL inserta las rutas de menor costo en la tabla de enrutamiento. Estas rutas principales se denominan rutas del sucesor. Una copia de las rutas del sucesor también se coloca en la tabla de enrutamiento. Figura 2 EIGRP mantiene información importante de ruta y topología a disposición en una tabla de vecinos y una tabla de topología. Estas tablas proporcionan información detallada de las rutas a DUAL en caso de problemas en la red. DUAL usa la información de estas tablas para seleccionar rápidamente las rutas alternativas. Si un enlace se desactiva, DUAL busca una ruta alternativa, o sucesor factible, en la tabla de topología. 63 MicroCisco - staky CCNA - Cisco Certified Network Associate Una de las mejores características de EIGRP es su diseño modular. Se ha demostrado que los diseños modulares o en capas son los más escalables y adaptables. EIRGP logra la compatibilidad con los protocolos enrutados, como IP, IPX y AppleTalk, mediante los PDM. En teoría, EIGRP puede agregar PDM para adaptarse fácilmente a los protocolos enrutados nuevos o revisados como IPv6. Figura 3 Cada PDM es responsable de todas las funciones relacionadas con su protocolo enrutado específico. El módulo IP-EIGRP es responsable de las siguientes funciones: • Enviar y recibir paquetes EIGRP que contengan datos IP • Avisar a DUAL una vez que se recibe la nueva información de enrutamiento IP • Mantener de los resultados de las decisiones de enrutamiento DUAL en la tabla de enrutamiento IP • Redistribuir la información de enrutamiento que se aprendió de otros protocolos de enrutamiento capacitados para IP En la sección siguiente se analizan los tipos de paquetes EIGRP. 3.1.5 Estructura de datos EIGRP Al igual que OSPF, EIGRP depende de diferentes tipos de paquetes para mantener sus tablas y establecer relaciones con los routers vecinos. Esta sección describirá estos tipos de paquetes. Figura 1 A continuación se presentan los cinco tipos de paquetes EIGRP: • Hello • Acuse de recibo • Actualización • Consulta • Respuesta 64 MicroCisco - staky CCNA - Cisco Certified Network Associate EIGRP depende de los paquetes hello para detectar, verificar y volver a detectar los routers vecinos. La segunda detección se produce si los routers EIGRP no intercambian hellos durante un intervalo de tiempo de espera pero después vuelven a establecer la comunicación. Figura 2 Los routers EIGRP envían hellos con un intervalo fijo pero configurable que se denomina el intervalo hello. En las redes IP, los routers El intervalo hello por defecto depende del ancho de banda de la interfaz. EIGRP envían hellos a la dirección IP multicast 224.0.0.10. Figura 3 Los routers EIGRP almacenan la información sobre los vecinos en la tabla de vecinos. La tabla de vecinos incluye el campo de Número de Secuencia (Seq No) para registrar el número del último paquete EIGRP recibido que fue enviado por cada vecino. La tabla de vecinos también incluye un campo de Tiempo de Espera que registra el momento en que se recibió el último paquete. Los paquetes deben recibirse dentro del período correspondiente al intervalo de Tiempo de Espera para mantenerse en el estado Pasivo. El estado Pasivo significa un estado alcanzable y operacional. Si EIGRP no recibe un paquete de un vecino dentro del tiempo de espera, EIGRP supone que el vecino no está disponible. En ese momento, interviene DUAL para reevaluar la tabla de enrutamiento. Por defecto, el tiempo de espera es equivalente al triple del intervalo hello, pero un administrador puede configurar ambos temporizadores según lo desee. OSPF requiere que los routers vecinos tengan los mismos intervalos hello e intervalos muertos para comunicarse. EIGRP no posee este tipo de restricción. Los routers vecinos conocen el valor de cada uno de los temporizadores respectivos de los demás mediante el intercambio de paquetes hello. Entonces, usan la información para forjar una relación estable aunque los temporizadores no sean iguales. Los paquetes hello siempre se envían de forma no confiable. Esto significa que no se transmite un acuse de recibo. Los routers EIGRP usan paquetes de acuse de recibo para indicar la recepción de cualquier paquete EIGRP durante un intercambio confiable. RTP proporciona comunicación confiable entre hosts EIGRP. El receptor debe enviar acuse de recibo de un mensaje recibido para que sea confiable. Los paquetes de acuse de recibo, que son paquetes hello sin datos, se usan con este fin. Al contrario de los hellos multicast, los 65 MicroCisco - staky CCNA - Cisco Certified Network Associate paquetes de acuse de recibo se envían en unicast. Los acuses de recibo pueden adjuntarse a otros tipos de paquetes EIGRP, como los paquetes de respuesta. Los paquetes de actualización se utilizan cuando un router detecta un nuevo vecino. Los routers EIGRP envían paquetes de actualización en unicast a ese nuevo vecino para que pueda aumentar su tabla de topología. Es posible que se necesite más de un paquete de actualización para transmitir toda la información de topología al vecino recientemente detectado. Los paquetes de actualización también se utilizan cuando un router detecta un cambio en la topología. En este caso, el router EIGRP envía un paquete de actualización en multicast a todos los vecinos, avisándolos del cambio. Todos los paquetes de actualización se envían de forma confiable. Un router EIGRP usa paquetes de consulta siempre que necesite información específica de uno o de todos sus vecinos. Se usa un paquete de respuesta para contestar a una consulta. Si un router EIGRP pierde su sucesor y no puede encontrar un sucesor factible para una ruta, DUAL coloca la ruta en el estado Activo. Entonces se envía una consulta en multicast a todos los vecinos con el fin de ubicar un sucesor para la red destino. Los vecinos deben enviar respuestas que suministren información sobre sucesores o indiquen que no hay información disponible. Las consultas se pueden enviar en multicast o en unicast, mientras que las respuestas siempre se envían en unicast. Ambos tipos de paquetes se envían de forma confiable. En la sección siguiente se describe el algoritmo EIGRP. 3.1.6 Algoritmo EIGRP Esta sección describe el algoritmo DUAL, al que se debe la convergencia excepcionalmente rápida de EIGRP. Para comprender mejor la convergencia con DUAL, vea el ejemplo en la Figura . Cada router ha construido una tabla de topología que contiene información acerca de la manera de enrutar al destino Red A. Figura 1 • • • Cada tabla de topología identifica la siguiente información: El protocolo de enrutamiento o EIGRP El costo más bajo de la ruta, denominado distancia factible (FD) El costo de la ruta, según lo publica el router vecino, denominado distancia informada (RD) La columna de Topología identifica la ruta principal denominada ruta del sucesor (sucesor), y, cuando se identifica, la ruta de respaldo denominada sucesor factible (FS). Observe que no es necesario contar con un sucesor factible identificado. 66 MicroCisco - staky CCNA - Cisco Certified Network Associate La red EIGRP sigue una secuencia de acciones para permitir la convergencia entre los routers, que actualmente tienen la siguiente información de topología: • El router C tiene una ruta del sucesor a través del router B. • El router C tiene una ruta del sucesor factible a través del router D. • El router D tiene una ruta del sucesor a través del router B. • El router D no tiene una ruta del sucesor factible. • El router E tiene una ruta del sucesor a través del router D. • El router E no tiene un sucesor factible. Las normas para la selección de la ruta del sucesor factible se especifican en la Figura . Figura 2 El siguiente ejemplo demuestra la forma en que cada router de la topología aplica las normas de selección del sucesor factible cuando se desactiva la ruta del router D al router B: • En el router D o La ruta que pasa por el router B se elimina de la tabla de topología. o Ésta es la ruta del sucesor. El router D no cuenta con un sucesor factible identificado. o El router D debe realizar un nuevo cálculo de ruta. Figura 3 67 MicroCisco - staky CCNA - Cisco Certified Network Associate • • En el Router C o La ruta a la Red A a través del router D está deshabilitada. o La ruta que pasa por el router D se elimina de la tabla. o Ésta es la ruta del sucesor factible para el router C. En el router D o El router D no tiene un sucesor factible. Por lo tanto, no puede cambiarse a una ruta alternativa identificada de respaldo. o El router D debe recalcular la topología de la red. La ruta al destino Red A se establece en Activa. o El router D envía un paquete de consulta a todos los routers vecinos conectados para solicitar información de topología. o El router C tiene una entrada anterior para el router D. o El router D no tiene una entrada anterior para el router E. Figura 4 • En el Router E o La ruta a la Red A a través del router D está deshabilitada. o La ruta que pasa por el router D se elimina de la tabla. o Ésta es la ruta del sucesor para el router E. o El router E no tiene una ruta factible identificada. o Observe que el costo RD de enrutar a través del router C es 3. Este costo es igual al de la ruta del sucesor a través del router D. Figura 5 68 MicroCisco - staky CCNA - Cisco Certified Network Associate • • • En el Router C o El router E envía un paquete de consulta al router C. o El router C elimina el router E de la tabla. o El router C responde al router D con una nueva ruta a la Red A. En el router D o La ruta al destino Red A sigue en estado Activa. El cálculo aún no se ha terminado. o El router C ha respondido al router D para confirmar que hay una ruta disponible al destino Red A con un costo de 5. o El router D sigue esperando respuesta del router E. En el Router E o El router E no tiene un sucesor factible para alcanzar el destino Red A. o Por lo tanto el router E rotula la ruta a la red destino como Activa. o El router E tiene que recalcular la topología de red. o El router E elimina de la tabla la ruta que pasa por el router D. o El router D envía una consulta al router C, para solicitar información de topología. o El router E ya tiene una entrada a través del router C. Tiene un costo de 3, igual que la ruta del sucesor. Figura 6 Figura 7 69 MicroCisco - staky CCNA - Cisco Certified Network Associate • • • En el Router E o El router C responde con una RD de 3. o El router E ahora puede establecer la ruta a través del router C como el nuevo sucesor, con una FD de 4 y una RD de 3. o El router E cambia el estado Activo de la ruta al destino Red A a un estado Pasivo. Observe que el estado por defecto de una ruta es Pasivo siempre que se sigan recibiendo los paquetes hello. En este ejemplo, sólo se marcan las rutas de estado Activo. En el Router E o El router E envía una respuesta al router D, para informarle la información de topología del router E. En el router D o El router D recibe la respuesta empaquetada desde el router E o El router D entra estos datos para la ruta al destino Red A a través del router E. o Esta ruta llega a ser una ruta del sucesor adicional dado que el costo es igual al enrutamiento a través del router C y la RD es menor que el costo FD de 5. La convergencia se produce entre todos los routers EIGRP que usan el algoritmo DUAL. Con esta sección se concluye la lección. En la lección siguiente se analiza la configuración de EIGRP. En la sección siguiente se explica cómo se configura EIGRP. 3.2 Configuración EIGRP 3.2.1 Configuración de EIGRP A pesar de la complejidad de DUAL, la configuración de EIGRP puede ser relativamente sencilla. Los comandos de configuración de EIGRP varían según el protocolo que debe enrutarse. Algunos ejemplos de estos protocolos son IP, IPX y AppleTalk. Esta sección describe la configuración de EIGRP para el protocolo IP. Figura 1 Siga estos pasos para configurar rutas EIGRP para IP: 1. Use lo siguiente para habilitar EIGRP y definir el sistema autónomo: router(config)#router eigrp autonomous-system-number El número de sistema autónomo se usa para identificar todos los routers que pertenecen a la internetwork. Este valor debe coincidir para todos los routers dentro de la internetwork. 2. Indique cuáles son las redes que pertenecen al sistema autónomo EIGRP en el router local mediante el siguiente comando: router(config-router)#network network-number Network-number es el número de red que determina cuáles son las interfaces del router que participan en EIGRP y cuáles son las redes publicadas por el router. 70 MicroCisco - staky CCNA - Cisco Certified Network Associate El comando network configura sólo las redes conectadas. Por ejemplo, la red 3.1.0.0, que se encuentra en el extremo izquierdo de la Figura principal, no se encuentra directamente conectada al router A. Como consecuencia, esa red no forma parte de la configuración del Router A. 3. Al configurar los enlaces seriales mediante EIGRP, es importante configurar el valor del ancho de banda en la interfaz. Si el ancho de banda de estas interfaces no se modifica, EIGRP supone el ancho de banda por defecto en el enlace en lugar del verdadero ancho de banda. Si el enlace es más lento, es posible que el router no pueda convergir, que se pierdan las actualizaciones de enrutamiento o se produzca una selección de rutas por debajo de la óptima. Para establecer el ancho de banda para la interfaz, aplique la siguiente sintaxis: router(config-if)#bandwidth kilobits Sólo el proceso de enrutamiento utiliza el comando bandwidth y es necesario configurar el comando para que coincida con la velocidad de línea de la interfaz. 4. Cisco también recomienda agregar el siguiente comando a todas las configuraciones EIGRP: router(config-router)#eigrp log-neighbor-changes Este comando habilita el registro de los cambios de adyacencia de vecinos para monitorear la estabilidad del sistema de enrutamiento y para ayudar a detectar problemas. En las Prácticas de Laboratorio, los estudiantes establecerán un esquema de direccionamiento IP y configurarán EIGRP. En la siguiente sección se analiza el resumen de EIGRP. 3.2.2 Configuración del resumen de EIGRP En esta sección se enseñará a los estudiantes a configurar manualmente las direcciones de resumen. EIGRP resume automáticamente las rutas en el límite con clase. Este es el límite donde termina la dirección de red, de acuerdo con la definición del direccionamiento basado en clase. Esto significa que, aunque RTC esté conectado a la subred 2.1.1.0 solamente, publicará que está conectada a toda la red Clase A, 2.0.0.0. En la mayoría de los casos, el resumen automático es beneficioso porque mantiene las tablas de enrutamiento lo más compactas posible. Figura 1 Figura 2 71 MicroCisco - staky CCNA - Cisco Certified Network Associate Sin embargo, es posible que el resumen automático no sea la mejor opción en ciertos casos. Por ejemplo, si existen subredes no contiguas el resumen automático debe deshabilitarse para que el enrutamiento funcione correctamente. Para desconectar el resumen automático, use el siguiente comando: router(config-router)#no auto-summary Con EIGRP, una dirección de resumen se puede configurar manualmente al configurar una red prefijo. Las rutas de resumen manuales se configuran por interfaz, de manera que la interfaz que propagará el resumen de ruta se debe seleccionar primero. Entonces, la dirección de resumen se puede definir con el comando ip summary-address eigrp: router(config-if)#ip summary-address eigrp autonomous-system-number ip-address mask administrativedistance Las rutas de resumen EIGRP tienen una distancia administrativa por defecto de 5. De manera opcional, se pueden configurar con un valor entre 1 y 255. Figura 3 En la Figura , RTC se puede configurar mediante los comandos que aparecen a continuación: RTC(config)#router eigrp 2446 RTC(config-router)#no auto-summary RTC(config-router)#exit RTC(config)#interface serial 0/0 RTC(config-if)#ip summary-address eigrp 2446 2.1.0.0 255.255.0.0 Por lo tanto, RTC agrega una ruta a esta tabla de la siguiente manera: D 2.1.0.0/16 is a summary, 00:00:22, Null0 Observe que la ruta de resumen se obtiene a partir de Null0 y no de una interfaz real. Esto ocurre porque esta ruta se usa para fines de publicación y no representa una ruta que RTC puede tomar para alcanzar esa red. En RTC, esta ruta tiene una distancia administrativa de 5. RTD no es consciente del resumen pero acepta la ruta. A la ruta se le asigna la distancia administrativa de una ruta EIGRP normal, que es 90 por defecto. En la configuración de RTC, el resumen automático se desactiva con el comando no auto-summary. Si no se desactivara el resumen automático, RTD recibiría dos rutas, la dirección de resumen manual, que es 2.1.0.0 /16, y la dirección de resumen automática con clase, que es 2.0.0.0 /8. En la mayoría de los casos, cuando se hace el resumen manual, se debe ejecutar el comando no autosummary. En la siguiente sección se explica a los estudiantes cómo verificar EIGRP. 3.2.3 Verificación básica de EIGRP Esta sección explica la manera de verificar las configuraciones EIGRP mediante los comandos show. La Figura enumera los comandos show clave para EIGRP y analiza brevemente sus funciones. La función debug de Cisco IOS también ofrece comandos de monitoreo EIGRP de utilidad. 72 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Figura 2 En las Prácticas de Laboratorio, los estudiantes establecerán un esquema de direccionamiento IP y verificarán las configuraciones EIGRP. En la siguiente sección se analizan las tablas de vecinos EIGRP. 3.2.4 Construcción de tablas de vecinos En esta sección se explica la construcción de tablas de vecinos de EIGRP. Los estudiantes también aprenderán sobre la información que se almacena en una tabla de vecinos y cómo se usa. Los routers de vector-distancia simples no establecen ninguna relación con sus vecinos. Los routers RIP e IGRP simplemente envían las actualizaciones en broadcast o multicast por las interfaces configuradas. En cambio, los routers EIGRP establecen relaciones con sus vecinos activamente, al igual que los routers OSPF. La tabla de vecinos es la más importante de EIGRP. Cada router EIGRP mantiene una tabla de vecinos que enumera a los routers adyacentes. Esta tabla puede compararse con la base de datos de adyacencia utilizada por OSPF. Existe una tabla de vecinos por cada protocolo que admite EIGRP. 73 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Los routers EIGRP establecen adyacencias con los routers vecinos mediante pequeños paquetes hello. Los hellos se envían por defecto cada cinco segundos. Un router EIGRP supone que, siempre y cuando reciba paquetes hello de los vecinos conocidos, estos vecinos y sus rutas seguirán siendo viables o pasivas. Al formar adyacencias, los routers EIGRP hacen lo siguiente: • Aprenden de forma dinámica nuevas rutas que unen su red • Identifican los routers que llegan a ser inalcanzables o inoperables • Redetectan los routers que habían estado inalcanzables anteriormente Figura 2 A continuación se presentan los campos que aparecen la tabla de vecinos: • Dirección de vecino: Esta es la dirección de la capa de red del router vecino. • Tiempo de espera: Éste es el intervalo que se debe esperar sin recibir nada de un vecino antes de considerar al enlace como no disponible. Originalmente, el paquete esperado era un paquete hello, pero en las versiones actuales del software Cisco IOS, cualquier paquete EIGRP que se recibe después del primer hello reconfigurará el temporizador. 74 MicroCisco - staky CCNA - Cisco Certified Network Associate • • • Temporizador normal de viaje de ida y vuelta (SRTT): Éste es el tiempo promedio que se requiere para enviar y recibir paquetes de un vecino. Este temporizador se utiliza para determinar el intervalo de retransmisión (RTO). Número de cola (Q Cnt): Ésta es la cantidad de paquetes que se encuentran en una cola esperando su envío. Si este valor es continuamente mayor a cero, es posible que haya un problema de congestión en el router. Un cero significa que no hay paquetes EIGRP en la cola. Número de secuencia (Seq No): Éste es el número del último paquete que se recibió desde ese vecino. EIGRP usa este campo para acusar recibo de la transmisión de un vecino y para identificar los paquetes fuera de secuencia. La tabla de vecinos se usa para proporcionar una entrega confiable y secuenciada de paquetes y se puede considerar como análogo del protocolo TCP que se utiliza en la entrega confiable de paquetes IP. En la siguiente sección se describe de qué manera se usa la información de ruta y topología para enrutar los datos. 3.2.5 Detectar rutas En esta sección se explica la forma en la que EIGRP almacena información de rutas y topología. Los estudiantes también aprenderán cómo DUAL usa esta información para enrutar los datos. Los routers EIGRP mantienen información de ruta y topología a disposición en la RAM, de manera que se puede reaccionar rápidamente ante los cambios. Al igual que OSPF, EIGRP guarda esta información en varias tablas o bases de datos. Figura 1 DUAL, el algoritmo de vector-distancia de EIGRP, usa la información de la tabla de vecinos y las tablas de topología y calcula las rutas de menor costo hacia el destino. La ruta principal se denomina ruta del sucesor. Una vez calculada esta ruta, DUAL la coloca en la tabla de enrutamiento y una copia en la tabla de topología. DUAL también intenta calcular una ruta de respaldo en caso de que falle la ruta del sucesor. Ésta se denomina la ruta del sucesor factible. Una vez calculada, DUAL coloca la ruta factible en la tabla de topología. Esta ruta se puede utilizar si la ruta del sucesor a un destino quedara inalcanzable o no fuera confiable. La Actividad de Medios Interactivos ayudará a los estudiantes a comprender algunos conceptos y términos importantes de EIGRP. En la siguiente sección se presenta más información acerca de la forma en que DUAL selecciona una ruta. 75 MicroCisco - staky CCNA - Cisco Certified Network Associate 3.2.6 Seleccionar rutas En esta sección se explica la forma en que DUAL selecciona una ruta alternativa en la tabla de topología cuando se desactiva un enlace. Si no se encuentra un sucesor factible, la ruta se marca como Activa, o como no utilizable en ese momento. Los paquetes de consulta se envían a los routers vecinos solicitando información de topología. DUAL usa esa información para recalcular las rutas del sucesor y las rutas de los sucesores factibles al destino. Figura 1 Figura 2 Figura 3 76 MicroCisco - staky CCNA - Cisco Certified Network Associate Una vez que DUAL haya completado estos cálculos, la ruta del sucesor se coloca en la tabla de enrutamiento. Entonces, tanto la ruta del sucesor como la ruta del sucesor factible se colocan en la tabla de topología. Entonces, el estado de la ruta hacia el destino final cambia de Activo a Pasivo. Esto significa que la ruta es ahora operativa y confiable. El resultado del complejo algoritmo de DUAL es una convergencia excepcionalmente rápida para EIGRP. Para comprender mejor la convergencia con DUAL, vea el ejemplo en la Figura . Todos los routers han construido una tabla de topología que contiene información acerca de la manera de enrutar a la red destino Z. Cada tabla identifica lo siguiente: • El protocolo de enrutamiento o EIGRP • El costo más bajo de la ruta, o Distancia Factible (FD) • El costo de la ruta, según lo publica el router vecino, o Distancia Informada (RD) El encabezado de Topología identifica la ruta principal preferida, denominada ruta del sucesor (sucesor). Si aparece, el encabezado de Topología también identifica la ruta de respaldo, denominada sucesor factible (FS). Observe que no es necesario identificar el sucesor factible. Figura 4 En la siguiente sección se explica la manera en que DUAL mantiene las tablas de enrutamiento. 3.2.7 Mantenimiento de las tablas de enrutamiento En esta sección se explica cómo DUAL mantiene y actualiza las tablas de enrutamiento. DUAL rastrea todas las rutas publicadas por los vecinos, comparándolas en base a la métrica compuesta de cada ruta. DUAL también garantiza que cada ruta esté libre de bucles. Entonces, el algoritmo DUAL inserta las rutas de menor costo en la tabla de enrutamiento. Estas rutas principales se denominan rutas del sucesor. Una copia de las rutas del sucesor también se coloca en la tabla de topología. EIGRP mantiene información importante de ruta y topología a disposición en una tabla de vecinos y una tabla de topología. Estas tablas proporcionan información detallada de las rutas a DUAL en caso de problemas en la red. DUAL usa la información en estas tablas para seleccionar rápidamente las rutas alternativas. Si un enlace se desactiva, DUAL busca una ruta alternativa, o sucesor factible, en la tabla de topología. Si no se encuentra un sucesor factible, la ruta se marca como Activa, o como no utilizable en ese momento. Los paquetes de consulta se envían a los routers vecinos solicitando información de topología. DUAL usa esa información para recalcular las rutas del sucesor y las rutas del sucesor factibles al destino. 77 MicroCisco - staky CCNA - Cisco Certified Network Associate Una vez que DUAL haya completado estos cálculos, la ruta del sucesor se coloca en la tabla de enrutamiento. Entonces, tanto la ruta del sucesor como la ruta del sucesor factible se colocan en la tabla de topología. Luego, el estado de la ruta hacia el destino final cambia de activo a pasivo. Esto significa que la ruta es ahora operativa y confiable. Los routers EIGRP establecen y mantienen adyacencias con los routers vecinos mediante pequeños paquetes hello. Los hellos se envían por defecto cada cinco segundos. Un router EIGRP supone que, siempre y cuando reciba paquetes hello de los vecinos conocidos, estos vecinos y sus rutas seguirán siendo viables o pasivas. Al conocer nuevos vecinos, se registran la dirección y la interfaz del vecino. Esta información se guarda en la estructura de datos del vecino. Cuando un vecino envía un paquete hello, publica un tiempo de espera. El tiempo de espera es la cantidad de tiempo durante el cual un router considera que un vecino se puede alcanzar y que funciona. En otras palabras, si no se reciben ningún paquete hello dentro del tiempo de espera, entonces vence el tiempo de espera. Cuando vence el tiempo de espera, se informa a DUAL acerca del cambio en la topología y debe recalcular la nueva topología. En el ejemplo de las Figuras – , DUAL debe reconstruir la topología después de la detección de un enlace interrumpido entre el router D y el router B. Figura 1 Figura 2 78 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 3 Las nuevas rutas del sucesor se colocan en la tabla de enrutamiento actualizada. Con esta sección se concluye la lección. En la siguiente lección se analizan los protocolos de enrutamiento. En la primera sección se explica a los estudiantes cómo realizar el diagnóstico de fallas de los protocolos de enrutamiento. 3.3 Diagnóstico de fallas de protocolos de enrutamiento 3.3.1 Proceso de diagnóstico de fallas del protocolo de enrutamiento En esta sección se explica la secuencia lógica de pasos que se deben seguir diagnosticar las fallas de todos los protocolos de enrutamiento. Toda la detección de fallas de los protocolos de enrutamiento debe comenzar con una secuencia lógica, o flujo de proceso. Este flujo de proceso no es un esquema rígido para la detección de fallas en una internetwork. Sin embargo, representa la base sobre la cual un administrador de red puede desarrollar un proceso de resolución de problemas adaptado a un entorno en particular. 1. Al analizar una falla de red, es necesario hacer una declaración clara del problema. Figura 1 2. 3. 4. 5. Reunir la información necesaria para ayudar a aislar las posibles causas. Considerar los posibles problemas, de acuerdo a la información reunida. Crear un plan de acción a base de los problemas potenciales restantes. Implementar el plan de acción, realizando cada paso cuidadosamente y a la vez probando para ver si el síntoma desaparece. 79 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 Figura 3 Figura 4 Figura 5 6. Analizar los resultados para determinar si el problema se ha resuelto. Si es así, el proceso está completo. Figura 6 7. Si el problema no se ha resuelto, es necesario crear un plan de acción basado en el siguiente problema más probable de la lista. Volver al Paso 4, cambiando una variable a la vez, y repetir el proceso hasta que se resuelva el problema. Figura 7 Una vez identificada la causa real del problema, intentar resolverlo. Los routers Cisco proporcionan varios comandos integrados para ayudar a controlar y realizar el diagnóstico de fallas de una internetwork: 80 MicroCisco - staky CCNA - Cisco Certified Network Associate • • • Los comandos show ayudan a controlar el comportamiento de la instalación y el comportamiento normal de la red, así como también aislar las áreas problemáticas Los comandos debug ayudan a aislar los problemas de configuración y de protocolo. Las herramientas TCP/IP como ping, traceroute y telnet Figura 8 Figura 9 Figura 10 Los comandos show del Cisco IOS son algunas de las herramientas más importantes para la comprensión del estado de un router, la detección de routers vecinos, el control de la red en general y el aislamiento de problemas en la red. Los comandos EXEC debug pueden ofrecer una gran cantidad de información acerca del tráfico de interfaz, los mensajes de errores internos, los paquetes de diagnóstico específicos de un protocolo y otros datos útiles de diagnóstico de fallas. Use los comandos debug para aislar los problemas, no para monitorear la operación normal de la red. Sólo se deben usar los comandos debug para observar tipos específicos de tráfico o problemas. Antes de usar el comando debug, reduzca los problemas a un subconjunto de causas posibles. Use el comando show debugging para ver cuáles son las funciones de depuración que están habilitadas. En la siguiente sección se describe el diagnóstico de fallas de RIP. 3.3.2 Diagnóstico de fallas de la configuración de RIP En esta sección se analizará VLSM, que representa el problema más común de las redes RIP. VLSM impide la publicación de las rutas RIP. Esto ocurre porque RIP Versión 1 no admite VLSM. Si las rutas RIP no se publican, verifique lo siguiente: • La existencia de problemas de conectividad de Capa 1 o Capa 2. • La configuración de la división en subredes VLSM. La división en subredes VLSM no se puede usar con RIP v1. • Una falta de concordancia en las configuraciones de enrutamiento RIP v1 y RIP v2 • Sentencias de red faltantes, o una asignación incorrecta de las mismas. 81 MicroCisco - staky CCNA - Cisco Certified Network Associate • • La interfaz saliente está desactivada. La interfaz de red publicada está desactivada. El comando show ip protocols ofrece información sobre los parámetros y estado actual del proceso de protocolo de enrutamiento activo. RIP envía actualizaciones a las interfaces en las redes especificadas. Si la interfaz FastEthernet 0/1 se configuró pero la red no se agregó al enrutamiento RIP, no se envían, ni tampoco se reciben actualizaciones por la interface. Figura 1 Use el comando EXEC debug ip rip para mostrar información sobre las transacciones de enrutamiento RIP. Los comandos no debug ip rip, no debug all o undebug all desactivan todo el proceso de depuración. se muestra que el router que se está depurando ha recibido una actualización desde otro En la Figura router con dirección origen 192.168.3.1. Ese router envió información sobre dos destinos en la actualización de la tabla de enrutamiento. El router que se está depurando también envió actualizaciones. Ambos routers enviaron en broadcast la dirección 255.255.255.255 como destino. El número entre paréntesis representa la dirección origen encapsulada en el encabezado IP. Figura 2 En el siguiente resultado, aparece una entrada causada probablemente por un paquete mal formado desde el transmisor: RIP: bad version 128 from 160.89.80.43 82 MicroCisco - staky CCNA - Cisco Certified Network Associate En la sección siguiente se analiza IGRP. 3.3.3 Diagnóstico de fallas de la configuración de IGRP En esta sección se enseñará a los estudiantes a realizar el diagnóstico de fallas de IGRP. IGRP es un protocolo de enrutamiento por vector-distancia avanzado desarrollado por Cisco en la década de 1980. IGRP posee varias funciones que lo diferencian de otros protocolos de enrutamiento por vectordistancia, tales como RIP. Figura 1 Figura 2 Use el comando router igrp autonomous-system para habilitar el proceso de enrutamiento IGRP: R1(config)#router igrp 100 Use el comando de configuración del router network network-number para habilitar a las interfaces para que participen en el proceso de actualización de IGRP: 83 MicroCisco - staky CCNA - Cisco Certified Network Associate R1(config-router)#network 172.30.0.0 R1(config-router)#network 192.168.3.0 Verifique la configuración de IGRP con los comandos show running-configuration y show ip protocols: R1#show ip protocols Figura 3 Verifique la operación IGRP con el comando show ip route: R1#show ip route Si IGRP no parece funcionar correctamente, verifique lo siguiente: • La existencia de problemas de conectividad de Capa 1 o Capa 2. • Los números de sistema autónomo en los routers IGRP no coinciden. • Sentencias de red faltantes, o una asignación incorrecta de las mismas. • La interfaz saliente está desactivada. • La interfaz de red publicada está desactivada. Para visualizar la información de depuración de IGRP, use los siguientes comandos: • debug ip igrp transactions [host ip address] para visualizar la información de transacción de IGRP • debug ip igrp events [host ip address] para visualizar la información de actualización de enrutamiento Para desactivar la depuración, use el comando no debug ip igrp. Si una red queda inaccesible, los routers que ejecutan IGRP envían actualizaciones desencadenadas a los vecinos para informarles. Un router vecino entonces responde con actualizaciones inversas envenenadas y mantiene a la red sospechosa en estado de espera por 280 segundos. En la siguiente sección se enseñará a los estudiantes a realizar el diagnóstico de fallas de EIGRP. 3.3.4 Diagnóstico de fallas de la configuración de EIGRP En esta sección se proporcionan algunos comandos útiles para el diagnóstico de fallas de EIGRP. La operación normal de EIGRP es estable, eficiente en su utilización del ancho de banda y relativamente simple de monitorear y diagnosticar. Use el comando router eigrp autonomous-system para habilitar el proceso de enrutamiento EIGRP: R1(config)#router eigrp 100 84 MicroCisco - staky CCNA - Cisco Certified Network Associate Para intercambiar actualizaciones de enrutamiento, cada router en la red EIGRP se debe configurar con el mismo número de sistema autónomo. Use el comando de configuración del router network network-number para habilitar a las interfaces para que participen en el proceso de actualización de EIGRP: R1(config-router)#network 172.30.0.0 R1(config-router)#network 192.168.3.0 Verifique la configuración de EIGRP con los comandos show running-configuration y show ip protocols: Figura 1 Figura 2 R1#show ip protocols Algunas de las posibles razones por las cuales EIGRP puede no estar funcionando correctamente son: • La existencia de problemas de conectividad de Capa 1 o Capa 2. • Los números de sistema autónomo en los routers EIGRP no coinciden. • Es posible que el enlace esté congestionado o inhabilitado. • La interfaz saliente está desactivada. • La interfaz de red publicada está desactivada. • El autoresumen está habilitado en routers con subredes que no son contiguas. 85 MicroCisco - staky CCNA - Cisco Certified Network Associate • Use no auto-summary para desactivar el resumen de red automático. Uno de los motivos más comunes para que falte un vecino es una falla en el enlace en sí. Otra causa posible para los vecinos faltantes es un temporizador de espera vencido. Como los hellos se envían cada 5 segundos en la mayoría de las redes, el valor del tiempo de espera del resultado del comando show ip eigrp neighbors normalmente sería de entre 10 y 15. Para controlar y diagnosticar las fallas de una red EIGRP de manera efectiva, use los comandos que se describen en las Figuras – . Figura 3 Figura 4 En la siguiente sección se analiza OSPF. 3.3.5 Diagnóstico de fallas de la configuración de OSPF En esta sección se enseñará a los estudiantes a realizar el diagnóstico de fallas de OSPF. OSPF es un protocolo de estado de enlace. Un enlace es una interfaz de un router. El estado del enlace es una descripción de esa interfaz y su relación con los routers vecinos. Por ejemplo, una descripción de la interfaz debe incluir la dirección IP, la máscara, el tipo de red a la cual se conecta, los routers conectados a esa red, etc. Esta información forma una base de datos del estado de enlace. La mayoría de los problemas que se producen en OSPF se relacionan con la formación de adyacencias y la sincronización de las bases de datos del estado de enlace. El comando show ip ospf neighbor es útil para el diagnóstico de fallas de la formación de adyacencias. Los comandos de configuración de OSPF aparecen en la Figura . 86 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Use el comando EXEC privilegiado debug ip ospf events para mostrar la siguiente información sobre los eventos relacionados con OSPF: • Adyacencias • Información de inundación • Selección del router designado • Cálculos de primero la ruta libre más corta (SPF) Si un router configurado para el enrutamiento OSPF no encuentra un vecino OSPF en una red conectada, realice las siguientes tareas: • Verificar que ambos routers se hayan configurado con la misma máscara IP, intervalo hello de OSPF, e intervalo muerto de OSPF. • Verificar que ambos vecinos formen parte de la misma área. Para mostrar información acerca de cada paquete de Primero la Ruta Libre más Corta (OSPF) recibido, use el comando EXEC privilegiado debug ip ospf packet. La forma no de este comando deshabilita el resultado de la depuración. El comando debug ip ospf packet produce un conjunto de información para cada paquete recibido. El resultado varía ligeramente, según el tipo de autenticación utilizada. Con esta sección se concluye la lección. En la siguiente sección se resumen los puntos principales de este módulo. Resumen En esta sección se resumen los temas analizados en este módulo. Aunque IGRP y EIGRP son compatibles entre sí, existen algunas diferencias. EIGRP ofrece compatibilidad multiprotocolo, mientras que IGRP no lo hace. EIGRP e IGRP usan cálculos de métrica diferentes. IGRP tiene un número de saltos máximo de 255. EIGRP tiene un límite de saltos máximo de 224. Los routers EIGRP mantienen la información de ruta y topología disponible en la RAM. Al igual que OSPF, EIGRP guarda esta información en tres tablas. La tabla de vecinos enumera los routers adyacentes, la tabla de topología, compuesta por todas las tablas de enrutamiento EIGRP en el sistema autónomo, y la tabla de enrutamiento que contiene las mejores rutas hacia un destino. DUAL (el algoritmo de vector-distancia de EIGRP) calcula las rutas de menor costo hacia cada destino en base a la información proporcionada en la tabla de vecinos y la tabla de topología. La ruta principal preferida se denomina ruta del sucesor, y la ruta de respaldo se denomina sucesor factible (FS). EIGRP es un protocolo de enrutamiento por vector-distancia avanzado, y actúa como protocolo del estado de enlace a la hora de actualizar los vecinos y mantener la información de enrutamiento. Entre las ventajas se cuentan convergencia rápida, uso eficiente del ancho de banda, compatibilidad con VLSM y CIDR, compatibilidad para múltiples capas de red e independencia de los protocolos enrutados. 87 CCNA - Cisco Certified Network Associate MicroCisco - staky El resultado del algoritmo DUAL es una convergencia rápida con EIGRP. Cada router ha construido una tabla de topología que contiene información acerca de la manera de enrutar hacia los destinos específicos. Cada tabla de topología identifica el protocolo de enrutamiento o EIGRP, el menor costo de la ruta, denominado Distancia Factible (FD), y el costo de la ruta tal como lo publica el router vecino denominado Distancia Informada (RD). Los comandos de configuración de EIGRP varían según el protocolo utilizado. Algunos ejemplos de estos protocolos son IP, IPX y AppleTalk. El comando network configura sólo las redes conectadas. EIGRP resume automáticamente las rutas en la frontera con clase. Si existen subredes no contiguas el resumen automático debe deshabilitarse para que el enrutamiento funcione correctamente. Se verifica la operación de EIGRP mediante varios comandos show. La tabla más importante de EIGRP es la tabla de vecinos, que enumera los routers adyacentes. Los paquetes hello se utilizan para establecer adyacencias con los routers vecinos. Por defecto, los hellos se envían cada cinco segundos. Las tablas de vecinos contienen campos para la dirección de vecino, tiempo de espera, temporizador normal de viaje de ida y vuelta (SRTT), número de cola (Q Cnt), y número de secuencia (Seq NO). Si un enlace se desactiva, DUAL busca una ruta alternativa, o sucesor factible, en la tabla de topología. Si no se encuentra un sucesor factible, la ruta se marca como Activa, o como no utilizable en ese momento. Los paquetes de consulta se envían a los routers vecinos solicitando información de topología. DUAL usa esa información para recalcular las rutas del sucesor y las rutas del sucesor factibles al destino. Deben seguirse los ocho pasos del proceso de diagnóstico de fallas al determinar la causa de los problemas de protocolo de enrutamiento. La máscara de subred de longitud variable (VLSM) es el problema más común del Protocolo de Información de Enrutamiento (RIP) que impide la publicación de las rutas de RIP. El comando show ip protocols ofrece información sobre los parámetros y estado actual del proceso de protocolo de enrutamiento activo. Para IGRP, use el comando router igrp autonomous-system para habilitar el proceso de enrutamiento IGRP para el diagnóstico de fallas. Para EIGRP, use el comando router eigrp autonomous-system para habilitar el proceso de enrutamiento EIGRP. El comando show ip ospf neighbor resulta útil para realizar el diagnóstico de fallas de la formación de adyacencias para OSPF dado que la mayoría de los problemas se relacionan con la formación de adyacencias y la sincronización de la base de datos del estado de enlace. 88 CCNA - Cisco Certified Network Associate MicroCisco - staky Módulo 4: Conceptos sobre la conmutación Descripción general El diseño de las LAN ha evolucionado. Hasta hace poco, los diseñadores de redes utilizaban hubs y puentes para construir redes. Hoy los switches y los routers son los componentes claves del diseño de las LAN, y las capacidades y el desempeño de estos dispositivos son cada vez mejores. Este módulo describe las raíces de las LAN Ethernet modernas con énfasis en la evolución de Ethernet/802.3, la arquitectura de LAN de implementación más generalizada. Un vistazo al contexto histórico del desarrollo de las LAN y diversos dispositivos de red que se pueden utilizar en las diversas capas del modelo OSI ayudarán a los estudiantes a comprender mejor las razones por las cuales los dispositivos de red han evolucionado como lo han hecho. Hasta hace poco, la mayoría de las redes Ethernet usaban repetidores. El desempeño de red sufría, dado que demasiados dispositivos compartían el mismo segmento. Entonces, los ingenieros de redes agregaron puentes para crear múltiples dominios de colisión. A medida que las redes crecieron en tamaño y complejidad, el puente evolucionó hasta transformarse en el switch moderno, que permite la microsegmentación de la red. Hoy en día las redes modernas se construyen con switches y routers, a menudo con ambas funcionalidades en el mismo dispositivo. Muchos switches modernos pueden realizar tareas variadas y complejas en la red. Este módulo proporciona una introducción a la segmentación de redes y describirá los aspectos básicos de la operación de switches. Los switches y puentes realizan una gran parte del trabajo duro en las LAN, donde deben tomar decisiones casi instantáneas al recibir las tramas. Este módulo describe en detalle la forma en que los switches conocen las direcciones físicas de los nodos, y cómo los switches transmiten y filtran tramas. También se describen los principios de la segmentación de LAN y los dominios de colisión. Los switches son dispositivos de Capa 2 que se utilizan para aumentar el ancho de banda disponible y reducir la congestión de redes. Un switch puede segmentar una LAN en microsegmentos, que son segmentos de un solo host. La microsegmentación crea múltiples dominios libres de colisión a partir de un dominio grande. Como dispositivo de Capa 2, el switch de LAN aumenta el número de dominios de colisión, pero todos los hosts conectados al switch siguen perteneciendo al mismo dominio de broadcast. Este módulo abarca algunos de los objetivos de los exámenes CCNA 640-801 e ICND 640-811. Los estudiantes que completen este módulo deberán ser capaces de realizar las siguientes tareas: • Describir la historia y función de Ethernet compartida o half-duplex • Definir colisión en relación con las redes Ethernet • Definir microsegmentación • Definir CSMA/CD • Describir algunos de los elementos claves que afectan el desempeño de la red • Describir la función de los repetidores. • Definir latencia de red • Definir tiempo de transmisión • Definir la segmentación de red mediante routers, switches y puentes • Definir la latencia del switch Ethernet • Explicar las diferencias entre la conmutación de Capa 2 y Capa 3 • Definir la conmutación simétrica y asimétrica • Definir la creación de búferes en la memoria • Señalar las similitudes y diferencias entre la conmutación por almacenamiento y envío y por método de corte • Comprender las diferencias entre los hubs, puentes y switches • Describir las funciones principales de los switches • Enumerar los modos principales de transmisión de tramas • Describir el proceso mediante el cual los switches apreden las direcciones • Identificar y definir los modos de envío • Definir la segmentación de LAN • Definir la microsegmentación mediante el uso de switches • Describir el proceso de filtrado de trama 89 MicroCisco - staky CCNA - Cisco Certified Network Associate • • • Establecer las similitudes y diferencias entre dominios de colisión y de broadcast Identificar los cables necesarios para conectar los switches a las estaciones de trabajo Identificar los cables necesarios para conectar los switches a otros switches 4.1 Introducción a las LAN Ethernet/802.3 4.1.1 Desarrollo de LAN Ethernet/802.3 En esta sección se presentará un repaso de los dispositivos que se encuentran en una red. Las tecnologías LAN más antiguas usaban infraestructuras de Ethernet de cable fino o grueso. Es importante comprender las limitaciones de estas infraestructuras, como se muestra en la Figura , para comprender los avances en la conmutación de LAN. Figura 1 La adición de hubs o concentradores a la red representó un avance en la tecnología de Ethernet de cable fino o grueso. Un hub es un dispositivo de Capa 1 que a veces se denomina concentrador de Ethernet o repetidor multipuerto. Los hubs permiten un mejor acceso a la red para un número mayor de usuarios. Los hubs regeneran las señales de datos que permiten que las redes se amplíen a distancias mayores. Un hub logra esto regenerando la señal de datos. Los hubs no toman decisiones cuando reciben señales de datos. Los hubs simplemente regeneran y amplifican las señales de datos a todos los dispositivos conectados, salvo el dispositivo que envió originalmente la señal. Ethernet es básicamente una tecnología compartida donde todos los usuarios en un segmento LAN dado compiten por el mismo ancho de banda disponible. Esta situación es similar a lo que ocurre cuando varios automóviles intentan acceder a una carretera de un solo carril al mismo tiempo. Como la carretera consta de un solo carril, sólo puede entrar un automóvil a la vez. A medida que se agregaban hubs a la red, más usuarios entraban a la competencia por el mismo ancho de banda. Figura 2 90 MicroCisco - staky CCNA - Cisco Certified Network Associate Las colisiones son un producto secundario de las redes Ethernet. Si dos o más dispositivos intentan transmitir señales al mismo tiempo, se produce una colisión. Esta situación es similar a lo que ocurre cuando dos automóviles intentan entrar al mismo tiempo en un solo carril de carretera y provocan una colisión. El tráfico debe interrumpirse hasta que se despeje la carretera. La consecuencia del exceso de colisiones en una red son los tiempos de respuesta de red lentos. Esto indica que la red se encuentra demasiado congestionada o que demasiados usuarios necesitan acceder a la red al mismo tiempo. Los dispositivos de Capa 2 son más inteligentes que los de Capa 1. Los dispositivos de Capa 2 toman decisiones de envío en base a las direcciones de Control de Acceso a los Medios (MAC) que forman parte de los encabezados de tramas de datos transmitidas. Un puente es un dispositivo de Capa 2 que se utiliza para dividir, o segmentar una red. Los puentes reúnen y hacen pasar tramas de datos entre dos segmentos de red de forma selectiva. Para lograr esto, los puentes aprenden las direcciones MAC de los dispositivos de cada segmento conectado. Con esta información, el puente construye una tabla de puenteo, y envía o bloquea el tráfico de acuerdo a esa tabla. El resultado son dominios de colisión más pequeños, y mayor eficiencia de la red. Los puentes no restringen el tráfico de broadcast. Sin embargo, ofrecen mayor control de tráfico dentro de una red. Figura 3 Un switch es también un dispositivo de Capa 2 que a veces se denomina puente multipuerto. Los switches toman decisiones de envío sobre en base a las direcciones MAC que se encuentran en las tramas de datos transmitidos. Los switches aprenden las direcciones MAC de los dispositivos conectados a cada puerto, y esta información se guarda en una tabla de conmutación. Figura 4 91 MicroCisco - staky CCNA - Cisco Certified Network Associate Los switches crean un circuito virtual entre dos dispositivos conectados que desean comunicarse. Al crearse el circuito virtual, se establece una comunicación dedicada entre los dos dispositivos. La implementación de un switch en la red proporciona la microsegmentación. Esto crea un entorno libre de colisiones entre el origen y el destino, que permite la máxima utilización del ancho de banda disponible. Los switches pueden facilitar conexiones múltiples y simultáneas entre circuitos virtuales. Esto es análogo a una carretera que se divide en varios carriles, en la que cada automóvil tiene su propio carril exclusivo. La desventaja de los dispositivos de Capa 2 es que envían tramas de broadcast a todos los dispositivos conectados de la red. Un exceso de broadcasts en una red produce tiempos de respuesta de red lentos. Un router es un dispositivo de Capa 3. Los routers toman decisiones en base a los grupos de direcciones de red o clases, en lugar de las direcciones MAC individuales. Los routers usan tablas de enrutamiento para registrar las direcciones de Capa 3 de las redes que se encuentran directamente conectadas a las interfaces locales y las rutas de red aprendidas de los routers vecinos. • • • Las siguientes son funciones de un router: Examinar los paquetes entrantes de datos de Capa 3 Seleccionar la mejor ruta para los datos a través de la red Enrutar los datos al puerto de salida correspondiente Los routers no envían los broadcasts a menos que estén programados para hacerlo. Por lo tanto, los routers reducen el tamaño de los dominios de colisión y de broadcast en una red. Los routers son los dispositivos de regulación de tráfico más importantes en las redes de gran envergadura. Los routers posibilitan la comunicación entre dos computadores sin importar la ubicación o el sistema operativo. Figura 5 Figura 6 92 MicroCisco - staky CCNA - Cisco Certified Network Associate Las LAN normalmente utilizan una combinación de dispositivos de Capa 1, Capa 2 y Capa 3. La implementación de estos dispositivos depende de las necesidades específicas de la organización. La Actividad de Medios Interactivos requiere que los estudiantes establezcan la correspondencia entre los dispositivos de red y las capas del modelo OSI. En la sección siguiente se analiza la congestión de redes. 4.1.2 Factores que afectan el rendimiento de la red En esta sección se describen algunos factores que hacen que las LAN se congestionen y sobrecarguen. Figura 1 En la actualidad, las LAN están cada vez más congestionadas y sobrecargadas. Además de una gran cantidad de usuarios de red, algunos otros factores se han combinado para poner a prueba las capacidades de las LAN tradicionales: • El entorno multitarea, presente en los sistemas operativos de escritorio actuales como Windows, Unix/Linux y Mac, permite transacciones de red simultáneas. Esta capacidad aumentada ha dado como resultado una mayor demanda de recursos de red. • El uso de las aplicaciones que hacen uso intensivo de la red, como la World Wide Web, ha aumentado. Las aplicaciones de cliente/servidor permiten que los administradores centralicen la información, facilitando así el mantenimiento y la protección de la información. • Las aplicaciones de cliente/servidor no requieren que las estaciones de trabajo mantengan información ni proporcionen espacio del disco duro para almacenarla. Debido a la relación costobeneficio de las aplicaciones cliente/servidor, es probable que dichas aplicaciones se utilicen aún con más frecuencia en el futuro. En la sección siguiente se analizan las redes Ethernet. 4.1.3 Elementos de las redes Ethernet/802.3 En esta sección se describen algunos de los factores que pueden afectar el desempeño de una red Ethernet de forma negativa. Ethernet es una tecnología de transmisión en broadcast. Por lo tanto, los dispositivos de red como los computadores, las impresoras y los servidores de archivos se comunican entre sí a través de un medio de red compartida. El rendimiento de una LAN Ethernet/802.3 de medio compartido puede verse afectado de forma negativa por distintos factores: 93 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 • • • • La naturaleza de broadcast de la entrega de trama de datos de las LAN Ethernet/802.3. El método de acceso múltiple con detección de portadora y detección de colisiones (CSMA/CD) sólo permite que una estación a la vez pueda transmitir. Las aplicaciones multimediales con mayor demanda de ancho de banda, tales como vídeo e Internet, sumadas a la naturaleza de broadcast de Ethernet, pueden crear congestión de red. Se produce latencia normal a medida que las tramas recorren el medio de red y atraviesan los dispositivos de red. Figura 2 Figura 3 94 MicroCisco - staky CCNA - Cisco Certified Network Associate Ethernet usa CSMA/CD y puede admitir velocidades de transmisión rápidas. Fast Ethernet, o 100BASE-T, proporciona velocidades de transmisión de hasta 100 Mbps. Gigabit Ethernet proporciona velocidades de transmisión de hasta 1000 Mbps y 10-Gigabit Ethernet ofrece velocidades de transmisión de hasta 10.000 Mbps. El objetivo de Ethernet es proporcionar un servicio de entrega de mejor intento y permitir que todos los dispositivos en el medio puedan transmitir de forma equitativa. La producción de cierta cantidad de colisiones en el diseño de Ethernet y CSMA/CD es de esperarse. Las colisiones son un hecho natural en las redes Ethernet y pueden transformarse en un problema grave. En la sección siguiente se describirán las redes half-duplex. 4.1.4 Redes half-duplex En esta sección se explica de qué maneras se producen colisiones en una red half-duplex. Originalmente, Ethernet era una tecnología half duplex. Half-duplex permite que los hosts transmitan o reciban en un momento dado, pero no permite que hagan ambas cosas a la vez. Cada host verifica la red para comprobar si se están transmitiendo datos antes de transmitir datos adicionales. Si la red está en uso, la transmisión se retarda. A pesar de la demora de transmisión, dos hosts o más pueden transmitir al mismo tiempo. Esto produce una colisión. Cuando se produce una colisión, el host que detecta primero la colisión envía una señal de atascamiento a los demás hosts. Cuando se recibe una señal de atascamiento, cada host interrumpe la transmisión de datos, y luego espera por un período aleatorio de tiempo para retransmitir los datos. El algoritmo de retroceso genera este retardo aleatorio. A medida que más hosts se agregan a la red y empiezan a transmitir, es más probable que se produzcan colisiones. Las LAN Ethernet se saturan porque los usuarios ejecutan software que utiliza intensivamente la red, como aplicaciones cliente/servidor que hacen que los hosts deban transmitir con mayor frecuencia y durante períodos de tiempo más prolongados. La tarjeta de interfaz de red (NIC) utilizada por los dispositivos LAN proporciona varios circuitos para que se pueda producir la comunicación entre dispositivos. Figura 1 En la sección siguiente se analizan otros factores que causan congestión de redes. 4.1.5 Congestión de redes En esta sección se analizan algunos factores que crean la necesidad de mayor ancho de banda en una red. Los avances de la tecnología están produciendo computadores de escritorio y estaciones de trabajo cada vez más rápidos e inteligentes. La combinación de estaciones de trabajo más potentes y de aplicaciones que hacen mayor uso de la red ha creado la necesidad de una capacidad mayor de red, o ancho de banda. Todos estos factores representan una gran exigencia para las redes de 10 Mbps de ancho de banda disponible, y por este motivo, muchas redes ahora ofrecen anchos de banda de 100 Mbps en sus LAN. 95 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Figura 2 Figura 3 96 MicroCisco - staky CCNA - Cisco Certified Network Associate • • • • Los siguientes tipos de medios se están transmitiendo a través de redes con cada vez mayor frecuencia: Grandes archivos de gráficos Imágenes Video totalmente móvil Aplicaciones multimedia También existe un mayor número de usuarios en una red. Mientras más personas utilizan las redes para compartir grandes archivos, acceder a servidores de archivo y conectarse a Internet, se produce más congestión de red. Esto puede dar como resultado tiempos de respuesta más lentos, transferencias de archivos muy largas y usuarios de red menos productivos. Para aliviar la congestión de red, se necesita más ancho de banda o bien, el ancho de banda disponible debe usarse con mayor eficiencia. En la sección siguiente se analiza la latencia de redes. 4.1.6 Latencia de red En esta sección se ayuda a los estudiantes a que comprendan los factores que aumentan la latencia de las redes. La latencia, o retardo, es el tiempo que una trama o paquete tarda en hacer el recorrido desde la estación origen hasta su destino final. Es importante determinar con exactitud la cantidad de latencia que existe en la ruta entre el origen y el destino para las LAN y las WAN. En el caso específico de una LAN Ethernet, un buen entendimiento de la latencia y de su efecto en la temporización de la red es de importancia fundamental para determinar si CSMA/CD podrá funcionar correctamente. La latencia consiste en por lo menos tres componentes: • En primer lugar, el tiempo que tarda la NIC origen en colocar pulsos de voltaje en el cable y el tiempo que tarda la NIC destino en interpretar estos pulsos. A esto se le denomina a veces retardo NIC (típicamente es de 1 microsegundo para las NIC 10BASE-T. • En segundo lugar, el retardo de propagación en sí, ya que la señal tarda en recorrer el cable. Normalmente, éste es de unos 0,556 microsegundos por 100 m para Cat 5 UTP. Los cables más largos y la velocidad nominal de propagación menor (NVP) tiene como resultado un retardo de propagación mayor. • En tercer lugar, la latencia aumenta por los dispositivos de red que se encuentren en el camino entre dos computadores. Estos pueden ser dispositivos de Capa 1, Capa 2 o Capa 3. La latencia no depende únicamente de la distancia y de la cantidad de dispositivos. Por ejemplo, si dos estaciones de trabajo están separadas por tres switches correctamente configurados, las estaciones de trabajo pueden experimentar una latencia menor de la que se produciría si estuvieran separadas por dos routers correctamente configurados. Esto se debe a que los routers ejecutan funciones más complejas y que llevan más tiempo. Un router debe analizar los datos de la Capa 3. Figura 1 En la sección siguiente se analiza el tiempo de transmisión. 4.1.7 Tiempo de transmisión de Ethernet 10BASE-T En esta sección se explica de qué manera se determina el tiempo de transmisión para 10BASE-T. 97 MicroCisco - staky CCNA - Cisco Certified Network Associate Todas las redes cuentan con lo que se denomina tiempo de bit. En muchas tecnologías LAN tales como Ethernet, el tiempo de bit se define como la unidad básica de tiempo en la que se puede transmitir un bit de datos. Para que los dispositivos electrónicos u ópticos puedan reconocer un dígito binario (uno o cero), se debe definir un lapso mínimo durante el cual el bit se considera encendido o apagado. El tiempo de transmisión equivale al número de bits enviados multiplicado por el tiempo de bit de una tecnología determinada. Otra forma de considerar al tiempo de transmisión es como el intervalo entre el comienzo y el fin de una transmisión de trama, o entre el inicio de una transmisión de trama y una colisión. Las tramas pequeñas tardan menos tiempo. Las tramas grandes tardan más tiempo. Figura 1 Cada bit de Ethernet de 10 Mbps cuenta con una ventana de 100 ns para realizar la transmisión. Éste es el tiempo de bit. Un byte equivale a ocho bits. Por lo tanto, 1 byte tarda un mínimo de 800 ns para transmitirse. Una trama de 64 bytes, que es la trama 10BASE-T más pequeña que permite que CSMA/CD funcione correctamente, tiene un tiempo de transmisión de 51.200 ns o 51,2 microsegundos. La transmisión de una trama completa de 1000 bytes desde el origen requiere 800 microsegundos. El tiempo requerido para que la trama llegue a la estación destino depende de la latencia adicional introducida por la red. Esta latencia puede deberse a una serie de retardos, incluyendo todas las siguientes posibilidades: • Retardos de NIC • Retardos de propagación • Retardos de dispositivos de Capa 1, Capa 2 o Capa 3 La Actividad de Medios Interactivos ayudará a los estudiantes a determinar los tiempos de transmisión 10BASE-T para cuatro tamaños de trama diferentes. En la sección siguiente se describen las ventajas de los repetidores. 4.1.8 Ventajas del uso de repetidores En esta sección se explica de qué manera se puede usar un repetidor para ampliar la distancia de una LAN. La distancia que una LAN puede cubrir se encuentra limitada por la atenuación. La atenuación significa que la señal se debilita a medida que recorre la red. La resistencia del cable o medio recorrido por la señal provoca la pérdida de la potencia de señal. Un repetidor de Ethernet es un dispositivo de capa física de la red que incrementa o regenera la señal en una LAN Ethernet. Al utilizar un repetidor para extender la distancia de una LAN, una sola red puede abarcar una distancia mayor y más usuarios pueden compartir esta misma red. Sin embargo, el uso de repetidores y hubs produce problemas adicionales asociados con los broadcasts y las colisiones. También tiene un efecto negativo en el desempeño general de las LAN de medios compartidos. Figura 1 98 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 La Actividad de Medios Interactivos enseñará a los estudiantes los detalles del Micro Hub Cisco 1503. En la sección siguiente se analiza la tecnología full-duplex. 4.1.9 Transmisión full duplex En esta sección se explica de qué manera Ethernet full duplex permite la transmisión de un paquete y la recepción de un paquete distinto al mismo tiempo. Esta transmisión y recepción simultánea requiere del uso de dos pares de hilos dentro del cable y una conexión conmutada entre cada nodo. Esta conexión se considera de punto a punto y está libre de colisiones. Debido a que ambos nodos pueden transmitir y recibir al mismo tiempo, no existen negociaciones para el ancho de banda. Ethernet full duplex puede utilizar una infraestructura de cables ya implementada, siempre y cuando el medio cumpla con los estándares de Ethernet mínimos. Para transmitir y recibir de forma simultánea, se necesita un puerto de switch dedicado para cada nodo. La conexiones full duplex pueden utilizar medios 10BASE-T, 100BASE-TX o 100BASE-FX para crear conexiones punto a punto. Las NIC en todos los dispositivos conectados deben tener capacidades fullduplex. Figura 1 99 MicroCisco - staky CCNA - Cisco Certified Network Associate El switch Ethernet full-duplex aprovecha los dos pares de hilos en un cable y crea una conexión directa entre el transmisor (TX) en un extremo del circuito y el receptor (RX) en el otro extremo. Con las dos estaciones conectadas de esta manera, se crea un dominio libre de colisiones debido a que se produce la transmisión y la recepción de los datos en circuitos distintos no competitivos. Ethernet generalmente puede usar únicamente 50%-60% del ancho de banda de 10 Mbps disponible debido a las colisiones y la latencia. Ethernet full duplex ofrece 100% del ancho de banda en ambas direcciones. Esto produce una tasa de transferencia potencial de 20 Mbps, lo que resulta de 10 Mbps TX y 10 Mbps RX. La Actividad Interactiva de Medios ayudará a los estudiantes a aprender las diferentes características de los estándares Ethernet full-duplex. Con esta sección se concluye la lección. En la siguiente lección se presenta la conmutación LAN. La primera sección describe la segmentación LAN. 4.2 Introducción a la conmutación LAN 4.2.1 Segmentación LAN Figura 1 Figura 2 100 MicroCisco - staky CCNA - Cisco Certified Network Associate En esta sección se explica la segmentación LAN. La figura muestra un ejemplo de una red Ethernet segmentada. La red consta de quince computadores. De esos quince computadores, seis son servidores y nueve son estaciones de trabajo. Cada segmento utiliza el método de acceso CSMA/CD y mantiene el tráfico entre los usuarios del segmento. Cada segmento se considera como su propio dominio de colisión. La segmentación permite que la congestión de red se reduzca de forma significativa dentro de cada segmento. Al transmitir datos dentro de un segmento, los dispositivos dentro de ese segmento comparten el ancho de banda total. Los datos que pasan entre los segmentos se transmiten a través del backbone de la red por medio de un puente, router o switch. En la siguiente sección se analizan los puentes. 4.2.2 Segmentación LAN con puentes En esta sección se describen las funciones principales de un puente en una LAN. Figura 1 Figura 2 101 MicroCisco - staky CCNA - Cisco Certified Network Associate Los puentes son dispositivos de Capa 2 que envían tramas de datos basados en la dirección MAC. Los puentes leen la dirección MAC origen de los paquetes de datos para detectar los dispositivos en cada segmento. Las direcciones MAC se utilizan entonces para construir una tabla de puenteo. Esto permite que los puentes bloqueen paquetes que no necesitan salir del segmento local. Aunque los puentes son transparentes para los otros dispositivos de red, la latencia de una red aumenta en un diez a treinta por ciento cuando se utiliza un puente. Este aumento en la latencia se debe a las decisiones que toman los puentes antes de que se envíen las tramas. Un puente se clasifica como un dispositivo de almacenamiento y envío. Los puentes examinan el campo de dirección destino y calculan la verificación por redundancia cíclica (CRC) en el campo de Secuencia de Verificación de Tramas antes de enviar la trama. Si el puerto destino se encuentra ocupado, el puente puede almacenar la trama temporalmente hasta que el puerto esté disponible. En la sección siguiente se analizan los routers. 4.2.3 Segmentación de LAN con routers En esta sección se explica de qué manera se utilizan los routers para segmentar una LAN. Los routers proporcionan segmentación de red que agrega un factor de latencia del veinte al treinta por ciento a través de una red conmutada. Esta mayor latencia se debe a que el router opera en la capa de red y usa la dirección IP para determinar la mejor ruta al nodo de destino. La Figura muestra un router Cisco. Figura 1 Figura 2 102 MicroCisco - staky CCNA - Cisco Certified Network Associate Los puentes y switches proporcionan segmentación dentro de una sola red o subred. Los routers proporcionan conectividad entre redes y subredes. Además, los routers no envían broadcasts, mientras que los switches y puentes deben enviar tramas de broadcast. Las Actividades de Medios Interactivos ayudarán a los estudiantes a familiarizarse con los routers Cisco 2621 y 3640. En la sección siguiente se analizan los switches. 4.2.4 Segmentación de LAN con switches En esta sección se explica de qué manera se utilizan los switches para segmentar una LAN. Los switches reducen la escasez de ancho de banda y los cuellos de botella en la red, como los que surgen entre varias estaciones de trabajo y un servidor de archivos remoto. La Figura muestra un switch Cisco. Los switches segmentan las LAN en microsegmentos, lo que reduce el tamaño de los dominios de colisión. Sin embargo, todos los hosts conectados a un switch siguen en el mismo dominio de broadcast. Figura 1 Figura 2 En una LAN Ethernet totalmente conmutada, los nodos de origen y destino funcionan como si fueran los únicos nodos de la red. Cuando estos dos nodos establecen un enlace o circuito virtual, tienen acceso al ancho de banda máximo disponible. Estos enlaces proporcionan una tasa de transferencia mucho mayor 103 MicroCisco - staky CCNA - Cisco Certified Network Associate que las LAN de Ethernet conectadas por puentes o hubs. Este circuito de red virtual se establece dentro del switch y existe solamente cuando los dos nodos necesitan comunicarse. Figura 3 En la siguiente sección se explica la función de un switch en una LAN. 4.2.5 Operaciones básicas de un switch En esta sección se describen las funciones básicas de un switch en una LAN. La conmutación es una tecnología que reduce la congestión en las LAN Ethernet, Token Ring y la Interfaz de datos distribuida por fibra (FDDI). Los switches utilizan la microsegmentación para reducir los dominios de colisión y el tráfico de red. Esta reducción da como resultado un uso más eficiente del ancho de banda y mayor tasa de transferencia. Con frecuencia, se utilizan los switches de LAN para reemplazar los hubs compartidos y están diseñados para funcionar con infraestructuras de cable ya instaladas. Figura 1 Las siguientes son las dos operaciones básicas que realizan los switches: • Conmutación de tramas de datos: Los switches reciben tramas en una interfaz, seleccionan el puerto correcto por el cual enviar las tramas, y entonces envían la trama de acuerdo a la selección de ruta. • Mantenimiento de operaciones de switch: Los switches elaboran y mantienen las tablas de envío. Los switches también elaboran y mantienen una topología sin bucles en toda la LAN. Las Figuras 104 a muestran las operaciones básicas de un switch. MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 Figura 3 Figura 4 105 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 5 Figura 6 En la siguiente sección se analiza la latencia. 4.2.6 Latencia del switch Ethernet Figura 1 106 MicroCisco - staky CCNA - Cisco Certified Network Associate En esta sección se explica de qué manera los switches Ethernet contribuyen a la latencia. La latencia de switch es el período transcurrido desde el momento que una trama entra a un switch hasta que la trama sale del switch. La latencia se relaciona directamente con el proceso de conmutación y el volumen de tráfico. La latencia se mide en fracciones de segundo. Los dispositivos de red operan a velocidades increiblemente rápidas, de manera que cada nanosegundo adicional de latencia afecta de forma adversa el desempeño de la red. En la siguiente sección se describe la conmutación de Capa 2 y Capa 3 4.2.7 Conmutación de Capa 2 y Capa 3 En esta sección se muestra a los estudiantes cómo se produce la conmutación en las capas de enlace de datos y de red. Los routers y los switches de Capa 3 utilizan direcciones IP para enrutar un paquete. Los switches LAN o de la Capa 2 envían tramas en base a la información de la dirección MAC. Se puede decir que en la actualidad los términos conmutación de Capa 3 y enrutamiento se utilizan con frecuencia de manera indistinta. Existen dos métodos de conmutación de trama de datos: la conmutación de Capa 2 y de Capa 3. Los routers y los switches de Capa 3 utilizan la conmutación de Capa 3 para conmutar los paquetes. Los switches de Capa 2 y los puentes utilizan la conmutación de Capa 2 para enviar tramas. La diferencia entre la conmutación de Capa 2 y Capa 3 es el tipo de información que se encuentra dentro de la trama y que se utiliza para determinar la interfaz de salida correcta. La conmutación de la Capa 2 se basa en la información de la dirección MAC. La conmutación de la Capa 3 se basa en las direcciones de la capa de red o en las direcciones IP. Las funciones y la funcionalidad de los switches de Capa 3 y los routers son muy parecidas. La única diferencia importante entre la operación de conmutación de paquetes de un router y de un switch de Capa 3 es la implementación física. En los routers de propósito general, la conmutación de paquetes se produce en el software, mediante motores basados en el microprocesador, mientras que un switch de Capa 3 realiza el envío de paquetes por medio del hardware de circuito integrado de aplicación específica (ASIC). La conmutación de la Capa 2 busca una dirección MAC destino en el encabezado de la trama y envía la trama a la interfaz o puerto apropiado basándose en la dirección MAC de la tabla de conmutación. La tabla de conmutación se encuentra en la Memoria de contenido direccionable (CAM). Si el switch de Capa 2 no sabe dónde enviar la trama, envía la trama en broadcast por todos los puertos hacia la red, excepto por el puerto por el que se recibió la trama. Cuando se recibe una respuesta, el switch registra la nueva dirección en la CAM. Figura 1 107 MicroCisco - staky CCNA - Cisco Certified Network Associate La conmutación de Capa 3 es una función de la capa de red. La información de encabezado de la Capa 3 se examina y el paquete se envía de acuerdo a la dirección IP. Figura 2 El flujo de tráfico en una red conmutada o plana es de por sí diferente del flujo de tráfico en una red enrutada o jerárquica. Las redes jerárquicas ofrecen un flujo de tráfico más flexible que las redes planas. En la siguiente sección se analizará la conmutación simétrica y asimétrica. 4.2.8 Conmutación simétrica y asimétrica En esta sección se explica la diferencia que existe entre la conmutación simétrica y asimétrica. La conmutación LAN se puede clasificar como simétrica o asimétrica según la forma en que el ancho de banda se asigna a los puertos de conmutación. Un switch simétrico ofrece conexiones conmutadas entre puertos con el mismo ancho de banda. Un switch LAN asimétrico proporciona conexiones conmutadas entre puertos con distinto ancho de banda, tal como una combinación de puertos de 10 Mbps y de 100 Mbps. Figura 1 108 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 Una conmutación permite la dedicación de más ancho de banda al puerto de conmutación del servidor a fin de evitar un cuello de botella. Esto permite flujos de tráfico más parejos, donde varios clientes se comunican con un servidor al mismo tiempo. Se requieren búferes de memoria en un switch asimétrico. El uso de búferes mantiene las tramas contiguas entre distintos puertos de velocidad de datos. En la siguiente sección se describen los búferes de memoria. 4.2.9 Búferes de memoria En esta sección se explica lo que es un búfer de memoria y de qué manera se utiliza. Un switch Ethernet puede usar una técnica de búferes para almacenar y enviar tramas. Los búferes también pueden utilizarse cuando el puerto destino está ocupado. El área de la memoria en la que el switch almacena los datos se denomina "búfer de memoria". Este búfer de memoria puede utilizar dos métodos para enviar tramas, el búfer de memoria basado en puerto y el búfer de memoria compartida. Figura 1 En el búfer de memoria basado en puerto, las tramas se almacenan en colas conectadas a puertos de entrada específicos. Una trama se transmite al puerto de salida una vez que todas las tramas que están delante de ella en la cola se hayan transmitido con éxito. Es posible que una sola trama retarde la transmisión de todas las tramas almacenadas en la memoria debido al tráfico del puerto destino. Este retardo se produce aunque las demás tramas se puedan transmitir a puertos destino abiertos. El búfer de memoria compartida deposita todas las tramas en un búfer de memoria común que comparten todos los puertos del switch. La cantidad de memoria de búfer que requiere un puerto se asigna de forma dinámica. Las tramas en el búfer se vinculan de forma dinámica al puerto destino. Esto permite la recepción del paquete por un puerto y la transmisión por otro puerto, sin tener que colocarlo en otra cola. El switch conserva un mapa de enlaces de trama a puerto que indica por dónde una trama debe transmitirse. El enlace del mapa se elimina una vez que la trama se haya transmitido con éxito. El búfer de memoria se comparte. La cantidad de tramas almacenadas en el búfer se encuentra limitada por el tamaño 109 MicroCisco - staky CCNA - Cisco Certified Network Associate del búfer de memoria en su totalidad y no se limita a un solo búfer de puerto. Esto permite la transmisión de tramas más amplias descartando menos tramas. Esto es importante para la conmutación asimétrica, donde las tramas se intercambian entre puertos de distintas velocidades. En la siguiente sección se describen dos métodos de conmutación. 4.2.10 Dos métodos de conmutación En esta sección se presenta la conmutación de almacenamiento y envío y por método de corte. Figura 1 Los siguientes dos modos de conmutación están disponibles para el envío de tramas: • Almacenamiento y envío: La trama completa se recibe antes de que se realice cualquier tipo de envío. Se leen las direcciones destino y origen y se aplican filtros antes de enviar la trama. La latencia se produce mientras la trama se está recibiendo. La latencia es mayor con tramas más grandes dado que toda la trama debe recibirse antes de que empiece el proceso de conmutación. El switch puede verificar toda la trama para ver si hay errores, lo que permite detectar más errores. • Método de corte: La trama se envía a través del switch antes de que se reciba la trama completa. Como mínimo, la dirección destino de la trama debe leerse antes de que la trama se pueda enviar. Este modo reduce la latencia de la transmisión, pero también reduce la detección de errores. A continuación, presentamos dos formas de conmutación por método de corte: • Conmutación rápida: La conmutación rápida ofrece el nivel más bajo de latencia. La conmutación rápida envía un paquete inmediatamente después de leer la dirección destino. Como la conmutación rápida empieza a realizar los envíos antes de recibir el paquete completo, de vez en cuando los paquetes se pueden entregar con errores. Sin embargo, esto ocurre con poca frecuencia y además el adaptador de red destino descarta los paquetes defectuosos en el momento de su recepción. En el modo rápido, la latencia se mide desde el primer bit recibido al primer bit transmitido. • Libre de fragmentos: La conmutación libre de fragmentos filtra los fragmentos de colisión antes de empezar el envío. Los fragmentos de colisión representan la mayoría de los errores de paquete. En una red que funciona correctamente, los fragmentos de colisión deben ser menores de 64 bytes. Cualquier cosa superior a 64 bytes es un paquete válido y se recibe generalmente sin errores. La conmutación libre de fragmentos espera hasta que se determine si el paquete es un fragmento de colisión o no antes de enviar el paquete. En el modo libre de fragmentos, la latencia también se mide desde el primer bit recibido al primer bit transmitido. La latencia de cada modo de conmutación depende de la manera en que el switch envía las tramas. Para agilizar el envío de la trama, el switch dedica menos tiempo a la verificación de errores. Sin embargo, reducir la verificación de errores puede resultar en el aumento de la cantidad de retransmisiones. Con esta sección se concluye la lección. En la siguiente lección se describen los switches Ethernet. La primera sección explica las principales funciones de los switches. 4.3 Operación de los switches 4.3.1 Funciones de los switches Ethernet En esta sección se analizan las funciones de los switches de la Capa 2. Un switch es un dispositivo que conecta los segmentos LAN mediante una tabla de direcciones MAC para determinar el segmento al que una trama necesita transmitirse. Los switches y los puentes operan en la capa 2 del modelo OSI. 110 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Figura 2 Figura 3 111 MicroCisco - staky CCNA - Cisco Certified Network Associate A veces, los switches se denominan puentes multipuerto o hubs de conmutación. Los switches toman decisiones en base a las direcciones MAC y por lo tanto, son dispositivos de la Capa 2. Por otra parte, los hubs regeneran las señales de la Capa 1 y las envían por todos los puertos sin tomar ninguna decisión. Dado que un switch tiene la capacidad de tomar decisiones de selección de la ruta, la LAN se vuelve mucho más eficiente. Con frecuencia, en una red Ethernet, las estaciones de trabajo están conectadas directamente al switch. Los switch aprenden qué hosts están conectados a un puerto leyendo la dirección MAC origen en las tramas. El switch abre un circuito virtual sólo entre los nodos origen y destino. Esto limita la comunicación a estos dos puertos sin afectar el tráfico en otros puertos. Por su parte, un hub envía datos fuera de todos sus puertos de manera que todos los hosts puedan ver los datos y tengan que procesarlos, aunque no sean el destino final de los datos. Las LAN de alto rendimiento por lo general están totalmente conmutadas. Figura 4 Figura 5 • • • Un switch concentra la conectividad, convirtiendo a la transmisión de datos en un proceso más eficiente. Las tramas se conmutan desde puertos de entrada a puertos de salida. Cada puerto o interfaz puede ofrecer el ancho de banda completo de la conexión al host. En un hub Ethernet típico, todos los puertos conectados a un backplane común o a una conexión física dentro del hub y todos los dispositivos adjuntos al hub comparten el ancho de banda de la red. Si dos estaciones establecen una sesión que utiliza un nivel significativo del ancho de banda, se degrada el rendimiento de la red de todas las demás estaciones conectadas al hub. Para reducir la degradación, el switch trata cada interfaz como un segmento individual. Cuando las estaciones en las distintas interfaces necesitan comunicarse, el switch envía tramas a la velocidad máxima que el cable admite, de una interfaz a otra, para asegurarse de que cada sesión reciba el ancho de banda completo. Para conmutar con eficiencia las tramas entre las distintas interfaces, el switch mantiene una tabla de direcciones. Cuando una trama llega al switch, se asocia la dirección MAC de la estación transmisora con la interfaz en la cual se recibió. 112 MicroCisco - staky CCNA - Cisco Certified Network Associate Las principales funciones de los switches Ethernet son: • Aislar el tráfico entre los segmentos • Obtener un ancho de banda más grande por usuario creando dominios de colisión más pequeños La primera función, aislar el tráfico entre los segmentos, permite lograr mayor seguridad para los hosts de la red. Cada segmento utiliza el método de acceso CSMA/CD para mantener el flujo del tráfico de datos entre los usuarios del segmento. Dicha segmentación permite a varios usuarios enviar información al mismo tiempo a través de los distintos segmentos sin causar demoras en la red. Figura 6 Figura 7 Al utilizar los segmentos de la red, menos usuarios y/o dispositivos comparten el mismo ancho de banda al Los switches Ethernet comunicarse entre sí. Cada segmento cuenta con su propio dominio de colisión. filtran el tráfico redireccionando los datagramas hacia el puerto o puertos correctos, que están basados en las direcciones MAC de la Capa 2. La segunda función se denomina microsegmentación. La microsegmentación permite la creación de segmentos de red dedicados con un host por segmento. Cada host recibe acceso al ancho de banda completo y no tiene que competir por la disponibilidad del ancho de banda con otros hosts. Los servidores más populares se pueden colocar entonces en enlaces individuales de 100-Mbps. Con frecuencia en las redes de hoy, un switch Fast Ethernet puede actuar como el backbone de la LAN, con hubs Ethernet, switches Ethernet o hubs Fast Ethernet que ofrecen las conexiones de escritorio en grupos de trabajo. A medida que aumenta la popularidad de nuevas aplicaciones como por ejemplo las aplicaciones multimedia de escritorio o las de videoconferencia, algunos equipos de escritorio individuales tendrán enlaces dedicados de 100-Mbps para la red. 113 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 8 La siguiente sección introduce tres modos de transmisión de trama. 4.3.2 Modos de transmisión de la trama Figura 1 En esta sección se describen los tres modos principales de transmisión de trama: • Método de corte: Un switch que efectúa la conmutación por método de corte sólo lee la dirección destino cuando recibe la trama. El switch empieza a enviar la trama antes de que la trama llegue en su totalidad. Este modo reduce la latencia de la transmisión pero la detección de errores es pobre. A continuación, presentamos dos formas de conmutación por método de corte: o Conmutación rápida: La conmutación rápida ofrece el nivel de latencia más bajo, enviando el paquete inmediatamente después de recibir la dirección destino. La latencia se mide desde el primer bit recibido al primer bit transmitido, o bien el primero en entrar y el primero en salir (FIFO). Este modo tiene una detección deficiente de errores de conmutación LAN. o Conmutación libre de fragmentos: La conmutación libre de fragmentos filtra los fragmentos de colisión, que constituyen la mayoría de los errores de paquete, antes de iniciar el envío. Por lo general, los fragmentos de colisión son inferiores a 64 bytes. La conmutación libre de fragmentos espera hasta que se determine si el paquete no es un fragmento de colisión antes de enviar el paquete. La latencia también se mide como FIFO. 114 MicroCisco - staky CCNA - Cisco Certified Network Associate Almacenamiento y envío: La trama completa se recibe antes de que se realice cualquier tipo de envío. Se leen las direcciones destino y origen y se aplican filtros antes de enviar la trama. La latencia se produce mientras la trama se está recibiendo. La latencia es mayor con tramas más grandes dado que toda la trama debe recibirse antes de que empiece el proceso de conmutación. El switch tiene suficiente tiempo para verificar los errores, lo que permite una mayor detección de los errores. Método de corte adaptado: Este modo de transmisión es un modo híbrido que es una combinación del método de corte con el método de almacenamiento y envío. En este modo, el switch utiliza el método de corte hasta que detecta una determinada cantidad de errores. Una vez que se alcanza el umbral de error, el switch cambia al modo almacenamiento y envío. o • Figura 2 La Actividad de Medios Interactivos ayudará a los estudiantes a comprender los tres métodos principales de conmutación. En la siguiente sección se explica de qué manera los switches obtienen información sobre la red. 4.3.3 De qué manera los switches y los puentes aprenden las direcciones En esta sección se explica de qué manera los puentes y los switches aprenden las direcciones y envían las tramas. Los puentes y los switches sólo envían tramas que necesitan viajar de un segmento LAN a otro. Para lograr esta tarea, deben aprender qué dispositivos están conectados a qué segmento de la LAN. Figura 1 Se considera que un puente es un dispositivo inteligente porque puede tomar decisiones basadas en las direcciones MAC. Para hacerlo, un puente consulta una tabla de direcciones. Cuando un puente se enciende, se envían mensajes en broadcast pidiendo a todas las estaciones del segmento local de la red que respondan. A medida que las estaciones contestan el mensaje de broadcast, el puente va creando una tabla de direcciones locales. Este proceso se denomina aprendizaje. Los puentes y los switches aprenden de la siguiente manera: • Leyendo la dirección MAC origen de cada trama o datagrama recibidos • Registrando el puerto por el cual se recibió la dirección MAC 115 MicroCisco - staky CCNA - Cisco Certified Network Associate De esta forma, el puente o el switch aprenden qué direcciones pertenecen a los dispositivos conectados a cada puerto. Las direcciones aprendidas y el puerto o interfaz asociado se almacenan en la tabla de direccionamiento. El puente examina la dirección destino de todas las tramas recibidas. El puente luego explora la tabla de direcciones en busca de la dirección destino. • • La tabla de conmutación se almacena en la Memoria de contenido direccionable (CAM). Éste es un tipo de memoria a cuyo contenido se accede rápidamente. CAM se utiliza en las aplicaciones de switch para realizar las siguientes funciones: Para obtener y procesar la información de dirección desde los paquetes de datos entrantes Para comparar la dirección destino con una tabla de direcciones almacenada dentro de la misma memoria La CAM almacena direcciones MAC de host y números de puerto asociados. La CAM compara la dirección MAC destino recibida con el contenido de la tabla CAM. Si la comparación muestra una coincidencia, se proporciona el puerto y el control de enrutamiento envía el paquete al puerto y dirección correctos. Figura 2 Un switch Ethernet puede aprender la dirección de cada dispositivo de la red leyendo la dirección origen de cada trama transmitida y anotando el puerto por donde la trama se introdujo en el switch. El switch entonces agrega esta información a su base de datos de envío. Las direcciones se aprenden de forma dinámica. Esto significa que, a medida que se leen las nuevas direcciones, éstas se aprenden y se almacenan en la CAM. Cuando no se encuentra una dirección origen en la CAM, se aprende y se almacena para su uso futuro. Cada vez que una dirección se almacena, se le agrega una marca horaria. Esto permite almacenar las direcciones durante un período de tiempo determinado. Cada vez que se hace referencia a una dirección o que se encuentra en CAM, recibe una nueva marca horaria. Las direcciones a las cuales no se hace referencia durante un determinado período de tiempo, se eliminan de la lista. Al eliminar direcciones antiguas, CAM mantiene una base de datos de envío precisa y funcional. La CAM sigue los procesos que se describen a continuación: 1. Si no se encuentra la dirección, el puente envía la trama por todos los puertos salvo el puerto por el cual se recibió la trama. Este proceso se denomina inundación. Es posible el puente haya borrado la dirección porque el software del puente se reinició recientemente, quedó sin entradas de direcciones en la tabla de direcciones o borró la dirección porque era demasiado antigua. Como el puente no sabe qué puerto utilizar para enviar la trama, la enviará por todos los puertos salvo el por donde recibió esta trama. Se sobreentiende que no es necesario enviarla al mismo segmento de cable por el que la recibió dado que todos los demás equipos o puentes en ese cable ya habrán recibido el paquete. 2. Si se encuentra la dirección en una tabla de direcciones y que la dirección está asociada con el puerto en el que se recibió la trama, ésta se descarta. El destino ya lo habrá recibido. 116 MicroCisco - staky CCNA - Cisco Certified Network Associate 3. Si se encuentra la dirección en una tabla de direcciones y la dirección no está asociada al puerto que recibió la trama, el puente envía la trama por el puerto asociado con la dirección. Si se encuentra la dirección en una tabla de direcciones y la dirección no está asociada al puerto que recibió la trama, el puente envía la trama por el puerto asociado con la dirección. En la sección siguiente se describe el proceso utilizado para filtrar tramas. 4.3.4 Proceso de filtrado de tramas por parte de switches y puentes En esta sección se explica de qué manera los switches y los puentes filtran las tramas. Durante esta lección, los términos "switch" y "puente" son sinónimos. La mayoría de los puentes pueden filtrar tramas basándose en cualquier campo de trama de Capa 2. Por ejemplo, se puede programar un puente para que rechace, sin enviar, todas las tramas que se originan desde una red en particular. Como la información de la capa de enlace a menudo incluye la referencia de un protocolo de capa superior, los puentes generalmente pueden hacer filtrado en base a este parámetro. Además, los filtros pueden ser útiles para manejar paquetes innecesarios de broadcast y de multicast. Una vez que el puente ha creado la tabla de direcciones local, está listo para operar. Cuando recibe la trama, examina la dirección destino. Si la dirección de la trama es local, el puente la pasa por alto. Si la trama tiene la dirección de otro segmento LAN, el puente copia la trama al segundo segmento. • • Pasar por alto una trama se denomina filtrar. Copiar la trama se denomina enviar. El filtrado básico mantiene las tramas locales como locales y envía las tramas remotas a otro segmento LAN. El proceso de filtrado en base a direcciones origen y destino específicas logra lo siguiente: • Evita que una estación envíe tramas fuera de su segmento LAN local • Detiene todas las tramas "externas" destinadas a una estación en particular, restringiendo por lo tanto a las demás estaciones de trabajo con las cuales puede comunicar. Ambos tipos de filtrado ofrecen algún control sobre el tráfico de internetwork y pueden aumentar la seguridad. La mayoría de los puentes Ethernet pueden filtrar las tramas de broadcast y multicast. Los puentes y los switches que pueden filtrar tramas en base a su dirección MAC también se pueden utilizar para filtrar tramas Ethernet con direcciones de multicast y broadcast. Este filtrado se logra a través de la implementación de redes de área local virtuales o VLAN. Las VLAN permiten a los administradores de red evitar la transmisión de mensajes de multicast y broadcast innecesarios a través de una red. A veces, es posible que un dispositivos funcione mal y envíe continuamente tramas de broadcast, que se copian por toda la red. Esto se denomina tormenta de broadcast y puede reducir significativamente el rendimiento de la red. Un puente que puede filtrar las tramas de broadcast hace que la tormenta de broadcast provoque da os menores. En la actualidad, los puentes también pueden filtrar según el tipo de protocolo de capa de red. Esto hace más difusa la demarcación entre los puentes y los routers. Un router opera en la capa de red mediante un protocolo de enrutamiento para dirigir el tráfico alrededor de la red. Un puente que implementa técnicas de filtrado avanzadas normalmente se denomina brouter. Los brouters filtran buscando la información de capa de red pero no usan un protocolo de enrutamiento. Figura 1 La siguiente sección explicará cómo se utilizan los puentes para segmentar una LAN. 117 MicroCisco - staky CCNA - Cisco Certified Network Associate 4.3.5 ¿Por qué segmentar las LAN? En esta sección se explican las dos razones principales para segmentar una LAN. Hay dos motivos fundamentales para dividir una LAN en segmentos. La primera es aislar el tráfico entre segmentos. La segunda razón es lograr más ancho de banda por usuario mediante la creación de dominios de colisión más pequeños. Figura 1 Figura 2 Sin la segmentación LAN, las LAN más grandes que un pequeño grupo de trabajo podrían atascarse rápidamente con el tráfico y las colisiones. La segmentación LAN se puede implementar mediante el uso de puentes, switches y routers. Cada uno de estos dispositivos tiene ventajas y desventajas particulares. Con la adición de los dispositivos como puentes, switches y routers, la LAN está segmentada en una serie de dominios de colisión más pequeños. En el ejemplo, se han creado cuatro dominios de colisión. 118 MicroCisco - staky CCNA - Cisco Certified Network Associate Al dividir redes de gran tamaño en unidades autónomas, los puentes y los switches ofrecen varias ventajas. Un puente, o switch, reduce el tráfico que experimentan los dispositivos en todos los segmentos conectados ya que sólo se envía un determinado porcentaje de tráfico. Los puentes y switches reducen el dominio de colisión pero no el dominio de broadcast. Figura 3 Cada interfaz en el router se conecta a una red distinta. Por lo tanto, la inserción del router en una LAN creará pequeños dominios de colisión y dominios de broadcast más pequeños. Esto sucede porque los routers no envían los broadcasts a menos que sean programados para hacerlo. Un switch emplea "microsegmentación" para reducir el dominio de colisión en una LAN. El switch hace esto creando segmentos de red dedicados o conexiones punto a punto. El switch conecta estos segmentos en una red virtual dentro del switch. Este circuito de red virtual existe solamente cuando dos nodos necesitan comunicarse. Esto se denomina circuito virtual ya que existe sólo cuando es necesario y se establece dentro del switch. En la siguiente sección se analiza la microsegmentación. 4.3.6 Implementación de la microsegmentación En esta sección se explican las funciones de un switch en una LAN como resultado de la microsegmentación. Figura 1 119 MicroCisco - staky CCNA - Cisco Certified Network Associate Los switches de LAN se consideran puentes multipuerto sin dominio de colisión debido a la microsegmentación. Los datos se intercambian a altas velocidades conmutando la trama hacia su destino. Al leer la información de Capa 2 de dirección MAC destino, los switches pueden realizar transferencias de datos a altas velocidades de forma similar a los puentes. Esto provoca niveles de latencia bajos y una alta velocidad para el envío de tramas. Figura 2 Figura 3 La conmutación Ethernet aumenta el ancho de banda disponible en la red. Esto se hace creando segmentos de red dedicados, o conexiones punto a punto, y conectando estos segmentos en una red virtual dentro del switch. Este circuito de red virtual existe solamente cuando dos nodos necesitan comunicarse. Esto se denomina circuito virtual ya que existe sólo cuando es necesario y se establece dentro del switch. Aunque el switch LAN reduce el tamaño de los dominios de colisión, todos los hosts conectados al switch pertenecen al mismo dominio de broadcast. Por lo tanto, un broadcast emitido de un nodo seguirá siendo percibido por todos los demás nodos conectados a través del switch LAN. Los switches son dispositivos de enlace de datos que, al igual que los puentes, permiten la interconexión de múltiples segmentos físicos de LAN para formar una sola red de mayor tamaño. De forma similar a los puentes, los switches envían e inundan el tráfico basándose en las direcciones MAC. Dado que la conmutación se ejecuta en el hardware en lugar del software, es significativamente más veloz. Cada puerto de switch puede considerarse como un micropuente que actúa como un puente distinto y ofrece el ancho de banda completo del medio a cada host. 120 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 4 En la siguiente sección se analizan las colisiones. 4.3.7 Switches y dominios de colisión En esta sección se estudian las colisiones, que son una de las principales desventajas de las redes Ethernet 802.3. Las colisiones se producen cuando dos hosts transmiten tramas de forma simultánea. Cuando se produce una colisión, las tramas transmitidas se dañan o se destruyen en la colisión. Los hosts transmisores detienen la transmisión por un tiempo aleatorio, conforme a las reglas de Ethernet 802.3 de CSMA/CD. El exceso de colisiones puede hacer que las redes resulten improductivas. Figura 1 121 MicroCisco - staky CCNA - Cisco Certified Network Associate El área de red donde se originan las tramas y se producen las colisiones se denomina dominio de colisión. Todos los entornos de medios compartidos son dominios de colisión. Cuando un host se conecta a un puerto de switch, el switch crea una conexión dedicada. Esta conexión se considera como un dominio de colisión individual. Por ejemplo, si un switch de doce puertos tiene un dispositivo conectado a cada puerto, entonces se crean doce dominios de colisión. Figura 2 Fugura 3 Figura 4 122 MicroCisco - staky CCNA - Cisco Certified Network Associate Un switch crea una tabla de conmutación al aprender las direcciones MAC de los hosts que están conectados a cada puerto de switch. Cuando dos hosts conectados desean comunicarse entre sí, el switch analiza la tabla de conmutación y establece una conexión virtual entre los puertos. El circuito virtual se mantiene hasta que la sesión se termina. En la Figura , el Host B y el Host C desean comunicarse entre sí. El switch crea la conexión virtual, conocida como microsegmento. El microsegmento se comporta como una red de sólo dos hosts, un host que envía y otro que recibe, y se utiliza el máximo ancho de banda disponible. Figura 5 Los switches reducen las colisiones y aumentan el ancho de banda en los segmentos de red ya que ofrecen un ancho de banda dedicado para cada segmento de red. En la siguiente sección se analizan tres métodos de transmisión de datos en una red. 4.3.8 Switches y dominios de broadcast En esta sección se describen tres métodos de transmisión de datos que se utilizan en una red. La forma de comunicación más común se realiza por transmisión unicast. En una transmisión unicast, un transmisor intenta comunicarse con un receptor. Otra forma de comunicarse se conoce como transmisión multicast. La transmisión multicast se produce cuando un transmisor trata de comunicarse con sólo un subconjunto o un grupo del segmento. Figura 1 123 MicroCisco - staky CCNA - Cisco Certified Network Associate La última forma de comunicarse es envío en broadcast. La transmisión en broadcast se produce cuando un transmisor trata de comunicarse con todos los receptores de la red. La estación servidora envía un mensaje y todos los que se encuentran en el segmento reciben el mensaje. Cuando un dispositivo desea enviar un broadcast de Capa 2, la dirección MAC destino en la trama se establece en sólo unos. Una dirección MAC de sólo unos es FF:FF:FF:FF:FF:FF en números hexadecimales. Al configurar el destino en este valor, todos los dispositivos aceptarán y procesarán la trama de broadcast. El dominio de broadcast de la Capa 2 se conoce como dominio MAC de broadcast. El dominio MAC de broadcast incluye todos los dispositivos de la LAN que reciben broadcasts de trama a través de un host a todas las demás máquinas en la LAN. El switch es un dispositivo de la Capa 2 cuando un switch recibe un broadcast, lo envía por cada puerto del switch salvo por el puerto receptor. Cada dispositivo adjunto debe procesar la trama de broadcast. Esto lleva a la reducción de la eficiencia de red, dado que se utiliza el ancho de banda disponible con propósitos de enviar un broadcast. Figura 2 Cuando se conectan dos switches, el dominio de broadcast aumenta. En este ejemplo, una trama de broadcast se envía a todos los puertos conectados al Switch 1. El Switch 1 está conectado al Switch 2. La trama se propaga a todos los dispositivos conectados al Switch 2. El resultado general es una reducción del ancho de banda disponible. Esto ocurre porque todos los dispositivos en el dominio de broadcast deben recibir y procesar la trama de broadcast. Los routers son dispositivos de la Capa 3 los routers no propagan los broadcasts. Los routers se utilizan para segmentar los dominios de colisión y de broadcast. En la siguiente sección se explica cómo se conecta una estación de trabajo a una LAN. 4.3.9 Comunicación entre los switches y la estación de trabajo En esta sección se explica cómo los switches obtienen información sobre las estaciones de trabajo en una LAN. Cuando una estación de trabajo se conecta a una LAN, no se preocupa por los demás dispositivos que estén conectados a los medios de la LAN. La estación de trabajo simplemente transmite las tramas de datos a los medios de la red mediante una NIC. 124 MicroCisco - staky CCNA - Cisco Certified Network Associate La estación de trabajo se puede conectar directamente a otra estación de trabajo con un cable de interconexión cruzada. Los cables de interconexión cruzada se utilizan para conectar los siguientes dispositivos: • Estación de trabajo a estación de trabajo • Switch a switch • Switch a hub • Hub a hub • Router a router • Router a PC Figura 1 Figura 2 Los cables de conexión directa se utilizan para conectar los siguientes dispositivos: • Switch a router • Switch a estación de trabajo o servidor • Hub a estación de trabajo o servidor 125 MicroCisco - staky CCNA - Cisco Certified Network Associate Los switches son dispositivos de la Capa 2 que usan la inteligencia para aprender las direcciones MAC de los dispositivos conectados a los puertos del switch. Estos datos se introducen en una tabla de conmutación. Una vez que la tabla se completa, el switch puede leer la dirección MAC destino de una trama de datos que llega a un puerto y enviarla inmediatamente. Hasta que un dispositivo no empieza a transmitir, el switch no sabe su dirección MAC. Figura 3 Los switches ofrecen una escalabilidad significativa en una red y se pueden conectar directamente. La Figura muestra una situación de transmisión de trama que utiliza una red multiswitch. Figura 4 Con esta sección se concluye la lección. En la siguiente sección se resumen los puntos principales de este módulo. Resumen En esta sección se resumen los temas analizados en este módulo. Ethernet es la arquitectura LAN más común y fue diseñada para transmitir datos entre los dispositivos de una red. Originalmente, Ethernet era una tecnología half duplex. Mediante la tecnología half-duplex, un host podía transmitir o recibir directamente pero no al mismo tiempo. Cuando dos o más hosts Ethernet transmiten al mismo tiempo en un medio compartido, el resultado es una colisión. El tiempo que tarda una trama o a un paquete en viajar de la estación origen al destino final se conoce como latencia o retardo. Las tres fuentes de latencia incluyen el retardo NIC, el retardo de propagación real y el retardo debido a dispositivos de red específicos. 126 CCNA - Cisco Certified Network Associate MicroCisco - staky El tiempo de bit es la unidad básica de tiempo en la cual se puede enviar un solo bit. Debe de existir un período mínimo durante el cual el bit está activado o desactivado para que el dispositivo pueda reconocer un uno o un cero binario. La atenuación significa que una señal se debilita a medida que recorre la red. Esto limita la distancia que una LAN puede abarcar. Un repetidor puede extender la distancia de una LAN pero también tendrá un efecto negativo sobre el rendimiento general de la LAN. La transmisión full-duplex entre estaciones se logra por medio de conexiones Ethernet punto a punto. La transmisión full-duplex ofrece un entorno de transmisión libre de colisiones. Ambas estaciones pueden transmitir y recibir al mismo tiempo, no existen negociaciones para el ancho de banda. La infraestructura de cable existente se puede utilizar siempre y cuando el medio cumpla con los estándares Ethernet mínimos. La segmentación divide una red en unidades más pequeñas para reducir la congestión de la red y mejorar la seguridad. El método de acceso CSMA/CD en cada segmento mantiene el tráfico entre los usuarios. La segmentación con un puente de Capa 2 es transparente para otros dispositivos de red pero la latencia aumenta significativamente. Cuanto más trabajo realiza un dispositivo de red, más latencia podrá introducir el dispositivo en la red. Los routers ofrecen segmentación de redes pero pueden agregar un factor de latencia de 20% a 30% sobre una red conmutada. Esta mayor latencia se debe a que el router opera en la capa de red y usa la dirección IP para determinar la mejor ruta al nodo de destino. Un switch puede segmentar una LAN en microsegmentos que disminuyen el tamaño de los dominios de colisión. Sin embargo, todos los hosts conectados al switch siguen estando en el mismo dominio de broadcast. La conmutación es una tecnología que reduce la congestión en las LAN Ethernet, Token Ring y la Interfaz de datos distribuida por fibra (FDDI). La conmutación es el proceso de recibir una trama que llega de una interfaz y enviarla a través de otra interfaz. Los routers utilizan la conmutación de Capa 3 para enrutar un paquete. Los switches utilizan conmutación de Capa 2 para enviar tramas. Un switch simétrico ofrece conexiones conmutadas entre puertos con el mismo ancho de banda. Un switch LAN asimétrico proporciona conexiones de conmutación entre puertos con distinto ancho de banda por ejemplo, una combinación de puertos de 10 Mbps y de 100 Mbps. Un búfer de memoria es un área de la memoria donde el switch almacena datos. Puede utilizar dos métodos para enviar tramas, el búfer de memoria basado en puerto y el búfer de memoria compartida. Existen dos modos que se utilizan para enviar tramas. El almacenamiento y envío recibe la trama completa antes de enviarla mientras que el método de corte envía la trama a medida que la va recibiendo, reduciendo de esta manera la latencia. Conmutación rápida y libre de fragmentos son dos formas de envío de método de corte. 127 CCNA - Cisco Certified Network Associate 128 MicroCisco - staky CCNA - Cisco Certified Network Associate MicroCisco - staky Módulo 5: Switches Descripción general La tarea de diseñar una red puede ser una tarea fascinante e implica mucho más que simplemente conectar dos computadoras entre sí. Una red requiere muchas funciones para que sea confiable, escalable y fácil de administrar. Para diseñar redes confiables, fáciles de administrar, y escalables, los diseñadores de red deben darse cuenta de que cada uno de los componentes principales de una red tiene requisitos de diseño específicos. El diseño de red se ha vuelto cada vez más difícil a pesar de los avances que se han logrado a nivel del rendimiento de los equipos y las capacidades de los medios. El uso de distintos tipos de medios y de las LAN que se interconectan con otras redes agrega complejidad al entorno de red. Los buenos diseños de red permiten mejorar el rendimiento y reducir las dificultades asociadas con el crecimiento y la evolución de la red. Una LAN abarca una sola habitación, un edificio o un conjunto de edificios que se encuentran cerca unos de otros. Un grupo de instalaciones cuyos edificios se encuentran ubicados a corta distancia unos de otros y que pertenecen a una sola organización se conoce como campus. Los siguientes aspectos de la red deben ser identificados antes de diseñar una LAN más amplia: • Una capa de acceso que conecte los usuarios finales a la LAN • Una capa de distribución que ofrezca conectividad basada en políticas entre las LAN de usuario final • Una capa núcleo que ofrezca la conexión más rápida que sea posible entre los distintos puntos de distribución Cada una de estas capas de diseño de LAN requiere los switches más adecuados para realizar tareas específicas. Las características, las funciones y las especificaciones técnicas de cada switch varían en función de la capa de diseño de la LAN para la cual el switch fue creado. Para lograr el mejor rendimiento de la red, es importante comprender la función de cada capa y luego elegir el switch que mejor se adecua a los requisitos de la capa. Este módulo abarca algunos de los objetivos de los exámenes CCNA 640-801 e ICND 640-811. Los estudiantes que completen este módulo deberán ser capaces de realizar las siguientes tareas: • Describir los cuatro principales objetivos del diseño de LAN • Enumerar las consideraciones claves en el diseño de la LAN • Comprender los pasos en el diseño sistemático de la LAN • Comprender los problemas de diseño relacionados con la estructura o la topología de la LAN de las Capas 1 a 3 • Describir el modelo de diseño de tres capas • Identificar las funciones de cada capa del modelo de tres capas. • Enumerar los switches de capa de acceso Cisco y sus funciones • Enumerar los switches de capa de distribución Cisco y sus funciones • Enumerar los switches de capa núcleo Cisco y sus funciones 5.1 Diseño de LAN 5.1.1 Objetivos del diseño de LAN El primer paso en el diseño de una LAN es establecer y documentar los objetivos de diseño. Estos objetivos son específicos para cada organización o situación. Esta sección describirá los requisitos de la mayoría de los diseños de red: • Funcionalidad: La red debe funcionar. Es decir, debe permitir que los usuarios cumplan con sus requisitos laborales. La red debe suministrar conectividad de usuario a usuario y de usuario a aplicación con una velocidad y confiabilidad razonables. • Escalabilidad: La red debe poder aumentar de tamaño. Es decir, el diseño original debe aumentar de tamaño sin que se produzcan cambios importantes en el diseño general. • Adaptabilidad: La red debe diseñarse teniendo en cuenta futuras tecnologías. La red no debería incluir elementos que limiten la implementación de nuevas tecnologías a medida que éstas van apareciendo. 129 MicroCisco - staky CCNA - Cisco Certified Network Associate • Facilidad de administración: La red debe estar diseñada para facilitar su monitoreo y administración, con el objeto de asegurar una estabilidad de funcionamiento constante. Figura 1 En la sección siguiente se analizan algunas de las consideraciones del diseño de una LAN. 5.1.2 Consideraciones del diseño de una LAN En esta sección se describen algunos factores importantes a considerar en el momento de diseñar una LAN. Muchas organizaciones han actualizado sus LAN en la actualidad o planean implementar nuevas LAN. Esta expansión en el diseño de la LAN se debe al desarrollo de tecnologías de alta velocidad como por ejemplo el Modo de Transferencia Asíncrona (ATM). Esta expansión también se debe a arquitecturas LAN complejas que utilizan conmutación de LAN y LAN virtuales (VLAN). Para maximizar el ancho de banda y el rendimiento disponible de la LAN, deberán tenerse en cuenta las siguientes consideraciones de diseño de LAN: • Función y ubicación de los servidores • Temas relacionados con los dominios de colisión • Temas de segmentación • Temas relacionados con los dominios de broadcast Los servidores permiten que los usuarios de red se comuniquen y compartan archivos, impresoras y servicios de aplicación. Los servidores por lo general no operan como estaciones de trabajo. Los servidores ejecutan sistemas operativos especializados como por ejemplo NetWare, Windows NT, UNIX y Linux. Cada servidor por lo general está dedicado a una función, por ejemplo, correo electrónico o archivos compartidos. Los servidores se pueden categorizar en servidores empresariales o servidores de grupo de trabajo. Un servidor empresarial soporta todos los usuarios en la red ofreciendo servicios tales como correo electrónico o Sistema de Nombres de Dominio (DNS). El correo electrónico o el DNS son servicios que cualquier persona de una organización necesita porque son funciones centralizadas. Un servidor de grupo de trabajo soporta un conjunto específico de usuarios y ofrece servicios como por ejemplo el procesamiento de texto y capacidades de archivos compartidos. Como se ve en la Figura , los servidores empresariales deben colocarse en el servicio de distribución principal (MDF). Siempre que sea posible, el tráfico hacia los servidores empresariales sólo tiene que viajar hacia el MDF y no transmitirse a través de otras redes. Sin embargo, algunas redes utilizan un núcleo enrutado o incluso pueden tener un servidor central para los servidores empresariales. En estos casos, el tráfico de red viaja a través de otras redes y por lo general no se puede evitar. Lo ideal es que los servidores de grupo de trabajo se coloquen en el servicio de distribución intermedia (IDF) más cercano a los usuarios que acceden a las aplicaciones en estos servidores. Esto permite al tráfico viajar por la infraestructura de red hacia un IDF y no afecta a los demás usuarios en ese segmento de red. Los switches LAN de Capa 2 ubicados en el MDF y los IDF deben tener 100 Mbps o más asignados para estos servidores. Los nodos Ethernet utilizan CSMA/CD. Cada nodo debe disputar con otros nodos para acceder al medio compartido o al dominio de colisión. Si dos nodos transmiten al mismo tiempo, se produce una colisión. Cuando se produce una colisión la trama transmitida se elimina y se envía una señal de embotellamiento a todos los nodos del segmento. Los nodos esperan un período de tiempo al azar y luego vuelven a enviar los datos. Las colisiones excesivas pueden reducir el ancho de banda disponible de un segmento de red a treinta y cinco o cuarenta por ciento del ancho de banda disponible 130 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Figura 2 La segmentación se realiza cuando un sólo dominio de colisión se divide en dominios de colisión más pequeños. Los dominios de colisión más pequeños reducen la cantidad de colisiones en un segmento LAN y permiten una mayor utilización del ancho de banda. Los dispositivos de la Capa 2 como por ejemplo puentes y switches se pueden utilizar para segmentar una LAN. Los routers pueden lograr esto a nivel de la Capa 3. Figura 3 131 MicroCisco - staky CCNA - Cisco Certified Network Associate Se produce un broadcast cuando el control de acceso al medio destino (MAC) se configura en FF-FF-FFFF-FF-FF. Un dominio de broadcast se refiere al conjunto de dispositivos que reciben una trama de datos de broadcast desde cualquier dispositivo dentro de este conjunto. Todos los hosts que reciben una trama de datos de broadcast deben procesarla. Este proceso consume los recursos y el ancho de banda disponible del host. Los dispositivos de Capa 2 como los puentes y switches reducen el tamaño de un dominio de colisión. Estos dispositivos no reducen el tamaño del dominio de broadcast. Los routers reducen el tamaño del dominio de colisión y el tamaño del dominio de broadcast en la Capa 3. Figura 4 En la sección siguiente se explica la metodología a seguir para el diseño de una LAN. 5.1.3 Metodología de diseño de una LAN Para que una LAN sea efectiva y satisfaga las necesidades de los usuarios, se la debe diseñar e implementar de acuerdo con una serie planificada de pasos sistemáticos. En esta sección se describen los siguientes pasos: • Reunir requisitos y expectativas • Analizar requisitos y datos • Diseñar la estructura o topología de las Capas 1, 2 y 3 de la LAN • Documentar la implementación física y lógica de la red Figura 1 132 MicroCisco - staky CCNA - Cisco Certified Network Associate El proceso destinado a recabar información ayuda a aclarar e identificar cualquier problema de red actual. Esta información incluye el historial de la organización y su estado actual, el crecimiento proyectado, las políticas operativas y los procedimientos de administración, los sistemas y procedimientos de oficina y los puntos de vista de las personas que utilizarán las LAN. Deberán formularse las siguientes preguntas al reunir la información: • ¿Quiénes son las personas que utilizarán la red? • ¿Cuál es el nivel de capacitación de estas personas? • ¿Cuáles son sus actitudes con respecto a las computadoras y las aplicaciones informáticas? • ¿Cuál es el nivel de desarrollo de las políticas documentadas organizacionales? • ¿Algunos de los datos han sido declarados críticos para el trabajo? • ¿Algunas operaciones han sido declaradas críticas para el trabajo? • ¿Cuáles son los protocolos que están permitidos en la red? • ¿Sólo se soportan determinados hosts de escritorio? • ¿Quién es responsable de las direcciones, la denominación, el diseño de topología y la configuración de las LAN? • ¿Cuáles son los recursos humanos organizacionales, de hardware y de software? • ¿Cómo se vinculan y comparten estos recursos actualmente? • ¿Cuáles son los recursos financieros de los que dispone la organización? La documentación de los requisitos permite una estimación informada de los costos y líneas temporales para la implementación de diseño de LAN. Es importante comprender los problemas de rendimiento de cualquier red. Figura 2 La disponibilidad mide la utilidad de la red. A continuación, presentamos algunas de las muchas cosas que afectan la disponibilidad: • Tasa de transferencia • Tiempo de respuesta • Acceso a los recursos Cada cliente tiene una definición distinta de lo que es la disponibilidad. Por ejemplo, es posible que sea necesario transportar datos de voz y de vídeo a través de la red. Estos servicios requieren un ancho de banda mucho mayor que el que está disponible en la red o el backbone. Para aumentar la disponibilidad, se pueden agregar más recursos pero esto aumenta el costo de la red. Los diseños de red deben suministrar la mayor disponibilidad posible al menor costo posible. El siguiente paso en el diseño de red es analizar los requisitos de la red y de sus usuarios. Las necesidades del usuario de la red cambian constantemente. A medida que se introducen más aplicaciones de red basadas en voz y vídeo, la presión por aumentar el ancho de banda de la red se torna también más intensa. . Una LAN que no puede suministrar información veloz y precisa a los usuarios no tiene ninguna utilidad. Se deben tomar medidas para asegurar que se cumplan los requisitos de información de la organización y de sus trabajadores. El siguiente paso es decidir cuál será la topología LAN general que satisface los requisitos del usuario. En este currículum, nos concentraremos en la topología en estrella y la topología en estrella extendida. La topología en estrella y la topología en estrella extendida usan la tecnología CSMA/CD Ethernet 802.3. La topología en estrella CSMA/CD es la configuración dominante en la industria. 133 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 3 Figura 4 El diseño de topología LAN se puede dividir en las tres siguientes categorías únicas del modelo de referencia OSI: • Capa de red • Capa de enlace de datos • Capa física El paso final en la metodología de diseño LAN es documentar la topología física y lógica de la red. La topología física de la red se refiere a la forma en que distintos componentes de LAN se conectan entre sí. El diseño lógico de la red se refiere al flujo de datos que hay dentro de una red. También se refiere a los esquemas de nombre y dirección que se utilizan en la implementación de la solución de diseño LAN. Figura 5 134 MicroCisco - staky CCNA - Cisco Certified Network Associate A continuación, presentamos documentación de diseño LAN importante: • Mapa de topología de capa OSI • Mapa lógico de LAN • Mapa físico de la LAN • Planes de distribución • Mapa lógico de VLAN • Mapa lógico de Capa 3 • Mapas de dirección Figura 6 Figura 7 135 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 8 Figura 9 Figura 10 En la sección siguiente se analizan algunos temas de diseño de la Capa 1. 136 MicroCisco - staky CCNA - Cisco Certified Network Associate 5.1.4 Diseño de Capa 1 En esta sección se enseña a los estudiantes cómo diseñar la topología de Capa 1 de una red. Uno de los componentes más importantes a considerar en el diseño de red son los cables. En la actualidad, la mayor parte del cableado LAN se basa en la tecnología Fast Ethernet. Fast Ethernet es la tecnología Ethernet que se ha actualizado de 10 Mbps a 100 Mbps y tiene la capacidad de utilizar la funcionalidad full-duplex. Fast Ethernet utiliza la topología de bus lógica orientada a broadcast Ethernet estándar de 10BASE-T, y el método CSMA/CD para direcciones MAC. Figura 1 Los temas de diseño en la Capa 1 incluyen el tipo de cableado que se debe utilizar (normalmente cable de cobre o fibra óptica) y la estructura general del cableado. Esto también incluye el estándar TIA/EIA-568-A para la configuración y conexión de los esquemas de cableado. Los tipos de medios de la Capa 1 incluyen el par trenzado no blindado (UTP) o el par trenzado blindado (STP) Categoría 5, 5e o 6 10/100BASE-TX y el cable de fibra óptica 100BaseFX. Figura 2 Figura 3 137 MicroCisco - staky CCNA - Cisco Certified Network Associate Deberá realizarse una evaluación minuciosa de los puntos fuertes y debilidades de las topologías. Una red tiene la misma efectividad que la de los cables que se utilizan. Los temas de Capa 1 provocan la mayoría de los problemas de red. Se deberá llevar a cabo una auditoria de cableado cuando se planee realizar cambios significativos en una red. Esto ayuda a identificar las áreas que requieren actualizaciones y nuevo cableado. En todos los diseños de cable se debe utilizar cable de fibra óptica en el backbone y en los conductos verticales. El cable UTP Categoría 5e se deberá utilizar en los tendidos horizontales. La actualización de cable debe tener prioridad sobre cualquier otro cambio necesario. Las empresas también deberán asegurarse de que estos sistemas se implementen de conformidad con estándares de la industria bien definidos como por ejemplo las especificaciones TIA/EIA-568-A. El estándar TIA/EIA-568-A especifica que cada dispositivo conectado a la red debe estar conectado a una ubicación central a través de cableado horizontal. Esto se aplica si todos los hosts que necesitan acceso a la red se encuentran dentro de un límite de distancia de 100 metros (328 pies) para el UTP Ethernet Categoría 5e. En una topología en estrella simple con un solo armario del cableado, el MDF incluye uno o más paneles de conexión cruzada horizontal (HCC). Los cables de conexión HCC se utilizan para conectar el cableado horizontal de Capa 1 con los puertos del switch LAN de Capa 2. El puerto uplink del switch LAN, basado en el modelo, está conectado al puerto Ethernet del router de Capa 3 con un cable de conexión. En este punto, el host final tiene una conexión física completa hacia el puerto del router. Figura 4 Figura 5 138 MicroCisco - staky CCNA - Cisco Certified Network Associate Cuando los hosts de las redes de mayor tamaño están ubicados fuera del límite de 100 metros (328ft.) para el UTP Categoría 5e, se requiere más de un armario de cableado. La presencia de varios armarios de cableado implica la existencia de múltiples áreas de captación. Los armarios secundarios de cableado se denominan IDF. Los estándares TIA/EIA -568-A especifican que los IDF se deben conectar al MDF utilizando cableado vertical, también denominado cableado backbone. Se utiliza un cable de conexión cruzada vertical (VCC) para interconectar los diversos IDF con el MDF central. Se utiliza normalmente el cable de fibra óptica debido a que las longitudes del cable vertical son generalmente más largas que el límite de 100metros (328 pies) del cable UTP Categoría 5e. Figura 6 Figura 7 El diagrama lógico es el modelo de topología de red sin todos los detalles de la instalación exacta del cableado. El diagrama lógico es el mapa de ruta básico de la LAN que incluye los siguientes elementos: • Especificar las ubicaciones e identificaciones de los armarios de cableado MDF e IDF. • Documentar el tipo y la cantidad de cables que se utilizan para interconectar los IDF con el MDF. 139 MicroCisco - staky CCNA - Cisco Certified Network Associate • • Documentar la cantidad de cables de repuesto que están disponibles para aumentar el ancho de banda entre los armarios de cableado. Por ejemplo, si el cableado vertical entre el IDF 1 y el MDF se ejecuta a un 80% de su uso, se pueden utilizar dos pares adicionales para duplicar la capacidad. Proporcionar documentación detallada sobre todos los tendidos de cable, los números de identificación y en cuál de los puertos del HCC o VCC termina el tendido de cableado. Figura 8 Figura 9 El diagrama lógico es esencial para diagnosticar los problemas de conectividad de la red. Si la habitación 203 pierde conectividad a la red, el plan de distribución muestra que la habitación tiene un tendido de cable 203-1, que se termina en el puerto 13 de HCC1. Se pueden utilizar analizadores de cables para determinar las fallas de la Capa 1. De haber alguna, uno de los dos tendidos se puede utilizar para reestablecer la conectividad y ofrecer tiempo para diagnosticar las fallas del tendido 203-1. En la sección siguiente se analizan algunos temas de diseño de la Capa 2. 5.1.5 El diseño de Capa 2 En esta sección se analizan algunas consideraciones de diseño importantes de la Capa 2. El propósito de los dispositivos de la Capa 2 en la red es conmutar tramas basadas en sus direcciones MAC destino, ofrecer detección de errores y reducir la congestión en la red. Los dos dispositivos de networking de Capa 2 más comunes son los puentes y switches LAN. Los dispositivos de la Capa 2 determinan el tamaño de los dominios de colisión. Las colisiones y el tamaño de los dominios de colisión son dos factores que afectan de forma negativa el rendimiento de una red. La microsegmentación de la red reduce el tamaño de los dominios de colisión y reduce las colisiones. La microsegmentación se implementa a través del uso de puentes y switches. El 140 MicroCisco - staky CCNA - Cisco Certified Network Associate objetivo es aumentar el rendimiento de un grupo de trabajo o de un backbone. Los switches se pueden utilizar junto con hubs para suministrar el nivel de rendimiento adecuado para distintos usuarios y servidores. Figura 1 Figura 2 Figura 3 Otra característica importante de un switch LAN es la forma en que puede asignar ancho de banda por puerto. Esto permite ofrecer más ancho de banda para el cableado vertical, los uplinks y los servidores. Este tipo de conmutación se conoce como conmutación asimétrica. La conmutación asimétrica proporciona conexiones de conmutación entre puertos con distinto ancho de banda por ejemplo, una combinación de 141 MicroCisco - staky CCNA - Cisco Certified Network Associate puertos de 10 Mbps y de 100 Mbps. La conmutación simétrica ofrece conexiones conmutadas entre puertos de ancho de banda similar. La capacidad deseada de un tendido de cable vertical es mayor que la de un tendido de cable horizontal. La instalación de un switch LAN en MDF e IDF, permite al tendido de cable vertical administrar el tráfico de datos que se transmiten desde el MDF hasta el IDF. Los tendidos horizontales entre el IDF y las estaciones de trabajo utilizan UTP Categoría 5e. Una derivación de cableado horizontal debería ser superior a 100 metros (328 pies). En un entorno normal, 10 Mbps es lo adecuado para la derivación del cableado horizontal. Los switches LAN asimétricos permiten la mezcla de los puertos 10-Mbps y 100-Mbps en un solo switch. Figura 4 Figura 5 La nueva tarea consiste en determinar el número de puertos de 10 Mbps y 100 Mbps que se necesitan en el MDF y cada IDF. Esto se logra revisando los requisitos del usuario para la cantidad de derivaciones de cable horizontal por habitación y la cantidad de derivaciones totales en cualquier área de captación. Esto incluye la cantidad de tendidos de cable vertical. Por ejemplo, digamos que los requisitos para el usuario 142 MicroCisco - staky CCNA - Cisco Certified Network Associate establecen que se deben instalar cuatro tendidos de cable horizontal en cada habitación. El IDF que brinda servicios a un área de captación abarca 18 habitaciones. Por lo tanto, cuatro derivaciones en cada una de las 18 habitaciones es igual a 4x18 ó 72 puertos de switch LAN. El tamaño de un dominio de colisión se determina por la cantidad de hosts que se conectan físicamente a cualquier puerto en el switch. Esto también afecta la cantidad de ancho de banda de la red que está disponible para cualquier host. En una situación ideal, hay solamente un host conectado a un puerto de switch LAN. El dominio de colisión consistiría solamente en el host origen y el host destino. El tamaño del dominio de colisión sería de dos. Debido al pequeño tamaño de este dominio de colisión, prácticamente no se producen colisiones cuando alguno de los dos hosts se comunica con el otro. Otra forma de implementar la conmutación LAN es instalar hubs de LAN compartidos en los puertos del switch. Esto permite a varios hosts conectarse a un solo puerto de switch. Todos los hosts conectados al hub de LAN compartido comparten el mismo dominio de colisión y el mismo ancho de banda. Esto significa que las colisiones podrían producirse con más frecuencia. Figura 6 Los hubs de medios compartidos, generalmente, se utilizan en un entorno de switch LAN para crear más puntos de conexión al final de los tendidos de cableado horizontal. Figura 7 Los hubs de medios compartidos, generalmente, se utilizan en un entorno de switch LAN para crear más puntos de conexión al final de los tendidos de cableado horizontal. Ésta es una situación aceptable pero que debe tomarse con precaución. Los dominios de colisión deben mantenerse pequeños y el ancho de banda 143 MicroCisco - staky CCNA - Cisco Certified Network Associate hacia el host se debe suministrar de acuerdo con las especificaciones establecidas en la fase de requisitos del proceso de diseño de red. Figura 8 En la sección siguiente se analizan algunos temas de diseño de la Capa 3. 5.1.6 Diseño de Capa 3 En esta sección se analizan algunas consideraciones de diseño de la Capa 3. Un router es un dispositivo de Capa 3 que se considera como uno de los dispositivos más poderosos en la topología de red. Figura 1 Los dispositivos de la Capa 3 se pueden utilizar para crear segmentos LAN únicos. Los dispositivos de Capa 3 permiten la comunicación entre los segmentos basados en las direcciones de Capa 3, como por ejemplo direcciones IP. La implementación de los dispositivos de Capa 3 permite la segmentación de la LAN 144 MicroCisco - staky CCNA - Cisco Certified Network Associate en redes lógicas y físicas exclusivas. Los routers también permiten la conectividad a las WAN como, por ejemplo, Internet. El enrutamiento de Capa 3 determina el flujo de tráfico entre los segmentos de red física exclusivos basados en direcciones de Capa 3. Un router envía paquetes de datos basados en direcciones destino. Un router no envía broadcasts basados en LAN, tales como las peticiones ARP. Por lo tanto, la interfaz del router se considera como el punto de entrada y salida de un dominio de broadcast y evita que los broadcasts lleguen hasta los otros segmentos LAN. Los routers ofrecen escalabilidad dado que sirven como cortafuegos para los broadcasts y pueden dividir las redes en subredes, basadas en direcciones de Capa 3. Figura 2 Para decidir si es conveniente utilizar routers o switches, es importante determinar el problema que necesita resolverse. Si el problema está relacionado con el protocolo en lugar de temas de contención, entonces, los routers son una solución apropiada. Los routers solucionan los problemas de broadcasts excesivos, protocolos que no son escalables, temas de seguridad y direccionamiento de la capa de red. Sin embargo, los routers son más caros y más difíciles de configurar que los switches. Figura 3 muestra un ejemplo de implementación con múltiples redes. Todo el tráfico de datos desde la La Figura Red 1 destinado a la Red 2 debe atravesar el router. En esta implementación, hay dos dominios de 145 MicroCisco - staky CCNA - Cisco Certified Network Associate broadcast. Las dos redes tienen esquemas de direccionamiento de red de Capa 3 únicos. Se pueden crear varias redes físicas si el cableado horizontal y el cableado vertical se conectan al switch de Capa 2 apropiado. Esto se puede hacer con cables de conexión. Esta implementación también ofrece un diseño de seguridad sólido dado que todo el tráfico que llega a y que sale de la LAN pasa a través del router. Una vez que se desarrolla el esquema de direccionamiento IP para un cliente, éste se debe documentar con precisión. Se debe establecer una convención estándar para el direccionamiento de hosts importantes en la red. Este esquema de direccionamiento debe ser uniforme en toda la red. Los mapas de direccionamiento ofrecen una instantánea de la red. Los mapas físicos de la red ayudan a diagnosticar las fallas de la red. Figura 4 Figura 5 Figura 6 146 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 7 La implementación de las VLAN combina las conmutación de Capa 2 y las tecnologías de enrutamiento de Capa 3 para limitar tanto los dominios de colisión como los dominios de broadcast. Las VLAN también ofrecen seguridad con la creación de grupos VLAN que se comunican con otras VLAN a través de routers. Figura 8 Una asociación de puerto físico se utiliza para implementar la asignación de VLAN. Los puertos P1, P4 y P6 han sido asignados a la VLAN 1. La VLAN 2 tiene los puertos P2, P3 y P5. La comunicación entre la VLAN1 y la VLAN2 se puede producir solamente a través del router. Esto limita el tamaño de los dominios de broadcast y utiliza el router para determinar si la VLAN 1 puede comunicarse con la VLAN 2. 147 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 9 Con esta sección se concluye la lección. En la lección siguiente se describen los switches de LAN. En la primera sección se describe el modelo de diseño jerárquico. 5.2 Switches de LAN 5.2.1 Descripción general de las LAN conmutadas y la capa de acceso La construcción de una LAN que satisfaga las necesidades tanto de las organizaciones medianas como grandes tiene muchas más probabilidades de ser exitosa si se utiliza un modelo de diseño jerárquico. En esta sección se analizan las tres capas del modelo de diseño jerárquico: • La capa de acceso proporciona a los usuarios de grupos de trabajo acceso a la red. • La capa de distribución brinda conectividad basada en políticas. • La capa núcleo proporciona transporte óptimo entre sitios. A la capa núcleo a veces se la denomina backbone. Figura 1 Este modelo jerárquico se aplica a cualquier diseño de red. Es importante darse cuenta de que estas tres capas pueden existir en entidades físicas claras y definidas. Sin embargo, éste no es un requisito. Estas capas se definen para ayudar a lograr un diseño de red exitoso y representan la funcionalidad que debe existir en una red. La capa de acceso es el punto de entrada para las estaciones de trabajo y los servidores de usuario a la red. En un campus LAN el dispositivo utilizado en la capa de acceso puede ser un switch o un hub. Si se utiliza un hub, se comparte el ancho de banda. Si se utiliza un switch, entonces el ancho de banda es dedicado. Si una estación de trabajo o un servidor se conecta directamente a un puerto de switch, entonces el ancho de banda completo de la conexión al switch está disponible para la computadora conectada. Si un hub se conecta a un puerto de switch, el ancho de banda se comparte entre todos los dispositivos conectados al hub. 148 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 Las funciones de la capa de acceso también incluyen el filtrado y la microsegmentación de la capa MAC. El filtrado de la capa MAC permite a los switches dirigir las tramas sólo hacia el puerto de switch que se encuentra conectado al dispositivo destino. El switch crea pequeños segmentos de Capa 2 denominados microsegmentos. El dominio de colisión puede ser tan pequeño como el equivalente a dos dispositivos. Los switches de Capa 2 se utilizan en la capa de acceso. Figura 3 La sección siguiente decribe los switches de capa de acceso. 5.2.2 Switches de capa de acceso En esta sección se explican las funciones de los switches de la capa de acceso. Los switches de la capa de acceso operan en la Capa 2 del modelo OSI y ofrecen servicios como el de asociación de VLAN. El principal propósito de un switch de capa de acceso es permitir a los usuarios finales el acceso a la red. Un switch de capa de acceso debe proporcionar esta funcionalidad con bajo costo y una alta densidad de puerto. Figura 1 Los siguientes switches Cisco se utilizan comúnmente en la capa de acceso: 149 MicroCisco - staky CCNA - Cisco Certified Network Associate • • • • • Serie Catalyst 1900 Serie Catalyst 2820 Serie Catalyst 2950 Serie Catalyst 4000 Serie Catalyst 5000 El switch de las series Catalyst 1900 ó 2820 es un dispositivo de acceso efectivo para redes de campus medias o pequeñas. El switch serie Catalyst 2950 ofrece acceso efectivo para servidores y usuarios que requieren un alto ancho de banda. Esto se logra con puertos de switch adaptados para Fast Ethernet. Los switches serie Catalyst 4000 y 5000 incluyen puertos Gigabit Ethernet y son dispositivos de acceso efectivos para una mayor cantidad de usuarios en redes de campus más grandes. Figura 2 En la sección siguiente se analiza la capa de distribución. 5.2.3 Descripción general de la capa de distribución En esta sección se describe la capa de distribución y su propósito. La capa de distribución de la red se encuentra entre las capas de acceso y núcleo. Ayuda a definir y separar el núcleo. El propósito de esta capa es ofrecer una definición fronteriza en la cual se puede llevar a cabo la manipulación de paquetes. Esta capa segmenta las redes en dominios de broadcast. Se pueden aplicar políticas y las listas de control de acceso pueden filtrar los paquetes. La capa de distribución aísla los problemas de red para los grupos de trabajo en los cuales se producen. La capa de distribución también evita que estos problemas afecten la capa núcleo. Los switches en esta capa operan en la Capa 2 y Capa 3. Figura 1 A continuación presentamos algunas de las funciones de la capa de distribución en una red conmutada: 150 MicroCisco - staky CCNA - Cisco Certified Network Associate • • • • • Unificación de las conexiones del armario de cableado Definición de dominio de broadcast/multicast Enrutamiento VLAN Cualquier transición de medio que deba producirse Seguridad La sección siguiente describe los switches de capa de distribución. 5.2.4 Switches de la capa de distribución En esta sección se explican las características y funciones de los switches de la capa de distribución. Los switches de la capa de distribución son los puntos de totalización de múltiples switches de la capa de acceso. El switch debe poder adecuarse al monto total del tráfico desde los dispositivos de la capa de acceso. El switch de la capa de distribución debe tener un alto rendimiento, dado que es un punto en el cual se encuentra delimitado el dominio de broadcast. La capa de distribución combina el tráfico VLAN y es un punto focal para las decisiones de política sobre flujo de tráfico. Por estas razones, los switches que residen en la capa de distribución operan tanto en la Capa 2 como en la Capa 3 del modelo OSI. Los switches en esta capa se conocen como switches multicapa. Estos switches multicapa combinan las funciones de un router y de un switch en un dispositivo. Están diseñados para conmutar el tráfico a fin de obtener un rendimiento mayor que el de un router estándar. Si no tienen un módulo de router asociado, entonces, se utiliza un router externo para la función de la Capa 3. Figura 1 Figura 2 Los siguientes switches de Cisco son adecuados para la capa de distribución: • Catalyst 2926G • Familia Catalyst 5000 • Familia Catalyst 6000 La sección siguiente describe la capa de núcleo. 5.2.5 Descripción general de la capa núcleo En esta sección se analizan las principales funciones de la capa núcleo. La capa núcleo es un backbone de conmutación de alta velocidad. Si no tienen un módulo de router asociado, se utiliza un router externo para la función de la Capa 3. Esta capa del diseño de red no debería realizar ninguna manipulación de paquete. La manipulación de paquetes, como por ejemplo el filtrado de la lista de acceso, desaceleraría la conmutación de paquetes. Una infraestructura central con rutas alternadas redundantes ofrece estabilidad a la red en caso de que se produzca una única falla del dispositivo. El núcleo se puede diseñar para utilizar la conmutación de Capa 2 o de Capa 3. Se pueden utilizar los switches ATM o Ethernet. 151 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 En la sección siguiente se analizan los switches de la capa núcleo. 5.2.6 Switches de la capa núcleo En esta sección se explican los requisitos básicos de los switches de la capa núcleo. La capa núcleo es el backbone de la red conmutada de campus. Los switches en esta capa pueden hacer uso de una serie de tecnologías de Capa 2. Teniendo en cuenta que la distancia entre los switches de la capa núcleo no es demasiado grande, los switches pueden usar la tecnología Ethernet. También se pueden utilizar otras tecnologías de Capa 2 como por ejemplo la conmutación de celdas ATM. En un diseño de red, la capa núcleo puede ser enrutada o de Capa 3. Los switches de capa núcleo están diseñados para ofrecer una funcionalidad de Capa 3 eficiente cuando sea necesario. Se deben tener en cuenta factores como por ejemplo la necesidad, el costo y el rendimiento antes de realizar una elección. Figura 1 Figura 2 Los siguientes switches de Cisco son adecuados para la capa núcleo: • Serie Catalyst 6500 • Serie Catalyst 8500 • Serie IGX 8400 • Lightstream 1010 Con esta sección se concluye la lección. En la sección siguiente se resumen los puntos principales de este módulo. Resumen En esta sección se resumen los temas analizados en este módulo. El diseño de LAN depende de los requisitos de cada organización pero generalmente se concentra en la funcionalidad, escalabilidad, facilidad de administración y adaptabilidad. Para que una LAN sea efectiva, se 152 CCNA - Cisco Certified Network Associate MicroCisco - staky la debe diseñar e implementar de acuerdo con una serie planificada de pasos sistemáticos. Los pasos requieren que los datos y requisitos se reúnan y analicen, que se implementen las capas 1, 2 y 3 y que todo se documente. A continuación, presentamos documentación de diseño LAN importante: • Mapa de topología de capa OSI • Mapa lógico de LAN • Mapa físico de la LAN • Planes de distribución • Mapa lógico de la VLAN • Mapa lógico de Capa 3 • Mapas de dirección Los temas de diseño de Capa 1 incluyen el tipo de cables que se deberán utilizar y la estructura general del cableado. Esto también incluye el estándar TIA/EIA-568-A para la configuración y conexión de los esquemas de cableado. Los tipos de medios de la Capa 1 incluyen el par trenzado no blindado (UTP) o el par trenzado blindado (STP) Categoría 5, 5e o 6 10/100BASE-TX y el cable de fibra óptica 100BaseFX. El diagrama lógico de la LAN incluye las ubicaciones y la identificación de los armarios de cableado MDF e IDF, el tipo y la cantidad de cables utilizados para interconectar los IDF con el MDF, y la cantidad de cables de repuesto disponibles para aumentar el ancho de banda entre los armarios de cableado. Los dispositivos de Capa 2 ofrecen control de flujo, detección de errores, corrección de errores y reducción de la congestión en la red. Los puente y switches LAN son los dos dispositivos de red de capa 2 más comunes. La microsegmentación de la red reduce el tamaño de los dominios de colisión y reduce las colisiones. Los routers son dispositivos de la Capa 3 que se pueden utilizar para crear segmentos LAN únicos. Permiten la comunicación entre los segmentos basados en las direcciones de Capa 3, como por ejemplo direcciones IP. La implementación de los dispositivos de Capa 3 permite la segmentación de la LAN en redes lógicas y físicas exclusivas. Los routers también permiten la conectividad a las WAN como, por ejemplo, Internet. La implementación de las VLAN combina las conmutación de Capa 2 y las tecnologías de enrutamiento de Capa 3 para limitar tanto los dominios de colisión como los dominios de broadcast. Las VLAN también se pueden utilizar para ofrecer seguridad creando grupos de VLAN según la función y utilizando routers para comunicarse entre las VLAN. El modelo de diseño jerárquico incluye tres capas. La capa de acceso proporciona a los usuarios de grupos de trabajo acceso a la red. La capa de distribución brinda conectividad basada en políticas. La capa núcleo proporciona transporte óptimo entre sitios. A la capa núcleo a veces se la denomina backbone. Los switches de la capa de acceso operan en la Capa 2 del modelo OSI y ofrecen servicios como el de asociación de VLAN. El principal propósito de un switch de capa de acceso es permitir a los usuarios finales el acceso a la red. Un switch de capa de acceso debe proporcionar esta funcionalidad con bajo costo y una alta densidad de puerto. El switch de la capa de distribución es un punto en el cual se encuentra delimitado el dominio de broadcast. La capa de distribución combina el tráfico VLAN y es un punto focal para las decisiones de política sobre flujo de tráfico. Por estas razones, los switches de la capa de distribución operan tanto en la Capa 2 como en la Capa 3 del modelo OSI. Los switches en esta capa se conocen como switches multicapa. La capa núcleo es un backbone de conmutación de alta velocidad. Esta capa del diseño de red no debería realizar ninguna manipulación de paquete. La manipulación de paquetes, como por ejemplo el filtrado de la lista de acceso, desaceleraría la conmutación de paquetes. Una infraestructura central con rutas alternadas redundantes ofrece estabilidad a la red en caso de que se produzca una única falla del dispositivo. 153 CCNA - Cisco Certified Network Associate 154 MicroCisco - staky CCNA - Cisco Certified Network Associate MicroCisco - staky Módulo 6: Configuración del switch Descripción general Un switch es un dispositivo de red de Capa 2 que actúa como punto de concentración para la conexión de estaciones de trabajo, servidores, routers, hubs y otros switches. Un hub es un tipo más antiguo de dispositivo de concentración que también dispone de varios puertos. Sin embargo, los hubs son inferiores a los switches dado que todos los dispositivos conectados a un hub comparten el ancho de banda y tienen el mismo dominio de colisión. Otra desventaja de los hubs es que sólo operan en modo half-duplex. En modo half-duplex, los hubs sólo pueden enviar o recibir datos en determinado momento pero no pueden hacer las dos cosas al mismo tiempo. Los switches pueden operar en modo full-duplex, lo que significa que pueden enviar y recibir datos simultáneamente. Los switches son puentes multipuerto. Los switches pertenecen a la tecnología estándar actual de las LAN Ethernet que utilizan una topología en estrella. Un switch ofrece varios circuitos virtuales punto a punto dedicados entre los dispositivos de red conectados, de manera que es poco probable que se produzcan colisiones. Debido a la función dominante de los switches en las redes modernas, la capacidad para comprender y configurar switches es esencial para la asistencia técnica de la red. Los nuevos switches tienen una configuración preestablecida con valores de fábrica. Esta configuración rara vez cumple con las necesidades de los administradores de red. Los switches se pueden configurar y administrar desde una interfaz de línea de comando (CLI). Los dispositivos de red también se pueden configurar y administrar a través de una interfaz y un navegador basados en web. Los administradores de red deben familiarizarse con todas las tareas relacionadas con la administración de redes con switches. Algunas de estas tareas incluyen el mantenimiento del switch y de su IOS. Otras tareas incluyen la administración de interfaces y tablas para lograr una operación óptima, confiable y segura. La configuración básica del switch, las actualizaciones de IOS y la recuperación de contraseñas son capacidades esenciales del administrador de red. Este módulo abarca algunos de los objetivos de los exámenes CCNA 640-801 e ICND 640-811. Los estudiantes que completen este módulo deberán ser capaces de realizar las siguientes tareas: • Identificar los principales componentes de un switch Catalyst • Controlar la actividad y el estado del switch con el uso de indicadores LED • Examinar el resultado del arranque del switch utilizando HyperTerminal • Usar las funciones de ayuda en la interfaz de línea de comando • Enumerar los principales modos de comando del switch • Verificar las configuraciones por defecto de un switch Catalyst • Establecer una dirección IP y un gateway por defecto para el switch para permitir la conexión y administración dentro de una red • Visualizar las configuraciones de switch con un navegador de Web • Configurar las interfaces para la operación duplex y velocidad • Examinar y administrar la tabla de direcciones MAC del switch • Configurar la seguridad del puerto • Administrar los archivos de configuración y las imágenes de IOS • Realizar la recuperación de contraseña en un switch • Actualizar el IOS de un switch 6.1 Arranque del switch 6.1.1 Arranque físico del switch Catalyst En esta sección se explican las características, funciones y el arranque de los switches. Los switches son computadoras dedicadas y especializadas que contienen una unidad de procesamiento central (CPU), memoria de acceso aleatorio (RAM), y un sistema operativo. Como se ve en la Figura , los switches generalmente poseen varios puertos a los cuales los hosts se pueden conectar así como puertos 155 MicroCisco - staky CCNA - Cisco Certified Network Associate especializados para fines de administración. Los switches se pueden administrar y la configuración se puede visualizar y cambiar mediante el puerto de consola. Los switches generalmente no tienen interruptores para encenderlos o apagarlos. Simplemente se conectan o se desconectan de una fuente de energía eléctrica. Figura 1 En la Figura aparecen algunos switches de la serie Cisco Catalyst 2900. Existen modelos de 12 puertos, 24 puertos y 48 puertos. Los dos switches principales en la Figura son switches simétricos de configuración fija que ofrecen FastEthernet en todos los puertos o una combinación de puertos de 10Mbps y 100Mbps. Los siguientes tres switches son modelos asimétricos con dos puertos fijos Gigabit Ethernet de fibra o cobre. Los cuatro switches de la parte inferior son modelos asimétricos con ranuras modulares de Convertidor de Interfaz Gigabit (GBIC), que pueden alojar una serie de opciones de medios de cobre y de fibra. En la sección siguiente se analizan los indicadores LED de un switch. 6.1.2 Indicadores LED del switch Figura 1 156 MicroCisco - staky CCNA - Cisco Certified Network Associate El panel frontal de un switch tiene varias luces que ayudan a controlar la actividad y desempeño del sistema. Esas luces se llaman diodos emisores de luz (LED). En esta sección se analizan los LED que se encuentran en la parte frontal de un switch: • LED del sistema • LED de suministro remoto de energía (RPS) • LED de modo de puerto • LED de estado de puerto El LED del sistema analiza si el sistema está recibiendo energía y está funcionando correctamente. El LED RPS indica si se está utilizando o no el suministro de energía remota. Los LED de modo indican el estado del botón Mode (Modo). Los modos se utilizan para determinar de qué manera se interpretan los LED de estado de puerto. Para seleccionar o cambiar el modo de puerto, presione el botón Mode (Modo) reiteradas veces hasta que los LED de modo indiquen el modo deseado. En la Figura se describen los colores del LED de estado de puerto dado que estos dependen del valor de los LED de modo. En la sección siguiente se explica de qué manera los LED se utilizan para verificar la funcionalidad de un switch. 6.1.3 Verificación de los LED de puerto durante la ejecución de una POST de switch En esta sección se explica de qué manera se pueden utilizar los LED para determinar si un switch funciona correctamente y ha establecido un enlace con su objetivo. Una vez que se conecta el cable de energía eléctrica, el switch inicia una serie de pruebas denominadas Autocomprobación de Encendido (POST). POST se ejecuta automáticamente para verificar que el switch funcione correctamente. El LED del sistema indica el éxito o falla de la POST. Si el LED del sistema está apagado pero el switch está enchufado, entonces POST está funcionando. Si el LED del sistema está verde, entonces la POST fue exitosa. Si el LED del sistema está ámbar, entonces la POST falló. La falla de la POST se considera como un error fatal. No se puede esperar que el switch funcione de forma confiable si la POST falla. Los LED de estado de puerto también cambian durante el proceso de POST. Los LED de estado de puerto se vuelven ámbar durante unos 30 segundos mientras el switch detecta la topología de red y busca loops. Si los LED de estado de puerto se ponen verdes, esto significa que el switch ha establecido un enlace entre el puerto y el objetivo, como por ejemplo, una computadora. Si los LED de estado de puerto se desactivan, el switch determina que nada se encuentra conectado. Figura 1 En la sección siguiente se enseña a los estudiantes a establecer una sesión de comunicación con un switch. 6.1.4 Visualización del resultado de arranque inicial desde el switch En esta sección se explica de qué manera se puede usar HyperTerminal para verificar y configurar un switch. Para poder configurar o verificar el estado de un switch, conecte una computadora al switch para establecer una sesión de comunicación. Utilice un cable transpuesto (rollover) para conectar el puerto de consola de la parte trasera del switch a un puerto COM en la parte trasera de la computadora. 157 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Primero debe otorgarse un Inicie HyperTerminal en la computadora. Aparece una ventana de diálogo. nombre a la conexión al configurar por primera vez la comunicación de HyperTerminal con el switch. Seleccione el puerto COM al cual el switch está conectado desde el menú desplegable y haga clic en el botón OK. Aparece otra ventana de diálogo. Establezca los parámetros tal como aparecen en la Figura y haga clic en el botón OK. Figura 2 Figura 3 Figura 4 158 MicroCisco - staky CCNA - Cisco Certified Network Associate Conecte el switch al tomacorriente. El resultado del arranque inicial desde el switch debe aparecer en la pantalla de HyperTerminal. Este resultado muestra información sobre el switch, detalles sobre el estado de la POST y datos de hardware del switch. Una vez que el switch ha arrancado y completado la POST, aparecen indicadores de diálogo de Configuración del Sistema. El switch se puede configurar manualmente con o sin ayuda del diálogo de Configuración del Sistema. El diálogo de Configuración del Sistema del switch es mucho más simple que el de los routers. En la sección siguiente se explica cómo se utiliza el comando help en los switch Cisco. 6.1.5 Examinando el comando help en la CLI del switch En esta sección se explica de qué manera el comando help se utiliza en la CLI de los switches Cisco. La CLI de los switches Cisco es muy similar a la CLI de los routers Cisco. Introduzca un signo de interrogación (?) para emitir el comando help. Cuando se introduce este comando en el indicador del sistema, aparece una lista de comandos disponibles para el modo de comandos actual. Figura 1 El comando help es muy flexible. Para obtener una lista de comandos que empiecen con una determinada secuencia de caracteres, introduzca estos caracteres seguidos inmediatamente por el signo de interrogación (?). No introduzca ningún espacio antes del signo de interrogación. Esta forma de ayuda se denomina ayuda de palabra, porque completa una palabra. Para mostrar palabras clave o argumentos asociados a un determinado comando, introduzca una o más palabras asociadas con el comando, seguidas de un espacio y luego un signo de interrogación (?). Esta forma de ayuda se denomina ayuda de sintaxis de comando, porque indica palabras clave o argumentos aplicables basados en un comando parcial. En la sección siguiente se analizan los modos de comando del switch. 6.1.6 Modos de comando de los switch En esta sección sea analizan dos modos de comando de switch. El modo por defecto es el modo EXEC usuario. El modo EXEC usuario se reconoce por su indicador, que termina en un carácter de "mayor que" (>). Los comandos disponibles en el modo EXEC usuario se limitan a los que cambian las configuraciones de terminal, realizan pruebas básicas y muestran información del sistema. La Figura describe los comandos show que están disponibles en el modo EXEC usuario. El comando enable se utiliza para entrar al modo EXEC privilegiado desde el modo EXEC usuario. El modo EXEC privilegiado también se reconoce por su indicador, que termina con el carácter numeral (#). El conjunto de comandos del modo EXEC privilegiado incluye el comando configure así como todos los 159 MicroCisco - staky CCNA - Cisco Certified Network Associate comandos del modo EXEC usuario. El comando configure permite el acceso a otros modos de comando. Dado que estos modos se utilizan para configurar el switch, el acceso al modo EXEC privilegiado debe protegerse con contraseña para evitar el uso no autorizado. Si se establece una contraseña, se le solicita a los usuarios que introduzcan esa contraseña para poder acceder al modo EXEC privilegiado. La contraseña no aparece en pantalla y distingue entre mayúsculas y minúsculas. Figura 1 Con esta sección se concluye la lección. En la sección siguiente se explica de qué manera se configura un switch. En la sección siguiente se analiza la configuración por defecto. 6.2 Configuración del switch 6.2.1 Verificación de la configuración por defecto de un switch Catalyst En esta sección se explica a los estudiantes la configuración por defecto de un switch y cómo verificarla. Al encenderse por primera vez, un switch tiene datos por defecto en el archivo de configuración activo. El nombre de host por defecto es Switch. No se establece ninguna contraseña en las líneas del terminal de consola o virtual (vty). Figura 1 160 MicroCisco - staky CCNA - Cisco Certified Network Associate Se le puede otorgar al switch una dirección IP para fines de administración. Esto se configura en la interfaz virtual, VLAN 1. Por defecto, el switch no tiene dirección IP. Los puertos o interfaces del switch se establecen en modo automático y todos los puertos de switch están en VLAN 1. VLAN 1 se conoce como la VLAN de administración por defecto. Figura 2 Figura 3 El directorio flash por defecto tiene un archivo que contiene la imagen IOS, un archivo llamado env_vars y un subdirectorio llamado html. Una vez que se configura el switch, el directorio flash contiene un archivo con el nombre config.text así como una base de datos de VLAN. Como se ve en la Figura , el directorio flash no contiene el archivo config.text ni una base de datos de VLAN con el nombre vlan.dat. La versión del IOS y los parámetros de registro de configuración se pueden verificar con el comando show version. En este estado por defecto, el switch tiene un dominio de broadcast y se puede usar la CLI para administrar y configurar el switch a través del puerto de consola. El protocolo Spanning-Tree también se habilita y permite que el puente pueda construir una topología sin loops a través de una LAN extendida. Para pequeñas redes, la configuración por defecto puede ser suficiente. Los beneficios de un mejor rendimiento con microsegmentación se obtienen inmediatamente. 161 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 4 Figura 5 Las Actividades de Laboratorio permitirán a los estudiantes verificar las configuraciones por defecto de dos switches Cisco serie 2900. En la sección siguiente se explica de qué manera se configura un switch. 6.2.2 Configuración del switch Catalyst En esta sección se enseñará a los estudiantes a realizar la configuración de un switch. Es posible que un switch ya esté preconfigurado y sólo deban introducirse contraseñas para los modos EXEC usuario o EXEC privilegiado. Se entra al modo de configuración de un switch desde el modo EXEC privilegiado. En la CLI, el indicador del modo EXEC privilegiado por defecto es Switch#. En el modo EXEC usuario el indicador es Switch>. Los siguientes pasos permitirán que una nueva configuración se sobrescriba completamente a la configuración actual: • Para eliminar la información de VLAN actual, borre el archivo de la base de datos VLAN, denominado vlan.dat, del directorio flash • Borre el archivo de configuración de respaldo con el nombre startup-config • Reinicie el switch con el comando reload 162 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 La seguridad, la documentación y la administración son importantes para cada dispositivo de red. Al switch se le debe otorgar un nombre de host y se deben establecer contraseñas en las líneas de consola y vty. Figura 2 Para permitir que Telnet y otras aplicaciones TCP/IP puedan acceder al switch, se deberán establecer Por defecto, la VLAN 1 es la VLAN de administración. En una direcciones IP y un gateway por defecto. red basada en switch, todos los dispositivos de red deberían estar en la VLAN de administración. Esto permite que una sola estación de trabajo de administración acceda, configure y administre todos los dispositivos de red. Los puertos de switch Fast Ethernet se establecen por defecto con velocidad y duplex automáticos. Esto permite a las interfaces negociar estos parámetros. Los administradores de red pueden configurar manualmente los valores de velocidad y duplex de interfaz, de ser necesario. Algunos dispositivos de red pueden ofrecer una interfaz basada en Web con fines de configuración y administración. Una vez que se configura un switch con una dirección IP y gateway, se puede acceder a éste de la siguiente manera. Un navegador de web puede acceder a este servicio utilizando la dirección IP y el puerto 80, el puerto por defecto de http. El servicio HTTP se puede activar o desactivar y se puede elegir la dirección de puerto para el servicio. 163 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 3 Figura 4 Figura 5 164 MicroCisco - staky CCNA - Cisco Certified Network Associate Cualquier software adicional, como por ejemplo un applet, se puede descargar al navegador desde el switch. Además, la red se puede administrar a través de una interfaz de usuario gráfico basada en navegador (GUI). Figura 6 Figura 7 Las actividades de laboratorio ayudarán a los estudiantes a familiarizarse con la configuración básica de un switch. 165 MicroCisco - staky CCNA - Cisco Certified Network Associate En la siguiente sección se tratarán las tablas de direcciones MAC. 6.2.3 Administración de la tabla de direcciones MAC En esta sección se explica de qué manera los switches crean y administran las tablas de direcciones MAC. Los switches examinan la dirección origen de las tramas que se reciben en los puertos para aprender la dirección MAC de las estaciones de trabajo o las PC conectadas a estos. Estas direcciones MAC aprendidas se registran luego en una tabla de direcciones MAC. Las tramas que tienen una dirección MAC destino, que se ha registrado en la tabla, se pueden conmutar hacia la interfaz correcta. El comando show mac-address-table se puede introducir en el modo EXEC privilegiado para examinar las direcciones que un switch ha aprendido. Figura 1 Un switch aprende en forma dinámica y mantiene miles de direcciones MAC. Para preservar la memoria y para una operación optima del switch, las entradas aprendidas se pueden descartar de la tabla de direcciones MAC. Es posible que se hayan eliminado máquinas de un puerto, se hayan apagado o trasladado a otro puerto en el mismo switch o en un switch diferente. Esto puede provocar confusión al momento de enviar las tramas. Por todas estas razones, si no se ven tramas con una dirección aprendida anteriormente, la entrada de direcciones MAC se descarta automáticamente o expiran después de 300 segundos. Figura 2 166 MicroCisco - staky CCNA - Cisco Certified Network Associate En lugar de esperar que una entrada dinámica expire, los administradores de red pueden utilizar el comando clear mac-address-table en el modo EXEC privilegiado. Las entradas de direcciones MAC configuradas por los administradores de red también se pueden eliminar con este comando. Este método para borrar entradas de tabla permite eliminar de forma inmediata las direcciones no válidas. En las Actividades de Laboratorio se enseña a los estudiantes cómo crear una configuración básica de switch y cómo administrar la tabla de direcciones MAC. En la sección siguiente se analizan las direcciones MAC estáticas. 6.2.4 Configuración de direcciones MAC En esta sección se explica de qué manera se configuran las direcciones MAC estáticas en un switch Catalyst 2900. Se puede asignar una dirección MAC a una interfaz de forma permanente. A continuación presentamos algunas razones para asignar una dirección MAC permanente a una interfaz: • El switch no hace expirar automáticamente la dirección MAC. • Se deberá conectar una estación de trabajo de servidor o de usuario específica al puerto y se debe conocer la dirección MAC. • Se mejora la seguridad. Se puede utilizar el siguiente comando para configurar una dirección MAC estática para un switch: Switch(config)#mac-address-table number> vlan <vlan name> static <mac-address of host> interface FastEthernet <Ethernet Se puede utilizar el siguiente comando para eliminar una dirección MAC estática para un switch: Switch(config)#no mac-address-table static <mac-address of host> interface FastEthernet <Ethernet number> vlan <vlan name> Figura 1 En las Actividades de Laboratorio, los estudiantes deberán configurar las direcciones MAC estáticas. En la sección siguiente se analiza la seguridad de los puertos. 6.2.5 Configuración de seguridad de puerto En esta sección se explica por qué la seguridad de puerto es importante y de qué manera se la configura en un switch Catalyst 2900. La seguridad de la red es una responsabilidad importante para los administradores de red. Se puede acceder a los puertos de switch de la capa de acceso a través de los conectores de red del cableado 167 MicroCisco - staky CCNA - Cisco Certified Network Associate estructurado. Cualquier persona puede enchufar una PC o computadora portátil a uno de esos conectores de red. Éste es un posible punto de entrada a la red por parte de usuarios no autorizados. Los switches ofrecen una función que se conoce como seguridad de puertos. Es posible limitar la cantidad de direcciones que se pueden aprender en una interfaz. El switch se puede configurar para realizar una acción si ésta se supera. Las direcciones MAC seguras se pueden configurar de forma estática. Sin embargo, la tarea de configurar direcciones MAC seguras es compleja y por lo general con una elevada tendencia a los errores. Figura 1 Un enfoque alternativo es establecer una seguridad de puertos en una interfaz de switch. La cantidad de direcciones MAC por puerto se puede limitar a 1. La primera dirección aprendida de forma dinámica por el switch se convierte en dirección segura. Para revertir la seguridad del puerto en una interfaz utilice la forma no del comando . Para verificar el estado de seguridad de un puerto, se utiliza el comando show port security. En las Actividades de Laboratorio se muestra a los estudiantes cómo configurar la seguridad de puerto en un switch. En la sección siguiente se analizan algunas otras configuraciones de switch. 6.2.6 Cómo agregar, mover y cambiar En esta sección se analizan algunos elementos que deben configurarse antes de agregar un switch a una red. A continuación, presentamos algunos parámetros que deben configurarse en un nuevo switch que se agrega a una red: • Nombre del switch • Dirección IP del switch en la VLAN de administración • Un gateway por defecto • Contraseñas de línea Cuando un host se desplaza de un puerto o de un switch a otro, deben eliminarse las configuraciones que pueden provocar comportamientos inesperados. Entonces se puede reconfigurar el switch para reflejar los cambios. En las Actividades de Laboratorio se enseña a los estudiantes a agregar, mover y cambiar las direcciones MAC en un switch. 168 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Figura 2 En la sección siguiente se analiza la copia de seguridad de los archivos de configuración de switch. 6.2.7 Administración del archivo del sistema operativo del switch En esta sección se enseña a los estudiantes cómo documentar y mantener los archivos de configuración operacional de los dispositivos de red. Los administradores de red deben documentar y mantener los archivos de configuración operacional de los dispositivos de red. Debe realizarse una copia de seguridad del archivo de configuración actual en un 169 MicroCisco - staky CCNA - Cisco Certified Network Associate servidor o en un disco. Esta documentación no sólo es esencial sino también muy útil en caso de que se necesite restaurar la configuración. Figura 1 También debe realizarse una copia de seguridad del IOS en un servidor local. Entonces se puede recargar el IOS en la memoria flash si es necesario. En la Actividad de Laboratorio se muestra a los estudiantes como crear, verificar, realizar una copia de seguridad y restaurar una configuración básica de switch. En la sección siguiente se analiza la recuperación de contraseñas. 6.2.8 Recuperación de contraseña 1900/2950 En esta sección se analiza la importancia de las contraseñas y se explica de qué manera se las puede recuperar. Con fines de seguridad y administración, se deben establecer contraseñas en las líneas de consola y vty. También se debe establecer una contraseña enable y una contraseña enable secret. Estas prácticas ayudan a garantizar que sólo los usuarios autorizados tengan acceso a los modos EXEC usuario y privilegiado del switch. En ciertas circunstancias es posible que se produzca acceso físico al switch, pero no pueda accederse al modo EXEC usuario o privilegiado debido a que las contraseñas no se conocen o se han olvidado. Figura 1 En estas circunstancias, se deberá seguir un procedimiento de recuperación de contraseña. En las Actividades de Laboratorio se muestra a los estudiantes cómo recuperar una contraseña en un switch serie Catalyst 2900. En la sección siguiente se analizan las actualizaciones el IOS y el firmware. 6.2.9 Actualización de firmware 1900/2950 En esta sección se explica el propósito de las actualizaciones del IOS y el firmware y de qué manera se realizan. Se lanzan periódicamente imágenes del SO y firmware , con reparación de problemas, introducción de nuevas funciones y mejora del desempeño. Si la red puede quedar más segura, o se puede operar con mayor eficiencia con una nueva versión del IOS, entonces debe actualizarse el IOS. Figura 1 170 CCNA - Cisco Certified Network Associate MicroCisco - staky Para actualizar el IOS, descargue una copia de la nueva imagen en un servidor local desde el Centro de Software Cisco Connection Online (CCO). En las Actividades de Laboratorio se muestra a los estudiantes cómo actualizar el firmware de un switch. Con esta sección se concluye la lección. En la sección siguiente se resumen los puntos principales de este módulo. Resumen En esta sección se resumen los temas analizados en este módulo. Los switches son similares a los routers. Tienen componentes informáticos básicos que incluyen CPU, RAM y un sistema operativo. Existen varios puertos que se utilizan para conectar hosts y otros puertos con fines de administración. Los LED en la parte delantera del switch muestran el estado del sistema, RPS, el modo de puerto y el estado del puerto. Cuando se conecta un switch este realiza la POST automáticamente para verificar que el switch funcione correctamente. Se puede utilizar HyperTerminal para configurar o verificar el estado de un switch. Otra similitud con los routers Cisco es la CLI. Introduzca un signo de interrogación (?) para acceder a la ayuda. Aparece una serie de comandos disponibles. Los switches ofrecen ayuda de sintaxis de comando y ayuda de palabra. Los switches y los routers tienen los mismos modos de comando. El modo EXEC usuario es el modo por defecto y está indicado por el carácter "mayor que" (>). El comando enable cambia el modo EXEC usuario por el EXEC privilegiado como lo indica el numeral (#). El acceso al modo EXEC privilegiado debe estar protegido con contraseña para evitar el uso no autorizado. El comando configure permite el acceso a otros modos de comando. Los datos por defecto se suministran cuando el switch se conecta por primera vez. Para fines de administración, se asigna una dirección IP a un switch. Use el comando show version para verificar la versión del IOS y los parámetros de registro de configuración. Una vez que se configura un switch con una dirección IP y un gateway se puede acceder a él a través de una interfaz basada en web. Esto permite la configuración y la administración del switch. Este servicio se puede acceder a través de un navegador de web con la dirección IP y el puerto 80, el puerto por defecto de http. Un switch aprende en forma dinámica y mantiene miles de direcciones MAC. Si no se reciben las tramas con una dirección previamente aprendida la entrada de la dirección MAC se descarta automáticamente o expira después de 300 segundos. El comando clear mac-address-table en el modo EXEC privilegiado se puede utilizar para despejar manualmente las tablas de direcciones. Una dirección MAC permanente asignada a una interfaz permite evitar que el switch haga expirar automáticamente la dirección MAC y permite mejorar la seguridad. El comando mac-address-table static <mac-address of host> interface FastEthernet <Ethernet number> vlan <vlan name > se puede utilizar para configurar una dirección MAC estática. Utilice la forma no de este comando para eliminarla. El comando show port security se puede utilizar para verificar la seguridad del puerto. Se deben configurar el nombre del switch, la dirección IP, el gateway por defecto y las contraseñas de línea en un nuevo switch que se agrega a una red. Cuando un host se desplaza de un puerto o de un switch a otro, deben eliminarse las configuraciones que pueden provocar comportamientos inesperados. Se debe mantener actualizada la documentación de la configuración y además se deben realizar periódicamente copias de seguridad en un servidor o en un disco. 171 CCNA - Cisco Certified Network Associate 172 MicroCisco - staky CCNA - Cisco Certified Network Associate MicroCisco - staky Módulo 7: Protocolo Spanning-Tree Descripción general La redundancia en una red es fundamental. Permite que las redes sean tolerantes a las fallas. Las topologías redundantes proporcionan protección contra el tiempo de inactividad, o no disponibilidad, de la red El tiempo de inactividad puede deberse a la falla de un solo enlace, puerto o dispositivo de red. Los ingenieros de red a menudo deben equilibrar el costo de la redundancia con la necesidad de disponibilidad de la red. Las topologías redundantes basadas en switches y puentes son susceptibles a las tormentas de broadcast, transmisiones de múltiples tramas e inestabilidad de la base de datos de direcciones MAC: Estos problemas pueden inutilizar la red Por lo tanto, la redundancia se debe planificar y supervisar cuidadosamente. Las redes conmutadas brindan las ventajas de dominios de colisión más pequeños, microsegmentación y operación full duplex. Las redes conmutadas brindan un mejor rendimiento. La redundancia en una red es necesaria para protegerla contra la pérdida de conectividad debido a la falla de un componente individual. Sin embargo, esta medida puede dar como resultado topologías físicas con loops. Los loops de la capa física pueden causar problemas graves en las redes conmutadas. El protocolo Spanning-Tree se usa en redes conmutadas para crear una topología lógica sin loops a partir de una topología física con loops. Los enlaces, puertos y switches que no forman parte de la topología activa sin loops no envían tramas de datos. El protocolo Spanning Tree es una herramienta poderosa que le otorga a los administradores de red la seguridad de contar con una topología redundante sin que exista el riesgo de que se produzcan problemas provocados por los loops de conmutación. Este módulo abarca algunos de los objetivos de los exámenes CCNA 640-801 e ICND 640-811. Los estudiantes que completen este módulo deberán ser capaces de realizar las siguientes tareas: • Definir la redundancia y su importancia en networking • Describir los elementos claves de una topología de red redundante. • Definir las tormentas de broadcast y su impacto en las redes conmutadas. • Definir las transmisiones múltiples de trama y su impacto en las redes conmutadas. • Identificar las causas y los resultados de la inestabilidad de la base de datos de direcciones MAC. • Identificar las ventajas y los riesgos de una topología redundante. • Describir el rol del spanning tree en una red conmutada con rutas redundantes. • Identificar los elementos clave de la operación del spanning tree • Describir el proceso para la selección del puente raíz. • Enumerar los estados del spanning tree en orden • Comparar el protocolo Spanning Tree y el Protocolo Rapid Spanning Tree 7.1 Topologías redundantes 7.1.1 Redundancia En esta sección se explica cómo la redundancia puede mejorar la confiabilidad y el rendimiento de la red. Muchas empresas y organizaciones dependen cada vez más de las redes informáticas para realizar sus operaciones. El acceso a los servidores de archivo, bases de datos, Internet, redes internas y redes externas es fundamental para las empresas exitosas. Si la red está fuera de servicio, la productividad y la satisfacción del cliente disminuyen. Cada vez más, las empresas requieren disponibilidad de red, o tiempo de actividad, continuo. Probablemente sea imposible obtener un tiempo de actividad del 100 por ciento, pero varias organizaciones intentan alcanzar un tiempo de actividad del 99,999 por ciento, o de "cinco nueves". Es necesario contar con redes altamente confiables para lograr este objetivo. Esto significa una hora de inactividad como promedio cada 4.000 días, o aproximadamente 5,25 minutos de tiempo de inactividad por año. Para lograr este objetivo, se necesitan redes sumamente confiables. 173 MicroCisco - staky CCNA - Cisco Certified Network Associate La confiabilidad de red se logra con equipos y diseños de red confiables que sean tolerantes a las fallas. Las redes deben estar diseñadas para reconverger rápidamente de modo que la falla se pase por alto. La Figura 1 muestra la redundancia. Suponga que se debe usar un automóvil para llegar al lugar donde uno trabaja. Si el automóvil tiene un desperfecto que hace que no se pueda utilizar, es imposible usar el automóvil para ir hasta el trabajo hasta que se lo repare. Si el automóvil no se puede utilizar debido a un desperfecto uno de cada diez días, el promedio de uso del automóvil es del noventa por ciento. Por lo tanto, la confiabilidad también es del 90 por ciento. El problema se puede solucionar con un segundo automóvil. No es necesario tener dos automóviles sólo para ir a trabajar. Sin embargo, proporciona redundancia o respaldo en caso que el vehículo principal sufra un desperfecto. La capacidad de llegar al trabajo ya no depende de un solo automóvil. Ambos automóviles pueden sufrir un desperfecto simultáneamente, un día cada 100. El segundo automóvil aumenta la confiabilidad a un 99 por ciento. Figura 1 En la sección siguiente se analizan las topologías redundantes. 7.1.2 Topologías redundantes En esta sección se explica el concepto y las ventajas de una topología redundante. Uno de los objetivos de las topologías redundantes es eliminar las interrupciones del servicio de la red provocadas por un único punto de falla. Todas las redes necesitan redundancia para brindar mayor confiabilidad. Una red de carreteras es un ejemplo global de topología redundante. Si una carretera se cierra por reparaciones, es probable que haya una ruta alternativa hacia el destino. Figura 1 174 MicroCisco - staky CCNA - Cisco Certified Network Associate Suponga que una comunidad está separada del centro de la ciudad por un río. Si sólo hay un puente que cruza el río, hay sólo un camino para llegar hasta la ciudad. La topología no tiene redundancia. Figura 2 Figura 3 Si el puente sufre daños a causa de un accidente o una inundación, es imposible llegar hasta el centro de la ciudad cruzando el puente. Un segundo puente que cruce el río crea una topología redundante. El suburbio ya no queda aislado del centro de la ciudad si resulta imposible utilizar uno de los puentes. Figura 4 Figura 5 En la sección siguiente se describen las topologías redundantes conmutadas. 7.1.3 Topologías conmutadas redundantes En esta sección se explica cómo operan los switches en una topología redundante. Las redes que tienen rutas y dispositivos redundantes permiten más tiempo de actividad de la red. Las topologías redundantes eliminan los puntos únicos de falla. Si una ruta o un dispositivo fallan, la ruta o el dispositivo redundante pueden asumir las tareas ejecutadas por la ruta o el dispositivo que ha fallado. Si el Switch A falla, el tráfico puede continuar fluyendo desde el Segmento 2 al Segmento 1 y al router a través del Switch B. Los switches aprenden las direcciones MAC de los dispositivos en sus puertos de modo que los datos se puedan enviar correctamente al destino. Los switches inundan tramas hacia destinos desconocidos hasta que aprenden la dirección MAC de los dispositivos. También se inunda con broadcasts y multicasts. 175 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Figura 2 Una topología conmutada redundante puede provocar tormentas de broadcast, copias de múltiples tramas y problemas de inestabilidad en la tabla de direcciones MAC. En la sección siguiente se analizan las tormentas de broadcast. 7.1.4 Tormentas de broadcast En esta sección se explican los efectos de los broadcasts y los multicasts en una red conmutada. Los switches consideran a los multicasts como si fueran broadcasts. Las tramas de broadcast y multicast se envían por inundación desde todos los puertos, salvo el puerto que recibió la trama. Figura 1 176 MicroCisco - staky CCNA - Cisco Certified Network Associate Si el Host X envía un broadcast como, por ejemplo, una petición ARP para la dirección de Capa 2 del router, el Switch A envía el broadcast desde todos los puertos. El Switch B, al estar en el mismo segmento, también envía todos los broadcasts. El Switch B recibe todos los broadcasts que el Switch A ha enviado y el Switch A recibe todos los broadcasts que el Switch B ha enviado. El Switch A envía los broadcasts que recibió del Switch B. El Switch B envía todos los broadcasts que recibió del Switch A. Los switches siguen propagando tráfico de broadcast una y otra vez. Esto se denomina tormenta de broadcast. Esta tormenta de broadcast se mantendrá hasta que uno de los switches se desconecta. Dado que los broadcasts necesitan tiempo y recursos de red para su procesamiento, reducen el flujo de tráfico de usuario. La red parecerá estar inactiva o extremadamente lenta. En la sección siguiente se analizan las transmisiones de tramas múltiples. 7.1.5 Transmisiones de tramas múltiples En esta sección se explican las transmisiones de tramas múltiples en una red conmutada redundante. Figura 1 Suponga que el límite de tiempo de la dirección MAC del Router Y se vence en ambos switches. También suponga que el Host X todavía tiene la dirección MAC del Router Y en su caché ARP y envía una trama unicast al Router Y. El router recibe la trama dado que está en el mismo segmento que el Host X. El Switch A no tiene la dirección MAC del Router Y y, por lo tanto, inunda la trama desde sus puertos. El Switch B tampoco conoce cuál es el puerto en que se encuentra el Router Y. El Switch B inunda la trama que ha recibido. Esto hace que el Router Y reciba múltiples copias de la misma trama. Esto se debe al uso innecesario de los recursos de red. 7.1.6 Inestabilidad de la base de datos de control de acceso a los medios En esta sección se explica cómo se puede enviar la información incorrecta en una red conmutada redundante. Un switch puede recibir información incorrecta que indica que una dirección MAC está en un puerto, cuando en realidad está en un puerto distinto. Figura 1 177 MicroCisco - staky CCNA - Cisco Certified Network Associate En este ejemplo, la dirección MAC del Router Y no está en la tabla de direcciones MAC de ninguno de los switches. El Host X envía una trama dirigida al Router Y. Los Switches A y B encuentran la dirección MAC del Host X en el puerto 0. La trama del Router Y se envía por inundación desde el puerto 1 de ambos switches. Los Switches A y B reciben esta información en el puerto 1 y encuentran erróneamente la dirección MAC del Host X en el puerto 1. Cuando el Router Y envía una trama al Host X, el Switch A y el Switch B también reciben la trama y la envían desde el puerto 1. Esto es innecesario, pero los switches han recibido la información incorrecta que indica que el Host X está en el puerto 1. En este ejemplo, la trama unicast del Router Y al Host X quedará atrapada en un loop. Con esta sección se concluye la lección. En la lección siguiente se describe el Protocolo Spanning Tree (STP). En la primera sección se analizan los loops físicos y lógicos en una red redundante. 7.2 Protocolo Spanning-Tree 7.2.1 Topología redundante y spanning tree En esta sección se enseña a los estudiantes cómo crear una topología lógica sin loops. Las topologías de red redundantes están diseñadas para garantizar que las redes continúen funcionando en presencia de puntos únicos de falla. El trabajo de los usuarios sufre menos interrupciones dado que la red continúa funcionando. Cualquier interrupción provocada por una falla debe ser lo más breve posible. La confiabilidad aumenta gracias a la redundancia. Una red basada en switches o puentes presentará enlaces redundantes entre aquellos switches o puentes para superar la falla de un solo enlace. Estas conexiones introducen loops físicos en la red. Estos loops de puenteo se crean de modo que si un enlace falla, otro enlace puede hacerse cargo de la función de enviar tráfico. Figura 1 Cuando un switch desconoce el destino del tráfico, inunda el tráfico desde todos los puertos salvo el puerto que recibió el tráfico. Las tramas de broadcast y multicast también se envían por inundación desde todos los puertos, salvo el puerto que recibió el tráfico. Este tráfico puede quedar atrapado en un loop. En el encabezado de Capa 2, no hay ningún valor de Tiempo de existencia (TTL). Si una trama se envía a una topología con loops de switches de Capa 2, puede circular por el loop indefinidamente. Esto desperdicia ancho de banda e inutiliza la red. 178 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 En la Capa 3, el TTL decrece y el paquete se descarta cuando el TTL llega a 0. Esto genera un dilema. Una topología física que contiene loops de conmutación o puenteo es necesaria con fines de confiabilidad, sin embargo, una red conmutada no puede tener loops. La solución consiste en permitir loops físicos, pero creando una topología lógica sin loops. Para esta topología lógica, el tráfico destinado al servidor central conectado a Cat 5 desde cualquier estación de trabajo conectada a Cat 4 viajará a través de Cat 1 y Cat 2. Esto ocurre incluso si hay una conexión física directa entre Cat 5 y Cat 4. La topología lógica sin loops que se ha creado se denomina árbol. La topología resultante es una topología lógica en estrella o en estrella extendida. Esta topología es el spanning tree (árbol de extensión) de la red. Se considera como un spanning tree dado que todos los dispositivos de la red se pueden alcanzar o abarcar. El algoritmo que se utiliza para crear esta topología lógica sin loops es el algoritmo spanning-tree. Este algoritmo puede tardar un tiempo bastante prolongado para converger. Se desarrolló un nuevo algoritmo denominado algoritmo rapid spanning-tree para reducir el tiempo que tarda una red en calcular una topología lógica sin loops. En la sección siguiente se analiza STP. 7.2.2 Protocolo Spanning-Tree En esta sección se explica cómo utilizar STP para crear una topología sin loops. Los puentes y switches Ethernet pueden implementar el protocolo Spanning-Tree IEEE 802.1d y usar el algoritmo spanning-tree para desarrollar una red de ruta más corta sin loops. Figura 1 179 MicroCisco - staky CCNA - Cisco Certified Network Associate La ruta más corta se basa en costos de enlace acumulativos. Los costos de enlace se basan en la velocidad del enlace. Figura 2 El Protocolo Spanning Tree establece un nodo raíz denominado puente raíz. El Protocolo Spanning-Tree desarrolla una topología que tiene una ruta para llegar a todos los nodos de la red. El árbol se origina desde el puente raíz Los enlaces redundantes que no forma parte del árbol de primero la ruta más corta se bloquean. Dado que determinadas rutas están bloqueadas, es posible desarrollar una topología sin loops. Las tramas de datos que se reciben en enlaces que están bloqueados se descartan. El Protocolo Spanning Tree requiere que los dispositivos de red intercambien mensajes para detectar los loops de puenteo. Los enlaces que generan loops se colocan en estado de bloqueo. Los switches envían mensajes denominados unidades de datos del protocolo puente (BPDU) para permitir la creación de una topología lógica sin loops. Las BPDU se siguen recibiendo en los puertos que están bloqueados. Esto garantiza que si una ruta o un dispositivo activo falla, se puede calcular un nuevo spanning-tree. Las BPDU contienen información que permite que los switches ejecuten acciones específicas: • Seleccionar un solo switch que actúe como la raíz del spanning-tree. • Calcular la ruta más corta desde sí mismo hacia el switch raíz • Designar uno de los switches como el switch más cercano a la raíz, para cada segmento LAN. Este switch se denomina switch designado. El switch designado adminstra todas las comunicaciones desde la LAN hacia el puente raíz. • Elegir uno de sus puertos como su puerto raíz, para cada switch que no es un switch raíz. Esta es la interfaz que brinda la mejor ruta hacia el switch raíz. • Seleccionar puertos que forman parte del spanning-tree. Estos puertos se denominan puertos designados. Los puertos no designados se bloquean. Figura 3 En la sección siguiente se describen las características de una red spanning tree. 180 MicroCisco - staky CCNA - Cisco Certified Network Associate 7.2.3 Operación de spanning-tree En esta sección se le enseña a los estudiantes acerca de los puertos y dispositivos que se pueden encontrar en una red STP conmutada. Una vez que la red se ha estabilizado, se ha producido la convergencia y hay un spanning-tree por red. Como resultado, existen los siguientes elementos para cada red conmutada: • Un puente raíz por red • Un puerto raíz por puente que no sea raíz • Un puerto designado por segmento • Puertos no designados o que no se utilizan Los puertos raíz y los puertos designados se usan para enviar (F) tráfico de datos. Los puertos no designados descartan el tráfico de datos. Estos puertos se denominan puertos de bloqueo (B) o de descarte. Figura 1 En la sección siguiente se analiza el puente raíz. 7.2.4 Selección del puente raíz En esta sección se explica cómo se selecciona el puente raíz en una red STP. La primera decisión que toman todos los switches de la red es identificar el puente raíz. La posición del puente raíz en una red afecta el flujo de tráfico. Cuando el switch se enciende, se usa el algoritmo spanning tree para identificar el puente raíz. Las BPDU son enviadas con el ID de puente (BID). El BID se compone de una prioridad de puente que asume un Por defecto, las BPDUs se envían cada dos valor por defecto de 32768 y la dirección MAC del switch. segundos. Figura 1 181 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 Cuando el switch se enciende por primera vez, supone que es el switch raíz y envía las BPDU que contienen la dirección MAC del switch tanto en el BID raíz como emisor. Estas BPDU se consideran inferiores dado que se generan en el switch designado que ha perdido su enlace con el puente raíz. El switch designado transmite las BPDU con la información de que es el puente raíz y el puente designado a la Los BID se vez. Estas BPDU contienen la dirección MAC del switch tanto en el BID raíz como emisor. reciben en todos los switches. Cada switch reemplaza los BID de raíz más alta por BID de raíz más baja en las BPDU que se envían. Todos los switches reciben las BPDU y determinan que el switch que cuyo valor de BID raíz es el más bajo será el puente raíz. Figura 3 Figura 4 El administrador de red puede establecer la prioridad de switch en un valor más pequeño que el del valor por defecto, lo que hace que el BID sea más pequeño. Esto sólo se debe implementar cuando se tiene un conocimiento cabal del flujo de tráfico en la red. 182 MicroCisco - staky CCNA - Cisco Certified Network Associate Las Actividades de Laboratorio le enseñan a los estudiantes cómo seleccionar el puente raíz para una configuración básica de switch. En la sección siguiente se analizan los estados del puerto STP. 7.2.5 Etapas de los estados del puerto Spanning Tree En esta sección se explican los cinco estados del puerto de un switch que utiliza STP. Se necesita tiempo para que la información de protocolo se propague a través de una red conmutada. Los cambios de topología en una parte de la red no se conocen de inmediato en las otras partes de la red. Hay retardo de propagación. Un switch no debe cambiar el estado de un puerto de inactivo a activo de forma inmediata dado que esto puede provocar loops de datos. Cada puerto de un switch que usa protocolo de spanning- tree se encuentra en uno de los cinco estados diferentes, como se indica en la Figura . Figura 1 En el estado de bloqueo, los puertos sólo pueden recibir las BPDU. Las tramas de datos se descartan y no se puede aprender ninguna dirección. El cambio de un estado a otro puede tardar hasta unos 20 segundos. Los puertos pasan del estado de bloqueo al estado de escuchar. En este estado, los switches determinan si hay alguna otra ruta hacia el puente raíz. La ruta que no sea la ruta con un menor costo hacia el puente raíz vuelve al estado de bloqueo. El período de escuchar se denomina retardo de envío y dura 15 segundos. En el estado de escuchar, los datos no se envían y no se reciben las direcciones MAC. Las BPDU todavía se siguen procesando. Los puertos pasan del estado de escuchar al estado de aprender. En este estado, los datos de usuario no se envían pero se aprenden las direcciones MAC del tráfico que se recibe. El estado de aprender dura 15 segundos y también se denomina retardo de envío. Las BPDU todavía se siguen procesando. El puerto pasa del estado de aprender al estado de envíar. En este estado, los datos se envían y se siguen aprendiendo las direcciones MAC. Las BPDU todavía se siguen procesando. El puerto puede estar en estado deshabilitado. Este estado deshabilitado se puede producir cuando un administrador desactiva el puerto o el puerto falla. Los valores de tiempo determinados para cada estado son los valores por defecto. Estos valores se calculan basándose en que habrá una cantidad máxima de siete switches en cualquier rama del spanningtree desde el puente raíz. 183 MicroCisco - staky CCNA - Cisco Certified Network Associate En la sección siguiente se analiza la convergencia de red. 7.2.6 Recálculo de Spanning-Tree En esta sección se describe la convergencia de una red spanning tree. Una internetwork conmutada converge cuando todos los puertos de switch y de puente están en estado de enviar o bloquear. Los puertos que realizan el envío envían y reciben tráfico de datos y las BPDU. Los puertos que están bloqueados sólo pueden recibir las BPDU. Cuando la topología de red cambia, los switches y los puentes vuelven a calcular el spanning-tree y provocan una interrupción del tráfico de red. Figura 1 Figura 2 La convergencia en una nueva topología de spanning-tree que usa el estándar IEEE 802.1d puede tardar hasta 50 segundos. Esta convergencia está compuesta por una antigüedad máxima de 20 segundos, además del retardo de envío al escuchar, que es de 15 segundos, y el retardo de envío al recibir, que es de 15 segundos. Las Actividades de Laboratorio le enseñan a los estudiantes cómo crear y verificar una configuración básica de switch. 184 MicroCisco - staky CCNA - Cisco Certified Network Associate La sección siguiente presenta el Protocolo Rapid Spanning-Tree. 7.2.7 Protocolo Rapid Spanning-Tree En esta sección se describe el Protocolo Rapid Spanning-Tree. • • • El protocolo Rapid Spanning-Tree se define en el estándar de LAN IEEE 802.1w. El estándar y el protocolo presentan nuevas características: Aclaración de los estados de puerto y los roles Definición de un conjunto de tipos de enlace que pueden pasar rápidamente al estado enviar. El concepto de permitir que los switches de una red en la que hay convergencia generen las BPDU en lugar de transferir las BPDU del puente raíz. Se ha cambiado el nombre del estado "bloqueado" por un estado de "descarte". El rol de un puerto de descarte es el de un puerto alternativo. El puerto de descarte se puede convertir en el puerto designado si el puerto designado del segmento falla. Figura 1 Figura 2 Los tipos de enlace se han definido como punto a punto, de extremo y compartido. permiten la detección rápida de una falla de enlace en las redes conmutadas. Estos cambios Los enlaces punto a punto y los enlaces de tipo de extremo pueden pasar al estado de enviar de forma inmediata. 185 CCNA - Cisco Certified Network Associate MicroCisco - staky Con estos cambios, la convergencia de red no debe tardar más de 15 segundos. Con el tiempo, el protocolo Rapid Spanning-Tree, IEEE 802.1w reemplazará al protocolo Spanning-Tree, IEEE 802.1d. Con esta sección se concluye la lección. En la sección siguiente se resumen los puntos principales de este módulo. Resumen En esta sección se resumen los temas analizados en este módulo. La redundancia se define como la duplicación de componentes que permiten funcionalidad continua a pesar de las fallas de un componente individual. En una red, redundancia significa contar con un método de respaldo para conectar todos los dispositivos. Las topologías redundantes aumentan la confiabilidad de la red y reducen el tiempo de inactividad provocado por un único punto de falla. Una topología conmutada redundante puede provocar tormentas de broadcast, transmisiones de múltiples tramas y problemas de inestabilidad en la tabla de direcciones MAC. Una tormenta de broadcast se produce cuando múltiples hosts envían y reciben múltiples mensajes de broadcast. El resultado es que continúan propagando el tráfico de broadcast ininterrumpidamente hasta que uno de los switches se desconecta. Durante una tormenta de broadcast, la red parece estar inactiva o extremadamente lenta. Las transmisiones de múltiples tramas se producen cuando un router recibe múltiples copias de una trama de múltiples switches debido a una dirección MAC desconocida. Estas transmisiones excesivas hacen que el límite de tiempo del router expire. Cuando un switch recibe la información incorrecta acerca de la dirección MAC de un puerto, puede provocar loops e inestabilidad en la tabla de direcciones MAC. Dado que los switches operan en la capa 2 del modelo OSI, todas las decisiones de envío se toman a este nivel. La Capa 2 no brinda ningún valor de TTL, que es la cantidad de tiempo fija que se le otorga a un paquete para llegar a destino. El problema es que las topologías físicas contienen loops de conmutación o puenteo que son necesarios para fines de confiabilidad, pero una red conmutada no puede tener loops. La solución consiste en permitir loops físicos, pero creando una topología lógica sin loops. La topología lógica sin loops que se ha creado se denomina árbol. La topología es una topología en estrella o en estrella extendida que abarca el árbol de la red. Todos los dispositivos se pueden alcanzar o abarcar. El algoritmo que se utiliza para crear esta topología lógica sin loops es el algoritmo spanning-tree. El Protocolo Spanning Tree establece un nodo raíz denominado puente raíz. El Protocolo Spanning-Tree desarrolla una topología que tiene una ruta para cada nodo de la red. Esto da como resultado un árbol que se origina desde el puente raíz. Los enlaces redundantes que no forma parte del árbol de primero la ruta más corta se bloquean. Dado que determinadas rutas están bloqueadas, es posible desarrollar una topología sin loops. Las tramas de datos que se reciben en enlaces que están bloqueados se descartan. Los switches envían mensajes denominados unidades de datos del protocolo puente (BPDU) para permitir la creación de una topología lógica sin loops. Las BPDU se siguen recibiendo en los puertos que están bloqueados. Las BPDU contienen información que permite que los switches ejecuten acciones específicas: • Seleccionar un solo switch que actúe como la raíz del spanning-tree. • Calcular la ruta más corta desde sí mismo hacia el switch raíz • Designar uno de los switches como el switch designado. • Elegir uno de sus puertos como su puerto raíz, para cada switch que no es un switch raíz. • Seleccionar puertos que forman parte del spanning-tree. Estos puertos se denominan puertos designados. El estándar de LAN IEEE 802.1w describe el protocolo Rapid Spanning-Tree. Este estándar permite esclarecer los roles y estados de los puertos, definir un conjunto de tipos de enlace y permitir que los switches de una red en la que hay convergencia generen las BPDU en lugar de usar las BPDU del puente raíz. Se ha cambiado el nombre del estado de bloqueo por un estado de descarte. El rol de un puerto de descarte es el de un puerto alternativo. El puerto de descarte se puede convertir en el puerto designado si el puerto designado del segmento falla. 186 CCNA - Cisco Certified Network Associate MicroCisco - staky Módulo 8: LAN virtuales Descripción general Una característica importante de la conmutación de Ethernet es la capacidad para crear redes de área local virtuales (VLAN). Una VLAN es un agrupamiento lógico de estaciones y dispositivos de red. Las VLAN se pueden agrupar por función laboral o departamento, sin importar la ubicación física de los usuarios. El tráfico entre las VLAN está restringido. Los switches y puentes envían tráfico unicast, multicast y broadcast sólo en segmentos de LAN que atienden a la VLAN a la que pertenece el tráfico. En otras palabras, los dispositivos en la VLAN sólo se comunican con los dispositivos que están en la misma VLAN. Los routers suministran conectividad entre diferentes VLAN. Las VLAN mejoran el desempeño general de la red agrupando a los usuarios y los recursos de forma lógica. Las empresas con frecuencia usan las VLAN como una manera de garantizar que un conjunto determinado de usuarios se agrupen lógicamente más allá de su ubicación física. Las organizaciones usan las VLAN para agrupar usuarios en el mismo departamento. Por ejemplo, los usuarios del departamento de Mercadotecnia se ubican en la VLAN de Mercadotecnia, mientras que los usuarios del Departamento de Ingeniería se ubican en la VLAN de Ingeniería. Las VLAN pueden mejorar la escalabilidad, seguridad y gestión de red. Los routers en las topologías de VLAN proporcionan filtrado de broadcast, seguridad y gestión de flujo de tráfico. Las VLAN que están correctamente diseñadas y configuradas son herramientas potentes para los administradores de red. Las VLAN simplifican las tareas cuando es necesario hacer agregados, mudanzas y modificaciones en una red. Las VLAN mejoran la seguridad de la red y ayudan a controlar los broadcasts de Capa 3. Sin embargo, cuando se las configura de manera incorrecta, las VLAN pueden hacer que una red funcione de manera deficiente o que no funcione en absoluto. La configuración e implementación correctas de las VLAN son fundamentales para el proceso de diseño de red. Cisco tiene una estrategia positiva con respecto a la interoperabilidad de los proveedores, pero las LAN pueden contener topologías de red y configuraciones de dispositivos mixtas. Cada proveedor desarrolla su propio producto VLAN propietario, que posiblemente no sea totalmente compatible con otros productos de VLAN debido a diferencias en los servicios de VLAN. Este módulo abarca algunos de los objetivos de los exámenes CCNA 640-801 e ICND 640-811. Los estudiantes que completen este módulo deberán ser capaces de realizar las siguientes tareas: • Definir las VLAN • Enumerar las ventajas de las VLAN • Explicar de qué manera se utilizan las VLAN para crear dominios de broadcast • Explicar de qué manera se utilizan los routers para comunicarse entre las VLAN. • Enumerar los tipos comunes de VLAN • Definir ISL y 802.1Q • Explicar el concepto de VLAN geográficas • Configurar VLAN estáticas en switches de la serie Catalyst 2900. • Verificar y guardar configuraciones de VLAN • Borrar las VLAN de una configuración de switch 8.1 Conceptos de VLAN 8.1.1 Introducción a las VLAN En esta sección se explica lo que es una VLAN y cómo funciona. Una VLAN es una agrupación lógica de estaciones, servicios y dispositivos de red que no se limita a un segmento de LAN físico. Las VLAN facilitan la administración de grupos lógicos de estaciones y servidores que se pueden comunicar como si estuviesen en el mismo segmento físico de LAN. También facilitan la administración de mudanzas, adiciones y cambios en los miembros de esos grupos. 187 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Figura 2 Las VLAN segmentan de manera lógica las redes conmutadas según las funciones laborales, departamentos o equipos de proyectos, sin importar la ubicación física de los usuarios o las conexiones físicas a la red. Todas las estaciones de trabajo y servidores utilizados por un grupo de trabajo en particular comparten la misma VLAN, sin importar la conexión física o la ubicación. La configuración o reconfiguración de las VLAN se logra mediante el software. Por lo tanto, la configuración de las VLAN no requiere que los equipos de red se trasladen o conecten físicamente. Una estación de trabajo en un grupo de VLAN se limita a comunicarse con los servidores de archivo en el mismo grupo de VLAN. Las VLAN segmentan de forma lógica la red en diferentes dominios de broadcast, de manera tal que los paquetes sólo se conmutan entre puertos y se asignan a la misma VLAN. Las VLAN se componen de hosts o equipos de red conectados mediante un único dominio de puenteo. El dominio de puenteo se admite en diferentes equipos de red. Los switches de LAN operan protocolos de puenteo con un grupo de puente separado para cada VLAN. 188 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 3 Las VLAN se crean para brindar servicios de segmentación proporcionados tradicionalmente por routers físicos en las configuraciones de LAN. Las VLAN se ocupan de la escalabilidad, seguridad y gestión de red. Los routers en las topologías de VLAN proporcionan filtrado de broadcast, seguridad y gestión de flujo de tráfico. Los switches no puentean ningún tráfico entre VLAN, dado que esto viola la integridad del dominio de broadcast de las VLAN. El tráfico sólo debe enrutarse entre VLAN. En la sección siguiente se analizan los dominios de broadcast. 8.1.2 Dominios de broadcast con VLAN y routers En esta sección se explica de qué manera se enrutan los paquetes entre diferentes dominios de broadcast. Una VLAN es un dominio de broadcast que se crea en uno o más switches. El diseño de red en las Figuras y requiere de tres dominios de broadcast separados. Figura 1 La Figura muestra como los tres dominios de broadcast se crean usando tres switches. El enrutamiento de capa 3 permite que el router mande los paquetes a tres dominios de broadcast diferentes. 189 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 En la Figura , se crea una VLAN con un router y un switch. Existen tres dominios de broadcast separados. El router enruta el tráfico entre las VLAN mediante enrutamiento de Capa 3. El switch en la Figura envía tramas a las interfaces del router cuando se presentan ciertas circunstancias: • Si es una trama de broadcast • Si está en la ruta a una de las direcciones MAC del router Figura 3 Si la Estación de Trabajo 1 de la VLAN de Ingeniería desea enviar tramas a la Estación de Trabajo 2 en la VLAN de Ventas, las tramas se envían a la dirección MAC Fa0/0 del router. El enrutamiento se produce a través de la dirección IP de la interfaz del router Fa0/0 para la VLAN de Ingeniería. Si la Estación de Trabajo 1 de la VLAN de Ingeniería desea enviar una trama a la Estación de Trabajo 2 de la misma VLAN, la dirección MAC de destino de la trama es la de la Estación de Trabajo 2. La implementación de VLAN en un switch hace que se produzcan ciertas acciones: • El switch mantiene una tabla de puenteo separada para cada VLAN. • Si la trama entra en un puerto en la VLAN 1, el switch busca la tabla de puenteo para la VLAN 1. 190 MicroCisco - staky CCNA - Cisco Certified Network Associate • • • Cuando se recibe la trama, el switch agrega la dirección origen a la tabla de puenteo si es desconocida en el momento. Se verifica el destino para que se pueda tomar una decisión de envío. Para aprender y enviar se realiza la búsqueda en la tabla de direcciones para esa VLAN solamente. En la sección siguiente se analizan los diferentes tipos de VLAN. 8.1.3 Operación de las VLAN En esta sección se explican las características de los diferentes tipos de VLAN. Una VLAN se compone de una red conmutada que se encuentra lógicamente segmentada. Cada puerto de switch se puede asignar a una VLAN. Los puertos asignados a la misma VLAN comparten broadcasts. Los puertos que no pertenecen a esa VLAN no comparten esos broadcasts. Esto mejora el desempeño de la red porque se reducen los broadcasts innecesarios. Las VLAN de asociación estática se denominan VLAN de asociación de puerto central y basadas en puerto. Cuando un dispositivo entra a la red, da por sentado automáticamente que la VLAN está asociada con el puerto al que se conecta. Figura 1 Los usuarios conectados al mismo segmento compartido comparten el ancho de banda de ese segmento. Cada usuario adicional conectado al medio compartido significa que el ancho de banda es menor y que se deteriora el desempeño de la red. Las VLAN ofrecen mayor ancho de banda a los usuarios que una red Ethernet compartida basada en hubs. La VLAN por defecto para cada puerto del switch es la VLAN de administración. La VLAN de administración siempre es la VLAN 1 y no se puede borrar. Por lo menos un puerto debe asignarse a la VLAN 1 para poder gestionar el switch. Todos los demás puertos en el switch pueden reasignarse a VLAN alternadas. Las VLAN de asociación dinámica son creadas mediante software de administración de red. Se usa CiscoWorks 2000 o CiscoWorks for Switched Internetworks para crear las VLAN dinámicas. Las VLAN dinámicas permiten la asociación basada en la dirección MAC del dispositivo conectado al puerto de switch. Cuando un dispositivo entra a la red, el switch al que está conectado consulta una base de datos en el Servidor de Configuración de VLAN para la asociación de VLAN. En la asociación de VLAN de puerto central basada en puerto, el puerto se asigna a una asociación de VLAN específica independiente del usuario o sistema conectado al puerto. Al utilizar este método de asociación, todos los usuarios del mismo puerto deben estar en la misma VLAN. Un solo usuario, o varios usuarios pueden estar conectados a un puerto y no darse nunca cuenta de que existe una VLAN. Este método es fácil de manejar porque no se requieren tablas de búsqueda complejas para la segmentación de VLAN. Los administradores de red son responsables por configurar las VLAN de forma estática y dinámica. 191 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 Figura 3 Figura 4 Los puentes filtran el tráfico que no necesita ir a los segmentos, salvo el segmento destino. Si una trama necesita atravesar un puente y la dirección MAC destino es conocida, el puente sólo envía la trama al puerto de puente correcto. Si la dirección MAC es desconocida, inunda la trama a todos los puertos en el 192 MicroCisco - staky CCNA - Cisco Certified Network Associate dominio de broadcast, o la VLAN, salvo el puerto origen donde se recibió la trama. Los switches se consideran como puentes multipuerto. Figura 5 En la sección siguiente se describen las ventajas de las VLAN. 8.1.4 Ventajas de las VLAN En esta sección se explican las ventajas administrativas de las VLAN. Figura 1 Las VLAN permiten que los administradores de red organicen las LAN de forma lógica en lugar de física. Ésta es una ventaja clave. Esto permite que los administradores de red realicen varias tareas: • Trasladar fácilmente las estaciones de trabajo en la LAN • Agregar fácilmente estaciones de trabajo a la LAN • Cambiar fácilmente la configuración de la LAN • Controlar fácilmente el tráfico de red • Mejorar la seguridad 193 MicroCisco - staky CCNA - Cisco Certified Network Associate En la sección siguiente se describen tres tipos básicos de VLAN. 8.1.5 Tipos de VLAN En esta sección se describen tres asociaciones básicas de VLAN que se utilizan para determinar y controlar de qué manera se asigna un paquete: • VLAN basadas en puerto • VLAN basadas en direcciones MAC • VLAN basadas en protocolo Figura 1 Figura 2 194 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 3 Figura 4 Figura 5 La cantidad de VLAN en un switch varía según diversos factores: • Patrones de tráfico • Tipos de aplicaciones 195 MicroCisco - staky CCNA - Cisco Certified Network Associate • • Necesidades de administración de red Aspectos comunes del grupo El esquema de direccionamiento IP es otra consideración importante al definir la cantidad de VLAN en un switch. Por ejemplo, una red que usa una máscara de 24 bits para definir una subred tiene en total 254 direcciones de host permitidas en una subred. Dado que es altamente recomendada una correspondencia de uno a uno entre las VLAN y las subredes IP, no puede haber más de 254 dispositivos en una VLAN. También se recomienda que las VLAN no se extiendan fuera del dominio de Capa 2 del switch de distribución. Existen dos métodos principales para el etiquetado de tramas: el enlace Inter-Switch (ISL) y 802.1Q. ISL es un protocolo propietario de Cisco y antiguamente era el más común, pero está siendo reemplazado por el etiquetado de trama estándar IEEE 802.1Q. Figura 6 A medida que los paquetes son recibidos por el switch desde cualquier dispositivo de estación final conectado, se agrega un identificador único de paquetes dentro de cada encabezado. Esta información de encabezado designa la asociación de VLAN de cada paquete. El paquete se envía entonces a los switches o routers correspondientes sobre la base del identificador de VLAN y la dirección MAC. Al alcanzar el nodo destino, el ID de VLAN es eliminado del paquete por el switch adyacente y es enviado al dispositivo conectado. El etiquetado de paquetes brinda un mecanismo para controlar el flujo de broadcasts y aplicaciones, mientras que no interfiere con la red y las aplicaciones. La emulación de LAN (LANE) es una forma en que una red de Modo de Transferencia Asíncrona (ATM) simula una red Ethernet. No hay etiquetado en LANE, pero la conexión virtual utilizada implica un ID de VLAN. Con esta sección se concluye la lección. En la siguiente lección se hablará de la configuración de VLAN. En la primera sección se ofrece una descripción general de las redes VLAN. 8.2 Configuración de la VLAN 8.2.1 Aspectos básicos de las VLAN En esta sección se ofrece información básica acerca de las VLAN y se describen las características de una red VLAN de extremo a extremo. En un entorno conmutado, una estación de trabajo sólo recibe tráfico dirigido a ella. Como los switches filtran el tráfico de red, las estaciones de trabajo en un entorno conmutado envían y reciben datos con ancho de banda completo y dedicado. Al contrario de lo que ocurre con un sistema de hubs compartidos, en el que sólo una estación puede transmitir por vez, una red conmutada permite varias transmisiones simultáneas en un dominio de broadcast. Este proceso no afecta directamente a las demás estaciones dentro o fuera de un dominio de broadcast. La Figura ilustra que la comunicación entre los pares A/B, C/D y E/F no afecta a los demás pares de estación. Cada VLAN debe tener una dirección única de subred de red de Capa 3 asignada a ella. Las VLAN pueden existir como redes de extremo a extremo, o pueden existir dentro de las fronteras geográficas. 196 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Una red VLAN de extremo a extremo tiene varias características: • La asociación a las VLAN para los usuarios se basa en el departamento o función laboral, sin importar la ubicación de los usuarios. • Todos los usuarios en una VLAN deberían tener los mismos patrones de flujo de tráfico 80/20. • Todos los usuarios en una VLAN deberían tener los mismos patrones de flujo de tráfico 80/20 • Cada VLAN tiene un conjunto común de requisitos de seguridad para todos los miembros. Se proporcionan puertos de switch para cada usuario en la capa de acceso. Cada color representa una subred. Dado que los usuarios se reubican, cada switch con el tiempo se transforma en miembro de todas las VLAN. El etiquetado de tramas se utiliza para transportar información desde múltiples VLAN entre los switches de la capa de acceso y los switches de la capa de distribución. Figura 2 ISL es un protocolo propietario de Cisco que mantiene información de VLAN a medida que el tráfico fluye entre switches y routers. IEEE 802.1Q ies un mecanismo de etiquetado de VLAN (IEEE) de estándares abiertos, en las instalaciones conmutadas. Los switches Catalyst 2950 no admiten los enlaces troncales ISL. Los servidores de grupos de trabajo operan de acuerdo con un modelo de cliente/servidor. Por este motivo, se asigna a los usuarios la misma VLAN que el servidor que usan para maximizar el desempe o de la conmutación de Capa 2 y mantener el tráfico localizado. En la Figura , se utiliza un router de capa núcleo para enrutar entre subredes. La red se diseña, sobre la base de los patrones de flujo de tráfico, para que tengan el 80 por ciento del tráfico contenido en una VLAN. El 20 por ciento restante atraviesa el router a los servidores de la empresa y a la Internet y la WAN. En la sección siguiente se analizan las VLAN geográficas. 197 MicroCisco - staky CCNA - Cisco Certified Network Associate 8.2.2 VLAN geográficas En esta sección se explica el motivo por el cual las VLAN geográficas se han vuelto más comunes que las VLAN de extremo a extremo. Las VLANs de extremo a extremo permiten que los dispositivos se agrupen según el uso de recursos. Esto incluye parámetros como el uso de servidores, equipos de proyecto y departamentos. El objetivo de las VLAN de extremo a extremo es mantener el 80 por ciento del tráfico en la VLAN local. A medida que las redes empresariales buscan centralizar sus recursos, las VLAN de extremo a extremo se vuelven más difíciles de mantener. Se requiere que los usuarios usen varios recursos diferentes, muchos de los cuales ya no están en sus VLAN. El cambio en la asignación y uso de recursos requiere que se creen las VLAN en torno de límites geográficos en lugar de límites de aspectos comunes. Figura 1 Esta ubicación geográfica puede ser tan grande como un edificio entero o tan pequeña como un solo switch dentro de un armario para el cableado. En una estructura geográfica, es típico encontrar en uso la nueva norma 20/80. Esto significa que el 20 por ciento del tráfico permanece dentro de la VLAN local y 80 por ciento del tráfico de la red viaja fuera de la VLAN local. Aunque esta topología significa que los servicios desde los recursos deben viajar a través de un dispositivo de Capa 3, este diseño permite que la red aplique un método determinístico y coherente para acceder a los recursos. La siguiente sección le explicará de qué manera se configuran las VLAN estáticas. 8.2.3 Configuración de VLAN estáticas En esta sección se describe el tipo de red en la que se puede configurar una VLAN estática. Los estudiantes también aprenden a configurar una VLAN. Figura 1 Las VLAN estáticas son puertos en un switch que se asignan manualmente a una VLAN. Esto se hace con una aplicación de administración de VLAN o configurarse directamente en el switch mediante la CLI. Estos puertos mantienen su configuración de VLAN asignada hasta que se cambien manualmente. Este tipo de VLAN funciona bien en las redes que tienen requisitos específicos: • Todos los movimientos son controlados y gestionados. 198 MicroCisco - staky CCNA - Cisco Certified Network Associate • • Existe un software sólido de gestión de VLAN para configurar los puertos. El gasto adicional requerido para mantener direcciones MAC de estación final y tablas de filtrado personalizadas no es aceptable. Las VLAN dinámicas no se basan en puertos asignados a una VLAN específica. Para configurar las VLAN en los switches serie Cisco 2900, se deben aplicar pautas específicas: • La cantidad máxima de VLAN depende del switch. • Una de las VLAN por defecto de fábrica es VLAN1. • La VLAN Ethernet por defecto es VLAN1. • Se envían publicaciones del Protocolo de Descubrimiento de Cisco (CDP) y Protocolo de Enlace Troncal de VLAN (VTP) en la VLAN 1. (VTP se analiza en el Módulo 9). • La dirección IP del switch se encuentra por defecto en el dominio de broadcast de la VLAN 1. • El switch debe estar en el modo de servidor VTP para crear, agregar o borrar VLAN. La creación de una VLAN en un switch es una tarea muy directa y simple. Si se usa un switch basado en comandos del IOS, se puede usar el comando vlan database en el modo EXEC privilegiado para entrar al modo de configuración de VLAN. También se puede configurar un nombre de VLAN, de ser necesario: Switch#vlan database Switch(vlan)#vlan vlan_number Switch(vlan)#exit Al salir, se aplica la VLAN al switch. El paso siguiente es asignar la VLAN a una o más interfaces: Switch(config)#interface fastethernet 0/9 Switch(config-if)#switchport access vlan vlan_number En las Actividades de Laboratorio, los estudiantes crearán vlans y verificarán una configuración de switch básica. En la sección siguiente se explica cómo verificar configuraciones de VLAN. 8.2.4 Verificación de la configuración de VLAN En esta sección se explica de qué manera se pueden usar los comandos show vlan, show vlan brief, o show vlan id id_number para verificar las configuraciones de VLAN. Se aplican los siguientes hechos a las VLAN: • Una VLAN creada permanece sin usar hasta que se la asigna a puertos de switch. • Todos los puertos Ethernet son asignados a VLAN 1 por defecto. La Figura muestra una lista de comandos aplicables. Figura 1 199 MicroCisco - staky CCNA - Cisco Certified Network Associate La Figura Sydney. muestra los pasos necesarios para asignar una nueva VLAN a un puerto en el switch de Figura 2 Figura 3 Figura 4 200 MicroCisco - staky CCNA - Cisco Certified Network Associate Las Figuras y muestran el resultado de los comandos show vlan y show vlan brief. En las Actividades de Laboratorio, los estudiantes crearán y verificarán una configuración de switch básica con dos VLAN. En la sección siguiente se explica de qué manera se guarda una configuración de switch. 8.2.5 Cómo guardar la configuración de VLAN En esta sección se enseña a los estudiantes cómo crear un archivo de texto de una configuración de VLAN para usarla como copia de seguridad. Resulta útil mantener una copia de la configuración de VLAN como archivo de texto, especialmente si se necesita hacer copias de seguridad o auditorías. Los valores de configuración del switch se pueden copiar en un servidor TFTP con el comando copy running-config tftp. Como alternativa, se puede usar la función de captura de HyperTerminal junto con los comandos show running-config y show vlan para guardar los valores de configuración. Figura 1 En la sección siguiente se explica de qué manera se elimina una configuración de VLAN. 8.2.6 Eliminación de VLAN Figura 1 En esta sección se explica a los estudiantes cómo se elimina una VLAN de una interfaz de switch basada en comandos Cisco IOS. Este proceso es similar al procedimiento utilizado para eliminar un comando de un 201 MicroCisco - staky CCNA - Cisco Certified Network Associate router. En la Figura , se asignó Fastethernet 0/9 a la VLAN 300 con el comando switchport access vlan 300. Para eliminar esta VLAN de la interfaz, basta con usar la forma no del comando. Figura 2 El comando que aparece a continuación se utiliza para eliminar una VLAN de un switch: Switch#vlan database Switch(vlan)#no vlan 300 Cuando se elimina una VLAN, todos los puertos asignados a esa VLAN quedan inactivos. Los puertos, sin embargo, quedan asociados a la VLAN eliminada hasta que se los asigna a una nueva VLAN. Las Actividades de Laboratorio mostrarán a los estudiantes cómo borrar las configuraciones de VLAN. Con esta sección se concluye la lección. En la lección siguiente se enseñará a los estudiantes a realizar el diagnóstico de fallas de VLAN. En la primera sección se ofrece una descripción general de la lección. 8.3 Diagnóstico de fallas de las VLAN 8.3.1 Descripción general En esta sección se explica lo que los estudiantes aprenderán de esta lección. Figura 1 202 MicroCisco - staky CCNA - Cisco Certified Network Associate Las VLAN ahora son comunes en las redes de los campus. Las VLAN ofrecen a los ingenieros de redes flexibilidad al diseñar e implementar redes. Las VLAN también permiten la limitación de los broadcast, seguridad y comunidades de interés geográficamente dispersas. Sin embargo, tal como ocurre con la conmutación básica de LAN, se pueden producir problemas cuando se implementan las VLAN. En esta lección se muestran algunos de los problemas más comunes que se pueden producir con las VLAN, y ofrece varias herramientas y técnicas para la detección de fallas. Al completar esta lección, los estudiantes deberán poder: • Utilizar un enfoque sistemático en el diagnóstico de fallas de VLAN • Demostrar los pasos de la detección de fallas general en las redes conmutadas • Describir de qué manera los problemas de spanning-tree pueden provocar tormentas de broadcast • Usar los comandos show y debug para diagnosticar las fallas de las VLAN En la sección siguiente se describe el proceso utilizado para realizar el diagnóstico de fallas de VLAN. 8.3.2 Proceso de diagnóstico de fallas de VLAN En esta sección se explica a los estudiantes cómo se desarrolla un enfoque sistemático que puede utilizarse para realizar el diagnóstico de fallas de los problemas relacionados con los switches. Los siguientes pasos explican cómo se aisla un problema en una red conmutada: 1. Verifique las indicaciones físicas como el estado de LED. 2. Comience con una sola configuración en un switch y prosiga el proceso hacia afuera. 3. Verifique el enlace de Capa 1. 4. Verifique el enlace de Capa 2. 5. Haga el diagnóstico de fallas de las VLAN que abarcan varios switches. Figura 1 Al realizar el diagnóstico de fallas, verifique si el problema es un problema recurrente en lugar de una falla aislada. Algunos problemas recurrentes se deben un crecimiento de la demanda de servicios por parte de puertos de estación de trabajo que excede los recursos de configuración, enlace troncal o capacidad para acceder a los recursos de servidor. Por ejemplo, el uso de tecnologías de Web y aplicaciones tradicionales, como la transferencia de archivos y correo electrónico, provoca un crecimiento en el tráfico de red que las redes de las empresas deben manejar. Muchas LAN de campus se enfrentan a patrones de tráfico de red impredecibles resultantes de la combinación de tráfico de intranet, menos ubicaciones de servidor de campus centralizadas y el uso creciente de aplicaciones multicast. La antigua norma de 80/20, que establecía que sólo el 20 por ciento del tráfico de la red pasaba por el backbone, es obsoleta. La exploración de Web interna ahora permite que los usuarios localicen y accedan a la información desde cualquier lugar en la intranet corporativa. Los patrones 203 MicroCisco - staky CCNA - Cisco Certified Network Associate de tráfico están determinados por la ubicación de los servidores y no por las configuraciones del grupo de trabajo físico con el que se agrupan. Si una red presenta con frecuencia síntomas de cuello de botella, como desbordes excesivos, tramas descartadas y retransmisiones, es posible que haya demasiados puertos en un solo enlace troncal o demasiados requerimientos de recursos globales y acceso a los servidores de intranet. Los síntomas de cuello de botella también pueden producirse porque la mayor parte del tráfico se ve obligado a atravesar el backbone. Otra causa puede ser que el acceso de "cualquiera a cualquiera" es común, cuando los usuarios utilizan los recursos corporativos basados en Web y aplicaciones multimedia. En este caso, puede resultar necesario tener en cuenta el aumento de los recursos de la red para satisfacer la demanda creciente. En la sección siguiente se analizan las tormentas de broadcast. 8.3.3 Cómo evitar las tormentas de broadcast En esta sección se enseñará a los estudiantes a evitar que se produzcan tormentas de broadcast. Una tormenta de broadcast se produce cuando se recibe una gran cantidad de paquetes de broadcast en un puerto. El envío de esos paquetes puede hacer que la red quede más lenta o que expire el límite de tiempo. El control de tormentas se configura para el switch como un todo, pero opera por puerto. El control de tormentas se encuentra inhabilitado por defecto. La prevención de las tormentas de broadcast mediante el establecimiento de valores demasiado altos o bajos de umbral descarta el tráfico MAC excesivo de broadcast, multicast o unicast. Además, la configuración de valores para elevar umbrales en un switch puede desactivar el puerto. Los problemas de STP incluyen tormentas de broadcast, loops, BPDU y paquetes descartados. La función de STP es de garantizar que no se produzcan loops lógicos en una red mediante la designación de un puente raíz. El puente raíz es el punto central de una configuración spanning-tree que controla la manera en que opera el protocolo. Figura 1 La ubicación del puente raíz en la red extendida de router y switch es necesaria para el diagnóstico efectivo de fallas. Los comandos show en el router y el switch pueden mostrar información de puente raíz. Configuración de parámetros fijos de temporizadores de puente raíz para el retardo de envío o antigüedad máxima para la información STP. La configuración manual de un dispositivo como puente raíz es otra opción de configuración. 204 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 Figura 3 Si la red extendida de router y switch pasa por un período de inestabilidad, es recomendable minimizar los procesos STP que se producen entre dispositivos. Si se vuelve necesario reducir el tráfico BPDU, establezca los valores máximos para los temporizadores en el puente raíz. Específicamente, establezca el parámetro de retardo de envío en el valor máximo de 30 segundos, y el parámetro max_age en el máximo de 40 segundos. Un puerto físico en un router o switch puede formar parte de más de un spanning tree si se trata de un enlace troncal. El Protocolo Spanning-Tree (STP) se considera como uno de los protocolos más importantes de Capa 2 en los switches Catalyst. Al evitar los loops lógicos en una red puenteada, STP permite la redundancia de Capa 2 sin generar tormentas de broadcast. Minimice los problemas de spanning-tree desarrollando activamente un estudio de base de la red. En la sección siguiente se analizan los comandos show y debug. 8.3.4 Diagnóstico de fallas de las VLAN En esta sección se explica de qué manera los comandos show y debug se pueden utilizar para realizar el diagnóstico de fallas de las VLAN. La Figura ilustra los problemas más comunes que se encuentran cuando se realiza el diagnóstico de fallas de las VLAN. Para realizar el diagnóstico de fallas de la operación de las conexiones de router Fast Ethernet a los switches, es necesario asegurarse de que la configuración de interfaz del router sea completa y correcta. Verifique que no se haya configurado una dirección IP en la interfaz Fast Ethernet. Las direcciones IP se configuran en cada subinterfaz de una conexión de VLAN. Verifique que la configuración de duplex en el router coincida con el puerto/interfaz correspondiente en el switch. El comando show vlan muestra la información de VLAN en el switch. La Figura , muestra el resultado del comando show vlan. El resultado muestra el ID de VLAN, su nombre, estado y puertos asignados. 205 MicroCisco - staky CCNA - Cisco Certified Network Associate También se muestran las opciones de palabra clave show vlan y las descripciones de sintaxis de palabra clave de cada campo. Figura 1 Figura 2 El comando show vlan muestra información de esa VLAN en el router. El comando show vlan seguido por el número de VLAN muestra información específica de esa VLAN en el router. El resultado del comando incluye el ID de VLAN, la subinterfaz del router e información de protocolo. El comando show spanning-tree muestra la topología de spanning-tree que el router conoce. Este comando muestra los valores de STP utilizados por el router para un puente spanning-tree en la red del router y switch. 206 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 3 Figura 4 Figura 5 207 MicroCisco - staky CCNA - Cisco Certified Network Associate La primera parte del resultado de show spanning-tree muestra parámetros de configuración global spanning tree, seguidos por aquellos que son específicos de determinadas interfaces. Figura 6 El Grupo de Puente 1 ejecuta el protocolo Spanning-Tree compatible con IEEE. Las siguientes líneas del resultado muestran los parámetros de operación actuales del spanning tree: Bridge Identifier has priority 32768, address 0008.e32e.e600 Configured hello time 2, Max age 20, forward delay 15 La siguiente línea del resultado muestra que el router es la raíz del spanning tree: We are the root of the spanning tree. La información clave del comando show spanning-tree crea un mapa de la red STP. El comando debug sw-vlan packets muestra información general acerca de los paquetes VLAN recibidos pero no configurados para admitir el router. Los paquetes VLAN que el router está configurado para enrutar o conmutar se cuentan e indican al utilizar el comando show vlans. En la sección siguiente se enseñará a los estudiantes a realizar el diagnóstico de fallas de una VLAN. 8.3.5 Situaciones de diagnóstico de fallas de VLAN Los administradores de red pueden hacer el diagnóstico de fallas de redes conmutadas de manera eficiente después de aprender las técnicas y adaptarlas a las necesidades de la empresa. La experiencia es la mejor manera de mejorar estas capacidades. En esta sección se describen tres situaciones de diagnóstico de fallas de VLAN relacionadas con los problemas que se presentan más comúnmente. Cada una de estas situaciones contiene un análisis del problema y su posterior resolución. Mediante el uso de comandos específicos apropiados y la reunión de imformación significativa de los resultados, se puede completar el proceso de diagnóstico de fallas. Situación 1: No se puede establecer un enlace troncal entre un switch y un router Cuando existan dificultades con una conexión de enlace troncal entre un switch y un router, tenga en cuenta las siguientes causas posibles: 1. Asegúrese de que el puerto esté conectado y no reciba ningún error de capa física, alineación o secuencia de verificación de trama (FCS). Esto puede hacerse con el comando show interface en el switch. 2. Verifique que el duplex y la velocidad se encuentren correctamente configurados entre el switch y el router. Esto puede hacerse con el comando show interface status en el switch o el comando show interfaces en el router. 208 MicroCisco - staky CCNA - Cisco Certified Network Associate 3. Configure la interfaz física del router con una subinterfaz por cada VLAN que enrute el tráfico. Verifique esto introduciendo el comando IOS show interfaces. Asegúrese también de que cada subinterfaz en el router tenga el tipo de encapsulamiento, número de VLAN, dirección IP y máscara de subred correctos configurado. Esto puede hacerse con los comandos IOS show interfaces o show running-config. 4. Confirme que el router esté ejecutando una versión del IOS que admita enlaces troncales. Esto se puede realizar con el comando show version. Figura 1 Figura 2 Situación 2: Paquetes y loops descartados Los puentes de spanning-tree usan los paquetes de Unidad de Datos de Protocolo de Puentes (BPDUs) de notificación de cambios para notificar a los demás puentes acerca de cualquier cambio en la topología de spanning-tree de la red. El puente con el identificador menor en la red se transforma en el raíz. Los puentes envían estas BPDU en cualquier momento en que el puerto haga una transición desde o hacia un estado de envío, siempre y cuando haya otros puertos en el mismo grupo de puenteo. Estas BPDU migran hacia el puente raíz. Sólo puede haber un puente raíz por red puenteada. Un proceso de elección determina el puente raíz. La raíz determina valores para mensajes de configuración en las BPDU y luego establece los temporizadores para los demás puentes. Otros puentes designados determinan la ruta más corta al puente raíz y son 209 CCNA - Cisco Certified Network Associate MicroCisco - staky responsables de la publicación de BPDU a otros puentes a través de puertos designados. Un puente debe tener puertos en el estado de bloqueo si hay un loop físico. Pueden surgir problemas para las internetworks en las que se usan algoritmos spanning-tree IEEE y DEC mediante nodos de puenteo. Estos problemas son causados por diferencias en la forma en que los nodos de puenteo manejan los paquetes BPDU spanning tree, o paquetes hello, y en la forma en que manejan los datos. En esta situación, el Switch A, Switch B y Switch C ejecutan el algoritmo spanning-tree IEEE. Involuntariamente se configura el Switch D para usar el algoritmo spanning-tree DEC. El Switch A dice ser la raíz IEEE y el Switch D dice ser la raíz DEC. El Switch B y el Switch C propagan información de raíz en todas las interfaces para el spanning tree IEEE. Sin embargo, el Switch D descarta la información spanning-tree IEEE. De la misma forma, los demás routers ignoran la declaración de que el Router D es raíz. El resultado es que ninguno de los puentes cree que se ha producido un loop y cuando se envía un paquete de broadcast en la red, se produce una tormenta de broadcast en toda la internetwork. Esta tormenta de broadcast incluye los Switches X y Y, y más allá. Para resolver este problema, es necesario reconfigurar el Switch D como IEEE. Aunque es necesario un cambio de configuración, puede no ser suficiente para reestablecer la conectividad. Se produce un retardo de reconvergencia mientras los dispositivos intercambian BPDU y recalculan un spanning tree para la red. Con esta sección se concluye la lección. En la sección siguiente se resumen los puntos principales de este módulo. Resumen En esta sección se resumen los temas analizados en este módulo. Una VLAN es una agrupación de servicios de red que no se limita a un segmento o switch de LAN físico. La configuración o reconfiguración de las VLAN se realiza mediante software que hace que resulte innecesario conectar o mover físicamente cables y equipo. Las VLAN se ocupan de la escalabilidad, seguridad y gestión de red. Los routers en las topologías de VLAN proporcionan filtrado de broadcast, seguridad y gestión de flujo de tráfico. El tráfico sólo debe enrutarse entre VLAN. Los switches no puentean ningún tráfico, dado que esto viola la integridad del dominio de broadcast de las VLAN. El beneficio principal de las VLAN es que permiten que el administrador de red organice la LAN de forma lógica en lugar de física. Esto incluye la capacidad para mover estaciones de trabajo en la LAN, agregar estaciones de trabajo a la LAN, cambiar la configuración de la LAN, controlar el tráfico de red y mejorar la seguridad. Una VLAN es un dominio de broadcast creado por uno o más switches. Las VLAN se usan para crear dominios de broadcast para mejorar el desempeño general de la red. Al implementar VLAN en un switch, el switch mantiene una tabla de puenteo separada para cada VLAN. Si viene la trama a un puerto en la VLAN 1, el switch busca la tabla de puenteo para la VLAN 1. Cuando se recibe la trama, el switch agrega la dirección origen a la tabla de puenteo si no se la conoce actualmente. El switch entonces verifica el destino para que se pueda tomar una decisión de envío. Para aprender y enviar se realiza la búsqueda en la tabla de direcciones para esa VLAN solamente. Existen tres asociaciones básicas de VLAN para determinar y controlar la manera en que se asigna un paquete. Éstas incluyen VLAN basadas en puertos, VLAN basadas en direcciones MAC y VLAN basadas en protocolo. El enlace Inter-Switch (ISL) es un método de etiquetado de trama que está haciendo rápidamente reemplazado por el etiquetado de trama 802.1Q. El etiquetado de paquetes brinda un mecanismo para controlar el flujo de broadcasts y aplicaciones, mientras que no interfiere con la red y las aplicaciones. Cada VLAN debe tener una dirección única de red de Capa 3 asignada a ella. Esto permite que los routers intercambien paquetes entre VLAN. Las VLAN pueden existir como redes de extremo a extremo, o pueden existir dentro de las fronteras geográficas. 210 CCNA - Cisco Certified Network Associate MicroCisco - staky Una red VLAN de extremo a extremo agrupa usuarios en VLAN según el grupo o función laboral. Todos los usuarios en una VLAN deberían tener los mismos patrones de flujo de tráfico 80/20. La asociación a una VLAN no cambia para un usuario que cambia de lugar físico. Cada VLAN tiene un conjunto común de requisitos de seguridad para todos los miembros. Las VLANs estáticas son puertos en un switch que se asignan manualmente a una VLAN utilizando la aplicación de gestión de VLAN o trabajando directamente dentro del switch. Estos puertos mantienen su configuración de VLAN asignada hasta que se cambien manualmente. Las VLAN dinámicas no se basan en puertos asignados a una VLAN específica. Se usan los comandos show vlan, show vlan brief, o show vlan id id_number para verificar las configuraciones de VLAN. Se aplica un enfoque sistemático para el diagnóstico de fallas en una VLAN. Para aislar un problema, verifique las indicaciones físicas como el estado de LED. Comience con una sola configuración en un switch y prosiga el proceso hacia afuera. Verifique el enlace de Capa 1 y luego el de Capa 2. Haga el diagnóstico de fallas de las VLAN que abarcan varios switches. Algunos problemas recurrentes se deben a un crecimiento de la demanda de servicios por parte de puertos de estación de trabajo que excede los recursos de configuración, enlace troncal o capacidad para acceder a los recursos de servidor. 211 CCNA - Cisco Certified Network Associate 212 MicroCisco - staky CCNA - Cisco Certified Network Associate MicroCisco - staky Módulo 9: Protocolo de agregación de enlaces VLAN Descripción general Las primeras VLAN eran difíciles de implementar entre redes. Cada VLAN se configuraba de forma manual en cada switch. La administración de VLAN a través de una red amplia era una tarea complicada. Para complicar aun más las cosas, cada fabricante de switches tenía distintos métodos para las capacidades de VLAN. Se desarrollaron los enlaces troncales de VLAN para resolver estos problemas. El enlace troncal de VLAN permite que se definan varias VLAN en toda la organización, agregando etiquetas especiales a las tramas que identifican la VLAN a la cual pertenecen. Este etiquetado permite que varias VLAN sean transportadas por toda una gran red conmutada a través de un backbone, o enlace troncal, común. El enlace troncal de VLAN se basa en estándares, siendo el protocolo de enlace troncal IEEE 802.1Q el que se implementa por lo general en la actualidad. El enlace Inter-Switch (ISL) es un protocolo de enlace troncal propietario de Cisco que se puede implementar en todas las redes Cisco. La configuración y el mantenimiento manual del protocolo de enlace troncal virtual (VTP) de VLAN en varios switches puede ser un desafío. Una de las ventajas clave de VTP es la automatización de varias de las tareas de configuración de la VLAN una vez que VTP se configura en una red. Este módulo explica la implementación de VTP en una red conmutada. La tecnología VLAN brinda varias ventajas a los administradores de red. Entre otras cosas, las VLAN ayudan a controlar los broadcasts de Capa 3, mejoran la seguridad de la red y pueden ayudar a agrupar de forma lógica a los usuarios de la red. Sin embargo, las VLAN tienen una limitación importante. Las VLAN operan en la Capa 2, lo que significa que los dispositivos en distintas VLAN no se pueden comunicar sin utilizar routers y direcciones de capa de red. Este módulo abarca algunos de los objetivos de los exámenes CCNA 640-801 e ICND 640-811. Los estudiantes que completen este módulo deberán ser capaces de realizar las siguientes tareas: • Explicar el origen y las funciones del enlace troncal de VLAN • Describir cómo el enlace troncal permite la implementación de las VLAN en una red de gran tamaño • Definir IEEE 802.1Q • Definir ISL de Cisco • Configurar y verificar un enlace troncal de VLAN • Definir VTP • Explicar por qué se desarrolló VTP • Describir el contenido de los mensajes de VTP • Enumerar y definir los tres modos de VTP • Configurar y verificar VTP en un switch basado en IOS • Explicar por qué son necesarios los routers para la comunicación entre las VLAN • Explicar la diferencia entre interfaces físicas y lógicas • Definir subinterfaces • Configurar el enrutamiento entre las VLAN con subinterfaces en un puerto de router 9.1 Enlace troncal 9.1.1 Historia del enlace troncal En esta sección se explica la evolución del enlace troncal. La historia del enlace troncal se remonta a los orígenes de las tecnologías radiales y telefónicas. En la tecnología radial, un enlace troncal es una sola línea de comunicaciones que transporta múltiples canales de señales de radio. En la industria telefónica, el concepto de enlace troncal se asocia con la ruta o el canal de la comunicación telefónica entre dos puntos. Generalmente, uno de estos dos puntos es la oficina central (CO). También se pueden crear enlaces troncales compartidos para la redundancia entre las CO. 213 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Figura 2 El concepto utilizado en las industrias radial y telefónica luego fue adoptado para las comunicaciones de datos. Un ejemplo de ello en una red de comunicaciones es un enlace backbone entre un MDF y un IDF. Un backbone se compone de varios enlaces troncales. En la actualidad, el mismo principio de enlace troncal se aplica en las tecnologías de conmutación de redes. Un enlace troncal es una conexión física y lógica entre dos switches a través de la cual viaja el tráfico de red. Figura 3 En la sección siguiente se describe cómo se usan los enlaces troncales. 9.1.2 Conceptos de enlace troncal En esta sección se explica cómo se usan los enlaces troncales en un entorno de VLAN conmutada. Como se ha mencionado anteriormente, un enlace troncal es una conexión física y lógica entre dos switches a través de la cual se transmite el tráfico de red. Es un único canal de transmisión entre dos puntos. Generalmente, los dos puntos son centros de conmutación. 214 MicroCisco - staky CCNA - Cisco Certified Network Associate En una red conmutada, un enlace troncal es un enlace punto a punto que admite varias VLAN. El propósito de un enlace troncal es conservar los puertos cuando se crea un enlace entre dos dispositivos que implementan las VLAN. La Figura muestra dos VLAN compartidas entre los switches Sa y Sb. Cada switch usa dos enlaces físicos de modo que cada puerto transporta tráfico para una sola VLAN. Ésta es una forma sencilla de implementar la comunicación entre las VLAN de diferentes switches, pero no funciona bien a mayor escala. Figura 1 La adición de una tercera VLAN requiere el uso de dos puertos adicionales, uno para cada switch conectado. Este diseño también es ineficiente en lo que se refiere al método de compartir la carga. Además, el tráfico en algunas de las VLAN puede no justificar un enlace dedicado. El enlace troncal agrupa múltiples enlaces virtuales en un enlace físico. Esto permite que el tráfico de varias VLAN viaje a través de un solo cable entre los switches. Figura 2 Las carreteras Un enlace troncal se puede comparar con las carreteras de distribución de una autopista. que tienen distintos puntos de inicio y fin comparten una autopista nacional principal durante algunos kilómetros, luego se vuelven a dividir para llegar a sus destinos individuales. Este método es más económico que la construcción de una carretera entera desde el principio al fin para cada destino conocido o nuevo. Figura 3 En la sección siguiente se analizan los protocolos de enlace troncal. 9.1.3 Operación del enlace troncal En esta sección se explica cómo los enlaces troncales administran las transmisiones de trama entre las VLAN. Las tablas de conmutación en ambos extremos del enlace troncal se pueden usar para tomar decisiones de envío basadas en las direcciones MAC destino de las tramas. A medida que aumenta la cantidad de VLAN que viajan a través del enlace troncal, las decisiones de envío se tornan más lentas y más difíciles de administrar. El proceso de decisión se torna más lento dado que las tablas de conmutación de mayor tamaño tardan más en procesarse. 215 MicroCisco - staky CCNA - Cisco Certified Network Associate Los protocolos de enlace troncal se desarrollaron para administrar la transferencia de tramas de distintas VLAN en una sola línea física de forma eficaz. Los protocolos de enlace troncal establecen un acuerdo para la distribución de tramas a los puertos asociados en ambos entremos del enlace troncal. Los dos tipos de mecanismos de enlace troncal que existen son el filtrado de tramas y el etiquetado de tramas. La IEEE adoptó el etiquetado de tramas como el mecanismo estándar de enlace troncal. Figura 1 Figura 2 Figura 3 Los protocolos de enlace troncal que usan etiquetado de tramas logran un envío de tramas más veloz y facilitan la administración. El único enlace físico entre dos switches puede transportar tráfico para cualquier VLAN. Para poder lograr esto, se rotula cada trama que se envía en el enlace para identificar a qué VLAN pertenece. Existen 216 MicroCisco - staky CCNA - Cisco Certified Network Associate distintos esquemas de etiquetado. Los dos esquemas de etiquetado más comunes para los segmentos Ethernet son ISL y 802.1Q: • ISL – Un protocolo propietario de Cisco • 802.1Q – Un estándar IEEE que es el punto central de esta sección En la sección siguiente se analiza el etiquetado de tramas. 9.1.4 VLANs y enlace troncal Se usan protocolos, o normas, específicos para implementar los enlaces troncales. El enlace troncal proporciona un método eficaz para distribuir la información del identificador de VLAN a otros switches. Figura 1 Los dos tipos de mecanismos de enlace troncal estándar que existen son el etiquetado de tramas y el filtrado de tramas. En esta sección se explica cómo se puede usar el etiquetado de tramas para ofrecer una solución más escalable para la implementación de las VLAN. El estándar IEEE 802.1Q establece el etiquetado de tramas como el método para implementar las VLAN. Figura 2 El etiquetado de trama de VLAN se ha desarrollado específicamente para las comunicaciones conmutadas. El etiquetado de trama coloca un identificador único en el encabezado de cada trama a medida que se envía por todo el backbone de la red. El identificador es comprendido y examinado por cada switch antes de enviar cualquier broadcast o transmisión a otros switches, routers o estaciones finales. Cuando la trama sale del backbone de la red, el switch elimina el identificador antes de que la trama se transmita a la estación final objetivo. El etiquetado de trama funciona a nivel de Capa 2 y requiere pocos recursos de red o gastos administrativos. Es importante entender que un enlace troncal no pertenece a una VLAN específica. Un enlace troncal es un conducto para las VLAN entre los switches y los routers. ISL es un protocolo que mantiene la información de VLAN a medida que el tráfico fluye entre los switches. Con ISL, la trama Ethernet se encapsula con un encabezado que contiene un identificador de VLAN. 217 MicroCisco - staky CCNA - Cisco Certified Network Associate 9.1.5 Implementación del enlace troncal En esta sección se enseña a los estudiantes a crear y configurar un enlace troncal de VLAN en un switch basado en comandos de Cisco IOS. En primer lugar, configure el puerto primero como un enlace troncal y luego use los comandos que se muestran en la Figura para especificar el encapsulamiento del enlace troncal. Figura 1 9.2 VTP 9.2.1 Historia del VTP En esta sección se presenta el protocolo de enlace troncal de VLAN (VTP). El protocolo de enlace troncal de VLAN (VTP) fue creado por Cisco para resolver los problemas operativos en una red conmutada con VLAN. Es un protocolo propietario de Cisco. Piense en el ejemplo de un dominio con varios switches interconectados que admiten varias VLAN. Un dominio es una agrupación lógica de usuarios y recursos bajo el control de un servidor denominado Controlador de Dominio Primario (PDC). Para mantener la conectividad entre las VLAN, cada VLAN se debe configurar de forma manual en cada switch. A medida que la organización crece y se agregan switches adicionales a la red, cada nueva red debe configurarse manualmente con la información de VLAN. La asignación incorrecta de una sola VLAN puede causar dos problemas potenciales: • Conexión cruzada entre las VLAN debido a las incongruencias de la configuración de VLAN. • Los errores de configuración de VLAN entre entornos de medios mixtos como, por ejemplo, Ethernet e Interfaz de Datos Distribuida por Fibra (FDDI). Con VTP, la configuración de VLAN se mantiene unificada dentro de un dominio administrativo común. Además, VTP reduce la complejidad de la administración y el monitoreo de redes que tienen VLAN. Figura 1 En la sección siguiente se explica cómo funciona VTP. 218 MicroCisco - staky CCNA - Cisco Certified Network Associate 9.2.2 Conceptos de VTP En esta sección se explica cómo se usa VTP en una red. El rol de VTP es mantener la configuración de VLAN de manera unificada en todo un dominio administrativo de red común. VTP es un protocolo de mensajería que usa tramas de enlace troncal de Capa 2 para agregar, borrar y cambiar el nombre de las VLAN en un solo dominio. VTP también admite cambios centralizados que se comunican a todos los demás switches de la red. Los mensajes de VTP se encapsulan en las tramas del protocolo de enlace Inter-Switch (ISL), propietario de Cisco, o IEEE 802.1Q y se envían a través de enlaces troncales a otros dispositivos. En el caso de las tramas IEEE 802.1Q, se usa un campo de 4 bytes para etiquetar la trama. Ambos formatos transportan el identificador de VLAN. Aunque los puertos de switch generalmente se asignan a una sola VLAN, los puertos de enlace troncal por defecto transportan tramas desde todas las VLAN. Figura 1 9.2.3 Operación del VTP En esta sección se explica cómo se transmiten los mensajes de VTP. Los estudiantes también aprenderán acerca de los tres modos de switch de VTP. Un dominio VTP se compone de uno o m s dispositivos interconectados que comparten el mismo nombre de dominio VTP. Un switch puede estar en un solo dominio VTP. Cuando se transmiten mensajes VTP a otros switches en la red, el mensaje VTP se encapsula en una trama de protocolo de enlace troncal como por ejemplo ISL o IEEE 802.1Q. La Figura muestra el encapsulamiento genérico para VTP dentro de una trama ISL. El encabezado VTP varía según el tipo de mensaje VTP, pero por lo general siempre se encuentran los mismos cuatro elementos en todos los mensajes VTP. Figura 1 219 MicroCisco - staky CCNA - Cisco Certified Network Associate • • • • Versión de protocolo VTP, ya sea la versión 1 ó 2: Tipo de mensaje VTP: Indica uno de los cuatro tipos de mensajes Longitud del nombre de dominio de administración: Indica el tamaño del nombre que aparece a continuación Nombre de dominio de administración: Nombre que se configura para el dominio de administración Los switches VTP operan en uno de estos tres modos: • Servidor • Cliente • Transparente Los servidores VTP pueden crear, modificar y eliminar la VLAN y los parámetros de configuración de VLAN de todo un dominio. Los servidores VTP guardan la información de la configuración VLAN en la NVRAM del switch. Los servidores VTP envían mensajes VTP a través de todos los puertos de enlace troncal. Los clientes VTP no pueden crear, modificar ni eliminar la información de VLAN. Este modo es útil para los switches que carecen de memoria suficiente como para guardar grandes tablas de información de VLAN. El único rol de los clientes VTP es procesar los cambios de VLAN y enviar mensajes VTP desde todos los puertos troncales. Los switches en modo VTP transparente envían publicaciones VTP pero ignoran la información que contiene el mensaje. Un switch transparente no modifica su base de datos cuando se reciben actualizaciones o envían una actualización que indica que se ha producido un cambio en el estado de la VLAN. Salvo en el caso de envío de publicaciones VTP, VTP se desactiva en un switch transparente. Figura 2 Figura 3 220 MicroCisco - staky CCNA - Cisco Certified Network Associate Las VLAN que se detectan dentro de las publicaciones sirven como notificación al switch que indica que es posible recibir tráfico con los ID de VLAN recientemente definidos. En la Figura , el Switch C transmite una entrada de base de datos VTP con adiciones o eliminaciones al Switch A y Switch B. La base de datos de configuración tiene un número de revisión que aumenta de a uno. Un número de revisión de configuración más alto indica que la información de VLAN que se recibe está más actualizada que la copia guardada. Siempre que un switch recibe una actualización cuyo número de revisión de configuración es más alto, el switch sobrescribe la información guardada con la nueva información enviada en la actualización VTP. El Switch F no procesa la actualización dado que se encuentra en un dominio distinto. Este proceso de sobreescritura significa que si la VLAN no existe en la nueva base de datos, se la elimina del switch. Además, VTP mantiene su propia NVRAM. El comando erase startupconfiguration borra la configuración de la NVRAM pero no borra el número de revisión de la base de datos VTP. Para establecer el número de revisión de configuración nuevamente en cero, se debe reiniciar el switch. Por defecto, los dominios de administración se establecen en modo no seguro. Eso significa que los switches interactúan sin utilizar una contraseña. Para establecer automáticamente el dominio de administración en modo seguro, se debe agregar una contraseña. Para usar el modo seguro, se debe configurar la misma contraseña en cada uno de los switches del dominio de administración. En la sección siguiente se analiza la implementación de VTP. 9.2.4 Implementación de VTP En esta sección se describen los dos tipos de publicaciones VTP y los tres tipos de mensajes VTP. Con VTP, cada switch publica en sus puertos troncales su dominio de administración, número de revisión de configuración, las VLAN que conoce y determinados parámetros para cada VLAN conocida. Estas tramas de publicación se envían a una dirección multicast de modo que todos los dispositivos vecinos puedan recibir las tramas. Sin embargo, las tramas no se envían mediante los procedimientos de puenteo normales. Todos los dispositivos en el mismo dominio de administración reciben información acerca de cualquier nueva VLAN que se haya configurado en el dispositivo transmisor. Se debe crear y configurar una nueva VLAN en un dispositivo solamente en el dominio de administración. Todos los demás dispositivos en el mismo dominio de administración automáticamente reciben la información. Figura 1 Las publicaciones en las VLAN con valores por defecto preconfigurados de fábrica se basan en los tipos de medios. Los puertos de usuario no se deben configurar como enlaces troncales VTP. 221 MicroCisco - staky CCNA - Cisco Certified Network Associate Cada publicación se inicia con un número de revisión de configuración 0. A medida que se producen cambios, el número de revisión de configuración aumenta de a uno, o n + 1. El número de revisión continúa aumentando hasta que llega a 2.147.483.648. Cuando llega a este punto, el contador se vuelve a colocar en cero. Existen dos clases de publicaciones VTP: • Peticiones de clientes que desean obtener información en el momento del arranque • Respuesta de los servidores Existen tres clases de mensajes VTP: • Peticiones de publicación • Publicaciones de resumen • Publicaciones de subconjunto Con las peticiones de publicación los clientes solicitan información de la VLAN y el servidor responde con publicaciones de resumen y de subconjunto. Por defecto, los switches Catalyst de servidor y de cliente emiten publicaciones de resumen cada cinco minutos. Los servidores informan a los switches vecinos lo que consideran como el número de revisión VTP actual. Si los nombres de dominio concuerdan, el servidor o el cliente comparan el número de revisión de configuración que recibieron. Si el switch recibe un número de revisión más alto que el número de revisión actual en ese switch, emite una petición de publicación para obtener nueva información de VLAN. Figura 2 Figura 3 Las publicaciones de subconjunto contienen información detallada sobre las VLAN, como por ejemplo el tipo de versión VTP, el nombre de dominio y los campos relacionados así como el número de revisión de configuración. Determinadas acciones pueden desencadenar publicaciones de subconjunto: • Creación o eliminación de VLAN 222 MicroCisco - staky CCNA - Cisco Certified Network Associate • • • Suspensión o activación de VLAN Cambio de nombre de VLAN Cambio de unidad máxima de transmisión (MTU) de VLAN Las publicaciones pueden contener parte de o toda la información que se detalla a continuación: • Nombre de dominio de administración: :Las publicaciones que tienen nombres distintos se ignoran. • Número de revisión de configuración: Un número más alto indica que es una configuración más reciente. • Message Digest 5 (MD5): MD5 es la clave que se envía con el VTP cuando se ha asignado una contraseña. Si la clave no concuerda, se ignora la actualización. • Identidad del dispositivo que realiza la actualización: La identidad del dispositivo que realiza la actualización es la identidad del switch que envía la publicación de resumen de VTP. En la sección siguiente se analiza la configuración de VTP. 9.2.5 Configuración de VTP En esta sección se enseña a los estudiantes cómo configurar VTP. Figura 1 Se deben planear los pasos específicos antes de configurar VTP y las VLAN en la red: 1. Determinar el número de versión del VTP que se utilizará. 2. Decidir si este switch será miembro de un dominio de administración que ya existe o si se deberá crear un nuevo dominio. Si un dominio de administración ya existe, determinar el nombre y la contraseña del dominio. 3. Elegir un modo VTP para el switch. Hay dos versiones diferentes de VTP disponibles, Versión 1 y Versión 2. Ninguna de las dos versiones son interoperables. Si un switch se configura en un dominio para VTP Versión 2, todos los switches del dominio de administración deberán configurarse para VTP Versión 2. VTP Versión 1 es la versión por defecto. Se puede implementar VTP versión 2 si las funciones requeridas no se encuentran en la versión 1. La función más común que se necesita es el soporte VLAN de Token Ring. Para configurar la versión VTP en un switch basado en comandos de Cisco IOS, introduzca primero el modo de la base de datos VLAN. Figura 2 223 MicroCisco - staky CCNA - Cisco Certified Network Associate Se puede utilizar el siguiente comando para introducir el modo de la base de datos VLAN y configurar el número de versión del VTP. Switch#vlan database Switch(vlan)#vtp v2-mode Si el switch es el primer switch en la red, deberá crearse el dominio de administración. Si se ha asegurado el dominio de administración, configure una contraseña para el dominio. Figura 3 Se puede utilizar el siguiente comando para crear un dominio de administración. Switch(vlan)#vtp domain cisco El nombre del dominio puede contener de 1 a 32 caracteres. La contraseña debe contener de 8 a 64 caracteres. Para agregar un cliente VTP a un dominio VTP que ya existe, verifique que su número de revisión de configuración VTP sea inferior al número de revisión de configuración de los demás switches en el dominio VTP. Utilice el comando show vtp status. Los switches en un dominio VTP siempre usan la configuración de VLAN del switch con el número de revisión de configuración VTP más alto. Si se agrega un switch con un número de revisión más alto que el que figura actualmente en el dominio VTP, éste puede borrar toda la información de VLAN del servidor VTP y del dominio VTP. Figura 4 Elija uno de los tres modos VTP disponibles para el switch. Si éste es el primer switch en el dominio de administración y si es posible que se agreguen switches adicionales, coloque el modo en servidor. Los switches adicionales podrán obtener la información de VLAN de este switch. Deberá haber al menos un servidor. Las VLAN se pueden crear, eliminar y renombrar a voluntad sin que el switch propague los cambios a otros switches. Las VLAN pueden superponerse si varias personas configuran dispositivos dentro de una red. Por ejemplo, se puede usar el mismo ID de VLAN para las VLAN con propósitos diferentes. 224 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 5 Figura 6 Figura 7 Se puede utilizar el siguiente comando para establecer el modo correcto del switch: 225 MicroCisco - staky CCNA - Cisco Certified Network Associate Switch(vlan)#vtp {client | server | transparent} La Figura muestra el resultado del comando show vtp status. Este comando se utiliza para verificar los parámetros de configuración de VTP en un switch basado en comandos Cisco IOS. La Figura muestra un ejemplo del comando show vtp counters. Este comando se utiliza para mostrar estadísticas sobre las publicaciones enviadas y recibidas a través del switch. Las Actividades de Laboratorio permitirán a los estudiantes practicar las configuraciones de cliente y servidor VTP. Con esta sección se concluye la lección. En la lección siguiente se analiza el enrutamiento entre VLANs. En la primera sección se describen las VLAN. 9.3 Descripción general del enrutamiento entre VLAN 9.3.1 Aspectos básicos de las VLAN En esta sección se repasa el concepto de VLAN y de qué manera se utiliza. Una VLAN es una agrupación lógica de dispositivos o usuarios que se pueden agrupar por función, departamento o aplicación, sin importar su ubicación física. Figura 1 Las VLAN se configuran en el switch a través del software. Debido a la cantidad de implementaciones de VLAN que compiten entre sí es posible que deba requerirse el uso de un software propietario por parte del fabricante del switch. La agrupación de puertos y usuarios en comunidades de interés, conocidos como organizaciones VLAN, puede obtenerse mediante el uso de un solo switch o una conexión más potente entre los switches ya conectados dentro de la empresa. Al agrupar puertos y usuarios en varios switches, las VLAN pueden abarcar infraestructuras contenidas en un solo edificio o en edificios interconectados. Las VLAN ayudan a utilizar con efectividad el ancho de banda dado que comparten el mismo dominio de broadcast o la misma red de Capa 3. Las VLAN optimizan la acumulación y uso del ancho de banda. Las VLAN se disputan el mismo ancho de banda aunque los requisitos del ancho de banda pueden variar considerablemente según el grupo de trabajo o el departamento. A continuación, presentamos algunos de los temas de configuración de las VLAN: • Un switch crea un dominio de broadcast • Las VLAN ayudan a administrar los dominios de broadcast • Las VLAN se pueden definir en grupos de puerto, usuarios o protocolos • Los switches LAN y el software de administración de red suministran un mecanismo para crear las VLAN 226 MicroCisco - staky CCNA - Cisco Certified Network Associate Las VLAN ayudan a controlar el tamaño de los dominios de broadcast y a ubicar el tráfico. Las VLAN se asocian con redes individuales. Por lo tanto, los dispositivos de red en las distintas VLAN no se pueden comunicar directamente entre sí sin la intervención de un dispositivo de enrutamiento de Capa 3. Figura 2 Figura 3 Cuando un nodo en una VLAN necesita comunicarse con un nodo de otra VLAN, se necesita un router para enrutar el tráfico entre las distintas VLAN. Sin este dispositivo de enrutamiento, el tráfico entre las VLAN no puede efectuarse. En la sección siguiente se presenta el enrutamiento entre VLAN. 9.3.2 Introducción al enrutamiento entre VLAN En esta sección se explica de qué manera los routers operan ente las distintas VLAN. Cuando el host en un dominio de broadcast desea comunicarse con un host en otro dominio de broadcast, debe utilizarse un router. 227 MicroCisco - staky CCNA - Cisco Certified Network Associate El puerto 1 en un switch forma parte de la VLAN 1 y el puerto 2 forma parte de la VLAN 200. Si todos los puertos de switch formaran parte de la VLAN 1, es posible que los hosts conectados a estos puertos puedan comunicar entre sí. Sin embargo, en este caso, los puertos forman parte de distintas VLAN, la VLAN 1 y la VLAN 200. Se debe utilizar un router si los hosts de las distintas VLAN necesitan comunicarse entre sí. Figura 1 Figura 2 La ventajas más importante del enrutamiento es su probado historial de facilitar la administración de redes, especialmente de grandes redes. Aunque la Internet sirva de ejemplo obvio, este punto es válido para cualquier tipo de red, como por ejemplo un backbone de campus de gran tamaño. Dado que los routers evitan la propagación de broadcast y utilizan algoritmos de envío más inteligentes que los puentes y los switches, los routers ofrecen un uso más eficiente del ancho de banda. Esto da como resultado simultáneamente una selección de ruta flexible y óptima. Por ejemplo, es muy fácil implementar el equilibrio de carga a través de varias rutas en la mayoría de las redes cuando se realiza el proceso de enrutamiento. Por otra parte, el equilibrio de carga de la Capa 2 puede resultar muy difícil de diseñar, implementar y mantener. Si una VLAN abarca varios dispositivos se utiliza un enlace troncal para interconectar los dispositivos. El enlace troncal transporta el tráfico para varias VLAN. Por ejemplo, un enlace troncal puede conectar un switch a otro switch, un switch a un router entre VLAN o un switch a un servidor instalando una NIC especial que admite enlace troncal. 228 MicroCisco - staky CCNA - Cisco Certified Network Associate Recuerde que cuando un host en una VLAN desea comunicarse con un host de otra VLAN, se debe utilizar un router. Figura 3 En la sección siguente se analizan las conexiones lógicas y físicas. 9.3.3 Problemas y soluciones entre VLAN En esta sección se describen algunos problemas de conectividad lógica y física que se producen entre distintas VLAN. Cuando las VLAN se conectan entre sí, surgen algunos problemas técnicos. Dos de los problemas más comunes que pueden surgir en un entorno de varias VLAN son los siguientes: • La necesidad de que los dispositivos de usuario final alcancen hosts no locales • Las necesidad de que los hosts en distintas VLAN se comuniquen entre sí Cuando un router necesita realizar una conexión a un host remoto, verifica su tabla de enrutamiento para determinar si existe alguna ruta conocida. Si el host remoto entra en una subred que sabe cómo llegar al destino, el sistema verifica si puede conectarse a través de esta interfaz. Si todas las rutas conocidas fallan, el sistema tiene una última opción, la ruta por defecto. Esta ruta es un tipo especial de ruta gateway y por lo general es la única que está presente en el sistema. En un router, un asterisco (*) permite indicar una ruta por defecto en el resultado del comando show ip route. Para los hosts en una red de área local, este gateway se establece en cualquier máquina que tiene conexión directa con el mundo exterior y corresponde al Gateway por defecto que aparece en las configuraciones TCP/IP de la estación de trabajo. Si la ruta por defecto se configura para un router que está funcionando como gateway para la Internet pública, entonces la ruta por defecto apuntará a la máquina de gateway en un sitio de proveedor de servicios Internet (ISP). Las rutas por defecto se implementan usando el comando ip route. Router(Config)#ip route 0.0.0.0 0.0.0.0 192.168.1.1 En este ejemplo, 192.168.1.1 es el gateway. La conectividad entre VLAN se puede lograr a través de una conectividad lógica o física. La conectividad lógica involucra una conexión única, o un enlace troncal, desde el switch hasta el router. Ese enlace troncal puede admitir varias VLAN. Esta topología se denomina "router en un palo" porque existe una sola conexión al router. Sin embargo, existen varias conexiones lógicas entre el router y el switch. La conectividad física implica una conexión física separada para cada VLAN. Esto significa una interfaz física separada para cada VLAN. 229 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Figura 2 Los primeros diseños de VLAN se basaban en routers externos conectados a switches que admitían VLAN. En este enfoque, los routers tradicionales se conectan a una red conmutada a través de uno o más enlaces. Los diseños de "router en un palo" emplean un enlace troncal único que conecta el router al resto de la red campus. El tráfico entreVLANs debe atravesar el backbone de Capa 2 para alcanzar el router desde donde podrá desplazarse entre las VLAN. El tráfico viaja entonces de vuelta hacia la estación final deseada utilizando el método de envío de Capa 2 normal. Este flujo de ida y vuelta es característico de los diseños de "router en un palo". En la sección siguiente se analizan las interfaces físicas y lógicas. 9.3.4 Interfaces físicas y lógicas En esta sección se explica de qué manera las interfaces físicas y lógicas se agregan a un diseño de red. En una situación tradicional, una red con cuatro VLAN requeriría cuatro conexiones físicas entre el switch y el router externo. A medida que las tecnologías como por ejemplo el Enlace inter-switch (ISL) se vuelven más comunes, los diseñadores de red empiezan a utilizar enlaces troncales para conectar los routers a los switches. A 230 MicroCisco - staky CCNA - Cisco Certified Network Associate pesar de que se puede utilizar cualquier tecnología de enlace troncal como por ejemplo ISL, 802.1Q, 802.10 o la emulación LAN (LANE), los enfoques basados en Ethernet como por ejemplo ISL y 802.1Q son más comunes. Figura 1 Figura 2 El protocolo propietario de Cisco ISL así como el estándar 802.1q de varios vendedores IEEE, se utilizan para efectuar el enlace troncal de las VLAN en los enlaces Fast Ethernet. Figura 3 La línea sólida en el ejemplo se refiere a un enlace físico único entre el switch Catalyst y el router. Se trata de la interfaz física que conecta el router al switch. A medida que aumenta la cantidad de VLAN en una red, el enfoque físico de tener una interfaz de router por VLAN se vuelve rápidamente inescalable. Las redes con muchas VLAN deben utilizar el enlace troncal de VLAN para asignar varias VLAN a una interfaz de router única. Las líneas punteadas en el ejemplo se refieren a los distintos enlaces lógicos que se ejecutan a través de este enlace físico utilizando subinterfaces. El router puede admitir varias interfaces lógicas en enlaces físicos individuales. Por ejemplo, la interfaz de Fast Ethernet FastEthernet 0/0 puede admitir tres interfaces virtuales numeradas como FastEthernet 1/0.1, 1/0.2 y 1/0.3. La ventaja principal del uso del enlace troncal es una reducción en la cantidad de puertos de router y switch que se utiliza. Esto no sólo permite un ahorro de dinero sino también reduce la complejidad de la 231 MicroCisco - staky CCNA - Cisco Certified Network Associate configuración. Como consecuencia, el enfoque de router conectado a un enlace troncal puede ampliarse hasta un número mucho más alto de VLAN que el diseño de "un enlace por VLAN". En la sección siguiente se describen las subinterfaces. 9.3.5 División de interfaces físicas en subinterfaces En esta sección se presentan las subinterfaces. Una subinterfaz es una interfaz lógica dentro de una interfaz física, como por ejemplo la interfaz Fast Ethernet en un router. Pueden existir varias subinterfaces en una sola interfaz física. Figura 1 Cada subinterfaz admite una VLAN y se le asigna una dirección IP. Para que varios dispositivos en una misma VLAN se puedan comunicar, las direcciones IP de todas las subinterfaces en malla deben encontrarse en la misma red o subred. Por ejemplo, si la subinterfaz FastEthernet 0/0.1 tiene una dirección IP de 192.168.1.1 entonces 192.168.1.2, 192.168.1.3 y 192.1.1.4 son las direcciones IP de dispositivos conectados a la subinterfaz FastEthernet 0/0.1. Figura 2 Para poder establecer una ruta entre las distintas VLAN con subinterfaces, se debe crear una subinterfaz para cada VLAN. 232 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 3 La siguiente sección tratará los comandos que se utilizan para crear una subinterfaz, aplicar un protocolo de enlace troncal y una dirección IP. 9.3.6 Configuración de un enrutamiento entre distintas VLAN En esta sección se muestran los comandos que se utilizan para configurar el enrutamiento entre VLAN entre un router y un switch. Antes de implementar cualquiera de estos comandos, debe verificarse cada router y switch para comprobar qué encapsulamientos de VLAN admiten. Los switches Catalyst 2950 han admitido el enlace troncal 802.1q desde que se lanzó al mercado la versión 12.0(5.2)WC(1) de Cisco IOS, pero no admiten el enlace troncal Inter-Switch (ISL). Para que el enrutamiento entre VLAN funcione correctamente, todos los routers y switches involucrados deben admitir el mismo encapsulamiento. Figura 1 En un router, una interfaz se puede dividir lógicamente en varias subinterfaces virtuales. Las subinterfaces ofrecen una solución flexible para el enrutamiento de varias corrientes de datos a través de una interfaz física única. Para definir las subinterfaces en una interfaz física, realice las siguientes tareas: • Identifique la interfaz. • Defina el encapsulamiento de la VLAN. • Asigne una dirección IP a la interfaz. Para identificar la interfaz utilice el comando interface en el modo de configuración global. Router(config)#interface fastethernet port-number. subinterface-number 233 MicroCisco - staky CCNA - Cisco Certified Network Associate port-number identifica la interfaz física y subinterface-number identifica la interfaz virtual. Figura 2 El router debe poder comunicarse con el switch utilizando un protocolo de enlace troncal estandarizado. Esto significa que ambos dispositivos conectados entre sí deben comprenderse. En el ejemplo, se utiliza 802.1Q. Para definir el encapsulamiento de la VLAN, introduzca el comando encapsulation en el modo de configuración de interfaz. Router(config-if)#encapsulation dot1q vlan-number vlan-number identifica la VLAN para la cual la subinterfaz transportará el tráfico. Se agrega un ID de VLAN a la trama sólo cuando la trama está destinada a una red no local. Cada paquete de VLAN transporta el ID de VLAN dentro del encabezado del paquete. Para asignar una dirección IP a la interfaz, introduzca el siguiente comando en el modo de configuración de interfaz. Router(config-if)#ip address ip-address subnet-mask ip-address y subnet-mask son las direcciones y la máscara de red de 32 bits de la interfaz específica. Figura 3 En el ejemplo, el router tiene tres subinterfaces configuradas en la interfaz Fast Ethernet 0/0. Estas tres subinterfaces se identifican como 0/0.1, 0/0.2 y 0/0.3. Todas las interfaces se encapsulan para 802.1q. La interfaz 0/0.1 enruta paquetes para la VLAN 1, mientras que la interfaz 0/0.2 enruta paquetes para la VLAN 20 y la interfaz 0/0.3 enruta paquetes para la VLAN 30. 234 CCNA - Cisco Certified Network Associate MicroCisco - staky En las Actividades de Laboratorio, los estudiantes aprenderán a configurar el enrutamiento entre VLAN entre un router y un switch. Con esta sección se concluye la lección. En la sección siguiente se resumen los puntos principales de este módulo. Resumen En esta sección se resumen los temas analizados en este módulo. Un enlace troncal es una conexión física y lógica entre dos switches a través de la cual viaja el tráfico de red. El concepto de enlace troncal se remonta a los orígenes de las tecnologías de radio y telefonía. En el contexto de un entorno de conmutación de VLAN, un enlace troncal es un enlace punto a punto que admite varias VLAN. El propósito del enlace troncal es conservar puertos al crear un enlace entre dos dispositivos implementando distintas VLAN. El enlace troncal agrupará varios enlaces virtuales de un enlace físico permitiendo que el tráfico de varias VLAN viaje a través de un sólo cable entre los distintos switches. Las tablas de conmutación en ambos extremos del enlace troncal se pueden utilizar para tomar decisiones de envío de puerto basadas en direcciones MAC de destino de trama. Este proceso se desacelera a medida que aumenta la cantidad de VLAN que viajan a través del enlace troncal. Para administrar con efectividad la transferencia de tramas desde distintas VLAN se desarrolló el envío a través de protocolos de enlace troncal de línea física única. Los protocolos de enlace troncal establecen un acuerdo para la distribución de tramas a los puertos asociados en ambos entremos del enlace troncal. Existen dos tipos de mecanismos de enlace troncal, el filtrado de tramas y el etiquetado de tramas. Los protocolos de enlace troncal que utilizan un mecanismo de etiquetado de tramas asignan un identificador a las tramas. Esto permite una mejor administración y una entrega más rápida. La identificación de trama funciona a nivel de Capa 2 y requiere escaso procesamiento o encabezado administrativo. ISL, el protocolo de enlace entre switch propietario de Cisco y 802-1Q, el estándar de IEEE son los esquemas de etiquetado más comunes de los segmentos Ethernet. Antes de implementar el enlace troncal, determine qué encapsulamiento puede admitir el puerto utilizando el comando show port capabilities. Para verificar que el enlace troncal se haya configurado utilice el comando show trunk [mod_num/port_num] del modo privilegiado en el switch. El protocolo de enlace troncal de VLAN (VTP) se creó para resolver problemas operacionales en una red conmutada con VLAN. Los dos problemas más comunes incluyen VLAN interconectadas provocadas por incoherencias de configuración y mala configuración en entornos de medios mixtos. Con VTP, la configuración de VLAN se mantiene unificada dentro de un dominio administrativo común. Un dominio VTP se compone de uno o más dispositivos interconectados que comparten el mismo nombre de dominio VTP. Un switch puede estar en un solo dominio VTP. Cuando se transmiten mensajes VTP a otros switches en la red, el mensaje VTP se encapsula en una trama de protocolo de enlace troncal como por ejemplo ISL o IEEE 802.1Q. Los switches VTP operan en uno de tres modos. Estos incluyen el servidor que puede crear, modificar y eliminar VLAN así como los parámetros de configuración de una VLAN para todo el dominio, cliente que procesa los cambios de la VLAN y envía mensajes VTP por afuera de todos los puertos de enlace troncal y transparente, que envía publicaciones VTP pero que ignora la información que contiene el mensaje. Con VTP, cada switch publica en los puertos de sus enlaces troncales, su dominio de administración, el número de revisión de configuración, las VLAN que conoce y algunos parámetros para cada VLAN conocida. Estos son dos tipos de publicaciones VTP; peticiones de clientes y respuestas de servidor. Generan tres tipos de mensajes VTP incluyendo una petición de publicación, publicación de resumen y una publicación de subconjunto. Con las peticiones de publicación los clientes solicitan información de la VLAN y el servidor responde con publicaciones de resumen y de subconjunto. Por defecto, los switches Catalyst de servidor y de cliente emiten publicaciones de resumen cada cinco minutos. Los servidores informan a los switches vecinos lo que consideran como el número de revisión VTP actual. Ese número se compara y si existen diferencias, se solicita nueva información sobre la VLAN. Las publicaciones de subconjunto contienen 235 CCNA - Cisco Certified Network Associate MicroCisco - staky información detallada sobre las VLAN, como por ejemplo el tipo de versión VTP, el nombre de dominio y los campos relacionados así como el número de revisión de configuración. Antes de configurar VTP y una VLAN en una red, determine el número de versión de VTP, en caso de que deba crearse un nuevo dominio y el modo VTP. Deberá haber al menos un servidor. Para establecer el modo correcto del switch basado en comandos Cisco IOS, utilice el comando Switch(vlan)#vtp {client | server | transparent}. Utilice el comando show vtp status para verificar que el número de revisión de configuración VTP sea inferior al número de revisión de configuración de los demás switches en el dominio VTP antes de agregar un cliente. Cuando el host en un dominio de broadcast desea comunicarse con un host en otro dominio de broadcast, debe utilizarse un router. En un router, una interfaz se puede dividir lógicamente en varias subinterfaces virtuales. Las subinterfaces ofrecen una solución flexible para el enrutamiento de varias corrientes de datos a través de una interfaz física única. 236 CCNA - Cisco Certified Network Associate MicroCisco - staky 237 CCNA - Cisco Certified Network Associate 238 MicroCisco - staky CCNA - Cisco Certified Network Associate MicroCisco - staky Módulo 1: Escalabilidad de direcciones IP Descripción general El rápido crecimiento de la Internet ha dejado atónitos a la mayoría de los observadores. Una de las razones por las que la Internet ha crecido tan rápidamente es debido a la flexibilidad del diseño original. Sin el desarrollo de nuevas tecnologías de asignación de direcciones IP, el rápido crecimiento de Internet habría agotado la cantidad actual de direcciones IP. Para poder compensar esta falta de direcciones IP, se buscaron diferentes soluciones. Una solución ampliamente implementada, es la Traducción de direcciones de red (NAT). NAT es un mecanismo para conservar direcciones IP registradas en las grandes redes y simplificar las tareas de administración de direccionamiento IP. Mientas se enruta un paquete a través de un dispositivo de red, por lo general un firewall o router fronterizo, la dirección IP fuente se traduce de una dirección de red interna privada a una dirección IP pública enrutable. Esto permite que se transporte el paquete a través de redes externas públicas como la Internet. La dirección pública de la respuesta se traduce de nuevo a la dirección interna privada para su entrega dentro de la red interna. Una variación de NAT, conocida como Traducción de direcciones de puerto (PAT), permite la traducción de muchas direcciones privadas internas con una sola dirección pública externa. Los routers, servidores y otros dispositivos fundamentales de la red por lo general requieren de una configuración IP estática, la cual se introduce de forma manual. Sin embargo, los clientes de escritorio no necesitan una dirección específica, sino una que pertenezca a un rango de direcciones. Este rango se encuentra por lo general dentro de una subred IP. A una estación de trabajo dentro de una red específica se le puede asignar cualquier dirección dentro de un rango, mientras que otros valores son estáticos, incluyendo la máscara de subred, el gateway por defecto y el servidor DNS. El protocolo de configuración dinámica de host (DHCP) se diseñó para asignar las direcciones IP y toda información de configuración de red importante de forma dinámica. Como los clientes de escritorio por lo general conforman la mayoría de los nodos de red, el DHCP es una herramienta muy útil que ahorra tiempo a los administradores de red. Los estudiantes que completan este módulo deberán poder hacer lo siguiente: • Identificar las direcciones IP privadas tal como se describen en RFC 1918 • Explicar las características de NAT y PAT • Explicar los beneficios de NAT • Explicar cómo se configuran NAT y PAT, incluyendo la traducción estática y dinámica y la sobrecarga • Identificar los comandos utilizados en la verificación de la configuración de NAT y PAT • Enumerar los pasos mediante los cuales se diagnostican las fallas en la configuración NAT y PAT • Explicar las ventajas y desventajas de NAT • Describir las características del DHCP • Explicar las diferencias entre BOOTP y DHCP • Explicar el proceso de configuración del cliente DHCP • Configurar un servidor DHCP • Verificar la operación de DHCP • Diagnosticar las fallas en una configuración DHCP • Explicar las peticiones de relay DHCP 1.1 Escalabilidad de redes con NAT y PAT 1.1.1 Direccionamiento privado RFC 1918 aparta los tres siguientes bloques de direcciones IP privadas: • Una dirección Clase A • Dieciséis direcciones Clase B • 256 direcciones Clase C Estas direcciones son sólo para el uso particular de la red interna. Los paquetes que contienen a estas direcciones no se enrutan a la Internet. 239 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Es necesario registrar las direcciones de Internet públicas con una autoridad de Internet como por ejemplo, el Registro americano de números de Internet (ARIN) o la Réseaux IP Européennes (RIPE), el Registro regional de Internet responsable de Europa y África del Norte. Estas direcciones de Internet públicas pueden alquilarse a una ISP también. Las direcciones IP privadas quedan reservadas y cualquiera las puede utilizar. Eso quiere decir que dos redes, o dos millones de redes, pueden utilizar la misma dirección privada. Un router nunca debe enrutar las direcciones RFC 1918 fuera de una red interna. Los ISP por lo general configuran los routers fronterizos para impedir que el tráfico direccionado de forma privada se envíe al exterior. NAT ofrece grandes beneficios a empresas individuales y a la Internet. Antes del desarrollo de NAT, un host con dirección privada no podía acceder a la Internet. Con NAT, las empresas individuales pueden direccionar algunos o todos sus hosts con direcciones privadas y utilizar NAT para brindar acceso a la Internet. 1.1.2 Introducción al NAT y PAT NAT está diseñada para conservar las direcciones IP y permitir que las redes utilicen direcciones IP privadas en las redes internas. Estas direcciones privadas e internas se convierten en direcciones públicas enrutables. Esto se logra mediante el uso de dispositivos de internetwork que ejecutan un software NAT especializado, el cual puede aumentar la privacidad de la red al esconder las direcciones IP internas. Un dispositivo que ejecuta NAT generalmente opera en la frontera de una red stub. Una red stub es una red que posee una sola conexión a su red vecina. Cuando un host dentro de una red stub desea hacer una transmisión a un host en el exterior, envía el paquete al router del gateway fronterizo. El router del gateway fronterizo realiza el proceso de NAT, traduciendo la dirección privada interna de un host a una dirección pública, enrutable y externa. En la terminología de NAT, la red interna es el conjunto de redes que están sujetos a traducción. La red externa se refiere a todas las otras direcciones. Figura 1 Cisco define los siguientes términos NAT: • Dirección local interna: la dirección IP asignada al host en la red interna. En general, la dirección no es una dirección IP asignada por el Centro de Información de la Red de Internet (InterNIC) o el proveedor de servicios. Es probable que esta dirección sea una dirección privada de RFC 1918. • Dirección global interna: una dirección IP legítima asignada por InterNIC o un proveedor de servicios que representa una o más direcciones IP locales internas al mundo exterior. • Dirección local externa: la dirección IP de un host externo, como la conocen los hosts en la red interna. • Dirección global externa: la dirección IP asignada a un host en la red externa. El dueño del host asigna esta dirección. 240 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 1.1.3 Características principales de NAT y PAT Las traducciones NAT se pueden usar para una variedad de propósitos y pueden asignarse de manera dinámica o estática. NAT estática está diseñada para permitir que cada dirección local se mapee a su correspondiente dirección global. Esto resulta particularmente útil para los hosts que deban tener una dirección constante que esté accesible desde la Internet. Estos hosts internos pueden ser servidores de empresas o dispositivos de networking. NAT dinámica está diseñada para mapear una dirección IP privada a una dirección pública. Cualquier dirección IP de un conjunto de direcciones IP públicas se asigna a un host de red. La sobrecarga, o Traducción de direcciones de puerto (PAT), mapea varias direcciones IP privadas a una sola dirección IP pública. Se pueden mapear varias direcciones a una sola dirección porque cada dirección privada se diferencia por el número de puerto. PAT utiliza números únicos de puerto origen en la dirección IP global interna para distinguir entre las traducciones. El número de puerto se codifica en 16 bits. En teoría, el número total de direcciones internas que se pueden traducir a una dirección externa podría ser hasta 65,536 por dirección IP . En realidad, el número de puertos que se pueden asignar a una sola dirección IP es aproximadamente 4000. PAT intenta preservar el puerto origen original. Si el puerto origen está en uso, PAT asigna el primer número de puerto disponible comenzando desde el principio del grupo de puertos correspondiente 0-511, 512-1023, o 1024-65535. Cuando no hay más puertos disponibles y hay más de una dirección IP externa configurada, PAT utiliza la próxima dirección IP para tratar de asignar nuevamente el puerto origen original. Este proceso continúa hasta que no haya puertos ni direcciones IP externas disponibles. 241 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Figura 2 NAT ofrece las siguientes ventajas: • Elimina la reasignación de una nueva dirección IP a cada host cuando se cambia a un nuevo ISP. NAT elimina la necesidad de re-direccionar todos los hosts que requieran acceso externo, ahorrando tiempo y dinero. • Conserva las direcciones mediante la multiplexión a nivel de puerto de la aplicación. Con PAT, los hosts internos pueden compartir una sola dirección IP pública para toda comunicación externa. En este tipo de configuración, se requieren muy pocas direcciones externas para admitir muchos hosts internos, y de este modo se conservan las direcciones IP • Protege la seguridad de la red. Debido a que las redes privadas no publican sus direcciones o topología interna, ellas son razonablemente seguras cuando se las utiliza en conjunto con NAT para tener un acceso externo controlado. 1.1.4 Configuración de NAT y PAT Traducción estática Para configurar la traducción estática de direcciones internas origen, realice las operaciones descriptas en las Figuras y . 242 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Figura 2 Figura 3 muestra el uso de la traducción NAT estática. El router traduce los paquetes provenientes del La Figura host 10.1.1.2 a la dirección origen de 192.168.1.2. 243 MicroCisco - staky CCNA - Cisco Certified Network Associate Traducción dinámica Para configurar la traducción dinámica de direcciones internas origen, realice las operaciones descriptas en la Figura . La lista de acceso debe permitir sólo aquellas direcciones que se deben traducir. Recuerde que existe un "denegar todo" implícito al final de una lista de acceso. Una lista de acceso que es demasiado permisiva puede desencadenar resultados impredecibles. Cisco no recomienda configurar listas de acceso con el comando permit any si los comandos NAT se refieren a esas listas. El uso de permit any puede hacer que NAT consuma demasiados recursos de los routers, lo que puede provocar problemas en la red. Figura 4 traduce todas las direcciones origen que pasan la lista de acceso 1, que tienen direcciones La figura origen de 10.1.0.0/24, a una dirección del conjunto llamado nat-pool1. El conjunto contiene direcciones desde 179.9.8.80/24 a 179.9.8.95/24. 244 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 5 Figura 6 245 MicroCisco - staky CCNA - Cisco Certified Network Associate NOTA: NAT no traduce el host 10.1.1.2, ya que la lista de acceso no permite que se traduzca. Sobrecarga La sobrecarga se puede configurar de dos formas según la asignación de las direcciones IP públicas. Una ISP puede asignar sólo una dirección IP pública a una red, y ésta por lo general se asigna a la interfaz externa que se conecta al ISP. La Figura muestra cómo se configura la sobrecarga en esta situación. Otra forma de configurar la sobrecarga es si el ISP ha asignado una o más direcciones IP públicas para uso en un conjunto NAT. Este conjunto puede sobrecargarse como se observa en la configuración de la Figura . Figura 7 La Figura muestra un ejemplo de configuración de PAT. Figura 8 1.1.5 Verificación de la configuración PAT. Una vez se ha configurado NAT, se puede utilizar los comandos clear y show para verificar que esté operando correctamente. Por defecto, las traducciones de direcciones dinámicas se borran de la tabla de traducción de NAT después de pasar cierto límite de tiempo de inactividad. Si el puerto de traducción no está configurado, las entradas de traducción se borran después de 24 horas, a menos que los temporizadores se reconfiguren mediante el comando ip nat translation timeouttimeout_seconds en el modo de configuración global. Se pueden borrar las entradas antes de que se venza el tiempo de espera utilizando uno de los comandos de la Figura . 246 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 La información de traducción se puede visualizar, llevando a cabo una de las operaciones descriptas en el modo EXEC . Figura 2 Otra alternativa, es utilizar el comando show run y buscar los comandos de NAT, de lista de acceso, de interfaz, o de conjunto con los valores requeridos. 1.1.6 Diagnóstico de fallas en la configuración de NAT y PAT Cuando existen problemas de conectividad IP en un entorno NAT, muchas veces resulta difícil determinar la causa del problema. Con frecuencia se culpa a NAT equivocadamente, cuando en realidad hay un problema subyacente. Al intentar determinar la causa del problema de conectividad IP, es útil excluir NAT. Siga los pasos que aparecen a continuación para determinar si NAT está funcionando correctamente: 247 MicroCisco - staky CCNA - Cisco Certified Network Associate 1. 2. 3. 4. Basándose en la configuración, defina con claridad lo que NAT debe lograr. Verifique que haya traducciones correctas en la tabla de traducción. Verifique por medio de los comandos show y debug que la traducción se está realizando. Revise detalladamente lo que le está pasando al paquete y verifique que los routers tengan la información de enrutamiento correcta para enviar el paquete. Utilice el comando debug ip nat para verificar la operación de NAT visualizando la información acerca de cada paquete que el router traduce. El comando debug ip nat detailed genera una descripción de cada paquete considerado para su traducción. Este comando también muestra información sobre ciertos errores o condiciones de excepción, como la imposibilidad de asignar una dirección global. La Figura muestra un ejemplo de salida de debug ip nat. En este ejemplo, las primeras dos líneas de la salida de depuración muestran que se produjeron una petición y una respuesta de Sistema de denominación de dominio (DNS). Las líneas restantes muestran la salida de depuración de una conexión Telnet desde un host en dentro la red a otro host fuera de la red. Figura 1 Utilice los siguientes puntos para descodificar la salida de debug: • El asterisco que se encuentra al lado de NAT indica que la traducción se está realizando en la ruta de conmutación rápida. El primer paquete de una conversación siempre se envía por la ruta lenta, lo que significa que el primer paquete es de conmutación de procesos. Los otros paquetes se envían por una ruta de conmutación rápida, si existe una entrada de caché. • s = a.b.c.d es la dirección origen. • La dirección origen a.b.c.d se traduce a w.x.y.z • d = e.f.g.h es la dirección destino. • El valor entre corchetes corresponde al número de identificación IP. Esta información puede resultar útil en la depuración. Esto resulta útil, por ejemplo, porque permite establecer una correlación con otros rastreos de paquetes de analizadores de protocolos. 1.1.7 Problemas con NAT NAT presenta varias ventajas, a saber: • Conserva el esquema de direccionamiento legalmente registrado al permitir la privatización de redes internas. • Aumenta la flexibilidad de las conexiones con la red pública. Se pueden implementar varios conjuntos, conjuntos de respaldo y de equilibrio de la carga para garantizar que las conexiones de red pública sean confiables. • Uniformidad en el esquema de direccionamiento de red interno. En una red sin direcciones IP privadas y NAT, cambiar de direcciones IP públicas requiere la renumeración de todos los hosts en 248 MicroCisco - staky CCNA - Cisco Certified Network Associate la red existente. El costo de renumerar los host puede ser elevado. NAT permite que permanezca el esquema existente, admitiendo a la vez un nuevo sistema de direccionamiento público. Figura 1 Sin embargo, NAT presenta algunas desventajas. Permitir la traducción de direcciones causa una pérdida en la funcionalidad, en particular con cualquier protocolo o aplicación que implique el envío de información de dirección IP dentro de los datos del paquete (payload) IP. Esto requiere que el dispositivo NAT tenga más funcionalidad. NAT aumenta el retardo. Se introducen retardos en la conmutación de rutas debido a la traducción de cada dirección IP dentro de los encabezados del paquete. El primer paquete siempre se envía por la ruta lenta, lo que significa que el primer paquete es de conmutación de procesos. Los otros paquetes se envían por la ruta de conmutación rápida, si existe una entrada de caché. Es posible que se comprometa el desempeño, ya que, en la actualidad, NAT se logra a través de la conmutación de procesos. La CPU tiene que inspeccionar cada paquete para decidir si es necesario traducirlo. La CPU debe modificar el encabezado IP, y posiblemente el encabezado TCP también: Una desventaja significativa que surge al implementar y utilizar NAT, es la pérdida de la posibilidad de rastreo IP de extremo a extremo. Se hace mucho más difícil rastrear paquetes que sufren varios cambios en la dirección del paquete al atravesar múltiples saltos NAT. Afortunadamente, los hackers que quieran determinar la fuente del paquete, descubrirán que es muy difícil rastrear u obtener la dirección origen o destino original. NAT también hace que algunas aplicaciones que utilizan el direccionamiento IP dejen de funcionar, porque esconde las direcciones IP de extremo a extremo. Las aplicaciones que utilizan las direcciones físicas en vez de un nombre de dominio calificado no llegarán a los destinos que se traducen en el router NAT. Algunas veces, este problema puede evitarse implementando mapeos NAT estáticos. Figura 2 Cisco IOS NAT admite los siguientes tipos de tráfico: • ICMP • Protocolo de transferencia de archivos (FTP), incluyendo los comandos PORT y PASV 249 MicroCisco - staky CCNA - Cisco Certified Network Associate • • • • • • • • • • • • • • • NetBIOS a través de los servicios TCP/IP, de datagrama, de nombre y de sesión. RealAudio de RealNetworks. CUSeeMe de White Pines. StreamWorks de Xing Technologies. Consultas de DNS "A" y "PTR" H.323/Microsoft NetMeeting, versiones IOS 12.0(1)/12.0(1)T y posteriores VDOLive de VDOnet , versiones IOS 11.3(4)11.3(4)T y posteriores Web Theater de VXtreme, versiones IOS11.3(4)11.3(4)T y posteriores Multicast IP, versión IOS12.0(1)T con traducción de las direcciones origen únicamente Cisco IOS NAT no admite los siguientes tipos de tráfico: Actualizaciones de la tabla de enrutamiento Transferencias de la zona DNS BOOTP Protocolos talk y ntalk Protocolo simple de administración de red (SNMP) 1.2 DHCP 1.2.1 Introducción al DHCP El Protocolo de configuración dinámica del host (DHCP) funciona en el modo cliente/servidor. DHCP permite que los clientes DHCP de una red IP obtengan sus configuraciones de un servidor DHCP. Es menos trabajoso administrar una red IP cuando se utiliza DHCP. La opción de configuración más significativa que el cliente recibe del servidor es su dirección IP. El protocolo DHCP se describe en RFC 2131. Figura 1 Un cliente DHCP está incluido en la mayoría de los sistemas operativos modernos, inclusive en varios sistemas operativos de Windows, Novell Netware, Sun Solaris, Linux y MAC OS. El cliente pide valores de direccionamiento al servidor DHCP de red. Este servidor administra la asignación de las direcciones IP y responde a las peticiones de configuración de los clientes. El servidor DHCP puede responder a las peticiones provenientes de muchas subredes. DHCP no está destinado a la configuración de routers, switches y servidores. Estos tipos de hosts necesitan contar con direcciones IP estáticas. La función de DHCP es brindar un proceso para que el servidor pueda asignar información IP a los clientes. Los clientes alquilan la información de los servidores por un período definido administrativamente. Cuando el período de alquiler se termina, el cliente debe pedir otra dirección, aunque en general, se le reasigna la misma dirección. Los administradores en general prefieren que los servidores de red ofrezcan servicios DHCP porque estas soluciones facilitan el crecimiento y la administración. Los routers de Cisco pueden utilizar un conjunto de funciones Cisco IOS, que se llama Easy IP, para ofrecer un servidor DHCP opcional con todas las funciones. Easy IP alquila las configuraciones por 24 horas por defecto. Esto resulta muy útil en las oficinas 250 MicroCisco - staky CCNA - Cisco Certified Network Associate pequeñas y para aquellos que trabajan en sus casas, donde el usuario puede aprovechar DHCP y NAT sin contar con un servidor NT o UNIX. Figura 2 Figura 3 Los administradores configuran los servidores DHCP para asignar direcciones de conjuntos predefinidos. Los servidores DHCP pueden ofrecer otra información, tal como direcciones del servidor DNS, direcciones del servidor WINS y nombres de dominios. La mayoría de los servidores DHCP también permiten que el administrador defina de forma específica cuáles direcciones MAC de cliente se pueden servir y asignarles cada vez la misma dirección IP de forma automática. DHCP utiliza el Protocolo de datagrama del usuario (UDP) como su protocolo de transporte. El cliente envía mensajes al servidor en el puerto 67. El servidor envía mensajes al cliente en el puerto 68. 1.2.2 Diferencias entre BOOTP y DHCP La comunidad de Internet comenzó a desarrollar el protocolo BOOTP para permitir la configuración de estaciones de trabajo sin disco. BOOTP se definió originalmente en RFC 951 en 1985. Como predecesor de DHCP, BOOTP comparte algunas de las características operacionales. Ambos protocolos se basan en la relación cliente/servidor y utilizan los puertos UDP 67 y 68. Estos puertos todavía se conocen como puertos BOOTP. Los cuatro parámetros IP básicos incluyen: • Dirección IP • Dirección de gateway • Máscara de subred • Dirección de servidor DNS. 251 MicroCisco - staky CCNA - Cisco Certified Network Associate BOOTP no asigna direcciones IP a un host de forma dinámica. Cuando un cliente solicita una dirección IP, el servidor BOOTP busca una entrada que coincida con la dirección MAC del cliente en una tabla predefinida. Si la entrada existe, entonces la dirección IP correspondiente a esa entrada se envía al cliente. Esto significa que el enlace entre las direcciones MAC e IP se tiene que haber configurado previamente en el servidor BOOTP. Figura 1 Existen dos diferencias principales entre DHCP y BOOTP: • DHCP define mecanismos por medio de los cuales se les puede asignar una dirección IP a los clientes por un período de tiempo de alquiler determinado. Este período de alquiler permite la reasignación de la dirección IP a otro cliente más tarde, o que el cliente reciba otra asignación si se cambia a otra subred. Además, los clientes pueden renovar los alquileres y mantener la misma dirección IP. • DHCP proporciona el mecanismo para que un cliente reúna otros parámetros de configuración IP, tales como WINS y denominación de dominio. 1.2.3 Funciones principales del DHCP Tres son los mecanismos para asignar direcciones IP a un cliente: • Asignación automática: DHCP asigna de manera automática una dirección IP a un cliente. • Asignación manual: el administrador asigna una dirección IP al cliente. DHCP comunica la dirección al cliente. • Asignación dinámica: DHCP asigna, o alquila, una dirección IP al cliente por un período de tiempo limitado. Figura 1 El enfoque de esta sección es el mecanismo de asignación dinámico. Algunos de los parámetros de configuración disponibles están enumerados en IETF RFC 1533: • Máscara de subred • Router • Nombre de dominio • Servidor(es) de denominación de dominio • Servidor(es) WINS 252 MicroCisco - staky CCNA - Cisco Certified Network Associate El servidor DHCP crea conjuntos de direcciones IP y parámetros asociados. Los conjuntos están dedicados a una subred IP lógica individual. Esto permite que varios servidores DHCP respondan y que los clientes IP sean móviles. Si varios servidores responden, el cliente puede elegir sólo una de las ofertas. 1.2.4 Operación DHCP Figura 1 Figura 2 El proceso de configuración de un cliente DHCP consta de los siguientes pasos: 1. Un cliente debe tener DHCP configurado al comenzar su proceso de participación en la red. El cliente envía una petición al servidor para obtener una configuración IP. Algunas veces el cliente sugiere la dirección IP que quiere, como cuando pide una extensión de un alquiler DHCP. El cliente ubica el servidor DHCP enviando un broadcast llamado DHCPDISCOVER. 2. Cuando un servidor recibe el broadcast, determina si puede servir esa petición de su propia base de datos. Si no puede, es posible que el servidor envíe la petición a otro servidor DHCP. Si puede, el servidor DHCP ofrece al cliente información de configuración IP como DHCPOFFER unicast DHCPOFFER es una configuración propuesta que puede incluir direcciones IP, direcciones de servidores DNS y tiempo de alquiler. 3. Si el cliente encuentra que la propuesta es buena, envía otro broadcast, un DHCPREQUEST, pidiendo de forma específica aquellos parámetros IP en particular. ¿Por qué un cliente envía la petición en forma broadcast en lugar de enviarla en unicast directamente al servidor? Se utiliza un 253 MicroCisco - staky CCNA - Cisco Certified Network Associate broadcast porque el primer mensaje, el DHCPDISCOVER, pudo haber llegado a más de un servidor DHCP. Si más de un servidor realiza una oferta, el DHCPREQUEST enviado permite que los otros servidores sepan cuál oferta se aceptó. Por lo general, la oferta que se acepta es la primera que se recibe. 4. El servidor que recibe el DHCPREQUEST formaliza la configuración mandando un recibo unicast, el DHCPACK. Es posible, aunque muy poco probable, que el servidor no envíe el DHCPACK. Esto puede ocurrir porque entretanto, el servidor pudo haber alquilado esa información a otro cliente. La recepción del mensaje DHCPACK permite que un cliente comience a utilizar la dirección asignada de inmediato. 5. Si el cliente detecta que la dirección ya está en uso en el segmento local, envía un mensaje DHCPDECLINE y el proceso vuelve a comenzar. Si el cliente recibe un DHCPNACK del servidor luego de enviar el DHCPREQUEST, entonces comienza el proceso nuevamente. 6. Si el cliente ya no desea la dirección IP, envía un mensaje DHCPRELEASE al servidor. Según la política de la organización, es posible que un usuario final o un administrador asigne a un host de forma estática una dirección IP que pertenezca al conjunto de direcciones del servidor DHCP. Por las dudas, el servidor Cisco IOS DHCP siempre se asegura de que una dirección no esté en uso antes de que el servidor la ofrezca a un cliente. El servidor enviará una petición eco ICMP o hará ping a una dirección del conjunto antes de enviar una DHCPOFFER al cliente. Aunque es configurable, el número por defecto de pings utilizados para buscar un conflicto potencial de dirección IP es dos. 1.2.5 Configuración de DHCP Al igual que NAT, un servidor DHCP requiere que el administrador defina un conjunto de direcciones. El comando ip dhcp pool define cuáles direcciones se asignarán a los hosts. El primer comando, ip dhcp pool, crea un conjunto con la denominación especificada y coloca al router en un modo especializado de configuración DHCP. En este modo, utilice el comando network para definir el rango de direcciones que se arrendarán. Si se ha de excluir direcciones de la red específicas, vuelva al modo de configuración global. Figura 1 Figura 2 El comando ip dhcp excluded-address configura al router para excluir una dirección individual o un rango de direcciones a la hora de asignar las direcciones a los clientes. El comando ip dhcp excluded-address 254 MicroCisco - staky CCNA - Cisco Certified Network Associate se puede utilizar para reservar las direcciones asignadas de forma estática a los hosts clave, por ejemplo, la dirección de interfaz del router. En general, el servidor DHCP se configura para asignar mucho más que una dirección IP. Otros valores de configuración IP, tales como el gateway por defecto pueden establecerse del modo de configuración DHCP. El comando default-router establece el gateway por defecto. Aquí también se puede configurar la dirección DNS del servidor, dns-server y el servidor WINS, netbios-name-server. El servidor IOS DHCP puede configurar clientes con casi cualquier información TCP/IP. La figura muestra una lista de los principales comandos de servidor DHCP IOS que pueden ser introducidos en el modo de configuración ip dhcp pool. Figura 3 El servidor DHCP se habilita por defecto en las versiones de Cisco IOS que lo admitan. Para desactivar el servicio, utilice el comando no service dhcp Utilice el comando de configuración global service dhcp para rehabilitar el proceso de servidor DHCP. 1.2.6 Verificación de la operación DHCP Para verificar la operación DHCP, se puede utilizar el comando show ip dhcp binding. Esto muestra una lista de todos los enlaces que el servicio DHCP creó. Figura 1 Para verificar que el router esté recibiendo o enviando los mensajes, utilice el comando show ip dhcp server statistics. Esto mostrará información numérica acerca de la cantidad de mensajes DHCP que se envían y reciben. 1.2.7 Diagnóstico de fallas de DHCP Para diagnosticar las fallas en el funcionamiento del servidor DHCP, se puede utilizar el comando debug ip dhcp server events. Este comando mostrará que el servidor, de forma periódica, verifica si se venció algún alquiler. También se muestran los procesos de devolución y asignación de direcciones. 255 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 1.2.8 Relay (envío) de DHCP Los clientes DHCP utilizan broadcasts IP para encontrar el servidor DHCP en el segmento. ¿Qué sucede cuando el servidor y el cliente no se encuentran en el mismo segmento y están separados por un router? Los routers no envían estos broadcasts. DHCP no es el único servicio crítico que utiliza broadcasts. Los routers Cisco y otros dispositivos pueden utilizar broadcasts para encontrar los servidores TFTP. Es posible que algunos clientes realicen broadcasts para encontrar los servidores TACACS. Un servidor TACACS es un servidor de seguridad. En general, en una red jerárquica compleja, los clientes se encuentran en la misma subred que los servidores principales. Estos clientes remotos enviarán un broadcast para encontrar estos servidores. Sin embargo, los routers, por defecto, no enviarán los broadcasts de los clientes más allá de sus subredes. Debido a que algunos clientes no pueden funcionar sin los servicios tales como DHCP, se debe implementar una de dos alternativas. El administrador necesitará colocar servidores en todas las subredes o utilizar la función de ayudante de dirección Cisco IOS. El hacer funcionar servicios como DHCP o DNS en varios computadores crea gastos y dificultades administrativas que hacen que la primera opción sea ineficiente. Cuando sea posible, los administradores deben utilizar el comando ip helper-address para transmitir las peticiones de broadcast en relay para estos servicios UDP fundamentales. Figura 1 Al utilizar la función de ayudante de dirección, un router se puede configurar para aceptar una petición en broadcast para un servicio UDP y luego enviarla como unicast a una dirección IP específica. Por defecto, el comando ip helper-address envía los siguientes ocho servicios UDP: • Tiempo • TACACS • DNS • Servidor BOOTP/DHCP • Cliente BOOTP/DHCP • TFTP • NetBIOS Name Service (Resolución de nombres NetBIOS) • NetBIOS datagram Service (servicio de datagrama NetBIOS) 256 MicroCisco - staky CCNA - Cisco Certified Network Associate En el caso particular de DHCP, un cliente envía un paquete DHCPDISCOVER en su segmento local. El gateway toma este paquete. Si la dirección de ayudante está activa, el paquete DHCP se envía a la dirección especificada. Antes de enviar el paquete, el router completa el campo GIADD del paquete con la dirección IP del router para ese segmento. Esta dirección entonces será la dirección de gateway para el cliente DHCP cuando reciba la dirección IP. Figura 2 Figura 3 El servidor DHCP recibe el paquete de descubrimiento. El servidor utiliza el campo GIADDR para cotejar la lista del conjunto de direcciones y hallar una que contenga la dirección de gateway asignada al valor en GIADDR. Este conjunto entonces se utiliza para brindar al cliente su dirección IP. – 257 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 4 Resumen Se debe haber obtenido una comprensión adecuada de los siguientes puntos clave: • Las direcciones privadas son para uso interno y particular y un router de Internet público nunca debe enrutarlas. • NAT modifica los encabezados IP de los paquetes de modo que la dirección destino, la dirección origen o ambas direcciones se remplacen con otras direcciones. • PAT utiliza números únicos de puerto origen en la dirección IP global interna para distinguir entre las traducciones. • Las traducciones NAT pueden ocurrir dinámica o estáticamente y se pueden usar para varias aplicaciones. • Se pueden configurar NAT y PAT para la traducción estática, dinámica y de sobrecarga. • El proceso para verificar la configuración de NAT y PAT incluye los comandos clear y show. • El comando debug ip nat se utiliza para diagnosticar fallas en la configuración de NAT y PAT. • NAT presenta ventajas y desventajas. • DHCP funciona en un modo cliente/servidor, permitiendo que los clientes obtengan configuraciones IP de un servidor DHCP. • BOOTP es el predecesor de DHCP y comparte algunas características operacionales con DHCP, pero BOOTP no es dinámico. • Un servidor DHCP gestiona conjuntos de direcciones IP y los parámetros asociados. Cada conjunto está dedicado a una subred IP lógica individual. • El proceso de configuración del cliente DHCP consiste en cuatro pasos. • En general, un servidor DHCP se configura para asignar más que direcciones IP. • El comando show ip dhcp binding se utiliza para verificar la operación de DHCP. • El comando debug ip dhcp server events se utiliza para detectar las fallas de DCHP. • Cuando un servidor DHCP y un cliente no se encuentran en el mismo segmento y están separados por un router, el comando ip helper-address se utiliza para transferir la petición de broadcast en relay. 258 CCNA - Cisco Certified Network Associate MicroCisco - staky Módulo 2: Tecnologías WAN Descripción general A medida que la empresa crece y ocupa más de un sitio, es necesario interconectar las LAN de las sucursales para formar una red de área amplia (WAN). Este módulo analiza algunas de las opciones disponibles para efectuar estas interconexiones; el hardware que se necesita para implementarlas y la terminología utilizada para explicarlas. En la actualidad existen muchas opciones para implementar soluciones WAN. Ellas difieren en tecnología, velocidad y costo. Estar familiarizado con estas tecnologías es una parte importante del diseño y evaluación de la red. Si todo el tráfico de información de una empresa se encuentra dentro de un mismo edificio, una LAN puede cubrir las necesidades de la organización. Los edificios pueden estar interconectados con enlaces de datos de alta velocidad para formar una LAN de campus, en el caso en que los datos tengan que pasar de un edificio a otro en un solo campus. Sin embargo, se necesita una WAN para transportar los datos si es necesario transferirlos a lugares geográficamente distintos. El acceso remoto individual a la LAN y la conexión de LAN a Internet son temas de estudio distintos y no se tratarán en este módulo. La mayoría de los estudiantes no tendrán la oportunidad de diseñar una nueva WAN, pero muchos participarán en el diseño de agregados y actualizaciones a las WAN existentes, y podrán aplicar las técnicas aprendidas en este módulo. Los estudiantes que completan este módulo deberán poder hacer lo siguiente: • Diferenciar entre una LAN y una WAN. • Identificar los dispositivos de una WAN. • Enumerar los estándares WAN • Describir el encapsulamiento WAN • Clasificar las distintas opciones de enlace WAN • Diferenciar entre tecnologías WAN conmutadas por paquete y conmutadas por circuito • Hacer una comparación de las tecnologías WAN actuales • Describir el equipo necesario para la implementación de varios servicios WAN • Recomendar un servicio WAN a una empresa según sus necesidades. • Describir los principios básicos de la conectividad DSL y de cable módem • Describir un procedimiento metódico para el diseño de las WAN • Hacer una comparación de las topologías WAN • Hacer una comparación de los modelos de diseño WAN • Recomendar un diseño WAN a una empresa a base de sus necesidades 2.1 Descripción general de la tecnología WAN 2.1.1 Tecnología WAN Una WAN es una red de comunicación de datos que opera más allá del alcance geográfico de una LAN. Una de las diferencias primordiales entre una WAN y una LAN es que una empresa u organización debe suscribirse a un proveedor de servicio WAN externo para utilizar los servicios de red de una operadora de servicios WAN. Una WAN utiliza enlaces de datos suministrados por los servicios de una operadora para acceder a Internet y conectar los sitios de una organización entre sí, con sitios de otras organizaciones, con servicios externos y con usuarios remotos. Las WAN generalmente transportan varios tipos de tráfico, tales como voz, datos y vídeo. Los servicios telefónicos y de datos son los servicios WAN de uso más generalizado. Los dispositivos de las instalaciones del suscriptor se conocen como equipo terminal del abonado (CPE). El suscriptor es dueño de un CPE o alquila un CPE del proveedor de servicios. Un cable de cobre o fibra conecta el CPE a la central telefónica del proveedor de servicio más cercano. Este cableado muchas veces se llama bucle local, o última milla. Una llamada marcada se conecta de forma local a otros bucles locales o de forma no local a través de un troncal a un centro primario. Luego se dirige a un centro de sección y luego a un centro de operación internacional o regional a medida que la llamada viaja a su destino. 259 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Figura 2 Figura 3 Para que el bucle local transporte datos, se necesita un dispositivo como un módem que prepare los datos para su transmisión. Los dispositivos que colocan los datos en el bucle local se llaman equipos de terminación de circuito de datos, o equipos de comunicación de datos (DCE). Los dispositivos del cliente 260 MicroCisco - staky CCNA - Cisco Certified Network Associate que transmiten datos al DCE se llaman equipo terminal de datos (DTE). El propósito principal del DCE es suministrar una interfaz para el DTE al enlace de comunicación en la nube WAN. La interfaz DTE/DCE utiliza varios protocolos de capa física, tales como la Interfaz serial de alta velocidad (HSSI) y V.35. Estos protocolos establecen los códigos y parámetros eléctricos que los dispositivos utilizan para comunicarse entre sí. Figura 4 Figura 5 Los enlaces WAN vienen en varias velocidades medidos en bits por segundo (bps), kilobits por segundo (kbps o 1000 bps), megabits por segundo (Mbps o 1000 kbps) o gigabits por segundo (Gbps o 1000 Mbps) Los valores de bps por lo general son de full duplex. Esto significa que una línea E1 puede transportar 2 Mbps, o T1 puede transportar 1,5 Mbps en cada dirección de manera simultánea. 261 MicroCisco - staky CCNA - Cisco Certified Network Associate 2.1.2 Dispositivos WAN Las WAN son grupos de LAN conectadas con enlaces de comunicaciones desde un proveedor de servicios. Como los enlaces de comunicaciones no pueden conectarse directamente a la LAN, es necesario identificar las distintas piezas del equipo que realiza las interfaces. Figura 1 Las computadoras basadas en LAN con datos a transmitir, envían datos a un router que contiene tanto El router utiliza información de dirección de Capa 3 para enviar los datos en interfaces LAN como WAN. la interfaz WAN apropiada. Los routers son dispositivos de red activos e inteligentes y por lo tanto pueden participar en la administración de una red. Los routers administran las redes suministrando un control dinámico sobre los recursos y dando soporte a las tareas y objetivos de las redes. Algunos de estos objetivos son: conectividad, desempeño confiable, control de administración y flexibilidad. Figura 2 El enlace de comunicaciones necesita señales en un formato correcto. Para las líneas digitales, se requiere una unidad de servicio de canal (CSU) y una unidad de servicio de datos (DSU). Con frecuencia, las dos se encuentran combinadas en una sola pieza del equipo, llamada CSU/DSU. La CSU/DSU también puede integrarse a la tarjeta de interfaz del router. Si el bucle local es analógico y no digital, requiere de un módem. Los módems transmiten datos a través de las líneas telefónicas de grado de voz, modulando y demodulando la señal. Las señales digitales se superponen en la señal analógica de la voz que se modula para su transmisión. Si se enciende el altavoz 262 MicroCisco - staky CCNA - Cisco Certified Network Associate del módem interno, la señal modulada se oye como una serie de silbidos. En el destino, las señales analógicas se convierten a su forma digital de nuevo, o se demodulan. Figura 3 Figura 4 Cuando se utiliza ISDN como el enlace de comunicaciones, todos los equipos conectados al bus ISDN tienen que ser compatibles con ISDN. La compatibilidad, en general, se integra a la interfaz de la computadora para conexiones de acceso telefónico directas o a la interfaz del router para conexiones LAN o WAN. Los equipos más antiguos sin interfaz ISDN requieren un adaptador de terminal ISDN (TA) para la compatibilidad con ISDN. Los servidores de comunicaciones concentran la comunicación de usuarios de acceso telefónico entrante y de acceso remoto a una LAN. Pueden tener una mezcla de interfaces analógicas y digitales (ISDN) y admitir a cientos de usuarios al mismo tiempo. 2.1.3 Normas WAN Las WAN utilizan el modelo de referencia OSI, pero se enfocan principalmente en las Capas 1 y 2. Los estándares WAN, por lo general, describen tanto los métodos de envío de la capa física como los requisitos de la capa de enlace de datos, incluyendo el direccionamiento físico, el control de flujo y el encapsulamiento. Hay varias autoridades reconocidas que definen y administran los estándares WAN. Los protocolos de capa física describen cómo proporcionar las conexiones eléctricas, mecánicas, operativas y funcionales a los servicios brindados por un proveedor de servicios de comunicaciones. Algunos de los estándares de la capa física más comunes se enumeran en la Figura y sus conectores se ilustran en la Figura . 263 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Figura 2 Figura 3 Los protocolos de la capa de enlace de datos definen cómo se encapsulan los datos para su transmisión a lugares remotos, y los mecanismos de transferencia de las tramas resultantes. Se utiliza una variedad de tecnologías, tales como ISDN, Frame Relay o el Modo de Transferencia Asíncrona (ATM). Estos protocolos utilizan los mismos mecanismos de entramado, control de enlace de datos de alto nivel (HDLC), un estándar ISO o uno de sus subgrupos o variantes. 264 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 4 2.1.4 Encapsulamiento WAN Los datos de la capa de red se envían a la capa de enlace de datos para su transmisión en un enlace físico, que normalmente es de punto a punto en una conexión WAN. La capa de enlace de datos crea una trama alrededor de los datos de capa de red de modo que se apliquen los controles y verificaciones necesarios. Cada tipo de conexión WAN utiliza un protocolo de Capa 2 para encapsular el tráfico mientras atraviesa el enlace WAN. Para asegurarse de que se esté utilizando el protocolo de encapsulamiento correcto, se debe configurar el tipo de encapsulamiento de Capa 2 utilizado en cada interfaz serial del router. El protocolo de encapsulamiento que se debe usar depende de la tecnología WAN y del equipo. La mayoría del entramado se basa en el estándar HDLC. El entramado HDLC garantiza una entrega confiable de datos en líneas poco confiables e incluye mecanismos de señalización para el control de flujo y errores. La trama siempre comienza y termina con un campo de señaladores de 8 bits, con un patrón de bit de 01111110. Como existe la posibilidad de que este patrón ocurra en los datos mismos, el sistema de envío HDLC siempre inserta un bit 0 después de cada cinco 1s en el campo de datos, de modo que en la práctica la secuencia de señaladores sólo puede tener lugar en los extremos de la trama. El sistema receptor quita los bits insertados. Cuando las tramas se transmiten de forma consecutiva, el señalador del final de la primera trama se utiliza como señalador de inicio de la trama siguiente. Figura 1 El campo de dirección no es necesario para los enlaces WAN, los cuales casi siempre son de punto a punto. El campo de dirección está aún presente y puede ser de uno a dos bytes de longitud. El campo de control indica el tipo de trama, que puede ser de información, de supervisión o sin enumerar. • • • Las tramas sin enumerar transportan mensajes de configuración de la línea. Las tramas de información transportan datos de la capa de red. Las tramas de supervisión controlan el flujo de tramas de información y peticiones de retransmisión de datos si hubiera algún error. El campo de control, por lo general, consta de un byte, pero en los sistemas de ventanas deslizantes extendidos, tendrá dos bytes. Juntos los campos de control y de dirección se denominan encabezado de la trama. El dato encapsulado sigue el campo de control. Entonces, una secuencia de verificación de trama 265 MicroCisco - staky CCNA - Cisco Certified Network Associate (FCS) utiliza el mecanismo de verificación por redundancia cíclica (CRC) para establecer un campo de dos o cuatro bytes. Se utilizan varios protocolos de enlace de datos, incluyendo subgrupos y versiones propietarias de HDLC. Tanto PPP como la versión de Cisco de HDLC tienen un campo extra en el encabezado para identificar el protocolo de capa de red del dato encapsulado. Figura 2 Figura 3 2.1.5 Conmutación de paquetes y circuitos. Las redes conmutadas por paquetes se desarrollaron para compensar el gasto de las redes conmutadas por circuitos públicas y suministrar una tecnología WAN más económica. Cuando un suscriptor realiza una llamada telefónica, el número marcado se utiliza para establecer switches en las centrales a lo largo de la ruta de la llamada de modo que haya un circuito continuo entre quien hace la llamada y quien recibe la llamada. Debido a la operación de conmutación usada para establecer el circuito, el sistema telefónico se conoce como red conmutada por circuito. Si los módems reemplazan a los teléfonos, entonces el circuito conmutado puede transportar datos de computador. Figura 1 Varias conversaciones comparten la ruta interna que sigue el circuito entre los centrales. Se utiliza la multiplexión por división de tiempo (TDM) para dar a cada conversación una parte de la conexión por turno. TDM garantiza que una conexión de capacidad fija esté disponible al suscriptor. 266 MicroCisco - staky CCNA - Cisco Certified Network Associate Si el circuito transporta datos de computador, es posible que el uso de esta capacidad fija no sea eficiente. Por ejemplo, si se utiliza el circuito para tener acceso a Internet, habrá "ráfagas" de actividad en el circuito mientras se transfiere una página Web. Entonces, es posible que le siga un período sin actividad mientras el usuario lee la página y luego otra ráfaga de actividad mientras se transfiere la página siguiente. Esta variación en el uso entre máximo y nada es típica del tráfico informático de red. Como el suscriptor tiene uso exclusivo de la capacidad fija asignada, los circuitos conmutados, en general, son una forma cara de transferir datos. Una alternativa es asignar la capacidad al tráfico solo cuando es necesario y compartir la capacidad disponible entre varios usuarios. Con una conexión conmutada por circuito, los bits de datos puestos en el circuito se transmiten de forma automática al extremo más lejano porque el circuito ya está establecido. Si es necesario compartir el circuito, tiene que haber un mecanismo para rotular los bits de modo que el sistema sepa dónde transmitirlos. Es difícil rotular bits individuales, por lo tanto, se juntan en grupos llamados celdas, tramas o paquetes. Los paquetes se transfieren de central a central para su envío a través de la red del proveedor. Las redes que implementan este sistema se llaman redes conmutadas por paquetes. Figura 2 Los enlaces que conectan estos switches en la red del proveedor pertenecen a un suscriptor individual durante la transferencia de datos, de modo que muchos suscriptores pueden compartir el enlace. Los costos pueden ser significativamente menores que en la conexión conmutada por circuitos. Los datos en redes conmutadas por paquetes están sujetos a demoras impredecibles cuando paquetes individuales esperan que los switches transmitan los paquetes de otros suscriptores. Los switches de una red conmutada por paquetes determinan, según la información de direccionamiento en cada paquete, cuál es el siguiente enlace por el que se debe enviar el paquete. Hay dos maneras de determinar este enlace: orientada a conexión o sin conexión. Los sistemas sin conexión, tal como Internet, transmiten toda la información de direccionamiento en cada paquete. Cada switch debe evaluar la dirección para determinar dónde enviar el paquete. Los sistemas orientados a conexión predeterminan la ruta del paquete y cada paquete necesita llevar sólo un identificador. En el caso de Frame Relay, estos se denominan Identificadores de control de enlace de datos (DLCI). El switch determina la ruta a seguir buscando el identificador en las tablas que tiene en su memoria. Este grupo de entradas en las tablas identifica una ruta o circuito particular a través del sistema. Si este circuito está físicamente disponible sólo mientras el paquete esté pasando por él, se llama Circuito virtual (VC). Las entradas de la tabla que constituyen el VC se pueden establecer enviando peticiones de conexión a través de la red. En este caso, el circuito resultante se llama Circuito virtual conmutado (SVC). Los datos a transmitir en un SVC deben esperar hasta que se hayan establecido las entradas de la tabla. Una vez establecido, el SVC puede permanecer en operación durante horas, días o semanas. Cuando se requiere que un circuito esté siempre disponible, se establece un Circuito virtual permanente (PVC). Los switch cargan las entradas de la tabla durante el arranque, de modo que el PVC está siempre disponible. 267 MicroCisco - staky CCNA - Cisco Certified Network Associate 2.1.6 Opciones de enlace WAN La Figura ofrece una descripción de las opciones de enlace WAN. Figura 1 La conmutación de circuitos establece una conexión dedicada para voz y datos entre el emisor y el receptor. Antes de que comience la conmutación, es necesario establecer la conexión configurando los switch. El sistema telefónico lleva a cabo esta función, mediante el número marcado. ISDN se usa tanto en las líneas digitales como en las de grado de voz. Para evitar las demoras asociadas con la configuración de una conexión, los proveedores de servicio telefónico también ofrecen circuitos permanentes. Estas líneas alquiladas o dedicadas ofrecen mayor ancho de banda que el disponible en los circuitos conmutados. Ejemplos de conexiones conmutadas por circuitos son: • Sistema de servicio telefónico analógico (POTS) • Interfaz de acceso básico ISDN (BRI) • Interfaz de acceso primario ISDN (PRI) Muchos usuarios WAN no utilizan de manera eficiente el ancho de banda fijo que está disponible para los circuitos dedicados, conmutados o permanentes porque el flujo de datos fluctúa. Los proveedores de comunicaciones cuentan con redes de datos, disponibles para brindar un mejor servicio a estos usuarios. En estas redes, los datos se transmiten en celdas rotuladas, tramas o paquetes a través de una red conmutada por paquetes. Como los enlaces internos entre los switch se comparten entre varios usuarios, los costos de la conmutación de paquetes son más bajos que aquellos de conmutación de circuitos. Los retardos (latencia) y la variación en los retardos (fluctuación de fase) son mayores en las redes conmutadas por paquetes que en las conmutadas por circuitos. Esto ocurre porque se comparten los enlaces y es necesario que un switch reciba todos los paquetes antes de seguir adelante. A pesar de la latencia y las fluctuaciones de fase inherentes a las redes compartidas, la tecnología moderna permite el transporte satisfactorio de las comunicaciones de voz y hasta video por estas redes. Las redes conmutadas por paquetes pueden establecer rutas a través de los switch para realizar conexiones de extremo a extremo particulares. Las rutas establecidas cuando el switch comienza son PVC. Las rutas establecidas a petición son SVC. Si la ruta no está preestablecida y cada switch la determina para cada paquete, la red se conoce como sin conexión. Para conectar una red conmutada por paquetes, el suscriptor necesita un bucle local a la ubicación más cercana donde el proveedor ofrece el servicio. Esto se llama punto de presencia (POP) del servicio. Por lo general ésta es una línea alquilada dedicada. Esta línea es mucho más corta que una línea alquilada conectada directamente a las diferentes ubicaciones del suscriptor y muchas veces transporta VC. Como que es poco probable que todos los VC enfrenten la máxima demanda al mismo tiempo, la capacidad de una línea alquilada puede ser menor a la de la suma de los VC individuales. Ejemplos de conexiones conmutadas por paquetes o celdas son: 268 MicroCisco - staky CCNA - Cisco Certified Network Associate • • • Frame Relay X.25 ATM 2.2 Tecnologías WAN 2.2.1 Conexión telefónica analógica Cuando se necesitan transferencias de datos de bajo volumen e intermitentes, los módems y las líneas telefónicas analógicas ofrecen conexiones conmutadas dedicadas y de baja capacidad. Figura 1 La telefonía convencional utiliza cables de cobre, llamados bucle local, para conectar el equipo telefónico a las instalaciones del suscriptor a la red telefónica pública conmutada (PSTN). La señal en el bucle local durante una llamada es una señal electrónica en constante cambio, que es la traducción de la voz del suscriptor. El bucle local no es adecuado para el transporte directo de datos informáticos binarios, pero el módem puede enviar datos de computador a través de la red telefónica de voz. El módem modula los datos binarios en una señal analógica en el origen y, en el destino, demodula la señal analógica a datos binarios. Las características físicas del bucle local y su conexión a PSTN limitan la velocidad de la señal. El límite superior está cercano 33 kbps. Es posible aumentar la velocidad a 56 kbps si la señal viene directamente por una conexión digital. Para las empresas pequeñas, esto puede resultar adecuado para el intercambio de cifras de ventas, precios, informes regulares y correo electrónico. Al usar el sistema de conexión automático de noche o durante los fines de semana para realizar grandes transferencias de archivos y copias de respaldo de datos, la empresa puede aprovecharse de las tarifas más bajas de las horas no pico (cargos por línea) Las tarifas se calculan según la distancia entre los extremos, la hora del día y la duración de la llamada. Las ventajas del módem y las líneas analógicas son simplicidad, disponibilidad y bajo costo de implementación. Las desventajas son la baja velocidad en la transmisión de datos y el relativamente largo tiempo de conexión. Los circuitos dedicados que ofrece el sistema de conexión telefónica tendrán poco retardo y fluctuación de fase para el tráfico punto a punto, pero el tráfico de voz o video no funcionará de forma adecuada a las velocidades de bits relativamente bajas. 2.2.2 ISDN Las conexiones internas o troncales de PSTN evolucionaron y pasaron de llevar señales de multiplexión por división de frecuencia, a llevar señales digitales de multiplexión por división de tiempo (TDM). El próximo paso evidente es permitir que el bucle local lleve las señales digitales que resultan en conexiones conmutadas de mayor capacidad. La red digital de servicios integrados (ISDN) convierte el bucle local en una conexión digital TDM. La conexión utiliza canales portadores de 64 kbps (B) para transportar voz y datos, y una señal, canal delta (D), para la configuración de llamadas y otros propósitos. 269 MicroCisco - staky CCNA - Cisco Certified Network Associate La interfaz de acceso básico (BRI) ISDN está destinada al uso doméstico y a las pequeñas empresas y provee dos canales B de 64 kbps y un canal D de 16 kbps Para las instalaciones más grandes, está disponible la interfaz de acceso principal (PRI) ISDN. En América del Norte, PRI ofrece veintitrés canales B de 64 kbps y un canal D de 64 kbps, para un total de velocidad de transmisión de hasta 1,544 Mbps. Esto incluye algo de carga adicional para la sincronización. En Europa, Australia, y otras partes del mundo, PRI ISDN ofrece treinta canales B y un canal D para un total de velocidad de transmisión de hasta 2,048 Mbps, incluyendo la carga de sincronización. En América del Norte, PRI corresponde a una conexión T1. La velocidad de PRI internacional corresponde a una conexión E1. Figura 1 El canal D BRI no utiliza su potencial máximo, ya que tiene que controlar solamente dos canales B. Algunos proveedores permiten que los canales D transmitan datos a una velocidad de transmisión baja como las conexiones X.25 a 9,6 kbps. Para las WAN pequeñas, ISDN BRI puede ofrecer un mecanismo de conexión ideal. BRI posee un tiempo de establecimiento de llamada que es menor a un segundo y su canal B de 64 kbps ofrece mayor capacidad que un enlace de módem analógico. Si se requiere una mayor capacidad, se puede activar un segundo canal B para brindar un total de 128 kbps. Aunque no es adecuado para el video, esto permitiría la transmisión de varias conversaciones de voz simultáneas además del tráfico de datos. Figura 2 Otra aplicación común de ISDN es la de ofrecer capacidad adicional según la necesidad en una conexión de línea alquilada. La línea alquilada tiene el tamaño para transportar el tráfico usual mientras que ISDN se agrega durante los períodos de demanda pico. ISDN también se utiliza como respaldo en caso de que falle la línea alquilada. Las tarifas de ISDN se calculan según cada canal B y son similares a las de las conexiones analógicas. Con ISDN PRI, se pueden conectar varios canales B entre dos extremos. Esto permite que se realicen conferencias de video y conexiones de datos de banda ancha sin latencia ni fluctuación de fase. Las conexiones múltiples pueden resultar muy caras para cubrir grandes distancias. 2.2.3 Línea alquilada Cuando se requieren conexiones dedicadas permanentes, se utilizan líneas alquiladas con capacidades de hasta 2.5 Gbps 270 MicroCisco - staky CCNA - Cisco Certified Network Associate Un enlace punto a punto ofrece rutas de comunicación WAN preestablecidas desde las instalaciones del cliente a través de la red hasta un destino remoto. Las líneas punto a punto se alquilan por lo general a una operadora de servicios de telecomunicaciones y se denominan líneas alquiladas. líneas punto a punto se alquilan por lo general a una operadora y se denominan líneas alquiladas. Se pueden conseguir líneas alquiladas con distintas capacidades. Estos circuitos dedicados se cotizan, en general, según el ancho de banda necesario y la distancia entre los dos puntos conectados. Los enlaces punto a punto por lo general son más caros que los servicios compartidos como Frame Relay. El costo de las soluciones de línea dedicada puede tornarse considerable cuando se utilizan para conectar varios sitios. Sin embargo, a veces los beneficios de una línea alquilada son mayores que los costos. La capacidad dedicada no presenta ni latencia ni fluctuaciones de fase entre extremos. La disponibilidad constante es esencial para algunas aplicaciones tales como el comercio electrónico. Figura 1 Cada conexión de línea alquilada requiere un puerto serial de router. También se necesita un CSU/DSU y el circuito f sico del proveedor de servicios. Las líneas alquiladas se utilizan con mucha frecuencia en la construcción de las WAN y ofrecen una capacidad dedicada permanente. Han sido la conexión tradicional de preferencia aunque presentan varias desventajas. El tráfico de WAN es a menudo variable y las líneas alquiladas tienen una capacidad fija. Esto da por resultado que el ancho de banda de la línea rara vez sea el que se necesita. Además, cada punto necesitaría una interfaz en el router que aumentaría los costos de equipos. Todo cambio a la línea alquilada, en general, requiere que el proveedor haga una visita al establecimiento para cambiar la capacidad. Figura 2 Las líneas alquiladas ofrecen conexiones punto a punto entre las LAN de la compañía y conectan sucursales individuales a una red conmutada por paquete. Varias conexiones se pueden mutiplexar en las líneas alquiladas, dando por resultado enlaces más cortos y menos necesidad de interfaces. 271 MicroCisco - staky CCNA - Cisco Certified Network Associate 2.2.4 X.25 Debido al costo de las líneas alquiladas, los proveedores de telecomunicaciones introdujeron las redes conmutadas por paquetes utilizando líneas compartidas para reducir los costos. La primera de estas redes conmutadas por paquetes se estandarizó como el grupo de protocolos X.25. X.25 ofrece una capacidad variable y compartida de baja velocidad de transmisión que puede ser conmutada o permanente. Figura 1 X.25 es un protocolo de capa de red y los suscriptores disponen de una dirección en la red. Los circuitos virtuales se establecen a través de la red con paquetes de petición de llamadas a la dirección destino. Un número de canal identifica la SVC resultante. Los paquetes de datos rotulados con el número del canal se envían a la dirección correspondiente. Varios canales pueden estar activos en una sola conexión. Los suscriptores se conectan a la red X.25 con una línea alquilada o con una conexión de acceso telefónico. Además, las redes X.25 pueden tener canales preestablecidos entre los suscriptores que proveen un PVC. X.25 puede resultar muy económica porque las tarifas se calculan con base en la cantidad de datos enviados y no el tiempo de conexión ni la distancia. Los datos se pueden enviar a cualquier velocidad igual o menor a la capacidad de conexión. Esto ofrece más flexibilidad. Las redes X.25 por lo general tienen poca capacidad, con un máximo de 48 kbps. Además, los paquetes de datos están sujetos a las demoras típicas de las redes compartidas. En los Estados Unidos, la tecnología X.25 ya no está ampliamente disponible como una tecnología WAN. Frame Relay ha reemplazado a X.25 en muchos sitios donde se encuentran los proveedores de servicios. Las aplicaciones típicas de X.25 son los lectores de tarjeta de punto de venta. Estos lectores utilizan X.25 en el modo de conexión telefónica para validar las transacciones en una computadora central. Algunas empresas usan también las redes de valor agregado (VAN) basadas en X.25 para trasmitir facturas, pólizas de embarque y otros documentos comerciales usando el Intercambio electrónico de datos (EDI). Para estas aplicaciones, el bajo ancho de banda y la alta latencia no constituyen un problema, porque el bajo costo de X.25 lo compensa. 2.2.5 Frame Relay Con la creciente demanda de mayor ancho de banda y menor latencia en la conmutación de paquetes, los proveedores de comunicaciones introdujeron el Frame Relay. Aunque la configuración de la red parece similar a la de X.25, la velocidad de transmisión de datos disponible es por lo general de hasta 4 Mbps y algunos proveedores ofrecen aún mayores velocidades. Frame Relay difiere de X.25 en muchos aspectos. El más importante es que es un protocolo mucho más sencillo que funciona a nivel de la capa de enlace de datos y no en la capa de red. 272 MicroCisco - staky CCNA - Cisco Certified Network Associate Frame Relay no realiza ningún control de errores o flujo. El resultado de la administración simplificada de las tramas es una reducción en la latencia, y las medidas tomadas para evitar la acumulación de tramas en los switches intermedios ayudan a reducir las fluctuaciones de fase. Figura 1 La mayoría de las conexiones de Frame Relay son PVC y no SVC. La conexión al extremo de la red con frecuencia es una línea alquilada, pero algunos proveedores ofrecen conexiones telefónicas utilizando líneas ISDN. El canal D ISDN se utiliza para configurar una SVC en uno o más canales B. Las tarifas de Frame Relay se calculan con base en la capacidad del puerto de conexión al extremo de la red. Otros factores son la capacidad acordada y la velocidad de información suscripta (CIR) de los distintos PVC a través del puerto. Frame Relay ofrece una conectividad permanente, compartida, de ancho de banda mediano, que envía tanto tráfico de voz como de datos. Frame Relay es ideal para conectar las LAN de una empresa. El router de la LAN necesita sólo una interfaz, aún cuando se estén usando varios VC. La línea alquilada corta que va al extremo de la red Frame Relay permite que las conexiones sean económicas entre LAN muy dispersas. 2.2.6 ATM Los proveedores de comunicaciones vieron la necesidad de una tecnología de red compartida permanente que ofreciera muy poca latencia y fluctuación a anchos de banda mucho más altos. Su solución fue el Modo de Transferencia Asíncrona (ATM). ATM tiene una velocidad de transmisión de datos superior a los 155 Mbps. Al igual que las otras tecnologías compartidas, como X.25 y Frame Relay, los diagramas de las WAN ATM se ven igual. Figura 1 La tecnología ATM es capaz de transferir voz, video y datos a través de redes privadas y públicas. Tiene una arquitectura basada en celdas más bien que una basada en tramas. Las celdas ATM tienen siempre una longitud fija de 53 bytes. La celda ATM de 53 bytes contiene un encabezado ATM de 5 bytes seguido de 48 bytes de carga ATM. Las celdas pequeñas de longitud fija son adecuadas para la transmisión de tráfico de voz y video porque este tráfico no tolera demoras. El tráfico de video y voz no tiene que esperar que se transmita un paquete de datos más grande. 273 MicroCisco - staky CCNA - Cisco Certified Network Associate La celda ATM de 53 bytes es menos eficiente que las tramas y paquetes más grandes de Frame Relay y X.25 Además, la celda ATM tiene un encabezado de por lo menos 5 bytes por cada 48-bytes de datos. Cuando la celda está transportando paquetes de capa de red segmentados, la carga general será mayor porque el switch ATM tiene que poder reagrupar los paquetes en el destino. Una línea ATM típica necesita casi un 20% más de ancho de banda que Frame Relay para transportar el mismo volumen de datos de capa de red. ATM ofrece tanto los PVC como los SVC, aunque los PVC son más comunes en las WAN. Como las otras tecnologías compartidas, ATM permite varios circuitos virtuales en una sola conexión de línea alquilada al extremo de red. 2.2.7 DSL La tecnología de línea Digital del suscriptor (DSL) es una tecnología de banda ancha que utiliza líneas telefónicas de par trenzado para transportar datos de alto ancho de banda para dar servicio a los suscriptores. El servicio DSL se considera de banda ancha, en contraste con el servicio de banda base típico de las LAN. Banda ancha se refiere a la técnica que utiliza varias frecuencias dentro del mismo medio físico para transmitir datos. El término xDSL se refiere a un número de formas similares, aunque en competencia, de tecnologías DSL: • DSL Asimétrico (ADSL) • DSL simétrico (SDSL) • DSL de alta velocidad de bits (HDSL) • ISDN (como) DSL (IDSL) • DSL para consumidores (CDSL), también llamado DSL-lite o G.lite Figura 1 Figura 2 La tecnología DSL permite que el proveedor de servicios ofrezca a los clientes servicios de red de alta velocidad, utilizando las líneas de cobre de bucle local instaladas. La tecnología DSL permite que la línea de bucle local se utilice para realizar conexiones telefónicas de voz normales y conexiones permanentes para tener conectividad de red al instante. Las líneas del suscriptor DSL múltiples se pueden multiplexar a un enlace de alta capacidad al usar el Multiplexor de acceso DSL (DSLAM) en el sitio del proveedor. Los DSLAM incorporan la tecnología TDM para juntar muchas líneas del suscriptor a un solo medio más pequeño, en general una conexión T3/DS3. Las tecnologías DSL están utilizando técnicas de codificación y modulación complejas para lograr velocidades de transmisión de datos de hasta 8.192 Mbps. El canal de voz de un teléfono estándar cubre un rango de frecuencia de 330 Hz a 3.3 KHz. Un rango de frecuencia, o ventana, de 4 KHz se considera como requisito para cualquier transmisión de voz en un bucle local. Las tecnologías DSL cargan (upstream: corriente arriba) y descargan (downstream: corriente abajo) datos a frecuencia superiores a esta ventana de 4 KHz . Esta técnica es lo que permite que la transmisión de voz y datos tenga lugar de modo simultáneo en un servicio DSL. 274 MicroCisco - staky CCNA - Cisco Certified Network Associate Existen dos tipos básicos de tecnología DSL: la asimétrica (ADSL) y la simétrica (SDSL). Todas las formas de servicio DSL se pueden clasificar como ADSL o SDSL y existen muchas variedades de cada tipo. El servicio asimétrico brinda mayor ancho de banda de descarga o downstream al usuario que el ancho de banda de carga. El servicio simétrico brinda la misma capacidad en ambas direcciones. No todas las tecnologías DSL permiten el uso de un teléfono. SDSL se conoce como cobre seco porque no tiene un tono de llamada y no ofrece servicio telefónico en la misma línea. Por eso se necesita una línea separada para el servicio SDSL. Los distintos tipos de DSL brindan diferentes anchos de banda, con capacidades que exceden aquellas de línea alquilada T1 o E1. La velocidad de transferencia depende de la longitud real del bucle local y del tipo y condición de su cableado. Para obtener un servicio satisfactorio, el bucle debe ser menor a 5,5 kilómetros (3,5 millas). La disponibilidad de DSL está lejos de ser universal, y hay una gran variedad de tipos, normas y normas emergentes. No es una opción popular entre los departamentos de computación de las empresas para apoyar a las personas que trabajan en sus hogares. Por lo general, el suscriptor no puede optar por conectarse a la red de la empresa directamente, sino que primero tiene que conectarse a un proveedor de servicios de Internet (ISP). Desde allí, se realiza una conexión IP a través de Internet hasta la empresa. Así se corren riesgos de seguridad. Para tratar las cuestiones de seguridad, los servicios DSL ofrecen funciones para utilizar conexiones la Red privada virtual (VPN) a un servidor VPN, que por lo general se encuentra ubicado en la empresa. 2.2.8 Cable módem El cable coaxial es muy usado en áreas urbanas para distribuir las señales de televisión. El acceso a la red está disponible desde algunas redes de televisión por cable. Esto permite que haya un mayor ancho de banda que con el bucle local de teléfono. Figura 1 Los cable módem mejorados permiten transmisiones de datos de alta velocidad de dos vías, usando las mismas líneas coaxiales que transmiten la televisión por cable. Algunos proveedores de servicio de cable prometen velocidades de transmisión de datos de hasta 6,5 veces más altas que las líneas alquiladas T1. Esta velocidad hace que el cable sea un medio atractivo para transferir grandes cantidades de información digital de manera rápida, incluyendo video clips, archivos de audio y grandes cantidades de datos. La información que tardaría dos minutos en descargar usando un BRI ISDN puede descargarse en dos segundos a través de una conexión de cable módem. Los cable módem ofrecen una conexión permanente y una instalación simple. Una conexión de cable permanente significa que los computadores conectados pueden estar sujetos a una ruptura en la seguridad en cualquier momento y necesitan estar adecuadamente asegurados con firewalls. Para tratar las 275 MicroCisco - staky CCNA - Cisco Certified Network Associate cuestiones de seguridad, los servicios cable módem ofrecen funciones para utilizar conexiones de Red privada virtual (VPN) a un servidor VPN, que por lo general se encuentra ubicado en la empresa. Un cable módem puede ofrecer de 30 a 40 Mbps de datos en un canal de cable de 6 MHz. Esto es casi 500 veces más rápido que un módem de 56 Kbps. Con un cable módem, el suscriptor puede continuar recibiendo servicio de televisión por cable mientras recibe datos en su computador personal de forma simultánea. Esto se logra con la ayuda de un divisor de señal uno a dos. Figura 2 Los suscriptores de cable módem deben utilizar el ISP asociado con el proveedor de servicio. Todos los suscriptores locales comparten el mismo ancho de banda del cable. A medida que más usuarios contratan el servicio el ancho de banda disponible puede caer por debajo de la velocidad esperada. – Figura 3 276 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 4 Figura 5 2.3 Diseño WAN 2.3.1 Comunicaciones con WAN Se considera que las WAN son un conjunto de enlaces de datos que conectan los routers en una LAN. Las estaciones de usuarios finales y los servidores de las LAN intercambian datos. Los routers transmiten datos entre las redes a través de los enlaces de datos. Debido a los costos y por razones legales, un proveedor de comunicaciones o una empresa de comunicaciones común, en general, es dueño de los enlaces de datos que componen una WAN. Los enlaces están disponibles a los suscriptores por una tarifa y se utilizan para interconectar las LAN o conectar redes remotas. La velocidad de transmisión de datos en una WAN (ancho de banda) es mucho menor a 100 Mbps, que es común en una LAN. Los costos de provisión de enlace son el elemento más caro de las WAN y el diseño debe buscar proveer un máximo de ancho de banda a un costo aceptable. Con la presión por parte de los usuarios para obtener mayor acceso al servicio a velocidades más altas y la presión de los administradores para contener los costos, el determinar la configuración óptima de WAN no es una tarea fácil. Las WAN transportan varios tipos de tráfico, tales como datos, voz y video. El diseño seleccionado debe ofrecer capacidad adecuada y tiempos de tránsito que cumplan con de las necesidades de las empresas. Entre las especificaciones, el diseño debe tener en cuenta la topología de las conexiones entre varias ubicaciones, la naturaleza de aquellas conexiones y la capacidad del ancho de banda. 277 MicroCisco - staky CCNA - Cisco Certified Network Associate Las WAN más antiguas a menudo consistían de enlaces de datos directamente conectados a computadores mainframe remotos. Sin embargo, en la actualidad las WAN conectan las LAN que están geográficamente separadas. Las estaciones de usuarios finales, servidores y routers se comunican a través de las LAN y los enlaces de datos WAN terminan en los routers locales. Al intercambiar información de dirección de Capa 3 en las LAN directamente conectadas, los routers determinan la ruta más adecuada a través de la red para los flujos de datos requeridos. Los routers pueden también ofrecer manejo en la calidad de servicio (QoS), que asigna prioridades a los diferentes flujos de tráfico. Figura 1 Figura 2 Como las WAN son simplemente un grupo de interconexiones entre los routers basados en las LAN, no hay servicios en la WAN. Las tecnologías WAN funcionan en las tres capas inferiores del modelo de referencia OSI. Los routers determinan el destino de los datos a partir de los encabezados de capa de red y transfieren los paquetes a la conexión de enlace de datos indicada para su envío en la conexión física. 278 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 3 2.3.2 Pasos para el diseño WAN Diseñar una WAN puede ser un desafío, pero realizar el diseño de una forma sistemática puede dar como resultado un rendimiento mayor a menor costo. Muchas WAN han evolucionado con el tiempo, por lo tanto, es posible que no se hayan considerado muchas de las pautas aquí presentadas. Cada vez que se considere hacer una modificación a una WAN existente, se deben seguir los pasos descriptos en este módulo. Las modificaciones a las WAN pueden surgir de cambios como la expansión de la empresa que la WAN sirve, o la inclusión de nuevas prácticas y métodos de trabajo. Las empresas implementan la conectividad WAN porque hay necesidad de transportar datos en forma oportuna entre sucursales externas. La WAN está allí para cumplir los requerimientos de la empresa. El cumplir con estos requerimientos trae aparejado costos, tales como provisión de equipo y administración de enlaces de datos. Al diseñar la WAN, es necesario saber qué clase de tráfico de datos se debe transportar, su origen y su destino. Las WAN transportan una variedad de tipos de tráfico que requieren diferentes anchos de banda, latencia y fluctuación. Figura 2 Para cada par de puntos finales y para cada tipo de tráfico, se necesita información sobre las distintas Determinar esto puede requerir de un estudio exhaustivo y la consulta a los características del tráfico. usuarios de la red. El diseño con frecuencia implica actualizar, expandir o modificar una WAN ya existente. Muchos de los datos necesarios pueden provenir de estadísticas de administración de redes existentes. 279 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 Conocer los varios puntos finales permite la selección de una topología o diseño para la WAN. Las cuestiones geográficas y las necesidades, como la disponibilidad, tendrán influencia en la topología. Un gran requisito de disponibilidad requiere de enlaces adicionales que ofrezcan rutas de datos alternativos para la redundancia y el equilibrio de las cargas. Cuando se hayan elegido los puntos finales y los enlaces, es posible estimar el ancho de banda necesario. El tráfico en los enlaces puede tener distintos requisitos de latencia y fluctuación. Una vez que se determine la disponibilidad de ancho de banda, se deben elegir las tecnologías de enlace adecuadas. Por último, los costos de instalación y operación de la WAN se pueden determinar y comparar con la necesidad que tiene el negocio de provisión de WAN. Figura 3 En la práctica, seguir los pasos de la Figura rara vez es un proceso lineal. Es posible que sea necesario realizar muchas modificaciones antes de finalizar el diseño. También es necesario realizar un seguimiento y reevaluación continuos después de instalar la WAN para mantener un rendimiento óptimo. 2.3.3 Cómo identificar y seleccionar las capacidades de networking El diseño de una WAN consiste básicamente en lo siguiente: • Seleccionar un patrón de conexión o diseño de enlaces entre las diferentes ubicaciones. • Seleccionar las tecnologías para que esos enlaces cumplan con las necesidades de la empresa a un costo razonable. Muchas WAN utilizan una topología en forma de estrella. A medida que la empresa crece y se agregan nuevos sucursales, estas se conectan con la oficina central y producen una topología en forma de estrella. 280 MicroCisco - staky CCNA - Cisco Certified Network Associate Algunas veces se establece una conexión cruzada con los puntos finales de la estrella creando una topología de malla o de malla parcial. Esto posibilita muchas combinaciones de interconexión. Al diseñar, reevaluar o modificar una WAN, se debe seleccionar una topología que cumpla con las necesidades de diseño. Figura 1 Figura 2 Figura 3 Al seleccionar un diseño, se deben tener en cuenta varios factores. Más enlaces aumentan el costo de los servicios de red, y la existencia de más rutas entre los destinos aumenta la confiabilidad. Agregar más dispositivos a la ruta de datos aumentará la latencia y disminuirá la confiabilidad. Por lo general, cada 281 MicroCisco - staky CCNA - Cisco Certified Network Associate paquete debe recibirse por completo en un nodo, antes de que se envíe al siguiente. Hay una gran variedad de tecnologías dedicadas con características diferentes disponibles para realizar los enlaces de datos. Figura 4 Las tecnologías que requieren el establecimiento de una conexión antes de transmitir los datos, como por ejemplo el servicio telefónico básico, ISDN o X.25, no son adecuadas para las WAN ya que requieren un tiempo de respuesta rápido o baja latencia. Una vez establecidos, los servicios de ISDN y otros de comunicación telefónica son circuitos de baja latencia y fluctuación de fase. ISDN es con frecuencia la aplicación de preferencia para conectar una red de una oficina pequeña o de personas que trabajan en sus hogares a la red de la empresa, y ofrece conectividad confiable y ancho de banda adaptable. A diferencia del cable y DSL, ISDN es una opción dondequiera que se encuentre un servicio telefónico moderno. ISDN resulta también útil como enlace de respaldo para las conexiones principales y para brindar conexiones que provean ancho de banda acorde a la demanda junto con la conexión principal. Una característica de estas tecnologías es que a la empresa sólo se le cobra cuando el circuito está en uso. Las diferentes partes de la empresa pueden conectarse de forma directa por medio de las líneas alquiladas o pueden conectarse a un enlace de acceso al punto de presencia más cercano (POP) de una red compartida. X.25, Frame Relay y ATM son ejemplos de redes compartidas. Las líneas alquiladas, por lo general, son mucho más largas y en consecuencia más caras que las de enlaces de acceso, sin embargo están disponibles en casi cualquier ancho de banda. Tienen una latencia y fluctuación de fase muy bajas. Las redes ATM, Frame Relay y X.25 transportan el tráfico de varios clientes en los mismos enlaces internos. La empresa no tiene control sobre el número de enlaces o saltos que los datos deben atravesar en la red compartida. No puede controlar el tiempo que los datos deben esperar en cada nodo antes de pasar al enlace siguiente. Esta incertidumbre en la latencia y la fluctuación hace que estas tecnologías no sean adecuadas para algunos tipos de tráfico de red. Sin embargo, los costos reducidos de una red compartida con frecuencia pueden compensar las desventajas que estas tienen. Debido a que varios clientes están compartiendo el enlace, el costo de cada uno será, en general, menor al costo de un enlace directo de la misma capacidad. Aunque ATM es una red compartida, se diseñó para producir una latencia y fluctuación de fase mínimas en los enlaces internos de alta velocidad que envían unidades de datos fácilmente administrables, llamadas celdas. Las celdas ATM tienen una longitud de 53 bytes, 48 de datos y 5 de encabezado. ATM se usa con frecuencia en el transporte de tráfico sensible a las demoras. Frame Relay también se puede utilizar para el transporte de tráfico sensible a las demoras, y con frecuencia utiliza mecanismos QoS para dar prioridad a los datos más sensibles. Una WAN típica utiliza una combinación de tecnologías que se eligen según el tipo y volumen de tráfico. ISDN, DSL, Frame Relay o las líneas alquiladas se utilizan para conectar los sucursales individuales en una sola área. Frame Relay, ATM o las líneas alquiladas se utilizan para conectar áreas externas nuevamente al backbone. ATM o las líneas alquiladas forman el backbone de la WAN. 2.3.4 Modelo de diseño de tres capas Es necesario un enfoque sistemático cuando se deben unir varios lugares. Una solución jerárquica con tres capas ofrece muchas ventajas. Imagine una empresa que opera en todos los países de la Unión Europea y que tiene un sucursal en cada ciudad con una población superior a 10000 habitantes. Cada sucursal tiene una LAN, y la empresa ha decidido interconectar los sucursales. Claramente, no es posible hacer una red en malla porque serían 282 MicroCisco - staky CCNA - Cisco Certified Network Associate necesarios casi 500.000 enlaces para los 900 centros. Una estrella simple sería muy difícil de implementar porque necesita un router con 900 interfaces en el hub o una sola interfaz que transporte 900 circuitos virtuales a una red conmutada por paquetes. Figura 1 Es mejor considerar un modelo de diseño jerárquico. Un grupo de LAN ubicadas en cierta área se interconectan, entonces, se interconectan varias áreas para formar una región, y varias regiones se interconectan para formar el núcleo de la WAN. Figura 2 283 MicroCisco - staky CCNA - Cisco Certified Network Associate El área puede basarse en el número de ubicaciones que se debe conectar con un límite máximo entre 30 y 50. El área tendría una topología en estrella, con los hubs de las estrellas conectados para formar la región. Las regiones pueden ser geográficas, conectando entre tres y diez áreas, y el hub de cada región puede tener un enlace punto a punto. Figura 3 Figura 4 Figura 5 284 MicroCisco - staky CCNA - Cisco Certified Network Associate Este modelo de tres capas sigue el diseño jerárquico de los sistemas telefónicos. Los enlaces que conectan los distintos sitios en un área que ofrece acceso a la red de la empresa se llaman enlaces de acceso o capa de acceso de la WAN. Los enlaces de distribución distribuyen el tráfico entre las áreas. Se envía el tráfico a los enlaces núcleo para su transferencia a otras regiones cuando es necesario. Esta jerarquía a menudo es útil cuando el tráfico de red refleja la estructura de los sucursales de la empresa y se subdivide en regiones, áreas y sucursales. También es útil cuando hay un servicio central al que todos los sucursales deben tener acceso, pero los niveles de tráfico son insuficientes para justificar la conexión directa de la sucursal al servicio. La LAN del centro del área puede tener servidores que provean servicio local y del área. Según los volúmenes y tipos de tráfico, las conexiones de acceso pueden ser por acceso telefónico, alquiladas o de Frame Relay. El Frame Relay facilita el enmallado para la redundancia sin requerir de conexiones físicas adicionales. Los enlaces de distribución pueden ser de Frame Relay o ATM y el núcleo de la red puede ser ATM o de línea alquilada. 2.3.5 Otros modelos con diseño de capa Muchas redes no requieren la complejidad de una jerarquía completa de tres capas. jerarquías más sencillas. Se pueden utilizar Figura 1 Figura 2 285 MicroCisco - staky CCNA - Cisco Certified Network Associate Una empresa con muchas sucursales relativamente pequeñas que requiere un tráfico entre sucursales mínimo puede elegir un diseño de una sola capa. Históricamente, esto no ha sido popular debido a la longitud de las líneas alquiladas. Frame Relay posibilita esta solución de diseño, ya que las tarifas no dependen de la distancia. Si existe la necesidad de concentración geográfica, un diseño de dos capas es adecuado. Esto produce un patrón de "estrella de estrellas". Una vez más, si el patrón elegido se basa en la tecnología de línea alquilada, será considerablemente distinto al patrón basado en la tecnología de Frame Relay. Al planear las redes más sencillas, aún se debe considerar el modelo de tres capas ya que ofrece una mejor escalabilidad de la red. El hub en el centro del modelo de dos capas es también un núcleo, pero no tiene otros routers núcleo conectados a él. De la misma forma, en una solución de una sola capa, el hub del área sirve como hub regional y como hub núcleo. Esto permite un crecimiento rápido y fácil en un futuro ya que se puede reproducir el diseño para agregar nuevas áreas de servicio. 2.3.6 Otras consideraciones sobre el diseño WAN Muchas WAN de empresas estarán conectadas a Internet. Esto supone problemas en la seguridad, pero también es una alternativa para el tráfico entre sucursales. Parte del tráfico que se debe considerar durante el diseño va o viene por Internet. Ya que Internet probablemente se encuentra en todos los lugares donde la empresa tiene LAN, hay dos maneras principales en las que este tráfico puede transportarse. Cada LAN puede tener una conexión a su ISP local o puede haber una conexión única desde uno de los routers núcleo a un ISP. La ventaja del primer método es que el tráfico se transporta por Internet en lugar de por la red de la empresa, que probablemente lleve a enlaces WAN más pequeños. La desventaja de permitir varios enlaces, es que toda la WAN de la empresa está abierta a ataques basados en Internet. También es difícil controlar y asegurar los muchos puntos de conexión. Es más fácil de controlar y asegurar un solo punto de conexión, aunque la WAN de la empresa tenga que transportar parte del tráfico que de otro modo se habría transportado en Internet. Si cada LAN de la empresa tiene una conexión a Internet distinta, se abre otra posibilidad para la WAN de la empresa. Cuando los volúmenes de tráfico son relativamente pequeños, Internet puede usarse como WAN de la empresa y todo el tráfico entre sucursales se envía a través de Internet. Asegurar las distintas LAN puede ser un problema, pero es posible que el ahorro en conexiones LAN compense la falta de seguridad. Figura 1 Los servidores deben estar ubicados lo más cerca posible de los sitios que los utilizarán más frecuentemente. La duplicación de los servidores, con configuraciones para actualizaciones entre servidores fuera de pico, reducirá la capacidad de enlace requerida. La ubicación de servicios con acceso por Internet dependerá de la naturaleza del servicio, del tráfico anticipado y de los problemas de seguridad. Este es un tema de diseño especializado que no trata este programa de estudios. 286 CCNA - Cisco Certified Network Associate MicroCisco - staky Resumen Se debe haber obtenido una comprensión adecuada de los siguientes puntos clave: • Diferencias en las áreas geográficas servidas entre las WAN y las LAN. • Similitudes de las capas del modelo OSI implicadas entre las WAN y las LAN. • Conocimiento de la terminología WAN que describe equipos tales como, CPE, CO, bucle local , DTE, DCE, CSU/DSU y TA • Conocimiento de la terminología WAN que describe las normas tales como ISDN, Frame Relay, ATM, T1, HDLC, PPP, POST, BRI, PRI, X.25 y DSL • Diferencias entre las redes conmutadas por paquetes y por circuitos • Diferencias y similitudes entre las tecnologías WAN actuales, incluyendo la conexión telefónica analógica, ISDN, las líneas alquiladas, X.25, Frame Relay y servicios ATM • Ventajas y desventajas de los servicios DSL y de cable módem • Propiedad y costos asociados con los enlaces de datos WAN • Requisitos de capacidad y tiempo de tránsito para los distintos tipos de tráfico de WAN, como voz, datos y video • Conocimiento de la topología de WAN, como punto a punto, estrella y malla • Elementos del diseño de WAN, incluyendo actualizaciones, extensiones, modificaciones a la WAN existente y recomendación de servicios WAN a organizaciones basándose en sus necesidades. • Ventajas que ofrece un diseño WAN jerárquico de tres capas • Alternativas para el tráfico de WAN entre sucursales 287 CCNA - Cisco Certified Network Associate 288 MicroCisco - staky MicroCisco - staky CCNA - Cisco Certified Network Associate Módulo 3: PPP Descripción general Este módulo presenta un panorama de las tecnologías WAN. Presenta y explica las tecnologías WAN tales como la transmisión serial, multiplexión por división de tiempo (TDM), demarcación, equipo terminal de datos (DTE) y equipo de comunicación de datos (DCE). Presenta el desarrollo y uso del encapsulamiento del control de enlace de datos de alto nivel (HDLC) así como de los métodos para configurar y diagnosticar los problemas en una interfaz serial. El Protocolo punto a punto (PPP) es el protocolo de preferencia para las conexiones WAN conmutadas seriales. Puede manejar tanto la comunicación síncrona como la asíncrona e incluye la detección de los errores. Y, lo que es más, incorpora un proceso de autenticación que utiliza CHAP o PAP. PPP se puede utilizar en diversos medios físicos, incluyendo cable de par trenzado, líneas de fibra óptica o transmisión satelital. Los procedimientos para la configuración de PPP, así como las opciones disponibles y los conceptos de diagnóstico de fallas se describen en este módulo. Entre las opciones disponibles se encuentra la capacidad que tiene el PPP para utilizar tanto la autenticación PAP como la CHAP. Los estudiantes que completan este módulo deberán poder hacer lo siguiente: • Explicar la comunicación serial. • Describir y dar un ejemplo de TDM • Identificar el punto de demarcación de una WAN • Describir las funciones del DTE y del DCE • Explicar el desarrollo del encapsulamiento HDLC. • Utilizar el comando encapsulation hdlc para configurar HDLC • Diagnosticar las fallas en una interfaz serial mediante los comandos show interface y show controllers. • Identificar las ventajas del uso de PPP • Explicar las funciones del Protocolo de control de enlace (LCP) y del Protocolo de control de red (NCP) que son componentes de PPP • Describir las partes de una trama PPP • Identificar las tres fases de una sesión PPP • Explicar las diferencias entre PAP y CHAP • Enumerar los pasos del proceso de autenticación PPP • Identificar las distintas opciones de configuración PPP • Configurar el encapsulamiento PPP • Configurar la autenticación CHAP y PAP • Utilizar el comando show interface para verificar el encapsulamiento serial. • Diagnosticar cualquier problema que se produzca en la configuración PPP mediante el comando debug PPP 3.1 Enlaces seriales punto a punto 3.1.1 Introducción a la comunicación serial Las tecnologías WAN se basan en la transmisión serial en la capa física. Esto significa que los bits de una trama se transmiten uno por uno a lo largo del medio físico. Figura 1 289 MicroCisco - staky CCNA - Cisco Certified Network Associate Los procesos de la capa física utilizan señalización para pasar los bits que componen la trama de Capa 2, uno por uno, al medio físico. Los métodos de señalización incluyen el Nivel sin retorno a cero (NRZ-L), Binario 3 de alta densidad (HDB3) e Inversión alternada de marcas (AMI). Estos son ejemplos de normas de codificación de capa física, y son similares a la codificación Manchester de Ethernet. Entre otras cosas, estos métodos de señalización pueden diferenciar un método de comunicación serial de otro. Las siguientes son algunas de las muchas normas de comunicación seriales: RS-232-E • V.35 • Interfaz serial de alta velocidad (HSSI) 3.1.2 Multiplexión por división de tiempo La multiplexión por división de tiempo (TDM) consiste en transmitir varias fuentes de información por un canal o señal común, y luego reconstruir las corrientes originales en el extremo remoto. En el ejemplo que presenta la Figura , tres fuentes de información se transportan, a su vez, por el canal de salida. Primero, se toma un bloque de información de cada canal de entrada. El tamaño del bloque puede variar, pero, en general, es de un bit o un byte a la vez. Según se utilicen bits o bytes, este tipo de TDM se denomina entrelazado de bits o entrelazado de bytes. Figura 1 Cada uno de los tres canales de entrada tiene su propia capacidad. Para que el canal de salida pueda aceptar toda la información proveniente de las tres entradas, su capacidad no debe ser inferior a la suma de las entradas. En TDM, el intervalo de tiempo de salida siempre está presente, tenga o no tenga TDM información para transmitir. La salida TDM puede compararse con un tren de 32 vagones. Cada uno es propiedad de una compañía de transporte diferente y cada día, el tren parte con los 32 vagones. Si una de las compañías tiene un producto que enviar, carga su vagón. Si la compañía no tiene nada que enviar, el vagón permanece vacío, pero sigue siendo parte del tren. TDM es un concepto de la capa física, y es completamente independiente de la naturaleza de la información que se multiplexa en el canal de salida. TDM es independiente del protocolo de Capa 2 que utilizan los canales de entrada. Un ejemplo de TDM es la Red digital de servicios integrados (Integrated Services Digital Network, ISDN). El acceso básico (BRI) ISDN cuenta con tres canales que constan de dos canales B de 64 kbps (B1 y B2) y un canal D de 16 kbps. TDM tiene nueve intervalos de tiempo que se repiten. Esto permite que la compañía telefónica administre y diagnostique de forma activa los problemas del bucle local cuando el punto de demarcación ocurre después de la unidad de terminación de la red (NTU) en los lugares donde NT1 no forma parte del CPE. 290 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 3.1.3 Punto de demarcación El punto de demarcación o "demarc", como se conoce más comúnmente, es el punto de la red donde termina la responsabilidad del proveedor del servicio o compañía telefónica. En los Estados Unidos, una compañía telefónica provee bucles locales a las instalaciones del cliente y el cliente provee el equipo activo, como por ejemplo la unidad de servicio del canal/unidad de servicio de datos (CSU/DSU) donde termina el bucle local. Esta terminación a menudo se produce en un armario de telecomunicaciones y el cliente es responsable de mantener, reemplazar y reparar el equipo. En otros países del mundo, la compañía telefónica provee y administra la unidad de terminación de la red (NTU). Esto permite que la compañía telefónica administre y diagnostique de forma activa los problemas en el bucle local cuando el punto de demarcación ocurre después de la NTU. El cliente conecta un dispositivo del equipo terminal del abonado (CPE), como por ejemplo un router o un dispositivo de acceso de frame relay a la NTU por medio de una interfaz serial V.35 o RS-232. Figura 1 3.1.4 DTE/DCE Una conexión serial cuenta con un dispositivo de equipo terminal de datos (DTE) en un extremo de la conexión y un dispositivo de equipo de comunicación de datos (DCE) en el otro. La conexión entre los dos DCE es la red de transmisión del proveedor del servicio WAN. El CPE, que en general es un router, es el DTE. Otros ejemplos de DTE podrían ser una terminal, un computador, una impresora o una máquina de fax. El DCE, en general un módem o CSU/DSU, es el dispositivo que se utiliza para convertir los datos del usuario del DTE en una forma que sea aceptable para el enlace de la transmisión del proveedor del servicio WAN. La señal se recibe en el DCE remoto, que decodifica la señal nuevamente en una secuencia de bits. Esta secuencia se envía, a su vez, al DTE remoto. 291 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Se han desarrollado muchas normas que permiten que los DTE se comuniquen con los DCE. La Asociación de Industrias Electrónicas (EIA) y el Sector de Normalización de las Telecomunicaciones de la Unión de Telecomunicaciones Internacional (UIT-T) han trabajado muy activamente en el desarrollo de estas normas. El UIT-T se refiere al DCE como al equipo que termina el circuito de los datos. La EIA se refiere al DCE como el equipo de comunicación de datos. Figura 2 La interfaz DTE/DCE para un norma en particular define las siguientes especificaciones: • Mecánica/física: número de pins y tipo de conector. • Eléctrica: define los niveles de tensión de 0 y 1. • Funcional: especifica las funciones que se ejecutan asignando significado a cada una de las líneas de señalización de la interfaz. • Procesal: especifica la secuencia de eventos para la transmisión de los datos. Si se deben conectar dos DTE entre sí, como por ejemplo dos computadores o dos routers en el laboratorio, resulta necesario el uso de un cable especial llamado módem nulo para eliminar la necesidad de un DCE. En las conexiones síncronas, donde se requiere la señal de reloj, un dispositivo externo o bien uno de los DTE debe generar la señal de reloj. El puerto serial síncrono de un router se configura como DTE o DCE según el tipo de cable de conexión, que se solicita para DTE o DCE para que coincida con la configuración del router. Si el puerto se configura como DTE, que es la configuración por defecto, es necesario una temporización externa desde la CSU/DSU u otro dispositivo DCE. El cable para la conexión DTE a DCE es un cable de transición serial y blindado. En el extremo del router, el cable de transición serial y blindado puede utilizar un conector DB-60, que se conecte al puerto DB-60 de una tarjeta serial de interfaz WAN. El otro extremo del cable de transición serial viene con el conector adecuado para el estándar que se utiliza. Por lo general, el proveedor WAN o la CSU/DSU determina el tipo 292 MicroCisco - staky CCNA - Cisco Certified Network Associate de cable. Los dispositivos Cisco admiten los estándares seriales EIA/TIA-232, EIA/TIA-449, V.35, X.21 y EIA/TIA-530. Para admitir mayores densidades en un factor de forma más pequeño, Cisco ha introducido el cable serial inteligente. La interfaz del router del cable serial inteligente es un conector de 26 pins mucho más compacto que el conector DB-60. 3.1.5 Encapsulamiento HDLC Al principio, las comunicaciones seriales se basaban en protocolos orientados a los caracteres. Los protocolos orientados a bits eran más eficientes pero también eran propietarios. En 1979, ISO aceptó al HDLC como protocolo estándar de enlace de datos orientado a bit que encapsula los datos en enlaces de datos seriales y síncronos. La normalización instó a otros comités a que también lo adoptaran y así extendieran el uso del protocolo. Desde 1981, UIT-T ha desarrollado una serie de protocolos derivados del HDLC. Los siguientes ejemplos de protocolos derivados reciben el nombre de protocolos de acceso a enlaces. • • • • Procedimiento de acceso al enlace balanceado (LAPB) para X.25 Procedimiento de acceso al enlace en el canal D (LAPD) para ISDN. Procedimiento de acceso al enlace para módems (LAPM) y PPP para módems. Procedimiento de acceso a enlaces para Frame Relay (LAPF) HDLC utiliza la transmisión síncrona serial y brinda una comunicación entre dos puntos libre de errores. HDLC define la estructura del entramado de Capa 2 que permite el control de flujo y de errores mediante acuses de recibo y un esquema de ventanas. Cada trama presenta el mismo formato ya sea una trama de datos o una trama de control. El HDLC estándar, en sí, no admite múltiples protocolos en un solo enlace ya que no cuenta con una forma de indicar cuál es el protocolo que se transporta. Cisco ofrece una versión propietaria de HDLC. La trama HDLC de Cisco utiliza un campo "tipo" propietario que actúa como campo de protocolo. Este campo permite que varios protocolos de capa de red compartan el mismo enlace serial. HDLC es el protocolo de Capa 2 por defecto para las interfaces seriales de los routers Cisco. Figura 1 HDLC define los tres siguientes tipos de tramas, cada uno con diferente formato de campo de control. • • Tramas de información (tramas I): transportan los datos que se transmitirán para la estación. Se cuenta con control adicional de flujo y de errores y los datos pueden ser adicionados a una trama de información. Tramas de supervisión (tramas S): proporcionan los mecanismos de petición/respuesta cuando no se utiliza el adicionar datos. 293 MicroCisco - staky CCNA - Cisco Certified Network Associate • Tramas no enumeradas (tramas U): brindan funciones de control de enlace suplementarias tales como configuración inicial de la conexión. El campo del código identifica el tipo de trama U. Los primeros uno o dos bits del campo de control sirven para identificar el tipo de trama. En el campo de control de una trama de información (I), el número de la secuencia de envío se refiere al número de la trama que se envía a continuación. El número de secuencia de recepción proporciona el número de la trama que se recibe a continuación. Tanto el transmisor como el receptor mantienen los números de secuencia de recepción y transmisión. 3.1.6 Configuración de encapsulamiento HDLC El HDLC de Cisco es el método de encapsulamiento por defecto que utilizan los dispositivos Cisco en las líneas seriales síncronas. Si la interfaz serial se configura con otro protocolo de encapsulamiento y entonces resulta necesario cambiarlo nuevamente a HDLC, entre al modo de configuración de la interfaz serial. Luego introduzca el comando encapsulation hdlc para especificar el protocolo de encapsulamiento de la interfaz. Figura 1 El HDLC de Cisco es un protocolo de punto a punto que puede utilizarse en líneas alquiladas entre dos dispositivos Cisco. Cuando la comunicación es con un dispositivo que no es Cisco, el PPP síncrono es una opción más viable. 3.1.7 Diagnóstico de fallas de una interfaz serial El resultado del comando show interfaces serial muestra información específica de las interfaces seriales. Al configurar HDLC, las palabras "Encapsulation HDLC", indicando el encapsulamiento HDLC, deben aparecer en la salida. Al configurar PPP, las palabras "Encapsulation PPP", indicando el encapsulamiento PPP, deben aparecer en la salida. Se pueden identificar cinco estados problemáticos de la línea de estado de la interfaz en la salida de show interfaces serial: • Serial x is down, line protocol is down • Serial x is up, line protocol is down • Serial x is up, line protocol is up (looped) • Serial x is up, line protocol is down (disabled) • Serial x is administratively down, line protocol is down El comando show controllers es otra herramienta importante al diagnosticar las fallas en las líneas seriales. El resultado de show controllers indica el estado de los canales de la interfaz y si un cable está conectado a la interfaz o no. En la Figura , la interfaz serial 0/0 tiene conectado un cable DTE V.35. La 294 MicroCisco - staky CCNA - Cisco Certified Network Associate sintaxis del comando varía de acuerdo con la plataforma. Para las interfaces seriales de los routers serie Cisco 7000, utilice el comando show controllers cbus Figura 1 Figura 2 Figura 3 295 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 4 Si el resultado de la interfaz eléctrica muestra UNKNOWN (DESCONOCIDO), en lugar de V.35, EIA/TIA-449 o algún otro tipo de interfaz eléctrica, el problema radica en un cable conectado incorrectamente. También es posible que se trate de un problema con el cableado interno de la tarjeta. Si se desconoce la interfaz eléctrica, el resultado del comando show interfaces serial <X> mostrará que la interfaz y el protocolo de línea se encuentran desactivados. Los comandos de depuración que se presentan a continuación son útiles a la hora de diagnosticar los problemas seriales y de la WAN: • debug serial interface: Verifica si los paquetes de actividad HDLC están aumentando. Si no lo están, es posible que haya un problema de temporización en la tarjeta de la interfaz o en la red. • debug arp: Indica si el router está enviando o recibiendo información acerca de routers (por medio de paquetes ARP) en el otro lado de la nube WAN. Use este comando cuando algunos nodos de una red TCP/IP responden, pero otros no. • debug frame-relay lmi: Obtiene la información de la Interfaz de administración local (LMI) que resulta útil para determinar si un router y un switch Frame Relay están enviando y recibiendo paquetes LMI. • debug frame-relay events: Determina si se están produciendo intercambios entre un router y un switch Frame Relay. • debug ppp negotiation: muestra los paquetes del Protocolo de punto a punto (PPP) que se transmiten durante el inicio del PPP, cuando se negocian sus opciones. • debug ppp packet: muestra los paquetes PPP enviados y recibidos. Este comando muestra las descargas de los paquetes de bajo nivel. • debug ppp: muestra los errores PPP tales como tramas ilegales o malformadas, asociados con la negociación y funcionamiento de la conexión. • debug ppp authentication: muestra los intercambios de paquetes del Protocolo de autenticación de intercambio de señales (CHAP) PPP y el Protocolo de autenticación de contraseña (PAP). PRECAUCIÓN: El resultado de la depuración es de alta prioridad para el proceso de la CPU y puede dejar al sistema inutilizable. Es por esto que los comandos de depuración sólo se deben utilizar para diagnosticar problemas específicos o durante las sesiones de diagnóstico de fallas con personal de servicio técnico de Cisco. Se recomienda utilizar los comandos debug (depurar) durante los períodos de poco tráfico en la red y cuando está conectada la menor cantidad de usuarios en línea. Realizar la depuración durante estos períodos disminuye la probabilidad de que la mayor carga de procesamiento debido al comando debug afecte el uso del sistema. 296 MicroCisco - staky CCNA - Cisco Certified Network Associate 3.2 Autenticación PPP 3.2.1 Arquitectura PPP en capas PPP utiliza una arquitectura en capas. La arquitectura en capas es un modelo, diseño o plan lógico que ayuda a la comunicación entre las capas interconectadas. El modelo de Interconexión de sistemas abiertos (OSI) es la arquitectura en capas que se utiliza en el networking. PPP proporciona un método para encapsular datagramas de varios protocolos en un enlace de punto a punto y utiliza la capa de enlace de datos para probar esta conexión. Por lo tanto, PPP está compuesto por dos subprotocolos: • Protocolo de control de enlaces: se utiliza para establecer el enlace de punto a punto. • Protocolo de control de red: se utiliza para configurar los distintos protocolos de capa de red. Figura 1 Figura 2 Figura 3 297 MicroCisco - staky CCNA - Cisco Certified Network Associate Se puede configurar PPP en los siguientes tipos de interfaces físicas: • Serial asíncrona. • Serial síncrona • Interfaz serial de alta velocidad (HSSI) • Red digital de servicios integrados (Integrated Services Digital Network, ISDN) PPP utiliza el Protocolo de control de enlace (LCP) para negociar y configurar las opciones de control en el enlace de datos de la WAN. PPP utiliza el componente del Protocolo de control de red (NCP) para encapsular y negociar las opciones para los diferentes protocolos de capa de red. El LCP se ubica en la parte más alta de la capa física y se utiliza para establecer, configurar y probar la conexión de enlace de datos. PPP también utiliza LCP para acordar, de forma automática, opciones de formato de encapsulamiento tales como: • Autenticación: las opciones de autenticación requieren que la parte del enlace que realiza la llamada introduzca información de autenticación para ayudar a asegurar que el usuario cuente con el permiso del administrador de red para realizar la llamada. Los routers pares intercambian mensajes de autenticación. Las dos opciones de autenticación son: el Protocolo de autenticación de contraseña (PAP) y el Protocolo de autenticación de intercambio de señales (CHAP). • Compresión: las opciones de compresión aumentan la tasa de transferencia efectiva en las conexiones PPP al reducir la cantidad de datos en la trama que debe recorrer el enlace. El protocolo descomprime la trama al llegar a su destino. Stacker y Predictor son dos protocolos de compresión disponibles en los routers Cisco. • Detección de errores: los mecanismos de detección de errores con PPP habilitan un proceso para identificar las condiciones de falla. Las opciones de Calidad y Número mágico ayudan a garantizar un enlace de datos confiable y sin bucles. • Multienlace: Cisco IOS Versión 11.1 y posteriores admiten el PPP multienlace. Esta alternativa proporciona balanceo de la carga en las interfaces del router que usa PPP. • Devolución de llamadas en PPP: para aumentar la seguridad, Cisco IOS Versión 11.1 ofrece devolución de llamadas en PPP. Con esta opción LCP, un router Cisco puede actuar como cliente de la devolución de llamada o servidor de la devolución de llamada. El cliente realiza la llamada inicial, solicita que se le devuelva la llamada y termina la comunicación inicial. El router de devolución de llamadas responde al llamado inicial y se comunica nuevamente con el cliente basándose en las sentencias de configuración. LCP también hace lo siguiente: • Maneja límites variables del tamaño de paquete. • Detecta errores comunes de mala configuración. • Termina el enlace. • Determina cuándo un enlace funciona correctamente o cuándo falla. PPP permite que varios protocolos de capa de red operen en el mismo enlace de comunicación. Para cada protocolo de capa de red que se utiliza, se proporciona un Protocolo de control de red (NCP) distinto. Por ejemplo: el Protocolo de Internet (IP) utiliza el Protocolo de control de IP (IPCP) y el Intercambio de paquetes en internetworking (IPX) utiliza el Protocolo de control IPX de Novell (IPXCP). Los NCP incluyen campos funcionales que contienen códigos estandarizados que indican el tipo de protocolo de capa de red que encapsula PPP. Figura 4 Los campos de una trama PPP son los siguientes: 298 MicroCisco - staky CCNA - Cisco Certified Network Associate • • • • • • Señalador: indica el comienzo o el fin de una trama y consiste en la secuencia binaria 01111110. Dirección: está formada por la dirección de broadcast estándar, que es la secuencia binaria 11111111. PPP no asigna direcciones de estaciones individuales. Control: 1 byte que consta de la secuencia binaria 00000011, que requiere la transmisión de datos del usuario en una trama no secuencial. Se suministra un servicio de enlace sin conexión similar al del Control de enlace lógico (LLC) Tipo 1. Protocolo: 2 bytes que identifican el protocolo encapsulado en el campo de datos de la trama. Datos: 0 o más bytes que contienen el datagrama para el protocolo especificado en el campo de protocolo. El fin del campo de datos se detecta al encontrar la secuencia de señalador de cierre y dejando 2 bytes para el campo de la secuencia de verificación de trama (FCS). La longitud máxima por defecto del campo de datos es 1500 bytes. FCS: en general, 16 bits o 2 bytes que se refieren a los caracteres adicionales que se agregan a la trama con el fin de controlar los errores. 3.2.2 Cómo establecer una sesión PPP El establecimiento de una sesión PPP tiene tres fases: Estas son: establecimiento del enlace, autenticación y fase del protocolo de la capa de red. Las tramas LCP se utilizan para realizar el trabajo de cada una de las fases LCP. Las tres siguientes clases de tramas LCP se utilizan en una sesión PPP: • Las tramas de establecimiento de enlace se utilizan para establecer y configurar un enlace. • Las tramas de terminación del enlace se utilizan para terminar un enlace. • Las tramas de mantenimiento del enlace se utilizan para administrar y depurar un enlace. Figura 1 Las tres fases para el establecimiento de una sesión PPP son: • Fase de establecimiento del enlace: en esta fase, cada dispositivo PPP envía tramas LCP para configurar y probar el enlace de datos. Los paquetes LCP contienen un campo de opción de configuración que permite que los dispositivos negocien el uso de opciones tales como la unidad máxima de transmisión (MTU), la compresión de determinados campos PPP y el protocolo de autenticación de enlace. Si no se incluye ninguna opción de configuración en un paquete LCP, se Antes de poder intercambiar cualquier adopta el valor por defecto para esa configuración. datagrama de capa de red, primero, LCP debe abrir la conexión y negociar los parámetros de configuración. Esta fase queda completa después de enviar y recibir una trama de acuse de recibo de configuración. • Fase de autenticación (optativa): una vez establecido el enlace, y seleccionado el protocolo de autenticación, se puede autenticar el dispositivo par. La autenticación, en caso de que se utilice, se lleva a cabo antes de que comience la fase del protocolo de la capa de red. Como parte de esta fase, el LCP también permite efectuar una prueba opcional de determinación de la calidad del enlace. El enlace se prueba para determinar si su calidad es suficiente para activar los protocolos de capa de red. • Fase de protocolo de capa de red: en esta fase, los dispositivos PPP envían paquetes NCP para seleccionar y configurar uno o varios protocolos de capa de red (como IP). Después de configurar cada uno de los protocolos de la capa de red elegidos, se pueden enviar paquetes de cada uno de los protocolos de capa de red a través del enlace. Si LCP cierra el enlace, informa los protocolos de la capa de red, para que puedan tomar las medidas adecuadas. El comando show interfaces revela los estados de LCP y NCP bajo la configuración PPP. 299 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 Figura 3 Figura 4 300 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 5 El enlace PPP queda configurado para las comunicaciones hasta que se presenta una de las siguientes situaciones: • Las tramas LCP o NCP cierran el enlace. • Se vence el tiempo de inactividad. • Interviene el usuario. 3.2.3 Protocolos de autenticación PPP La fase de autenticación de una sesión PPP es opcional. Una vez establecido el enlace y seleccionado el protocolo de autenticación, se puede autenticar el dispositivo par. La autenticación, si se utiliza, se lleva a cabo antes de que comience la fase de configuración del protocolo de la capa de red. Las opciones de autenticación requieren que la parte del enlace que realiza la llamada introduzca la información de autenticación. Esto ayuda a garantizar que el usuario tenga el permiso del administrador de la red para efectuar la llamada. Los routers pares intercambian mensajes de autenticación. Figura 1 Figura 2 301 MicroCisco - staky CCNA - Cisco Certified Network Associate Al configurar la autenticación PPP, el administrador de la red puede seleccionar el Protocolo de autenticación de contraseña (PAP) o el Protocolo de autenticación de intercambio de señales (CHAP). Por lo general, el protocolo de preferencia es CHAP. 3.2.4 Protocolo de autenticación de contraseña (PAP) PAP ofrece un método sencillo para que un nodo remoto establezca su identidad, mediante el intercambio de señales de dos vías. Una vez que se ha completado la fase de establecimiento del enlace PPP, el nodo remoto envía el conjunto de nombre de usuario/contraseña por el enlace repetidas veces hasta que se acusa recibo de la autenticación o la conexión se termina. Figura 1 Figura 2 PAP no es un protocolo de autenticación sólido. Las contraseñas se envían por el enlace en texto no cifrado, y no hay protección contra la reproducción o los intentos de descubrimiento mediante intentos reiterados de ensayo y error. El nodo remoto tiene control de la frecuencia y la temporización de los intentos de conexión. 3.2.5 Protocolo de autenticación de intercambio de señales (CHAP) CHAP se utiliza al iniciar un enlace y verifica, de forma periódica, la identidad del nodo remoto por medio de un intercambio de señales de tres vías. CHAP se realiza al establecer el enlace inicial y se repite durante el tiempo que dure el enlace. Después de completar la fase de establecimiento del enlace PPP, el host envía un mensaje de comprobación al nodo remoto. El nodo remoto responde con un valor calculado mediante la función hash de una vía que, en general, es Message Digest 5 (MD5). Esta respuesta se basa en la contraseña y el mensaje de comprobación. El router local verifica la respuesta contra su propio cálculo del valor hash esperado. Si los valores concuerdan, se acusa recibo de la autenticación; de lo contrario, la conexión termina de inmediato. CHAP brinda protección contra los intentos de reproducción a través del uso de un valor de comprobación variable que es exclusivo e impredecible. Como la comprobación es única y aleatoria, el valor hash resultante también será único y aleatorio. El uso de comprobaciones reiteradas tiene como fin limitar el tiempo de exposición ante cualquier ataque. El router local o un servidor de autenticación de terceros tiene el control de la frecuencia y la temporización de las comprobaciones. 302 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Figura 2 Figura 3 3.2.6 Proceso de encapsulamiento y autenticación PPP Figura 1 Cuando se utiliza el comando encapsulation ppp, la autenticación CHAP o PAP se puede agregar de forma optativa. Si no se especifica ninguna clase de autenticación, la sesión PPP comienza de inmediato. Si se requiere de autenticación, el proceso da los siguientes pasos: 303 MicroCisco - staky CCNA - Cisco Certified Network Associate • • • Se determina el método de autenticación. Se revisa la base de datos local o el servidor de seguridad, que tiene una base de datos de contraseñas y nombres de usuario, para verificar que el nombre de usuario y la contraseña dados concuerdan con alguna entrada. El proceso verifica la respuesta de autenticación que envía la base de datos local. Si la respuesta es positiva, se inicia la sesión PPP. Si es negativa, se termina la sesión. La Figura y la Figura correspondiente detallan el proceso de autenticación CHAP. Figura 2 Figura 3 304 MicroCisco - staky CCNA - Cisco Certified Network Associate 3.3 Configuración PPP 3.3.1 Introducción a la configuración de PPP Los aspectos configurables de PPP incluyen los métodos de autenticación, la compresión, la detección de errores y si admite multienlace o no. La siguiente sección describe las distintas opciones de configuración de PPP. Los routers Cisco que utilizan el encapsulamiento PPP pueden incluir las opciones de configuración de LCP que se describen en la Figura . Figura 1 305 MicroCisco - staky CCNA - Cisco Certified Network Associate 3.3.2 Configuración de PPP El siguiente ejemplo activa el encapsulamiento PPP en una interfaz serial 0/0: Router#configure terminal Router(config)#interface serial 0/0 Router(config-if)#encapsulation ppp La compresión de software de punto a punto puede configurarse en las interfaces seriales que utilizan encapsulamiento PPP. La compresión se ejecuta en el software y puede afectar el rendimiento del sistema de forma significativa. No se recomienda la compresión si la mayor parte del tráfico está compuesto por archivos comprimidos. Figura 1 Para configurar la compresión en PPP, introduzca los siguientes comandos: Router(config)#interface serial 0/0 Router(config-if)#encapsulation ppp Router(config-if)#compress [predictor | stac] Introduzca los siguientes comandos para monitorear los datos que se pasan al enlace y para evitar la formación de bucles en las tramas: Router(config)#interface serial 0/0 Router(config-if)#encapsulation ppp Router(config-if)#ppp quality percentage Los siguientes comandos ejecutan el equilibrio de las cargas en múltiples enlaces: Router(config)#interface serial 0/0 Router(config-if)#encapsulation ppp Router(config-if)#ppp multilink 3.3.3 Configuración de la autenticación PPP El procedimiento que se describe en la tabla detalla la configuración del encapsulamiento PPP y los protocolos de autenticación PAP/CHAP. Es esencial realizar una configuración correcta, ya que PAP y CHAP utilizarán estos parámetros para la autenticación. La Figura presenta un ejemplo de una configuración de autenticación PAP de dos vías. Ambos routers autentican y son autenticados de modo que los comandos de autenticación se reflejan entre sí. El nombre 306 MicroCisco - staky CCNA - Cisco Certified Network Associate de usuario y la contraseña PAP que cada router envía debe coincidir con aquellos especificados en el comando username name password password del otro router. Figura 1 Figura 2 PAP ofrece un método sencillo para que un nodo remoto establezca su identidad, por medio del intercambio de señales de dos vías. Esto se realiza sólo en el momento del establecimiento inicial del enlace. El nombre de host de un router debe coincidir con el nombre de usuario que el otro router ha configurado. Las contraseñas también deben coincidir. CHAP se utiliza para verificar periódicamente la identidad del nodo remoto, por medio de un intercambio de señales de tres vías. El nombre de host de un router debe coincidir con el nombre de usuario que el otro router ha configurado. Las contraseñas también deben coincidir. Esto se realiza durante el establecimiento inicial del enlace y se puede repetir en cualquier momento una vez establecido el enlace. 307 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 3 Figura 4 3.3.4 Verificación de la configuración de encapsulamiento Serial PPP Figura 1 308 MicroCisco - staky CCNA - Cisco Certified Network Associate Utilice el comando show interfaces serial para verificar que la configuración del encapsulamiento PPP o HDLC esté correcta. El resultado del comando de la Figura ilustra una configuración PPP. Cuando se configura un control de enlace de datos de alto nivel (HDLC), las palabras "Encapsulation HDLC" (Encapsulamiento HDLC) deben aparecer en el resultado del comando show interfaces serial. Una vez que se ha configurado PPP, los estados del Protocolo de control de enlace (LCP) y del Protocolo de control de red (NCP) podrán verificarse mediante el comando show interfaces serial. Figura 2 La Figura enumera los comandos que se utilizan para habilitar, configurar y verificar el PPP. 3.3.5 Diagnóstico de fallas de la configuración de encapsulamiento serial El comando debug ppp authentication muestra la secuencia de intercambio de la autenticación. La Figura muestra el resultado del router de la izquierda durante la autenticación CHAP del router de la derecha mientras está habilitado debug ppp authentication. Con la autenticación de dos vías configurada, los dos routers se autentican entre sí. Los mensajes aparecen tanto para el proceso de autenticación como para el proceso de ser autenticado. Utilice el comando debug ppp authentication para mostrar la secuencia de intercambio, a medida que se produce. Figura 1 La Figura resalta el resultado del router para la autenticación PAP de dos vías. El comando debug ppp se utiliza para mostrar información sobre el funcionamiento de PPP. La forma no de este comando deshabilita el resultado de la depuración. Router#debug ppp {authentication | packet | negotiation | error | chap} Router#no debug ppp {authentication | packet | negotiation | error | chap} 309 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 Figura 3 Resumen Se debe haber obtenido una comprensión adecuada de los siguientes puntos clave: • La multiplexión por división de tiempo • El punto de demarcación de una WAN • La definición y las funciones del DTE y del DCE • El desarrollo del encapsulamiento HDLC • El uso del comando encapsulation hdlc para configurar HDLC • El diagnostico de fallas de una interfaz serial mediante los comandos show interface y show controllers. • Las ventajas del uso del protocolo PPP • Las funciones del Protocolo de control de enlace (LCP) y del Programa de control de red que son componentes de PPP. • Las partes de una trama PPP • Las tres fases de una sesión PPP • La diferencia entre PAP y CHAP • Los pasos del proceso de autenticación PPP • Las distintas opciones de configuración de PPP • Cómo configurar el encapsulamiento PPP • Cómo configurar la autenticación CHAP y PAP • El uso del comando show interface para verificar el encapsulamiento serial. • El diagnóstico de los problemas en la configuración del PPP mediante el comando debug ppp 310 MicroCisco - staky CCNA - Cisco Certified Network Associate Módulo 4: ISDN y DDR Descripción general Las Redes digitales de servicios integrados (Integrated Services Digital Network, ISDN) son redes que proporcionan conectividad digital de extremo a extremo para dar soporte a una amplia gama de servicios, que incluye servicios de datos y de voz. Las ISDN permiten la operación de múltiples canales digitales al mismo tiempo a través del mismo cable telefónico normal utilizado en las líneas analógicas, pero las ISDN transmiten señales digitales y no analógicas. La latencia es mucho menor en una línea ISDN que en una línea analógica. El enrutamiento telefónico por demanda (DDR) es una técnica desarrollada por Cisco que permite el uso de las líneas telefónicas existentes para formar redes de área amplia (WAN), en lugar de utilizar líneas dedicadas e individuales. Las Redes públicas de telefonía conmutada (PSTN) son un elemento de este esquema. El DDR se utiliza cuando no se requiere de una conexión permanente, reduciendo así los costos. El DDR es un esquema en el que un router se conecta mediante líneas telefónicas cuando debe transmitir tráfico, y luego se desconecta una vez finalizada la transferencia. Los estudiantes que completen este módulo deberán ser capaces de: • Definir los estándares ISDN que se utilizan para el direccionamiento, los conceptos y la señalización • Describir de qué manera las ISDN utilizan la capa física y la de enlace de datos • Enumerar las interfaces y los puntos de referencia de las ISDN • Configurar una interfaz ISDN del router • Determinar cuáles tipos de tráfico pueden transmitirse al configurar el DDR • Configurar las rutas estáticas para el DDR • Seleccionar el tipo de encapsulamiento adecuado para el DDR • Ser capaz de determinar y aplicar una lista de acceso para el tráfico en DDR • Configurar las interfaces de marcación 4.1 ISDN Conceptos 4.1.1 Introducción a las ISDN Son varias las tecnologías WAN que se utilizan para brindar acceso a redes desde ubicaciones remotas. Una de esas tecnologías es la ISDN. La tecnología ISDN está diseñada específicamente para solucionar los problemas de ancho de banda reducido que aquejan a las pequeñas oficinas o usuarios individuales que usan líneas telefónicas tradicionales. Figura 1 Las PSTN tradicionales están basadas en conexiones analógicas entre el cliente y la central telefónica local, también denominadas enlaces o loops locales. Los circuitos analógicos introducen limitaciones en el ancho de banda que es posible obtener del loop local. Las restricciones en el circuito no permiten anchos de banda analógicos superiores a unos 3000 Hz. La tecnología ISDN permite el uso de datos digitales en el loop local proporcionando a los usuarios remotos mayores velocidades de acceso. 311 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 Las compañías telefónicas desarrollaron la tecnología ISDN con el fin de crear redes totalmente digitales. La ISDN permite que las señales digitales se transmitan a través del cableado telefónico existente. Esto se hizo posible cuando se actualizaron los switches de las compañías telefónicas para que manejaran señales digitales. En general, las ISDN se utilizan para los empleados que trabajan fuera de la oficina y para la interconexión de pequeñas oficinas remotas a las LAN corporativas. Las compañías telefónicas desarrollaron las ISDN como parte del esfuerzo por estandarizar los servicios para los abonados. Esto incluye la Interfaz de red del usuario (UNI), mejor conocida como loop local. Los estándares ISDN definen el hardware y los esquemas de configuración de llamadas para la conectividad digital de extremo a extremo. Dichos estándares ayudan a alcanzar la meta de una conectividad mundial, para garantizar que las redes ISDN puedan interconectarse fácilmente. En las ISDN, la digitalización se realiza en el sitio del usuario y no en la compañía telefónica. Figura 3 Las ISDN brindan conectividad a los sitios locales. A continuación, se enumeran algunos de los beneficios de las ISDN: • Transportan diversos tipos de tráfico de usuario, que incluyen datos, voz y video. • Las llamadas se establecen mucho más rápidamente que con conexiones de módem. • Los canales B brindan tasas de transferencia de datos mayores que los módems. • Los canales B son adecuados para los enlaces negociados de Protocolo de punto a punto (PPP). Las ISDN son un servicio versátil, capaz de transportar tráfico de voz, video y datos. Es posible utilizar múltiples canales para transportar distintos tipos de tráfico en una sola conexión. La tecnología ISDN utiliza señalización fuera de banda, delta (canal D), para el establecimiento y señalización de la llamada. Para efectuar llamadas telefónicas normales, el usuario marca el número un dígito a la vez. Una vez recibidos todos los números, se transfiere la llamada al usuario remoto. En las ISDN los números llegan al switch a la velocidad del canal D, lo que reduce el tiempo necesario para establecer la llamada. Las ISDN también proporcionan anchos de banda mayores a los de las conexiones telefónicas tradicionales de 56 Kbps. Las ISDN utilizan canales portadores, también llamados canales B como rutas para datos de cualquier tipo. Cada canal B proporciona un ancho de banda de 64 Kbps. Con múltiples canales B, las ISDN 312 MicroCisco - staky CCNA - Cisco Certified Network Associate pueden formar WANS cuyo ancho de banda es mayor que el de algunas líneas arrendadas. Una conexión ISDN con dos canales B proporciona un ancho de banda total utilizable de 128 Kbps. Cada canal B puede efectuar una conexión serial aparte con cualquier otro sitio de la red ISDN. Como el PPP opera tanto en enlaces seriales síncronos como asíncronos, es posible utilizar enlaces ISDN en conjunto con el encapsulamiento PPP. 4.1.2 Métodos de acceso y estándares de las ISDN La investigación de los estándares para las ISDN comenzó a fines de la década de los 60. En 1984, se publicó un conjunto completo de recomendaciones para las ISDN, el cual es actualizado constantemente por el Sector de Estandarización de la Unión Internacional de las Telecomunicaciones (UIT-T), conocido anteriormente como Comité Consultivo Internacional Telegráfico y Telefónico (CCITT). Los estándares ISDN son un conjunto de protocolos que agrupa las comunicaciones de datos y de telefonía. La UIT-T agrupa y organiza los protocolos ISDN de acuerdo con los siguientes aspectos generales: • Protocolos E: recomiendan estándares de telefonía para las ISDN. Por ejemplo, el protocolo E.164 describe el direccionamiento internacional para las ISDN. • Protocolos I: se refieren a los conceptos, terminología y métodos generales. La serie I.100 incluye conceptos generales sobre ISDN y la estructura de otras recomendaciones de la serie I. Los I.200 se refieren a los aspectos del servicio de las ISDN. Los I.300 describen los aspectos de la red. Los I.400 describen cómo se proveen las UNI. • Protocolos Q: se refieren a cómo debe operar la conmutación y la señalización. El término señalización, en este contexto, significa el proceso de establecer una llamada ISDN. Figura 1 Figura 2 Los estándares ISDN definen dos tipos principales de canal, cada uno de distinta velocidad de transmisión. El canal portador o canal B se define como una ruta digital libre de 64 Kbps. Se le llama libre porque puede transmitir cualquier tipo de datos digitalizados, en modo full duplex. Por ejemplo, es posible hacer un enlace 313 MicroCisco - staky CCNA - Cisco Certified Network Associate digital de voz en un canal B. El segundo tipo de canal recibe el nombre de canal delta o canal D. Puede ser de 16 Kbps para la Interfaz de acceso básico (BRI) o de 64 Kbps para la Interfaz de acceso principal (PRI). El canal D transporta la información de control del canal B. Una vez establecida la conexión TCP, se produce un intercambio de información denominado "la configuración de la conexión". Dicha información se intercambia en la ruta en la que al final se transmitirá los datos. Tanto la información de control como los datos comparten la misma ruta. Esto se denomina señalización dentro de banda. Sin embargo, la tecnología ISDN utiliza un canal aparte para la información de control, el canal D. Esto se denomina señalización fuera de banda. La tecnología ISDN especifica dos métodos de acceso estándar, BRI y PRI. Una única interfaz BRI o PRI provee un grupo multiplexado de canales B y D. La BRI utiliza dos canales B de 64 Kbps más un canal D de 16 Kbps. La BRI se usa en muchos routers de Cisco. Como la BRI utiliza dos canales B y un canal D, a veces se conoce como 2B+D. Los canales B se pueden usar para transmisiones digitales de voz. En este caso, se utiliza métodos especializados para la digitalización de la voz. Los canales B también pueden utilizarse para el transporte de datos a velocidades relativamente altas. De este modo, la información se transporta en el formato de tramas, mediante el control de enlace de datos de alto nivel (HDLC) o el protocolo PPP como protocolos de Capa 2. El PPP es mucho más sólido que el HDLC ya que ofrece un mecanismo para la autenticación y negociación de la configuración de protocolos y enlaces compatibles. Se considera a las ISDN como conexiones conmutadas por circuito. El canal B es la unidad elemental para la conmutación por circuito. El canal D transporta mensajes de señalización tales como establecimiento y corte de la llamada, para el control de llamadas en los canales B. El tráfico en el canal D emplea el Protocolo de procedimiento de acceso al enlace en canales D (LAPD). El LAPD es un protocolo de capa de enlace de datos basado en el HDLC. En América del Norte y Japón, las PRI ofrecen veintitrés canales B de 64 Kbps y un canal D de 64 Kbps. Las PRI ofrecen el mismo nivel de servicio que las conexiones T1 o DS1. En Europa y en gran parte del resto del mundo, las PRI ofrecen 30 canales B y un canal D, para así ofrecer el mismo nivel de servicio que un circuito E1. Las PRI utilizan la Unidad de servicio de datos/Unidad de servicio del canal (DSU/CSU) para las conexiones T1/E1. 4.1.3 Protocolos y modelo de tres capas de las ISDN Figura 1 La tecnología ISDN utiliza un conjunto de estándares UIT-T que abarcan las capas física, de enlace de datos y de red del modelo de referencia OSI: • Las especificaciones ISDN PRI y BRI de la capa física se denominan UIT-T I.430 e I.431 respectivamente. • La especificación de la capa de enlace de datos está basada en el protocolo LAPD y se define formalmente en los siguientes documentos: • UIT-T Q.920 • UIT-T Q.921 • UIT-T Q.922 • UIT-T Q.923 314 MicroCisco - staky CCNA - Cisco Certified Network Associate • La especificación de capa de red se define en UIT-T Q.930 (también denominado L450) y UIT-T Q.931 (también denominado I.451). Estos dos estándares especifican las conexiones de usuario a usuario, conmutadas por circuito y por paquete. El servicio BRI se proporciona en un loop local que tradicionalmente transporta el servicio telefónico analógico por cable. Aunque existe una sola ruta física en las BRI, hay tres rutas de información separadas, 2B+D. La información de los tres canales es multiplexada en una ruta física única. Los formatos de la trama de la capa física o Capa 1 varían según la trama sea entrante o saliente. La trama es saliente si viaja desde el terminal hasta la red. Las tramas salientes usan el formato TE. La trama es entrante si viaja desde la red hacia el terminal. Las tramas entrantes usan el formato NT. Figura 2 Cada trama consta de dos tramas de muestra, conformadas de esta manera: • 8 bits del canal B1. • 8 bits del canal B2. • 4 bits del canal D. • 6 bits de encabezado. Las tramas BRI en la tecnología ISDN constan de 48 bits. Se transmiten cuatro mil tramas como estas por segundo. Cada uno de los canales B, el B1 y el B2, tiene una capacidad de 2 * (8 * 4000) = 64 Kbps. El Canal D tiene una capacidad de 4 * 4000 = 16 Kbps. Esto representa 144 Kbps de la velocidad de la interfaz física BRI de 192 Kbps. El resto de la velocidad de transmisión de datos lo usan los bits de encabezado necesarios para la transmisión. Los bits de encabezado de la trama de capa física ISDN se utilizan de la siguiente forma: • Bit de entramado: suministra la sincronización • Bit de equilibrado de la carga: ajusta el valor de bit promedio • Eco de los bits anteriores del canal D: se utiliza para la resolución de contención cuando varias terminales de un bus pasivo se disputan un canal. • Bit de activación: activa los dispositivos • Bit extra: no asignado Cabe notar que la velocidad física de la interfaz BRI es de 48*4000 = 192 Kbps. La velocidad efectiva es de 144 Kbps = 64 Kbps + 64 Kbps + 16 Kbps (2B+D). La Capa 2 del canal de señalización usa el LAPD. El LAPD es similar al HDLC. El LAPD se utiliza en todo el canal D para garantizar que la información de control y señalización fluya y se reciba correctamente. Los campos de control y señalización del LAPD son idénticos a los de HDLC. En el LAPD, el campo de la dirección tiene una longitud de 2 bytes. El primer byte del campo de dirección contiene el identificador del punto de acceso al servicio (SAPI), que identifica el portal en el cual se suministra los servicios de LAPD a la Capa 3. El bit de Comando/Respuesta (C/R) indica si la trama contiene un comando o una respuesta. El segundo byte contiene el identificador del terminal final (TEI). Cada elemento del equipo terminal del cliente requiere de un identificador TEI único. El TEI puede asignarse de forma estática durante la instalación, o el switch puede asignarlo dinámicamente durante el arranque del equipo. Si se asigna el TEI de forma estática 315 MicroCisco - staky CCNA - Cisco Certified Network Associate durante la instalación, es entonces un número que varía de 0 a 63. El rango de un TEI de asignación dinámica varía de 64 a 126. Un TEI de 127 o todos 1s indica un broadcast. Figura 3 4.1.4 ISDN - Funciones Se deben producir varios intercambios para que un router se conecte a otro mediante ISDN. Para establecer una llamada ISDN, se utiliza el canal D entre el router y el switch ISDN. El Sistema de señalización 7 (SS7) se utiliza entre los switches dentro de la red del proveedor del servicio. Figura 1 El canal D entre el router y el switch ISDN siempre está habilitado. El estándar ISDN Q.921 describe los procesos LAPD de enlace de datos que funcionan como procesos de Capa 2 en el modelo de referencia OSI. El canal D se utiliza para las funciones de control de llamada tales como establecimiento, señalización y corte de la llamada. Estas funciones se implementan según el protocolo Q.931. El Q.931 especifica las funciones de la Capa 3 del modelo de referencia OSI. El estándar Q.931 recomienda una conexión de capa de red entre el terminal final y el switch ISDN local, pero no impone una recomendación de extremo a extremo. Debido a que algunos switches ISDN fueron desarrollados antes de la estandarización del Q.931, distintos proveedores de ISDN y distintos tipos de switch pueden utilizar (de hecho lo hacen) diferentes implementaciones del Q.931. Como los tipos de switch no son estándar, los routers deben contar con comandos en su configuración que especifiquen el switch ISDN al que se conectan. 316 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 Figura 3 Figura 4 Al establecer una llamada BRI o PRI se produce la siguiente secuencia de eventos: 1. El canal D se utiliza para enviar el número marcado hasta el switch ISDN local. 2. El switch local utiliza el protocolo de señalización SS7 para configurar una ruta y enviar el número marcado al switch ISDN remoto. 3. El switch ISDN remoto hace una señalización al destino mediante el canal D. 317 MicroCisco - staky CCNA - Cisco Certified Network Associate 4. El dispositivo ISDN NT-1 de destino envía al switch ISDN remoto un mensaje de conexión de llamada. 5. El switch ISDN remoto utiliza el SS7 para enviar un mensaje de conexión de llamada al switch local. 6. El switch ISDN local conecta un canal B de extremo a extremo y deja disponible al otro canal B para una nueva conversación o transferencia de datos. Ambos canales B pueden utilizarse al mismo tiempo. Figura 5 Fogura 6 4.1.5 ISDN - Puntos de referencia Los estándares ISDN definen a los grupos funcionales como dispositivos o componentes de hardware que permiten al usuario tener acceso a los servicios de las BRI o PRI. Los fabricantes pueden crear hardware que soporte una o más funciones. Las especificaciones ISDN definen cuatro puntos de referencia que conectan los dispositivo ISDN unos con otros. Cada dispositivo de una red ISDN realiza una tarea específica para facilitar la conectividad de extremo a extremo. Para conectar los dispositivos que realizan funciones específicas, la interfaz entre los dos dispositivos debe estar bien definida. Estas interfaces reciben el nombre de puntos de referencia. Los puntos de referencia que afectan el extremo del cliente de la conexión ISDN son los siguientes: 318 MicroCisco - staky CCNA - Cisco Certified Network Associate • • • • R: hace referencia a conexiones entre un dispositivo terminal tipo 2 (TE2) no compatible con ISDN y un adaptador de terminales (TA), por ejemplo una interfaz serial RS-232. S: hace referencia a los puntos de conexión a un dispositivo de conmutación del tipo Terminación de red tipo 2 (NT2) del cliente y permite realizar llamadas entre los distintos tipos de equipos del cliente. T: idéntico a la interfaz S desde el punto de vista eléctrico, hace referencia a la conexión saliente desde el dispositivo NT2 hacia la red ISDN o hacia dispositivos de Terminación de red tipo 1 (NT1). U: hace referencia a las conexiones entre dispositivos NT1 y la red ISDN propiedad de la compañía telefónica. Figura 1 Figura 2 Figura 3 319 MicroCisco - staky CCNA - Cisco Certified Network Associate Como las referencias S y T son similares desde el punto de vista eléctrico, algunas interfaces se especifican como interfaces S/T. Aunque realizan funciones diferentes, el puerto es el mismo, desde el punto de vista eléctrico, y puede utilizarse para ambas funciones. 4.1.6 Determinación de la interfaz ISDN del router En los Estados Unidos, el cliente debe proveer el dispositivo NT1. En Europa y en otros países, la compañía telefónica provee la función NT1 y presenta una interfaz S/T al abonado. En estas configuraciones, el abonado no necesita proveer un dispositivo NT1 aparte ni una función NT1 integrada en el dispositivo terminal. Equipos tales como los módulos y las interfaces ISDN del router deben solicitarse según el esquema correspondiente. Figura 1 Para seleccionar un router Cisco con la interfaz ISDN adecuada, proceda de la siguiente forma: 1. Determine si el router soporta la interfaz ISDN BRI. Busque en la parte posterior del router un conector BRI o una Tarjeta de interfaz WAN (WIC) para BRI. 2. Determine el proveedor del dispositivo NT1. El dispositivo NT1 termina el loop local en la central (CO) del proveedor de servicios ISDN. En los Estados Unidos, el dispositivo NT1 forma parte de los Equipos terminales del cliente (CPE) y éste debe suplirlos. En Europa, por lo general, el proveedor suple el dispositivo NT1. 3. Si el NT1 está integrado en un CPE, el router debe contar con una interfaz U. Si el router cuenta con una interfaz S/T, entonces necesitará un dispositivo NT1 externo para conectarse con el proveedor de ISDN. Figura 2 320 Figura 3 MicroCisco - staky CCNA - Cisco Certified Network Associate Si el router cuenta con un conector BRI entonces ya está habilitado para ISDN. En el caso de una interfaz ISDN nativa ya integrada, el router es un TE1 y necesita conectarse a un NT1. Si el router cuenta con una interfaz U, también dispone de un dispositivo NT1 incorporado. Si el router no cuenta con un conector BRI y es de configuración fija o es un router no modular, entonces, debe utilizar la interfaz serial existente. En el caso de interfaces ISDN no nativas tales como las interfaces seriales, se debe conectar un dispositivo TA externo a la interfaz serial para proporcionar la conectividad BRI. Si el router es modular, es posible que se le pueda añadir una interfaz ISDN nativa, siempre que haya una ranura disponible. PRECAUCIÓN: Nunca debe conectarse una interfaz U a un dispositivo NT1 ya que se dañará la interfaz. 4.1.7 Tipos de switches ISDN Los routers deben estar configurados para identificar el tipo de switch al cual se comunican. Los tipos de switches ISDN disponibles varían en parte según el país en el que se usa el switch. Como consecuencia de las diversas implementaciones del Q.931, el protocolo de señalización del canal D utilizado en los switches ISDN varía entre los distintos suplidores. Los servicios que ofrecen los proveedores de ISDN varían considerablemente de un país a otro y de una región a otra. Al igual que los módems, cada tipo de switch opera de forma ligeramente distinta y tiene un conjunto específico de requisitos para el establecimiento de la llamada. Antes de conectar el router al servicio ISDN, debe configurarse para el tipo de switch que utiliza la CO. Esta información debe especificarse durante la configuración del router a fin de que éste pueda comunicarse con el switch, establecer la llamada a nivel de la red ISDN y enviar datos. Figura 1 Figura 2 Además de conocer el tipo de switch utilizado por el proveedor del servicio, también puede ser necesario conocer cuáles son los identificadores del perfil de servicio (SPID) asignados por la compañía telefónica. El 321 MicroCisco - staky CCNA - Cisco Certified Network Associate SPID es un número que proporciona el proveedor de ISDN para identificar la configuración del servicio BRI. Los SPID permiten que múltiples dispositivos ISDN, como dispositivos de voz y datos, compartan el loop local. Los switches DMS-100 y ISDN-1 National requieren SPID. Los SPID sólo se utilizan en América del Norte y Japón. El proveedor de ISDN suministra un SPID para identificar la configuración del servicio ISDN. En muchos casos, al configurar un router, es necesario introducir los SPID. Cada SPID indica información acerca de la configuración de la línea y del proceso de establecimiento de llamadas. Los SPID son una serie de caracteres semejantes por lo general a números de teléfono. Los SPID permiten que el switch de las oficinas centrales identifique cada canal B. Una vez identificado, el switch enlaza los servicios disponibles a la conexión. Recuerde que la tecnología ISDN se utiliza comúnmente para conectividad mediante líneas de marcación telefónica. Los SPID se procesan cuando el router efectúa la conexión inicial con el switch ISDN. Si es necesario el uso de SPID, pero no están correctamente configurados, la inicialización fallará y no será posible utilizar los servicios ISDN. 4.2 ISDN Configuración 4.2.1 Configuración de la interfaz ISDN BRI El comando isdn switch-type switch-type puede ejecutarse en el modo de configuración global o en el modo de configuración de interfaz para especificar el switch ISDN del proveedor. Figura 1 Figura 2 La configuración del comando isdn switch-type en el modo de configuración global define el mismo tipo de switch ISDN para todas las interfaces ISDN. Una vez ejecutado el comando de configuración global, cada interfaz puede ser configurada individualmente para reflejar un tipo de switch diferente. Una vez instalado el servicio ISDN, el proveedor del servicio enviará información sobre el tipo de switch y los SPID. Los SPID se utilizan para definir los servicios disponibles para cada abonado individual del servicio ISDN. Según el tipo de switch, es posible que haya que agregar estos SPID a la configuración. Los switches National ISDN-1 y los ISDN DMS-100 requieren la configuración de los SPID, pero no así el switch AT&T 5ESS. Es necesario especificar los SPID cuando se utiliza un simulador de ISDN Adtran. 322 MicroCisco - staky CCNA - Cisco Certified Network Associate El formato de los SPID puede variar según el tipo de switch ISDN y los requisitos específicos del proveedor. Utilice los comandos isdn spid1 y isdn spid2 del modo de configuración de interfaz para especificar el SPID que se requiere para iniciar una llamada a la central ISDN. – Figura 3 Para La configuración de la interfaz ISDN BRI es una mezcla de comandos de interfaz y global. configurar el tipo de switch ISDN, utilice el comando isdn switch-type en el modo de configuración global. Router(config)#isdn switch-type switch-type Figura 4 El argumento switch-type indica el tipo de switch del proveedor del servicio. Para inhabilitar el switch en una interfaz ISDN, especifique isdn switch-type none. El siguiente ejemplo configura el tipo de switch National ISDN-1 en el modo de configuración global. Router(config)#isdn switch-type basic-ni Para definir un SPID, utilice el comando isdn spid# en el modo de configuración de interfaz. Este comando se utiliza para definir los números SPID que han sido asignados a los canales B. Router(config-if)#isdn spid1 spid-number [ldn] Router(config-if)#isdn spid2 spid-number [ldn] El argumento opcional ldn define un número de directorio de marcación local. En la mayoría de los switches, el número debe coincidir con el del destinatario de la llamada que proviene del switch ISDN. Los SPID se especifican en el modo de configuración de interfaz. Para ingresar al modo de configuración de interfaz, utilice el comando interface bri en el modo de configuración global. Router(config)#interface bri slot/port Router(config)#interface bri0/0 323 MicroCisco - staky CCNA - Cisco Certified Network Associate Router(config-if)#isdn spid1 51055540000001 5554000 Router(config-if)#isdn spid2 51055540010001 5554001 4.2.2 Configuración de la interfaz ISDN PRI La interfaz ISDN PRI se provee en líneas arrendadas T1 o E1. Las principales tareas de configuración de la interfaz PRI son las siguientes: 1. Especificar correctamente el tipo de switch PRI al que se conecta la interfaz del router en la central del proveedor de ISDN. 2. Especificar el controlador T1/E1, el tipo de entramado y la codificación de línea del equipo terminal del proveedor de ISDN. 3. Establecer la secuencia de multiplexado de la interfaz PRI para el equipo terminal T1/E1 e indicar la velocidad utilizada. Figura 1 Como los routers se conectan a las interfaces PRI mediante líneas T1/E1, no existe un comando "interface pri". En cambio, la interfaz física del router que se conecta con la línea arrendada recibe el nombre de controlador T1 o de controlador E1, en caso de utilizar una línea E1. Este controlador debe estar correctamente configurado a fin de comunicarse con la red del proveedor. La configuración de los canales D y B de las interfaces ISDN PRI se hace aparte de la configuración del controlador, mediante el comando interface serial Figura 2 Utilice el comando isdn switch-type para especificar el switch ISDN que utiliza el proveedor al que se conecta la interfaz PRI. Como sucede con las BRI, este comando puede introducirse en modo de configuración global o de configuración de interfaz. La tabla muestra los tipos de switch disponibles para la configuración de las interfaces ISDN PRI: Router(config)#isdn switch-type primary-net5 La configuración de un controlador T1 o E1 se realiza en cuatro pasos: 1. Desde el modo de configuración global, especifique el controlador y la ranura/puerto del router donde está instalada la tarjeta PRI. Router(config)#controller {t1 | e1} {slot/port} Router(config-controller)# 2. Configure el tipo de trama, la codificación de línea y la sincronización, según lo indicado por el proveedor del servicio. El comando framing se utiliza para seleccionar el tipo de trama que usa el proveedor del servicio ISDN PRI. Para líneas T1, use el comando siguiente: Router(config-controller)#framing {sf | esf} 324 MicroCisco - staky CCNA - Cisco Certified Network Associate Para líneas E1, use el comando framing con las siguientes opciones: Router(config-controller)#framing {crc4 | no-crc4} [australia] Utilice el comando linecode para identificar el método de señalización de la capa física en el equipo terminal digital del proveedor. Router(config-controller)#linecode {ami | b8zs| hdb3} En América del Norte, los proveedores de conexiones T! utilizan el método de señalización B8ZS. Permite aprovechar totalmente los 64 Kbps de cada canal ISDN. En Europa se utiliza normalmente la codificación HDB3. 3. Configure la interfaz para usar PRI y el número de intervalos de tiempo fijos asignados en el equipo terminal digital del proveedor. Router(config-controller)#pri-group [timeslotsrange] Para T1, el rango de intervalos de tiempo utilizados es 1-24. Para E1 es 1-31. 4. Especifique una interfaz para la operación del canal D PRI. La interfaz es una interfaz serial conectada a una línea T1/E1 en el router: Router(config)#interface serial{slot/port: | unit:}{23 | 15} Figura 3 En las líneas E1 o T1, los canales comienzan su numeración en 1. La numeración varía de 1 a 31 para E1 y de 1 a 24 para T1. Las interfaces seriales del router Cisco comienzan su numeración en 0. Por lo tanto, el canal 16, el canal de señalización en una conexión E1, es el canal 15 de la interfaz. El canal 24, el canal de señalización T1, se convierte en el canal 23 en la interfaz. De esta manera, la interfaz serial 0/0:23 se refiere al canal D de una interfaz PRI T1. Las subinterfaces, generalmente utilizadas con Frame Relay, se designan con un punto o una coma. Por ejemplo, 0/0.16 serial es una subinterfaz. No confunda los canales de una T1 o E1 con las subinterfaces. Los canales utilizan dos puntos en lugar de un punto para indicar el número del canal: • S0/0.23 se refiere a una subinterfaz. • S0/0:23 se refiere a un canal. 4.2.3 ISDN - Verificación de la configuración Se puede usar diversos comandos show para verificar que la configuración ISDN se ha hecho correctamente. Para confirmar las operaciones de las BRI, utilice el comando show isdn status para inspeccionar el estado de las interfaces BRI. Es posible utilizar este comando después de configurar la interfaz BRI para verificar que el dispositivo TE1 o el router se comuniquen con el switch ISDN de forma correcta. En la Figura , los TE1 se han negociado con éxito y la Capa 3 ISDN está lista para efectuar o recibir llamadas. 325 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Figura 2 Verifique que el Estado de la capa 1 sea ACTIVE (ACTIVO) y que el Estado de la capa 2 muestre la leyenda MULTIPLE_FRAME_ESTABLISHED (TRAMAS MÚLTIPLES ESTABLECIDAS). Este comando también muestra el número de llamadas activas. El comando show isdn active muestra la información actual de las llamadas incluyendo: • Número marcado. • Tiempo hasta el final de la llamada. • Aviso de carga (AOC) • Unidades de carga utilizadas durante la llamada. • Si la información de AOC se proporciona durante o al finalizar las llamadas. El comando show dialer presenta la información sobre la interfaz de marcación: • Estado actual de la llamada. • Valores del temporizador del acceso telefónico. • Razón del marcación. • Dispositivo remoto al que está conectado. show interface bri0/0 muestra las estadísticas de la interfaz BRI configurada en el router. La información específica del canal aparece cuando se introduce el número del canal al final del comando. En este caso, el comando show interface bri0/0:1 muestra lo siguiente: • El canal B está utilizando encapsulamiento de PPP. El LCP ha negociado y se encuentra abierto. • Hay dos tipos de protocolos NCP en ejecución, el IPCP y el Protocolo de control del Cisco Discovery Protocol (CDPCP). 326 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 3 4.2.4 ISDN - Diagnóstico de fallas en la configuración Figura 1 Los siguientes comandos se utilizan para depurar y diagnosticar fallas en la configuración de ISDN: • El comando debug isdn q921 muestra los mensajes de la capa de enlace de datos o Capa 2 en el canal D entre el router y el switch ISDN. Utilice este comando si el comando show isdn status no muestra que el estado de la capa 1 sea "ACTIVE" y el de la capa 2 sea "MULTIPLE_FRAME_ESTABLISHED". • El comando debug isdn q931 muestra el intercambio de mensajes de establecimiento y corte de la llamada en la Capa 3 de la conexión ISDN. • El comando debug ppp authentication muestra los mensajes del protocolo de autenticación PPP, incluyendo los intercambios de paquetes del Protocolo de autenticación de intercambio de señales (CHAP) y del Protocolo de autenticación de contraseña (PAP). • El comando debug ppp negotiation muestra la información sobre el tráfico del PPP y de sus intercambios mientras se negocian los componentes del PPP. Esto incluye los intercambios del LCP, de autenticación y del NCP. Una exitosa negociación del PPP abrirá primero el estado de LCP, luego autenticará y finalmente negociará el NCP. • El comando debug ppp error muestra los errores del protocolo y las estadísticas de los errores asociados con la conexión, negociación y operación del PPP. Utilice los comandos debug ppp para diagnosticar un problema de Capa 2 si el comando show isdn status no indica problemas en la ISDN. 327 MicroCisco - staky CCNA - Cisco Certified Network Associate 4.3 DDR Configuración 4.3.1 Operación del DDR El enrutamiento telefónico por demanda (DDR) se activa cuando se dirige tráfico de características previamente definidas hacia la salida de una interfaz habilitada para DDR. Al tráfico que activa una llamada del DDR se le conoce como tráfico interesante. Una vez que el router ha transmitido el tráfico interesante la llamada se interrumpe. La clave para una eficiente operación por DDR se encuentra en la definición de tráfico interesante. Se define al tráfico interesante mediante el comando dialer-list. Las listas de marcación pueden establecer que todo el tráfico que proviene de un protocolo específico active un enlace DDR, o se puede consultar una lista de acceso para determinar cuáles tipos de tráfico pueden activar el enlace. Las listas de marcación no filtran el tráfico en una interfaz. Incluso un tráfico que no sea interesante se transmitirá si la conexión con el destino se encuentra activa. Figura 1 Figura 2 Figura 3 328 MicroCisco - staky CCNA - Cisco Certified Network Associate El DDR se implementa en los routers Cisco de la siguiente manera: 1. El router recibe el tráfico, realiza la búsqueda en la tabla de enrutamiento para determinar si existe una ruta hacia el destino e identifica la interfaz saliente. 2. Si la interfaz saliente está configurada para DDR, el router hace una búsqueda para determinar si el tráfico es interesante. 3. El router identifica la información de marcación necesaria para efectuar la llamada, mediante un mapa de marcación para acceder al router del salto siguiente. 4. Entonces, el router verifica si el mapa de marcación se encuentra en uso. Si en ese momento la interfaz se encuentra conectada al destino remoto deseado, se transmite el tráfico. Si en ese momento la interfaz no se encuentra conectada al destino remoto, el router envía información para la configuración inicial de la llamada a través de la BRI mediante el canal D. 5. Una vez habilitado el enlace, el router transmite tanto el tráfico interesante como el no interesante. El tráfico no interesante puede incluir datos y actualizaciones de enrutamiento. 6. El temporizador de espera se inicia y ejecuta en tanto no se observe tráfico interesante durante el período de expiración del tiempo de espera y desconecta la llamada de acuerdo con la configuración del temporizador de espera. Figura 4 Figura 5 La configuración del temporizador de espera especifica el lapso durante el cual el router debe permanecer conectado aunque no haya tráfico interesante. Una vez establecida la conexión por DDR, se permitirá la 329 MicroCisco - staky CCNA - Cisco Certified Network Associate transmisión de cualquier tipo de tráfico hacia el destino. Sin embargo, sólo el tráfico interesante reinicia el temporizador de espera. 4.3.2 Configuración del DDR obsoleto El DDR obsoleto o "heredado" es un término que se utiliza para definir una configuración muy básica del DDR, en la cual se aplica un único conjunto de parámetros de marcación a una interfaz. Si se necesitan múltiples configuraciones de marcación en una interfaz, se deben utilizar perfiles de marcación. Figura 1 Figura 2 Figura 3 Para configurar el DDR heredado proceda con los siguientes pasos: • Defina las rutas estáticas • Especifique el tráfico interesante • Configure la información de marcación 330 MicroCisco - staky CCNA - Cisco Certified Network Associate 4.3.3 Definición de rutas estáticas para el DDR Para transmitir el tráfico, los routers necesitan conocer cuál ruta utilizar hacia un destino dado. Al utilizar un protocolo de enrutamiento dinámico, la interfaz DDR activará una conexión telefónica al destino para cada mensaje de salutación o actualización de enrutamiento si estos paquetes se definen como tráfico interesante. Para evitar la activación frecuente o constante de un enlace DDR, configure las rutas necesarias de forma estática. Para configurar una ruta estática para tráfico IP utilice el siguiente comando: Router(config)#ip route net-prefix mask {address | interface} [distance] [permanent] Figura 1 El router Central tiene una ruta estática hacia la red 10.40.0.0 en el router Home. El router Home tiene dos rutas estáticas definidas para las dos subredes de la LAN Central. Si la red conectada al router Home es una red de comunicación única, entonces todo el tráfico que no es local se transmite al Central. En este caso, una ruta por defecto es la mejor elección para el router Home. Home(config)#ip route 0.0.0.0 0.0.0.0 10.1.0.2 Al configurar las rutas estáticas, tenga en cuenta lo siguiente: • Por defecto, una ruta estática tendrá prioridad sobre una ruta dinámica debido a su menor distancia administrativa. Sin configuraciones adicionales, una ruta dinámica hacia una red no será tomada en cuenta ante la presencia de una ruta estática hacia la misma red en la tabla de enrutamiento. • Para reducir el número de entradas de rutas estáticas, defina una ruta estática por defecto o acortada. 4.3.4 Cómo especificar el tráfico interesante para el DDR El tráfico interesante genera las llamadas por DDR. Es posible definir este tráfico según cualquiera de estas opciones: • Tráfico IP de un tipo de protocolo particular. • Paquetes con una dirección de origen o destino particular. • Otros criterios según lo establezca el administrador de la red. Utilice el comando dialer-list para identificar el tráfico interesante. La sintaxis del comando es la siguiente: Router(config)#dialer-list dialer-group-num protocol protocol-name {permit | deny | list access-list-number} El dialer-group-num es un número entero entre 1 y 10 que identifica la lista de marcación del router. El comando dialer-list 1 protocol ip permit permite que todo tipo de tráfico IP active una llamada. En lugar de permitir cualquier tráfico IP, la lista de marcación puede designar una lista de acceso a fin de especificar exactamente cuáles tipos de tráfico pueden activar un enlace. La referencia a la lista de acceso 101 de la 331 MicroCisco - staky CCNA - Cisco Certified Network Associate lista de marcación 2 evita que el tráfico de Telnet y de FTP activen el enlace DDR. Todos los demás paquetes de IP se consideran interesantes y, por lo tanto, iniciarán el enlace por DDR. Figura 1 4.3.5 Configuración de la información de marcación en el DDR Son varios los pasos necesarios para la configuración de la interfaz DDR. El PPP se configura en la interfaz de marcación mediante los mismos comandos que habilitan el PPP en una interfaz serial. El HDLC es el encapsulamiento por defecto para una interfaz ISDN en un router Cisco, pero la mayoría de las redes emplean el PPP para las conexiones conmutadas por circuito. Debido a su solidez, interoperabilidad y otras características tales como la autenticación, el PPP es el protocolo de enlace de datos en uso en los canales B de la mayoría de los routers. Para configurar el PPP en la interfaz DDR, utilice los siguientes comandos: Figura 1 Home(config)#username Central password cisco Home(config)#interface bri0/0 Home(config-if)#encapsulation ppp Home(config-if)#ppp authentication chap Home(config-if)#ip address 10.1.0.1 255.255.255.0 Una lista de marcación que defina el tráfico interesante para esta interfaz DDR debe ser asociada a la interfaz DDR. Esto se realiza mediante el comando dialer-groupgroup-number: 332 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 Home(config-if)#dialer-group 1 En el comando, group-number se especifica el número del grupo de marcación al que pertenece la interfaz. El número del grupo puede ser un número entero de 1 a 10. Este número debe coincidir con el dialerlistgroup-number. Cada interfaz puede tener un solo grupo de marcación. Sin embargo, es posible asignar la misma lista de marcación a múltiples interfaces con el comando dialer-group. La información de marcación correcta para la interfaz remota DDR debe ser especificada. Esto se realiza mediante el comando dialer map. Figura 3 El comando dialer map vincula direcciones remotas a números de teléfono. Este comando es necesario para marcar a múltiples sitios. Router(config-if)#dialer map protocol next-hop-address [name hostname] [speed 56 | 64] [broadcast] dialstring Si sólo se marca a un único sitio, utilice un comando incondicional dialer string que siempre marca el mismo número de teléfono sin considerar el destino del tráfico. Este paso sólo se aplica al DDR heredado. Aunque siempre es necesaria la información, los pasos para configurar la información sobre el destino son distintos cuando se utilizan perfiles de marcación en lugar de DDR heredado. 333 MicroCisco - staky CCNA - Cisco Certified Network Associate Es posible utilizar el comando dialer idle-timeoutseconds para especificar el número de segundos de espera sin tráfico que transcurren antes de desconectar la llamada. seconds" representa el número de segundos que transcurren hasta que se desconecta la llamada una vez enviado el último paquete interesante. Por defecto es 120. Figura 4 4.3.6 Perfiles de marcación El DDR heredado es limitado porque la configuración se aplica directamente a una interfaz física. Como la dirección IP se aplica directamente a la interfaz, sólo las interfaces DDR configuradas en esa subred específica pueden establecer una conexión DDR con dicha interfaz. Esto significa que hay una correspondencia uno a uno entre las dos interfaces DDR en cada extremo del enlace. Los perfiles de marcación aíslan la configuración de la interfaz que recibe o efectúa las llamadas, y sólo vinculan la configuración a la interfaz en cada llamada en particular. Los perfiles de marcación permiten que las interfaces físicas adquieran distintas características de forma dinámica, basándose en los requisitos de las llamadas entrantes y salientes. Los perfiles de marcación hacen el resto: • Definen el encapsulamiento y las listas de control de acceso. • Determinan el mínimo o el máximo de llamadas. • Activan o desactivan las funciones. Figura 1 334 MicroCisco - staky CCNA - Cisco Certified Network Associate Los perfiles de marcación son útiles en el diseño y distribución de redes de internetwork conmutadas por circuitos, ya que las hacen más escalables y permiten mayor complejidad al implementar un modelo DDR más escalable en los routers Cisco y los servidores de acceso. Los perfiles de marcación separan la porción lógica del DDR, como por ejemplo la capa de red, el encapsulamiento y los parámetros de marcación, de la interfaz física que env a o recibe las llamadas. Mediante los perfiles de marcación, es posible realizar las siguientes tareas: • Configurar los canales B en una interfaz ISDN con diferentes subredes IP. • Utilizar diferentes encapsulamientos en los canales B de la interfaz ISDN. • Definir diferentes parámetros DDR para los canales B de la interfaz ISDN. • Eliminar las ineficiencias en el uso de los canales B ISDN al permitir que las interfaces ISDN BRI pertenezcan a múltiples conjuntos de marcación. Un perfil de marcación consta de los siguientes elementos: • Interfaz de marcación: una entidad lógica que utiliza un perfil de marcación por destinos. • Conjunto de marcación: cada interfaz de marcación hace referencia al conjunto de marcación, el cual es un grupo de una o más interfaces físicas asociadas a un perfil de marcación. • Interfaces físicas: las interfaces de un conjunto de marcación se configuran para los parámetros de encapsulamiento y para identificar los conjuntos de marcación a los cuales pertenece. La autenticación y el tipo de encapsulamiento del PPP, así como el PPP multienlace, se configuran en la interfaz física. Figura 2 Figura 3 Como sucede con el DDR heredado, los perfiles de marcación se activan cuando se dirige tráfico interesante a la interfaz DDR para ser enviado. Primero, se enruta un paquete interesante hacia una dirección IP DDR remota. El router entonces verifica las interfaces de marcación configuradas, para hallar una que comparta la misma subred que la dirección IP DDR remota. Si existe una, el router busca una interfaz física DDR inactiva en el conjunto de marcación. La configuración del perfil de marcación se aplica 335 MicroCisco - staky CCNA - Cisco Certified Network Associate entonces a la interfaz y el router intenta crear una conexión DDR. Una vez finalizada la conexión, la interfaz vuelve al conjunto de marcación a la espera de la siguiente llamada. 4.3.7 Configuración de los perfiles de marcación En un router se pueden configurar múltiples interfaces de marcación. Cada interfaz de marcación es la configuración completa para un destino. El comando interface dialer crea una interfaz de marcación y activa el modo de configuración de interfaz. Figura 1 Para configurar la interfaz de marcación ejecute las siguientes tareas: 1. Configure una o más interfaces de marcación mediante todos los comandos básicos del DDR: • Dirección IP • Tipo de encapsulamiento y autenticación. • Temporizador de espera. • Grupo de marcación para tráfico interesante. 2. Configure dialer string y dialer remote-name para especificar el nombre del router remoto y su número de teléfono. El dialer pool asocia la interfaz lógica a un conjunto de interfaces físicas. 3. Configure las interfaces físicas y asígnelas a un conjunto de marcación mediante el comando dialer pool-member. Figura 2 Es posible asignar una interfaz a múltiples conjuntos de marcación mediante los diversos comandos dialer pool-member. Si existe más de una interfaz física en el conjunto, utilice la opción priority del comando dialer pool-member para establecer la prioridad de la interfaz dentro del conjunto de marcación. Si es 336 MicroCisco - staky CCNA - Cisco Certified Network Associate necesario efectuar múltiples llamadas y sólo una interfaz se encuentra disponible, entonces el conjunto de marcación de mayor prioridad es el que hace la llamada. Una combinación de cualquiera de las siguientes interfaces puede utilizarse con conjuntos de marcación: • Serial síncrona • Serial asíncrona • BRI • PRI 4.3.8 Verificación de la configuración del DDR El comando show dialer interface [BRI] muestra la información en el mismo formato que las estadísticas del DDR heredado de las llamadas entrantes y salientes. El mensaje "Dialer state is data link layer up" (El estado de marcación es "Capa de enlace de datos activa") sugiere que la llamada se activó y que la interfaz BRI 0/0:1 está vinculada al perfil de marcación 1. Figura 1 Figura 2 El comando show isdn active muestra información sobre las llamadas ISDN activas. la llamada ISDN es saliente hacia un router remoto llamado Seattle. En este resultado, 337 MicroCisco - staky CCNA - Cisco Certified Network Associate El comando show isdn status muestra la información acerca de las tres capas de la interfaz BRI. En este resultado, la Capa 1 se encuentra activa, la Capa 2 se estableció con SPID1 y SPID2 validados y hay una conexión activa en la Capa 3. Figura 3 4.3.9 Diagnóstico de fallas en la configuración del DDR Hay dos tipos principales de problemas con el DDR. Que el router no marque cuando tenga que hacerlo o que marque constantemente cuando no deba. Se utiliza varios comandos debug para ayudar en el diagnóstico de problemas en una configuración DDR. Figura 1 En las siguientes líneas, los números hexadecimales más significativos séptimo y octavo indican el tipo de mensaje. • • • • 0x05 indica un mensaje de establecimiento o iniciación de llamada. 0x02 indica un mensaje de aceptación de la llamada. 0x07 indica un mensaje de llamada establecida. 0x0F indica un mensaje de acuse de recibo (ack) del establecimiento de la llamada. El comando debug isdn q931 es útil para observar los intercambios durante el establecimiento inicial de la llamada, tanto para las llamadas entrantes como salientes. – 338 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 Figura 3 Figura 4 El comando debug dialer [events | packets] se utiliza para diagnosticar fallas del DHCP. El comando debug dialer events envía un mensaje a la consola que indica cuándo se ha activado un enlace DDR y cuál tipo de tráfico produjo la conexión. Si un router no está configurado de forma correcta para DDR, entonces el resultado del comando, en general, indicará el origen del problema. Si no se muestra el resultado de la depuración, entonces el router no tiene conocimiento de tráfico interesante alguno. Una interfaz de marcación o una lista de acceso mal configuradas pueden ser la causa. 339 MicroCisco - staky CCNA - Cisco Certified Network Associate No todos los problemas con el DDR causan que la interfaz no marque. Los protocolos de enrutamiento pueden hacer que una interfaz marque de forma continua, aun cuando no haya datos de usuario por enviar. Se dice que una interfaz que continuamente se activa y desactiva se está "sacudiendo". El comando debug dialer packet envía un mensaje a la consola cada vez que se envía un paquete hacia la interfaz DDR. Utilice este comando de depuración para saber exactamente cuál es el tráfico responsable de sacudir la interfaz DDR. Si un router no se conecta cuando tiene que hacerlo, entonces es posible que la causa sea un problema con el ISDN, y no un problema con el DDR. El router remoto puede estar mal configurado o podría haber un problema en la red del proveedor de ISDN. Utilice el comando isdn call interface para forzar al router local a intentar establecer una llamada al router remoto. Si los routers no se pueden comunicar mediante este comando, entonces la falta de conectividad es un problema de la ISDN, no del DDR. Sin embargo, si los routers se pueden comunicar, entonces tanto la red del proveedor como la configuración de los routers ISDN están funcionando correctamente. En este caso, el problema seguramente es un error en la configuración del DDR en cualquiera de los routers. Figura 5 En algunos casos, resulta de utilidad reiniciar la conexión entre el router y el switch local ISDN. El comando clear interface bri libera las conexiones establecidas en la interfaz y reinicia la interfaz con el switch ISDN. Este comando fuerza al router a renegociar sus SPID con el switch ISDN y a veces resulta necesaria su ejecución al efectuar cambios mediante los comandos isdn spid1 y isdn spid2 en la interfaz. Resumen La tecnología ISDN se refiere a un conjunto de protocolos de comunicación propuestos por las compañias telefónicas para permitir que las redes telefónicas transporten voz, video y datos de manera integrada. ISDN permite la comunicación a través de canales de comunicación digital de alta calidad y alta velocidad. El DDR se usa para eliminar el costo de una línea WAN dedicada, en aquellas organizaciones y empresas que no necesitan una conexión permanente. También puede utilizarse como conexión de respaldo en aquellas organizaciones que utilizan una línea dedicada para aplicaciones críticas. Se debe haber obtenido una comprensión adecuada de los siguientes puntos clave: • ISDN transporta datos, voz y video. • ISDN utiliza estándares para direccionamiento, conceptos y señalización • ISDN utiliza la capa de enlace de datos y la capa física • Puntos de referencia e interfaces de ISDN • Configuración del router para ISDN • Cuáles tipos de tráfico se permiten en la configuración del DDR • Rutas estáticas para el DDR. • Tipo de encapsulamiento correcto para el DDR • Listas de acceso que afectan el tráfico del DDR • Interfaces de marcación 340 MicroCisco - staky CCNA - Cisco Certified Network Associate Módulo 5: Frame Relay Descripción general La tecnología Frame Relay se creó originalmente como una extensión de la tecnología ISDN. Fue diseñada para permitir que la tecnología de conmutación por circuitos viaje por redes conmutadas por paquetes. Frame Relay se ha convertido en un esquema independiente y económico de crear WANs. Los switches Frame Relay crean circuitos virtuales para la interconexión de LANs remotas a WANs. La red Frame Relay se establece entre un dispositivo de frontera de una LAN, por lo general un router, y el switch del proveedor del servicio. La tecnología utilizada por el proveedor para transportar los datos entre los switches no es importante en el caso de Frame Relay. La complejidad de la tecnología requiere una profunda comprensión de los términos utilizados para describir el funcionamiento de la tecnología Frame Relay. Sin una completa comprensión de la tecnología Frame Relay, es difícil diagnosticar las fallas de desempeño. La tecnología Frame Relay se convirtió en uno de los protocolos WAN más utilizados. Una de las razones de su popularidad es que resulta atractiva económicamente cuando se la compara con líneas arrendadas. Otra razón por la que es tan popular es que la configuración del equipo del usuario en las redes Frame Relay es muy sencilla. Este módulo explica cómo configurar Frame Relay en un router Cisco. Las conexiones Frame Relay se crean al configurar routers u otros dispositivos para comunicarse con un switch Frame Relay. El proveedor del servicio, en general, configura el switch Frame Relay. Esto ayuda a mantener las tareas de configuración del usuario final al mínimo. Los estudiantes que completen este módulo deberán ser capaces de: • Explicar el alcance y propósito de Frame Relay. • Analizar la tecnología Frame Relay. • Comparar las topologías punto a punto y punto a multipunto. • Examinar la topología de una red Frame Relay. • Configurar un Circuito virtual permanente (PVC) de Frame Relay. • Crear un mapa de asignaciones Frame Relay en una red remota. • Explicar los problemas de una red multiacceso sin broadcast. • Analizar la necesidad de subinterfaces y cómo configurarlas. • Verificar y diagnosticar fallas en una conexión Frame Relay. 5.1 Conceptos de Frame Relay 5.1.1 Introducción a la tecnología Frame Relay Figura 1 341 MicroCisco - staky CCNA - Cisco Certified Network Associate La tecnología Frame Relay es un estándar del Sector de Normalización de Telecomunicaciones de la Unión Internacional de Telecomunicaciones (UIT-T) y del Instituto Nacional Americano de Normalización (ANSI). Frame Relay es un servicio WAN de conmutación de paquetes, orientado a conexión. Opera en la capa de enlace de datos del modelo de referencia OSI. Frame Relay utiliza un subconjunto del protocolo de Control de enlace de datos de alto nivel (HDLC) llamado Procedimiento de acceso a enlaces para Frame Relay (LAPF) Las tramas transportan datos entre los dispositivos de usuarios, llamados equipo terminal de datos (DTE), y el equipo de comunicaciones de datos (DCE) en la frontera de la WAN. Originalmente, Frame Relay fue diseñada para permitir que los equipos ISDN tuvieran acceso a servicios conmutados por paquetes en un canal B. Sin embargo, Frame Relay es ahora una tecnología independiente. Una red Frame Relay puede ser privada, pero es más común que se use los servicios de una compañía de servicios externa. Una red Frame Relay consiste, en general, de muchos switches Frame Relay esparcidos geográficamente, los cuales se interconectan mediante líneas troncales. Figura 2 Figura 3 342 MicroCisco - staky CCNA - Cisco Certified Network Associate Con frecuencia, se usa Frame Relay para la interconexión de LANs. En estos casos, un router en cada una de las LANs será el DTE. Una conexión serial, como una línea arrendada T1/E1, conecta el router al switch Frame Relay de la compañía de servicio en su punto de presencia más cercano al router. El switch Frame Relay es un dispositivo DCE. Las tramas se envian y entregan desde un DTE a otro DTE utilizando la red de Frame Relay creada por los DCE de la compañía de servicios. Figura 4 Otros equipos de computación que no se encuentren en la LAN pueden también enviar datos a través de la red Frame Relay. Dichos equipos utilizan como DTE a un dispositivo de acceso a Frame Relay (FRAD). 5.1.2 Frame Relay - Terminología La conexión a través de la red Frame Relay entre dos DTE se denomina circuito virtual (VC). Los circuitos virtuales pueden establecerse de forma dinámica mediante el envío de mensajes de señalización a la red. En este caso se denominan circuitos virtuales conmutados (SVC). Sin embargo, los SVC no son muy comunes. Por lo general se usan circuitos virtuales permanentes (PVC), previamente configurados por la compañía de servicios. Un VC se crea al almacenar la información de asignación de puerto de entrada a puerto de salida en la memoria de cada switch y así se enlaza un switch con otro hasta que se identifica una ruta continua de un extremo del circuito al otro. Figura 1 Frame Relay no tiene mecanismos de recuperación de errores, porque fue diseñada para operar en líneas digitales de alta calidad. Si un nodo detecta un error en la trama, se descarta sin notificación. 343 MicroCisco - staky CCNA - Cisco Certified Network Associate El FRAD o router conectado a la red Frame Relay puede disponer de múltiples circuitos virtuales que lo conectan a diversos destinos. Esto hace que Frame Relay sea una alternativa muy económica a las marañas de líneas de acceso. Con esta configuración, todos los destinos comparten una sola línea de acceso y una sola interfaz. Se generan ahorros adicionales ya que la capacidad de la línea de acceso se establece según las necesidades de ancho de banda promedio de los circuitos virtuales, y no según las necesidades máximas de ancho de banda. Figura 2 Los diversos circuitos virtuales en la línea de acceso única se diferencian mediante un identificador de canal El DLCI se almacena en el campo de dirección de cada de enlace de datos (DLCI) para cada circuito. trama transmitida. El DLCI en general tiene sólo importancia local y puede ser diferente en cada extremo de un VC. Figura 3 5.1.3 Frame Relay - Soporte de las capas de la pila OSI La tecnología Frame Relay opera de acuerdo al siguiente esquema: • Toma los paquetes de datos provenientes de un protocolo de capa de red como IP o IPX. • Los encapsula como la porci n de datos de una trama Frame Relay • Los pasa a la capa física para que su envío por el cable 344 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Figura 2 La Secuencia de verificación de trama (FCS) se utiliza para determinar si durante la transmisión se produjo algún error en el campo de dirección de la Capa 2. La FCS se calcula antes de la transmisión y el resultado se inserta en el campo de la FCS. En el otro extremo, un segundo valor de FCS se calcula y compara con la FCS de la trama. Si los resultados son iguales, se procesa la trama. Si existe una diferencia, la trama se descarta. No se envía una notificación a la fuente cuando se descarta una trama. El control de errores tiene lugar en las capas superiores del modelo OSI. 5.1.4 Frame Relay - Control de flujo y ancho de banda La conexión serial o el enlace de acceso a la red Frame Relay se hace, generalmente, mediante una línea arrendada. La velocidad de la línea es la velocidad de acceso o velocidad de puerto. Las velocidades de puerto por lo general son de 64 Kbps y 4 Mbps. Algunos proveedores ofrecen velocidades de hasta 45 Mbps. En general, hay varios PVC operando en el enlace de acceso y cada VC tiene disponibilidad de ancho de banda dedicada. Esto se denomina velocidad de información suscrita (CIR). La CIR es la velocidad a la que el proveedor del servicio acuerda aceptar bits en el VC. Las CIR individuales son por lo general menores a la velocidad del puerto. Sin embargo, la suma de las CIR, en general, será mayor que la velocidad del puerto. Algunas veces, este factor es de 2 o 3. La multiplexión estadística aprovecha el hecho de que las comunicaciones en computación son usualmente por ráfagas, lo que hace improbable que los diversos canales estén a su máxima velocidad de transmisión de datos al mismo tiempo. Mientras se transmite una trama, todos sus bits se envían a la velocidad del puerto. Por esta razón, debe haber un intervalo entre tramas en el VC si la velocidad promedio va a ser la de CIR. El switch acepta las tramas del DTE a velocidades que exceden al CIR. Esto efectivamente brinda a cada canal un ancho de banda por demanda, cuyo máximo es la velocidad del puerto. Algunos proveedores de servicio imponen un máximo a cada VC, el cual es inferior a la velocidad del puerto. La diferencia entre la CIR y la velocidad máxima, ya sea que el máximo corresponda a la velocidad de puerto o sea menos, se llama Velocidad de información excesiva (EIR). El intervalo de tiempo con el cual se calculan las velocidades se llama tiempo suscrito (Tc). El número de bits suscritos durante un período Tc es la ráfaga suscrita (Bc). El número adicional de bits que exceda la ráfaga suscrita, hasta la velocidad máxima del enlace de acceso, es la ráfaga excesiva (Be). 345 MicroCisco - staky CCNA - Cisco Certified Network Associate Aunque el switch acepta el tráfico de tramas que excede la CIR, el switch activa (es decir, coloca en "1") el bit elegible de descarte (DE) en el campo de la dirección a todas las tramas que se excedan. Figura 1 Figura 2 Figura 3 346 MicroCisco - staky CCNA - Cisco Certified Network Associate El switch mantiene un contador de bits para cada VC. Cualquier trama entrante que lleve al contador mayor a la Bc se marca como DE. Una trama entrante se descarta si lleva el contador mayor a la suma de Bc + Be. Después de cada Tc segundos se reinicia el contador. El contador no puede ser negativo, de modo que no es posible acumular el tiempo de inactividad. Las tramas que entran a un switch se ponen en cola en un buffer de memoria antes de su envío. Como en cualquier sistema de colas, es posible que haya una acumulación excesiva de tramas en el switch. Eso causa retardos. Los retardos acarrean retransmisiones innecesarias que tienen lugar cuando los protocolos de las capas superiores no reciben acuses de recibo dentro de un tiempo determinado. En casos severos esto puede provocar un descenso importante en la velocidad de la red. Para evitar este problema, los switches Frame Relay incorporan una política de descarte de tramas para acortar las colas. Las tramas con el bit DE activo son las primeras en eliminarse. Cuando un switch detecta el crecimiento de su cola, trata de reducir el flujo de tramas hacia él. Esto lo hace notificando a los DTE de la existencia del problema, al activar los bits de la notificación explícita de congestión (ECN) en el campo de dirección de las tramas. El bit de Notificación explícita de congestión hacia adelante (FECN) se activa en cada trama que el switch recibe en el enlace congestionado. El bit de Notificación explícita de congestión hacia atrás (BECN) se configura en cada trama que el switch coloca en el enlace congestionado. Se espera que los DTE que reciben tramas con el grupo de bits ECN activos intenten reducir el flujo de tramas hasta que la congestión desaparezca. Si la congestión tiene lugar en un troncal interno, los DTE pueden recibir una notificación aun cuando ellos no sean la causa. Los bits DE, FECN y BECN forman pare del campo de dirección de las tramas LAPF. 5.1.5 Frame Relay - Topología y mapas de direcciones Cuando se requiere interconectar más de dos lugares, es necesario tener en cuenta la topología de las conexiones entre ellos. Es improbable que Frame Relay sea económica cuando sólo se necesita interconectar dos lugares mediante una conexión punto a punto. Frame Relay resulta más atractiva económicamente cuando se requiera interconectar múltiples lugares. Con frecuencia, las WAN se interconectan mediante una topología en estrella. El nodo central aloja los servicios primarios y se conecta a todos los lugares remotos que necesitan tener acceso a los servicios. Figura 1 En una topología en estrella, la ubicación de el nodo central se elige de modo que resulte en el menor costo de líneas arrendadas. Al implementar una topología en estrella con Frame Relay, cada ubicación remota tiene un enlace de acceso a la nube de Frame Relay mediante un único VC. El nodo central tiene un 347 MicroCisco - staky CCNA - Cisco Certified Network Associate enlace de acceso con múltiples VC, uno por cada ubicación remota. Debido a que las tarifas de Frame Relay no se establecen en función de la distancia, el nodo central no necesita estar situado en el centro geográfico de la red. Figura 2 Se elige una topología de malla completa cuando los servicios a los que se debe tener acceso están geográficamente dispersos y se necesita de un acceso altamente confiable a los mismos. Con una malla completa, todos los sitios están interconectados entre ellos. A diferencia de lo que ocurre con las interconexiones mediante líneas arrendadas, con Frame Relay se puede implementar una malla completa Es necesario configurar VC adicionales en los enlaces existentes para pasar de sin hardware adicional. una topología en estrella a una de malla completa. En general, los múltiples VC en un enlace de acceso harán mejor uso del Frame Relay que un VC único. Esto se debe a que ellos aprovechan la multiplexión estadística integrada. Figura 3 En las redes de gran tamaño la topología de malla completa rara vez resulta atractiva económicamente. Esto se debe a que el número de enlaces necesario para una topología de malla completa crece hasta alcanzar casi el cuadrado del número de lugares. Aunque en Frame Relay los equipos no son un problema, hay un límite de 1000 VC por enlace. En la práctica el límite es inferior y las redes de mayor tamaño usan por lo general una topología de malla parcial. Con la malla parcial, hay más interconexiones que las de una disposición en estrella, pero no tantas como en una malla completa. El esquema a usar depende en mucho de las necesidades de flujo de datos. Puede haber problemas de alcance, sin importar la topología de Frame Relay, cuando se usa una sola interfaz para interconectar varios lugares. Esto se debe a la naturaleza de acceso múltiple sin broadcast 348 MicroCisco - staky CCNA - Cisco Certified Network Associate (NBMA) de la tecnología Frame Relay. El horizonte dividido es una técnica que se utiliza en los protocolos de enrutamiento para prevenir los loops de enrutamiento. El horizonte dividido no permite el envío de actualizaciones de enrutamiento por la misma interfaz que originó la información de la ruta. Esto puede causar problemas en las actualizaciones de enrutamiento en un entorno de Frame Relay donde múltiples PVC comparten una sola interfaz física. Figura 4 No importa cuál sea la topología subyacente de la red física, todos los FRAD o routers necesitan una vinculación entre las direcciones Frame Relay de la capa de enlace de datos y las dirección de la capa de red, por ejemplo: las direcciones IP. Principalmente, el router necesita saber cuáles redes se pueden alcanzar más allá de una interfaz en particular. Existe el mismo problema si una línea arrendada ordinaria se conecta a una interfaz. La diferencia es que el extremo remoto de una línea arrendada se conecta directamente a un único router. Las tramas del DTE viajan a través de la línea arrendada hasta el switch de la red, donde pueden esparcirse a muchos routers, hasta 1000. El DLCI de cada VC debe estar vinculado a la dirección de red de su router remoto. La información se puede configurar de forma manual mediante los comandos de asignaciones. El DLCI puede configurarse de manera automática mediante el protocolo ARP inverso. Este proceso se describe en más detalle en otra sección. 5.1.6 Frame Relay - LMI La tecnología Frame Relay fue diseñada para ofrecer transferencias de datos conmutados por paquetes con un mínimo retardo de extremo a extremo. Se omitió todo lo que pudiera contribuir a los retardos. Cuando los fabricantes implementaron la Frame Relay como una tecnología separada y no como un componente de ISDN, decidieron que era necesario disponer de DTE para obtener información sobre el estado de la red de forma dinámica. Esta característica no estaba incluida en el diseño original. Las extensiones creadas para habilitar la transferencia de la información de estado se llaman Interfaz de administración local (LMI). Figura 1 El campo de 10 bits del DLCI permite identificadores de VC que van desde 0 hasta 1023. Las extensiones LMI se reservan algunos de estos identificadores. Esto reduce el número de VC permitidos. Los mensajes LMI se intercambian entre los DTE y los DCE utilizando los DLCI reservados. Las extensiones LMI incluyen las siguientes: 349 MicroCisco - staky CCNA - Cisco Certified Network Associate • • • • • El mecanismo de actividad, el cual comprueba que un VC esté en funcionamiento El mecanismo multicast El control de flujo La capacidad de dar significado global a los DLCIs. El mecanismo de estado de los VC Existen varios tipos de LMI, todos incompatibles entre ellos. El tipo de LMI configurado en el router debe coincidir con el utilizado por el proveedor de servicios. Los routers Cisco soportan tres tipos de LMI: • Cisco: las extensiones LMI originales • ANSI: las correspondientes al estándar ANSI T1.617 Anexo D • q933a: las correspondientes al estándar UIT Q933 Anexo A Los mensajes LMI se envían a través de una variante de las tramas LAPF. Esta variante incluye cuatro campos adicionales en el encabezado, a fin de hacerlos compatibles con las tramas LAPD que se utilizan en la tecnología ISDN. El campo de dirección lleva uno de los DLCI reservados. Seguido a esto se encuentran los campos de control, de discriminación de protocolos y el de referencia de llamadas, los cuales no cambian. El cuarto campo indica el tipo de mensaje LMI. Figura 2 Hay uno o más elementos de información (IE) que siguen a la trama. Cada IE consta de lo siguiente: • Un identificador del IE, de un byte • Un campo que indica la longitud del IE • Uno o más bytes que contienen los datos propiamente dichos, que por lo general incluyen el estado de un DLCI 350 MicroCisco - staky CCNA - Cisco Certified Network Associate Los mensajes de estado ayudan a verificar la integridad de los enlaces físico y lógico. Esta información resulta fundamental en un entorno de enrutamiento, ya que los protocolos de enrutamiento toman decisiones según la integridad del enlace. 5.1.7 Etapas del ARP inverso y operación de los LMI Los mensajes de estado LMI combinados con los mensajes del ARP inverso permiten que un router vincule direcciones de capa de red con direcciones de la capa de enlace de datos. Cuando un router que está conectado a una red Frame Relay arranca, envía un mensaje de consulta de estado LMI a la red. La red contesta con un mensaje de estado LMI que contiene detalles de cada VC configurado en el enlace de acceso. Figura 1 Figura 2 Periódicamente el router repite la consulta de estado, pero las respuestas siguientes sólo incluyen los cambios en el estado. Después de un determinado número de respuestas abreviadas, la red enviará un mensaje de estado completo. 351 MicroCisco - staky CCNA - Cisco Certified Network Associate Si el router necesita asignar los VC a direcciones de capa de red, enviará un mensaje ARP inverso desde cada VC. El mensaje ARP inverso incluye la dirección de capa de red del router, de modo que el DTE o el router remoto, pueda realizar la vinculación. La respuesta ARP inversa permite que el router haga los registros necesarios en su tabla de asignaciones de direcciones a DLCIs. Si el enlace soporta varios protocolos de capa de red, se enviarán mensajes ARP inversos para cada uno de ellos. 5.2 Configuración de Frame Relay 5.2.1 Frame Relay - Configuración básica Esta sección explica cómo configurar un PVC de Frame Relay básico. La Frame Relay se configura en una interfaz serial. El tipo de encapsulamiento por defecto es una versión propietaria de Cisco del HDLC. Para cambiar el encapsulamiento de Frame Relay use el comando encapsulation frame-relay [cisco | ietf]. Figura 1 cisco Usa el encapsulamiento Frame Relay propietario de Cisco. Use esta opción para conectarse a otro router Cisco. Muchos dispositivos de otras marcas también soportan este tipo de encapsulamiento. Esta es la opción por defecto. ietf Establece el método de encapsulamiento para cumplir con el estándar de la Fuerza de Tareas de Ingeniería de Internet (IETF) RFC 1490. Elija ésta si se conecta a un router que no es Cisco. Figura 2 El encapsulamiento Frame Relay propietario de Cisco usa encabezados de 4 bytes, con dos bytes para indicar el identificador de conexión de enlace de datos (DLCI) y dos bytes para identificar el tipo de paquete. Configure una dirección IP en la interfaz mediante el comando ip address. Configure el ancho de banda de la interfaz serial mediante el comando bandwidth. El ancho de banda se indica en Kilobits por segundo (Kbps). Este comando se usa para notificar al protocolo de enrutamiento que el ancho de banda del enlace 352 MicroCisco - staky CCNA - Cisco Certified Network Associate se configuró estáticamente. El Protocolo de enrutamiento de gateway interior (IGRP), el Protocolo de enrutamiento de gateway interior mejorado (EIGRP) y el protocolo Primero la ruta libre más corta (OSPF) utilizan el valor del ancho de banda para determinar la métrica de los enlaces. El comando ip address se usa para establecer una dirección IP en una interfaz dada. Por otra parte, para establecer el ancho de banda de la misma interfaz, se usa el comando bandwidth. El comando frame-relay lmi-type [ansi | cisco | q933a] establece y configura la conexión LMI. Este comando es necesario sólo si se usa el Cisco IOS Release 11.1 o una versión anterior. Con la versión 11.2 del software Cisco IOS o posterior, el tipo LMI se detecta automáticamente y no se requiere configuración. El tipo de LMI por defecto es Cisco. El tipo LMI se configura interfaz por interfaz y se muestra en la resultado del comando show interfaces. Estos pasos de configuración son los mismos, independientemente de los protocolos de capa de red que operan a través de la red. 5.2.2 Configuración de un mapa estático de Frame Relay Se debe asignar de forma estática el DLCI local a la dirección de capa de red de un router remoto cuando el router remoto no soporte el protocolo ARP inverso. Esto también es válido cuando se deba controlar el tráfico de broadcast y de multicast a través de un PVC. Este método de asignación de DLCI se denominan en Frame Relay asignaciones estáticas. Figura 1 Figura 2 Utilice el comando frame-relay map protocol protocol-address dlci [broadcast] para asignar de forma estática la dirección de capa de red remota al DLCI local. 5.2.3 Problemas de alcance de las actualizaciones de enrutamiento en NBMA Por defecto, una red Frame Relay ofrece conectividad de acceso múltiple sin broadcast (NBMA) entre dos sitios remotos. Un entorno NBMA se considera igual a otros entornos de medios de acceso múltiple, por ejemplo Ethernet, en el que todos los routers se encuentran en la misma subred. Sin embargo, para reducir 353 MicroCisco - staky CCNA - Cisco Certified Network Associate los costos, las nubes NBMA generalmente se construyen siguiendo una topología en estrella. En la topología en estrella, la topología física no provee las funciones de acceso múltiple que sí brinda Ethernet. La topología física consta de múltiples PVCs. Figura 1 La topología NBMA de Frame Relay puede causar dos problemas: • Problemas de alcance relativos a las actualizaciones de enrutamiento. • La necesidad de replicar los paquetes broadcast en cada uno de los PVCs cuando una interfaz física contiene más de un PVC La actualización mediante horizonte dividido reduce los loops de enrutamiento al no permitir que una actualización de enrutamiento recibida en una interfaz sea reenviada por la misma interfaz. Si el router B, un router en una punta de la estrella, envía una actualización de enrutamiento broadcast al router A, el router de el nodo central, y el router A tiene varios PVCs en una sola interfaz física, entonces el router A no puede enviar la actualización de enrutamiento a través de la misma interfaz física a otro router en una punta de la estrella. Si el horizonte dividido está inhabilitado, es posible enviar la actualización de enrutamiento a través de la misma interfaz física por la que se recibió. El horizonte dividido no presenta problemas cuando hay un único PVC en la interfaz física. Esta sería una conexión Frame Relay punto a punto. Figura 2 Los routers que dan soporte a conexiones múltiples a través de una interfaz física tienen varios PVCs que terminan en un único router. Este router debe replicar los paquetes broadcast, por ejemplo: los broadcasts 354 MicroCisco - staky CCNA - Cisco Certified Network Associate de actualización de enrutamiento, en todos los PVCs y enviarlos a los routers remotos. Los paquetes broadcast replicados pueden consumir ancho de banda y aumentar significativamente la latencia en el tráfico de usuario. Puede parecer lógico apagar el horizonte dividido para resolver los problemas de alcance que origina. Sin embargo, no todos los protocolos de la capa de red permiten inhabilitar el horizonte dividido y el desconectarlo aumenta la probabilidad de que ocurran loops de enrutamiento. Una forma de resolver los problemas del horizonte dividido es utilizar una topología de malla completa. Sin embargo, esto aumentará el costo porque se requieren más PVCs. La solución de mayor aceptación es el uso de subinterfaces. 5.2.4 Subinterfaces en Frame Relay Para permitir el envío de las actualizaciones broadcast de enrutamiento en una topología Frame Relay en estrella, configure el router de la central con interfaces asignadas lógicamente. Estas interfaces reciben el nombre de subinterfaces. Las subinterfaces son subdivisiones lógicas de una interfaz física. Figura 1 En entornos de horizonte dividido, es posible reenviar las actualizaciones de enrutamiento recibidas en una subinterfaz a través de otra subinterfaz. En una configuración de subinterfaces, cada circuito virtual puede configurarse como una conexión punto a punto. Esto permite que cada subinterfaz actúe de modo similar a una línea arrendada. Al utilizar una interfaz Frame Relay punto a punto, cada pareja de routers punto a punto se encuentra en su propia subred. Las subinterfaces Frame Relay pueden configurarse en modo punto a punto y en modo multipunto: • Punto a punto: se utiliza una sola subinterfaz punto a punto para establecer una conexión PVC a otra interfaz física o subinterfaz de un router remoto. En este caso, cada pareja de routers punto a punto está en su propia subred y cada subinterfaz punto a punto tiene un solo DLCI. En un entorno punto a punto, cada subinterfaz actúa como una interfaz punto a punto. Entonces, el tráfico de actualización de enrutamiento no está sujeto a la regla del horizonte dividido. • Multipunto: se utiliza una sola subinterfaz multipunto para establecer múltiples conexiones PVC a múltiples interfaces físicas o subinterfaces en routers remotos. Todas las interfaces involucradas se encuentran en la misma subred. La subinterfaz actúa como una interfaz Frame Relay NBMA de modo que el tráfico de actualización de enrutamiento está sujeto a la regla de horizonte dividido. El comando encapsulation frame-relay está asignado a la interfaz física. Todos los demás aspectos de la configuración, tales como la dirección de capa de red y los DLCI se asignan a cada subinterfaz. Las configuraciones multipunto pueden utilizarse para ahorrar direcciones, lo que puede ser de utilidad si no se está utilizando una Máscara de subred de longitud variable (VLSM). Sin embargo, las configuraciones multipunto podrían funcionar inapropiadamente dadas las consideraciones de tráfico de broadcasts y del horizonte dividido. La opción de la subinterfaz punto a punto se creó para evitar esos problemas. 5.2.5 Configuración de las subinterfaces Frame Relay El proveedor de servicios Frame Relay asignará los números DLCI. Estos números van del 16 al 992, y por lo general, sólo tienen importancia local. Los DLCI pueden tener importancia global en algunas circunstancias. Este intervalo numérico varía de acuerdo con el LMI utilizado. 355 MicroCisco - staky CCNA - Cisco Certified Network Associate En la figura, el Router A tiene dos subinterfaces punto a punto. La subinterfaz s0/0.110 se conecta al router B y la subinterfaz s0/0.120, al router C. Cada subinterfaz se encuentra en una subred diferente. Para configurar las subinterfaces en una interfaz física, siga los pasos siguientes. • • Configure el encapsulamiento Frame Relay en la interfaz física mediante el comando encapsulation frame-relay. Para cada uno de los PVCs definidos, cree una subinterfaz lógica router(config-if)#interface serialnumber.subinterface-number [multipoint | point-to-point] Figura 1 Figura 2 Para crear una subinterfaz, utilice el comando interface serial. Especifique el número de puerto, seguido de un punto (.), y luego del número de la interfaz. Por lo general, se usa como el número de la subinterfaz el del DLCI. Esto facilita la detección de fallas. El parámetro final requerido establece si la subinterfaz es punto a punto o punto a multipunto. Se necesita la palabra clave multipoint o point-to-point. No hay valor por defecto. Los comandos siguientes crean la subinterfaz del PVC al router B. routerA(config-if)#interface serial 0/0.110 point-to-point Si la subinterfaz se configura como point-to-point (punto a punto), entonces el DLCI local para la subinterfaz debe también configurarse para distinguirlo de la interfaz física. También se requiere el DLCI 356 MicroCisco - staky CCNA - Cisco Certified Network Associate para las subinterfaces multipoint (multipunto) en las que se habilita el ARP inverso. No es necesario que las subinterfaces multipunto estén configuradas con mapas de enrutamiento estáticos. El comando framerelay interface-dlci se utiliza para configurar el DLCI local en la subinterfaz. router(config-subif)#frame-relay interface-dlcidlci-number Figura 3 5.2.6 Verificación de la configuración de Frame Relay El comando show interfaces muestra la información relativa al encapsulamiento y estado de la Capa 1 y la Capa 2. También muestra la información acerca de lo siguiente: • El tipo de LMI • La LMI del DLCI • El tipo de equipo terminal de datos Frame Relay/equipo de terminación de circuito (DTE/DCE) Normalmente, el router se considera como un dispositivo de terminal de datos (DTE). Sin embargo, los routers Cisco pueden configurarse como switches Frame Relay. El router se convierte en el dispositivo de terminación de circuito (DCE) cuando se le configura como un switch Frame Relay. Figura 1 Por ejemplo, este Utilice el comando show frame-relay lmi para mostrar las estadísticas de tráfico LMI. comando muestra el número de mensajes de estado intercambiados entre el router local y el switch Frame Relay local. Utilice el comando show frame-relay pvc [interfaceinterface] [dlci] para mostrar el estado de cada PVC configurado así como las estadísticas de tráfico. Este comando resulta útil para ver el número de los paquetes de BECN y FECN que el router recibe. El estado del PVC puede ser activo, inactivo o eliminado. El comando show frame-relay pvc muestra el estado de todos los PVCs configurados en el router. Al indicar un PVC se verá sólo el estado de ese PVC. En la Figura , el comando show frame-relay pvc 100 muestra sólo el estado del PVC 100. 357 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 2 Figura 3 Figura 4 358 MicroCisco - staky CCNA - Cisco Certified Network Associate Utilice el comando show frame-relay map para mostrar las asignaciones actuales e información acerca de las conexiones. La siguiente información interpreta el resultado del comando show frame-relay map que se muestra en la figura : • 10.140.1.1 es la dirección IP de un router remoto, que se aprende de forma dinámica a través de un proceso ARP inverso. • 100 es el valor decimal del número DLCI local. • 0x64 es la conversión hexadecimal del número DLCI, , 0x64 = 100 decimal • 0x1840 es el valor tal como se mostraría en el cable debido a la forma en que los bits DLCI se reparten en el campo de dirección de la trama Frame Relay. • La capacidad broadcast/multicast está habilitada en el PVC. • El estado del PVC es activo. Para borrar, de forma dinámica, los mapas de asignación Frame Relay creados mediante ARP inverso, use el comando clear frame-relay-inarp. Figura 5 5.2.7 Diagnóstico de fallas de la configuración de Frame Relay Figura 1 Utilice el comando debug frame-relay lmi para determinar si el router y el switch Frame Relay están enviando y recibiendo paquetes LMI de manera adecuada. "Out" (salida) se refiere a los mensajes de estado enviados por el router. "In" (entrada) se refiere a los mensajes recibidos del switch Frame Relay. Un mensaje de estado LMI completo es del tipo 0 ("type 0"). Un intercambio LMI es del tipo 1 ("type 1"). El texto 359 CCNA - Cisco Certified Network Associate MicroCisco - staky "dlci 100, estado 0x2" significa que el estado del DLCI 100 es activo. Los valores posibles del campo de estado son los siguientes. • • • 0x0: agregado/inactivo. Significa que el switch tiene el DLCI programado pero, por alguna razón no se puede usar. Es posible que esto ocurra porque el extremo opuesto del PVC está desactivado. 0x2: agregado/activo. Significa que el switch Frame Relay tiene el DLCI y que todo está en funcionamiento. 0x4: eliminado. Significa que el switch Frame Relay no tiene este DLCI programado para el router, pero que estuvo programado en algún momento en el pasado. Esto puede deberse a una reversión del DLCI en el router, o que el proveedor de servicios haya eliminado el PVC en la nube Frame Relay. Resumen Se debe haber obtenido una comprensión adecuada de los siguientes puntos clave: • Alcance y propósito de Frame Relay. • Tecnología de Frame Relay. • Topologías punto a punto y punto a multipunto. • La topología de una red Frame Relay. • Cómo configurar un Circuito virtual permanente (PVC) de Frame Relay. • Cómo crear un mapa de asignaciones Frame Relay en una red remota. • Los problemas potenciales en el enrutamiento de una red de acceso múltiple sin broadcast. • Por qué se necesitan subinterfaces y cómo se las configura. • Cómo verificar y hacer diagnóstico de fallas de una conexión Frame Relay. 360 CCNA - Cisco Certified Network Associate MicroCisco - staky Módulo 6: Introducción a la administración de redes Descripción general Las primeras PC fueron diseñadas como equipos de escritorio independientes. El sistema operativo (OS) permitía el acceso a los archivos y recursos del sistema a un solo usuario a la vez. El usuario debía tener acceso físico a la PC. A medida que las redes de computación basadas en PC ganaron popularidad en el mundo corporativo, las compañías de software desarrollaron los NOS, los sistemas operativos especializados para redes. Los programadores diseñaron los NOS para brindar seguridad a nivel de archivos, privilegios de usuario y el acceso a los recursos por parte de múltiples usuarios. El crecimiento explosivo de la Internet llevó a los programadores a crear los NOS actuales alrededor de tecnologías relacionadas con la Internet y de servicios como la World Wide Web (WWW). La conectividad a redes es esencial hoy en día para la computación de escritorio. Ya no es tan clara la distinción entre los sistemas operativos modernos de escritorio, en la actualidad cargados con funciones y servicios para networking, y sus contrapartidas los NOS. En la actualidad, los sistemas operativos más populares, tales como Windows 2000 de Microsoft y Linux, se pueden encontrar tanto en servidores de gran potencia para redes y en los escritorios de los usuarios. El conocimiento de los distintos sistemas operativos garantizará la selección del sistema operativo correcto, el cual ofrezca todos los servicios requeridos. A continuación se hará una introducción de los sistemas operativos UNIX, Linux y Mac OS X, así como varias versiones de Windows. La efectiva administración de las LAN y WAN constituye el elemento clave para mantener un entorno productivo en el mundo del networking. A medida que un mayor número de usuarios dispone de más y más servicios, el rendimiento de las redes se ve afectado negativamente. Los administradores de redes, a través de un constante monitoreo, deben reconocer los problemas y ser capaces de corregirlos antes de que se hagan evidentes a los usuarios finales. Se dispone de diversos protocolos y herramientas para monitorear las redes de forma local y remota. El entendimiento profundo de estas herramientas es fundamental para una efectiva administración de las redes. Los estudiantes que completen este módulo deberán ser capaces de: • Identificar diversas tareas que posiblemente deba realizar una estación de trabajo. • Identificar varias funciones posibles de un servidor. • Describir el papel de los equipos en un entorno cliente/servidor. • Describir las diferencias entre un NOS y un sistema operativo de escritorio. • Enumerar varios sistemas operativos Windows y sus características. • Enumerar diferentes alternativas a los sistemas operativos Windows y sus características. • Identificar las herramientas para la administración de redes. • Identificar las fuerzas que impulsan la administración de redes. • Describir el modelo de administración de redes y el modelo OSI. • Describir el Protocolo Simple de Administración de Redes (SNMP) y el Protocolo de Información de Administración Común (CMIP) • Describir de qué manera el software de administración recopila información y lleva un registro de los problemas. 6.1 Estaciones de trabajo y servidores 6.1.1 Estaciones de trabajo Una estación de trabajo es una computadora cliente la cual se utiliza para ejecutar aplicaciones. Está conectada y obtiene datos de un servidor el cual comparte datos con otras computadoras. Un servidor es una computadora que ejecuta un NOS. Una estación de trabajo utiliza un software especial, como por ejemplo un programa shell de interconexión con la red, para realizar las siguientes tareas: • Interceptar los datos del usuario y los comandos de las aplicaciones. • Decidir si el comando está dirigido al sistema operativo local o al NOS. • Enviar el comando hacia el sistema operativo local o hacia la tarjeta de interfaz de red (NIC) para ser procesado y transmitido a la red. • Enviar transmisiones recibidas de la red a la aplicación que se ejecuta en la estación de trabajo. 361 MicroCisco - staky CCNA - Cisco Certified Network Associate Algunos de los sistemas operativos Windows pueden instalarse tanto en estaciones de trabajo como en servidores. Las versiones NT, 2000 y XP de Windows proveen capacidades de servidor de red. Las versiones Windows 9x y ME sólo proporcionan soporte para estaciones de trabajo. Figura 1 Figura2 El UNIX o el Linux pueden funcionar como sistemas operativos de escritorio pero generalmente se les encuentra en computadoras de alto nivel. Estas estaciones de trabajo se utilizan en aplicaciones científicas y de ingeniería, las cuales requieren de computadoras dedicadas de alto rendimiento. Algunas de las aplicaciones específicas que con frecuencia se ejecutan en estaciones de trabajo UNIX figuran en la siguiente lista: • Diseño asistido por computadora (CAD). • Diseño de circuitos electrónicos. • Análisis de datos climatológicos. • Animación gráfica por computadora. • Administración de equipos para telecomunicaciones. La mayoría de los actuales sistemas operativos de escritorio incluyen capacidades de networking y permiten el acceso a múltiples usuarios. Por esta razón, es cada vez más común el clasificar las computadoras y los sistemas operativos de acuerdo con el tipo de aplicaciones que ejecuta la computadora. Esta clasificación se basa en el papel o en la función que desempeña la computadora, por ejemplo, una estación de trabajo o un servidor. Las aplicaciones típicas de las estaciones de trabajo de bajo nivel o de escritorio pueden incluir el procesamiento de palabras, hojas de cálculo y programas de administración financiera. En las estaciones de trabajo de alto nivel, las aplicaciones pueden incluir el diseño gráfico o la administración de equipos y otras más, como se ha mencionado antes. Una estación de trabajo sin disco es una clase especial de computadora diseñada para funcionar en una red. Como su nombre lo indica, no tiene disco duro pero sí incluye monitor, teclado, memoria, instrucciones de arranque en la ROM y una tarjeta de interfaz de red. El software que se utiliza para establecer una conexión con la red se carga desde un chip de ROM que se encuentra en la NIC. Como las estaciones de trabajo sin disco no cuentan con unidad de disco, no es posible subir datos desde ellas o descargar nada en ellas. Una estación de trabajo sin disco no puede transmitir un virus a la red ni tampoco puede utilizarse para tomar datos desde la red y copiarlos a una unidad de disco. Como resultado, las estaciones de trabajo sin disco ofrecen mayor seguridad que las estaciones de trabajo comunes. Es por esto que dichas estaciones de trabajo se utilizan en las redes donde la seguridad es prioritaria. Las laptops pueden usarse como estaciones de trabajo en una LAN y pueden conectarse a la red mediante una estación docking, un adaptador LAN externo o una tarjeta PCMCIA (Personal Computer Memory Card International Association). Una estación docking es un aditamento que convierte una laptop en una computadora de escritorio. 6.1.2 Servidores En el entorno de un sistema operativo de red, muchos sistemas cliente tienen acceso a uno o más servidores y comparten los recursos de éstos. Los sistemas cliente de escritorio están equipados con su propia memoria y dispositivos periféricos, tales como teclado, monitor y disco duro. Los sistemas de los servidores deben equiparse para permitir el acceso simultáneo de múltiples usuarios y la realización de múltiples tareas, en la medida que los clientes soliciten los recursos remotos del servidor. 362 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Figura 2 Para la administración de redes, los NOS cuentan con herramientas y funciones adicionales diseñadas para permitir el acceso de numerosos usuarios a la vez. En todas las redes, excepto en las de menor tamaño, los NOS se instalan en servidores de alto nivel. Muchos usuarios, conocidos como clientes, comparten dichos servidores. A menudo, los servidores cuentan con discos duros de gran velocidad y capacidad, con NIC de alta velocidad y, en algunos casos, con múltiples CPU. Dichos servidores en general se configuran para ofrecer uno o más servicios de red utilizando la familia de protocolos de la Internet, TCP/IP. Los servidores que ejecutan NOS también se utilizan para autenticar usuarios y brindar acceso a recursos compartidos. Estos servidores están diseñados para manejar peticiones de distintos clientes al mismo tiempo. Antes de que un cliente pueda tener acceso a los recursos del servidor, debe identificarse y recibir la autorización para el uso de dichos recursos. La identificación y autorización se efectúa mediante la asignación de un nombre de cuenta y una contraseña a cada cliente. Un servicio de autenticación verifica el nombre de cuenta y la contraseña para permitir o denegar el acceso a la red. Al centralizar las cuentas de los usuarios, la seguridad y el control de acceso, las redes basadas en servidores simplifican el trabajo de administración de la red. Los servidores son generalmente sistemas de mayor magnitud que las estaciones de trabajo. Disponen de memoria adicional para dar soporte simultáneo a múltiples tareas activas, es decir, residentes en la memoria. También es necesario espacio adicional en los discos de los servidores para guardar los archivos compartidos y para funcionar como extensión de la memoria interna del sistema. Es usual que los servidores requieran de ranuras de expansión adicionales en sus tarjetas madre para conectar los dispositivos compartidos, tales como impresoras y múltiples interfaces de red. Otra característica de los sistemas capaces de actuar como servidores es la alta capacidad de procesamiento. Por lo general, las computadoras cuentan con una sola CPU que ejecuta las instrucciones 363 MicroCisco - staky CCNA - Cisco Certified Network Associate que conforman una tarea o un proceso dados. A fin de trabajar de forma eficiente y responder con rapidez a las peticiones de los clientes, un servidor NOS requiere de una CPU potente para ejecutar sus tareas o programas. Los sistemas de procesador único con una CPU pueden satisfacer la mayoría de las necesidades si la CPU tiene la velocidad necesaria. Para lograr mayores velocidades de ejecución, algunos sistemas cuentan con más de una CPU. Dichos sistemas reciben el nombre de sistemas multiprocesador. Los sistemas multiprocesador son capaces de ejecutar múltiples tareas en paralelo, al asignar cada tarea a un procesador diferente. La cantidad total de trabajo que el servidor puede realizar en un tiempo dado es mucho mayor en los sistemas multiprocesador. Figura 3 Figura 4 Como los servidores funcionan como depósitos centrales de recursos vitales para la operación de los sistemas cliente, deben ser eficientes y robustos. El término robusto expresa que los sistemas de servidores deben ser capaces de funcionar con eficiencia bajo grandes cargas de trabajo. También significa que los sistemas deben ser capaces de sobrevivir a la falla de uno o más procesos o componentes sin experimentar una falla general del sistema. Este objetivo se cumple creando redundancia en los sistemas de servidores. La redundancia es la incorporación de componentes de hardware adicionales que puedan hacer las funciones de otro componente en caso de fallas. La redundancia es una característica de los sistemas tolerantes a fallas. Estos sistemas están diseñados para sobrevivir a las fallas y es posible repararlos sin 364 MicroCisco - staky CCNA - Cisco Certified Network Associate interrupciones mientras los sistemas se encuentran activos y en funcionamiento. Como los NOS dependen del funcionamiento continuo de su servidor, se justifica el gasto adicional de los componentes de hardware redundantes. Las aplicaciones y funciones de los servidores incluyen servicios web mediante el Protocolo de transferencia de hipertexto (HTTP), el Protocolo de transferencia de archivos (FTP) y el Sistema de nombres de dominios (DNS). Los protocolos estándar de correo electrónico usados en los servidores de las redes incluyen el Protocolo sencillo de transferencia de correo (SMTP), el Protocolo de oficina de correos Versión 3 (POP3) y el Protocolo Internet de acceso a mensajes (IMAP). Los protocolos usados para compartir archivos incluyen el Sistema de archivos en red de Sun Microsystems (NFS) y el Bloque de mensajes del servidor de Microsoft (SMB). Figura 5 Figura 6 365 MicroCisco - staky CCNA - Cisco Certified Network Associate Los servidores de redes a menudo proveen servicios de impresión. Un servidor también puede proveer el Protocolo de configuración de host dinámico (DHCP), el cual automáticamente asigna las direcciones IP a las estaciones de trabajo. Además de brindar servicios para los clientes en la red, es posible configurar un servidor para que actué como un firewall básico para la red. Esto se logra mediante el esquema proxy o el de Traducción de direcciones de red (NAT), los cuales esconden las direcciones privadas internas de la red. Un único servidor que ejecuta un NOS puede funcionar bien cuando brinda servicios a unos pocos clientes. Pero la mayoría de las organizaciones deben instalar varios servidores a fin de lograr un rendimiento aceptable. En un diseño típico, los servicios están separados de modo que un servidor está a cargo del correo electrónico, otro de compartir archivos y otro del FTP. La concentración en servidores de los recursos de la red, tales como archivos, impresoras y aplicaciones, también hace que los datos generados sean más fáciles de mantener y respaldar. En vez de tener dichos recursos distribuidos en muchos equipos individuales, los recursos de la red pueden asignarse a servidores dedicados y especializados para facilitar el acceso y los respaldos. 6.1.3 Relación cliente-servidor El modelo de computación cliente-servidor distribuye el procesamiento entre múltiples computadoras. El procesamiento distribuido permite el acceso a sistemas remotos con el fin de compartir información y los recursos de la red. En un entorno cliente-servidor, el cliente y el servidor comparten o se distribuyen las responsabilidades de procesamiento. La mayoría de los sistemas operativos de redes usan el modelo cliente-servidor para proporcionar los servicios de red a los usuarios. Las computadoras en una red pueden denominarse hosts, estaciones de trabajo, clientes o servidores. Cualquier computadora que ejecute TCP/IP, ya sea una estación de trabajo o un servidor, es considerada una computadora host. Figura 1 Las siguientes son definiciones de otros términos de uso común: • Host local: el equipo en el que el usuario trabaja en ese momento. • Host remoto: un sistema al que el usuario tiene acceso desde otro sistema. • Servidor: proporciona recursos a uno o más clientes por medio de una red. • Cliente: un equipo que utiliza los servicios de uno o más servidores de una red. Un ejemplo de relación cliente-servidor es el de una sesión FTP. El FTP es un método universal para transferir archivos de una computadora a otra. Para que el cliente intercambie archivos con el servidor, éste debe estar ejecutando el servicio o "daemon" FTP. En este caso, el cliente solicita la transferencia del archivo. El servidor provee los servicios necesarios para enviar o recibir dicho archivo. La Internet también es un buen ejemplo de una relación cliente-servidor de procesamiento distribuido. El cliente o "front end" generalmente maneja las funciones de interfaz al usuario tales como la presentación en pantalla, los formularios de ingreso y la edición de datos. Esto se realiza con navegadores como el Netscape o el Internet Explorer. Los navegadores envían peticiones a los servidores web. Cuando el navegador solicita datos al servidor, éste responde y el navegador recibe una respuesta del servidor web. Entonces, el navegador muestra los datos HTTP recibidos. El servidor o "back end" maneja las peticiones de páginas web del cliente y provee servicios HTTP/WWW. 366 MicroCisco - staky CCNA - Cisco Certified Network Associate Otro ejemplo de una relación cliente-servidor es el servidor de una base de datos y la realización de una consulta o un ingreso de datos por parte de un cliente en una LAN. El cliente puede estar ejecutando una aplicación escrita en C o Java y el servidor puede estar ejecutando Oracle u otro software de administración de bases de datos. En este caso el cliente maneja las tareas de presentación al usuario. El servidor provee los servicios de almacenamiento y recuperación de datos para el usuario. En un entorno típico de servidor de archivos, el cliente podría trasladar grandes cantidades de archivos de la base de datos para procesarlos localmente. El traslado de los archivos desde la base de datos podría producir un excesivo tráfico en la red. En el modelo cliente-servidor en cambio, el cliente envía una consulta al servidor y el software de base de datos del servidor puede procesar centenares de miles de registros y transferir sólo unos pocos al cliente para satisfacer la consulta. Los servidores son usualmente mucho más poderosos que las computadoras cliente y están mejor dotados para el procesamiento de grandes cantidades de datos. En la computación cliente-servidor, el almacenamiento de la base de datos y su procesamiento se realiza en el servidor. El cliente sólo debe generar y enviar la consulta. Una cantidad relativamente pequeña de datos o de resultados podría pasar por la red. Se satisface la consulta del cliente y se utiliza una porción menor del ancho de banda de la red. El gráfico muestra un ejemplo de un esquema cliente-servidor. Cabe notar que usualmente la estación de trabajo y el servidor se conectan a la LAN por medio de un hub o concentrador o un switch. Figura 2 La distribución de las funciones en redes cliente-servidor tiene ventajas significativas, pero también genera algunos costos. Aunque la concentración de recursos en los servidores brinda mayor seguridad, además de facilitar el acceso y el control coordinado, el servidor se convierte en un elemento indispensable en la red, lo que se conoce como un punto único de falla. Sin un servidor operativo, la red no puede funcionar en lo absoluto. Además, los servidores requieren de personal experto y capacitado para su administración y mantenimiento, lo que aumenta los gastos de operación de la red. Los servidores requieren de hardware adicional y software especializado, lo cual aumenta sustancialmente los costos. 6.1.4 Introducción a los NOS El OS (sistema operativo) de una computadora conforma los cimientos de software sobre los cuales se ejecutan las aplicaciones y los servicios en una estación de trabajo. De igual manera, un NOS permite la comunicación entre múltiples dispositivos y el compartir recursos a través de la red. Los servidores de red UNIX, Microsoft Windows NT, o Windows 2000 incluyen un NOS. Figura 1 367 MicroCisco - staky CCNA - Cisco Certified Network Associate Las funciones comunes de los OS para estaciones de trabajo incluyen el control del hardware de la computadora, la ejecución de programas y el proveer una interfaz al usuario. Los OS llevan a cabo estas funciones para los usuarios individuales. Varios usuarios pueden compartir el equipo pero no se pueden registrar en él al mismo tiempo. Los NOS en cambio distribuyen las funciones entre varias computadoras en la red. Los NOS dependen de los servicios de los OS locales de cada computadora individual. Los NOS agregan entonces funciones adicionales que permiten el acceso a los recursos compartidos por varios usuarios al mismo tiempo. Las estaciones de trabajo funcionan como clientes en un entorno NOS. Cuando una estación de trabajo se convierte en un cliente en un entorno NOS, un software especializado adicional permite que el usuario local tenga acceso a recursos no locales o remotos, tal como si estos recursos formaran parte del sistema local. Los NOS aumentan el alcance de las estaciones de trabajo clientes, haciendo que los servicios remotos estén disponibles como extensiones del sistema operativo local. Un sistema capaz de operar como servidor NOS debe estar capacitado para permitir el acceso de múltiples usuarios simultáneos. El administrador de la red crea una cuenta para cada usuario, lo que permite que éstos se registren y se conecten al servidor. La cuenta del usuario en el servidor permite que el servidor reconozca a dicho usuario y le asigne los recursos que se le han otorgado. Los sistemas que proveen esta capacidad reciben el nombre de sistemas multiusuario. Un NOS para servidores es un sistema multitarea capaz de ejecutar múltiples tareas o procesos al mismo tiempo. El software de secuenciación del NOS divide el tiempo del procesador interno, la memoria y el uso de otros elementos del sistema entre diferentes tareas a fin de compartir los recursos del sistema. Cada usuario del sistema multiusuario está soportado por una tarea o proceso individual interno del servidor. Estas tareas internas se crean de forma dinámica a medida que los usuarios se conectan al sistema y se eliminan cuando los usuarios se desconectan. Las características principales a considerar en la selección de un NOS son el rendimiento, las herramientas disponibles de administración y monitoreo, la seguridad, la escalabilidad y la robustez o tolerancia a las fallas. La siguiente sección define brevemente cada una de estas características. Figura 2 Rendimiento Un NOS debe tener un alto rendimiento en cuanto a las funciones de lectura y escritura de archivos a través de la red entre clientes y servidores. Debe ser capaz de mantener un ágil rendimiento bajo grandes cargas de trabajo, cuando muchos clientes realizan peticiones simultáneamente. Un desempeño estable bajo gran demanda es un estándar importante para un NOS. Administración y monitoreo La interfaz de administración del NOS del servidor provee las herramientas para el monitoreo del servidor, la administración de clientes, de archivos, de los servicios de impresión y del almacenamiento en discos. La interfaz de administración provee las herramientas para la instalación de nuevos servicios y su configuración. Además, los servidores requieren de monitoreo y ajustes periódicos. Seguridad Un NOS debe proteger los recursos compartidos que controla. La seguridad incluye el control del acceso de los usuarios a los servicios para prevenir el acceso no autorizado a los recursos de la red. La seguridad también involucra el cifrado de la información, a fin de protegerla cuando se transfiere entre clientes y servidores. Escalabilidad La escalabilidad es la capacidad que tiene un NOS para crecer sin degradación de su rendimiento. Un NOS 368 MicroCisco - staky CCNA - Cisco Certified Network Associate debe ser capaz de mantener su rendimiento a medida que nuevos usuarios se incorporen a la red y nuevos servidores se agreguen para brindarles soporte. Robustez/tolerancia a las fallas La medida de la robustez es la capacidad de brindar servicios eficazmente bajo grandes cargas y de mantener dichos servicios aun en caso de fallas en los componentes o procesos. El uso de discos redundantes y el equilibrio de la carga de trabajo entre múltiples servidores puede mejorar la robustez del NOS. 6.1.5 Microsoft NT, 2000 y .NET Desde el lanzamiento de Windows 1.0 en noviembre de 1985, Microsoft ha creado muchas versiones del sistema operativo Windows, con mejoras y cambios para adecuarse a una diversidad de usuarios y propósitos. La Figura hace un resumen del Windows OS actual. Figura 1 El NT 4 fue diseñado para brindar un entorno de misión crítica para corporaciones, el cual sería más estable que los sistemas operativos Microsoft para consumidores. Está disponible en versiones de escritorio (NT 4.0 Workstation) así como para servidores (NT 4.0 Server). Una ventaja que presenta el NT sobre las versiones anteriores de los OS de Microsoft es que el DOS y los programas Windows antiguos pueden ejecutarse en máquinas virtuales (VM). Los programas se ejecutan de forma aislada y al ocurrir una falla no es necesario reiniciar el sistema. El Windows NT provee una estructura de dominio para controlar el acceso de usuarios y clientes a los recursos de los servidores. Se administra a través de la aplicación "Administrador de usuarios para dominios" en el controlador de dominio. Todos los dominios NT requieren de un controlador primario de dominio el cual guarda la Base de datos de administración de cuentas de seguridad (SAM) y además pueden disponer de uno o más controladores de respaldo, cada uno de los cuales cuenta con una copia de solo-lectura de la SAM. Cuando un usuario intenta registrarse, la información enviada por éste se transfiere a la base de datos SAM. Si la información de dicha cuenta existe en la base de datos, el usuario recibirá la autenticación para el dominio y tendrá acceso a los recursos de la red y de la estación de trabajo. El Windows 2000 es una versión más reciente desarrollada a partir del núcleo básico del NT y presenta versiones de escritorio y para servidores. El Windows 2000 soporta la tecnología "plug-and-play" que permite la instalación de nuevos dispositivos sin necesidad de reiniciar el sistema. El Windows 2000 también incluye un sistema de cifrado de archivos para dar seguridad a los datos en el disco duro. El Windows 2000 permite que objetos, tales como usuarios y recursos, sean colocados en objetos contenedores que reciben el nombre de unidades de organización (OU). La autoridad administrativa sobre cada OU puede delegarse a un usuario o a un grupo. Esta característica permite un control más específico que el que es posible con Windows NT 4.0. La versión Professional del Windows 2000 no está diseñada para ser un NOS completo. No provee un controlador de dominio, servidor DNS, servidor DHCP ni brinda muchos de los servicios que pueden ser activados en el Windows 2000 Server. El objetivo principal del Windows 2000 Professional es formar parte de un dominio como un sistema operativo cliente. El tipo de hardware que se puede instalar en este OS es limitado. El Windows 2000 Professional puede brindar capacidades de servidor limitadas para redes pequeñas y para redes de par a par. Puede ser un servidor de archivos, un servidor de impresión, un servidor FTP y un servidor web pero sólo soportará hasta diez conexiones a la vez. 369 MicroCisco - staky CCNA - Cisco Certified Network Associate A las características del Windows 2000 Professional, el Windows 2000 Server agrega muchas de las nuevas funciones específicas de los servidores. También puede operar como servidor de archivos, de impresión, de web y de aplicaciones. Los Servicios de directorio activo de Windows 2000 Server funcionan como punto centralizado de administración de usuarios, grupos, servicios de seguridad y recursos de red. Incluye las capacidades multipropósito necesarias para grupos de trabajo y sucursales, así como para la implementación de servidores de impresión, de archivos, de páginas web y de comunicación a nivel de departamentos. El Windows 2000 Server se utiliza para entornos de pequeñas y medianas empresas. Brinda conectividad integrada con los sistemas Novell NetWare, UNIX y redes AppleTalk. También puede configurarse como servidor de comunicaciones para brindar servicios de interconexión mediante líneas telefónicas para usuarios móviles. El Windows 2000 Advanced Server brinda el soporte adicional de hardware y software que necesitan las empresas y las redes de gran tamaño. El Windows .NET Server se desarrolló sobre el núcleo del Windows 2000 Server, pero fue modificado para proporcionar un sistema seguro y confiable de servidores web y FTP de uso empresarial y así competir con los sistemas operativos Linux y UNIX. El Windows .NET Server Ofrece los Servicios Web XML a compañías que requieren de tráfico web de volumen medio a alto. 6.1.6 UNIX, Sun, HP y LINUX Los orígenes del UNIX UNIX es el nombre de un grupo de sistemas operativos que tienen sus orígenes en el año 1969 en los laboratorios Bell. Desde su concepción, el UNIX fue diseñado para soportar usuarios y tareas múltiples. El UNIX también fue uno de los primeros sistemas operativos que incorporó soporte para los protocolos de redes conectadas a la Internet. La historia de UNIX, que hasta hoy abarca tres décadas, es complicada porque muchas compañías y organizaciones han contribuido a su desarrollo. Figura 1 Figura 2 En un principio, el UNIX se escribió en lenguaje de máquina, un conjunto de instrucciones de bajo nivel que controlan los comandos internos de una computadora en particular. Debido a ello, el UNIX sólo podía ejecutarse en un tipo específico de computadora. En 1971, Dennis Ritchie creó el lenguaje C. En 1973, Ritchie y Ken Thompson, un colega programador de los laboratorios Bell, reescribieron los programas del sistema UNIX en lenguaje C. Como C era un lenguaje de mayor nivel, el UNIX pudo trasladarse a otras computadoras con mucho menor esfuerzo de programación. La decisión de desarrollar un sistema operativo portátil probó ser la clave para el éxito del UNIX. Durante los años 70, el UNIX evolucionó a través del trabajo de los programadores de los laboratorios Bell y de los de distintas universidades, principalmente los de la Universidad de California en Berkeley. – 370 CCNA - Cisco Certified Network Associate MicroCisco - staky Cuando el UNIX comenzó a comercializarse por primera vez en los años 80, se utilizó en poderosos servidores de redes y no en computadoras de escritorio. En la actualidad, existen decenas de versiones diferentes del UNIX que incluyen entre otros: • El UNIX de Hewlett Packard (HP-UX) • El UNIX de Berkeley Software Design, Inc. (BSD UNIX), del cual han surgido derivados como el FreeBSD • El UNIX de Santa Cruz Operation (SCO) • El de Sun Solaris • El UNIX de IBM (AIX) El UNIX, en sus diversas formas, continúa afianzándose en su posición como la primera opción para aplicaciones de misión crítica, cruciales para el funcionamiento de las corporaciones u otras organizaciones. El UNIX también está integrado estrechamente al TCP/IP. Los protocolos TCP/IP surgieron a partir de UNIX debido a la necesidad de comunicaciones en LAN y WAN. El entorno operativo Solaris de Sun Microsystems y su OS base, el SunOS, es una implementación de UNIX de 64 bits, versátil y de alto rendimiento. El Solaris funciona en una amplia gama de computadoras, desde equipos personales de tecnología Intel hasta poderosos mainframes y supercomputadoras. En la actualidad, Solaris es la versión más utilizada del UNIX en el mundo para grandes redes y sitios web de la Internet. Sun también ha desarrollado la tecnología Java, la cual proclama "Codifique una vez y córralo donde sea (Write Once, Run Anywhere)". A pesar de la popularidad del Windows de Microsoft en las LAN corporativas, gran parte de la Internet funciona sobre poderosos sistemas UNIX. Aunque el UNIX se asocia con frecuencia a hardware costoso y no es amigable para el usuario, ha habido mejoras recientes, entre ellas la creación de Linux, que han cambiado dicha imagen. Orígenes de Linux En 1991, un estudiante finlandés llamado Linus Torvalds comenzó a trabajar en un sistema operativo para computadoras con procesador Intel 80386. Torvalds se sintió frustrado por la situación de los sistemas operativos de escritorio tales como el DOS, y por el costo y las trabas de licenciamiento de los UNIX comerciales. Torvalds se propuso desarrollar un sistema operativo que fuera como UNIX en su funcionamiento pero que utilizara un código de software abierto y fuese absolutamente gratis para el usuario. El trabajo de Torvalds condujo a un esfuerzo de colaboración mundial para desarrollar el Linux, un sistema operativo de código fuente abierto que luce y se siente como el UNIX. Para finales de los años 90, el Linux se había convertido en una alternativa viable de UNIX para los servidores, y de Windows para los ambientes de escritorio. La popularidad de Linux en las PC de escritorio también ha contribuido al interés en el uso de otras versiones del UNIX, tales como la FreeBSD y la Solaris de Sun, en equipos de escritorio. En la actualidad existen versiones de Linux que pueden funcionar en casi cualquier procesador de 32 bits, y hasta en chips Intel 80386, Motorola 68000, Alpha y PowerPC. Al igual que con el UNIX, existen numerosas versiones de Linux. Algunas son descargas gratis de la web y otras se distribuyen comercialmente. Las siguientes son algunas de las versiones más populares de Linux: • El Red Hat Linux: distribuido por Red Hat Software • El OpenLinux; distribuida por Caldera • El Corel Linux • El Linux de Slackware • El Debian GNU/Linux • El SuSE Linux El Linux es hoy uno de los sistemas operativos más confiables y poderosos del mundo. Por ello, ya ha hecho avances como una plataforma para usuarios avanzados y en el escenario de los servidores corporativos. El Linux no es muy utilizado como sistema operativo de escritorio en las empresas. Aunque cuenta con interfaces gráficas de usuario (GUI) para hacerlo más amigable, la mayoría de los usuarios encuentran a Linux más difícil de utilizar que el Mac OS o el Windows. En la actualidad, muchas compañías tales como Red Hat, SuSE, Corel y Caldera se esfuerzan por hacer de Linux un sistema operativo de escritorio viable. – Se debe tener en cuenta la disponibilidad de software al implementar Linux en sistemas de escritorio. La cantidad de programas de uso empresarial es limitada en comparación con el caso de Windows. Sin 371 MicroCisco - staky CCNA - Cisco Certified Network Associate embargo, algunos distribuidores proveen programas de emulación de Windows como el WABI y el WINE, los cuales permiten que muchas de las aplicaciones de Windows se ejecuten sobre Linux. Además, compañías como Corel están fabricando versiones Linux de sus conjuntos de programas de uso empresarial y de otros paquetes populares de software. Figura 3 Figura 4 Figura 5 Figura 6 Networking con Linux Las versiones recientes de Linux incorporan componentes de red para conexión a LAN, conexión telefónica con la Internet o con redes remotas.. De hecho, los protocolos TCP/IP están integrados al kernel del Linux en lugar de estar implementados como un subsistema separado. Algunas de las ventajas del Linux como sistema operativo de escritorio y como cliente de red son las siguientes: • Es un verdadero sistema operativo de 32 bits. • Soporta tareas múltiples aisladas y memoria virtual. • El código fuente es abierto (open source) y por lo tanto está disponible para cualquiera que desee ampliarlo y mejorarlo. 372 MicroCisco - staky CCNA - Cisco Certified Network Associate 6.1.7 Apple Las computadoras Apple Macintosh fueron diseñadas para facilitar su conexión a redes en situaciones de grupos de trabajo par a par. Las interfaces de red se incluyen como parte del hardware original de fábrica y los componentes de networking están incorporados al sistema operativo Macintosh. Están disponibles adaptadores para redes Ethernet y Token Ring para las Macintosh. Las computadoras Macintosh, o Macs, son populares en muchos departamentos gráficos de empresas y en instituciones educativas. Las Macs pueden conectarse entre ellas en grupos de trabajo y pueden tener acceso a servidores AppleShare de archivos. También pueden conectarse a LAN de PC que incluyan servidores Microsoft, NetWare o UNIX. Figura 1 Figura 2 El Mac OS X (10) El sistema operativo Mac OS X de Macintosh a veces recibe el nombre de Apple System 10. Algunas de las características del Mac OS X se observan en su interfaz de usuario o GUI, llamada Aqua. La GUI Aqua luce como una combinación entre la GUI del Microsoft Windows XP y la X-windows del Linux. El Mac OS X está diseñado para ofrecer funciones para computadoras de uso en el hogar tales como navegación por Internet, edición fotográfica y de videos, y juegos, a la vez que continúa brindando características que proveen de poderosas herramientas adaptables que los profesionales de IT exigen de un sistema operativo. El Mac OS X es totalmente compatible con las versiones anteriores de los sistemas operativos Macintosh. El Mac OS X provee una nueva característica que permite la conectividad a redes AppleTalk así como a redes Windows. El núcleo central del Mac OS X recibe el nombre de Darwin. El Darwin es un poderoso sistema basado en UNIX el cual brinda estabilidad y rendimiento. Estas mejoras proveen al Mac OS X de capacidades de memoria protegida, tareas múltiples aisladas , administración avanzada de la memoria y multiprocesamiento simétrico. Esto hace del Mac OS X un formidable competidor entre los sistemas operativos. 6.1.8 Concepto de servicio en los servidores Los NOS están diseñados para proveer procesos de red a los clientes. Los servicios de red incluyen servidores web, el compartir archivos, intercambiar correo electr nico, los servicios de directorio, de administración remota y los servicios de impresión. La administración remota es un servicio poderoso que permite a los administradores configurar sistemas en red en lugares lejanos. Es importante comprender que estos procesos de red se denominan "servicios" en Windows 2000 y "daemons" en UNIX y Linux. Todos los procesos de red proveen las mismas funciones, pero la forma en que se cargan e interactúan con el NOS es diferente en cada sistema operativo. Según cada NOS en particular, algunos de estos procesos claves de red pueden ser habilitados durante una instalación por defecto. Los procesos de red más populares se apoyan en el conjunto de protocolos TCP/IP. Como el TCP/IP es un conjunto de protocolos abierto y bien conocido, los servicios que se basan en TCP/IP son vulnerables a rastreos no autorizados y ataques malintencionados. Los Ataques de negación de servicio (DoS), los virus de computadora y los gusanos de Internet de rápida distribución han forzado a los creadores de NOS a reevaluar cuáles servicios de red se deben habilitar de forma automática. 373 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Figura 2 Figura 3 Las versiones recientes de los NOS populares, tales como el Windows 2000 y el Red Hat Linux 7, restringen la cantidad de servicios de red que se habilitan por defecto. Al instalar un NOS, los servicios de red claves deben habilitarse de forma manual. Cuando un usuario decide imprimir en un entorno de impresión en red, la tarea se envía a la cola correspondiente a la impresora elegida. Las colas de impresión ordenan los trabajos entrantes y los atienden siguiendo el esquema FIFO, "primero en entrar, primero en salir". Cuando se agrega un trabajo a la cola, se le coloca al final de la lista de espera y es el último en imprimirse. El tiempo de espera para la impresión a veces puede ser prolongado, en función del tamaño de los trabajos de impresión que se encuentren adelante en la cola. Un servicio de impresión en red proporciona a los administradores del sistema las herramientas necesarias para administrar un gran número de trabajos de impresión que se enrutan a través de la red. Esto incluye la capacidad de asignar prioridades, suspender temporalmente e inclusive eliminar los trabajos de impresión en la cola. Compartir archivos La capacidad de compartir archivos en una red es un importante servicio de red. Hoy en día existen muchos protocolos y aplicaciones para compartir archivos. Dentro de una red casera o corporativa, los archivos se comparten generalmente mediante Windows File Sharing o el protocolo NFS. En tales entornos, los usuarios finales podrían no necesitar saber si un archivo dado se encuentra en un disco duro local o en un servidor remoto. Al usar Windows File Sharing y NFS los usuarios pueden fácilmente trasladar, crear y borrar archivos en directorios remotos. 374 CCNA - Cisco Certified Network Associate MicroCisco - staky FTP Muchas organizaciones hacen que los archivos estén disponibles para empleados remotos, clientes y para el público general mediante el protocolo FTP. Los servicios FTP se ofrecen al público en conjunto con los servicios web. Por ejemplo, un usuario puede navegar por un sitio web, leer acerca de una actualización de un software en una página web y luego descargar dicha actualización mediante FTP. Las compañías de menor tamaño pueden utilizar un único servidor para proveer los servicios FTP y HTTP, mientras que compañías de mayor tamaño podrían elegir utilizar servidores FTP dedicados. Aunque los clientes FTP deben registrarse en el servidor, muchos servidores FTP están configurados para permitir el acceso anónimo. Cuando los usuarios se conectan de forma anónima, no necesitan tener una cuenta de usuario en el sistema. El protocolo FTP permite que los usuarios puedan cargar archivos al servidor así como cambiarles el nombre o borrarlos. Los administradores deben ser cuidadosos al configurar los niveles de acceso de un servidor FTP. El FTP es un protocolo orientado a sesión. Los clientes deben abrir una sesión en la capa de aplicaciones con el servidor y luego realizar una acción como una descarga o una carga por ejemplo. Si la sesión del cliente permanece inactiva durante un cierto tiempo, el servidor desconecta al cliente. Este lapso de inactividad recibe el nombre de tiempo de espera. La duración del tiempo de espera del FTP varía según el software. Servicios web La World Wide Web es el servicio de red más notorio. En menos de una década, la World Wide Web se ha convertido en una red global de información, comercio, educación y entretenimiento. Millones de compañías, organizaciones e individuos mantienen sitios web en la Internet. Los sitios web son conjuntos de páginas web almacenadas en un servidor o grupo de servidores. La World Wide Web se basa en el modelo cliente-servidor. Los clientes solicitan establecer sesiones TCP con servidores web. Una vez establecida la sesión, un cliente puede solicitar datos al servidor. Las peticiones del cliente y las transferencias del servidor son regidas por el protocolo HTTP. El software del cliente de la web incluye navegadores de interfaz gráfica tales como el Netscape Navigator y el Internet Explorer. Las páginas web se alojan en computadoras que ejecutan el software de servicios web. Los dos paquetes de software para servidores web más comunes son el Microsoft Internet Information Services (IIS) y el Apache Web Server. El Microsoft IIS funciona sobre plataformas Windows y el Apache Web Server funciona sobre plataformas UNIX y Linux. Están disponibles paquetes de software de servicios web para casi todos los sistemas operativos vigentes hoy en día. DNS El protocolo DNS traduce un nombre de Internet, como por ejemplo "www.cisco.com", en una dirección IP. Muchas aplicaciones se apoyan en los servicios de directorio que provee el DNS para esta tarea. Todos lo navegadores de web, los programas de correo electrónico y los programas de transferencia de archivos utilizan nombres para identificar a los sistemas remotos. El protocolo DNS permite que estos clientes soliciten a los servidores DNS de la red la traducción de dichos nombres a direcciones IP. Las aplicaciones pueden entonces utilizar dichas direcciones para enviar sus mensajes. Sin este servicio de directorios de búsqueda, la Internet sería casi imposible de usar. DHCP El objetivo del protocolo DHCP es permitir que las computadoras individuales de una red IP reciban su configuración TCP/IP de uno o varios servidores DHCP. Los servidores DHCP no tienen información acerca de las computadoras individuales en la red hasta que reciben una solicitud de ellas. El objetivo global de este esquema es reducir el trabajo necesario para administrar una red IP de gran tamaño. La unidad de información más significativa que se distribuye de esta forma es la dirección IP, la cual identifica a cada host en la red. El DHCP también permite la captura y la renovación automática de las direcciones IP mediante un mecanismo de uso temporal. Este mecanismo asigna una dirección IP durante un tiempo específico, luego la libera y asigna al host una nueva dirección IP. El protocolo DHCP hace estas funciones mediante un servidor DHCP, el cual reduce significativamente el tiempo de administración del sistema. 375 MicroCisco - staky CCNA - Cisco Certified Network Associate 6.2 Administración de red 6.2.1 Introducción a la administración de redes A medida que una red evoluciona y crece, se convierte en un recurso cada vez más indispensable y crítico para la organización. A medida que los usuarios disponen de más recursos en la red, la red se vuelve más compleja y su mantenimiento se torna más complicado. La pérdida de los recursos de la red y el bajo rendimiento son el resultado de una mayor complejidad y son inaceptables para los usuarios. Los encargados de la red deben administrarla de forma activa, diagnosticar los problemas, evitar que se produzcan incidentes y brindar a los usuarios el mejor rendimiento de la red. Llega un momento en el que las redes se vuelven demasiado grandes para ser administradas sin herramientas automatizadas. Figura 1 Figura 2 La administración de redes incluye las siguientes tareas: • Monitoreo de la disponibilidad de la red. • Mejoras en la automatización. • Monitoreo del tiempo de respuesta. • Proveer funciones de seguridad. • Re-enrutamiento del tráfico. • Capacidades de restauración. • Registro de usuarios. y se explican a Las fuerzas que impulsan la administración de redes se muestran en la Figura continuación: • Control de los activos empresariales: si los recursos de una red no se controlan de forma efectiva, no proporcionarán los resultados exigidos por los procesos gerenciales. 376 MicroCisco - staky CCNA - Cisco Certified Network Associate • • • • • Control de la complejidad: con el crecimiento masivo del número de componentes, usuarios, interfaces, protocolos y proveedores de equipos, la pérdida de control de la red y de sus recursos amenaza los procesos gerenciales. Mejor nivel de servicio: los usuarios esperan un nivel de servicio igual o mejor a medida que crece la red y que aumente la distribución de los recursos. Equilibrio de las diversas necesidades: los usuarios deben poder contar con diversas aplicaciones a un nivel de servicio dado, con requisitos específicos en cuanto a rendimiento, disponibilidad y seguridad. Reducción de las interrupciones del servicio: garantizar una alta disponibilidad de los recursos mediante un adecuado diseño redundante. Control de costos: monitorear y controlar la utilización de los recursos a fin de satisfacer las necesidades del usuario a un costo razonable. Figura 3 Figura 4 La Figura presenta algunos términos básicos relacionados con la administración de redes. 6.2.2 Modelo OSI y modelo de administración de redes La Organización de Estándares Internacionales (ISO) creó una comisión para crear un modelo de administración de redes, bajo la dirección del grupo OSI. Este modelo consta de cuatro partes: • Organizacional. • Informativo. • Comunicacional. • Funcional. Esta es una visión de arriba hacia abajo de la administración de redes, dividida en cuatro submodelos y reconocida por el estándar OSI. El submodelo Organizacional describe los componentes de la administración de redes tales como administrador, agente y otros, y sus interrelaciones. La estructura de estos componentes conduce a distintos tipos de arquitectura, los cuales se tratarán más adelante. 377 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 1 Figura 2 El submodelo Informativo trata de la estructura y almacenamiento de la información relativa a la Esta información se guarda en una base de datos la cual recibe el nombre de administración de la red. Base de datos de información sobre administración (MIB). La ISO definió la estructura de la información de administración (SMI) para especificar la sintaxis y la semántica de la información sobre administración que se guarda en la MIB. Más adelante se hablará de las MIB y la SMI en más detalle. Figura 3 El submodelo Comunicacional trata de la forma como se comunican los datos de administración en el Atiende lo relacionado con el protocolo de transporte, el protocolo de proceso agente-administrador. aplicaciones y los comandos y respuestas entre pares. Figura 4 El submodelo Funcional atiende las aplicaciones de administración de redes que residen en la estación de El modelo de administración de redes OSI distingue cinco áreas administración de la red (NMS). funcionales y a veces recibe el nombre de modelo FCAPS: • Falla • Configuración • Responsabilidad • Rendimiento 378 MicroCisco - staky CCNA - Cisco Certified Network Associate • Seguridad Figura 5 Este modelo de administración de redes ha ganado una amplia aceptación por parte de los proveedores, como una forma útil de describir los requisitos de cualquier sistema de administración de red. 6.2.3 Estándares SNMP y CMIP Para permitir la interoperabilidad de la administración en las distintas plataformas de red, se han creado estándares de administración de redes para que los proveedores puedan implementarlos y cumplirlos. Existen dos estándares principales: • El Protocolo simple de administración de red (SNMP) – Comunidad IETF • El Protocolo de información de administración común – Comunidad de las telecomunicaciones. Figura 1 El SNMP en realidad se refiere a un conjunto de estándares para la administración de redes el cual incluye un protocolo, una especificación de la estructura de la base de datos y un conjunto de objetos de datos. El SNMP se adoptó como estándar para las redes TCP/IP en 1989 y se hizo muy popular. En 1993 se adoptó una actualización conocida como el SNMP versión 2c (SNMPv2c). El SNMPv2c brinda soporte a las estrategias administrativas distribuidas y centralizadas e incluía mejoras en la estructura de la información de administración (SMI), las operaciones de protocolo, la arquitectura administrativa y la seguridad. Se diseñó para operar en redes basadas tanto en OSI como en TCP/IP. El SNMPv3 surgió después. Para resolver las limitaciones del SNMPv1 y el SNMPv2c, el SNMPv3 brinda acceso seguro a las MIB mediante la autenticación y el cifrado de los paquetes que viajan por la red. El CMIP es un protocolo OSI de administración de redes creado y estandarizado por la ISO para el monitoreo y control de redes heterogéneas. 6.2.4 Operación del SNMP El SNMP es un protocolo de la capa de aplicación diseñado para facilitar el intercambio de la información de administración entre los dispositivos de red. Al usar el SNMP para tener acceso a los datos de información de administración, tales como los paquetes enviados a una interfaz cada segundo o el número de conexiones TCP abiertas, los encargados de las redes pueden administrar más fácilmente el rendimiento a fin de encontrar y resolver los problemas en las redes. El SNMP es en la actualidad el protocolo más popular para la administración de redes corporativas, universitarias y de investigación. 379 MicroCisco - staky CCNA - Cisco Certified Network Associate La actividad de estandarización continúa aun cuando los proveedores desarrollan y lanzan al mercado aplicaciones administrativas novedosas basadas en el SNMP. El SNMP es un protocolo sencillo, aunque su conjunto de funciones es lo suficientemente poderoso como para manejar los difíciles problemas relacionados con la administración de redes heterogéneas. El submodelo Organizacional para la administración de redes basada en el SNMP incluye cuatro elementos: • Estación de administración (NMS) • Agente de administración • Datos de información de administración • Protocolo de administración de red La NMS es generalmente una sola estación de trabajo independiente, pero puede implementarse entre varios sistemas. Incluye un conjunto de programas los cuales se denominan la Aplicación de administración de redes (NMA). La NMA incluye una interfaz de usuario que permite a los administradores autorizados la administración de la red. Responde a los comandos del usuario y emite comandos a los agentes de administración en toda la red. Estos últimos son plataformas y dispositivos claves de la red, otros hosts, routers, puentes y hubs, equipados con SNMP a fin de que puedan ser administrados. Responden a peticiones de información y a peticiones de acción por parte de la NMS, tales como peticiones de sondeo, y pueden proporcionar a la NMS información importante pero no solicitada tales como las notificaciones de incidentes conocidas como traps. Toda la información de administración de un agente en particular se guarda en la base de datos de información de administración de dicho agente. Un agente puede realizar el seguimiento de: • Cantidad y estado de sus circuitos virtuales. • Cantidad recibida de ciertos tipos de mensajes de error. • Cantidad de bytes y de paquetes que entran y salen del dispositivo. • Longitud máxima de la cola de entrada para los routers y otros dispositivos de internetworking. • Mensajes de broadcast enviados y recibidos. • Interfaces de red que se desactivan y que se activan. La NMS realiza la función de monitoreo mediante la recuperación de los datos de la MIB. La NMS puede hacer que se inicie una acción en un agente. La comunicación entre el administrador y el agente se realiza mediante un protocolo de administración de la red de la capa de aplicaciones. El SNMP utiliza el Protocolo de datagrama de usuario (UDP) y se comunica mediante los puertos 161 y 162. Actúa mediante un intercambio de mensajes. Los tipos de mensajes más comunes son tres: • Get (Obtener): permite a la estación administrativa recuperar el valor de los objetos de la MIB correspondientes al agente. • Set (Establecer): permite a la estación administrativa establecer el valor de los objetos de la MIB correspondientes al agente. • Trap: permite al agente notificar de eventos significativos a la estación administrativa. Figura 1 Este modelo se conoce como un modelo de dos niveles. Sin embargo, este modelo considera que todos los elementos de la red se pueden administrar mediante SNMP. Ese no es siempre el caso ya que algunos 380 MicroCisco - staky CCNA - Cisco Certified Network Associate dispositivos cuentan con una interfaz de administración propietaria. En esos casos se requiere de un modelo de tres niveles. Un administrador de redes que desee obtener información o controlar ese dispositivo propietario se comunica con un agente intermediario. El agente intermediario traduce entonces esta petición SNMP del administrador a la forma adecuada para el dispositivo en cuestión y utiliza el protocolo de administración propietario que sea apropiado para comunicarse con el dispositivo. Las respuestas del dispositivo hacia el agente intermediario se traducen en mensajes SNMP y se envían de vuelta al administrador. Figura 2 Las aplicaciones administrativas de red a menudo descargan parte de la funcionalidad administrativa en una sonda RMON (de monitoreo remoto). La sonda RMON recoge información de administración a nivel local y el administrador de la red recupera periódicamente un resumen de dicha información. La NMS es una estación de trabajo común que ejecuta un sistema operativo típico. Cuenta con una gran cantidad de RAM para guardar todas las aplicaciones administrativas que funcionan simultáneamente. En ella se ejecuta una pila convencional de protocolos de red, como TCP/IP. Las aplicaciones administrativas de la red se apoyan en el sistema operativo del host y en su arquitectura de comunicaciones. Ejemplos de aplicaciones administrativas de red son la Ciscoworks2000, la HP Openview y el SNMPv2c. Figura 3 Como ya se ha mencionado, el administrador puede ser una estación de trabajo independiente centralizada En una red que envía peticiones a todos los agentes, sin tener en cuenta dónde están ubicados. distribuida, una arquitectura descentralizada resulta más apropiada, al proveer una NMS local para cada red 381 MicroCisco - staky CCNA - Cisco Certified Network Associate local. Estas NMS distribuidas pueden actuar de acuerdo a una arquitectura cliente-servidor, en la que una NMS actúa como un servidor maestro y las otras como clientes. Los clientes envían sus datos al servidor maestro para que éste centralice su almacenamiento. Una alternativa es que todas las NMS distribuidas tengan responsabilidades similares, cada una con sus bases de datos de administración propias, de modo que la información de administración se distribuya de par a par entre las NMS. Figura 4 Figura 5 Figura 6 382 MicroCisco - staky CCNA - Cisco Certified Network Associate 6.2.5 Estructura de la información de administración y de las MIB Las MIB se utilizan para guardar información estructurada que representa los elementos de la red y sus atributos. La estructura en sí está definida por un estándar llamado SMI, el cual define los tipos de datos que se pueden utilizar para guardar un objeto, cómo se les da nombre a dichos objetos y cómo se codifican para su transmisión a través de la red. Figura 1 Figura 2 Las MIB son depósitos muy estructuradas de información sobre los dispositivos. Existen muchas MIB estándar, pero son más numerosas las MIB propietarias utilizadas para administrar los dispositivos de los diversos proveedores. La MIB original constaba de ocho grupos diferentes que totalizan 114 objetos administrados. Se agregaron grupos adicionales al definir la MIB-II, la cual reemplaza hoy en día a la MIB-I. Todos los objetos administrados en el entorno SNMP se encuentran dispuestos en una estructura jerárquica también conocida como de árbol. Los objetos que representan las hojas de los árboles, que son los elementos que aparecen en la parte inferior del diagrama, son los objetos administrados propiamente dichos. Cada objeto administrado representa algún recurso, actividad o información relativa que se debe administrar. Un identificador único del objeto, el cual es un número en notación punteada, identifica a cada 383 MicroCisco - staky CCNA - Cisco Certified Network Associate uno de los objetos administrados. Cada identificador de objeto es descrito mediante la notación de sintaxis abstracta (ASN.1). El SNMP utiliza estos identificadores de objeto para identificar las variables de la MIB a recuperar o modificar. Los objetos de dominio público, no propietarios, se describen en las MIB introducidas en la correspondiente solicitud de comentarios (RFC). Es posible encontrarlas en: http://www.ietf.org Se insta a todos los proveedores a hacer públicas sus definiciones de MIB. Una vez otorgado el código de empresa, el proveedor es responsable de crear y mantener los sub-árboles. 6.2.6 Protocolo SNMP Los agentes son funciones de software incorporados a la mayoría de los dispositivos de red como por ejemplo los routers, switches, hubs administrados, impresoras y servidores. Son responsables de procesar las solicitudes SNMP del administrador. También son responsables de ejecutar las rutinas que mantienen las variables, según se definen en las diversas MIB que soportan. Figura 1 Figura 2 384 MicroCisco - staky CCNA - Cisco Certified Network Associate El SNMP facilita la interacción entre el administrador y los agentes. El término "sencillo" en "Protocolo Sencillo de Administración de Redes" (SNMP) viene del número restringido de tipos de mensajes que forman parte de la especificación de protocolo inicial. La estrategia fue establecida para facilitar a los programadores la creación de capacidades de administración en los dispositivos de red. La especificación de protocolo inicial se conoce como SNMPv1 (versión 1). Los tipos de mensajes SNMP que emite la NMS son tres. Ellos son GetRequest, GetNextRequest y SetRequest. El agente acusa recibo de los tres mensajes en forma de un mensaje GetResponse. Un agente puede emitir un mensaje Trap en respuesta a un incidente que afecte a la MIB y a los recursos subyacentes. El desarrollo del SNMPv2c buscó resolver las limitaciones del SNMPv1. Las mejoras más notables fueron la introducción del tipo de mensaje GetBulkRequest y la adición de contadores de 64 bits a la MIB. El recuperar información mediante GetRequest y GetNextRequest era un método ineficiente para recolectar la información. En el SNMPv1 sólo se podía solicitar una variable a la vez. El tipo de mensaje GetBulkRequest soluciona esta debilidad ya que solicita más información con una sola petición. En segundo lugar, los contadores de 64 bits resolvieron el problema del rápido reinicio de los contadores, especialmente con los enlaces de mayor velocidad como Gigabit Ethernet. A la entidad de administración también se la conoce como el administrador o NMS. Es responsable de solicitar información al agente. Las solicitudes se basan en peticiones muy específicas. El administrador procesa la información recuperada de diversas maneras. Puede llevarse un registro de la información recuperada para su análisis posterior, puede mostrarse mediante un programa de graficación o puede compararse con valores preconfigurados para comprobar si se ha cumplido con alguna condición en particular. Figura 3 No todas las funciones de administración se basan en la recuperación de datos. También está la capacidad de efectuar cambios en un valor en el dispositivo administrado. Esta característica le permite al administrador configurar un dispositivo administrado mediante el SNMP. La interacción entre el administrador y el dispositivo administrado introduce tráfico en la red. Se debe tener cuidado al introducir administradores en la red. Las estrategias agresivas de monitoreo pueden afectar negativamente el rendimiento de la red. La utilización del ancho de banda será mayor y también puede ser un problema en los entornos WAN. El monitoreo tiene además un impacto en el rendimiento de los dispositivos monitoreados, ya que se ocupan de procesar las peticiones del administrador. Este procesamiento no debe tomar precedencia sobre los servicios de producción. 385 MicroCisco - staky CCNA - Cisco Certified Network Associate La regla general es que se debe solicitar la mínima cantidad de información con la menor frecuencia posible. Se debe determinar cuáles son los dispositivos y enlaces más críticos y que tipo de información se requiere. El SNMP utiliza el protocolo de datagrama de usuario (UDP) como protocolo de transporte. Como el UDP no está orientado a conexiones y no es confiable, es posible que se pierdan mensajes a nivel del SNMP. El SNMP en sí mismo no cuenta con mecanismos que garanticen la entrega de los mensajes, de modo que la aplicación que utiliza SNMP está a cargo de resolver las pérdidas de mensajes. Cada mensaje SNMP contiene una cadena de texto no cifrado denominada cadena de comunidad. La cadena de comunidad se utiliza como una contraseña para restringir el acceso a los dispositivos administrados. El SNMPv3 busca resolver los problemas de seguridad que surgen de la transmisión de la cadena de comunidad en texto no cifrado. Figura 4 Figura 5 386 MicroCisco - staky CCNA - Cisco Certified Network Associate Una muestra de cómo es la apariencia de un mensaje SNMPv2c se puede ver en la Figura presentación detallada del protocolo se encuentra en el estándar RFC1905 de la Internet. . Una El hecho de que la cadena de comunidad no esté cifrada no será sorpresa para alguien que haya estudiado el conjunto de protocolos IP. Todos los campos especificados en dicho conjunto de protocolos usan texto sin cifrar, excepto en lo relativo a las especificaciones de cifrado y la autenticación de seguridad. La cadena de comunidad creó una previsión en el estándar hasta que el grupo de trabajo de SNMPv2 pudo ratificar los mecanismos de seguridad. Se encargó ese desarrollo al grupo de trabajo del SNMPv3. Todas las aplicaciones de administración basadas en el SNMP necesitan configurarse para utilizar las cadenas de comunidad apropiadas. Es frecuente que algunas organizaciones cambien los valores de la cadena de comunidad para reducir el riesgo de actividades malintencionadas que hacen uso no autorizado del servicio SNMP. A pesar de la debilidad asociada con la autenticación a nivel de comunidad, las estrategias de administración aun se basan en el SNMPv1. Los dispositivos Cisco soportan los tipos de mensaje del SNMPv3 y sus capacidades aumentadas de seguridad, pero la mayoría de las aplicaciones administrativas del software no soportan el SNMPv3. Figura 6 El SNMPv3 permite la convivencia de múltiples modelos de seguridad. Figura 7 387 MicroCisco - staky CCNA - Cisco Certified Network Associate 6.2.7 Configuración del SNMP Para que la NMS se comunique con los dispositivos de red, éstos deben habilitar el SNMP y configurar sus cadenas de comunidad. Estos dispositivos se configuran mediante los comandos que se describen en los párrafos a continuación. Figura 1 Permite más de una cadena de sólo-lectura. En la mayoría de los sistemas dicha cadena de comunidad es pública por defecto. No se recomienda utilizar el valor por defecto en redes corporativas. Para establecer la cadena de comunidad de sólo-lectura que utilizará el agente, utilice el siguiente comando: Router(config)#snmp-server community string ro • • String : la cadena de comunidad que actúa como contraseña y le da acceso al protocolo SNMP. ro: (Opcional) especifica el acceso en modo sólo-lectura. Las estaciones de administración autorizadas sólo pueden recuperar objetos MIB. Soporta más de una cadena de lectura-escritura. Todos los objetos SNMP permiten el acceso a la escritura. En la mayoría de los sistemas esta cadena de comunidad es privada por defecto. No se recomienda utilizar el valor por defecto en redes corporativas. Para establecer la cadena de comunidad de lectura-escritura que utilizará el agente, utilice el siguiente comando: Router(config)#snmp-server community string rw • rw: (Opcional) Especifica el acceso de lectura-escritura. Las estaciones de administración autorizadas pueden tanto recuperar como modificar los objetos MIB. Existen diversas cadenas que pueden ser utilizadas para especificar la ubicación de un dispositivo administrado y el contacto principal en relación a dicho dispositivo. Router(config)#snmp-server locationtext Router(config)#snmp-server contact text • • location text : Cadena que indica la información acerca de la ubicación del dispositivo en el sistema. contact text : Cadena que indica la información acerca del contacto principal en relación a dicho dispositivo. Estos valores se guardan en los objetos MIB sysLocation y sysContact. 6.2.8 RMON El RMON es un gran paso hacia la administración de redes interconectadas. Define una MIB de monitoreo remoto la cual complementa a la MIB-II y provee información vital sobre la red al administrador de redes. La 388 MicroCisco - staky CCNA - Cisco Certified Network Associate característica más notable del RMON es que a pesar de que es sólo una sencilla especificación de una MIB, sin cambios en el protocolo SNMP subyacente, brinda una importante expansión en la funcionalidad del SNMP. Figura 1 Con la MIB-II, el administrador de la red puede obtener información que es exclusivamente particular de los dispositivos individuales. Suponga una LAN con un número de dispositivos conectados, cada uno con un agente SNMP. Un administrador SNMP puede conocer la cantidad de tráfico que entra y sale de cada dispositivo, pero con la MIB-II no puede conocer fácilmente la información acerca del tráfico global de la LAN. Figura 2 La administración de redes en entornos de redes interconectadas requiere por lo general de un monitor por cada subred. El estándar RMON se designaba originalmente como IETF RFC 1271, hoy conocido como la RFC 1757, y se diseñó para proporcionar el monitoreo y diagnóstico proactivo de redes distribuidas. Los dispositivos de monitoreo, llamados agentes o sondas, en segmentos críticos de la red permiten la creación de alarmas definidas por el usuario y la recolección de gran cantidad de estadísticas vitales mediante el análisis de cada trama en un segmento. El estándar RMON divide las funciones de monitoreo en nueve grupos para soportar las topologías de Ethernet y agrega un décimo grupo en la RFC 1513 para los parámetros que son exclusivos de Token Ring. El estándar RMON se creó para ser implementada según una arquitectura de computación distribuida, donde los agentes y las sondas se comunican con una estación central de administración, un cliente, por medio del SNMP. Estos agentes han definido estructuras MIB para los nueve o diez grupos RMON Token Ring y Ethernet, lo que permite la interoperabilidad entre los diversos proveedores de herramientas de diagnóstico basadas en RMON. Los grupos RMON se definen como: 389 MicroCisco - staky CCNA - Cisco Certified Network Associate Figura 3 • • • • • • • • • Grupo de estadísticas: lleva las estadísticas de errores y de utilización para la subred o segmento que se monitorea. Unos ejemplos son la utilización de ancho de banda, broadcast, multicast, alineación de CRC, fragmentos entre otros. Grupo de historial: conserva muestras estadísticas periódicas del grupo de estadística y las almacena para su posterior recuperación. Unos ejemplos son la utilización, el recuento de errores y el recuento de paquetes. Grupo de alarma: permite que el administrador establezca un intervalo y umbral de muestreo para cualquier elemento que registre el agente. Unos ejemplos son los valores absolutos o relativos y umbrales ascendentes y descendentes. Grupo de hosts: define la medición de los distintos tipos de tráfico desde y hacia los hosts conectados a la red. Unos ejemplos son paquetes enviados o recibidos, bytes enviados o recibidos, errores y paquetes de multicast y broadcast. Grupo Host TopN: proporciona un informe de los hosts TopN que se basa en las estadísticas del grupo host. Grupo de matriz de tráfico: almacena los errores y las estadísticas de utilización para pares de nodos que se comunican en la red. Unos ejemplos son errores, bytes y paquetes. Grupo de filtro: un software de filtro el cual genera una corriente de paquetes a partir de las tramas que coinciden con el patrón especificado por el usuario. Grupo de captura de paquetes: define cómo los paquetes que coinciden con los criterios del filtro se guardan internamente en la memoria buffer. Grupo de incidentes: permite que se lleve un registro de los incidentes, también llamado generación de traps, junto con la fecha y hora en la cual se produjeron. Unos ejemplos son los informes confeccionados según el tipo de alarma. 6.2.9 Syslog El programa de registro syslog de Cisco se basa en el programa syslog de UNIX. En general, los sucesos del sistema se registran en la consola del sistema a menos que no esté activa. El programa syslog es un 390 MicroCisco - staky CCNA - Cisco Certified Network Associate mecanismo para las aplicaciones, procesos y el sistema operativo de los dispositivos de Cisco el cual permite informar acerca de condiciones de error y de actividad. El protocolo syslog se utiliza para que los dispositivos Cisco puedan enviar mensajes no solicitados a una estación de administración de la red. Cada mensaje de syslog registrado está asociado a una marca horaria, un equipo, una severidad y un mensaje textual de registro. Estos mensajes son a veces el único medio para diagnosticar las fallas de un dispositivo. Figura 1 El nivel de severidad indica la importancia del mensaje de error. Existen ocho niveles de severidad, entre el 0 y el 7. El nivel 0 (cero) es el más crítico y el nivel 7 es el menos crítico. Los niveles son los siguientes: 0 Emergencias 1 Alertas 2 Crítico 3 Errores 4 Advertencias 5 Notificaciones 6 Informativo 7 Depuración Los campos de equipo y nivel de severidad se utilizan para procesar los mensajes. Los niveles 0 (cero) a 7 identifican tipos de equipos a efectos del procesamiento particular de los mensajes de registro. El IOS de Cisco establece por defecto el nivel de severidad 6. Este ajuste es configurable. Figura 2 Para que la NMS pueda recibir y hacer el registro de los mensajes del sistema provenientes de un dispositivo, este último debe tener configurado el syslog. A continuación se da una breve descripción de los comandos que se usan para configurar estos dispositivos. Para permitir el registro a todos los destinos soportados: 391 CCNA - Cisco Certified Network Associate MicroCisco - staky Router(config)#logging on Para enviar mensajes de registro a un host de un servidor syslog, como por ejemplo CiscoWorks2000: Router(config)#logginghostname | ip address Para establecer el nivel de severidad del registro en el nivel 6, Informativo: Router(config)#logging trap informational Para incluir una marca horaria con el mensaje de syslog: Router(config)#service timestamps log datetime Resumen Se debe haber obtenido una comprensión adecuada de los siguientes puntos clave: • Funciones de una estación de trabajo y de un servidor. • El papel de los diversos equipos en un entorno cliente/servidor. • El desarrollo de los Sistemas operativos para networking (NOS). • Generalidades sobre las distintas plataformas Windows. • Generalidades sobre algunas de las alternativas a los sistemas operativos Windows. • Razones para la administración de redes. • Las capas del modelo de administración de redes y el modelo OSI. • Tipos y aplicación de las herramientas de administración de redes. • El papel que el SNMP y el CMIP desempeñan en el monitoreo de las redes. • Cómo el software de administración recopila información y lleva un registro de los problemas. • Cómo recopilar informes acerca del desempeño de la red. 392