Uploaded by Dienac Morgado

huawei-hcia-pt1-0

advertisement
HCNA
Routing &
Switching
PT1.0
Prefácio
Os requisitos de negócios corporativos destacam a necessidade de redes capazes de se
adaptar às demandas de negócios em constante mudança em termos de crescimento de
negócios corporativos e serviços em evolução. É imperativo, portanto, entender os
princípios do que constitui uma rede corporativa e como ela é formada e adaptada para
suportar as demandas de negócios do mundo real.
Objectivos
Após a conclusão desta seção, os formandos serão capazes de:
 Explicar o que constitui uma rede corporativa.
 Descrever os tipos comuns de arquitetura de rede corporativa.
 Descrever algumas das soluções comumente implementadas em uma rede
corporativa para suportar operações comerciais.
Redes Empresariais do Mundo Real
A rede corporativa representa originalmente a interconexão de sistemas pertencentes a um
determinado grupo funcional ou organização para permitir principalmente o compartilhamento de
recursos, como impressoras e servidores de arquivos, suporte de comunicação por meios como email e
a evolução para aplicativos que permitem a colaboração entre usuários. As redes corporativas podem
ser encontradas hoje em dia em vários setores, desde ambientes de escritórios até grandes indústrias de
energia, finanças e governo, que geralmente compreendem redes corporativas que abrangem vários
locais físicos.
A introdução da Internet como domínio de rede pública permitiu a ampliação da rede corporativa
existente, através da qual redes geograficamente dispersas pertencentes a uma única organização ou
entidade poderiam ser conectadas, trazendo consigo um conjunto de novos desafios para estabelecer a
interconectividade entre redes corporativas geograficamente dispersas, mantendo a privacidade e a
segurança dos dados pertencentes a uma empresa individual.
Redes Remotas Empresariais
Vários desafios impactam as indústrias atuais no fornecimento de soluções para o estabelecimento
de interconectividade entre locais remotos, que geralmente assumem a forma de filiais regionais e
escritórios centrais, bem como funcionários que representam uma entidade não fixa dentro da rede da
empresa, frequentemente presentes em locais além da limites convencionais da empresa existente.
Desafios para as indústrias criaram uma demanda por redes onipresentes que permitem que a rede
corporativa esteja disponível em qualquer local e a qualquer momento, para garantir acesso a recursos
e ferramentas que permitam a entrega efetiva de suporte e serviços para parceiros e clientes do setor.
A evolução das soluções corporativas permitiu que redes IP públicas e de terceiros fornecessem
conectividade a qualquer momento, juntamente com o desenvolvimento de tecnologias que
estabelecessem conexões de rede privada sobre essa infraestrutura de rede pública para estender os
recursos remotos da rede corporativa para além do físico. limites da empresa, permitindo que tanto
escritórios remotos quanto usuários estabeleçam um único domínio corporativo que se estenda por
uma grande extensão geográfica.
Arquitetura básica de uma rede empresarial
As soluções de arquitetura de rede corporativa variam significativamente, dependendo do requisito
do setor e da organização. As pequenas empresas podem muitas vezes ter um requisito muito limitado
em termos de complexidade e demanda, optando por implementar uma forma plana de rede,
principalmente devido ao tamanho da organização que muitas vezes é restrito a uma única localização
geográfica ou dentro de alguns locais, apoiando acesso a recursos comuns, enquanto permite
flexibilidade dentro da organização para suportar um número menor de usuários. O custo para
implementar e manter essas redes é significativamente reduzido, no entanto, a rede é frequentemente
suscetível a falhas devido à falta de redundância, e o desempenho pode variar com base nas operações
diárias e na demanda da rede.
Redes corporativas maiores implementam soluções para garantir falhas mínimas de rede, acesso
controlado e provisionamento para uma variedade de serviços para suportar as operações diárias da
organização. Uma arquitetura multicamadas é definida para otimizar o fluxo de tráfego, aplicar políticas
de gerenciamento de tráfego e controlar o acesso a recursos, bem como manter a disponibilidade da
rede e a operação estável por meio de redundância de rede efetiva. O design multicamadas também
permite uma fácil expansão e, juntamente com um design modular que fornece isolamento e
manutenção eficazes, caso ocorram problemas na rede, sem afetar toda a rede.
Resumo
1-Quais são algumas das diferenças gerais encontradas entre redes de pequenas e médias empresas?
Redes de pequenas empresas que implementam uma arquitetura de rede plana podem limitar a
capacidade de dimensionar a rede no caso de crescimento no número de usuários. Onde é esperado
que um número maior de usuários precise ser suportado, uma abordagem hierárquica para redes
corporativas deve ser considerada. As redes de médio porte geralmente suportam um número maior de
usuários e, portanto, normalmente implementam uma infraestrutura de rede hierárquica para permitir
que a rede cresça e suporte a base de usuários exigida.
2-Quais são algumas das considerações básicas de design que precisam ser levadas em conta para
redes corporativas de pequeno e médio porte?
As redes de pequenas e médias empresas devem levar em conta o desempenho da rede, bem como
fornecer redundância em caso de falha de rede, a fim de manter a disponibilidade do serviço para todos
os usuários. À medida que a rede cresce, a ameaça à segurança da rede também aumenta, o que
também pode atrapalhar os serviços.
Prefácio
O estabelecimento de uma rede corporativa requer uma compreensão fundamental
dos conceitos gerais de rede. Esses conceitos incluem o conhecimento do que define uma
rede, bem como os padrões gerais de tecnologia e componentes físicos usados para
estabelecer redes corporativas. Um entendimento das comunicações de rede
subjacentes e o impacto que tal comportamento tem na rede também é fundamental
para garantir a implementação eficaz do desempenho.
Objectivos
Após a conclusão desta seção, os formandos serão capazes de:



Explicar o que constitui uma rede.
Identificar os componentes básicos de uma rede.
Descrever os principais mecanismos de comunicação em uma rede.
Redes Ethernet ponto-a-ponto simples
Uma rede pode ser entendida como a capacidade de duas ou mais entidades se comunicarem através
de um dado meio. O desenvolvimento de qualquer rede depende do mesmo princípio para estabelecer
comunicação. Comumente, as entidades dentro de uma rede que são responsáveis pela transmissão e
recepção da comunicação são conhecidas como estações finais, enquanto os meios pelos quais a
comunicação é ativada são entendidos como o meio. Dentro de uma rede corporativa, a mídia existe em
uma variedade de formas, desde um cabo físico até ondas de rádio.
Coaxial
O cabo coaxial representa uma forma mais histórica de meio de transmissão que hoje pode ser
limitado em uso dentro da rede da empresa. Como meio de transmissão, o cabo coaxial compreende
geralmente dois padrões, os 10Base2 e 10Base5, que são conhecidos como Thinnet ou Thinwire e
Thicknet ou Thickwire, respectivamente.
Os padrões suportam uma capacidade de transmissão de 10Mbps transmitida como sinal de banda
base para as respetivas distâncias de 185 e 500 metros. Nas redes empresariais de hoje, a capacidade de
transmissão é extremamente limitada para ser de qualquer aplicação significativa. O conector Bayonet
Neill-Concelman (BNC) é a forma comum de conector usado para cabos coaxiais 10Base2 finos,
enquanto um conector tipo N foi aplicado ao meio de transmissão 10Base5 mais espesso.
Ethernet
O cabeamento Ethernet tornou-se o padrão para muitas redes empresariais que fornecem um meio
de transmissão que suporta uma capacidade de transmissão muito maior. O meio suporta um par de
fios de cobre contido dentro de uma bainha que pode ou não ser protegida contra interferência elétrica
externa. A capacidade de transmissão é determinada principalmente com base na categoria de cabo
com categoria 5 (CAT5) suportando capacidade de transmissão Fast Ethernet de até 100Mbps, enquanto
uma maior capacidade de transmissão Gigabit Ethernet é suportada a partir dos padrões CAT5e
(Categoria 5) e superiores.
A transmissão pela Ethernet como meio físico também é suscetível à atenuação, fazendo com que o
alcance da transmissão seja limitado a 100 metros. O conector RJ-45 é usado para fornecer
conectividade com cabeamento de par de fios que exige a colocação de pinos específicos no conector
RJ-45, para garantir a transmissão e recepção corretas pelas estações finais sobre o meio de
transmissão.
Fiber Optic
A mídia óptica utiliza a luz como meio de transmissão de sinal, em oposição aos sinais elétricos
encontrados nos tipos de mídia coaxial e Ethernet. O meio de fibra ótica suporta uma gama de padrões
de transmissão de 10Mbps, 100Mbps, 1Gbps e também 10Gbps (10GBASE). Fibra monomodo ou
multimodo define o uso de um meio de transmissão ótica para propagação de luz, onde o modo único
se refere a um único modo de transmissão ótica sendo propagado, e é usado comumente para
transmissão de alta velocidade a longas distâncias.
O modo múltiplo suporta a propagação de múltiplos modos de transmissão ótica que são suscetíveis
à atenuação como resultado da dispersão de luz ao longo do meio óptico e, portanto, não é capaz de
suportar a transmissão por distâncias maiores. Este modo é frequentemente aplicado a redes locais que
abrangem um alcance de transmissão muito menor. Há um grande número de padrões de conectores
de fibra, sendo algumas das formas mais comuns reconhecidas como conector ST, conector LC e SC ou
conector de encaixe.
Serial
Serial representa um padrão inicialmente desenvolvido há mais de 50 anos para suportar a
transmissão confiável entre dispositivos, durante o qual muitas evoluções do padrão ocorreram. A
conexão serial é projetada para suportar a transmissão de dados como um fluxo serial de bits. O padrão
comum implementado é chamado de (Padrão Recomendado) RS-232, mas é limitado tanto pela
distância quanto pela velocidade. Os padrões originais RS-232 definem que as velocidades de
comunicação suportadas não sejam maiores que 20Kbps, com base em um comprimento de cabo de 50
pés (15 metros), no entanto, é improvável que as velocidades de transmissão para serial sejam
inferiores a 115 Kbps. O comportamento geral para serial significa que à medida que o comprimento do
cabo aumenta, a taxa de bits suportada diminui, com uma aproximação de um cabo de cerca de 150
metros, ou 10 vezes os padrões originais, a taxa de bits suportada será reduzida pela metade.
Outros padrões seriais têm a capacidade de atingir faixas de transmissão muito maiores, como é o
caso dos padrões RS-422 e RS-485 que abrangem distâncias de até 1.200 metros (500 pés) e são
geralmente suportados por conectores V.35 que eram tornados obsoletos durante o final dos anos 80,
mas ainda hoje são encontrados e mantidos em apoio a tecnologias como Frame Relay e ATM, quando
implementados. O RS-232 em si não define os padrões de conector, no entanto, duas formas comuns de
conector que suportam o padrão RS-232 incluem os conectores DB-9 e DB-25. Padrões seriais mais
novos foram desenvolvidos para substituir grande parte da tecnologia serial RS-232 existente, incluindo
os padrões FireWire e o barramento serial universal (USB), o último dos quais está se tornando comum
em muitos produtos e dispositivos mais recentes.
Codificação de dados de sinal
Para permitir a comunicação através de enlaces físicos, os sinais devem ser transmitidos entre as
estações de transmissão e recepção. Este sinal irá variar dependendo do meio que está sendo usado,
como no caso da transmissão óptica e sem fio. O objetivo principal do sinal é garantir que a
sincronização (ou clock) entre o emissor e o receptor em um meio físico seja mantida, bem como
suportar a transmissão do sinal de dados em um formato que possa ser interpretado pelo remetente e
pelo receptor.
Uma forma de onda é comumente reconhecida como uma propriedade de codificação de linha, onde
a tensão é convertida em uma representação binária de valores 0 e 1 que podem ser traduzidos pela
estação receptora. Existem vários padrões de codificação de linha, com os padrões 10Base Ethernet
suportando um padrão de codificação de linha conhecido como codificação Manchester. A Fast Ethernet
com um intervalo de frequência de 100 MHz invoca uma frequência mais alta do que a suportada
quando se utiliza a codificação Manchester.
Uma forma alternativa de codificação de linha é usada, portanto, conhecida como NZRI, que por si só
contém variações dependentes da mídia física, suportando MLT-3 para 100Base-TX e 100Base-FX junto
com a codificação de linha estendida conhecida como codificação 4B / 5B para lidar com possíveis
problemas de clock. O 100Base-T4, por exemplo, usa outra forma conhecida como codificação de linha
estendida 8B / 6T. O Gigabit Ethernet suporta codificação de linha 8B / 10B, com exceção do 1000BaseT, que se baseia em uma codificação de bloco complexa chamada de 4D-PAM5.
Domínios de colisão
A Ethernet representa o que é entendido como uma rede de múltiplos acessos, na qual duas ou mais
estações finais compartilham um meio de transmissão comum para o encaminhamento de dados. A
rede compartilhada é, no entanto, suscetível a colisões de transmissão em que os dados são
encaminhados pelas estações finais simultaneamente através de um meio comum. Um segmento em
que tais ocorrências são possíveis é chamado de domínio de colisão compartilhado.
As estações finais dentro de tal domínio de colisão dependem da contenção para a transmissão de
dados para um destino pretendido. Este comportamento controverso requer que cada monitor da
estação final forneça dados de entrada no segmento antes de fazer qualquer tentativa de transmissão,
em um processo conhecido como Detecção de Colisão de Acesso Múltiplo da Detecção de Portadora
(CSMA / CD). No entanto, mesmo após tomar tais precauções, o potencial para a ocorrência de colisões
como resultado da transmissão simultânea por duas estações finais permanece altamente provável.
Modos Duplex
Modos de transmissão são definidos na forma de half e full duplex, para determinar o
comportamento envolvido com a transmissão de dados através do meio físico.
Half duplex refere-se à comunicação de dois ou mais dispositivos em um meio físico compartilhado
no qual existe um domínio de colisão e, com ele, o CSMA / CD é necessário para detectar essas colisões.
Isso começa com a estação ouvindo a recepção do tráfego em sua própria interface e, quando fica em
silêncio por um determinado período, continuará transmitindo seus dados. Se uma colisão ocorrer, a
transmissão será interrompida, seguida pelo início de um algoritmo de backoff para evitar novas
transmissões até que um temporizador de valor aleatório expire, após o qual a retransmissão pode ser
tentada novamente.
Full duplex define a comunicação bidirecional simultânea em pares de fios ponto-a-ponto dedicados,
garantindo que não haja potencial para colisões e, portanto, não há necessidade de CSMA / CD.
Resumo
1-Quais formas de cabeamento podem ser usadas para suportar transmissões Gigabit Ethernet em
uma rede corporativa?
A transmissão Gigabit Ethernet é suportada pelo cabeamento CAT 5e e superior, e também por
qualquer forma de cabeamento de Fibra Ótica 1000Base ou superior.
2-O que é um domínio de colisão?
Um domínio de colisão é um segmento de rede para o qual o mesmo meio físico é usado para
comunicação bidirecional. Os dados transmitidos simultaneamente entre hosts no mesmo meio de rede
compartilhado são suscetíveis a uma colisão de sinais antes que esses sinais cheguem ao destino
pretendido. Isso geralmente resulta em sinais malformados maiores ou menores que o tamanho
aceitável para transmissão (64 bytes - 1500 bytes), também conhecidos como runts e gigantes, sendo
recebidos pelo destinatário.
3-Qual é o objetivo do CSMA / CD?
O CSMA / CD é um mecanismo para detectar e minimizar a possibilidade de eventos de colisão que
possam ocorrer em uma rede compartilhada. O CSMA exige que o host de transmissão primeiro escute
os sinais no meio compartilhado antes da transmissão. No caso de não serem detectadas transmissões,
a transmissão pode prosseguir. Na infeliz circunstância de que os sinais são transmitidos
simultaneamente e ocorre uma colisão, os processos de detecção de colisão são aplicados para
interromper a transmissão por um período de tempo gerado localmente, para permitir que os eventos
de colisão sejam eliminados e evitar novas colisões entre os hosts transmissores.
Prefácio
A transmissão por meio físico requer regras que definem o comportamento da
comunicação. O gerenciamento do comportamento de encaminhamento de redes
baseadas em Ethernet é controlado através dos padrões IEEE 802 definidos para a
tecnologia de enlace de dados Ethernet. Um conhecimento fundamental desses padrões
é imperativo para entender completamente como a comunicação da camada de enlace é
alcançada em redes baseadas em Ethernet.
Objectivos
Após a conclusão desta seção, os formandos serão capazes de:

Explicar a aplicação de modelos de referência a redes.

Descrever como os quadros são construídos.

Explicar a função do endereçamento MAC na camada de enlace de dados.

Descrever o comportamento de encaminhamento e processamento de quadros
Ethernet.
Gerenciando a comunicação de rede
A comunicação através de redes depende da aplicação de regras que governam como os dados são
transmitidos e processados de uma maneira que é entendida pelas entidades emissora e receptora.
Como resultado, vários padrões foram desenvolvidos ao longo do tempo, com alguns padrões sendo
amplamente adotados. Existe, no entanto, uma distinção clara entre os padrões que gerenciam o fluxo
de dados físicos e os padrões responsáveis pelo encaminhamento e entrega lógicos do tráfego.
Os padrões IEEE 802 representam um padrão universal para gerenciar a transmissão física de dados
através da rede física e são compostos de padrões, incluindo o padrão Ethernet 802.3 para transmissão
física em redes locais. Existem padrões alternativos para transmissão em redes de área ampla que
operam em mídia serial, incluindo Frame Relay, HDLC e outros padrões legados, como ATM. O TCP / IP
tem sido amplamente adotado como o conjunto de protocolos que define os padrões da camada
superior, regulando as regras (protocolos) e o comportamento envolvido no gerenciamento do
encaminhamento e entrega lógicos entre as estações finais.
Modelos em camadas - TCP / IP
O modelo de referência TCP / IP refere-se principalmente aos princípios centrais do conjunto de
protocolos, que pode ser entendido como a transmissão lógica e a entrega de tráfego entre as estações
finais. Como tal, o modelo de referência do protocolo TCP / IP fornece uma representação em quatro
camadas da rede, resumindo o comportamento do encaminhamento físico sob a camada de interface de
rede, uma vez que a operação de camada inferior não é preocupação do conjunto de protocolos TCP /
IP.
O foco principal permanece na camada de rede (ou Internet), que lida com a forma como o tráfego é
logicamente encaminhado entre as redes, e a camada de transporte (algumas vezes referida como host
para host) que gerencia a entrega de tráfego end-to-end, garantindo confiabilidade do transporte entre
as estações finais de origem e de destino. A camada de aplicativo representa uma interface por meio de
vários protocolos que permitem que os serviços sejam aplicados aos processos de aplicativos do usuário
final.
Modelos em camadas - OSI
Embora o modelo de referência TCP / IP seja principalmente suportado como o modelo padrão
baseado no conjunto de protocolos TCP / IP, o foco do modelo de referência TCP / IP não separa e
distingue claramente a funcionalidade ao referenciar transmissão física de camada inferior.
Em vista disso, a interconexão de sistemas abertos, ou modelo de referência OSI, é frequentemente
reconhecido como o modelo para referência aos padrões IEEE 802 devido à clara distinção e
representação do comportamento das camadas inferiores, que corresponde aos padrões do modelo de
referência LAN / MAN que são definidos como parte dos padrões IEEE 802-1990 documentados para
redes de área local e metropolitana. Além disso, o modelo que geralmente está em referência ao
conjunto de protocolos ISO fornece uma análise detalhada do processamento da camada superior.
Encapsulamento
Como os dados de aplicação da camada superior são determinados para transmissão através de uma
rede a partir de um sistema final, uma série de processos e instruções deve ser aplicada aos dados antes
que a transmissão possa ser alcançada com sucesso. Esse processo de anexação e instruções prévias aos
dados é chamado de encapsulamento e para o qual cada camada do modelo de referência é projetada
para representar.
À medida que as instruções são aplicadas aos dados, o tamanho geral dos dados aumenta. As
instruções adicionais representam uma sobrecarga para os dados existentes e são reconhecidas como
instruções para a camada na qual as instruções foram aplicadas. Para outras camadas, as instruções
encapsuladas não são diferenciadas dos dados originais. O acréscimo final de instruções é executado
como parte dos padrões de protocolo de camada inferior (como o padrão Ethernet IEEE 802.3) antes de
ser transportado como um sinal codificado em um meio físico.
Comunicação entre duas estações finais
Como parte do padrão Ethernet IEEE 802.3, os dados são encapsulados com instruções na forma de
um cabeçalho e um trailer antes de poderem ser propagados em mídia física na qual a Ethernet é
suportada. Cada estágio de encapsulamento é referido por uma unidade de dados de protocolo ou PDU,
que na camada de enlace de dados é conhecida como um quadro.
Os quadros Ethernet contêm instruções que determinam como e se os dados podem ser transmitidos
pelo meio entre dois ou mais pontos. Os quadros Ethernet vêm em dois formatos gerais, cuja seleção é
altamente dependente dos protocolos que foram definidos antes do encapsulamento de
enquadramento.
Formato dos quadros
Dois formatos de quadro são reconhecidos como padrão para redes baseadas em Ethernet. O padrão
de tipo de quadro DIX versão 2 foi desenvolvido originalmente no início dos anos 80, onde hoje é
reconhecido como o tipo de quadro Ethernet II. A Ethernet II acabou sendo aceita e integrada aos
padrões IEEE 802, destacada como parte da seção 3.2.6 da documentação de padrões IEEE 802.3x-1997.
O padrão Ethernet IEEE 802.3 foi originalmente desenvolvido em 1983, com diferenças importantes
entre os formatos de quadro, incluindo uma mudança no campo de tipo que é projetado para identificar
o protocolo para o qual os dados devem ser encaminhados após o processamento das instruções do
quadro. No formato Ethernet IEEE 802.3, isso é representado como um campo de comprimento que
depende de um conjunto estendido de instruções chamadas 802.2 LLC para identificar o protocolo de
encaminhamento.
Ethernet II e IEEE 802.3 associam-se a protocolos de camada superior que são diferenciados por um
intervalo de valores de tipo, onde protocolos que suportam um valor menor ou igual a 1500 (ou 05DC
em hexadecimal) empregarão o tipo de quadro Ethernet IEEE 802.3 na camada de enlace de dados.
Protocolos representados por um valor de tipo maior ou igual a 1536 (ou 0600 em hexadecimal)
empregarão o padrão Ethernet II e que representa a maioria de todos os quadros em redes baseadas
em Ethernet.
Outros campos encontrados no quadro incluem os campos de endereço MAC de destino e origem
que identificam o remetente e o destinatário pretendido, bem como o campo de sequência de
verificação de quadro que é usado para confirmar a integridade do quadro durante a transmissão.
Quadro Ethernet II
O quadro Ethernet II faz referência a um valor de tipo hexadecimal que identifica o protocolo da
camada superior. Um exemplo comum disso é o protocolo de Internet (IP), que é representado por um
valor hexadecimal de 0x0800. Como esse valor para IP representa um valor maior que 0x0600, é
determinado que o tipo de quadro Ethernet II deve ser aplicado durante o encapsulamento. Outro
protocolo comum que se baseia no tipo de quadro Ethernet II na camada de enlace de dados é ARP e é
representado pelo valor hexadecimal de 0x0806.
Quadro IEEE802.3
Para o tipo de frame IEEE 802.3, o campo type está contido como parte do cabeçalho da extensão
SNAP e não é tão comum aplicar os protocolos nas redes atuais, em parte devido ao requisito de
instruções adicionais que resultam em sobrecarga adicional por quadro. Alguns protocolos antigos que
existem há muitos anos, mas que ainda são aplicados em suporte a redes Ethernet, provavelmente
aplicam o tipo de quadro IEEE 802.3. Um exemplo claro disso é encontrado no caso do Spanning Tree
Protocol (STP) que é representado por um valor de 0x03 dentro do campo type do cabeçalho SNAP.
Encaminhamento de quadros
As redes baseadas em Ethernet atingem a comunicação entre duas estações finais em uma rede local
usando o endereçamento MAC (Media Access Control), que permite distinguir sistemas finais em uma
rede de múltiplos acessos. O endereço MAC é um endereço físico que é gravado na placa de interface de
rede à qual o meio físico está conectado. Esse mesmo endereço MAC é recuperado e usado como o
endereço MAC de destino do destinatário pretendido pelo remetente, antes que o quadro seja
transferido para a camada física para encaminhamento pela mídia conectada.
O endereço MAC Ethernet
Cada endereço MAC é um valor de 48 bits comumente representado em um formato hexadecimal
(base 16) e consiste em duas partes que tentam garantir que cada endereço MAC seja globalmente
exclusivo. Isso é obtido pela definição de um identificador exclusivo da organização, específico do
fornecedor, com base no qual é possível rastrear a origem de um produto de volta ao seu fornecedor
com base nos primeiros 24 bits do endereço MAC. Os restantes 24 bits do endereço MAC são um valor
que é atribuído de forma incremental e única a cada produto (por exemplo, uma Placa de Interface de
Rede ou um produto similar suportando interfaces de porta para as quais é necessário um MAC).
Encaminhamento de quadros Unicast
A transmissão de quadros dentro de uma rede local é obtida usando um dos três métodos de
encaminhamento, o primeiro deles é unicast e refere-se à transmissão de um único local de origem para
um único destino. Cada interface do host é representada por um endereço MAC exclusivo, contendo um
identificador organizacional exclusivo, para o qual o oitavo bit do octeto mais significativo (ou primeiro
byte) no campo de endereço MAC identifica o tipo de endereço. Esse 8º bit é sempre definido como 0,
onde o endereço MAC é um endereço MAC do host e significa que qualquer quadro contendo esse
endereço MAC no campo de endereço MAC de destino é destinado apenas a um único destino.
Quando os hosts existirem em um domínio de colisão compartilhado, todos os hosts conectados
receberão a transmissão unicast, mas o quadro será geralmente ignorado por todos os hosts em que o
endereço MAC no campo MAC de destino do quadro não corresponder ao valor MAC do host de
recepção. uma determinada interface, deixando apenas o host pretendido para aceitar e processar os
dados recebidos. As transmissões Unicast são encaminhadas apenas de uma única interface física para o
destino pretendido, mesmo nos casos em que podem existir várias interfaces.
Encaminhamento de quadros de Broadcast
Transmissão de transmissão representa um método de encaminhamento que permite que quadros
sejam inundados de uma única fonte recebida por todos os destinos dentro de uma rede local. Para
permitir que o tráfego seja transmitido para todos os hosts em uma rede local, o campo de endereço
MAC de destino do quadro é preenchido com um valor definido em hexadecimal como FF: FF: FF: FF: FF:
FF e quais especifica que todos os destinatários de um quadro com esse endereço definido devem
aceitar o recebimento desse quadro e processar o cabeçalho e o trailer do quadro.
As transmissões são usadas por protocolos para facilitar uma série de importantes processos de rede,
incluindo a descoberta e manutenção da operação da rede, mas também geram tráfego excessivo que
freqüentemente causa interrupções nos sistemas finais e utilização de largura de banda que tendem a
reduzir o desempenho geral da rede.
Encaminhamento de quadros multicast
Uma alternativa mais eficiente à transmissão que começou a substituir o uso de transmissões em
muitas tecnologias mais recentes é o tipo de quadro multicast. O encaminhamento multicast pode ser
entendido como uma forma de transmissão seletiva que permite que hosts selecionados escutem um
endereço MAC multicast específico além do endereço MAC unicast que está associado ao host, e
processam quaisquer quadros contendo o endereço MAC multicast no MAC de destino campo do
quadro.
Como não há distinção relativa entre endereços MAC unicast e formatos de endereço MAC multicast,
o endereço multicast é diferenciado usando o oitavo bit do primeiro octeto. Onde esse valor de bit
representa um valor de 1, ele identifica que o endereço faz parte do intervalo de endereços MAC
multicast, em oposição aos endereços MAC unicast em que esse valor é sempre 0.
Em uma rede de área local, a verdadeira capacidade do comportamento de multicast na camada de
enlace de dados é limitada, pois o encaminhamento permanece semelhante ao de um quadro de
broadcast no qual as interrupções ainda prevalecem em toda a rede. A única diferença clara com a
tecnologia de transmissão está no processamento seletivo ao receber estações finais. À medida que as
redes se expandem para suportar várias redes locais, a capacidade real da tecnologia multicast como um
meio eficiente de transmissão se torna mais aparente.
Carrier Sense
Como o tráfego está preparado para ser encaminhado pela rede física, é necessário que os hosts em
domínios de colisão compartilhada determinem se algum tráfego está ocupando o meio de transmissão
no momento. A mídia de transmissão, como no caso do 10Base2, fornece um meio compartilhado sobre
o qual o CSMA / CD deve ser aplicado para garantir que as colisões sejam tratadas caso ocorram. Se a
transmissão de um quadro for detectada no link, o host atrasará o encaminhamento de seus próprios
quadros até o momento em que a linha estiver disponível, após o qual o host começará a encaminhar os
quadros da interface física para o destino pretendido.
Quando dois hosts são conectados em um meio capaz de suportar transmissão full duplex como no
caso de mídia como 10BaseT, considera-se não possível que quadros transmitidos sofram colisões, pois
a transmissão e o recebimento de quadros ocorrem em fios separados e, portanto, não há requisito
para que o CSMA / CD seja implementado.
Processamento de quadros
Depois que um quadro é encaminhado da interface física do host, ele é transportado pela mídia até o
destino pretendido. No caso de uma rede compartilhada, o quadro pode ser recebido por vários hosts,
que avaliarão se o quadro é destinado à sua interface, analisando o endereço MAC de destino no
cabeçalho do quadro. Se o endereço MAC de destino e o endereço MAC do host não forem iguais, ou o
endereço MAC de destino não for um endereço de transmissão múltipla ou multicast ao qual o host está
atendendo, o quadro será ignorado e descartado.
Para o destino pretendido, o quadro será recebido e processado, inicialmente confirmando que o
quadro é destinado à interface física do host. O host também deve confirmar que a integridade do
quadro foi mantida durante a transmissão tomando o valor do campo FCS (Frame Check Sequence) e
comparando esse valor com um valor determinado pelo host de recebimento. Se os valores não
corresponderem, o quadro será considerado como corrompido e será descartado posteriormente.
Para quadros válidos, o host precisará determinar o próximo estágio de processamento analisando o
campo de tipo do cabeçalho do quadro e identificar o protocolo ao qual esse quadro é destinado. Neste
exemplo, o campo tipo de quadro contém um valor hexadecimal de 0x0800 que identifica que os dados
obtidos do quadro devem ser encaminhados para o Protocolo da Internet, antes do qual, o cabeçalho do
quadro e o trailer são descartados.
Resumo
Como a Ethernet determina o protocolo para o qual um quadro processado deve ser entregue?
Os quadros da camada de enlace de dados contêm um campo Tipo que referencia o próximo
protocolo para o qual os dados contidos no quadro devem ser encaminhados. Exemplos comuns de
protocolos de encaminhamento incluem IP (0x0800) e ARP (0x0806).
2-Como se determina se um quadro deve ser processado ou descartado ao ser recebido por um
dispositivo final?
O endereço MAC de destino contido no cabeçalho do quadro é analisado pela estação final receptora
e comparado ao endereço MAC associado à interface na qual o quadro foi recebido. Se o endereço MAC
de destino e o endereço MAC da interface não corresponderem, o quadro será descartado.
Prefácio
O Internet Protocol (IP) é projetado para fornecer um meio de comunicação entre
redes que não é suportado por protocolos de camada inferior, como a Ethernet. A
implementação de endereçamento lógico (IP) permite que o Protocolo Internet seja
empregado por outros protocolos para o encaminhamento de dados na forma de
pacotes entre redes. Um forte conhecimento de endereçamento IP deve ser alcançado
para um projeto de rede eficaz, juntamente com uma clara familiaridade com o
comportamento do protocolo, para apoiar um entendimento claro da implementação do
IP como um protocolo roteado.
Objectivos
Após a conclusão desta seção, os formandos serão capazes de:




Descrever os campos e características contidos no IP.
Distinguir entre intervalos de endereços IP públicos, privados e especiais.
Implementar com sucesso o endereçamento VLSM.
Explique a função de um gateway IP.
Processamento do próximo cabeçalho
Antes de descartar o cabeçalho e o trailer do quadro, é necessário que o próximo conjunto de
instruções a ser processado seja determinado a partir do cabeçalho do quadro. Conforme destacado,
isso é identificado determinando o valor do campo no campo de tipo, que, nesse caso, representa um
quadro destinado ao protocolo IP após a conclusão do processo de quadro.
A função chave do quadro é determinar se o destino físico pretendido foi atingido, se a integridade
do quadro permaneceu intacta. O foco desta seção identificará como os dados são processados após o
descarte dos cabeçalhos de quadros e a propagação dos dados restantes para o Protocolo da Internet.
Cabeçalho do pacote IP
O cabeçalho IP é usado para suportar duas operações chave, roteamento e fragmentação. O
roteamento é o mecanismo que permite que o tráfego de uma determinada rede seja encaminhado
para outras redes, já que a camada de enlace de dados representa uma única rede para a qual existem
limites de rede. Fragmentação refere-se à quebra de dados em blocos gerenciáveis que podem ser
transmitidos pela rede.
O cabeçalho IP é transportado como parte dos dados e representa uma sobrecarga de pelo menos 20
bytes que referencia como o tráfego pode ser encaminhado entre redes, onde o destino pretendido
existe dentro de uma rede diferente da rede na qual os dados foram originalmente transmitidos. O
campo de versão identifica a versão do IP que atualmente está sendo suportada; nesse caso, a versão é
conhecida como versão quatro ou IPv4. O campo DS foi originalmente referido como o tipo de campo de
serviço, mas agora funciona como um campo de suporte a serviços diferenciados, usado principalmente
como um mecanismo para aplicar qualidade de serviço (QoS) para otimização de tráfego de rede, e é
considerado fora do campo. âmbito desta formação.
Os endereços IP de origem e de destino são endereços lógicos atribuídos a hosts e usados para
referenciar o remetente e o destinatário pretendido na camada de rede. O endereçamento IP permite
avaliar se existe um destino pretendido na mesma rede ou em uma rede diferente, como forma de
auxiliar o processo de roteamento entre as redes, a fim de alcançar destinos além da rede local.
Endereçamento IP
Cada endereço IPv4 representa um valor de 32 bits que geralmente é exibido em um formato decimal
pontuado, mas o entendimento detalhado do comportamento subjacente também é representado em
um formato binário (Base 2). Os endereços IP atuam como identificadores para os sistemas finais, bem
como para outros dispositivos dentro da rede, como um meio de permitir que esses dispositivos sejam
acessíveis tanto localmente quanto por fontes localizadas remotamente, além dos limites da rede atual.
O endereço IP consiste em dois campos de informações que são usados para especificar claramente a
rede à qual um endereço IP pertence, bem como um identificador de host dentro do intervalo de rede,
que é, na maior parte, exclusivo dentro da rede determinada.
Cada intervalo de rede contém dois endereços importantes que são excluídos do intervalo de rede
atribuível a hosts ou outros dispositivos. O primeiro desses endereços excluídos é o endereço de rede
que representa uma determinada rede em oposição a um host específico dentro da rede. O endereço de
rede é identificável ao se referir ao campo host do endereço de rede, no qual os valores binários dentro
desse intervalo são todos definidos como 0, para os quais também se deve notar que um valor binário
todo 0 nem sempre representa um valor 0 na notação decimal pontuada.
O segundo endereço excluído é o endereço de difusão usado pela camada de rede para se referir a
qualquer transmissão que se espera que seja enviada a todos os destinos dentro de uma determinada
rede. O endereço de broadcast é representado no campo host do endereço IP, onde os valores binários
dentro desse intervalo são todos definidos como 1. Os endereços de host compõem o intervalo que
existe entre a rede e os endereços de broadcast.
Decimal, Binário e Hexadecimal
O uso de notações binárias, decimais e hexadecimais são comumente aplicadas em redes IP para
representar esquemas de endereçamento, protocolos e parâmetros e, portanto, o conhecimento da
construção fundamental dessas formas básicas é importante para entender o comportamento e
aplicação de valores nas redes IP.
Cada sistema de numeração é representado por um valor base diferente que destaca o número de
valores usados como parte do intervalo de notações base. No caso do binário, apenas dois valores são
usados, 0 e 1, que em combinação podem fornecer um número crescente de valores, geralmente
representados como 2 à potência de x, onde x denota o número de valores binários. Hexadecimal
representa uma notação de base 16 com valores que variam de 0 a F, (0-9 e A-F), onde A representa o
próximo valor após 9 e F, portanto, representa um valor equivalente a 15 em decimal, ou 1111 em
binário.
Conversão Binária vs. Decimal
Entende-se que um byte contém 8 bits e atua como uma notação comum em redes IP, portanto, um
byte representa um valor de bit de 256, variando de 0 a 255. Essas informações são claramente
representadas por tradução de notação decimal para binário e aplicativo da potência base para cada
valor binário, para atingir o intervalo de valores de 256 bits. Uma tradução do sistema de numeração
para binário pode ser vista no exemplo para permitir a familiarização com os padrões de numeração
associados ao binário. O exemplo também demonstra claramente como os valores do endereço de
broadcast em decimal, binário e hexadecimal são representados para permitir que as transmissões
sejam obtidas no endereçamento IP e MAC na rede e nas camadas de enlace de dados.
Conversão Binária
A combinação de 32 bits dentro de um endereço IP está correlacionada a quatro octetos ou bytes
para os quais cada um pode representar um intervalo de valores de 256, fornecendo um número teórico
de 4'294'967'296 endereços IP possíveis, mas na verdade apenas uma fração do O número total de
endereços pode ser atribuído aos hosts. Cada bit dentro de um byte representa uma potência base e,
como tal, cada octeto pode representar uma classe de rede específica, sendo cada classe de rede
baseada em um único octeto ou em uma combinação de octetos. Três octetos foram usados como parte
deste exemplo para representar a rede com o quarto octeto representando o intervalo do host que é
suportado pela rede.
Classes de endereço IP
O número de octetos suportados por um endereço de rede é determinado por classes de endereço
que dividem o escopo de endereço do IPv4. Classes A, B e C são intervalos de endereços designáveis,
cada um dos quais suporta um número variado de redes e um número de hosts que são designáveis a
uma determinada rede. A classe A, por exemplo, consiste em 126 redes potenciais, cada uma das quais
pode suportar 224 ou 16'777'216 endereços de host potenciais, tendo em mente que os endereços de
rede e de transmissão de um intervalo de classe não podem ser atribuídos a hosts.
Na verdade, uma única rede Ethernet nunca poderia suportar um número tão grande de hosts, já que
a Ethernet não se adapta bem, em parte devido às transmissões que geram tráfego de rede excessivo
em uma única rede local. Os intervalos de endereços de classe C permitem uma rede muito mais
balanceada que se adapta bem a redes Ethernet, fornecendo pouco mais de 2 milhões de redes
potenciais, com cada rede capaz de suportar cerca de 256 endereços, dos quais 254 são atribuíveis a
hosts.
A classe D é um intervalo reservado para multicast, para permitir que os hosts escutem um endereço
específico dentro desse intervalo, e se o endereço de destino de um pacote contiver um endereço
multicast para o qual o host esteja escutando, o pacote será processado da mesma maneira como um
pacote destinado ao endereço IP atribuído aos hosts. Cada classe é facilmente distinguível em binário,
observando o valor de bit dentro do primeiro octeto, onde um endereço de classe A, por exemplo,
sempre começará com um 0 para o bit de alta ordem, enquanto que em uma classe B os dois primeiros
bits de alta ordem são sempre definidos como 1 e 0, permitindo que todas as classes sejam facilmente
determinadas em binário.
Tipos de endereço IP
No IPv4, endereços específicos e intervalos de endereços foram reservados para propósitos especiais.
Intervalos de endereços privados existem dentro dos intervalos de endereços de classe A, B e C para
prolongar o rápido declínio no número de endereços IP disponíveis. Atualmente, o número de
dispositivos e sistemas finais reais que exigem endereçamento IP no mundo excede os endereços
4'294'967'296 do intervalo de endereços IPv4 de 32 bits e, portanto, uma solução para esse problema
crescente foi alocar intervalos de endereços privados que poderiam ser atribuído a redes privadas, para
permitir a conservação de endereços de redes públicas que facilitem a comunicação através de infraestruturas de redes públicas, como a Internet.
As redes privadas se tornaram comuns em toda a rede corporativa, mas os hosts não conseguem
interagir com a rede pública, o que significa que os intervalos de endereços podem ser reutilizados em
muitas redes corporativas diferentes. No entanto, o tráfego vinculado a redes públicas deve passar por
uma tradução de endereços antes que os dados possam chegar ao destino pretendido.
Outros endereços especiais incluem um intervalo de diagnóstico denotado pelo endereço de rede
127.0.0.0, bem como o primeiro e último endereços dentro do intervalo de endereços IPv4, para o qual
0.0.0.0 representa qualquer rede e para o qual sua aplicação deve ser introduzida em mais detalhes com
princípios de roteamento. O endereço 255.255.255.255 representa um endereço de broadcast para a
rede IPv4 (0.0.0.0), no entanto, o escopo de qualquer transmissão em IP é restrito aos limites da rede
local a partir da qual a transmissão é gerada.
Comunicação IP
Para que um host envie o tráfego para um destino, é necessário que um host tenha conhecimento da
rede de destino. Um host está naturalmente ciente da rede à qual pertence, mas geralmente não está
ciente de outras redes, mesmo quando essas redes podem ser consideradas parte da mesma rede física.
Como tal, os hosts não encaminharão os dados destinados a um determinado destino até que o host
aprenda sobre a rede e, portanto, com ela, a interface pela qual o destino pode ser alcançado.
Para um host encaminhar tráfego para outro host, ele deve primeiro determinar se o destino faz
parte da mesma rede IP. Isso é obtido por meio da comparação da rede de destino com a rede de
origem (endereço IP do host) da qual os dados são originários. Onde os intervalos de rede coincidem, o
pacote pode ser encaminhado para as camadas inferiores onde o enquadramento Ethernet preside,
para processamento. No caso em que a rede de destino pretendida varia da rede de origem, espera-se
que o host tenha conhecimento da rede pretendida e da interface através da qual um pacote / quadro
deve ser encaminhado antes que o pacote possa ser processado pelas camadas inferiores. Sem essa
informação, o host irá abandonar o pacote antes mesmo de chegar à camada de enlace de dados.
Máscara de sub-rede
A identificação de um segmento de rede exclusivo é governada pela implementação de um valor de
máscara que é usado para distinguir o número de bits que representam o segmento de rede, para o qual
os bits restantes são entendidos como representando o número de hosts suportados em um
determinado segmento de rede . Um administrador de rede pode dividir um endereço de rede em subredes para que os pacotes de transmissão sejam transmitidos dentro dos limites de uma única sub-rede.
A máscara de sub-rede consiste em uma sequência de valores contínuos e ininterruptos, seguidos por
uma sequência ininterrupta de valores 0. Os valores 1 correspondem ao campo de ID da rede, enquanto
os valores 0 correspondem ao campo ID do host.
Máscara de sub-rede padrão
Para cada classe de endereço de rede, uma máscara de sub-rede correspondente é aplicada para
especificar o tamanho padrão do segmento de rede. Qualquer rede considerada como parte do
intervalo de endereços de classe A é fixada com uma máscara de sub-rede padrão pertencente aos 8
bits mais à esquerda que fazem parte do primeiro octeto do endereço IP, permanecendo os três octetos
restantes disponíveis para atribuição do ID de host.
De maneira semelhante, a rede de classe B reflete uma máscara de sub-rede padrão de 16 bits,
permitindo um número maior de redes dentro do intervalo da classe B ao custo do número de hosts que
podem ser atribuídos por rede padrão. A rede de classe C usa como padrão uma máscara de 24 bits que
fornece um grande número de redes potenciais, mas limita muito o número de hosts que podem ser
atribuídos dentro da rede padrão. As redes padrão fornecem um limite comum para intervalos de
endereços, no entanto, no caso de intervalos de endereços de classe A e classe B, não fornecem uma
escala prática para alocação de endereços para redes baseadas em Ethernet.
Planejamento de Endereços
A aplicação da máscara de sub-rede a um determinado endereço IP permite a identificação da rede à
qual o host pertence. A máscara de sub-rede também identificará o endereço de transmissão da rede,
bem como o número de hosts que podem ser suportados como parte do intervalo da rede. Tais
informações fornecem a base para o planejamento efetivo de endereços de rede. No exemplo dado, um
host foi identificado com o endereço 192.168.1.7 como parte de uma rede com uma máscara de subrede de 24 bits padrão (classe C) aplicada. Ao distinguir qual parte do endereço IP constitui os
segmentos de rede e host, o endereço de rede padrão pode ser determinado para o segmento.
Isso é entendido como o endereço em que todos os valores de bit do host são definidos como 0,
nesse caso, gerando um endereço de rede padrão de 192.168.1.0. Onde os valores do host são
representados por uma cadeia contínua de 1 valores, o endereço de broadcast da rede pode ser
determinado. Onde o último octeto contém uma cadeia de 1 valores, representa um valor decimal de
255, para o qual um endereço de broadcast de 192.168.1.255 pode ser derivado.
Os possíveis endereços de host são calculados com base em uma fórmula de 2n, em que n representa
o número de bits de host definidos pela máscara de sub-rede. Nessa instância, n representa um valor de
8 bits de host, em que 28 fornece um valor resultante de 256. O número de endereços de host
utilizáveis requer, no entanto, que os endereços de rede e transmissão sejam deduzidos desse resultado
para fornecer um número de endereços de host válidos.
Cenário do caso
O cenário de caso fornece um intervalo de endereço comum de classe B para o qual é necessário
determinar a rede à qual o host especificado pertence, junto com o endereço de broadcast e o número
de hosts válidos que são suportados pela rede especificada. Aplicando os mesmos princípios do
intervalo de endereços de classe C, é possível determinar o endereço de rede do host, juntamente com
o intervalo de hosts dentro da rede determinada.
Limitações de endereçamento
Uma das principais restrições da máscara de sub-rede padrão ocorre quando vários intervalos de
endereços de rede são aplicados a uma determinada empresa para gerar limites lógicos entre os hosts
na rede corporativa física. A aplicação de um esquema de endereçamento básico pode exigir que um
número limitado de hosts seja associado a uma determinada rede, para os quais várias redes são
aplicadas para fornecer a segmentação lógica da rede. Ao fazer isso, no entanto, uma grande
quantidade de espaço de endereçamento permanece sem uso, exibindo a ineficiência do aplicativo de
máscara de sub-rede padrão.
Cálculo de VLSM
Como forma de resolver as limitações das máscaras de sub-rede padrão, o conceito de máscaras de
sub-rede de tamanho variável é introduzido, o que permite que uma máscara de sub-rede padrão seja
dividida em várias sub-redes, que podem ser de comprimento fixo máscaras ou FLSM) ou de
comprimento variável conhecido comumente pelo termo VLSM. A implementação dessas máscaras de
sub-rede consiste em usar uma rede baseada em classes padrão e dividir a rede através da manipulação
da máscara de sub-rede.
No exemplo dado, uma variação simples foi feita para a rede padrão da classe C, que por padrão é
governada por uma máscara de 24 bits. A variação vem na forma de um bit emprestado do ID do host
que foi aplicado como parte do endereço de rede. Onde o desvio de bits ocorre em comparação com a
rede padrão, os bits adicionais representam o que é conhecido como o ID de sub-rede.
Neste caso, um único bit foi usado para representar a sub-rede para a qual duas sub-redes podem ser
derivadas, já que um único valor de bit pode representar apenas dois estados de 1 ou 0. Onde o bit é
definido como 0, ele representa um valor de 0, onde é definido como 1, representa um valor de 128. Ao
definir os bits de host como 0, o endereço de sub-rede pode ser encontrado para cada sub-rede,
definindo os bits de host como 1, a transmissão endereço para cada sub-rede é identificável. O número
de hosts suportados neste caso representa um valor de 27 menos o endereço de sub-rede e o endereço
de broadcast de cada sub-rede, resultando em cada sub-rede suportando um total de 126 endereços de
host válidos.
Cenário de Caso VLSM
Em relação ao problema de limitações de endereço em que as redes padrão resultaram em
desperdício de endereço excessivo, o conceito de máscaras de sub-rede de comprimento variável pode
ser aplicado para reduzir o desperdício de endereço e fornecer um esquema de endereçamento mais
eficaz para a rede corporativa.
Um único intervalo de endereços de classe C padrão foi definido, para o qual as máscaras de sub-rede
de tamanho variável são necessárias para acomodar cada uma das redes lógicas em um único intervalo
de endereços padrão. A atribuição efetiva de máscara de sub-rede requer que o número de bits de host
necessários para acomodar o número necessário de hosts seja determinado, para o qual os bits de host
restantes podem ser aplicados como parte do ID de sub-rede, que representa a variação no ID de rede
da rede padrão endereço.
Encaminhamento inter-domínio classless
O roteamento interdomínio sem classe foi inicialmente introduzido como uma solução para lidar com
problemas que estavam ocorrendo como resultado do rápido crescimento do que hoje é conhecido
como Internet. As principais preocupações eram o esgotamento iminente do espaço de endereço de
classe B que era comumente adotado pelas organizações de médio porte como a faixa de endereços
mais adequada, onde a classe C era inadequada e onde a classe A era muito grande e o gerenciamento
dos endereços de host 65534 poderia ser alcançado através de VLSM. Além disso, o crescimento
contínuo significava que os dispositivos de gateway, como os roteadores, estavam começando a se
esforçar para acompanhar o crescente número de redes que esses dispositivos deveriam suportar. A
solução dada envolve a transição para um sistema de endereçamento sem classes, no qual limites de
classes foram substituídos por prefixos de endereço.
Essa notação funciona com base no princípio de que intervalos de endereços de classe como o da
classe C podem ter um prefixo de 24 bits que representa a sub-rede ou o limite da rede principal e para
os quais é possível resumir vários prefixos de rede em uma única rede maior prefixo de endereço que
representa as mesmas redes, mas como um prefixo de endereço único. Isso ajudou a aliviar o número
de rotas contidas, particularmente, em dispositivos de roteamento de larga escala que operam em
escala global e forneceu um meio mais eficaz de gerenciamento de endereços. O resultado do CIDR teve
efeitos de longo alcance e entendeu-se que efetivamente diminuiu a taxa geral de exaustão do espaço
de endereços IPv4.
IP Gateways
O encaminhamento de pacotes requer que o pacote primeiro determine um caminho de
encaminhamento para uma dada rede, e a interface através da qual um pacote deve ser encaminhado,
antes de ser encapsulado como um quadro e encaminhado a partir da interface física. No caso em que a
rede pretendida é diferente da rede de origem, o pacote deve ser encaminhado para um gateway
através do qual o pacote é capaz de alcançar o destino pretendido.
Em todas as redes, o gateway é um dispositivo capaz de manipular pacotes e tomar decisões sobre
como os pacotes devem ser roteados, a fim de alcançar o destino pretendido. O dispositivo em questão,
no entanto, deve estar ciente de uma rota para a rede IP de destino pretendida, antes que o
roteamento de pacotes possa ocorrer. Onde as redes são divididas por um gateway físico, o endereço IP
da interface (na mesma rede ou sub-rede) através do qual esse gateway pode ser alcançado é
considerado o endereço do gateway.
No caso de hosts que pertencem a redes diferentes que não são divididas por um gateway físico, é
responsabilidade do host funcionar como o gateway, para o qual o host deve, em primeiro lugar, estar
ciente da rota para a rede na qual os pacotes são para ser encaminhado, e deve especificar o endereço
IP da própria interface do host como o endereço IP do gateway, através do qual a rede de destino
desejada pode ser alcançada.
Fragmentação IP
Os dados de pacotes encaminhados existem em muitos formatos e consistem em tamanhos variados,
geralmente o tamanho dos dados a serem transmitidos excede o tamanho suportado para transmissão.
Quando isso ocorre, é necessário que o bloco de dados seja dividido em blocos menores de dados antes
que a transmissão possa ocorrer. O processo de decompor esses dados em blocos gerenciáveis é
conhecido como fragmentação.
Os campos de identificação, sinalizadores e deslocamento de fragmento são usados para gerenciar a
remontagem de fragmentos de dados, uma vez recebidos no destino final pretendido. A identificação
distingue entre blocos de dados de fluxos de tráfego que podem ter origem no mesmo host ou em hosts
diferentes. O campo flags determina qual de um número de fragmentos representa o último fragmento
em que o início de um temporizador é iniciado antes da remontagem, e para notificar que a
remontagem do pacote deve começar.
Finalmente, o deslocamento do fragmento rotula o valor do bit para cada fragmento como parte de
um número de fragmentos, o primeiro fragmento é definido com um valor de 0 e fragmentos
subsequentes especificam o valor do primeiro bit após o fragmento anterior, por exemplo, onde o
fragmento inicial contém bits de dados de 0 a 1259, o seguinte fragmento será atribuído a um valor de
deslocamento de 1260.
Tempo de Vida
À medida que os pacotes são encaminhados entre as redes, é possível que os pacotes caiam em loops
onde as rotas para as redes IP não foram definidas corretamente nos dispositivos responsáveis pelo
roteamento do tráfego entre várias redes. Isso pode resultar na perda de pacotes dentro de um ciclo de
encaminhamento de pacotes que não permite que um pacote alcance seu destino pretendido. Quando
isso ocorre, o congestionamento na rede ocorrerá à medida que mais e mais pacotes destinados ao
mesmo destino se tornarem sujeitos ao mesmo destino, até o momento em que a rede ficar inundada
de pacotes errados.
Para evitar que tal congestionamento ocorra no caso de tais loops, um campo de tempo de vida (TTL)
é definido como parte do cabeçalho IP, que diminui em um valor de 1 cada vez que um pacote atravessa
um dispositivo de camada 3 para alcançar uma determinada rede. O valor TTL inicial pode variar
dependendo da fonte de origem, no entanto, se o valor TTL diminuir para um valor de 0, o pacote será
descartado e uma mensagem de erro (ICMP) será retornada à origem, com base no endereço IP de
origem que pode ser encontrado no cabeçalho IP do pacote errante.
Campo de Protocolo
Após a verificação de que o pacote atingiu seu destino pretendido, a camada de rede deve
determinar o próximo conjunto de instruções a serem processadas. Isso é determinado analisando o
campo de protocolo do cabeçalho IP. Assim como no campo de tipo do cabeçalho do quadro, um valor
hexadecimal é usado para especificar o próximo conjunto de instruções a serem processadas.
Deve ser entendido que o campo de protocolo pode se referir a protocolos na camada de rede, como
no caso do protocolo ICMP, mas também pode se referir a protocolos de camada superior, como o
protocolo de controle de transmissão (06 / 0x06) ou User Datagram Protocol (17 / 0x11), ambos os quais
existem como parte da camada de transporte nos modelos de referência TCP / IP e OSI.
Resumo
1-Para que serve a máscara de sub-rede IP?
A máscara de sub-rede IP é um valor de 32 bits que descreve a divisão lógica entre os valores de bit
de um endereço IP. O endereço IP é dividido em duas partes para as quais os valores de bits
representam uma rede ou sub-rede e o host em uma determinada rede ou sub-rede.
2-Qual é o objetivo do campo TTL no cabeçalho IP?
Os pacotes IP que não conseguem acessar a rede pretendida são suscetíveis de serem encaminhados
indefinidamente entre redes, na tentativa de descobrir seu destino final. O recurso Time To Live (TTL) é
usado para garantir que uma vida útil seja aplicada a todos os pacotes IP, de modo a garantir que, no
caso de um pacote IP não conseguir chegar ao seu destino, ele será encerrado. O valor de TTL pode
variar dependendo da fonte original.
3-Como os gateways são usados em uma rede IP?
Os gateways representam pontos de acesso entre redes IP para as quais o tráfego pode ser
redirecionado ou roteado no caso de a rede de destino pretendida variar da rede na qual o pacote foi
originado.
Prefácio
O ICMP é um protocolo que trabalha junto com o IP como uma forma de
protocolo de mensagens para compensar a confiabilidade limitada do IP. A
implementação do ICMP deve ser entendida para se familiarizar com o
comportamento de várias operações e aplicativos que dependem muito do ICMP,
para suportar o sistema de mensagens subjacente, com base no qual processos
adicionais são freqüentemente executados.
Objectivos
Após a conclusão desta seção, os formandos serão capazes de:



Descrever alguns dos processos aos quais o ICMP é aplicado.
Identificar os valores comuns de tipo e código usados no ICMP.
Explicar a função do ICMP nas aplicações ping e traceroute
ICMP
O Protocolo de Mensagens de Controle da Internet é parte integrante do IP projetado para facilitar a
transmissão de mensagens de notificação entre gateways e hosts de origem, onde são necessárias
solicitações de informações de diagnóstico, suporte de roteamento e como forma de relatar erros no
processamento de datagramas. O objetivo dessas mensagens de controle é fornecer feedback sobre
problemas no ambiente de comunicação e não garante que um datagrama será entregue ou que uma
mensagem de controle será retornada.
ICMP (Routing)
As mensagens de redirecionamento ICMP representam um cenário comum em que o ICMP é usado
como um meio de facilitar as funções de roteamento. No exemplo, um pacote é encaminhado para o
gateway pelo host A com base no endereço de gateway do host A. O gateway identifica que o pacote
recebido está destinado a ser encaminhado para o endereço do próximo gateway que passa a fazer
parte do mesmo rede como o host que originou o pacote, destacando um comportamento de
encaminhamento não ideal entre o host e os gateways.
Para resolver isso, uma mensagem de redirecionamento é enviada ao host. A mensagem de
redirecionamento aconselha o host a enviar seu tráfego para o destino pretendido diretamente ao
gateway com o qual a rede de destino está associada, pois isso representa um caminho mais curto para
o destino. O gateway prossegue, no entanto, para encaminhar os dados do pacote original para o
destino pretendido.
ICMP (diagnóstico)
ICMP echo messages represent a means of diagnosis for determining primarily connectivity between
a given source and destination, but also provides additional information such as the round trip time for
transmission as a diagnostic for measuring delay. Data that is received in the echo message is returned
as a separate echo reply message.
ICMP (erros)
O ICMP fornece várias mensagens de relatório de erros que geralmente determinam problemas de
alcance e geram relatórios de erro específicos que permitem um entendimento mais claro, do ponto de
vista do host, do motivo pelo qual a transmissão para o destino pretendido falhou.
Exemplos típicos incluem casos em que loops podem ter ocorrido na rede e consequentemente
causaram a expiração do parâmetro time to live no cabeçalho IP, resultando na geração de uma
mensagem de erro “ttl excedido em trânsito”. Outros exemplos incluem um destino pretendido sendo
inacessível, o que poderia estar relacionado a um problema mais específico da rede pretendida que não
é conhecido pelo gateway de recebimento ou que o host pretendido na rede de destino não está sendo
descoberto. Em todos os eventos, uma mensagem ICMP é gerada com um destino com base no
endereço IP de origem localizado no cabeçalho IP, para garantir que a mensagem notifique o host de
envio.
Formato ICMP
Mensagens ICMP são enviadas usando o cabeçalho IP básico, que funciona em conjunto como parte
integral da mensagem ICMP, como é o caso do parâmetro TTL que é usado para fornecer suporte para
determinar se um destino é alcançável. O formato da mensagem ICMP depende de dois campos para
identificação de mensagem na forma de um formato de tipo / código, em que o campo de tipo fornece
uma descrição geral do tipo de mensagem e o código e um parâmetro mais específico para o tipo de
mensagem.
Uma soma de verificação fornece um meio de validar a integridade da mensagem ICMP. Um adicional
de 32 bits são incluídos para fornecer parâmetros variáveis, muitas vezes não utilizados e, portanto,
definidos como 0 quando a mensagem ICMP é enviada, no entanto, em casos como um
redirecionamento ICMP, o campo contém o endereço IP do gateway para o qual um host deve
redirecionar pacotes. O campo de parâmetro no caso de solicitações de eco conterá um identificador e
um número de sequência, usado para ajudar o associado de origem a enviar solicitações de eco com
respostas de eco recebidas, especialmente no caso de várias solicitações serem encaminhadas para um
determinado destino.
Como meio final de rastrear dados para um processo específico, a mensagem ICMP pode transportar
o cabeçalho IP e uma parte dos dados que contém informações da camada superior que permitem que a
origem identifique o processo para o qual ocorreu um erro, como casos em que O ICMP TTL expira em
trânsito.
Tipo ICMP e campos de código
Existe um grande número de valores do tipo ICMP para definir claramente as diferentes aplicações do
protocolo de controle ICMP. Em alguns casos, o campo de código não é necessário para fornecer uma
entrada mais específica para o campo type, como é encontrado em solicitações de eco que possuem um
campo de tipo 8 e a resposta correspondente, que é gerada e enviada como uma mensagem ICMP
separada para o endereço de origem do remetente e definido usando um campo de tipo de 0.
Alternativamente, determinados campos de tipos definem um tipo muito geral para o qual a
variância é compreendida através do campo de código, como no caso do parâmetro tipo 3. Um campo
de tipo 3 especifica que um determinado destino é inacessível, enquanto o campo de código reflete a
ausência específica de rede, host, protocolo, porta (TCP / UDP), capacidade de realizar fragmentação
(código 4) ou rota de origem ( código 5) em que um pacote, para o qual um caminho de
encaminhamento através da rede é estrito ou parcialmente definido, não consegue chegar ao seu
destino.
Aplicações ICMP – Ping
A aplicação do ICMP pode ser entendida através do uso de ferramentas como o Ping. O aplicativo
Ping pode ser usado como uma ferramenta para determinar se um destino pode ser acessado, bem
como coletar outras informações relacionadas. Os parâmetros do aplicativo Ping permitem que um
usuário final especifique o comportamento do sistema final na geração de mensagens ICMP, levando em
consideração o tamanho do datagrama ICMP, o número de mensagens ICMP geradas pelo host e
também a duração em que ele ocorre. é esperado que uma resposta seja recebida antes de ocorrer um
tempo limite. Isso é importante quando ocorre um grande atraso, pois um tempo limite pode ser
relatado pelo aplicativo Ping antes que a mensagem ICMP tenha a oportunidade de retornar à origem.
Resultados do Ping
A saída geral de uma resposta ICMP para uma solicitação ICMP gerada pelo Ping detalha o destino
para o qual o datagrama foi enviado e o tamanho do datagrama gerado. Além disso, o número de
seqüência do campo de seqüência que é transportado como parte da resposta de eco (tipo 0) é exibido
juntamente com o valor TTL que é obtido do cabeçalho IP, bem como o tempo de ida e volta que é
transportado como parte do campo de opções IP no cabeçalho IP.
Aplicação ICMP – Traceroute
Outra aplicação comum ao ICMP é o traceroute, que fornece um meio de medir o caminho de
encaminhamento e o atraso em uma base hop-by-hop entre várias redes, através da associação com o
valor TTL dentro do cabeçalho IP.
Para um determinado destino, a alcançabilidade de cada salto ao longo do caminho é medida
definindo inicialmente um valor TTL no cabeçalho IP de 1, fazendo com que o valor TTL expire antes que
o gateway receptor seja capaz de propagar a mensagem ICMP, gerando assim um TTL expirou em
mensagem de trânsito junto com informações de registro de data e hora, permitindo uma avaliação de
salto a salto do caminho percorrido pela rede pelo datagrama até o destino e uma medição do tempo de
ida e volta. Isso fornece um meio eficaz de identificar o ponto de qualquer perda ou atraso de pacote
que possa ocorrer na rede e também ajuda na descoberta de loops de roteamento.
Resultados do Traceroute
A implementação do traceroute nos roteadores da série Huawei ARG3 adota o uso do protocolo da
camada de transporte UDP para definir uma porta de serviço como o destino. Cada salto envia três
pacotes de sondagem, para os quais o valor de TTL é inicialmente definido para um valor de 1 e
incrementado após cada três pacotes. Além disso, uma porta de destino UDP de 33434 é especificada
para o primeiro pacote e incrementada para cada pacote de sondagem sucessivo enviado. Um resultado
hop-by-hop é gerado, permitindo que o caminho seja determinado, assim como qualquer atraso geral
que possa ocorrer para ser descoberto.
Isso é obtido medindo-se a duração entre o momento em que a mensagem ICMP foi enviada e
quando o erro TTL correspondente expirado em trânsito é recebido. Ao receber um pacote, o destino
final é incapaz de descobrir a porta especificada no pacote e, portanto, retorna um pacote ICMP Tipo 3,
Código 3 (Porta Inacessível) e, após três tentativas, o teste traceroute é finalizado. O resultado do teste
de cada sonda é exibido pela fonte, de acordo com o caminho da origem até o destino. Se ocorrer uma
falha quando o comando de rota de rastreio for usado, as seguintes informações podem ser exibidas:
! H: O host está inacessível.
! N: A rede está inacessível.
!: A porta está inacessível.
! P: O tipo de protocolo está incorreto.
! F: O pacote está fragmentado incorretamente.
! S: a rota de origem está incorreta.
Resumo
1-Quais são os dois tipos de mensagens ICMP usados como parte de um Ping bem-sucedido?
A aplicação Ping usa a mensagem de solicitação de eco do tipo 8 para tentar descobrir o destino.
Uma mensagem de resposta de eco separada, definida por um campo de tipo 0, é retornada à origem
original com base no endereço IP de origem no campo de cabeçalho IP.
2-No caso de o valor TTL no cabeçalho IP de um datagrama chegar a zero, qual ação será tomada pelo
gateway de recebimento?
No caso de o valor TTL de um datagrama IP atingir 0 antes que o datagrama consiga alcançar o
destino pretendido, o dispositivo de gateway que recebe o datagrama continuará a descartá-lo e
retornará uma mensagem ICMP à fonte para notificar que o datagrama em questão não conseguiu
alcançar o destino pretendido. O motivo específico será definido pelo valor do código para refletir, por
exemplo, se a falha ocorreu devido a uma falha ao descobrir o host, uma porta no host ou se o serviço
para um determinado protocolo não era suportado, etc.
Prefácio
Para que a transmissão de dados para um destino de rede seja alcançada, é necessário
construir uma associação entre a camada de rede e os protocolos de camada inferior. Os
meios pelos quais o Protocolo de Resolução de Endereços é usado para construir essa
associação e evitar a geração desnecessária de tráfego de broadcast adicional na rede
devem ser claramente compreendidos.
Objectivos
Após a conclusão desta seção, os formandos serão capazes de:


Explicar como o endereço MAC é resolvido usando o ARP.
Explicar a função da tabela de cache do ARP.
ARP
À medida que os dados são encapsulados, o protocolo IP na camada de rede é capaz de especificar o
endereço IP alvo para o qual os dados são destinados, assim como a interface pela qual os dados devem
ser transmitidos, no entanto antes que a transmissão possa ocorrer, deve estar ciente do endereço
Ethernet (MAC) de destino para o qual os dados devem ser transmitidos. O protocolo de resolução de
endereços (ARP) representa uma parte crítica do conjunto de protocolos TCP / IP que permite a
descoberta de endereços de encaminhamento de MAC para facilitar a acessibilidade de IP. O próximo
salto Ethernet deve ser descoberto antes que o encapsulamento de dados possa ser concluído.
Formato ARP
O pacote ARP é gerado como parte do processo de descoberta do endereço de destino físico. A
descoberta inicial conterá informações parciais, pois o endereço de hardware ou endereço MAC de
destino deve ser descoberto. O tipo de hardware refere-se à Ethernet com o tipo de protocolo referente
ao IP, definindo as tecnologias associadas à descoberta do ARP. O comprimento do hardware e do
protocolo identifica o comprimento do endereço para o endereço MAC Ethernet e o endereço IP e é
definido em bytes.
O código de operação especifica um dos dois estados, onde a descoberta de ARP é definida como
REQUEST para qual recepção da transmissão de ARP pelo destino identificará que uma resposta deve ser
gerada. A resposta gerará REPLY para a qual nenhuma operação adicional é necessária pelo host de
recebimento deste pacote, e após o qual o pacote ARP será descartado. O endereço de hardware de
origem refere-se ao endereço MAC do remetente no segmento físico para o qual o ARP é gerado. O
endereço do protocolo de origem refere-se ao endereço IP do remetente.
O endereço de hardware de destino especifica o endereço físico (Ethernet) para o qual os dados
podem ser encaminhados pelos padrões de protocolo Ethernet, no entanto, essas informações não
estão presentes em uma solicitação ARP, substituídas por um valor 0. O endereço de protocolo de
destino identifica o IP desejado destino para o qual a acessibilidade pela Ethernet deve ser estabelecida.
Processo ARP
A camada de rede representa um caminho lógico entre uma origem e um destino. Atingir um destino
de IP pretendido depende primeiramente de ser possível estabelecer um caminho físico para o destino
pretendido e, para fazer isso, uma associação deve ser feita entre o destino de IP pretendido e a
interface de próximo salto físico para a qual o tráfego pode ser encaminhado.
Para um determinado destino, o host determinará o endereço IP para o qual os dados devem ser
encaminhados, no entanto, antes que o encapsulamento dos dados possa começar, o host deve
determinar se um caminho de encaminhamento físico é conhecido. Se o caminho de encaminhamento é
conhecido, o encapsulamento para o destino pode prosseguir, no entanto, muitas vezes o destino não é
conhecido e o ARP deve ser implementado antes que o encapsulamento de dados possa ser executado.
Pesquisa de cache ARP
O cache ARP (pronunciado como [kash]) é uma tabela para associação de endereços IP de destino do
host e endereços físicos associados (MAC). Qualquer host que esteja envolvido na comunicação com um
destino local ou remoto precisará primeiro aprender sobre o MAC de destino através do qual a
comunicação pode ser estabelecida.
Endereços aprendidos preencherão a tabela de cache ARP e permanecerão ativos por um período de
tempo fixo, durante o qual o destino pretendido poderá ser descoberto sem a necessidade de processos
adicionais de descoberta de ARP. Após um período fixo, a tabela de cache ARP removerá as entradas
ARP para manter a integridade da tabela de cache ARP, já que qualquer alteração na localização física de
um host de destino pode resultar no host inadvertidamente endereçando dados para um destino no
qual o host de destino não mais reside.
A consulta do cache ARP é a primeira operação que um sistema final executará antes de determinar
se é necessário gerar uma solicitação ARP. Para destinos além dos limites da própria rede de hosts, uma
consulta de cache ARP é realizada para descobrir o endereço de destino físico do gateway, através do
qual a rede de destino pretendida pode ser alcançada.
Processo de Solicitação ARP
Onde uma entrada de cache ARP não puder ser determinada, o processo de solicitação ARP é
executado. Esse processo envolve a geração de um pacote de solicitação ARP e o preenchimento dos
campos com os endereços de protocolo de origem e destino, bem como o endereço de hardware de
origem. O endereço de hardware de destino é desconhecido. Como tal, o endereço de hardware de
destino é preenchido com um valor equivalente a 0. A solicitação ARP é encapsulada em um cabeçalho
de quadro Ethernet e um trailer como parte do processo de encaminhamento. O endereço MAC de
origem do cabeçalho do quadro é definido como o endereço de origem do host de envio.
O host atualmente não está ciente da localização do destino e, portanto, deve enviar a solicitação
ARP como uma transmissão para todos os destinos dentro do mesmo limite da rede local. Isso significa
que um endereço de broadcast é usado como o endereço MAC de destino. Depois que o quadro é
preenchido, ele é encaminhado para a camada física, onde é propagado ao longo do meio físico ao qual
o host está conectado. O pacote ARP transmitido será inundado em toda a rede para todos os destinos,
incluindo qualquer gateway que possa estar presente, no entanto, o gateway impedirá que essa
transmissão seja encaminhada para qualquer rede além da rede atual.
Processo de Resposta ARP
Se o destino de rede pretendido existir, o quadro chegará à interface física do destino, no ponto em
que o processamento da camada inferior ocorrerá. As transmissões ARP significam que todos os
destinos dentro do limite da rede receberão o quadro inundado, mas deixarão de processar a solicitação
ARP, uma vez que o endereço do protocolo de destino não corresponde ao endereço IP desses destinos.
Onde o endereço IP de destino corresponde ao host de recebimento, o pacote ARP será processado.
O host receptor primeiro processará o cabeçalho do quadro e, em seguida, processará o pedido ARP. O
host de destino usará as informações do campo de endereço de hardware de origem no cabeçalho ARP
para preencher sua própria tabela de cache ARP, permitindo que um quadro de unicast seja gerado para
qualquer encaminhamento de quadro que possa ser necessário, para a origem da qual o ARP pedido foi
recebido.
O destino determinará que o pacote ARP recebido é uma solicitação ARP e continuará gerando uma
resposta ARP que será retornada à origem, com base nas informações encontradas no cabeçalho ARP.
Um pacote ARP separado é gerado para a resposta, para o qual os campos de endereço de protocolo de
origem e destino serão preenchidos. No entanto, o endereço de protocolo de destino no pacote de
solicitação ARP agora representa o endereço de protocolo de origem no pacote de resposta ARP e, da
mesma forma, o endereço de protocolo de origem da solicitação ARP se torna o endereço de protocolo
de destino na resposta ARP.
O campo de endereço de hardware de destino é preenchido com o MAC da origem, descoberto como
resultado do recebimento da solicitação ARP. Para o endereço de hardware de destino necessário da
solicitação ARP, ele é incluído como o endereço de hardware de origem da resposta ARP e o código de
operação é configurado para responder, para informar o destino da finalidade do pacote ARP recebido,
após o qual o destino é capaz de descartar o pacote ARP sem qualquer comunicação adicional. A
resposta ARP é encapsulada no cabeçalho e no trailer do quadro Ethernet, com o endereço MAC de
destino do quadro Ethernet contendo a entrada MAC na tabela de cache ARP, permitindo que o quadro
seja encaminhado como um quadro unicast de volta ao host que originou o ARP pedido.
Cache ARP
Ao receber a resposta ARP, o host de origem validará se o destino pretendido está correto com base
no cabeçalho do quadro, identificará que o cabeçalho do pacote é ARP do campo de tipo e descartará os
cabeçalhos do quadro. A resposta ARP será então processada, com o endereço de hardware de origem
da resposta ARP sendo usado para preencher a tabela de cache ARP do host de origem (Host A).
Após o processamento da resposta ARP, o pacote é descartado e as informações MAC de destino são
usadas para facilitar o processo de encapsulamento do aplicativo ou protocolo inicial que originalmente
solicitou a descoberta do destino na camada de enlace de dados.
Proxy ARP
O protocolo ARP também é aplicado a outros casos, como onde gateways de sub-rede transparentes
devem ser implementados para facilitar a comunicação entre redes físicas, onde os hosts são
considerados parte da mesma sub-rede. Isso é chamado de Proxy ARP, já que o gateway opera como um
proxy para as duas redes físicas. Quando uma solicitação ARP é gerada para um destino que é
considerado parte da mesma sub-rede, a solicitação será eventualmente recebida pelo gateway. O
gateway é capaz de determinar que o destino pretendido existe além da rede física na qual a solicitação
ARP foi gerada.
Como as solicitações ARP não podem ser encaminhadas além dos limites do domínio de broadcast, o
gateway continuará gerando sua própria solicitação ARP para determinar a acessibilidade para o destino
pretendido, usando seus próprios endereços de protocolo e hardware como os endereços de origem da
solicitação ARP gerada. Se o destino pretendido existir, uma resposta ARP deverá ser recebida pelo
gateway para o qual o endereço de hardware de origem de destino será usado para preencher a tabela
de cache ARP do gateway.
O gateway, ao confirmar a acessibilidade ao destino pretendido, gerará uma resposta ARP à fonte
original (Host A) usando o endereço de hardware da interface na qual a resposta ARP foi encaminhada.
O gateway funcionará como um agente entre as duas redes físicas para facilitar a comunicação da
camada de enlace de dados, com ambos os hosts encaminhando o tráfego destinado a destinos em
diferentes redes físicas para o endereço físico relevante do gateway “Proxy”.
ARP gratuito
No caso em que um novo hardware é introduzido em uma rede, é imperativo que o host determine
se o endereço de protocolo ao qual ele foi atribuído é exclusivo dentro da rede, para evitar conflitos de
endereço duplicados. Uma solicitação ARP é gerada como um meio de determinar se o endereço do
protocolo é exclusivo, definindo o endereço de destino na solicitação ARP como igual ao endereço IP do
host.
A solicitação ARP é inundada em toda a rede para todos os destinos da camada de conexão,
definindo o MAC de destino como broadcast, para garantir que todas as estações finais e gateways
recebam o quadro inundado. Todos os destinos processarão o quadro e, se qualquer destino descobrir
que o endereço IP de destino na solicitação ARP corresponde ao endereço de uma estação final ou
gateway de recebimento, uma resposta ARP será gerada e retornada ao host que gerou a solicitação
ARP.
Por meio desse método, o host de origem é capaz de identificar a duplicação do endereço IP dentro
da rede e sinalizar um conflito de endereço IP para solicitar que um endereço exclusivo seja atribuído.
Esse meio de gerar uma solicitação com base no endereço IP do próprio host define os princípios básicos
do ARP gratuito.
Resumo
1-Antes de gerar uma solicitação ARP, qual ação deve ser tomada por uma estação final?
O host é necessário para determinar inicialmente se já está ciente de um endereço de
encaminhamento da camada de enlace dentro de seu próprio cache ARP (tabela de endereços MAC). Se
uma entrada for descoberta, o sistema final será capaz de criar o quadro para encaminhamento sem a
assistência do protocolo de resolução de endereço. Se uma entrada não puder ser encontrada, o
processo ARP será iniciado e uma solicitação ARP será transmitida na rede local.
2-Quando as mensagens ARP gratuitas são geradas e propagadas na rede local?
Mensagens ARP gratuitas são normalmente geradas no ponto em que um endereço IP é configurado
ou alterado para um dispositivo conectado à rede e a qualquer momento em que um dispositivo é
fisicamente conectado à rede. Em ambos os casos, o processo ARP gratuito deve garantir que o
endereço IP usado permaneça exclusivo
Prefácio
A camada de transporte está associada ao comportamento de ponta a ponta dos
protocolos da camada de transporte definidos quando os dados chegam ao destino
pretendido. TCP e UDP representam os protocolos geralmente suportados em redes IP.
As características dos dados, como a sensibilidade ao atraso e a necessidade de
confiabilidade, freqüentemente determinam os protocolos usados na camada de
transporte. Esta seção enfoca o conhecimento de como tais características são
suportadas através do comportamento de cada protocolo.
Objectivos
Após a conclusão desta seção, os formandos serão capazes de:



Descrever as diferenças comuns entre o TCP e o UDP.
Descrever os formulários de dados aos quais o TCP e o UDP são aplicados.
Identificar números de porta TCP e UDP bem conhecidos.
Protocolo de Controle de Transmissão
O TCP é um protocolo de ponta a ponta orientado a conexão que existe como parte da camada de
transporte da pilha de protocolos TCP / IP, para suportar aplicativos que abrangem ambientes de várias
redes. O protocolo de controle de transmissão fornece um meio de comunicação confiável entre
processos entre pares de processos em computadores host que são conectados a redes de comunicação
de computador distintas, mas interconectadas. O TCP depende de protocolos de camada inferior para
fornecer a acessibilidade entre hosts de suporte a processos, sobre os quais um serviço de conexão
confiável é estabelecido entre pares de processos. O comportamento orientado a conexões do TCP
envolve trocas anteriores entre a origem e o destino, por meio das quais uma conexão é estabelecida
antes que os segmentos da camada de transporte sejam comunicados.
Portas TCP
Como um meio de permitir que muitos processos em um único host usem os recursos de
comunicação TCP simultaneamente, o TCP fornece um conjunto de portas lógicas dentro de cada host.
O valor da porta junto com o endereço da camada de rede é referido como um soquete, para o qual um
par de soquetes fornece um identificador exclusivo para cada conexão, em particular quando um
soquete é usado simultaneamente em várias conexões. Ou seja, um processo pode precisar distinguir
entre vários fluxos de comunicação entre si e outro processo (ou processos), para o qual cada processo
pode ter várias portas através das quais se comunica com a porta ou portas de outros processos.
Certos processos podem possuir portas e esses processos podem iniciar conexões nas portas que eles
possuem. Essas portas são entendidas como portas do sistema atribuídas pela IANA ou portas
conhecidas e existem no intervalo de valores da porta de 0 a 1023. Um intervalo de portas atribuídas ou
de usuário atribuídas pela IANA também existe no intervalo de 1024 - 49151, com portas dinâmicas,
também conhecidas como portas privadas ou efêmeras no intervalo de 49152 - 65535, que não estão
restritas a qualquer aplicação específica. Geralmente, os hosts receberão um valor de porta do usuário
para o qual um soquete é gerado para um determinado aplicativo.
Exemplos comuns de aplicativos baseados em TCP para os quais números de porta conhecidos foram
atribuídos incluem FTP, HTTP, TELNET e SMTP, que geralmente funcionam junto com outros protocolos
de correio conhecidos, como POP3 (porta 110) e IMAP4 (porta 143) .
Cabeçalho TCP
O cabeçalho TCP permite que aplicativos baseados em TCP estabeleçam fluxos de dados orientados à
conexão que sejam entregues com confiabilidade e aos quais o controle de fluxo é aplicado. Um número
de porta de origem é gerado onde um host pretende estabelecer uma conexão com um aplicativo
baseado em TCP, para o qual a porta de destino se relacionará a uma porta conhecida / registrada à qual
um aplicativo conhecido / registrado está associado.
Bits de código representam funções no TCP e incluem um bit urgente (URG) usado junto ao campo de
ponteiro urgente para notificações de dados urgentes direcionadas pelo usuário, reconhecimento de
octetos recebidos em associação com o campo de confirmação (ACK), a função push para
encaminhamento de dados (PSH) ), operações de reinício da ligação (RST), sincronização de números de
sequência (SYN) e indicação de que não é necessário receber mais dados do remetente (FIN). Bits de
código adicionais foram introduzidos na forma de sinalizadores ECN-Echo (ECE) e Redução de Janela de
Congestionamento (CWR), como um meio de suportar a notificação de congestionamento para
aplicativos TCP sensíveis a atrasos.
O nonce sum (NS) de notificação de congestionamento explícito (ECN) foi introduzido como uma
alteração de acompanhamento para eliminar o potencial abuso de ECN em que os dispositivos ao longo
do caminho de transmissão podem remover as marcas de congestionamento de ECN. O campo Opções
contém parâmetros que podem ser incluídos como parte do cabeçalho TCP, geralmente usados durante
o estabelecimento da conexão inicial, como no caso do valor do tamanho máximo do segmento (MSS)
que pode ser usado para definir o tamanho do segmento que o receptor deve usar. O tamanho do
cabeçalho TCP deve ser uma soma de 32 bits e, quando este não for o caso, o preenchimento de valores
0 será executado.
Estabelecimento de conexão TCP
Quando dois processos desejam se comunicar, cada TCP deve primeiro estabelecer uma conexão
(inicializar a sincronização de comunicação em cada lado). Quando a comunicação é concluída, a
conexão é encerrada ou fechada para liberar os recursos para outros usos. Como as conexões devem ser
estabelecidas entre hosts não confiáveis e sobre o domínio não confiável da Internet, um mecanismo de
handshake com números de seqüência baseados em relógio é usado para evitar a inicialização incorreta
das conexões.
Uma conexão progride através de uma série de estados durante o estabelecimento. O estado LISTEN
representa um TCP aguardando uma solicitação de conexão de qualquer TCP e porta remotas. O SYNSENT ocorre após o envio de uma solicitação de conexão e antes que uma solicitação correspondente
seja recebida. O estado SYN RECEIVED ocorre enquanto se espera por uma confirmação de confirmação
de solicitação de conexão, depois de ter recebido e enviado uma solicitação de conexão. O estado
ESTABLISHED ocorre após o handshake em que uma conexão aberta é criada e os dados recebidos
podem ser entregues ao usuário.
O mecanismo de handshake de três vias TCP começa com um número de sequência inicial sendo
gerado pelo TCP inicial como parte do processo de sincronização (SYN). O segmento TCP inicial é então
definido com o bit de código SYN e transmitido para o TCP de destino de IP pretendido para obter um
estado SYN-SENT. Como parte do processo de reconhecimento, o TCP emparelhado gerará um número
de sequência inicial próprio para sincronizar o fluxo TCP na outra direção. Este TCP de peering
transmitirá este número de sequência, bem como um número de confirmação que iguala o número de
sequência recebido incrementado por um, juntamente com os bits de código SYN e ACK no cabeçalho
TCP para alcançar um estado SYN RECEIVED.
A etapa final do handshake de conexão envolve o TCP inicial reconhecendo o número de sequência
do TCP emparelhado, definindo o número de confirmação para igualar o número de sequência recebido
mais um, junto com o bit ACK no cabeçalho TCP, permitindo que um estado ESTABLISHED seja alcançado
.
Processo de Transmissão TCP
Como a transmissão TCP é enviada como um fluxo de dados, cada octeto pode ser sequenciado e,
portanto, cada octeto pode ser reconhecido. O número de confirmação é usado para conseguir isso
respondendo ao remetente como confirmação de recebimento de dados, fornecendo assim
confiabilidade do transporte de dados. No entanto, o processo de reconhecimento é cumulativo, o que
significa que uma cadeia de octetos pode ser reconhecida por uma única confirmação, informando à
fonte o número de sequência que segue imediatamente o número de sequência que foi recebido com
sucesso.
No exemplo, um número de bytes (octetos) são transmitidos juntos antes que a confirmação TCP seja
dada. Se um octeto não for transmitido ao destino, a sequência de octetos transmitidos será apenas
reconhecida até ao ponto em que ocorreu a perda. A confirmação resultante refletirá o octeto que não
foi recebido para reiniciar a transmissão do ponto no fluxo de dados no qual o octeto foi perdido.
A capacidade de acumular múltiplos octetos juntos antes de uma confirmação permite que o TCP
opere com muito mais eficiência, no entanto é necessário um equilíbrio para garantir que o número de
octetos enviados antes de uma confirmação não seja excessivo, pois se um octeto não for recebido,
todo o fluxo de octetos do ponto da perda deve ser retransmitido.
Controle de Fluxo TCP
O campo da janela TCP fornece um meio de controle de fluxo que controla a quantidade de dados
enviados pelo remetente. Isso é obtido retornando uma "janela" com cada segmento TCP para o qual o
campo ACK está definido, indicando um intervalo de números de seqüência aceitáveis além do último
segmento recebido com êxito. A janela indica o número permitido de octetos que o remetente pode
transmitir antes de receber mais permissão.
No exemplo, a transmissão TCP do host A para o servidor A contém o tamanho atual da janela para o
host A. O tamanho da janela para o servidor A é determinado como parte do handshake, que baseado
na transmissão pode ser assumido como 2048. o tamanho da janela foi recebido, uma confirmação será
retornada, relativa ao número de bytes recebidos, mais um. Depois disso, o host A continuará
transmitindo o próximo lote de dados.
Um tamanho de janela TCP de 0 efetivamente negará o processamento de segmentos, com exceção
dos segmentos em que os bits de código ACK, RST e URG são definidos para segmentos de entrada.
Onde existe um tamanho de janela 0, o remetente ainda deve verificar periodicamente o status do
tamanho da janela do recebimento do TCP para garantir que qualquer alteração no tamanho da janela
seja efetivamente relatada, o período de retransmissão é geralmente de dois minutos. Quando um
remetente envia segmentos periódicos, o TCP receptor ainda deve confirmar com um anúncio de
número de sequência do tamanho atual da janela 0.
Terminação de Conexão TCP
Como parte do processo de terminação da conexão TCP, vários estados são definidos através dos
quais o TCP fará a transição. Esses estados incluem FIN-WAIT-1, que representa a espera por uma
solicitação de terminação de conexão (FIN) do TCP remoto, ou uma confirmação de uma solicitação de
término de conexão que foi enviada anteriormente. O FIN-WAIT-2 representa a espera por uma
solicitação de término de conexão do TCP remoto, que geralmente fará a transição para um estado
TIME-WAIT. Um estado CLOSE-WAIT indica a espera por uma solicitação de finalização de conexão
definida localmente, geralmente quando o aplicativo de um servidor está em processo de fechamento.
O estado LAST-ACK representa aguardar um reconhecimento da solicitação de término de conexão
enviada anteriormente ao TCP remoto (que inclui uma confirmação de sua solicitação de finalização de
conexão). Finalmente, ocorre um estado TIME-WAIT e aguarda o tempo suficiente para garantir que o
TCP remoto recebeu o reconhecimento de sua solicitação de finalização de conexão. Esse período é
gerenciado pelo timer MSL (Max Segment Lifetime) que define um período de espera de 2 minutos.
Após um período de espera igual a duas vezes o MSL, a conexão TCP é considerada fechada / finalizada.
User Datagram Protocol
O User Datagram Protocol, ou UDP, representa uma alternativa ao TCP e aplicado onde TCP é
encontrado para atuar como um mecanismo de transporte ineficiente, principalmente no caso de
tráfego altamente sensível a atraso. Onde o TCP é considerado um segmento, o UDP é reconhecido
como uma forma de datagrama da Unidade de Dados de Protocolo (PDU), para a qual um datagrama
pode ser entendido como uma entidade independente de dados contendo informação suficiente para
ser roteada a partir da fonte. ao sistema final de destino sem depender de trocas anteriores entre os
sistemas finais de origem e de destino e a rede de transporte, conforme definido na RFC 1594. Com
efeito, isso significa que o tráfego UDP não exige o estabelecimento de uma conexão antes do envio dos
dados.
A estrutura simplificada e a operação do UDP torna-o ideal para programas aplicativos enviarem
mensagens para outros programas, com um mínimo de mecanismo de protocolo, como no caso de
confirmações e janelas, por exemplo, conforme encontrado nos segmentos TCP. Em contrapartida, o
UDP não garante a transmissão de dados nem a proteção contra a duplicação de datagramas.
Formato de Datagrama UDP
O cabeçalho UDP fornece uma abordagem minimalista para a camada de transporte, implementando
apenas uma construção básica para ajudar a identificar a porta de destino para a qual o tráfego baseado
em UDP é destinado, bem como um campo de comprimento e um valor de soma de verificação que
garante a integridade do cabeçalho UDP . Além disso, a sobrecarga mínima atua como um meio ideal
para permitir que mais dados sejam transportados por pacote, favorecendo o tráfego em tempo real,
como comunicações de voz e vídeo, em que o TCP fornece uma sobrecarga de 20 bytes e mecanismos
que influenciam atrasos, como no caso de confirmações , no entanto, a falta de tais campos significa que
a entrega de datagramas não é garantida.
Comportamento de Encaminhamento UDP
Como a transmissão de datagrama UDP não é enviada como um fluxo de dados, a transmissão de
dados é suscetível à duplicação de datagramas. Além disso, a falta de números de sequência dentro do
UDP significa que a entrega de transmissão de dados por vários caminhos provavelmente será recebida
no destino em uma ordem incorreta e não seqüenciada.
Quando dados de fluxo são transportados por UDP, como no caso de aplicativos de voz e vídeo,
mecanismos adicionais de protocolo podem ser aplicados para aprimorar a capacidade do UDP, como
no caso do protocolo de transporte em tempo real (RTP) que ajuda a suportar a incapacidade do UDP,
fornecendo um mecanismo de sequenciamento usando registros de data e hora para manter a ordem
de tais fluxos de dados de áudio / vídeo, suportando efetivamente o comportamento orientado à
conexão parcial sobre um protocolo de transporte sem conexão.
Comportamento de Encaminhamento UDP
O comportamento geral de encaminhamento de UDP é altamente benéfico para atrasar o tráfego
sensível, como voz e vídeo. Deve ser entendido que, quando se trata de um protocolo de transporte
orientado para conexão, os dados perdidos exigiriam replicação após um período de atraso, durante o
qual é esperada uma confirmação pelo remetente. Caso o reconhecimento não seja recebido, os dados
devem ser retransmitidos.
Para fluxos de dados sensíveis a atrasos, isso resultaria em transmissões de áudio e vídeo
incompreensíveis devido a atraso e duplicação, como resultado da retransmissão do ponto em que os
reconhecimentos são gerados. Nesses casos, a perda mínima do fluxo de dados é preferível à
retransmissão e, como tal, o UDP é selecionado como o mecanismo de transporte, em suporte ao
tráfego sensível a atrasos.
Resumo
1-Qual é o objetivo do campo de confirmação no cabeçalho TCP?
O campo de confirmação no cabeçalho TCP confirma o recebimento do segmento recebido pelo
processo TCP no destino. O número de seqüência no cabeçalho TCP do datagrama IP recebido é obtido e
incrementado por 1. Esse valor se torna o número de confirmação no cabeçalho TCP retornado e é
usado para confirmar o recebimento de todos os dados, antes de ser encaminhado junto com o
conjunto de bits do código ACK para 1, para o remetente original.
2-Quais bits de código TCP estão envolvidos em um handshake de três vias TCP?
O handshake de três vias envolve bits de código SYN e ACK para estabelecer e confirmar a conexão
entre os dois sistemas finais, entre os quais a transmissão de datagramas ocorrerá.
Prefácio
O conjunto de protocolos TCP / IP opera como uma coleção de regras para suportar o
encaminhamento de dados de ponta a ponta, junto com protocolos de camada inferior,
como aqueles definidos nos padrões IEEE 802. O conhecimento do ciclo de vida do
encaminhamento de dados permite uma compreensão mais profunda do
comportamento da rede IP para uma análise eficaz da operação da rede e a solução de
problemas de falhas de rede. Todo o processo de encapsulamento e decapsulação
representa, portanto, uma parte fundamental de todo o conhecimento do TCP / IP.
Objectivos
Após a conclusão desta seção, os formandos serão capazes de:


Explicar as etapas do processo para encapsulamento de dados e decapsulation.
Solucione problemas básicos de encaminhamento de dados.
Introdução ao cenário
O encaminhamento de dados pode ser definido coletivamente como local ou remoto para o qual o
processo de encaminhamento depende da aplicação da pilha de protocolos para obter transmissão de
ponta a ponta. Os sistemas finais podem fazer parte da mesma rede ou estar localizados em redes
diferentes, no entanto, o princípio geral de encaminhamento para permitir a transmissão entre hosts
segue um conjunto claro de protocolos que foram introduzidos como parte da unidade. O modo como
estes protocolos funcionam em conjunto deve ser reforçado, bem como a construção da relação entre
os protocolos TCP / IP de camada superior e os padrões de protocolo Ethernet baseados na camada de
ligação inferior.
Descoberta de caminho
Um sistema final que pretende encaminhar dados para um determinado destino deve determinar
inicialmente se é possível ou não alcançar o destino pretendido. Para conseguir isso, o sistema final deve
passar por um processo de descoberta de caminhos. Um sistema final deve ser entendido como capaz
de suportar a operação em todas as camadas, uma vez que sua função primária é como um host para
aplicativos. Em relação a isso, ele também deve ser capaz de suportar operações de camada inferior,
como roteamento e encaminhamento de camada de enlace (switching), a fim de ser capaz de
encaminhamento de dados de camada superior / aplicação. O sistema final, portanto, contém uma
tabela que representa a acessibilidade da camada de rede para a rede para a qual os dados da camada
superior são destinados.
Os sistemas finais geralmente estarão cientes da rede em que residem, mas podem estar sem um
caminho de encaminhamento nos casos em que a descoberta de rede remota não tenha sido alcançada.
No exemplo dado, o host A possui um caminho para a rede destinada através do endereço 'any network'
que foi brevemente introduzido como parte da seção de endereçamento IP. A tabela de
encaminhamento identifica que o tráfego deve ser encaminhado para o gateway como um próximo
salto através da interface associada ao endereço lógico de 10.1.1.1.
ARP
Após a descoberta de uma rota viável em direção à rede de destino pretendida, um próximo salto
físico também deve ser descoberto para facilitar o encaminhamento de quadros. O conjunto de
protocolos TCP / IP é responsável por determinar isso antes que o encapsulamento de pacotes possa
continuar. A etapa inicial envolve determinar se existe um caminho físico para o próximo salto
identificado como parte do processo de descoberta de caminho.
Isso requer que a tabela de cache ARP seja consultada para identificar se uma associação entre o
próximo salto pretendido e o caminho físico é conhecida. A partir do exemplo, pode-se ver que uma
entrada para o endereço de gateway do próximo salto está presente na tabela de cache do ARP. Onde
uma entrada não pode ser encontrada, o protocolo de resolução de endereços (ARP) deve ser iniciado
para executar a descoberta e resolver o caminho físico.
Encapsulamento TCP
Quando a descoberta de encaminhamento de caminho lógico e físico estiver concluída, é possível
que o encapsulamento de dados seja executado para uma transmissão bem-sucedida em redes
baseadas em IP / Ethernet. Os processos da camada superior em termos de criptografia e compactação
podem ser executados após o encapsulamento da camada de transporte, identificando as portas de
origem e destino pelas quais os dados da camada superior devem ser encaminhados.
No caso do TCP, os campos de seqüência e reconhecimento serão preenchidos, os bits de código
definidos conforme necessário com o bit ACK normalmente aplicado. O campo da janela será
preenchido com o tamanho atual da janela suportada, para o qual o host notificará o buffer de dados
máximo que pode ser suportado antes que os dados sejam reconhecidos.
Os valores que representam os campos TCP são incluídos como parte da soma de verificação, que é
calculada usando um processo de cálculo de elogios, para garantir que a integridade do segmento TCP
seja mantida quando o cabeçalho TCP for recebido e processado no destino final. No caso de operações
básicas de código TCP, os dados da camada superior nem sempre podem ser transportados no
segmento, como no caso de sincronização de conexão e confirmações para dados recebidos.
Encapsulamento IP
Após o encapsulamento da camada de transporte, geralmente é necessário que as instruções sejam
fornecidas, detalhando como a transmissão em uma ou mais redes deve ser alcançada. Isso envolve
listar a fonte de IP, bem como o destino final para o qual o pacote é destinado. Os pacotes IP são
geralmente limitados a um tamanho de 1500 bytes por Ethernet, incluindo os cabeçalhos da camada de
rede e transporte, bem como quaisquer dados da camada superior. O tamanho inicial do pacote será
determinado pela Ethernet como a unidade máxima de transmissão, ou MTU, à qual os pacotes estarão
em conformidade, portanto, a fragmentação não ocorrerá na origem.
No caso em que a MTU muda ao longo do caminho de encaminhamento, somente então a
fragmentação será executada. O campo Tempo de vida será preenchido com um valor definido,
dependendo do sistema, nos roteadores da série ARG3, isso é definido com um valor inicial de 255. O
campo de protocolo é preenchido com base no protocolo encapsulado antes do IP. Nesse caso, o
protocolo em questão é o TCP para o qual o cabeçalho IP preencherá o campo de protocolo com um
valor de 0x06 como instrução para o próximo processamento de cabeçalho. O endereçamento IP de
origem e destino refletirá a origem e o destino final.
Enquadramento Ethernet
O encapsulamento da camada de enlace baseia-se nos padrões Ethernet IEEE 802.3 para transmissão
física de dados de camada superior em redes Ethernet. O encapsulamento nas camadas inferiores é
realizado determinando inicialmente o tipo de quadro que é usado.
Onde o protocolo da camada superior é representado por um valor de tipo maior que 1536 (0x0600)
como é o caso com IP (0x0800), o tipo de quadro Ethernet II é adotado. O campo de tipo do cabeçalho
do quadro Ethernet II é preenchido com o valor do tipo 0x0800 para refletir que o próximo protocolo a
ser processado após o processamento do quadro será IP. O endereço MAC de destino determina o
próximo salto físico, que neste caso representa o gateway de rede.
Encaminhamento de quadros
Como parte da operação da camada de enlace, é imperativo garantir que o meio de transmissão
esteja livre de sinais no domínio de colisão compartilhado. O host primeiro ouvirá qualquer tráfego na
rede como parte do CSMA / CD e, se a linha permanecer limpa, se preparará para transmitir os dados. É
necessário que a interface física de recebimento seja informada do quadro de entrada, de modo a evitar
perda de valores de bit iniciais que tornariam os quadros iniciais incompletos. Os quadros são, portanto,
precedidos por um valor de 64 bits que indica o destino da camada de enlace da chegada iminente do
quadro.
Os 56 bits iniciais representam um padrão alternado de 1, 0 chamado de preâmbulo e são seguidos
imediatamente por um octeto entendido como o Delimitador de Início do Frame (SFD). Os dois bits
finais do SFD se desviam de um padrão alternado para uma combinação de 1,1 bits que notifica que os
bits que seguem representam os primeiros valores de bit do endereço MAC de destino e, portanto, o
início do cabeçalho do quadro.
Processamento de quadros
Como um quadro é recebido pelo destino da camada de enlace, ele deve passar por várias
verificações para determinar sua integridade e validade. Se o quadro foi transmitido através de uma
rede Ethernet compartilhada, outras estações finais também podem receber uma instância do quadro
transmitido; entretanto, como o endereço MAC de destino do quadro é diferente do endereço MAC da
estação final, o quadro será descartado.
Os quadros recebidos no destino pretendido executarão a verificação de erros calculando os valores
de elogio com base nos campos de quadros atuais e comparando-os com o valor no campo FCS (Frame
Check Sequence). Se os valores não corresponderem, o quadro será descartado. O recebimento de
sistemas intermediários e finais que recebem quadros válidos precisará determinar se o quadro é
destinado à sua interface física comparando o endereço MAC de destino com o endereço MAC da
interface (ou dispositivo em alguns casos).
Se houver uma correspondência, o quadro será processado e o campo de tipo será usado para
determinar o próximo cabeçalho a ser processado. Depois que o próximo cabeçalho é determinado, o
cabeçalho e o trailer do quadro são descartados.
Processamento de Pacotes
O pacote é recebido pela camada de rede e, em particular, por IP, ponto no qual o cabeçalho IP é
processado. Existe um valor de soma de verificação em cada camada da pilha de protocolos para manter
a integridade em todas as camadas para todos os protocolos. O IP de destino é usado para determinar
se o pacote atingiu seu destino final. No entanto, o gateway determina que esse não é o caso, pois o IP
de destino e o IP pertencente ao gateway não correspondem.
O gateway deve, portanto, determinar o curso de ação a ser tomado com relação ao roteamento do
pacote para uma interface alternativa e encaminhar o pacote para a rede para a qual ele é destinado. O
gateway deve, em primeiro lugar, garantir que o valor TTL não tenha atingido 0 e que o tamanho do
pacote não exceda o valor máximo da unidade de transmissão para o gateway. No caso de o pacote ser
maior que o valor MTU do gateway, a fragmentação geralmente será iniciada.
Uma vez localizado o destino de um pacote na tabela de encaminhamento do gateway, o pacote será
encapsulado em um novo cabeçalho de quadro que consiste em novos endereços MAC de origem e
destino para o segmento da camada de link, sobre os quais o quadro resultante será encaminhado.
sendo mais uma vez transmitido para o próximo salto físico. Quando o próximo salto físico não for
conhecido, o ARP será novamente usado para resolver o endereço MAC.
Decapsulação de quadros
Os quadros recebidos no destino final determinarão inicialmente se o quadro chegou ao local
pretendido. O exemplo mostra dois servidores em uma rede Ethernet compartilhada sobre os quais
ambos recebem uma cópia do quadro.
O quadro é finalmente descartado pelo servidor B, pois o valor MAC de destino e o endereço MAC da
interface do servidor B não coincidem. No entanto, o Servidor A recebe com êxito o quadro e aprende
que os campos MAC são os mesmos, a integridade do quadro com base no FCS também pode ser
entendida como correta. O quadro usará o campo type para identificar 0x0800 como o próximo
cabeçalho, após o qual o cabeçalho e o trailer do quadro são descartados e o pacote é recebido pelo IP.
Decapsulação de Pacotes
Ao atingir o destino final, o cabeçalho do pacote IP deve facilitar vários processos. O primeiro inclui
validar a integridade do cabeçalho do pacote através do campo de soma de verificação, aplicando
novamente uma comparação de valor de complemento com base em uma soma dos campos de
cabeçalho IP. Onde estiver correto, o cabeçalho IP será usado para determinar se o IP de destino
corresponde ao endereço IP da estação final atual, o que neste caso é verdadeiro.
Se alguma fragmentação ocorreu durante a transmissão entre a origem e o destino, o pacote deve
ser remontado neste momento. O campo de identificação coletará os fragmentos pertencentes a uma
única fonte de dados juntos, o deslocamento determinará a ordem e o campo flags especificará quando
a remontagem deverá começar, uma vez que todos os fragmentos devem ser recebidos primeiro e um
fragmento com um sinalizador 0 será reconhecido como o último fragmento a ser recebido.
Um temporizador irá então prosseguir durante o qual a remontagem deve ser completada, caso a
remontagem falhe neste período de tempo, todos os fragmentos serão descartados. O campo de
protocolo será usado para identificar o próximo cabeçalho para processamento e o cabeçalho do pacote
será descartado. Deve-se notar que o próximo cabeçalho nem sempre pode ser um cabeçalho de
camada de transporte, um exemplo claro de onde isso pode ser entendido é no caso de ICMP, que é
entendido como também um protocolo de camada de rede com um valor de campo de protocolo 0x01 .
Decapsulação do Segmento
No caso em que um cabeçalho de pacote é descartado, o segmento ou datagrama resultante é
passado para a camada de transporte para o processamento baseado em aplicativo para aplicativo. A
informação do cabeçalho é recebida neste caso por TCP (0x06).
No exemplo, pode ser entendido que uma conexão TCP já foi estabelecida e o segmento representa
uma confirmação para a transmissão do tráfego HTTP do servidor HTTP para o host de reconhecimento.
O host é representado pela porta 1027 como um meio de distinguir entre várias conexões HTTP que
podem existir entre o mesmo host de origem e o servidor de destino. Ao receber essa confirmação, o
servidor HTTP continuará encaminhando para o host dentro dos limites do tamanho da janela do host.
Resumo
1-Quais informações são necessárias antes que os dados possam ser encapsulados?
Antes do encapsulamento e encaminhamento de dados, uma fonte deve ter conhecimento do
destino IP ou de um endereço de encaminhamento equivalente, como um endereço padrão para o qual
os dados podem ser encaminhados. Além disso, é necessário que o endereço de encaminhamento seja
associado a um próximo salto físico para o qual os dados possam ser encaminhados dentro da rede
local.
2-O que acontece quando um quadro é encaminhado para um destino para o qual não é destinado?
Qualquer quadro que é recebido por um gateway ou sistema final (host) para o qual não é destinado,
é descartado posteriormente, após a inspeção do endereço MAC de destino no cabeçalho do quadro.
3-Como os dados no quadro finalmente atingem o aplicativo para o qual são destinados?
A entrega de dados depende do número da porta de destino nos cabeçalhos TCP e UDP para
identificar o aplicativo para o qual os dados são destinados. Após a análise desse valor pelo protocolo
TCP ou UDP, os dados são encaminhados.
4-Quando várias sessões do mesmo aplicativo estão ativas (por exemplo, vários navegadores da
Web), como os dados de retorno alcançam a sessão correta?
A porta de origem do cabeçalho TCP para o tráfego HTTP distingue entre as diferentes sessões do
aplicativo que estão ativas. O retorno do tráfego HTTP do servidor HTTP é capaz de identificar cada
sessão individual do navegador da Web com base nesse número de porta de origem. Por exemplo, a
porta de origem de duas solicitações separadas de tráfego HTTP originadas da origem de IP 10.1.1.1
pode ter origem nas portas de origem 1028 e 1035, no entanto, a porta de destino em ambos os casos
permanece como porta 80, o servidor HTTP.
Prefácio
À medida que mais e mais estações finais na forma de dispositivos host, impressoras
conectáveis a rede, outros produtos similares são introduzidos na rede local, um
aumento na densidade de dispositivos resulta em uma limitação em termos de interfaces
de porta, juntamente com problemas de colisões em qualquer topologia de rede
compartilhada. A mudança evoluiu como o meio para apoiar esse crescimento. O VRP é
usado nos produtos da Huawei como um meio de configurar e operar esses dispositivos
gerenciados para os quais a familiaridade e as habilidades práticas devem ser
desenvolvidas.
Objectivos
Após a conclusão desta seção, os formandos poderão:



Explicar o papel que os Switches desempenham nas redes Ethernet.
Descrever a diferença entre domínios de colisão e broadcast.
Explicar o funcionamento geral da VRP nos produtos da Huawei.
Aplicação de dispositivos de comutação (Switches)
A rede Ethernet até agora foi entendida como uma coleção de dispositivos que se comunicam através
de mídia compartilhada, como o 10Base2, através da qual os hosts podem se comunicar com hosts
vizinhos ou sistemas finais. Foi determinado que a rede Ethernet é uma rede contenciosa, o que significa
que os hosts devem competir por acesso à mídia, o que se torna cada vez mais limitado à medida que
mais e mais dispositivos são conectados através dessa mídia compartilhada; o que causa limitações
adicionais na escalabilidade e o potencial crescente de colisões.
Como resultado, a necessidade de detecção de colisão na forma de CSMA / CD está sempre presente
em tais redes Ethernet compartilhadas. Após a adoção de mídia comutada, como a de 100BaseT, a
transmissão e a recepção de dados ficaram isoladas dentro dos canais (pares de fios), permitindo que o
potencial de colisão ocorra e seja eliminado. Esse meio como uma forma de Ethernet não compartilhada
fornece apenas um meio de comunicação ponto-a-ponto, no entanto, usado em conjunto com outros
dispositivos, como hubs, uma rede Ethernet compartilhada é mais uma vez possível, juntamente com o
potencial de colisões.
O switch foi introduzido como parte da evolução da ponte e é capaz de dividir o domínio de colisão
compartilhado em vários domínios de colisão. Os domínios de colisão operam como uma coleção de
links ponto-a-ponto para os quais a ameaça de colisões é removida e o tráfego da camada de enlace é
isolado, para permitir taxas de transmissão mais altas que otimizam o fluxo de tráfego na rede Ethernet.
Aplicação de Dispositivos de Roteamento (Roteadores)
Um domínio de broadcast é capaz de ser constituído por um único, ou múltiplos domínios de colisão,
e qualquer transmissão de broadcast está contida dentro do limite de um domínio de difusão. A borda
do limite de um domínio de broadcast é tipicamente definida por um gateway que atua como o meio,
através do qual outras redes são alcançáveis, e restringirá o encaminhamento de qualquer tráfego de
broadcast além da interface na qual a transmissão é recebida.
Roteadores são sinônimos do termo gateway para o qual os dois são freqüentemente usados de
forma intercambiável. Uma rede IP única geralmente pode ser entendida como um domínio de
broadcast, que se refere ao escopo de um segmento da camada de enlace. Em geral, os roteadores são
responsáveis pelo roteamento de datagramas da Internet (pacotes IP) para um determinado destino
com base no conhecimento de um endereço de encaminhamento da rede de destino, encontrado em
uma tabela de encaminhamento gerenciada internamente.
Introdução ao VRP
A plataforma de roteamento versátil (VRP) representa a base de muitos produtos da Huawei,
incluindo roteadores e switches. Seu design passou por muitas evoluções para permitir a melhoria
contínua do gerenciamento e encaminhamento de dados. O projeto arquitetônico resultou em
modularidade cada vez maior que permite um maior desempenho geral. A configuração, o
gerenciamento e o monitoramento de dispositivos usando o VRP são baseados em um sistema de linha
de comando padronizado e hierárquico, para o qual uma familiaridade deve ser desenvolvida para
suportar a navegação e a operação de produtos Huawei gerenciados usando o software VRP.
Linha do Tempo VRP
A familiaridade com as versões do sistema operacional de rede (NOS) da VRP ajuda a garantir que a
versão atualmente em uso esteja atualizada e ofereça suporte a determinados recursos que podem ser
necessários em uma rede corporativa. A tendência geral para a maioria dos dispositivos Huawei é operar
usando a versão 5.x do VRP atualmente, onde x pode variar dependendo do produto e da versão do
VRP. A versão 8 da VRP é uma revisão recente da VRP construída com uma arquitetura altamente
refinada para a próxima geração de tecnologias e construída em torno da necessidade de maior
eficiência, mas não está presente em todos os produtos da Huawei.
Estabelecendo Conectividade
Os roteadores corporativos da série AR (AR) incluem o AR150, AR200, AR1200, AR2200 e AR3200.
Eles são a próxima geração de produtos Huawei e oferecem funcionalidade de roteamento, comutação,
sem fio, voz e segurança. As séries AR estão posicionadas entre a rede corporativa e uma rede pública,
funcionando como um gateway de entrada e saída para dados transmitidos entre as duas redes. A
implantação de vários serviços de rede sobre os roteadores da série AR reduz os custos de operação e
manutenção (O & M), bem como os custos associados ao estabelecimento de uma rede corporativa. Os
roteadores da série AR de diferentes especificações podem ser usados como gateways com base na
capacidade do usuário de uma empresa.
O Switch Ethernet da Série Sx7 oferece funcionalidade de transporte de dados e foi desenvolvido pela
Huawei para atender aos requisitos de acesso confiável e transmissão de alta qualidade de múltiplos
serviços na rede da empresa. Essa série de switches está posicionada para a operação de acesso ou de
camada de agregação na rede corporativa e fornece uma grande capacidade de comutação, alta
densidade de portas e recursos de encaminhamento de pacotes econômicos.
O gerenciamento dos roteadores da série ARG3 e da série Sx7 de switches pode ser alcançado
através do estabelecimento de uma conexão com a interface do console e, no caso do AR2200, também
é possível estabelecer uma conexão através de uma interface Mini USB.
Acesso ao dispositivo via console
Um cabo de console é usado para depurar ou manter um dispositivo estabelecido localmente, como
um roteador ou um comutador, e fará a interface com a porta do console de tais dispositivos. A
interface do console do switch da série S5700 e do roteador AR2200 é uma conexão do tipo RJ-45,
enquanto a interface na qual uma conexão de host é feita, representa uma forma RS-232 do conector
serial. Frequentemente, esses conectores seriais não estão mais presentes em dispositivos mais
recentes que podem ser usados para estabelecer conectividade, como laptops e, portanto, uma
conversão de RS-232 para USB é executada. Para a maioria dos dispositivos de desktop, no entanto, uma
conexão de console baseada em RS-232 pode ser estabelecida para uma porta COM no dispositivo host.
Procedimentos de configuração de acesso ao console
O estabelecimento do console é configurado por meio de um dos vários programas de emulação de
terminal disponíveis. Os usuários do Windows geralmente aplicam o aplicativo HyperTerminal,
conforme mostrado no exemplo, para interagir com o sistema operacional VRP. Após a especificação da
porta COM que deve ser usada para estabelecer a conexão, as configurações de porta devem ser
definidas.
O exemplo define as configurações de porta que devem ser aplicadas, para as quais o botão padrão
de restauração será reatribuído automaticamente caso alguma alteração tenha sido feita nessas
configurações. Uma vez que o botão OK é pressionado, uma sessão será estabelecida com o VRP do
dispositivo. Se o dispositivo estiver operando usando as configurações padrão de fábrica, o usuário será
solicitado a fornecer uma senha, que será designada como a senha de login padrão para futuras
tentativas de conexão.
Acesso ao roteador via mini USB
O roteador Huawei AR2200, suporta adicionalmente os meios para conectividade de terminal através
de uma conexão USB. Existe uma interface mini USB tipo B no painel frontal do roteador da série
AR2200, através da qual os hosts podem estabelecer uma conexão baseada em USB como uma
alternativa serial à da RS-232.
Instalação do Mini Driver USB
Uma pequena variação no processo de configuração requer que o mini USB estabeleça drivers para
permitir a funcionalidade USB.
O mini driver USB pode ser obtido em http://support.huawei.com/enterprise e sob o caminho
Support> Software> Enterprise Networking> Roteador> Access Router> AR> AR2200, escolha a opção
relevante de versão e patch do VRP e baixe o arquivo rotulado AR & SRG_MiniUSB_driver.zip. Deve-se
notar que o mini-driver USB suporta apenas os sistemas operacionais Windows XP, Windows Vista e
Windows 7.
Ao atualizar o software do dispositivo ou instalar um patch, o valor do hash MD5 pode ser verificado
para confirmar a validade do software. Para evitar que o software seja modificado ou substituído, é
recomendável que você realize essa operação.
A instalação requer que o usuário primeiro clique duas vezes no arquivo de instalação do driver no PC
e clique em Avançar. Em segundo lugar, selecione Aceito os termos do contrato de licença e clique em
Avançar. Clique no botão Alterar para alterar o diretório do driver, se necessário, e clique em Avançar.
Clique em Instalar e descompacte o driver. Quando o sistema concluir a descompactação do driver,
clique em Concluir.
Os usuários devem encontrar a pasta DISK1 no diretório do driver especificado e clicar duas vezes no
arquivo setup.exe. Após a abertura de uma segunda janela de instalação, clique em Avançar. Os usuários
devem selecionar novamente Eu aceito os termos do contrato de licença e clique em Avançar para
instalar o driver. Depois de concluído, clique em Concluir para concluir a instalação do driver. Clique com
o botão direito em Meu Computador e escolha Gerenciar> Gerenciador de Dispositivos> Portas (COM &
LPT). O sistema deve exibir o dispositivo TUSB3410 indicando o driver que foi instalado.
Procedimentos de Configuração de Acesso Mini USB
Assim como na conexão do console RS-232, a conexão serial Mini USB requer o estabelecimento de
um software de emulação de terminal para permitir a interação com a linha de comando do VRP.
Use o software de emulação de terminal para efetuar login no dispositivo através da porta mini USB
(para a qual o HyperTerminal do Windows é usado como exemplo). No PC host, inicie o aplicativo
HyperTerminal, para o qual o local pode variar para cada versão do Windows, e crie uma conexão
fornecendo um nome de conexão de terminal adequado e clique em OK. Selecione a porta de conexão
relevante (COM) e defina os parâmetros de comunicação para a porta serial do PC. Esses parâmetros
devem corresponder aos valores padrão definidos ao pressionar o botão Restaurar padrões.
Depois de pressionar Enter, as informações do console são exibidas solicitando uma senha de login.
Digite uma senha e uma senha de confirmação relevantes e o sistema salvará a senha.
Resumo
1-Se uma transmissão Ethernet ocorrer, como no caso do ARP, para o qual o destino é local, qual será
a resposta do gateway?
Qualquer transmissão gerada por um sistema final dentro de uma rede local será encaminhada para
todos os destinos. Depois que um quadro é transmitido para um roteador ou dispositivo que atua como
um gateway para a rede, o quadro será analisado e, caso seja determinado que o destino é para um host
definido localmente diferente do gateway, o quadro será eliminado. Isso, como tal, define o limite de
qualquer domínio de broadcast.
2-Quais versões do VRP são atualmente suportadas pelos produtos Huawei?
A versão 5 da VRP é suportada por um grande número de produtos atuais da Huawei, enquanto os
produtos de ponta podem ser suportados pela versão 8 da VRP.
Prefácio
A implementação de uma técnica de interface gráfica requer um nível de
conhecimento e capacidade na interface da linha de comando do VRP e na configuração
das configurações do sistema. A principal arquitetura de linha de comando é, portanto,
introduzida como parte desta seção, juntamente com a navegação, funções de ajuda e
configurações comuns do sistema devem ser entendidas para uma configuração bemsucedida de qualquer outro dispositivo gerenciado por VRP.
Objetivos
Após a conclusão desta seção, os formandos serão capazes de:

Navegar pela interface de linha de comando do VRP.

Configurar configurações básicas do sistema VRP.

Executar a configuração e o gerenciamento básicos da interface do VRP.
Iniciando um dispositivo
O processo de inicialização é a fase inicial de operação para qualquer administrador ou engenheiro
que acesse produtos baseados na Huawei que operam com VRP. A tela de inicialização informa sobre os
procedimentos de operação de inicialização do sistema, bem como a versão da imagem VRP atualmente
implementada no dispositivo, junto com o local de armazenamento de onde ela está carregada. Após o
procedimento de inicialização inicial, uma opção para configuração automática das configurações
iniciais do sistema solicita uma resposta, para a qual o administrador pode optar por seguir as etapas de
configuração ou configurar manualmente os parâmetros básicos do sistema. O processo de configuração
automática pode ser finalizado selecionando a opção yes no prompt fornecido.
Visualizações de linha de comando da CLI
A estrutura de comando hierárquico do VRP define várias visualizações de comando que controlam
os comandos para os quais os usuários podem executar operações. A interface da linha de comandos
possui várias visualizações de comandos, das quais exibições comuns foram introduzidas no exemplo.
Cada comando é registrado para ser executado em uma ou mais visualizações de comandos, e tais
comandos podem ser executados somente após a inserção da visualização de comando apropriada. A
visualização de comando inicial da VRP é a Visualização do Usuário, que opera como uma visualização de
comando de observação para observar os status dos parâmetros e informações estatísticas gerais. Para
a aplicação de alterações nos parâmetros do sistema, os usuários devem entrar na Visualização do
sistema. Vários níveis de subcomando também podem ser encontrados, na forma de visualizações de
interface e protocolo, por exemplo, em que tarefas no nível do sub sistema podem ser executadas.
As exibições da linha de comando podem ser determinadas com base nos parênteses e nas
informações contidas nesses parênteses. A presença de divisas identifica que o usuário está atualmente
na Visualização do Usuário, enquanto os colchetes mostram que ocorreu uma transição para a
Visualização do Sistema.
Funções CLI
O exemplo demonstra uma seleção de teclas de atalho comuns definidas pelo sistema que são
amplamente usadas para simplificar o processo de navegação dentro da interface de linha de comando
do VRP. Comandos adicionais são os seguintes:
CTRL + B move o cursor de volta um caractere.
CTRL + D exclui o caractere onde o cursor está localizado.
CTRL + E move o cursor para o final da linha atual.
CTRL + F move o cursor para frente um caractere.
CTRL + H exclui o caractere no lado esquerdo do cursor.
CTRL + N exibe o próximo comando no buffer de comando histórico.
CTRL + P exibe o comando anterior no buffer de comando histórico.
CTRL + W exclui a palavra no lado esquerdo do cursor.
CTRL + X exclui todos os caracteres no lado esquerdo do cursor.
CTRL + Y exclui todos os caracteres no lado direito do cursor.
ESC + B move o cursor uma palavra de volta.
ESC + D apaga a palavra no lado direito do cursor.
ESC + F move o cursor para frente uma palavra.
Funções de tecla adicionais podem ser usadas para executar operações similares, a operação de
backspace tem o mesmo comportamento que usar CTRL + H para excluir um caractere à esquerda do
cursor. As teclas de cursor à esquerda (←) e à direita (→) podem ser usadas para executar a mesma
operação que as funções das teclas de atalho CTRL + B e CTRL + F. A tecla do cursor para baixo (↓)
funciona da mesma maneira que Ctrl + N, e a tecla do cursor para cima (↑) atua como uma alternativa à
operação CTRL + P.
Além disso, as funções de linha de comando suportam um meio de preenchimento automático em
que uma palavra de comando é exclusiva. O exemplo demonstra como a interface da palavra de
comando pode ser concluída automaticamente pela conclusão parcial da palavra até um ponto em que
o comando é exclusivo, seguido pela tecla tab que fornecerá a conclusão automática da palavra de
comando. Onde a palavra de comando não é única, a função tab irá percorrer as opções de conclusão
possíveis cada vez que a tecla tab for pressionada.
Recursos da Ajuda do CLI
Existem duas formas de recurso de ajuda que podem ser encontradas no VRP, estas vêm na forma de
ajuda parcial e funções de ajuda completas. Ao inserir uma sequência de caracteres seguida
diretamente por um ponto de interrogação (?), O VRP implementará a função de ajuda parcial para
exibir todos os comandos que começam com essa sequência de caracteres. Um exemplo disso é
demonstrado. No caso do recurso de ajuda completa, um ponto de interrogação (?) Pode ser colocado
na linha de comando em qualquer exibição para exibir todos os nomes de comandos possíveis,
juntamente com as descrições de todos os comandos pertencentes a essa visão. Além disso, o recurso
de ajuda completo oferece suporte à entrada de um comando seguido por um ponto de interrogação (?)
Separado por um espaço. Todas as palavras-chave associadas a esse comando, bem como descrições
simples, são exibidas.
Configuração básica do dispositivo CLI
Para a maioria das indústrias, é provável que existam vários dispositivos, cada um dos quais precisa
ser gerenciado. Como tal, uma das primeiras tarefas importantes do comissionamento do dispositivo
envolve a configuração de nomes de dispositivos para identificar exclusivamente cada dispositivo na
rede. O parâmetro de nome do sistema no roteador da série AR2200 é configurado como Huawei por
padrão, para a série S5720 do switch, o nome do sistema padrão é HUAWEI. A implementação do nome
do sistema entra em vigor imediatamente após a conclusão da configuração.
Configurações do relógio CLI
O relógio do sistema reflete o registro de data e hora do sistema e pode ser configurado para
obedecer às regras de qualquer região. O relógio do sistema deve estar configurado corretamente para
garantir a sincronização com outros dispositivos e é calculado usando a fórmula: Tempo Universal
Coordenado (UTC) + deslocamento do fuso horário + deslocamento do horário de verão. O comando
datetime do clock é usado para definir o clock do sistema seguindo a fórmula HH: MM: SS AAAA-MMDD. No entanto, deve-se observar que, se o fuso horário não foi configurado ou está definido como 0, a
data e a hora definidas são consideradas UTC, portanto, recomenda-se que o fuso horário do relógio
seja definido antes de configurar a hora e a data do sistema.
A configuração do fuso horário local é obtida usando o comando timezone do relógio e é
implementada com base no nome do fuso horário {add | menos} a fórmula de deslocamento, em que o
valor de adição indica que a hora do nome do fuso horário é igual à hora UTC mais o deslocamento de
tempo e menos indica que a hora do fuso horário é igual à hora UTC menos a compensação de tempo .
Determinadas regiões exigem que o horário de verão seja implementado para manter a sincronização
do relógio com qualquer alteração no fuso horário do relógio durante períodos específicos do ano. O
VRP é capaz de suportar recursos de horário de verão para datas e datas fixas que são determinadas
com base em um conjunto de regras predeterminadas. Por exemplo, o horário de verão no Reino Unido
ocorre no último domingo de março e no último domingo de outubro, portanto, as regras podem ser
aplicadas para garantir que as alterações ocorram com base nessas datas flutuantes.
Mensagens do cabeçalho CLI
O comando de cabeçalho fornece um meio para exibir notificações durante a conexão a um
dispositivo. O cabeçalho de login indica um cabeçalho que é exibido quando a conexão do terminal é
ativada e o usuário está sendo autenticado pelo dispositivo. O cabeçalho do shell indica um cabeçalho
que é exibido quando a sessão é configurada, depois que o usuário efetua login no dispositivo. As
informações do cabeçalho podem ser aplicadas como uma cadeia de texto ou recuperadas de um
arquivo especificado. Onde uma cadeia de texto é usada, um caractere inicial e final deve ser definido
como um marcador para identificar a sequência de informações, onde, no exemplo, o “caractere define
a sequência de informações. A string representa um valor no intervalo de 1 a 2000 caracteres, incluindo
espaços. O comando de cabeçalho baseado em informações segue o formato do cabeçalho {login |
shell} texto de informação onde a informação representa a string de informação, incluindo marcadores
de início e fim.
No caso de um cabeçalho baseado em arquivo, o cabeçalho de formato {login | shell} file file-name é
aplicado, em que file-name representa o diretório e o arquivo a partir do qual a string de informações
pode ser recuperada.
Níveis de Comando CLI
O sistema estrutura o acesso a funções de comando hierarquicamente para proteger a segurança do
sistema. O administrador do sistema define os níveis de acesso do usuário que concedem acesso de
usuários específicos a níveis de comando específicos. O nível de comando de um usuário é um valor que
varia de 0 a 3, enquanto o nível de acesso do usuário é um valor que varia de 0 a 15. O nível 0 define um
nível de acesso para acesso a comandos que executam ferramentas de diagnóstico de rede e
traceroute), bem como comandos como conexões de cliente telnet e selecionar comandos de exibição.
O nível de Monitoramento é definido em um nível de usuário de 1 para o qual os níveis de comando 0
e 1 podem ser aplicados, permitindo que a maioria dos comandos de exibição sejam usados, com
exceção dos comandos mostrando a configuração atual e salva. Um nível de usuário 2 representa o nível
de configuração para o qual os níveis de comando até 2 podem ser definidos, permitindo acesso a
comandos que configuram serviços de rede diretamente aos usuários, incluindo comandos de
roteamento e de camada de rede. O nível final é o nível de Gerenciamento, que representa um nível de
usuário de 3 a 15 e um nível de comando de até 3, permitindo o acesso a comandos que controlam as
operações básicas do sistema e fornecem suporte para serviços.
Esses comandos incluem sistema de arquivos, FTP, TFTP, alternância de arquivos de configuração,
controle da fonte de alimentação, controle da placa de backup, gerenciamento de usuários,
configuração de nível, configuração de parâmetros internos do sistema e comandos de depuração para
diagnóstico de falhas. O exemplo dado demonstra como um privilégio de comando pode ser alterado,
onde, nesse caso, o comando de salvamento encontrado na visualização do usuário requer um nível de
comando 3 antes que o comando possa ser usado.
Interfaces do usuário CLI
Cada interface do usuário é representada por uma visualização da interface do usuário ou uma
visualização da linha de comandos fornecida pelo sistema. A exibição da linha de comando é usada para
configurar e gerenciar todas as interfaces físicas e lógicas no modo assíncrono. Os usuários que
desejarem interagir com um dispositivo precisarão especificar determinados parâmetros para permitir
que uma interface de usuário se torne acessível. Duas formas comuns de interface de usuário
implementadas são a interface do console (CON) e a interface do terminal de teletipo virtual (VTY).
A porta do console é uma porta serial assíncrona fornecida pela placa de controle principal do
dispositivo e usa um número relativo de 0. VTY é uma linha de terminal lógica que permite que uma
conexão seja configurada quando um dispositivo usa serviços de telnet para conectar-se a um terminal
para acesso local ou remoto a um dispositivo. Um máximo de 15 usuários pode usar a interface de
usuário lógica VTY para efetuar login no dispositivo estendendo o intervalo de 0 a 4 obtido pela
aplicação do comando maximum-vty 15 da interface com o usuário. Se o número máximo de usuários
de login for 0, nenhum usuário poderá efetuar login no roteador por meio de telnet ou SSH. O comando
display user-interface pode ser usado para exibir informações relevantes sobre a interface do usuário.
Atributos do terminal CLI
Para as interfaces de terminal console e VTY, determinados atributos podem ser aplicados para
modificar o comportamento como um meio de estender recursos e melhorar a segurança. Um usuário
permite que uma conexão permaneça ociosa por um determinado período de tempo apresenta um
risco de segurança ao sistema. O sistema aguardará por um período de tempo limite antes de finalizar
automaticamente a conexão. Esse período de tempo limite inativo na interface do usuário é definido
como 10 minutos por padrão.
Onde for necessário aumentar ou reduzir o número de linhas exibidas na tela de um terminal ao usar
o comando de exibição, por exemplo, o comando de comprimento de tela pode ser aplicado. Isso, por
padrão, é definido como 24, mas pode ser aumentado para um máximo de 512 linhas. No entanto, um
comprimento de tela de 0 não é recomendado, pois nenhuma saída será exibida.
Para cada comando que é usado, um registro é armazenado no buffer de comando do histórico, que
pode ser recuperado através da navegação usando as funções das teclas (↑) ou CTRL + P e as teclas (↓)
ou Ctrl + N. O número de comandos gravados no buffer de comando do histórico pode ser aumentado
usando o comando history-command max-size para definir até 256 comandos armazenados. O número
de comandos armazenados por padrão é 10.
Permissões da interface CLI
O acesso a interfaces de terminal de usuário fornece um ponto de entrada claro para usuários não
autorizados acessarem um dispositivo e implementam alterações de configuração. Como tal, a
capacidade de restringir o acesso e limitar as ações que podem ser realizadas é necessária como meio
de segurança do dispositivo. A configuração do privilégio e autenticação do usuário são dois meios pelos
quais a segurança do terminal pode ser melhorada. O privilégio de usuário permite que um nível de
usuário seja definido, o que restringe a capacidade do usuário a um intervalo de comando específico. O
nível de usuário pode ser qualquer valor no intervalo de 0 a 15, em que os valores representam um nível
de visita (0), nível de monitoramento (1), nível de configuração (2) e nível de gerenciamento (3)
respetimente.
A autenticação restringe a capacidade do usuário de acessar uma interface de terminal, solicitando
que o usuário seja autenticado usando uma senha ou uma combinação de nome de usuário e senha
antes que o acesso pela interface do usuário seja concedido. No caso de conexões VTY, todos os
usuários devem ser autenticados antes que o acesso seja possível. Para todas as interfaces de usuário,
existem três modos de autenticação possíveis, na forma de AAA, autenticação de senha e não
autenticação. O AAA fornece autenticação de usuário com alta segurança para a qual um nome de
usuário e senha devem ser digitados para login. A autenticação de senha requer que apenas a senha de
login seja necessária, portanto, uma única senha pode ser aplicada a todos os usuários. O uso de nãoautenticação remove qualquer autenticação aplicada a uma interface de usuário. Deve-se notar que a
interface do console, por padrão, usa o modo de não autenticação.
Geralmente, recomenda-se que, para cada usuário que recebe acesso por telnet, o usuário seja
identificado por meio de nomes de usuário e senhas para permitir a distinção de usuários individuais.
Cada usuário também deve receber níveis de privilégio, com base na função e na responsabilidade de
cada usuário.
Configuração da interface CLI
Para executar serviços IP em uma interface, um endereço IP deve ser configurado para a interface.
Geralmente, uma interface precisa apenas do endereço IP principal. Em casos especiais, é possível que
um endereço IP secundário seja configurado para a interface. Por exemplo, quando uma interface de
um roteador, como o AR2200, se conecta a uma rede física, e os hosts dessa rede física pertencem a
dois segmentos de rede.
Para permitir que o AR2200 se comunique com todos os hosts na rede física, configure um endereço
IP primário e um endereço IP secundário para a interface. A interface possui apenas um endereço IP
primário. Se um novo endereço IP primário for configurado em uma interface que já tenha um endereço
IP primário, o novo endereço IP substituirá o original. O endereço IP pode ser configurado para uma
interface usando o comando ip address <ip-address> {mask | mask-length} em que mask representa a
máscara de sub-rede de 32 bits, por ex. 255.255.255.0, e comprimento da máscara representa o valor
alternativo de comprimento da máscara, e. 24, ambos os quais podem ser usados de forma
intercambiável.
A interface de loopback representa uma interface lógica que é aplicada para representar uma rede ou
endereço de host IP e é frequentemente usada como uma forma de interface de gerenciamento no
suporte de vários protocolos através dos quais é feita comunicação ao endereço IP da interface de
loopback. ao contrário do endereço IP da interface física na qual os dados estão sendo recebidos.
Resumo
1-Quantos usuários são capazes de se conectar através da interface do console a qualquer momento?
A interface do console é capaz de suportar apenas um único usuário a qualquer momento; isso é
representado pela exibição da interface de usuário do console 0.
2-Qual é o estado da interface de loopback 0 quando o comando loopback interface 0 é usado?
A interface de loopback representa uma interface lógica que não está presente em um roteador até
que seja criada. Uma vez criada, a interface de loopback é considerada ativa. Nos dispositivos ARG3, as
interfaces de loopback podem, no entanto, ser desligadas.
Prefácio
O sistema de arquivos representa a plataforma subjacente na qual o VRP opera e onde
os arquivos do sistema são armazenados nos dispositivos de armazenamento físico do
produto. A capacidade de navegar e gerenciar esse sistema de arquivos é necessária para
garantir o gerenciamento eficaz dos arquivos de configuração, atualizações de software
do VRP e garantir que os dispositivos físicos contidos em cada produto sejam bem
mantidos.
Objetivos
Após a conclusão desta seção, os formandos serão capazes de:



Navegar com sucesso pelo sistema de arquivos do dispositivo
Manipular os arquivos e pastas do sistema de arquivos.
Gerenciar o roteador Huawei e troque os dispositivos de armazenamento.
Visualizando o sistema de arquivos
O sistema de arquivos gerencia arquivos e diretórios nos dispositivos de armazenamento. Ele pode
criar, excluir, modificar ou renomear um arquivo ou diretório ou exibir o conteúdo de um arquivo.
O sistema de arquivos tem duas funções: gerenciar dispositivos de armazenamento e gerenciar os
arquivos armazenados nesses dispositivos. Vários diretórios são definidos dentro dos quais os arquivos
são armazenados em uma hierarquia lógica. Esses arquivos e diretórios podem ser gerenciados por meio
de várias funções que permitem a alteração ou exibição de diretórios, exibindo arquivos nesses
diretórios ou subdiretórios e a criação ou exclusão de diretórios.
Exemplos comuns de comandos do sistema de arquivos para navegação geral incluem o comando cd
usado para alterar o diretório atual, pwd para visualizar o diretório atual e dir para exibir o conteúdo de
um diretório, conforme mostrado no exemplo. O acesso ao sistema de arquivos é obtido a partir da
Visualização do Usuário.
Manipulando o sistema de arquivos
Fazer alterações nos diretórios do sistema de arquivos existente geralmente se refere à capacidade
de criar e excluir diretórios existentes no sistema de arquivos. Dois comandos comuns que são usados
neste caso. O comando de diretório mkdir é usado para criar uma pasta em um diretório especificado
em um dispositivo de armazenamento designado, em que directory se refere ao nome dado ao diretório
e para o qual o nome do diretório pode ser uma cadeia de 1 a 64 caracteres. Para excluir uma pasta
dentro do sistema de arquivos, o comando rmdir directory é usado, com o diretório novamente
referindo-se ao nome do diretório. Deve-se notar que um diretório só pode ser excluído se não houver
arquivos contidos nesse diretório.
Fazer alterações nos arquivos dentro de um sistema de arquivos inclui copiar, mover, renomear,
compactar, excluir, recuperar, excluir arquivos da lixeira, executar arquivos em lotes e configurar modos
de prompt. A criação de uma duplicada de um arquivo existente pode ser feita usando o comando copy
source-filename destination-filename, em que se o destino-nome do arquivo for o mesmo de um
arquivo existente (source-filename), o sistema exibirá uma mensagem indicando que o arquivo existente
será substituído. Um nome de arquivo de destino não pode ser o mesmo de um arquivo de inicialização,
caso contrário, o sistema exibirá uma mensagem indicando que a operação é inválida e que o arquivo é
um arquivo de inicialização.
O comando move source-filename destination-filename pode ser usado para mover arquivos para
outro diretório. Depois que o comando move for executado com sucesso, o arquivo original é cortado e
movido para o arquivo de destino definido. Deve-se notar, no entanto, que o comando move só pode
mover arquivos no mesmo dispositivo de armazenamento.
Para a remoção de arquivos dentro de um sistema de arquivos, a função delete pode ser aplicada
usando o comando delete [/ unreserved] [/ force] {filename | nome do dispositivo }. Geralmente
arquivos que são excluídos são direcionados para uma lixeira de onde os arquivos podem ser
recuperados usando a undelete {nomedoarquivo | device-name}, no entanto, se o comando /
unreserved for usado, o arquivo será permanentemente excluído. O sistema geralmente exibirá uma
mensagem solicitando a confirmação da exclusão do arquivo, no entanto, se o parâmetro / force estiver
incluído, nenhum aviso será dado. O parâmetro filename refere-se ao arquivo que deve ser excluído,
enquanto o parâmetro device-name define o local de armazenamento.
Quando um arquivo é direcionado para a lixeira, ele não é excluído permanentemente e pode ser
facilmente recuperado. Para garantir que tais arquivos na lixeira sejam excluídos permanentemente, o
comando reset recycle-bin [filename] pode ser aplicado, onde o parâmetro filename pode ser usado
para definir um arquivo específico para exclusão permanente.
Sistema de gerenciamento de arquivos de configuração
Quando ligado, o dispositivo recupera os arquivos de configuração de um caminho de salvamento
padrão para inicializar a si mesmo, que é armazenado na RAM do dispositivo. Se os arquivos de
configuração não existirem no caminho de salvamento padrão, o roteador usa os parâmetros de
inicialização padrão.
O arquivo de configuração atual indica as configurações em vigor no dispositivo quando ele está
sendo executado. Quando a configuração é salva, a configuração atual é armazenada em um arquivo de
configuração salvo no local de armazenamento do dispositivo. Se o dispositivo carregou o arquivo de
configuração atual com base nos parâmetros de inicialização padrão, um arquivo de configuração salvo
não existirá no local de armazenamento do caminho de salvamento padrão, mas será gerado assim que
a configuração atual for salva.
Exibindo arquivos de configuração
Usando o comando display-configuration atual, os parâmetros do dispositivo que são efetivados
podem ser consultados. Se valores padrão de determinados parâmetros estiverem sendo usados, esses
parâmetros não serão exibidos. O comando de configuração atual inclui vários parâmetros que
permitem a filtragem da lista de comandos durante o uso da função de exibição. A configuração atual do
display | begin {regular-expressão} é um exemplo de como a configuração atual pode ser usada para
exibir parâmetros ativos que começam com uma palavra-chave ou expressão específica. Uma
alternativa para este comando é a configuração atual do display | include {regular-expressão} que
permite parâmetros que incluem uma palavra-chave ou expressão específica no arquivo de configuração
atual.
A exibição salva-configuração [última | time] mostra a saída do arquivo de configuração armazenado
usado na inicialização para gerar a configuração atual. Onde o último parâmetro é usado, exibe o
arquivo de configuração usado na inicialização atual. O arquivo de configuração é exibido apenas
quando está configurado para a inicialização atual. O parâmetro time exibirá a hora em que a
configuração foi salva pela última vez.
Salvando o Arquivo de Configuração
O uso do comando save [configuration-file] salvará as informações de configuração atuais em um
caminho de armazenamento padrão. O parâmetro do arquivo de configuração permite que as
informações de configuração atuais sejam salvas em um arquivo especificado. Executar o comando save
com o parâmetro configuration-file não afeta o arquivo de configuração de inicialização atual do
sistema. Quando o arquivo de configuração é o mesmo que o arquivo de configuração armazenado no
caminho de armazenamento padrão do sistema, a função desse comando é a mesma do comando de
salvamento.
O exemplo demonstra o uso do comando save para salvar a configuração atual, que por padrão será
armazenada no arquivo vrpcfg.zip padrão no local de armazenamento padrão do dispositivo.
Exibindo os parâmetros de inicialização
O arquivo de configuração de salvamento usado atualmente pode ser descoberto através do uso do
comando de inicialização de exibição. Além disso, o comando de inicialização da tela pode ser usado
para consultar o nome do arquivo atual do software do sistema, o nome do próximo arquivo de
software do sistema, o nome do arquivo do software do sistema de backup, os nomes dos quatro
arquivos de software usados atualmente (se usados) e nomes dos próximos quatro arquivos de software
do sistema. Os quatro arquivos de software do sistema são o arquivo de configuração, o arquivo de voz,
o arquivo de patch e o arquivo de licença mencionados anteriormente.
Alterando os Parâmetros de Inicialização
Após a descoberta do arquivo de configuração salva da inicialização, pode ser necessário definir um
novo arquivo de configuração a ser carregado na próxima inicialização. Se um arquivo de configuração
específico não for especificado, o arquivo de configuração padrão será carregado na próxima
inicialização.
A extensão de nome de arquivo do arquivo de configuração deve ser .cfg ou .zip, e o arquivo deve ser
armazenado no diretório raiz de um dispositivo de armazenamento. Quando o roteador está ligado, ele
lê o arquivo de configuração da memória flash por padrão para inicializar. Os dados neste arquivo de
configuração são a configuração inicial. Se nenhum arquivo de configuração for salvo na memória flash,
o roteador usará os parâmetros padrão para iniciar.
Através do uso da startup saved-configuration [configuration-file] onde o parâmetro configurationfile é o arquivo de configuração a ser utilizado na inicialização, é possível definir um novo arquivo de
configuração para inicializar na próxima inicialização do sistema.
Comparando Arquivos de Configuração
Quando o comando de configuração de comparação [arquivo de configuração] [número da linha de
operação número da linha de salvamento] for usado, o sistema executará uma comparação linha a linha
da configuração salva com a configuração atual, começando na primeira linha. Se os parâmetros número
da linha de salvamento da linha atual forem especificados, o sistema ignorará a configuração não
relevante antes das linhas comparadas e continuará a encontrar diferenças entre os arquivos de
configuração.
O sistema continuará a emitir as diferenças de configuração entre a configuração salva e os arquivos
de configuração atuais. A informação de saída de comparação é restrita a 150 caracteres por padrão. Se
a comparação exigir menos de 150 caracteres, todas as variações até o final de dois arquivos serão
exibidas.
Limpar o arquivo de configuração
O comando reset saved-configuration é usado para excluir um arquivo de configuração de
inicialização do dispositivo do dispositivo de armazenamento. Quando executado, o sistema compara os
arquivos de configuração usados na inicialização atual e na próxima inicialização ao excluir o arquivo de
configuração do roteador.
Se os dois arquivos de configuração forem os mesmos, eles serão excluídos ao mesmo tempo após
esse comando ser executado. O arquivo de configuração padrão é usado quando o roteador é iniciado
na próxima vez. Se os dois arquivos de configuração forem diferentes, o arquivo de configuração usado
na inicialização atual será excluído depois que esse comando for executado.
Se nenhum arquivo de configuração estiver configurado para a inicialização atual do dispositivo, o
sistema exibirá uma mensagem indicando que o arquivo de configuração não existe depois que esse
comando é executado. Uma vez que o comando reset-saved-configuration seja usado, um prompt será
dado para confirmar a ação, para a qual o usuário deve confirmar, como mostrado no exemplo.
Tipos de dispositivos de armazenamento
Os dispositivos de armazenamento dependem do produto e incluem memória flash, cartões SD ou
unidades flash USB. O roteador AR2200E, por exemplo, possui uma memória flash interna e um cartão
SD integrado (no slot sd1). O roteador fornece dois slots USB reservados (usb0 e usb1) e um slot para
cartão SD (sd0). Para o S5700, ele inclui uma memória flash integrada com uma capacidade que varia
dependendo do modelo, com 64 MB suportados nos modelos S5700C-HI, S5700-LI, S5700S-LI e S5710-EI
e 32 MB para todos os outros. Os detalhes relacionados aos dispositivos de armazenamento de
produtos da Huawei podem ser detalhados usando o comando de versão de exibição, conforme
mostrado.
Apagando Dispositivos de Armazenamento
É provável que a formatação de um dispositivo de armazenamento resulte na perda de todos os
arquivos no dispositivo de armazenamento e os arquivos não possam ser restaurados; portanto, deve-se
ter muito cuidado ao executar qualquer comando de formatação e deve ser evitado, a menos que seja
absolutamente necessário. O comando format [storage-device] é usado junto com o parâmetro storagedevice para definir o local de armazenamento que deve ser formatado.
Reparando o dispositivo de armazenamento
Quando o dispositivo de terminal exibe que o sistema falhou, o comando fixdisk pode ser usado para
tentar consertar o sistema de arquivos anormal no dispositivo de armazenamento; no entanto, ele não
fornece nenhuma garantia de que o sistema de arquivos possa ser restaurado com êxito. Como o
comando é usado para corrigir problemas, se nenhum problema ocorreu no sistema, não é
recomendado que este comando seja executado. Também deve ser observado que esse comando não
corrige problemas no nível do dispositivo.
Resumo
1-O que o d no atributo drwx do sistema de arquivos representa?
O atributo do sistema de arquivos d representa que a entrada é um diretório no sistema de arquivos.
Deve-se notar que este diretório só pode ser excluído depois que qualquer arquivo contido no diretório
tiver sido excluído. Os valores restantes do rwx referem-se ao fato de o diretório (ou arquivo) poder ser
lido, gravado e / ou executado.
2-Como um arquivo de configuração armazenado no sistema de arquivos de um dispositivo pode ser
implementado para uso pelo dispositivo?
Uma configuração pode ser salva em um nome separado do nome do arquivo padrão vrpcfg.zip e
armazenada no dispositivo de armazenamento do roteador ou switch. Se esse arquivo precisar ser
usado como o arquivo de configuração ativo no sistema, a configuração salva do comando
<configuration-file-name> deverá ser usada, onde o arquivo configuration-name se refere ao nome do
arquivo e à extensão do arquivo.
Prefácio
A administração e o gerenciamento de rede eficazes em uma rede corporativa
dependem de todos os dispositivos que mantêm arquivos de backup no caso de falhas do
sistema ou outros eventos que podem resultar na perda de arquivos e dados importantes
do sistema. Os servidores remotos que usam o serviço FTP (File Transfer Protocol)
geralmente são usados para garantir que os arquivos sejam mantidos para fins de backup
e recuperação conforme e quando necessário. Os meios para estabelecer comunicação
com tais serviços de aplicação são introduzidos nesta seção.
Objectivos
Após a conclusão desta seção, os formandos serão capazes de:

Explicar a importância de manter versões atualizadas do VRP.

Estabelecer uma relação de cliente com um servidor FTP.

Atualizar com sucesso uma imagem do sistema VRP.
Atualizando a imagem do VRP
A plataforma VRP é constantemente atualizada para manter o alinhamento com as mudanças na
tecnologia e suportar novos avanços no hardware. A imagem VRP é geralmente definida por uma versão
VRP e um número de versão do produto. Os produtos das séries Huawei ARG3 e Sx7 geralmente se
alinham com a versão 5 do VRP à qual diferentes versões de produtos estão associadas.
À medida que a versão do produto aumenta, o mesmo acontece com os recursos que são suportados
pela versão. O formato da versão do produto inclui um código de produto Vxxx, Rxxx denota uma versão
principal e Cxx uma versão secundária. Se um service pack for usado para corrigir a versão do produto
VRP, um valor de SPC também poderá ser incluído no número de versão do produto VRP. Exemplos
típicos dos upgrades de versão do VRP para o AR2200E incluem:
Versão 5.90 (AR2200 V200R001C00)
Versão 5.110 (AR2200 V200R002C00)
Versão 5.160 (AR2200 V200R007C00)
Transferência de arquivo
A transferência de arquivos refere-se aos meios pelos quais os arquivos são enviados ou recuperados
de um servidor remoto ou local de armazenamento. Dentro da rede IP, esta aplicação pode ser
implementada para uma ampla gama de propósitos. Como parte da prática efetiva, é comum que
arquivos importantes sejam duplicados e salvos em um local de armazenamento remoto para evitar
qualquer perda que afete as operações críticas dos sistemas. Isso inclui arquivos como a imagem VRP de
produtos que (caso a imagem existente sofra perda por meio do uso do comando format ou outras
formas de erro), podem ser recuperados remotamente e usados para recuperar as operações do
sistema. Princípios semelhantes se aplicam a arquivos de configuração importantes e à manutenção de
registros de atividades em dispositivos armazenados em arquivos de log, que podem ser armazenados a
longo prazo no servidor remoto.
Métodos de Transferência de Arquivos
O FTP é um protocolo de aplicativo padrão baseado no conjunto de protocolos TCP / IP e usado para
transferir arquivos entre clientes locais e servidores remotos. O FTP usa duas conexões TCP para copiar
um arquivo de um sistema para outro. As conexões TCP são geralmente estabelecidas no modo clienteservidor, uma para controle (o número da porta do servidor é 21) e a outra para a transmissão de dados
(o número da porta do servidor é 20). FTP como um protocolo de transferência de arquivos é usado para
controlar conexões emitindo comandos do cliente (RTA) para o servidor e transmite respostas do
servidor para o cliente, minimizando o atraso de transmissão. Em termos de transmissão de dados, o
FTP transmite dados entre o cliente e o servidor, maximizando o rendimento.
Trivial File Transfer Protocol (TFTP) é um protocolo simples de transferência de arquivos através do
qual um roteador pode funcionar como um cliente TFTP para acessar arquivos em um servidor TFTP. Ao
contrário do FTP, o TFTP não possui uma interface de acesso interativa complexa e controle de
autenticação. A implementação do TFTP baseia-se no protocolo UDP (User Datagram Protocol). O
cliente inicia a transferência TFTP. Para baixar arquivos, o cliente envia um pacote de solicitação de
leitura para o servidor TFTP, recebe pacotes do servidor e retorna uma confirmação para o servidor.
Para fazer upload de arquivos, o cliente envia um pacote de solicitação de gravação ao servidor TFTP,
envia pacotes para o servidor e recebe confirmação do servidor.
Processo de atualização de VRP
O exemplo demonstra como a conexão entre um servidor FTP e um cliente é estabelecida para
recuperar uma imagem VRP que pode ser usada como parte do processo de atualização do sistema.
Antes de qualquer transferência de dados, é necessário estabelecer a conectividade subjacente sobre
quais arquivos podem ser transferidos. Isso começa fornecendo o endereçamento IP adequado para o
cliente e o servidor. Onde os dispositivos estão diretamente conectados, podem ser aplicadas interfaces
que pertençam à mesma rede. Onde os dispositivos pertencem a redes localizadas em uma grande área
geográfica, os dispositivos devem estabelecer endereçamento IP relevante dentro de suas redes e ser
capazes de descobrir um caminho de rede relevante sobre IP através do qual a conectividade cliente /
servidor possa ser estabelecida.
Disponibilidade de espaço de armazenamento
Um usuário deve determinar para qualquer atualização do sistema se há espaço de armazenamento
adequado para armazenar o arquivo a ser recuperado. Os comandos do sistema de arquivos podem ser
usados para determinar o status atual do sistema de arquivos, incluindo quais arquivos estão
atualmente presentes no local de armazenamento de arquivos do dispositivo e também a quantidade de
espaço atualmente disponível. Onde o espaço de armazenamento não é adequado para a transferência
de arquivos, certos arquivos podem ser excluídos ou carregados no servidor FTP no caso de ainda serem
necessários para uso futuro.
O exemplo demonstra o uso do comando delete file system para remover o arquivo de imagem
existente. Deve-se observar que a imagem do sistema, embora excluída, não afetará a operação atual
do dispositivo, desde que o dispositivo permaneça operacional; portanto, o dispositivo não deve ser
desligado ou reiniciado antes que um novo arquivo de imagem VRP seja restaurado no local de
armazenamento do dispositivo e definido para ser usado durante a próxima inicialização do sistema.
Recuperando Arquivos de um Servidor FTP
A recuperação de arquivos de um servidor FTP requer que uma conexão seja estabelecida antes que
qualquer transferência de arquivos possa ocorrer. Dentro do dispositivo cliente, o serviço ftp é iniciado
usando o ftp <ip address>, onde o endereço IP está relacionado ao endereço do servidor FTP ao qual o
cliente deseja se conectar. Conexões FTP serão estabelecidas usando TCP, e requer autenticação na
forma de um nome de usuário e senha que é definido pelo servidor FTP. Uma vez que a autenticação
tenha sido alcançada com sucesso, o cliente terá acesso estabelecido ao servidor FTP e poderá usar uma
variedade de comandos para visualizar os arquivos existentes armazenados no diretório atual local do
servidor.
Antes da transmissão do arquivo, o usuário pode ser solicitado a definir o tipo de arquivo para o qual
existem dois formatos, ASCII e Binary. O modo ASCII é usado para texto, no qual os dados são
convertidos da representação de caracteres do remetente para "ASCII de 8 bits" antes da transmissão e,
em seguida, para a representação de caracteres do receptor. O modo binário, por outro lado, exige que
o remetente envie cada byte de arquivo para byte. Este modo é freqüentemente usado para transferir
arquivos de imagem e arquivos de programas, e deve ser aplicado ao enviar ou recuperar qualquer
arquivo de imagem VRP. No exemplo, o comando get vrp.cc foi emitido para recuperar a nova imagem
VRP localizada no servidor remoto.
Recuperando arquivos de um servidor TFTP
No caso de o cliente desejar recuperar uma imagem VRP de um servidor TFTP, não é necessário
estabelecer primeiro uma conexão com o servidor. Em vez disso, o cliente deve definir o caminho para o
servidor na linha de comando, juntamente com a operação a ser executada. Também deve ser notado
que os modelos AR2200E e S5720 servem apenas como cliente TFTP e transferem arquivos apenas em
formato binário. Como pode ser visto no exemplo, o comando get é aplicado para a recuperação do
arquivo de imagem VRP do servidor TFTP após a definição do endereço de destino do servidor TFTP.
Processo de gerenciamento de inicialização de VRP
A transferência do arquivo de imagem do VRP para o cliente, uma vez obtida com sucesso, requer
que a imagem seja ativada como o software do sistema de inicialização durante o próximo processo de
inicialização do sistema. Para alterar a versão do software do sistema, o comando startup systemsoftware deve ser executado e incluir o arquivo de software do sistema a ser usado na próxima
inicialização. Um arquivo de software do sistema deve usar .cc como extensão de nome de arquivo, e o
arquivo de software do sistema usado na próxima inicialização não pode ser aquele usado na
inicialização atual.
Além disso, o diretório de armazenamento de um arquivo de software do sistema deve ser o
diretório raiz, caso contrário, o arquivo não será executado. O comando de inicialização da tela deve ser
usado para verificar se a alteração no software do sistema de inicialização foi executada com sucesso. A
saída para o software do sistema de inicialização deve mostrar a imagem VRP existente, enquanto o
próximo software do sistema de inicialização deve exibir a imagem VRP transferida que agora está
presente no diretório raiz do dispositivo.
Aplicando as alterações
A confirmação do software do sistema de inicialização permite o início seguro do software do sistema
durante a próxima inicialização do sistema. Para aplicar as alterações e permitir que o novo software do
sistema entre em vigor, o dispositivo deve ser reiniciado. O comando reboot pode ser usado para iniciar
a reinicialização do sistema. Durante o processo de reinicialização, um prompt será exibido solicitando
confirmação sobre se o arquivo de configuração para a próxima inicialização do sistema será salvo.
Em alguns casos, o arquivo de configuração salvo pode ser apagado pelo usuário para permitir que
uma nova configuração seja implementada. Caso isso tenha ocorrido, espera-se que o usuário defina
uma resposta de "não" no aviso "Continuar?". Se o usuário escolher "sim" neste ponto, a configuração
atual será reconfigurada para o arquivo de configuração salvo e aplicada novamente durante a próxima
inicialização. Se o usuário não estiver ciente das alterações para as quais o prompt de salvamento está
fornecendo um aviso, é recomendável que o usuário selecione "não" ou "n" e faça uma comparação das
configurações salvas e atuais para verificar as alterações. Para o prompt de reinicialização, é necessária
uma resposta de "sim" ou "y" para concluir o processo de reinicialização.
Resumo
1-O que deve ser configurado no cliente para estabelecer uma conexão com um servidor FTP?
Um dispositivo cliente deve ter a capacidade de acessar o servidor FTP por IP, exigindo que um
endereço IP seja configurado na interface através da qual o servidor FTP pode ser alcançado. Isso
permitirá que um caminho seja validado para o servidor FTP na camada de rede, se houver um.
2-Como um usuário pode confirmar que as alterações no software de inicialização entrarão em vigor
após a reinicialização do dispositivo?
O usuário pode executar a inicialização da exibição do comando de configuração para validar que o
software de sistema de inicialização atual (VRP) está ativo, identificado pela extensão.
Prefácio
A introdução de um dispositivo de comutação como parte da rede corporativa
demonstra como as redes podem se expandir além das conexões ponto-a-ponto e as
redes compartilhadas nas quais podem ocorrer colisões. O comportamento do switch
corporativo quando introduzido na rede local é detalhado, juntamente com um
entendimento da manipulação de quadros de tipo difusão ponto a ponto e difusão, para
demonstrar como os switches permitem que as redes superem os obstáculos de
desempenho das redes compartilhadas.
Objectivos
Após a conclusão desta seção, os formandos serão capazes de:
 Explicar o processo de tomada de decisão de um switch de camada
de enlace.
 Configurar parâmetros para negociação em um comutador de
camada de link.
Construindo uma única rede comutada
À medida que a rede corporativa se expande, vários usuários precisam ser estabelecidos como parte
de uma rede de múltiplos acessos. A evolução das tecnologias de rede sofreu uma mudança de redes
locais compartilhadas, para redes que suportam múltiplos domínios de colisão e suportam o uso de
formas de mídia 100BaseT que isolam a transmissão e recepção de dados através de pares de fios
separados, eliminando assim o potencial de colisões ocorrer e permitir taxas de transmissão full duplex
mais altas. O estabelecimento de um switch traz a capacidade de aumentar a densidade de portas para
permitir a conexão de um maior número de dispositivos do sistema final em uma única rede local. Cada
sistema final ou host dentro de uma rede local deve ser conectado como parte da mesma rede IP para
que a comunicação seja facilitada na camada de rede. O endereço IP, no entanto, só é relevante para os
sistemas host, uma vez que os dispositivos de comutação operam dentro do escopo da camada de
enlace e, portanto, dependem do endereçamento MAC para o encaminhamento de quadros.
O estado inicial do switch
Como um dispositivo de camada de enlace, cada comutador depende de uma tabela baseada em
MAC que fornece associação entre um endereço MAC de destino e a interface de porta por meio da qual
um quadro deve ser encaminhado. Isso é comumente chamado de tabela de endereços MAC.
O início de um comutador começa com o comutador sem conhecimento dos sistemas finais e como
os quadros recebidos dos sistemas finais devem ser encaminhados. É necessário que o switch crie
entradas dentro da tabela de endereços MAC para determinar o caminho que cada quadro recebido
deve tomar para alcançar um determinado destino, de modo a limitar o tráfego de broadcast dentro da
rede local. Essas entradas de caminho são preenchidas na tabela de endereços MAC como resultado de
quadros recebidos de sistemas finais. No exemplo, o Host A encaminhou um quadro para o Switch A,
que atualmente não possui entradas em sua tabela de endereços MAC.
Aprendizagem de endereços MAC
O quadro que é encaminhado do host A contém uma entrada de endereço MAC de difusão no campo
de endereço de destino do cabeçalho do quadro. O campo de endereço de origem contém o endereço
MAC do dispositivo de peering, neste caso, Host A. Esse endereço MAC de origem é usado pelo switch
para preencher a tabela de endereços MAC, associando a entrada MAC no campo de endereço de
origem ao comutador. interface de porta na qual o quadro foi recebido. O exemplo demonstra como o
endereço MAC está associado à interface de porta para permitir que qualquer tráfego de retorno para
esse destino MAC seja encaminhado diretamente por meio da interface associada.
Encaminhando os primeiros dados
O comportamento geral de uma solicitação ARP envolve o quadro sendo inundado para todos os
destinos pretendidos principalmente devido à transmissão MAC (FF-FF-FF-FF-FF-FF) que representa o
destino atual. O comutador é, portanto, responsável por encaminhar esse quadro para fora de cada
interface de porta com exceção da interface de porta na qual o quadro foi recebido, na tentativa de
localizar o destino IP pretendido conforme listado no cabeçalho ARP para o qual uma resposta ARP pode
ser gerada . Como demonstrado no exemplo, os quadros individuais são inundados a partir do
comutador através das interfaces de porta G0 / 0/2 e G0 / 0/3 em direção aos hosts B e host C,
respectivamente.
A resposta do destino
Como resultado do cabeçalho de solicitação ARP, o host de recebimento é capaz de determinar que o
cabeçalho ARP é destinado ao destino IP de 10.1.1.3, juntamente com o endereço de origem local (MAC)
do qual o quadro foi originado e usar essas informações para gerar uma resposta unicast. As
informações relativas ao Host A estão associadas ao endereço IP de 10.1.1.3 e armazenadas na tabela de
endereços MAC do Host C. Ao fazer isso, a geração de tráfego de broadcast é minimizada, reduzindo
assim o número de interrupções para destinos locais, bem como redução do número de quadros
propagando a rede local.
Depois que o quadro é recebido do Host C pelo Comutador A, o comutador preencherá a tabela de
endereços MAC com o endereço MAC de origem do quadro recebido e associará a interface de porta na
qual o quadro foi recebido. O switch usa a tabela de endereços MAC para realizar uma pesquisa, a fim
de descobrir a interface de encaminhamento, com base no endereço MAC de destino do quadro. Neste
caso, o endereço MAC do quadro refere-se ao Host A, para o qual existe agora uma entrada através da
interface G0 / 0/1, permitindo que o quadro seja encaminhado para o destino conhecido.
Configuração básica
Os primeiros sistemas Ethernet operavam com base em um modo half-duplex de 10Mbps e
aplicavam mecanismos como o CSMA / CD para garantir a estabilidade do sistema. A transição para um
meio de par trançado deu origem ao surgimento da Ethernet full-duplex, o que melhorou muito o
desempenho da Ethernet e significou que duas formas de duplex poderiam ser negociadas. A tecnologia
de negociação automática permite que os sistemas Ethernet mais recentes sejam compatíveis com
sistemas Ethernet anteriores.
No modo de negociação automática, as interfaces nas duas extremidades de um link negociam seus
parâmetros operacionais, incluindo o modo duplex, taxa e controle de fluxo. Se a negociação for bemsucedida, as duas interfaces funcionam com os mesmos parâmetros operacionais. Em alguns casos, no
entanto, é necessário definir manualmente os parâmetros de negociação, por exemplo, onde as
interfaces Gigabit Ethernet que estão funcionando no modo de negociação automática estão
conectadas por meio de um cabo de rede de 100 Mbps. Nesses casos, a negociação entre as interfaces
falhará.
Devido a diferentes modelos de produto, os switches HUAWEI podem não suportar o modo de
mudança de porta duplex, consulte o manual do produto.
Verificação Básica da Configuração
No caso de os parâmetros de configuração para negociação serem alterados de usar negociação
automática, os parâmetros definidos devem ser verificados usando o comando <interface> da interface
de exibição para verificar se os parâmetros negociados permitem que a negociação da interface da
camada de link seja bem-sucedida. Isso é verificado pelo estado atual do protocolo de linha sendo
exibido como UP. As informações exibidas refletem as configurações atuais dos parâmetros de uma
interface.
Resumo
1-Se um comutador registrar o endereço MAC de origem de um dispositivo host em uma interface de
porta e a conexão física do host for alterada para outra interface de porta no comutador, qual ação o
comutador executaria?
Quando um host ou outro sistema terminal é conectado a uma interface de porta de switch, é gerado
um ARP gratuito projetado para garantir que os endereços IP permaneçam exclusivos dentro de um
segmento de rede. A mensagem ARP gratuita, no entanto, também fornece ao comutador informações
sobre o endereço MAC do host, que é então incluído na tabela de endereços MAC e associado à
interface de porta na qual o host está conectado.
Se a conexão física de um host conectado a uma interface de porta de switch for removida, o switch
descobrirá que o link físico está inativo e removerá a entrada MAC da tabela de endereços MAC.
Quando a mídia estiver conectada a outra interface de porta, a porta detectará que o link físico está
ativo e um ARP gratuito será gerado pelo host, permitindo que o switch localize e preencha a tabela de
endereços MAC com o endereço MAC do host conectado .
Prefácio
À medida que a rede corporativa se expande, as redes com comutação múltipla são
introduzidas para fornecer comunicação de camada de enlace entre um número crescente de sistemas
finais. À medida que novas interconexões são formadas entre múltiplos switches corporativos, novas
oportunidades para a construção de redes sempre resilientes são possíveis, no entanto, o potencial de
comutação de falhas como resultado de loops torna-se cada vez mais provável. É necessário que o
protocolo spanning tree (STP) seja entendido em termos de comportamento na prevenção de loops de
comutação e como ele pode ser manipulado para se adequar ao design e desempenho da rede
corporativa.
Objectivos
Após a conclusão desta seção, os formandos serão capazes de:
 Descreva os problemas enfrentados ao usar uma rede comutada.
 Explique o processo de prevenção de loop do protocolo spanning tree.
 Configurar parâmetros para gerenciar o design da rede STP.
Redundância da Camada 2
O crescimento das empresas resulta no comissionamento de múltiplos switches para suportar a
interconectividade dos sistemas finais e serviços necessários para as operações diárias. A interconexão
de múltiplos switches, no entanto, traz desafios adicionais que precisam ser resolvidos. Os comutadores
podem ser estabelecidos como enlaces ponto-a-ponto únicos através dos quais os sistemas finais são
capazes de encaminhar quadros para destinos localizados através de outros comutadores dentro do
domínio de broadcast. No entanto, a falha de qualquer link de comutador ponto-a-ponto resulta no
isolamento imediato do comutador a jusante e em todos os sistemas finais aos quais o link está
conectado. Para resolver esse problema, a redundância é altamente recomendada em qualquer rede de
comutação.
Portanto, os links redundantes geralmente são usados em uma rede de comutação Ethernet para
fornecer backup de link e aprimorar a confiabilidade da rede. O uso de links redundantes, no entanto,
pode produzir loops que causam uma deterioração drástica da qualidade da comunicação e grandes
interrupções no serviço de comunicação.
Tempestades de Broadcast
Um dos efeitos iniciais dos loops redundantes de comutação vem na forma de tempestades de
broadcast. Isso ocorre quando um sistema final tenta descobrir um destino para o qual nem ele nem os
comutadores ao longo do caminho de comutação estão cientes. Uma transmissão é, portanto, gerada
pelo sistema final que é inundado pelo comutador de recepção.
O efeito de inundação significa que o quadro é encaminhado por todas as interfaces, com exceção da
interface na qual o quadro foi recebido. No exemplo, o Host A gera um quadro, que é recebido pelo
Switch B, que é subseqüentemente encaminhado para fora de todas as outras interfaces. Uma instância
do quadro é recebida pelos comutadores conectados A e C, que por sua vez inundam o quadro de todas
as outras interfaces. O efeito contínuo de flooding resulta em instâncias de flooding Switch A e Switch C
do quadro de um switch para o outro, que por sua vez é inundado de volta para o Switch B, e assim o
ciclo continua. Além disso, o efeito de inundação repetida resulta em várias instâncias do quadro sendo
recebido pelas estações finais, causando interrupções e degradação extrema do desempenho dos
switches.
Instabilidade MAC
Switches devem manter registros do caminho através do qual um destino é alcançável. Isso é
identificado por meio da associação do endereço MAC de origem de um quadro com a interface na qual
o quadro foi recebido. Apenas uma instância de um endereço MAC pode ser armazenada na tabela de
endereços MAC de um comutador e, quando uma segunda instância do endereço MAC é recebida, as
informações mais recentes têm precedência.
No exemplo, o switch B atualiza a tabela de endereços MAC com o endereço MAC do host A e associa
essa fonte à interface G0 / 0/3, a interface de porta na qual o quadro foi recebido. Como os quadros são
inundados incontrolavelmente dentro da rede de comutação, um quadro é novamente recebido com o
mesmo endereço MAC de origem do Host A, entretanto, desta vez, o quadro é recebido na interface G0
/ 0/2. O switch B deve, portanto, assumir que o host que estava originalmente acessível através da
interface G0 / 0/3 está agora acessível através de G0 / 0/2 e atualizará a tabela de endereços MAC de
acordo. O resultado desse processo leva à instabilidade do MAC e continua a ocorrer indefinidamente
entre as duas interfaces de porta do switch que se conectam ao Switch A e ao Switch C, já que os
quadros são inundados em ambas as direções como parte do efeito de tempestade de broadcast.
Resolvendo Problemas de Redundância de Camada 2
O desafio para a rede de comutação reside na capacidade de manter a redundância de comutação
para evitar o isolamento de sistemas finais no caso de falha no sistema de comutador ou link, e a
capacidade de evitar os efeitos prejudiciais de loops de comutação dentro de uma topologia de
comutação que implemente redundância. A solução resultante por muitos anos tem sido implementar o
protocolo spanning tree (STP) para evitar os efeitos de loops de comutação. A árvore de abrangência
trabalha com o princípio de que os links redundantes sejam logicamente desabilitados para fornecer
uma topologia sem loop, enquanto habilitam dinamicamente links secundários no caso de ocorrer uma
falha ao longo do caminho de comutação primário, cumprindo assim o requisito de redundância de rede
em um loop topologia livre. Os dispositivos de comutação que executam o STP detectam loops na rede,
trocando informações entre si e bloqueando determinadas interfaces para cortar os loops. STP
continuou a ser um protocolo importante para a LAN há mais de 20 anos.
A Ponte Raiz do Spanning Tree
A remoção de qualquer potencial para loops serve como objetivo principal da árvore de abrangência
para a qual é formada uma arquitetura de tipo de árvore invertida. Na base desta árvore lógica está a
bridge / switch raiz. A bridge raiz representa o centro lógico, mas não necessariamente o centro físico da
rede compatível com STP. A ponte raiz designada é capaz de mudar dinamicamente com a topologia da
rede, como no caso em que a ponte raiz existente falha em continuar operando como a bridge raiz.
Considera-se que as pontes não-raiz estão a jusante da ponte-raiz e a comunicação aos fluxos de pontes
não-raiz da ponte-raiz em direção a todas as pontes não-raiz. Somente uma única bridge raiz pode
existir em uma rede convergente compatível com STP a qualquer momento.
Bridge ID
A descoberta da bridge raiz para uma rede STP é uma tarefa principal executada para formar a árvore
de abrangência. O protocolo STP opera com base na eleição, através da qual o papel de todos os
switches é determinado. Um ID de ponte é definido como o meio pelo qual a ponte raiz é descoberta.
Isso compreende duas partes, sendo a primeira uma prioridade de ponte de 16 bits e a segunda um
endereço MAC de 48 bits.
O dispositivo que é dito conter a prioridade mais alta (menor ID de ponte) é eleito como a bridge raiz
para a rede. A comparação da ID da ponte leva em conta inicialmente a prioridade da ponte e, quando
esse valor de prioridade não consegue identificar exclusivamente uma ponte raiz, o endereço MAC é
usado como desempatador. O ID da bridge pode ser manipulado através da alteração da prioridade da
bridge como um meio de permitir que um determinado switch seja eleito como bridge raiz, muitas vezes
em suporte a um projeto de rede otimizado.
Bridge Protocol Data Unit(BPDU)
A topologia da árvore de abrangência depende da comunicação de informações específicas para
determinar a função e o status de cada comutador na rede. Uma unidade de dados de protocolo de
ponte (BPDU) facilita a comunicação dentro de uma rede de árvore de abrangência. Duas formas de
BPDU são usadas dentro do STP. Um BPDU de Configuração é criado inicialmente pela raiz e pelo
downstream propagado para garantir que todas as pontes não-raiz permaneçam conscientes do status
da topologia da árvore de abrangência e, o mais importante, da ponte raiz. O TCN BPDU é uma segunda
forma de BPDU, que propaga a informação no sentido ascendente em direção à raiz e deve ser
introduzida em mais detalhes como parte do processo de alteração da topologia.
As Unidades de Dados de Protocolo de Ponte não são diretamente encaminhadas por comutadores,
em vez disso, as informações que são transportadas dentro de um BPDU são frequentemente usadas
para gerar um BPDU próprio de comutadores para transmissão. Um BPDU de Configuração carrega
vários parâmetros usados por uma ponte para determinar principalmente a presença de uma ponte raiz
e garantir que a ponte raiz permaneça como a ponte com a prioridade mais alta. Considera-se que cada
segmento de LAN possui um comutador designado que é responsável pela propagação de BPDU a
jusante para comutadores não designados.
O campo Bridge ID é usado para determinar o comutador designado atual do qual se espera que o
BPDU seja recebido. O BPDU é gerado e encaminhado pela bridge raiz com base em um timer Hello, que
é configurado para 2 segundos por padrão. Como os BPDU são recebidos pelos switches downstream,
um novo BPDU é gerado com parâmetros definidos localmente e encaminhado para todos os switches
não designados para o segmento de LAN.
Custo do caminho
Outra característica do BPDU é a propagação de dois parâmetros relacionados ao custo do caminho.
O custo do caminho da raiz (RPC) é usado para medir o custo do caminho até a raiz da ponte, a fim de
determinar o caminho mais curto da árvore de abrangência e, assim, gerar uma topologia livre de loop.
Quando a bridge é a bridge raiz, o custo do caminho da raiz é 0. O custo do caminho (PC) é um valor
associado à porta raiz, que é a porta em um comutador downstream que se conecta ao segmento da
LAN, no qual um comutador designado ou uma ponte-raiz reside. Esse valor é usado para gerar o custo
do caminho raiz para o comutador, adicionando o custo do caminho ao valor de RPC que é recebido do
comutador designado em um segmento da LAN, para definir um novo valor de custo do caminho raiz.
Esse novo valor de custo do caminho raiz é transportado no BPDU do comutador designado e é usado
para representar o custo do caminho para a raiz.
Padrões de Custo do Caminho
Os switches da série Sx7 da Huawei suportam uma série de padrões de custo de caminho alternativo
que podem ser implementados com base nos requisitos corporativos, como onde uma rede de
comutação de vários fornecedores pode existir. A série de switches Huawei Sx7 usa o padrão de custo
do caminho 802.1t por padrão, fornecendo uma precisão métrica mais forte para o cálculo do custo do
caminho.
Função das Portas no Spanning Tree
Uma rede de árvore de abrangência convergida define que cada interface seja atribuída a uma
função de porta específica. As funções de porta são usadas para definir o comportamento das interfaces
de porta que participam de uma topologia de árvore de abrangência ativa. Para o protocolo spanning
tree, três funções de porta designada, raiz e alternativa são definidas.
A porta designada está associada a uma ponte raiz ou a uma ponte designada de um segmento da
LAN e define o caminho downstream pelo qual a Configuração BPDU é encaminhada. A bridge raiz é
responsável pela geração de BPDU de configuração para todos os switches downstream e, portanto, as
interfaces de porta de bridge raiz sempre adotam a função de porta designada.
A porta raiz identifica a porta que oferece o caminho de custo mais baixo para a raiz, com base no
custo do caminho da raiz. O exemplo demonstra o caso em que existem dois caminhos possíveis de
volta para a raiz, no entanto, somente a porta que oferece o menor custo do caminho raiz é designada
como a porta raiz. Quando duas ou mais portas oferecem custos de caminho raiz iguais, a decisão de
qual interface de porta será a porta raiz é determinada pela comparação do ID da ponte na configuração
BPDU recebida em cada porta.
Qualquer porta que não tenha uma função de porta designada ou raiz é considerada uma porta
alternativa e pode receber BPDU do comutador designado para o segmento de LAN com a finalidade de
monitorar o status do link redundante, mas não processará o retorno recebido. BPDU. O padrão IEEE
802.1D-1990 para STP originalmente definiu essa função de porta como backup, no entanto, isso foi
corrigido para se tornar a função de porta alternativa dentro da revisão de padrões IEEE 802.1D-1998.
ID da Porta
O ID da porta representa um meio final para determinar as funções de porta ao lado do mecanismo
de custo da ID da ponte e do caminho da raiz. Em cenários em que duas ou mais portas oferecem um
custo de caminho raiz de volta à raiz que é igual e para o qual o switch upstream é considerado como
tendo uma ID de ponte igual, principalmente devido ao switch upstream ser o mesmo comutador para
ambos os caminhos, o ID da porta deve ser aplicado para determinar as funções da porta.
O ID da porta está vinculado a cada porta e é composto por uma prioridade de porta e um número de
porta que se associa à interface de porta. A prioridade da porta é um valor no intervalo de 0 a 240,
atribuído em incrementos de 16 e representado por um valor de 128 por padrão. Onde ambas as
interfaces de porta oferecem um valor de prioridade de porta igual, o número de porta exclusivo é
usado para determinar as funções de porta. O identificador de porta mais alto (o número de porta mais
baixo) representa a porta atribuída como a porta raiz, com a porta restante assumindo como padrão
uma função de porta alternativa.
Temporizadores
A bridge raiz é responsável pela geração de BPDU de configuração com base em um intervalo BPDU
que é definido por um timer Hello. Este timer Hello por padrão representa um período de 2 segundos.
Uma rede de árvore de abrangência convergida deve garantir que, no caso de uma falha na rede, os
comutadores dentro da rede habilitada para STP estejam cientes da falha. Um temporizador Max Age é
associado a cada BDPU e representa o tempo de vida de um BPDU desde o ponto de concepção até a
ponte-raiz e, por fim, controla o período de validade de um BDPU antes de ser considerado obsoleto.
Este temporizador MAX Age, por padrão, representa um período de 20 segundos.
Quando uma configuração BPDU é recebida da bridge raiz, considera-se que o switch downstream
leva aproximadamente 1 segundo para gerar um novo BPDU e propaga o downstream do BPDU gerado.
Para compensar esse tempo, um valor de idade da mensagem (Idade MSG) é aplicado a cada BPDU para
representar o deslocamento entre a Idade MÁX e o atraso de propagação, e para cada comutador esse
valor de idade da mensagem é incrementado em 1.
Como o BPDU é propagado da bridge raiz para os switches downstream, o temporizador MAX Age é
atualizado. O temporizador MAX Age diminui e expira quando o valor MAX Age excede o valor da idade
da mensagem, para garantir que a vida útil de um BPDU seja limitada à MAX Age, conforme definido
pela bridge raiz. No caso de uma BPDU não ser recebida antes de expirar o temporizador MAX Age, o
switch considerará as informações do BPDU atualmente consideradas obsoletas e presumirá que
ocorreu uma falha na rede STP.
Processo de eleição da raiz
O processo de convergência da árvore de abrangência é um procedimento automatizado que é
iniciado no ponto de inicialização do comutador. Todos os switches na inicialização assumem o papel de
bridge raiz dentro da rede de comutação. O comportamento padrão de uma bridge raiz é atribuir uma
função de porta designada a todas as interfaces de porta para ativar o encaminhamento de BPDU por
meio de todas as interfaces de porta conectadas. Como BPDU são recebidos por switches de peering, a
ID da ponte será comparada para determinar se existe um candidato melhor para a função de bridge
raiz. No caso em que o BPDU recebido contenha um ID de ponte inferior em relação ao ID de raiz, o
comutador de recebimento continuará a anunciar sua própria configuração BPDU ao comutador vizinho.
Onde o BDPU é superior, o switch reconhecerá a presença de um melhor candidato para o papel de
bridge raiz, deixando de propagar o BPDU na direção da qual o BPDU superior foi recebido. O switch
também alterará o campo de ID da raiz de seu BPDU para anunciar o ID da ponte do candidato da bridge
raiz como a nova bridge raiz atual.
Processo de Estabelecimento da Função de Porta
Uma bridge raiz eleita, uma vez estabelecida, gerará a configuração BPDU para todos os outros
switches não-root. O BPDU carregará um custo do caminho da raiz que informará os comutadores
downstream do custo para a raiz, para permitir que o caminho mais curto seja determinado. O custo do
caminho raiz transportado no BPDU que é gerado pela bridge raiz sempre tem um valor 0. Os switches
recebedores downstream adicionarão esse custo ao custo do caminho das interfaces de porta nas quais
o BPDU foi recebido e a partir do qual um switch é capaz de identificar a porta raiz.
No caso em que existem custos de caminho raiz iguais em dois ou mais segmentos de LAN para o
mesmo comutador de upstream, o ID de porta é usado para descobrir as funções de porta. Onde existe
um custo de caminho de raiz igual entre dois comutadores, como no exemplo dado, o ID de ponte é
usado para determinar qual comutador representa o comutador designado para o segmento de LAN.
Onde a porta do switch não é uma porta raiz nem uma porta designada, a função de porta é atribuída
como alternativa.
Transição do Estado de Porta
Como parte da criação da função de ponte raiz e porta, cada comutador progredirá por meio de
várias transições de estado da porta. Qualquer porta que seja desativada administrativamente será
considerada como estando no estado desativado. A ativação de uma porta no estado desativado verá
uma transição de estado para o estado de bloqueio ①.
Qualquer porta considerada em estado de bloqueio não pode encaminhar nenhum tráfego de
usuário, mas é capaz de receber quadros de BPDU. Qualquer BPDU recebido em uma interface de porta
no estado de bloqueio não será usado para preencher a tabela de endereços MAC do comutador, mas
para determinar se é necessária uma transição para o estado de atendimento. O estado de escuta
permite a comunicação de informações de BPDU, após a negociação da função de porta no STP ②, mas
mantém a restrição de preenchimento da tabela de endereços MAC com informações vizinhas.
Uma transição para o estado de bloqueio da escuta ou de outros estados ③ pode ocorrer no caso
em que a porta é alterada para uma função de porta alternativa. A transição entre ouvir aprendizado e
aprender nos estados de encaminhamento ④ depende muito do temporizador de atraso de
encaminhamento, que existe para garantir que qualquer propagação de informações de BDPU para
todos os comutadores na topologia da árvore de abrangência seja alcançável antes que ocorra a
transição de estado.
O estado de aprendizado mantém a restrição de encaminhamento de tráfego do usuário para
garantir a prevenção de qualquer loop de comutação, mas permite a população da tabela de endereços
MAC em toda a topologia da árvore de abrangência para assegurar uma rede de comutação estável.
Após um período de atraso de encaminhamento, o estado de encaminhamento é atingido. O estado
desativado é aplicável a qualquer momento durante o período de transição de estado por meio de
intervenção manual (ou seja, o comando de desligamento) ⑤.
Falha da Raiz
Os eventos que causam uma alteração na topologia da árvore de abrangência estabelecida podem
ocorrer de várias maneiras, para os quais o protocolo de árvore de abrangência deve reagir para
restabelecer rapidamente uma topologia estável e livre de loop. A falha da bridge raiz é um exemplo
primário de onde a convergência é necessária. Os switches não-raiz dependem do pulso intermitente do
BPDU da bridge-raiz para manter suas funções individuais como switches não-raiz na topologia do STP.
No caso de a ponte raiz falhar, os switches downstream não receberão um BPDU da bridge raiz e, como
tal, também deixarão de propagar qualquer downstream do BPDU. O temporizador de Idade MÁX
normalmente é redefinido para o valor definido (20 segundos por padrão) após o recebimento de cada
downstream de BPDU.
Com a perda de qualquer BPDU, no entanto, o temporizador MAX Age começa a contar a vida útil das
informações atuais de BPDU de cada switch não raiz, com base na fórmula (Idade máxima - Idade do
MSG). No ponto em que o valor da Idade MSG é maior que o valor do temporizador MAX Age, as
informações do BPDU recebidas da raiz se tornam inválidas e os switches não-raiz começam a assumir o
papel de bridge raiz. A configuração BPDU é novamente enviada de todas as interfaces ativas em uma
tentativa de descobrir uma nova bridge raiz. A falha da bridge raiz invoca uma duração de recuperação
de aproximadamente 50 segundos devido ao período de convergência Max Age + 2x Forward Delay.
Falha de link indireto
No caso de uma falha de link indireto, um switch perde a conexão com a bridge raiz devido a uma
falha da porta ou mídia, ou possivelmente devido à desativação manual da interface que atua como a
porta raiz. O switch em si se tornará imediatamente ciente da falha e, como ele recebe apenas o BPDU
da raiz em uma direção, assumirá a perda imediata da bridge raiz e declarará sua posição como a nova
bridge raiz.
A partir do exemplo, o comutador B começa a encaminhar o BPDU para o comutador C para notificar
a posição do comutador B como a nova ponte raiz, entretanto o comutador C continua a receber BPDU
da ponte raiz original e, portanto, ignora qualquer BPDU do comutador B. A porta começará a
envelhecer seu estado por meio do temporizador MAX Age, já que a interface não recebe mais o BPDU
contendo o ID raiz da bridge raiz.
Após a expiração do temporizador MAX Age, o switch C mudará a função de porta da porta
alternativa para a de uma porta designada e continuará a encaminhar o BPDU da raiz para o switch B, o
que fará com que o switch conceda sua afirmação como a raiz ponte e converge sua interface de porta
para a função de porta raiz. No entanto, isso representa uma falha de topologia parcial devido à
necessidade de esperar por um período equivalente a MAX Age + 2x de atraso de avanço, a recuperação
completa da topologia de STP requer aproximadamente 50 segundos.
Falha no link direto
Um cenário final envolvendo a recuperação da convergência da árvore de abrangência ocorre quando
vários segmentos da LAN são conectados entre dois dispositivos de comutação para os quais um é
atualmente o link ativo, enquanto o outro fornece um caminho alternativo para a raiz. Se ocorrer um
evento que faça com que o comutador que está recebendo o BPDU detecte uma perda de conexão em
sua porta raiz, como no caso de ocorrer uma falha na porta raiz ou ocorrer uma falha no link, para o qual
o comutador downstream é feito imediatamente ciente, o switch pode fazer a transição instantânea da
porta alternativa.
Isso iniciará a transição pelos estados de escuta, aprendizado e encaminhamento e alcançará a
recuperação dentro de um período de atraso de 2x. No caso de qualquer falha, onde o link que fornece
um caminho melhor é reativado, a topologia da árvore de abrangência deve novamente convergir
novamente para aplicar a topologia de árvore de abrangência ideal.
Alterações na topologia-Instabilidade MAC
Em uma rede de árvore de abrangência convergida, os switches mantêm bancos de dados de filtro ou
tabelas de endereços MAC para gerenciar a propagação de quadros por meio da topologia da árvore de
abrangência. As entradas que fornecem uma associação entre um destino MAC e a interface de porta de
encaminhamento são armazenadas por um período finito de 300 segundos (5 minutos) por padrão. No
entanto, uma alteração na topologia da árvore de abrangência significa que todas as entradas da tabela
de endereços MAC existentes provavelmente se tornarão inválidas devido à alteração no caminho de
comutação e, portanto, devem ser renovadas.
O exemplo demonstra uma topologia de árvore de abrangência existente para a qual o comutador B
possui entradas que permitem que o Host A seja alcançado através da interface Gigabit Ethernet 0/0/3 e
do Host B através da interface Gigabit Ethernet 0/0/2. Uma falha é simulada no switch C para o qual a
porta raiz atual se tornou inativa. Essa falha faz com que um recálculo da topologia da árvore de
abrangência comece e, de maneira previsível, a ativação do link redundante entre o switch C e o switch
B.
Após a re-convergência, no entanto, verifica-se que os quadros do Host A para o Host B não estão
conseguindo chegar ao seu destino. Como as entradas da tabela de endereços MAC ainda precisam
expirar com base na regra de 300 segundos, os quadros que alcançam o comutador B destinados ao
Host B continuam a ser encaminhados pela interface de porta Gigabit Ethernet 0/0/2 e tornam-se
efetivamente negros quando os quadros são encaminhado para a interface de porta inativa do switch C.
Topology Change Process
Um mecanismo adicional deve ser introduzido para lidar com o problema do período de tempo limite
de entradas de MAC que resulta na manutenção de entradas de caminho inválidas após a convergência
da árvore de abrangência. O processo implementado é chamado de processo TCN (Topology Change
Notification) e introduz uma nova forma de BPDU na operação do protocolo spanning tree.
Este novo BPDU é referido como o TCN BPDU e é diferenciado da configuração BPDU original do STP
através da configuração do valor do tipo BPDU para 128 (0x80). A função do TCN BPDU é informar a raiz
raiz upstream de qualquer alteração na topologia atual, permitindo assim que a raiz envie uma
notificação dentro da configuração BPDU para todos os comutadores downstream, para reduzir o
período de tempo limite para entradas da tabela de endereço MAC para o equivalente do temporizador
de atraso de encaminhamento ou 15 segundos por padrão.
O campo de sinalizadores da configuração BPDU contém dois campos para Topologia Change (TC) e
Topologia Change Acknowledgement (TCA). Ao receber um TCN BPDU, a bridge raiz gerará um BPDU
com os bits TC e TCA definidos, para notificar respectivamente a alteração da topologia e para informar
aos switches a jusante que a bridge raiz recebeu o TCN BPDU e, portanto, a transmissão do O TCN BPDU
deve parar.
O bit TCA permanecerá ativo por um período igual ao temporizador Hello (2 segundos), seguindo a
configuração que o BPDU gerado pela bridge raiz manterá somente o bit TC por uma duração de (MAX
Age + forward delay), ou 35 segundos por padrão.
Atualização de topologia Atualização de MAC
O efeito do TCN BPDU no processo de alteração da topologia garante que a bridge raiz seja notificada
de qualquer falha na topologia da árvore de abrangência, para a qual a bridge raiz é capaz de gerar os
sinalizadores necessários para liberar as entradas da tabela de endereço MAC atual em cada os
interruptores. O exemplo demonstra os resultados do processo de alteração de topologia e o impacto
na tabela de endereços MAC. As entradas pertencentes ao switch B foram liberadas e novas entradas
atualizadas foram descobertas para as quais é determinado que o Host B agora pode ser acessado
através da interface de porta Gigabit Ethernet 0/0/1.
Modos STP
Os switches da série Huawei Sx7, aos quais o modelo da série S5700 pertence, são capazes de
suportar três formas de protocolo spanning tree. Usando o comando stp mode, um usuário pode definir
o modo de STP que deve ser aplicado a um switch individual. O modo STP padrão para comutadores da
série Sx7 é MSTP e, portanto, deve ser reconfigurado antes que o STP possa ser usado.
Atribuindo a raiz
Como parte da boa prática de design de switch, é recomendável que a bridge raiz seja definida
manualmente. O posicionamento da bridge raiz garante que o fluxo de caminho ideal de tráfego dentro
da rede corporativa possa ser alcançado através da configuração do valor de prioridade da ponte para o
protocolo spanning tree. O comando stp prioridade [prioridade] pode ser usado para definir o valor de
prioridade, onde a prioridade se refere a um valor inteiro entre 0 e 61440, atribuído em incrementos de
4096. Isso permite um total de 16 incrementos, com um valor padrão de 32768. Também é possível
designar a bridge raiz para a árvore de abrangência através do comando principal stp root.
Atribuindo Custo de Caminho
Entendeu-se que a série de switches Huawei Sx7 suporta três formas de padrão de custo de caminho,
a fim de fornecer compatibilidade, quando necessário, no entanto, o padrão é suportar o padrão de
custo do caminho 802.1t. O padrão de custo do caminho pode ser ajustado para um determinado switch
usando o stc pathcost-standard {dot1d-1998 | dot1t | legacy} comando, em que dot1d-1998, dot1t e
legacy se referem aos padrões de custo do caminho descritos anteriormente nesta seção.
Além disso, o custo do caminho de cada interface também pode ser atribuído manualmente para
suportar um meio de manipulação detalhada do custo do caminho stp. Esse método de manipulação de
custos de caminho deve ser usado com muito cuidado, já que os padrões de custo de caminho são
projetados para implementar a topologia de árvore de abrangência ideal para uma determinada rede de
comutação e a manipulação do custo de stp pode resultar na formação de uma árvore de abrangência
abaixo do ideal topologia.
O comando stp cost [cost] é usado, para o qual o valor de custo deve seguir o intervalo definido pelo
padrão de custo do caminho. Se um padrão herdado da Huawei for usado, o custo do caminho varia de
1 a 200.000. Se o padrão IEEE 802.1D for usado, o custo do caminho varia de 1 a 65535. Se o padrão IEEE
802.1t for usado, o custo do caminho varia de 1 para 200000000.
Proteção de Raiz
Se o switch raiz em uma rede for configurado ou atacado incorretamente, ele poderá receber um
BPDU com uma prioridade mais alta e, assim, o switch raiz se tornará um switch não raiz, o que causará
uma alteração na topologia da rede. Como resultado, o tráfego pode ser alternado de links de alta
velocidade para links de baixa velocidade, causando congestionamento na rede.
Para resolver esse problema, o switch fornece a função de proteção de raiz. A função de proteção de
raiz protege o papel do switch raiz, mantendo a função da porta designada. Quando a porta recebe um
BPDU com uma prioridade mais alta, a porta pára de encaminhar pacotes e passa para o estado de
escuta, mas ainda retém uma função de porta designada. Se a porta não receber nenhum BPDU com
uma prioridade mais alta por um determinado período, o status da porta será restaurado a partir do
estado de escuta.
A proteção raiz configurada é válida somente quando a porta é a porta designada e a porta mantém a
função. Se uma porta estiver configurada como uma porta de borda ou se um comando conhecido como
proteção de loop estiver ativado na porta, a proteção de raiz não poderá ser ativada na porta.
Verifiação da Configuração
Usando o comando display stp, a configuração atual do STP pode ser determinada. Existem vários
timers para gerenciar a convergência da árvore de abrangência, incluindo o timer de saudação, o timer
de duração máxima e o atraso de encaminhamento, para os quais os valores exibidos representam as
configurações padrão do timer e são recomendados para manutenção.
O ID da bridge atual pode ser identificado para um determinado switch através da configuração CIST
Bridge, composta pela ID da ponte e pelo endereço MAC do switch. As estatísticas fornecem
informações sobre se o switch sofreu alterações de topologia, principalmente por meio do valor
recebido de TC ou TCN, juntamente com a última ocorrência, conforme mostrado no tempo desde a
última entrada de TC.
Verifiação da Configuração
Para interfaces individuais em um switch, é possível exibir essas informações através do comando
display stp para listar todas as interfaces, ou usando o comando display interface stp <interface> para
definir uma interface específica. O estado da interface segue os estados da porta MSTP e, portanto, será
exibido como Descartando, Aprendendo ou Encaminhando. Outras informações válidas, como a função
da porta e o custo da porta, também são exibidas, juntamente com os mecanismos de proteção
aplicados.
Resumo
1-No caso de uma bridge raiz (switch) falhar temporariamente na rede STP, o próximo switch viável
assumirá como a bridge raiz. O que ocorrerá quando a bridge raiz com falha voltar a ficar ativa na rede?
Após a falha da bridge raiz para uma rede de árvore de abrangência, o próximo melhor candidato
será eleito como a bridge raiz. No caso em que a ponte-raiz original se torne ativa novamente na rede, o
processo de eleição para a posição da ponte-raiz ocorrerá novamente. Isso efetivamente causa o tempo
de inatividade da rede na rede de comutação conforme a convergência prossegue.
2-Qual é a diferença entre Custo de Caminho e Custo do Caminho Raiz?
O Custo do Caminho Raiz é o custo associado ao caminho de volta à raiz, enquanto o Custo do
Caminho refere-se ao valor de custo definido para uma interface em um comutador, que é adicionado
ao Custo do Caminho Raiz, para definir o Custo do Caminho Raiz para o comutador a jusante.
Prefácio
O padrão STP original foi definido em 1998, para o qual foram descobertas várias
limitações, particularmente no tempo necessário para a convergência ocorrer. Em vista
disso, o Rapid Spanning Tree Protocol (RSTP) foi introduzido. Entende-se que as
características fundamentais do RSTP seguem a base do STP, portanto, as diferenças
características encontradas no RSTP são enfatizadas nesta seção.
Objectivos
Após a conclusão desta seção, os formandos serão capazes de:
 Descreva as características associadas ao RSTP.
 Configure os parâmetros RSTP.
Fraqueza STP
O STP garante uma rede sem loop, mas possui uma velocidade de convergência de topologia de rede
lenta, levando à deterioração do serviço. Se a topologia da rede mudar com freqüência, as conexões na
rede compatível com STP serão freqüentemente interrompidas, causando interrupção regular do
serviço.
O RSTP emprega um processo de proposta e acordo que permite a negociação imediata dos links,
eliminando efetivamente o tempo que os timers baseados na convergência vencem antes que a
convergência da árvore de abrangência possa ocorrer. O processo de proposta e concordância tende a
seguir um efeito em cascata do ponto da bridge raiz através da rede de comutação, à medida que cada
switch downstream começa a conhecer a verdadeira ponte-raiz e o caminho pelo qual a bridge-raiz
pode ser alcançada.
Função de Porta no RSTP
Os comutadores que operam no modo RSTP implementam duas funções de porta separadas para
redundância. A porta alternativa representa um caminho redundante para a ponte raiz no caso de o
caminho atual para a ponte raiz falhar. A função de porta de backup representa um backup para o
caminho do segmento da LAN na direção que leva para longe da ponte raiz. Pode ser entendido que
uma porta de backup representa um método para fornecer redundância à função de porta designada de
uma maneira semelhante que uma porta alternativa fornece um método de redundância para a porta
raiz.
A função de porta de backup é capaz de existir onde um comutador tem duas ou mais conexões com
um dispositivo de mídia compartilhado, como um hub, ou onde um único link ponto-a-ponto é usado
para gerar uma conexão de loopback físico entre portas no mesmo interruptor. Em ambos os casos, no
entanto, o princípio de uma porta de backup existente onde duas ou mais portas em um único switch se
conectam a um único segmento de LAN ainda se aplica.
Portas de borda RSTP
No RSTP, uma porta designada na borda da rede é chamada de porta de borda. Uma porta de borda
se conecta diretamente a um terminal e não se conecta a nenhum outro dispositivo de comutação. Uma
porta de borda não recebe a configuração BPDU, portanto, não participa do cálculo do RSTP.
Ele pode mudar diretamente do estado Desativado para o estado de Encaminhamento sem qualquer
atraso, como uma porta incapaz de STP. Se uma porta de borda receber BPDU de configuração falsa de
invasores, ela será privada dos atributos de porta de borda e se tornará uma porta STP comum. O
cálculo de STP é implementado novamente, causando oscilação de rede.
Estados de Porta no RSTP
O RSTP introduz uma alteração nos estados de porta que são simplificados de cinco para três tipos.
Esses tipos de porta são baseados em se uma porta encaminha o tráfego do usuário e aprende os
endereços MAC. Se uma porta não encaminha o tráfego do usuário nem aprende os endereços MAC, a
porta está no estado Descartando. Considera-se que a porta está em um estado de aprendizado em que
uma porta não encaminha o tráfego do usuário, mas aprende os endereços MAC. Finalmente, quando
uma porta encaminha o tráfego do usuário e aprende os endereços MAC, a porta é considerada no
estado de encaminhamento.
RSTP BPDU
O formato BPDU empregado no STP também é aplicado ao RSTP com variância em alguns dos
parâmetros gerais. Para distinguir o BPDU de configuração de STP de BPDU de árvore de rápida
expansão, conhecido como RST BPDU, o tipo de BPDU é definido. O STP define uma configuração do
tipo BPDU de 0 (0x00) e um BPDU de Notificação de Alteração de Topologia (TCN BPDU) de 128 (0x80),
RST BPDU são identificados pelo valor do tipo BPDU 2 (0x02). Dentro do campo de flags do BPDU RST,
designações de parâmetros adicionais são atribuídas aos campos BPDU.
O campo de sinalizadores no STP implementou apenas o uso dos parâmetros de Alteração de
Topologia (TC) e Reconhecimento (TCA) como parte do processo de Mudança de Topologia enquanto
outros campos foram reservados. O BPDU RST adotou esses campos para suportar novos parâmetros.
Estes incluem sinalizadores indicando o processo de proposta e acordo empregado pelo RSTP para
convergência rápida, a definição da função de porta e o estado da porta.
RST BPDU
No STP, depois que a topologia se torna estável, a bridge raiz envia a configuração BPDU em um
intervalo definido pelo Hello timer. Uma ponte não-raiz não envia a configuração BPDU até receber a
configuração BPDU enviada do dispositivo upstream. Isso torna o cálculo do STP complicado e
demorado. No RSTP, depois que a topologia se torna estável, uma ponte não-raiz envia BPDU de
configuração em intervalos Hello, independentemente de ter recebido a configuração BPDU enviada da
bridge raiz; tais operações são implementadas em cada dispositivo de forma independente.
Convergência RSTP
A convergência do RSTP segue alguns dos princípios básicos do STP ao determinar inicialmente que
todos os switches durante a inicialização asseveram o papel de bridge raiz e, como tal, atribuem cada
interface de porta a uma função de porta designada. No entanto, o estado da porta é definido para um
estado de descarte até que os comutadores de peering consigam confirmar o estado do link.
Proposta BPDU RST
Cada switch que proclama ser a bridge raiz negociará os estados de porta para um determinado
segmento de LAN, gerando um BPDU de RST com o bit de proposta definido no campo de flags. Quando
uma porta recebe um RST BPDU da ponte designada a montante, a porta compara o RST BPDU recebido
com o seu próprio RST BPDU. Se seu próprio BPDU de RST for superior ao recebido, a porta descartará o
BPDU de RST recebido e responderá imediatamente ao dispositivo de peering com seu próprio BPDU de
RST que inclui um bit de proposta de conjunto.
Processo de Sincronização RSTP
Como os timers não desempenham um papel importante em grande parte do processo de
convergência da topologia RSTP, conforme encontrado com o STP, é importante que o potencial de
troca de loops durante a negociação da função portuária seja restrito. Isso é gerenciado pela
implementação de um processo de sincronização que determina que, após o recebimento de um BPDU
superior contendo o bit da proposta, a central receptora deve definir todas as portas designadas
downstream como descartáveis como parte do processo de sincronização.
Onde a porta downstream é uma porta alternativa ou uma porta de borda, no entanto, o status da
função de porta permanece inalterado. O exemplo demonstra a transição temporária da porta
designada no segmento de LAN downstream para um estado de descarte e, portanto, bloqueando
qualquer encaminhamento de quadro durante o processo de proposta e contrato upstream.
Contrato BPDU RST
A transição confirmada da porta designada a jusante para um estado de descarte permite que um
BPDU de RST seja enviado em resposta à proposta enviada pelo comutador a montante. Durante esse
estágio, a função de porta da interface foi determinada como a porta raiz e, portanto, o sinalizador de
acordo e a função de porta da raiz são configurados no campo de sinalizadores do BPDU de RST que é
retornado em resposta à proposta.
Link Convergente RSTP
Durante o estágio final do processo de proposta e acordo, o BPDU do RST contendo o bit de
concordância é recebido pelo comutador upstream, permitindo que a porta designada faça a transição
imediatamente de um estado de descarte para o estado de encaminhamento. Em seguida, o (s)
segmento (s) de LAN a jusante começará a negociar as funções de porta das interfaces usando o mesmo
processo de proposta e acordo.
Falha de link / raiz
No STP, um dispositivo tem que esperar um período Max Age antes de determinar uma falha de
negociação. No RSTP, se uma porta não receber BPDUs de configuração enviados do dispositivo
upstream por três intervalos Hello consecutivos, a comunicação entre o dispositivo local e seu par
falhará, fazendo com que o processo de proposta e acordo seja inicializado para descobrir as funções de
porta para o segmento de LAN.
Processo de alteração de topologia
Mudanças de topologia afetam o RSTP da mesma forma que o STP é afetado, no entanto, existem
algumas pequenas diferenças entre os dois. No exemplo, uma falha do link ocorreu no switch C. O
switch A e o switch C detectarão a falha do link imediatamente e liberarão as entradas de endereço para
as portas conectadas a esse link. Um BPDU do RST começará a negociar os estados do porto como parte
do processo de proposta e acordo, após o qual uma notificação de Mudança de Topologia ocorrerá,
juntamente com o encaminhamento do BPDU do RST contendo o contrato.
Este BPDU RST terá tanto o bit Agreement como o bit TC definido como 1, para informar os switches
upstream da necessidade de liberar suas entradas MAC em todas as interfaces de porta, exceto a
interface de porta na qual o BPDU RST contendo o bit TC definido foi recebido .
O bit TC será definido no RST BPDU enviado periodicamente e encaminhado para upstream por um
período equivalente a Hello Time + 1 segundo, durante o qual todas as interfaces relevantes serão
liberadas e deverá proceder ao repovoamento de entradas MAC com base na nova topologia RSTP . O
vermelho (mais escuro) "x" no exemplo realça quais interfaces serão liberadas como resultado da
alteração da topologia.
Interpolação STP
A implementação de STP dentro de uma topologia de comutação baseada em RSTP é possível, no
entanto, não é recomendada, uma vez que qualquer limitação pertencente a STP se torna aparente
dentro do intervalo de comunicação do comutador habilitado para STP. Um porto envolvido no processo
de negociação para estabelecer sua função dentro do STP deve esperar por um período de até 50
segundos antes que a convergência possa ser concluída, de modo que os benefícios do RSTP sejam
perdidos.
Configurando o Modo
A configuração do modo de árvore de abrangência dos comutadores Sx7 requer que o comando do
modo stp seja usado para definir o modo como RSTP. Ao fazer isso, o switch da série Sx7 gerará o BPDU
de RST em relação ao RSTP, em oposição a outras implementações de árvore de abrangência. Esse
comando é configurado a partir da visualização do sistema e deve ser aplicado a todos os comutadores
que participam da topologia da árvore de abrangência rápida.
Validação de Configuração
O comando display stp fornecerá informações relativas à configuração do RSTP, já que muitos dos
parâmetros seguem a arquitetura principal do STP. A informação do modo determinará se um
comutador está operando atualmente usando o RSTP.
Configurando a porta de borda
Uma interface de borda define uma porta que não participa da topologia da árvore de abrangência.
Essas interfaces são usadas pelos sistemas finais para conectar-se à rede de comutação para o propósito
de encaminhar quadros. Como esses sistemas finais não precisam negociar o status da interface de
porta, é preferível que a porta seja transferida diretamente para um estado de encaminhamento para
permitir que os quadros sejam encaminhados sobre essa interface imediatamente.
O comando stp edged-port enable é usado para alternar uma porta para se tornar uma porta de
borda, já que todas as portas são consideradas portas sem borda em um switch por padrão. Para
desabilitar a porta de borda, o comando disable stp edged-port é usado. Esses comandos se aplicam
apenas a uma interface de porta única em um determinado switch. É importante observar que o
comportamento da porta de borda está associado ao RSTP conforme definido na documentação de
padrões IEEE 802.1D-2004, porém devido à aplicação específica de VRP da máquina de estado RSTP
subjacente ao STP (que também resulta nos estados de porta RSTP) presente no STP), também é
possível aplicar as configurações da porta de borda do RSTP ao STP dentro dos produtos da série Huawei
Sx7.
No caso de várias portas em um switch serem configuradas como portas de borda, o comando
padrão stp-edge-port é aplicado, o que impõe que todas as interfaces de porta em um switch se tornem
portas de borda. É importante executar o comando disable stp-edged-port nas portas que precisam
participar do cálculo do STP entre os dispositivos, para evitar possíveis loops que possam ser causados
como resultado dos cálculos de topologia do STP.
Proteção BPDU
A porta que está diretamente conectada a um terminal de usuário, como um PC ou um servidor de
arquivos, é configurada como uma porta de borda para garantir a rápida transição do status da porta.
Geralmente, nenhum BPDU é enviado para as portas de borda, no entanto, se o switch for atacado pelo
pseudo BPDU, o switch definirá as portas de borda como portas sem borda. Depois que essas portas de
borda receberem um BPDU, a topologia da árvore de abrangência será recalculada e, como resultado,
ocorrerá um flapping de rede.
Para se defender contra ataques pseudo-BPDU, o RSTP fornece proteção BPDU. Depois que a
proteção BPDU é ativada, o switch desliga a porta de borda que recebe BPDU e informa qualquer
estação de gerenciamento de rede (NMS) ativa. As portas de borda que são desligadas pelo switch
podem ser iniciadas manualmente apenas pelo administrador da rede. O comando stp bpdu-protection
deve ser usado para ativar a proteção de BPDU e é configurado globalmente dentro da visualização do
sistema.
Proteção de Loop
O switch mantém o status da porta raiz e das portas bloqueadas, recebendo continuamente o BPDU
do switch upstream. Se o comutador raiz não puder receber o BPDU a partir do comutador upstream
devido ao congestionamento de link ou falha de link unidirecional, o comutador selecionará novamente
uma porta raiz. A porta raiz anterior torna-se então uma porta designada e as portas bloqueadas
mudam para o estado de encaminhamento. Como resultado, loops podem ocorrer na rede.
O switch fornece proteção de loop para evitar loops de rede. Depois que a função de proteção de
loop estiver ativada, a porta raiz será bloqueada se não puder receber o BPDU a partir do switch
upstream. A porta bloqueada permanece no estado bloqueado e não encaminha pacotes. Isso evita
loops na rede. Se uma interface estiver configurada como uma interface de borda ou a proteção de raiz
estiver ativada na interface, a proteção de loop não poderá ser ativada na interface. O comando stp
loop-protection deve ser aplicado para ativar esse recurso na visualização da interface.
Validação de Configuração
A validação da configuração RSTP para uma determinada interface é obtida através do comando
display interface stp <interface>. As informações associadas identificarão o estado da porta da interface
como Descartando, Aprendendo ou Encaminhando. Informações relevantes para a interface de porta,
incluindo a prioridade da porta, o custo da porta, o status da porta como uma porta de borda ou
suporte ponto-a-ponto, etc, são definidas.
Resumo
1-Qual é o propósito da sincronização que ocorre durante a proposta do RSTP e o processo
de acordo?
O sincronismo é um estágio no processo de convergência que envolve o bloqueio de portas
designadas enquanto o BPDU de RST é transmitido contendo mensagens de proposta e acordo para
convergir o segmento de comutador. O processo é projetado para garantir que todas as interfaces
estejam de acordo com suas funções de porta, a fim de garantir que não ocorram loops de comutação
quando a porta designada para qualquer comutador de recebimento de dados for desbloqueada.
Prefácio
O encaminhamento de quadros e comutação introduziu as operações da camada de enlace de
dados e, em particular, o papel dos padrões baseados em IEEE 802 como o mecanismo subjacente de
comunicação subjacente, sobre o qual as suítes de protocolo de camada superior geralmente operam.
Com a introdução do roteamento, a física que define os protocolos da camada superior e a comunicação
entre redes é estabelecida. Geralmente, um domínio de rede da empresa consiste em várias redes para
as quais são necessárias decisões de roteamento para garantir que as rotas ideais sejam usadas, a fim de
encaminhar pacotes IP (ou datagramas) para os destinos de rede pretendidos. Esta seção apresenta as
bases nas quais o roteamento IP é baseado.
Objectivos
Após a conclusão desta seção, os formandos serão capazes de:
 Explicar os princípios que controlam as decisões de roteamento IP.
 Explicar os requisitos básicos para o encaminhamento de pacotes.
Sistemas autônomos
Uma rede corporativa geralmente pode ser entendida como uma instância de um sistema autônomo.
Conforme definido no RFC 1030, um sistema autônomo ou AS, como também é comumente conhecido,
é um grupo conectado de um ou mais prefixos IP executados por um ou mais operadores de rede que
possuem uma política de roteamento SINGLE e DEFINIDA CLARAMENTE.
O conceito de sistemas autônomos originalmente considerava a existência de um único protocolo de
roteamento. No entanto, à medida que as redes evoluíram, é possível suportar múltiplos protocolos de
roteamento que interagem através da injeção de rotas de um protocolo para outro. Uma política de
roteamento pode ser entendida como um conjunto de regras que determinam como o tráfego é
gerenciado dentro de um sistema autônomo, ao qual um único ou múltiplos operadores devem aderir.
Rede local e domínios de broadcast
Os princípios que envolvem a mudança têm lidado principalmente com o encaminhamento de
tráfego dentro do escopo de uma rede local e o gateway, que até agora definiu o limite do domínio de
broadcast. Os roteadores são a forma principal do dispositivo de camada de rede usado para definir o
gateway de cada rede local e ativar a segmentação de rede IP. Os roteadores geralmente funcionam
como um meio de rotear pacotes de uma rede local para a próxima, confiando no endereçamento IP
para definir a rede IP à qual os pacotes são destinados.
Decisões de roteamento
O roteador é responsável por determinar o caminho de encaminhamento através do qual os pacotes
devem ser enviados a rota para um determinado destino. É da responsabilidade de cada roteador tomar
decisões sobre como os dados são encaminhados. Quando um roteador tem vários caminhos para um
determinado destino, as decisões de rota baseadas em cálculos são feitas para determinar o melhor
próximo salto para o destino pretendido. As decisões que governam a rota que deve ser tomada podem
variar dependendo do protocolo de roteamento em uso, confiando em métricas de cada protocolo para
tomar decisões em relação a fatores variáveis, como largura de banda e contagem de saltos.
Tabela de Roteamento IP
Os roteadores encaminham pacotes com base em tabelas de roteamento e uma base de informações
de encaminhamento (FIB) e mantêm pelo menos uma tabela de roteamento e uma FIB. Os roteadores
selecionam rotas com base em tabelas de roteamento e encaminham pacotes com base no FIB. Um
roteador usa uma tabela de roteamento local para armazenar rotas de protocolo e rotas preferenciais.
O roteador envia as rotas preferidas para o FIB para guiar o encaminhamento de pacotes. O roteador
seleciona rotas de acordo com as prioridades de protocolos e custos armazenados na tabela de
roteamento. Uma tabela de roteamento contém dados importantes para cada pacote IP.
O destino e a máscara são usados em combinação para identificar o endereço IP de destino ou o
segmento de rede de destino em que reside o host ou roteador de destino. O campo do protocolo
(Proto) indica o protocolo através do qual as rotas são aprendidas. A preferência (Pre) especifica o valor
de preferência associado ao protocolo e é usado para decidir qual protocolo é aplicado à tabela de
roteamento em que dois protocolos oferecem rotas semelhantes. O roteador seleciona a rota com a
maior preferência (o menor valor) como a rota ideal.
Um valor de custo representa a métrica usada para distinguir quando várias rotas para o mesmo
destino têm a mesma preferência, a rota com o menor custo é selecionada como a rota ideal. Um valor
de próximo salto indica o endereço IP do próximo dispositivo ou gateway da camada de rede pelo qual
passa um pacote IP. No exemplo dado um próximo salto de 127.0.0.1 refere-se à interface local do
dispositivo como sendo o próximo salto. Finalmente, o parâmetro interface indica a interface de saída
através da qual um pacote IP é encaminhado.
Decisões de roteamento - correspondência mais longa
Para
permitir que os pacotes cheguem ao destino pretendido, os roteadores devem tomar decisões
específicas sobre as rotas aprendidas e quais dessas rotas são aplicadas. É provável que um roteador
aprenda sobre o caminho para um determinado destino de rede por meio de informações de
roteamento anunciadas a partir de roteadores vizinhos; alternativamente, é possível que as rotas
aplicadas estaticamente sejam implementadas manualmente por meio da intervenção do
administrador.
Cada entrada na tabela FIB contém a interface física ou lógica pela qual um pacote é enviado para
alcançar o próximo roteador. Uma entrada também indica se o pacote pode ser enviado diretamente
para um host de destino em uma rede diretamente conectada. O roteador executa uma operação
"AND" no endereço de destino no pacote e na máscara de rede de cada entrada na tabela FIB.
O roteador compara o resultado da operação "AND" com as entradas na tabela FIB para encontrar
uma correspondência. O roteador escolhe a rota ideal para encaminhar pacotes de acordo com a
melhor ou "mais longa" correspondência. No exemplo, existem duas entradas para a rede 10.1.1.0 com
um próximo salto de 20.1.1.2. O encaminhamento para o destino de 10.1.1.1 resultará na aplicação do
maior princípio de correspondência, para o qual o endereço de rede 10.1.1.0/30 fornece a
correspondência mais longa.
Decisões de roteamento – preferência
Uma tabela de roteamento pode conter as rotas originadas de vários protocolos para um
determinado destino. Nem todos os protocolos de roteamento são considerados iguais, e onde a
correspondência mais longa para várias rotas de protocolos de roteamento diferentes para o mesmo
destino é igual, uma decisão deve ser tomada em relação a qual protocolo de roteamento (incluindo
rotas estáticas) terá precedência.
Somente um protocolo de roteamento determina a rota ideal para um destino. Para selecionar a rota
ideal, cada protocolo de roteamento (incluindo a rota estática) é configurado com uma preferência
(quanto menor o valor, maior a preferência). Quando várias fontes de informações de roteamento
coexistem, a rota com a preferência mais alta é selecionada como a rota ideal e adicionada à tabela de
roteamento local.
No exemplo, dois protocolos são definidos que fornecem um meio de descoberta da rede 10.1.1.0
por meio de dois caminhos diferentes. O caminho definido pelo protocolo RIP parece fornecer uma rota
mais direta para o destino pretendido, no entanto, devido ao valor de preferência, a rota definida pelo
protocolo OSPF é preferida e, portanto, instalada na tabela de roteamento como a rota preferencial. Um
resumo dos valores de preferência padrão de alguns mecanismos de roteamento comuns é fornecido
para fornecer uma compreensão da ordem de preferência padrão.
Decisões de roteamento – métrica
Quando a rota não pode ser distinguida por um valor de correspondência mais longo ou preferência,
a métrica de custo é tomada como o tomador de decisão na identificação da rota que deve ser instalada
na tabela de roteamento. Custo representa o comprimento de um caminho para uma rede de destino.
Cada segmento fornece um valor de métrica de custo ao longo de um caminho que é combinado para
identificar o custo da rota. Outro fator comum é a largura de banda da rede, na qual o mecanismo de
custo às vezes é baseado. Um link com uma velocidade mais alta (capacidade) representa um valor de
custo mais baixo, permitindo que a preferência de um caminho sobre outro seja feita, enquanto os links
de velocidade igual recebem um custo balanceado para fins de balanceamento de carga eficiente. Uma
métrica mais baixa sempre terá precedência e, portanto, a métrica de 50, conforme mostrado no
exemplo, define a rota ideal para o destino determinado para o qual uma entrada pode ser encontrada
na tabela de roteamento.
Requisitos de encaminhamento de tabela de roteamento
A capacidade de um roteador para encaminhar um pacote IP para um determinado destino requer
que certas informações de encaminhamento sejam conhecidas. Qualquer roteador que deseje
encaminhar um pacote IP deve, primeiramente, estar ciente de um endereço de destino válido para o
qual o pacote será encaminhado, isso significa que deve existir uma entrada na tabela de roteamento
que o roteador possa consultar. Essa entrada também deve identificar a interface através da qual os
pacotes IP devem ser transmitidos e o próximo salto ao longo do caminho, para o qual o pacote deve ser
recebido antes da consulta para a próxima decisão de encaminhamento ser executada.
Resumo
1-Qual é a ordem na qual as decisões de roteamento são tomadas?
As decisões de roteamento são tomadas inicialmente com base no maior valor de correspondência,
independentemente do valor de preferência atribuído às rotas para a mesma rede. Se o maior valor de
correspondência para duas rotas para o mesmo destino é igual, a preferência deve ser usada, onde a
preferência também é igual, a métrica deve ser usada. Nos casos em que o valor da métrica também é o
mesmo, os protocolos geralmente aplicam uma forma de balanceamento de carga de dados sobre os
links de custo igual.
2-O que a preferência representa?
A preferência é normalmente usada para denotar a confiabilidade de uma rota em rotas que podem
ser consideradas menos confiáveis. Os fornecedores de equipamento de roteamento podem, no
entanto, atribuir diferentes valores de preferência para protocolos suportados dentro do próprio
produto de cada fornecedor. Os valores de preferência de alguns protocolos comuns de roteamento
suportados pelos dispositivos de roteamento da Huawei podem ser encontrados nesta seção.
Prefácio
A implementação de rotas dentro da tabela de roteamento IP de um roteador pode ser definida
manualmente usando rotas estáticas ou através do uso de protocolos de roteamento dinâmico. A
configuração manual de rotas permite o controle direto da tabela de roteamento, mas pode resultar em
falha na rota caso o próximo salto do roteador falhe. No entanto, a configuração de rotas estáticas é
frequentemente usada para complementar os protocolos de roteamento dinâmico para fornecer rotas
alternativas no caso de rotas descobertas dinamicamente falharem ao fornecer um próximo salto válido.
O conhecimento das várias aplicações de rotas estáticas e configuração é necessário para uma
administração de rede efetiva.
Objectivos
Após a conclusão desta seção, os formandos serão capazes de:
 Explicar os diferentes aplicativos para rotas estáticas.
 Configurar com sucesso rotas estáticas na tabela de roteamento IP.
Aplicativo para rota estática
Uma rota estática é uma rota especial que é configurada manualmente por um administrador de
rede. A desvantagem das rotas estáticas é que elas não podem se adaptar à mudança em uma rede
automaticamente, portanto, as mudanças na rede exigem uma reconfiguração manual. Rotas estáticas
são adequadas para redes com estruturas comparativamente simples. Não é aconselhável configurar e
manter rotas estáticas para uma rede com uma estrutura complexa. As rotas estáticas, no entanto,
reduzem o efeito da largura de banda e do consumo de recursos da CPU que ocorre quando outros
protocolos são implementados.
Comportamento de rota estática
As rotas estáticas podem ser aplicadas a redes que usam mídia serial e Ethernet, no entanto, em cada
situação, as condições de aplicação da rota estática variam nas quais a interface de saída ou o endereço
IP do próximo salto deve ser definido.
O meio serial representa uma forma de interface ponto-a-ponto (P2P) para a qual a interface de saída
deve ser configurada. Para uma interface P2P, o endereço do próximo salto é especificado após a
interface de saída ser especificada. Ou seja, o endereço da interface remota (interface no dispositivo de
mesmo nível) conectada a essa interface é o endereço do próximo salto.
Por exemplo, o protocolo usado para encapsular no meio serial é o protocolo ponto a ponto (PPP). O
endereço IP remoto é obtido após a negociação PPP, portanto, é necessário especificar apenas a
interface de saída. O exemplo também define uma forma de conexão Ethernet ponto-a-ponto, no
entanto, a Ethernet representa uma tecnologia de transmissão por natureza e, portanto, os princípios
da tecnologia ponto a ponto não se aplicam.
Comportamento da Rota Estática
No caso de interfaces de transmissão, como Ethernet, o próximo salto deve ser definido. Onde a
interface Ethernet é especificada como a interface de saída, vários saltos próximos provavelmente
existirão e o sistema não poderá decidir qual próximo salto deve ser usado. Ao determinar o próximo
salto, um roteador é capaz de identificar a conexão local pela qual o pacote deve ser recebido.
No exemplo, os pacotes destinados ao destino 192.168.2.0/24 devem ser encaminhados para o
próximo salto de 10.0.123.2 para garantir a entrega. Como alternativa, alcançar o destino de
192.168.3.0 requer que o próximo salto de 10.0.123.3 seja definido.
Configurando uma rota estática
A configuração da rota estática é obtida usando o ip-static ip-address route {mask | mask-length}
interface-tipo interface-número [nexthop-address] onde o endereço IP se refere ao endereço de destino
da rede ou do host. O campo de máscara pode ser definido como um valor de máscara ou baseado no
número do prefixo. No caso de um meio de transmissão, como Ethernet, o endereço do próximo salto é
usado. Quando uma mídia serial é usada, o tipo de interface e o número da interface são atribuídos (por
exemplo, serial 1/0/0) ao comando para definir a interface de saída.
Balanceamento de carga de rota estática
Onde existem caminhos de custo igual entre as redes de origem e de destino, o balanceamento de
carga pode ser implementado para permitir que o tráfego seja transportado pelos dois links. Para
conseguir isso usando rotas estáticas, ambas as rotas devem atender aos parâmetros para uma
correspondência, valor de preferência e métrica iguais e mais longos. A configuração de várias rotas
estáticas, uma para cada interface de próximo salto ou saída, no caso de mídia serial, é necessária.
O exemplo demonstra como dois comandos ip route-static são implementados, cada um definindo o
mesmo endereço e máscara de destino IP, mas alternando locais de próximo salto. Isso garante que a
correspondência mais longa (/ 24) seja igual e, naturalmente, o valor de preferência, já que ambas as
rotas são estáticas e têm uma preferência padrão de 60. O custo de ambos os caminhos também é igual
ao balanceamento de carga.
Verificando o balanceamento de carga de rota estática
A tabela de roteamento pode ser consultada para verificar os resultados executando o comando
display ip routing-table após as rotas estáticas serem configuradas. A rota estática é exibida na tabela de
roteamento e os resultados mostram duas entradas para o mesmo destino, com valores
correspondentes de preferência e métrica. Os diferentes endereços do próximo salto e a variação na
interface de saída identificam os dois caminhos tomados e confirmam que o balanceamento de carga foi
alcançado.
Rotas Estáticas Flutuantes
A aplicação de rotas estáticas permite várias maneiras pelas quais as rotas podem ser manipuladas
para atingir os requisitos de roteamento. É possível alterar a preferência de uma rota estática com a
finalidade de permitir a preferência de uma rota estática sobre outra ou, quando usada com outros
protocolos, para garantir que a rota estática seja preferencial ou a preferência seja dada à rota
alternativa protocolo.
O valor de preferência padrão de uma rota estática é 60, portanto, ajustando esse valor de
preferência, uma determinada rota estática pode ser tratada com preferência desigual sobre qualquer
outra rota, incluindo outras rotas estáticas. No exemplo dado, existem duas rotas estáticas em dois
segmentos de LAN físicos, enquanto normalmente ambas as rotas estáticas seriam consideradas iguais,
a segunda rota recebeu uma menor preferência (maior valor) fazendo com que ela seja removida da
tabela de roteamento. O princípio de uma rota estática flutuante significa que a rota com menor
preferência será aplicada à tabela de roteamento, caso a rota principal falhe.
Verificação da rota estática flutuante
Ao usar o comando display ip routing-table, é possível observar os resultados da alteração no valor
de preferência que resulta na rota estática flutuante. Normalmente, duas rotas de custo iguais seriam
exibidas na tabela de roteamento, definindo o mesmo destino, porém com valores alternativos de
próximo salto e interfaces de saída. Nesse caso, no entanto, apenas uma instância pode ser vista,
contendo o valor de preferência de rota estática padrão de 60. Como a segunda rota estática agora tem
um valor de preferência de 100, ela não é imediatamente incluída na tabela de roteamento, pois não é
mais considerada uma rota ótima.
No caso em que a rota estática primária deve falhar como resultado de falha no link físico ou através
da desativação de uma interface, a rota estática não poderá mais fornecer uma rota para o destino
pretendido e, portanto, será removida da tabela de roteamento . A rota estática flutuante
provavelmente se tornará a próxima melhor opção para alcançar o destino pretendido e será adicionada
à tabela de roteamento para permitir que os pacotes sejam transmitidos por um segundo caminho
alternativo para o destino pretendido, permitindo a continuidade à luz de qualquer falha.
Quando a conexão física para a rota original for restaurada, a rota estática original também assumirá
a rota estática flutuante atual, para a qual a rota será restaurada na tabela de roteamento, fazendo com
que a rota estática flutuante espere novamente o aplicativo.
Rotas Estáticas Padrão
A rota estática padrão é uma forma especial de rota estática que é aplicada a redes nas quais o
endereço de destino é desconhecido, a fim de permitir que um caminho de encaminhamento seja
disponibilizado. Isso fornece um meio eficaz de rotear o tráfego de um destino desconhecido para um
roteador ou gateway que possa ter conhecimento do caminho de encaminhamento em uma rede
corporativa.
A rota padrão depende do endereço "qualquer rede" de 0.0.0.0 para corresponder a qualquer rede
na qual não foi possível encontrar uma correspondência na tabela de roteamento e fornece um caminho
de encaminhamento padrão para o qual os pacotes de todos os destinos de rede desconhecidos devem
ser roteados. No exemplo, uma rota estática padrão foi implementada no RTA, identificando que
pacotes devem ser enviados para o destino 10.0.12.2.
Em termos de tomada de decisão da tabela de roteamento, como rota estática, a rota padrão
mantém uma preferência de 60 por padrão, mas opera como último recurso em termos da regra de
correspondência mais longa no processo de correspondência de rota.
Verificação de rota estática padrão
A configuração da rota estática, uma vez configurada, aparecerá na tabela de roteamento do
roteador. O comando display ip routing-table é usado para visualizar este detalhe. Como resultado,
todas as rotas no exemplo, quando não associadas a outras rotas na tabela de roteamento, serão
encaminhadas para o destino do próximo salto de 10.0.12.2 através da interface Gigabit Ethernet 0/0/0.
Resumo
1-O que deve ser alterado para permitir que uma rota estática se torne uma rota estática flutuante?
Uma rota estática flutuante pode ser implementada ajustando o valor de preferência de uma rota
estática em que duas rotas estáticas suportam o balanceamento de carga.
2-Qual endereço de rede deve ser definido para permitir que uma rota estática padrão seja
implementada na tabela de roteamento?
Uma rota estática padrão pode ser implementada na tabela de roteamento, especificando o
endereço 'any network' de 0.0.0.0 como o endereço de destino junto com um endereço de próximo
salto da interface para a qual os pacotes capturados por esta rota estática padrão devem ser
encaminhados.
Prefácio
Os protocolos de roteamento de vetor de distância são uma forma de protocolo de roteamento
dinâmico que funciona com base no princípio do algoritmo de Bellman-Ford para definir a rota que os
pacotes devem seguir para alcançar outros destinos da rede. A aplicação do Routing Information
Protocol (RIP) é frequentemente aplicada em muitas redes pequenas e, portanto, permanece um
protocolo válido e popular, embora o próprio protocolo tenha existido por muito mais tempo do que
outros protocolos de roteamento dinâmico em uso atualmente. As características de tais protocolos de
vetor de distância são representadas nesta seção através do Protocolo de Informações de Roteamento.
Objectivos
Após a conclusão desta seção, os formandos serão capazes de:
 Descrever o comportamento do protocolo de informações de roteamento.
 Configurar com êxito o roteamento RIP e os atributos associados.
Protocolo de Informação de Roteamento(RIP)
O protocolo de informações de roteamento ou RIP, como é comumente conhecido, representa uma
das formas mais simples de protocolo de roteamento aplicadas às redes corporativas. O RIP funciona
como um protocolo de gateway interno (IGP) baseado nos princípios do algoritmo de Bellman-Ford que
opera com base no vetor de distância, definindo o caminho que o tráfego deve seguir em relação à
distância ótima medida usando um valor métrico fixo .
O protocolo RIP contém um número mínimo de parâmetros e requer largura de banda, configuração
e tempo de gerenciamento limitados, tornando-o ideal para redes menores. No entanto, o RIP não foi
projetado com a capacidade de manipular sub-redes, suporta a interação com outros protocolos de
roteamento e não fornece nenhum meio de autenticação, já que sua criação antecedeu o período em
que esses princípios foram introduzidos.
Princípio de comportamento
Os roteadores habilitados para RIP participam do anúncio de informações de roteamento para
roteadores vizinhos. São gerados anúncios de rota que contêm informações sobre as redes conhecidas
pelo roteador de envio e a distância para alcançá-las. Os roteadores habilitados para RIP anunciam uns
aos outros, mas quando anunciam, eles carregam apenas as melhores informações de roteamento em
seus anúncios de rota.
Métricas
Cada anúncio de roteador contém várias rotas, cada uma associada a uma determinada métrica. A
métrica é usada para determinar a distância entre um roteador e o destino ao qual o anúncio de rota
está associado. No RIP, a métrica é associada a um mecanismo de contagem de saltos, em que cada
salto entre roteadores representa uma contagem de saltos fixos, geralmente de um. Essa métrica não
leva em consideração nenhum outro fator, como a largura de banda de cada link ou qualquer atraso que
possa ser imposto ao link. No exemplo, o roteador RTB aprende de uma rede por meio de duas
interfaces diferentes, cada uma fornecendo uma métrica de salto através da qual a melhor rota para o
destino pode ser descoberta.
Loops de Roteamento e Limites de Hop
Como cada roteador processa um anúncio de rota, o valor da métrica é incrementado antes de
encaminhar o anúncio para o roteador vizinho. Onde as rotas se tornam inacessíveis, no entanto, existe
um potencial para ocorrências que resulta na contagem de saltos se tornando infinita.
Para resolver o problema com infinitas métricas de rota, foi definido um valor que representaria
infinito que permitia que o número de saltos possíveis fosse restrito a um limite de 15 saltos. Essa
métrica pressupõe um tamanho de rede considerado adequado para acomodar o tamanho das redes
para as quais o protocolo de roteamento RIP é adequado e também além da escala que se espera que
seja esperada para qualquer rede desse tipo.
Uma contagem de saltos de 16 presumiria que a rota estava inacessível e faria com que o status da
rede de determinada rede fosse alterado de acordo. Loops de roteamento podem ocorrer através de
um roteador enviando pacotes para si mesmo, entre roteadores de peering ou como resultado do fluxo
de tráfego entre vários roteadores.
Formação de Loop
O exemplo demonstra como um loop pode potencialmente formar onde o RIP é o protocolo de
roteamento. Uma rede (10.0.0.0/8) foi aprendida através do envio de anúncios de rota do RTA para o
RTC, para o qual o RTC atualizará sua tabela de roteamento com a rede e a métrica de 1, para chegar ao
destino.
Em caso de falha na conexão entre o roteador RTA e a rede à qual ele está diretamente conectado, o
roteador detectará imediatamente a perda da rota e considerará a rota inacessível. Como o RTC possui
conhecimento da rede, um anúncio de rota é encaminhado contendo informações sobre a rede
10.0.0.0/8. Após a recepção deste, RTA vai aprender de uma nova entrada de rota para 10.0.0.0/8 com
uma métrica de 2. Desde RTC originalmente aprendeu a rota do RTA, qualquer alteração precisará ser
atualizado em RTC também, com um anúncio de rota sendo enviado para RTC com uma métrica de 3.
Isso será repetido por um período infinito de tempo. Uma métrica de 16 permite que um limite seja
colocado no infinito, permitindo assim que qualquer rota que atinja uma contagem de saltos de 16 seja
considerada inalcançável.
Prevenção de Loop -Split Horizon
Os mecanismos foram implementados como parte do protocolo de roteamento RIP para tratar dos
problemas do loop de roteamento que ocorrem quando as rotas se tornam inacessíveis. Um desses
mecanismos é conhecido como split horizon e opera com base no princípio de que uma rota que é
aprendida em uma interface não pode ser anunciada de volta nessa mesma interface. Isso significa que
a rede 10.0.0.0/8 anunciada para o roteador RTC não pode ser anunciada de volta ao RTA sobre a
mesma interface, no entanto, será anunciada para os vizinhos conectados por meio de todas as outras
interfaces.
Prevenção de Loop -Poisoned Reverse
A implementação do mecanismo de inversão de envenenamento permite que a velocidade na qual as
rotas erradas sejam aumentadas para quase instantaneamente, como resultado de permitir que as rotas
sejam retornadas ao roteador de origem, contendo uma métrica de 16, para uma rota melhor, onde a
rota se torna inválida.
No exemplo, o RTA anuncia uma métrica de 1 para a rede ao RTC, enquanto o RTC anuncia a mesma
rede ao RTA para garantir que, se a rede 10.0.0.0/8 falhar, o RTA não descobrirá um caminho melhor
para essa rede por meio de qualquer outro roteador. Isso envolve, no entanto, um aumento no
tamanho da mensagem de roteamento RIP, já que as rotas contendo as informações de rede recebidas
agora também devem levar a atualização de rede, considerando a rota inacessível, de volta ao roteador
vizinho do qual o anúncio foi originado. Nos roteadores da série AR2200 da Huawei, split horizon e
poisoned reverse não podem ser aplicados ao mesmo tempo, se ambos estiverem configurados,
somente o reverso envenenado será ativado.
Prevenção de Loop -Triggered Updates
O comportamento padrão do RIP envolve atualizações da tabela de roteamento sendo enviadas
periodicamente aos vizinhos como um anúncio de rota, que por padrão é configurado para ocorrer
aproximadamente a cada 30 segundos. No entanto, quando os links falham, também é necessário que
esse período expire antes de informar os roteadores vizinhos da falha.
As atualizações acionadas ocorrem quando as informações de roteamento locais são alteradas e o
roteador local notifica imediatamente seus vizinhos sobre as alterações nas informações de roteamento,
enviando o pacote de atualização acionado. Atualizações acionadas diminuem o tempo de convergência
da rede. Quando as informações de roteamento locais são alteradas, o roteador local notifica
imediatamente seus vizinhos sobre as alterações nas informações de roteamento, em vez de aguardar
uma atualização periódica.
Mensagens RIP
O RIP é um protocolo baseado em UDP. Cada roteador que usa o RIP usa um processo de roteamento
que envolve todas as comunicações direcionadas a outro roteador que está sendo enviado para a porta
520, incluindo todas as mensagens de atualização de roteamento. O RIP geralmente transmite
mensagens de atualização de roteamento como mensagens de difusão, destinadas ao endereço de
broadcast de 255.255.255.255, referentes a todas as redes. No entanto, cada roteador gerará sua
própria transmissão de atualizações de roteamento após cada período de atualização.
Os campos de comando e versão são usados uma vez por pacote, com o campo de comando
detalhando se o pacote é uma mensagem de solicitação ou resposta, para a qual todas as mensagens de
atualização são consideradas mensagens de resposta. A versão refere-se à versão do RIP, que neste caso
é a versão 1. Os demais campos são usados para suportar os anúncios de rede para os quais até 25
entradas de rota podem ser anunciadas em uma única mensagem de atualização do RIP.
O identificador da família de endereços lista o tipo de protocolo que está sendo suportado pelo RIP,
que neste exemplo é IP. Os campos restantes são usados para transportar o endereço de rede IP e a
métrica de salto que contém um valor entre 1 e 15 (inclusive) e especifica a métrica atual para o
destino; ou o valor 16 (infinito), que indica que o destino não está acessível.
Extensões RIP
A introdução de uma nova versão do RIP, conhecida como RIP versão 2, não altera o RIP como tal, mas
fornece extensões para o protocolo RIP atual para permitir a resolução de várias ambiguidades. O formato do
datagrama RIP aplica os mesmos princípios do protocolo RIP original com os mesmos parâmetros de comando. O
campo de versão destaca que os campos estendidos fazem parte da versão 2.
O identificador da família de endereços continua a se referir ao protocolo que está sendo suportado
e também pode ser usado no suporte de informações de autenticação, conforme explicado em breve. A
marca de rota é outro recurso introduzido para resolver limitações que existem com suporte para
interação entre sistemas autônomos no RIP, cujos detalhes, no entanto, estão fora do escopo deste
curso. Extensões de parâmetro adicionais foram feitas como parte da entrada de rota, incluindo o
campo Máscara de sub-rede, que contém a máscara de sub-rede aplicada ao endereço IP, para definir a
parte de rede ou sub-rede do endereço.
O campo Next Hop agora permite o endereço IP imediato do próximo salto, para o qual os pacotes
destinados ao endereço de destino especificado em uma entrada de rota devem ser encaminhados.
Para reduzir a carga desnecessária de hosts que não estão ouvindo os pacotes do RIP versão 2, um
endereço multicast IP é usado para facilitar as transmissões periódicas, para as quais o endereço
multicast IP usado é 224.0.0.9.
Extensões RIP – Autenticação
A autenticação representa um meio pelo qual os pacotes mal-intencionados podem ser filtrados,
garantindo que todos os pacotes recebidos possam ser verificados como originários de um par válido
por meio do uso de um valor de chave. Esse valor de chave representa originalmente uma cadeia de
senha de texto simples que pode ser configurada para cada interface, conforme reconhecido pelo tipo
de autenticação 2. A autenticação configurada entre os pares deve corresponder antes que as
mensagens do RIP possam ser processadas com êxito. Para o processamento de autenticação, se o
roteador não estiver configurado para autenticar as mensagens do RIP versão 2, as mensagens do RIP
versão 1 e do RIP não autenticado versão 2 serão aceitas; mensagens autenticadas do RIP versão 2
devem ser descartadas.
Se o roteador estiver configurado para autenticar as mensagens do RIP versão 2, as mensagens do
RIP versão 1 e as mensagens do RIP versão 2 que passarem no teste de autenticação deverão ser
aceitas; autenticação não autenticada e com falha As mensagens do RIP versão 2 devem ser
descartadas.
O RIP versão 2 originalmente suportava apenas a autenticação simples de texto sem formatação que
fornecia apenas segurança mínima, já que a cadeia de autenticação poderia ser facilmente capturada.
Com a maior necessidade de segurança para o RIP, a autenticação criptográfica foi introduzida,
inicialmente com o suporte para uma autenticação MD5 com chave (RFC 2082) e aprimoramento
adicional com o suporte da autenticação HMAC-SHA-1, lançada a partir da RFC 4822. Enquanto Huawei
Os roteadores da série AR2200 são capazes de suportar todas as formas de autenticação mencionadas,
o exemplo dado demonstra a autenticação original para simplificar.
Balanceamento de carga RIP
Se uma rede tiver vários links redundantes, um número máximo de rotas de custo igual pode ser
configurado para implementar o balanceamento de carga. Dessa maneira, os recursos de rede são mais
amplamente utilizados, situações em que alguns links são sobrecarregados enquanto outros estão
ociosos podem ser evitados, e atrasos longos nas transmissões de pacotes podem ser evitados. O
número padrão e máximo de rotas de custo igual suportadas pelo RIP é de 8 a qualquer momento.
Anúncio de rede RIP
É necessário que todos os roteadores que suportam o processo de roteamento RIP ativem primeiro o
processo em cada roteador. O comando rip [process-id] é usado para habilitar isso, com o id do
processo identificando um ID de processo específico ao qual o roteador está associado. Se a ID do
processo não estiver configurada, o processo assumirá como padrão um ID de processo igual a 1. Se
houver variação no ID do processo, o roteador local criará entradas separadas da tabela de roteamento
RIP para cada processo definido.
O comando da versão 2 habilita a extensão RIP versão 2 para RIP, permitindo capacidade adicional
para sub-redes, autenticação, comunicação entre sistemas autônomos etc. O comando <networkaddress> de rede especifica o endereço de rede para o qual o RIP está habilitado e deve ser o endereço
do segmento de rede natural.
RIP Metricin
O RIP também é capaz de suportar a manipulação de métricas RIP para controlar o fluxo de tráfego
dentro de um domínio de roteamento RIP. Um meio de conseguir isso é ajustar a métrica associada à
entrada da rota quando recebida por um roteador. Quando uma interface recebe uma rota, o RIP
adiciona a métrica adicional da interface à rota e, em seguida, instala a rota na tabela de roteamento,
aumentando assim a métrica de uma interface que também aumenta a métrica da rota RIP recebida
pela interface.
O comando rip metricin <metric value> permite a manipulação da métrica, em que o valor da métrica
se refere à métrica a ser aplicada. Também deve ser notado que, para o comando rip metricin, o valor
da métrica é adicionado ao valor da métrica atualmente associado à rota. No exemplo, a entrada de rota
para a rede 10.0.0.0/8 contém uma métrica de 1 e é manipulada na chegada à interface do RTC,
resultando no valor métrico de 3 associado à rota.
RIP Metricout
O comando rip metricout permite que a métrica seja manipulada para a rota quando uma rota RIP é
anunciada. Aumentar a métrica de uma interface também aumenta a métrica da rota RIP enviada na
interface, mas não afeta a métrica da rota na tabela de roteamento do roteador para o qual o comando
rip metricout é aplicado.
Em sua forma mais básica, o comando rip metricout define o valor que deve ser adotado pela entrada
de rota encaminhada, mas também é capaz de suportar mecanismos de filtragem para determinar
seletivamente em quais rotas a métrica deve ser aplicada. O comportamento geral do RIP é incrementar
a métrica por um antes de encaminhar a entrada da rota para o próximo salto. Se o comando rip
metricout estiver configurado, somente o valor da métrica referenciado no comando será aplicado.
Split Horizon & Poisoned Reverse
A configuração de split horizon e poisoned reverse é executada por interface, com o comando rip
split-horizon sendo ativado por padrão (com exceção das redes NBMA) para evitar muitos dos
problemas de loop de roteamento que foram abordados esta seção. A implementação de split horizon e
poisoned reverse não é permitida no roteador da série AR2200, portanto, quando o inverso envenenado
é configurado na interface usando o comando rip poison-reverse, o split horizon será desativado.
Validação de Configuração
A configuração do protocolo de informações de roteamento por interface pode ser verificada através
do comando display <process_id> interface <interface> verbose. Os parâmetros RIP associados podem
ser encontrados na saída exibida, incluindo a versão do RIP aplicada junto com outros parâmetros, como
se o poison-reverse e o split-horizon foram aplicados à interface. Onde o comando display referencia
que tanto o poison-reverse quanto o split-horizon estão ativados, somente o comando poison-reverse
entrará em vigor.
RIP Output
O comando rip output é aplicado à interface de um roteador que participa do roteamento RIP e
permite que o RIP encaminhe as mensagens de atualização da interface. Quando o comando desfazer
saída é aplicado a uma interface, a mensagem de atualização do RIP deixará de ser encaminhada para
fora de uma determinada interface. Sua aplicação é válida em circunstâncias em que uma rede
corporativa deseja não compartilhar suas rotas internas por meio de uma interface que se conecta a
uma rede externa para proteger a rede, geralmente aplicando uma rota padrão a essa interface em vez
de rotas redes.
RIP Input
O comando undo rip input permite que uma interface rejeite todas as mensagens de atualização RIP
e impeça que as informações RIP sejam adicionadas à tabela de roteamento de uma determinada
interface. Isso pode ser aplicado em situações em que o fluxo de tráfego pode exigir o controle por meio
de determinadas interfaces ou impedir que o RIP seja totalmente recebido pelo roteador. Como tal,
qualquer mensagem de atualização do RIP enviada para a interface será descartada imediatamente. O
comando rip input pode ser usado para reativar uma interface para retomar o recebimento de
atualizações RIP.
Validação de Configuração
O comando display rip <process_id> interface <interface> verbose também pode ser usado para
confirmar a implementação de restrições à interface. Onde a interface foi configurada com a entrada
desfazer rip, a capacidade de receber rotas RIP será considerada desativada, conforme destacado no
parâmetro Input.
Silent Interface
A interface silenciosa permite que as atualizações de rota RIP sejam recebidas e usadas para atualizar
a tabela de roteamento do roteador, mas não permitirá que uma interface participe do RIP. Em
comparação, o comando silent-interface tem uma precedência mais alta que os comandos rip input e rip
output. Onde o comando silent-interface all é aplicado, o comando assume a prioridade mais alta, o que
significa que nenhuma interface única pode ser ativada. O comando silent-interface deve ser aplicado
por interface para permitir uma combinação de interfaces ativas e silenciosas.
Uma aplicação comum da interface silenciosa é para redes de acesso múltiplo sem difusão. Os
roteadores podem ser solicitados a receber mensagens de atualização RIP, mas desejam não transmitir /
multicast suas próprias atualizações, exigindo, em vez disso, que um relacionamento com o roteador de
peering seja feito através do uso do comando peer <ip address>.
Validação de Configuração
O comando display rip fornece uma saída baseada em roteador mais abrangente para a qual
parâmetros globais podem ser verificados junto com determinados parâmetros baseados em interface.
A implementação do comando da interface silenciosa em uma determinada interface, por exemplo,
pode ser observada por meio desse comando.
Resumo
1-Em que ponto a métrica é incrementada para rotas anunciadas?
A métrica é incrementada antes do encaminhamento do anúncio de rota da interface de saída.
2-Que configuração é necessária para anunciar rotas RIP?
O anúncio de rotas RIP é obtido através da configuração do comando de rede. Para cada rede que
deve ser anunciada por um roteador, um comando de rede deve ser configurado.
Prefácio
O OSPF é um protocolo de gateway interno (IGP) projetado para redes IP, que é
baseado nos princípios do roteamento do estado do link. O comportamento do estado do
link fornece muitas vantagens alternativas para redes corporativas médias e grandes. Sua
aplicação como um IGP é introduzida juntamente com informações relevantes para a
compreensão da convergência e implementação do OSPF, para suportar o OSPF em redes
corporativas
Objectivos
Após a conclusão desta seção, os formandos serão capazes de:



Explicar o processo de convergência do OSPF.
Descrever os diferentes tipos de rede suportados pelo OSPF.
Configurar com sucesso redes OSPF de área única.
Open Shortest Path Firsrt (OSPF)
Open Shortest Path First ou OSPF é considerado um protocolo de estado de link que é capaz de
detectar rapidamente alterações topológicas dentro do sistema autônomo e estabelecer rotas sem loop
em um curto período de tempo, com sobrecarga de comunicação adicional mínima para negociar
alterações de topologia entre roteadores de peering. O OSPF também lida com problemas de
escalabilidade que ocorrem quando a comunicação entre um número crescente de roteadores se torna
tão extrema que começa a levar à instabilidade dentro do sistema autônomo. Isso é gerenciado por
meio do uso de áreas que limitam o escopo da comunicação do roteador a um grupo isolado dentro do
sistema autônomo, permitindo que redes pequenas, médias e até grandes sejam suportadas pelo OSPF.
O protocolo também é capaz de trabalhar sobre outros protocolos, como o MPLS, um protocolo de
troca de etiquetas, para fornecer escalabilidade de rede mesmo em locais geograficamente dispersos.
Em termos de descoberta de caminho ideal, o OSPF fornece métricas de rota avançadas que fornecem
mais precisão do que as métricas de rota aplicadas a protocolos como RIP para garantir que as rotas
sejam otimizadas, com base não apenas na distância, mas também na velocidade do link.
Comportamento de Convergência OSPF
A convergência do OSPF requer que cada um e todos os roteadores que executam ativamente o
protocolo OSPF tenham conhecimento do estado de todas as interfaces e adjacências (relação entre os
roteadores aos quais estão conectados), a fim de estabelecer o melhor caminho para cada rede. Isso é
inicialmente formado por meio da inundação de anúncios do estado do link (LSA), que são unidades de
dados que contêm informações como redes conhecidas e estados de link para cada interface dentro de
um domínio de roteamento. Cada roteador usará o LSA recebido para construir um banco de dados de
estado de link (LSDB) que fornece a base para estabelecer a árvore de caminho mais curto para cada
rede, cujas rotas são incorporadas à tabela de roteamento IP.
Router ID
O ID do roteador é um valor de 32 bits atribuído a cada roteador que está executando o protocolo
OSPF. Este valor identifica exclusivamente o roteador dentro de um sistema autônomo. O ID do
roteador pode ser atribuído manualmente ou pode ser obtido de um endereço configurado. Se uma
interface lógica (loopback) tiver sido configurada, a ID do roteador será baseada no endereço IP da
interface lógica configurada mais alta, caso existam várias interfaces lógicas.
Se nenhuma interface lógica tiver sido configurada, o roteador usará o endereço IP mais alto
configurado em uma interface física. Qualquer roteador que esteja executando o OSPF pode ser
reiniciado usando o recurso de reinicialização normal para renovar o ID do roteador, caso um novo ID de
roteador seja configurado. Recomenda-se que a ID do roteador seja configurada manualmente para
evitar alterações inesperadas no ID do roteador no caso de alterações no endereço da interface.
Tipos de Rede Suportados pelo OSPF
O OSPF suporta vários tipos de rede e, em cada caso, aplicará um comportamento diferente em
termos de como os relacionamentos vizinhos são formados e como a comunicação é facilitada. Ethernet
representa uma forma de rede de transmissão que envolve vários roteadores conectados ao mesmo
segmento de rede. Um dos principais problemas enfrentados diz respeito a como a comunicação ocorre
entre os roteadores vizinhos para minimizar a sobrecarga de roteamento OSPF. Se uma rede Ethernet
for estabelecida, o tipo de rede de transmissão será aplicado automaticamente no OSPF.
Quando dois roteadores são estabelecidos em uma topologia ponto-a-ponto, o tipo de rede aplicado
varia de acordo com a tecnologia de camada de mídia e link aplicada. Como mencionado, o uso de um
meio Ethernet resultará no tipo de rede de transmissão para o OSPF ser atribuído automaticamente.
Onde o meio físico é serial, o tipo de rede é considerado ponto-a-ponto. Formas comuns de protocolos
que operam em mídia serial na camada de enlace incluem o protocolo PPP (Point-to-Point Protocol) e o
HDLC (High-level Data Link Control).
O OSPF pode operar em redes de acesso múltiplo que não suportam transmissões. Tais redes incluem
Frame Relay e ATM que operam normalmente usando topologias de tipo hub e spoke, que dependem
do uso de circuitos virtuais para que a comunicação seja alcançada. O OSPF pode especificar dois tipos
de redes que podem ser aplicadas a links conectados a esses ambientes. O tipo de rede de acesso
múltiplo sem difusão (NBMA) emula uma rede de difusão e, portanto, exige que cada interface de
peering faça parte do mesmo segmento de rede. Ao contrário de uma rede de difusão, o NBMA
encaminha pacotes OSPF como um unicast, exigindo assim que várias instâncias do mesmo pacote
sejam geradas para cada destino.
Ponto-a-Multiponto também pode ser aplicado como o tipo de rede para cada interface, caso em que
um comportamento de tipo ponto-a-ponto é aplicado. Isso significa que cada peering deve estar
associado a diferentes segmentos de rede. Os roteadores designados são associados a redes de
transmissão e, portanto, são implementados por redes NBMA. O mais importante é o posicionamento
de um DR que deve ser atribuído no nó do hub da arquitetura hub e spoke para garantir que todos os
nós possam se comunicar com o DR.
Roteador designado e roteador designado de backup
Para endereçar e otimizar a comunicação do OSPF em redes de broadcast, o OSPF implementa um
Roteador Designado (DR) que atua como um ponto central de comunicação para todos os outros
roteadores associados a uma rede de broadcast em pelo menos uma interface. Em uma rede de
transmissão teórica que não aplica um DR, pode-se entender que a comunicação segue uma fórmula n
(n-1) / 2, onde n representa o número de interfaces de roteadores participantes do OSPF. No exemplo
dado, isso se referiria a 6 adjacências entre todos os roteadores. Quando o DR é aplicado, todos os
roteadores estabelecem um relacionamento com o DR ao qual é responsável por atuar como um ponto
central de comunicação para todos os roteadores vizinhos em uma rede de transmissão.
Um Roteador Designado de Backup (BDR) é um roteador que é escolhido para substituir o DR caso ele
falhe. Como tal, é necessário que o BDR estabeleça um banco de dados de estado de link como o do DR
para garantir a sincronização. Isso significa que todos os roteadores vizinhos também devem se
comunicar com o BDR em uma rede de transmissão. Com a aplicação do DR e do BDR, o número de
associações é reduzido de 6 para 5, pois o RTA e o RTB precisam apenas se comunicar com o DR e o BDR.
Isto pode parecer ter um efeito mínimo, no entanto, quando isto é aplicado a uma rede contendo, por
exemplo, 10 roteadores, ou seja, (10 * 9) / 2, a eficiência de comunicação resultante torna-se aparente.
Estados vizinhos
O OSPF cria adjacências entre roteadores vizinhos com o objetivo de trocar informações de
roteamento. Nem todos os dois roteadores vizinhos se tornarão adjacentes, particularmente quando
um dos dois roteadores que estabelecem uma adjacência for considerado não o DR ou o BDR. Esses
roteadores são conhecidos como DROther e só reconhecem a presença do DROther, mas não
estabelecem comunicação completa; este estado é conhecido como o estado vizinho. DRO Outros
roteadores, no entanto, formam adjacência total com roteadores DR e BDR para permitir a
sincronização do banco de dados de estado de link dos roteadores DR e BDR com cada um dos
roteadores DROther. Essa sincronização é obtida estabelecendo um estado adjacente com cada
DROther.
Uma adjacência está ligada à rede que os dois roteadores têm em comum. Se dois roteadores
tiverem várias redes em comum, eles poderão ter várias adjacências entre eles.
Estabelecimento do estado do link
Cada roteador que participa do OSPF fará a transição através de vários estados de link para obter um
estado vizinho ou um estado adjacente. Todos os roteadores começam no estado inativo após a
inicialização e passam por um processo de descoberta vizinho, que envolve, primeiramente, tornar uma
presença de roteadores conhecida na rede OSPF por meio de um pacote Hello. Ao executar esta ação, o
roteador fará a transição para um estado inicial.
Quando o roteador recebe uma resposta na forma de um pacote Hello contendo o ID do roteador
que recebe a resposta, um estado bidirecional será alcançado e um relacionamento vizinho será
formado. No caso de redes NBMA, um estado de tentativa é alcançado quando a comunicação com o
vizinho se torna inativa e uma tentativa está sendo feita para restabelecer a comunicação através do
envio periódico de pacotes Hello. Os roteadores que não atingem um relacionamento adjacente
permanecerão em um estado vizinho com um estado bidirecional de comunicação.
Roteadores como DR e BDR criarão um estado vizinho adjacente com todos os outros roteadores
vizinhos e, portanto, deverão trocar informações de estado de link para estabelecer um banco de dados
de estado de link completo. Isso requer que os roteadores de peering que estabelecem uma adjacência
primeiro negociem pela troca de informações de estado de link (ExStart) antes de proceder à troca de
informações resumidas sobre as redes de que estão cientes. Os vizinhos podem identificar rotas de que
não estão cientes ou não possuem informações atualizadas e, portanto, solicitar detalhes adicionais
para essas rotas como parte do estado de carregamento. Um relacionamento totalmente sincronizado
entre vizinhos é determinado pelo estado completo no qual os dois roteadores de peering podem ser
considerados adjacentes.
Descoberta de vizinho
A descoberta do vizinho é obtida por meio do uso de pacotes Hello gerados em intervalos com base
em um temporizador Hello, que por padrão é a cada 10 segundos para tipos de rede de difusão e ponto
a ponto; enquanto para os tipos de rede NBMA e Ponto-a-Multiponto, o intervalo de saudação é de 30
segundos. O pacote de saudação contém esse período de intervalo, junto com um campo de prioridade
de roteador que permite que os vizinhos determinem o vizinho com o ID de roteador mais alto para
identificação do DR e BDR nas redes de transmissão e NBMA.
Um período especificando quanto tempo um pacote de hello é válido antes que o vizinho seja
considerado perdido também deve ser definido, e isso é transportado como o intervalo morto do
roteador dentro do pacote de saudação. Este intervalo morto é definido por padrão para ser quatro
vezes o intervalo de saudação, sendo 40 segundos para redes de broadcast e ponto a ponto, e 120
segundos para redes NBMA e Point-to-Multipoint. Além disso, o ID do roteador do DR e do BDR são
transportados, quando aplicável, com base na rede para a qual o pacote de saudação é gerado.
Eleição do roteador designado
Após a descoberta do vizinho, a eleição do DR pode ocorrer dependendo do tipo de rede do
segmento de rede. Redes de transmissão e NMBA realizarão a eleição do DR. A eleição do DR depende
de uma prioridade que é atribuída para cada interface que participa do processo de eleição do DR. Esse
valor de prioridade é definido como 1 por padrão e uma prioridade mais alta representa um melhor
candidato a DR.
Se uma prioridade de 0 for definida, a interface do roteador não participará mais da eleição para se
tornar o DR ou o BDR. Pode ser que, quando conexões ponto-a-ponto (usando Ethernet como meio
físico) sejam configuradas para suportar um tipo de rede de transmissão, ocorrerá uma eleição DR
desnecessária, o que gera tráfego excessivo de protocolo. Portanto, é recomendável que o tipo de rede
seja configurado como um tipo de rede ponto a ponto.
Eleição do roteador designado de backup
Para melhorar a eficiência da transição para um novo Roteador Designado, um Roteador Designado
de Backup é atribuído para cada rede de transmissão e NBMA. O Roteador Designado de Backup
também é adjacente a todos os roteadores na rede e se torna o Roteador Designado quando o Roteador
Designado anterior falha. Se não houvesse roteador designado de backup, novas adjacências teriam que
ser formadas entre o novo roteador designado e todos os outros roteadores conectados à rede.
Parte do processo de formação de adjacências envolve a sincronização de bancos de dados link-state,
que podem levar bastante tempo. Durante esse período, a rede não estaria disponível para o trânsito de
dados. O Roteador Designado de Backup elimina a necessidade de formar essas adjacências, uma vez
que elas já existem. Isso significa que o período de interrupção no tráfego de trânsito dura apenas o
tempo necessário para inundar os novos LSAs (que anunciam o novo Roteador Designado). O Roteador
Designado de Backup também é eleito pelo pacote Hello. Cada pacote Hello possui um campo que
especifica o Roteador Designado de Backup para a rede.
Sincronização de Banco de Dados
Em um algoritmo de roteamento link-state, é muito importante que todos os bancos de dados de
estado dos roteadores permaneçam sincronizados. O OSPF simplifica isso, exigindo que apenas os
roteadores adjacentes permaneçam sincronizados. O processo de sincronização começa assim que os
roteadores tentam ativar a adjacência. Cada roteador descreve seu banco de dados enviando uma
seqüência de pacotes de Descrição do Banco de Dados para seu vizinho. Cada pacote de descrição do
banco de dados descreve um conjunto de LSAs pertencentes ao banco de dados do roteador.
Quando o vizinho vê um LSA que é mais recente que sua própria cópia de banco de dados, ele
observa que esse LSA mais novo deve ser solicitado. Esse envio e recebimento de pacotes Database
Description é chamado de "Database Exchange Process". Durante esse processo, os dois roteadores
formam uma relação mestre / escravo. Cada pacote de descrição do banco de dados tem um número de
seqüência. Os pacotes de descrição do banco de dados enviados pelo mestre são reconhecidos pelo
escravo por meio do eco do número de seqüência.
Estabelecendo Adjacência Completa
Durante e após o processo de troca de banco de dados, cada roteador tem uma lista desses LSAs para
os quais o vizinho tem instâncias mais atualizadas. O pacote Link State Request é usado para solicitar as
partes do banco de dados do vizinho que estão mais atualizadas. Vários pacotes de solicitação de estado
de link podem precisar ser usados.
Os pacotes de atualização do estado do link implementam a inundação de LSAs. Cada pacote de
atualização do estado do link carrega uma coleção de LSAs um salto mais longe de sua origem. Vários
LSAs podem ser incluídos em um único pacote. Em redes de transmissão, os pacotes de atualização do
estado do link são multicast. O endereço IP de destino especificado para o pacote de atualização do
estado do link depende do estado da interface. Se o estado da interface for DR ou Backup, o endereço
AllSPFRouters (224.0.0.5) deve ser usado. Caso contrário, o endereço AllDRouters (224.0.0.6) deve ser
usado. Em redes de não-difusão, pacotes separados de atualização de estado de link devem ser
enviados, como unicast, para cada vizinho adjacente (ou seja, aqueles em um estado do Exchange ou
superior). Os endereços IP de destino desses pacotes são os endereços IP dos vizinhos.
Quando o Processo de Descrição do Banco de Dados for concluído e todas as Solicitações de Estado
do Link tiverem sido atendidas, os bancos de dados serão considerados sincronizados e os roteadores
serão marcados como totalmente adjacentes. Neste momento, a adjacência é totalmente funcional e é
anunciada nos LSAs do roteador de dois roteadores.
Métrica OSPF
O OSPF calcula o custo de uma interface baseada na largura de banda da interface. A fórmula de
cálculo é: custo da interface = valor de referência de largura de banda / largura de banda. O valor de
referência da largura de banda é configurável para o qual o padrão é 100 Mbps. Com a fórmula
100000000 / Bandwidth, isso fornece uma métrica de custo de 1562 para uma porta Serial de 64 kbit / s,
48 para uma interface E1 (2.048 Mbit / s) e um custo de 1 para Ethernet (100 Mbit / s) ou superior.
Para ser capaz de distinguir entre interfaces de alta velocidade, é imperativo que a métrica de custo
seja ajustada para corresponder às velocidades atualmente suportadas. Os comandos de referência de
largura de banda permitem que a métrica seja alterada alterando o valor de referência da largura de
banda na fórmula de custo. Quanto maior o valor, mais precisa será a métrica. Onde velocidades de
10Gb estão sendo suportadas, é recomendado que o valor de referência de largura de banda seja
aumentado para "10000" ou 1010 / largura de banda para fornecer métricas de 1, 10 e 100 para links de
largura de banda de 10Gb, 1Gb e 100Mb, respectivamente.
Como alternativa, o custo pode ser configurado manualmente usando o comando ospf cost para
definir um valor de custo para uma determinada interface. O valor de custo varia de 1 a 65535 com um
valor de custo padrão de 1.
Árvore de caminho mais curto
Considera-se que um roteador que atingiu um estado completo recebeu todos os anúncios de estado
de link (LSA) e sincronizou seu banco de dados de estado de link (LSDB) com o dos vizinhos adjacentes.
As informações de estado do link coletadas no banco de dados de estado do link são usadas para
calcular o caminho mais curto para cada rede. Cada roteador depende apenas das informações no LSDB
para calcular independentemente o caminho mais curto para cada destino, em vez de depender de
informações de rota selecionadas dos pares, consideradas como a melhor rota para um destino. O
cálculo da árvore de caminho mais curto, no entanto, significa que cada roteador deve utilizar recursos
adicionais para realizar essa operação.
Áreas do OSPF - Área Única
Redes menores podem envolver um número selecionado de roteadores que operam como parte do
domínio OSPF. Esses roteadores são considerados parte de uma área que é representada por um banco
de dados de estado de link idêntico para todos os roteadores no domínio. Como uma única área, o OSPF
pode receber qualquer número de área, no entanto, para fins de futura implementação de design,
recomenda-se que essa área seja designada como área 0.
Áreas OSPF – Multi-Área
A necessidade de encaminhar anúncios de estado de link e o subsequente cálculo do caminho mais
curto com base no banco de dados de estado de link torna-se cada vez mais complexo à medida que
mais e mais roteadores se tornam parte do domínio OSPF. Dessa forma, o OSPF é capaz de suportar uma
estrutura hierárquica para limitar o tamanho do banco de dados de estado do link e o número de
cálculos que devem ser executados ao determinar o caminho mais curto para uma determinada rede.
A implementação de várias áreas permite que um domínio OSPF compartimentalize o processo de
cálculo com base em um banco de dados de estado de link que seja idêntico apenas para cada área, mas
forneça as informações para alcançar todos os destinos dentro do domínio OSPF. Certos roteadores
conhecidos como roteadores de borda de área (ABR) operam entre áreas e contêm vários bancos de
dados de estado de link para cada área à qual o ABR está conectado. A área 0 deve ser configurada onde
o OSPF de área múltipla existe e para o qual todo o tráfego enviado entre as áreas é geralmente
necessário para atravessar a área 0, para garantir que os loops de roteamento não ocorram.
Anúncio da Rede OSPF
O estabelecimento do OSPF dentro de um domínio AS requer que cada roteador que participe do
OSPF primeiro habilite o processo OSPF. Isso é obtido usando o comando ospf [process id], onde o ID do
processo pode ser designado e representa o processo ao qual o roteador está associado. Se os
roteadores receberem números de identificação de processo diferentes, os bancos de dados de estado
de link separados serão criados com base em cada ID de processo individual. Onde nenhum ID de
processo é atribuído, o ID de processo padrão de 1 será usado. O ID do roteador também pode ser
atribuído usando o comando ospf [id do processo] [roteador-id <roteador-id>], onde <roteador-id>
refere-se ao ID que deve ser atribuído ao roteador, tendo em mente que valor de ID mais alto
representa o DR em redes de transmissão e NBMA.
As informações de parênteses refletem o processo e nível ospf no qual os parâmetros ospf podem ser
configurados, incluindo a área à qual cada link (ou interface) está associado. Redes que devem ser
anunciadas em uma determinada área são determinadas através do uso do comando de rede. A
máscara é representada como uma máscara curinga para a qual um valor de bit 0 representa os bits que
são fixos (por exemplo, id de rede) e onde os valores de bit na máscara representam um valor de 1, o
endereço pode representar qualquer valor.
Validação de Configuração
A configuração do relacionamento vizinho entre peers OSPF é verificada por meio do comando
display ospf peer. Os atributos associados à conexão peer são listados para fornecer uma explicação
clara da configuração. Atributos importantes incluem a área na qual a associação peer é estabelecida, o
estado do estabelecimento peer, a associação mestre / escravo para negociação de adjacência para
atingir o estado completo e também as atribuições de DR e BDR que destacam que o link está associado
com um tipo de rede de transmissão.
Autenticação OSPF
O OSPF é capaz de suportar a autenticação para garantir que as rotas sejam protegidas contra ações
maliciosas que podem resultar de manipulação ou danos à topologia e rotas OSPF existentes. O OSPF
permite o uso de autenticação simples, bem como autenticação criptográfica, que fornece proteção
aprimorada contra possíveis ataques.
A autenticação é atribuída por interface com o comando para autenticação simples do modo de
autenticação ospf {simple [[plain] <plain-text> | cifra <texto cifrado>] | null} onde plain aplica uma
senha de texto não criptografado, criptografa uma senha de texto cifrado para ocultar o conteúdo
original e null para indicar uma autenticação nula.
A autenticação criptográfica é aplicada usando o modo de autenticação ospf {md5 | hmac-md5} [keyid {simples <texto sem formatação> | comando [cipher] <cipher-text>}]. O MD5 representa um
algoritmo criptográfico para proteger a autenticação através do link, com sua configuração demonstrada
dentro do exemplo dado. A chave identifica um ID de chave de autenticação exclusivo da autenticação
de codificação da interface. O ID da chave deve ser consistente com o do peer.
Validação de Configuração
Onde a autenticação é aplicada, é possível implementar a depuração no terminal para visualizar o
processo de autenticação. Como a depuração pode envolver muitos eventos, o comando debugging ospf
packet deve ser usado para especificar que a depuração só deve ser executada para pacotes específicos
do OSPF. Como resultado, o processo de autenticação pode ser visualizado para validar que a
configuração de autenticação foi implementada com sucesso.
Interface silenciosa do OSPF
Geralmente, é necessário controlar o fluxo de informações de roteamento e limitar o intervalo para o
qual esses protocolos de roteamento podem se estender. Este é particularmente o caso quando se
conecta com redes externas de quem o conhecimento de rotas internas deve ser protegido. Para
conseguir isso, o comando da interface silenciosa pode ser aplicado como um meio de restringir toda a
comunicação do OSPF através da interface na qual o comando é implementado.
Depois que uma interface OSPF é definida para estar no estado silencioso, a interface ainda pode
anunciar suas rotas diretas. Os pacotes Hello na interface, no entanto, serão bloqueados e nenhum
relacionamento vizinho poderá ser estabelecido na interface. O comando interface-silenciosa [interfacetype interface-number] pode ser usado para definir uma interface específica que restringe a operação
do OSPF ou, alternativamente, o comando silent-interface pode ser usado para garantir que todas as
interfaces sob um processo específico sejam restritas de participar no OSPF.
Validação de Configuração
A implementação da interface silenciosa em uma base por interface significa que a
específica deve ser observada para validar a aplicação bem-sucedida do comando da
silenciosa. Por meio do comando display ospf <process_id> interface <interface>, em que a
representa a interface na qual o comando da interface silenciosa foi aplicado, é possível
implementação da interface silenciosa.
interface
interface
interface
validar a
Resumo
1-Qual é o objetivo do intervalo morto no cabeçalho do OSPF?
O intervalo morto é um valor de timer usado para determinar se a propagação de pacotes Hello de
OSPF foi interrompida. Esse valor é equivalente a quatro vezes o intervalo Hello ou 40 segundos por
padrão nas redes de transmissão. No caso de o intervalo morto ser reduzido a zero, o relacionamento
de vizinho do OSPF será encerrado.
2-Em uma rede de difusão, qual é o endereço multicast usado pelo Roteador designado (DR) e pelo
Roteador designado de backup (BDR) para escutar as informações de atualização do estado do link?
O DR e o BDR usam o endereço multicast 224.0.0.6 para escutar as atualizações de estado do link
quando o tipo de rede OSPF é definido como broadcast.
Prefácio
Uma rede corporativa pode consistir freqüentemente em um número substancial de
dispositivos host, cada um exigindo parâmetros de rede na forma de endereçamento IP e
informações adicionais de configuração de rede. A alocação manual é muitas vezes um
negócio tedioso e impreciso, o que pode levar a que muitas estações finais enfrentem
duplicação de endereço ou falhas no acesso aos serviços necessários para uma operação
de rede suave. DHCP é um protocolo de camada de aplicativo projetado para automatizar
o processo de fornecimento dessas informações de configuração a clientes em uma rede
TCP / IP. Portanto, o DHCP ajuda a garantir que o endereçamento correto seja alocado e
reduz a sobrecarga na administração de todas as redes corporativas. Esta seção
apresenta a aplicação do DHCP dentro da rede corporativa.
Objectivos
Após a conclusão desta seção, os formandos serão capazes de:

Descrever a função do DHCP na rede corporativa.

Explicar o processo de leasing do DHCP.

Configurar pools DHCP para leasing de endereço.
Aplicativo DHCP na rede corporative
As redes corporativas geralmente são compostas de vários sistemas finais que exigem designação de
endereço IP para se conectar ao segmento de rede ao qual o sistema final está conectado. Para redes
pequenas, um número mínimo de sistemas finais conectados à rede permite o gerenciamento simples
do endereçamento para todos os sistemas finais.
Para redes de médio e grande porte, no entanto, torna-se cada vez mais difícil configurar
manualmente endereços IP com maior probabilidade de duplicação de endereçamento, bem como
erros de configuração devido a erro humano e, portanto, a necessidade de implementar uma solução de
gerenciamento centralizado em toda a rede. cada vez mais proeminente. O protocolo DHCP (Dynamic
Host Configuration Protocol) é implementado como uma solução de gerenciamento para permitir a
alocação dinâmica de endereços para sistemas finais fixos e temporários existentes acessando o
domínio de rede.
Nos casos, também é possível que haja mais hosts do que os endereços IP disponíveis em uma rede.
Alguns hosts não podem receber um endereço IP fixo e precisam obter dinamicamente endereços IP
usando o servidor DHCP. Apenas alguns hosts em uma rede exigem endereços IP fixos.
Mecanismos de alocação de endereços
O DHCP suporta três mecanismos para alocação de endereços IP. O método de alocação automática
envolve a atribuição de um endereço IP permanente a um cliente. O uso de alocação dinâmica emprega
o DHCP para atribuir um endereço IP a um cliente por um período limitado de tempo ou pelo menos até
que o cliente abandone explicitamente o endereço IP.
O terceiro mecanismo é chamado de alocação manual, para a qual o endereço IP de um cliente é
atribuído pelo administrador da rede e o DHCP é usado apenas para manipular a atribuição do endereço
definido manualmente ao cliente. A alocação dinâmica é o único dos três mecanismos que permite a
reutilização automática de um endereço que não é mais necessário para o cliente ao qual foi atribuído.
Assim, a alocação dinâmica é particularmente útil para atribuir um endereço a um cliente que será
conectado à rede apenas temporariamente ou para compartilhar um conjunto limitado de endereços IP
entre um grupo de clientes que não precisam de endereços IP permanentes.
A alocação dinâmica também pode ser uma boa opção para atribuir um endereço IP a um novo
cliente permanentemente conectado a uma rede, onde os endereços IP são suficientemente escassos
para que os endereços possam ser recuperados quando os clientes antigos forem desativados. A
alocação manual permite que o DHCP seja usado para eliminar o processo propenso a erros de
configurar manualmente os hosts com endereços IP em ambientes em que talvez seja mais desejável
gerenciar meticulosamente a atribuição de endereços IP.
Mensagens DHCP
Um servidor DHCP e um cliente DHCP se comunicam trocando um intervalo de tipos de mensagens. A
comunicação inicial depende da transmissão de uma mensagem DHCP Discover. Isso é transmitido por
um cliente DHCP para localizar um servidor DHCP quando o cliente tenta se conectar a uma rede pela
primeira vez. Uma mensagem de Oferta DHCP é então enviada por um servidor DHCP para responder a
uma mensagem Descoberta DHCP e transporta informações de configuração.
Uma mensagem de solicitação DHCP é enviada depois que um cliente DHCP é inicializado, no qual
transmite uma mensagem de solicitação DHCP para responder à mensagem de oferta DHCP enviada por
um servidor DHCP. Uma mensagem de solicitação também é enviada depois que um cliente DHCP é
reiniciado, momento em que ele transmite uma mensagem de solicitação DHCP para confirmar a
configuração, como o endereço IP atribuído. Uma mensagem de solicitação DHCP também é enviada
depois que um cliente DHCP obtém um endereço IP, para estender a concessão de endereço IP.
Uma mensagem DHCP ACK é enviada por um servidor DHCP para confirmar a mensagem de
solicitação DHCP de um cliente DHCP. Depois de receber uma mensagem DHCP ACK, o cliente DHCP
obtém os parâmetros de configuração, incluindo o endereço IP. Nem todos os casos, no entanto,
resultarão no endereço IP atribuído a um cliente. A mensagem DHCP NAK é enviada por um servidor
DHCP para rejeitar a mensagem de solicitação DHCP de um cliente DHCP quando o endereço IP
atribuído ao cliente DHCP expira, ou no caso em que o cliente DHCP se move para outra rede.
Uma mensagem de recusa DHCP é enviada por um cliente DHCP para notificar o servidor DHCP de
que o endereço IP atribuído está em conflito com outro endereço IP. O cliente DHCP aplicará então ao
servidor DHCP para outro endereço IP.
Uma mensagem de liberação DHCP é enviada por um cliente DHCP para liberar seu endereço IP.
Depois de receber uma mensagem de Liberação DHCP, o servidor DHCP atribui esse endereço IP a outro
cliente DHCP.
Um tipo de mensagem final é a mensagem DHCP Inform e é enviada por um cliente DHCP para obter
outras informações de configuração de rede, como o endereço do gateway e o endereço do servidor
DNS, depois que o cliente DHCP obtiver um endereço IP.
Pools de endereços
Os dispositivos da série AR2200 e S5700 podem operar como um servidor DHCP para atribuir
endereços IP a usuários on-line. Os pools de endereços são usados para definir os endereços que devem
ser alocados aos sistemas finais. Há duas formas gerais de pools de endereços que podem ser usados
para alocar endereços, o pool de endereços global e o pool de endereços da interface.
O uso de um pool de endereços de interface permite que apenas os sistemas finais conectados ao
mesmo segmento de rede que a interface tenha endereços IP alocados desse pool. O pool de endereços
global, uma vez configurado, permite que todos os sistemas finais associados ao servidor obtenham
endereços IP desse pool de endereços e é implementado usando o comando global dhcp select para
identificar o pool de endereços global. No caso do pool de endereços da interface, o comando dhcp
select interface identifica a interface e o segmento de rede ao qual o conjunto de endereços da
interface está associado.
O pool de endereços de interface tem precedência sobre o pool de endereços global. Se um pool de
endereços estiver configurado em uma interface, os clientes conectados à interface obterão endereços
IP do pool de endereços da interface, mesmo se um pool de endereços global estiver configurado. No
comutador S5700, apenas interfaces lógicas VLANIF podem ser configuradas com conjuntos de
endereços de interface.
Aquisição de endereços DHCP
A aquisição de um endereço IP e outras informações de configuração exigem que o cliente entre em
contato com um servidor DHCP e recupere, por solicitação, as informações de endereçamento para se
tornar parte do domínio IP. Esse processo começa com o processo de descoberta de IP no qual o cliente
DHCP procura por um servidor DHCP. O cliente DHCP transmite uma mensagem de Descoberta DHCP e
os servidores DHCP respondem à mensagem Descoberta.
A descoberta de um ou vários servidores DHCP resulta em cada servidor DHCP oferecendo um
endereço IP ao cliente DHCP. Depois de receber a mensagem Descoberta DHCP, cada servidor DHCP
seleciona um endereço IP não atribuído do pool de endereços IP e envia uma mensagem de Oferta
DHCP com o endereço IP atribuído e outras informações de configuração ao cliente.
Se vários servidores DHCP enviarem mensagens de Oferta DHCP ao cliente, o cliente aceitará a
primeira mensagem de Oferta DHCP recebida. O cliente então transmite uma mensagem de solicitação
DHCP com o endereço IP selecionado. Depois de receber a mensagem de solicitação DHCP, o servidor
DHCP que oferece o endereço IP envia uma mensagem DHCP ACK para o cliente DHCP. A mensagem
DHCP ACK contém o endereço IP oferecido e outras informações de configuração.
Ao receber a mensagem DHCP ACK, o cliente DHCP transmite pacotes ARP gratuitos para detectar se
algum host está usando o endereço IP alocado pelo servidor DHCP. Se nenhuma resposta for recebida
dentro de um tempo especificado, o cliente DHCP usará esse endereço IP. Se um host estiver usando
esse endereço IP, o cliente DHCP enviará o pacote DHCP Decline ao servidor DHCP, informando que o
endereço IP não pode ser usado, após o qual o cliente DHCP se aplica para outro endereço IP.
Renovação da concessão de DHCP
Depois de obter um endereço IP, o cliente DHCP entra no estado de ligação. Três temporizadores são
definidos no cliente DHCP para controlar a atualização da concessão, a vinculação da concessão e a
expiração da concessão. Ao atribuir um endereço IP a um cliente DHCP, um servidor DHCP especifica
valores para os timers.
Se o servidor DHCP não definir os valores dos cronômetros, o cliente DHCP usará os valores padrão.
Os valores padrão definem que, quando 50% do período de concessão permanecer, o processo de
renovação de versão deve começar, para o qual se espera que um cliente DHCP renove sua concessão
de endereço IP. O cliente DHCP envia automaticamente uma mensagem de solicitação DHCP para o
servidor DHCP que alocou um endereço IP para o cliente DHCP.
Se o endereço IP for válido, o servidor DHCP responderá com uma mensagem DHCP ACK para
conceder ao novo cliente DHCP uma nova concessão e, em seguida, o cliente voltará a inserir o estado
de ligação. Se o cliente DHCP receber uma mensagem DHCP NAK do servidor DHCP, ele entrará no
estado de inicialização.
Expiração de religamento de DHCP
Depois que o cliente DHCP envia uma mensagem de solicitação DHCP para estender a concessão, o
cliente DHCP permanece em um estado de atualização e aguarda uma resposta. Se o cliente DHCP não
receber uma mensagem de resposta DHCP do servidor DHCP após o término do tempo de reativação do
servidor DHCP, que por padrão ocorre quando 12,5% do período de concessão permanece, o cliente
DHCP supõe que o servidor DHCP original não está disponível e começa a transmitir uma mensagem de
solicitação DHCP, para a qual qualquer servidor DHCP na rede pode responder com uma mensagem
DHCP ACK ou NAK.
Se a mensagem recebida for uma mensagem DHCP ACK, o cliente DHCP retornará ao estado de
ligação e redefinirá o cronômetro de renovação de concessão e o cronômetro de ligação do servidor. Se
todas as mensagens recebidas forem mensagens DHCP NAK, o cliente DHCP retornará ao estado de
inicialização. Neste momento, o cliente DHCP deve parar de usar esse endereço IP imediatamente e
solicitar um novo endereço IP.
Liberação de Endereço IP
O cronômetro de concessão é o cronômetro final no processo de expiração e, se o cliente DHCP não
receber uma resposta antes do vencimento do cronômetro de vencimento, o cliente DHCP deverá parar
de usar o endereço IP atual imediatamente e retornar ao estado de inicialização. O cliente DHCP envia
uma mensagem DHCP DISCOVER para solicitar um novo endereço IP, reiniciando assim o ciclo DHCP.
Configuração do pool de interfaces DHCP
Há duas formas de configuração de pool com suporte no DHCP, que incluem definir um pool global
ou um pool baseado em interface. O comando dhcp select interface é usado para associar uma interface
ao pool de endereços da interface para fornecer informações de configuração aos hosts conectados. O
exemplo demonstra como a interface Gigabit Ethernet 0/0/0 foi atribuída como parte de um pool de
endereços de interface.
Validação de Configuração DHCP
Cada servidor DHCP definirá um ou vários conjuntos que podem estar associados globalmente ou
com uma determinada interface. Para determinar os atributos do conjunto associados a uma interface,
o comando display ip pool interface <interface> é usado. O pool DHCP conterá informações, incluindo o
período de concessão para cada endereço IP concedido, bem como o intervalo do pool que é suportado.
No caso de outros atributos serem suportados para propagação relacionada ao DHCP para clientes,
como com o gateway IP, máscara de sub-rede e servidor DNS, eles também serão exibidos.
Configuração do conjunto global de DHCP
O exemplo demonstra a configuração do DHCP para um pool de endereços global atribuído à rede
10.2.2.0. O comando dhcp enable é o pré-requisito para configurar as funções relacionadas ao DHCP e
entra em vigor somente após o comando dhcp enable ser executado. Um servidor DHCP exige que o
comando ip pool seja configurado na visualização do sistema para criar um pool de endereços IP e
definir parâmetros do pool de endereços IP, incluindo um endereço de gateway, o período de concessão
de endereço IP, etc. Pool de endereços IP para clientes.
Um servidor DHCP e seu cliente podem residir em diferentes segmentos de rede. Para permitir que o
cliente se comunique com o servidor DHCP, o comando gateway-list é usado para especificar um
endereço de gateway de saída para o pool de endereços global do servidor DHCP. O servidor DHCP pode
então atribuir um endereço IP e o endereço do gateway de saída especificado ao cliente. O endereço é
configurado em notação decimal pontuada para a qual um máximo de oito endereços de gateway,
separados por espaços, pode ser configurado.
Validação de Configuração DHCP
As informações referentes a um pool também podem ser observadas por meio do comando display ip
pool. Esse comando fornecerá uma visão geral dos parâmetros gerais de configuração suportados por
um pool configurado, incluindo o gateway e a máscara de sub-rede do pool, bem como estatísticas
gerais que permitem ao administrador monitorar o uso atual do pool para determinar o número de
endereços alocados. junto com outras estatísticas de uso.
Resumo
1-Quais endereços IP geralmente devem ser excluídos do pool de endereços?
Endereços IP usados para alocação de servidores, como servidores DNS locais, para evitar conflitos de
endereço.
2-Qual é o período de concessão do endereço IP padrão?
O período de concessão padrão para endereços IP atribuídos a DHCP é definido em um período igual
a um dia.
Prefácio
O desenvolvimento inicial de padrões introduziu as bases de um protocolo de
transferência de arquivos, com o objetivo de promover o compartilhamento de arquivos
entre locais remotos que não foram afetados por variações nos sistemas de
armazenamento de arquivos entre hosts. O aplicativo FTP resultante foi finalmente
adotado como parte do conjunto de protocolos TCP / IP. O serviço FTP continua sendo
parte integrante da rede como um aplicativo para garantir a transferência confiável e
eficiente de dados, comumente implementada para backup e recuperação de arquivos e
logs, melhorando assim o gerenciamento geral da rede da empresa. Esta seção, portanto,
introduz os meios para engenheiros e administradores implementarem serviços de FTP
nos produtos da Huawei.
Objectios
Após a conclusão desta seção, os formandos serão capazes de:

Explicar o processo de transferência de arquivos do FTP.

Configurar o serviço FTP no suporte a dispositivos Huawei.
Aplicativo FTP na rede corporative
A implementação de um servidor FTP dentro da rede da empresa permite o backup e a recuperação
de arquivos importantes do sistema e do usuário, que podem ser usados para manter a operação diária
de uma rede corporativa. Exemplos típicos de como um servidor FTP pode ser aplicado incluem o
backup e a recuperação de arquivos de imagem e configuração do VRP. Isso também pode incluir a
recuperação de arquivos de log do servidor FTP para monitorar a atividade de FTP que ocorreu.
Processo de transferência de arquivos por FTP
A transferência de arquivos FTP depende de duas conexões TCP. A primeira delas é uma conexão de
controle que é configurada entre o cliente FTP e o servidor FTP. O servidor ativa a porta comum 21 e
aguarda uma solicitação de conexão do cliente. O cliente envia uma solicitação para configurar uma
conexão com o servidor. Uma conexão de controle sempre aguarda a comunicação entre o cliente e o
servidor, transmite comandos relacionados do cliente para o servidor, bem como respostas do servidor
para o cliente.
O servidor usa a porta TCP 20 para conexões de dados. Geralmente, o servidor pode abrir ou fechar
uma conexão de dados ativamente. Para arquivos enviados do cliente para o servidor na forma de
fluxos, no entanto, somente o cliente pode fechar uma conexão de dados. O FTP transfere cada arquivo
em fluxos, usando um indicador End of File (EOF) para identificar o final de um arquivo. Portanto, é
necessária uma nova conexão de dados para cada arquivo ou lista de diretórios a ser transferido.
Quando um arquivo está sendo transferido entre o cliente e o servidor, isso indica que uma conexão de
dados está configurada.
Conceitos Básicos do FTP
Existem dois modos de transmissão FTP que são suportados pela Huawei, são o modo ASCII e o modo
binário. O modo ASCII é usado para texto, no qual os dados são convertidos da representação de
caracteres do remetente para "ASCII de 8 bits" antes da transmissão. Simplificando, os caracteres ASCII
são usados para separar retornos de linha de feeds de linha. No modo binário, o emissor envia cada byte
de arquivo para byte. Este modo é freqüentemente usado para transferir arquivos de imagem e
arquivos de programas para os quais os caracteres podem ser transferidos sem conversão de formato.
Estabelecimento de serviço FTP
A implementação do serviço FTP é possível tanto no roteador da série AR2200 quanto no switch da
série S5700, para a qual o serviço pode ser ativado através do comando ftp server enable. Depois que a
função do servidor FTP é ativada, os usuários podem gerenciar arquivos no modo FTP. O comando set
default ftp-directory define o diretório de trabalho padrão para usuários de FTP. Onde nenhum diretório
de trabalho FTP padrão estiver configurado, o usuário não conseguirá efetuar login no roteador e, em
vez disso, será avisado com uma mensagem notificando que o usuário não tem autoridade para acessar
qualquer diretório de trabalho.
Estabelecimento de usuários do serviço FTP
O acesso ao serviço FTP pode ser obtido atribuindo-se login de usuário individual para gerenciar o
acesso por usuário. O AAA é usado para configurar autenticação e autorização local. Depois que a
visualização AAA é inserida, o usuário local pode ser criado definindo uma conta de usuário e uma
senha. A conta é capaz de se associar a uma variedade de serviços, que são especificados usando o
comando service-type, para permitir que o tipo de serviço ftp seja suportado pelo AAA.
Se o diretório ftp do usuário deve variar do diretório padrão, o comando ftp-directory pode ser usado
para especificar o diretório para o usuário. Se o número de conexões ativas possíveis com uma conta de
usuário local for limitado, o comando de limite de acesso poderá ser aplicado. Isso pode variar de 1 a
800 ou ilimitado quando um limite de acesso não é aplicado.
A configuração de um tempo limite inativo ajuda a impedir o acesso não autorizado no caso de uma
janela de sessão ficar inativa por um período de tempo por um usuário. O comando de tempo limite
inativo é definido em termos de minutos e segundos, com um tempo limite inativo de 0 0
representando que nenhum período de tempo limite é aplicado. Finalmente, o nível de privilégio define
o nível autorizado do usuário em termos dos comandos que podem ser aplicados durante o
estabelecimento da sessão ftp. Isso pode ser definido para qualquer nível de 0 a 15, com um valor maior
indicando um nível mais alto do usuário.
Configuração do usuário de FTP
Após a configuração do serviço FTP no servidor FTP, é possível que os usuários estabeleçam uma
conexão entre o cliente e o servidor. O uso do comando ftp no cliente estabelecerá uma sessão através
da qual a autenticação AAA será usada para validar o usuário usando autenticação de senha AAA. Se
autenticado corretamente, o cliente poderá configurar, bem como enviar / recuperar arquivos para e do
servidor FTP.
Resumo
1-Quais portas precisam estar abertas para permitir que o serviço FTP funcione?
Para que a conexão de controle e conexão de dados do serviço FTP seja estabelecida com sucesso, as
portas TCP 20 e 21 devem estar habilitadas.
2-Considera-se que um usuário não possui autoridade para acessar qualquer diretório de trabalho.
Quais etapas são necessárias para resolver isso?
Quando um usuário é considerado sem autoridade para acessar qualquer diretório de trabalho, um
diretório de FTP padrão precisa ser definido. Isso é feito usando o comando set default ftp-directory
<diretório local>, onde o nome do diretório pode ser, por exemplo, o sistema flash.
Prefácio
À medida que a rede corporativa se expande, dispositivos suportados podem existir
em uma distância geográfica maior devido à presença de filiais consideradas parte do
domínio corporativo e que requerem administração remota. Além disso, a administração
da rede é geralmente gerenciada a partir de um local de gerenciamento central, do qual
todos os dispositivos são monitorados e administrados. Para facilitar essa administração,
o protocolo telnet, um dos primeiros protocolos a serem desenvolvidos, é aplicado para
gerenciar dispositivos. Os princípios que envolvem o protocolo e sua implementação são
apresentados nesta seção.
Objectivos
Após a conclusão desta seção, os formandos serão capazes de:


Explicar a aplicação e os princípios que envolvem o telnet.
Estabelecer o serviço de telnet no suporte a dispositivos Huawei.
Aplicativo de Telnet
O Protocolo de Rede de Telecomunicações (Telnet) permite que um terminal faça o login
remotamente em qualquer dispositivo que seja capaz de operar como um servidor telnet e fornece uma
interface operacional interativa através da qual o usuário pode executar operações, da mesma maneira
uma conexão do console. Os hosts remotos não precisam ser conectados diretamente a um terminal de
hardware, permitindo que os usuários aproveitem os recursos onipresentes do IP para gerenciar
remotamente dispositivos de praticamente qualquer local do mundo.
Modelo de cliente / servidor de Telnet
O Telnet opera em um princípio de modelo cliente / servidor para o qual uma conexão TCP telnet é
estabelecida entre uma porta de usuário e a porta telnet do servidor, que por padrão é atribuída como
porta 23. O servidor atende a essa porta conhecida para tais conexões. Uma conexão TCP é full duplex e
identificada pelas portas de origem e de destino. O servidor pode envolver-se em muitas conexões
simultâneas envolvendo suas portas conhecidas e portas de usuário que são atribuídas a partir de um
intervalo de portas não conhecido.
Os drivers de terminal de telnet interpretam os pressionamentos de tecla dos usuários e os
convertem em um padrão universal de caracteres, baseado em um terminal virtual de rede (NVT) que
opera como intermediário virtual entre sistemas, após o qual a transmissão via conexão TCP / IP ao
servidor é executado. O servidor decodifica os caracteres NVT e transmite os caracteres decodificados
para um driver pseudo-terminal que existe para permitir que o sistema operacional receba os caracteres
decodificados.
Modo de autenticação
O acesso ao serviço de telnet geralmente envolve a autenticação do usuário antes que o acesso seja
concedido. Existem três modos principais definidos para a autenticação de telnet.
Configuração Telnet
O estabelecimento de um dispositivo que funciona como um servidor telnet geralmente usa um
esquema de autenticação de senha geral, usado para todos os usuários que se conectam à interface vty
do usuário. Depois que a conectividade IP é estabelecida por meio da implementação de um esquema
de endereçamento adequado, o conjunto de comandos de senha do modo de autenticação é
implementado para o intervalo vty, junto com a senha a ser usada.
Configuração Telnet
Após a configuração do dispositivo remoto que deve operar como um servidor telnet, o cliente pode
estabelecer uma conexão telnet através do comando telnet e receber o prompt para autenticação. A
senha de autenticação deve corresponder à senha implementada no servidor de telnet como parte da
configuração de autenticação de senha anterior. O usuário será então capaz de estabelecer uma
conexão remota via telnet para o dispositivo remoto operando como um servidor telnet e emular a
interface de comando no cliente telnet local.
Resumo
1-Se o serviço de telnet foi ativado, mas um usuário não consegue estabelecer uma conexão telnet,
quais são as possíveis razões para isso?
Se um usuário não conseguir estabelecer uma conexão telnet, o usuário deve verificar se o
dispositivo que suporta o serviço telnet está acessível. Se o dispositivo puder ser acessado, a senha
deverá ser verificada. Se a senha for considerada correta, o número de usuários que atualmente
acessam o dispositivo via telnet deve ser verificado. Se for necessário estender o número de usuários
que acessam o dispositivo por meio do telnet, o comando maximum-vty <0-15> da interface do usuário
deve ser usado, onde 0-15 indica o número de usuários suportados.
Download