Uploaded by mc3imc3

conceitos infraestrutura de datacenters

advertisement
Universidade do Sul de Santa Catarina
Conceitos e
infraestrutura de
datacenters
Autor
Mauro Faccioni Filho
Créditos
Universidade do Sul de Santa Catarina – Unisul
Reitor
Sebastião Salésio Herdt
Vice-Reitor
Mauri Luiz Heerdt
Pró-Reitor de Ensino, de Pesquisa e de Extensão
Mauri Luiz Heerdt
Pró-Reitor de Desenvolvimento Institucional
Luciano Rodrigues Marcelino
Pró-Reitor de Operações e Serviços Acadêmicos
Valter Alves Schmitz Neto
Diretor do Campus Universitário de Tubarão
Heitor Wensing Júnior
Diretor do Campus Universitário da Grande Florianópolis
Hércules Nunes de Araújo
Diretor do Campus Universitário UnisulVirtual
Fabiano Ceretta
Campus Universitário UnisulVirtual
Diretor
Fabiano Ceretta
Unidade de Articulação Acadêmica (UnA) – Ciências Sociais, Direito, Negócios e Serviços
Amanda Pizzolo (coordenadora)
Unidade de Articulação Acadêmica (UnA) – Educação, Humanidades e Artes
Felipe Felisbino (coordenador)
Unidade de Articulação Acadêmica (UnA) – Produção, Construção e Agroindústria
Anelise Leal Vieira Cubas (coordenadora)
Unidade de Articulação Acadêmica (UnA) – Saúde e Bem-estar Social
Aureo dos Santos (coordenador)
Gerente de Operações e Serviços Acadêmicos
Moacir Heerdt
Gerente de Ensino, Pesquisa e Extensão
Roberto Iunskovski
Gerente de Desenho, Desenvolvimento e Produção de Recursos Didáticos
Márcia Loch
Gerente de Prospecção Mercadológica
Eliza Bianchini Dallanhol
Mauro Faccioni Filho
Conceitos e
infraestrutura de
datacenters
Livro Digital
Designer instrucional
Marina Melhado Gomes da Silva
UnisulVirtual
Palhoça, 2016
Copyright ©
UnisulVirtual 2016
Nenhuma parte desta publicação pode ser reproduzida por
qualquer meio sem a prévia autorização desta instituição.
Livro Digital
Professor conteudista
Mauro Faccioni Filho
Designer instrucional
Marina Melhado Gomes da Silva
Projeto gráfico e capa
Equipe UnisulVirtual
Diagramador(a)
Marina Broering Righetto
Revisor(a)
Diane Dal Mago
F12
Faccioni Filho, Mauro
Administração e direito administrativo de trânsito : livro didático /
GConceitos e infraestrutura de datacenters: livro digital / Mauro Faccioni
Filho; design instrucional Marina Melhado Gomes da Silva. – Palhoça:
UnisulVirtual, 2016.
117 p. : il. ; 28 cm.
Inclui bibliografia.
1. Tecnologia da informação - Administração. 2. Sistemas de
informação gerencial. 3. Gerenciamento de recursos de informação. I.
Silva, Marina Melhado Gomes da. II. Título.
CDD (21. ed.) 658.4038011
Ficha catalográfica elaborada pela Biblioteca Universitária da Unisul
Sumário
Apresentação | 5
Conceitos de datacenter | 7
Infraestrutura de energia para datacenters | 30
Infraestrutura de climatização para datacenters | 65
Sistemas complementares em datacenter | 91
Considerações finais | 116
Conteudista | 117
Apresentação
No Brasil, ao nos referirmos a conceitos e infraestrutura de datacenters, não há como
deixar de mencionar e enaltecer a enorme influência exercida pelo Prof. Dr. Paulo Marin. Por
esse motivo, desenvolvemos um conjunto de entrevistas com o Dr. Paulo para rever e atacar
os principais temas relacionados ao assunto, dividindo esses temas em quatro áreas, que
deram origem, então, a quatro entrevistas técnicas que relacionaremos a seguir.
Antes de mais nada, cabem algumas notas pessoais e outras mais técnicas sobre o “Paulo Marin”.
Estudamos engenharia elétrica na mesma época, fizemos mestrado e doutorado também na
mesma época, antes dos nos conhecermos No final dos anos 1990 nos conhecemos, em alguns
eventos sobre cabeamento estruturado, que eram promovidos pela BICSI. A partir de então
desenvolvemos inúmeras parcerias juntos, sejam elas relacionadas à tecnologia, à educação,
ou a tantas outras atividades que a amizade nos leva. Em todo esse tempo vi muitas de suas
conquistas no campo da tecnologia, em especial a da infraestrutura de rede de dados, que o
levou a ser premiado nos Estados Unidos com o “2014 Harry J. Pfister Award for Excellence in the
Telecommunications Industry”, concedido pela University of South Florida – College of Engineering
– USA, por suas contribuições e serviço à indústria de ICT (Information and Communications
Technology). Foi um prêmio muito importante, obtido justamente no país que desenvolve tais
tecnologias. Infelizmente, até agora, o Brasil não foi capaz de premiar ou reconhecer esse talento
como deveria, mas isso já é um outro problema cultural.
Paulo Marin é graduado, mestre e doutor em engenharia elétrica, tendo se especializado
em infraestrutura de telecomunicações, redes e ambientes de missão crítica, e seus
conhecimentos abrangem teorias de interferência eletromagnética e propagação de sinais. No
Brasil, ele atua como coordenador do comitê da Associação Brasileira de Normas Técnicas,
CE 003:046.005 ABNT, que é responsável pelas normas de cabeamento estruturado para
edifícios comerciais, datacenters, residências, indústrias, bem como caminhos e espaços
para cabeamento estruturado em edifícios. Nos Estados Unidos, atua como coordenador
do comitê ANSI/BICSI 005 (segurança eletrônica) e participa do comitê ANSI/BICSI 002,
responsável pela norma norte-americana de infraestrutura para datacenters. É membro do
IEEE e da BICSI e autor de vários livros técnicos nas áreas de cabeamento estruturado e
infraestrutura para datacenters. No Brasil, seus livros são publicados pela PM Books Editora
(www.pmtechbooks.com). Paulo Marin atua também na organização e gerenciamento de
vários congressos técnicos, é colunista mensal da revista RTI no Brasil há mais de 15 anos, e
tem publicados diversos artigos em revistas nacionais e internacionais.
As quatro entrevistas que fizemos com o Dr. Paulo Marin foram organizadas de acordo com o
seguintes temas:
1.
Conceitos de datacenter
2.
Infraestrutura de energia para datacenters
3.
Infraestrutura de climatização para datacenters
4.
Sistemas complementares em datacenters
Universidade do Sul de Santa Catarina
Essas entrevistas cobrem todo o conhecimento acerca de conceitos e projetos para
datacenters, e estão na fronteira das inovações da área graças à atuação constante, presente
e participativa de Paulo Marin na indústria mundial de datacenters e das associações e
organismos de normas e de geração das novas tecnologias.
6
Conceitos de datacenter
Apresentação da entrevista
Nessa primeira entrevista com o Prof. Dr. Paulo Marin, a abordagem é de fundamentação
dos principais conceitos que definem o datacenter na atualidade. Uma distinção é feita em
relação ao antigo conceito de “centros de processamento de dados”, que então passa a ser
redefinido a partir de todas as normas mundiais e nacionais que surgiram a partir dos anos
2000. Conceitos como os dos sistemas que compõem os datacenters, sua caracterização
e condições de funcionamento são os fundamentos básicos para o bom entendimento da
infraestrutura. Uma nova abordagem, inexistente na época dos “centros de processamento
de dados”, é agora tratada ao nos referirmos à classificação em “tiers”, que o Prof. Paulo
nos explica apropriadamente, demonstrando, também, sua relação com a questão das
redundâncias presentes na infraestrutura.
Após esse tratamento geral dos conceitos, passamos a verificar os itens do datacenter, tais
como padrões de distribuição interna de espaços, pisos, racks e outros espaços especiais,
como a questão das salas seguras, cofres e dispositivos, tais como containers. Por fim, uma
visão geral das condições ambientais externas aos datacenters é apresentada, especialmente
no que se relaciona a condições mínimas de qualidade de implantação do ponto de vista
geográfico e do entorno físico.
Entrevista
Pergunta 1: Até os anos 1990 conhecíamos os CPDs, ou Centros de Processamento de Dados.
A partir dos anos 2000 passamos a falar de datacenters. Qual a diferença entre eles, e qual o
conceito moderno de datacenters?
Resposta:
Datacenters ou Centros de Processamento de Dados (CPD) são ambientes de missão crítica,
abrigam equipamentos e sistemas responsáveis pelo processamento e armazenamento de
informações cruciais para a continuidade da operação dos mais diversos tipos de negócios.
Os datacenters de hoje podem ser entendidos como os CPDs dos anos de 1980 e início
dos anos de 1990. De qualquer forma, a densidade de equipamentos ativos nas instalações
modernas é maior que aquela instalada nos antigos CPDs.
Apesar de o termo datacenter ser usado, na maioria das vezes, para se referir aos espaços
onde os equipamentos críticos de TI estão instalados, um datacenter é a infraestrutura do site
Universidade do Sul de Santa Catarina
como um todo. O espaço especificamente usado para abrigar os equipamentos críticos de TI
é denominado sala de equipamentos ou sala de computadores.
Em resumo, a principal diferença sob meu ponto de vista entre os CPDs e os datacenters é a
densidade de equipamentos, o que temos hoje em um único gabinete (que ocupa pouco mais
de um metro quadrado de área da sala de computadores) é mais, em termos de capacidade
de armazenamento de informações e de processamento que um CPD inteiro, nos anos de
1980 a 1990.
A Figura 1 mostra um exemplo típico de um CPD dos anos de 1980 e a Figura 2, de um
datacenter moderno.
Figura 1 – Exemplo de um CPD típico dos anos de 1980
Fonte: Museu Musical (2015).
A Figura 1 mostra um exemplo de CPD, cujas principais caraterísticas são a presença
de pessoas trabalhando na sala de computadores, bem como a quantidade e porte dos
equipamentos, em geral muito grandes em comparação com equipamentos similares de hoje.
Quanto aos datacenters modernos, a principal característica é a alta densidade de
equipamentos na sala de computadores, ficando os espaços de suporte, onde o pessoal da
operação efetivamente trabalha, fora da sala de computadores.
Pergunta 2: Essa nova visão de datacenters é baseada em normas? Quais as principais?
Resposta:
Embora haja boas normas que auxiliem o projetista no dimensionamento da infraestrutura de
datacenters, incluindo a brasileira ABNT NBR 14565:2013, eu não diria que a nova visão de
datacenters é baseada em normas. Acredito que é mais uma questão de entendimento dos
profissionais de TI, genericamente falando. Ainda hoje é comum encontrarmos profissionais
que se referem a datacenters como CPDs e outros que certamente nos corrigirão em uma
8

conversa, se nos referirmos a um data center como CPD. Enfim, se considerarmos que o
termo CPD é oriundo do inglês, ele sempre se chamou datacenter. Portanto, a nova visão
sobre datacenters, ao meu ver, está relacionada aos profissionais que atuam nesse segmento
de alguma forma. Certamente, a visão que o profissional de TI tem de datacenters é diferente
da visão dos profissionais de facilities.
De qualquer forma, considerando a normalização do setor, as normas mais importantes são:
•• ABNT NBR 14565:2013 – cabeamento estruturado para edifícios comerciais e
data centers ;
•• ANSI/TIA 942-A (2012) – telecommunications infrastructure for data centers;
•• ISO/IEC 24764:2010 – information technology – generic cabling systems for
data centers;
•• ANSI/BICSI 002-2014 – data center design and implementation best practices.
Pergunta 3: Quais os sistemas que compõem o datacenter?
Resposta:
Mais uma vez, é importante entender que, embora o termo datacenter seja usado para
designar os espaços onde os equipamentos críticos de TI estão instalados, um datacenter é a
infraestrutura do site como um todo e compreende os seguintes espaços e sistemas:
a.
sala de servidores;
b.
climatização (ar-condicionado e controle ambiental);
c.
distribuição elétrica e UPS (Uninterruptable Power Supply);
d.
automação do edifício;
e.
detecção e supressão de incêndio;
f.
segurança e controle;
g.
espaços de suporte, entre outros.
9
Universidade do Sul de Santa Catarina
A Figura 2 mostra um exemplo dos espaços e subsistemas que compõem um datacenter.
Figura 2 – Espaços e subsistemas que compõem um datacenter
Edifício
Entrada de
telecomunicações
Entrada de
energia
Sala de
comunicações
Salas de
energia / UPS
geradores
Data Center
Automação
incêndio
monitoramento
Sala de
computadores
Sala de
operação
da rede
Sala de
ar condicionado
Fonte: ABNT NBR 14565 (2013).
Conforme mostrado na Figura 2, retirada do Anexo F da ABNT NBR 14565:2013, um
datacenter é composto por vários sistemas que devem ser integrados para a operação ótima
da infraestrutura.
Pergunta 4: O que caracteriza e diferencia datacenters grandes, médios e pequenos?
Resposta:
Trata-se de uma boa pergunta e bastante pertinente. É muito comum ouvirmos os termos
datacenter grande ou datacenter de grande porte, assim como datacenter pequeno ou
datacenter de pequeno porte. No entanto, como se define o tamanho ou o porte de um
datacenter?
Na verdade, não há um critério oficialmente definido no que diz respeito a isso, ou seja, não há
uma norma técnica ou procedimento que defina os parâmetros associados ao tamanho de um
datacenter ou como classificar um datacenter com base em seu porte.
É importante entender que uma infraestrutura de missão crítica de TI com um único gabinete
pode ser um datacenter. Para isso, basta que a infraestrutura ofereça condições para que a
disponibilidade da operação seja ótima, ou, em termos práticos, o mais próximo possível de
100%.
10

Certamente, o datacenter com um único gabinete, como mencionado acima, é um data center
de pequeno porte, porém, enfatizo, é um datacenter desde que seja projetado e construído
para máxima disponibilidade.
Portanto, embora não haja parâmetros que definam datacenters com base em seus
tamanhos, prefiro associar o porte de um datacenter à quantidade de racks ou gabinetes
e/ou à sua carga, em kW. Alguns projetistas utilizam a área da sala de servidores que ele
ocupa, em metros quadrados, como um indicador do porte de um datacenter. Nesse caso, o
dimensionamento de seus sistemas e espaços de suporte pode ser mais difícil.
A classificação com base na quantidade de racks e gabinetes é uma boa prática, pois
a partir daí é possível dimensionar todos os sistemas da infraestrutura do datacenter e
também os espaços de suporte. Isso fica mais fácil porque, a partir da quantidade de
equipamentos, pode-se levantar a carga do datacenter (em kW), o que é fundamental para o
dimensionamento de toda sua infraestrutura.
Em resumo, sob meu ponto de vista, o que caracteriza e diferencia datacenters de grande,
médio e pequeno portes é a carga (em kW) associada a eles.
Pergunta 5: Qual seu entendimento sobre os conceitos de resiliência, tolerância a falhas e
disponibilidade em datacenters?
Resposta:
Esses conceitos estão todos associados quando falamos em ambientes de missão crítica,
como são os datacenters.
A resiliência pode ser compreendida como a capacidade de recuperação do site ao seu estado
original (disponibilidade) no caso de sofrer uma falha e pode ser obtida com a implementação
de redundância de partes, peças e sistemas completos, o que leva a algum grau de tolerância
a falhas. É importante, entretanto, não confundir isso com a característica de data centers
Tier IV, que são por definição os únicos tolerantes a falhas. De forma mais geral, a tolerância a
falhas é a capacidade de um datacenter continuar em operação mesmo no evento de alguma
falha. O grau de tolerância a falhas vai depender também dos mecanismos de redundância
implementados no site.
A disponibilidade de um determinado sistema pode ser definida como o tempo durante o
qual ele está em operação em relação ao tempo em que ele deve estar em operação. A
disponibilidade do sistema pode ser calculada da seguinte forma:
Disponibilidade =
[1]
sendo:
MTBF (Mean Time Between Failures), tempo médio entre falhas;
MTTR (Mean Time To Repair), tempo médio de reparo.
11
Universidade do Sul de Santa Catarina
Para sistemas altamente confiáveis, esse número deve estar muito próximo de 1,000
(ou 100%). No entanto, isso seria uma situação ideal, ou seja, de um sistema que jamais
apresentasse falhas. Na prática, esse número deve ser, no mínimo, de 99,9%, normalmente
referido como uma disponibilidade de “três noves”, o que se espera da infraestrutura de um
datacenter. Cada “nove” adicional aumenta a ordem de grandeza de disponibilidade em um
fator de 10, aproximadamente.
A disponibilidade de um datacenter será expressa como uma porcentagem (ao longo de um
período de um ano) e se aplica a um componente ou sistema. Para sistemas compostos
por vários elementos ou componentes com diferentes MTBF, ou seja, em um sistema
híbrido (como é a infraestrutura de um datacenter), a disponibilidade de cada sistema (ou
componente) deve ser então calculada para cada um, considerando sua topologia híbrida que
pode ser em série ou paralela. É importante entender que a disponibilidade da infraestrutura
sempre se refere ao sistema como um todo.
Para finalizar e concluir a discussão, todos esses parâmetros, ou seja, resiliência, tolerância
a falhas e disponibilidade estão diretamente relacionados à redundância de partes, peças e
sistemas implementados em um dado site.
Pergunta 6: O mercado fala muito de classificação “tier” para datacenters. O que é essa
classificação e qual sua origem?
Resposta:
A classificação de data centers em tiers é uma iniciativa do Uptime Institute, uma organização
norte-americana que classifica a infraestrutura de datacenters com base em suas
características de redundância e disponibilidade, enfim, de tolerância a falhas e resiliência.
O sistema de classificação de infraestrutura de data centers desenvolvido pelo Uptime Institute
é muito válido e, embora a entidade seja norte-americana, seu sistema de classificação
passou a ser adotado em quase todo o mundo (antes mesmo de eles se estabelecerem
oficialmente em outros países). Digo isso porque em vez de produzirem um modelo teórico
para a determinação da disponibilidade de datacenters com base em suas infraestruturas
físicas (facilities) e, em seguida, passarem à aplicação do modelo e análise de resultados,
eles fizeram o contrário. Em outras palavras, o Uptime teve a feliz iniciativa de coletar dados
de infraestruturas reais (em operação) de datacenters desde os anos de 1970 e, com base
nos comportamentos destes sites em termos de disponibilidade associada à redundância,
definiram seu modelo de classificação de disponibilidade em tiers que, em inglês, significa
níveis. Portanto, o Uptime define quatro níveis de disponibilidade para a infraestrutura de um
datacenter com base em suas configurações das infraestruturas de distribuição elétrica e
climatização. Esses dois sistemas podem ser considerados essenciais para a disponibilidade
do site, pois sem alimentação elétrica os equipamentos não podem operar, e sem um
sistema de climatização para manter as condições ambientais dentro das especificações dos
equipamentos de TI, o mesmo ocorre.
Em resumo, o Uptime Institute define quatro níveis (tiers) de disponibilidade para datacenters
com base nas configurações de suas infraestruturas de distribuição elétrica e climatização.
12

Uma pergunta comum é se outros sistemas não estariam diretamente associados à
disponibilidade de um datacenter, como por exemplo, sistemas de telecomunicações, e não
deveriam ser considerados para a classificação de um datacenter. De fato, se um link com
um provedor de internet cair, o site poderá ficar indisponível. No entanto, isso não depende
de aspectos de facilities do site, que, mesmo na ausência de um link com um provedor de
serviços, continuará operando e estará disponível desde que não falte energia elétrica e arcondicionado.
Em resumo, podemos entender o seguinte:
•• O Uptime Institute estabelece quatro definições distintas de classificações tier
(Tier I, Tier II, Tier III e Tier IV) de infraestruturas de datacenters, bem como
testes de confirmação de desempenho para a determinação de conformidade
com essas definições.
•• As classificações tier descrevem a topologia do site requerida para suportar
as operações do datacenter como um todo, não apenas de sistemas e
subsistemas individuais.
••
Datacenters são dependentes da operação integrada de várias partes
separadas dos subsistemas da infraestrutura como geração de energia
elétrica, sistemas UPS e climatização, fundamentalmente.
•• O propósito da classificação tier de um datacenter, conforme estabelecido
pelo Uptime Institute, é munir os profissionais de projeto, operadores de
datacenters e gerentes de TI com um objetivo, bem como meios efetivos
para a identificação do desempenho de diferentes topologias de projeto de
infraestruturas de distribuição elétrica e climatização de sites de data centers.
Para uma melhor compreensão das classificações definidas pelo Uptime Institute, apresento, a
seguir, um resumo de cada nível (tier) e suas principais características.
Datacenter Tier I
Definição: datacenter sem componentes redundantes e com um ramo de distribuição (elétrica
e de climatização) não redundante para atender aos equipamentos críticos de TI do site.
Características:
•• Suscetível a interrupções por atividades planejadas e não planejadas.
•• Possui um ramo único de distribuição de alimentação elétrica, bem como para
o sistema de climatização sem componentes redundantes.
Datacenter Tier II
Definição: datacenter com componentes redundantes, porém, com um ramo único de
distribuição (elétrica e climatização) para atender os equipamentos críticos de TI.
Características:
•• Uma falha em um componente pode causar impactos na operação dos
equipamentos de TI.
13
Universidade do Sul de Santa Catarina
•• Uma falha no ramo de distribuição elétrica causará o desligamento dos
equipamentos de TI.
•• São sites suscetíveis a interrupções por atividades planejadas e não
planejadas.
•• Módulos UPS redundantes e grupos geradores devem fazer parte da
infraestrutura de alimentação elétrica de datacenters Tier II.
•• A infraestrutura do site deve ser totalmente desligada para serviços de
manutenção preventiva e corretiva.
Datacenter Tier III
Definição: datacenter com componentes redundantes e vários ramos de distribuição (elétrica
e climatização) para atender os equipamentos críticos de TI. Normalmente cada ramo de
distribuição atende a equipamentos críticos de TI individualmente. Um datacenter Tier III tem,
como principal característica, operação e manutenção concomitantes.
Características:
•• Cada componente e elemento dos ramos de distribuição de alimentação
elétrica e climatização do site podem ser removidos conforme planejado, sem
causar o desligamento de qualquer equipamento crítico de TI.
•• O site é suscetível a interrupções por atividades não planejadas.
•• A manutenção da infraestrutura do site pode ser realizada utilizando-se a
capacidade de componentes redundantes e dos ramos de distribuição para
trabalhos isolados nos equipamentos remanescentes.
Datacenter Tier IV
Definição: datacenter tolerante a falhas da infraestrutura com sistemas redundantes e
vários ramos de distribuição (elétrica e climatização) que atendem, simultaneamente, os
equipamentos críticos de TI. Todos os equipamentos de TI devem ter fontes de alimentação
redundantes e devem ser instalados de acordo com a topologia e arquitetura do site. A
principal caraterística de um datacenter Tier IV é sua capacidade de recuperação de falhas
dos sistemas de infraestrutura de distribuição, ou seja, caminhos e/ou ramos de distribuição.
Nenhuma das classificações anteriores tem essa característica.
Características:
•• A falha de qualquer sistema, componente ou elemento de distribuição não
causará a interrupção dos serviços do datacenter.
•• Cada componente, bem como elemento de distribuição pode ser removido
(ou retirado de serviço) de forma planejada sem causar o desligamento dos
equipamentos de TI.
•• Para a implementação de um site tolerante a falhas e manutenção simultânea
dos sistemas críticos de distribuição elétrica, sites Tier IV requerem que todos
os equipamentos de TI tenham fontes de alimentação redundantes.
14

As disponibilidades de datacenters normalmente são dadas como probabilidades de
disponibilidade e podem variar entre 99,67% e 99,99%, entre sites Tier I e Tier IV. No entanto,
é importante entender que as classificações em tiers definida pelo Uptime não estabelecem
relações entre a classificação de um site (em tier) e sua probabilidade de disponibilidade
correspondente. Um erro comum é a especificação, em um projeto de infraestrutura de um
datacenter Tier IV, por exemplo, de que sua disponibilidade deve ser de 99,98%. Além de
ser impossível projetar um datacenter que garanta tal disponibilidade, isso não faz parte das
classificações do Uptime.
O que é possível fazer é estabelecer uma relação de probabilidade de disponibilidade em
função da classificação de um dado site, porém, apenas para efeito de informação, ou seja,
para se ter uma ideia do que se pode esperar de uma dada classificação em termos de
disponibilidade (em porcentagem). A Tabela 1 resume algumas das principais características
de cada classificação e inclui a probabilidade de disponibilidade associada a cada uma delas.
Tabela 1 – Características das classificações de datacenters em função de suas classificações em tiers
Característica
Ramos de distribuição da
infraestrutura elétrica e de
climatização
Operação e manutenção
concomitantes
Probabilidade de disponibilidade
(estimada)
Tier I
Tier II
Tier III
Tier IV
1
1
1 ativo
2 ativos
simultaneamente
1 reserva
Não
Não
Sim
Sim
99,67%
99,75%
99,98%
99,99%
Fonte: Marin (2016).
O Uptime Institute emite o selo de certificação de data centers com base em seu sistema de
classificação de níveis de disponibilidade (tiers). Isso é feito mediante serviços de auditoria
prestados pelo próprio instituto.
Para finalizar, embora o Uptime tenha agregado um novo documento ao seu sistema de
classificação, denominado “sustentabilidade operacional” que, basicamente, unifica o
gerenciamento da infraestrutura ao sistema de classificação em tiers, ele não muda o sistema
de classificação proposto e nem o processo de certificação de datacenters.
Pergunta 7: Algumas vezes os datacenters são tratados como ambientes de missão crítica. No
entanto, sabemos que subestações, centros de controle de tráfego aéreo, centros de automação
e congêneres são também ambientes de missão crítica. Nesse sentido, os conceitos de
infraestrutura de datacenters também se aplicariam a esses outros tipos de ambientes?
Resposta:
De fato, datacenters devem ser sempre tratados como ambientes de missão crítica em sua
fase de projeto e instalação, pelo menos do ponto de vista de sua infraestrutura (facilities).
15
Universidade do Sul de Santa Catarina
Assim, o que outros ambientes de missão e datacenters têm em comum é que precisam
operar com a máxima disponibilidade possível. Embora as classificações tiers de
disponibilidade para datacenters não se apliquem a outros ambientes de missão crítica, os
conceitos aplicados ao projeto e construção da infraestrutura de ambientes de missão crítica
podem ser os mesmos aplicados a datacenters.
A principal diferença é que nem todos os ambientes de missão crítica têm os mesmos
requisitos de infraestrutura. De qualquer forma, aplicar os conceitos de tiers ao sistema
elétrico de sites de missão crítica pode ser uma boa prática.
Pergunta 8: Um conceito muito importante em datacenters é o da “redundância”, o que define,
inclusive, muitos parâmetros da classificação em tiers. Mas o que significa redundância em
datacenters? Pode nos dar alguns exemplos?
Resposta:
A redundância em datacenters pode ser entendida como a duplicidade de partes, módulos,
caminhos, componentes e sistemas com a finalidade de evitar o downtime (tempo de parada)
de um site devido a:
•• falhas técnicas;
•• falhas humanas (que causam erros de operação);
•• manutenção preventiva ou corretiva.
Normalmente, as classificações de datacenters quanto às suas disponibilidades e
redundâncias não incluem seus sistemas de TI propriamente ditos, ou seja, eventuais
paradas (downtime) ou lentidões (slowtime) de aplicações não contam para a classificação
de datacenters quanto às suas disponibilidades; apenas a infraestrutura física é levada em
consideração.
O nível mais alto de redundância e recuperação de desastres exige um elemento de sistema
redundante para cada sistema principal (1:1). Uma abordagem mais conservadora é o uso de
um sistema redundante para N sistemas (1:N) ou ( N+1) sistemas.
Conforme discutido na pergunta 5, a redundância tem como finalidade aumentar a
disponibilidade do datacenter, expressa como uma porcentagem (ao longo de um período de
um ano) e se aplica a um componente ou sistema.
Para sistemas compostos por vários elementos ou componentes com diferentes MTBF, ou
seja, em um sistema híbrido (como é a infraestrutura de um datacenter), a disponibilidade
de cada sistema (ou componente) deve ser então calculada para cada um, considerando
sua topologia híbrida que pode ser em série ou paralelo. É importante que se entenda que a
disponibilidade da infraestrutura sempre se refere ao sistema como um todo.
Um sistema híbrido em série pode ser representado pela topologia da Figura 3.
16

Figura 3 - Topologia de um sistema híbrido em série
Sistema S2
Sistema S1
Fonte: Marin (2016).
A disponibilidade de um sistema híbrido em série pode ser calculada conforme a seguinte
expressão:
[1]
[2]
Considerando que o Sistema 1 tem uma disponibilidade de 50% e o Sistema 2, de 60%, a
disponibilidade total calculada do sistema híbrido formado pela associação em série de ambos
os sistemas 1 e 2 será de 30%, conforme a aplicação de [1].
[2]
Um sistema híbrido paralelo pode ser representado pela topologia apresentada na Figura 4.
Figura 4 - Topologia de um sistema híbrido paralelo
Sistema S1
Sistema S2
Fonte: Marin (2016).
A disponibilidade de um sistema híbrido paralelo pode ser calculada conforme a seguinte
expressão:
[3]
17
Universidade do Sul de Santa Catarina
Considerando os mesmos números do exemplo anterior, ou seja, que o Sistema 1 tem uma
disponibilidade de 50% e o Sistema 2, de 60%, a disponibilidade total calculada do sistema
híbrido formado pela associação em paralelo de ambos os Sistemas 1 e 2 será de 80%,
conforme a aplicação de [3].
Como era de se esperar, sistemas ou componentes em paralelo têm uma disponibilidade
combinada superior àquela oferecida por arranjos de sistemas e componentes em série. A
explicação é simples. Em arranjos em série, quando um componente ou sistema apresenta
uma falha, o outro não pode operar. No caso de sistemas em paralelo, a falha de um não
impede, necessariamente, a continuidade de operação do outro.
Portanto, a redundância de partes, componentes e sistemas, bem como seu esquema de
implementação, é fundamental para a máxima disponibilidade do site.
Um exemplo de redundância em sistemas elétricos de datacenters é o uso de UPS paralelo
redundante, conforme mostrado na Figura 5.
Figura 5 – Exemplo de implementação de redundância em datacenters
Fonte: Marin (2016).
A Figura 5 mostra o uso de UPS paralelo-redundante no sistema de distribuição elétrica de um
datacenter Tier II. O objetivo do uso de módulos UPS em paralelo, como mostrado na figura,
é que, no caso de falha de um deles, qualquer um outro é capaz de suprir alimentação para a
carga crítica de TI e manter a operação.
18

Pergunta 9: Considerando as novas normas, aplicáveis a datacenters, existe algum padrão de
layout e de distribuição de salas e racks? Ou isso é definido conforme a dimensão do datacenter?
Resposta:
Algumas normas técnicas para datacenters trazem recomendações de layout tanto para a
sala de computadores, quanto para o datacenter como um todo. Entre elas, podemos citar a
brasileira ABNT NBR 14565:2013 (cabeamento estruturado para edifícios comerciais e data
centers) e a norte-americana ANSI/TIA-942-A (telecommunications infrastructure for data
centers).
Embora sejam recomendações, ou seja, não sejam especificações ou requisitos que devam
ser cumpridos, as normas que trazem exemplos de layouts de datacenters o fazem com base
no porte do datacenter. A Figura 6 mostra um layout recomendado para datacenters típicos,
de acordo com a ABNT NBR 14565:2013.
Figura 6 – Layout de um datacenter típico
Operações
UPS
Sala de computadores
Entrada de
telecomunicações
Storage
Fonte: ABNT NBR 14565 (2013).
A Figura 7 mostra um exemplo de layout de um datacenter de grande porte, conforme a ABNT
NBR 14565:2013.
19
Universidade do Sul de Santa Catarina
Figura 7 – Layout de um datacenter de grande porte
Sala de computadores
Acesso
Operações
Entrada
de
telecom
Equipamentos de
ar-condicionado
UPS e baterias (1)
Geradores
Subestação
UPS e baterias (2)
Fonte: ABNT NBR 14565 (2013).
Para citar mais exemplos e as diferenças entre o conceito de “porte” de datacenters de
diferentes organismos de normalização, a Figura 8 mostra um layout de um datacenter de
pequeno porte, conforme definido na norma norte-americana ANSI/TIA-942.
Figura 8 – Layout de um datacenter de pequeno porte
HOT AISLE
COMPUTER ROOM
COLD AISLE
HOT AISLE
COLD AISLE
HOT AISLE
COLD AISLE
Fonte: ANSI/TIA-942 (2005).
20
SWITCH AND PATCHING RACKS

A Figura 8 mostra os gabinetes alinhados em filas formando corredores frios e quentes, bem
como os racks de telecomunicações e redes, onde são instalados switches e componentes da
distribuição de cabeamento no datacenter.
Entre as recomendações para o arranjo de racks e gabinetes dentro da sala de computadores,
conforme o Anexo F da ABNT NBR 14565:2013, podemos destacar as seguintes:
•• os gabinetes devem ser alinhados para formar filas;
•• os gabinetes devem ser posicionados em suas filas de modo que as faces
frontais dos gabinetes de uma fila estejam posicionados de frente para
as faces frontais dos gabinetes da outra fila; da mesma forma, as faces
posteriores dos gabinetes de uma fila devem estar “olhando” para as faces
posteriores dos gabinetes da fila seguinte;
•• o corredor à frente das faces frontais dos gabinetes de uma dada fila deve ter
no mínimo 1,2 m de largura para permitir a abertura completa das portas dos
gabinetes para a instalação de equipamentos;
•• o corredor formado nas faces posteriores dos gabinetes de uma determinada
fila deve ter pelo menos uma largura de 0,6 m;
•• a sala de computadores do datacenter, sempre que possível, deve ser de
formato retangular para melhor acomodar racks e gabinetes alinhados em filas
dentro desse espaço.
Pergunta 10: Fale-se muito em piso elevado para datacenters. O piso elevado é obrigatório?
Quando ele é aplicável e como é o padrão de instalações?
Resposta:
Embora o piso elevado com placas removíveis de 600 x 600 mm, conforme mostrado na
Figura 9, seja muito comum em datacenters, ele não é um requisito de norma.
Figura 9 – Exemplo de estrutura de piso elevado com placas removíveis utilizados em datacenters
Espaço para
as placas de piso
Armação metálica
(a ser aterrada)
Pés de aço
Pedestais de
alumínio
Fonte: Marin (2016).
21
Universidade do Sul de Santa Catarina
Os pisos elevados têm como principal finalidade criar um vão livre entre a laje do piso da sala
de computadores e o novo piso desse espaço onde serão instalados os racks e gabinetes
com os equipamentos críticos de TI.
Esse vão é normalmente utilizado para um ou mais dos seguintes sistemas:
•• cabeamento estruturado (ver exemplo na Figura 10);
•• alimentação elétrica da sala de computadores;
•• tubulação de água do sistema de climatização;
•• sensores de fumaça, temperatura, umidade, vazamento de fluidos etc.;
•• climatização (insuflação de ar frio sob o piso elevado) etc.
Figura 10 – Piso elevado utilizado para o lançamento do sistema de cabeamento estruturado do datacenter em sua
estrutura de eletrocalha aramada
Fonte: Marin (2016).
A estrutura do piso elevado ajuda também a melhorar a distribuição do peso dos gabinetes
sobre a laje do edifício que abriga a sala de computadores, dentro de certos limites,
obviamente. Quando utilizados, as seguintes recomendações devem ser observadas:
•• devem ser fixados diretamente à laje da edificação;
•• a espessura da laje deve ser de 14 cm para uma carga de piso de 732,36 kgf/m2;
•• a espessura da laje deve ser de 20 cm para uma carga de piso de 1.220,60
kgf/m2;
•• o piso elevado deve ser contínuo para melhor distribuição de carga;
•• a estrutura do piso elevado deve ser aterrada.
Pergunta 11: Existem padrões de dimensões de racks? Como eles são distribuídos no interior do
datacenter? Pode nos dar exemplos?
22

Resposta:
Sim, há alguns padrões de dimensões de racks e gabinetes utilizados em datacenters.
Aqui acho importante adotarmos as seguintes definições para racks e gabinetes:
•• um rack é uma estrutura aberta (armação, frame) que pode ter dois ou quatro
colunas verticais de sustentação, sendo mais comum estruturas com duas
colunas. Os racks são utilizados para abrigar os equipamentos de redes e
telecomunicações (switches, roteadores etc.), bem como os componentes do
cabeamento estruturado (patch panels, distribuidores ópticos etc.);
•• um gabinete é um “rack” fechado em todas as suas laterais e teto,
possuindo portas frontal e traseira, e têm normalmente quatro colunas
verticais de sustentação que podem ser estruturas fixas (mais comuns em
racks de servidores e storage) ou modulares. Os gabinetes são utilizados
em datacenters para abrigar, basicamente, servidores e equipamentos de
armazenamento de dados (storage).
Essas definições não são oficiais, ou seja, não são especificadas em normas técnicas, porém,
são bem aceitas entre os profissionais da área.
Voltando aos padrões, o mais comum é o padrão de racks de 19” da EIA. Praticamente todos
os equipamentos de TI e cabeamento estruturado são fabricados para serem instalados em
racks padrão 19”. Os racks são especificados dessa forma, que corresponde à sua largura
útil (19”), sendo a largura total externa de 600 mm, que corresponde à largura das placas
utilizadas no piso elevado. Portanto, é comum encontrar a especificação de racks como 19”
EIA (600 mm).
Os gabinetes utilizados em datacenters têm larguras maiores que 19”, embora a largura entre
suas colunas internas às quais os equipamentos e outras estruturas de suporte são fixadas
mantenham os mesmos 19” que os racks. É comum encontrarmos as seguintes dimensões de
racks utilizados em datacenters:
•• 23,6” (600 mm)/19” EIA;
•• 27,6” (700 mm)/19” EIA;
•• 31,5” (800 mm)/19” EIA.
Há, ainda, mais gabinetes para servidores com outras dimensões que podem ser encontrados
no mercado, sendo os de 23,6” (700 mm) os mais comuns na maioria dos projetos. Além da
largura, outras duas dimensões são igualmente importantes, como a profundidade e a altura.
Os gabinetes de servidores em geral têm entre 1.100 e 1.200 mm de profundidade e altura
entre 1,9 e 2,1 m, ou 42 e 44U, respectivamente. Quanto aos racks, esses têm, em geral,
alturas de 42 ou 44U; a profundidade não é uma dimensão crítica, pois ela vai depender dos
equipamentos a serem instalados neles. De qualquer forma, o projetista deve se assegurar
que o padrão rack escolhido atenda aos requisitos de dimensões e pesos de equipamentos e
componentes que serão instalados e que o espaço onde os racks serão colocados esteja de
acordo com esses requisitos.
A distribuição dos gabinetes de servidores e equipamentos de storage na sala de
computadores deve ser em forma de filas, conforme abordado na pergunta 9, acima. O mais
23
Universidade do Sul de Santa Catarina
crítico na distribuição é que sejam deixados espaços frontais e traseiros que permitam a
retirada de equipamentos instalados nos gabinetes e a instalação de novos equipamentos
(o que é feito pela parte frontal dos gabinetes), bem como para acesso para manutenção em
conexões elétricas e de rede, normalmente acessíveis pelas partes traseiras dos gabinetes.
Como as portas traseiras são em geral bipartidas, ou seja, abrem em duas folhas de cerca de
300 mm cada, o espaço livre atrás dos gabinetes não precisa ser muito grande. Normalmente,
deixa-se um espaço livre de pelo menos 600 mm. Já na frente dos gabinetes, cujas portas são
em folha única (de 600 mm, aproximadamente), recomenda-se um espaço livre maior, de cerca
de 1200 mm, para permitir manobras de retirada e instalação de equipamentos nos gabinetes.
Quanto aos racks, eles podem ser montados em filas exclusivas de racks de telecomunicações
e redes para melhor gerenciamento ou intercalados entre os gabinetes de servidores e storage,
mas isso depende da abordagem de projeto. De qualquer forma, os espaços livres devem ser
tais que permitam a execução de serviços de instalação e manutenção dos equipamentos
neles instalados.
Outros aspectos relacionados ao dimensionamento e à especificação de gabinetes são
suas características de fluxo de ar, pois eles devem ter tomadas de ar frio para passar pelos
equipamentos ativos neles instalados, removendo o calor gerado pela eletrônica e permitindo
que o ar quente seja extraído de forma eficiente. A Figura 10 mostra um exemplo de gabinete
com portas frontal e traseira perfuradas para permitir um fluxo de ar ótimo.
Figura 10 – Exemplo de gabinete utilizado em datacenters com aberturas para permitir o fluxo de ar ótimo entre os
corredores frios e quentes
Fonte: Marin (2016).
A Figura 11 mostra um exemplo de gabinete utilizado em datacenters com chaminé, que
orienta o fluxo de ar para fora da sala de computadores, contribuindo para uma maior
eficiência do sistema de climatização do site.
24

Figura 11 – Exemplo de gabinete com chaminé para extração de ar quente utilizado em datacenters
Fonte: Marin (2013).
O gabinete da Figura 11 ajuda na extração de ar quente da sala de computadores,
conformando o confinamento do corredor quente, como mostrado na Figura 12.
Figura 12 – Técnica de conformação de corredor quente para extração de ar quente da sala de computadores em
datacenters
Fonte: Marin (2013).
Para finalizar, uma especificação importante com relação aos gabinetes é sua capacidade
carga (em kg). É muito importante que o projetista levante a carga total que o gabinete deverá
suportar para evitar seu sub dimensionamento, pois é comum gabinetes com cargas da ordem
de 600 a 1.000 kg.
25
Universidade do Sul de Santa Catarina
Pergunta 12: O mercado tem se referido a datacenters construídos como edificações, mas há
também opções do tipo container, sala-segura e sala-cofre. Poderia nos explicar como são essas
opções, suas diferenças e alguns exemplos?
Resposta:
As normas que se aplicam à infraestrutura de datacenters consideram que o espaço que
abriga um datacenter deve ser devidamente projetado para esse fim e, normalmente, ele é
uma edificação, ou seja, um edifício com certas características construtivas que ofereçam a
segurança física esperada para esses ambientes de missão crítica.
No entanto, há situações em que não é viável (por inúmeras razões) a construção de um edifício
para abrigar um datacenter. Assim, sob certas circunstâncias, outras técnicas e/ou abordagens
de projeto podem ser aplicadas. Uma delas é o uso de ambientes seguros, ou, como são mais
conhecidas na prática, salas cofre. A Figura 13 ilustra um exemplo de sala cofre.
Figura 13 – Exemplo de sala cofre
Extinção por
gás inerte
Detecção
precoce de
incêndio
PDU “Plug in”
UPS
Iluminação
Ar condicionado
de precisão
Parede, piso e
teto modulares
Damper
Entrada
de cabos
Controle de acesso
Porta Estanque
Viga de sustentação
Piso elevado
Entrada de
cabos
Fonte: Marin (2013).
Uma sala cofre tem como objetivo prover um ambiente seguro e estanque, sendo uma célula
selada para abrigar os sistemas críticos de TI de um datacenter. Na verdade, como mostrado
na Figura 13, uma sala cofre pode abrigar praticamente o datacenter inteiro. Note que, no
exemplo da figura acima, os seguintes sistemas e componentes estão dentro da sala cofre:
•• piso elevado;
•• cabeamento estruturado;
•• distribuição elétrica (PDU, cabos e UPS);
26

•• detecção e contenção de incêndio;
•• iluminação;
•• ar-condicionado de precisão;
•• segurança e controle de acesso;
•• racks de telecom e redes;
•• gabinetes de servidores e storage, entre outros.
No esquema da Figura 13 vemos que apenas o grupo motor-gerador não está no mesmo
espaço da sala cofre, configuração bastante comum, por questões associadas à emissão de
gases do gerador.
O uso de datacenters em containers surgiu da necessidade de se transportar um datacenter
para uma localidade remota para uso por um tempo determinado e sua posterior remoção
ao final de sua utilização. Um exemplo dessa aplicação é a área de mineração. Durante
a exploração de uma mina, necessita-se de uma infraestrutura de TI para atender às
necessidades de processamento e transmissão de dados, como em qualquer aplicação
comercial. Portanto, acondicionar um datacenter dentro de um container padrão facilita seu
transporte por meio de rodovias, ferrovias, portos e aeroportos, não sendo necessário o
desenvolvimento de meios de transporte específicos, o que torna a solução economicamente
viável. Transportar um container é simples e barato. A Figura 14 mostra o aspecto de um
datacenter em container.
Figura 14 – Exemplo de datacenter em container
Fonte: APC (2016).
Dada a versatilidade e relativo baixo custo de um container (em comparação à construção de
um edifício dedicado ao datacenter), há vários datacenters construídos em containers como
soluções definitivas e fixas. Exemplos de empresas que utilizam essa técnica são Google e
Microsoft, conforme divulgado na mídia, entre inúmeras outras.
Também é comum o uso de salas cofre em ambientes que, em princípio, oferecem proteção
mecânica suficiente para abrigar datacenters. De qualquer forma, cabe ao projetista a
avaliação da melhor relação custo/benefício junto ao seu cliente quanto à melhor abordagem
de projeto e ao espaço que conterá o datacenter.
27
Universidade do Sul de Santa Catarina
Pergunta 13: Há localizações especiais para datacenters, ou seja, subsolos, regiões desérticas,
montanhas etc.? Sabemos que muitas vezes as empresas não têm muitas opções de locais.
Então, quais seriam as recomendações?
Resposta:
O planejamento dos espaços do datacenter é um dos fatores mais críticos, se não o mais
crítico, quando projetamos sua infraestrutura física.
Com relação à sua localização geográfica e aspectos físicos, devem ser considerados os
seguintes aspectos:
•• O local não deve estar sujeito a inundações (devem ser evitados locais
próximos a rios, lagos, oceanos, fundos de vales etc.);
•• Deve-se evitar localidades próximas a cabeceiras de pistas de aeroportos por
riscos de acidentes potenciais;
•• Deve-se evitar a construção de data centers sob helipontos;
•• Deve-se evitar locais sujeitos a abalos sísmicos;
•• Deve-se evitar localidades muito próximas a linhas de transmissão elétrica;
•• Locais com fácil acesso a rodovias são recomendados;
•• Locais próximos às concessionárias de energia elétrica são recomendados;
•• Locais próximos a centros de serviços são também recomendados;
•• Condomínios comerciais específicos para abrigar datacenters também podem
ser boas localidades para se instalar um novo site (normalmente, eles já foram
construídos levando-se os aspectos anteriormente citados em consideração).
Quanto a regiões do planeta mais recomendadas para a construção de datacenters, há várias
discussões sobre isso e muita divergência entre os projetistas. Há aqueles que consideram
regiões montanhosas como as mais recomendadas, dado o difícil acesso para ataques
terroristas. A contrapartida é que regiões remotas também dificultam o acesso de profissionais
de manutenção, bem como o abastecimento do site dos mais diversos suprimentos.
Há informações sobre datacenters construídos em bunkers enterrados sob regiões desérticas,
em princípio, à prova de explosões nucleares.
De qualquer forma, os exemplos acima representam uma parcela ínfima de datacenters reais.
A maioria dos datacenters enterprise de pequeno porte são instalados em edifícios comerciais
que, em princípio, nem foram construídos pra isso.
Portanto, as recomendações mais importantes para esses casos são:
•• evitar o subsolo de edifícios, pois estão sujeitos à inundação;
•• evitar andares muito altos porque pode ser difícil levar os equipamentos do
datacenter até eles;
•• evitar espaços compartilhados com outros departamentos do edifício;
28

•• verificar se o edifício tem capacidade de carga (em kW) para alimentar os
equipamentos críticos de TI;
•• verificar se há onde instalar um grupo motor-gerador para uso exclusivo do
datacenter em alguma dependência do edifício;
•• verificar se o edifício oferece as condições mínimas de segurança e controle de
acesso às suas dependências;
•• verificar se a estrutura do edifício suporta a carga de piso (kgf/m2) que deverá
ser colocada nela, entre outros fatores críticos.
Dependendo das condições e características do edifício, pode ser necessário procurar por
um outro local para a implantação do datacenter. Algumas vezes, o uso de salas cofre ou
containers dentro de alguma dependência do edifício pode ser uma solução viável.
Referências
ABNT. Norma ABNT NBR 14565: 2013. Cabeamento estruturado para edifícios comerciais e
data centers.
ANSI/TIA-942. Standard ANSI/TIA-942: 2005- Telecommunications infrastructure for data
centers.
APC. Prefabricated datacenter modules. Disponível em: < http://www.apc.com/go/us/en/astmodularus/ast-modular-landing-page>. Acesso em: 26 set. 2016.
MARIN, P.S. Data Centers - Engenharia: Infraestrutura Física. São Paulo/SP: PM Books,
2016.
MARIN, P.S. Data Centers - Desvendando cada passo: conceitos, projeto, infraestrutura
física e eficiência energética. São Paulo: Editora Érica Saraiva, 2013.
MUSEU MUSICAL. Computadores antigos: Centros de processamento de dados. 17 abr.
2015. Disponível em: http://www.museumusical.com/2015/04/computadores-antigos-centrosde.html. Acesso em: 19 set. 2016.
29
Infraestrutura de energia para datacenters
Apresentação da entrevista
A infraestrutura de energia elétrica dos datacenters é o tema dessa entrevista. Energia é um
tema de alto impacto em toda a nossa sociedade moderna, e os datacenters se transformaram
num dos principais consumidores elétricos da atualidade.
Em nosso diálogo técnico são descritos os principais elementos da instalação elétrica dos
datacenters, caracterizando esses elementos e as relações entre eles. Cálculos de demanda,
de consumo previsto e padrões são pontos centrais da discussão, pois determinam as
dimensões necessárias para as instalações e suas redundâncias. Há também o tratamento
sobre equipamentos específicos, como sistemas ininterruptos (UPS), grupos geradores de
energia elétrica, geração alternativa, painéis elétricos e todos os espaços necessários para tais
equipamentos, seus acessórios e condições de aterramento.
O debate conclui com uma dissertação sobre as métricas atualmente em uso para caracterizar
a eficiência energética do datacenter, e as melhores práticas de instalações e uso da energia.
Entrevista
Pergunta 01: Em datacenters, as instalações elétricas são fundamentais na infraestrutura, pois o
consumo de energia é algo de muito impacto nos dias de hoje. Comenta-se que os datacenters
são os maiores consumidores de energia no mundo atual. Como você vê a questão da eficiência
energética em datacenters?
Resposta:
Os datacenters são realmente grandes consumidores de energia elétrica. Se não forem os
maiores do mundo, devem estar bem perto disso.
O consumo de energia, de uma forma geral, tem sido uma preocupação comum no mundo
de hoje. Deixando os aspectos ecológicos de lado, colocando o foco no consumo de energia
elétrica e considerando a evolução da crescente área de tecnologia da informação, é evidente
que os datacenters são grandes consumidores.
Independentemente do tamanho do datacenter, seu consumo de energia é elevado dada
a grande quantidade de equipamentos de TI que eles abrigam. Servidores convencionais,
servidores blade, equipamentos de storage (para armazenamento de dados), redes SAN
(Storage Area Network), NAS (Network Attached Device) etc. são equipamentos e sistemas que
consomem muita energia elétrica.

Outros sistemas do datacenter como, principalmente, o sistema de climatização, também
apresentam um elevado consumo de energia elétrica e algumas perdas intrínsecas. Esse
elevado consumo resulta em um elevado custo de manutenção e operação somente com
energia elétrica, que não é o único custo que deve ser controlado em datacenters.
Portanto, faz-se necessário um controle eficiente do uso de energia elétrica, bem como sua
otimização em datacenters. Considerando, também, seu impacto ambiental devido ao alto
consumo de energia elétrica, um novo conceito surge no mundo da tecnologia da informação:
o green datacenter. Há uma relação entre o consumo de energia elétrica e a emissão de CO2
na atmosfera. Essa relação será mais ou menos importante dependendo da forma como a
energia elétrica é gerada em uma determinada região geográfica. No caso do Brasil, esse
impacto não é tão grande, uma vez que a maior fonte de geração de energia elétrica é limpa
(centrais hidrelétricas). A Figura 1 mostra um exemplo de geração de energia elétrica no Brasil.
Figura 1 – Exemplo de geração de energia elétrica no Brasil
Usinas Eólicas
1,6%
Gás Natural
27%
Usinas Nucleares
1,7%
Usinas Elétricas
69,7%
Fonte: Marin (2016).
Quando nos referimos à eficiência dos datacenters e às métricas para sua avaliação, estamos
basicamente nos referindo a maneiras de medir a eficiência energética dos datacenters.
Se considerarmos que as métricas usadas para a avaliação da eficiência energética foram
desenvolvidas por organizações norte-americanas, fica mais fácil entender suas relações com
o conceito do green datacenter, pois um menor consumo de energia elétrica significa menores
níveis de emissão de gás carbônico na atmosfera.
No Brasil, o conceito do green datacenter, de acordo com a análise de sua eficiência
energética, não faz muito sentido porque a maior parte da energia elétrica gerada e consumida
no país vem de fontes limpas.
Se pudermos adotar técnicas e procedimentos para reduzir (ou otimizar) o consumo de
energia elétrica em datacenters e economizar dinheiro nas contas de consumo (um recurso
muito valioso e limitado em qualquer organização), essas iniciativas green também podem ser
aplicadas com algum sucesso aos datacenters construídos e operados no Brasil.
31
Universidade do Sul de Santa Catarina
Pergunta 02: Num diagrama elétrico típico de datacenters aparecem nomes ou siglas, tais como
UPS, PDU, RTT e várias outras. Pode nos explicar o que são?
Resposta:
É verdade, há muitas siglas que são utilizadas entre os técnicos, em especial entre os
profissionais de TI e infraestrutura em geral.
Para discutir algumas dessas siglas, vamos começar pela análise de um esquema de
distribuição elétrica de um data center Tier I, conforme mostrado na Figura 2.
Figura 2 - Esquema de distribuição elétrica de um data center Tier I
Fonte: Marin (2016).
32

Como podemos observar na Figura 2, a energia elétrica fornecida pela concessionária local
alimenta o quadro elétrico do datacenter, responsável por alimentar as cargas críticas de TI,
bem como outras cargas não críticas do site, como espaços de suporte e cargas mecânicas
(ar-condicionado).
A concessionária alimenta o quadro elétrico do datacenter por meio de uma ATS/QTA
(Automatic Transfer Switch ou Quadro de Transferência Automática), responsável pela
transferência da carga para o gerador a diesel na falta da concessionária (ausência de energia
elétrica).
Em uma operação normal, a ATS/QTA conecta toda a carga do datacenter à concessionária,
ficando o gerador como back-up para suprir energia elétrica ao datacenter quando houver
uma falha na distribuição elétrica local. Nesse evento, a ATS/QTA automaticamente é
comutada para o gerador e dá a partida no motor. Enquanto o gerador estabiliza o giro do
motor, durante o período de comutação da ATS/QTA, as cargas críticas não podem ter a
alimentação elétrica interrompida. Para garantir que não haja interrupção no fornecimento de
energia para os equipamentos críticos, o sistema elétrico de um datacenter deve ser provido
de um sistema UPS (Uninterruptible Power Supply), ou sistema de fornecimento de energia
elétrica ininterrupto, também conhecido vulgarmente como “no-break”. O UPS é um sistema
composto por equipamentos eletrônicos e baterias cuja finalidade é converter a energia
elétrica em corrente contínua, proveniente de baterias ou bancos de baterias, em energia
elétrica em corrente alternada para alimentação dos equipamentos críticos do datacenter.
Normalmente, apenas a carga crítica do datacenter é conectada a sistemas UPS.
Outro dispositivo muito comum em sistemas elétricos de datacenters é a PDU (Power
Distribution Unit), ou unidade de distribuição elétrica. No esquema da Figura 2 esse dispositivo
aparece entre o sistema UPS e um outro quadro elétrico; note que esse é um quadro de
distribuição setorial, ou seja, atende a uma parte ou setor da instalação. O quadro elétrico que
recebe as conexões da concessionária e do gerador por meio da ATS/QTA é o quadro elétrico
principal do site.
No esquema elétrico em questão, o quadro elétrico das PDU serve para segregar os circuitos
que atendem as cargas críticas de TI. Isso normalmente é feito para reduzir a carga por ramo
de distribuição e também para oferecer um gerenciamento mais eficiente desses ramos de
distribuição.
É importante explicar que o termo PDU muitas vezes confunde até mesmo os projetistas
mais experientes. Por exemplo, se buscarmos por PDU em catálogos de fabricantes,
encontraremos desde as tão conhecidas “réguas de tomadas” até equipamentos sofisticados
com condicionamento de tensão e uso de transformadores isoladores.
Por definição, uma PDU pode ser simplesmente um painel elétrico de distribuição, provido
apenas de disjuntores para proteção de circuitos. A Figura 3 mostra alguns exemplos de PDU
disponíveis no mercado.
33
Universidade do Sul de Santa Catarina
Figura 3 – Exemplos de PDU utilizadas em datacenters
a) PDU para instalação em racks padrão 19”
Fabricante: APC
Fonte: APC (2016).
b) PDU com múltiplos disjuntores (168) e isolação elétrica de circuitos
Fabricante: Liebert
Fonte: keyitec Inc. (2016).
34

c) PDU para segregação e distribuição de circuitos dentro da sala de computadores
Fonte: Marin (2016).
Para finalizar, além dos componentes e sistemas apresentados aqui, outras siglas podem ser
encontradas em sistemas elétricos de datacenters, como trafo (que é uma abreviação para
transformador), STS (Static Transfer Switch, Chave de Transferência Estática) e RTT (Relé de
Tensão Trifásica), que é um dispositivo de proteção de sistemas trifásicos contra a falta de
fase, sub e sobretensão, assimetria etc.
Pergunta 03: Como fazemos para calcular e determinar a energia elétrica necessária para um
datacenter? Há algum padrão ou recomendação?
Resposta:
O correto dimensionamento da distribuição elétrica de um datacenter é extremamente
importante, pois dele depende sua capacidade de suportar a carga inicialmente instalada no
site com algum crescimento futuro.
Não há um padrão para isso, mas há recomendações, como veremos a seguir.
Para um dimensionamento preciso da carga de um datacenter, é importante que se conheçam
seus vários sistemas, seus respectivos consumos e a classificação tier do sistema elétrico do
site. Os principais sistemas que apresentam consumo significativo de energia elétrica num
datacenter e que devem ser levados em consideração no projeto são os seguintes:
•• Carga crítica de TI;
•• Cargas mecânicas (ar condicionado e ventilação);
•• Sistema UPS e baterias;
•• Iluminação;
•• Espaços de suporte.
35
Universidade do Sul de Santa Catarina
A carga crítica de TI, em geral, é responsável pelo consumo de 40 a 50% da alimentação
elétrica disponível no datacenter, as cargas mecânicas representam 35 a 45%, o sistema UPS
e baterias de 10 a 11%, a iluminação aproximadamente 3% e os espaços de suporte, 5%. A
Figura 4 apresenta a distribuição de energia elétrica típica de um datacenter em função dos
principais sistemas presentes no site.
Figura 4 – Consumo médio do datacenter em função de seus sistemas principais
Iluminação; 3%
Suporte; 5%
UPS; 11%
Carga crítica;
36%
Climatização;
45%
Fonte: Marin (2016).
Os consumos de cada um dos sistemas apresentados na Figura 4 podem variar, porém, esses
valores representam uma média bastante realista. De acordo com os dados apresentados,
nota-se que os maiores vilões no consumo de energia elétrica em um datacenter são os
equipamentos de TI (a carga crítica de TI) e o sistema de climatização (HVAC - Heat, Ventilation
& Air Conditioning) do datacenter, responsável por remover da sala de computadores o calor
gerado pelos equipamentos ativos.
Normalmente, o dimensionamento da carga total do site parte da carga crítica de TI e, em
projetos mais antigos (ou conservadores), a carga de TI era distribuída dentro da sala de
computadores por densidade de área de piso (kW/m2). Uma recomendação para um projeto
mais eficiente é a distribuição de carga por rack/gabinete, em vez de uma distribuição por
metro quadrado.
Uma questão que pode surgir a partir dessa consideração é quantos kW são, em geral,
instalados em cada rack, uma vez que há diferentes equipamentos com diferentes
características de consumo de energia elétrica dentro do datacenter?
Essa é uma questão realmente difícil de responder com precisão. O quadro a seguir apresenta
valores de consumo de servidores tipo blade de cinco fabricantes diferentes, identificados
apenas como fabricantes A, B, C, D e E.
36

Quadro 1 – Consumo típico de servidores tipo blade de diferentes fabricantes
Servidores tipo blade (chassis totalmente carregado*)
*em média 10 servidores blade por chassis
Carga por rack* (kW)
*em média 5 chassis por rack
Fabricante A
14,3
Fabricante B
15,0
Fabricante C
14,3
Fabricante D
12,9
Fabricante E
10,0
Fonte: Marin (2016).
Com base nos valores apresentados na tabela acima, nota-se que, para um mesmo tipo de
equipamento, há diferentes características de consumo associadas. Isso torna ainda mais
difícil uma determinação precisa de quantos kW de alimentação elétrica devem ser entregues
para cada rack/gabinete em um datacenter. No entanto, pode-se determinar uma média a
partir deste tipo de análise. Com base no Quadro 1, podemos desconsiderar o Fabricante
E (que apresenta um consumo significativamente inferior aos demais) e calcular a média
aritmética dos consumos de servidores tipo blade dos fabricantes A, B, C e D. Nesse exemplo,
encontramos uma média de consumo de 14,125 kW por rack/gabinete carregado com
servidores blade.
O exemplo apresentado aqui reflete a realidade dos projetos atuais de alimentação elétrica de
datacenters. Em geral, os projetistas do sistema elétrico de datacenters adotam um consumo
nominal (valor de projeto) de 15 kW por rack. Esse valor tem se mostrado suficientemente
preciso para a grande maioria dos projetos.
De qualquer forma, se o projetista quiser trabalhar com valores mais precisos, a única maneira
de consegui-los é por meio das informações técnicas de consumo, fluxo de ar, aumento de
temperatura em função da utilização e carga térmica (em kW), presentes nas especificações
técnicas dos equipamentos que serão instalados no datacenter.
Para aplicar os conceitos de dimensionamento do sistema elétrico de um datacenter, vamos
considerar um data center Tier I, com uma sala de computadores com área de 20 m2 e com os
equipamentos mostrados no Quadro 2.
Quadro 2 – Equipamentos a serem instalados na sala de computadores e cargas correspondentes
Equipamento
Descrição
Carga (kW)
CAB01
Gabinete 42U
Servidores
8,0
Gabinete 42U
Storage
6,0
Rack 42U
Telecom e redes
5,0
CAB02
CAB03
CAB04
RACK01
RACK02
Carga de projeto (TI)
8,0
6,0
5,0
38,0
Fonte: Marin (2016).
37
Universidade do Sul de Santa Catarina
A carga total de projeto pode ser determinada pela soma das cargas de cada equipamento,
conforme mostrado na Quadro 2. No entanto, se dimensionarmos o sistema elétrico para
essa carga, ele não terá capacidade de crescimento. Em outras palavras, não será possível
adicionar mais equipamentos ao datacenter no futuro. Por isso, deve-se considerar na etapa
de projeto alguma capacidade de crescimento futuro.
Se buscarmos orientações na literatura técnica (livros, normas e manuais) sobre previsão para
crescimento de carga do sistema elétrico, vamos encontrar alguns autores que sugerem a
aplicação de um crescimento como uma porcentagem sobre a carga de projeto ao longo de
um período de tempo, por exemplo, 10% ao ano para cinco anos. Em nosso exemplo, isso
significaria aplicar um crescimento de carga de 23 kW, ou seja, o sistema seria projetado para
suportar uma carga de 61 kW.
A recomendação, entretanto, é aplicar, como fator de crescimento, uma previsão para racks e
gabinetes adicionais com base no espaço disponível na sala de computadores, pois, ao meu
ver, é isso o que de fato limita o crescimento de um datacenter. Dessa forma, considerado
um espaço de 20 m2 com quatro gabinetes e dois racks instalados inicialmente, o espaço
remanescente não poderá suportar mais que uns dois ou três racks ou gabinetes adicionais.
Portanto, eu consideraria como fator de crescimento dois gabinetes adicionais: um para
servidores e um para storage e um rack de telecomunicações e redes adicional. O Quadro 3
mostra a carga da sala de computadores com o fator de crescimento aplicado.
Quadro 3 – Equipamentos e cargas de equipamentos do datacenter, incluindo fator de crescimento
Equipamento
Descrição
Carga (kW)
Gabinete 42U
Servidores
8,0
Gabinete 42U
Storage
6,0
Rack 42U
Telecom e redes
5,0
CAB05
Reserva 42U Servidores
8,0
CAB06
Reserva 42U Storage
6,0
Rack 42U
Telecom e redes
5,0
CAB01
CAB02
CAB03
CAB04
RACK01
RACK02
RACK03
Carga total de projeto (TI)
8,0
6,0
5,0
57,0
Fonte: Marin (2016).
Se compararmos a carga futura obtida pelo método do crescimento pela aplicação de uma
porcentagem de crescimento ao longo de um período (10% ao ano, em cinco anos), com a
carga obtida pelo método de alocação de carga para racks e gabinetes adicionais, vamos
notar que a diferença é pequena, ou seja, 61 kW pelo primeiro e 57 kW, pelo segundo método.
Esse tipo de diferença em datacenters de pequeno porte é comum; em datacenters grandes
a tendência é de que essas diferenças sejam muito significativas. De qualquer forma,
novamente, considero uma melhor abordagem considerar o crescimento de carga de acordo
com o espaço disponível na sala de computadores.
38

Agora que conhecemos a carga total de TI de projeto, podemos passar ao dimensionamento
do sistema elétrico do datacenter.
Carga crítica de TI
Trata-se da carga total de TI de projeto, ou
[1]
Determinação da carga dos espaços de suporte
Os espaços de suporte podem variar tanto em tamanho quanto em quantidade, dependendo
das características do datacenter. Em nosso exemplo, vamos considerar os seguintes espaços
de suporte:
a.
sala de impressão;
b.
centro de operação (NOC);
c.
espaço destinado à entrada de serviços de telecomunicações;
d.
espaço para armazenagem de equipamentos e suprimentos.
Para a determinação precisa dos espaços de suporte e seus consumos de energia elétrica
correspondentes, o projetista deve ter um bom conhecimento do projeto, em detalhes.
Para efeito desse exemplo, vamos considerar que o consumo dos espaços de suporte será
aproximadamente 15% do consumo da carga de TI de projeto do site, portanto:
(kW)
(kW)
[2]
[3]
Determinação da carga de iluminação
De acordo com especificações de normas técnicas, a iluminação da sala de computadores,
quando ocupada, deve ser de 500 lux no plano horizontal e 200 lux no plano vertical, e a
densidade de iluminação neste espaço deve ser de aproximadamente 20 W/m2. A área total da
sala de computadores do data center desse exemplo é de 20 m2, portanto, teremos:
[4]
W = 0,4 kW
[5]
39
Universidade do Sul de Santa Catarina
A carga de iluminação do datacenter será a soma das cargas de iluminação da sala de
computadores e dos espaços de suporte. Mais uma vez, é importante que o projetista tenha
uma boa noção da carga de cada de iluminação desses espaços para um dimensionamento
eficiente. No entanto, para efeito de estimativa de carga, pode-se considerar, para um
datacenter de pequeno porte, que a carga de iluminação dos espaços de suporte será igual ao
dobro da carga de iluminação da sala de computadores.
kW
kW
[6]
[7]
Determinação do sistema UPS
A operação do sistema UPS e baterias consome alguma carga, que deve ser considerada
no dimensionamento da carga total do datacenter. O processo de carga das baterias é
constante e pode consumir entre 15% e 20% da carga do sistema UPS; isso vai depender da
qualidade e tipo das baterias utilizadas. Outro parâmetro a ser considerado é conhecido como
ineficiência do UPS, ou seja, a potência consumida pelo sistema UPS durante sua operação.
Para o dimensionamento da carga do sistema UPS e das baterias, vamos levar em
consideração a carga de projeto da sala de computadores. Assim, em nosso exemplo,
teremos:
[8]
kW
[9]
Sendo:
Fatorcarga baterias = 0,15 (15%),
Fator ineficiência UPS = 0,10 (10%).
Determinação da carga mecânica do datacenter
Para finalizar, vamos determinar agora a carga do sistema mecânico, ou seja, do sistema de
climatização do datacenter, que pode incluir bombas, compressores, chillers etc.
O consumo elétrico do sistema de climatização representa um dos maiores consumos de
energia elétrica do datacenter, depois da carga crítica de TI. Esse sistema tem uma eficiência
40

típica em torno de 65%. Assim, para a determinação da carga que o sistema mecânico
representa, necessitaremos da carga total do data center, conforme resume o Quadro 4.
Quadro 4 – Carga total do datacenter do nosso exemplo com exceção do sistema mecânico
Sistema
Carga (kW)
Sala de computadores
57,0
Espaços de suporte
8,5
Iluminação do site
1,2
Sistema UPS e baterias
14,0
Carga total data center
80,7
Fonte: Marin, 2016.
Para a determinação da carga do sistema mecânico do datacenter do exemplo, utilizaremos a
seguinte expressão:
[10]
[11]
Sendo,
Fator carga sistema mecânico = 0,65 (65%).
Dessa forma, podemos finalmente determinar a carga total do site do exemplo em questão,
conforme apresentado no Quadro 5.
Quadro 5 – Carga total do datacenter do nosso exemplo
Sistema
Carga (kW)
Sala de computadores
57,0
Espaços de suporte
8,5
Iluminação do site
1,2
Sistema UPS e baterias
14,0
Sistema mecânico
52,5
Carga total final datacenter
133,2
Fonte: Marin (2016).
O Quadro 5 mostra informações importantes sobre o projeto do sistema elétrico de um
datacenter. Observe que, para uma carga de equipamentos críticos de TI (a serem instalados
na sala de computadores) de 57 kW, necessitamos de um sistema elétrico com capacidade
para suportar aproximadamente 133 kW, ou seja, mais que o dobro da carga de TI a ser
41
Universidade do Sul de Santa Catarina
alimentada, o que é bem realista. É importante notar ainda que, nesse exemplo, estamos
considerando um datacenter Tier I. Em outras palavras, trata-se de um sistema elétrico sem
qualquer redundância. Assim, espera-se que, quanto maior a redundância do site, maior seja
seu consumo elétrico.
Conhecidas as características do sistema de distribuição elétrica do datacenter desse
exemplo, temos de dimensionar o alimentador, ou seja, a entrada elétrica do datacenter. O
dimensionamento da entrada de serviço elétrico do datacenter consiste na determinação da
corrente de entrada do alimentador elétrico e, portanto, do busway (barramento). Para isso,
normalmente se utiliza um fator de sobrecarga ou fator de pico, que no exemplo vamos adotar
como 25%. Assim, teremos:
(kW) [12]
(kW) [13]
Sendo:
Carga SE a carga de projeto para dimensionamento do busway do sistema elétrico do
datacenter.
Considerando uma alimentação elétrica trifásica em 380V (CA), a corrente do alimentador será:
[17]
[18]
Portanto, para o datacenter do nosso exemplo, o alimentador do sistema elétrico do
datacenter deve ter uma capacidade de corrente de 250A, a partir do qual será feita a
distribuição elétrica do site.
Pergunta 04: Pode nos exemplificar com um diagrama elétrico típico de datacenter, explicando o
que é a redundância, e por que ela é necessária? Há esquemas elétricos específicos para cada
classificação Tier?
Resposta:
De fato, a melhor forma de entender o uso da redundância em diferentes classificações tier de
sistemas elétricos de datacenters é por meio da análise de diferentes esquemas.
Vamos começar pelo sistema elétrico mais simples, ou seja, de um data center Tier I,
conforme mostrado na Figura 4.
42

Figura 4 – Esquema elétrico simplificado de um datacenter Tier I
Fonte: Marin (2016).
Como discutido anteriormente, o que caracteriza as classificações tier de datacenters é a
quantidade de componentes e sistemas redundantes utilizados. Quanto maior a redundância,
maior a probabilidade de disponibilidade do sistema.
Um datacenter Tier I, ou datacenter básico, é aquele que não apresenta qualquer redundância;
ele possui o mínimo necessário para ser considerado um sistema elétrico de um datacenter.
Em condição normal de operação, o sistema elétrico é alimentado pela concessionária local.
Em sua falta, o gerador assume a carga e, durante o período de comutação (quando a ATS/
QTA aciona o gerador), o sistema UPS mantém a carga crítica de TI em operação.
Um datacenter Tier II, caracterizado pela presença de componentes ou sistemas redundantes,
tem um sistema elétrico conforme aquele mostrado na Figura 5.
43
Universidade do Sul de Santa Catarina
Figura 5 – Esquema elétrico simplificado de um datacenter Tier II
Fonte: Marin (2016).
Um datacenter Tier II, ou datacenter com componentes redundantes, é aquele que apresenta
algum grau de redundância, além do mínimo necessário. No esquema da Figura 5, em
condição normal de operação, o sistema elétrico é alimentado pela concessionária local, em
sua falta o gerador é acionado por meio da ATS/QTA. Em caso de falha do gerador principal
(G), o gerador redundante é acionado (+1). Durante o período de comutação (quando a ATS/
QTA aciona os geradores), o sistema UPS mantém a carga crítica de TI em operação. No
esquema da Figura 4.2, além do UPS principal (UPS), há um módulo redundante (+1), que
assume a carga crítica de TI no caso de falha do principal.
Datacenters Tier III são aqueles que permitem que serviços de manutenção sejam realizados
sem interrupção da operação, também conhecidos como datacenters com manutenção e
operação concomitantes. Para isso, os sistemas elétricos de datacenters Tier III precisam ter
um ramo de distribuição alternativo, conforme mostrado na Figura 6.
44

Figura 6 - Esquema elétrico simplificado de um datacenter Tier III
Fonte: Marin (2016).
Conforme mostrado na Figura 6, o que caracteriza o esquema elétrico de um datacenter Tier
III é a presença de um ramo alternativo para distribuir alimentação elétrica à carga crítica de
TI. Nessa figura, o “Ramo Y” é o ramo alternativo. Cada ramo tem chaves de transferência
automática (ATS/QTA) capazes de comutar a carga crítica para quaisquer dos ramos de
distribuição e quaisquer das fontes, concessionária e geradores.
Como nas demais configurações, em operação normal a carga crítica é alimentada através
do “Ramo X” pela concessionária local. Na falta dessa, as chaves ATS/QTA sincronizadas
comutam o “Ramo X” aos geradores para a alimentação da carga crítica de TI. No caso
de falha elétrica em qualquer posição do “Ramo X”, a carga crítica de TI é comutada para
qualquer das fontes através do “Ramo Y”.
Para finalizar, a presença de dois ramos de distribuição elétrica para a carga crítica de TI
permite que serviços de manutenção sejam realizados em componente de qualquer um dos
ramos de distribuição, sem a parada da operação. Para isso, basta comutar manualmente a
carga crítica de TI para o ramo que não sofrerá a manutenção.
Um datacenter Tier IV é aquele que tem capacidade de recuperação automática de falhas
tanto de componentes e sistemas da distribuição elétrica quanto do ramos de distribuição. A
diferença fundamental entre o esquema elétrico de um data center Tier IV e um Tier III é que o
primeiro possui dois ramos de distribuição elétrica simultaneamente ativos, conforme mostra a
Figura 7.
45
Universidade do Sul de Santa Catarina
Figura 7 - Esquema elétrico simplificado de um datacenter Tier IV
Fonte: Marin (2016).
Em um datacenter Tier IV, a concessionária alimenta ambos os ramos de distribuição elétrica
do datacenter simultaneamente, ou seja, todos os componentes e sistemas da distribuição
elétrica estão energizados e as cargas críticas de TI têm fontes duplas (pelo menos), cada uma
conectada a um ramo de distribuição diferente.
Na falta da concessionária, os geradores são acionados e as cargas permanecem em
operação por qualquer um (ou ambos) dos ramos de distribuição.
Também é importante chamar a atenção para um detalhe importante, que é o consumo
de energia associado ao sistema elétrico de datacenters. Como podemos notar por meio
dos esquemas de distribuição apresentados aqui, quanto maior a classificação tier do
datacenter, maior seu consumo de energia e, consequentemente, menor será sua eficiência
energética, pois mais sistemas são alimentados (de um datacenter Tier I para um Tier IV) sem
necessariamente realizar algum trabalho, apenas para estarem em standby para o caso de
falta de algum componente ou sistema.
Mais adiante vamos falar um pouco sobre eficiência energética em datacenters e uso de
métricas para sua avaliação.
46

Pergunta 05: Os equipamentos de energia, tais como geradores, UPS, eletrocalhas, cabos e
quadros de distribuição ocupam espaços consideráveis. Como são distribuídos nos espaços do
datacenter? Há recomendações específicas de caminhos e espaços para essas instalações?
Resposta:
De fato há muitos equipamentos, cabos e caminhos de cabos que fazem parte da
infraestrutura elétrica de um datacenter. Novamente, como vimos em outras partes dessa
entrevista, não há muitas especificações em normas técnicas de como equipamentos e
acessórios devem ser instalados em datacenters, mas há recomendações, que vamos
conhecer a seguir.
Geradores
Os geradores ou grupos motor-gerador são motores a diesel que devem ser dimensionados
para prover energia para a capacidade plena do datacenter, em casos de falta de energia da
concessionária, incluindo alimentação para o UPS, climatização e iluminação. De acordo com
o Anexo F da ABNT NBR 14565:2013, os geradores devem:
•• ser abastecidos por tanques reservatórios de combustíveis com capacidade
mínima de 24h de alimentação. Considerações devem ser feitas para permitir
maior tempo de alimentação. Contratos para abastecimento de combustível
com fornecedores locais devem ser previstos;
•• entrar em operação por chaves de transferência automática, ensaiadas
previamente e com rotinas de ensaios periódicos (recomenda-se
quinzenalmente).
Ainda, por se tratarem de motores a diesel, literalmente motores de caminhão, os geradores
devem ser instalados em espaços arejados (podem ser instalados em containers ou
outros compartimentos fechados, desde que ventilados), devem ter catalizadores em seus
escapamentos para a redução de emissão de gases tóxicos na atmosfera. Quando instalados
em edifício, seus escapes devem ser posicionados em uma altura de modo a evitar o retorno
de gases para ambientes habitados por pessoas, precisam ser instalados em bases com
amortecedores para reduzir a vibração mecânica quando em operação e devem permitir
acesso em 360°, ou seja, em torno do equipamento para serviços de manutenção.
Por questões de segurança, os geradores devem ser instalados em espaços com acesso
controlado e vigilância por câmeras de circuito fechado de TV em tempo integral.
47
Universidade do Sul de Santa Catarina
Sistemas UPS
Como vimos anteriormente, na falta de fornecimento de energia elétrica da concessionária
local, o gerador é acionado e durante o período de comutação a carga crítica de TI poderia ser
desligada. Assim, o UPS tem papel fundamental na manutenção da carga crítica de TI quando
há falta da concessionária.
Portanto, o UPS deve suportar a carga crítica durante o tempo necessário para a partida
e estabilização do grupo motor gerador. Há discussões entre os projetistas quanto ao
tempo necessário para isso. A maioria dos projetistas dimensiona o sistema UPS para uma
autonomia de 15 minutos. Na verdade, se o gerador não partir em até 15 segundos, ele não
partirá mais. Enfim, de acordo com a ABNT NBR 14565:2013, as seguintes recomendações se
aplicam ao UPS:
•• deve atuar em tempo real (on-line, de conversão dupla), trifásico, com
operação contínua;
•• deve estar alimentado pelo sistema elétrico da edificação e prover alimentação
aos equipamentos eletrônicos do datacenter;
•• deve ter baterias seladas para prover energia em corrente em contínua;
•• deve ter chave bypass que permita transferir a energia entre a rede
convencional, e vice-versa, sem interrupção da alimentação;
•• deve ter uma variação máxima da tensão de entrada de +15 % a – 15 %, 60
Hz +/- 6 %;
•• deve ser instalado em espaço com troca de ar para evitar acúmulo de gases
provenientes dos bancos de baterias.
Quadros de distribuição elétrica
Quadros de alimentação elétrica principal, dos quais derivam os quadros de distribuição
secundários, devem ser projetados com chaves de transferência, para ter alimentação vinda
da concessionária de energia local, do grupo de geradores do edifício e/ou dos geradores
específicos do datacenter, bem como do sistema de energia ininterrupta (UPS).
O quadro de distribuição elétrica principal do datacenter deve ser instalado em espaço
dedicado ao sistema elétrico e com acesso controlado. Os quadros secundários e PDU podem
ser instalados dentro da sala de computadores, se possível e viável.
Circuitos de alimentação elétrica
Recomenda-se que cada rack/gabinete seja alimentado por no mínimo dois circuitos elétricos
com potência mínima de 4 kW (5 kVA), sendo um circuito reserva. A potência recomendada
por rack/gabinete é de 12 kW (15 kVA). Cada um dos circuitos deve ser alimentado por um
quadro de distribuição independente.
Circuitos elétricos para alimentação dos computadores e equipamentos eletrônicos devem
ser independentes de quaisquer outros circuitos, derivados de quadros de distribuição elétrica
especificamente projetados para essa finalidade, instalados em dutos e calhas exclusivos.
48

Tomadas elétricas independentes devem ser instaladas no interior do datacenter para outros
usos, tais como ferramentas, sistemas de limpeza e outras conveniências.
Para finalizar, a sala de computadores do datacenter deve ser localizada em região onde
não existam fontes de interferência eletromagnética, como transformadores, equipamentos
de raio x, equipamentos de solda e arcos elétricos, rádios, radar, entre outros, considerando
que o campo elétrico em seu interior deve ser inferior a 3 V/m. Embora não haja padrão para
separação segura (do ponto de vista de interferência eletromagnética), recomenda-se que
cabos de energia elétrica mantenham alguma separação de cabos de telecomunicações e
redes em datacenters.
Ambos os sistemas, distribuição elétrica e cabeamento de telecomunicações e redes, devem
ser instalados em eletrocalhas dedicadas e não podem ser lançados por meio do mesmo
caminho.
Pergunta 06: Que tipos de geração de energia elétrica são utilizados em datacenters?
Resposta:
Por questão de disponibilidade e custo, a fonte de energia elétrica mais comumente utilizada
em datacenters é aquela proveniente da concessionária local. A fonte de energia alternativa
mais comum é o grupo motor-gerador, a diesel.
De qualquer forma, qualquer fonte de energia pode ser utilizada para alimentar um datacenter.
Atualmente, vemos o desenvolvimento dos painéis solares, sendo que no Brasil há algumas
infraestruturas de datacenters que operam com energia elétrica gerada por meio de painéis
solares com uma relação custo/benefício bastante interessante.
Outras formas de geração elétrica alternativa que vêm ganhando alguma atenção são a
energia eólica de baixa capacidade, microusinas hidrelétricas e queima de combustíveis
limpos, como o bagaço de cana de açúcar, que seria um exemplo de geração alternativa
utilizada em datacenters, o qual tive a oportunidade de conhecer. Nesse caso específico,
tratava-se de uma usina de álcool, que gerava bagaço de cana como resultado do processo e
era tratado como lixo. A construção da usina de geração elétrica a partir da queima do bagaço
de cana se mostrou bastante viável, oferecendo economia com os custos de energia elétrica
para a operação do datacenter. Como resultado, o que seria a fonte alternativa de energia
passou a ser a fonte primária do datacenter.
Pode parecer estranho, mas isso é perfeitamente viável e não contraria qualquer norma que se
aplica à infraestrutura de datacenters; tampouco altera a classificação tier do site.
Pergunta 07: A energia elétrica vinda das concessionárias influencia, ou não, na classificação
Tier?
49
Universidade do Sul de Santa Catarina
Resposta:
A resposta mais direta e precisa é não, a energia provida pela concessionária local não
influencia na classificação tier de um datacenter, mas vamos conhecer melhor essa questão.
Começando pelo começo, é importante entender que em momento algum a concessionária
local é considerada a fonte principal do sistema elétrico do datacenter. As normas técnicas
não a tratam dessa forma e nem o Uptime Institute, quando define suas classificações tier.
Você pode estar se perguntado: então, por que sempre a utilizamos como fonte principal?
Na verdade, a concessionária não é a fonte principal; ela só é utilizada como a fonte primária
devido à sua alta disponibilidade (em geral) e baixo custo relativo. Ela não é a fonte principal,
porque não é uma fonte de energia controlada pelo operador ou proprietário do datacenter.
Por definição, a fonte principal de um ambiente de missão crítica é aquela cujo controle e
disponibilidade dependem do operador ou proprietário do site. Olhando por esse prisma, a
fonte de energia principal de um datacenter convencional são os grupos motor-gerador a
diesel, pois, com uma boa manutenção preventiva e disponibilidade de combustível, essa
fonte opera ininterruptamente.
O único motivo pelo qual não é comum encontrarmos datacenters operando com grupos
motor-gerador como fonte principal é o custo do diesel. No entanto, como o custo de energia
elétrica no Brasil vem aumentando de forma significativa nos últimos anos, já é comum
encontrarmos datacenters operando com geradores nos horários de pico, nos quais o custo
do kWh passa a ser significativamente maior que o custo operacional dos geradores.
Assim, qualquer fonte de energia elétrica controlada pelo operador ou proprietário do data
center pode ser utilizada como a fonte principal do site.
Isso é importante porque há uma certa confusão entre projetistas de sistemas elétricos de
datacenters, principalmente quando o assunto é um datacenter tier III ou tier IV. A maioria
deles defende que datacenters de classificações tiers III e IV precisam, necessariamente,
ser alimentados por duas concessionárias diferentes. Caso contrário, não é possível obter
tais classificações. Ainda, alguns dizem que no Brasil não é possível a implementação
de datacenters tiers III e IV, porque na maioria do território brasileiro não há mais de uma
concessionária disponível.
Essa interpretação (extremamente) equivocada parte da falta de compreensão do conceito
fundamental do que é uma fonte principal. O que ocorre é que confundem fonte principal com
fonte primária. Para efeito de esclarecimento, fonte principal é aquele que controlamos e
fonte primária é aquela que utilizamos como a primeira opção de fonte de alimentação por
algum motivo prático, como custo operacional, no caso de datacenters.
Portanto, é perfeitamente possível e viável a implementação de sistemas elétricos de
datacenters de qualquer classificação tier com uma única concessionária ou até mesmo
sem concessionária alguma. Por exemplo, podemos ter um datacenter que opere a partir de
energia elétrica gerada por uma usina de queima de bagaço de cana e tenha grupos motorgerador como fontes back-up. Nesse caso, a fonte principal é também a fonte primária; os
geradores são fontes secundárias e isso não afetaria, absolutamente, a classificação tier da
infraestrutura elétrica.
É importante ter em mente que o que define as classificações tier de datacenters são suas
redundâncias e capacidade de recuperação de falhas, e não a natureza das fontes de energia
utilizadas para alimentar o site.
50

Pergunta 08: Que tipos de UPS são utilizados em datacenters? Precisam estar afastados dos
equipamentos de processamento ou podem conviver no mesmo espaço ou rack?
Resposta:
Tecnicamente, há vários tipos de sistemas UPS. Os mais comuns são o UPS off-line (ou
standby) e o de conversão dupla. A seguir, vamos conhecer brevemente suas características.
UPS off-line
Esse tipo de UPS é também conhecido como UPS standby. Sob circunstâncias normais,
a entrada do UPS alimenta a carga diretamente. A entrada do UPS também mantém as
baterias carregadas por meio do carregador. Um circuito inversor (CC/CA) converte a energia
das baterias em tensão em corrente alternada e é conectado a uma chave de transferência,
responsável por comutar a carga ao inversor, no caso de falta da entrada do UPS (fonte
primária, concessionária local). Nessa condição, o UPS suporta a carga por meio da energia
armazenada em suas baterias. A Figura 8 apresenta o esquema desse tipo de UPS.
Figura 8 – UPS off-line ou standby
Fonte: Marin (2016).
Esse esquema de UPS é denominado de conversão simples, uma vez que há somente uma
etapa de conversão (CC para CA) quando há falta da concessionária. A conversão CA/CC que
ocorre no carregador das baterias tem um consumo muito baixo e não é considerada como
uma etapa de conversão efetiva.
Nesse tipo de UPS, a detecção da falta da concessionária ocorre dentro de um curto intervalo
de tempo. Isso resulta uma interrupção muito curta na alimentação da carga, a qual é
chamada de intervalo de transferência e deve ser da ordem de poucos milissegundos (ms),
para ser imperceptível para a maioria das cargas. Embora eficiente, simples e de baixo custo,
esse tipo de UPS não atende aos requisitos das cargas críticas de TI em datacenters.
51
Universidade do Sul de Santa Catarina
UPS on-line de conversão dupla
Esse tipo de UPS é também conhecido como UPS estático e há basicamente dois tipos de
UPS estáticos no mercado: de linha interativa e de conversão dupla (true on-line). Um UPS
de linha interativa é um tipo bastante comum, porém, não adequado às necessidades de
datacenters, portanto, não será tratado aqui.
O UPS de conversão dupla é mais adequado a sistemas cuja entrada está sujeita a flutuações
e/ou interferências ou, ainda, para uso com grupos motor-gerador a diesel. Em sistemas
de conversão dupla, toda a tensão alternada de entrada é convertida em tensão contínua
pelo retificador, que também funciona como carregador das baterias. A tensão contínua
é convertida novamente em uma tensão alternada (“limpa”, nesse caso) pelo conversor e
alimenta a carga, que é totalmente suportada sob condições normais.
Quando ocorre a falta da concessionária, o inversor retira tensão em corrente contínua das
baterias e não do retificador. Nenhuma forma de chaveamento é necessária, de modo que um
sistema UPS de dupla conversão garante uma transferência sem interrupção para as baterias
quando ocorre a falta da entrada de alimentação elétrica proveniente da concessionária local.
A regulagem e o condicionamento da tensão entregue à carga nesse sistema são superiores
àqueles oferecidos pelos sistemas off -line e de linha interativa. A Figura 9 mostra um esquema
de um UPS de conversão dupla.
Figura 9 – Esquema de um UPS de conversão dupla
Fonte: Marin (2016).
Alguns sistemas mais modernos monitoram continuamente a entrada proveniente da
concessionária local e podem chavear o sistema para um modo de economia quando a
entrada permanece estável e com alta qualidade durante um dado período de tempo.
Do ponto de vista de configuração de instalação de sistemas UPS em datacenters, podemos
ter UPS individuais para cargas individuais ou sistemas de grande porte capazes de suportar
cargas maiores (em kW ou kVA). Ainda, uma vez definido o “tamanho” do sistema UPS, ele
pode ser um módulo simples ou módulos conectados em configuração paralelo-redundante.
Em termos de equipamentos, sistemas UPS de pequeno porte podem ser instalados em
racks (gabinetes), o que pode ser mais comum em datacenters pequenos, porém, não
recomendados para infraestruturas maiores. Em datacenters de grande porte, sistemas
maiores são mais comuns.
52

A ABNT NBR 14565:2013, em seu Anexo F, recomenda a compartimentação do ambiente
do datacenter, de tal forma que as salas de computadores e subsistemas de energia fiquem
em ambientes distintos. Caso não seja possível a compartimentação recomendada, os
equipamentos de instalações elétricas devem limitar-se à potência máxima de 100 kVA
(80 kW), e com baterias seladas. Caso as baterias não sejam seladas, devem ficar em sala
separada.
Não são recomendados, no interior das salas de computadores, sistemas de energia
ininterrupta (UPS) com potência maior ou igual a 100 kVA, ou de qualquer potência, quando
não forem utilizadas baterias seladas.
Para finalizar, de modo a conferir redundância ao sistema elétrico para classificações em tiers,
o sistemas UPS mais comuns são modulares e instalados em modo paralelo-redundante,
como mostrado na Figura 10.
Figura 10 – Configuração UPS paralelo-redundante
Fonte: Marin (2016).
Note que, na Figura 10, o UPS1 suporta uma carga de 100 kVA e um módulo redundante (+1)
de 100 kVA está conectado em paralelo a ele; configuração similar é mostrada para o UPS2.
Com essa configuração, caso o módulo principal (UPS1) falhe, há um módulo redundante (+1)
com a mesma capacidade do principal para manter a carga crítica de TI. O mesmo acontece
para o sistema UPS2. Esse tipo de configuração é a mais comum e recomendada em
datacenters.
Pergunta 09: Os painéis de distribuição elétrica em datacenters têm características especiais, ou
padrões específicos? Como são eles?
Resposta:
Na verdade, do ponto de vista de instalações elétricas, um datacenter não é muito diferente de
um edifício comercial. Apenas a forma de segregar circuitos, oferecer redundância e distribuir
os componentes no espaço é que diferem.
53
Universidade do Sul de Santa Catarina
A topologia de distribuição elétrica em datacenters deve seguir o esquema apresentado na
Figura 11.
Figura 11 – Esquema de distribuição elétrica em datacenters
Fonte: Marin (2016).
A distribuição elétrica no datacenter é feita por meio do Q.D.E. (Quadro de Distribuição
Elétrica), instalado em um espaço dedicado ao serviço elétrico do datacenter. Esse espaço
não deve ser compartilhado com nenhum outro sistema do datacenter.
O Q.D.E. alimenta todos os outros quadros elétricos do datacenter, sejam eles:
•• Q.D. UPS, quadro elétrico de UPS;
•• Q.D.E.A, quadro de distribuição elétrica auxiliar;
•• Q.D.E.M, quadro de distribuição elétrica dos sistemas mecânicos
(climatização).
O Q.D.UPS deve ser instalado em um espaço próximo às cargas críticas para minimizar as
perdas ôhmicas nos cabos elétricos de distribuição. É comum ter o espaço reservado ao
sistema UPS, incluindo bancos de baterias, em proximidade da sala de computadores, porém,
não dentro dela. As razões para não instalar o sistema UPS dentro da sala de computadores
são as seguintes:
•• os componentes do sistema UPS geram calor, que aumenta a temperatura
ambiente da sala de computadores, leva a maior demanda de climatização e
reduz a eficiência energética do site;
54

•• as baterias podem exalar gases dentro da sala de computadores;
•• a segurança da sala de computadores pode ser colocada em risco;
•• os requisitos de espaço da sala de computadores precisariam ser revistos para
acomodar o sistema UPS e seus componentes.
As unidades de distribuição elétrica individuais (PDU) podem ser instaladas dentro da sala de
computadores, e normalmente o são. As PDU podem ser alinhadas com as filas de racks e
gabinetes para as quais distribuem circuitos elétricos dedicados às cargas críticas de TI.
O Q.D.E.A. é normalmente instalado em um espaço do datacenter acessível ao pessoal
de manutenção e operação das funções do edifício, não necessariamente relacionadas à
operação de TI.
O Q.D.E.M. é normalmente instalado na casa de máquinas do sistema de ar-condicionado ou
próximo dela. Esse quadro tem como única finalidade a distribuição de alimentação elétrica
para o sistema de climatização do datacenter.
Todos os espaços que contêm componentes e sistemas relacionados à operação de funções
críticas do datacenter devem ter acesso controlado e monitorado.
Pergunta 10: É necessário fazer aterramento em datacenter? Há alguma recomendação ou
prática especial?
Resposta:
Sim, o aterramento é parte do sistema elétrico do data center e deve sempre ser
implementado. Nesse caso, há normas que especificam aterramento, como a ABNT
NBR 5410. Embora ela não especifique um aterramento exclusivo para datacenters, suas
especificações se aplicam a esses.
Há duas normas norte-americanas: a ANSI/TIA-607-C (aterramento para sistemas de
telecomunicações em edifícios) e a ANSI/BICSI 002 (projeto de datacenters e melhores
práticas de implementação), bem como a norma internacional ISO/IEC 30129 (aglutinação
de redes de telecomunicações em edifícios e outras estruturas), que também pode ser
utilizada como referência para o projeto de sistemas de aterramento para datacenters.
Um datacenter pode ser construído em um edifício destinado exclusivamente a ele ou
compartilhar espaços, dentro de edifícios comerciais, com outros usuários. Nesse caso,
o aterramento do datacenter deve ser conectado ao aterramento do edifício. A Figura 12
mostra o esquema de aterramento de telecomunicações e redes em edifícios comerciais
típicos, de acordo com a ANSI/TIA-607-C, as normas ANSI/TIA-942-A (infraestrutura de
telecomunicações para data centers) e a ANSI/BICSI 002.
55
Universidade do Sul de Santa Catarina
Figura 12 – Sistema de aterramento de um edifício comercial típico
Fonte: Marin (2016).
O espaço ocupado pelo datacenter em um edifício comercial deve ser tratado como um sala
de equipamentos para efeitos de sua conexão ao sistema de aterramento da edificação. A
Figura 13 mostra um esquema de aterramento de datacenters.
56

Figura 13 – Esquema de aterramento do datacenter
Fonte: Marin (2016).
Normalmente, uma malha de referência de sinal (SRG, Signal Reference Grid) é utilizada para
aterramento da sala de computadores e, quando adequadamente projetada e implementada,
oferece uma referência de terra comum em altas frequências para todos os equipamentos
dentro de uma área bem delimitada. O SRG equaliza os potenciais de forma eficiente, dentro
de uma ampla escala de frequências, desde níveis CC até mega-hertz (MHz). Assim, a função
da malha de referência de sinal é minimizar as diferenças de tensões entre equipamentos
interconectados por meio de um plano de terra equipotencial para altas frequências e baixos
níveis de tensão de ruído.
A malha de referência de sinal pode ser implementada com condutores de seção circular,
mais fáceis de serem instalados em sistemas de piso elevado existentes ou fitas planas,
que apresentam impedâncias inferiores aos condutores de seção circular (o que é um fator
importante em altas frequências) e, portanto, com um nível de desempenho superior. As fitas
planas dão menos trabalho durante a instalação (principalmente em instalações novas). A
Figura 14 apresenta exemplos de SRG implementados em datacenters, com condutores de
seção circular e fitas planas.
57
Universidade do Sul de Santa Catarina
Figura 14 – Malha de referência de sinal implementada com condutores planos
Fonte: Marin (2016).
Pergunta 11: Muito se fala em PUE quando o assunto é eficiência energética em datacenters. Ou
que é PUE? Existem outras métricas de eficiência? Poderia nos explicar e dar exemplos?
Resposta:
A PUE (Power Usage Effictiveness) ou eficiência do uso de energia é uma das métricas
estabelecidas pelo The Green Grid para a avaliação da eficiência energética de datacenters, e
pode ser definida como:
[1]
Sendo:
CTotal a carga total da infraestrutura do data center, em kW;
CTI a carga crítica efetiva, em kW.
A PUE é definida como a carga total do datacenter dividida pela carga crítica efetiva, conforme
a expressão 1, acima.
A carga total do datacenter é definida como o consumo total de sua infraestrutura. A carga
crítica efetiva é definida como a carga total de equipamentos usados para processar,
armazenar e rotear informações dentro do datacenter. Normalmente, a carga crítica de TI (CTI)
se refere a todos os equipamentos ativos em operação na sala de computadores. Portanto,
a PUE tem como objetivo medir o quanto do consumo de energia elétrica do datacenter é de
fato utilizado pelos equipamentos de TI.
Para exemplificar em números, vamos utilizar os dados do datacenter do exemplo da pergunta
3, sobre o dimensionamento do sistema elétrico. O Quadro 6 mostra o consumo de um
datacenter, por sistemas e total.
58

Quadro 6 – Consumo de um datacenter, por sistemas e total
Sistema
Carga (kW)
Sala de computadores
57,0
Espaços de suporte
8,5
Iluminação do site
1,2
Sistema UPS e baterias
14,0
Sistema mecânico
52,5
Carga total final data center
133,2
Fonte: Marin (2016).
Do Quadro 6, tiramos as seguintes informações sobre o consumo do datacenter:
CTI = 57 kW
CTOTAL = 133,2 kW
A carga crítica efetiva corresponde aos equipamentos de TI instalados na sala de
computadores. A carga total do site é a soma da carga crítica efetiva com as cargas individuais
dos outros sistemas do datacenter.
Portanto, a PUE do datacenter exemplificado aqui será:
[2]
O resultado acima mostra que, para alimentar uma carga de TI de 57 kW (carga efetiva de TI),
é preciso dimensionar o alimentador da infraestrutura do datacenter para uma carga que é
superior ao dobro da carga crítica efetiva, ou 130% maior. A discussão agora é se essa figura
de PUE é boa (aceitável) ou ruim.
Antes de falarmos sobre valores aceitáveis, viáveis ou até ótimos para a PUE, vamos analisar
alguns aspectos do consumo de energia elétrica dos datacenters. Para efeitos de análise de
cargas, podemos dividir o consumo de um data center em basicamente dois: carga elétrica e
carga térmica.
Em termos de consumo elétrico, o sistema de climatização (também referido como sistema
mecânico) é responsável por cerca de 45% do consumo total do site. A carga crítica de TI
representa, aproximadamente, 40% do seu consumo, a iluminação é responsável por 2 a 3%,
os sistemas UPS e baterias por cerca de 10% e os espaços de suporte por 5%, conforme
discutido na pergunta 3.
A carga crítica de TI é a soma das cargas individuais de todos os equipamentos de TI, tais
como servidores, storage, switches etc. Além das cargas dos equipamentos de TI, as cargas
elétricas dos espaços de suporte (sala de impressão, NOC – Network Operation Center, sala
para armazenamento de fitas e outras mídias, espaços reservados para o pessoal de TI, salas
de telecomunicações, salas de baterias etc.) também entram no cálculo da carga total do site.
59
Universidade do Sul de Santa Catarina
A carga de iluminação do site também é considerada assim como a carga de climatização e a
do sistema UPS. A carga do sistema UPS e das baterias deve ser considerada e representa,
aproximadamente, 10% do consumo total da infraestrutura do datacenter, devido ao ciclo de
carga das baterias.
Se considerarmos que o sistema de climatização deve ser capaz de retirar do datacenter o
calor gerado pelos equipamentos de TI e que ele também consome energia da infraestrutura
para operar, fica fácil entender que o ar-condicionado é responsável pelo alto consumo de um
datacenter e também por manter a PUE em valores elevados, em geral acima de 2,0.
Se cada kW de calor gerado demandasse o mesmo consumo do sistema de climatização,
teríamos uma relação de 1:1, ou seja, cada kW de calor gerado no datacenter corresponderia
a um consumo igual para sua retirada. No entanto, devido a perdas do próprio sistema
de climatização, a distribuição do consumo de energia do sistema de climatização não é
diretamente proporcional à carga de TI, ou seja, para cada kW de calor gerado, o sistema de
ar-condicionado terá um consumo de aproximadamente 1,3 kW. Considerando o calor gerado
por outros elementos e sistemas, teremos uma relação ainda mais desfavorável.
Em termos de carga térmica, os elementos que geram calor que deve ser retirado do
datacenter pelo sistema de climatização são os equipamentos críticos de TI, eventualmente
o sistema UPS (quando instalado dentro da sala de computadores), PDU e iluminação (que
tende a representar uma carga térmica desprezível).
Embora a PUE seja a métrica universalmente aceita pelos profissionais de TI para medir a
eficiência energética de datacenters, há outras, como a DCiE (Data Center infrastructure
Effectiveness, Eficência da infraestrutura do Data Center), DCE (Data Center Effectiveness,
Eficiência Energética do Data Center), entre outras que não são tão relevantes.
A DCiE é definida como o inverso da PUE, ou seja:
[3]
Para nosso exemplo, vem que:
[4]
A DCE é definida como:
[5]
Para nosso exemplo, vem que:
[6]
De maneira análoga à PUE, podemos entender que uma DCE de 0,42 (equivalente a uma PUE
de 2,3), como um indicador de que a carga crítica efetiva (TI), consome 42% de toda a energia
entregue ao datacenter.
60

Para finalizar, seja a PUE, a DCiE ou a DCE, a métrica adotada para a avaliação da eficiência
energética de um datacenter, os pontos de medição, bem como o período considerado, são
de fundamental importância para que o valor resultante seja preciso e represente o real perfil
de consumo do datacenter.
Pergunta 12: Que conselhos práticos poderia nos dar para melhorar a eficiência energética dos
datacenters?
Resposta:
Há várias abordagens de melhores práticas para a otimização do uso de energia em
datacenters. Algumas normas, como a brasileira ABNT NBR 14565:2013 e a norte-americana
ANSI/BICSI 002-2014, trazem recomendações quanto a isso. Algumas instituições como
o Uptime Institute, o The Green Grid etc., também trazem algumas recomendações para
otimização da eficiência energética.
Portanto, no que diz respeito à otimização da eficiência energética, há alguns pontos que
podem ser melhorados. Como o sistema mecânico é responsável por um alto consumo de
energia, qualquer iniciativa, no sentido de reduzir a carga térmica do datacenter, resultará
uma PUE mais baixa. Por isso, muitas propostas têm sido apresentadas no mercado para a
otimização do sistema de climatização dos datacenters. Particularmente, acredito que essa é
a melhor abordagem para a melhoria da eficiência energética em datacenters.
O confinamento de corredores (frios ou quentes) e a técnica de free cooling são as iniciativas
que têm se mostrado mais eficientes. Estima-se que o confinamento de corredores pode
reduzir o consumo do sistema de climatização entre 20 e 30% e o free cooling em até 50%,
sob certas condições. É discutível o quanto o free cooling pode ser implementado com
eficiência em países como o Brasil, cujas temperaturas médias anuais são elevadas.
Vejamos o que aconteceria com a PUE do datacenter do exemplo da pergunta 11,
considerando o uso de confinamento de corredores com uma redução de consumo de 30%
do sistema de climatização (Quadro 7).
Quadro 7 – Consumo do datacenter utilizando confinamento de corredores para reduzir o consumo do sistema de
climatização
Sistema
Carga (kW)
Sala de computadores
57,0
Espaços de suporte
8,5
Iluminação do site
1,2
Sistema UPS e baterias
14,0
Sistema mecânico
36,8
Carga total final datacenter
117,5
Fonte: Marin (2016).
61
Universidade do Sul de Santa Catarina
A nova PUE será:
[1]
No caso do uso de free cooling, o consumo do datacenter seria ainda mais baixo, conforme
mostrado no Quadro 8.
Quadro 8 – Consumo do datacenter utilizando free cooling para reduzir o consumo do sistema de climatização
Sistema
Carga (kW)
Sala de computadores
57,0
Espaços de suporte
8,5
Iluminação do site
1,2
Sistema UPS e baterias
14,0
Sistema mecânico
26,2
Carga total final datacenter
106,9
Fonte: Marin (2016).
Conforme mostrado no Quadro 2, com uso de free cooling que representa uma economia de
energia com o sistema de climatização da ordem de 50%, teremos a seguinte PUE para o
datacenter do nosso exemplo:
[2]
Para finalizar, as seguintes recomendações podem ser consideradas para melhoria da
eficiência energética de datacenters:
62
1.
monitorar a energia utilizada pelo datacenter e identificar pontos falhos;
2.
fechar aberturas por onde pode haver vazamento de ar frio do sistema de
climatização do datacenter, de modo a melhorar a eficiência do sistema de
climatização;
3.
aumentar a temperatura dos corredores frios em alguns graus (recomenda-se
algo entre 2 e 3°C);
4.
reduzir a carga dos equipamentos de TI (manter ligados apenas os
equipamentos efetivamente em uso), entre outros métodos.
5.
remover servidores ociosos; isso pode melhorar a eficiência do datacenter
entre 10 e 50% (PUE, DCiE etc.);
6.
selecionar equipamentos adequados às suas necessidades reais; isso pode
melhorar a eficiência entre 30 e 70%;

7.
implementar virtualização; isso pode melhorar a eficiência entre 30 e 70%;
8.
gerenciar a demanda de energia, reduzir e adequar equipamentos a novas
demandas; isso pode melhorar a eficiência entre 20 e 50%;
9.
adquirir novos equipamentos (com requisitos de consumo mais baixo) e
descartar equipamentos antigos; isso pode melhorar a eficiência entre 20 e
50%.
Referências
ABNT. Norma ABNT NBR 14565: 2013. Cabeamento estruturado para edifícios comerciais e
data centers.
ANSI/BICSI 002:2014. Data Center Design and Implementation Best Practices.
APC. APC metered rack pdu installation example. 42U.com, 1995-2016. Disponível em:
<http://www.42u.com/images/apc-metered-rack-pdu-installation-example.jpg>. Acesso em: 26
set. 2016.
KEYITEC INC. The Liebert Remote Distribution Cabinet (FDC). Disponível em: <http://www.
keyitec.com/keyitec-Liebert-PDU.html>. Acesso em: 26 set. 2016.
MARIN, P.S. Data Centers – Engenharia: Infraestrutura Física. São Paulo: PM Books, 2016.
MARIN, P.S. Consumo médio do datacenter em função de seus sistemas principais. In:
FACCIONI FILHO, Mauro. Conceitos e Infraestrutura de datacenters: livro digital. Palhoça:
Unisul Virtual, 2016.
MARIN, P.S. Consumo típico de servidores tipo blade de diferentes fabricantes. In: FACCIONI
FILHO, Mauro. Conceitos e Infraestrutura de datacenters: livro digital. Palhoça: Unisul
Virtual, 2016.
MARIN, P.S. Equipamentos a serem instalados na sala de computadores e cargas
correspondentes. In: FACCIONI FILHO, Mauro. Conceitos e Infraestrutura de datacenters:
livro digital. Palhoça: Unisul Virtual, 2016.
MARIN, P.S. Equipamentos e cargas de equipamentos do datacenter incluindo fator de
crescimento. In: FACCIONI FILHO, Mauro. Conceitos e Infraestrutura de datacenters: livro
digital. Palhoça: Unisul Virtual, 2016.
MARIN, P.S. Carga total do datacenter do nosso exemplo, com exceção do sistema mecânico.
In: FACCIONI FILHO, Mauro. Conceitos e Infraestrutura de datacenters: livro digital.
Palhoça: Unisul Virtual, 2016.
MARIN, P.S. Carga total do datacenter do nosso exemplo. In: FACCIONI FILHO, Mauro.
Conceitos e Infraestrutura de datacenters: livro digital. Palhoça: Unisul Virtual, 2016.
63
Universidade do Sul de Santa Catarina
MARIN, P.S. Esquema elétrico simplificado de um datacenter Tier I, II, III, IV. In: FACCIONI
FILHO, Mauro. Conceitos e Infraestrutura de datacenters: livro digital. Palhoça: Unisul
Virtual, 2016.
MARIN, P.S. Configuração UPS paralelo-redundante. In: FACCIONI FILHO, Mauro. Conceitos
e Infraestrutura de datacenters: livro digital. Palhoça: Unisul Virtual, 2016.
MARIN, P.S. Esquema de distribuição elétrica em datacenters. In: FACCIONI FILHO, Mauro.
Conceitos e Infraestrutura de datacenters: livro digital. Palhoça: Unisul Virtual, 2016.
MARIN, P.S. Consumo de um datacenter, por sistemas e total. In: FACCIONI FILHO, Mauro.
Conceitos e Infraestrutura de datacenters: livro digital. Palhoça: Unisul Virtual, 2016.
MARIN, P.S. Consumo do datacenter utilizando confinamento de corredores para reduzir
o consumo do sistema de climatização. In: FACCIONI FILHO, Mauro. Conceitos e
Infraestrutura de datacenters: livro digital. Palhoça: Unisul Virtual, 2016.
MARIN, P.S. Consumo do datacenter utilizando free cooling para reduzir o consumo do
sistema de climatização. In: FACCIONI FILHO, Mauro. Conceitos e Infraestrutura de
datacenters: livro digital. Palhoça: Unisul Virtual, 2016.
64
Infraestrutura de climatização para
datacenters
Apresentação da entrevista
Ao lado da energia elétrica, o outro grande tema em datacenters, discutido nessa entrevista,
é o da climatização. Equipamentos sensíveis de computação necessitam de condições
ambientais específicas, definidas pelos fabricantes e em normas internacionais, e em torno
disso giram as questões aqui colocadas ao Dr. Paulo Marin. Essas condições ambientais
dizem respeito especialmente à temperatura e umidade, e a partir disso são feitos os cálculos
de equipamentos necessários para atender um determinado volume de equipamentos
computacionais.
Além dos equipamentos, outros temas surgem, tais como o dos corredores frios e quentes
e do layout para disponibilizar máquinas e racks. Modelos inovadores de máquinas, junto ao
racks, ou mesmo junto a servidores, são discutidos. O Prof. Marin observa certas práticas
de mercado e nos dá recomendações a respeito do fluxo de ar, da forma de instalação, dos
sistemas elétricos que alimentam tais máquinas, e todas as considerações necessárias para o
melhor aproveitamento energético possível.
Ao considerar a eficiência energética, ele passa a incluir, em sua exposição, as novas
tecnologias, como o “free cooling” e sistemas computacionais aplicados às simulações de
projeto de climatização, concluindo com observações de melhores práticas e experiências em
campo.
Entrevista
Pergunta 01: Os equipamentos de processamento de dados, servidores e demais dispositivos
presentes em datacenters requerem condições específicas de temperatura e umidade. Por esse
motivo, a infraestrutura voltada à climatização é um item muito especial. Antes de falarmos sobre
essa infraestrutura, poderia nos apresentar quais são essas condições ambientais? Quais seus
limites, necessidades e outras considerações?
Resposta:
Há algumas discussões sobre as condições térmicas ótimas de operação dentro da sala
de computadores. Os antigos CPD (Centro de Processamento de Dados) operavam a
temperaturas bastante baixas (entre 17° C e 20° C). Isso era devido às características dos
equipamentos que eram instalados naqueles ambientes, conhecidos como mainframes,
que eram computadores de grande porte, com alto consumo elétrico e, consequentemente,
Universidade do Sul de Santa Catarina
grande dissipação de calor. Os mainframes ainda existem, mas não são mais os equipamentos
predominantes nos datacenters.
Quando os centros de dados modernos (datacenters) começaram a ser implementados, os
parâmetros de projeto adotados para esses ambientes foram os mesmos dos antigos CPDs.
Algum tempo mais tarde, e devido aos esforços para a diminuição de consumo elétrico dos
datacenters, por motivo de economia e por questões ecológicas, a temperatura de operação
dos datacenters passou por alguma revisão, e novos limites passaram a ser adotados.
De acordo com a Classe 1 da ASHRAE (American Society of Heating, Refrigerating and AirConditioning Engineers, Sociedade Americana de Engenheiros de Climatização), entidade
norte-americana internacionalmente reconhecida na área de padronização para climatização, a
temperatura na entrada de ar dos equipamentos críticos de TI deve estar entre 18 °C e 27 °C,
com uma umidade relativa do ar de 60%. A saída de ar quente desses equipamentos (após a
refrigeração) deve estar a uma temperatura aproximada de 38° C, com umidade relativa do ar
em torno de 20%.
Para que a temperatura da sala de computadores na entrada dos servidores opere dentro da
faixa recomendada, as unidades CRAC são configuradas para entregar ar frio entre 20° C e
25° C, com uma taxa de troca de calor de 5° C por hora; isso se aplica à umidade relativa do
ar, que é entregue entre 20 e 80%. Essas condições são determinadas utilizando o nível do
mar como referência.
No entanto, estudos mais recentes têm sustentado que a temperatura da sala de
computadores pode ser elevada sem prejuízo ao bom funcionamento dos equipamentos
críticos de TI. De qualquer forma, para efeito de projeto, uma boa sugestão é considerar
as recomendações e os requisitos estabelecidos pela ASHRAE. O Quadro 1 mostra os
parâmetros térmicos operacionais especificados por algumas normas técnicas.
Quadro 1 – Parâmetros térmicos operacionais para a sala de computadores
Norma
NBR 14565
Faixa de
temperatura
operacional
Taxa de troca
máxima
Umidade
relativa do ar
Ponto de
condensação
máximo
Bulbo seco:
5° C/h
60%
15° C
Sem
informação
5° C/h
60%
15° C
Sem
informação
5° C/h
60%
15° C
3.050 m
18 a 27° C
TIA-942-A
Bulbo seco:
18 a 27° C
ASHRAE TC 9.9
Bulbo seco:
18 a 27° C
Fonte: Marin (2016).
Pergunta 02: Como se calcula a necessidade de climatização para o datacenter?
66
Altitude

Resposta:
Para dimensionar a carga térmica de um datacenter, precisamos levantar as cargas do site
com base em seus consumos de energia elétrica (da mesma forma que fizemos para o
dimensionamento do sistema elétrico) e então convertê-las em carga térmica para especificar
as unidades CRAC. Para uma melhor compreensão desse processo, vamos estudar o exemplo
a seguir.
Vamos considerar um data center com as seguintes características:
•• Área da sala de computadores = 100 m2
•• Carga de iluminação da sala de computadores = 20 W/m2
•• Carga nominal do data center = 160 kW
•• Carga crítica de TI instalada = 55 kW
Neste exemplo, para a determinação das cargas térmicas, consideramos que a carga térmica
de TI será igual à carga dos equipamentos críticos de TI. Portanto:
[1]
A distribuição de alimentação elétrica para os equipamentos de TI também gera calor, que
deve ser considerado na carga térmica total do datacenter. Assim, devemos considerar as
cargas térmicas de PDU, conforme a seguir.
[2]
Os fatores utilizados na expressão [2] (2% e 4% respectivamente) referem-se à dissipação em
forma de calor em PDU, devido à distribuição elétrica para os equipamentos críticos de TI do
datacenter. Considera-se esse fator, normalmente, como 2% da carga nominal do datacenter e
4% da carga crítica de TI instalada na sala de computadores. Dessa forma, a carga térmica de
PDU para o datacenter deste exemplo será:
[3]
O sistema UPS também é responsável pela geração de calor no datacenter, que deve ser
levado em consideração no levantamento das cargas térmicas do site, pois o calor dissipado
por esses sistemas também precisa ser retirado. A expressão [4] apresenta o cálculo das
cargas térmicas desses sistemas.
[4]
Os fatores utilizados na expressão [4] (4% e 6%, respectivamente) referem-se à dissipação
em forma de calor no sistema UPS, associada aos equipamentos críticos de TI do datacenter.
Considera-se esse fator, normalmente, como 4% da carga nominal do datacenter e 6% da
carga critica de TI instalada na sala de computadores. Portanto, a carga térmica de UPS para
o nosso exemplo será:
[5]
67
Universidade do Sul de Santa Catarina
Para finalizar, precisamos levar em consideração a carga térmica de iluminação, que é
normalmente determinada em função da área da sala de computadores, conforme a seguir.
[6]
Assim, para o nosso exemplo, a carga de iluminação será:
[7]
O Quadro 2 mostra os valores das cargas térmicas do exemplo.
Quadro 2 - Cargas térmicas do datacenter do exemplo
Sistema
Carga elétrica (kW)
Carga térmica (kW)
Sala de computadores (carga crítica de TI)
55
55
PDU
5,4
5,4
UPS
9,7
9,7
2
2
72,1
72,1
Iluminação da sala de computadores
Carga total (kW)
Fonte: Marin (2016).
O Quadro 2 apresenta as unidades de medida de cargas térmicas. Como as cargas térmicas
encontradas em datacenters são elevadas, a unidade mais comum utilizada em projetos
para esses ambientes é a TR (Tonnage of Refrigeration, Tonelada de refrigeração). Como
informação, os sistemas de ar-condicionado para uso residencial ou mesmo comercial de
pequeno porte são especificados, normalmente, em BTU/h (British Thermal Unit, Unidade
britânica térmica por hora).
O Quadro 3 apresenta os fatores de conversão entre as unidades de medida de cargas
térmicas.
Quadro 3 - Conversões entre unidades de climatização
Unidade
Multiplicar por
Unidade
kW
3,410
BTU/h
kW
0,283
TR
TR
3,53
kW
BTU/h
0,00029
kW
Fonte: Marin (2016).
Aplicando os fatores de conversão do Quadro 3, vamos encontrar uma carga térmica de
aproximadamente 20 TR correspondente às cargas de TI instaladas na sala de computadores
desse exemplo. Pelo levantamento da carga térmica do site, nota-se que a maior dissipação
de calor em um datacenter é devido aos equipamentos de TI. Outros sistemas também
contribuem para o aumento dessa carga, porém, de forma menos significativa.
68

Portanto, conhecendo as cargas de um datacenter (em kW), podemos fazer um levantamento
de suas cargas térmicas e então determinar a carga térmica instalada na sala de
computadores. Note que, neste exercício, uma sala de computadores com uma carga de TI
instalada de 55 kW necessita de máquinas capazes de retirar 20 TR de calor deste espaço (o
equivalente a 72 kW). Esse aumento de calor é devido à presença de outras cargas térmicas
dentro da sala de computadores, como unidades UPS, PDU e iluminação. Quanto menos
fontes de cargas térmicas adicionais forem instaladas na sala de computadores, menor será o
consumo do ar-condicionado para retirar calor desse espaço.
O método de instalação das máquinas de ar-condicionado na sala de computadores
dependerá da classificação tier do datacenter e da distribuição das cargas térmicas dentro do
espaço.
O objetivo do exercício desenvolvido aqui é a avaliação da carga térmica da sala de
computadores, como obtê-la e como especificar as caraterísticas das máquinas de arcondicionado do datacenter.
Pergunta 03: O que significam as expressões “corredor frio” e “corredor quente”? São ambientes
especiais? Há algum modelo de projeto ou de configuração para esses ambientes?
Resposta:
Corredores frios e quentes são os espaços na frente e atrás dos gabinetes nas salas de
computadores para conformação dos fluxos de ar frio e quente nesse espaço. A finalidade da
conformação desses corredores é melhorar a eficiência energética do sistema de climatização
do datacenter.
O conceito de corredores frios e quentes tem sido adotado com sucesso, independentemente
do tipo de distribuição de ar utilizado na sala de computadores (sob o piso elevado ou por
distribuição overhead, como veremos mais adiante). Para que corredores frios e quentes sejam
configurados de forma adequada, as unidades CRAC (máquinas de ar-condicionado) devem
ser posicionadas na sala de forma estratégica. A Figura 2 mostra a conformação de corredores
frios e quentes em uma sala de computadores com insuflação de ar sob o piso elevado.
69
Universidade do Sul de Santa Catarina
Figura 1 – Conformação de corredores frios e quentes na sala de computadores
Fonte: Marin (2016).
Para a insuflação de ar frio e consequente conformação dos corredores frios, placas de piso
perfuradas são posicionadas de forma adequada e os racks ou gabinetes são posicionados
de tal forma que os equipamentos ativos fiquem com a frente (para aspirar o ar frio)
orientada para esse corredor. Assim, o corredor frio se configura com o posicionamento dos
equipamentos de TI orientados sempre de frente (a frente de um posicionada para a frente do
outro). O corredor quente é gerado na parte posterior (traseira) dos racks ou gabinetes, onde
há a saída do ar que passou pela eletrônica para retirar o calor gerado devido à sua operação.
O corredor quente não deve ter placas de piso perfuradas para não haver vazamento de ar frio
para dentro dele, prejudicando a eficiência do sistema de climatização. O corredor quente é,
então, criado pelo posicionamento das partes posteriores dos equipamentos de TI, ou seja,
a traseira de um equipamento é alinhada com a traseira do outro. O ar quente flui em direção
à unidade CRAC e é retirado do espaço. Esse mecanismo é mostrado em mais detalhes na
Figura 2.
70

Figura 2 – Conceito de corredores frios e quentes na sala de computadores
Fonte: Marin (2016).
A Figura 2 apresenta um perfil da conformação de corredores frios e quentes na sala de
computadores para melhor ilustrar esse conceito.
Pergunta 04: Há acrônimos comuns como CRAC e outros quando nos referimos aos
equipamentos de climatização de datacenters. O que significam esses acrônimos, e como
funcionam esses equipamentos?
Resposta:
Há basicamente dois tipos de equipamentos de ar-condicionado utilizados em datacenters
referidos como CRAH (Camputer Room Air Handling) e CRAC (Computer Room Air
Conditioner).
As unidades CRAH operam com chillers de água gelada, como os sistemas de arcondicionado central de grande porte utilizados em edifícios comerciais, shopping centers,
hospitais etc. A refrigeração é obtida por um fluxo de ar que sopra uma serpentina (fan
coil) com água gelada para transferir o calor do refrigerante (água) para o ambiente a ser
climatizado. A água gelada é fornecida à unidade CRAH pelo chiller, localizado na casa de
máquinas do sistema mecânico. As unidades CRAH podem ter válvulas de fluxo variável,
podendo modular a ventilação para manter uma pressão estática tanto sob o livro elevado
quanto em dutos overhead. A Figura 3 mostra um esquema simplificado de um sistema de
climatização com unidades CRAH.
71
Universidade do Sul de Santa Catarina
Figura 3 – Esquema de climatização com unidades CRAH
Vapor
Torre de
resfriamento
Evaporador
Condensador
Reservatório
de água gelada
CRAH
Ar frio insuflado na
sala de computadores
Fonte: Marin (2016).
Uma unidade CRAC opera com expansão direta de refrigerante dentro da própria unidade
(mais ou menos como os equipamentos de ar-condicionado que utilizamos em nossas
casas). Isso significa que o compressor e o evaporador utilizados no ciclo de climatização são
montados dentro da unidade. O fluido refrigerante que entra frio na unidade CRAC absorve
o calor e o transporta do ambiente interno (sala de computadores) para o ambiente externo,
onde fica a condensadora. O calor retirado é dissipado no ambiente externo. O esquema de
funcionamento de uma unidade CRAC é mostrado na Figura 4.
Figura 4 – Esquema simplificado de operação de climatização com unidade CRAC
Rejeição de calor
Condensadora
CRAH
Evaporador
Ar frio insuflado na
sala de computadores
Fonte: Marin (2016).
A climatização da sala de computadores com o uso de unidades CRAC é bastante comum. A
Figura 5 mostra um exemplo de um equipamento CRAC utilizado em salas de computadores
de datacenters.
72

Figura 5 - Exemplo de uma unidade CRAC comumente utilizada em salas de computadores em datacenters
a) Unidade CRAC b) Detalhe interno da unidade CRAC
Fonte: Marin (2013).
A unidade CRAC mostrada na Figura 5 insufla o ar frio sob o piso elevado, ela é instalada
na mesma altura que a estrutura do piso elevado e ajustada para que sua saída de ar fique
corretamente posicionada.
Pergunta 05: Pode nos apresentar esquemas de ligação e funcionamento de equipamentos de
climatização de datacenters?
Resposta:
A configuração de climatização mais comum é o uso de unidades CRAC redundantes,
conforme mostrado na Figura 6.
Figura 6 – Exemplo de instalação de unidades CRAC redundantes em uma sala de computadores
Fonte: Marin (2016).
73
Universidade do Sul de Santa Catarina
Conforme mostrado na Figura 6, é comum a instalação de unidades CRAC na sala de
computadores na configuração N+1, ou seja, cada unidade isoladamente é capaz de suportar
toda a carga térmica da sala de computadores ou, o que é bastante comum, cada unidade
CRAC é utilizada a 50% de sua carga total simultaneamente.
Quando utilizadas nessa configuração, se uma unidade falhar, a outra assume 100% da carga
térmica da sala. O uso das máquinas a 50% da carga de projeto ajuda a evitar a sobrecarga
de uma única máquina e a garantir que a unidade redundante opere satisfatoriamente quando
a principal parar e vice-versa.
Essa é uma boa prática, pois uma máquina redundante ociosa pode não ter um bom plano de
manutenção preventiva e falhar quando seu acionamento for necessário.
A Figura 7 mostra um outro exemplo de uso de unidades CRAC redundantes que podem
operar em conjunto ou separadas, em datacenters de pequeno porte.
Figura 7 – Configuração de unidades CRAC redundantes na sala de
computadores em um datacenter de pequeno porte
Fonte: Marin (2016).
Na Figura 7, as unidades CRAC são de insuflação overhead, ou seja, são fixadas às paredes
da sala de computadores alinhadas com as partes frontais dos gabinetes. Em ambientes como
o mostrado nesta figura, não há uma conformação de corredores frios e quentes. Isso não
é um problema, pois o espaço é pequeno para esse tipo de configuração e a eficiência do
sistema de climatização não é afetada por isso. Nesses ambientes, também é comum o uso
de unidades operando cada uma a 50% de sua capacidade total ou uma delas operando a
100%, com a redundante em standby. Ambas as configurações são igualmente reconhecidas
por normas e melhores práticas de climatização.
Para finalizar, os sistemas críticos dos datacenters (elétrico e mecânico) são normalmente
implementados com alguma redundância, mesmo em infraestruturas de pequeno porte. A
disponibilidade do site é extremamente dependente desses sistemas.
74

Pergunta 06: Há posições “corretas” e “erradas” para instalação de climatizadores? Quais as
melhores práticas e quais os erros que se devem evitar?
Resposta:
Não sei se podemos classificar como corretas ou erradas, mas certamente há recomendações
de posições que podem oferecer um melhor desempenho tanto em termos de climatização
quanto de eficiência energética.
Quando são utilizadas unidades CRAC com insuflação sob o piso elevado, a melhor forma de
posicioná-las dentro da sala de computadores é de modo que a insuflação de ar frio aconteça
sob o corredor quente da sala, conforme mostrado na Figura 8.
Figura 8 – As unidades CRAC devem ser insuflar ar frio sob o corredor quente da sala de computadores
Fonte: Norma ANSI/TIA-942 (2005).
A insuflação de ar frio sob os corredores quentes melhora a eficiência do sistema de
climatização por facilitar o encaminhamento de ar quente (dos corredores quentes) ao coletor
posicionado na parte superior das unidades CRAC (esse mecanismo pode ser observado na
Figura 2, pergunta 3 desta entrevista).
Outra recomendação é deixar o vão abaixo dos corredores frios com a menor obstrução
possível quando esse vão não puder ser deixado totalmente livre, pois isso melhora a eficiência
energética do sistema de climatização. O erro mais comum, nesses casos, é instalar os
caminhos de cabos do cabeamento estruturado nessas posições. A densidade de cabos do
sistema de cabeamento estruturado é extremamente alta e, certamente, causará a obstrução
das placas perfuradas e grelhas por onde o ar frio deve ser insuflado nos corredores frios.
Em resumo, as seguintes considerações devem ser observadas quando o ar frio é insuflado
sob o piso elevado em datacenters:
75
Universidade do Sul de Santa Catarina
a.
as câmaras de ar formadas pelos vãos livres sob o piso elevado devem ser
mantidas sem obstruções abaixo dos corredores frios (por onde o ar frio deve
passar);
b.
a manutenção de um fluxo de ar uniforme pode ser difícil sob o piso elevado;
c.
o ar frio normalmente não é uniformemente distribuído em toda a sala de
computadores;
d.
a recirculação de ar quente devido a racks e gabinetes de alturas diferentes
e o pé-direito baixo da sala de computadores pode afetar o desempenho do
sistema;
e.
placas perfuradas não devem ser usadas em conjunto com grelhas no mesmo
ambiente para a conformação dos corredores frios – nesses casos, o ar tende
a sair pelas grelhas e pode não ter pressão para sair pelas aberturas das
placas perfuradas;
f.
as aberturas para passagens de cabos para dentro dos racks devem ser
seladas;
g.
o ar frio deve ser sempre insuflado no corredor pela frente dos racks e
gabinetes e não por baixo deles, ou seja, as placas perfuradas devem ser
posicionadas sempre na frente dos racks e gabinetes e não abaixo deles;
h.
a maioria dos equipamentos de TI não pode receber ar frio diretamente pela
base do rack ou gabinete, por isso o projeto deve prever sempre a insuflação
de ar frio no corredor frio.
Pergunta 07: Com a alta concentração de equipamentos e potência nos racks, há algum meio de
colocarmos equipamentos de climatização junto a essas cargas?
Resposta:
A resposta é sim, e para isso são utilizados os chamados equipamentos ou sistemas de
suplementação de ar-condicionado nas salas de computadores.
O termo “sistemas suplementares” foi adotado para descrever a instalação de máquinas de
ar-condicionado adicionais àquelas em operação, por essas não estarem mais atendendo às
necessidades de climatização da sala de computadores devido ao aumento da carga térmica
instalada nesse espaço. Com o passar do tempo, alguns projetistas passaram a utilizar
os sistemas previamente desenvolvidos para serem suplementares como principais. Isso
passou a ser bem aceito pelo mercado de forma geral. Talvez o motivo seja o fato de, embora
existentes, a instalação de sistemas suplementares em ambientes em operação é muitas
vezes inviável, principalmente pela falta de espaço disponível na sala de equipamentos e
espaços de suporte para a instalação de todos os componentes do sistema suplementar.
A Figura 9 mostra um equipamento de ar-condicionado suplementar para uso na sala de
computadores e um exemplo de instalação.
76

Figura 9 – Exemplo de equipamento suplementar de
climatização em datacenters e topologia de instalação
a) Exemplo de equipamento de ar-condicionado suplementar
b) Exemplo de instalação de sistema suplementar de climatização em datacenters
Fonte: Marin (2016).
Na Figura 9b é possível ver uma unidade CRAC insuflando ar sob o piso elevado abaixo do
corredor quente, como sabemos, é a melhor recomendação de topologia de instalação de
unidades CRAC em salas de computadores. Ainda, pode-se ver que o ar frio insuflado por
meio do piso elevado não é capaz de atingir as camadas superiores dos gabinetes da sala.
Por isso, equipamentos suplementares são instalados sobre os gabinetes para insuflar ar
frio nos corredores frios para atingir os equipamentos instalados nas partes superiores dos
gabinetes. Isso seria simples se não fosse a necessidade de instalação de tubulações na sala
para o transporte do refrigerante e trocadores de calor, chillers, condensadoras etc., em outros
espaços do datacenter (sala de máquinas, ambiente externo do edifício etc.).
Entre os sistemas suplementares que se tornaram mais populares como sistemas principais
de climatização na sala de computadores estão os equipamentos in-row (em fila), conforme
mostrado na Figura 10.
77
Universidade do Sul de Santa Catarina
Figura 10 – Equipamentos de ar-condicionado in-row utilizados em datacenters
Fonte: Marin (2016).
Os equipamentos in-row, inicialmente projetados como sistemas suplementares, são
máquinas de ar-condicionado (como unidades CRAC) instaladas entre os gabinetes, ou seja,
em linha com eles, daí o termo in-row. Essas máquinas insuflam ar frio nos corredores frios
lateralmente aos gabinetes e ao longo de todas as suas alturas, permitindo, portanto, que o
ar frio seja aspirado pela eletrônica instalada nos gabinetes, de forma mais otimizada, com
menores perdas em sua tomada de ar.
Enquanto o uso de sistemas in-row é na prática inviável como climatização suplementar,
eles são bem interessantes, quando considerados no projeto de climatização como sistemas
principais. O uso como suplementação é inviável pelos seguintes motivos:
78

•• as máquinas ocupam metade do espaço ocupado por um gabinete de
servidores;
•• não há espaço para intercalá-los entre os gabinetes instalados e em operação;
•• não é recomendável o deslocamento dos gabinetes após a instalação dos
equipamentos ativos e start-up da operação;
•• normalmente não há previsão no projeto do sistema elétrico do datacenter
para alimentar equipamentos de ar-condicionado adicionais;
•• não há altura livre disponível para a instalação das tubulações de transporte de
refrigerante do sistema suplementar de climatização, entre outros fatores.
Para finalizar, os fabricantes de sistemas de climatização para datacenters têm aumentado sua
oferta de equipamentos com menores capacidades (em termos de carga térmica por unidade)
e dimensões, de modo a permitir a instalação em posições mais próximas às cargas térmicas
das salas de computadores e onde são necessários. Em outras palavras, estão oferecendo
maior flexibilidade e relação custo/benefício.
Pergunta 08: A injeção de ar frio deve ser feita pelo piso elevado ou também é possível fazer pela
parte superior? Há alguma recomendação ou técnica para isso?
Resposta:
Há duas arquiteturas de climatização utilizadas em datacenters: overhead (por cima) e sob o
piso elevado.
A arquitetura de distribuição de ar overhead na sala de computadores é uma boa opção
quando não se utiliza piso elevado, mas o tipo de equipamento adequado a esse propósito
deve ser utilizado. A distribuição de ar overhead deve ser dimensionada para insuflar o ar
frio diretamente no corredor frio por sua parte superior. O ar quente de retorno conforma os
corredores quentes, nos quais devem ser posicionados os exaustores para a retirada do ar
quente da sala.
A climatização overhead também pode ser obtida com o uso de dutos para a insuflação de ar
frio no ambiente com o retorno feito pelo coletor frontal da máquina (unidade CRAC ou CRAH).
A Figura 11 mostra essa arquitetura de climatização; a Figura 12, a insuflação de ar frio em uma
sala de computadores de pequeno porte diretamente das unidades CRAC, sem o uso de dutos.
79
Universidade do Sul de Santa Catarina
Figura 11 – Arquitetura overhead de climatização
Ar insuflado pelo teto
Ar insuflado
Retorno do ar
Ar insuflado
Rack
Rack
Rack
Retorno do ar
Fonte: Marin (2013).
Figura 12 – Insuflação overhead de ar em uma sala de computadores com unidades CRAC sem dutos
Fonte: Marin (2013).
A insuflação overhead direta na sala de computadores sem o uso de dutos é uma solução de
climatização bastante comum em data de pequeno porte, como o mostrado na Figura 12.
A distribuição de ar sob o piso elevado é a técnica mais comumente adotada em datacenters,
como discutido anteriormente. Ela oferece certa flexibilidade na distribuição da carga térmica,
bem como no posicionamento das unidades CRAC dentro da sala. Em relação à arquitetura
overhead, a distribuição sob o piso não requer um sistema de dutos para a exaustão do
ar quente do ambiente; o próprio ambiente é usado para esse fim. É comum a utilização
de unidades CRAC com extensores de dutos montados sobre elas para oferecer melhor
encaminhamento do ar quente de retorno às unidades CRAC para exaustão.
Em sistemas de climatização que utilizam o piso elevado como duto, o vão livre é fator crítico e
deve ser levado em consideração nas etapas de projeto e implementação. É importante considerar
que vários sistemas de um datacenter compartilham o espaço sob o piso elevado, tais como a
distribuição de cabeamento estruturado, a distribuição elétrica, os sistemas de dutos de água (ou
80

outro refrigerante) do ar-condicionado, os sistemas de segurança, entre outros.
Se as saídas de ar forem obstruídas ou parcialmente bloqueadas devido à grande quantidade
de cabos e dutos sob o piso, a climatização da sala de computadores será prejudicada e os
equipamentos críticos de TI poderão operar em condições críticas de temperatura e estarão
mais sujeitos a falhas.
Pergunta 09: Sabemos que as instalações elétricas e de cabeamento passam em geral sob o
piso. Isso poderia atrapalhar o fluxo de ar da climatização?
Resposta:
Sim, quando o piso elevado é utilizado para a distribuição dos circuitos de alimentação
elétrica, é importante posicionar suas eletrocalhas abaixo das placas perfuradas do piso
elevado por onde haverá fluxo de ar frio (abaixo do corredor frio), já que isso pode ajudar a
reduzir o calor dissipado pelos cabos elétricos sob o piso elevado.
A Figura 13 mostra um perfil do piso elevado com a distribuição dos serviços de cabeamento
estruturado e de energia elétrica. Note que as calhas dos cabos de telecomunicações
(cabeamento estruturado) são posicionadas abaixo dos corredores quentes.
Figura 13 – Esquema de distribuição de cabeamento estruturado e de energia elétrica sob o piso elevado por onde o
ar frio é insuflado
Fonte: Marin (2013).
Os sistemas distribuídos sob o piso elevado devem ficar afastados da laje e também não
podem obstruir as saídas de ar, que ocorrem normalmente por meio de placas de piso
perfuradas ou grelhas.
81
Universidade do Sul de Santa Catarina
Pergunta 10: Voltando ao tema dos corredores frios e quentes, é possível confiná-los e assim
obter melhor rendimento? Como funcionam esses confinamentos?
Resposta:
Sim, é entendimento comum entre os profissionais da área que o confinamento pode ser
implementado para o corredor frio ou para o corredor quente ou ainda, para ambos. Que
configuração oferece o melhor desempenho em termos de eficiência energética é o que
ainda gera alguma discussão. O fato é que o confinamento de corredores, sejam eles frios ou
quentes, oferece alguma otimização do sistema de climatização da sala de computadores.
Alguns estudos mostraram que a eficiência energética pode melhorar entre 20 e 30% quando
utilizado o confinamento de corredores. A Figura 14 mostra um esquema de contenção do
corredor frio.
Figura 14 – Exemplo de implementação de contenção de corredor frio em datacenters
Fonte: Marin (2016).
O sistema apresentado na Figura 14 é obtido pelo fechamento das laterais do corredor frio
em torno de todos os gabinetes de grupos de duas filas e também do teto desse espaço
delimitado pelos fechamentos laterais. Embora, em princípio, qualquer fechamento como
o mostrado na figura sirva ao propósito de confinar o corredor, vários fabricantes oferecem
sistemas com componentes especialmente desenvolvidos para um fechamento efetivo,
provendo acesso ao interior do corredor para manutenção dos equipamentos de TI. A
Figura 15 mostra um exemplo de sistema de confinamento de corredores frios disponível no
mercado.
82

Figura 15 – Exemplo de solução de contenção de corredor frio disponível no mercado
Fonte: Marin (2016).
A contenção de corredor oferece uma economia de energia associada ao sistema de
climatização do datacenter por requerer menos energia para manter a temperatura do corredor
em níveis predeterminados para um espaço muito menor que uma sala de computadores
inteira. Note que, em sistemas convencionais, o ar-condicionado “trabalha” muito mais, pois
precisa climatizar um espaço grande. Já quando o confinamento é utilizado, o espaço é
reduzido de forma significativa e a climatização é mais facilmente obtida.
Quando se utiliza a contenção de corredores, do corredor frio em nosso exemplo, o ar quente
resultante da refrigeração da eletrônica é eliminado no ambiente e exaustado pelas unidades
CRAC para fora da sala de computadores, como em sistemas convencionais, porém, com
maior eficiência (esse mecanismo é mostrado na Figura 14).
Pergunta 11: A eficiência energética é um tema muito importante e os datacenters são grandes
consumidores de energia. Ao lado dos equipamentos de processamento, os sistemas de
climatização aparecem como “vilões”, e por esse motivo há muita pesquisa buscando formas
de diminuir o consumo elétrico por parte da climatização. O free cooling surge como uma das
soluções para esse problema. O que é o free cooling e como funciona?
Resposta:
O free cooling é uma técnica de climatização que tem a proposta de reduzir o consumo de
energia do datacenter pela utilização do ar à temperatura ambiente para a refrigeração da sala
de computadores.
Embora o conceito seja simples, a operação de climatização free cooling não consiste
simplesmente na coleta de ar externo (à baixa temperatura) e sua insuflação direta na sala de
computadores.
Os sistemas free cooling comumente empregados na climatização de datacenters são
híbridos, ou seja, operam totalmente nesse modo para uma determinada faixa de temperaturas
do ar externo e passam a utilizar etapas de evaporação e condensação, comportando-se,
83
Universidade do Sul de Santa Catarina
então, como um sistema convencional, à medida que a temperatura externa sobe a níveis que
inviabilizam o emprego dessa técnica. Portanto, o que define quais etapas serão acionadas
para a climatização da sala de computadores é, basicamente, a diferença entre a temperatura
externa e a temperatura que se deseja manter nos corredores frios da sala.
Há diferentes sistemas free cooling de diferentes fabricantes e as escalas de temperaturas
variam. De qualquer forma, os sistemas disponíveis no mercado operam com temperaturas
externas entre aproximadamente 17° C e 20° C. A Figura 15 mostra um esquema de free cooling.
Figura 15 – Exemplo de free cooling implementado em container
Ar quente (saída)
Região de ar frio
Região de ar quente
Ar frio
externo
Detalhe da entrada de ar do ambiente externo na
câmara de climatização e saída de ar quente do contêiner
Fonte: Marin (2013).
A Figura 15 exibe o ciclo de climatização em um datacenter implementado dentro de
um container usando free cooling em configuração vertical. O ar quente proveniente dos
equipamentos ativos instalados nos gabinetes gera o corredor quente (1). Exaustores
montados no teto da sala de computadores forçam o transporte desse ar para o
compartimento inferior da câmara de climatização montada sobre a sala de computadores
(2). O calor retirado da sala de computadores é absorvido pelo líquido refrigerante presente
no trocador de calor ar-ar (evaporador), que é convertido em gás e sobe ao compartimento
superior da câmara (3).
O ar frio do ambiente externo é puxado para dentro da câmara de climatização por meio de
ventiladores de alta pressão e velocidade variável, o qual passa por meio do condensador,
esse o resfria e converte o gás quente em refrigerante líquido novamente, que regressa ao
evaporador no compartimento inferior da câmara (4). Desse modo, o calor transportado ao
condensador é retirado da câmara de climatização em forma de ar quente, que é forçado a
fluir para fora da câmara (5). O ar frio é transportado do compartimento inferior da câmara de
climatização para dentro da sala de computadores, formando o corredor frio (6). Esse ar frio é
utilizado para resfriar os equipamentos ativos montados nos gabinetes, dando continuidade ao
ciclo de climatização do datacenter (7).
84

Nessa aplicação, não há mistura do ar interno que circula dentro do datacenter com o ar
do ambiente externo. Assim, eventuais contaminantes presentes no ambiente externo não
ingressam no datacenter. Esses sistemas têm painéis de isolação entre o container da sala
de computadores e o da câmara de climatização. Os painéis também isolam o datacenter de
umidade, água, fogo, entre outros contaminantes e eventos indesejados.
No que diz respeito à temperatura do datacenter, isso vai depender da diferença entre
as temperaturas externas e aquela que se deseja manter no corredor frio. O quadro a
seguir apresenta algumas relações entre as faixas de variação da temperatura externa e
a temperatura do corredor frio, bem como os requisitos adicionais para uma climatização
eficiente da sala de computadores, utilizando free cooling na arquitetura apresentada.
Quadro 4 – Relação entre as temperaturas externas e internas do sistema de free cooling apresentado aqui
Temperatura externa
(°C)
Temperatura do
corredor frio (°C)
Requisitos adicionais
Até 19
23,8
N/A
Entre 19 e 23,8
23,8
Evaporação
Acima de 23,8
23,8
Evaporação e condensação
Até 21,8
26,7
N/A
Entre 21,8 e 23,8
26,7
Evaporação
Acima de 26,7
26,7
Evaporação e condensação
Fonte: Marin (2013).
Note que a temperatura no corredor frio é dependente da temperatura do ambiente externo
usada para a climatização do datacenter.
Para finalizar, o free cooling pode ser também implementado utilizando-se unidades CRAC
com economizadores, que são assim designados porque ajudam o sistema de climatização
economizar energia. Em geral, esses sistemas têm uma tomada de ar que coleta o ar
do ambiente externo e o utiliza para a climatização da sala de computadores, quando a
temperatura externa está dentro de limites de operação do sistema free cooling. A partir daí,
as etapas de evaporação e condensação são acionadas e o sistema de climatização passa a
operar como um sistema convencional.
Pergunta 12: Ainda no tema da eficiência energética, poderia nos indicar boas práticas no projeto,
operação e manutenção dos sistemas de climatização de datacenters?
Resposta:
Sim, como discutido anteriormente, sabemos que o ar-condicionado é o maior vilão do
datacenter, sendo responsável por reduzir a eficiência energética da infraestrutura do
site. Algumas recomendações ajudam a melhorar a eficiência energética do sistema de
climatização, como veremos a seguir.
85
Universidade do Sul de Santa Catarina
O fechamento das aberturas por onde pode haver vazamento de ar do sistema de climatização
é uma prática que ajuda a aumentar a eficiência energética do datacenter, conforme mostrado
na Figura 16.
Figura 16 – O fechamento de aberturas por meio das
quais pode haver vazamento de ar frio contribui para a
melhoria da eficiência energética do datacenter
Fonte: Marin (2013).
Dispositivos utilizados para vedar as aberturas das placas de piso para a passagem de
cabos ajudam a evitar o vazamento de ar frio para dentro do gabinete e melhora a eficiência
energética do sistema de climatização da sala de computadores quando o ar frio é insuflado
sob o piso elevado.
Há soluções muito simples, baratas e eficientes disponíveis no mercado para resolver o problema
de falha na vedação das aberturas do piso elevado, conforme mostrado na Figura 17.
Figura 17 – Solução utilizada para vedar as aberturas de placas de piso para passagem de cabos por meio de
organizadores de cabos verticais
Fonte: Marin (2013).
86

As aberturas deixadas nos racks e gabinetes causam a recirculação de ar quente pelo corredor
frio, reduzindo a eficiência do sistema de climatização da sala de computadores. Alguns
autores se referem a esse efeito como “curto-circuito”. A Figura 18 ilustra esse efeito.
Figura 18 – Recirculação de ar por dentro do rack quando são deixadas aberturas na parte frontal
Rack ou Gabiente
Frente
Trás
Fluxo de Ar Frio
Fluxo de Ar Quente
Abertura
Abertura
Corredor Frio
Corredor Quente
Fonte: Marin (2013).
A instalação de painéis cegos para fechar as aberturas dos racks e gabinetes ajuda a manter
a eficiência da climatização da sala de computadores, por não permitir o retorno de ar quente
pelo corredor frio. A Figura 19 apresenta o efeito da instalação de placas cegas nas aberturas
dos racks.
Figura 19 – Aplicação de placas cegas nas aberturas dos racks para evitar a recirculação de ar entre os corredores frio
e quente por dentro do rack
Rack ou Gabiente
Frente
Fluxo de Ar Frio
Trás
Fluxo de Ar Quente
Painel Cego
Corredor Frio
Corredor Quente
Fonte: Marin (2013).
87
Universidade do Sul de Santa Catarina
A Figura 20 apresenta um detalhe das placas cegas instaladas em racks em um datacenter,
bem como as placas cegas individualmente.
Figura 20 – Exemplos de placas cegas para vedação de racks e gabinetes, bem como das placas individualmente
Placas cegas
1U
2U
3U
4U
Placas cegas
Fonte: Marin (2013).
Outro fator importante a observar para melhorar a eficiência energética do sistema de
climatização é que as portas dos gabinetes ofereçam uma área total de abertura para
uma passagem de ar ótima, equivalente a 63% da área total da porta. Alguns projetistas
recomendam uma área total de abertura de 80%.
Pergunta 13: O uso de simulações computacionais é útil para o projeto de climatização? O que
vem a ser CFD – Computational Fluid Dynamics?
Resposta:
Sim, as simulações são ferramentas bastante eficientes tanto para a determinação das
condições e parâmetros de projeto quanto para o diagnóstico de problemas em instalações
existentes.
Uma técnica de projeto bastante eficiente para a avaliação do desempenho dos corredores
frios e quentes do sistema de climatização da sala de computadores é conhecida como CFD
(Computational Fluid Dynamics, Dinâmica de Fluidos Computadorizada). Ela consiste no uso
de software específico, que é alimentado com informações realistas e, portanto, confiáveis,
para gerar resultados precisos. A Figura 21 mostra um exemplo de CFD.
88

Figura 21 – Exemplo de CFD para avaliar a distribuição de ar em diferentes
temperaturas na sala de computadores
Fonte: Marin (2013).
Conforme podemos ver na Figura 21, os corredores frios são identificados em azul e, quanto
mais forte a tonalidade do azul, mais baixa é a temperatura do corredor. Da mesma forma,
quanto mais próximo do vermelho, maior a temperatura do corredor e/ou ambiente. Portanto,
nessa figura notamos que o corredor frio recebe ar insuflado sob o piso elevado em baixa
temperatura (azul mais forte próximo à base dos gabinetes), que começa a aumentar à medida
que sobe às partes mais altas dos gabinetes. A instalação de uma unidade de suplementação
de ar-condicionado na parte superior do corredor frio ajuda a baixar a temperatura nas partes
superiores do corredor frio. Portanto, essa análise CFD ajuda na decisão de se instalar uma
unidade suplementar de climatização para baixar a temperatura das partes superiores do
corredor frio da datacenter avaliado.
A análise de CFD pode ser utilizada para gerar gráficos termográficos, como mostrado na
Figura 22.
Figura 22 – Exemplo de gráfico termográfico mostrando a densidade de calor na sala de computadores
Fonte: Marin (2013).
89
Universidade do Sul de Santa Catarina
Na Figura 22, os tons mais próximos ao vermelho indicam áreas nas quais as temperaturas
são mais altas (área em laranja na figura). Da mesma forma, os tons mais claros representam
regiões cujas temperaturas são mais baixas.
Referências
ANSI/TIA-942. Standard ANSI/TIA-942: 2005- Telecommunications infrastructure for data
centers.
MARIN, P.S. Cargas térmicas do datacenter do exemplo. In: FACCIONI FILHO, Mauro.
Conceitos e Infraestrutura de datacenters: livro digital. Palhoça: Unisul Virtual, 2016.
MARIN, P.S. Configuração de unidades CRAC redundantes na sala de computadores em um
datacenter de pequeno porte. In: FACCIONI FILHO, Mauro. Conceitos e Infraestrutura de
datacenters: livro digital. Palhoça: Unisul Virtual, 2016.
MARIN, P.S. Data Centers – desvendando cada passo: conceitos, projeto, infraestrutura
física e eficiência energética. São Paulo: Editora Érica Saraiva, 2013.
MARIN, P.S. Data Centers – Engenharia: Infraestrutura Física. São Paulo: PM Books, 2016.
MARIN, P.S. Esquema de climatização com unidades CRAH. In: FACCIONI FILHO, Mauro.
Conceitos e Infraestrutura de datacenters: livro digital. Palhoça: Unisul Virtual, 2016.
MARIN, P.S. Esquema simplificado de operação de climatização com unidade CRAC. In:
FACCIONI FILHO, Mauro. Conceitos e Infraestrutura de datacenters: livro digital. Palhoça:
Unisul Virtual, 2016.
MARIN, P.S. Exemplo de instalação de unidades CRAC redundantes em uma sala de
computadores. In: FACCIONI FILHO, Mauro. Conceitos e Infraestrutura de datacenters: livro
digital. Palhoça: Unisul Virtual, 2016.
MARIN, P.S. Parâmetros térmicos operacionais para a sala de computadores. In: FACCIONI
FILHO, Mauro. Conceitos e Infraestrutura de datacenters: livro digital. Palhoça: Unisul
Virtual, 2016.
90
Sistemas complementares em datacenter
Apresentação da entrevista
Nesta quarta entrevista, são discutidos os elementos complementares ao sistema elétrico
e de climatização do datacenter. Não que esses elementos sejam secundários ou menos
importantes, porém, a questão da energia e da eficiência energética tem ocupado um cenário
proeminente nas discussões industriais e ambientais em todo o mundo.
Entre esses, temos o cabeamento para as redes de comunicação, assunto no qual o Prof.
Marin sempre se destacou pelo notório saber e que o levou a conquistar importante prêmio
internacional. Ele nos fala sobre as topologias do cabeamento, aplicações com sistemas
metálicos e ópticos, e também aborda a infraestrutura de caminhos e espaços dentro do
datacenter, para atender esses cabeamentos em paralelo aos de energia.
Outro tema fundamental é o das plataformas de automação e gestão da infraestrutura do
datacenter, tema esse que é abordado no curso com um livro didático especial.
Falando da segurança física e patrimonial do datacenter, são discutidos os sistemas de
detecção e combate a incêndio, que são diferentes dos convencionais, por se tratarem de
sinistros em ambiente computacional. Ao mesmo tempo, há uma preocupação extraordinária
quanto à própria segurança do patrimônio, e por isso a integração com controles de acesso
e sistemas de circuito fechado de televisão. Essa preocupação se dá não apenas pela
possibilidade de danos ou roubo de informação, mas também pelo uso inapropriado de algum
sistema, o que poderia causar falhas no funcionamento do próprio datacenter.
Ao concluir, o Prof. Marin apresenta sugestões e conselhos para o melhor projeto técnico,
de acordo com práticas de qualidade, baseadas em normas e também nas mais recentes
tendências tecnológicas em datacenters.
Entrevista
Pergunta 01: Ao considerar a infraestrutura do datacenter, os sistemas elétricos e os de
climatização aparecem como os mais importantes e destacados, seja pelas condições da própria
operação dos equipamentos ativos, seja pela questão da eficiência energética. Além desses, quais
você destaca como mais importantes, ou cruciais para o datacenter?
Resposta:
É verdade que uma grande ênfase é dada aos sistemas elétrico e de climatização no que diz
respeito à infraestrutura de datacenters. Isso é devido, principalmente, às classificações tier,
como discutimos anteriormente.
Universidade do Sul de Santa Catarina
No entanto, do ponto de vista de operação, há outros sistemas de fundamental importância
que integram a infraestrutura física de um datacenter, como:
•• cabeamento de telecomunicações e redes (cabeamento estruturado);
•• segurança e proteção contra incêndio;
•• monitoramento da infraestrutura do datacenter.
O cabeamento do datacenter tem como finalidade entregar conexões de redes aos
equipamentos de TI e também estabelecer as conexões com os provedores de acesso e
serviços de telecomunicações. O cabeamento do datacenter pode ser estruturado, ou seja,
baseado em normas de cabeamento da indústria ou proprietário, projetado e instalado para
atender a uma topologia específica e normalmente estática.
Os sistemas de segurança ajudam a proteger o site de invasões, acessos físicos indevidos
etc., e o sistema de proteção contra incêndio tem como finalidade disparar alarmes em
eventos de incêndio (ou que possam levar a isso), bem como acionar sistemas de extinção
de fogo. A principal finalidade do sistema de proteção contra incêndio em datacenters é a
proteção de pessoas, da edificação e, por fim, dos equipamentos de TI. Aqui é comum
encontrarmos abordagens de projeto bastante equivocadas, quando projetistas se preocupam
mais com a proteção dos equipamentos críticos de TI do que com a proteção de pessoas
e edificações. Certamente, a integridade dos equipamentos de TI é importante; porém, em
um evento de incêndio, ela já está comprometida. O que resta é minimizar os danos gerais à
infraestrutura do datacenter. Obviamente, a segurança da informação existe e os dados estão
replicados e protegidos em algum outro lugar fora do datacenter principal. Os aspectos de
segurança da informação não fazem parte das normas, procedimentos e/ou melhores práticas
de projeto de infraestrutura física de datacenters.
O monitoramento da infraestrutura do datacenter, mais conhecido como DCIM (Data Center
Infrastructure Monitoring), é também fundamental para a alta disponibilidade e segurança do
site. Os sistemas DCIM são plataformas de gerenciamento e monitoramento de várias funções
da infraestrutura de um datacenter e são baseados em hardware e software.
Embora os sistemas apresentados aqui sejam de fundamental importância para a operação
ótima e alta disponibilidade dos datacenters, eles não são considerados para a determinação
da classificação tier do site, conforme estabelecido pelo The Uptime Institute.
Pergunta 02: A topologia de cabeamento estruturado do datacenter segue os mesmos princípios
das edificações comuns? Há topologias e especificações destinadas ao datacenter?
Resposta:
O cabeamento estruturado para datacenters, embora siga a mesma filosofia de cabeamento
estruturado para edifícios comerciais, tem suas particularidades. Um sistema de cabeamento
estruturado 1 é caracterizado por ser uma infraestrutura padronizada de cabeamento capaz de
atender a uma grande variedade de serviços utilizados em datacenters. A Figura 1 apresenta a
topologia de distribuição do cabeamento estruturado para datacenters.
1. Ver “Cabeamento Estruturado: Projeto e Instalação”, de Paulo Sérgio Marin, PM Books Editora, 2015, São Paulo/SP, Brasil.
92

Figura 1 – Topologia de cabeamento estruturado para datacenters
Fonte: Marin (2016).
Como podemos observar na Figura 1, são mostradas duas nomenclaturas. A que está fora
dos parênteses é definida pela ISO e adotada na norma brasileira ABNT NBR 14565 (2013), e a
que está entre parênteses é a definida pela norma norte-americana ANSI/TIA-942-A (2005). O
Quadro 1 mostra a equivalência entre a nomenclatura adotada pela ABNT (ISO) e ANSI/TIA.
Quadro 1 – Comparativo entre as nomenclaturas adotadas pela ABNT e ANSI/TIA para os elementos funcionais do
cabeamento para data centers
Nomenclatura ABNT
(NBR)
Nomenclatura ANSI/TIA
Descrição
MD (Distribuidor principal)
MDA (Área de distribuição
principal)
Distribuidor principal: gera o subsistema
de backbone do datacenter.
Sem equivalente na norma
ABNT NBR 14565:2013
IDA (Área de distribuição
intermediária)
Distribuidor intermediário (opcional):
divide o subsistema de backbone em
dois.
ZD (Distribuidor de zona)
HDA (Área de distribuição
horizontal)
Distribuidor de zona: gera o subsistema
de cabeamento horizontal do
datacenter.
LDP (Ponto de distribuição
local)
ZDA (Área de distribuição de
zona)
Distribuição local (opcional);
equivalente ao CP em um cabeamento
convencional.
EO (Tomada de
equipamento)
EDA (Área de distribuição de
equipamentos)
Tomada de equipamento: onde
é conectado o equipamento do
datacenter (servidor ou storage,
tipicamente). A EO fica localizada
dentro da EDA, conforme a ANSI/TIA
942-A.
Fonte: Marin (2016).
93
Universidade do Sul de Santa Catarina
O sistema de cabeamento de um datacenter é composto por subsistemas de cabeamento
de backbone e horizontal. No esquema da Figura 1, há dois subsistemas de backbone: entre
MD/MDA e IDA (opcional) e entre IDA e ZD/HDA. O cabeamento de backbone é responsável
basicamente pela conexão dos serviços externos providos por terceiros (empresas de
telecomunicações, acesso etc.), que entram na edificação por meio da ENI (interface com a
rede externa). A ENI tem a função de ponto de demarcação, ou seja, define o ponto até o qual
os provedores são responsáveis pela manutenção de seus serviços e a partir do qual passam
a ser de responsabilidade do operador ou proprietário do datacenter. O cabeamento que
conecta a ENI ao MD/MDA deve ser dimensionado para atender aos requisitos das aplicações
entregues por seus provedores.
O cabeamento estruturado é constituído de elementos funcionais, que são os seguintes:
a.
interface de rede externa (ENI);
b.
cabo de acesso à rede;
c.
distribuidor principal (MD/MDA);
d.
cabeamento de backbone;
e.
distribuidor intermediário (IDA, opcional e não previsto na ABNT NBR
14565:2013);
f.
cabeamento e backbone;
g.
distribuição de zona/cabeamento horizontal (ZD/HDA);
h.
cabeamento horizontal;
i.
ponto de distribuição local (LDP/ZDA);
j.
cabo do ponto de distribuição local (cabo do LDP, cabo da ZDA);
k.
tomada de equipamento (EO).
Ainda, podemos dizer que o cabeamento estruturado é definido entre os seguintes
subsistemas:
•• subsistema de cabeamento horizontal;
•• subsistema de backbone;
•• subsistema de cabeamento de acesso à rede.
Os subsistemas de backbone e cabeamento horizontal são combinados, ou seja, são
utilizados em uma mesma distribuição de cabeamento, em uma topologia capaz de atender
às necessidades de um datacenter. A Figura 2 mostra uma topologia de distribuição típica de
cabeamento em datacenters.
94

Figura 2 – Topologia de distribuição de cabeamento estruturado em um datacenter típico
Fonte: Marin (2013).
A topologia mostrada na Figura 2 mostra os distribuidores do cabeamento estruturado,
bem como os subsistemas de cabeamento de backbone e horizontal dentro da sala de
computadores. Note que há uma conexão do cabeamento do datacenter ao cabeamento
do edifício onde ele está implementado por meio da TR (sala de telecomunicações) do
cabeamento estruturado do edifício. Essa conexão pode ou não existir, isso depende de
características do projeto do datacenter.
Um aspecto importante presente na distribuição de cabeamento para datacenters é a
infraestrutura de entrada (EF) secundária, que funciona como uma redundância da entrada
principal para garantir a manutenção dos serviços de telecomunicações e acesso, em caso de
alguma falha na distribuição principal.
Embora a topologia apresentada na Figura 2 seja bastante comum para datacenters de
médio porte, datacenters maiores podem precisar de mais níveis de backbone para atender a
todos os equipamentos da sala de computadores, ou quando há salas de computadores em
pavimentos diferentes ou localidades diferentes dentro do mesmo edifício ou em uma rede de
campus (CAN), conforme esquematizado na Figura 3.
95
Universidade do Sul de Santa Catarina
Figura 3 – Topologia de distribuição de cabeamento estruturado para datacenters de grande porte
Fonte: Marin (2016).
O distribuidor que permite uma expansão em termos de alcance do cabeamento estruturado
em datacenters é o IDA ou distribuidor intermediário. Note que, quando utilizado, o
cabeamento passa a ter dois níveis de backbone: o primeiro nível entre o MD/MDA e o
IDA e o segundo, entre o IDA e o ZD/HDA. Embora o IDA possa estar em outra localidade,
no esquema da Figura 3 ele está dentro da mesma sala de computadores que os demais
distribuidores. Isso pode ser devido aos comprimentos de cabos excederem seus limites
para o uso de um único nível de backbone nesse espaço ou por questões de organização e
gerenciamento das conexões.
Para finalizar, as normas também reconhecem topologias de cabeamento estruturado para
datacenters de pequeno porte, como mostrado na Figura 4.
96

Figura 4 – Topologia reduzida de cabeamento estruturado para datacenters
Fonte: Marin (2013).
Note que, devido ao seu porte, um datacenter pequeno pode não precisar de um subsistema
de cabeamento de backbone; somente o horizontal pode ser capaz de atender às suas
necessidades de distribuição de cabeamento. É isso o que mostra a Figura 4, ou seja, as
normas reconhecem conexões diretas entre o MD/MDA e as EO/EDA, onde são instalados os
equipamentos críticos de TI na sala de computadores.
Pergunta 03: Quais as tendências e como devem ser usados os cabeamentos metálicos e
ópticos?
Resposta:
As normas de cabeamento para datacenters reconhecem os seguintes meios físicos para
as conexões dentro das salas de computadores entre os distribuidores do cabeamento
estruturado:
•• cabos balanceados (de pares trançados) de quatro pares, 100 ohms, blindados
ou não, Categoria 6A/Classe EA (600 MHz), ou superiores;
•• cabos ópticos multimodo OM3 e OM4 (50/125 mm), otimizadas para
transmissão laser;
•• cabos ópticos monomodo OS1 e OS2.
Algumas normas, ainda, reconhecem cabos de cobre de categorias inferiores à Cat. 6A, porém
a recomendação de todas elas é o uso de, no mínimo Categoria 6A/Classe EA, no subsistema
de cabeamento horizontal. Da mesma forma, algumas normas ainda reconhecem cabos
ópticos multimodo OM1 e OM2, porém não recomendam sua utilização nos subsistemas de
backbone do datacenter.
97
Universidade do Sul de Santa Catarina
O Quadro 2 mostra exemplos de cabos metálicos (cabos de cobre) reconhecidos por normas
técnicas para uso no cabeamento estruturado de datacenters.
Quadro 2 – Exemplos de cabos de cobre reconhecidos por normas técnicas para uso em datacenters
TIPOS DE CABOS
U/UTP
F/UTP
S/FTP
(Unshielded/Unshielded Twisted
Pair)
(Foiled/Unshielded Twisted
Pair)
(Screened/Foiled Twisted Pair)
Par trançado sem blindagem
Par trançado sem blindagem
individual e com blindagem geral
Par trançado com dupla
blindagem – individual e geral
Fonte: Marin (2016).
Em termos de tendências, podemos identificar o cabeamento Categoria 6A/Classe EA,
com largura de banda de 600 MHz e preparado para a aplicação 10GBASE-T (10 Gb/s em
cabeamento de cobre), como o meio físico mais comum no subsistema de cabeamento
horizontal de datacenters de diversos portes. Alguns projetos, entretanto, estão sendo
desenvolvidos e implementados com cabos ópticos em toda a distribuição de cabeamento do
datacenter. De qualquer forma, isso é muito pouco comum e, quando utilizada tal abordagem
de projeto, ela acontece em datacenters de grande porte.
No que diz respeito ao cabeamento óptico, a tendência é o uso de cabos trunking e
conectores MPO. Os conectores MPO (Multi Fiber Push On) disponíveis no mercado e
reconhecidos por normas técnicas de cabeamento são os 12 e 24 fibras, cuja distribuição de
fibras é mostrada na Figura 5.
Figura 5 – Alinhamentos das fibras ópticas em conectores MPO de 12 e 24 fibras
Fonte: Marin, 2014.
Os conectores MPO são apresentados em versões macho e fêmea. A Figura 6 mostra os
conectores de 12 fibras.
98

Figura 6 – Exemplos de conectores MPO de 12 fibras
(a)(b)
(a) Conector MPO macho
(b) Conector MPO fêmea
Fonte: Marin (2014).
Os conectores MPO são utilizados nos cabos trunking ópticos, que são segmentos de cabos
ópticos com várias fibras montados em fábrica, com comprimento pré-determinado pelo
cliente e conectores MPO em cada extremidade. Esses cabos têm encontrado uma aplicação
ampla em datacenters; eles são testados em fábrica e garantidos por seus fabricantes, ou
seja, o instalador não precisa montar conectores ópticos em campo e, em princípio, nem
medir a atenuação do cabo após sua instalação. De qualquer forma, a medição da atenuação
em campo de cabos ópticos é um requisito normativo e a única forma de confirmar que o
enlace óptico apresenta um desempenho adequado conforme projetado.
A Figura 7 mostra um exemplo de cabo trunking MPO, com conectores montados em ambas
as suas extremidades.
Figura 7 – Exemplo de cabo trunking óptico com conectores MPO montados em fábrica
Fonte: Marin (2016).
O que torna os cabos ópticos trunking com conectores MPO uma opção muito interessante,
de rápida implementação e flexíveis são os cassetes MPO. Um cassete MPO é um hardware
óptico de conexão que tem um conector MPO em uma de suas faces e um outro padrão de
conexão na outra. A Figura 8 mostra um exemplo de cassete MPO com conectores LC duplex.
99
Universidade do Sul de Santa Catarina
Figura 8 – Exemplo de um cassete MPO (parte frontal) e distribuição no padrão LC (painel frontal)
Fonte: Marin (2014).
Normalmente, os cassetes são modulares, montados em painéis em racks padrão de 19” e
oferecem montagens de alta densidade de conexões ópticas.
Pergunta 04: Do ponto de vista dos caminhos e espaços, como se instala o cabeamento? É
possível instalá-lo tanto sob o piso como pela parte superior dos racks?
Resposta:
Sim, o cabeamento estruturado é distribuído por ambos os caminhos, ou seja, sob o piso
elevado e por via aérea dentro da datacenter. Não é uma regra geral, mas normalmente a
distribuição do cabeamento entre equipamentos instalados em gabinetes em uma mesma fila
é feita por caminhos aéreos, entre os distribuidores e as filas de gabinetes, sob o piso elevado.
Os cabos dos sistemas elétricos são normalmente distribuídos sob o piso elevado.
A Figura 9 mostra um exemplo de caminhos de distribuição de cabeamento estruturado em
um datacenter típico.
Figura 9 – Caminhos de distribuição do cabeamento estruturado em datacenters
Racks - MD/MDA (Switches, LAN, SAN, WAN)
Backbone
ZD/HDA (Switches, KVM, etc.)
Cabeamento horizontal
Gabinetes - EO/EDA (servidores, storage)
Fonte: Marin (2013).
100

O trecho marcado em vermelho na Figura 9 (backbone) é normalmente distribuído por via
aérea, pois são segmentos de cabos que podem necessitar de substituições e/ou adições
mais frequentes. O trecho em azul (cabeamento horizontal) é normalmente distribuído sob o
piso elevado.
A Figura 10 mostra um esquema de distribuição de cabeamento em datacenters de pequeno
porte por caminhos aéreos, considerando que muitos datacenters pequenos não têm piso
elevado.
Figura 10 – Caminhos aéreos de distribuição de cabeamento estruturado em data centers de pequeno porte
Racks - MD/MDA (Switches, LAN, SAN, WAN)
Conexões diretas entre o MD/MDA e a EO/EDA
Gabinetes - EO/EDA (servidores, storage)
Fonte: Marin (2013).
Para apresentar exemplos de instalações reais, a Figura 11 mostra a distribuição de
cabeamento em datacenters tanto sob o piso elevado quanto por caminhos aéreos.
Figura 11 – Exemplos de caminhos de cabos utilizados em datacenters
a) Distribuição de cabeamento sob o piso elevado
101
Universidade do Sul de Santa Catarina
b) Distribuição de cabeamento por caminhos aéreos
Fonte: Marin (2016).
Quando lançados por eletrocalhas aéreas, os pontos de fixação de seus suportes de
sustentação devem ser tais que suportem o peso da estrutura e dos cabos colocados nela.
O Quadro 3 traz parte das recomendações da norma norte-americana de projeto e melhores
práticas de implementação quanto a isso.
Quadro 3 – Distâncias entre os suportes de eletrocalhas aéreas em função do empilhamento de cabos
Distância entre
suportes
Empilhamento máximo de
cabos na eletrocalha, altura
(mm)
(mm)
0
150
100
140
150
137
250
128
500
111
Fonte: Marin (2016).
As recomendações apresentadas na Quadro 3 são importantes, pois cabos de cobre são
pesados e sua infraestrutura de suporte deve ser adequadamente dimensionada.
Pergunta 05: A automação dos datacenters era feita por sistemas de automação prediais
até recentemente, mas surgiram sistemas específicos, denominados DCIM. Quais suas
recomendações a respeito?
102

Resposta:
De fato, como a infraestrutura de um datacenter compreende alguns dos sistemas usualmente
existentes em edifícios comerciais, como por exemplo, controle de acesso, CFTV, entre outros,
alguns datacenters passaram a ser incluídos nos sistemas de automação e controle predial ou
BACS (Building Automation and Control System).
A questão, aqui, é que a infraestrutura do datacenter deve ser monitorada e controlada de
forma dedicada e independente, ou seja, por meio dos sistemas DCIM.
Portanto, para a garantia da manutenção dos níveis de disponibilidade requeridos pelos
datacenters, a recomendação é a adoção de um sistema dedicado ao monitoramento da
infraestrutura do datacenter (DCIM, Data Center Infrastructure Monitoring). A Figura 12 mostra
um exemplo de parâmetros que podem fazer parte de um sistema DCIM.
Figura 12 – Parâmetros monitorados em um sistema DCIM
CFTV
Energia
Controle de Acesso
Umidade
Temperatura
Presença
Fumaça
Inundação
Integração com sistemas
Fonte: Marin (2016).
Conforme mostrado na Figura 12, os parâmetros que podem ser monitorados, dentro da sala
de computadores e/ou outros espaços críticos, são basicamente os seguintes:
•• temperatura;
•• umidade;
•• fumaça;
•• vazamento e inundação (sob o piso elevado).
Além dos parâmetros físicos apresentados acima, outras funções podem ser monitoradas, como:
•• utilização do espaço;
•• segurança (imagens do sistema de vigilância eletrônica, controle de acesso etc.);
103
Universidade do Sul de Santa Catarina
•• gestão de ativos;
•• consumo de energia elétrica por quadros, PDUs, fase etc.
Portanto, o principal objetivo de um sistema DCIM é oferecer ferramentas aos gestores de
datacenters para que possam obter informações em tempo real sobre recursos utilizados e
estados de sensores (de umidade, temperatura, presença, inundação etc.), de modo a atuarem nos
diversos sistemas, quando necessário, e garantirem a segurança da infraestrutura e da operação.
O uso de sistemas DCIM permite aos operadores o controle da eficiência energética do site.
Uma ferramenta DCIM eficiente deve ser capaz de atuar nas camadas física e de aplicação
e deve ser implementado por meio de hardware (equipamentos), dispositivos (sensores,
câmeras, atuadores etc.) e uma plataforma de software. A Figura 13 mostra um esquema de
implementação de um sistema DCIM.
Figura 13 - Topologia típica de um sistema DCIM
IP
Tablet
Mobile
Computador
Servidor
Banco de Dados
Controle de Acesso
CFTV
Bastidor de Energia
Fumaça Temperatura Inundação Umidade Energia Presença
Atuador
Sensores | Atuadores
Fonte: Marin (2012).
Portanto, um sistema DCIM é uma plataforma que combina software e hardware implementada
em um datacenter para otimizar sua operação e integrar seus sistemas, como por exemplo:
•• monitoramento da infraestrutura do site;
•• monitoramento dos equipamentos ativos e da rede;
•• gerenciamento dos espaços;
•• otimização da operação, entre outros.
104

Com a adoção de sistemas DCIM eficientes pode-se monitorar o consumo de energia elétrica
do site por racks, equipamentos, PDU, tomadas individuais etc. Isso pode ajudar muito para a
medição da PUE e melhoria do consumo do site.
A utilização e distribuição de sensores e atuadores de forma estratégica na infraestrutura
do datacenter permite, por meio da avaliação dos dados obtidos, interferir no ambiente
monitorado por meio de adoção ou mudança de procedimentos, bem como por meio de
atuadores.
Os sistemas DCIM, normalmente, contam com consoles que reúnem informações críticas
sobre a infraestrutura do datacenter monitorado. Essas informações são normalmente
apresentadas em forma gráfica para visualização imediata. A Figura 14 mostra um exemplo de
tela principal de um sistema DCIM.
Figura 14 – Exemplo de tela principal de um sistema DCIM
Fonte: Marin (2016).
Na Figura 14 é possível ver, na tela principal do console DCIM, informações-chave da
infraestrutura do datacenter, tais como PUE (Power Usage Effectiveness, eficiência de uso
de energia elétrica) e ícones de sensores e atuadores instalados no datacenter, por meio dos
quais o gestor pode obter informações detalhadas de cada um deles.
As informações podem ser apresentadas em forma de relatórios e também de forma gráfica. A
Figura 15 mostra um exemplo de representação gráfica de um datacenter, com ênfase na sala
de computadores, em destaque na figura.
105
Universidade do Sul de Santa Catarina
Figura 15 – Exemplo de representação gráfica de um datacenter
Fonte: Marin (2016).
Entre as informações de suma importância, estão o gráfico termográfico, que mostra a
distribuição de densidade de calor nos espaços, conforme mostra a Figura 16.
Figura 16 – Exemplo de gráfico termográfico
Fonte: Marin (2016).
Para finalizar, podemos resumir os objetivos do DCIM como: garantir a disponibilidade, a
capacidade de gestão da infraestrutura e a economia de recursos.
106

A disponibilidade é garantida porque um sistema DCIM bem implementado é capaz de
monitorar circuitos elétricos, consumo, balanceamento de fases, gerenciar ativos, identificar
hot spots (do sistema de climatização), ajudar na segurança física do site, além de emitir
alertas em tempo real e preparar ordens de serviço para o pessoal de manutenção, evitando,
assim, a indisponibilidade do site.
Pergunta 06: Falando agora da questão dos sinistros, sabe-se que não são aplicáveis os
dispositivos de detecção e combate a incêndio convencionais. Que sistema então devemos
utilizar? E como devem ser instalados?
Resposta:
Na verdade, não há especificações em normas técnicas para o sistema de detecção e
extinção de incêndio em datacenters. Em outras palavras qualquer abordagem pode ser
considerada para esse fim. O que acontece, na prática, é que determinados sistemas,
dispositivos e métodos são mais adequados à infraestrutura de um datacenter, dada a
criticidade de sua operação.
Portanto, um sistema de proteção contra incêndio deve ter os seguintes elementos básicos:
•• detecção: que pode ser de fumaça, calor e fogo;
•• supressão: sistemas de extinção de fogo, que podem ser sprinklers (sistemas
com água) ou gases inertes não inflamáveis (como o FM-200);
•• alarme: o sistema de proteção contra incêndio deve acionar alarmes sonoros,
bem como outros tipos (mensagens de texto via SMS, e-mails etc.), em
eventos de detecção de fumaça ou outro parâmetro monitorado que indique o
princípio de um evento de incêndio;
•• controle: inclui os sistemas de detecção, bem como meios de acionar avisos
sonoros e visuais (alarmes), além de notificar o departamento pertinente e
acionar sistemas automáticos de contenção do incêndio.
A detecção de parâmetros que podem indicar o princípio de um incêndio pode ser feita por
vários tipos de dispositivos. Os mais comuns são:
•• detectores de fumaça por ionização;
•• detectores fotoelétricos;
•• dispositivos VESDA (Very Early Smoke Detection Apparatus, Dispositivo de
Detecção Precoce de Fumaça).
Os detectores de fumaça por ionização são dispositivos de baixo custo e menos sensíveis que
os detectores VESDA, que operam com laser, são mais sensíveis e apresentam custo mais
elevado.
Em geral, os detectores iônicos necessitam de maior quantidade de fumaça para sinalizar a
presença de fumaça no ambiente ao sistema de controle e acionar os alarmes; os detectores
VESDA precisam de menor quantidade de fumaça para operar. A Figura 17 mostra um
exemplo de detector iônico de fumaça.
107
Universidade do Sul de Santa Catarina
Figura 17 – Exemplo de um detector iônico de fumaça
Fonte: Marin (2016).
No que diz respeito à supressão de incêndio, os seguintes métodos têm sido mais comumente
empregados em datacenters:
•• sprinklers (chuveiros) de água em sistema pre-action;
•• gases inertes.
O sistema pre-action opera com água; porém, ao contrário de um sistema de extinção de
incêndio convencional baseado em sprinklers, o pre-action mantém seco o encanamento que
leva água aos sprinklers. O sistema fica em repouso e é controlado pela central de controle
do sistema de detecção, alarme e extinção de incêndio utilizado. Quando há a detecção de
fumaça, a central de controle dispara alarmes e aciona a bomba de água para levar água até
os sprinklers. Se o sistema não for desligado, os sprinklers romperão devido ao aumento da
temperatura do ambiente e a água presente no encanamento será liberada, com o objetivo de
resfriar o ambiente e interromper o processo de queima.
A Figura 18 mostra um exemplo de mecanismo pneumático pre-action.
108

Figura 18 – Arranjo típico de um sistema pneumático de extinção de incêndio tipo pre-action
Fonte: Marin (2016).
O uso de gases inertes, especialmente o FM-200, é bastante comum em sistemas de proteção
contra incêndio em datacenters. O sistema é normalmente composto por sensores de fumaça,
uma central de controle, cilindros de gás FM-200 e uma válvula para a liberação do gás.
Ao detectar um evento de incêndio, o sensor envia um sinal à central de controle, que executa
as seguintes tarefas:
•• dispara alarmes;
•• atua no sistema de climatização, desligando a unidade CRAC e fechando
dampers;
•• abre as válvulas para a descarga do gás no ambiente em chamas.
O disparo de alarmes tem como objetivo alertar o pessoal da brigada de incêndio e os
ocupantes do edifício para evacuação imediata do local. O corte do sistema de climatização
tem como objetivo interromper a circulação de ar, diminuindo a entrada de oxigênio no
ambiente, o que ajuda a reduzir o incêndio. A liberação do gás FM-200 no ambiente preenche
todo o espaço, impedindo a continuidade do fogo.
A Figura 19 mostra um exemplo de sistema de detecção e combate a incêndio baseado em
FM-200.
109
Universidade do Sul de Santa Catarina
Figura 19 – Sistema de detecção e combate a incêndio com FM-200
Fonte: Marin (2013).
Em casos de extinção de incêndio por FM-200, recomenda-se o shutdown (desligamento) do
sistema elétrico para evitar novos focos de incêndio.
Pergunta 07: Há uma preocupação grande quanto à segurança patrimonial em datacenters, por
isso, há vários modelos de sistemas de circuito fechado de TV e controles de acesso. Há alguma
especificação própria para datacenters? Esses modelos poderiam ser integrados aos sistemas
DCIM?
Resposta:
Sim, é verdade que a segurança patrimonial é um dos itens de segurança mais críticos do
projeto e operação do datacenter. Por isso, os sistemas de vigilância eletrônica são projetados
e implementados para garantir que nenhuma área crítica do site fique sem monitoramento
por câmeras de vídeo. Isso inclui praticamente todos os espaços do datacenter, internos e
externos.
A vigilância eletrônica do site é feita por meio de circuitos fechados de TV (CFTV), com
câmeras que podem ser analógicas ou digitais. Essas são as mais comumente empregadas
em datacenters e são do tipo IP (Internet Protocol). Os sistemas de vigilância eletrônica em
datacenters devem apresentar as seguintes funções:
110
a.
permitir a segurança e o monitoramento de pessoas;
b.
centralizar o monitoramento de todas as imagens em um espaço ou sala de
segurança;
c.
manter um registro visual das áreas monitoradas durante situações de alarme e
acesso indesejado, ou mesmo em regime normal de acesso;

d.
manter a gravação de evidências de ações criminosas como provas em caso
de necessidade;
e.
manter gravações de imagens de áreas monitoradas e a atividade de seus
ocupantes.
A instalação das câmeras, suas resoluções, características em quadros por segundo,
iluminação e outros critérios devem ser determinados por meio de uma análise prévia de risco.
O posicionamento das câmeras deve ser feito levando em consideração a iluminação do
local a ser monitorado para ser capaz de registrar de forma adequada as faces, os veículos,
bem como as atividades que possam ser consideradas suspeitas ou mesmo corriqueiras da
operação do site, para efeitos de análises posteriores.
As câmeras de CFTV devem ser protegidas contra roubo e vandalismo, dependendo do
ambiente no qual estão instaladas. Em ambientes críticos, as câmeras devem ter dispositivos
de alarme em caso de desconexão acidental ou criminosa, e as câmeras IP podem utilizar
o protocolo SNMP, ou outros, para acionar alarmes em caso de desconexão acidental ou
criminosa da rede. As câmeras do sistema de CFTV em datacenters devem ser projetadas de
modo a cobrir as seguintes áreas:
a.
áreas de circulação e acesso comum;
b.
espaços de serviço e manutenção;
c.
salas técnicas (sistemas mecânicos, telecomunicações e redes, cabines
primárias, perímetros internos e externos);
d.
elevadores, escadas, corredores e halls;
e.
sala de computadores.
É importante que o projetista considere a instalação das câmeras em locais que permitam
o monitoramento adequado da área (ou áreas) de interesse, bem como que estejam fora do
alcance de pessoas, no caso de instalação em áreas externas.
A intensidade de luz para a eficiência do sistema de vigilância por câmeras é também um fator
crítico (com exceção das câmeras infravermelho, que podem registrar imagens em ambientes
escuros). A norma ANSI/BICSI 002 (2014) traz alguns requisitos quanto à iluminação de certos
espaços do datacenter para a operação adequada de sistemas de vigilância eletrônica.
Dentro da sala de computadores, as câmeras devem ser posicionadas de modo a cobrir
todos os corredores da sala e oferecer visão de todos os racks e gabinetes, garantindo a
cobertura das faces frontais e traseiras deles. O acesso à sala também deve ser monitorado
pelo sistema de vigilância eletrônica tanto na entrada externa do espaço, quanto na interna.
Em ambientes com requisitos mais restritivos em termos de segurança, pode ser necessária
a instalação de uma câmera por rack ou gabinete. O projetista deve avaliar essa necessidade
em conjunto com seu cliente.
Para finalizar, o sistema de vigilância eletrônica pode fazer parte do sistema DCIM e é
fortemente recomendado que assim seja. A centralização de todas as informações acerca
da infraestrutura do site em uma única plataforma ajuda o gestor do site a manter um maior
e melhor controle sobre todos os seus sistemas críticos. Além disso, com automação
integrada ao sistema DCIM, alarmes e acionamentos de dispositivos podem ser comandados
111
Universidade do Sul de Santa Catarina
diretamente por ele, garantindo, assim, respostas mais eficientes e eliminação de riscos de
invasão e danos ao site.
Pergunta 08: Para concluir, que outras recomendações, boas práticas e novas tendências
tecnológicas você aconselha aplicar em datacenters?
Resposta:
Acredito termos coberto os aspectos envolvidos com a infraestrutura de datacenters de forma
bastante detalhada ao longo dos questionários que compõem a entrevista concluída aqui.
Para finalizar, gostaria de chamar a atenção ao que me parece uma tendência no que diz
respeito à distribuição de cabeamento em datacenters. Embora eu não concorde com a
utilização de sistemas sem normalização em substituição a sistemas normalizados, a topologia
de cabeamento ToR (Top of Rack, Topo de Rack) vem sendo adotada de forma crescente em
datacenters.
A topologia ToR é caracterizada pela instalação de um switch no topo de cada gabinete da
fila (switch ToR), na sala de computadores, para distribuir conexões de rede aos servidores,
equipamentos de storage e, eventualmente, outros dispositivos e equipamentos instalados na
área de distribuição de equipamentos do datacenter (EO/EDA). A Figura 20 mostra a topologia
típica de distribuição ToR.
Figura 20 – Exemplo de topologia de distribuição ToR típica
Enlaces ópticos
Switch ToR
Switch ToR
Switch ToR
Enlaces ópticos
Gabinete de Rede
Switches Core
(distribuição principal)
Gabinetes de
Servidores
Gabinetes de
Servidores
Gabinetes de
Servidores
Fonte: Marin (2016).
Na topologia apresentada na Figura 20, há um gabinete de rede no qual são instalados os
switches core da rede. As conexões entre eles e os switches ToR são normalmente feitas com
fibras ópticas, e as conexões entre os switches ToR e os equipamentos de TI são feitas com
patch cords metálicos (cobre). Ainda, conforme mostrado na mesma figura, quando utilizada
a topologia ToR de distribuição de cabeamento no datacenter, a topologia normalizada de
112

cabeamento estruturado não é observada. Isso não significa que tal topologia não possa
ser adotada, porém, o projetista deve estar ciente de que ela não atende às normas de
cabeamento estruturado para datacenters.
Embora a justificativa para o uso de topologias sem normalização (como a ToR) seja as
conexões a serem estabelecidas (como link aggregation, por exemplo) e o espaço “adicional”
que o cabeamento estruturado necessita para ser implementado, isso não passa de mito.
Com relação à configuração de distribuição para link aggregation, é importante entender
que as normas de cabeamento especificam uma topologia padrão de cabeamento para as
mais diversas aplicações. Em outras palavras, elas não apresentam diferentes cenários de
implementação com base em aplicações específicas, e sim definem uma topologia única,
cujo objetivo é permitir que, a priori, qualquer aplicação cujos requisitos de desempenho
estejam de acordo com o meio físico utilizado e seus limites de comprimento, possam ser
implementadas no cabeamento.
No caso específico de conexões que usam link aggregation, cabos trunking podem ser
utilizados, por exemplo, em conjunto com conectores MPO. Isso não vai reduzir a quantidade
de conexões e nem de patch cords, uma vez que isso depende exatamente da quantidade de
portas de switches, e não do arranjo do cabeamento.
Outro ponto a ser considerado é que não é necessário que sejam utilizados cross-connects
(conexões cruzadas) na distribuição; as ligações podem ser feitas por meio de interconexões,
o que pode ajudar a reduzir o custo de implementação de link aggregation, pela redução na
quantidade de portas ópticas e de distribuidores ópticos a serem utilizados.
Para ilustrar melhor essa discussão, a Figura 21 mostra um esquema genérico de link
aggregation.
Figura 21 – Esquema genérico de link aggregation
Fonte: Marin (2016).
No exemplo apresentado na Figura 21, o link aggregation é obtido por conexões redundantes
entre as portas do switch core e as portas dos switches de distribuição, bem como entre as
portas desses e portas dos switches de borda. Os switches de borda entregam conexões aos
clientes da rede.
113
Universidade do Sul de Santa Catarina
Em um datacenter, o link aggregation pode ser implementado conforme mostrado na Figura
22, utilizando uma topologia de cabeamento estruturado como base.
Figura 22 – Exemplo de link aggregation em datacenters
Fonte: Marin (2016).
No esquema da Figura 22 temos um exemplo de distribuição com link aggregation (certamente
outras possibilidades podem ser consideradas). O switch core está no distribuidor principal
do cabeamento do datacenter (MD/MDA), os switches de distribuição estão instalados
no distribuidor de zona ou horizontal (ZD/HDA), os switches de borda estão no ponto de
distribuidor local (LDP/ZDA) e os clientes, servidores blade nesse caso, estão instalados na
área de distribuição de equipamentos (EO/EDA).
Os distribuidores ópticos instalados em cada subsistema do cabeamento são responsáveis
por agregar os links de cada nível de distribuição.
Esse exemplo ilustra a quantidade de conexões entre os subsistemas de cabeamento
estruturado do datacenter para fazer a agregação de links. Note que, no MD/MDA, o
modelo de conexão utilizado é o de interconexão, ou seja, as portas dos switches core
são conectadas diretamente às portas do distribuidor óptico. Em outras palavras, não há
espelhamento de portas de switch, o que caracterizaria um cross-connect e, portanto, utilizaria
o dobro de portas de distribuidor óptico no MD/MDA.
O distribuidor óptico posicionado no MD/MDA entrega conexões ao distribuidor óptico
mostrado no topo do rack do distribuidor de zona ou horizontal (ZD/HDA) do datacenter.
Esse distribuidor conecta os links de agregação do MD/MDA aos switches de distribuição
por meio de patch cords ópticos (em vermelho na figura). O distribuidor óptico posicionado
imediatamente abaixo do primeiro no ZD/HDA estabelece as conexões entre os switches de
distribuição e os switches de borda presentes no LDP/ZDA (conexões em azul na figura).
O distribuidor óptico posicionado no rack do ponto de distribuição local do datacenter (LDP/
ZDA) recebe as conexões do ZD/HDA e as entrega aos switches de borda instalados no LDP/
ZDA. A partir daí, conexões entre os switches de borda e a EO/EDA entregam conexões de
rede aos clientes do cabeamento, servidores blade, neste caso. Normalmente, essas conexões
são implementadas com cabeamento de cobre de alto desempenho, como Categoria 6A/
Classe EA, por exemplo.
114

Note que a quantidade de conexões será tão grande quanto o número de enlaces de
agregação envolvidos na distribuição. A topologia de cabeamento estruturado para
datacenters, conforme definida em normas técnicas, pode ser utilizada para link aggregation.
Novamente, as normas não tratam de aplicações específicas, mas especificam uma topologia
que permite a implementação de diferentes aplicações.
As conexões entre os distribuidores ópticos instalados no MD/MDA, ZD/HDA e LDP/ZDA
podem ser feitas com cabos trunking ópticos, cassetes e conectores MPO. Isso torna
a instalação mais fácil e rápida, reduz a quantidade de cabos entre os distribuidores e,
como consequência, o espaço utilizado na infraestrutura de distribuição do cabeamento
(eletrocalhas, eletrodutos, bandejas etc.). No entanto, o uso de cabos trunking e conectores
MPO não serve para reduzir a quantidade de conexões e de patch cords nos distribuidores,
e sim para tornar o gerenciamento da instalação mais fácil, assim como remanejamentos de
patch cords.
Portanto, é perfeitamente possível e viável o uso de cabeamento estruturado em datacenters
para qualquer que seja a topologia da aplicação ou método de conexão que se deseja
implementar, pois uma das principais caraterísticas dos sistemas de cabeamento estruturado
é sua flexibilidade.
Quanto ao argumento do espaço adicional, pode ser que seja necessário o uso de mais
distribuidores em comparação a uma topologia ToR, por exemplo, mas a organização da
instalação será muito maior, haverá sempre a possibilidade de segmentação física da rede
para efeitos de testes e a identificação de falhas e seus consequentes reparos.
Referências
ABNT. Norma ABNT NBR 14565: 2013. Cabeamento estruturado para edifícios comerciais e
data centers.
ANSI/TIA-942. Standard ANSI/TIA-942: 2005- Telecommunications infrastructure for data
centers.
ANSI/BICSI 002:2014. Data Center Design and Implementation Best Practices.
MARIN, P.S. Data Centers – Engenharia: Infraestrutura Física. São Paulo: PM Books, 2016.
MARIN, P.S. Data Centers – desvendando cada passo: conceitos, projeto, infraestrutura
física e eficiência energética. São Paulo: Editora Érica Saraiva, 2013.
MARIN, P.S. Coluna Interface. Revista RTI. São Paulo: Aranda Editora, Ano 15, N° 168,
maio/2014.
MARIN, P.S., Coluna Interface. Revista RTI. São Paulo: Aranda Editora, Ano 13, N° 147,
ago/2012.
MARIN, P.S., Coluna Interface. Revista RTI. São Paulo: Aranda Editora, Ano 16, N° 189,
fevereiro/2016.
115
Universidade do Sul de Santa Catarina
Considerações finais
Reunimos em quatro entrevistas o que há de melhor e mais avançado em conceitos e
infraestrutura de datacenters, ao discutirmos item a item, tópico a tópico, todos os seus
sistemas fundamentais com o eminente Prof. Dr. Paulo Marin, que tem sido uma referência na
área já há muitos anos, e tem expandido sua influência internacional ao participar de forma
ativa em organismos de normatização nos Estados Unidos.
As entrevistas agruparam os temas em quatro conjuntos. O primeiro conjunto tratou
dos conceitos básicos e gerais dos datacenters, com suas definições, fundamentos,
recomendações da norma brasileira, visão geral e aspectos como o da classificação em níveis
de acordo com a estimativa de tempo de “uptime”, ou seja, de funcionamento contínuo,
sem quedas. O segundo conjunto teve foco na questão da energia elétrica, distribuição
interna da energia, equipamentos de provisão ininterrupta, grupos geradores e topologias de
redundância. O terceiro conjunto centrou-se no aspecto da climatização e de como devem
ser projetados e instalados os sistemas de condicionamento do ar, ventilação e insuflação, e
novas tecnologias como o “free cooling”. O quarto e último conjunto remete aos sistemas de
automação, plataformas de software para a gestão, cabeamento de comunicação e segurança
contra sinistros e patrimonial.
Nesses diálogos, estamos certos de que aprofundamos com muita clareza e objetividade os
conceitos e os aspectos que dão origem aos datacenters atuais, desde a fase da concepção
e projeto até instalação e operação da infraestrutura. Com a vantagem de termos essas
informações sendo tratadas por quem está atuando na fronteira das novas tecnologias
relacionadas a datacenters. Concluímos, assim, com o agradecimento ao Prof. Dr. Paulo
Marin, que nos atendeu prontamente com suas respostas e variadas sugestões, sempre no
mais alto nível. Obrigado!
Prof. Mauro Faccioni Filho.
116

Conteudista
Mauro Faccioni Filho
Graduado em Engenharia Elétrica pela Universidade Federal de Santa Catarina (UFSC),
em 1985. Mestrado e doutorado em Engenharia Elétrica pela UFSC, em 1997 e em 2001,
respectivamente. Durante a pesquisa do projeto de mestrado, em 1999, realizou estágio na
University of Nottingham, Inglaterra. Pós-Doutorado no tema “Social Network Analysis” pela
University of London, Queen Mary College, em 2006.
Na UFSC, foi colaborador em pesquisas de eletromagnetismo e modelagem numérica no
Laboratório Maglab, de 2001 a 2003. Diretor do Centro de Tecnologia em Automação e
Informática, CTAI/SENAI, de 2002 a 2004.
Em Literatura, publicou livros de poesia, Olhos cegos, Editora Letras Contemporâneas, 2004;
Duplo dublê, Editora Letras Contemporâneas, 2002; Helenos, Editora Letras Contemporâneas,
1998. Coeditor da Revista Babel, Poesia e Crítica, de 2000 a 2002.
Certificado ATD pelo Uptime Institute (USA) e membro do comitê CE-03:046.05, Norma
14565:2013 da ABNT. Recebeu, em 2012, pelo desenvolvimento da plataforma de software
DataFaz DCIM, o prêmio “Ideia para o Futuro & Conceitos de Design”, do DatacenterDynamics
Awards.
Diretor e sócio-fundador das empresas Fazion Sistemas Ltda. (plataformas e aplicativos para
celulares) e Creare Fazion Ltda. (soluções de infraestrutura e automação para Data Centers).
Coordenador e professor de curso superior e de pós-graduação da Universidade do Sul de
Santa Catarina (UNISUL), na modalidade da educação a distância (UnisulVirtual).
117
View publication stats
Download