Data centers: cenário atual do setor no Brasil e perspectivas
Atualmente há 42 projetos de grandes data centers registrados no Brasil, segundo o Ministério de Minas e Energia. A demanda máxima acumulada pode atingir 15,2 GW até 2035, caso todos os empreendimentos obtenham pareceres favoráveis de acesso à rede.
Elevando o desempenho dos data centers de IA com fibra multimodo e polimento APC
Com a expansão dos data centers para IA - Inteligência Artificial, o volume de dados tende a crescer exponencialmente. A integração da fibra OM5 com conectores MPO APC surge como uma solução robusta.
CONECTORIZAÇÃO26
Cargas de trabalho de IA e o futuro da infraestrutura de TI
Os crescentes requisitos de computação continuam desafiando a infraestrutura digital para garantir eficiência energética nos data centers, que deverão passar por uma grande transformação para atender às demandas das cargas de trabalho de IA.
DATA CENTERS30
Guia de produtos para infraestrutura de data centers
Veja quem fornece os produtos para a infraestrutura de data centers, como sistemas de energia, climatização, cabeamento, racks, proteção contra incêndio, automação e segurança, garantindo a confiabilidade das operações de missão crítica.
SERVIÇO38
Segurança cibernética em redes de banda larga fixa de provedores – Parte 2
Na segunda parte deste artigo, são apresentados os mecanismos e políticas de conexão em redes de transporte e interconexão, com ênfase na segurança implementada no BGP.
ACESSO44
Comparativo do custo total de propriedade de data centers tradicionais e modulares
Data centers tradicionais e modulares apresentam diferenças não apenas técnicas, mas também em custos. O artigo explora como essas duas abordagens impactam o custo total de propriedade (TCO) ao longo de 10 anos. CONSTRUÇÃO50
Como a alvenaria steel frame pode simplificar a construção de um data center
O steel frame é composto por perfis de aço galvanizados, com painéis de diversos tipos, oferecendo leveza, resistência e praticidade a uma edificação. O artigo apresenta as principais vantagens e desvantagens desse material. INFRAESTRUTURA54
Tecnologias PON atuais e o caminho para PON 25G e 50G
À medida que a demanda por uma Internet mais rápida e confiável continua a aumentar, tanto a PON 25G quanto a PON 50G têm seus papéis a desempenhar para permitir a expansão da banda larga e a próxima geração de experiências digitais. REDES
Capa: Helio Bettega Foto: Shutterstock
SEÇÕES
As opiniões dos artigos assinados não são necessariamente as adotadas por RTI, podendo mesmo ser contrárias a estas.
Do EPC à Missão Crítica: A História de Sucesso da Construcap
Uma história de excelência em engenharia e construção
A Construcap é um dos pilares da engenharia e construção no Brasil, com mais de 80 anos de história. Desde sua fundação, em 1944, até os dias atuais, a empresa consolidou-se por sua capacidade técnica, inovação e compromisso com a sustentabilidade. Atuando em múltiplos setores estratégicos, a Construcap construiu uma reputação sólida, baseada na entrega de projetos complexos, como os EPCs de Óleo e Gás — e no atendimento rigoroso às necessidades de grandes clientes, como Vale, Petrobras e empresas Hyperscale
Primeiro grande projeto de DC: o marco inicial
Em 2022, a Construcap assumiu o seu primeiro projeto de data center de grande porte para um cliente americano de hyperscale — uma das maiores empresas globais do setor de tecnologia. Este projeto não foi uma obra iniciada do zero, mas sim a retomada de uma construção que outra construtora não estava conseguindo finalizar com a qualidade e agilidade exigidas.
Este contexto representou um desafio significativo: havia um prazo curto para entrega, o contrato era baseado no modelo americano de open book, conhecido pela alta exigência e detalhamento, e o comissionamento tinha um nível de criticidade elevado, exigindo precisão e controle extremo.
Apesar das dificuldades, a Construcap conseguiu entregar o projeto dentro do prazo estipulado, com um resultado impressionante: apenas 9 pendências no término do comissionamento, número muito baixo para obras dessa complexidade.
“Este projeto demonstrou nossa capacidade de adaptação e excelência técnica, comprovando que podemos atuar em segmentos de altíssima criticidade e desempenho.” — Lucas Azevedo Capobianco – Superintendente de obras da Contrucap
Consolidação e expansão da atuação em data centers
Após esse marco inicial, a Construcap não apenas manteve sua presença, como ampliou significativamente sua participação no mercado de data centers.
Projetos subsequentes e novos sites
Foram realizadas mais seis fases do projeto para o mesmo cliente, consolidando a parceria e fortalecendo o conhecimento técnico da equipe. Além disso, a Construcap foi contratada para outro site do mesmo cliente na região de Paulínia, e também assumiu a conclusão do primeiro site em Jundiaí.
Em ambas as localizações, o diferencial da Construcap ficou evidente:
• Zero pendências no comissionamento final para entrega da operação ao cliente, evidenciando um processo de qualidade absoluto e controle rigoroso.
• O modelo 3D do projeto tornou-se referência mundial para o cliente hyperscale, reconhecendo a Construcap como exemplo em inovação tecnológica aplicada à construção.
• Aplicação de um modelo 4D, integrando o modelo tridimensional com o cronograma da obra, prática pouco difundida no Brasil, que possibilitou controle visual, identificação precoce de riscos e tomada de decisão ágil.
Atingindo marcos contratuais na América Latina
Ao assumir o projeto em 2022, a Construcap foi a primeira empresa na América Latina a atingir todos os marcos contratuais estabelecidos pelo cliente hyperscale, um feito que reforça o padrão elevado da empresa em gestão, execução e entrega.
A Construcap foi a 1ª empresa do mundo a atingir zero itens pendentes (Punch list) na data marco final de entrega de um projeto de Data Center, um feito inédito que comprova sua excelência operacional e atenção aos mínimos detalhes.
Fatores determinantes para o sucesso da Construcap em data centers
O êxito nos projetos de data centers da Construcap não é fruto do acaso, mas resultado de um conjunto de fatores estruturados e integrados.
1. Equipe unida e coesa
A cultura interna da Construcap valoriza o trabalho colaborativo, a comunicação transparente e o alinhamento entre equipes multidisciplinares. Isso garante agilidade na resolução de problemas e uma visão conjunta dos objetivos.
2. Planejamento técnico avançado e metodologia robusta
A Construcap adota um planejamento altamente técnico, que valoriza a interface entre obra e planejamento, garantindo que as ações sejam sincronizadas e rastreáveis.
Um destaque é o uso de metodologia de avaliação de cronograma, reconhecida internacionalmente, que auxilia na medição e melhoria da performance em projetos.
Esses pontos incluem:
3. Proatividade e relacionamento com o cliente
Outro ponto crucial para o sucesso foi a postura proativa da Construcap. A empresa não espera apenas as demandas, mas antecipa problemas, identificando falhas e oferecendo soluções, mesmo para questões originadas de projetos entregues por outras construtoras. Essa postura gera valor, aumenta a confiança do cliente e fortalece a parceria,
transformando a Construcap em um agente que agrega qualidade além do contrato original.
Inovação e tecnologia a serviço da construção
A Construcap tem investido continuamente em tecnologias digitais para elevar a qualidade e a eficiência dos projetos:
Lean Construction: Práticas que eliminam desperdícios, otimizam recursos e melhoram a produtividade.
BIM (Building Information Modeling): O uso do BIM permite a criação de modelos digitais integrados, facilitando o planejamento, a execução e a manutenção da obra, além de evitar retrabalhos e erros.
Sustentabilidade e eficiência energética
Em consonância com as demandas globais, a Construcap prioriza a sustentabilidade em seus projetos, buscando soluções que minimizem impactos ambientais e promovam eficiência energética, aspectos fundamentais em data centers, que são grandes consumidores de energia.
Visão para o futuro
Com a experiência adquirida, a Construcap está preparada para ampliar sua atuação em data centers, um mercado que cresce exponencialmente e exige cada vez mais soluções técnicas sofisticadas, rapidez e confiabilidade.
O compromisso da empresa com inovação, qualidade e sustentabilidade será fundamental para atender às demandas crescentes, reforçando sua posição como referência no setor.
Conclusão
A Construcap é um exemplo claro de empresa que alia tradição e inovação. Sua história de mais de 80 anos no mercado brasileiro de engenharia e construção é marcada por entregas de alta complexidade e qualidade, agora ampliada para o segmento crítico de data centers.
O sucesso recente com grandes clientes hyperscale comprova sua capacidade técnica, gestão eficiente e postura proativa, atributos essenciais para enfrentar os desafios de um mercado em rápida transformação.
Lucas Capobianco, terceira geração da família, está à frente dos projetos de Data Centers da Construcap, garantindo a excelência e mantendo o padrão de qualidade em tudo que a Construcap executa
(11) 3017 8000
Assim, a Construcap se posiciona não apenas como uma construtora, mas como uma parceira estratégica para empresas que buscam infraestrutura crítica confiável, inovadora e sustentável. www.construcap.com.br/pt/home
EDITORIAL
mercado de data centers no Brasil está em plena expansão, impulsionado pela crescente demanda por IA - Inteligência Artificial e computação em nuvem. Esse movimento tem gerado um aumento significativo no consumo de energia dessas instalações. Projetos bilionários anunciados recentemente, como a Rio AI City, no Rio de Janeiro, que contará com uma capacidade inicial de 1,5 GW e poderá chegar a 3,2 GW, demonstram o tamanho dos investimentos e a importância estratégica do país para o setor na América Latina.
O Brasil tem potencial para atrair investimentos globais graças à sua matriz energética limpa, custos competitivos e localização geográfica privilegiada, próxima aos Estados Unidos. Esses fatores facilitam a conectividade e reduzem a latência, posicionando o país como um polo emergente para grandes operações de TI.
Os desafios para a infraestrutura elétrica, no entanto, são significativos. Em março de 2025, havia 42 projetos de data centers registrados no MME - Ministério de Minas e Energia. Caso todos obtenham pareceres favoráveis pelo ONS - Operador Nacional do Sistema Elétrico, a demanda máxima acumulada poderá alcançar 15,2 GW até 2035. Para garantir a estabilidade e o atendimento dessas cargas ultra-eletrointensivas, serão necessários investimentos robustos na rede de transmissão. Atualmente, há gargalos na conexão de grandes projetos à rede básica do SIN - Sistema Interligado Nacional, especialmente no Nordeste, onde a capacidade de escoamento já está saturada. Isso tem levado o ONS a vetar novos acessos.
Além da infraestrutura, o setor enfrenta desafios regulatórios e fiscais. As altas taxas sobre equipamentos, especialmente GPUs importadas, encarecem os investimentos. Em resposta, o governo federal trabalha na criação de uma política nacional para data centers, que prevê um regime especial com isenções para incentivar o setor.
O Brasil possui vantagens competitivas claras para se destacar no mercado global de data centers voltados à IA. No entanto, para capitalizar plenamente essa oportunidade, será necessário superar desafios estruturais, ajustar a carga tributária e avançar na regulamentação da tecnologia. O momento é crucial para o país consolidar-se como um hub de data centers na América Latina, com potencial para atrair bilhões em investimentos e impulsionar a economia digital. O equilíbrio entre crescimento da demanda energética, sustentabilidade e eficiência operacional será determinante para o sucesso desse novo ciclo de expansão.
ARANDA EDITORA TÉCNICA CULTURAL LTDA. EDITORA TÉCNICA CULTURAL LTDA.
Diretores: Diretores: Diretores: Diretores: Diretores: Edgard Laureano da Cunha Jr., José Roberto Gonçalves, e José Rubens Alves de Souza (in memoriam )
REDAÇÃO REDAÇÃO REDAÇÃO REDAÇÃO REDAÇÃO: Diretor Diretor: José Rubens Alves de Souza ( in memoriam )
SECRETÁRIAS DE REDAÇÃO E PESQUISAS: DE PESQUISAS: Milena Venceslau e Sabrina Emilly dos Anjos Costa
PUBLICIDADE NACIONAL: NACIONAL: Gerente comercial comercial: Élcio S. Cavalcanti
Contatos: Contatos: Rodrigo Lima (rodrigo.lima@arandaeditora.com.br) Priscilla Cazarotti (priscilla.cazarotti@arandaeditora.com.br)
REPRESENTANTES REPRESENTANTES: Paraná e Santa Catarina: Paraná Santa R omildo Batista Rua Carlos Dietzsch, 541, cj. 204 – Bloco E – 80330-000 – Curitiba Tel.: (41) 3501-2489 – Cel.: (41) 99728-3060 – romildoparana@gmail.com
Rio de Janeiro e Interior de São Paulo: Rio de e de São Paulo: de Paul o: Guilherme Carvalho Tel. (11) 98149-8896 – guilherme.carvalho@arandaeditora.com.br Rio Grande do Sul: Rio Sul: Rio Grande do Sul: Rio Sul: Maria José da Silva Tel.: (11) 2157-0291 – Cel.: (11) 98179-9661 – maria.jose@arandaeditora.com.br
INTERNATIONAL ADVERTISING SALES ADVERTISING REPRESENTATIVES
China: China: China: Mr. Weng Jie – Zhejiang International Adv. Group – 2-601 Huandong Gongyu, Hangzhou Zhejiang 310004, China Tel.: +86 571 8515-0937 – jweng@foxmail.com Germany: IMP InterMediaPro e K. – Mr. Sven Anacker –Starenstrasse 94 46D – 42389 Wuppertal Tel.: +49 202 373294 11, sa@intermediapro.de
Italy: QUAINI Pubblicità – Ms. Graziella Quaini Via Meloria 7 – 20148 Milan Tel: +39 2 39216180 – grquaini@tin.it
Japan: Japan: Japan: Japan: Japan: Echo Japan Corporation – Mr. Ted Asoshina Grande Maison Room 303, 2-2, Kudan-kita 1-chome, Chiyoda-ku, Tokyo 102-0073, Japan Tel: +81-(0)3-3263-5065 – e-mail: aso@echo-japan.co.jp
Korea: JES Media International – Mr. Young-Seoh Chinn 2nd Fl., ANA Building, 257-1 Myeongil-Dong, Gangdong-gu Seoul 134-070 Tel: +82 2 481-3411 – jesmedia@unitel.co.kr
Spain: Spain: Spain: Spain: GENERAL DE EDICIONES – Mr. Eugenio A. Feijoo C/Juan de Olia, 11-13, 2a. Planta 28020 Madri Tel: +34 91 572-0750 – gee@gee.es
Switzerland Switzerland Switzerland: Mr. Rico Dormann, Media Consultant Marketing Moosstrasse 7, CH-8803 Rüschlikon Tel: + 41 1 720-8550 – beatrice.bernhard@rdormann.ch
Taiwan: WORLDWIDE S Services Co. Ltd. – Mr. Robert Yu 11F-B, No 540, Sec. 1, Wen Hsin Road, Taichung Tel: +886 4 2325-1784 – global@acw.com.tw
UK: UK: Robert G Horsfield International Publishers –Mr. Edward J. Kania Daisy Bank, Chinley, Hig Peaks, Derbyshire SK23 6DA Tel.: (+44 1663) 750-242, Cel.: (+44 7974) 168188 – ekania@btinternet.com USA USA USA: Ms. Fabiana Rezak - 2911 Joyce Lane, Merryck, NY 11566 USA Tel.: +(1) 516 476-5568 – arandausa@optonline.net
ADMINISTRAÇÃO ADMINISTRAÇÃO ADMINISTRAÇÃO: Diretor administrativo: Diretor administrativo: Diretor administrativo: Edgard Lau reano da Cunha Jr. CIRCULAÇÃO CIRCULAÇÃO CIRCULAÇÃO: São Paulo: Clayton Santos Delfino tel. (11) 3824-5300 e 3824-5250
ASSISTENTES DE PRODUÇÃO: ASSISTENTES DE PRODUÇÃO: ASSISTENTES DE PRODUÇÃO: ASSISTENTES DE PRODUÇÃO: Vanessa Cristina da Silva e Talita Silva
PROJETO VISUAL GRÁFICO, DIAGRAMAÇÃO E EDITORAÇÃO ELETRÔNICA
PROJETO VISUAL E ELETRÔNICA Estúdio AP
SERVIÇOS SERVIÇOS SERVIÇOS: Impressão: Impressão: Impressão: Impressão: Ipsis Gráfica e Editora S.A. Distribuição: Distribuição: ACF - Ribeiro de Lima/Intercourier
A revista RTI - Redes, Telecom e Instalações é enviada a 12.000 profissionais das áreas de telecomunicações; redes locais, informática e comunicação de dados; instalações; TV por assinatura; áudio e vídeo; segurança (CFTV e alarmes); automação predial e residencial; e sistemas de energia, aterramento e proteção elétrica. ISSN 1808-3544
RTI Redes, Telecom e Instalações, revista brasileira de infraestrutura e tecnologias de - Telecom e Instalações, brasileira infraestrutura e tecnologias comunicação, é uma publicação da Aranda Editora Técnica Cultural Ltda. Aranda Editora Técnica Aranda Editora Técnica Cultural Ltda. Aranda Editora Técnica Redação, Publicidade, Administração, Circulação e Correspondência: Redação, Administração, Circulação e Correspondência: Alameda Olga, 315 - 01155-900 - São Paulo - SP - Brasil. Tel.: + 55 (11) 3824-5300 e 3824-5250 inforti@arandanet.com.br – www.arandanet.com.br
mbientes de missão crítica exigem infraestrutura altamente especializada e de rápida implementação. Para atender a essa demanda, o engenheiro mecânico Juraci Joel Nardini e o administrador Valdecir Perosin, profissionais com mais de 38 anos de experiência no setor de mobiliário técnico, racks e gabinetes para TI e data centers, lançaram a Facilitadores de Negócios, um hipermercado fabril focado em inovação e tecnologia.
A novidade no mercado brasileiro reúne um amplo portfólio de produtos e serviços de diversos fabricantes em um único local, atendendo segmentos como data centers, salas de controle, ambientes industriais, hospitais e estúdios de broadcast. A empresa oferece soluções especializadas, incluindo móveis técnicos, racks 19”, túneis e confinamentos, cages, forros, bandejamento para cabos, carrinhos de data centers e consoles NOC, além de estruturas para refrigeração, controle de acesso, segurança e otimização de espaços e energia.
A plataforma também desenvolve projetos customizados em aço ou alumínio, com ou sem projeto técnico prévio. O modelo de hipermercado fabril é inspirado no conceito norte-americano Connector, sendo pioneiro no Brasil. Um dos grandes diferenciais da Facilitadores de Negócios é o atendimento personalizado. “Criamos um ecossistema de empresas de alta performance, onde falamos diretamente com os fabricantes. O cliente não arca com custos adicionais, pois a negociação é feita diretamente com o fornecedor”, explica Nardini.
Cada projeto passa por uma análise detalhada de especialistas, que orientam os clientes na escolha das melhores soluções para mobiliários técnicos, sistemas de monitoramento e organização de componentes. Além disso, há acompanhamento completo do início ao fim do projeto, garantindo que as soluções entregues atendam plenamente às necessidades específicas de cada cliente. Os produtos são fabricados sob medida, respeitando as normas nacionais e internacionais. A empresa trabalha com os
principais fabricantes e fornecedores do mercado, assegurando que as soluções entregues sejam tecnologicamente avançadas e certificadas.
Além dos data centers, a Facilitadores de Negócios atende salas de controle, operação e segurança, ambientes industriais, centros logísticos, hospitais e estúdios de broadcast. Desde seu lançamento, a plataforma vem conquistando espaço e reconhecimento. “Já apresentamos em duas feiras, a Intermodal e a Feira da Mecânica, e a receptividade foi excelente”, destaca Nardini.
Facilitadores de NegóciosTel. (15) 98154-0250 e (11) 98705-1037 Site: https://www.facilitadoresdenegocios.com.br
EUA, e opera globalmente, com instalações nos EUA, Reino Unido (KFI-UK) e Índia (KTI-Índia).
De acordo com Tiago Marques, diretor de vendas da KiddeFenwal para a América Latina e Caribe, não há vínculo de propriedade entre a KiddeFenwal (marcas Kidde Fire Systems e Kidde Fire Protection), a outras empresas que levam o nome Kidde.
É o caso da Kidde Global Solutions (KGS), vendida pela Carrier Global para a Lone Star Funds em 2024 e que reúne, globalmente, marcas como Kidde, Edwards, GST, Badger, Gloria e Aritech. A KGS está presente no Brasil desde meados da década de 1990, com sede em São Paulo e fábrica em Extrema, MG.
m 2024, várias empresas que carregam o nome Kidde se separaram da Carrier Global Corporation. Dentre elas, a Kidde-Fenwal, LLC (ou KiddeFenwal), especializada em projeto e fabricação de sistemas de supressão de incêndio e controles de segurança industriais e comerciais. As marcas Kidde Fire Systems e Kidde Fire Protection oferecem sistemas de supressão, detecção e controle de incêndio de alta engenharia para os setores industrial, comercial e marítimo. A Fenwal Controls oferece suporte a OEMs com produtos de ignição a gás, controle de temperatura e detecção de superaquecimento. A KiddeFenwal tem sede em Ashland,
Segundo Marcelo Zeppelini, diretor geral da KGS na América Latina, a empresa atua em três grandes segmentos. O primeiro é a integração de sistemas de incêndio, com foco principalmente no mercado industrial. O segundo envolve a comercialização de produtos de combate a incêndios da marca Kidde, como extintores, mangueiras e espuma sem flúor. “E a última área abrange sistemas de detecção e alarme de incêndio de marcas reconhecidas, como Edwards e Kidde, destinados a mercados de maior complexidade, como data centers, shoppings e edifícios empresariais”, afirma. Neste momento, a empresa está expandindo globalmente suas marcas. A primeira ação nesse sentido é o lançamento da chinesa GST na América Latina. “Com mais de 22 milhões de detectores e 440 mil painéis vendidos, a GST é líder na Ásia, oferecendo soluções de menor complexidade, mas com certificações internacionais”, explica Marcelo Kerhart, Head de Marketing e Desenvolvimento de Negócios da KGS na América Latina. Outras estratégias no radar da KGS incluem ampliar os investimentos no segmento de serviços e integração de sistemas de incêndio, fortalecer contratos de longo prazo com multinacionais e desenvolver projetos de alta complexidade em todos os setores da economia, além de investir em um inventário local em Extrema, onde está situada sua unidade industrial fabricante de extintores, mangueiras e espuma sem flúor. “Essa iniciativa visa proporcionar maior agilidade na entrega dos produtos, que atualmente
pode levar de 90 a 120 dias, dependendo do item. Com a nova estrutura, a expectativa é reduzir significativamente esse prazo”, informa a empresa.
KiddeFenwal – Tel. (11) 98987-1230
Site: www.kiddefenwal.com
Kidde Global Solutions (KGS) –
Tel. (19) 2101-8400
Site: www.kidde.com/fire-safety/pt/br/
Hotwork Brasil, uma empresa com 30 anos de experiência em engenharia térmica, apresenta com exclusividade ao mercado brasileiro o Ecofire, um agente de extinção de incêndio com uma eficácia 30 vezes superior à da água. Desenvolvido e patenteado por empresa de mesmo nome, na Espanha, o Ecofire é versátil, podendo ser utilizado em diversas instalações, como data centers, indústrias, armazéns e até mesmo em áreas abertas como campos e florestas.
“Formulado à base de água e materiais orgânicos de nível alimentar, o Ecofire é seguro para seres humanos, animais e plantas. Não gera gases tóxicos, não é corrosivo e atende a todas as classes normativas de fogo: A, B, B(II), D e K. É 100% ecológico, 100% orgânico, 100% biodegradável”, afirma Julio Blanco, especialista de produto da Hotwork.
O Ecofire visa reduzir o tempo de combate ao fogo, mantendo-o inerte sem reignição, encapsulando a fumaça e prevenindo intoxicações. O líquido adere às superfícies e mantém suas propriedades até ser removido com água, sem deixar marcas.
“O agente não requer manutenção e tem cinco anos de durabilidade”, acrescenta Blanco. Uma outra vantagem é o rendimento. “1 litro de Ecofire equivale a 40 a 50 litros de água, com 100% de eficiência, mesmo em materiais de alta combustão como gasolina”, explica.
A integração do Ecofire aos sistemas de combate a incêndio é simples, compatível com sprinklers e detectores automáticos, substituindo água, gases ou outros fluidos sem necessidade de modificações na infraestrutura existente. Modular e escalável,
a solução pode ser adaptada para diferentes necessidades, desde pequenos armazéns até grandes refinarias. “A engenharia do sistema permite uma montagem rápida e adaptável, adequando-se a diversos layouts e volumes de armazenamento”, destaca Blanco. Disponível em embalagens que variam de 5 a 1000 litros (e até 25 mil litros sob encomenda), o Ecofire pode ser aplicado manualmente por pulverização e através de sistemas de pressão automatizados, inclusive drones vaporizadores de até 50 litros.
Desenvolvido de acordo com normas internacionais de proteção contra incêndios, como a NFPA 704 - National Fire Protection Association, o Ecofire é indicado para indústrias em geral, com destaque para setores como data centers, plataformas offshore, refinarias, indústrias químicas, petroquímicas, óleo e gás, armazéns logísticos e outras instalações que demandam proteção avançada contra incêndios em conformidade com rigorosos padrões de segurança. “O Ecofire apaga incêndios em baterias de lítio em veículos elétricos em segundos. É o único produto certificado que previne a propagação de incêndios em baterias elétricas”, reforça Blanco.
Fabricado com materiais recicláveis e alinhado às metas de ESG, o Ecofire é uma nova opção para empresas que buscam reduzir riscos e contribuir para um futuro sustentável. “Estamos entusiasmados em oferecer um produto que não só protege ativos e vidas, mas também ajuda as empresas a reduzir seu impacto ambiental. Com uma estratégia clara para 2025, incluindo expansão geográfica e parcerias estratégicas, o Ecofire está pronto para
liderar a transformação em um setor que busca constantemente por inovação e responsabilidade”, conclui Blanco.
Hotwork – Tel. (21) 2018-4676
Site: https://hotworkbrasil.com.br
Intelbras apresentou os novos UPS trifásicos de média e alta potência, que fazem parte da expansão de portfólio da empresa. O evento de lançamento, realizado em São Paulo, no dia 8 de maio, reforçou o posicionamento da marca como uma fornecedora de soluções completas em energia, segurança e conectividade.
Com foco em ambientes críticos, como data centers, governo, indústrias e redes de telecomunicações, os produtos foram desenvolvidos para garantir fornecimento ininterrupto de energia, atuando como uma camada de proteção contra variações e falhas na rede elétrica.
Entre os diferenciais técnicos dos novos produtos, está o W-ECO, um filtro ativo acoplado que melhora o fator de potência das cargas em modo ECO, contribuindo para a eficiência energética e redução de custos com multas. Também foram destacados os serviços de suporte e projeto oferecidos pela Intelbras, que acompanham o parceiro desde o planejamento até a instalação e ativação da solução.
“A energia ininterrupta é uma demanda estratégica de setores que operam 24/7. Mais do que manter equipamentos ligados, tratase de garantir a continuidade de processos e preservar investimentos”, destacou Rubens Lorenço Neto, gerente de produto e negócios de UPS.
A nova linha já está disponível em todo o Brasil e integra o portfólio de energia da Intelbras, que segue em expansão para atender às crescentes demandas por infraestrutura elétrica segura, inteligente e resiliente. “Tudo isso com o suporte de uma ampla rede de canais parceiros, distribuída estrategicamente em todo o território nacional, preparada para atender com agilidade e expertise projetos de diferentes portes e complexidades”, diz. Com modelos que vão de 10 a 200 kVA e
INFORMAÇÕES
diversas opções de topologias, como torre (TW) e rack (RT), a linha oferece eficiência de até 96%, fator de potência 1, operação em diferentes modos (3:3, 3:1 e 1:1) e alta capacidade de sobrecarga. Entre os principais diferenciais estão o paralelismo de até quatro unidades com acessórios já inclusos, o modo W-ECO com correção ativa de fator de potência, display multifuncional com captura de ondas e conectividade completa via SNMP, Modbus e RS485. Além disso, os
UPS contam com ventoinhas inteligentes, proteção avançada em todos os modos, e suporte para bateria externa com gestão inteligente, assegurando adaptabilidade, confiabilidade e segurança para aplicações de missão crítica.
Intelbras – Tel. (48) 2106-0006
Site: https://www.intelbras.com/pt-br/
TGL Telecom conta com um laboratório próprio para a realização de testes químicos e mecânicos, garantindo a eficácia dos produtos e matérias-primas. Além disso, possui um departamento de engenharia focado no desenvolvimento de soluções sob medida.
“Um dos principais diferenciais da TGL Telecom é o compromisso com a qualidade dos produtos”, diz o diretor Guilherme Bellinassi. A empresa trabalha exclusivamente com matéria-prima da Belgo, adquirida diretamente da usina, o que assegura um rigoroso controle de qualidade e praticamente elimina devoluções.
“Enquanto o mercado tende a reduzir custos à custa da qualidade, nós apostamos na excelência dos produtos, negociando com fornecedores para oferecer produtos de alto padrão a preços competitivos”, afirma.
Modular Data Centers, empresa brasileira especializada em engenharia e construção de data centers modulares, apresentou na Abrint Global Congress 2025 o EdgePod, uma solução all-in-one para computação de borda, voltada a provedores de Internet e operadoras de telecomunicações.
Construído em uma estrutura baseada no padrão ISO de contêiner (20 e 40 pés), o EdgePod está disponível em cinco modelos, com capacidades de 30 a 80 kW, podendo abrigar de 2 a 13 racks de TI. A solução integra sistemas essenciais, como painéis elétricos, UPS/retificador, combate a incêndio, controle de acesso, segurança antivandalismo, cabeamento e ar-condicionado de precisão, além de oferecer opções de redundância N, N+1 e 2N.
restes a completar quatro anos de fundação, a TGL Telecom, sediada em Sorocaba, SP, vem se consolidando na fabricação de ferragens, alças pré-formadas e arames para espinar redes de fibra óptica. Desde sua criação, em 2021, a empresa tem registrado um crescimento significativo, dobrando seu faturamento ano após ano. No ano passado, ampliou sua estrutura com a inauguração de um centro de distribuição de 1400 m². No mesmo período, atendeu mais de 900 clientes e entregou mais de 3500 pedidos, contando atualmente com uma equipe de 65 colaboradores.
Fundada por Guilherme Bellinassi e Lurdes Bellinassi, que acumulam ampla experiência no setor de telecomunicações, a
Outro ponto de destaque é a confiabilidade dos produtos. “Nenhum material da TGL Telecom jamais esteve envolvido em quedas de rede por escorregamento ou falhas na ferragem, reforçando sua reputação no setor”, diz a diretora Lurdes Belinassi.
Inicialmente focada em um único produto, a empresa cresceu exponencialmente nos últimos três anos e diversificou seu portfólio para incluir ferragens, alças pré-formadas e, mais recentemente, arames de espinar, lançados em janeiro de 2025. Atualmente, a TGL Telecom atende os principais distribuidores de telecom com cobertura nacional e internacional. Além disso, a empresa atende os grandes provedores de Internet e avança em processos de homologação junto às operadoras.
TGL Telecom – Tel. (15) 4141-3308 n
Site: https://tgltelecom.com.br/
Plug and play, a implementação do EdgePod pode ser até 60% mais rápida em comparação aos modelos tradicionais, reduzindo o TCO e permitindo um investimento escalável pelo modelo pay-asyou-grow. Para facilitar a aquisição, a empresa oferece opções de financiamento via BNDES.
Por ser transportável, o EdgePod também oferece flexibilidade de mobilidade, podendo ser realocado para outro local conforme a necessidade do cliente. “Uma vantagem importante em projetos que exigem agilidade e adaptação ao crescimento de demanda ou mudanças de estratégia operacional”, afirma Leandro Luiz, gerente de Engenharia de Aplicação e Produtos da Modular Data Centers.
Com uma fábrica de 50 mil m² em Santana de Parnaíba, SP, e capacidade de produção de cerca de 100 módulos por mês, a empresa
INFORMAÇÕES
atua desde a preparação até a montagem dos sistemas, garantindo qualidade e eficiência no processo. A Modular Data Centers já entregou mais de 100 projetos não apenas no Brasil, mas também em países como Chile, Colômbia, México e Guatemala. “Pegamos nosso know-how em data centers modulares e desenvolvemos esse modelo plug and play para o mercado de telecom. Temos escala para produzir e enviar rapidamente o EdgePod para clientes em qualquer lugar do Brasil e do mundo”, finaliza o executivo.
Modular Data Centers – Tel. (11) 5198-7374
Site: https://modulardtc.com/
onhecer as experiências reais dos assinantes por meio de métricas de desempenho de rede e definição de análises estratégicas é fundamental para garantir o sucesso dos provedores de Internet no concorrido mercado de banda larga. A Ookla, empresa global especializada em inteligência de conectividade e sediada nos EUA, oferece soluções que auxiliam operadoras, empresas, bancos e governos com dados críticos para otimizar redes e aprimorar experiências digitais.
Entre os produtos mais populares da Ookla está o Speedtest, amplamente reconhecido por medir a velocidade da conexão à Internet. “Mas sua atuação vai muito além disso”, afirmou Lourenço Lanfranchi, Head of Sales for LATAM da Ookla. A ferramenta gera informações detalhadas sobre a experiência do usuário, incluindo satisfação ao utilizar serviços de streaming de vídeo, navegação na web, jogos online e videoconferências. Além da velocidade de download e upload, o Speedtest analisa fatores essenciais, como latência, jitter, perda de pacotes, qualidade do sinal e até mesmo a frequência utilizada pelo usuário, como 2,4 ou 5 GHz. Esses dados permitem identificar limitações na experiência do usuário, como a distância do modem ou restrições do próprio dispositivo, garantindo que os provedores tenham uma visão mais ampla sobre a performance da rede.
A Ookla licencia essas informações para os provedores de Internet, possibilitando uma análise técnica aprofundada da qualidade da rede, além de uma visão estratégica para decisões comerciais. Com mais de 200 campos de dados disponíveis, os provedores podem entender padrões de consumo, avaliar problemas, estabelecer metas de qualidade e até mesmo usar as informações para estratégias de marketing e atendimento ao cliente. O modelo é baseado em nuvem, permitindo que os provedores acessem um portal exclusivo onde podem baixar e analisar os dados, gerando insights valiosos sobre a performance da rede e a experiência dos usuários.
Segundo Lanfranchi, o mercado brasileiro de provedores é altamente competitivo e estratégico. O país concentra a maior quantidade de provedores do mundo e, nos últimos anos, o investimento massivo em fibra óptica proporcionou um desempenho superior ao de diversos países tradicionalmente reconhecidos pela qualidade da conexão, como Noruega, Nova Zelândia, Finlândia e Dinamarca. A alta competitividade entre os provedores resulta em melhorias constantes na qualidade do serviço, tornando o Brasil um mercado de grande interesse para empresas como a Ookla. Enquanto outras regiões, como Europa, Ásia e Estados Unidos, concentraram esforços no desenvolvimento do 5G, na América Latina o investimento foi fortemente direcionado para a expansão da fibra óptica, impulsionando um aumento significativo na qualidade da conectividade.
A estrutura da Ookla na América Latina reflete essa relevância do mercado regional. Apesar de o escritório principal estar localizado em Bogotá, na Colômbia, há
profissionais espalhados por toda a região, além de distribuidores que prestam serviços e suporte aos clientes. No Brasil, a empresa conta com três empresas parceiras que auxiliam na operação e expansão dos negócios, garantindo que as informações geradas sejam acessíveis e aplicáveis às necessidades dos provedores locais. Essa presença distribuída permite à Ookla atender a crescente demanda do setor na região e continuar expandindo sua atuação em um mercado que se mostra cada vez mais estratégico. Além do Speedtest, a Ookla oferece as soluções Downdetector, Ekahau e RootMetrics, todas voltadas para fornecer insights sobre rede e conectividade.
Ookla - www.ookla.com/consumer
MK Solutions, desenvolvedora de software de gestão para provedores, tem direcionado seus esforços na integração de novas tecnologias às suas soluções, como Chat GPT e IA – Inteligência Artificial, bem como em uma aproximação maior com os clientes.
Os dois objetivos foram instituídos por Mara Scarpini, CEO da companhia desde novembro do ano passado, que explica que as metas marcam o avanço de um projeto, iniciado em 2020. Na época, a TBG Investimentos adquiriu a MK Solutions e Tulio Barbosa, um dos investidores, assumiu o comando da desenvolvedora de software.
“A TBG continua à frente da MK Solutions, mas o Tulio já não faz mais parte da iniciativa. O primeiro objetivo da reestruturação era de transformar a empresa, até então com uma administração familiar, para uma hierarquia profissional, um processo que foi muito exitoso. Para a minha gestão, a ideia é nos aproximarmos ainda mais dos nossos clientes, entender suas dores e antecipar possíveis tendências de mercado”, salienta Mara.
Para elencar as principais necessidades de seus clientes, a executiva passou a atuar diretamente nos provedores, tendo visitado aproximadamente 25. Durante as visitas, a CEO utilizou o software da MK de dentro
INFORMAÇÕES
das empresas, simulando a experiência do usuário in loco e levantando possíveis pontos de melhorias.
“Estamos atualizando o MK 4, nosso software de gestão financeira, operacional e técnica, por módulos. O primeiro deles é o financeiro, um dos mais requisitados pelos usuários. A ideia é deixar a interface cada vez mais intuitiva, em uma plataforma que gere mais inteligência em termos de dados para a melhor tomada de decisões”, explica a CEO.
chamados microprovedores, que alugam a rede de uma operadora maior para conectar usuários de uma determinada região”, finaliza.
Com sede em Santa Cruz do Sul, RS, e escritório em São Paulo, a MK Solutions está presente em 25 dos 27 estados do Brasil. Sua equipe é composta por cerca de 150 colaboradores espalhados pelo país.
MK Solutions – Tel. (51) 3740-2900
Além do ERP MK 4, um dos principais destaques continua sendo o MK NextPay, um facilitador financeiro com recursos como controle de ações, histórico de movimentações, verificação de boletos atrasados e liberação automática de pagamentos. Uma de suas principais funcionalidades é permitir que o provedor faça cobranças via PIX. A aplicação realiza o cálculo apenas do valor líquido, excluindo taxas de emissão e cancelamento. Outra solução, voltada para dispositivos móveis, é o MK CRM+, aplicativo que permite executar ações de marketing, promoções e vendas de planos.
O portfólio da MK Solutions
ainda oferece produtos complementares ao MK 4, casos do MK Maps, voltado para a gestão da rede de fibra óptica; MK MULTI, para gerenciamento completo de filiais com acessos independentes; e do MK Agentes+, aplicação para técnicos de campo que permite gerenciar ordens de serviço, registrar fotos, coletar assinaturas digitais e salvar relatórios em tempo real.
“Com o aumento contínuo da concorrência no mercado de provedores, a operadora que não utilizar um bom ERP acabará ficando para trás. É praticamente impossível expandir o número de clientes sem tomar decisões estratégicas baseadas em dados”, afirma Mara, que ainda aponta duas tendências de mercado. “Temos visto cada vez mais pequenos provedores, com até 500 conexões, demandando ERPs pagos para a gestão de seus negócios. Outra tendência é o aumento dos
Site: www.mksolutions.com.br
Tiandy Technologies, fabricante chinesa especializada em segurança, passou a comercializar suas soluções no mercado brasileiro. O projeto, que começou a ser concebido no final de 2023, entrou em fase avançada em 2025 com a contratação de três distribuidores. Dois deles, Orbiseg, de Fortaleza, CE, e Asecure, de São Paulo, já fecharam contrato.
“Na América Latina, o Brasil é o quarto país em que estamos presentes, além da Colômbia, Argentina e México. Em termos de mercado brasileiro de segurança eletrônica, o que mais nos atraiu foi o fato de 50% das câmeras utilizadas ainda serem analógicas”, explica Renan Rederde, gerente técnico da marca para a América Latina.
Inicialmente, a Tiandy pretende atuar em grandes projetos e soluções de distribuição, apostando em diferenciais como configurações até 20% acima do padrão e preços competitivos. Outro diferencial está no atendimento mais próximo aos clientes, motivo pelo qual a empresa optou por fechar contratos com apenas três distribuidores.
“Se o padrão de mercado utiliza câmeras de entrada com resolução de 4 MP, vamos entregar uma com 5 MP. Da mesma forma, quando o produto tradicionalmente apresenta 24 portas, o nosso terá 30. É a forma que encontramos para nos manter competitivos e fornecer soluções à prova de futuro”, afirma Rederde.
O portfólio atende desde residências a espaços de missão crítica, como é o caso de data centers. A principal linha é a AK –Analog Killer, série de câmeras IP de entrada
com 2 MP de resolução, suporte de detecção de movimento e proteção IP67, que garante resistência a intempéries como poeira e chuva. Já a série PRO, além de oferecer 5 MP de resolução e cúpula de metal, apresenta funcionalidades como classificação de movimento humano ou veicular, bem como detecção facial.
“Nosso VMS – Video Management System, diferente da maioria dos concorrentes, é gratuito, ou seja, não demanda um licenciamento de software de monitoramento”, reforça o gerente.
O trâmite de importação, desde a emissão do pedido até a chegada dos produtos ao Brasil, leva no máximo 90 dias. A Tiandy não pretende disponibilizar um estoque no país, com possíveis trocas ficando a cargo dos distribuidores.
“Nossas linhas iniciais saem de fábrica com dois anos de garantia. Por termos preços muito competitivos, caso o usuário tenha algum problema, trocamos o produto em detrimento da manutenção. O distribuidor, por sua vez, recebe um percentual de compra que pode ser utilizado como desconto na aquisição de novos equipamentos”, afirma Rederde.
Para câmeras convencionais, a Tiandy trabalha com um prazo de fabricação de 45 dias. Já equipamentos mais robustos, como PTZs, podem demandar até 60 dias. A fábrica na China ostenta uma capacidade de produção diária de 20 mil câmeras. Em 2023, a Tiandy iniciou a construção de um novo parque fabril em seu país-sede. Com 830 mil m2, a previsão é que ele seja inaugurado até o final de 2025.
Tiandy – Tel. (41) 98895-0566 n Site: https://en.tiandy.com
INFORMAÇÕES
cloudvBOX, com sede em Sorocaba, SP, desenvolveu o vBOX EDGE, um micro data center modular e independente com alta capacidade de processamento e armazenamento para ambientes de missão crítica.
O projeto levou cinco anos para ser concluído e foi desenvolvido no Parque Tecnológico de Sorocaba com o auxílio de parceiros como Intel, Gigabyte, Shell e AMD. A solução possibilita reduzir o consumo de energia em 38%. Em alguns testes, a economia chegou a 48%. “O índice é atrelado ao que está sendo processado, o volume da máquina e a temperatura do ambiente externo. Quando falamos de ar-condicionado, a diminuição é de 98%”, explica Bruno Miranda, head de produto da cloudvBOX.
A refrigeração combina resfriamento líquido (liquid cooling) e ar-condicionado interno. O resfriamento dos servidores é de circuito fechado, com box hermético e refrigeração direto na CDU – Unidade de Distribuição de Refrigeração
(Coolant Distribution Unit), sem a necessidade de chiller.
“O líquido que refrigera as CPUs e demais itens é o mesmo que refrigera a turbina do ar-condicionado interno, dispensando outros sistemas para ventilação. O ar dentro do box não é trocado em nenhum momento, apenas refrigerado e regulado a umidade relativa. Ajustes de set point de refrigeração do líquido, bem como velocidade de circulação, são feitos pela controladora ODA, desenvolvida por nós, e regulados via IA – Inteligência Artificial, responsável por avaliar o comportamento do hardware e parâmetros pré-configurados”, descreve o head de produto.
O Cooling Fluid S3X, fluido utilizado, apresenta vida útil de até 14 anos. Cada unidade da solução demanda aproximadamente 18 L. Por oferecer um conceito compacto, o vBOX EDGE apresenta altura máxima com a porta aberta de 1890 nm e pesa 180 kg em sua capacidade
máxima de produção, sendo até 80% mais leve que uma solução convencional com servidores racks e storage, ocupando uma área de 0,47 m2. A tecnologia pode ser cascateada em até 256 outras unidades, tornando-se um único cluster.
“A ideia é termos uma solução plug and play capaz de entregar edge computing em qualquer lugar, no formato de nuvem privada, com o virtualizador de código aberto Proxmox. Caso o contratante queira, o equipamento é compatível com plataformas como Windows Server, SUSE, Red Hat, Ubuntu, VMware e Veeam”, afirma Miranda.
O vBOX EDGE oferece 2 PB de storage SSD/SATA/NVME e 6 TB de memória por box. O processamento é realizado por 6 unidades e suporta até a 6ª geração dos processadores Intel Xeon e a 5ª e última geração da AMD, com até 2560 vCPUs. Já a taxa de transferência mínima é de até 400 Gbit/s por porta, com capacidade de 6,25 kW, porém o box suporta upgrades até 10 kW. Recentemente, a companhia divulgou o desenvolvimento de uma nova versão de CDU junto à Copeland, fornecedora de
soluções sustentáveis de aquecimento, ar-condicionado e refrigeração, que iniciará em 25 kW.
“É uma tecnologia nacional, concebida com o auxílio de parceiros internacionais, que une soberania de dados com baixa latência. Com foco em aplicações de big data e IA –Inteligência Artificial generativa, iniciamos a etapa de comercialização em 2025, almejando setores como agronegócio, data centers, óleo e gás e cidades inteligentes”, projeta o head de produto.
cloudvBOX – Tel. (11) 93089-0517 n Site: www.cloudvbox.com
Mercado - A Bater Life, fabricante de baterias catarinense, inaugurou uma divisão de baterias industriais. Com 27 anos de mercado, a Bater Life é detentora de marcas como Fortex e Delco Freedom. Um dos destaques é a Maxfor, cuja linha de
baterias estacionárias com correntes de 21 a 245 Ah pode ser utilizada em UPS, sistemas de monitoramento, centrais telefônicas, entre outras aplicações. Site: https://abrir.link/VpLhl.
IA generativa - Segundo uma nova pesquisa da F5, empresa de cybersecurity e entrega de aplicações de missão crítica, a explosão da IA generativa faz com que, agora, alguns conteúdos web sejam mais acessados por bots do que por seres humanos. O 2025 Advanced Persistent Bots Report da F5 Labs analisou 207 bilhões de transações de web e APIs entre novembro de 2023 e setembro de 2024 em grandes corporações usuárias da F5 no Brasil e no mundo que contam com defesas de bots implementadas. Ficou claro que acessos automatizados realizados por meio de bots já são a maioria do tráfego da Internet. Site: https://abrir.link/pYoMV.
Atualização - A Claro anunciou que passará a utilizar a marca Claro empresas em
substituição à Embratel. O novo posicionamento reúne um portfólio de soluções digitais como nuvem, segurança cibernética, IoT – Internet das Coisas e IA –Inteligência Artificial. Segundo a operadora, a estrutura da Claro empresas será dividida em duas unidades de negócio, uma dedicada a grandes empresas e governo e a outra a PMEs – Pequenas e Médias Empresas. Dessa forma, a Claro passa a operar com três verticais: grandes empresas e governo (B2B), pequenas e médias empresas (B2B) e unidade de consumo (B2C). Site: https://abrir.link/BaomV.
O melhor do Bits traz um resumo das principais notícias sobre o mercado publicadas no RTI in Bits, boletim semanal enviado por e-mail para os leitores de RTI Mais notícias podem ser encontradas no site: https://www.arandanet.com.br/revista/rti/noticias.
O Melhor do Bits
Data centers: cenário atual do setor no Brasil e perspectivas
Atualmente há 42 projetos de grandes data centers registrados no Ministério de Minas e Energia, nos estados de São Paulo, Rio Grande do Sul, Ceará, Rio de Janeiro e Bahia. A demanda máxima acumulada pode atingir 15,2 GW até 2035, caso todos os empreendimentos obtenham pareceres favoráveis de acesso ao SIN - Sistema Interligado Nacional de transmissão de energia, possibilitando o início de um novo ciclo de investimentos em infraestrutura e equipamentos de TI no Brasil.
Acapacidade total instalada de data centers no mundo caminha para mais do que dobrar até 2030, segundo novo estudo da IEA - Agência Internacional de Energia. A estimativa, baseada em cruzamento de informações de várias fontes de pesquisa, é a de que o mercado passe dos atuais 100 GW para cerca de 225 GW.
A projeção deve representar ainda um volume acumulado de investimentos de US$ 4,2 trilhões em infraestrutura e equipamentos de TI de novos data centers, no período de 2025 a 2030, com adicionais de US$ 480 bilhões em Capex de energia.
Os números superlativos são reflexo principalmente do aumento de investimentos em sistemas de capital intensivo usados para treinamento e execução de modelos de IA –Inteligência Artificial. Depois que um adicional de 64 GW de carga de TI foi construído na última década, o que elevou o investimento anual de US$ 100 bilhões em 2015 para mais de US$ 500 bilhões em 2024, a previsão é que o incremento anual ultrapasse US$ 800 bilhões antes de 2030, para acomodar outra duplicação da capacidade nos próximos cinco anos.
E o consumo de energia, daí o interesse da agência em estudar o setor, considerado “ultra-eletrointensivo”,
Marcelo Furtado
acompanha o mesmo ritmo. A projeção é o consumo das centrais, estimado em 415 TWh em 2024, o que representou 1,5% do total consumido globalmente de eletricidade, passar para 945 TWh em 2030, fazendo o percentual subir para 3% do total. No período, a estimativa é de crescimento de 15% ao ano no consumo elétrico dos data centers.
Os EUA e China continuarão a ser as regiões mais importantes para os investimentos, representando quase 80% do crescimento global até 2030, principalmente em razão das novas demandas de IA (tabela I).
Mesmo que esses mercados se mantenham na década como os principais polos das centrais de processamento de dados, a IEA identifica também outras regiões se aproveitando da demanda em alta, tanto para data centers que operam na escala suficiente para computação em nuvem como para os hyperscales, de grande porte e voltados para treinamento da IA.
Um primeiro exemplo dessas novas regiões é o Sudeste Asiático, onde há a expectativa de que a demanda de eletricidade para os data centers mais do que dobre até 2030, muito por causa de presença de hubs regionais em Cingapura e no sul da Malásia. Outro
Fornecedores de energia da América Latina estão expandindo a capacidade para atender à demanda crescente de novos data centers. Fontes: Frost & Sullivan, Mordor Intelligence, datacenterHawk e Moody's Ratings
país visto pelo estudo com trajetória ascendente para aproveitar o boom de investimentos é a Índia, que na análise demonstra ter política nacional estruturada para o setor, com incentivos e energia renovável passando por altos investimentos. Atualmente com 2 GW instalados em data centers, capacidade mais do que dobrada nos últimos dois anos, a expectativa é que o país chegue a 5 GW em 2030.
O crescimento da demanda de energia para data centers em projetos no Brasil
Apesar de o Brasil não ter sido citado no estudo da IEA, talvez porque ainda represente parcela pequena do parque instalado global de data centers, com cerca de 850 MW de capacidade, segundo estimativa da ABDC - Associação Brasileira de Data Centers, há uma expectativa positiva para o crescimento do setor.
Esse otimismo se reflete, para começar, pelo número de projetos na fila do MME - Ministério de Minas e Energia para análise de proposta inicial de conexão à rede básica de transmissão, primeiro aval que os solicitantes precisam ter para pedir o acesso de fato à rede ao ONS - Operador Nacional do Sistema Elétrico e assim darem início aos investimentos.
Há no momento, segundo informações obtidas junto ao MME, 42 projetos registrados nos estados de São Paulo, Rio Grande do Sul, Ceará, Rio de Janeiro e Bahia (tabela II). Isso indica uma demanda máxima acumulada que poderá alcançar 15,2 GW até 2035, caso todos consigam pareceres de acesso favoráveis no ONS (tabela III).
Desse total, 12 projetos (2,5 GW) já têm portarias publicadas pelo MME, última etapa de análise do Ministério, publicada no Diário Oficial da União e que permite ao empreendedor iniciar o pedido de acesso ao operador para futura assinatura de um contrato de uso do sistema de transmissão (CUST).
Boa parte desses projetos na fila são de grande porte, daí a necessidade de conexão direta à rede básica do SINSistema Interligado Nacional. Essa característica, além de tornar o processo mais demorado, de quase dois anos, também ultimamente tem esbarrado na falta de margem de escoamento suficiente para conexão das grandes cargas envolvidas dos projetos em pontos da rede já sobrecarregados, principalmente no Nordeste.
Mais conservador com a operação do SIN desde o apagão de 2023, causado pelo excesso de geração renovável injetada na transmissão no Nordeste, o ONS tem vetado o acesso dos projetos de data centers de grande porte, assim
como os de hidrogênio verde, da mesma forma com demandas elevadas (na casa das centenas de MW ou na escala de GW). Isso ocorreu, por exemplo, com data center pretendido pela Casa dos Ventos para instalação no complexo portuário e industrial do Pecém, CE, empresa do setor de energia eólica e solar que também teve vetado projeto de hidrogênio verde no mesmo local. Além deste, no momento o operador está negando o acesso a todos os projetos de grande porte na região, por alegar indisponibilidade de rede de transmissão para atender as demandas de conexão.
Apesar do obstáculo, porém, o MME divulgou no último mês estar encontrando soluções para não perder a oportunidade dos investimentos. A primeira delas é aumentar a capacidade de transmissão na região, com a previsão de agregar pelo menos 4 GW de disponibilidade de rede até 2032, com lançamento de mais um leilão de transmissão em 2027.
Nessa mesma frente de atuação, a ANEEL - Agência Nacional de Energia Elétrica realizou consulta pública (23/ 2024), em fase de análise das contribuições, e cuja meta é criar regulamentação para melhorar a alocação de custos e responsabilidades dos consumidores ultra-eletrointensivos, principalmente os data centers e projetos de hidrogênio verde.
Entre as mudanças propostas na consulta, estão a melhora na disciplina dos pedidos de parecer de acesso, com mais exigências de garantias financeiras dos projetos. Isso é considerado importante porque alguns solicitantes que entram com pedidos no MME aproveitam a atual falta de exigências para obter um parecer e, futuramente, tentar negociá-lo com um empreendedor de fato. São os chamados projetos “de papel”, que no entendimento de vários agentes retardam e prejudicam o andamento dos pedidos de reais investidores.
Com esse cenário ainda incerto por conta da falta de infraestrutura, mesmo
com os 15,2 GW em projetos candidatos à conexão a previsão mais perto da realidade, segundo análise da consultoria Aurora Research Energy, é a de que até 2027 o Brasil mais do que dobre a capacidade em data centers, chegando a 2 GW, apenas para atender demandas de computação em nuvem, segmento que o país ainda não é o autossuficiente. Atualmente há no país 275 centrais em operação, com perspectiva de esse número chegar a mais de 500 no final da década.
Gargalos e soluções
A projeção de crescimento mais cautelosa reflete a análise do presidente da ABDC - Associação Brasileira de Data Center, Renan Alves, que vê alguns gargalos complexos que precisam ser ainda ultrapassados para o país crescer
não ocorre com os menores, por exemplo para computação em nuvem, com demandas de energia inferiores e que por isso podem pedir acesso às distribuidoras de energia.
“Até 50 ou 80 MW é possível fazer (a conexão) com as distribuidoras, que têm uma resposta muito rápida. Mas quando é acima disso, a partir de 100 MW, 400 MW, precisa se tornar um grande consumidor, acessar o sistema básico. E esse mercado é um pouco diferente”, disse. Segundo ele, além da indisponibilidade de margem de escoamento para as conexões, o processo regulado pela ANEEL, que precisa passar pelo Ministério de Minas e Energia e ONS, é um dificultador.
Alves, porém, acredita que a consulta pública ANEEL 23/2024 vai ajudar a resolver esse gargalo. “Nos próximos meses sai a nova regulação”, disse. Para
Mas nesse aspecto a perspectiva é também de solução no médio prazo. Isso porque o governo federal está para lançar uma política nacional específica para data centers, cuja principal ação, elaborada pelo Ministério da Fazenda, é criar um regime tributário especial para o setor, batizado de Redata.
Com expectativa de atrair R$ 2 trilhões de investimentos em dez anos, o governo pretende com o regime desonerar os data centers de tributos federais, IPI e PIS/Cofins por um período aproximado de cinco anos.
Segundo explicou o ministro da Fazenda, Fernando Haddad, em seminário nos Estados Unidos no início de maio, a ideia é antecipar benefícios da reforma tributária para o setor digital.
De acordo com Haddad, também toda a exportação de serviços dos data centers, portanto o treinamento de dados para IA, seria isenta de impostos. Como condicionantes para os investidores terem acesso aos subsídios, haveria a necessidade de uso de energia limpa e destinação de percentual da capacidade dos data centers beneficiados para o mercado interno, além de contribuição dessas empresas para a pesquisa.
principalmente no segmento do hyperscale, data centers que atendem à demanda de inferência ou treinamento de dados da IA e considerados como a grande oportunidade global para os investimentos.
Em recente participação em podcast da datacenterHawk, Alves elencou o que ele considera os três principais problemas do país, colocando no topo deles a questão da infraestrutura de transmissão, em seguida a carga tributária elevada sobre os equipamentos e, por fim, a regulamentação sobre a IA em elaboração no Brasil.
No primeiro ponto, o executivo ressaltou que as dificuldades e demoras de aprovação de conexão dos projetos de novos data centers são principalmente para os de grande porte, que precisam acessar a rede básica do SIN. O mesmo
Alves, aliás, toda a questão do acesso à rede é palco de diálogo constante entre a ABDC e os órgãos federais ligados ao setor elétrico, que segundo ele têm entendido o dinamismo diferente do mercado de data centers, ao mesmo tempo em que a associação também compreende que o SIN, todo ele conectado, precisa balancear as grandes cargas que pedem acesso à rede para não causar desequilíbrio no sistema. O segundo ponto de atenção, a alta carga tributária sobre os equipamentos utilizados nos data centers, onera em até 60% os bens importados pelas empresas da área. O problema é ainda maior para as tecnologias empregadas nos data centers de IA, com destaque às unidades de processamento gráfico, as GPUs, todas elas dependentes de importação e de alto custo.
“A intenção é dar uma isenção tributária por um período para que esses projetos que queiram investir no Brasil consigam fazer a importação de todos os itens”, disse Renan Alves, da ABDC, que tem dialogado com o Ministério da Fazenda e outras pastas ligadas ao tema (MDIC e MCTI) para ajudar na formulação da nova política, que deve ser implementada por medida provisória.
“Pelas conversas que temos tido com o Ministério da Fazenda, o discurso deles é exatamente igual ao nosso. Eles são pró-indústria” afirma Alves. Na sua avaliação, a expectativa é a de que em junho de 2025 já esteja definida a política de isenção tributária. Nesse aspecto, há também a ideia de estender nacionalmente isenções do ICMS, já existentes em alguns estados, por meio de regulação do Confaz - Conselho Nacional de Política Fazendária. Tab.
Liquid Cooling, a tecnologia do futuro
O avanço da digitalização provocou um aumento na demanda por capacidade de processamento e armazenamento de dados.
A refrigeração líquida é uma alternativa que aproveita as propriedades de transferência térmica dos fluidos, podendo ser até 3.000 vezes mais eficiente que o ar.
Conte com as soluções da Vertiv para lidar com os novos desafios em sua infraestrutura crítica!
Leia o QR code e saiba mais.
Tab. II - Processos de acesso à rede básica de consumidor livre em andamento no MME - Ministério de Minas e Energia (data centers). Caso todos consigam pareceres favoráveis no ONS, a demanda máxima acumulada poderá alcançar 15,2 GW até 2035. Fonte: Secretaria Nacional de Transição Energética e Planejamento, Departamento de Planejamento e Outorgas de Transmissão e Distribuição de Energia Elétrica e Interligações Internacionais. Data de atualização: 28 de março de 2025
Interessado Interessado
Ascenty Data Centers e Telecomunicações S.A.
Empreendimento Empreendimento
Município/Estado Município/Estado
Ascenty CajamarCajamar, SP
Ascenty Porto do AçuSão João da Barra, RJ Ascenty Vinhedo Vinhedo, SP Ascenty Campinas Campinas, SP
BEP Data Center Salto I Ltda.Data Center Salto I – DC Salto I Salto, SP
BEP Data Center Salto II Ltda.Data Center Salto II – DC Salto II
BEP Trading Ltda.Data Center Santa Bárbara – DC Santa BárbaraSanta Bárbara D'Oeste, SP
Casa dos Ventos S.A.Data Center JundiaíJundiaí, SP
Datacore Ltda.Áurea Data Center 05
Datamax Ltda. Áurea Data Center 03Sumaré, SP
Datatech Ltda.Áurea Data Center 04
Digital DC Brasil Ltda.Nextstream Santana de Parnaíba, SP
GP Participações em Energia Renovável Ltda.Data Center Sumaré – DC SumaréSumaré, SP
Jaguary Empreendimentos Imobiliários SPE Ltda.ETC JaguarySantana de Parnaíba, SP
Planem Engenharia e Eletricidade Ltda.Campus Data Center Pau D'AlhoCampinas, SP
Renova Comercializadora de Energia S.A. em Recuperação Judicial
Satoshi I_A Igaporã, BA
Satoshi I_B
Scala Data Centers S.A. JundiaíJundiaí, SP
Eldorado do SulEldorado do Sul, RS
SNRA Carga 2
SNRA Carga 3
Serena Chuí I Energia S.A.SNRA Carga 4Gentio do Ouro, BA
Serena Desenvolvimento de Energia 37 S.A.
Serena Desenvolvimento de Energia 38 S.A.
Serena Desenvolvimento de Energia 39 S.A.
Serena Desenvolvimento de Energia 40 S.A.
Twenty Four Seven Data Centers S.A.
Ventos de Santo Ulrico Energias Renováveis S.A.
Por fim, o terceiro gargalo, segundo Alves, seria a insegurança provocada pela regulamentação da IA no país, em tramitação no Congresso Nacional por meio do PL 2338/2023, aprovado em uma primeira votação pela Câmara dos Deputados e posteriormente pelo Senado, que o retornou para a casa de origem, onde ainda está para análise. O principal problema do PL é a previsão de compensação financeira pela propriedade intelectual de empresas ou pessoas brasileiras que terão tenham suas criações e conteúdos utilizados no
SNRA Carga 5
SNRA Chuí Datacenter
SRNA C1
SRNA C2 Caucaia, CE
SRNA C3
SRNA C4
Golgi Cajamar Franco da Rocha, SP
Golgi RodoanelSão Paulo, SP
Data Center Itatiba Itatiba e Valinhos, SP
aprendizado de máquina (machine learning) da IA.
A preocupação do presidente da ABDC com esse ponto, inclusive, foi também apontada como um dos obstáculos para o desenvolvimento do mercado de data centers no Brasil por estudo da agência de classificação de risco Moody´s. Segundo a agência, isso pode encarecer o pré-tratamento de IA nos data centers que, por acaso, sejam instalados no Brasil.
Para a Moody´s, há ainda outros fatores com potencial para afastar
investimentos em grandes data centers no Brasil (e América Latina), para além dos apontados pela ABDC. A agência ressalta, além da carga tributária elevada, também a volatilidade econômica da região, a insegurança política e o risco de escassez hídrica, neste último caso em regiões como São Paulo e Fortaleza, CE. O cenário com esses gargalos, para a agência, pode fazer a região se concentrar mais em investimentos para projetos de menor escala, de computação da nuvem e para redes 5G, atendendo demandas locais de processamento e armazenamento de dados.
A Nova Demanda Energética Dos Data Centers Exige Soluções Mais Inteligentes.
A transformação digital nas últimas décadas gerou avanços sem precedentes — com a popularização da Inteligência Artificial (IA), serviços em nuvem, Internet das Coisas (IoT), dispositivos móveis e plataformas digitais. Esse ecossistema impulsiona a geração e o tráfego de dados em escala massiva, exigindo data centers cada vez mais robustos e, consequentemente, com maior consumo energético.
Diante desse cenário, torna-se essencial adotar tecnologias e práticas que aumentem a eficiência energética e reduzam desperdícios. A Black Box, como integradora global de infraestrutura digital, oferece um portfólio completo de soluções para enfrentar esses desafios:
Infraestrutura de Conectividade
Avançada
Sistemas de Resfriamento e Monitoramento Inteligente
Gerenciamento de Energia com PDUs Inteligentes Consultoria em Sustentabilidade
Menos consumo, mais eficiência e confiabilidade. Prepare seu data center para o futuro com a BLACK BOX.
Investimentos em IA
A alta capacidade instalada de data centers de IA ocorre nos utilizados no treinamento de dados e não nos de inferência. O primeiro recebe e trata informações de vários data centers de inferência, para aperfeiçoar os algoritmos, com tecnologias de aprendizado, e devolvê-los com as modificações. Já os de inferência ficam próximos do usuário, com baixa latência, para atender as demandas de IA.
Se menores, por outro lado os de inferência têm também servidores com alta densidade energética, as chamadas GPUs, por conta da elevada demanda de processamento da IA. E nesse caso o Brasil vai ter um primeiro data center específico para o mercado, da Elea Data Centers, em Alphaville, Barueri, SP, com planejamento para entrar em operação completa até o final de 2026.
Segundo Victor Almeida, diretor de investimentos da Piemonte Holding, a gestora da Elea, o data center em construção terá 50 MW de capacidade e será o primeiro no país a utilizar sistema de
Tab. II – Demanda total projetada no Brasil para data centers. Fonte: MME - Ministério de Minas e Energia
Ano Demanda total projetada (MW) Demanda
resfriamento com tecnologia específica para servidores da IA. Trata-se da refrigeração líquida (liquid cooling), da Vertiv, que resfria diretamente o servidor e não o ambiente, como ocorre na tecnologia com resfriamento a ar convencional, à base de chillers e ventiladores.
O resfriamento direto nos servidores da tecnologia da Vertiv, já contratada para o data center, permite o aumento da densidade energética do servidor em até cinco vezes. De acordo com Almeida,
enquanto nas soluções tradicionais, para servidores utilizados na computação da nuvem, a densidade média é de 15 a 20 kW por rack, no caso do uso do liquid cooling isso sobe para 100 a 120 kW por rack.
Especializada no mercado de colocation, com nove data centers já em operação no país com 30 MW de capacidade total, a Elea vai provavelmente locar a maior parte da nova central para uma big tech, que importará as CPUs e GPUs para a operação da IA. Embora as negociações sejam sigilosas, também há a possibilidade de parte do data center ser empregada para operações da nuvem de clientes.
“Os designs dos nossos data centers são bem flexíveis. Isso para não correr o risco de fazer uma construção que é só para IA e por algum motivo, não atrelado a nós, a big tech necessita que ali se transforme em cloud e nós percamos o contrato”, explicou. Dessa forma, a ideia é tornar a central com capacidade para atender os dois modelos de contratação.
A carteira de clientes da Elea é diversificada, incluindo desde médias e grandes empresas, no chamado mercado de enterprise, até as big techs. Neste último caso, os projetos normalmente são feitos de forma conjunta, com antecipação, para atender às demandas estratégicas das empresas. Será nesse cenário, para ele, que no futuro os investimentos em data centers de treinamento para IA devem ser direcionados. Empresas como Amazon, Microsoft ou Google, explica o executivo, homologam os projetos e exigem design específicos para seus data centers, o que
Victor Almeida, diretor de Investimentos Piemonte
Holding, gestora da Elea
Data Centers:
refrigeração líquida para servidores de IA
precisa ser feito desde o início. Essa característica dos clientes, portanto, não indicaria o uso de estratégia adotada recentemente por empresas do ramo imobiliário, que estão preparando projetos, incluindo seus processos burocráticos para acessar a rede, para depois tentar vendê-los às big techs.
Além dessas conexões antecipadas com os clientes, outra medida importante para atrair os grandes investimentos em data centers maiores, para Almeida, foi o anúncio do governo federal de isentar de tributos a importação de GPUs e a exportação de serviços de data centers.
Segundo ele, esse é o ponto principal para atrair investimentos das big techs, que mesmo com quase 60% de tributação sobre os equipamentos importados continuam a ampliar suas operações no país. “Eles já investem no Brasil de forma forte, pagando toda essa carga tributária. Com a isenção, isso tende a destravar bastante investimento e, consequentemente, aumentar o consumo de energia”, disse.
No dia 8 de maio, a Elea anunciou a Rio AI City, projeto com capacidade de até 3,2 GW em energia verde para impulsionar a IA. Integrada ao projeto de inovação e revitalização urbana da Prefeitura do Rio de Janeiro, a Rio AI City terá capacidade inicial de 1,5 GW, com a primeira entrega a partir de 2026, e poderá alcançar até 3,2 GW em fases futuras.
Elevando o desempenho dos data centers de IA com fibra multimodo e polimento APC
Luiz Henrique Zimmermann Felchner, PLM/Gerente Sênior de Engenharia de Infraestrutura e Conectividade da Lightera/Furukawa Electric
ACom a expansão dos data centers voltados para IA - Inteligência
Artificial, o volume de dados tende a crescer exponencialmente, em especial com a adoção de WDM em fibras multimodo. Nesse contexto, a integração da fibra OM5 com conectores MPO APC surge como uma solução robusta, proporcionando desempenho otimizado e garantindo uma infraestrutura de rede preparada para demandas futuras, sem necessidade de grandes adaptações ao longo dos anos.
era da IA – Inteligência Artificial vem cada vez mais buscando tirar o máximo das infraestruturas existentes nos data centers e impulsionando o uso de conectores multimodo APC, em especial o MPO de 16 fibras. A fibra óptica multimodo com polimento APC é uma excelente opção para os data centers para IA – Inteligência Artificial. O conector APC - Angled Physical Contact se difere do usual UPC - Ultra Physical Contact quanto ao tipo de polimento feito na extremidade do conector óptico. Nos conectores UPC, o polimento é convexo/reto e extremamente liso. Por não ter angulação, o sinal óptico que não for perfeitamente acoplado pode ser refletido de volta diretamente para o núcleo da fibra, gerando perda de retorno. Já o conector APC tem polimento em ângulo de 8° e reflexo controlado. Assim, ao invés do sinal refletido voltar diretamente para a fonte, ele é desviado em outra direção, o que minimiza significativamente a interferência causada pela reflexão. A cor é um dos indicativos visuais mais imediatos; os conectores UPC são reconhecidos por sua cor azul, enquanto os conectores APC são identificados pela cor verde.
Isso pode ser mais bem compreendido quando consideramos um data center de IA com as redes DGX SuperPOD (plataforma de IA da NVIDIA), que demandam altas taxas de transmissão e, portanto, as
interconexões ópticas são pontos chaves para suportar estas demandas. No caso de fibra óptica multimodo (FOMM), temos como principais desafios às seguintes características:
• DMD - Atraso de Modo Diferencial: refere-se à variação no tempo de propagação dos diferentes modos de luz em uma fibra multimodo, resultante da geometria da fibra e do índice de refração do material. Essa variação pode causar dispersão do sinal e limitar a largura de banda efetiva.
• Perda de retorno (RL - Return Loss): refere-se ao sinal que é refletido de volta para a fonte devido a imperfeições ou incompatibilidades nos conectores. Reflexões excessivas podem comprometer a qualidade do sinal, aumentar a taxa de erros e restringir a distância de transmissão.
• Perda de inserção (Insertion Loss): é a atenuação do sinal que ocorre ao passar pelo conector. Perdas significativas podem diminuir a potência do sinal recebido, impactando a sensibilidade do receptor. Para melhorar as conexões e atender essas novas demandas, o uso de polimento APC em fibra óptica multimodo pode oferecer as seguintes vantagens:
• Significativa redução da reflexão de retorno: o ângulo de 8 graus do polimento APC direciona a luz refletida para fora do núcleo da fibra, minimizando drasticamente o retorno do sinal à fonte. Isso resulta em uma
perda de retorno (RL) superior em comparação com o polimento atual UPC.
• Integridade do sinal: com a redução da reflexão de retorno há uma melhora na integridade do sinal óptico, permitindo taxas de transmissão mais elevadas e em alguns casos distâncias maiores sem significativa degradação do desempenho.
• Tolerância a imperfeições: o polimento APC “suporta” pequenas imperfeições e defeitos na superfície do conector, proporcionando maior confiabilidade.
• Uso de FOMM OM5: essa fibra óptica foi desenvolvida com foco na eficiência e na largura de banda. É projetada para suportar múltiplos comprimentos de onda e tem características que ajudam a melhorar ainda mais o DMD em comparação às outras fibras multimodo, como a OM4.
Agora que já temos uma compreensão melhor do uso de polimento APC em FOMM, vamos ver uma aplicação real.
Tomemos com base o padrão Ethernet 400G-SR8, padronizado pelo IEEE –Instituto de Engenheiros Eletricistas e Eletrônicos, que usa conectores MPOAPC de 16 FO.
Na figura 1 há uma tabela ilustrativa e, abaixo, o canal de transceiver a transceiver. Aqui temos uma aplicação direta de MPO16F-APC em FOMM em alta velocidade aplicando o protocolo
Ethernet 400G-SR8. Assim como poderia ser aplicado o mesmo conector MPO16F-APC MMF em rede DGX SuperPOD, oferecendo um conjunto de desempenho (estabilidade de sinal, redução da reflexão e DMD) e custo/ benefício.
Para um ambiente de computação de IA, onde temos a combinação de um poderoso hardware com uma arquitetura escalável e software otimizado, é preciso atender demandas por desempenho e eficiência com estabilidade para obter um excelente aprendizado de IA.
Conclusão
A combinação de FOMM OM5 com conectores MPO 16F APC forma uma dupla de peso que pode garantir muitos anos de trabalho sem preocupações com upgrades da infraestrutura de rede. Hoje tratamos de 400 Gbit/s, mas temos facilmente 1,6 Tbit/s, se considerarmos o potencial direto do uso de WDM nas fibras OM5, ou seja, é um investimento com retorno garantido. Uma boa conectividade assegura uma excelente qualidade de sinal, minimiza perdas ópticas e garante maior eficiência na transmissão de dados.
Fig. 1 – Canal de transceiver a transceiver
Fig. 2 - Conector MPO - APC
Cargas de trabalho de IA e o futuro da infraestrutura de TI
A ascensão da IA –Inteligência Artificial está transformando a economia global e exigindo mudanças profundas na infraestrutura de TI. O uso de GPUs mais eficientes está em alta, mas os crescentes requisitos de computação continuam desafiando a infraestrutura digital crítica para garantir eficiência energética e inovação contínua nos data centers, que deverão passar por uma grande transformação para atender às demandas das novas cargas de trabalho.
As pessoas costumam dizer que “os dados são o novo petróleo”. Mas, assim como o petróleo bruto, os dados precisam ser refinados. Assim como o petróleo bruto, os dados têm o potencial de transformar a economia global. No entanto, assim como foram necessários avanços na tecnologia de refino para transformar o petróleo bruto no motor de crescimento econômico do século XX, a IA - Inteligência Artificial é provavelmente a chave para tornar os dados a base da economia do século XXI. De acordo com a McKinsey & Company, a IA generativa sozinha poderia adicionar o equivalente a até US$ 4,4 trilhões anualmente à economia global, incluindo até US$ 100 bilhões no setor de telecomunicações, US$ 130 bilhões em mídia e US$ 460 bilhões em alta tecnologia. O aumento potencial do PIB global total como resultado da IA até 2030 é acima de US$ 25 trilhões. E o poder da IA não será medido apenas em dólares, euros, yuans ou ienes. Também será medido por avanços que impactarão a qualidade de vida humana. Já estamos à beira de grandes avanços, como transformar enormes quantidades de dados médicos em curas para doenças como o câncer e até mesmo desenvolver soluções para combater as mudanças climáticas globais. No entanto, concretizar a promessa da IA exigirá um ecossistema inteiro para dar suporte à tecnologia. A arquitetura de data centers
e a infraestrutura digital crítica que a suportam terão que passar por uma grande transformação para atender às demandas das cargas de trabalho de IA. E esse ecossistema terá que ser projetado para fazer uma diferença duradoura.
A infraestrutura digital crítica que possibilita
a IA
As tendências atuais sugerem que 19% do consumo de energia em data centers será associado à IA até 2028 [3]. Então, o que isso significa para os data centers, especialmente quando se trata de arquitetura, consumo de energia e refrigeração?
A ascensão meteórica da IA já está revolucionando a arquitetura de TI e a infraestrutura digital crítica dos data centers. Mas o efeito até o momento é apenas a ponta do iceberg. As questões associadas à IA estão criando um gargalo no tamanho do chip, peso do rack, consumo de energia e necessidade de refrigeração dos data centers. Os gastos com infraestrutura digital crítica para a GenAI devem passar de US$ 18 bilhões em 2024 para mais de US$ 48 bilhões até 2027. O nível de investimento indica quão profundamente a ascensão da IA generativa afetará a infraestrutura digital crítica.
A revolução na IA necessariamente levará a uma revolução na forma como os data centers operam. Portanto, embora a maioria das pessoas esteja focada nos
Vertiv
benefícios econômicos da IA, obtêlos exigirá prever, compreender e solucionar os desafios emergentes de infraestrutura.
Para aproveitar ao máximo o maior desenvolvimento na economia global desde a ascensão da era do petróleo, qualquer pessoa que confie na IA para impulsionar seu crescimento precisará trabalhar com os parceiros certos e formular um plano para lidar com esse desafio emergente de infraestrutura. A IA é construída sobre muitas coisas, mas um dos elementos-chave são os microprocessadores. Os chips usados para treinar modelos de IA requerem uma quantidade significativa de energia e geram uma quantidade correspondente de calor.
As GPUs são o chip atual preferido para executar cargas de trabalho de IA. Usar GPUs no lugar de CPUs para executar cargas de trabalho de computação paralelas é 100 vezes mais eficiente do ponto de vista do consumo de energia. No entanto, embora as GPUs sejam mais eficientes, os requisitos de computação continuarão aumentando exponencialmente, superando em muito qualquer aumento na eficiência do chip. Portanto, embora as GPUs produzam sem dúvida muito mais computação para a mesma quantidade de energia utilizada, as demandas da IA significam que a quantidade total de energia utilizada ainda aumentará.
Investimentos significativos provavelmente serão dedicados ao desenvolvimento de GPUs mais eficientes. Com esse montante de recursos, seria imprudente não esperar progresso na frente de eficiência.
No entanto, se a tendência atual continuar, os modelos que melhoram a IA generativa também continuarão a crescer. A competição entre os principais players do setor, como OpenAI, Anthropic, Google e Meta, está sendo impulsionada pelo uso de modelos cada vez maiores, com o resultado de que os modelos têm dobrado suas necessidades de computação a cada seis meses.
Dando sentido ao futuro
De acordo com o paradoxo de Jevons, um aumento na eficiência de um recurso
gerará um aumento no consumo, em vez de uma diminuição. Considerando os muitos fatores que parecem estar impulsionando tanto a demanda por IA quanto o uso de modelos maiores, é difícil ver como os ganhos de eficiência de chips ou modelos compensarão completamente os muitos desenvolvimentos com uso intensivo de computação no espaço da IA. Em outras palavras, o futuro pode ser mais eficiente, mas a capacidade de carga de TI continuará a aumentar ao longo da década, apesar dos ganhos de eficiência. O jogador de beisebol americano e filósofo amador Yogi Berra disse certa vez: “É difícil fazer previsões, especialmente sobre o futuro”. Embora isso possa parecer particularmente adequado com tantas incógnitas conhecidas no desenvolvimento da infraestrutura de IA, com base nas tendências atuais e nos prováveis desenvolvimentos tecnológicos, é possível antecipar os maiores desafios para a implantação e o uso da IA, especialmente no contexto de data centers.
Então, quais são os elementos mais importantes a serem seguidos se você estiver interessado em preparar suas operações para o futuro? Especificamente, as seguintes tendências devem estar no radar de todos:
• Mudanças na capacidade de produção: cargas de rack, PDUs, UPS, equipamentos de comutação e CDUs aumentarão em capacidade e terão um efeito cascata correspondente em toda a infraestrutura geral.
• Mudanças na escala geral: sem dúvida, o efeito cascata mais óbvio envolverá instalações também maiores. Os blocos de 3 MW de hoje serão os blocos de 20 MW de amanhã.
• A busca por energia sempre ativa: maior também significa mais energia e calor. E mais calor significa que o resfriamento híbrido e líquido são o futuro. Como as GPUs do futuro devem ser resfriadas continuamente, a energia sempre ativa é um imperativo.
• IA significa perfis de carga não convencionais: IA está associada a cargas de energia que podem oscilar de 10% ocioso a 150% de sobrecarga em um piscar de olhos.
• Pressão para atualizar e modernizar: os operadores de data center precisarão determinar a melhor maneira de modernizar suas operações existentes para atender às demandas listadas acima.
Grandes mudanças estão chegando na arquitetura, energia e resfriamento
As tendências atuais apontam para grandes mudanças na infraestrutura geral de TI. Mas quais mudanças específicas veremos e quando elas acontecerão?
A determinação das respostas a essas perguntas começa no nível mais básico. À medida que a arquitetura de GPU, de racks e corredores evolui, veremos uma evolução correspondente tanto em energia quanto em refrigeração.
Embora ninguém tenha certeza absoluta sobre o futuro exato da arquitetura de TI, analisar os principais impulsionadores da mudança é a melhor maneira de determinar como será esse futuro.
A trajetória ascendente na densidade de racks desencadeada pela atual onda de IA não será um contratempo histórico. Para atender à crescente demanda por IA, a arquitetura de racks aumentará de densidades superiores a 30 kW para 300-600 kW no curto prazo e possivelmente para 1 MW ou mais até 2030. É claro que ainda haverá um nível de incerteza em torno desse número,
Fig. 1 - Crescimento dos LLMs - Large Language Models [1]
Atualmente, projetos de Projetos de GPU de IA deProjetos de GPU de IA de próxima.Projetos de GPU de IA de GPU de IA baseados principalmente próxima versão baseadosgeração (não anunciados, masgeração futura (trajetória em resfriamento a ar ou principalmente em resfriamento projetados) baseados principalmenteprojetada) baseados híbrido líquido-ar líquido monofásico para o em maior fluxo e menor principalmente em resfriamento para maior eficiênciachip e resfriamento a ar temperatura para maior desempenho. líquido do chip ou alguma operacional. para carga de calor residual.forma de imersão contida. Arquitetura de GPUAté 32 núcleos de GPUAté 72 núcleos de GPU NVIDIANúcleos de GPU de próxima geração NVIDIA Hopper H100Blackwell B200 (ou similar)(ciclos de lançamento de 12 meses), (ou similar) por rack, por rack, configurados em em configurações de cluster/pod de linha semelhantes. configurados em clusters/podsclusters/pods em linha em linha até 240 núcleos de GPU.de até 720 núcleos de GPU. Arquitetura de rackAté 50 kW por rackAté 140 kW por rackAté 300 kW por rack comDensidades de até 1 MW com distribuição de energiacom distribuição de energia distribuição de energia N+1 de 400/230por rack. 480/277 VCA, 400/230 VCA N+1. ResfriadoN+1 de 400/230 VCAVCA ou 400 VCC600/347 VCA ou 800 VCC por trocadores de calorou 400 VCC. N+1. Resfriado por placas friasaté 2031 devem líquido-ar na porta traseira.Resfriado por placas friaslíquido-chip, complementadasser considerados no projeto. monofásicas de líquido para chippor um trocador de calor líquido-arDistribuição de energia N+1 (80% da carga térmica),na porta traseira.de 400/230 VCA ou 400 VCC. complementadas porO resfriamento por placa fria trocadores de calor(100% da carga térmica) líquido-ar na porta deve ser considerado no projeto. traseira (20% da carga térmica).
baseado não apenas nos desenvolvimentos tecnológicos, mas também na demanda por IA. No entanto, é razoável esperar que o futuro se baseie na crescente densidade de racks exigida pela IA e nas melhorias tecnológicas na infraestrutura crítica necessárias para atender a essas demandas. Embora possa haver incerteza quanto à rapidez com que a arquitetura de racks evoluirá, especialmente a longo prazo, há poucas dúvidas de que mudanças na arquitetura exigirão novas abordagens para o resfriamento.
Os projetos atuais de GPUs para IA são, em sua maioria, baseados em resfriamento a ar. No entanto, o enorme crescimento no consumo de energia significará que diversas formas de resfriamento híbrido e líquido serão o futuro. O resfriamento a líquido é significativamente mais eficiente do que o resfriamento a ar, e essa eficiência é extremamente importante para o desenvolvimento da infraestrutura necessária para a IA. Até o final da década, veremos os data centers dependerem principalmente do resfriamento a líquido do chip, imersão autônoma e resfriamento a ar para cargas de calor residuais.
O resfriamento não é a única preocupação. Os data centers do futuro também precisarão ser flexíveis o suficiente para lidar com “cargas pulsantes” ou cargas periódicas com alta entrada de energia em um tempo muito curto. Sabe-se que clusters de treinamento
de IA apresentam picos de curta duração na corrente elétrica durante certos ciclos de computação, portanto, provisões de sobrecarga se tornarão obrigatórias. Mas os data centers provavelmente têm uma dor de cabeça maior do que apenas picos de corrente quando se trata de energia.
Fig. 2 - A IA é uma força motriz no crescimento da capacidade de carga de TI [3]
Tab. I - Um resumo do maior desenvolvimento desta década
Tab. II - Um resumo do maior desenvolvimento desta década. Continuação
Arquitetura de fileira Recomenda-se um barramento rígido Recomenda-se o uso de barramentoRecomenda-se o uso de barramento Recomenda-se o uso de aéreo de 400 A com caixas derígido aéreo a 2000 A com caixas derígido aéreo a 4000 A com caixas de barramento rígido aéreo a derivação, proporcionando máxima derivação, proporcionando máximaderivação, proporcionando máxima 6000 A e acima com caixas de flexibilidade para substituição imediataflexibilidade para substituiçãoflexibilidade para substituição imediata derivação, proporcionando e atualização da GPU. Circuitosimediata e atualização da GPU.e atualização da GPU. Circuitos máxima flexibilidade para dedicados com cabeamento deCircuitos dedicados com cabeamento dedicados com fiação de camposubstituição imediata e campo da PDU podem serde campo PDU não sãoda PDU não são recomendados.atualização da GPU. Circuitos considerados para fins de custo.recomendados devido ao custo deUnidades de distribuição dededicados com fiação de
Unidades de distribuição de instalação e à bitola inflexível dos fios.resfriamento de 3000 kW em campo da PDU não são refrigeração de 600 kW baseadasUnidades de distribuição de refrigeração fileiras e manipuladores de arrecomendados. Unidades de em fileiras e manipuladores de arde 1350 kW baseadas em fileiras perimetrais para salas distribuição de resfriamento perimetrais para salase manipuladores de ar perimetraisde computadores.multi-MW. de computadores.para salas de computadores.
Gerenciamento de energiaA alimentação mínima de energia de Tier II ou III suportada por geração deA alimentação mínima de energia de Tier II ou III suportada por geração de energia de reserva N+1 com sistemas de armazenamento de energia de bateriaenergia em espera N+1 com Recursos de Energia Distribuídos (DER), (BESS) no local ou similares deve ser considerada para interaçãoSistemas de Armazenamento de Energia por Bateria (BESS) no local ou com o grid, arbitragem e resiliência.células de combustível deve ser considerada para uma interação com o grid totalmente dinâmica, arbitragem e resiliência. Monitoramento de energia de alta velocidade integrado na caixa de derivação (busway) com controle térmico inteligente é necessário.
Carga de trabalho da GPUAté 160% - Estamos assumindo que as implantações iniciais de GPU representarão >20% do total de cargas de trabalho para empresas até 2025 e crescerão para 100% da carga total até 2027. Ciclo térmicoExpansão direta (DX) e água gelada (CX) Circuito de água gelada de alta temperatura Circuito de água gelada Reúso de calorUso de ciclo orgânico Rankine, captura direta de ar (DAC) e chillers de absorção. Mais de 25% de reúso de calor.
ControlesTelemetria de operação de captura no datalake e implentaçãoImplementar gêmeos digitais em todo oAuto-otimização e operação de manutenção baseada em condição (CBM). data center e aproveitar entradas derobótica autônoma telemetria contínuas para otimizar otimizar a operação usando IA.
*Os detalhes técnicos e de gestão, estimativas e projeções aqui citados baseiam-se em pesquisas da Vertiv, expertise interna e informações atualmente disponíveis de parceiros da Vertiv no setor. As previsões analisadas baseiam-se nas tecnologias de design e infraestrutura disponíveis na data de publicação deste artigo. Projeções apenas para fins ilustrativos.
Somente nos Estados Unidos, o consumo total de eletricidade deve crescer baseado quase inteiramente sob demanda de data centers. De acordo com dados do Goldman Sachs, haverá uma taxa de crescimento anual composta de 15% na demanda de energia de data centers até 2030, com os data centers representando 8% da demanda total de energia dos EUA até o final da década, acima dos cerca de 3% atuais.
Embora seja difícil identificar todos os marcos tecnológicos exatos que ocorrerão nesta década e nas próximas, as amplas pinceladas do futuro estão se tornando mais claras. Sabemos que as densidades dos racks aumentarão. Sabemos que os métodos de resfriamento e o gerenciamento precisarão evoluir. Sabemos que o gerenciamento de energia e carga estão rapidamente se tornando grandes desafios. Agora, precisamos aplicar o que sabemos para informar o desenvolvimento de produtos e soluções que atenderão às necessidades dos data centers hoje e amanhã. E precisamos
fazer isso rapidamente se quisermos realizar todo o potencial da IA. Por exemplo, devemos planejar o aumento da densidade dos racks, desenvolvendo unidades de distribuição de energia de alta densidade para gerenciar a distribuição de energia de forma mais eficaz em data centers em rápida evolução. Também devemos revisitar as tecnologias existentes para resfriamento líquido e nos perguntar como podemos estar prontos para um mundo onde o resfriamento bifásico de placa fria líquidochip é uma necessidade. E devemos analisar os perfis reais de carga da IA e desenvolver maneiras de otimizar o desempenho com base nos perfis que estamos vendo agora e no que prevemos ver à medida que a revolução da IA avança.
Para onde ir a partir daqui?
A ascensão da IA tornou este um momento verdadeiramente empolgante no mundo da computação. Mas com a
empolgação e as possibilidades vêm perguntas e incertezas. Muitas entidades com data centers estão lutando para adicionar capacidade de IA às operações existentes. Ao mesmo tempo, aqueles que planejam novos data centers estão se perguntando exatamente quanta capacidade de IA devem incluir em seus projetos. E como será a arquitetura de rack? E quanto às necessidades de energia e refrigeração?
Responder a esses tipos de perguntas será difícil, mas uma maneira de facilitar é garantir que você esteja projetando sua infraestrutura digital crítica com líderes em desenvolvimento de IA, não seguidores. Porque em um mundo onde a mudança é rápida e certa, a abordagem incorreta pode ser um investimento em uma solução que se torna obsoleta logo após sua implantação. Ao ser inteligente e deliberado, você pode evitar projetar até a obsolescência e, em vez disso, criar algo mais sustentável, confiável e duradouro. Prosperar na revolução da IA significa escolher as soluções com sabedoria,
mas significa ser ainda mais sábio sobre quem as fornece. Você não precisa apenas da tecnologia certa, mas também de parceiros
REFERÊNCIAS
com amplo conhecimento do conjunto de transmissão de energia e cadeia térmica de ponta a ponta, e com especialistas que
possam aconselhar sobre o atendimento às suas necessidades de IA, tanto hoje quanto no futuro.
[1] Adapted from The Rise and Rise of A.I. Large Language Models (LLMs) & their associated bots like ChatGPT, by McCandless, D. Evans T. and Barton P, 2024. (https://informationisbeautiful.net/visualizations/the-rise-of-generative-ai-large-language-models-llmslike-chatgpt). In the public domain
[2] Epoch AI; Notable AI Models. June 19, 2024. https://epochai.org/data/notable-ai-models.
[3] Galabov, V and Sukumaran M. Cloud and Data Center Market Snapshot – November 2023. Omdia.
[4] Goldman Sachs. Generational growth: AI, data centers and the coming US power demand surge. Abril 28, 2024.
[5] Goldman Sachs. AI is poised to drive 160% increase in data center power demand. 14 de Maio, 2024.
[6] McKinsey Digital. The economic potential of generative AI: The next productivity frontier. 14 de junho, 2023.
[7] Newmark. 2023 U.S. Data Center Market Overview & Market Clusters. Jan./2024.
[10] Trueman, C. Stack Infrastructure to support AI workloads requiring up to 300 kW-per-rack will be achieved through closed-loop water cooling systems. Data Center Dynamics; 8 de janeiro, 2024.
[11] Villars R. et al. Worldwide Core IT Spending for GenAI Forecast, 2023–2027: GenAI Is Triggering Hyper-Expansion of AI Spending. IDC #US51539723. Dez./2023.
[12] Wang, S. 2024 Trends to Watch: Data Center Physical Infrastructure. Omdia; December 22, 2023.
[12] Wang, S. AI-driven Data Center Cooling Systems and Technologies. Omdia; 2 de agosto de 2024.
Guia de produtos para infraestrutura de data centers
Veja a seguir quem fornece os produtos para a infraestrutura de data centers, como sistemas de energia, climatização, cabeamento, racks, proteção contra incêndio, automação e segurança, garantindo a confiabilidade das operações de missão crítica.
Empresa e telefone
E-mail para atendimento ao cliente
PDUs gerenciáveis (1) Sistemas de energia CC Estático
Adelco condenergia@adelco.com.br
(11) 4199-7500
Airsys airsys-brasil@air-sys.com.br
(11) 93423-3509 n
ALGcompany vendas@algcom.com.br
(54) 3201-1903 n
Baterias Moura
(11) 3090-5555 n
Binding Energy vendas@binding-energy.com.br
(11) 99201-2416 n
Black Boxcontato@blackbox.com
(11) 4134-4006
C3 Consultingc3@c3consulting.com.br
(11) 93293-3326 n
Cook cook@cookenergia.com
(21) 99387-1021 n ccsamericas@corning.com
(11) 95605-2422 n
D2Wvendas@d2w.ind.br
(11) 91116-0637 n
DatacriticalTIcontato@datacriticalti.com.br
(11) 93278-7401 n
DCA Delta dcaonline@dca.com.br
(41) 3021-1728 n
Edgefy Datacenters comercial@edgefy.com
(41) 99205-7090 n
Eurocab comercial@eurocab.com.br
(11) 99497-8927 n
Facilitadores de Negócios nardini@facilitadoresdenegocios.com.br
(15) 98154-0250 n Fibracemcomercial3@fibracem.com
(41) 99946-0613 n
Instalações elétricas
Estabilizador de tensão Produtos para aterramento Grupo gerador
Dinâmico Modular Filtro de harmônicos
Autotransformador Filtro corretor de fator de potência
Barramento blindado Chave de transferência automática VRLA Equalização e monitoramento Chave estática (STS)
Retificador e inversor
Conversor CC/CC
Barramento de distribuição Rack
Proteção contra surtos
Ar condicionado
Climatizado Servidores Chaminé
Cabeamento Confinamento de corredor quente/frio
Cage para confinamento de racks
Sala-cofre e sala segura
Data center contêiner Micro data center/data center in a box
Gás (expansão direta) Água gelada Chiller Vedações para piso Split de precisão Difusor de pisogrelha
Tubulações para ar-condicionado
Baterias
Lítio
SERVIÇO
E-mail para atendimento ao cliente
Instalações elétricas
Baterias
PDUs gerenciáveis (1) Sistemas de energia CC Estático Estabilizador de tensão Produtos para aterramento Grupo gerador Autotransformador Filtro corretor de fator de potência Conversor CC/CC Barramento de distribuição
Rack Dinâmico Modular Filtro de harmônicos Retificador e inversor Barramento blindado Chave de transferência automática VRLA Equalização e monitoramento Chave estática (STS) Climatizado Servidores Chaminé
Lítio Proteção contra surtos
Frandor comercial@frandor.com.br
(11) 96181-6326 n
GF Piping cotacoes.br.ps@georgfischer.com
(11) 4670-0000
Gigaclima comercial@gigaclima.com
(19) 99474-5049 n
Heating & Cooling info@heatingcooling.com.br
(11) 3931-9900
Intelbras suporte@intelbras.com.br
(48) 2106-0006 n
Leistungcontato@leistung.ind.br
(11) 99189-7097 n
Lightera lightera@latamlightera.com
0800 041 200
Merkant TI info@merkantti.com.br
(11) 3230-7800
Modular Data Centers comercial@modulardtc.com
(11) 5198-7374
OBO Bettermannmkt.info@obo.com.br
(15) 3225-1789 n
Panduit douglas.ozanan@groz.com.br
(11) 99184-3702 n
Protecocomercial@proteco.com.br
(11) 99602-6452 n R&Mbra@rdm.com
(11) 97159-7039 n
Rittal info@rittal.com.br
(11) 3622-2350 n Rosenbergercomercial@rosenberger.com.br
(12) 3221-8500
Roxtec marcio.linhares@roxtec.com
(21) 99425-7980 n
RTArta@rta.com.br
(11) 95302-5648 n
Salf vendas@salf.com.br
(11) 97150-7515 n
Seitec vendas@seitec.ind.br
(19) 99802-7861 n
Siemon carlos_falci@siemon.com
(11) 98101-0571 n
Stemac comercial.geradores@stemac.com.br
(51) 99290-9598 n
TCSolutions contato@tcsolutions.com.br
(11) 2976-5701
Telcomluiztelcom@gmail.com
(33) 99922-6479 n
Empresa e telefone Tubulações para ar-condicionado
Ar condicionado Gás (expansão direta) Água gelada Chiller Vedações para piso Split de precisão Difusor de pisogrelha Cabeamento Confinamento de corredor quente/frio Cage para confinamento de racks Sala-cofre e sala segura Data center contêiner Micro data center/data center in a box
Tranesac@trane.com•••• (11)94566-6659 n
Trisulcontato@trisulmetalurgica.com.br••••••• (11)98452-6239 n
Unioncomercial@unionsistemas.com.br••••••••••••••••••••••••••••••••••• (11)97309-4094 n
Tec and Tec (11) 4328-0080 n vendas@tecandtec.com.br
Telcom (33) 99922-6479 n luiztelcom@gmail.com
Union (11) 97309-4094 n comercial@unionsistemas.com.br
Volga(62) 98322-0405 n comercial@volga.com.br
WEC(15) 99734-7768 n daiane@weccabos.com.br
Proteção contra incêndio
Solução para identificação/etiquetas Cabo óptico energizado
Solução monofibra (3) Solução pré-conectorizada (2) Piso elevado Caixas de superfície e tomada Abraçadeiras de fixadores de cabos Distribuidor óptico (DIO) Eletrocalha (chapa ou aramada) Leito para fibra óptica DCIM –monitoramento
Gerenciador de cabos Patch panel gerenciável
Vedação para passagem de cabos Gaveta TFT (4) Caixa de emenda DIO modular com MPT/MPO Controle de acesso (6) Canaleta Pré-action Water mist Sprinkler Firestop e bloqueios Estanqueidade de salas Cabo óptico Cabo metálico
(1) Power Distribution Units; (2) (2) Com quadro automático e microprocessado; (3) (3) Pré-conectorizados em fábrica; (4) Com monitor, teclado, mouse KVM; (5) CFTV digital, câmera day-night CCD, câmera IP, speed dome; (6) Fechadura eletrônica, biochave, fecho elétrico ou magnético, com leitor e cartão de proximidade, teclado numérico, leitor de cartão, etc.
Obs: Os dados constantes deste guia foram fornecidos pelas próprias empresas que dele participam, de um total de 296 empresas pesquisadas. Fonte: Revista Redes, T T Telecom e Instalações elecom Instalações elecom , maio de 2025. Este e muitos outros Guias de RTI RTI RTI RTI estão disponíveis on-line, para consulta. Acesse www.arandanet.com.br/revista/rti e confira. Também é possível incluir a sua empresa na versão on-line de todos estes guias.
Cabo ribbon de alta formação
Segurança cibernética em redes de banda larga fixa de provedores – Parte 2
Evandro Cesar Vilas Boas, Isabela Ferreira de Vito, Alessandra Carolina Domiciano e Guilherme Pedro Aquino, do Inatel, Huawei e CxCS Telecom – Centro de Segurança Cibernética
ENa segunda parte deste artigo, serão apresentados os mecanismos e políticas de conexão em redes de transporte e interconexão, com ênfase na segurança implementada no BGP. Desenvolvido para oferecer simplicidade e escalabilidade ao roteamento na Internet, o protocolo BGP não inclui medidas de segurança contra ameaças cibernéticas, permitindo que uma variedade de ataques explore essa vulnerabilidade.
ste artigo é resumido e adaptado do white paper Segurança Cibernética em Redes de Banda Larga Fixa. A versão original do trabalho está disponível no site: https://bit.ly/412NtSE.
A primeira parte do artigo, publicado na edição anterior, tratou da comunicação segura aplicada ao acesso GPON. Esta segunda parte aborda a comunicação segura em redes de transporte e interconexão de redes.
Redes de transporte e interconexão
Na interconexão de redes, ponto de conexão entre a rede do provedor e a rede do provedor de trânsito, é essencial implementar mecanismos e políticas de segurança das informações que trafegam entre esses dois domínios. Dentro desse escopo, estão a segurança implementada ao protocolo BGP, responsável pelo roteamento na Internet, a prevenção contra ataques de negação (DoS) e a utilização de ferramentas que auxiliam na prevenção de ataques em cenários de interconexão de redes. Estes dois últimos tópicos serão abordados na próxima edição, na terceira e última parte do artigo.
Protocolo BGP e boas práticas em configuração
Sistemas Autônomos integram roteadores que operam sob um mesmo protocolo de roteamento e estão sujeitos ao mesmo gerenciamento administrativo. Esses sistemas podem ser divididos em duas categorias principais de protocolos de roteamento:
• Roteamento intrassistemas autônomos: responsável por determinar o fluxo de roteamento dentro de um único sistema, também conhecido como protocolos de roteamento interno (IGP - Interior Gateway Protocol). Exemplos incluem RIP - Routing Information Protocol e OSPF - Open Shortest Path First.
• Roteamento inter-sistemas autônomos: realiza o roteamento entre pares de sistemas autônomos distintos. O padrão predominante para o roteamento na Internet é o BGP, atualmente em sua versão 4, conhecido também como BGP4. Este protocolo permite que cada sub-rede anuncie sua existência para o restante da Internet, possibilitando que os roteadores de borda, responsáveis pela interconexão entre os sistemas autônomos, compartilhem informações sobre essas sub-redes e as anunciem dentro de suas próprias redes. Cada sistema autônomo é
ACESSO
identificado por um número de identificação exclusivo, denominado número de sistema autônomo (ASN - Autonomous System Number), utilizado para reconhecimento desses sistemas na Internet.
O protocolo opera através da troca de informações de roteamento entre roteadores vizinhos, possibilitando a disseminação dessas informações por toda a Internet. O BGP estabelece comunicações entre roteadores utilizando o protocolo TCP, conhecidas como sessões BGP. Essas sessões podem ocorrer entre roteadores pertencentes a sistemas autônomos diferentes, caracterizando uma sessão BGP externa (eBGP), ou entre roteadores dentro de um mesmo sistema autônomo que compartilham suas rotas conhecidas, denominada sessão BGP interna (iBGP). Durante essas comunicações, os roteadores trocam informações sobre suas redes conhecidas utilizando prefixos, onde cada qual representa uma ou mais sub-redes.
Quando uma empresa hospeda um servidor web e contrata um provedor de Internet, este assume a responsabilidade de anunciar os endereços IP da empresa para outros provedores de trânsito. Essa divulgação é crucial para garantir que os clientes, por meio de seus próprios provedores, possam acessar os serviços hospedados pela empresa na Internet. Em suma, o provedor atuando como um intermediário essencial na interconexão entre a infraestrutura da empresa e a Internet utiliza o protocolo BGP para divulgar as rotas de seus clientes. Em cenários onde eles atendem clientes que utilizam a Internet exclusivamente para navegação, a rede local dos clientes é considerada parte do sistema autônomo do provedor.
Portanto, os clientes não precisam divulgar suas próprias rotas, já que o provedor utiliza o seu ASN para divulgar o sistema autônomo que inclui as subredes de seus clientes.
Dessa forma, o provedor facilita a comunicação entre os clientes e a Internet, garantindo uma conexão eficiente para seus usuários. Essa abordagem simplifica o gerenciamento
do roteamento para os clientes, que podem delegar o encaminhamento adequado de tráfego pela Internet ao provedor.
Durante uma sessão BGP, um roteador comunica seus prefixos conhecidos, estabelecendo rotas com outros roteadores que, por sua vez, atualizam suas tabelas com base nas informações fornecidas pelos seus vizinhos, roteadores conectados diretamente entre si em uma topologia de rede.
Além disso, os anúncios BGP contêm dois parâmetros cruciais:
• AS PATH: especifica os sistemas autônomos pelos quais o anúncio passou, visando prevenir que um roteador processe anúncios já recebidos;
• NEXT HOP: indica o endereço IP da interface do roteador que iniciou o anúncio do prefixo em questão.
Ao receber um anúncio BGP, um roteador de borda consulta suas políticas de importação predefinidas para determinar se deve aceitar a rota anunciada ou privilegiar uma rota alternativa para aquele prefixo. Um roteador pode receber múltiplos anúncios de rotas para um mesmo prefixo. A seleção da rota adequada considera diversas métricas. A primeira métrica é conhecida como valor de preferência local, a qual os administradores de rede podem configurar para atribuir preferência às rotas específicas, visando, por exemplo, evitar congestionamentos, ou por questões de segurança. Na ausência de divergências no valor de preferência local entre as rotas restantes, é comum que os roteadores optem por aquelas com o caminho AS PATH mais curto, considerando-se que a menor distância implica menos saltos que o anúncio percorreu até chegar ao roteador em questão. Caso todas as rotas possuam valores de preferência e AS PATH idênticos, a seleção recai sobre aquela com o NEXT HOP mais próximo. Os protocolos intrassistemas autônomos utilizam algoritmos, como Dijkstra, e a informação do NEXT HOP para calcular o melhor caminho, o qual é definido como o de menor custo. Nesse contexto,
o próprio administrador de rede configura os custos de cada enlace entre os roteadores. Esse processo garante a escolha da rota mais eficiente para uma sub-rede, tendo como ponto de origem o próprio roteador.
Existem também políticas de roteamento específicas para evitar que provedores comerciais utilizem uma rede de backbone, onde a origem ou destino do tráfego não sejam clientes desse provedor. Isso garante que o tráfego não circule de forma gratuita pela infraestrutura de outro provedor. O protocolo BGP deve ser flexível o suficiente para permitir que administradores de rede definam suas próprias políticas de roteamento. Essas políticas devem se alinhar com as decisões e exigências de seus próprios clientes. Além disso, é essencial que o protocolo seja escalável, levando em consideração o tamanho massivo da Internet, bem como a perspectiva de um crescimento contínuo e exponencial.
O protocolo BGP foi desenvolvido com o propósito de oferecer simplicidade e escalabilidade ao roteamento na Internet. No entanto, sua estrutura não inclui medidas de segurança contra ameaças cibernéticas que exploram o protocolo para atacar suas vítimas. Uma variedade de ataques pode se aproveitar dessa falta de segurança, como o envio de anúncios BGP falsos para roteadores sem mecanismos de filtragem, visando anunciar rotas falsas para determinados prefixos e realizar uma adulteração do tráfego. Isso pode levar ao desvio e à interceptação não autorizada de pacotes destinados a um endereço IP específico na Internet, como um pacote contendo as credenciais de um usuário para acessar uma determinada página web. Essa prática constitui uma forma de espionagem de tráfego, na qual um invasor se infiltra na rota como um dispositivo legítimo, analisando os pacotes enviados para um endereço específico sem ser detectado, semelhante aos ataques MITM. Além disso, o atacante pode bloquear o acesso a dispositivos específicos na rede, caso deseje inserir um dispositivo
ACESSO
intermediário na rota e interromper a entrega dos pacotes ao seu destino. Esses tipos de ataques podem resultar na interrupção do acesso aos serviços ou na interceptação e adulteração de pacotes em tráfego na rede, comprometendo a segurança cibernética. Aspectos como confidencialidade, integridade e validação das mensagens BGP transmitidas estão atualmente no foco das pesquisas para implementações de segurança ao protocolo original. Alguns dos principais desafios enfrentados pelo protocolo incluem a ausência de validação para garantir que o sistema autônomo que divulga um determinado prefixo seja realmente responsável por ele, bem como a possibilidade de adulteração de anúncios BGP para manipular rotas anunciadas. Práticas recomendadas para a segurança do protocolo BGP incluem garantir a confidencialidade dos anúncios transmitidos pelos provedores e provedores de trânsito, a fim de impedir que terceiros obtenham informações sobre as rotas anunciadas. Isso visa evitar ataques passivos de espionagem e proteger as topologias de rede contra inferências por meio da análise desses anúncios. Além disso, é importante implementar proteções contra a injeção de anúncios falsificados, ou a adulteração de anúncios existentes, que utilizam rotas de terceiros maliciosos com o objetivo de obter acesso aos pacotes destinados a um determinado prefixo. Tais ataques podem incluir a exclusão de anúncios BGP legítimos, prejudicando a comunicação entre diferentes redes.
Outra preocupação são os ataques de DoS visando o protocolo BGP, nos quais um atacante pode enviar uma grande quantidade de mensagens anunciando uma rota específica. Isso pode levar diversos roteadores a direcionar seu tráfego por essa rota, sobrecarregando-a e potencialmente tornando-a indisponível. Além disso, os ataques DoS distribuídos podem envolver o envio de múltiplos anúncios BGP falsos para um dispositivo de rede específico, sobrecarregando-o e o impedindo de processar todas as mensagens recebidas.
No entanto, diante da diversidade de ataques possíveis aplicados ao protocolo BGP, torna-se essencial implementar recursos de segurança que assegurem a validação das rotas conhecidas pelo roteador e garantam a resiliência dos dispositivos para manter o fluxo contínuo de informações pela Internet. As soluções de segurança amplamente adotadas incluem a proteção do protocolo TCP usado para estabelecer as sessões BGP, a filtragem de anúncios em busca de conteúdo malicioso ou falso e algumas implementações de criptografia entre roteadores. Um dos métodos mais utilizados e eficazes para reforçar a segurança do protocolo BGP é a aplicação de filtragem nos anúncios deste protocolo, visando identificar e descartar anúncios falsos e potencialmente maliciosos. Esses filtros geralmente empregam critérios como a exclusão de mensagens que anunciam prefixos contendo endereços de uso especial, como endereços de loopback, ou aqueles reservados para redes locais, como a faixa de endereços IP 192.168.0.0/ 16. Adicionalmente, os filtros podem ser configurados para descartar anúncios que contenham números privados de sistemas autônomos ou AS PATHs excessivamente longos.
Os provedores também têm a opção de implementar filtros para bloquear anúncios BGP provenientes de seus clientes finais, uma vez que estes não têm necessidade de enviar tais anúncios oriundos de suas redes locais, sendo esta uma responsabilidade do provedor. Essa medida contribui para prevenir a falsificação de rotas por parte dos usuários, evitando o envio de anúncios falsos para a Internet. Além disso, os filtros podem realizar uma validação de origem, descartando anúncios originados de sistemas autônomos que não sejam detentores do prefixo que estão anunciando. Contudo, é importante ressaltar que garantir a eficácia dessa filtragem torna-se mais difícil à medida que o anúncio passa por múltiplos roteadores antes de chegar ao provedor. Ressalta-se também que muitas das regras de filtragem não contribuem para a segurança em
termos de confidencialidade ou integridade das mensagens transmitidas.
As soluções de criptografia utilizadas para conferir confidencialidade a uma sessão BGP geralmente se baseiam em métodos de criptografia simétrica com chaves pré-compartilhadas que, por mais que confiram segurança para a transmissão desses pacotes, apresentam a desvantagem de exigir o armazenamento e gerenciamento de múltiplas chaves em cada roteador para cada sessão estabelecida. Negociações de DiffieHellman também podem ser utilizadas para determinar a chave de criptografia. Além disso, são exploradas soluções de criptografia assimétrica, onde chaves públicas seriam atribuídas aos roteadores da rede por meio de uma entidade separada responsável pela validação dos dispositivos de rede e pela distribuição dessas chaves públicas, enquanto as chaves privadas permanecem armazenadas localmente nos roteadores. Dessa forma, as chaves utilizadas no processo de criptografia simétrica para transmitir os pacotes pela rede seriam transmitidas entre os roteadores a partir do processo de criptografia assimétrica. Métodos para assegurar a integridade da sessão BGP envolvem a geração de um hash do cabeçalho e dos dados anunciados por algoritmos MAC e chaves pré-compartilhadas entre os dois dispositivos na sessão. Esse hash é enviado em cada mensagem BGP transmitida. Ao receber a mensagem, o receptor faz a verificação da integridade dos anúncios. Essa abordagem ajuda a prevenir ataques que visam a alteração desses anúncios para falsificar rotas. É importante destacar o papel dos provedores em garantir a segurança das interfaces de gerenciamento locais e remotas dos roteadores. A proteção física dos roteadores impede acessos não autorizados aos equipamentos. Isso pode ser alcançado através de medidas como câmeras de segurança, identificação biométrica ou cartões de acesso para controlar quem pode entrar nas instalações físicas dos provedores e nos
data centers. Além disso, é essencial proteger os protocolos de gerenciamento remoto, como o SSH - Secure Shell, frequentemente usados para administrar roteadores de forma remota. Isso pode ser feito através de criptografia, autenticação multifatorial e políticas de acesso restritas para garantir que apenas usuários autorizados tenham permissão para fazer alterações nos dispositivos.
Como a maioria dos protocolos de rede, o BGP não foi inicialmente desenvolvido com foco em segurança. No entanto, pesquisas estão sendo conduzidas com o objetivo de desenvolver um framework de segurança. Entre essas iniciativas, destacam-se o S-BGP - Secure BGP e o soBGP - Secure origin BGP, que integram uma variedade de elementos de segurança para proporcionar uma maior proteção cibernética na utilização do protocolo BGP. Outra iniciativa são as Normas de Acordo Mútuo para Segurança de Roteamento, conhecidas como MANRS - Mutually Agreed Norms for Routing Security. O MANRS traz recomendações com o objetivo de enfrentar as ameaças mais frequentes ao roteamento. Trata-se de uma iniciativa global e no Brasil é preconizada pelo NIC.br - Núcleo de Informação e Coordenação do Ponto BR. Em resumo, o MANRS prevê a adoção de quatro ações práticas, que buscam resolver alguns dos principais problemas de segurança da Internet e dos próprios provedores, como ataques de negação de serviço, spams e o sequestro de blocos IP. Mais informações sobre a iniciativa podem ser obtidas no Portal de Boas Práticas para a Internet do Brasil, mantido pelo NIC.br (https://bcp.nic.br/manrs).
A prevenção contra ataques de negação (DoS) e a utilização de ferramentas que auxiliam na prevenção de ataques em cenários de interconexão de redes serão abordados na próxima edição, na terceira e última parte do artigo.
Comparativo do custo total de propriedade de data centers tradicionais e modulares
OData centers tradicionais e modulares apresentam diferenças não apenas técnicas, mas também de custos. O artigo explora como essas duas abordagens impactam o custo total de propriedade (TCO) ao longo de 10 anos, considerando fatores como mão de obra, manutenção, consumo energético e tempo para lançamento de serviços no mercado.
s data centers pré-fabricados modulares estão transformando o mercado de infraestrutura de TI, proporcionando uma economia média de até 30% no custo total de propriedade (TCO). Com Capex até 27,2% menor e Opex reduzido em 31,6% em comparação às construções tradicionais, essas soluções oferecem vantagens como implantação rápida, eficiência energética e escalabilidade.
Fatores que impulsionam a redução no TCO
Tempo de construção
Data centers modulares préfabricados são construídos em ambiente fabril, o que reduz significativamente o tempo de implantação em comparação com instalações tradicionais. Isso garante uma implementação mais ágil e um menor TTM - Time To Market (tempo para lançamento do serviço). Um TTM reduzido é essencial para maximizar o ROI - Retorno Sobre o Investimento, pois diminui o período em que os recursos operam sem gerar receita. Com isso, as empresas conseguem aproveitar novas tendências de mercado e responder com eficiência a mudanças. Por fim, a capacidade de capitalizar em inovações tecnológicas antes da concorrência oferece uma vantagem competitiva, mantendo a empresa relevante e preparada para desafios futuros.
A construção de unidades modulares em fábricas adota processos automatizados, operando em um ambiente fabril altamente controlado. Como resultado, a necessidade de mão de obra local é reduzida, além de eliminar a dependência de construções artesanais no local, o que contribui para uma gestão mais eficiente dos recursos e ajuda a otimizar o TCO. Essa abordagem permite reduzir despesas operacionais e aumentar a previsibilidade dos prazos e da entrega.
Eficiência energética
Centros de dados modulares são projetados para atender às cargas iniciais, permitindo expansões futuras sem a necessidade de obras no local ou riscos operacionais, à medida que a demanda cresce. Além disso, eles são desenvolvidos com foco em eficiência energética, incorporando sistemas avançados de resfriamento e gerenciamento inteligente de energia. Com isso, é possível minimizar o consumo de energia e reduzir significativamente as contas de serviços públicos. Portanto, essa abordagem não apenas otimiza a sustentabilidade operacional, mas também melhora o retorno financeiro ao longo do tempo.
Escalabilidade
As soluções modulares oferecem a vantagem da escalabilidade incremental. Em vez de construir uma grande instalação com capacidade ociosa desde o início, as organizações podem adicionar
Edgefy
Custo de mão de obra mais baixo
módulos conforme necessário, otimizando seus recursos. Dessa forma, é possível reduzir os gastos de iniciais de Capex e, simultaneamente, minimizar o Opex. Além disso, esses módulos podem ser atualizados ou complementados com novas tecnologias à medida que surgem inovações, garantindo que o data center permaneça eficiente e alinhado com as demandas do mercado.
Redução de riscos operacionais
Com uma solução pré-fabricada, as organizações enfrentam menos riscos e atrasos durante a fase de construção. Essa previsibilidade reduz a chance de imprevistos e permite um planejamento orçamentário mais preciso, otimizando os custos e o cronograma do projeto.
Manutenção e atualizações mais fáceis
Os designs modulares facilitam a manutenção e upgrades, o que pode reduzir o tempo de inatividade e os custos associados a reparos ou atualizações tecnológicas.
Melhor utilização do espaço
Os data centers modulares são projetados para maximizar a utilização do espaço, garantindo um uso mais eficiente dos recursos de área. Isso resulta em custos imobiliários mais baixos e uma redução significativa nos custos de instalação e energia, otimizando o desempenho operacional e financeiro da infraestrutura.
Comparativo de TCO: premissas
Com base em custos conhecidos de implantações, ilustramos a seguir as reduções de TCO, quando comparada a uma solução modular pré-fabricada com uma convencional de data center. Para realizarmos um comparativo entre os dois modelos, iremos nos valer de algumas premissas e um período de análise de 10 anos.
Data center convencional
• Capacidade máxima inicial estimada: 5 MW;
• Área total construída: 3500 m² no dia 1;
• Tempo total de implantação: 24 meses.
Data center modular
• Escalabilidade por módulos: 1 MW;
• Capacidade inicial: 1 MW, com expansão gradual ao longo de 10 anos até atingir 5 MW;
• Área total implantada: 2600 m², dividida em quatro fases de 648 m² cada;
• Primeira fase: concluída em seis meses;
• Fases adicionais: cada expansão concluída em três meses.
Comparativo de TCO: metodologia
Definição dos componentes do TCO
• Capex: custos iniciais relacionados à construção, equipamentos e setup.
• Opex: despesas com ongoing, incluindo utilities, manutenção, colaboradores e custos da gestão da propriedade.
• Custos relacionados ao tempo: atraso do projeto, perda de oportunidades, etc.
Estimativa de custos para construção convencional
• Custo de construção: inclusos materiais, mão de obra e overhead.
• Período de construção: Tempo longo de construção aumenta custos indiretos, tais como financeiros e perda de receita ( time to market ).
• Despesas operacionais: inclusos custos de energia, manutenção, equipe e qualquer uso ineficiente de recursos.
• Custos de contingência: atrasos na construção e estouros de orçamento muitas vezes levam a despesas adicionais.
Estimativa de custo para construção modular pré-fabricada
Considerar os mesmos custos para um data center modular pré-fabricado:
Fig. 1 - Diferença de PUE entre as soluções modulares e tradicionais
Tab. I – Comparativo de TCO – Custo Total de Propriedade
CONSTRUÇÃO
• Custo de construção: tipicamente mais baixo devido às eficiências da fábrica e à redução de mão de obra no local.
• Tempo de construção: Significativamente mais curto, resultando em custos indiretos mais baixos.
• Despesas operacionais: frequentemente mais eficientes devido a projetos energeticamente eficientes e melhor utilização de recursos.
• Custos com contingência: geralmente mais baixos devido à redução de riscos e prazos mais curtos.
Exemplo
Comparação de custo
A comparação de custo ilustra uma diferença de Capex de 27,3% e de Opex de 39,4% entre um data center convencional e práticas operacionais tradicionais e um centro de dados modular pré-fabricado projetado e implementados com as melhores práticas (tabela I).
Construção convencional
Quando projetado no modelo tradicional, um data center precisa ser implantado com sua capacidade final desde o início. O projetista planeja uma carga final
no pior cenário, pois os custos e as penalidades operacionais por ficar sem capacidade durante a vida útil são muito altos. Na realidade, a carga final raramente atinge o valor projetado. Economias significativas em Capex e Opex são obtidas quando o centro de dados é construído para crescer modularmente, implantado por fases conforme demanda.
Modularidade e escalabilidade
Implantar um data center em módulos e escalonar a sua infraestrutura ao longo do tempo resulta em maiores economias, pois os custos de capital e de manutenção são adiados até que sejam necessários para suportar a carga. Além disso, o sistema opera mais próximo de sua demanda a cada fase, resultando em economias de energia. Como pode ser visto, há uma economia de Opex considerável.
PUE entre as soluções modulares e tradicionais
A figura 1 mostra a diferença entre PUE – Power Usage Effectiveness das soluções modulares, que escalam à medida que a carga é aumentada, e tradicionais. No início da vida útil do data center, quando a carga é pequena,
uma grande penalidade de eficiência é incorrida devido à baixa utilização em função da totalidade da carga instalada. A modularidade e escalabilidade diminuem esse efeito em até 50% da conta de eletricidade em instalações reais. A vantagem econômica, tanto em Capex como em Opex, é uma das principais razões pelas quais a indústria está se movendo em direção aos centros de dados modulares pré-fabricados e escaláveis.
Climatização, distribuição de energia, piso elevado
O sistema de climatização dos data centers modulares é mais eficiente, uma vez que utiliza modelos com economizer , e está acoplado próximo às cargas. Isso reduz o custo de energia pois melhora muito a eficiência da distribuição do ar. A distribuição de energia também é mais eficiente em função da proximidade dos UPS às cargas. Os custos do piso elevado podem ser evitados quando a climatização for in row (instaladas nas fileiras dos racks) ou in rack (instalada no próprio rack) e a distribuição de energia e cabos feita por cima.
Pré-fabricado
A arquitetura padronizada pré-fabricada reduz o Capex primeiramente devido ao fato de os componentes serem montados e integrados por um único fornecedor. Em segundo lugar, a construção in loco necessita de uma estrutura de gestão de alto custo para cuidar dos múltiplos fornecedores no campo. Além disso, o tempo gasto na calibração dos controles do sistema de resfriamento através da integração de ventiladores, bombas, circuitos, chillers, torres de resfriamento e outros é drasticamente reduzido quando módulos padrão são implantados.
Áreas menores
Edifícios tradicionais são projetados para pessoas. Por essa razão, salas elétricas e mecânicas podem ser especificadas para consumir de quatro a cinco vezes o espaço de piso para atender aos requisitos do código local, em comparação com a solução modular, projetada para interação humana infrequente. Esse espaço extra exige mais energia e água para resfriar, aquecer e ventilar o espaço. A natureza compacta da solução modular préengenheirada e pré-fabricada significa que mais equipamentos são compactados em
um “invólucro”, resultando em uma eficiência maior quando se pensa em área ocupada. Com um custo típico de R$1076 a R$1614 por m2, isso resulta em economias significativas. A área confinada dentro da solução modular também permite que a operação seja mais rigidamente controlada, pois a influência de outros sistemas (como de conforto do edifício) é inexistente. Isso ajuda a evitar o resfriamento excessivo. Além disso, os módulos de instalações pré-fabricados são isentos de cargas “parasitárias”, como áreas de escritório ou iluminação compartilhada.
Controles de resfriamento padrão e integrados
Os controles de resfriamento impactam a efetividade da planta de resfriamento e a operação em modo economizer . Um projeto com controles integrados padrão torna a operação da planta de resfriamento mais previsível e confiável. Os componentes de resfriamento tradicionais geralmente são sobredimensionados para levar em conta a incerteza de desempenho resultante de sistemas únicos com controles personalizados.
Conclusão
Os projetos tradicionais quase sempre incorporam intencionalmente capacidade excedente de carga, pois a expansão de energia é difícil e de alto custo em um data center em produção. Isso muitas vezes resulta em uma abordagem excessivamente conservadora no planejamento de capacidade, o que resulta em maiores custos iniciais e operação cronicamente ineficiente.
Data centers modulares préfabricados, por outro lado, eliminam a tendência de superdimensionamento desnecessário, pois sua arquitetura modular e padronizada torna mais fácil adicionar ou reduzir capacidade para atender à demanda dinâmica e real. Isso, em conjunto com tecnologias de energia e resfriamento integradas e eficientes, resulta em economias de TCO de aproximadamente 30% em comparação com centros de dados tradicionais.
Publicação com autorização da Edgefy. O artigo original se encontra disponível no site: https://edgefy.com/.
Como a alvenaria steel frame pode simplificar a construção de um data center
OMuito aplicado na construção de edifícios “a seco”, incluindo data centers corporativos em locais críticos como edifícios comerciais, elevados ou prédios antigos, o steel frame é composto por perfis de aço galvanizados, com painéis de diversos tipos, oferecendo leveza, resistência e praticidade a uma edificação. O artigo mostra as principais vantagens e desvantagens deste método construtivo.
steel frame é uma solução moderna e eficiente para a construção de edifícios “a seco”, incluindo data centers corporativos. Nessa técnica, o “esqueleto” da edificação é formado por perfis de aço galvanizado e a “casca” utiliza painéis de diversos tipos em vez de paredes tradicionais de tijolos ou blocos e cimento.
A obra ganha leveza, resistência e praticidade. Isso torna o steel frame uma solução ideal para a construção de data centers corporativos em locais críticos, como edifícios comerciais elevados ou prédios antigos, permitindo reduzir o peso da alvenaria sobre as lajes para compensar a carga dos equipamentos. Esse método construtivo é mais limpo e ágil, oferecendo vantagens em termos de rapidez, precisão e flexibilidade. Por isso, é uma opção cada vez mais utilizada em projetos de construção civil, trazendo eficiência e sustentabilidade aos data centers corporativos.
Construção de um data center em steel frame
A estrutura de um edifício em steel frame é composta por perfis de aço galvanizado, leves e com alta resistência. Eles são cortados e montados de acordo com o projeto, criando a estrutura básica (figura 1). As conexões entre os perfis são feitas com parafusos ou soldas. Logo após a montagem da estrutura, as paredes são “fechadas” com placas de materiais diversos. Podem ser utilizados painéis de gesso acartonado (drywall) ou placas cimentícias, entre outras. No caso de data centers, as placas recebem tratamento que garante resistência a chamas.
Zeittec Data Center Solutions
Essas placas são fixadas aos perfis de aço e, entre elas, podem ser inseridos materiais isolantes acústicos e térmicos necessários à proteção de um centro de dados (figura 2).
Cobertura e piso
A estrutura da cobertura é feita de maneira semelhante às paredes. Perfis de aço são usados para suportar o telhado, que pode ser de diversos materiais, como telhas metálicas, cerâmicas ou de fibrocimento.
Podem ser utilizados forros de gesso acartonado ou outros materiais fixados à estrutura do teto, proporcionando acabamento e isolamento adicionais.
Os pisos também são integrados ao sistema de steel frame, com a base criada com perfis de aço. Sobre essa estrutura, são instaladas placas específicas para piso elevado com alta resistência física e proteção antichamas.
Instalações
As instalações elétricas, de ar-condicionado e cabeamento estruturado de redes são facilmente integradas a essa solução. Os perfis de aço possuem aberturas que permitem a passagem de tubos e dutos sem necessidade de quebrar paredes, facilitando a instalação e manutenção do data center.
A facilidade de acesso às instalações torna o sistema adaptável a futuras modificações ou expansões, tornando-se um aliado no quesito escalabilidade.
Fundação
As fundações para construções em steel frame são geralmente mais leves. Devido ao peso reduzido da estrutura, elas podem ser mais simples e econômicas, como radiers ou sapatas corridas.
LANÇAMENTO
INFRAESTRUTURA
A leveza e a precisão da estrutura reduzem o tempo necessário para a execução das fundações.
Vantagens
Montagem simples e precisa
Na construção com steel frame, as estruturas são pré-fabricadas, facilitando a montagem no local. Essa industrialização garante alta precisão e uniformidade nas peças. Perfis de aço fabricados com alta precisão evitam erros de alinhamento e garantem uma estrutura uniforme.
Menor tempo de obra
A rapidez na montagem reduz o tempo total de construção, o que é crucial para centros de dados, onde a velocidade de implantação pode ser um diferencial competitivo.
Flexibilidade no design
O sistema permite adaptações e expansões futuras no data center de maneira mais fácil e econômica, se comparado à alvenaria tradicional.
Limpeza
O fato de não demandar argamassa e concreto torna o steel frame uma solução “a seco” muito mais limpa. Por isso, é um sistema aplicado na implantação de data centers corporativos em edifícios já
em uso, especialmente em empresas que não podem parar.
Leveza
Uma grande vantagem do steel frame é ser significativamente mais leve do que os sistemas tradicionais de alvenaria.
A menor carga nas fundações resulta em economias significativas nos custos de fundação e infraestrutura. Além disso, materiais leves são mais fáceis de transportar e manusear, reduzindo o tempo e o custo logístico.
No entanto, quando se trata de data centers, a redução de peso tem outra vantagem essencial: compensar a carga de equipamentos robustos, como UPS e racks de processamento sobre as lajes. É um fator que faz toda a diferença na implantação em corporações localizadas em edifícios comerciais antigos.
Isolamento térmico e acústico
Centros de dados exigem um controle rigoroso de temperatura e ruído. O
Fig. 1 – Montagem das estruturas steel frame
steel frame permite a incorporação de materiais isolantes entre os perfis, melhorando o desempenho térmico e acústico. Melhor isolamento térmico significa menor gasto com sistemas de climatização, resultando em economias operacionais.
Segurança
A segurança é uma prioridade em data centers. O steel frame, quando combinado com materiais resistentes ao fogo, pode oferecer alta proteção contra incêndios.
Durabilidade e sustentabilidade
A estrutura de aço galvanizado é resistente à corrosão, garantindo uma longa vida útil sem a necessidade de manutenções frequentes. Já a fabricação mais precisa dos perfis de aço gera menos resíduos de construção. Além disso, o aço é 100% reciclável, o que reduz o impacto ambiental.
Desvantagens
Custo inicial
Em uma obra com steel frame, o custo inicial dos materiais pode ser mais alto, porém pode ser compensado pela redução no tempo de construção e, no longo prazo, pela menor necessidade de manutenção civil.
Disponibilidade de mão de obra
A implantação de um data center exige mão de obra especializada. Com a técnica de steel frame, as equipes precisam ter um conhecimento a mais. Isso pode ser um desafio em algumas regiões.
Case real de aplicação
Um exemplo de aplicação de steel frame foi a implantação do data center principal do IBGE, responsável pela apuração do Censo 2022. O site foi construído pela Zeittec na sede do instituto, localizada no Rio de Janeiro, em um edifício praticamente secular. Como as lajes do prédio antigo não possuíam a resistência adequada para suportar o peso dos racks e demais equipamentos, o ambiente foi preparado com alvenaria em steel frame.
Ao todo, a área útil do centro de dados é de 190 m2. Esse espaço foi dividido em:
• Data hall – sala principal com racks e servidores;
• Sala elétrica - espaço com UPS e painéis elétricos;
• Sala de embalagens - voltada para o recebimento de produtos;
• Sala de reunião;
• Sala com estações de trabalho de TI, onde os profissionais do setor poderão monitorar o data center.
Toda a estrutura foi construída em um sistema de alvenaria convencional aliado ao steel frame utilizando placas cimentícias.
Conclusão
A aplicação de técnicas limpas de “construção a seco”, como a steel frame, tem se popularizado pela versatilidade que oferecem. Esse tipo de construção, apesar de ser bem mais leve que um sistema de concreto convencional, oferece alta resistência e durabilidade.
Data Center Solutions. A versão original pode ser acessada pelo link: https://zeittec.com.br/alvenaria-steel-frame-em-data-center/.
Fig. 2 – Steel frame finalizado
Esta é uma edição adaptada do artigo Alvenaria Steel Frame para Data Center: como ela pode simplificar a construção do seu site corporativo? produzido pela Zeittec
Tecnologias PON atuais e o caminho para PON 25G e 50G
Niki Kirschenmann, da Viavi Networks
NAs tecnologias PON percorreram um longo caminho, oferecendo um amplo range de opções para atender a diversas necessidades de conectividade. À medida que a demanda por uma Internet mais rápida e confiável continua a aumentar, tanto a PON 25G quanto a PON 50G têm seus papéis a desempenhar para permitir a expansão da banda larga e a próxima geração de experiências digitais.
o mundo hiperconectado de hoje, a demanda por serviços de Internet mais rápidos e confiáveis continua a crescer exponencialmente. As redes ópticas passivas (PON) surgiram como uma tecnologia essencial para atender a essa demanda. As tecnologias de rede PON evoluíram significativamente nos últimos anos, oferecendo velocidades, escalabilidade e eficiência aprimoradas. Neste artigo, vamos nos aprofundar sobre o estado atual das tecnologias de rede PON, explorando os avanços que estão moldando o futuro do acesso à Internet de alta velocidade. Também exploraremos as principais diferenças e semelhanças entre redes PON 25G e PON 50G.
Entendendo a rede PON
Redes ópticas passivas, ou redes PON, referem-se a uma classe de tecnologias de rede de fibra óptica que usam arquitetura ponto-multiponto para fornecer serviços de dados, voz e vídeo de alta velocidade. O elemento “passivo” significa que nenhum componente eletrônico ativo é usado na rede de distribuição, o que torna os sistemas de rede PON energeticamente eficientes e econômicos.
As tecnologias de rede PON atuais incluem:
• Gigabit PON (GPON): elemento básico na paisagem da rede PON há anos, a GPON oferece velocidades simétricas de até 2,5 Gbit/s downstream e 1,25 Gbit/s upstream.
FALTA POUCO!
De 4 a 6 de junho, Fortaleza sediará um dos principais encontros sobre a infraestrutura da Internet no Brasil e no mundo!
Na pauta do IX Fórum Fortaleza, teremos discussões técnicas de alto nível:
•Engenharia de tráfego e Communities no IX.br
• Uso de Inteligência Artificial no atendimento da RNP
• Implantação de Segment Routing no IX.br
• Migração de VPN para eVPN
Além de paineis sobre o ecossistema da Internet:
• Norma 4 - a importância da separação entre Internet e telecomunicações
• Conectividade na região Norte e Nordeste
• 6Ghz e Wifi 7 E muito mais!
Os participantes terão ainda a oportunidade de conhecer as melhores práticas operacionais e de segurança na rede no Fórum BCOP Fortaleza.
Faça agora a sua inscrição gratuita: https://fortaleza.forumbcop.nic.br/
REDES ÓPTICAS
A GPON é amplamente usada em ambientes residenciais e de pequenas e médias empresas para oferecer serviços de alta velocidade.
• XG-PON (10G PON): à medida que as demandas de largura de banda aumentaram, a rede PON 10G ganhou popularidade. Suporta velocidades de 10 Gbit/s downstream e 2,5 Gbit/s upstream. Essa tecnologia é adequada para aplicações exigentes, como streaming de vídeo 4K/8K e redes empresariais de alta capacidade.
• XGS-PON (10G PON simétrica): é uma evolução da GPON que oferece maior largura de banda. Pode
disponibilizar velocidades de até 10 Gbit/s downstream e 10 Gbit/s upstream, tornando-a ideal para serviços simétricos. Empresas e provedores de serviços muitas vezes optam pela XGSPON para assistir aplicações com uso intensivo de largura de banda.
• NG-PON2 (rede PON 2 de próxima geração): está na vanguarda da tecnologia de rede PON, com recursos para vários comprimentos de onda e multiplexação por divisão de tempo. Ela pode disponibilizar velocidades de 40 Gbit/s e além, tornando-a adequada para vídeos de ultra-alta definição, IoT e infraestrutura de rede protegida contra obsolescência.
Além disso, dois avanços significativos na tecnologia de rede PON, 25G PON e 50G PON, surgiram como pioneiros na prestação de serviços de banda larga mais rápidos e confiáveis. Ambos demonstram um salto significativo em relação à geração anterior, 10G PON.
Desvendando as diferenças e semelhanças das redes PON 25G e PON 50G
Tanto a rede PON 25G quanto a PON 50G representam avanços significativos na tecnologia de rede PON, oferecendo diferentes capacidades para atender a diversas necessidades. Embora a rede PON 25G ofereça uma solução econômica com um alcance mais longo, a rede PON 50G é mais avançada com conexões simétricas de velocidade ultraalta. A escolha entre os dois depende em grande parte dos requisitos específicos dos provedores de rede e das comunidades que eles atendem.
Avanços e benefícios
O estado atual das tecnologias de rede PON é marcado por vários avanços e benefícios notáveis, incluindo: • Velocidades mais altas: as tecnologias de rede PON agora oferecem velocidades de Gigabit e Multigigabit,
Rede PON 25GRede PON 50G
Velocidade25 Gbit/s downstream e 10 Gbit/s upstream.Velocidades simétricas de até 50 Gbit/s downstream e upstream adequadas para aplicações que exigem Internet ultrarrápida, como streaming de vídeo 8K e jogos de VR.
Capacidade Atende à maioria das aplicações residenciaisEquipada para lidar com a crescente demanda e de negócios, incluindo streaming HD por aplicativos e serviços com uso e jogos online. intensivo de dados.
Comprimentos de ondaUm único comprimento de onda paraMúltiplos comprimentos de onda para upstream e transmissão downstream e váriosdownstream, permitindo transmissão paralela comprimentos de onda para upstream.e maior largura de banda.
Alcance Maior alcance; adequada para implantaçõesOtimizada para aplicações de alcance mais curto, em áreas geográficas maiores.como áreas urbanas densas, onde a elevada capacidade está em alta demanda.
Custo de implantaçãoMais econômica devido ao seu alcanceCusto de implantação mais alto, tornando-a ideal para mais longo e tecnologia madura.cenários em que conexões de velocidade ultra-alta são essenciais.
CompatibilidadeCompatível com tecnologias de rede PON existentes,A rede PON 50G pode exigir atualizações de rede mais facilitando para os provedores atualizaremsignificativas devido aos seus requisitos de suas redes de forma incremental.capacidade e comprimento de onda mais altos.
Tab. I - Diferenças e semelhanças das redes PON 25G e PON 50G
Fig. 1 – Estrutura de rede PON
garantindo que os usuários possam desfrutar de conectividade perfeita mesmo com tarefas que exigem muita largura de banda.
• Latência baixa: a latência reduzida é fundamental para aplicativos como jogos online e videoconferência em tempo real e as tecnologias de rede PON estão otimizando a latência para uma melhor experiência do usuário.
• Escalabilidade aprimorada: os sistemas de rede PON são altamente escaláveis, permitindo que os provedores de serviços atendam às crescentes demandas dos clientes simplesmente adicionando mais assinantes à rede.
• Segurança aprimorada: as redes de fibra óptica são inerentemente seguras e as tecnologias PON continuam a refinar os recursos de criptografia e segurança para proteger os dados do usuário.
• Eficiência de energia: a natureza passiva da rede PON reduz o consumo de energia e a pegada de carbono, alinhando-se ao impulso pela sustentabilidade.
Conclusão
As tecnologias PON percorreram um longo caminho, oferecendo um amplo range de opções para atender a diversas necessidades de conectividade. De GPON a XGS-PON, essas tecnologias estão impulsionando o futuro do acesso à Internet de alta velocidade, permitindo soluções de rede mais rápidas, confiáveis e eficientes em termos de energia. À medida que a demanda por largura de banda continua a aumentar, as tecnologias de rede PON desempenharão um papel fundamental em manter o mundo conectado na velocidade da luz. À medida que a demanda por Internet mais rápida e confiável continua a aumentar, fica claro que tanto o 25G PON quanto o 50G PON têm seus papéis a desempenhar para diminuir a lacuna da banda larga e permitir a próxima geração de experiências digitais. O futuro da tecnologia de rede PON é empolgante, pois abre caminho para comunidades mais inteligentes e conectadas em todo o mundo.
Qual é o significado de o comprimento não ser um parâmetro para o critério de “passa” ou “falha” em um teste de certificação de cabeamento balanceado em campo, conforme a série de normas ISO/IEC 11801 e ABNT NBR 14565? Parte 1
Trata-se de uma questão bastante relevante, que merece uma discussão detalhada e que abordarei no decorrer desta e das próximas edições de Interface
A revisão da NBR 14565 –Cabeamento Estruturado para Edifícios Comerciais está em curso na comissão de estudos que coordeno no Cobei (ABNT CB-3). É uma questão importante, que pode parecer confusa no documento e que merece especial atenção: o limite do comprimento máximo para canais e enlaces do cabeamento balanceado.
O leitor familiarizado com cabeamento pode estar um tanto confuso agora. Esses limites já não estão bem definidos “desde sempre”, ou seja, 100 m para canal e 90 m para enlace permanente? De fato, estão. Não há dúvidas quanto a isto, mas pode haver um problema na interpretação das especificações das normas ISO e NBR citadas acima.
Quando avaliamos os requisitos de ensaios (testes) do cabeamento estruturado, tanto a série de normas ISO/IEC 11801 - Information Technology – Generic Cabling for Customer Premises – Part 1:
Esta seção se propõe a analisar tópicos de cabeamento estruturado, incluindo normas, produtos, aspectos de projeto e execução. Os leitores podem enviar suas dúvidas para Redação de RTI, e-mail: inforti@arandanet.com.br.
General Requirements quanto a NBR 14565 consideram o comprimento medido em campo por meio de um equipamento de teste, como um parâmetro cujo resultado não é um critério de “passa” ou “falha” em um teste de certificação do cabeamento instalado. Novamente, vamos analisar essa questão com riqueza de detalhes aqui em Interface ao longo desta e das próximas edições. De qualquer forma, adianto-me em explicar que o “comprimento físico ” (e esse termo em destaque faz toda a diferença) do canal ou enlace permanente não está aberto, ou seja, há limites de
Embora essas configurações se apliquem aos subsistemas de cabeamento de backbone, quando implementados com cabos balanceados reconhecidos pelas normas, a figura 1 mostra o subsistema de cabeamento horizontal.
O canal, cujo comprimento máximo é limitado a 100 m, inclui o patch cord de equipamento no distribuidor de piso (FD) e o patch cord da área de trabalho na tomada de telecomunicações (TO). O canal pode ser implementado usando o método de conexão cruzada ou interconexão. Independentemente do método
Fig. 1 - Configurações de canal e enlace permanente para testes do cabeamento instalado (mostrando o cabeamento horizontal)
comprimentos bem definidos que devem ser atendidos, inclusive para a aprovação de um teste de certificação do cabeamento instalado e consequente conformidade quanto ao desempenho do cabeamento. A figura 1 apresenta as configurações padronizadas de testes para canais e enlaces permanentes, conforme as normas de cabeamento estruturado ISO/IEC 11801-2 - Information Technology – Generic Cabling for Customer Premises – Part 2: Office Premises, NBR 14565, entre outras.
utilizado, seu comprimento é limitado a 100 m (a figura 1 mostra um exemplo de interconexão). O enlace permanente, cujo comprimento máximo é limitado a 90 m, é definido entre o FD e a TO e não inclui os patch cords no FD e na TO. Vou explicar em detalhes a questão do comprimento e seu tratamento em algumas normas de cabeamento para que o leitor entenda exatamente do que se trata essa aparente “liberdade” quanto a esse parâmetro.
Por que deve haver um limite de comprimento em cabeamento estruturado?
O comprimento de um canal deve ter limites muito bem definidos por se tratar de um parâmetro físico crítico em sistemas de comunicação. Não menos importante que os parâmetros de transmissão que afetam o comprimento está a organização do cabeamento para efeito de gerenciamento da instalação, ou seja, o comprimento é limitado também para oferecer organização à instalação. É por esse motivo, para citar um exemplo, que mesmo quando implementado com cabos ópticos, um canal no subsistema de cabeamento horizontal não pode exceder 100 m. A limitação nesse caso não se deve às características de transmissão do meio físico (fibra óptica) e sim ao limite de comprimento estabelecido para um canal horizontal. Note que, se o comprimento do cabeamento horizontal variasse em função do meio físico utilizado, seria muito complicado manter a organização da instalação. Portanto, a padronização é necessária.
Fatores que afetam o comprimento do canal
A partir de agora, vou passar a usar o termo canal como o meio físico de transmissão e sinônimo de canal de transmissão, sem relação com a configuração de canal para testes do cabeamento, definida anteriormente. Quando necessário, farei a distinção entre ambos os usos desse termo ao longo da discussão. Isto posto, com relação aos parâmetros de transmissão,
o comprimento de um canal é limitado devido:
• à atenuação do meio de transmissão;
• ao atraso de transmissão (especificação da aplicação);
• ao atraso de propagação (especificação do meio físico);
• ao desvio do atraso de propagação (delay skew, especificação do meio físico).
Atenuação
A atenuação é um dos parâmetros secundários de um canal de transmissão e pode ser definida como a perda de potência de um sinal devido à sua propagação por um determinado meio físico ou canal de transmissão (figura 2). Entretanto, o grau de atenuação do meio varia em função do material, ou combinação de materiais que o constitui, perdas no dielétrico, frequência de operação, temperatura, entre outros fatores. De qualquer maneira, podemos dizer com segurança que esse é o principal fator limitante do comprimento de um canal de transmissão. Em um sistema de comunicação digital, a eletrônica responsável pela decisão da informação recebida, codificada em um sinal elétrico, precisa que este sinal seja entregue ao receptor em condições de ser decodificado e sua potência é um dos fatores críticos. Portanto, se a potência do sinal recebido for muito baixa (esse limite é físico, depende das características do canal e da eletrônica de decisão), ele não será decodificado e recuperado e um erro de comunicação será gerado no sistema.
A atenuação do canal de transmissão (Acanal) é uma função logarítmica da relação entre Pout,
Fig. 2 - Representação da atenuação em um canal de transmissão
Tab. I - Atenuação em relação a potência de um sinal transmitido por um canal de
Relação entre potências de
representando a potência do sinal na saída do canal e Pin, representando a potência do sinal em sua entrada. Por se tratar de perda, a relação entre essas potências é sempre inferior a 1. A tabela I mostra a relação entre a perda de potência de um sinal ao se propagar por um canal de transmissão e sua atenuação equivalente, em dB. É importante entender que uma atenuação de 3 dB corresponde a uma perda de 50% da potência do sinal transmitido, ou seja, nesse caso metade da potência do sinal transmitido será entregue ao receptor. Para uma atenuação de 30 dB, apenas um milésimo da potência do sinal transmitido será entregue ao receptor. Isso corresponde a
uma perda de 99,9% da potência do sinal originalmente transmitido.
Para que o leitor tenha uma boa ideia do quanto a atenuação em cabos balanceados é alta e, portanto, crítica para a determinação do limite de comprimento de um canal, observe que as normas ISO/IEC 11801-1 e NBR 14565 estabelecem uma atenuação máxima de 35,9 dB na frequência de 250 MHz para um canal classe E (categoria 6), com 100 m de comprimento. Isso corresponde a uma perda de cerca de 4000 vezes na potência do sinal, ou uma perda de 99,975% da potência do sinal originalmente transmitido.
Veja então que estender o comprimento do canal além de um limite seguro traz
implicações importantes que não podem ser negligenciadas.
Até aqui vimos os modelos de testes de certificação de canais e enlaces permanentes em ca beamento estr uturado, conforme especificações de normas, os fatores que afetam o comprimento de um canal de transmissão e começamos por uma breve análise do quão significativa é a atenuação de um canal para a transmissão de sinais. Continuaremos a discutir o tema na próxima edição de Interface aprofundando um pouco a discussão sobre a atenuação e seus fatores determinantes em linhas de transmissão.
Paulo Marin é engenheiro eletricista, doutor em interferência eletromagnética aplicada à infraestrutura de TI e telecomunicações e mestre em propagação de sinais. Marin é membro sênior do IEEE - Institute of Electrical and Electronics Engineers, consultor, palestrante, coordenador da ABNT/Cobei e autor de livros técnicos.
transmissão
Luís Domingues, engenheiro sênior responsável
pela
área de sistemas para data centers na CommScope
IA mudará a forma como os data centers são construídos
Em 2024, observamos que o crescimento exponencial da demanda por processamento de IA - Inteligência Artificial em data centers exigiria processos mais eficientes, implementações mais rápidas e soluções de problemas mais criativas para lidar com a persistente escassez de talentos de alto nível em TI. A premissa certamente se mostrou verdadeira, e de uma forma ainda mais acentuada do que esperávamos.
De acordo com uma pesquisa publicada em maio de 2024 pela Goldman Sachs, as implementações de IA deverão provocar um aumento de até 160% na demanda por energia em data centers.
A IEA – International Energy Agency estimou que, globalmente, os data centers consumiram 460 TWh de eletricidade em 2022, representando cerca de 2% de toda a energia gerada, número que deve dobrar até 2026. Um dos motivos é a exigência, por parte das implementações de IA, de um poder computacional maior do que outras formas de processamento, já que GPUs com alto consumo de energia trabalham intensivamente para atender à crescente demanda. Em 2024, a necessidade de estratégias mais eficientes se tornou evidente. Já em 2025, veremos essas estratégias sendo colocadas em prática. Existem importantes iniciativas e planos audaciosos em andamento, mudanças na construção de centros de
Esta seção aborda aspectos tecnológicos das comunicações corporativas, em especial redes locais, mas incluindo também redes de acesso e WANs. Os leitores podem enviar suas dúvidas para Redação de RTI, e-mail: inforti@arandanet.com.br.
dados que levarão o processamento em nuvem para o próximo nível.
A expansão das aplicações da IA em todos os aspectos da vida pessoal e profissional tem sido impressionante, comparável aos primeiros dias da WWW - World Wide Web, que deu início à Internet global e tornou-se parte essencial da vida moderna em tempo recorde.
Dizem que o telefone só se tornou um item comum nos lares 50 anos após sua invenção. Já a Internet levou cerca de 20 anos. Agora, a IA parece pronta para fazer o mesmo em uma fração desse tempo, à medida que rapidamente encontra novas aplicações no ambiente corporativo, sendo a grande maioria delas suportada por data centers.
O número de usos criativos da IA no setor corporativo está crescendo exponencialmente e mal arranhamos a superfície do seu impacto no comércio, na ciência e na sociedade em si. Ironia do destino: a maior inovação em décadas está fazendo sua influência ser sentida de diversas maneiras em pequenas coisas, porém de forma cada vez mais crescente no mercado corporativo.
Os maiores nomes da tecnologia estão construindo como nunca, aumentando suas médias de Capex, que antes eram de 10 anos, à medida que a corrida frenética pelo processamento de IA ganha força.
Não é apenas a IA que está evoluindo, mas também o seu modelo de entrega. O AI-as-a-ServiceInteligência Artificial como Serviço está preparando o caminho para a adoção das funcionalidades da tecnologia pelas empresas, especialmente a generativa, que pode desempenhar múltiplos papéis, desde atendimento ao cliente até planejamento financeiro de longo prazo.
Os próprios data centers estão cada vez mais utilizando a IA generativa (GenAI) para lidar com a persistente falta de profissionais qualificados em TI. Isso é feito por meio do uso de IA para monitorar, gerenciar e apoiar
equipes enxutas, permitindo que elas sejam mais produtivas. Com uma forma intuitiva de fazer perguntas e receber recomendações, uma equipe de TI com menor capacitação técnica pode endereçar uma boa parte das pressões operacionais enfrentadas pelos data centers.
Com essas expansões, o acesso confiável à energia em quantidade suficiente continua sendo um desafio. Os data centers consomem uma porcentagem crescente da energia gerada globalmente, e essa tendência deve continuar no futuro próximo, representando até 44% do aumento da demanda de energia elétrica até 2028, de acordo com a Bain & Company, em um relatório recente compartilhado pela Utility Dive. A escassez de energia excedente na maioria das regiões está levando as novas construções a locais novos e, por vezes, inesperados, para garantir proximidade com fontes acessíveis de geração de energia ou o aluguel de energia dedicada da rede para assegurar o fornecimento.
Todos vimos histórias recentes sobre a adoção de geração de energia nuclear dedicada para data centers. A expectativa é que isso se intensifique ainda mais em 2025 e nos anos seguintes.
A escolha pela energia nuclear é lógica: é uma fonte estável, escalável e relativamente sustentável em comparação com fontes baseadas em combustíveis fósseis. Ao mesmo tempo, os data centers estão fazendo o possível para reduzir o consumo de energia, tanto por razões econômicas quanto por responsabilidade ambiental, ao adotar sistemas de refrigeração a água em substituição aos menos eficientes de refrigeração a ar forçado.
À medida que a escala do processamento de IA impulsionado por GPUs aumenta, essas vantagens se tornarão mais evidentes, assim como os benefícios do aumento no tempo de atividade (uptime) da rede, já que o calor excessivo é um
dos principais responsáveis por interrupções e falhas prematuras de componentes.
Relacionada tanto às necessidades de energia quanto de refrigeração, a infraestrutura de fibra do data center continua se tornando mais densa nas instalações de computação com IA. As GPUs em matrizes de IA precisam estar totalmente conectadas. Cada GPU deve ser capaz de se comunicar com todas as outras GPUs, o que aumenta a complexidade de forma exponencial e complica a refrigeração. Para superar os desafios da infraestrutura de fibra necessária, os centros de dados usarão sistemas de fibra de alta densidade para fazer essas incontáveis conexões, colocando mais fibras e conectores na área existente para alimentar suas redes de IA.
Forçando mais recursos de computação para menos racks, os data centers podem reduzir o consumo de energia e simplificar as necessidades de refrigeração também. Além disso, à medida que os data centers hyperscale migram de 2x400G (totalizando 800G) para 800G nativo, essa infraestrutura avançada de fibra fornecerá a capacidade
necessária para acomodar a demanda que ainda está por vir.
Passei muito tempo analisando os maiores data centers hyperscale, o modelo licenciado de IA como serviço e como se relacionam com o setor corporativo. Mas há outro lado importante do negócio a ser considerado em 2025, como os MTDCs - Multi-Tenant Data Centers abrirão caminho para seus clientes corporativos. Independentemente do seu setor, as necessidades das empresas estão mudando rapidamente, e os MTDCs devem permanecer flexíveis para acomodá-las.
Uma abordagem padronizada para uma infraestrutura de fibra mais densa é fundamental, pois reduz as demandas sobre as equipes de TI e simplifica as mudanças de configuração. Os principais fabricantes de infraestrutura de fibra estão em processo de lançar ou melhorar tecnologias mais simples e plug-and-play para auxiliar todos os data centers (especialmente os MTDCs) a reduzir a curva de habilidades necessária para ser o mais ágil e responsivo possível, mantendo os SLAs mesmo com menores equipes de TI.
As mudanças fundamentais que ocorrerão nos data centers neste início da era da IA serão realmente notáveis. Desde a escolha do local até a escala, tanto os hyperscalers quanto os MTDCs precisarão expandir suas capacidades de fibra óptica ao mesmo tempo em que reduzem o perfil físico dessa infraestrutura, adotar novas tecnologias de refrigeração e repensar como compram e utilizam a energia elétrica. Infelizmente, a escassez de talentos altamente qualificados em TI continuará, mas a própria IA já está possibilitando maneiras de ajudar os operadores a preencher essas lacunas com monitoramento e gerenciamento impulsionados por GenAI. Com a crescente adoção da IA no ambiente corporativo, os data centers serão cada vez mais demandados a fornecer a computação massiva necessária para transformar promessas em benefícios práticos para os negócios. Assim como a IA, os sites inovarão e se adaptarão para atender às necessidades em constante mudança e entregar as soluções ideais que esta indústria em rápido crescimento exige.
Verizon DBIR 2025
A Verizon acaba de publicar a versão 2025 do DBIR – Data Breach Investigations Report , ou “Relatório de Investigações sobre Violações de Dados”, na tradução livre. Com 18 anos de existência, o estudo é um dos mais conceituados da indústria de segurança da informação.
O seu principal valor é o de apresentar as tendências para os ataques cibernéticos atuais e indicar caminhos a seguir na estratégia das empresas. Como o nome já explica, o DBIR é montado com base na investigação de eventos reais de quebra de segurança, e para esta edição a equipe declara ter analisado 22.052 incidentes reais de segurança (incident ), 12.195 deles vazamentos confirmados de dados (breach) em organizações de todos os tamanhos e segmentos, entre 1o de novembro de 2023 e 31 de outubro de 2024, em 139 países. O curto espaço de tempo entre a data de término da amostragem e a publicação não permitiria guinadas muito expressivas nas tendências observadas. Com 117 páginas, o documento pode ser obtido diretamente no site da Verizon: https://www.verizon.com/ business/resources/reports/dbir/.
Neste artigo irei explorar um resumo das descobertas realizadas e como podemos atuar para reduzir os riscos. De cara, veremos que realmente não há nada novo. São velhos problemas que resistem ao tempo, evidência dos desafios enfrentados há décadas.
Entre os vetores iniciais de acesso, o relatório aponta a exploração de vulnerabilidades como responsável por 20% das violações de dados, um aumento de 34% em relação à edição do ano passado. Um motivo para esta taxa
pode ser a constatação de que em média as organizações levam 32 dias para remediar as vulnerabilidades de seus dispositivos perimetrais, quando o fazem, pois apenas 54% foram completamente corrigidas. Como destaque está a exploração em dispositivos de borda de rede ou VPNs, que cresceu quase oito vezes. Junto com a exploração de vulnerabilidades vem o abuso de credenciais, com 22% dos casos, e o velho e bom phishing, usado como vetor inicial. em 16% das ataques. Notem que aqui temos três problemas muito antigos. A questão das vulnerabilidades é um mal crônico da sociedade digital. Os criminosos sabem que novas tecnologias sempre trazem novas brechas, e que assim vale a pena o investimento na investigação das falhas e criação de ataques dia-zero, embora ataques de muitos dias ou anos ainda funcionem muito bem, já que sabemos que há organizações que nunca corrigem suas vulnerabilidades, ou parte delas. Nem sempre é sua culpa. Sabendo-se que a possibilidade de um ataque explorar uma vulnerabilidade ainda desconhecida ou não remediada é alta, as organizações devem investir no monitoramento e visibilidade de seu ambiente, incluindo acessos e comportamentos suspeitos de usuários e aplicações. Só detectamos o que vemos. Mas diferente das vulnerabilidades, o phishing pode ser reduzido a níveis mínimos se as empresas investirem em boas práticas de segurança de correio eletrônico, soluções eficientes e treinamento e conscientização de seus funcionários. O grande benefício para o atacante é que pelo phishing ele consegue um contato direto com o usuário, sempre suscetível à engenharia social. Aqui nem podemos falar de mal crônico, e sim do DNA de qualquer organização. O ser humano
sempre será a parte mais débil da estratégia de segurança, e os criminosos sempre tentarão chegar a ele, como mostram os muitos milhares de golpes via WhatsApp no Brasil. Somos enganados em casa e no trabalho. Os atacantes sabem disso e estão investindo pesadamente na sofisticação dos ataques por correio eletrônico, inclusive com uso de IA –Inteligência Artificial, como já discutimos outras vezes.
A exemplo dos relatórios dos últimos anos, o DBIR apontou um alto índice de violações envolvendo um ser humano: 60%, o que reforça a necessidade de cuidar dos treinamentos dos funcionários. Os casos de phishing se classificam dentre estes que se aproveitaram dos usuários, assim como os casos de abuso de credenciais. Esse tipo de ataque, ao contrário do que pensamos muitas vezes, não se resolve com uma solução simples de duplo fator de autenticação. Os criminosos já usam há algum tempo técnicas bem estabelecidas de contorno para elas. A solução está em adotar ferramentas mais robustas e novamente ter visibilidade para detectar ações suspeitas.
Além dos usuários, os invasores também estão se aproveitando de parceiros de negócio para chegarem aos seus alvos. Foram 30% de observações, o dobro em relação ao ano anterior. Temos aqui um bom exemplo da atuação dos grupos de crime cibernético. Uma porta se fecha quando as organizações alvo investem em tecnologia e pessoal, mas outra se abre quando encontram nos seus provedores, em muitos casos empresas bem menores, condições mais propícias para realizarem os ataques. De novo, nada novo. Casos semelhantes foram reportados em 2014, uma invasão através da conexão de um provedor de ar-condicionado com
a vítima, e até via cardápios digitais que funcionários utilizavam para pedir refeições na empresa. O link foi adulterado para, além de mostrar o menu, baixar um malware.
Outro dado expressivo do DBIR é sobre os ataques ransomware, que cresceram 37% em relação a 2024 e são responsáveis por 44% das violações. É bastante, embora o relatório aponte que 64% das vítimas tenham se negado a pagar o resgate, cuja média ficou em US$ 115 mil, menos que o anterior de US$ 150 mil. Porém, ao separar as grandes empresas do chamado segmento SMB (pequenas e médias), os analistas perceberam uma diferença significativa entre a realidade de ambas. Enquanto para as grandes o ataque foi observado em 39% dos casos, para as médias e pequenas o índice foi de 88%.
Como comentei no início do artigo, ainda enfrentamos os mesmos desafios de 10, 20 anos atrás. Para aqueles que acham que agora as ameaças digitais se resumem à IA e que esta resolve tudo, pode até parecer um choque. Mas é a realidade, com menos glamour e mais trabalho.
Na próxima edição desta seção Segurança , pretendo trazer mais apontamentos sobre os dados mostrados no relatório DBIR 2025.
Marcelo Bezerra é especialista em segurança da informação, escritor e palestrante internacional. Atua há mais de 30 anos na área, com experiência em diferentes áreas de segurança cibernética. No momento, ocupa o cargo de Gerente Sênior de Engenharia de Segurança na Proofpoint. Email: marcelo.alonso.bezerra@gmail.com.
PRODUTOS
ONT
A ONSec, da 2Flex Telecom, apresenta taxas de transferência de 2,4 Gbit/s em 5 GHz e 600 Mbit/s em 2,4 GHz. O equipamento pode se transformar em uma central de segurança capaz de gerenciar
dispositivos como câmeras de segurança, alarme sonoro e detectores de movimento. A integração é feita por meio do módulo SEC, dispositivo USB responsável por ativar o sistema e realizar a integração. Já a gestão é feita pelo 2Flex IoT, aplicativo disponível no Google Play e na App Store. Site: www.2flex.com.br.
Monitoramento de redes
O Inatel - Instituto Nacional de Telecomunicações apresentou uma solução que transforma dados técnicos em decisões estratégicas, desenvolvida para apoiar provedores de Internet de pequeno e médio portes. A ferramenta permite visualizar, de forma intuitiva, o desempenho da rede por meio de mapas dinâmicos e relatórios personalizados, melhorando a
manutenção preditiva e o serviço prestado. Diferente das soluções tradicionais atreladas a fabricantes, a tecnologia é agnóstica e adaptável a qualquer estrutura existente nas operadoras, o que democratiza o acesso à inteligência de rede. Site: https://inatel.br/home/.
Telefonia SIP
A Alcatel-Lucent Enterprise disponibilizou uma edição atualizada dos DeskPhones SIP Myriad S Series, incluindo os M3s, M5s, M7s e M7s Pro (foto), para fornecer aos usuários das plataformas Rainbow Hub e OpenSIP uma experiência otimizada de comunicação e colaboração. Os novos modelos apresentam telas LCD de alta definição e teclas de linha programáveis com LEDs nas cores azul e vermelho. O M7s Pro vem com Wi-Fi de banda
dupla de 2,4 GHz e 5 GHz e Bluetooth 5.2 integrados. Já o M5s e o M7s suportam um dongle USB Wi-Fi externo, permitindo aplicações corporativas sem fio. Site: https:// www.al-enterprise.com/pt-br.
Gerenciamento de bobinas de cabos
A Prysmian desenvolveu o ALESEA, uma tecnologia que combina dispositivos físicos e sistemas digitais que
atuam como um assistente virtual inteligente para a gestão de inventário de cabos e bobinas. O produto utiliza um dispositivo inteligente integrado a um sistema digital com suporte especializado. Instalado na face externa das bobinas, o dispositivo é equipado com GPS, sensores ambientais, detectores de movimento e conectividade
móvel, coletando informações continuamente, em tempo real. Site: br.prysmian.com.
Distribuidor de fibra óptica
A CommScope disponibilizou o Propel XFrame, a mais recente novidade do portfólio Propel de soluções para data centers de alto desempenho. O produto consiste em um distribuidor de fibra óptica para montagem em piso, projetado para atender e
se adaptar às exigências de data centers e instalações de computação de alto desempenho.
A solução modular simplifica as conexões cruzadas de fibra de alta densidade, com patch cords de comprimento único, e suporta emendas e conjuntos de breakouts pré-terminados. Site: www.commscope.com.
Baterias
de lítio
As baterias de lítio da Moura apresentam especificações de 100 Ah e 48 V e são indicadas para data centers e sites de telecomunicações (POPs) localizados em áreas remotas ou sujeitas a frequentes quedas de energia. Com capacidade de descarga de até 80%, possuem uma vida útil superior a
6000 ciclos, o equivalente a cerca de 12 anos, sem considerar condições externas e de uso que possam alterar seu desempenho. Site: https:// www.moura.com.br/.
Controle de portas em rede
Fabricado pela Axis Communications, o A1810-B é um controlador de acesso capaz de gerir até oito portas
em rede. Com recursos de segurança cibernética integrados, o equipamento é voltado para salas de proteção. Site: www.axis.com.
Câmera bidirecional
A Tapo C500, da TP-Link, é uma câmera de segurança WiFi externa que combina resolução full HD 1080p com IA – Inteligência Artificial capaz de identificar, em tempo real,
movimentações relevantes e enviar notificações e vídeos diretamente pelo smartphone através do aplicativo gratuito Tapo, também da TP-Link. Em sua segunda versão, o dispositivo agora conta com o recurso de visão noturna em cores que permite capturar imagens de pessoas e veículos com mais precisão, tornando as gravações mais confiáveis. Site: www.tp-link.com/br.
DrayTek disponibilizou o e-book
Segurança –Melhores Práticas de Operação do Roteador. Com 23 páginas, a publicação traz diversas práticas que podem ser adotadas para elevar a segurança de um roteador, independente do fabricante, e consequentemente a proteção de uma rede. O guia pode ser baixado gratuitamente no site da DrayTek: www.draytek.com.br.
inédita das linguagens contemporâneas mais utilizadas, incluindo R e Python. Ao longo de 18 capítulos divididos em três blocos temáticos, são abordadas as principais técnicas estatísticas, de modelagem multivariada e de machine learning, que permitem aos leitores aprender seus fundamentos, traduzi-los para linguagem de máquina, incluindo a implementação dos algoritmos em softwares específicos, e tomar decisões cotidianas a partir dos dados obtidos, seja em ambientes acadêmicos, governamentais ou organizacionais. Editora LTC/Grupo GEN (https:// abrir.link/HNeRf), 1288 páginas.
país, incluindo o leilão da faixa de 6 GHz em 2026, não arrecadatório e alinhado a políticas públicas, e incentivos à atualização da infraestrutura das operadoras. Segundo a pub licação, as principais vantagens da tecnologia são a velocidade de até 10 Gbit/s, menor latência, maior eficiência energética e integração com soluções baseadas em IA – Inteligência Artificial. Com 52 páginas, a publicação está disponível pelo site: https://abrir.link/xBDYH.
m Manual de Análise de Dados: Estatística e Machine Learning com Excel, SPSS, Stata, R e Python , os autores Luiz
Paulo Fávero e Patrícia Belfiore apresentam as principais técnicas
estatísticas, de modelagem multivariada e machine learning. Para se tornar ainda mais completa, a 2a edição foi revista e atualizada e traz uma abordagem
Huawei Brasil, em parceria com a Softex e a Anatel, disponibilizou o White Paper para o Desenvolvimento do 5G-A no Brasil. O documento reforça a importância do 5G-Advanced para expandir as capacidades da infraestrutura digital brasileira e acelerar a modernização da economia em setores como indústria, logística, transportes e serviços públicos. Na análise, é proposta a adoção de medidas para acelerar a implementação do 5G-A no
autoria de Ricardo Mansur, o livro Inteligência no Software traz uma introdução aos fundamentos da IA – Inteligência Artificial, com uma análise das práticas em uso pelo ecossistema de desenvolvimento de software. Na obra, o escritor revela como os recursos disponíveis, a estrutura organizacional, a estratégia de crescimento, as métricas de avaliação do desempenho e o conjunto balanceado de indicadores que mede o desempenho dos elementos do modelo de negócio influenciaram as mudanças no ecossistema empresarial de software. Editora Ciência Moderna (https:// abrir.link/BwwTX), 248 páginas.
Governança da Internet à brasileira: o sucesso multissetorial do CGI.br
A governança da Internet, uma rede global complexa e em constante evolução, apresenta desafios únicos. Enquanto o debate mundial oscila entre modelos de controle estatal, privado ou abordagens que buscam incluir múltiplos atores, o Brasil trilhou um caminho próprio e pioneiro. Já em 1995, o país estabeleceu o Comitê Gestor da Internet no Brasil (CGI.br). Essa iniciativa visionária não apenas antecipou a necessidade de coordenação e políticas para o desenvolvimento da rede, mas também instituiu, desde o início, um modelo de gestão participativa, lançando as bases para um ecossistema digital nacional robusto e democrático.
O CGI é um grupo multissetorial formado por 21 membros, sendo nove do governo, quatro do setor empresarial, quatro do terceiro setor, três da comunidade científica e tecnológica e um especialista de notório saber. Essa arquitetura garante a promoção de diálogos plurais e inclusivos onde as decisões refletem a complexidade e o impacto multifacetado da Internet na sociedade. Para implementar suas decisões, o CGI.br conta com o Núcleo de Informação e Coordenação do Ponto BR (NIC.br), seu braço executivo, entidade civil sem fins lucrativos. A legitimidade do CGI.br é reforçada por processos democráticos: desde 2004, os representantes dos setores não governamentais são eleitos por seus pares, conferindo uma base representativa sólida à participação da sociedade civil, empresarial e acadêmica. Embora com participação governamental significativa, o Comitê busca consenso e equilíbrio entre os setores, assegurando uma notável autonomia operacional. Essa independência permitiu a criação de
Esta seção aborda aspectos técnicos, regulatórios e comerciais do mercado de provedores de Internet. Os artigos são escritos por profissionais do setor e não necessariamente refletem a opinião da RTI
marcos importantes, como os Princípios para a Governança e Uso da Internet no Brasil em 2009, cujos preceitos sobre liberdade, privacidade e neutralidade influenciaram diretamente a legislação brasileira. A legitimidade do modelo, portanto, não deriva apenas de sua estrutura representativa, mas é continuamente construída através de processos democráticos e da entrega de resultados concretos e amplamente aceitos.
O sucesso e a singularidade do modelo brasileiro não passaram despercebidos no cenário internacional. Órgãos globais como a ICANNCorporação da Internet para Atribuição de Nomes e Números já elogiaram a abordagem multissetorial do Brasil, destacando o papel do CGI.br em avanços técnicos, assim como organizações intergovernamentais, como a Unesco - Organização das Nações Unidas para a Educação, a Ciência e a Cultura, o reconheceram como uma “referência global em gestão participativa”. Esse reconhecimento internacional está frequentemente atrelado não apenas à estrutura inovadora, mas aos resultados tangíveis produzidos, posicionando o Brasil como uma liderança, especialmente para países em desenvolvimento.
A sociedade civil organizada, com representação eleita, vê o CGI.br como um espaço fundamental para a defesa de princípios como neutralidade da rede, privacidade e liberdade de expressão. A comunidade científica e acadêmica reconhece seu papel histórico e o descreve como referência democrática. O setor empresarial, representado por associações setoriais, participa e reconhece os benefícios de iniciativas coordenadas pelo CGI.br/NIC.br, como a melhoria da infraestrutura de rede. Esse consenso doméstico sobre o valor do modelo em si confere uma estabilidade e legitimidade notáveis ao arranjo.
O reconhecimento do CGI.br se fundamenta em conquistas concretas, como o Marco Civil da Internet (Lei 12.965/2014), considerado uma “Constituição para a Internet” no Brasil. Os princípios do CGI.br foram a semente dessa legislação, e o Comitê atuou ativamente em sua defesa, sendo um ator relevante na interpretação de seus pilares. Igualmente importantes são os sucessos técnicos e de infraestrutura
viabilizados pelo NIC.br sob as diretrizes do CGI.br. O projeto IX.br (Brasil Internet Exchange) criou a maior interconexão de redes do mundo em volume de tráfego e número de participantes, melhorando drasticamente a qualidade da conexão no país. O CERT.br é uma referência em tratamento de incidentes de segurança, e o Cetic.br produz dados sobre o uso de TICs reconhecidos internacionalmente.
Um fator crucial para esses sucessos é o modelo de financiamento: as receitas obtidas com o registro de domínios “.br” pelo Registro.br são reinvestidas diretamente no desenvolvimento da infraestrutura, na segurança da rede e nas atividades de governança. Isso cria um ciclo virtuoso e autossustentável, garantindo a capacidade operacional e a independência financeira necessárias para a execução de projetos de longo prazo e para a manutenção da própria estrutura de governança.
Em suma, o modelo brasileiro de governança da Internet, centrado no CGI.br, representa uma abordagem pioneira e bem-sucedida. Seu reconhecimento nacional e internacional deriva da implementação efetiva do multissetorialismo, da legitimidade democrática conquistada por meio de eleições e consenso, da independência funcional e, crucialmente, dos resultados tangíveis que entrega, desde a legislação progressista como o Marco Civil até infraestrutura técnica de ponta como o IX.br.
A combinação de representação equilibrada, processos democráticos, autonomia operacional e financiamento sustentável oferece lições valiosas para a governança da Internet em todo o mundo. A preservação da integridade e da capacidade de atuação do CGI.br permanece essencial para que o Brasil continue a colher os frutos desse modelo exemplar.
Wardner Maia é conselheiro e membro fundador da Abrint, tendo sido o primeiro presidente da entidade. Graduado em engenharia elétrica com especialização em telecomunicações, é professor de tecnologias ligadas a redes voltadas para provedores regionais. Desde 1995 atua como diretor técnico na MD Brasil, provedor de Internet da cidade de Bebedouro, SP.