Skip to main content

RTI Maio 2026

Page 1


Wi-Fi 7: oportunidade para melhorar a experiência das redes de banda larga no Brasil – Parte 1

Com mais capacidade, menor latência e suporte a ambientes de alta densidade, o Wi-Fi 7 surge como uma plataforma relevante para modernizar redes e ampliar a inclusão digital.

INCLUSÃO DIGITAL 20

Abrint Global Congress 2026

O AGC – Abrint Global Congress acontece entre os dias 6 e 8 de maio em São Paulo, com o objetivo de conectar profissionais e empresas para debater tendências e acompanhar os principais lançamentos do setor.

ESPECIAL 26

Fibra óptica nas redes Mesh e na arquitetura FTTR

A utilização de fibra óptica em residências e escritórios (FTTR – Fiber to the Room) surge como alternativa para aumentar a estabilidade, reduzir a latência e elevar a qualidade do acesso

CONECTIVIDADE 30

Arquiteturas de IA e tendências que moldarão os data centers em 2026 e além

Impulsionados pela expansão da inteligência artificial, machine learning e aplicações de alto desempenho, os data centers passam por uma transformação que envolve novas arquiteturas de rede e evolução das interconexões ópticas.

INTELIGÊNCIA ARTIFICIAL 34

O papel estratégico da faixa de 6 GHz na evolução para o 6G

A faixa de 6 GHz desponta como uma alternativa estratégica para o desenvolvimento do 6G, ao combinar maior largura de banda com condições de propagação mais favoráveis que as ondas milimétricas.

REDES MÓVEIS

Como o IFRS auxilia na gestão de riscos para provedores regionais

Durante muito tempo, normas internacionais de contabilidade e sustentabilidade pareciam distantes da realidade de provedores de Internet. Essa percepção começa a mudar pela forma como o risco passou a ser tratado na cadeia de fornecedores.

MERCADO 44

Etapas para a construção de um data center corporativo

A construção de um data center é um processo complexo, que demanda tempo, planejamento e profissionais altamente capacitados. O artigo apresenta as principais etapas para a implantação segura e eficiente de um data center corporativo.

INFRAESTRUTURA 52

Redes NTN no 5G

A tecnologia promete viabilizar conectividade global com maior eficiência energética, mas também impõe desafios técnicos relevantes, ligados à latência, à propagação do sinal e à mobilidade de satélites.

COMUNICAÇÃO MÓVEL 58

Pré-fabricação e design híbrido nos data centers hyperscale

As pressões por redução de custos e simplificação operacional têm impulsionado mudanças significativas nas soluções e no design dos data centers. Arquiteturas modulares e pré-fabricadas permitem expansão conforme a demanda.

INFRAESTRUTURA 64

Ano 27 - Nº - 312

Maio de 2026

Capa: Helio Bettega Foto: Shutterstock

SEÇÕES

As opiniões dos artigos assinados não são necessariamente as adotadas por RTI, podendo mesmo ser contrárias a estas.

Alta capacidade e eficiência para o seu provedor.

Vença o desafio de alta capacidade em processamento e necessidade de portas de alta velocidade, com os roteadores SR-1 equipados com chipset FP5.

48 portas de até 800G

Criptografia quântica (Anysec) & mitigação DDoS

Redução de até 75% no consumo energético comparado com o chipset FP4

Até 250 mil assinantes Dual Stack - Broadband Network Gateway (BNG)

Solução ideal para aplicações críticas (5G, IA, IoT, Cloud e borda de rede)

A solução completa de conteúdos para impulsionar o seu negócio

e Bem-Estar

A PlayHub é a principal distribuidora de Serviços de Valor Agregado (SVAs) para o setor de conectividade, atendendo provedores, operadoras e grandes plataformas de consumo nos mercados de varejo, serviços financeiros, seguros, fidelidade e benefícios.

Integramos comercialmente as maiores desenvolvedoras globais, com um portfólio curado, suporte especializado e um modelo de distribuição escalável, auditável e orientado aos mais altos padrões de governança e confiabilidade do setor.

TENHA TODA A EMOÇÃO EM UM SÓ LUGAR!

Tudo o que seu cliente quer, integrado ao seu provedor AGREGUE OS MELHORES STREAMINGS AO SEU PORTFÓLIO

O futuro da Telecom vai além da fibra e se constrói na relevância do seu provedor na rotina do cliente. E os SVAs da PlayHub agregam isso ao seu negócio!

Mais conteúdos para oferecer e mais motivos para o seu cliente ficar.

1º lugar em distribuição de SVAs para provedores de internet — pesquisa RTI

+55 (11) 95021-2536 por A PlayTech oferece soluções para a atuação do ISP, do gerencial ao técnico. Diferencie sua oferta com PlayHub, revolucione sua operação com PlayTech!

Seja um líder de mercado. Fale com o time PlayHub. @playhub.brasil

EDITORIAL

conectividade no Brasil entrou definitivamente em uma nova fase. Se, por muitos anos, o desafio central foi expandir o acesso, hoje o foco se desloca para a qualidade da experiência, especialmente dentro dos ambientes onde o consumo de dados efetivamente acontece. Casas, escritórios, escolas e espaços públicos exigem redes mais estáveis, inteligentes e capazes de lidar com múltiplos dispositivos e aplicações críticas. Essa mudança de eixo se reflete nos temas que pautam esta edição. O avanço do Wi-Fi, em especial com a chegada do Wi-Fi 7, ilustra bem essa transformação. Com maior capacidade, latência reduzida e melhor desempenho em ambientes de alta densidade, a tecnologia se posiciona como peça-chave para sustentar a próxima onda de digitalização no país. Não por acaso, o Wi-Fi já está no centro da proposta de valor dos provedores, em um mercado onde preços se tornaram relativamente homogêneos e a qualidade percebida pelo usuário passou a ser o principal diferencial competitivo.

Esse movimento ocorre em paralelo a um mercado em franca expansão. O Brasil já soma 55,2 milhões de acessos fixos, segundo dados de janeiro de 2026 da Anatel, e apresenta alta presença de Wi-Fi nos domicílios, mas ainda convive com desigualdades relevantes de cobertura e qualidade entre regiões. É nesse contexto que os provedores regionais assumem papel estratégico, tema central do AGC 2026 - Abrint Global Congress, principal encontro do setor, que acontece de 6 a 8 de maio no Anhembi, em São Paulo. Com expectativa de reunir cerca de 45 mil participantes e mais de 270 expositores, o evento consolida-se como vitrine das tecnologias que vão redefinir o setor.

Mais do que discutir expansão, o AGC 2026 evidencia uma mudança estrutural: a conectividade deixa de ser apenas infraestrutura e passa a ser experiência. Em um cenário de múltiplas telas, aplicações sensíveis à latência e crescente demanda por estabilidade, a entrega do serviço precisa ser pensada de ponta a ponta, do backbone à última milha, e desta ao ambiente interno.

A agenda que se impõe ao setor, portanto, vai além da cobertura do serviço de banda larga. Trata-se de garantir qualidade consistente, reduzir desigualdades e preparar as redes para um uso cada vez mais intensivo e sofisticado. Em última instância, o futuro da conectividade no Brasil será definido não apenas por onde a Internet chega, mas por como ela funciona no cotidiano de cada usuário.

ARANDA EDITORA TÉCNICA CULTURAL LTDA. ARANDA

Diretores: Edgard Laureano da Cunha Jr., José Roberto Gonçalves, e José Rubens Alves de Souza (in memoriam )

REDAÇÃO REDAÇÃO:

Diretor Diretor Diretor Diretor Diretor: José Rubens Alves de Souza ( in memoriam )

Jornalista responsável: Jornalista Sandra Mogami (MTB 21.780) Repórter: Repórter: Fábio Laudonio (MTB 59.526)

SECRETÁRIAS DE REDAÇÃO E PESQUISAS: SECRETÁRIAS DE E Milena Venceslau e Sabrina Emilly dos Anjos Costa

PUBLICIDADE NACIONAL: PUBLICIDADE NACIONAL: Gerente comercial comercial: Élcio S. Cavalcanti

Contatos: Contatos: Rodrigo Lima (rodrigo.lima@arandaeditora.com.br) Priscilla Cazarotti (priscilla.cazarotti@arandaeditora.com.br)

REPRESENTANTES REPRESENTANTES REPRESENTANTES REPRESENTANTES REPRESENTANTES: Paraná e Santa Catarina: Paraná e Paraná e Santa Catarina: Paraná e R omildo Batista Cel.: (41) 99728-3060 – romildo@arandaeditora.com.br

Rio de Janeiro e Interior de São Paulo: de de Paulo: de Guilherme Carvalho Tel. (11) 98149-8896 – guilherme.carvalho@arandaeditora.com.br Rio Grande do Sul: do Sul: Rio Grande do Sul: do Sul: Maria José da Silva Tel.: (11) 2157-0291 – Cel.: (11) 98179-9661 – maria.jose@arandaeditora.com.br INTERNATIONAL ADVERTISING

REPRESENTATIVES REPRESENTATIVES REPRESENTATIVES REPRESENTATIVES

China: China: Mr. Weng Jie – Zhejiang International Adv. Group – 2-601 Huandong Gongyu, Hangzhou Zhejiang 310004, China Tel.: +86 571 8515-0937 – jweng@foxmail.com

Germany: Germany: IMP InterMediaPro e K. – Mr. Sven Anacker –Starenstrasse 94 46D – 42389 Wuppertal Tel.: +49 202 373294 11, sa@intermediapro.de

Italy: QUAINI Pubblicità – Ms. Graziella Quaini Via Meloria 7 – 20148 Milan Tel: +39 2 39216180 – grquaini@tin.it

Japan: Echo Japan Corporation – Mr. Ted Asoshina Grande Maison Room 303, 2-2, Kudan-kita 1-chome, Chiyoda-ku, Tokyo 102-0073, Japan Tel: +81-(0)3-3263-5065 – e-mail: aso@echo-japan.co.jp

Korea: Korea: Korea: Korea: JES Media International – Mr. Young-Seoh Chinn 2nd Fl., ANA Building, 257-1 Myeongil-Dong, Gangdong-gu Seoul 134-070 Tel: +82 2 481-3411 – jesmedia@unitel.co.kr

Spain: GENERAL DE EDICIONES – Mr. Eugenio A. Feijoo C/Juan de Olia, 11-13, 2a. Planta 28020 Madri Tel: +34 91 572-0750 – gee@gee.es

Switzerland Switzerland Switzerland Switzerland Switzerland: Mr. Rico Dormann, Media Consultant Marketing Moosstrasse 7, CH-8803 Rüschlikon Tel: + 41 1 720-8550 – beatrice.bernhard@rdormann.ch

Taiwan: Taiwan: Taiwan: Taiwan: Taiwan: WORLDWIDE S Services Co. Ltd. – Mr. Robert Yu 11F-B, No 540, Sec. 1, Wen Hsin Road, Taichung Tel: +886 4 2325-1784 – global@acw.com.tw

UK: UK: UK: UK: UK: Robert G Horsfield International Publishers –Mr. Edward J. Kania Daisy Bank, Chinley, Hig Peaks, Derbyshire SK23 6DA Tel.: (+44 1663) 750-242, Cel.: (+44 7974) 168188 – ekania@btinternet.com USA USA USA: Ms. Fabiana Rezak 2911 Joyce Lane, Merryck, NY 11566 USA Tel.: +(1) 516 476-5568 – arandausa@optonline.net

ADMINISTRAÇÃO ADMINISTRAÇÃO ADMINISTRAÇÃO ADMINISTRAÇÃO ADMINISTRAÇÃO: Diretor administrativo: Diretor administrativo: Diretor administrativo: Diretor administrativo: Diretor administrativo: Edgard Lau reano da Cunha Jr. CIRCULAÇÃO CIRCULAÇÃO CIRCULAÇÃO: São Paulo: São São Paulo: São Clayton Santos Delfino tel. (11) 3824-5300 e 3824-5250

ASSISTENTES DE PRODUÇÃO: ASSISTENTES DE PRODUÇÃO: Vanessa Cristina da Silva e Talita Silva

PROJETO VISUAL GRÁFICO, DIAGRAMAÇÃO E EDITORAÇÃO ELETRÔNICA VISUAL GRÁFICO, DIAGRAMAÇÃO EDITORAÇÃO

PROJETO VISUAL GRÁFICO, DIAGRAMAÇÃO E EDITORAÇÃO ELETRÔNICA VISUAL GRÁFICO, DIAGRAMAÇÃO EDITORAÇÃO Estúdio AP

SERVIÇOS SERVIÇOS:

Impressão: Ipsis Gráfica e Editora S.A.

Distribuição: Distribuição: Distribuição: Distribuição: ACF Ribeiro de Lima

RTI - Redes, Telecom e Instalações, revista brasileira de infraestrutura e tecnologias de RTI Redes, de infraestrutura e tecnologias comunicação, é comunicação, é uma publicação da Aranda Editora Técnica Cultural Ltda. Aranda Cultural Ltda. Redação, Publicidade, Administração, Circulação e Correspondência: Publicidade, Circulação Redação, Publicidade, Administração, Circulação e Correspondência: Publicidade, Circulação Circulação Alameda Olga, 315 - 01155-900 - São Paulo SP - Brasil. Tel.: + 55 (11) 3824-5300 e 3824-5250 inforti@arandanet.com.br – www.arandanet.com.br

A revista RTI - Redes, Telecom e Instalações é enviada a 12.000 profissionais das áreas de telecomunicações; redes locais, informática e comunicação de dados; instalações; TV por assinatura; áudio e vídeo; segurança (CFTV e alarmes); automação predial e residencial; e sistemas de energia, aterramento e proteção elétrica.

PlayHub, distribuidora de serviços digitais de valor agregado (SVAs), anunciou a inclusão do Globoplay em seu portfólio, movimento que reforça sua estratégia de expansão no mercado de streaming e consolida seu posicionamento como elo entre grandes programadoras e provedores regionais de Internet.

A nova parceria permite que o serviço seja comercializado como streaming em dois formatos: padrão com anúncios e Premium, sem publicidade e com mais opções de canais ao vivo da Globo. A iniciativa ocorre em um momento de forte crescimento do consumo de conteúdo digital no país e amplia as possibilidades comerciais para operadoras regionais.

Com cerca de 30 milhões de usuários, o Globoplay reúne produções originais, como séries e documentários, além de novelas, realities, conteúdos internacionais e transmissões ao vivo, incluindo grandes shows e festivais, campeonatos de futebol, vôlei e o retorno da Fórmula 1 à emissora. A plataforma também oferece acesso ao sinal da TV Globo para a base. Entre os destaques da programação, a transmissão da Copa do Mundo de 2026 figura como um dos eventos mais aguardados.

Segundo Rômulo Carvalho, coCEO da PlayHub, a entrada do Globoplay atende à estratégia da empresa de fortalecer continuamente seu portfólio com conteúdos de alto valor percebido. “Como hub de conteúdos, estamos sempre buscando aprimorar o portfólio para garantir os melhores serviços para os nossos clientes. O Globoplay é um produto de absoluto sucesso e uma marca muito forte no Brasil”, afirma. A empresa atua no modelo B2B, conectando mais de 3,5 mil provedores de Internet a um catálogo com mais de 30 serviços digitais, incluindo plataformas como Disney+,

HBO Max e Apple TV. Nesse contexto, a PlayHub desempenha um papel de “enabler”, viabilizando o acesso a portfólios considerados inacessíveis para os provedores no Brasil. “Conectamos esses dois mundos, viabilizando o acesso aos conteúdos para nossos clientes, ao mesmo tempo ampliando a capilaridade das programadoras”, explica Carvalho.

Esse modelo tem se mostrado relevante especialmente no interior do país, onde os provedores regionais concentram uma parcela significativa da base de banda larga. Segundo o executivo, a capilaridade desses operadores é um dos principais atrativos para grandes programadoras. “Eles já estão bem cobertos nos grandes centros, mas no interior há uma grande oportunidade de expansão, e esse é um dos focos de atuação da PlayHub. Além de uma empresa de inovação e tecnologia, somos um democratizador de acesso digital”, diz.

Para os provedores, a oferta de serviços como o Globoplay dentro de pacotes de banda larga representa uma estratégia para diferenciação e fidelização de clientes. Ao integrar conteúdos ao serviço de conectividade, os provedores conseguem reduzir taxas de cancelamento e aumentar o ticket médio. “O provedor que vende apenas Internet está vendendo commodity Quando ele agrega conteúdo, passa a oferecer uma solução completa, que fideliza o assinante e gera valor”, afirma Carvalho.

Para o co-CEO, a parceria com o aplicativo evidencia a credibilidade da PlayHub. “O Globoplay é um fornecedor criterioso, que escolhe atentamente cada novo parceiro”, explicou. A adição já está disponível e vem gerando resultados positivos, com destaque para as vendas desde seu anúncio, no início de abril. As vendas vêm crescendo em ritmo acelerado, impulsionadas também por ações de ativação conjunta e eventos do setor, como a Abramulti, feira realizada no mês de abril em Belo Horizonte, e a Abrint, que acontece em São Paulo no início de maio. Além da expansão do portfólio, a PlayHub mantém um crescimento consistente e vem ampliando sua atuação internacional, com presença já estabelecida em países como Colômbia, Peru e Equador. “A América Latina é um oceano ainda pouco explorado. Há muita oportunidade para levar esse modelo a novos mercados”, afirma.

Outro diferencial destacado pela companhia é sua capacidade de personalização das ofertas, adaptando bundles e estratégias comerciais conforme o perfil e o porte de cada provedor. A empresa também atua no suporte contínuo aos parceiros, com foco em customer success e no desenvolvimento de estratégias de vendas e retenção. “Atuamos não apenas na captação de clientes, mas no crescimento deles, criando um relacionamento duradouro de parceria. Quando o provedor cresce, a PlayHub cresce junto e por isso temos times especializados, tanto no ramo comercial quanto no atendimento premium pósvenda”, diz Carvalho.

De acordo com o co-CEO, o futuro da telecomunicação é promissor e envolve a escuta direta do que o cliente realmente precisa, tornando-se um aliado do consumidor, além de um serviço essencial. “Consequentemente, a oferta de SVAs se torna indispensável, ao elaborar uma proposta de negócio a longo prazo”, conclui.

PlayHub – Tel. (11) 95021-2536 n Site: https://www.playhub.net.br/

crescente sofisticação dos ataques cibernéticos, especialmente aqueles direcionados a aplicações e APIs, tem pressionado operadoras de telecomunicações e provedores de Internet a expandirem seu portfólio além da conectividade tradicional. Nesse contexto, a Nexusguard, empresa global de mitigação de ataques DDoS sediada em Singapura, lança uma nova oferta baseada em WAAP - Web Application and API Protection, com foco em habilitar esses players a oferecer serviços de segurança até a camada 7 — a camada de aplicação.

A iniciativa representa uma evolução do modelo tradicional de proteção, historicamente concentrado nas camadas 3 e 4 da rede. “As operadoras estão acostumadas a vender banda e infraestrutura, mas patinam na Camada 7.

Ao não dominarem a proteção de aplicações, elas acabam virando reféns de soluções de terceiros que não agregam valor à sua marca, transformando o provedor de Internet em um mero revendedor logístico sem identidade própria no ecossistema do cliente”, afirma Alex Hisa, vice-presidente de vendas e parcerias da Nexusguard.

A proposta da companhia é atuar como habilitadora desse novo mercado, permitindo que operadoras e provedores incorporem serviços avançados de segurança em seus portfólios, com capacidade de revenda para clientes corporativos e governamentais. A oferta combina proteção contra DDoS, firewall de aplicações web (WAF), proteção de DNS e segurança para APIs, compondo uma arquitetura de defesa multicamadas.

“Além da proteção de rede, agora o provedor pode oferecer serviços como proteção de websites, aplicações e APIs, tudo dentro da mesma plataforma. Isso amplia o valor entregue ao cliente e abre novas oportunidades de receita”, explica Hisa.

A solução pode ser implementada tanto no modelo on premises, por meio de equipamentos instalados na rede da operadora, quanto em nuvem, com serviços gerenciados pela própria Nexusguard. Essa flexibilidade permite adequar a arquitetura às

necessidades de desempenho, latência e requisitos regulatórios de cada cliente.

Um dos diferenciais destacados pela empresa é a possibilidade de operar em modelo white label, permitindo que operadoras comercializem os serviços com sua própria marca. Isso facilita a integração da oferta ao portfólio existente e contribui para o aumento do tíquete médio por cliente. “Isso aumenta o ARPU e o valor percebido pelo cliente. Ele deixa de contratar apenas conectividade e passa a consumir um conjunto completo de serviços de segurança, centralizados em um único portal, que funciona como um painel de controle unificado e multi-tenant, que simplifica a visibilidade e a operação para o SOC dos provedores, permitindo gerenciar todos os serviços de forma eficiente e escalável”, afirma o executivo.

Mais do que gerar retorno financeiro, a estratégia posiciona operadoras e provedores como parceiros de soluções completas para setores de missão crítica, como governo, instituições financeiras, educação e infraestrutura, que demandam elevados níveis de disponibilidade, conformidade regulatória e proteção de dados.

Outro ponto relevante é a questão da soberania de dados, especialmente em contratos com órgãos públicos e instituições financeiras. Segundo a Nexusguard, sua infraestrutura global de mitigação, composta por múltiplos centros de scrubbing distribuídos, permite que ataques originados no exterior sejam tratados fora do país, reduzindo o impacto local e preservando requisitos regulatórios.

Ao mesmo tempo, a possibilidade de implantação local garante aderência a cenários em que há exigência de processamento e armazenamento de dados dentro do território nacional. “Quando há necessidade de soberania de dados, o provedor pode optar por instalar a solução localmente. Por isso oferecemos tanto a opção em nuvem quanto on premises”, afirma.

Além da tecnologia, a Nexusguard estruturou um programa de capacitação voltado a seus parceiros, com treinamentos técnicos, comerciais e de marketing. A iniciativa busca superar uma das principais barreiras à adoção desse tipo de serviço: a dificuldade de venda por parte das operadoras. “Se o time comercial não souber vender, o serviço não decola. Por isso, entregamos um pacote completo, com treinamento, certificação e suporte contínuo”, diz Hisa.

Segundo ele, o modelo funciona como uma plataforma pronta para uso. “É como uma franquia: o parceiro não precisa começar do zero. Entregamos toda a estrutura necessária para que ele possa comercializar e operar o serviço de forma eficiente.”

A estratégia também envolve a atuação conjunta com MSPs - Managed Service Providers e integradores, ampliando o alcance da oferta e permitindo que diferentes atores participem da cadeia de comercialização. Se a operadora não quiser ou não tiver estrutura para vender diretamente, os MSPs e integradores podem assumir esse papel, utilizando a infraestrutura já habilitada.

A empresa já observa os primeiros movimentos de adoção do modelo em mercados internacionais e na América Latina, com operadoras iniciando a revenda dos serviços e planejando expandir a atuação para clientes de maior criticidade.

“Tradicionalmente, esse tipo de serviço é fornecido por empresas globais diretamente ao cliente final. O que estamos fazendo é permitir que operadoras locais ofereçam isso com sua própria marca, criando um serviço mais próximo do cliente e adaptado ao mercado doméstico”, conclui Hisa.

INFORMAÇÕES

crescente complexidade dos ambientes corporativos e industriais tem impulsionado a demanda por sistemas de segurança mais inteligentes, conectados e orientados por dados. Nesse cenário, a canadense Genetec, especializada em plataformas unificadas de segurança, aposta na convergência tecnológica e na gestão integrada de dados e operações para ampliar sua atuação no Brasil.

Com presença global em 159 países e escritório em São Paulo, a companhia tem direcionado sua estratégia para setores intensivos em dados, como infraestrutura crítica, transportes, indústria e data centers. A proposta central é consolidar, em uma única plataforma, diferentes sistemas tradicionalmente isolados, como videomonitoramento, controle de acesso e leitura de placas.

“Não estamos mais falando de olhar uma base de câmeras. É algo mais proativo, que envolve inteligência artificial e cibersegurança como pilares”, afirma Rafaela Silva, Gerente de Desenvolvimento de Negócios da Genetec no Brasil.

Um dos pontos centrais da estratégia da empresa é a convergência entre segurança física e digital, uma fronteira ainda pouco explorada por muitas organizações. Segundo Rafaela, há uma lacuna importante nesse campo. “Todo mundo fala de segurança cibernética, mas os problemas muitas vezes acontecem no ambiente físico. Alguém conecta um cabo, acessa um equipamento ou retira um dispositivo. E isso nem sempre é monitorado com o mesmo rigor”, diz.

(ALPR), além de permitir a incorporação de funcionalidades adicionais, como analíticos de vídeo, intercomunicação e monitoramento de perímetro.

A diferenciação, segundo a companhia, está na capacidade de unificar dados e sistemas distintos em uma única interface. “Muitas empresas ainda

sistemas passam a oferecer recursos como busca por características específicas e análise comportamental.

Outro pilar da estratégia da Genetec é a arquitetura aberta, que permite a integração com dispositivos e sistemas de diferentes fabricantes. Atualmente, a plataforma suporta milhares de modelos de equipamentos e protocolos industriais. “Preferimos falar em ‘unificação’ em vez de integração. Integrar é relativamente fácil, mas garantir que isso continue funcionando ao longo do tempo é o desafio”, diz Rafaela. A proposta é oferecer uma base tecnológica “à prova de futuro”, permitindo que clientes adotem novas soluções sem a necessidade de substituir toda a infraestrutura existente. “Você pode ter múltiplas tecnologias, como biometria, câmeras, sensores, rodando na mesma plataforma. Isso dá liberdade para escolher o melhor de cada fabricante”, afirma. No Brasil, a empresa tem priorizado setores específicos, como mineração, óleo e gás, transportes e data centers, com uma abordagem de longo prazo voltada à antecipação de demandas regulatórias e operacionais. “Trabalhamos olhando dois, três anos à frente, fazendo um processo de educação do mercado. Muitas vezes o cliente ainda não percebeu o problema que vai enfrentar”, explica.

operam com sistemas separados, que não se comunicam. A nossa plataforma extrai os dados de todos esses equipamentos e centraliza tudo em um único ambiente”, explica Rafaela.

A executiva destaca que, embora câmeras representem uma parcela pequena dos dispositivos conectados, elas são alvos frequentes de ataques. “As câmeras são cerca de 1% dos dispositivos IoT, mas quase 30% dos ataques são direcionados a elas”, afirma.

O principal produto da empresa, o Genetec Security Center, integra videomonitoramento IP, controle de acesso e leitura automática de placas

Essa abordagem permite não apenas reforçar a segurança, mas também gerar inteligência operacional. Os dados coletados podem ser transformados em dashboards customizados, com informações em tempo real e análises históricas para apoio à tomada de decisão.

O avanço dos analíticos de vídeo e da capacidade computacional tem ampliado o uso dessas plataformas para além da segurança tradicional. Com apoio de inteligência artificial e machine learning, os

Além da segurança, a integração de dados permite aplicações operacionais. Em data centers, a integração com sistemas como BMS e DCIM permite monitorar condições ambientais e eventos de segurança de forma integrada. “Não é só vídeo. A evidência passa a ser um conjunto de dados — acesso, imagem, áudio, contexto operacional. Tudo isso dentro de uma mesma plataforma”, afirma Rafaela. Para sustentar a expansão, a Genetec tem investido na capacitação de canais e na aproximação com clientes finais. A empresa mantém parcerias com integradores, mas busca atuar também de forma consultiva. “Queremos entender a dor do cliente e trabalhar junto com o canal mais adequado para cada projeto”, finaliza Rafaela.

Genetec – Tel. (11) 3504-9450 Site: www.genetec.com/br/

86S+ 96S

INFORMAÇÕES

Johnson Controls inicia um novo ciclo de posicionamento na América Latina com foco em crescimento, proximidade com clientes e consolidação técnica em mercados estratégicos, como data centers, indústria e infraestrutura crítica. No Brasil, esse movimento ganha tração com a chegada de Vinicius Kazuaki Morikawa como gerente de Desenvolvimento de Negócios, função inédita dentro da estrutura local da companhia.

Com experiência de cerca de 15 anos no setor, incluindo passagens por operação de data centers, integração e gestão de contratos, Morikawa assume o desafio de aproximar a fabricante de clientes finais, projetistas e consultores — um elo que, segundo ele, historicamente foi pouco explorado.

“A fábrica tradicionalmente atua muito próxima de integradores e distribuidores, mas distante do cliente final e dos projetistas. A nossa proposta agora é encurtar esse caminho, estar presente desde a concepção dos projetos”, afirma.

A nova estratégia tem como meta acelerar o crescimento da companhia na região. “Nosso objetivo é pelo menos duplicar ou triplicar os resultados em dois anos, atuando com mais proximidade e foco em clientes que valorizam tecnologia e confiabilidade, não apenas preço”, diz.

Esse reposicionamento ocorre em um contexto global no qual a empresa vem reforçando sua atuação em eficiência energética e descarbonização, pilares considerados centrais para o futuro dos ambientes de missão crítica. “A eficiência está no centro da nossa estratégia. Quando falamos de data centers, por exemplo, otimizar banda, reduzir processamento e melhorar o uso de infraestrutura impacta diretamente no consumo energético. Isso reduz servidores, reduz refrigeração e melhora a sustentabilidade da operação”, explica.

No campo tecnológico, a Johnson Controls aposta na integração de sistemas como diferencial competitivo. A companhia

trabalha com plataformas que unificam controle de acesso, videomonitoramento, detecção de incêndio e automação predial em um único ambiente.

Um dos principais exemplos é o sistema C•CURE 9000, voltado à gestão integrada de segurança e eventos. A solução permite centralizar funções como monitoramento, controle de acesso e gestão de visitantes, com capacidade de escalar para até 300 mil leitores e milhões de usuários. “O grande valor está na integração. Se um detector de fumaça é acionado, o sistema pode automaticamente direcionar câmeras, liberar acessos de emergência e até atuar na automação predial, como desligamento de ventilação. Tudo de forma coordenada e em tempo real”, afirma Morikawa. Outro destaque está nas controladoras de acesso IP, como a linha iSTAR, que incorpora redundância diretamente na placa. “Isso permite reduzir a quantidade de equipamentos sem perder disponibilidade, algo crítico para data centers. É uma forma de simplificar a arquitetura mantendo alto nível de segurança”, diz.

com milhares de câmeras, o modelo de licenciamento faz muita diferença. Quando o cliente opta por uma solução integrada da Johnson Controls, ele elimina custos relevantes de licenças, o que pode representar economias expressivas”, afirma. Com um portfólio amplo que inclui soluções de segurança, automação predial (BMS), detecção e extinção de incêndio, além de sistemas HVAC, como chillers da marca York, a companhia busca consolidar sua atuação como fornecedora integrada de tecnologia para ambientes críticos.

Johnson Controls – www.johnsoncontrols.com.br/

No campo de videomonitoramento, a empresa aposta em câmeras com inteligência artificial embarcada, capazes de realizar análises diretamente na borda, detecção de objetos, reconhecimento de padrões e análise comportamental, além de otimizar o uso de banda e armazenamento. “O controle inteligente de taxa de bits reduz o consumo de banda e armazenamento mantendo a qualidade da imagem. Isso pode gerar economia de até 30% na infraestrutura associada”, destaca o executivo.

A empresa também trabalha com diferentes plataformas de VMS (Video Management System), como o Exacq e o victor , este último voltado a ambientes de alta criticidade e com recursos avançados de cibersegurança, incluindo certificações e protocolos robustos de proteção de dados. “Em um data center

ma inovação aparentemente simples — uma pintura aplicada a caixas de emenda e armários de redes FTTH — começa a ganhar espaço como solução para um problema recorrente na operação de campo: a localização de ativos em ambientes urbanos densos, especialmente durante intervenções noturnas. Desenvolvida pela Fibramérica, a tecnologia Fablight combina retroreflexão óptica com potencial uso como ferramenta de marketing para provedores.

A solução consiste em uma pintura branca refletiva baseada no princípio da retroreflexão, amplamente utilizado em sinalização viária. “Milhões de microesferas de vidro de alto índice de refração redirecionam a luz diretamente de volta à sua fonte, com dispersão mínima”, explica Ger man Toldo, CCO da empresa.

Na prática, isso permite que caixas de terminação óptica (CTOs) e armários de rede se tornem visíveis a distâncias superiores a 50 metros quando iluminados por uma lanterna, facilitando

a identificação do ativo correto mesmo em postes congestionados ou em áreas de baixa iluminação.

A motivação inicial do desenvolvimento está ligada à produtividade das equipes técnicas. Segundo a empresa, parte significativa do tempo de atendimento noturno é consumida na busca pelo ponto correto da rede. “Hoje, os técnicos perdem entre 15% e 25% do tempo de cada intervenção simplesmente tentando encontrar a caixa certa”, afirma Toldo. Esse tempo, além de impactar diretamente o custo operacional, pode comprometer indicadores de qualidade e cumprimento de SLA. A Fablight busca atuar exatamente nessa etapa, sem alterar a arquitetura da rede nem exigir componentes eletrônicos adicionais.

A proposta técnica se diferencia por não depender de energia, sensores ou conectividade. A pintura é aplicada diretamente na superfície do equipamento ainda na fábrica e apresenta resistência a intempéries e radiação UV, com vida útil estimada superior a 10 anos.

A solução contempla duas variantes. A principal é a pintura retrorefletiva, que depende de uma fonte de luz, como a lanterna do técnico, para refletir o sinal luminoso de volta ao observador. Há também uma versão complementar baseada em pigmentos que absorvem luz ao longo do dia e emitem luminosidade de forma limitada no início da noite. “Essa segunda tecnologia ainda está em evolução. Hoje, a duração é de cerca de uma hora e a intensidade é reduzida”, afirma Toldo. Segundo ele, o desenvolvimento dessa vertente envolve ajustes na composição dos pigmentos para ampliar o tempo e a intensidade da emissão luminosa.

Além da aplicação operacional, a Fibramérica posiciona a Fablight como uma forma de explorar a infraestrutura de rede como canal de comunicação. A proposta parte da premissa de que os ativos físicos das redes FTTH, normalmente discretos ou camuflados, podem ganhar visibilidade em determinados contextos. “Esses equipamentos abastecem a cidade inteira, mas passam despercebidos. Com a tecnologia, cada elemento se transforma em um ponto de contato visível da marca”, afirma Toldo.

INFORMAÇÕES

A pintura pode incorporar elementos visuais como logotipos ou QR Codes, permitindo que a identificação do provedor seja visível no ambiente urbano durante a noite, sem necessidade de mídia adicional. “É uma forma de transformar a infraestrutura, que hoje é apenas funcional, em um ativo também de marketing”, acrescenta.

A aplicação da tecnologia ocorre diretamente no processo fabril das caixas e armários, o que garante padronização e durabilidade. Segundo a empresa, o acréscimo de custo é marginal, estimado em cerca de US$ 0,40 por unidade. “Não se trata de um adesivo ou pintura convencional. É um processo industrial que precisa ser incorporado na fabricação”, afirma o executivo.

A proposta da Fablight reflete uma abordagem mais ampla de revisão do papel da infraestrutura passiva nas redes de telecomunicações. Tradicionalmente concebidos com foco exclusivamente funcional, elementos como caixas e armários passam a ser considerados também sob a ótica de operação, visibilidade e interação com o ambiente urbano.

Fibramérica – Tel. (47) 99937-2796 n Site: https://fablight.fibramerica.com/

InterIP Tecnologia, com sede em Florianópolis, SC, fornece serviços de telefonia VoIP para provedores em

parceria com operadoras como Vivo, TIM, Claro e Algar. Além de atender todo o estado de Santa Catarina, conta com POPs – Pontos de Presença em São Paulo, Porto Alegre, RS, e Curitiba, PR.

Para atender os mercados residencial e corporativo, a companhia trabalha com planos de voz pré-pagos, sem obrigatoriedade de recarga mensal. Os créditos são válidos por 180 dias a partir da aquisição. Após este período, o saldo remanescente permanece inativo até que uma nova recarga seja efetuada. “Também isentamos o usuário de taxas extras ou multas por cancelamento”, pontua Soli Perin, gerente comercial da InterIP Tecnologia.

Na plataforma, o usuário dispõe de ferramentas como controle de chamadas, emissão de relatórios com tarifas e ligações efetuadas. É possível realizar divulgações agendadas de mensagens SMS e campanhas de voz com áudio personalizado, além de telefonar para números fixos e móveis no Brasil e no exterior, serviços de emergência e prefixos como 0300, 0500 e 0800 com custo de até R$ 0,09 por minuto em chamadas para telefone fixo. As ligações podem ser efetuadas de tablets, smartphones, notebooks, telefones IP ou ATA, centrais telefônicas e computadores, este último via plataforma Softphone, da própria InterIP. Todo o processo de integração é feito por meio de parceiros. Para empresas que não desejam trabalhar com telefonia VoIP, a InterIP disponibiliza um PABX IP híbrido via SNEP, plataforma com linhas analógicas (PSTN) via gateways, GSM, E1 digital e IP, e que opera em ambiente Linux. Outro serviço é a locação de números para recebimento digital. Com ele, o contratante pode ter um telefone em diversas cidades brasileiras e economizar ao pagar o custo de uma chamada local. “Vale ressaltar que a linha não fica vinculada a um endereço físico, podendo ser utilizada em qualquer ponto com acesso à Internet”, afirma o gerente comercial.

No início de 2026, a InterIP iniciou às tratativas de ter um POP em Belo Horizonte, MG. A expectativa é que o acordo seja firmado até o final do segundo semestre. “Também temos planos de fornecer link dedicado com fibra saindo direto do POP da empresa até a residência ou endereço comercial do usuário”, pontua Perin. Com 250 localidades atendidas e 23 mil acessos ativos, a InterIP oferece assistência 24 horas para seus clientes.

InterIP Tecnologia – Tel. (48) 4052-9002 Site: www.interip.com.br

O melhor do Bits

Lightwave, com sede nos EUA, anunciou a expansão de sua parceria com a Arsitec Eletrônica Comércio e Serviços, de São Paulo, que passa a atuar como Distribuidor Estratégico Nacional Master no país. A medida reforça a atuação conjunta no fornecimento de soluções para redes de fibra óptica, data centers e infraestrutura de telecomunicações. O acordo ocorre em um contexto de avanço de tecnologias como IA - Inteligência Artificial, computação de borda e redes de nova geração, como 5G e futuras aplicações em 6G, que elevam a demanda por infraestrutura de alta capacidade. Com o novo posicionamento, as empresas pretendem expandir a distribuição de produtos como cabos ópticos, equipamentos de fusão e soluções completas para redes corporativas e data centers, mirando o crescimento da demanda por conectividade de alto desempenho. Site: https://abrir.link/lJHOt.

Mercado - A Sumitomo Electric

Postes - A Anatel concluiu a etapa de coleta de informações sobre contratos de uso de postes no mercado de banda larga fixa. Os dados coletados visam atualizar, complementar e corrigir os registros da Anatel sobre o uso da infraestrutura do setor elétrico por prestadoras de telecomunicações. Segundo a agência, um total de 3428 prestadores enviaram dados sobre 4525 contratos de uso de postes, abrangendo 70,2% dos acessos. Dentre as informações recebidas estão dados referentes aos valores contratados junto às distribuidoras de energia em que será possível verificar a dispersão dos preços praticados por pontos de fixação para o provimento de serviços de telecomunicações. Site: https://abrir.link/pkVdv.

Educação - A ABNT - Associação Brasileira de Normas Técnicas lançou a UniABNT, uma universidade

corporativa voltada à formação e qualificação de profissionais com base em normas técnicas e boas práticas reconhecidas pelo mercado. Com a criação da UniABNT, a ABNT consolida a evolução de sua área de educação, responsável por capacitar mais de 44 mil profissionais desde 2006 em todo o país. Agora, a entidade amplia esse trabalho ao incorporar certificação acadêmica aos seus cursos, em parceria com o UDC – Centro Universitário Dinâmica das Cataratas, instituição de ensino superior credenciada pelo MEC - Ministério da Educação. Site: https://abrir.link/lXpmD.

Fibra óptica - A SaneparCompanhia de Saneamento do Paraná venceu o Prêmio Inova Infra 2026 com uma solução que utiliza redes de esgoto para instalação de fibra óptica, abrindo caminho para novas aplicações de conectividade em infraestrutura

urbana. O reconhecimento foi concedido ao projeto Smart Zoo –Fibra Óptica no Esgoto, implantado no Zoológico de Curitiba, PR, onde cerca de 2 quilômetros de cabos foram instalados dentro da rede coletora. A tecnologia permitiu a oferta de Wi-Fi gratuito e a implantação de sistemas de monitoramento em uma área de difícil acesso para redes convencionais. Site: https://abrir.link/zmTxt.

O melhor do Bits traz um resumo das principais notícias sobre o mercado publicadas no RTI in Bits, boletim semanal enviado por e-mail para os leitores de RTI. Mais notícias podem ser encontradas no site: https://www.arandanet.com.br/ revista/rti/noticias.

Conectividade de alto desempenho, preparada para o mundo pós-quântico, sem comprometer velocidade, controle ou escalabilidade.

Projetada para velocidade. Construída para o futuro.

Escaneie o código QR para uma demonstração.

Email: krister.almstrom@sitehop.com Celular/Whatsapp: +55-11-95654 6759

De provedor de acesso a provedor de infraestrutura digital

Como os provedores de internet podem recuperar o controle, a confiança e a receita, e por que o Sitehop é o elo que faltava.

Por duas décadas, os provedores de serviços de Internet travaram uma batalha de comoditização: velocidades mais rápidas, cobertura mais ampla, preços mais baixos. Funcionou, até que não funcionou mais. As margens estão se estreitando, a diferenciação está se esvaindo e a borda da rede mudou para além do seu controle. Hoje, o acesso por si só não representa mais valor. É apenas o mínimo necessário.

A próxima era pertence aos ISPs que evoluírem para provedores de infraestrutura digital, operadoras que ofereçam não apenas conectividade, mas transporte seguro, determinístico e preparado para o futuro por padrão.

A nova realidade: redes compartilhadas, controle reduzido

O tráfego moderno não respeita mais as fronteiras tradicionais. O que antes permanecia dentro de redes privadas agora atravessa rotineiramente ambientes compartilhados, como PTTs. Essas trocas são essenciais para a escalabilidade, mas têm um custo:

� Visibilidade reduzida assim que o tráfego sai dos domínios privados

� Confidencialidade incerta em toda a infraestrutura compartilhada

� Maior exposição à interceptação e coleta de dados

Abordagens legadas, túneis, sobreposições e criptografia de perímetro tentam corrigir essas lacunas. Mas elas trazem seus próprios problemas: latência, instabilidade, perda de pacotes sob carga e crescente complexidade operacional. Em resumo, elas resolvem o problema de ontem, de forma inadequada.

O relógio criptográfico está correndo

Sitehop: Incorporando segurança na malha

O Sitehop foi criado para eliminar esse compromisso. Em vez de sobrepor camadas de segurança à rede, o Sitehop a integra diretamente na camada de transporte. Utilizando criptografia inline acelerada por FPGA, ele oferece:

� Desempenho na velocidade da linha (1G–100G)

� Latência inferior a um microssegundo

� Zero perda de pacotes sob carga

Mesmo em infraestruturas compartilhadas, a paridade de desempenho é mantida. Mas o desempenho é apenas metade da história. O Sitehop é criptograficamente ágil por design. Ele suporta algoritmos clássicos e pós-quânticos na mesma plataforma de hardware, incluindo esquemas PQC padrão NIST, como ML-KEM e ML-DSA, fornecidos por meio de atualizações seguras de firmware.

Sem trocas de hardware. Sem interrupção da rede. Sem arrependimentos futuros. Isso transforma a criptografia de um controle reativo em um recurso programável e preparado para o futuro, incorporado à própria rede.

De centro de custos a motor de receita

Quando a criptografia se torna determinística e escalável, ela deixa de ser um custo e passa a ser um produto. Com o Sitehop, os provedores de internet podem monetizar o transporte seguro por meio de:

• Links soberanos e criptografados em pontos de troca compartilhados

� Rampas de acesso seguras à nuvem com desempenho garantido

� Backbones intermunicipais protegidos

� Serviços criptografados de baixa latência para aplicações críticas

Uma mudança mais fundamental está em andamento. A própria criptografia está sendo redefinida.

Com o surgimento dos padrões de criptografia pós-quântica (PQC) e a aceleração dos planos nacionais de migração, o setor enfrenta uma dura realidade. As redes implantadas hoje transportarão dados para um futuro em que a criptografia atual poderá estar obsoleta. Isso introduz um vetor de ameaça crítico: “Colete agora, descriptografe depois”.

Dados confidenciais interceptados hoje podem ser descriptografados amanhã, quando as capacidades quânticas amadurecerem. “Seguro o suficiente por enquanto” não é mais uma estratégia viável, é um risco.

O falso dilema: segurança x desempenho

Os provedores de internet (ISPs) estão em um dilema. Os clientes corporativos exigem:

� Criptografia mais forte

� Soberania dos dados

� Confiança verificável em trânsito

Mas as aplicações que geram receita - interconexão em nuvem, sistemas financeiros, 5G edge, replicação em tempo real - não toleram perda de desempenho. O resultado? Um compromisso. Soluções de segurança que afetam a latência ou a estabilidade são comercialmente inutilizáveis. Assim, as operadoras se contentam com uma segurança orientada à conformidade, atendendo aos padrões sem realmente mitigar o risco. Essa é a lacuna.

Isso possibilita uma nova categoria: Segurança como Serviço na camada de rede.

Não é teórico. Não é baseado no melhor esforço.

Mas confiança mensurável, auditável e respaldada por SLA em ação.

Ao mesmo tempo, a aceleração por hardware da Sitehop proporciona um consumo de energia até 90% menor em comparação com a criptografia baseada em software, reduzindo o OPEX e, ao mesmo tempo, atendendo às metas ESG cada vez mais exigidas tanto por clientes quanto por reguladores.

O renascimento dos ISPs

A transição pós-quântica é frequentemente enquadrada como uma ruptura. Na realidade, é algo muito mais valioso: um reinício. À medida que as redes se tornam mais distribuídas, compartilhadas e sensíveis ao desempenho, a capacidade de fornecer transporte seguro e determinístico em escala torna-se um diferencial decisivo.

Os ISPs que incorporam confiança em sua infraestrutura irão além do acesso comoditizado. Eles se tornarão fundamentais para a economia digital.

O Sitehop possibilita essa mudança, não adicionando mais um equipamento, mas redefinindo a relação entre segurança e desempenho no núcleo da rede.

Em 2026, a questão não será mais se os ISPs devem se preparar para a segurança pós-quântica. A questão é mais incisiva: eles vão se adaptar ou vão liderar? Email: krister.almstrom@sitehop.com

Wi-Fi 7: oportunidade para melhorar a experiência das redes de banda larga no Brasil – Parte 1

A evolução do Wi-Fi no Brasil pode ampliar o impacto econômico da conectividade, acelerar a transformação digital e abrir espaço para novas aplicações em educação, saúde, logística, indústria e serviços públicos, como mostra esta segunda parte do artigo. Com mais capacidade, menor latência e suporte a ambientes de alta densidade, o Wi-Fi 7 surge como uma plataforma relevante para modernizar redes e ampliar a inclusão digital no país.

Este artigo foi resumido e adaptado do white paper “Desenvolvimento da Indústria de Wi-Fi no Brasil (2026-2028)”, lançado em fevereiro durante o Mobile World Congress (MWC) Barcelona 2026, na Espanha, em parceria entre a Huawei e o IPE Digital. Devido à limitação de espaço, o conteúdo será publicado em três partes. Esta primeira apresenta as principais características tecnológicas do Wi-Fi 7. Nas duas seguintes, serão abordados a evolução e os benefícios do Wi-Fi no Brasil, sua contribuição para o crescimento econômico e o papel do Wi-Fi 7 na transformação digital do país, incluindo aplicações em ambientes de negócios e na atualização de infraestrutura. A versão completa do trabalho pode ser acessada no link: https://bit.ly/4d4OsYj.

Introdução

O Brasil está agora em um momento-chave na transformação digital. Em 2025, o país tinha 47 milhões de usuários residenciais de banda larga fixa [1], 91% de presença de Wi-Fi [2] e uma taxa de penetração de Internet móvel de 88% [3]. No entanto, manter a alta qualidade de rede em diferentes regiões e cenários é

um desafio. O índice brasileiro de conectividade (IBC), publicado pela Anatel, referente a 2024 [4], mostra que os municípios com melhor colocação apresentam densidade de banda larga fixa próxima de 100%, enquanto os piores colocados têm resultados próximos aos 5%. Por outro lado, de acordo com a Pesquisa TIC Domicílios 2025 do Cetic.br [5], ao menos 15% dos domicílios em área rural utilizam conexão de Internet via rádio ou satélite, frente a 2% em áreas urbanas. Essa divisão digital não apenas restringe o desenvolvimento econômico, mas também aprofunda a desigualdade social.

O lançamento em 2026 deste white paper visa incentivar a rápida e abrangente atualização das redes de acesso, particularmente com a tecnologia Wi-Fi 7 como núcleo. O Wi-Fi 7 não é apenas um sinônimo de tecnologia sem fio de próxima geração, mas também uma alavanca estratégica para o Brasil alcançar o crescimento digital inclusivo. Ao abrir recursos de espectro, de maneira harmonizada também com as necessidades advindas do IMT - International Mobile Telecommunications, otimizar o ecossistema de terminais e promover aplicativos para cenários específicos,

Huawei e IPE Digital

pretende-se criar o impulso da indústria para tornar o Brasil uma referência em inovação de tecnologia Wi-Fi na América Latina até 2028, promovendo, assim, a transformação estrutural da economia, a equalização dos serviços sociais e um aumento da competitividade global.

Desde 2021, o desenvolvimento da tecnologia Wi-Fi no Brasil tem se caracterizado pela construção de infraestrutura orientada por políticas, inovação orientada por cenários e aprofundamento da cooperação internacional.

O espectro de 6 GHz e a sinergia com o 5G se tornaram as principais forças motrizes do desenvolvimento do Wi-Fi. Em julho de 2025, a Anatel anunciou que dividiria a faixa de 5925 - 7125 MHz (6 GHz), reservando a parte inferior (5925 - 6425 MHz) para uso não licenciado e a superior (6425 - 7125 MHz) para uso licenciado de rede móvel. Essa mudança abre o caminho para o desenvolvimento de soluções que implementem Wi-Fi 6e ou Wi-Fi 7, de forma planejada e com regulação estável. Com isso, espera-se que a capacidade da rede e a experiência do usuário melhorem significativamente, contribuindo para aumentar ainda mais o valor do Wi-Fi na economia brasileira, estimado pela Wi-Fi Alliance em US$ 124 bilhões em 2025 [6]. Além disso, à medida que a construção da rede 5G e de fibra acelera no Brasil, as operadoras fornecem suporte de distribuição de dados para

cenários de alta densidade, melhorando ainda mais a eficiência da implantação do Wi-Fi em locais públicos.

Provedores internacionais de tecnologia fornecem forte suporte, trazendo inovações e cooperando com empresas locais, resultando em uma participação significativa no mercado de comunicações do Brasil.

No futuro, à medida que a demanda por cidades inteligentes e aplicativos emergentes aumentar, o país criará referências regionais em termos de cobertura de alta densidade e otimização de baixa latência.

Principais características tecnológicas do Wi-Fi 7

Operação multilink (MLO)

A MLO permite que os dispositivos transmitam dados simultaneamente

em várias faixas de frequência (como 2,4 GHz + 5 GHz ou 2,4 GHz + 5 GHz + 6 GHz) para implementar agregação de link ou comutação dinâmica, reduzindo a latência e melhorando a confiabilidade (tabela I). A figura 1 ilustra o uso simultâneo das diferentes faixas de espectro na operação MLO.

Principais problemas endereçados:

• Vulnerabilidade de link único: evitar interrupções de conexão causadas por interferência de frequência ou atenuação de sinal.

• Baixa eficiência temporal: atender aos requisitos de latência ultrabaixa de jogos em nuvem e cirurgia remota.

Cenários de aplicação:

• Casa inteligente: roaming contínuo de vários dispositivos (por exemplo, fones de ouvido de RV – realidade virtual) da sala de estar para o quarto.

• Internet dos veículos (IoV): comunicação de alta velocidade em tempo real entre veículos e unidades na estrada.

MRU e spectrum puncturing

O Wi-Fi 7 permite, por meio do recurso MRU - Multi-Resource Unit , que várias unidades de recursos (RUs) não contíguas sejam alocadas a um único usuário e adota a tecnologia de spectrum puncturing para contornar subcanais interferentes, maximizando a utilização do espectro (tabela I). A figura 2 ilustra a melhor eficiência no uso de recursos de espectro do MRU.

Fig. 1 - Uso simultâneo das diferentes faixas de espectro na operação MLO
Fig. 2 - Melhor eficiência no uso de recursos de espectro do MRU

INCLUSÃO DIGITAL

Principais problemas endereçados:

• Fragmentação do espectro: melhorar a capacidade da rede em cenários de alta densidade (como estádios).

• Compatibilidade de coexistência: evitar conflitos de espectro com dispositivos legados (como dispositivos Wi-Fi 5).

Cenários de aplicação:

Fig. 3 - Diferença entre os esquemas de modulação e a maior densidade de bits por símbolo

• Eventos de grande escala: cobertura de rede estável em concertos ou eventos esportivos com dezenas de milhares de espectadores.

• Cidade inteligente: conexões confiáveis para redes de sensores de alta densidade.

16x16 MU-MIMO e CMU-MIMO

O Wi-Fi 7 aumenta o número de feixes espaciais de 8 (Wi-Fi 6) para 16 e apresenta a tecnologia coordenada multiusuário multiple-input multipleoutput (CMU-MIMO), que permite que vários pontos de acesso (APs) atendam o mesmo dispositivo para melhorar a capacidade de simultaneidade (tabela I).

Principais problemas endereçados:

• Gargalo de acesso de alta densidade: eliminar o congestionamento de dispositivos em cenários como aeroportos e shopping centers.

• Pontos cegos: expandir a faixa de cobertura do sinal por meio da coordenação multi-AP.

Cenários de aplicação:

• Escritório corporativo: coordenação on-line simultânea de centenas de dispositivos.

• Educação: acesso de um grande número de terminais de alunos em salas de aula virtuais.

4096-QAM

O Wi-Fi 7 permite o uso de esquemas de modulação de até 4096-QAM, no qual cada símbolo carrega 12 bits em vez de 10 bits, como é o caso do 1024-QAM do Wi-Fi 6. Isso aumenta o volume de dados transmitidos por unidade de tempo em 20% em relação ao Wi-Fi 6. Este ganho, devido à modulação, se soma à melhoria de eficiência de outros recursos do Wi-Fi 7 (tabela I).

A figura 3 ilustra a diferença entre os esquemas de modulação e a maior densidade de bits por símbolo.

Principais problemas endereçados:

• Eficiência espectral insuficiente: melhorar a capacidade de transmissão de dados com recursos de espectro limitados.

• Requisitos de ambiente de alta densidade: atender a requisitos de cenários de simultaneidade de vários dispositivos, como casas inteligentes e locais públicos.

Cenários de aplicação:

• Videoconferência em alta definição: colaboração de vídeo 4K/8K de nível empresarial.

• Computação em nuvem: upload/download rápidos de grandes conjuntos de dados.

Perspectivas, impulsionadores e desafios para o uso do Wi-Fi 7 no Brasil

Melhoria da experiência

Uma consulta às páginas dos provedores de banda larga permite rapidamente constatar uma relativa homogeneidade de preços, principalmente entre provedores de uma mesma área, fazendo com que a qualidade do serviço e

do atendimento sejam fatores de diferenciação fundamentais nesse segmento. Pesquisa de satisfação da Anatel mostra que as notas relativas à “Qualidade do Funcionamento” do serviço caem rapidamente quando há referências ao uso “sem falhas” ou “sem interrupções” [7]. O Wi-Fi já é apresentado com destaque na comunicação promocional das principais operadoras do país. Por outro lado, o Wi-Fi 7 permite a melhoria da experiência de uso, mesmo em cenários de utilização conjunta com dispositivos legados [8], fazendo com que sua adoção contribua para uma melhor percepção do valor do serviço.

Dispositivos do usuário

Uma avaliação realizada pela Huawei em junho de 2025, a partir da observação de contadores de rede, mostrou que aproximadamente 2,5% dos aparelhos em uso no Brasil eram compatíveis com o Wi-Fi 7. Os principais fabricantes introduziram a tecnologia em seus dispositivos premium entre 2024 e 2025 e espera-se que aparelhos de gama média já tenham o recurso disponível a partir do primeiro semestre de 2026. Em termos globais, a taxa média de crescimento de dispositivos compatíveis com o Wi-Fi 7 é estimada em 73% no período de 2024 a 2028 [9].

Rede doméstica

Por outro lado, roteadores Wi-Fi domésticos com Wi-Fi 7 dual band (2,4 e 5 GHz) já estão disponíveis em market places no Brasil com preços abaixo de

Agregação de link

Sem suporte Suportado

Otimização de latência 5-20 ms < 1 ms

Modo de alocação de RU RU única MRU

Proteção contra interferências

Limitado Otimização dinâmica e puncturing

Número de feixes espaciais 8 16

Modo de coordenação AP único Coordenação multi-AP

Esquema de modulação 1024-QAM 4096-QAM

Volume de dados transportado por cada símbolo10 bits 12 bits

Aumento da taxa teórica Baseline +20%

Tab. I – Recursos no Wi-Fi 6 e Wi-Fi 7

INCLUSÃO DIGITAL

R$ 400, enquanto aqueles que operam também na faixa de 6 GHz, tanto Wi-Fi 7 quanto Wi-Fi 6e, têm preços normalmente acima dos R$ 1000, sendo natural que a diferença de preços tenda a arrefecer a curto ou médio prazo.

Rede corporativa

No segmento corporativo, além da natural convergência de preços de equipamentos com Wi-Fi 7 em relação aos de padrões legados, aspectos de segurança, o incremento de tráfego e da quantidade de dispositivos conectados e a busca de eficiência ao implantar redes à prova de futuro fazem com que cerca de 1/3 dos profissionais de tecnologia tenham planos para implantação de redes Wi-Fi 7 até 2026.

Provedores de serviço de banda larga

Na perspectiva da oferta de serviços, a maioria dos provedores de banda larga fixa de grande porte no Brasil já anunciaram a oferta de serviços com o uso de Wi-Fi 7, contribuindo para a aceleração da adoção da tecnologia e consequentes massificação e redução de custos no futuro. Paralelamente, melhoram sua condição de competição, não só pela potencial melhoria na experiência do usuário, quanto pela

viabilização de oferta de ser viços com taxas acima de 1 Gbit/s. É importante ressaltar, neste contexto, que o RQUALRegulamento de Qualidade dos Serviços de Telecomunicações estabelece condições para a aferição individual da velocidade alcançada no dispositivo do usuário frente à taxa contratada.

Limitações para implantação de infraestrutura

Cobertura desigual

Segundo a pesquisa PNAD Contínua –Tecnologia da Informação e Comunicação de 2024, cerca de 5,1 milhões de domicílios brasileiros não tinham acesso à Internet, muitas vezes devido à cobertura insuficiente da rede. Áreas densamente povoadas ou economicamente promissoras foram priorizadas no recebimento de investimentos públicos e privados, enquanto regiões com baixos IDHsÍndices de Desenvolvimento Humano foram negligenciadas por muito tempo. Embora políticas públicas de telecomunicações continuamente incentivem a disponibilização e a ampliação do acesso à banda larga, as redes de backbone de fibra foram construídas preferencialmente em áreas urbanas. O custo de implantação em

áreas rurais é alto e o período de retorno do investimento é longo, quando existente. A cobertura móvel e a de banda larga fixa (incluindo Wi-Fi) é normalmente melhor em grandes cidades, como São Paulo e Rio de Janeiro. Em comparação, soluções simples, como 2G/3G, ainda eram usadas em áreas remotas, como a região amazônica, com largura de banda e estabilidade limitadas.

Dificuldade na implantação em ambientes complexos

Áreas com alta densidade de pessoas, como aeroportos, terminais de ônibus, etc., enfrentam muitos problemas, como interferência grave de sinal e capacidade insuficiente. Esses problemas foram resolvidos, por exemplo, no Aeroporto Internacional de Viracopos, em Campinas, SP, combinado com soluções de distribuição de tráfego 5G e otimização de Wi-Fi. Desafios semelhantes também são enfrentados para o atendimento a grandes eventos (festivais, carnaval, eventos esportivos, etc.), mesmo ocorrendo de forma esporádica. Nessas áreas, APs de alto desempenho e plataformas de gerenciamento de nuvem precisam ser implementados para suportar o acesso simultâneo de milhares de pessoas.

Gargalos na transformação da economia digital

O comércio eletrônico e o pagamento digital (como o Pix) estão crescendo rapidamente no Brasil, mas os comerciantes rurais não podem se envolver devido às más condições da rede. A exclusão digital nas áreas rurais do Brasil é um obstáculo para o crescimento econômico.

Limitações de financiamento para ações em áreas remotas

Projetos de responsabilidade social corporativa (como APs Wi-Fi gratuitos ou em equipamentos públicos) estão concentrados principalmente em áreas próximas a áreas de maior concentração populacional e centros comerciais, com alcance limitado em áreas remotas. O Fust - Fundo de Universalização dos Serviços de Telecomunicações inclui em suas diretrizes a conectividade

prioritária e a ampliação da competição e a democratização do acesso [10].

Ainda assim, o apoio não reembolsável oferecido pelo fundo é restrito, hoje, a projetos de “Escolas

REFERÊNCIAS

Conectadas”, enquanto outros mecanismos de apoio podem não ser suficientes para uma expansão mais rápida da cobertura de serviços em regiões isoladas.

[1] https://informacoes.anatel.gov.br/paineis/acessos/banda-larga-fixa (dez/2025, tipo de produto: Internet)

[2] https://cetic.br/pt/tics/domicilios/2025/domicilios/A12/ [3] https://cetic.br/pt/tics/domicilios/2025/individuos/C2A/ (a mesma pesquisa –tabela C16 – mostra que 99% dos usuários acessam a Internet pelo celular) [4] https://informacoes.anatel.gov.br/paineis/meu-municipio/indice-brasileiro-de-conectividade [5] https://cetic.br/pt/tics/domicilios/2025/domicilios/A5/ [6] https://www.wi-fi.org/topic/value-of-wi-fi

[7] https://informacoes.anatel.g ov.br/paineis/consumidor/pesquisa-de-satisfacao-equalidade-internet-fixa

[8] https://wifinowglobal.com/news-blog/new-test-results-from-intel-showssignificant-wi-fi-7-performance-improvements-over-wi-fi-6-even-with-legacy-equipment/ [9] https://press.ciriontechnologies.com/en/2024/09/26/wifi-7-change-digital-connection [10] https://www.bndes.gov.br/wps/portal/site/home/transparencia/fundosgovernamentais/fust

Abrint Global Congress 2026

AA 17ª edição do Encontro Nacional Abrint, desde 2025 chamado de AGC – Abrint Global Congress, acontece entre os dias 6 e 8 de maio no Distrito Anhembi, em São Paulo. O evento conecta profissionais e empresas do setor de telecomunicações para debaterem tendências e acompanharem os principais lançamentos em equipamentos.

17a edição do Encontro Nacional Abrint tem como missão manter o legado deixado pelo 16º simpósio. Na ocasião, a entidade alterou oficialmente a alcunha do evento para AGC – Abrint Global Congress com o objetivo de refletir sua expansão e internacionalização. Com isso, o segundo ano com o novo nome chega para salientar a mudança e continuar a agregar expositores e visitantes internacionais.

Para manter o legado, a Abrint preparou um evento com mais de 270 expositores nacionais e internacionais presentes em uma área de exposição com 26 mil m2. A feira seguirá

priorizando tecnologias como 5G, FTTH e aplicações de IA – Inteligência Artificial voltadas à eficiência operacional e à experiência do usuário. “Em 2025, optamos pela mudança na nomenclatura por conta do aumento de visitantes de outros países. O momento escolhido acabou sendo propício pois, além da participação da Abrint em simpósios internacionais, o LACNIC realizou o seu evento anual em São Paulo na mesma data, o que nos permitiu fechar uma parceria e fazer com que seus visitantes, majoritariamente estrangeiros, conhecessem o nosso congresso”, recorda André Felipe Rodrigues, diretor de eventos da Abrint.

Fábio Laudonio, da Redação da RTI RTI RTI RTI

Uma das principais novidades do AGC 2026 é a ampliação de cinco para seis plenárias. Na plenária principal, assim como em 2025, a apresentação acontece no palco central em formato 360 o, unindo os quatro espaços disponíveis em um só. Nas outras palestras, quando ocorrerem apresentações simultâneas, cada uma será realizada em um espaço diferente. A organização estima oferecer 80 horas de conteúdo em mais de 100 apresentações, com palestras técnicas, regulatórias e de gestão comercial.

“O 6 GHz é um dos principais temas, assim como a regulação de postes e as mudanças regulatórias feitas pela Anatel no Código Tributário. Quando pensamos nos tópicos a serem abordados, procuramos abranger o maior número possível de áreas que compõem o provedor, indo desde a parte técnica às questões de RH e marketing”, afirma Rodrigues.

Como nas edições anteriores, o AGC terá apresentações sobre temas pertinentes aos provedores proferidas por convidados especiais.

Um deles é o escritor Augusto Cury, que em 8 de maio irá proferir a palestra Diálogo com a Liderança –Saúde Mental nas Organizações . Na mesma data, a Board AI da Samsung, Daniela Klaiman, mostrará aos participantes como liderar para o futuro.

“Nosso objetivo é ter no mínimo dois keynote speakers por dia. Assim como na palestra inicial, eles vão se apresentar no palco único. Já outras apresentações acontecem de forma simultânea”, reforça Rodrigues.

O AGC também fará a entrega do prêmio Abrint/Teleco no dia 5 de maio. A premiação visa incentivar os provedores a estarem em dia com informações solicitadas pela Anatel, homenageando os vencedores em categorias como porcentagem de acessos em fibra, quantidade de

Serviço

O O O O O

AGC – Abrint Global Congress 2026 acontece entre os dias 6 e 8 de maio no Distrito Anhembi, em São Paulo. No dia 5, no mesmo local, acontecem a cerimônia de abertura e a entrega do prêmio Teleco/Abrint. Mais informações podem ser obtidas no site: https://agc.abrint.com.br/pt.

municípios atendidos com Internet banda larga, número de meses em que reportou acessos à Anatel no ano anterior ao evento e a taxa de crescimento.

Em 2025, o AGC recebeu 40 mil visitantes. Para a edição de 2026, a expectativa dos organizadores é que o número chegue a 45 mil. “A Abrint espera que os visitantes aproveitem o AGC, participando das palestras, visitando a feira e fazendo networking. É uma edição que elaboramos desde o ano passado e acredito que será satisfatória para todos os presentes”, diz o diretor de eventos.

Mercado de banda larga e os desafios para os provedores

O balanço mais recente da Anatel, divulgado em fevereiro, indica que o mercado brasileiro de banda larga fixa não apenas cresceu em 2025, como também passou por uma reorganização estrutural. O movimento é marcado pela consolidação da fibra óptica, pelo avanço das operadoras regionais e por uma redistribuição de forças entre os principais players do setor.

Ao encerrar o ano com 53,9 milhões de acessos ativos, o país reafirmou o papel da conectividade fixa como pilar da infraestrutura digital, mesmo diante da ampla disseminação da

InSternet móvel. Em 2024, a base era de cerca de 52,5 milhões de acessos, o que representa crescimento anual próximo de 2,7%. A banda larga fixa já alcança a maior parte dos domicílios urbanos e segue avançando em áreas periféricas e cidades de médio porte.

A expansão continua ancorada na fibra óptica, que responde por aproximadamente 79% das conexões no país, consolidando-se como principal tecnologia de acesso. Esse domínio reflete a substituição progressiva das redes metálicas, a desativação de infraestruturas legadas e a crescente demanda por maior capacidade, impulsionada por aplicações como streaming, jogos online, trabalho remoto e serviços em nuvem. Nesse cenário, a fibra deixa de ser diferencial competitivo e passa a ser requisito básico de mercado.

No ranking nacional, a Claro mantém a liderança, com 19,7% de participação e cerca de 10,6 milhões de acessos em 2025. A Vivo aparece na segunda posição, com 14,9% e aproximadamente 8 milhões de conexões. Embora as grandes operadoras ainda concentrem fatia relevante do mercado, a liderança já não é absoluta. As operadoras regionais, em conjunto, respondem por mais de 56% dos acessos de banda larga fixa, reunindo um universo de mais de 22 mil prestadoras e desempenhando papel central na expansão da conectividade. Esse cenário mais pulverizado e competitivo traz novos desafios. Qualidade de serviço, diversificação de ofertas, eficiência operacional e adaptação regulatória ganham peso na agenda das empresas. Ao mesmo tempo, o movimento de consolidação, por meio de fusões e aquisições, segue redesenhando o setor. Esses temas estarão no centro dos debates do AGC 2026, principal evento do segmento no país.

Fibra óptica nas redes Mesh e na arquitetura FTTR

A ampliação da cobertura Wi-Fi em residências e escritórios tem impulsionado a adoção de redes Mesh, cada vez mais presentes nos planos premium de provedores de Internet. No entanto, quando a comunicação entre os pontos da rede ocorre apenas por enlaces sem fio, o desempenho pode ser limitado. A utilização de fibra óptica (FTTR) surge como alternativa para aumentar a estabilidade, reduzir a latência e elevar a qualidade da conectividade.

Demarco, Engenheiro de Aplicações da Lightera

adoção de arquiteturas Wi-Fi

Mesh tem se expandido de forma significativa, com presença crescente nos planos premium de provedores de Internet como alternativa para ampliar a cobertura em ambientes residenciais e corporativos, elevando a experiência de conectividade em segmentos mais exigentes do mercado. Nesse modelo, múltiplos pontos de acesso são interligados formando uma malha de rede que distribui o sinal de forma mais homogênea, permitindo que dispositivos se conectem automaticamente ao nó mais adequado conforme se deslocam no ambiente. Contudo, quando o enlace entre os pontos de rede é estabelecido exclusivamente por comunicação sem fio, ou seja, em soluções totalmente wireless, o desempenho pode ser

substancialmente impactado. Nesses casos, o tráfego entre os pontos de acesso passa a competir pelo mesmo meio físico sem fio pela camada IEEE 802.11, família de padrões que rege a comunicação em redes locais sem fio (WLAN).

Como consequência desse compartilhamento, há aumento da latência e redução da previsibilidade de desempenho, efeitos particularmente críticos em aplicações de baixa tolerância a atraso e jitter, por exemplo, em chamadas de vídeo/voz, streaming e jogos online, sensíveis a atrasos na resposta. Outros problemas comuns incluem a ausência de roaming entre múltiplos pontos de acesso Wi-Fi, grandes distâncias em relação ao roteador e a utilização de cabos de rede de baixa qualidade.

Fig. 1 – Mapa de calor da distribuição de sinal em ambiente. Com o Wi-Fi mesh (lado direito), o sinal se distribui por toda a residência (cor verde)

Essa menor previsibilidade de desempenho do Wi-Fi está fortemente associada às características do ambiente de propagação. Assim, materiais construtivos como concreto armado, estruturas metálicas, espelhos e vidros com películas refletivas introduzem perdas por atenuação que degradam a relação sinal/ruído e resultam em zonas de sombra ou pontos cegos.

De acordo com as diretrizes da TIA-568.0-D, a utilização de backhaul cabeado, seja por par trançado balanceado ou fibra óptica, é o método recomendado para assegurar a segregação de tráfego e a previsibilidade de desempenho, com máxima eficiência aos usuários da rede.

Alta capacidade e estabilidade: o papel da fibra

A adoção de soluções de fibra discreta ou invisível se mostra particularmente vantajosa em ambientes que exigem alto desempenho de rede aliado à preservação da estética e flexibilidade de instalação. Residências de grande porte, com múltiplos cômodos ou andares, frequentemente enfrentam desafios de cobertura Wi-Fi devido à distância entre os dispositivos e à presença de barreiras físicas como paredes espessas, espelhos, estruturas metálicas e vidros refletivos, elementos que degradam significativamente o sinal sem fio

Além disso, em locais onde a estética é um fator decisivo, a solução é praticamente invisível, permitindo a passagem da fibra óptica sem comprometer o visual do ambiente.

Essa característica é especialmente útil em imóveis que não possuem infraestrutura prévia para cabeamento convencional, como eletrodutos ou canaletas aparentes.

Exemplos de uso residencial incluem:

• Residências com espelhos grandes ou vidros refletivos, como closets espelhados ou salas com janelas panorâmicas, onde o sinal Wi-Fi sofre forte atenuação.

• Residências de pessoas que dependem de conexão estável, como gamers e profissionais em home office.

• Residências com dois ou mais andares, onde o roteador principal está no térreo e o sinal precisa ser distribuído para quartos ou escritórios no piso superior.

• Ambientes com decoração sofisticada, como cozinhas planejadas, salas com sancas de gesso ou móveis embutidos, onde a instalação de cabos aparentes comprometeria a estética.

• Residências com múltiplos cômodos utilizados para trabalho remoto ou entretenimento, como home offices, salas de jogos ou áreas de streaming, que demandam conexão estável e de baixa latência.

• Imóveis alugados ou com restrições de obra, onde não é possível realizar intervenções estruturais para passagem de cabos convencionais.

Fig. 2 - Topologia aplicada na ligação do Mesh com a ONU
Fig. 3 - Resultados comparativos em laboratório de Mesh interligado por cabo LAN, fibra óptica invisível e sem fio

Mesh, FTTR e soluções para distribuir sinal dentro da casa

Entre as soluções mais promissoras estão as redes Mesh Wi-Fi e a arquitetura FTTR –Fiber to the Room. A tecnologia Mesh é reconhecida por proporcionar uma cobertura mais ampla e experiência de navegação superior, ao permitir que múltiplos pontos de acesso se comuniquem de forma inteligente e contínua. Já o FTTR representa uma abordagem de infraestrutura de alto desempenho, em que a fibra óptica é estendida até cada cômodo da residência, oferecendo uma conectividade robusta, estável e preparada para as exigências futuras.

eficiente, com menor latência e maior estabilidade. Essa abordagem cabeada é especialmente recomendada em residências maiores ou com múltiplos andares, onde barreiras físicas podem comprometer o desempenho do sinal sem fio

foram obtidos os resultados apresentados na figura 2. Pode-se perceber uma redução de 60% da latência e aumento de cerca de 300% no throughput se comparado a uma solução sem cabeamento. Já na comparação entre a solução de fibra invisível e a cabeada por cabo LAN, a latência manteve-se semelhante em ambos os casos, enquanto o throughput apresentou uma variação positiva de 4% para o cabo LAN.

Além do teste em laboratório, foram realizadas provas de conceito utilizando a mesma solução em casas de usuários reais (tabela I).

Conclusão

A rede Mesh se diferencia das soluções convencionais por criar uma

Apesar da praticidade, o modo repetidor pode apresentar limitações significativas. Como ele

malha de cobertura dinâmica entre os dispositivos conectados, como roteadores e modems secundários. Esses equipamentos podem operar em diferentes modos: roteador, gateway ou repetidor, dependendo da topologia adotada e das necessidades específicas do ambiente.

A escolha adequada dos equipamentos e a análise de suas especificações técnicas são fundamentais para garantir o desempenho ideal da rede.

A forma mais comum de implementação envolve a conexão do roteador principal aos pontos de acesso Mesh via Wi-Fi, utilizando algoritmos que ajustam automaticamente a potência de transmissão conforme a demanda e a distância entre os nós. No entanto, também é possível realizar essa conexão por meio de cabos Ethernet, o que proporciona uma transmissão mais

replica o sinal original, há maior risco de interferências e concorrência entre os canais de transmissão, o que pode resultar em degradação da qualidade da conexão. Por essa razão, recomenda-se, sempre que possível, a utilização de gateways Mesh dedicados ou a adoção de soluções híbridas que combinem a flexibilidade da rede Mesh com a robustez e capilaridade do FTTR.

Testes práticos feitos em laboratório e casas de clientes

Foi aplicada a solução da fibra invisível combinando a flexibilidade da rede Mesh com a robustez do FTTR em alguns cenários reais e em teste controlado de laboratório, conforme a topologia mostrada na figura 1.

No teste de laboratório, com o Mesh posicionado a 15 metros da ONU,

A qualidade da conexão de Internet é significativamente superior quando o modem e o sistema Mesh são interligados por cabos, sejam eles de par trançado ou ópticos, em comparação à conexão sem fio entre os dispositivos.

A utilização da solução de fibra invisível é especialmente recomendada em ambientes que não dispõem de infraestrutura adequada para cabeamento convencional ou em locais onde a estética e a discrição da instalação são fatores determinantes. Quando se optar por cabeamento metálico, é imprescindível que o cabo LAN seja 100% de cobre, a fim de garantir maior robustez elétrica e longevidade da rede. Já nas soluções FTTR - Fiber to the Room, recomenda-se o uso da fibra invisível, cuja eficácia é comprovada há mais de dez anos em aplicações na Europa e América do Norte e agora sendo consolidada também no mercado brasileiro.

Em medições práticas, a interligação cabeada pode reduzir em até quatro vezes a latência e o throughput comparada à solução padrão, resultando em uma experiência de conectividade muito mais estável e eficiente.

Fig. 4 - Instalação da fibra invisível na casa A
Tab. I - Comparação da Internet em uma rede Mesh cabeada com fibra invisível versus Mesh sem cabeamento
MariaClara

Arquiteturas de IA e tendências que moldarão os data centers em 2026 e além

Impulsionados pela expansão da inteligência artificial, Machine Learning e aplicações de alto desempenho, os data centers passam por uma transformação estrutural que envolve novas arquiteturas de rede, maior densidade de processamento e evolução das interconexões ópticas. Nesse cenário, decisões sobre conectividade, cabeamento estruturado e planejamento de fibra tornam-se centrais para garantir escalabilidade, eficiência energética e desempenho nas próximas gerações de infraestrutura digital.

OEli Batista, Diretor de Data Centers, Inteligência Artificial e Contas Estratégicas na Siemon

setor de data centers encerrou 2025 diante de uma das transformações mais significativas de sua história. Após um ano marcado pela rápida expansão da capacidade instalada, pela aceleração das inovações em GPUs - Unidades de Processamento Gráfico e pelo crescimento da demanda global por processamento, a indústria chega a um ponto de inflexão. Tecnologias essenciais avançam em ritmo mais rápido do que a infraestrutura física capaz de suportálas, enquanto sistemas de conectividade passam a ser redesenhados para cargas de trabalho que praticamente não existiam há três anos. Estratégias de resfriamento e fornecimento de energia também estão entrando em um novo território tecnológico.

Esse momento é marcado pela convergência de diversos fatores. A IA - Inteligência Artificial está redefinindo expectativas de infraestrutura, empresas aceleram seus processos de modernização digital, mercados regionais enfrentam limitações de capacidade e as exigências de sustentabilidade se tornam mais rigorosas. Paralelamente, sistemas baseados em cobre e em fibra óptica evoluem simultaneamente para atender às novas demandas de desempenho e densidade das redes.

A seguir estão algumas das principais tendências que devem definir a evolução dos data centers em 2026 e nos anos

seguintes, com base em informações de Ryan Harris, Diretor de Engenharia de Sistemas para Interconexão de Alta Velocidade e Peter Thickett, Diretor de Gestão de Produtos para Data Centers da Siemon.

Arquiteturas orientadas por IA se tornam padrão

Até o final de 2026, a inteligência artificial deixará de ser apenas um requisito adicional de projeto para se tornar a base que molda a arquitetura dos data centers. A inovação em GPUs avança rapidamente. As GPUs funcionam como as CPUs - Unidades Centrais de Processamento, mas são otimizadas para tarefas intensivas em paralelismo, como as exigidas pelos modelos de IA.

A NVIDIA, principal fornecedora global de soluções em IA, consolidou-se como referência ao definir arquiteturas como o SuperPOD, infraestrutura projetada para lidar com cargas de trabalho extremamente complexas e exigentes, como o treinamento de modelos de IA com trilhões de parâmetros. A NVIDIA é responsável pela fabricação dos chips e semicondutores utilizados no treinamento de sistemas como o ChatGPT, que demandam enorme capacidade computacional. A empresa evoluiu do sistema Blackwell GB200, com interconexões de 400 Gbit/s, para o GB300, com 800 Gbit/s, e já planeja

novas gerações para os próximos anos. Esse ritmo acelerado impõe mudanças constantes nas exigências de energia, resfriamento e desempenho da infraestrutura.

A expansão da IA também alcança ambientes corporativos. Setores como finanças, governo, indústria automotiva e universidades passaram a planejar implantações de GPUs em larga escala. Isso cria novos requisitos em instalações originalmente projetadas para cargas de trabalho tradicionais.

Como consequência, 2026 deverá registrar crescimento nas modernizações e adaptações de data centers existentes, além de maior pressão sobre instalações de colocation, que precisam acomodar ambientes com diferentes níveis de densidade computacional.

O ritmo de implantação também variará conforme a região. A América do Norte deve liderar a expansão das infraestruturas voltadas à IA, seguida pela região Ásia-Pacífico. Já Europa, Oriente Médio, África e América Latina tendem a avançar de forma mais desigual, devido a limitações relacionadas à energia disponível, planejamento urbano e disponibilidade de terrenos, e aqui no Brasil, ainda enfrentamos problemas de regulação e insegurança jurídica, que retardam ainda mais os investimentos.

Redes de alta capacidade se tornam essenciais

Um dos desenvolvimentos mais relevantes será a adoção crescente de redes de backend dedicadas à IA dentro dos próprios data centers. Essas redes geram grandes volumes de tráfego lateral entre servidores, conhecido como tráfego “east-west”, exigindo interconexões de altíssima capacidade.

Isso acelera a atualização das redes front-end , que começam a migrar de velocidades de 25 Gbit/s para 100 Gbit/ s ou superiores, de forma a evitar gargalos que poderiam comprometer o desempenho de treinamento e inferência de modelos de IA.

Ao mesmo tempo, o aumento da densidade de potência nos racks deve alterar o desenho físico das instalações. Em muitos casos, a configuração dos

racks passará a depender da capacidade real de fornecimento de energia disponível na instalação, e não apenas do limite teórico dos equipamentos.

Estratégias de resfriamento também evoluem rapidamente, incluindo o uso de portas traseiras refrigeradas e soluções de resfriamento líquido diretamente nos chips. Nesse cenário, até mesmo decisões relacionadas a cabos e conectores passam a ser influenciadas por limitações térmicas e mecânicas.

Até o final de 2026, a inteligência artificial terá deixado de ser apenas um fator disruptivo para se tornar um elemento estrutural na concepção de data centers.

Densidade e velocidade levam a infraestrutura ao limite

A expansão prevista para os próximos anos deverá impor pressão significativa sobre energia, espaço físico e sistemas de conectividade. Em vários mercados, já existem restrições de disponibilidade de energia e prazos longos para a entrada em operação de novas capacidades.

Além disso, desafios na cadeia de suprimentos e no prazo de entrega de componentes podem influenciar a velocidade de expansão ou modernização das instalações.

No campo tecnológico, o setor atravessa uma rápida transição para arquiteturas de 400 e 800 Gbit/s, enquanto as primeiras plataformas de 1,6 Tbit/s começam a surgir. Inicialmente, essas soluções devem aparecer em ambientes de computação de alto desempenho baseados em InfiniBand, com versões Ethernet previstas para os próximos anos.

Embora o padrão de 800 Gbit/s deva continuar predominante ao longo da década, a chegada de tecnologias de 1,6 Tbit/s exigirá maior integridade de sinal, densidades mais elevadas e sistemas de resfriamento mais sofisticados.

Evolução das tecnologias de conectividade

Para atender a essas novas demandas, tanto sistemas de cobre quanto de fibra óptica passam por rápida evolução.

Cabos de cobre de alta velocidade desempenham papel crescente em conexões de curta distância, oferecendo vantagens em eficiência energética e custo em determinados cenários. Novos projetos de cabos também buscam melhorar a flexibilidade e facilitar a instalação em ambientes de alta densidade. Ao mesmo tempo, sistemas de fibra óptica acompanham o aumento de velocidade das redes. A adoção de módulos ópticos de 800 Gbit/s impulsiona a transição para arquiteturas baseadas em conexões Base-16, que utilizam dois conectores MPO-8 ou um conector MPO-16. Para lidar com a crescente densidade de portas e equipamentos, conectores de formato muito compacto, conhecidos como VSFF - Very Small Form Factor, surgem como solução para otimizar o espaço em racks e painéis de distribuição.

Conectividade se torna decisão estratégica

À medida que os data centers evoluem, a escolha do meio de transmissão tornase cada vez mais estratégica. Operadores precisam definir o equilíbrio adequado entre soluções baseadas em cobre de alta velocidade, cabos ativos elétricos ou ópticos e sistemas estruturados de fibra. Cada uma dessas opções apresenta vantagens específicas em termos de alcance, eficiência energética, custo e escalabilidade. Com o aumento da densidade de processamento e o estreitamento dos orçamentos de potência das redes, essas decisões passam a ter impacto direto no desempenho e na capacidade de expansão das infraestruturas digitais.

Conclusão

A evolução das interconexões para 1,6 Tbit/s e, posteriormente, 3,2 Tbit/s deverá impor novos requisitos de energia, integridade de sinal e densidade óptica. Nesse contexto, arquiteturas baseadas em fibra com conectividade Base-16, conectores VSFF e plataformas modulares de alta densidade tendem a desempenhar papel central no planejamento das infraestruturas de data centers voltadas para cargas de trabalho de IA nas próximas gerações.

Potenciando a IA na manufatura moderna.

O avanço acelerado da maturidade digital do setor manufatureiro.

A IA já não é um conceito futurista para a manufatura: é uma necessidade atual. O sucesso dependerá não apenas de investir em IA, mas também de construir a infraestrutura capaz de suportá-la. À medida que a indústria avança, começa a corrida para fechar a lacuna entre a ambição e a execução.

Conte com a Vertiv nesta nova Era.

Saiba mais

O papel estratégico da faixa de 6 GHz na evolução para o 6G

Rogerio Moreira Lima Silva, Diretor da ABTELECOM e da AMC, Embaixador da ABRACOPEL e do Instituto EWRAN, Especialista da ABEE Nacional e 1º Secretário da ABEE-MA, Professor do PECS/UEMA Leonardo Henrique Gonsioroski Furtado da Silva, Professor do PECS/UEMA Wesley Costa de Assis, aluno do PECS/UEMA e Presidente do CREA-MA

O avanço das redes móveis e o crescimento acelerado do tráfego de dados impulsionam a busca por novas faixas de espectro para sustentar as futuras gerações de conectividade. Nesse contexto, a faixa de 6 GHz desponta como uma alternativa estratégica para o desenvolvimento do 6G, ao combinar maior largura de banda com condições de propagação mais favoráveis do que as das ondas milimétricas, ampliando a capacidade das redes móveis.

Ocrescimento do tráfego de dados móveis nas últimas décadas tem sido impulsionado pela expansão dos smartphones, da IoT - Internet das Coisas e pela digitalização de diversos setores da economia. Aplicações como realidade aumentada, automação industrial, veículos conectados e sistemas baseados em inteligência artificial exigem redes com maior capacidade, menor latência e maior confiabilidade.

A quinta geração de sistemas móveis representa um avanço significativo ao oferecer maior eficiência espectral e novas arquiteturas de rede. No entanto, a evolução contínua das aplicações digitais já impulsiona pesquisas sobre a próxima geração de redes móveis, conhecida como 6G. Entre seus principais desafios estão a necessidade de maior largura de banda, o uso de novas faixas de frequência e a incorporação de tecnologias emergentes capazes de melhorar a eficiência da comunicação sem fio.

Evolução dos sistemas celulares

As redes celulares evoluíram significativamente desde os primeiros sistemas analógicos

implantados no final da década de 1970. Cada nova geração trouxe avanços em eficiência espectral, capacidade de transmissão e serviços.

Os sistemas 1G utilizavam tecnologia analógica e eram voltados exclusivamente para comunicação de voz. A 2G introduziu a digitalização das comunicações móveis, permitindo maior eficiência no uso do espectro e serviços como mensagens de texto.

A 3G possibilitou acesso à Internet móvel em velocidades mais elevadas e suporte a aplicações multimídia. A 4G consolidou o conceito de banda larga móvel por meio de tecnologias como OFDMOrthogonal Frequency Division Multiplexing e MIMO - Multipleinput, Multiple-output, permitindo taxas de transmissão significativamente maiores.

Omnichannel e IA no core da rede redesenham NOC e SOC

Como a convergência entre atendimento omnichannel, inteligência artificial e observabilidade transforma NOC e SOC em um único ponto de decisão e reduz custos diretos, indiretos e invisíveis que hoje corroem o EBITDA de empresas de diversos setores.

ONOC vigia pacotes. O SOC vigia ameaças. O call center vigia clientes. O backoffice vigia SLAs. Cada área fala uma língua, opera um console, registra em uma base. Entre elas, o vazio onde nascem o ruído, o retrabalho e a decisão tardia. Para os C-LEVEL de uma empresa, esse vazio tem nome: custo invisível. Não aparece no balanço, mas drena MTTR, eleva churn, atrasa faturamento e multiplica ferramentas redundantes. É um imposto silencioso sobre a operação, pago em produtividade perdida e decisões fora do tempo.

O AiO Omni Platform é desenvolvido pela Hosanna, unifica os canais de atendimento (Telefonia, WhatsApp, E-mail, Chat, CRM, ITSM e Workflows) em um núcleo único. Sobre esse núcleo, uma malha de Inteligência Artificial correlaciona, prioriza e age sobre a telemetria do core da rede e os eventos de segurança.

O resultado é operacional antes de ser estratégico: “Um alarme de BGP deixa de ser apenas um evento isolado no NOC. Vira contexto no atendimento ao cliente afetado, alerta correlacionado no SOC e insumo para o executivo de contas, tudo antes que o cliente corporativo ligue reclamando”. A plataforma transforma sinal fragmentado em narrativa operacional, acionamento preciso e rápido, reduzindo o SLA de Atendimento e o tempo total até a resolução.

Plataformas e softwares sem operação adequada é um painel decorativo. Por isso a Delfia, curadora de jornadas digitais é a nossa parceira de implementação, suporte e sustentação, além de estender as funcionalidades do AiO via integração com ferramentas de mercado (APM, SIEM, ITSM, CMDB), entrega NOC e SOC como serviços 24×7, análise contínua de métricas, logs, traces e eventos, detecção proativa de anomalias e gestão de SLIs, SLOs e Error Budgets. A combinação é perfeita a Hosanna para unificar canais de atendimento e IA a Delfia com serviços gerenciados para operar e evoluir o ambiente com maturidade corporativa.

Cada evento de rede, cada atendimento, cada alerta de segurança convergindo para o mesmo ponto de decisão — com impacto direto em três camadas de custo:

■ Diretos. Consolidação de licenças de ITSM, URA, WFM, SIEM e CRM em uma única plataforma. Redução significativa de OPEX de software, eliminação de contratos redundantes e menor custo de integração entre sistemas legados.

■ Indiretos. Correlação automática entre incidente de rede e chamada do cliente derruba o MTTR e encurta o ciclo de cobrança. Menos escalonamentos, menos SLA violado, menos multa regulatória e menos churn de contas corporativas.

■ Invisíveis. O tempo perdido entre áreas, a decisão baseada em planilha, o conhecimento preso em silos, a fadiga operacional dos times de plantão. A IA transforma esses atritos em fluxo e fluxo, no P&L, vira margem.

DO DASHBOARD À DECISÃO

Não se trata de mais um painel. Trata-se de combinar NOC, SOC, atendimento e backoffice em um sistema nervoso único — plataforma proprietária operada como serviço gerenciado, onde a IA observa o core, interpreta o canal e aciona a área certa em segundos. Para o C-Level de empresas que operam infraestruturas críticas de telecom, serviços financeiros, varejo, utilities a convergência entre plataforma e serviços é a diferença entre reagir ao incidente e antecipar a receita. Entre operar em modo defensivo, queimando margem em retrabalho e operar em modo competitivo, convertendo observabilidade em vantagem estratégica

O ruído operacional não é inevitável. É um sintoma de arquitetura. E toda arquitetura pode ser redesenhada.

SYLVIO JOLLENBECK · Arquiteto Técnico do AiO Omni Platform - Hosanna Tecnologia

LEONARDO SANTOS – CTO - Delfia

REDES MÓVEIS

Com a introdução do 5G, as redes móveis passaram a suportar aplicações que exigem baixa latência, alta confiabilidade e conexão massiva de dispositivos.

A importância estratégica da faixa de 6 GHz

A faixa de 6 GHz tem se consolidado como um dos principais temas do debate internacional sobre a destinação de espectro para redes móveis avançadas. Essa faixa apresenta características particularmente atrativas, pois oferece maior largura de banda do que as bandas tradicionais abaixo de 6 GHz, ao mesmo tempo em que mantém condições de propagação superiores às observadas nas faixas milimétricas.

No Brasil, o debate sobre a utilização dessa faixa ganhou destaque nos últimos anos. O país possui poucas alternativas de espectro disponíveis para suportar a evolução das redes móveis além da faixa de 6 GHz.

Grande parte do espectro abaixo dessa frequência já está ocupada por diversos serviços de radiocomunicação. Nesse contexto, a utilização da faixa de 6 GHz pode desempenhar papel importante na expansão da capacidade das futuras redes móveis.

Modelos de propagação

O SMP - Serviço Móvel Pessoal demanda cada vez mais throughput para atender o consumidor ávido por velocidade. Entretanto, o espectro de frequência impõe o dilema capacidade vs. cobertura.

Enquanto as faixas abaixo de 1 GHz oferecem ampla cobertura e boa penetração em ambientes internos, as faixas intermediárias, entre aproximadamente 1 e 6 GHz, apresentam um equilíbrio entre cobertura e capacidade. As ondas milimétricas permitem taxas de transmissão extremamente elevadas, porém com alcance mais limitado. Nesse cenário, a faixa de 6 GHz surge como uma das poucas oportunidades de expansão do espectro em frequências intermediárias no Brasil, oferecendo um equilíbrio relevante entre cobertura e capacidade.

Uma forma de compreender a importância da faixa de 6 GHz é compará-la com outras faixas utilizadas nas redes 5G, particularmente 3,5 e 26 GHz.

A perda de propagação em espaço livre pode ser estimada por:

Entretanto, o canal de rádio de propagação móvel em ambientes urbanos reais está sujeito a reflexões, difrações e espalhamento causados por diversos espalhadores. Assim, para ter um modelo mais real desses efeitos, a UIT - União Internacional de Telecomunicações propôs diversos modelos empíricos. Um dos mais utilizados é o modelo Alfa-Beta-Gama, descrito na recomendação ITU-R P.1411, aplicável a situações em que tanto a estação transmissora quanto a receptora estão localizadas abaixo do telhado, independentemente da altura de suas antenas.

em que:

• α: dependência da perda com a distância;

• β: termo associado ao ambiente;

• γ: dependência da perda com a frequência; e

• X σ: sombreamento log-normal.

Esse modelo permite estimar de forma mais realista o comportamento de diferentes faixas de frequência em ambientes urbanos densos.

Em ambientes urbanos, o sinal transmitido pode chegar ao receptor por múltiplos caminhos devido a reflexões em edifícios e outras estruturas. Esse fenômeno é conhecido como multipercurso. No caso do 6G, temos canais banda larga, B s > B c , ou seja, canais seletivos em frequência que podem ser representados conforme ITU-R P.1407-8, como:

em que:

• s(t): sinal transmitido;

• N: número de componentes multipercurso;

• γn(t): enésima componente de amplitude do multipercurso;

• τ(t): retardo;

• fd,n(t): desvio doppler.

Tab. I - Comparação entre as gerações de redes móveis

Padrão principal AMPS GSM WCDMALTE-Advanced NR

Primeira implantação 1979 1991 2000 2009 2019

Taxa de dados de pico10 kbit/s (sinalização) 384 kbit/s 2 Mbit/s 1 Gbit/s 20 Gbit/s

Largura de banda do canal30 kHz 200 kHz 5 MHz 100 MHz 1 GHz

Faixas de frequência 800 MHz 900 e 1800 MHzAbaixo de 2,1 GHzAbaixo de 6 GHzAbaixo de 6 GHz e ondas milimétricas

Obs: As tecnologias 2G IS-136 e IS-95 não foram citadas na tabela pois foram suplantadas pelo GSM

Tecnologias emergentes para 6G

Entre as tecnologias estudadas para o 6G estão as RIS - Reconfigurable Intelligent Surfaces. Essas superfícies são formadas por um grande número de elementos refletivos capazes de modificar a fase do sinal incidente.

Cada elemento pode ser modelado por um coeficiente de reflexão complexo:

Considerando uma superfície composta por N elementos, o sinal recebido pode ser representado por:

em que:

• φi: fase ajustável induzida pelo i-ésimo elemento refletor da meta-superfície do RIS;

• x: símbolo de dados selecionado de uma constelação binária de modulação (PSK/QAM);

• n~ CN(0,No): amostra de ruído branco aditivo gaussiano (AWGN);

• : representa o canal entre o transmissor e o elemento da superfície; e

• : representa o canal entre o elemento e o receptor.

Nesse modelo, representa o canal entre o transmissor e o -ésimo elemento da superfície inteligente, enquanto corresponde ao canal entre esse elemento e o receptor. Assim, a RIS possibilita ajustes de tal forma a mitigar os efeitos do multipercurso e usar isso a favor,

ou seja, através das fases de forma que a RIS pode alinhar essas contribuições de forma construtiva, aumentando a intensidade do sinal no receptor e contribuindo para a melhoria da cobertura e da qualidade do enlace de comunicação.

Uma outra tendência para o 6G é a integração entre comunicação e sensoriamento, conhecida como ISACIntegrated Sensing and Communication. Nesse conceito, os sinais utilizados para comunicação também podem ser explorados para extrair informações sobre o ambiente. A análise dos sinais refletidos permite estimar parâmetros como distância, velocidade e direção de objetos.

Tab. II - Comparação entre 3,5 GHz, 6 GHz e 26 GHz

Faixa (GHz) Faixa Aplicação Cobertura Cobertura Capacidade Capacidade 3,5Banda central do 5G Alta Média 6Proposta para 6G Média Alta 26Ondas milimétricas BaixaMuito alta

A capacidade do ISAC abre novas possibilidades para aplicações em transporte inteligente, automação industrial e monitoramento urbano. Tecnologias como MIMO massivo, beamforming

e grandes larguras de banda favorecem esse tipo de aplicação.

Conclusão

A evolução das redes de comunicações móveis continuará sendo impulsionada pela crescente demanda por conectividade e pela necessidade de maior capacidade de

REFERÊNCIAS

transmissão de dados. Nesse cenário, o desenvolvimento do 6G deverá envolver não apenas novas tecnologias de comunicação, mas também novas formas de utilização do espectro e do ambiente de propagação.

A faixa de 6 GHz surge como uma alternativa estratégica para suportar essa evolução, especialmente em países onde

grande parte do espectro abaixo dessa frequência já se encontra ocupado. Ao mesmo tempo, tecnologias como superfícies inteligentes reconfiguráveis e comunicação integrada com sensoriamento indicam que as futuras redes móveis poderão desempenhar um papel ainda mais amplo na infraestrutura digital.

[1] Shannon, C. E. (1948). A Mathematical Theory of Communication. Bell System Technical Journal.

[2] Rappaport, T. S. (2002). Wireless Communications: Principles and Practice . Prentice Hall.

[3] Parsons, J.D. The Mobile Radio Propagation Channel. John Wiley&Sons, 2000.

[4] ITU-R Recommendation P.525. Calculation of free-space attenuation.

[5] ITU-R Recommendation P.1407. Multipath propagation and parameterization of its characteristics.

[6] ITU-R Recommendation P.1411. Propagation data and prediction methods for short-range outdoor radiocommunication systems.

[7] ITU-R Recommendation M.2412. Guidelines for evaluation of radio interface technologies for IMT-2020.

[8] Jiang, W.; Zhou, Q.; He, J.; Habibi, M. A.; Melnyk, S.; El-Absi, M.; Han, B.; Di Renzo, M.; Schotten, H. D.; Luo, F. L.; El-Bawab, T. S.; Juntti, M.; Debbah, M.; Leung, V. C. M. Terahertz Communications and Sensing for 6G and Beyond: A Comprehensive Review. IEEE Open Journal of the Communications Society.

[9] Wu, Q.; Zhang, R. Towards Smart and Reconfigurable Environment: Intelligent Reflecting Surface Aided Wireless Network. IEEE Communications Magazine, 2020.

[10] TeleSíntese. Brasil não tem outro espectro para o 6G a não ser os 6 GHz, diz Caram. https://telesintese.com.br/brasil-nao-temoutro-espectro-para-o-6g-a-nao-ser-os-6-ghz-diz-caram/.

Como o IFRS auxilia na gestão de riscos para provedores regionais

Durante muito tempo, normas internacionais de contabilidade e sustentabilidade pareciam distantes da realidade de provedores regionais de Internet, integradores e empresas de instalação. Termos como IFRS, ESG e relatórios de sustentabilidade soavam como assuntos restritos a grandes corporações, bancos ou empresas listadas em bolsa. Essa percepção começa a mudar pela forma como o risco passou a ser tratado na cadeia de fornecedores.

NGianfranco Muncinelli e Andreia Drozda Muncinelli, sócios da Muncinelli Consultoria e Treinamento

os últimos anos, grandes empresas passaram a ser cobradas por investidores, conselhos de administração e reguladores para demonstrar, de forma clara, quais riscos podem afetar sua operação, seus custos e sua continuidade. Para atender a essas exigências, entraram em vigor os chamados IFRSSustainability Disclosure Standards, que reforçam a necessidade de identificar, avaliar e explicar riscos relevantes e os impactos financeiros. Ao precisar explicar seus riscos, uma empresa passa a olhar com mais atenção para tudo o que pode afetar sua operação, inclusive os fornecedores.

IFRS S1 e S2

Quando se fala em IFRS S1 e S2, muitos imaginam algo técnico ou distante do dia a dia operacional. Na prática, a lógica é bem mais simples. Esses padrões não foram criados para ensinar empresas a “fazer ESG”. Eles existem para obrigar grandes organizações a responder, de forma estruturada, a uma pergunta central: quais riscos podem afetar o meu negócio e o meu dinheiro?

Isso exige explicações objetivas para questões como:

• O que pode interromper a operação?

• O que pode aumentar custos de forma inesperada?

• Onde estão as principais vulnerabilidades?

• O que pode comprometer a continuidade do negócio a médio e longo prazo?

Responder a essas perguntas exige olhar além dos processos internos. Interrupções de serviço, por exemplo, podem surgir por falhas de energia, conectividade, prestadores terceirizados ou fornecedores críticos. Por isso, os riscos associados à cadeia de fornecedores passaram a ganhar protagonismo.

Os IFRS levam as grandes empresas a também olhar para os riscos externos, especialmente aqueles ligados à sua cadeia de fornecedores. Provedores regionais, integradores e prestadores de serviço não precisam cumprir IFRS, mas passam a ser avaliados como parte do risco do cliente. Quanto maior a dependência daquele fornecedor para a operação, maior a atenção sobre sua capacidade de entregar serviço, lidar com falhas e responder a incidentes.

O IFRS chega às empresas de menor porte não como obrigação regulatória, mas como critério de confiança contratual. Quem demonstra conhecer seus riscos, entende seus limites e sabe como

MERCADO

reagir a problemas passa a ser visto como um parceiro mais confiável em um ambiente onde risco virou valor de negócio.

Onde o risco aparece na prática

Para muitos provedores regionais e empresas de instalação, o impacto das novas exigências ainda não aparece de forma explícita como “IFRS” ou “relatório de sustentabilidade”. Ele surge de maneira mais discreta, porém consistente, no relacionamento com clientes maiores e parceiros estratégicos.

Na prática, esse movimento pode ser percebido em situações cada vez mais comuns. Uma delas é o aumento de questionários contratuais. Documentos que antes tinham poucas perguntas passaram a incluir itens sobre continuidade do serviço, dependência de terceiros, histórico de incidentes e capacidade de resposta a falhas. Muitas vezes, essas questões parecem excessivas, mas refletem a necessidade do cliente de entender onde estão seus riscos operacionais.

Outra mudança frequente é o pedido de evidência mínima de processos e controles. Não se trata de certificações complexas ou auditorias formais, mas demonstrações simples de organização: existência de procedimentos básicos, registros de manutenção, controles de acesso, rotinas de backup ou critérios para atuação em situações de emergência. Para quem contrata, essas evidências reduzem a incerteza sobre como o fornecedor reage quando algo sai do esperado.

Também se tornou mais comum o interesse por temas ligados à continuidade operacional e à contingência. Clientes querem saber, por exemplo, o que acontece se faltar energia, um equipamento crítico falhar ou uma pessoa-chave ficar indisponível. Essas perguntas não significam desconfiança, mas refletem a preocupação em evitar interrupções que possam se espalhar por toda a operação.

Além disso, falhas recorrentes de serviço passam a receber maior atenção. Um problema isolado pode ser compreendido, mas repetições de incidentes sem análise ou correção clara começam a ser interpretadas como risco estrutural. Nesse contexto, a forma como o fornecedor trata o contratempo é tão importante quanto o problema em si.

Por fim, cresce a exigência de clareza sobre responsabilidades em caso de incidentes. Contratos passaram a detalhar quem responde por determinado setor, quais são os prazos de comunicação, como ocorre a escalada do problema e quais são os limites de responsabilidade. Essa clareza não busca punir o fornecedor, mas evitar conflitos e incertezas em momentos críticos.

É importante reforçar que nada disso significa “cumprir IFRS”. O que está em jogo é a redução do risco percebido por quem contrata. Em um ambiente onde grandes empresas precisam explicar seus riscos com mais rigor, fornecedores que demonstram desconhecimento sobre seus próprios pontos fracos passam a ser vistos como elementos frágeis da cadeia.

Quando o fornecedor conhece seus riscos, sabe explicá-los e demonstra como lida com falhas, ele deixa de ser apenas um prestador de serviço e passa a ser notado como um parceiro confiável em um cenário cada vez mais orientado a risco.

ESG

Para provedores regionais, a sigla ESG – Ambiental, Social e Governança pode soar distante ou associado a discursos institucionais, relatórios sofisticados e campanhas de marketing. No contexto atual, porém, ele aparece de forma mais simples, como um risco operacional e financeiro.

Quando grandes empresas passam a ser cobradas para explicar seus riscos, elas deixam de olhar apenas para números e indicadores internos e passam a observar tudo o que pode comprometer a continuidade do serviço. Nesse movimento, temas tradicionalmente associados ao ESG

surgem como fontes reais de risco e não como intenções ou valores declarados.

Interrupções de serviço, por exemplo, deixam de ser tratadas apenas como problemas técnicos pontuais e passam a ser analisadas como eventos que geram impacto financeiro, perda de confiança e risco contratual. Falhas recorrentes, mesmo quando pequenas, indicam fragilidades estruturais que aumentam a percepção de risco do fornecedor. Falhas de energia ou de infraestrutura seguem a mesma lógica. Um provedor pode não ter controle direto sobre o fornecimento de energia, mas a ausência de planos de contingência, redundância ou resposta rápida amplia o risco percebido por quem depende daquele serviço para operar.

Outro ponto cada vez mais observado é a dependência excessiva de pessoas-chave. Operações muito concentradas em um único técnico, administrador ou gestor podem funcionar bem no dia a dia, mas se tornam frágeis diante de férias, afastamentos ou desligamentos inesperados. Esse tipo de dependência raramente aparece em discursos, mas surge com força quando o tema é risco. Problemas com terceiros também ganham destaque. Fornecedores de backbone, empresas de manutenção, prestadores de suporte e parceiros operacionais passam a ser vistos como parte do risco total da operação. Se um desses elos falha, o impacto se propaga, afetando quem está no fim da cadeia.

Questões de conformidade regulatória e segurança da informação deixam de ser percebidas apenas como exigências legais e passam a ser tratadas como risco financeiro. Incidentes de segurança, falhas no tratamento de dados ou descumprimento de obrigações básicas podem gerar custos diretos, perda de clientes e desgaste contratual. Esses riscos sempre existiram na rotina dos provedores. O que muda é o nível de atenção e formalização. Em um ambiente onde grandes empresas precisam demonstrar controle sobre

MERCADO

seus riscos, fornecedores passam a ser avaliados não pelo discurso, mas pela capacidade de reconhecer suas fragilidades e lidar com elas de forma responsável.

Nesse cenário, o ESG deixa de ser uma narrativa e passa a ser mais um nome para riscos que já fazem parte da operação, agora com impacto direto na forma como contratos são negociados, mantidos e renovados.

O IFRS demanda explicações

Um ponto fundamental para compreender o impacto do IFRS é entender o que ele não faz, como determinar quais controles uma empresa deve adotar, prescrever processos específicos ou impor modelos prontos de gestão. Em vez disso, ele exige algo mais simples e, ao mesmo tempo, mais desafiador: explicações coerentes sobre risco.

As organizações passam a ser cobradas para explicar, de forma clara, quais riscos podem afetar sua operação, seus custos e sua capacidade de continuar entregando valor no futuro.

Essas explicações precisam fazer sentido, ser consistentes ao longo do tempo e estar conectadas à forma como decisões são tomadas.

Quando grandes empresas entram nesse ambiente, elas passam a valorizar fornecedores que também conseguem explicar seus riscos. Isso não significa que o fornecedor precise ter todos os riscos sob controle ou que nunca enfrente problemas, mas sim que ele sabe onde estão suas fragilidades, entende seus limites e consegue comunicar como reage quando algo sai do esperado. Por outro lado, quando um fornecedor não consegue responder a perguntas básicas como quais são seus principais riscos, o que acontece se um serviço crítico falhar ou como a empresa lida com incidentes recorrentes, a percepção de risco aumenta. A ausência de explicação clara gera insegurança, mesmo quando o serviço técnico é bom. Para provedores regionais, esse cenário se traduz em uma expectativa

crescente de decisões mais estruturadas e justificáveis. Decisões precisam ter critérios, ainda que simples, e não podem parecer puramente improvisadas. Nesse contexto, gestão de riscos deixa de ser sinônimo de controle rígido e passa a ser sinônimo de capacidade de explicar escolhas. Quem consegue explicar o motivo de investir em um ponto específico, aceitar determinado risco ou como prioriza suas ações transmite maturidade, exatamente o tipo de confiança que o ambiente influenciado pelo IFRS passa a valorizar.

O risco sempre existiu

Provedores regionais sempre conviveram com os riscos como parte natural da operação. Falhas de energia, indisponibilidade de equipamentos, erros humanos, dependência de terceiros e problemas de conectividade fazem parte do cotidiano e são, muitas vezes, tratados como algo inevitável.

O que muda no cenário atual não é a existência desses riscos, mas a forma como são percebidos. Situações que antes eram classificadas apenas como “imprevistos” passam a ser entendidas como eventos que podem, e devem, ser considerados no momento da decisão.

Quando o risco é tratado de forma implícita, as decisões tendem a ser reativas. O problema surge, a equipe atua para resolver e a operação segue adiante sem avaliar se aquela falha é recorrente, quanto ela custou ou se poderia ter sido evitada. Esse ciclo se repete até que o impacto se torne grande demais para ser ignorado.

O ambiente influenciado pelo IFRS favorece um movimento diferente. Em vez de reagir apenas ao problema, passa-se a antecipar situações, priorizar ações e justificar escolhas. A pergunta deixa de ser apenas “como resolver agora?” e passa a incluir “vale a pena aceitar esse risco?” ou “qual decisão reduz mais impacto no futuro?”. Essa mudança de consciência não exige cálculos complexos ou processos formais, e sim atenção e reflexão. Ao reconhecer riscos como parte da decisão, o provedor regional passa a enxergar padrões, identificar fragilidades recorrentes e direcionar

melhor seus recursos. Esse olhar mais consciente transforma a gestão de riscos em uma ferramenta prática para decidir melhor, e não em uma obrigação externa imposta por normas. Em diversas operações pequenas, a tomada de decisão é guiada pelo que “grita mais alto”. O problema mais visível, o cliente mais irritado ou a falha mais recente acabam determinando prioridades. Esse comportamento é compreensível em ambientes com equipes enxutas e pressão constante, mas nem sempre leva às melhores escolhas. Quando a decisão é orientada apenas pela urgência, corre-se o risco de tratar sintomas e não causas. Resolve-se rapidamente o que está causando desconforto no momento, enquanto problemas menos chamativos, porém recorrentes, continuam drenando tempo, dinheiro e energia da operação.

A entrada do risco na equação muda esse cenário. Ao considerar com que frequência um problema ocorre e o seu impacto real para o negócio, o provedor passa a enxergar padrões que antes ficavam escondidos. Situações aparentemente pequenas revelam custos acumulados relevantes, enquanto eventos mais dramáticos mostram ter impacto limitado quando analisados com calma. Essa mudança de perspectiva eleva o nível da decisão. O foco deixa de ser apenas apagar incêndios e passa a ser reduzir a chance de que eles aconteçam de novo ou, quando inevitáveis, diminuir seus efeitos.

É esse tipo de maturidade que clientes maiores passam a buscar em seus fornecedores. Não a ausência de problemas que ninguém espera, mas a capacidade de decidir com critério, priorizar de forma consciente e explicar por que determinadas escolhas foram feitas. Em um ambiente cada vez mais orientado ao risco, esse tipo de postura faz toda a diferença.

Ferramentas simples fazem toda a diferença

Estruturar decisões orientadas a risco não exige softwares caros, consultorias especializadas ou processos complexos. Para provedores regionais, planilhas, checklists e registros

MERCADO

simples são suficientes para organizar informações, comparar alternativas e justificar escolhas.

O valor dessas ferramentas não está na sofisticação, mas na consistência. Quando informações sobre falhas, interrupções e decisões ficam registradas, a empresa deixa de depender apenas da memória ou da percepção individual. Com o tempo, padrões se tornam visíveis, recorrências são identificadas e decisões passam a ser tomadas com mais segurança.

Além disso, critérios simples ajudam a evitar decisões contraditórias.

Situações semelhantes passam a ser tratadas de forma parecida, o que reduz improvisos e aumenta a previsibilidade da operação. Essa consistência é percebida tanto pela equipe interna quanto por quem está do outro lado do contrato.

Efeito prático na relação com os clientes

Quando um provedor regional demonstra conhecer seus riscos e toma decisões com base neles, a conversa com os clientes muda de tom. Perguntas sobre continuidade, falhas ou investimentos deixam de ser interpretadas como desconfiança ou cobrança excessiva e passam a fazer parte de um diálogo mais maduro.

Imagine um cliente que questiona quedas recorrentes de serviço em determinado período. Em uma postura puramente reativa, a resposta tende a ser defensiva, focada em justificar o incidente isolado ou minimizar o impacto. Já em uma abordagem orientada a risco, o fornecedor consegue explicar que aquele ponto específico da operação concentra falhas, qual é a frequência dessas ocorrências, quais impactos já foram observados e por que determinado investimento foi priorizado para reduzir esse risco ao longo do tempo.

O mesmo raciocínio se aplica à segurança da informação. Suponha que um cliente pergunte sobre a possibilidade de vazamento de dados ou acesso indevido a sistemas. Sem uma visão estruturada de risco, a

resposta costuma ser genérica, baseada em afirmações como “isso nunca aconteceu” ou “temos antivírus e firewall”. Em uma abordagem orientada a risco, o provedor consegue explicar quais são os principais cenários de incidente, onde estão suas maiores vulnerabilidades, quais controles básicos já existem e quais riscos ainda são aceitos conscientemente, dadas as limitações da operação.

Nesse contexto, o fornecedor deixa de “se defender” e passa a explicar suas escolhas com tranquilidade. Em vez de prometer segurança absoluta, ele demonstra entender o motivo de priorizar determinados controles, como monitora incidentes, quais ações são tomadas quando algo ocorre e quais limites ainda existem.

Esse tipo de conversa muda a dinâmica da relação. O cliente passa a enxergar o fornecedor como alguém que entende seus próprios riscos e age de forma consciente, mesmo quando não é possível eliminá-los completamente. A transparência sobre riscos residuais e prioridades tende a gerar mais confiança do que garantias genéricas de que “está tudo seguro”.

Conclusão

O IFRS não foi criado para regular provedores regionais ou impor ferramentas, controles ou modelos prontos, porém altera silenciosamente o ambiente em que decisões são avaliadas. Ao exigir que grandes empresas expliquem seus riscos, ele eleva o padrão de clareza esperado ao longo de toda a cadeia de fornecedores.

Nesse contexto, a principal mudança não está no que o provedor regional faz, mas em como ele decide. O risco deixa de ser apenas algo que “acontece” e passa a ser um elemento considerado antes das escolhas. Priorizações, investimentos e respostas a incidentes ganham critério, mesmo quando baseados em instrumentos simples. Decidir com base em risco não significa eliminar falhas ou prometer segurança absoluta, e sim reconhecer

fragilidades, entender impactos e justificar escolhas de forma consciente. Essa postura gera previsibilidade, reduz conflitos e fortalece a relação com clientes que também precisam explicar suas decisões a terceiros.

À medida que o IFRS influencia contratos, expectativas e conversas comerciais, a capacidade de tomar decisões estruturadas passa a ser um diferencial competitivo real. Para provedores regionais, isso não exige complexidade, mas maturidade. Em um mercado cada vez mais orientado à gestão de riscos, maturidade decisória é um ativo cada vez mais valioso.

REFERÊNCIAS

[1] International Financial Reporting Standards Foundation. S1: General Requirements for Disclosure of Sustainability-related Financial Information . Londres: IFRS Foundation, 2023.

[2] International Financial Reporting Standards Foundation. IFRS S2: Climate-related Disclosures . Londres: IFRS Foundation, 2023.

[3] International Sustainability Standards Board. Sustainability-related Risks and Opportunities and the Disclosure of Material Information . Londres: IFRS Foundation, 2023.

[4] International Sustainability Standards Board. Materiality: Educational Material. Londres: IFRS Foundation, 2023.

[5] International Financial Reporting Standards Foundation. Proportionality in the IFRS Sustainability Disclosure Standards . Londres: IFRS Foundation, 2023.

[6] International Financial Reporting Standards Foundation. Using the SASB Standards to Meet the Requirements in IFRS S1. Londres: IFRS Foundation, 2023.

[7] Muncinelli, Andreia. Risk Management in ESG: Components of the Preliminary Conceptual Model of the ESG Risk Canvas. SADSJ – South American Development Society Journal, n. 33, 2025.

[8] Muncinelli, Gianfranco; Lauria, Wilson Mendes; Vasconcellos, Alexandre Antonio Urioste. Metodologia FAIR no Gerenciamento de Riscos de Cibersegurança em Pequenos Provedores Simpósio de Engenharia de Produção, XXXIII, Bauru: SIMPEP, 2025.

Etapas para a construção de um data center corporativo

A construção de um data center é um processo complexo, que demanda tempo, planejamento e profissionais altamente capacitados. Com diversas particularidades técnicas, o projeto pode representar um desafio significativo para as equipes de engenharia. O artigo apresenta, de forma resumida, as principais etapas e elementos envolvidos na implantação segura e eficiente de um data center corporativo.

Aconstrução de data centers é um processo bastante complexo, que exige tempo e capacitação profissional. Erros podem significar atrasos e perdas de tempo e dinheiro.

Para evitar problemas, é importante conhecer o processo de construção de um data center, que demanda uma sequência de etapas que precisam ser cumpridas à risca até que os equipamentos comecem a operar. A seguir apresentamos, de forma resumida, os principais cuidados em cada fase da obra, do projeto até o comissionamento e moving , com foco em data centers corporativos.

Projeto

Para elaborar um projeto de um data center, são realizadas diversas reuniões com o contratante para definir o conceito a ser empregado. É importante levantar informações como a finalidade da obra, quais serão os usuários atendidos e o nível de segurança demandado.

A próxima etapa é o pré-projeto, onde são feitos estudos de viabilidade do local que receberá o empreendimento. Se aprovado, o passo seguinte envolve o dimensionamento do layout, setores e a quantidade de racks. Geralmente, o desenho é representado em um anteprojeto com animações 3D.

Obras civis

A construção de um data center corporativo começa com a preparação da infraestrutura arquitetônica, ou seja, do espaço que vai abrigar os equipamentos. É um ponto vital, que exige uma análise profunda para avaliar quais intervenções precisarão ser realizadas na edificação antes do recebimento dos equipamentos.

Em alguns casos, o local precisa ser construído do zero. O mais comum, porém, é a implantação em uma edificação existente, demandando adequações como demolições e nivelamento de contrapiso, derrubada e construção de paredes, acabamento e forro. Um processo muito importante, especialmente em edifícios, é o reforço da laje para receber equipamentos pesados. Muitas vezes, é necessário fazer escavações na obra, seja ela térrea ou um edifício comercial, para realizar a interligação de energia e fibra óptica. Em um grande data center, são tantas tarefas que diversas equipes de trabalho atuam ao mesmo tempo, porém em operações distintas. Enquanto algumas cuidam das fundações e construção da laje para receber equipamentos pesados do lado de fora, outras trabalham nas adequações arquitetônicas na parte de dentro, principalmente na preparação do contrapiso.

INFRAESTRUTURA

Depois da preparação inicial do ambiente e do piso, as paredes devem ser construídas para separar as áreas internas. Em instalações com paredes modulares, caso o piso tenha algum desnível, a última placa pode apresentar um certo grau de inclinação, o que prejudica o projeto.

As paredes podem ser de alvenaria, concreto ou compostas por painéis modulares com certificação contra fogo. Em todos os casos, devem ser capazes de resistir a impactos físicos e desastres naturais, além de contar com proteção antichamas. Depois que as paredes são preparadas, é feita a instalação de forro, normalmente rebaixado, e da porta antichamas. E, por fim, o piso elevado.

O piso elevado é um aspecto arquitetônico muito importante na construção de um data center. Ele é instalado com placas removíveis para que cabos e equipamentos possam ser posicionados no espaço abaixo delas e possibilitem que futuras manutenções sejam realizadas com mais facilidade (figura 1).

Fig. 1 – O piso elevado é um componente funcional na construção do data center

seca, responsável pelo suporte à alimentação elétrica e de comunicação. Nesse momento, são implantadas as eletrocalhas aramadas abaixo do piso elevado e acima do forro rebaixado, além dos eletrodutos e perfilados para o sistema de iluminação e fibra óptica.

Outro cuidado é que as placas do piso elevado precisam ser muito bem instaladas e niveladas, já que todos os racks de servidores e demais equipamentos do data center ficarão posicionados sobre elas.

Implantação do sistema de detecção e combate a incêndio

Na construção de um data center, um aspecto primordial é o cuidado com o sistema de detecção e combate a incêndios. É ele que vai garantir que não haja prejuízos em dados e equipamentos na eventualidade de fogo.

Nessa etapa são instalados os sensores para detecção de fumaça.

Além disso, são ligadas as tubulações do sistema de supressão de fogo, que entrará em ação caso haja a detecção de início de chama (figura 2).

Um detalhe crucial na instalação desse sistema é o cuidado com a sujeira. É necessário evitar que poeira, detrito de obra, tinta ou vapor entre nos detectores.

Fig. 2 – Sistema de combate a incêndio para data centers: proteção de equipamentos e informações

O piso elevado é um item crítico em relação ao cronograma da obra. Caso atrase, toda a construção é prejudicada pois é embaixo dele que as eletrocalhas e a infraestrutura elétrica são instaladas.

O sistema de combate a incêndio, por exemplo, também fica travado pois o cilindro de gás fica sobre o piso elevado, e os detectores vão para baixo dele. Finda a parte de obras civis, tem início a instalação da infraestrutura elétrica e de comunicação.

Infraestrutura elétrica e de comunicação

A terceira etapa da construção envolve o preparo da infraestrutura

É fundamental preparar a infraestrutura para que não demande novas obr as no espaço, exigindo tempo e dinheiro além do planejado. Quando bem executada, uma infraestrutura seca é garantia de cumprimento de prazos.

Quando a infraestrutura seca do data center é instalada, deve-se verificar se as eletrocalhas estão bem unidas e se há continuidade entre todos os trechos. Como as eletrocalhas e eletrodutos são estruturas metálicas, elas precisam ser aterradas.

A infraestrutura de calhas, perfilados e aramados dá suporte à implantação de todos os subsistemas do centro de dados, que serão as próximas etapas da construção.

Outra preocupação diz respeito à integridade das tubulações, principalmente do cabeamento instalado nos eletrodutos. Caso seja atingido pelo fogo, o sistema pode deixar de cumprir sua função no combate a incêndio. Por isso, é essencial assegurar a vedação completa das tubulações, evitando a propagação das chamas. O sistema não pode apresentar frestas ou arestas que possibilitem a penetração de fumaça ou do foco de incêndio.

Climatização de precisão

Durante a construção do centro de dados, a equipe responsável pela instalação do sistema de climatização começa pela tubulação do ar-condicionado, posicionada sob o piso elevado. Enquanto isso, as unidades de refrigeração são dispostas em uma sala separada.

A tubulação abastece o sistema de climatização do ambiente e conecta os aparelhos de ar-condicionado de alta precisão aos condensadores posicionados do lado de fora do data center. Caso partículas ou impurezas entrem na tubulação nesse momento, todo o

INFRAESTRUTURA

sistema de refrigeração pode ser comprometido. Por isso, é necessário interromper atividades que possam gerar poeira ou resíduos durante a soldagem das tubulações.

Depois de prontas, as tubulações são submetidas a um teste de pressurização com nitrogênio por até 48 horas. A análise avalia se as soldas estão em perfeito estado e resistem à pressão, além de verificar possíveis vazamentos.

Sistema elétrico

Após finalizar o sistema de climatização, é hora de concluir a parte elétrica com a instalação dos quadros de distribuição de energia. Também é feita a passagem de cabos e a conexão com disjuntores e ramais de distribuição.

É um processo que demanda profissionais experientes, pois os cabos não podem ser danificados, dobrados ou amontoados. Eles devem ser posicionados um ao lado do outro para evitar interferências, curtos-circuitos ou pontos de aquecimento. Outro passo importante, e muitas vezes negligenciado, é identificar, de forma clara e organizada, os cabos. A iniciativa propicia que futuras manutenções sejam realizadas sem percalços.

Além da conexão à rede elétrica e, muitas vezes, da instalação de subestações de energia para abastecer toda a operação, o sistema elétrico do data center também precisa ser conectado aos UPS instalados na sala elétrica e aos geradores. Esses equipamentos de backup vão garantir o suprimento de energia em casos de queda no fornecimento.

Vale ressaltar que a fibra óptica é muito fina, podendo se romper facilmente. Caso haja alguma intempérie no cabo, a comunicação de dados, feita pela transmissão de luz nesse vidro, pode ser bloqueada. Além disso, qualquer curva fora do padrão no lançamento pode amassar ou romper os condutores.

Para verificar se os cabos estão instalados corretamente e sem defeitos, é feita uma certificação com um scanner. Esse equipamento analisa se o cabo está de acordo com as normas. Em caso de problemas, a instalação é reprovada, o que pode atrasar a entrega do data center.

Sistemas de monitoramento

O último sistema implantado é o de monitoramento e gestão. Uma plataforma de administração moderna e completa, como o DCIM, é composta de hardwares e softwares interligados aos demais subsistemas (painéis elétricos,

Validação da infraestrutura e comissionamento

Após a instalação dos sistemas, é imprescindível realizar testes de validação da infraestrutura e comissionamento. A plataforma de monitoramento é avaliada com os demais setores. Portas abertas e alterações funcionais, como elevação de temperatura acima do ideal ou falta de energia nos geradores, precisam ser sinalizadas. Caso a plataforma de gestão não emita alertas, significa que algo está errado. Devem ser analisados os seguintes aspectos na validação da infraestrutura na construção de um data center:

• Carga máxima: os sistemas principais, como climatização e geração de energia, são expostos a altas cargas de atividades durante várias horas. Nesse período, devem operar com, no mínimo, 80% de sua capacidade máxima.

• Monitoramento: todos os equipamentos são monitorados durante o período de teste. Em um gerador de energia, por exemplo, são monitoradas as correntes para analisar se o equipamento ficou estável, se não houve oscilação nas frequências, se está bem balanceado, se os condutores apresentaram superaquecimento ou se é necessário fazer algum reaperto nos barramentos e painéis.

geradores, UPS, climatização e detecção de incêndio), que precisam estar prontos no momento de interligar tudo ao software de gestão.

• Análise: em seguida, os equipamentos em teste são desligados e analisados. Um gerador, por exemplo, tem seus níveis de água e óleo avaliados, bem como a temperatura máxima que o dispositivo atuou no período.

Sistemas de comunicação e cabeamento estruturado

Esta etapa envolve o lançamento e conexão dos cabos metálicos e fibras ópticas. Em uma das pontas são ligados os servidores e na outra os patch panels, responsáveis pela distribuição dos grupos de cabos lógicos.

O sistema de monitoramento consolida as informações dos subsistemas do data center em uma única tela. Para isso, é necessário que todos os equipamentos estejam funcionais e comecem a mandar os logs para o software de gestão.

Nessa fase da construção são instaladas as ferramentas de controle de acesso a portas, sensores e câmeras de vigilância, que completam a gestão ambiental do centro de dados.

• Comissionamento: caso os equipamentos passem no teste, ainda há a etapa do comissionamento, na qual os sistemas funcionam com carga normal por vários dias. Após esse período, são submetidos a avaliações mais específicas. Uma delas é o teste de estanqueidade, realizado em ambientes que necessitam de alta segurança contra incêndios, fumaça, fogo e poeira, como salas seguras e salas-cofre.

Durante o teste, a sala pronta é totalmente vedada e pressurizada. Em seguida, é despressurizada, devendo

Fig. 3 – Treinamentos de equipes de operação: maior eficiência e redução de risco de falhas

manter as condições iniciais para comprovar o isolamento ou estanqueidade. Com as análises, é possível descobrir se um equipamento veio com defeito de fábrica e fazer a troca, de forma mais fácil, com o data center ainda desativado.

Treinamento de equipes

Chegou a hora de realizar o treinamento operacional, ou seja, apresentar a nova infraestrutura aos profissionais que farão a operação do data center. A equipe precisa estar muito bem preparada para identificar os equipamentos, cabos e racks principais, além de navegar em telas, logs, alarmes e reconhecer falhas. Assim, os gestores saberão munir os técnicos em casos de operações especiais ou manutenções (figura 3).

Migração de ativos

Após os testes e possíveis ajustes, o novo data center está pronto para ser

conectado à rede elétrica e começar a funcionar. Mas há muitos casos de reforma de instalações ou transferência para um novo local. Em tais situações, a construção só termina após a migração de ativos, que consiste no transporte de servidores, HDs e outros equipamentos da antiga para a nova infraestrutura.

Por ser uma operação considerada delicada, ela demanda um plano específico capaz de prever etapas como transporte, desde o trajeto até a previsão do tempo, embalagens para acondicionar os equipamentos e até mesmo a substituição de funcionários por alguma eventualidade.

Outro cuidado é em relação ao tempo da migração de ativos. A operação deve ser realizada em períodos específicos em que o ambiente antigo possa ser desligado, paralisando atividades. Por isso, normalmente ocorre em períodos curtos, fora do horário de expediente.

Quanto tempo leva para construir um data center?

O tempo de duração da construção de um data center varia de acordo com o projeto, tamanho e complexidade da obra. No caso de unidades modulares, a construção é mais rápida, podendo ser concluída em até três meses. Já os de alvenaria convencional, quanto mais reformas forem necessárias, mais tempo levará para concluir a implantação.

Conclusão

Um data center com alta qualidade demanda redundâncias necessárias para proteção contra paralisações e a segurança de uma infraestrutura física apta a proteger dados e equipamentos.

Com tantas etapas e áreas de especialização envolvidas, fica nítido que a operação é extremamente complexa e que exige planejamento e experiência em sua execução.

Redes NTN no 5G

As redes não terrestres (NTN), em processo de padronização pelo 3GPP, despontam como uma alternativa para ampliar a cobertura das comunicações móveis além dos limites das redes terrestres, especialmente em áreas remotas ou de difícil acesso. A tecnologia promete viabilizar conectividade global com maior eficiência energética, mas também impõe desafios técnicos relevantes, ligados à latência, à propagação do sinal e à mobilidade de satélites.

André Martini Paula, Engenheiro de Telecomunicações pelo InatelInstituto Nacional de Telecomunicações e Pesquisador do Instituto de Pesquisas Eldorado Rinaldo Duarte Teixeira de Carvalho, Gerente Técnico de Educação Continuada do Inatel e Conselheiro Regional do CREA/MG

Como uma das propostas do 5G é a cobertura global, além dos cenários clássicos como eMBB - Enhanced Mobile Broadband, mMTC - Massive Machine Type Communications e uRLLC - Ultra-Reliable Low Latency Communications, foi criada uma quarta categoria para a cobertura extrema, o eRACEnhanced Remote Area Communications [1]. Essa modalidade demanda a utilização das redes não terrestres (NTNsNon-Terrestrial Networks) integradas às redes terrestres (TNsTerrestrial Networks). As NTNs utilizam satélites e/ou HAPSHigh-Altitude Platform Stations, que podem ser caracterizadas por aeronaves tripuladas e não tripuladas, como drones, entre outras. Para a cobertura em áreas remotas, onde a fibra óptica e o rádio são inviáveis para transporte de dados até uma estação base celular, os enlaces via satélite são inevitáveis, a exemplo do que acontece com outros meios de comunicação, como TV e Internet banda larga.

Este artigo apresenta os cenários das redes NTN alinhados com o 5G e 6G (TN), assim como as adaptações necessárias para que se complementem de forma harmoniosa, seguindo as diretivas

do 3GPP – 3rd Generation Partnership Project. Há muitos desafios que circundam o tema, impedindo que seja contemplado como um item nativo do 5G, mas com certeza será incluído no 6G –cobertura por terra, mar e ar/ espaço. Especificamente em um país continental como o Brasil, a cobertura extrema é de alta valia nas esferas social e econômica. Existe uma grande carência de banda larga para uma considerável parte da população e uma extensa área rural com grande potencial econômico a ser coberta. Globalmente há 4 bilhões de pessoas desconectadas [1]. O avanço das NTNs na atual e futuras gerações de comunicações móveis terá um papel fundamental para a inclusão digital.

Pontos-chave das NTNs no 5G e 6G

NTN nas Releases do 3GPP

A Rel-16 do 3GPP introduziu as pesquisas relacionadas às redes NTN. Depois a Rel-17 propôs a arquitetura do seu sistema de integração com as redes 5G, onde foram de fato descritas as vantagens das redes via satélite tradicionais combinadas com as redes celulares 5G. Finalmente, a Rel-18 do 3GPP padroniza a

utilização da NTN no 5G, a fim de obter uma constante e consistente evolução dessas redes para a cobertura extrema [2].

Arquitetura básica das redes NTN

Três elementos (UE – User Equipment, NTE – Non-Terrestrial Element e NTN Gateway) fazem a integração da NTN com a rede TN. São conectados por dois links: de alimentação, que conecta o NTN Gateway com o NTE, e o de serviço, que faz a conexão do NTE com o UE (figura 1).

Modos de operação das redes NTN

A arquitetura das redes NTN trabalha em dois modos de operação:

• Modo transparente: o satélite (NTE) faz o papel de replicador do sinal do UE para o gateway 5G. O gNB - Next Generation Node B está localizado no solo, após a estação terrestre da rede NTN. O satélite é transparente ao sinal que este

retransmite, não realizando nenhum processo embarcado. O gNB é conectado ao 5GC (5G Core) e finalmente o sinal é enviado à rede externa de dados (PDN) como mostrado na figura 2.

• Modo regenerativo: o gNB fica localizado no NTE, melhorando o desempenho da rede NTN, uma vez que todos os processos executados pelo gNB que independem do 5GC são realizados utilizando-se somente o link de serviço. Com isto, diminuem-se os atrasos na rede (figura 3).

Cada modo tem as suas vantagens e desvantagens e são empregados de acordo com a situação e necessidade.

Integração das redes NTN com 5G e 6G

Conforme ilustra a figura 1, as redes NTN podem utilizar três órbitas satelitais existentes: GEOGeostacionary Earth Orbit, órbita geoestacionária, com 36 mil km; MEO - Medium Earth Orbit, órbita média (10 mil km); e LEO - Low

Earth Orbit, órbita baixa (1000 km). Cada órbita apresenta fatores de latência diferentes.

Para uma ideal integração das redes NTN com as redes celulares 5G e 6G, é preciso realizar alguns ajustes no 3GPP. Mas mudanças no equipamento do usuário (UE) não são necessárias, isto é, o dispositivo móvel 5G/6G tem a capacidade de comutar conforme a necessidade da rede TN para a rede NTN e viceversa. Isto se deve à padronização feita pelo 3GPP em relação aos protocolos para a interoperabilidade ideal entre elas. A padronização dos protocolos utilizados leva em conta todos os desafios proporcionados pelas redes NTN, principalmente os impactos do efeito Doppler, das perdas por propagação e do atraso de transmissão. A parte que desempenha uma função essencial nessa integração é o core (núcleo) do 5G (5GC). Essa entidade é a responsável por todo o controle e gerenciamento de recursos entre as redes, permitindo uma comunicação transparente e ininterrupta ao usuário. Além disso, o 5GC dispõe de várias importantes funcionalidades, como o fatiamento da rede (network slicing), que permite uma separação lógica na rede, e assim, uma customização para diferentes necessidades do usuário, como maior largura de banda, menor latência, maior confiabilidade, etc.

Frequências de operação das redes NTN

As alocações das faixas de frequências de operação das NTNs vêm evoluindo de acordo com os releases do 3GPP, à medida que são realizados estudos de viabilidade e interferência sob canais adjacentes. O

Fig. 1 – Arquitetura básica das redes NTN [3]
Fig. 2 – Arquitetura

COMUNICAÇÃO MÓVEL

espectro para as comunicações via satélite é dividido em duas porções: MSS e FSS (Serviços via Satélite Móveis e Fixos).

No 3GPP Rel-17, foram especificadas as bandas L e S para suporte a n255 (ULuplink: 1626,5 MHz ~ 1660,5 MHz / DL - downlink: 1525 MHz ~ 1559 MHz) e n256 (UL: 1980 MHz ~ 2010 MHz / DL: 2170 MHz ~ 2200 MHz), duplexadas em divisão de frequência (FDD) com uma largura de banda em torno de 30 MHz para cada porção [5].

Desafios

No 3GPP Rel-18, uma nova faixa para MSS em FDD foi adicionada. Para o UL, foi utilizada uma fatia da banda L (1610 MHz ~ 1626,5 MHz) e, para o DL, uma fatia da banda S (2483,5 MHz ~ 2500 MHz). Esta nova adição proporcionou a obtenção de uma largura de banda de 80 MHz para cada sentido, UL e DL, contra 30 MHz do 3GPP Rel-17. Ainda no 3GPP Rel-18, foram adicionadas mais duas faixas de frequência na banda Ka, já utilizada largamente em comunicações via satélite, a n510 e n512, com 17,7 GHz ~ 20,2 GHz para o DL e 27,5 GHz ~ 30 GHz para o UL [5]. Para essas faixas, tem-se uma largura de banda mais abundante, na casa de 2,5 GHz. As bandas S e L são voltadas ao uso por handsets, enquanto a banda Ku se destina a transceptores equipados com múltiplas antenas de alto ganho, geralmente instalados em edifícios e veículos.

Para evitar possíveis interferências nas redes legadas terrestres, o 3GPP preocupou-se em isolar as bandas S e L das faixas de frequência utilizadas para o 5G sub-6 ou para outras tecnologias, assim como em isolar a banda Ka das faixas de frequência do mmW (onda milimétrica) no 5G e de possíveis faixas utilizadas em links de microondas. Logicamente, o UE terá que ter o suporte a estas bandas empregadas nas redes NTN como requisito de um dispositivo 5G.

Tratando-se das redes NTN, são inúmeros os desafios devido à sua complexidade e integrações com as TNs (5G, 6G).

Backhaul NTN

Um dos maiores desafios das redes NTN é o backhaul, já que o volume de dados trafegados no 5G é muito alto e há grande suscetibilidade em torno dos links de serviço e de alimentação.

Existem dois cenários viáveis para o contorno de uma situação de suscetibilidade do sistema. Abordando o primeiro, onde é encontrada uma estação terrena fora de serviço devido à chuva ou a um desastre natural, podem ser colocadas estações base portáteis com links de serviço diretos conectados às HAPS, que por sua vez são conectadas às estações base correspondentes aos links de alimentação (figura 4).

No segundo cenário, pode-se trabalhar com a diversidade na recepção quando um link de alimentação fica fora de operação

devido às mesmas razões do primeiro cenário. Lembrando que o link de alimentação realiza a integração das NTNs com as redes 5G, conforme ilustrado na figura 5.

Para ambos os cenários, a proposta é a operação na faixa de 38 GHz para a contemplação de uma largura de banda de 80 MHz, sendo assim viável a vazão de dados do backhaul . Para operação nessa faixa, são encontrados muitos desafios de propagação, o que requer o apontamento correto das antenas das estações terrestres e das antenas das HAPS para visada direta sem obstáculos. A altura das HAPS também é limitada em 20 km.

Outro fator importante é a atenuação por chuva nesta faixa de 38 GHz, como mostra a tabela I [6]. Pode-se observar que, para as distâncias compatíveis com os links propostos de no máximo 20 km, há uma atenuação por chuva em torno de 27 dB/km. Se isto for estendido para o comprimento de uma célula de chuva, que seria de aproximadamente 10 km, já se tem uma atenuação de 270 dB, fora a atenuação por espaço livre, tornando-se este enlace impossível de ser operado.

Para contornarmos este problema de atenuação por chuva, lançamos mão de cenários de diversidade nas redes 5G combinados com as técnicas de ATPC - Automatic Transmission Power Control e ACMAdaptation Coding and Modulation [6].

Maior raio de célula

Quando se comparam os raios das células NTN e TN, percebe-se uma diferença enorme, uma vez que a cobertura das redes NTN é bem superior. Para as células NTN, temos raios na ordem de 1000 km e, por esta razão, a diferença de atraso entre o centro da célula e a sua borda é consideravelmente grande. Esse aumento de célula nas redes NTN

Fig. 4 – Caso de uso para proteção pública e resposta a desastres [6]
Fig. 5 – Caso de uso de diversidade de recepção [6]

Visite a Vero Empresas e impulsione seus resultados com um portfólio completo de soluções em conectividade e tecnologia:

Faça uma visita no estande D19 e descubra como a Vero Empresas pode ampliar suas oportunidades de negócios.

querovero.com.br/para-sua-empresa

COMUNICAÇÃO MÓVEL

impacta diretamente o sistema de sincronização, de extrema importância em uma rede móvel celular. É preciso adotar mecanismos avançados para a garantia de uma sincronização entre usuários e assim evitar qualquer chance de interferência entre estes usuários [2].

Alto atraso de transmissão

Os atrasos de transmissão nas NTNs são bastante grandes se comparados com as redes TN devido às distâncias. Um bom exemplo são os satélites geoestacionários (GEO) a uma altura em torno de 36 mil km. Considerando-se o modo transparente de operação, são obtidos atrasos que podem atingir valores de até 272,4 ms [2]. Com

algumas técnicas de compensação com pontos de referência, que podem estar situados no Gateway NTN (terrestre) ou no satélite. Dependendo do ponto de referência, o UE ou o satélite podem utilizar mecanismos para estimar estes atrasos e fazer as compensações com técnicas de equalização.

Alta taxa de alteração do efeito doppler e o jitter

Devido à elevada velocidade dos satélites de baixa órbita (LEO) em suas trajetórias ao redor da Terra, dois desafios técnicos se destacam: a rápida variação do efeito Doppler e a elevada variação do atraso de propagação (alto jitter ). O desvio doppler pode atingir dezenas de

Tab. I - Atenuação estimada por chuva excedida em 0,1% de um ano médio na frequência de 38 GHz (Tóquio)

com uma latência mínima para evitar uma queda de conexão. Nas NTNs, o handover se torna ainda mais desafiador, por conta das latências elevadas e variáveis. Além disto, existe a constante movimentação dos satélites em relação à Terra, o que aumenta consideravelmente o número de handovers se comparado às redes TN.

Distância ao centro da área de cobertura do serviço (km)

Distância ao centro da área de do serviço (km) centro (km) 1020304050

Ângulo de elevação (graus) 63,44533,7 26,6 21,8

Comprimento do enlace inclinado (km)4,65,97,59,3 11,2

Comprimento efetivo do percurso (km)5,15,15,45,96,4

Atenuação por chuva estimada (dB) 26,7 26,628,8 31,540,9

satélites MEO, tem-se alturas de 10 mil km com atrasos correspondentes a 95,2 ms [2] e com satélites LEO são anotadas distâncias ao redor de 600 km com atrasos de propagação na casa de 14,2 ms. Por fim, quando são utilizados os HAPS com alturas de 20 km, são verificados atrasos de no mínimo 1,526 ms [2], muito maiores que o requisito de uRLLC para atrasos abaixo de 1 ms, podendo chegar a 0,033 ms com uso de MEC - Mobile Edge Computing. Os atrasos de transmissão impactam diretamente as interações entre o UE e o gNB, especialmente os processos que dependem de muitas cadências de sinalização como handovers e sincronizações necessárias na rede 5G entre usuário e rede de acesso (como HARQ).

Para a compensação do atraso de propagação causado pelas grandes distâncias, o 3GPP trabalhou em

kHz ou até mesmo alguns MHz [2], levando o sinal a sofrer perdas na recepção. Já o jitter no uso de satélites LEO pode chegar a dezenas de microssegundos, o que representa um grande desafio para as funções de sincronização do sistema 5G NR. Para eliminar potenciais brechas na transmissão de um sinal pela rede NTN, mecanismos de sincronização nos domínios do tempo e da frequência devem ser refinados.

Gerenciamento de mobilidade nas NTNs

Como o handover é um processo que envolve a troca de estação radiobase durante uma sessão de dados ou chamada, tal processo deve ser muito bem coordenado para evitar interrupções na conexão e manter a qualidade da conexão constante. Este processo requer muitas trocas de mensagens entre UE e radiobase,

Para que todos estes desafios em relação ao handover sejam contornados, soluções envolvendo inteligência artificial devem ser largamente empregadas. Através de técnicas de Machine Learning e Deep Learning , recursos de rádio podem ser otimizados por meio de estimação de canal e de tomada de decisão em tempo real, contribuindo para uma conexão mais estável e transparente. Iniciativas recentes de implementação de inteligência artificial em redes de testes satelitais estão promovendo a integração das NTNs com as redes 5G, buscando uma estrutura de rede mais robusta e coesa.

Estudos futuros sobre as redes NTN

Um importante ponto a ser estudado nas redes NTN é o link budget dos links de alimentação e serviço. No estudo dos links satelitais tem-se a teoria de dimensionamento desses links, em que o engenheiro faz o projeto das estações terrenas e do satélite a ser utilizado para determinada aplicação.

Como um estudo futuro ao atual trabalho, pode-se trazer essa teoria para as redes NTN integradas ao 5G e 6G, onde as estações terrenas se caracterizam por dispositivos celulares (UE) e gateways 5G (estações transmissoras e receptoras que fazem a conexão do link de alimentação com a RAN 5G).

Obtenção de dados para estudos futuros

Para a realização de estudo futuro, deve-se ter em mãos as especificações técnicas do UE como

ganho de antenas, potência de transmissão, entre outros parâmetros. Também deve-se obter características técnicas dos gNBs nos projetos que utilizam o modo de operação regenerativo.

Para obtenção de tais dados, é necessário o acesso aos fabricantes de UE e equipamentos de infraestrutura de rede celular, além de adquirir um bom simulador de projetos de enlaces satelitais, já que o desenvolvimento de cálculo de tais enlaces é custoso e extenso.

Conclusões

Este artigo apresentou os principais aspectos das redes NTN, bem como o alinhamento dessa tecnologia com as diretrizes do 3GPP. Foi apresentado um panorama dos modos de operação das NTNs e de sua arquitetura básica, além de destacada a importância de sua integração com as redes 5G legadas e sua possível evolução como ponte para o 6G. Também foram abordadas as faixas de frequência atualmente permitidas para uso nessa tecnologia. Como discutido, os desafios associados às NTNs são diversos, especialmente no que se refere à latência, à propagação do sinal e ao gerenciamento de mobilidade. Para enfrentar esses desafios, foram apresentadas soluções projetadas pelo 3GPP e já em processo de adoção pela indústria sem fio. Nesse contexto, ganha relevância o uso de inteligência artificial e aprendizado de máquina como ferramentas para otimização e gestão dessas redes. Por fim, foram apontadas áreas para estudos futuros sobre o tema, bem como os dados que ainda precisam ser obtidos para o avanço e a consolidação dessas pesquisas.

REFERÊNCIAS

[1] A. M. Albert, D. G. Silva, G. P. Aquino, J. M. Brito: OpenRAN, a conexão do futuro. Periódico do Inatel.

[2] Z. Zhang, H. Guo, W. Xie: Research of NTN Technical Scheme Based on 5G Network. Artigo IEEE.

[3] C. Nin: Two 5G non-terrestrial network architectures. RCR Wireless News tabloid https://www.rcrwireless.com/ 20250115/5g/5g-ntn-architecture.

[4] R. Giuliano, E. Innocenti. Machine Learning Techniques for Non-Terrestrial Network. Artigo IEEE.

[5] S. Euler, X. Fu, S. Hellsten, C. Kefeder. Using 3GPP technology for satellite communication. Ericsson Magazine, June 1, 2023.

[6] H. Kitanozono, J. Suzuki, Y. Kishiyama. Development of High Altitude Platform Station Backhaul System Using 38GHz Band Frequency. Artigo IEEE.

Artigo adaptado do Trabalho de Conclusão de Curso apresentado ao Inatel - Instituto Nacional de Telecomunicações, como parte dos requisitos para a obtenção do Certificado de Pós-Graduação em Redes 5G. Orientador: Prof. Me. Rinaldo Duarte Teixeira Carvalho.

Pré-fabricação e design híbrido nos data centers hyperscale

HOs data centers hyperscale e edge crescem rapidamente, mas as pressões por redução de custos e simplificação operacional têm impulsionado mudanças significativas nas soluções e no design dos centros de dados corporativos. O modelo tradicional, projetado para uma finalidade específica, vem sendo substituído por arquiteturas modulares e préfabricadas, que permitem expansão e aprimoramento conforme a demanda.

ouve um tempo, não muito distante, em que a grande maioria das percepções sobre o data center era a de que cada instalação era única. A fase com o design do centro de dados sendo tão único coincidiu com o auge dos data centers empresariais, quando praticamente todas as empresas tinham a necessidade de possuir e operar sua própria instalação. Isso parece ter ocorrido há muito tempo, mas permaneceu sendo uma norma até que a nuvem amadureceu e a bifurcação gradual do espaço de data centers produziu os cenários que conhecemos hoje, dominados por hyperscale e edge. É claro que o centro de dados empresarial está longe de desaparecer. Os data centers hyperscale e edge estão crescendo com índices mais rápidos, mas as pressões que impulsionam as mudanças no segmento empresarial, o desejo de otimizar e simplificar as operações, reduzir os custos e a pegada de carbono, também estão produzindo mudanças nas soluções e no design dos data centers. O centro de dados empresarial construído para um propósito específico, ou purpose-built, está gradualmente desaparecendo, sendo substituído por designs padronizados que apresentam construção e componentes modulares e pré-fabricados.

A ampla aceitação das soluções de data center modular pré-fabricado (PMDC) pode estar ultrapassando a mudança mais falada para hyperscale e edge. Em uma pesquisa da consultoria Omdia com 228 empresas que operam data centers próprios, pouco mais da metade dos participantes disseram já

ter implementado abordagens de PMDC e um impressionante percentual de 99% afirmou que o PMDC seria uma parte de sua estratégia futura para data centers (figura 1).

O caso do design pré-fabricado

A crescente popularidade do design modular para data centers não surpreende. Ao levar a construção e a integração para fora do centro de dados, essas tarefas podem ser realizadas sob condições de fábrica rigidamente controladas por especialistas. Isso pode ocorrer enquanto a preparação do data center continua, reduzindo os prazos de construção, diminuindo custos e melhorando o custo total de propriedade (TCO) como um todo, já que encurta o tempo para a geração de receitas. A integração na fábrica também tende a reduzir problemas e custos com manutenção. Para alguns, há uma interpretação errônea de que os módulos de data centers pré-fabricados são contêineres iguais aos de transporte que abrigam infraestrutura e racks de TI, que não são tecnologia de ponta. Os módulos pré-fabricados modernos são blocos de construção integrados e eficientes. Eles são opções cada vez mais comuns para novos data centers ou para adições em instalações existentes. De acordo com pesquisa da Omdia, 79% das empresas que já implementaram algum tipo de solução pré-fabricada disseram tê-la implementado como um módulo multifuncional (figura 2).

Vertiv

Em organizações mais tradicionais, a opção costuma ser por componentes menores e pré-fabricados, como racks, filas ou corredores integrados, construídos na fábrica e implementados com servidores e infraestrutura incluídos. É uma escolha popular quando uma organização precisa adicionar capacidade incrementalmente, muitas vezes dentro de uma edificação já existente.

Entretanto, outro design pré-fabricado tem sido muito utilizado. Este conceito híbrido é baseado em módulos de infraestrutura da instalação, mais comumente módulos de energia, mas os módulos mecânicos, refrigeração e de TI oferecem benefícios similares. Nesses casos, um sistema holístico de energia, incluindo baterias, por exemplo, é integrado e testado fora do centro de dados e implementado já pronto para instalação imediata. Os módulos podem ser configurados em uma unidade fechada ou montados em um skid aberto.

Explorando a abordagem híbrida

Na maioria dos casos, como são sistemas pré-fabricados totalmente integrados, os módulos de energia são considerados como equipamentos ao invés de uma parte da edificação. Isso simplifica a conformidade com as normas, regulamentos e códigos de construção.

Os módulos podem ser projetados visando otimizar a performance de formas que os sistemas tradicionais não podem fazer. Por exemplo, os

de dados ou fazer um upgrade da refrigeração de uma instalação para dar suporte a mais capacidade e melhor eficiência.

A escolha entre módulo ou skid depende das necessidades de um data center específico, mas como recomendação genérica, o design com base em módulos de energia é mais adequado para centros de dados de até dois andares. Já soluções montadas em skids são voltadas para edificações mais altas.

Conclusão

O design híbrido apresenta diversas vantagens. Seus módulos e skids podem ser instalados em novas construções ou em retrofits de data centers existentes. Eles entregam os benefícios habituais de outros designs PMDC: prazos de implementação reduzidos e construção replicável e confiável, com menos chamadas para assistência. Além disso, dependendo da arquitetura, eles podem reduzir a área física ocupada dos sistemas que substituem em até 30%, criando espaço de TI adicional para equipamentos geradores de receita.

módulos de energia são um componente elétrico, mas podem ser desenvolvidos com propriedades térmicas aprimoradas usando, por exemplo, o princípio de confinamento de corredores. Esse tipo de otimização melhora o perfil térmico geral da instalação e reduz o uso de energia e os custos associados à refrigeração. Skids de refrigeração são projetados de forma customizada para fornecer capacidade adicional a um determinado centro

As contínuas demandas do mercado de data centers estão mudando percepções mantidas por muito tempo sobre o design de instalações. O modelo modular pré-fabricado já é a tendência dominante entre os data centers empresariais e as mesmas motivações (velocidade, custo e confiabilidade) estão levando os operadores de hyperscales a explorar o PMDC. A preferência emergente no segmento de hyperscale é por um design híbrido, alavancando módulos ou skids de infraestrutura da instalação, que são sistemas completos, integrados e testados fora do site e prontos para instalação assim que implementados. A abordagem híbrida pode reduzir a área ocupada em 30% em relação às edificações construídas tradicionalmente e diminuir os prazos de construção, eventualmente até pela metade. Essa abordagem replicável pode também aumentar a eficiência energética da instalação, eliminando a necessidade de longas inspeções para atender o código de construção, bem como melhorar a confiabilidade do sistema através da construção e dos testes na fábrica. Os benefícios motivaram tanto os operadores de data centers empresariais quanto hyperscalers a adotar a padronização, mais especificamente o design híbrido.

Fig. 1 – Dados da pesquisa sobre data center modular pré-fabricado. Fonte: Omdia (2022)
Fig. 2 – Tecnologias de data center modular pré-fabricado aplicadas pelas empresas. Fonte: Omdia (2022)

Como pode ser avaliado o impacto da tecnologia Wi-Fi nas redes dos edifícios comerciais para as aplicações mais comuns nesses ambientes em relação ao uso de sistemas de cabeamento estruturado?

Parte 1

Não podemos negar ou ignorar que a tecnologia Wi-Fi representou uma forte mudança na forma como as redes dos edifícios comerciais são projetadas e utilizadas e como o cabeamento estruturado tem sido afetado com o emprego crescente dessa tecnologia. Enquanto as redes tradicionais de dados e voz (hoje tratadas simplesmente como redes de dados) necessitavam de extensas instalações de cabeamento no subsistema horizontal, a tecnologia Wi-Fi passou a possibilitar o acesso sem fio de forma mais genérica, ou seja, reduzindo a necessidade de cabeamento para as TOsTomadas de Telecomunicações nas áreas de trabalho. O próprio conceito de área de trabalho passou a ter um significado diferente na prática, embora sem alteração conceitual conforme as normas de cabeamento estruturado vigentes.

Por outro lado, o uso crescente da tecnologia Wi-Fi em edifícios comerciais levou ao aumento na demanda de infraestruturas mais robustas, inclusive com a entrega de alimentação remota em corrente contínua PoE - Power

Esta seção se propõe a analisar tópicos de cabeamento estruturado, incluindo normas, produtos, aspectos de projeto e execução. Os leitores podem enviar suas dúvidas para Redação de RTI RTI RTI RTI RTI, e-mail: info rti@arandanet.com.br.

over Ethernet, para citar um exemplo, para os próprios pontos de acesso sem fio.

Como resultado, vemos uma mudança no projeto e utilização do cabeamento estruturado, com uma tendência à redução da quantidade de conexões ponto a ponto em topologia estrela entre as TOs e o FD – Distribuidor de Piso, responsável pela distribuição do

Para saber mais

A A A A A

agregação de portas de switches combina duas ou mais portas Ethernet físicas em um único enlace lógico para aumentar a capacidade de transmissão e oferecer redundância. A agregação de Wi-Fi melhora o desempenho das redes sem fio ao permitir que múltiplos pacotes de dados sejam combinados e transmitidos ao mesmo tempo, otimizando a eficiência de transmissão.

subsistema de cabeamento horizontal para projetos híbridos, que tendem a otimizar a infraestrutura de cabeamento estruturado para a implantação da tecnologia Wi-Fi em pontos de acesso sem fio à rede corporativa.

Fatores de transição para Wi-Fi na rede corporativa

Do ponto de vista dos usuários, um dos fatores mais importantes de transição para redes sem fio é a mobilidade. Eles esperam conectividade fácil à rede de qualquer localidade dentro do edifício para equipamentos como

computadores portáteis, tablets, smartphones, etc.

Essa conectividade fácil e onipresente impulsiona o planejamento para a densidade da rede Wi-Fi e dimensionamento do backbone com maior capilaridade e capacidade de transmissão. Portanto, se por um lado o subsistema de cabeamento horizontal para a área de trabalho tende a ser reduzido, por outro o cabeamento de distribuição do backbone tende a receber mais atenção do projetista para maior robustez, preservando a topologia de distribuição hierárquica que caracteriza o cabeamento estruturado.

Entre os fatores que contribuem para essa transição, estão:

• A proliferação de dispositivos de rede exclusivamente Wi-Fi, como sensores, câmeras, dispositivos de automação predial, entre outros.

• Espaços corporativos flexíveis, como escritórios compartilhados (coworking), salas de reuniões e o modelo do escritório híbrido, que levam à redução da distribuição de cabeamento horizontal nos espaços de trabalho.

• O custo de implantação da tecnologia Wi-Fi no edifício é em geral mais baixo que o de um sistema de cabeamento estruturado para a mesma quantidade de usuários.

• A velocidade de implantação dos pontos de acesso Wi-Fi é mais rápida e menos disruptiva em relação à instalação de um sistema de cabeamento estruturado ou mesmo a um retrofit.

É importante também considerar que o investimento em atualização da rede Wi-Fi tem um custo em geral mais elevado que a manutenção do cabeamento instalado ao longo de sua vida útil.

Com base nos fatores descritos acima, a quantidade de clientes simultâneos da rede aumenta, levando a requisitos de maior largura de banda da rede sem fio.

VigorShield

Todos dispositivos inteligentes totalmente protegidos incluindo loT e não gerenciados *

*Edge Firewall com AI-Assisted e Cloud Intelligence

10G Dual-WAN VPN Security Router

Para os primeiros sistemas Wi-Fi, tais fatores impunham certas limitações, com a balança pendendo para o cabeamento. No entanto, com o avanço da tecnologia Wi-Fi, esses fatores deixaram de ser críticos, favorecendo a larga utilização das redes sem fio em ambientes comerciais.

Novas práticas de instalação

As práticas de instalação dos sistemas de cabeamento estruturado são especificadas nas diversas normas de cabeamento vigentes. A NBR 16869-1Cabeamento Estruturado – Parte 1: Requisitos para Planejamento aborda essas práticas de instalação, para citar um exemplo. Quando a topologia da rede é baseada em pontos de acesso Wi-Fi, o planejamento do cabeamento pode não atender exatamente aos requisitos e recomendações das normas de cabeamento para o projeto como um todo, mas pode ser adotado parcialmente. Nas instalações em que a distribuição da rede é baseada em tecnologia Wi-Fi, o cabeamento é projetado, prioritariamente, para atender às TOs às quais os pontos de acesso Wi-Fi serão conectados. Em geral, o cabeamento para os pontos de acesso sem fio é de alto desempenho, com sistemas de classe EA/Cat. 6A (500 MHz) ou superiores. Alguns projetistas adotam soluções de cabeamento blindado para proteger os pontos de acesso sem fio de interferência que pode ser acoplada pelo próprio cabeamento. Esses casos merecem avaliação específica que não serão discutidos aqui. Cabeamento óptico também é uma opção, porém menos comum que cabos balanceados de cobre. Como a densidade de conexões aos pontos de acesso sem fio

aumenta, a quantidade de dispositivos Wi-Fi na rede aumenta por consequência. Dessa forma, o backbone precisa lidar com um tráfego maior e projetado para garantir o desempenho adequado da rede para todos os usuários. As técnicas de agregação de portas de switches e agregação de tráfego Wi-Fi ajudam a otimizar o desempenho do backbone e da rede de forma mais ampla.

O ciclo de vida da tecnologia Wi-Fi é mais curto que o ciclo de vida projetado do cabeamento. Isto significa que o upgrade dos dispositivos Wi-Fi é bastante frequente.

Um bom projeto de cabeamento estruturado considera um ciclo de vida útil de dez anos no mínimo, em conformidade com recomendações das normas vigentes. Dessa forma, a infraestrutura de cabeamento para Wi-Fi, quando projetada adequadamente, suporta entre dois e três ciclos de upgrade de tecnologias Wi-Fi. Isto justifica o emprego de cabeamento balanceado de cobre de alto desempenho (classe EA/categoria 6A ou superior). Outro aspecto a ser considerado no projeto do cabeamento é a sua capacidade para suportar a entrega de alimentação remota em corrente contínua ao equipamento terminal (PoE), pois os dispositivos Wi-Fi modernos suportam PoE, PoE+ ou versões de maior potência.

Aproveito para lembrar o leitor que estamos trabalhando atualmente no projeto da norma brasileira de cabeamento para PoE, na comissão de estudo ABNT/Cobei que coordeno.

Evolução da tecnologia Wi-Fi

A tecnologia Wi-Fi existe desde 1997, especificada pelo padrão IEEE 802.11 entregando conexões sem fio a velocidades entre 1 e 2 Mbit/s. Desde então, o padrão

IEEE 802.11 vem recebendo diversas variações, sendo o IEEE 802.11be (Wi-Fi 7) o mais recente (publicado), capaz de entregar conexões sem fio da ordem de dezenas de Gbit/s. A evolução dessa tecnologia tem sido importante e relativamente rápida quando comparada com outras de redes locais.

A tabela I mostra todos os padrões Wi-Fi, inclusive o Wi-Fi 8 (não publicado, em desenvolvimento) e suas principais características. No entanto, destaco a seguir as características dos mais recentes e faço um breve comparativo entre eles.

Wi-Fi 5 (802.11ac, Wave 1/2)

• Recursos típicos: largura de banda de canal de 80 a 160 MHz, MU-MIMO, taxa de transferência nominal teórica por ponto de acesso de centenas de Mbit/s a 1,7 Gbit/s, aproximadamente.

• Principais características: maturidade alcançada, relação custo/benefício satisfatória; atende às necessidades de usuários típicos de redes corporativas, porém apresenta dificuldades sob alta densidade de usuários e demandas simultâneas de alta largura de banda de uplink.

• Infraestrutura de cabeamento: deve oferecer suporte a uplinks Gigabit Ethernet únicos por ponto de acesso e ao padrão PoE IEEE 802.3at para dispositivos Wi-Fi com essa capacidade.

Wi-Fi 6 (802.11ax)

• Recursos típicos: OFDMA, MU-MIMO aprimorado, melhor eficiência espectral,

Tab. I – Padrões Wi-Fi IEEE 802.11 e suas variações

Padrão Wi-Fi

Ano Frequência

Velocidade

Largura de Principais características teórica (PHY) banda do canal da interface PHY/MAC

802.11 1997 2,4 GHz 1–2 Mbit/s 1–2 MHz

FHSS/DSSS, MAC básico (legado) (FHSS/DSSS)

802.11b 1999 2,4 GHz 11 Mbit/s 22 MHz DSSS/CCK, escala melhorada, baixo custo

802.11a 1999 5 GHz 54 Mbit/s 20 MHz OFDM, 54 Mbit/s PHY, interferência menor entre canais em relação a 2,4 GHz

802.11g 2003 2,4 GHz 54 Mbit/s 20 MHz OFDM em 2,4 GHz, compatibilidade retroativa com 802.11b

802.11n 2009 2,4/5 GHz 600 Mbit/s 20/40 MHzMIMO, STBC, HT (A-MPDU / A-MSDU), (Wi-Fi 4) (para 4×4, 40 MHz) agregação de frame

802.11ac 2013 5 GHz Multi-Gbit/s 20/40/80/160 MHzVHT, canais com largura de banda mais (Wi-Fi 5) 3,47 Gbit/s amplas, até 8 streams espaciais, (para 4×4, 160 MHz) MU-MIMO (downlink), 256-QAM

802.11ad 2012 60 GHz Até 7 Gbit/s Ampla, Gbit/s Alcance curto, em feixes, altas taxas de transferência

802.11ay 2021 60 GHz 20 a 40 Gbit/s Agregação de MIMO em 60 GHz, agregação de (agregação) canal em 60 GHz canal, alcance estendido para mmWave

802.11ax 2019 2,4/5/6 GHz 9,6 Gbit/s 20/40/80/160 MHzOFDMA, UL/DL MU-MIMO, TWT, HE, (Wi-Fi 6/6E)(6E reg. 2020–21)(6E + 6 GHz) (para 8×8, 160 MHz) símbolos OFDM mais longos, granularidade melhorada

802.11be 2024 2,4/5/6 GHz Dezenas de Gbit/s Até 320 MHz EHT, MLO (multi-link), 4096-QAM, (Wi-Fi 7) (multi-link, teórica) MU-MIMO melhorado e baixa latência

802.11bnEm curso 2,4/5/6 GHzA ser determinadaA ser determinada,Maior eficiência, latência mais (Wi-Fi 8) (expectativa) multibanda esperada baixa, capacidades multibanda estendidas

suporte a uma quantidade maior de usuários com taxa de transferência de camada física (PHY) teórica da ordem de Gbit/s por ponto de acesso.

• Características principais: uso em ambientes densos, inclusive para redes IoT – Internet das Coisas com muitos usuários simultâneos.

• Infraestrutura de cabeamento: deve oferecer suporte a uplinks multigigabit (2,5 e 5 Gbit/s) e gerenciamento mais eficiente de gargalos na rede e PoE++.

Wi-Fi 6E (802.11ax em 6 GHz)

• Recursos típicos: espectro contínuo mais amplo (6 GHz), permitindo mais canais não sobrepostos, maior taxa de transferência e menor contenção em ambientes de alta densidade de clientes.

• Características principais: solução ótima para ambientes com alta densidade de conexões, aplicações

com requisitos de baixa latência e alta taxa de transferência.

• Infraestrutura de cabeamento: deve ter características similares àquele para Wi-Fi 6, porém com a necessidade de maior capacidade agregada de backhaul devido aos canais com largura de banda mais ampla e maior taxa de transferência simultânea.

Wi-Fi 7 (802.11be)

• Recursos típicos: canais com largura de banda mais ampla, operação multilink (MLO), modulação QAM de ordem superior, taxa de transferência teórica da ordem de dezenas de Gbit/s por ponto de acesso.

• Características principais: solução destinada a aplicações com requisitos de taxa de transferência muito alta e latência muito baixa, como em sistemas de realidade aumentada (AR - Augmented Reality), realidade virtual (VR - Virtual Reality), entre outras.

• Infraestrutura de cabeamento: deve ser projetada com o requisito mínimo para aplicações 10GbE (10 Gigabit Ethernet) por ponto de acesso para suportar uplink multi-gigabit. Pode incluir canais ópticos no subsistema de backbone e suporte a PoE++. Na próxima edição de Interface, vamos concluir a discussão iniciada aqui com um panorama geral da tecnologia Wi-Fi, principais tendências e suas relações com o cabeamento estruturado em cobre e fibras ópticas em edifícios comerciais.

Paulo Marin é engenheiro eletricista, doutor em interferência eletromagnética aplicada à infraestrutura de TI e telecomunicações e mestre em propagação de sinais. Marin é membro sênior do IEEE - Institute of Electrical and Electronics Engineers, consultor, palestrante, coordenador da ABNT/Cobei e autor de livros técnicos.

Um problema mal (não) resolvido

Quem é da área de segurança sabe que temos alguns problemas mal resolvidos, como a poeira escondida embaixo do tapete. Hoje irei falar de software vulnerável e não atualizado, ou, para usar um termo mais correto, não corrigido. Parte deles decorre de falhas das empresas em fazê-lo, pelos motivos mais variados possíveis, e outra parte ocorre porque o software alcançou o fim de vida e deixou de ter suporte pelos fabricantes. Os invasores costumam concentrar seus esforços nos dois extremos do ciclo de vida do software: os que alcançaram o fim do suporte e os recém-lançados. O primeiro porque eventuais vulnerabilidades não serão corrigidas, o que abre uma janela de oportunidade muito interessante. E o segundo porque esses ainda não foram completamente escrutinados pelos especialistas em pesquisa de vulnerabilidades. Mas a busca por novas brechas em sistemas antigos esbarra na questão óbvia de que tal software já foi analisado amplamente. Uma alternativa, também trabalhosa, é revisitar vulnerabilidades publicadas e buscar novas for mas de exploração, ou sua reutilização como parte de outro código de ataque.

As empresas, por sua vez, têm o tempo a seu favor. De maneira geral, nem todos os exploits (códigos de exploração) são de dia zero, ou seja, exploram uma vulnerabilidade desconhecida. Um ataque de dia zero é a grande jogada de qualquer hacker. As empresas usuárias e os fabricantes de segurança são pegos de surpresa e o tempo que levam para bloquear o ataque fornece uma janela confortável de ganho. Dessa forma, há um período de adaptação quando uma vulnerabilidade é identificada e publicada, durante o qual se pode atualizar sistemas de proteção, entre outras medidas.

Já para os atacantes, os grandes desafios são o tempo e os recursos.

Tal pesquisa, mesmo para os grupos criminosos maiores, é longa e custosa, ou ao menos assim se pensava. Recentemente o Talos, grupo de inteligência de ameaças da Cisco, alertou sobre dois fenômenos interligados ao uso da IA –Inteligência Artificial generativa.

O primeiro fenômeno é a redução da janela de tempo entre a descoberta de uma vulnerabilidade e o desenvolvimento do primeiro código de exploração, também chamado de prova de conceito da vulnerabilidade. Às vezes, esse código é utilizável no mundo real e, às vezes, não, sendo válido apenas para uso em laboratório. Mesmo assim, eles demonstram possibilidades e permitem direcionar seus recursos naquela brecha específica. Hoje a IA generativa mudou o cenário. Não apenas a criação de uma prova de conceito ficou muitíssimo mais rápida, como também a transformação daquele código de laboratório em um ou diversos ataques reais. Ainda pior, o uso da IA está permitindo a criação de variantes em uma escala antes impossível. O resultado é um aumento considerável de ataques de dia zero. O segundo fenômeno é o de descobrir novas vulnerabilidades e explorações em software antigo. É como se a IA mostrasse novos caminhos. Aliado ao primeiro, temos a possibilidade real de ataques de dia zero em sistemas que não recebem mais atualizações, de segurança inclusive. Aqui temos a triste realidade de que os atacantes se adaptam às novas tecnologias muito mais rápido do que as empresas. É natural que seja assim, mas não deixa de ser uma vantagem importante. A resposta não requer, claro, que as empresas joguem tudo para o alto em termos de gestão e governança, até porque isso também pode trazer uma oportunidade para nossos adversários, e sim revisitar antigas práticas de gestão de segurança, tendo a IA generativa como uma ferramenta de uso amplo para alavancar essas ações.

A primeira estratégia está em rever, se necessário, ou aperfeiçoar a varredura de vulnerabilidades nos sistemas internos, usando os novos

recursos de IA para ajudar na priorização e aplicação das correções. Há avanços nessa área também, com o uso de IA para descobrir vulnerabilidades em um campo que parece ainda pouco explorado, como mostram as notícias da Anthropic sobre suas pesquisas na área, e os resultados dos relatórios do Claude na análise de segurança em software livre. Sabemos também que nem tudo depende de software, e, portanto, deve-se também revisitar as políticas para tal.

Depois há a política para os sistemas no final da vida. É uma realidade que nunca será resolvida, e muitos sistemas são insubstituíveis, por diferentes razões. Se não serão mais atualizados, a estratégia passa para bloquear os códigos de exploit, identificando vulnerabilidade, riscos, vetores de exploração (rede, email, web, etc.) e medida de proteção. Novamente não estamos sozinhos, e também podemos aproveitar a IA para ajudar e acelerar essa parte. Um terceiro pilar é o da gestão e visibilidade, afinal não é possível bloquear o que não se vê. É um parâmetro auxiliar da gestão de ameaças, pois nos leva a identificar, priorizar e reconhecer a intenção, além de detectar perigos ocultos em comportamentos não usuais.

A gestão de vulnerabilidade também acaba sendo um problema mal resolvido em diversas empresas, muitas vezes ocasionada por pressão pela falta de recursos e equipes enxutas, mas é algo que deve ser enfrentado. Mesmo pequenas equipes podem multiplicar sua capacidade operacional com o uso de uma boa ferramenta de IA generativa. Essa é a maneira de reverter a disputa.

Marcelo Bezerra é especialista em segurança da informação, escritor e palestrante internacional. Atua há mais de 30 anos na área, com experiência em diferentes áreas de segurança cibernética. No momento, ocupa o cargo de Gerente Sênior de Engenharia de Segurança na Proofpoint. Email: marcelo.alonso.bezerra@gmail.com.

O novo mercado brasileiro de M&A para provedores de Internet

Em um setor cada vez mais regulado, caro e exigente, o valuation não será definido apenas por base e no crescimento, mas também pela capacidade real de gerar caixa, absorver pressão e sustentar valor. Realizo diversas palestras e conversas com o mercado de provedores e em todas costumo salientar uma tese, que considero fundamental para o setor, de que eficiência operacional não é custo, é valuation, e é justamente dessa visão que nascem perguntas cada vez mais relevantes: quando faz sentido comprar e vender? Não é melhor arrumar a casa antes de começar a negociar?

Em 2025, o Brasil encerrou o ano com cerca de 53,9 milhões de acessos de banda larga fixa, segundo números oficiais da Anatel, com a Claro mantendo a liderança nacional com quase 11 milhões de assinantes. Em março de 2026, a operadora anunciou a compra de 73,1% da Desktop, em uma transação com enterprise value de R$ 4 bilhões e preço base próximo de R$ 2,41 bilhões após o abatimento da dívida líquida. Aqui está o ponto que muitos ainda insistem em ignorar: o que importa não é o número bonito do anúncio, mas quanto sobra para o acionista depois da dívida, dos passivos, de ajustes e da diligência real. O mercado sempre gostou de falar em múltiplo e valor por assinante, algo que vale cada vez menos. Uma empresa pode parecer cara no headline e entregar pouco caixa ao vendedor no fechamento, ou vender por um valor aparentemente menor e, ainda assim, gerar um resultado líquido melhor

Esta seção aborda aspectos tecnológicos das comunicações corporativas, em especial redes locais, mas incluindo também redes de acesso e WANs. Os leitores podem enviar suas dúvidas para Redação de RTI RTI RTI RTI RTI, e-mail: inforti@arandanet.com.br.

por ser uma companhia organizada, previsível e com menor risco oculto. Para o comprador, o que antes era diferencial se tornou obrigatório. Tributário, outorga, contratos, trabalhista, governança, passivos e contingências sempre fizeram parte da análise, mas agora o peso desses temas aumentou brutalmente pois aspectos como o novo RGC - Regulamento Geral de Direitos do Consumidor de Serviços de Telecomunicações, em vigor desde setembro de 2025, a maior cobrança da Anatel, a pressão sobre postes, a NFCom e a nova rastreabilidade tributária mudaram o jogo. O comprador passou a olhar não apenas o crescimento, a cobertura e a base, mas a se perguntar quanto ainda precisará desembolsar para transformar um ativo em uma operação regular, integrável, defensável e capaz de gerar fluxo de caixa de forma sustentável. Já postes regularizados passaram a valer ouro, uma premissa que também se aplica à questão tributária. Muitos provedores de médio porte foram competitivos porque ainda não haviam internalizado o custo real de uma operação plenamente ajustada, valor que agora começa a aparecer de forma inevitável. Na minha leitura, provedores acima de 100 mil assinantes vivem hoje um momento mais favorável para comprar do que para vender. A escala dá acesso a capital, crédito, governança, capacidade de integração, poder de negociação, densidade operacional e musculatura para absorver as novas exigências do setor. Aqui, comprar não é vaidade. É estratégia. Já no universo de operadoras entre 10 mil e 70 mil assinantes, especialmente entre 10 mil e 50 mil, o cenário é mais delicado. Esse porte já é complexo demais para funcionar de forma artesanal, mas ainda não tem escala suficiente para absorver com conforto o novo custo estrutural. Isso pressiona aspectos como lucro, capacidade de investimento e retirada do sócio. Para uma parte importante desse mercado, vender pode ser mais inteligente do que insistir em crescer sozinho. Em muitos casos, existe uma segunda saída tão estratégica quanto a venda:

tirar o ego da frente e iniciar um movimento de fusão regional. Consolidados, esses provedores ganham densidade, musculatura e ampliam suas chances de crescer.

Só que a pressão não vem apenas da regulação. Ela também vem do mundo em petróleo mais caro, fibra pressionada pelo antidumping, aumento do custo de hardware e uma régua tecnológica mais alta. Ao mesmo tempo, o setor avança para o uso de tecnologias como Wi-Fi 7, XGSPON, automação, analytics, aplicativos, IA – Inteligência Artificial e novas frentes de diferenciação, ou seja, o problema não é apenas regulatório ou tributário, mas também de capacidade real de investimento.

Se a mensalidade subir, a pergunta não será apenas se o mercado aceitará o reajuste, mas também quem terá estrutura para continuar competitivo quando tudo em volta estiver mais caro. Acredito que o mercado vai premiar menos quem simplesmente sustenta o menor preço e mais aqueles que conseguirem sustentar valor com eficiência real. Vão ganhar espaço provedores capazes de entregar produtos com mais qualidade e estabilidade, melhor atendimento e experiência e que, com isso, podem justificar preços maiores. O assinante nunca compra apenas preço, e sim custo/benefício, e um provedor regional mais eficiente, organizado e confiável pode cobrar mais do que seus concorrentes e, mesmo assim, ser percebido como a melhor escolha. Até porque muitos provedores que até então pareciam baratos só conseguiam diminuir muito o valor para o consumidor final por ainda não internalizarem o custo real da operação. Agora, terão de fazê-lo, ou sofrerão as consequências.

No fim, o novo jogo do mercado de M&A - fusões e aquisições para provedores regionais brasileiros nos próximos dois anos será definido por uma pergunta muito mais dura: quanto do valor real irá sobreviver quando a operação for aberta?

PRODUTOS

Terminação de cabos de rede

O Keystone Jack Cat.6 UTP RJ45 da Megatron é utilizado para a terminação de cabos de rede em pontos de conexão, permitindo a

organização e distribuição da rede de dados com eficiência e segurança. Fabricado em termoplástico não propagante a chama, é compatível com conectores RJ11 e RJ45. Site: www.megatron.com.br.

Quadro de distribuição

Fabricado pela Novemp, o QDFL – Quadro de Distribuição de Força e Luz é projetado para gerenciar e proteger circuitos de energia, iluminação e tomadas, além

de fornecer proteção aos dispositivos contra sobrecarga e curto-circuito. Com suporte para diferentes correntes e fabricantes de disjuntores, é adaptável a diversos tipos de projetos. Site: www.novemp.com.br.

Gabinete outdoor

O Smart POP, da ALGcompany, é um gabinete outdoor

projetado para suportar condições externas e garantir estabilidade no funcionamento dos equipamentos. A solução reúne em uma única estrutura sistemas de telecomunicações, energia e climatização,

facilitando a implantação e a gestão das infraestruturas de rede. Apresenta estrutura em alumínio e aço galvanizado, sistema de energia plug and play , além de sistemas de monitoramento remoto e climatização. Site: www.algcom.com.br.

CEO

A Fibracem disponibilizou um novo modelo da Multi 4, uma CEO – Caixa de Emenda Óptica desenvolvida inicialmente para operadoras de telefonia e que agora está disponível para provedores de Internet. Entre as principais novidades estão as quatro derivações mecânicas em que cada uma delas, a depender do diâmetro, pode atender de dois a oito cabos. A solução possibilita abrigar emendas diretas ou derivadas,

suportando 144 fibras acomodadas em seu interior através de bandejas plásticas de 36 fibras cada e dois splitters. Site: www.fibracem.com.

Testador de cabos

O CertiFiber Max é o conjunto de testes de perda óptica de terceira geração da Fluke Networks. Desenvolvido para atender às crescentes demandas de

ambientes de data centers com alta densidade de fibras, o equipamento permite que técnicos certifiquem até 24 fibras em menos de um segundo. Site: www.flukenetworks.com.

UPS

O PowerUPS 6000 Industrial , da Vertiv, possui classificação de proteção IP42, oferecendo resistência a poeira, umidade e temperaturas ambientes de até 50°C. Projetada para aplicações da indústria 4.0, a solução protege sistemas de controle industrial essenciais, como CLP e Scada, equipamentos de rede industrial e automação de linhas de produção, assegurando continuidade operacional em aplicações onde a confiabilidade energética é fundamental. Segundo a fabricante, o produto alcança até 97% de eficiência em

dupla conversão e 99% no modo ECO, além de ser compatível com baterias VRLA, níquel-cádmio e íon-lítio para atender diferentes necessidades de autonomia. Site: www.vertiv.com.

KaaS

A TelCables Brasil, subsidiária do Grupo Angola Cables, fornece o KaaS – Kubernetes as a Service. Disponível nas plataformas Clouds2Africa e Clouds2Brasil, o serviço foi concebido para permitir às empresas criar, gerir e escalar aplicações em ambientes de nuvem via orquestração de containers do Kubernetes. O gerenciamento é feito via um painel de controle que possibilita ao usuário gerenciar clusters Kubernetes de forma simplificada; acompanhar o desempenho com ferramentas de monitoramento de métricas, logs, eventos, utilização de CPU e memória; e obter controle operacional por meio da visualização do histórico de ações e administração de namespaces e pods. Site: https://telcables.com.br/.

Cabo óptico dielétrico

Fabricado pela YOFC, o cabo óptico dielétrico AS é voltado para instalações aéreas em vãos de até 200 m. Com capa em

polietileno resistente aos raios UV, apresenta capacidade máxima para 144 fibras ópticas. Site: https://yofc.com.br/.

I NTERS OLA R SOUT H AME RI CA

A maior feira & congresso da América Latina para o setor solar

A Intersolar South America, a maior feira & congresso da América Latina para o setor solar, enfoca os ramos de fotovoltaica, produção FV e tecnologias termossolares. O evento reúne fabricantes, fornecedoras, distribuidoras, prestadoras de serviços e parceiras do setor solar, incentivando um meio ambiente mais limpo, acesso universal à energia e redução

de preços. Solidamente enraizada na América Latina, a feira destaca seu expressivo potencial solar. A Intersolar South America será realizada de 25 a 27 de agosto de 2026 no moderno e bem localizado Expo Center Norte, em São Paulo, dentro do evento The smarter E South America, a maior aliança de eventos para o setor energético da América Latina.

EE S SOUT H AMERIC A

O evento essencial para baterias e sistemas de armazenamento de energia na América Latina

A ees South America, o evento essencial para baterias e sistemas de armazenamento de energia na América Latina, enfoca soluções de armazenamento de energia que apoiam e complementam sistemas energéticos com número crescente de fontes renováveis de energia, integrando prossumidores e veículos elétricos. Com presença consolidada na região, o evento reflete a crescente importância da

integração entre eletricidade, calor e transportes. A mostra especial Element1, integrada à ees, destaca especificamente o alto potencial do hidrogênio verde no Brasil. A ees South America será realizada de 25 a 27 de agosto de 2026 no moderno e bem localizado Expo Center Norte, em São Paulo, dentro do evento The smarter E South America, a maior aliança de eventos para o setor energético da América Latina.

ELETR OT EC+E M-POWE R S OUT H AMERIC A

A feira de infraestrutura elétrica e gestão de energia

A E l e t ro t ec +EM - P o w er Sou t h A me ri ca é o eve n t o de i n fr ae str utura el é t r i ca e ges t ão d e ene rg i a na A m ér i ca La t ina. A fei r a des t aca a s t ecn o l o gia s de d is tr i buiçã o de ene r gia el é t r ica , be m c omo s e r vi ç o s e s olu ç ões de i n formátic a p a r a ge s tã o de ene r gia em rede, de s e r v i ç o s p úbl i c os e de ed if ica ç õ e s . S o l i dame n t e es t abelec i da n o c o n t ine n t e, a fei r a c o nect a

p rof i s s i o na i s e em p resa s da s á reas de p roj e t o , ins t alação e m anutençã o – da geraçã o d i s t ribu í da a t é a di s t r ibu i ção de ene rgia p o r rede s aé reas e su b ter r âneas. Se r á realizada d e 2 5 a 2 7 de ag o st o de 2 0 2 6 de n t ro do eve n t o

The smar t e r E South Amer i ca, a m aior alianç a de eve n t os para o s e t or ene r g é ti c o da A m éric a Lat i na .

P OWE R2DRIV E SOUT H AMER IC A

A feira e congresso fundamental para infraestrutura de recarga e eletromobilidade na América Latina

Power2Drive South America: a feira & congresso fundamental para infraestrutura de recarga e eletromobilidade na América Latina. Solidamente estabelecido no continente, o evento evidencia a importância do veículo elétrico para um futuro sustentável de transporte e para sua crescente contribuição na matriz energética. A feira

reúne fabricantes, fornecedoras, instaladoras, distribuidoras, administradoras de frotas e de energia, fornecedoras e eletromobilidade e novas empresas. Será realizada em São Paulo, dentro do evento The smarter E South America, a maior aliança de eventos para o setor energético da América Latina.

m Inteligência Artificial e Segurança Digital – Tópicos Matemáticos no Ensino Médio e Superior, os autores Augusto Cesar de Castro Barbosa, Carlos A. de Moura, Cristiane Oliveira de Faria e Ighor Opiliar Mendes Rimes apresentam noções básicas de IA –Inteligência Artificial que permitem lidar com métodos não supervisionados de machine learning aliados à tomada de decisões. Já para ilustrar o conceito de moeda digital, o texto recorre ao Bitcoin, o que permite explorar a modelagem matemática no ensino de funções, criptografia e ajuste de curvas, com base no uso de planilhas eletrônicas e do coeficiente de Pearson, ao buscar uma previsão aproximada para o preço da moeda. Editora Ciência Moderna (https://abrir.link/aPIhP), 124 páginas.

entrevistados confiam nessa tecnologia para reduzir custos operacionais e evitar falhas, e as projeções para os próximos anos indicam uma aceleração na implementação da IA nas organizações. O estudo, que contou com a participação de mais de 1000 profissionais de empresas que atuam em segmentos como tecnologia, serviços industriais e construção, teve como objetivo compreender como a IA aplicada à manutenção vem se tornando uma prática natural na gestão de ativos. Com 24 páginas, a análise pode ser consultada na íntegra pelo link: https://abrir.link/nNoBk.

da Schneider Electric em parceria com o MDIC - Ministério do Desenvolvimento, Indústria, Comércio e Serviços. De acordo com o levantamento, o consumo de eletricidade dos data centers pode atingir de 160 a 280 TWh até 2040, o equivalente a cerca de 10% da demanda total projetada de energia no Brasil. Com 191 páginas, a análise pode ser acessada pelo link: https://abrir.link/dKCtm.

adoção de IA - Inteligência Artificial tem se consolidado, cada vez mais, como um dos pilares para o futuro das empresas, independentemente da área de atuação. Considerando o cenário atual do setor de manutenção, o relatório Inteligência Artificial e Manutenção no Brasil, produzido pela Fracttal, confirma essa tendência, apontando que 68% dos

capacidade instalada de data centers no Brasil pode variar de 26 a 45 GW até 2050, dependendo da expansão da infraestrutura elétrica renovável, segundo o estudo Novas Perspectivas Sobre os Caminhos do Brasil para o Crescimento Industrial e a Descarbonização: Cenários, Políticas e Estratégias Conjuntas Impulsionadas pelo Estímulo à Demanda, produzido pelo SRIInstituto de Pesquisa em Sustentabilidade

estudo Unmasking The Swarm: The Evolving Tactics of Botnet-Driven DDoS Attacks , da Netscout Systems, mostra que o Brasil foi o país mais afetado por ataques DDoS – Distributed Denial of Service na América Latina no segundo semestre de 2025. Segundo o levantamento, o país registrou 470.677 ataques entre julho e dezembro, número que representa quase metade dos 1.014.148 incidentes identificados em toda a região no período. Os principais alvos foram empresas de telecomunicações sem fio (exceto satélite), concentrando 114.797 ataques. Em seguida aparecem infraestruturas de computação e serviços de hospedagem, com 47.897 incidentes, e operadoras de telecomunicações com fio, que registraram 34.051 ataques. A análise completa, com 20 páginas, está disponível em inglês pelo link: https:/ /abrir.link/VPHxI.

de Internet e Infraestrutura da Abrint

Ganhar escala sem perder o controle: o que separa crescimento de maturidade

No mercado de provedores regionais, ganhar escala passou a fazer parte da realidade do setor. Em alguns casos, isso ainda ocorre por expansão própria. Já em muitos outros vem por aquisições, incorporação de carteiras, integração de redes e consolidação de operações. O ponto é que aumentar de tamanho é uma coisa. Conseguir organizar esse movimento é outra. Talvez essa seja justamente uma das diferenças entre os provedores que apenas crescem e aqueles que realmente se fortalecem.

Durante muito tempo, o setor se acostumou a olhar primeiro para os sinais mais visíveis: mais cidades atendidas, mais clientes, mais tráfego, mais capilaridade, mais presença de mercado. São pontos que ainda continuam relevantes, mas a realidade mostra que escala, sozinha, não resolve. Quando a organização não acompanha a expansão, o crescimento começa a cobrar um preço silencioso: mais dificuldade para identificar problemas, mais dependência de poucas pessoas do time, mais mudanças feitas sem planejamento, exceções virando rotina e tempo gasto para entender o que está acontecendo dentro da própria rede. É um problema que nem sempre aparece em apresentações do PowerPoint, mas surge rapidamente no dia a dia quando a documentação está incompleta, quando o inventário já não reflete o ambiente real, quando a empresa não tem clareza sobre o que está em produção, quando redes diferentes passam a conviver sem o

Esta seção aborda aspectos técnicos, regulatórios e comerciais do mercado de provedores de Internet. Os artigos são escritos por profissionais do setor e não necessariamente refletem a opinião da RTI RTI RTI RTI

mesmo padrão e quando o conhecimento crítico fica concentrado em poucas pessoas. Nessa hora, a operação começa a perder clareza, e para um provedor isso resulta na perda da capacidade de tomar boas decisões. Nesse contexto, a governança não deve ser tratada como burocracia nem como assunto reservado a empresas grandes. Ela tem um sentido muito mais prático. Governança, para um provedor regional de Internet, é saber o que tem na rede e o porque está ali, quem responde por cada parte e como agir quando algo falha, com documentação confiável, observabilidade e disciplina operacional como base. É dar mais clareza para o time técnico, mais previsibilidade para a gestão e menos espaço para improviso.

Isso fica ainda mais sensível nos processos de integração. Comprar uma operação pode ser uma excelente estratégia. O problema começa quando a integração é tratada como detalhe. Sem uma visão minimamente organizada da rede, dos ativos, dos acessos e das rotinas, o que parecia ganho de escala pode virar acúmulo de remendos. A empresa cresce para fora, mas por dentro passa a conviver com mais ruído, mais sobrecarga e menos previsibilidade. Em vez de sinergia e consolidação, surgem ilhas e uma complexidade que ninguém consegue governar.

O mesmo vale para a cibersegurança. Ela não começa no ataque, e sim na organização da própria rede. Uma porta aberta no roteador, um acesso ativo sem necessidade, um equipamento esquecido na rede, uma atualização adiada. Quando isso se acumula, o detalhe vira fragilidade, que consequentemente se torna um risco real para a disponibilidade da rede. Ao mesmo tempo, tudo isso acontece em um ambiente setorial que já é naturalmente pressionado. O provedor regularizado convive com custos crescentes, exigências técnicas, obrigações de conformidade, investimento contínuo e um cenário competitivo. Soma-se a isso uma

agenda estrutural relevante para o setor, com temas que afetam diretamente a operação e a capacidade de investir, como regras mais equilibradas e custos mais viáveis para o compartilhamento de postes, a preservação da faixa de 6 GHz para o Wi-Fi, a rejeição ao pedágio na Internet (fair share) e a preservação da lógica da Norma 4, que ajuda a manter a distinção entre Internet e telecomunicações.

Como é possível notar, o provedor regional de Internet já opera em um ambiente suficientemente desafiador para ainda carregar desorganização interna como se fosse algo normal. Talvez a provocação mais útil para este momento seja simples: muitos provedores já aprenderam a ganhar escala. O passo seguinte, e talvez o mais importante, é fazer a organização, clareza e disciplina operacional crescerem na mesma velocidade. Expandir e consolidar também são importantes, porém são movimentos que precisam ser sustentados com qualidade, previsibilidade e controle para que um provedor possa crescer com maturidade.

No fim, o diferencial mais valioso deixa de ser apenas crescer e passa a ser a capacidade de manter a operação inteligível, integrada e governável mesmo entre os cenários de maior complexidade. Em um setor cada vez mais pressionado pelas exigências técnicas, competição intensa e necessidade constante de investimento, crescer sem perder o controle talvez seja menos uma escolha estratégica e mais uma condição para permanecer sólido, eficiente e relevante no longo prazo.

do

Ocupa também o cargo de vice-presidente do LACNICRegistro de Endereços da Internet para América Latina e Caribe. Com mais de 30 anos de experiência no setor de Internet e telecomunicações, já atuou como diretor em diversos provedores regionais no Brasil.

Evandro Varonil é Coordenador
Eixo de Internet e Infraestrutura da Abrint.

Turn static files into dynamic content formats.

Create a flipbook
RTI Maio 2026 by Aranda Editora - Issuu