Ano 26 - nº301- 2026
Smart Grids
os desafios estruturais da inteligência distribuída no sistema elétrico brasileiro



Building Automation: o edifício como ativo energético
OPAS: a materialização das tecnologias emergentes Zero Days



Energia elétrica Aquecimento, gás Água Pressão do ar Temperatura Monitoramento de condições www.beckhoff.com.br/energy-data-management
Apoiando os sistemas de gestão de energia para otimizar custos, o controle baseado em PC da Beckhoff oferece a possibilidade de monitorar, mensurar e analisar dados de energia por um sistema de monitoramento totalmente integrado ao sistema de controle padrão. Componentes específicos de entrada e saída viabilizam o registro altamente preciso e transparente de todos os dados de energia da empresa – da administração a cada um dos atuadores em todas as unidades de produção. O processamento e a análise dos dados são feitos pelo software de automação TwinCAT, de forma a explorar ao máximo o potencial de economia, firmando as bases para conformidade com a norma DIN EN ISO 50001.

Detecção


Análise, monitoramento Sistema de gestão de energia


Beckhoff Automação Industrial Ltda.
Santo André – SP Telefone: (11) 4126-3232
info@beckhoff.com.br
Big Data
talking about
A geopolítica acelerando a digitalização energética

A guerra ou mesmo a ameaça constante de disrupção no eixo do Oriente Médio impacta diretamente flu- xos de petróleo, gás e fertilizantes, criando um efeito dominó sobre preços, logística e segurança energética. Esse ambiente reforça a necessidade de redes elétricas mais resilientes e descentralizadas. As smart grids emergem como infraestrutura crítica para lidar com variabilidade de geração, integração de renováveis e resposta dinâmica à demanda, enquanto sistemas avançados de automação predial evoluem para plata- formas integradas de gestão energética, combinando sensores, analytics e inteligência artificial. Esse pano de fundo reforçou eventos globais como a Hannover Messe 2026 que este ano se transformou em espaço de reposiciona- mento geoeconômico, com forte ênfase em digitalização, integração IT/OT, inte- ligência artificial e transição energética. O Brasil, como país parceiro, provou-se ator relevante em um mundo que busca simultaneamente segurança energética e descarbonização. Em paralelo, a Canton Fair 2026 reafirmou o papel da China como eixo da manufatura global, agora cada vez mais digitalizada, automatizada e orientada por dados. A combinação entre escala produtiva e rápida adoção tecnológica evidencia um redesenho das cadeias globais, pressionadas tanto por tensões geopolíticas quanto por novos requisitos de eficiência e sustentabilidade. Nesse contexto, o Brasil ocupa uma posição singular. A combinação de matriz energética relativamente limpa, diversidade industrial e mercado interno robusto cria uma oportunidade estratégica rara. No entanto, capturar esse potencial exige mais do que investimentos em infraestrutura e tecnologia: requer capital humano qualificado e, sobretudo, uma nova geração de lideranças industriais.
A formação da juventude se torna, assim, um eixo central dessa transformação; a indústria 4.0 não demanda apenas engenheiros e técnicos; exige profissionais com visão sistêmica, fluência digital e capacidade de tomada de decisão em cenários complexos – acompanhe nossa seção permanente sobre formação da juventude e a importância das novas lideranças, capazes de transitar entre tecno- logia e negócios, de compreender riscos geopolíticos e traduzi-los em estratégias operacionais, e de integrar sustentabilidade, eficiência e inovação em modelos produtivos resilientes. A renovação geracional, nesse sentido, não é apenas dese- jável - é inevitável.
A guerra - ainda que distante - atua como catalisador de uma mudança estrutural profunda. A indústria do futuro será definida menos por custo e mais por resili- ência, inteligência e capacidade de adaptação. E, nesse novo cenário, tecnologia, energia e pessoas deixam de ser variáveis independentes para se tornarem di- mensões inseparáveis de uma mesma equação. É nesse cenário que esta revista reafirma seu papel. Mesmo com edições bimes- trais, a Controle & Instrumentação mantém presença contínua no debate técnico e de negócios por meio de atualizações diárias em suas mídias sociais e uma newsletter semanal, conectando especialistas, empresas e tomadores de decisão às transformações que redesenham o setor. Seguimos juntos na leitura de um mundo em transformação — com rigor técnico, visão crítica e espaço para renovar perspectivas.
Boa leitura!
O editor.
Colaboraram nesta edição com informações e imagens, as assessorias de imprensa

ISSN 0101-0794
DIRETORIA
editoravalete@editoravalete.com.br
ASSINATURAS comercial@editoravalete.com.br
DEPTO. COMERCIAL/ANÚNCIOS publicidade@editoravalete.com.br
FINANCEIRO financeiro@editoravalete.com.br
REDAÇÃO redacao@editoravalete.com.br
COVER PAGE
34. Integração, dados e regulação: os desafios estruturais da inteligência distribuída no sistema elétrico brasileiro

44. Da eficiência à flexibilidade: o edifício como ativo energético
C&I NEWS
CEL/TEL (11) 96925.7321 (11) 92038.8475
CIBERSEGURANÇA SPECIAL pág.19 pág.28
ART.COM
IMPRESSIONS YOUTH ENERGIES FLASH
94. LOOPSERV DAY 2026
CAST pág.04 pág.50 pág.73 pág.77 pág.111 pág.94 pág.126 pág.88 pág.134
Fraunhofer aposta em produção de células de bateria digitais com o Passaporte de Bateria da UE baseado em OPC UA
A Fundação OPC reafirmou seu compromisso em viabilizar a próxima geração de soluções de Passaporte Digital de Produto (DPP) com tecnologias abertas, interoperáveis e baseadas em padrões que conectam dados de produtos de forma integrada em todo o ciclo de vida do produto, desde dispositivos industriais e sistemas de manufatura até plataformas de nuvem e corporativas. O DPP está se consolidando como uma capacidade fundamental para a economia circular, permitindo acesso transparente, verificável e estruturado a informações relacionadas ao produto, como origem, atributos de sustentabilidade, pegada de carbono, composição de materiais, desempenho, histórico de serviços e orientações de fim de vida útil.
Na Europa, o Passaporte Digital de Bateria é a primeira grande implementação de DPP e espera-se que sirva como modelo para muitas outras categorias de produtos. Durante a Hannover Messe, o Instituto Fraunhofer de Pesquisa para Produção de Células de Bateria (FFB), como líder do Grupo de Trabalho Conjunto de Soluções para Baterias, em colaboração com a Catena-X, IDSA, IDTA, OPC Foundation, VDA e VDMA, apresenta um demonstrador para evidenciar a interoperabilidade entre diversas soluções para o Passaporte Digital de Baterias da UE. A OPC Foundation também firmou um Acordo de Ligação com o CEN e o CENELEC, por meio do qual contribui ativamente para a Estrutura e o Sistema DPP do JTC 24 do CEN/CENELEC. Essa colaboração integra a expertise da OPC Foundation diretamente ao processo de padronização europeu e

apoia o desenvolvimento de soluções DPP agnósticas a sistemas, independentes de fornecedores e interoperáveis. Ao contribuir com a modelagem semântica e os recursos de interoperabilidade do OPC UA, a OPC Foundation ajuda a garantir que as implementações do DPP sejam construídas sobre padrões abertos e preparados para o futuro, que funcionem em diferentes setores, produtos e conjuntos de tecnologias.
Com base nesse trabalho, a OPC Foundation está entre as primeiras organizações a fornecer uma abordagem de código aberto e de ponta a ponta para DPPs. Essa abordagem combina a modelagem de informações OPC UA, a Biblioteca UA Cloud, a conversão automatizada de modelos de DPP de várias fontes em conjuntos de nós OPC UA e um fluxo de trabalho de repositório de DPP habilitado para OPC UA. Juntos, esses componentes possibilitam a criação, hospedagem, troca e integração de DPPs baseados em padrões usando ferramentas e serviços de código aberto, acelerando a adoção e mantendo a conformidade com os requisitos regulatórios e de mercado emergentes.
O trabalho da OPC Foundation com DPPs se baseia em implementações práticas já demonstradas no domínio de baterias. Em 2024, a OPC Foundation expandiu seu demonstrador existente de DPP e Pegada de Carbono do Produto para incluir o Battery Passport, em colaboração com parceiros da indústria, incluindo o Instituto Fraunhofer de Pesquisa para Produção de Células de Bateria (FFB), o CESMII e a VDMA. Esse trabalho estabeleceu um importante modelo prático de como informações de produção padronizadas podem ser transformadas em uma solução de DPP prática e interoperável
“A interoperabilidade é fundamental para a escalabilidade do Passaporte Digital de Baterias. Nosso trabalho mostra que padrões abertos como o OPC UA permitem um caminho contínuo e independente de fornecedores, da produção aos ecossistemas de espaço de dados”
Dr. Arno Schmetz, Fraunhofer FFB, líder do grupo de trabalho conjunto “Soluções para Baterias”.
usando OPC UA.
E esse impulso continua na produção de baterias. O Fraunhofer FFB está integrando essa abordagem ao seu trabalho de digitalização da produção de baterias, conectando dados do chão de fábrica aos fluxos de trabalho do Passaporte Digital de Baterias (DPP).
Com isso, a OPC Foundation está ajudando a indústria a ir além do conceito e partir para a implementação, oferecendo um caminho prático e baseado em padrões para DPPs que seja aberto, escalável e pronto para a troca de dados entre empresas.
“Os Passaportes Digitais de Produtos só serão escaláveis se forem baseados em padrões abertos, gerados automaticamente e tiverem interoperabilidade real. A OPC Foundation está empenhada em garantir que fabricantes, fornecedores de software e parceiros do ecossistema possam implementar soluções DPP de forma rápida, econômica e em total conformidade com os requisitos emergentes europeus e globais.”
Stefan Hoppe, presidente da OPC Foundation.

“Ao conectar modelos de informação semântica, interfaces padronizadas e implementações de código aberto, estamos viabilizando um caminho prático dos dados de máquina para a transparência regulatória e da cadeia de valor. Este é exatamente o tipo de base necessária para apoiar a adoção de DPPs em diversos setores.”
Erich Barnstedt, presidente da Iniciativa de Nuvem da OPC Foundation.


Refinaria de Mataripe reduz consumo total de energia em 10%

A Acelen, empresa de energia do Mubadala Capital responsável pela gestão da Refinaria de Mataripe, registrou em 2025, uma redução de 11% no consumo energético total (MMBTU/bbl) da unidade na comparação com 2022 (considerando todas as fontes: vapor, energia elétrica e Gás Natural).
O total economizado corresponde ao consumo de todas as residências de um estado como Roraima.
No mesmo período, parte da energia térmica foi convertida em elétrica (mais limpa), o que correspondeu à redução de cerca de 10% no consumo de vapor e contribuiu para redução de 4% das emissões de CO2
Ao longo de quatro anos de atuação na Bahia, a empresa vem consolidando uma trajetória de ganhos em eficiência operacional e valorização do ativo. Como parte desse processo, a companhia implementou um projeto de modernização do sistema de iluminação, com a substituição de mais de 10 mil luminárias por tecnologia LED, resul-

tando em uma redução estimada de 70% no consumo de energia elétrica desse sistema.
A iniciativa também contribui para a redução de emissões, com potencial de evitar aproximadamente 2,9 mil toneladas de CO2 ao longo da vida útil das lâmpadas.
Como parte dessa estratégia, a entrada em operação do Acelen SolarPark I, a maior planta solar própria associada ao refino no Brasil, reforça o compromisso com a eficiência energética e a descarbonização. Localizado no semiárido baiano, em uma região de alta irradiação solar, o parque possui capacidade instalada de 162 MWp e passou a suprir 100% da demanda externa de energia elétrica da Refinaria de Mataripe.
Desenvolvido em parceria com a Illian Energias Renováveis e a Perfin Infra, o projeto também está alinhado às políticas públicas de incentivo à descarbonização e integra o Programa de Aceleração do Crescimento (PAC), contribuindo para o aumento da segurança energética da operação.
“Desde que assumimos a gestão da Refinaria de Mataripe, temos investido em modernização e eficiência operacional, com o apoio de uma equipe altamente capacitada, o que tem gerado resultados concretos na redução do consumo de energia, das emissões e no fortalecimento da segurança energética, tornando a operação cada vez mais sustentável.”
Celso Ferreira, vice-presidente de Operações
da Acelen.

Mondelēz Brasil terá sua primeira fábrica na AL abastecida com biometano da Gás Verde

A Mondelez Brasil, dona de marcas icônicas como Lacta, Oreo, Trident, Bis, Club Social e Sonho de Valsa, dá mais um passo estratégico em sua ambiciosa jornada de descarbonização. Em parceria com a Gás Verde, maior produtora de biometano da América Latina, a fábrica de Vitória de Santo Antão (PE) terá a incorporação de combustível 100% renovável em seu abastecimento energético.
A Mondelez Brasil será a primeira unidade
da companhia na América Latina a integrar o biometano em seu mix de abastecimento, como uma alternativa ao gás natural – um combustível fóssil. O fornecimento previsto aumentará gradualmente e chegará em 100 mil m3/mês, ou 1,1 milhão de m3por ano.
Com o movimento, a companhia prevê uma diminuição de aproximadamente 6 mil toneladas de CO2 e ao longo do contrato –o equivalente ao plantio de cerca de 30 mil árvores.

“Sustentabilidade é uma das prioridades da companhia. Até 2030, globalmente, temos como compromisso reduzir em 35% nossas emissões na cadeia de valor e, até 2050, alcançar zero emissões líquidas de CO₂e. A parceria com a Gás Verde reforça que é possível mesclar crescimento e eficiência com sustentabilidade”
Lais Drezza, gerente de ESG na Mondelēz Brasil.
Alternativa 100% renovável
O abastecimento com biometano será oriundo da cidade de Igarassu (PE), a primeira unidade de biometano da Gás Verde no Nordeste que vai funcionar dentro do complexo ambiental Ecoparque Pernambuco. A operação da Mondelez será iniciada com capacidade de 50.238 m³/mês de biometano. Em 2027, alcançará, em média, 100.476 m³/mês.

O biometano que irá abastecer a Mondelez Brasil é produzido a partir da purificação do biogás, gerado pela decomposição de resíduos orgânicos em aterros sanitários. Ao transformar esse material em energia limpa, o combustível fecha um ciclo ambientalmente adequado, reduzindo emissões, e substituindo combustíveis fósseis em processos industriais, logísticos, entre outros.
“O contrato de biometano firmado com a Gás Verde é fruto de uma estratégia iniciada em 2023 pela área de Compras de Energia, que atua hoje com base em decisões estruturadas e guiadas por uma visão de futuro. Após dois anos de análises de mercado e alinhamentos internos, conseguimos incorporar à Mondelēz uma solução renovável capaz de substituir gradualmente o uso de combustíveis fósseis. Esse avanço reforça nosso compromisso com uma matriz energética cada vez mais sustentável. Nossa ambição é ampliar progressivamente o consumo de biometano na planta”
Josué Evangelista, gerente de Compras de Energia Latam na Mondelēz International.

“Estamos muito felizes em apoiar a Mondelēz em sua jornada de descarbonização. Ao optarem pelo uso do biometano em seus processos produtivos, as indústrias conseguem reduzir de forma expressiva suas emissões de Gases do Efeito Estufa (GEE) diretamente ligadas à sua atividade principal”
Eduardo Lima, diretor Comercial da Gás Verde.
John Crane apoiou a histórica missão lunar Artemis II da NASA

A John Crane, empresa de tecnologias e soluções de controle de fluxo para equipamentos rotativos, apoiou por meio de sua tecnologia a missão espacial Artemis II da NASA. Quatro astronautas estiveram na órbita lunar a bordo da espaçonave Orion para a primeira missão lunar tripulada desde o programa Apollo, representando um importante marco no retorno da humanidade à exploração do espaço profundo.
As peneiras de filtração para os Dispositivos de Gerenciamento de Propelente (PMDs) da espaçonave são produzidas pela John Crane. Os PMDs desempenham um papel vital em ambientes de baixa gravidade, gerenciando a separação das fases líquida e gasosa dentro dos tanques de propelente, permitindo um impulso eficaz e confiável durante a missão.
“As peneiras de filtração são projetadas para suportar as vibrações, pressões e variações de temperatura extremas associadas ao lançamento e às viagens espaciais”, explica Rogério Quirino, diretor regional da John Crane. “Essas peças de extrema engenharia são fabricadas com especificações excepcionalmente rigorosas que refletem a expertise centenária da John Crane em fornecer soluções de engenharia de precisão para aplicações exigentes e de segurança crítica”, completa Quirino.
Além da John Crane, o Grupo Smiths também apoiou sistemas essenciais para a missão Artemis II por meio de outras duas empresas. A Smiths Interconnect contribuiu
com conjuntos de cabos e conectores de alta velocidade, cruciais para as comunicações da missão. Já a Flex-Tek forneceu componentes para o sistema de lançamento espacial da nave, incluindo tubos rígidos usados para a transferência segura de combustível, gás e ar quente dentro dos sistemas principais de propulsão e ar do foguete.
“A Artemis II é um exemplo poderoso do que é possível quando se unem conhecimento profundo em engenharia, inovação e colaboração”, afirma o presidente da John Crane, Ruben Alvarez. “Temos orgulho de contribuir com tecnologias especializadas ao lado de nossos colegas do Smiths Group, ajudando a viabilizar uma missão que ultrapassa os limites de desempenho, confiabilidade e exploração humana.”
Nicolas Fries, líder de desenvolvimento do tanque de propelente da Orion no ArianeGroup, destaca o que é necessário para se tornar uma fornecedora confiável para esses elementos críticos. A ArianeGroup, empresa aeroespacial com sede na França, foi responsável por entregar componentes essenciais do sistema de propulsão da espaçonave.
“Cada componente de equipamento para este tipo de espaçonave precisa passar por um rigoroso programa de qualificação e aceitação. Durante a fase de desenvolvimento da peneira, combinamos a vasta experiência em fabricação de peneiras da John Crane com o conhecimento em engenharia espacial do ArianeGroup”, disse Fries.

Daimler Truck conclui a integração de sua subsidiária
Mitsubishi
Fuso na nova ARCHION

O Grupo Daimler Truck concluiu, no dia 1º de abril, a integração da Mitsubishi Fuso Truck & Bus Corporation na recém-estabelecida holding ARCHION Corporation - que passou a ser listada no Tokyo Stock Exchange Prime Market e inicia suas operações integrando a Mitsubishi Fuso e a Hino Motors Ltd., subsidiária da Toyota Motor Corporation. A ARCHION, como holding, detém 100% das ações tanto da Hino quanto da Mitsubishi Fuso. A Daimler Truck e a Toyota planejam, cada uma, manter aproximadamente 25% de participação acionária na
ARCHION e permanecer como acionistas estratégicos de longo prazo.
A ARCHION tem como objetivo se tornar uma nova empresa líder de veículos comerciais na Ásia ao combinar as competências desenvolvidas ao longo de décadas pela Mitsubishi Fuso e pela Hino. O novo Grupo inicia com uma estrutura projetada para consolidar desenvolvimento, compras, produção e logística.
Karl Deppen assume o cargo de Presidente & CEO (Diretor Representante) da ARCHION, tendo encerrado seus mandatos no Conselho de Administração da Daimler Truck em 31 de março de 2026.
Karin Rådström, Presidente e CEO da Daimler Truck: “Hoje registramos um marco significativo para a indústria de veículos comerciais na Ásia. Com a fusão de duas das marcas mais respeitadas do Japão — Mitsubishi Fuso e Hino — estamos reunindo as competências de ambas as entidades para formar uma nova companhia robusta. A ARCHION estará bem-posicionada para capturar oportunidades futuras na região ao alavancar sinergias relevantes e escala, com a Daimler Truck permanecendo como acionista comprometida. A nova equipe de liderança, chefiada por Karl Deppen, reúne a expertise e a determinação necessárias para conduzir a integração com sucesso e gerar valor sustentável para a Daimler Truck. Karl Deppen é um líder internacional altamente experiente, com profundo conhecimento na indústria de veículos comerciais e um histórico comprovado na Ásia. Ele combina forte foco em pessoas e desempenho com uma compreensão abrangente da indústria de veículos comerciais.”
A integração da Mitsubishi Fuso e da Hino e a criação da ARCHION, uma nova potência japonesa no setor de veículos comerciais, atendem aos objetivos de todos os parceiros. Para a Daimler Truck, é um passo importante para capitalizar seu pilar estratégico e liberar todo o seu potencial e a empresa está determinada a aumentar a eficiência no longo prazo, ao mesmo tempo em que reforça o foco em veículos comerciais pesados.
A Daimler Truck e seus parceiros estabelecem uma estrutura que permite que ambas as empresas alinhem funções-chave de forma mais próxima e eliminem de maneira sistemática sobreposições operacionais. A ARCHION maximizará a extensa infraestrutura de produção e vendas desenvolvida ao longo de muitos anos pela Hino e pela Mitsubishi Fuso, combinada com as fortes vantagens competitivas criadas por meio da colaboração com a Daimler Truck e a Toyota, para otimizar desenvolvimento, compras e produção. Além disso, avançará na colaboração em tecnologias de ponta, como células de combustível e direção autônoma, acelerando a geração de sinergias ao combinar as competências de cada marca.


Nova Diretoria Executiva da ApexBrasil

Jorge Viana anunciou em reunião extraordinária do Conselho Deliberativo da ApexBrasil - Agência Brasileira de Promoção de Exportações e Investimentos que deixava o cargo de presidente da Agência ao mesmo tempo em que comunicou a nova composição da Diretoria Executiva, com Laudemir Müller, indicado para a Presidência, e Maria Paula Velloso, para a Diretoria de Negócios — ambos pertencentes ao quadro de funcionários da ApexBrasil e com trajetória construída na Agência.
Ao detalhar a mudança, Jorge Viana destacou que a sucessão foi organizada para preservar o ritmo de trabalho da Agência e garantir uma transição estruturada entre as equipes. “Vamos deixar organizado, ainda no dia de hoje, toda a sucessão aqui na Apex”, afirmou. Ao falar sobre sua relação com a Agência, resumiu: “Saio hoje da Apex, mas não tenho dúvida de que a Apex não vai sair de mim”. Jorge deixa o cargo a partir de 2 de abril, após receber do presidente Lula a missão de concorrer ao Senado pelo Acre.
Indicado para assumir o cargo de presidente da Agência, Laudemir André Müller integra o quadro da ApexBrasil desde 2010 e, desde 2023, é gerente de Agronegócios da Agência. Economista e mestre em desenvolvimento e agricultura, também tem trajetória no Governo Federal, com passagens pelo Ministério do Desenvolvimento Agrário e pela Secretaria-Geral da Presidência da
República.
Maria Paula Velloso passa a compor a nova Diretoria Executiva da ApexBrasil à frente da Diretoria de Negócios. Gerente de Indústria e Serviços da Agência, ela lidera hoje uma das áreas mais estratégicas da Casa, responsável pela articulação e execução de convênios com entidades brasileiras representativas da indústria e de serviços. Na ApexBrasil desde 2007, construiu sua trajetória em iniciativas voltadas à exportação, à qualificação empresarial, ao design e à inovação.
Ao comentar a nova composição, Jorge Viana ressaltou que a escolha busca preservar o ritmo de trabalho e dar continuidade ao fortalecimento institucional da Agência. Na mesma oportunidade, Laudemir Müller destacou sua ligação de longa data com a Agência e o compromisso de dar continuidade ao trabalho construído nos últimos anos.
Ele ressaltou também que a Agência vive hoje “o seu melhor momento”, resultado direto, segundo ele, da capacidade de Jorge Viana e Ana Paula Repezza de fortalecer institucionalmente a Casa, ampliar sua articulação e projetar a atuação da ApexBrasil durante o governo Lula. Ao agradecer a confiança, reforçou ainda que pretende seguir nessa mesma direção: “Coloco-me à disposição, junto com a Maria Paula e com o Floriano, para seguir o trabalho que vem sendo feito pela atual gestão”.
Feira Internacional da Cadeia Produtiva de Arames, Fios, Cabos, Vergalhões + Aços, Tubos, Perfis, Chapas, Máquinas, Equipamentos, Tecnologias e Serviços
Expo Center Norte - Pavilhão Amarelo
São Paulo/SP
A Latam Wire + Steel conecta profissionais das indústrias de processos, metrologia, manufatura e energia às mais recentes tecnologias e soluções industriais, automação, controle de processos, instrumentação e inovação industrial.
Participe!
wiresteel.com.br





Alta nas recuperações judiciais reflete novo cenário econômico, avalia especialista
O recorde de pedidos de recuperação judicial registrado no Brasil em 2025 é reflexo de uma transformação estrutural no ambiente empresarial. Mais do que um efeito pontual da economia, o aumento dos processos indica uma mudança no comportamento das empresas diante do endividamento e do custo do crédito.
Nos últimos anos, especialmente durante a pandemia, companhias recorreram intensamente a financiamentos impulsionadas por uma taxa Selic em mínima histórica de

2%. O crédito barato estimulou tanto a sobrevivência dos negócios quanto planos de expansão, criando um ciclo de alavancagem que hoje cobra seu preço.
Com a virada do cenário macroeconômico a partir de 2021, a rápida elevação dos juros mudou completamente essa equação.
A Selic saltou para 9,25% e seguiu em trajetória de alta até atingir patamares próximos de 14,75%, comprometendo a previsibilidade financeira das empresas e encarecendo drasticamente o serviço da dívida.
“O que vivemos hoje é um novo normal no ambiente empresarial. Muitas empresas estão altamente endividadas e passaram a captar recursos basicamente para pagar juros, deixando em segundo plano a amortização do principal”
Claudio Montoro, advogado especialista em recuperação judicial.
Segundo ele, esse descompasso entre receitas e despesas financeiras tornou inviável o planejamento orçamentário de longo prazo. A instabilidade, somada a fatores externos como tensões geopolíticas, contribui para um ambiente de incerteza que dificulta a tomada de decisão empresarial.
Nesse contexto, a recuperação judicial deixou de ser uma medida excepcional e passou a integrar a estratégia de sobrevivência de muitas companhias. Prevista na Lei 11.101/05, ela permite a renegociação de dívidas sob proteção legal, desde que a empresa mantenha sua atividade operacional.
“O instituto foi desenhado para preservar empresas viáveis que enfrentam crises momentâneas. Ele cria um ambiente estruturado de negociação com credores, o que é essencial em cenários de forte pressão financeira”, explica Montoro.
Além das empresas devedoras, o avanço dos pedidos também exige uma mudança de postura por parte dos credores. Em vez de apenas reagir aos processos, especialistas defendem uma atuação mais técnica e estratégica dentro das recuperações judiciais.
Entre os instrumentos disponíveis, o relatório mensal de atividades ganha relevância.
Previsto na Lei 11.101/05, ele permite acompanhar a evolução financeira da empresa em recuperação e avaliar, com maior precisão, a viabilidade das propostas apresentadas.
“A participação em processos de recuperação judicial exige preparo. O credor precisa entender os mecanismos legais para tomar decisões mais informadas e proteger seus interesses”, afirma o advogado.
Setorialmente, o impacto é amplo, mas alguns segmentos concentram maior vulnerabilidade. O varejo aparece entre os mais afetados, seguido pela construção civil e pelo agronegócio, que registrou cerca de 1.990 pedidos em 2025.
No caso do agro, há ainda limitações específicas: nem todas as dívidas podem ser incluídas nos processos de recuperação ju-
dicial. Isso ocorre porque o reconhecimento jurídico da legitimidade do produtor rural trouxe restrições conforme a natureza de operações financeiras, nem todas passíveis de renegociação nesse modelo.
Para 2026, o cenário segue desafiador. A expectativa é de manutenção das restrições de crédito, combinadas com pressões inflacionárias e possíveis impactos de tensões internacionais, como conflitos no Oriente Médio, o que pode afetar cadeias de abastecimento.
“A tendência é de continuidade desse ambiente adverso, com pouca margem para redução significativa dos juros no curto prazo. Isso deve manter elevado o número de empresas buscando proteção judicial”, avalia Montoro.
Tecnologia e eficiência no sistema de automação da nova
Linha Ouro do Metrô de SP
Novo ramal do Metrô de São Paulo aposta em automação, monitoramento avançado e soluções operacionais para garantir segurança, confiabilidade e integração no transporte urbano
A recém-inaugurada Linha 17-Ouro do Metrô de São Paulo se destaca pelo uso intensivo de tecnologia para operação, controle e segurança. O novo ramal foi projetado para operar num sistema de automação conhecido como UTO (Unattended Train Operation), no qual todas as funções essenciais, como aceleração, frenagem, abertura de portas e controle de percurso, são realizadas automaticamente por sistemas digitais, sem a necessidade de condutor a bordo. Esse modelo reduz a interferência humana direta e permite respostas mais rápidas e padronizadas às condições de operação.
O funcionamento dessa automação é via-

bilizado pelo sistema de sinalização CBTC (Communications-Based Train Control), que utiliza comunicação contínua entre os trens e os equipamentos ao longo da via. Diferentemente dos sistemas tradicionais, que dividem a linha em blocos fixos, o CBTC trabalha com “blocos móveis”, calculando em tempo real a posição, velocidade e distância segura entre as composições. Isso permite maior precisão no controle da circulação, redução dos intervalos entre trens e aumento da capacidade da linha, mantendo elevados padrões de segurança operacional.
Cada composição é formada por cinco carros interligados, com passagem livre entre eles, e conta com ar-condicionado, iluminação em LED, câmeras de vigilância e sistemas de detecção e combate a incêndio. Um dos principais diferenciais tecnológicos é o conjunto de baterias embarcadas, que possibilita a movimentação dos trens mesmo em caso de falha no fornecimento de energia, reforçando a segurança e a confiabilidade da operação.
O monotrilho, sendo elevado como é, é uma solução para grandes meios urbanos onde existe condensação muito grande. Os trens também são diferentes e toda a tecnologia dele, incluindo o funcionamento das baterias Aurora recarregáveis, todo o gerenciamento, é feito no CCO.
A frota será composta por 14 trens, todos já fabricados na China, com capacidade para até 616 passageiros por unidade. Desses, 11 já estão no Pátio Água Espraiada, sendo oito comissionados (etapa que envolve testes rigorosos de segurança e validação dos sistemas operacionais). As demais composições serão incorporadas gradualmente, acompanhando o aumento da demanda e os ajustes nos sistemas de controle. O investimento foi de R$ 989 milhões.
Em um primeiro momento, a operação ocorre em fase transitória, permitindo o acompanhamento técnico contínuo e a calibração dos sistemas. Os trens circulam em formato de shuttle, com intervalos médios
entre 7 e 14 minutos, no trecho entre o Aeroporto de Congonhas e a Estação Morumbi. Durante esse período, funcionários acompanham as viagens, procedimento padrão em novas linhas, enquanto são realizadas verificações constantes da confiabilidade operacional.
O sistema de monotrilho, elevado ao longo do eixo da avenida, foi adotado por sua capacidade de reduzir impactos urbanos e otimizar a implantação. A operação elétrica contribui ainda para a redução de emissões de poluentes e gases de efeito estufa, com estimativa de diminuição anual de 25.937 toneladas, além de reduzir o consumo de combustíveis e incentivar o uso do transporte coletivo.
Além dos trens, as estações também incorporam soluções voltadas à eficiência e à acessibilidade. Todas contam com portas de plataforma, elevadores, escadas rolantes, pisos táteis, sanitários adaptados e sinalização adequada. A infraestrutura inclui ainda paraciclos, bicicletário na Estação Morumbi e integração com ciclovias, além de baias para embarque e desembarque de veículos e conexão com linhas de ônibus.
Outro aspecto funcional do sistema é a organização dos acessos e fluxos. Passarelas e túneis acompanham o horário de operação e podem ser utilizados por qualquer cidadão, independentemente do embarque nos trens, contribuindo para a mobilidade local e facilitando a travessia da avenida Jornalista Roberto Marinho e o acesso ao aeroporto.
Com 6,7 km de extensão e oito estações, a previsão é que a operação plena, com horário ampliado das 4h40 à 0h, seja alcançada gradualmente até outubro, quando o sistema deverá transportar cerca de 100 mil passageiros por dia.
Patch Tuesday de abril de 2026:
escalada de complexidade, zero-days ativos e reforço da superfície de acesso remoto no Windows

A atualização de segurança de abril de 2026 da Microsoft, dentro do ciclo regular conhecido como Patch Tuesday, evidenciou a crescente complexidade da superfície de ataque em ambientes corporativos digitais. O pacote corrigiu mais de 160 vulnerabilidades (≈165–167 CVEs) distribuídas entre Windows, Office, SharePoint e outros componentes críticos, incluindo dois zero-days, sendo pelo menos um explorado ativamente em ambiente real (in the wild).
Do ponto de vista técnico, a composição das falhas reforça tendências já obser-
Zero-days e risco operacional
A presença de zero-days — vulnerabilidades desconhecidas ou não corrigidas até o momento da exploração — eleva substancialmente o risco operacional, sobretudo em ambientes industriais e infraestruturas
vadas em ciclos anteriores: predominância de vulnerabilidades de elevação de privilégio (EoP) e presença relevante de falhas de execução remota de código (RCE), que continuam sendo o vetor de maior impacto sistêmico. No ciclo de abril, foram identificadas dezenas de vulnerabilidades RCE — incluindo falhas em TCP/IP, Active Directory e cliente de Remote Desktop — além de um volume expressivo de EoP, indicando que os atacantes seguem explorando cadeias de ataque híbridas (initial access + privilege escalation).
críticas. Um dos casos destacados envolve o Microsoft SharePoint Server (CVE-202632201), explorado via spoofing, demonstrando que mesmo vulnerabilidades classificadas como “importantes” podem ter alto
CIBERSEGURANÇA
impacto quando combinadas com engenharia social ou acesso prévio.
A justificativa técnica para a criticidade desses eventos reside no fato de que zero-days reduzem drasticamente o tempo de resposta das organizações (MTTR), exigindo maturidade em patch management, monitoramento contínuo e estratégias de mitigação compensatória.
Segundo o Gartner, o tempo médio de exploração de vulnerabilidades caiu significativamente nos últimos anos, com ataques sendo operacionalizados em questão
de dias após divulgação ou imediatamente, no caso de zero-days. A consultoria projeta que, até 2027, mais de 75% das organizações industriais terão sofrido ao menos um incidente de segurança envolvendo sistemas OT conectados.
Já o IDC aponta que o custo médio de incidentes em ambientes industriais supera o de TI tradicional, devido a impactos físicos e interrupções produtivas, com perdas que podem ultrapassar milhões de dólares por hora em setores como óleo & gás e energia.

Correções no Windows 10: login e área de trabalho remota como vetores críticos
Paralelamente ao pacote de segurança, a atualização de abril introduz melhorias específicas no Windows 10, com foco em confiabilidade operacional e mitigação de riscos associados ao acesso remoto.
No componente de Área de Trabalho Remota (RDP), foram adicionados mecanismos de segurança voltados à mitigação de ataques de phishing baseados em arquivos .rdp. A partir da atualização, o sistema passa a exibir um diálogo de segurança mais detalhado antes da conexão, incluindo identificação do host remoto, informações do publicador e transparência sobre recursos locais compartilhados.
Essa mudança atua diretamente na camada de interface homem-máquina (HMI) da segurança, reduzindo a probabilidade de conexões inadvertidas a sistemas comprometidos - algo recorrente em campanhas de ataque direcionadas.
Além disso, correções relacionadas a fa-
lhas de autenticação e login no Windows 10 reforçam a estabilidade do processo de identidade digital, elemento central em arquiteturas Zero Trust.
A relevância dessas melhorias é reforçada por análises da MarketsandMarkets, que indicam que o mercado global de segurança para acesso remoto e identidades digitais deve crescer a taxas superiores a 12–15% ao ano até o final da década, impulsionado pela expansão do trabalho híbrido e pela digitalização industrial. No contexto OT, o acesso remoto que muitas vezes é realizado via RDP, se tornou um dos principais vetores de risco. O Gartner destaca que o acesso remoto não gerenciado está entre as três principais causas de incidentes em ambientes industriais conectados.
A análise dessas atualizações revela aumento da superfície de ataque distribuída, centralidade do acesso remoto e predominância de ataques em cadeia (kill chain).
Segurança como elemento estrutural da operação
O Patch Tuesday de abril de 2026 da Microsoft consolida a tendência de que a segurança deixou de ser um elemento periférico e passou a ser estrutural na operação digital. A presença de zero-days ativos, aliada ao foco em acesso remoto e identidade, indica que a fronteira entre vulnerabilidade técnica e risco de negócio está cada vez mais estreita — especialmente em ambientes industriais, onde o impacto transcende o digital e alcança o físico.
Sob a ótica de mercado, esse movimento
se traduz em crescimento acelerado de soluções de proteção de identidade e acesso, consolidação de arquiteturas Zero Trust e SASE e expansão do investimento em cibersegurança industrial.
A recomendação técnica permanece: aplicação imediata dos patches, validação em ambientes críticos e integração com políticas de segurança baseadas em risco, não apenas como prática de TI, mas como requisito essencial de continuidade operacional e competitividade industrial.
Hackers atacam ativamente usuários do Adobe Reader usando uma vulnerabilidade zero-day sofisticada
A exploração ativa de uma vulnerabilidade zero-day no Adobe Acrobat Reader não apenas confirma a sofisticação crescente dos ataques cibernéticos, como também reposiciona o próprio conceito de vetor de entrada: arquivos tradicionalmente considerados passivos, como PDFs, passam a atuar como elementos ativos em cadeias de ataque complexas e altamente eficazes. Para compreender a dimensão desse risco, é fundamental analisar a anatomia técnica desse tipo de exploit, sua inserção em cadeias modernas de ataque e sua convergência com outros zero-days recentes em plataformas amplamente utilizadas.
Do ponto de vista estrutural, o PDF é um formato muito mais complexo do que aparenta. Ele incorpora uma arquitetura baseada em objetos, tabelas de referência cruzada (xref), fluxos binários (streams) e, em muitos
casos, suporte a JavaScript embutido. Essa combinação cria uma superfície de ataque ampla, na qual vulnerabilidades de parsing podem ser exploradas para comprometer a integridade da aplicação. Em um cenário típico de exploração, o arquivo malicioso contém objetos cuidadosamente manipulados para provocar corrupção de memória, como heap overflows ou falhas do tipo use-after-free, durante o processamento pelo leitor. Uma vez acionada a vulnerabilidade, o atacante consegue redirecionar o fluxo de execução do programa e injetar código arbitrário, executado no contexto do usuário. A partir daí, o exploit pode evoluir para estágios mais avançados, incluindo escalonamento de privilégios e persistência no sistema.
Isso se insere em uma cadeia de ataque mais ampla, que segue um padrão cada vez mais recorrente na cibersegurança contem-
CIBERSEGURANÇA
porânea. O processo geralmente se inicia com engenharia social altamente contextualizada, na qual o PDF é distribuído com conteúdo temático relevante — frequentemente associado a setores estratégicos como energia, óleo & gás ou infraestrutura. Ao abrir o documento, o usuário aciona inadvertidamente o exploit zero-day, que permite execução remota de código (RCE). Em seguida, o atacante pode explorar vulnerabilidades adicionais para elevação de privilégios (EoP), expandindo seu controle sobre o sistema e viabilizando movimentação lateral na rede, muitas vezes utilizando protocolos legítimos como RDP ou SMB. O resultado final pode incluir exfiltração de dados, comprometimento de sistemas industriais e até interrupções operacionais.
Esse modelo de ataque não é isolado, mas reflete convergência com zero-days recentes observados em outros ecossistemas críticos. No caso da Microsoft, por exemplo, o ciclo de atualizações de abril de 2026 revelou mais de 160 vulnerabilidades, incluindo falhas exploradas ativamente que combinam execução remota de código e elevação de privilégios — exatamente o mesmo padrão de encadeamento observado no exploit em PDF. Já no Google Chrome, zero-days recentes têm explorado vulnerabilidades na engine V8 e em componentes como WebAssembly, frequentemente por meio de ataques drive-by, nos quais o simples acesso a uma página web maliciosa é suficiente para comprometer o sistema. Em todos esses casos, a base técnica é semelhante: exploração de falhas de memória em softwares amplamente distribuídos, seguida por mecanismos de evasão e escalonamento.
O que diferencia o caso da Adobe é o vetor de entrada: enquanto ataques em navegadores dependem da navegação web e ataques em sistemas operacionais podem exigir exposição de serviços, o PDF se apresenta como um artefato de alta confiança no ambiente corporativo. Documentos são rotineiramente compartilhados, arquivados e
abertos sem suspeita, inclusive em ambientes industriais. Isso amplia significativamente a eficácia do ataque, pois reduz barreiras comportamentais e contorna mecanismos tradicionais de filtragem. Em termos práticos, abrir um arquivo passa a ser equivalente a executar código potencialmente malicioso.
Para ambientes industriais e de infraestrutura crítica, as implicações são particularmente relevantes. Estações de engenharia, sistemas SCADA e interfaces homem-máquina frequentemente operam sobre plataformas Windows e utilizam leitores PDF para documentação técnica, manuais e relatórios operacionais. Nesse contexto, a exploração de um zero-day em PDF pode servir como porta de entrada para redes OT, permitindo acesso indireto a sistemas de controle e processos físicos. A convergência entre IT e OT amplifica esse risco, uma vez que elimina barreiras tradicionais entre redes corporativas e industriais.
Do ponto de vista de mitigação, a ausência de patch - característica inerente a zero-days - exige abordagens baseadas em comportamento e arquitetura. Soluções de Endpoint Detection and Response (EDR) e Extended Detection and Response (XDR) tornam-se essenciais para identificar sinais anômalos, enquanto estratégias como segmentação de rede, controle de aplicações e restrição de privilégios ajudam a conter a propagação do ataque. Além disso, a conscientização do usuário continua sendo um fator crítico, embora, nesse caso, sua eficácia seja limitada pela sofisticação do vetor.
A análise integrada desses elementos mostra que a cibersegurança contemporânea não pode mais ser estruturada apenas em torno de perímetros ou tipos específicos de ameaça já que a convergência entre zero-days em plataformas como Microsoft, Google Chrome e Adobe demonstra que o risco está distribuído por toda a superfície digital, independentemente do ponto de entrada. Nesse cenário, qualquer interação deve ser tratada como potencial vetor de ataque, seja
ela abrir um arquivo, acessar um site ou se conectar a um serviço.
Em síntese, o exploit zero-day no Adobe Reader não é apenas mais um incidente de segurança, mas um indicativo de transformação estrutural no ecossistema digital. Ele evidencia que a complexidade dos softwares modernos, aliada à criatividade dos atacan-
tes, está redefinindo continuamente os limites entre operação e vulnerabilidade. Para a indústria, isso implica uma mudança de paradigma: proteger sistemas não é mais sufi- ciente. É é necessário proteger também os fluxos de informação e os próprios formatos de dados que sustentam a operação.
AI e a “tempestade de vulnerabilidades”: o efeito
Mythos e a ruptura no modelo de cibersegurança
A recente publicação do relatório “The AI Vulnerability Storm: Building a Mythos-ready Security Program”, (veja aqui) da Cloud Security Alliance, em conjunto com análises de mercado e segurança, sinaliza uma inflexão
estrutural na cibersegurança global: a transição para um cenário em que a descoberta e exploração de vulnerabilidades passam a ocorrer em escala e velocidade orientadas por inteligência artificial.


O conceito central introduzido pelo relatório — denominado “AI Vulnerability Storm” — descreve um ambiente no qual a capacidade de identificar falhas em sistemas digitais cresce exponencialmente, impulsionada por modelos avançados como o Claude Mythos. Nesse contexto, a assimetria entre atacantes e defensores tende a se acentuar, uma vez que a exploração de vulnerabilidades pode ocorrer mais rapida-

mente do que sua correção.
Do ponto de vista técnico, a principal ruptura não está apenas na automação, mas na compressão do tempo entre descoberta e exploração. Segundo o relatório, o intervalo tradicional — que historicamente permitia a aplicação de patches — está se aproximando de zero, inviabilizando modelos reativos baseados exclusivamente em correção pós-descoberta.
A redução do “custo do ataque” e a democratização do hacking
Um dos achados mais relevantes do estudo é a queda significativa do chamado “skill floor” — o nível mínimo de conhecimento necessário para conduzir ataques sofisticados. Modelos como Claude Mythos são capazes de identificar vulnerabilidades complexas em larga escala, construir cadeias de ataque multiestágio (exploit chains), e automatizar etapas tradicionalmente manuais.
Na prática, isso reduz drasticamente a barreira de entrada para o cibercrime. Tes -
tes conduzidos por institutos de segurança indicam que o modelo conseguiu resolver cerca de 73% de desafios avançados de cibersegurança, algo inédito para sistemas de IA até então.
A automação da descoberta e exploração transforma o ataque em um processo industrializado. O que antes exigia especialistas altamente qualificados passa a ser executável por agentes com menor expertise, ampliando exponencialmente o volume potencial de ataques.
Cadeias de ataque autônomas e multiestágio
Outro ponto crítico destacado pelo relatório da Cloud Security Alliance é quanto pelas análises do CyberScoop
é a capacidade desses modelos de operar em cadeias completas de ataque. Testes conduzidos em ambientes simula-
dos demonstraram que o Claude Mythos consegue executar sequências de ataque com dezenas de etapas, evoluir de acesso inicial até comprometimento total da rede e adaptar estratégias ao longo da execução.
Essa capacidade representa uma mudança qualitativa: o ataque deixa de ser uma
sequência manual de ações e passa a ser um processo autônomo e adaptativo, aproximando-se do conceito de agentes ofensivos contínuos. A automação de kill chains completas reduz o tempo de permanência necessário para comprometer sistemas e aumenta a probabilidade de sucesso em ambientes complexos.
O colapso do modelo tradicional de patching
O relatório introduz uma crítica direta ao modelo tradicional de segurança baseado em patch management. Em um cenário de “tempestade de vulnerabilidades”, organizações tendem a ser “sobrecarregadas” pela quantidade de falhas identificadas por IA, sem capacidade operacional de corrigi-las no mesmo ritmo.
Esse fenômeno gera uma condição es -
trutural de vulnerabilidade permanente, na qual novas falhas surgem mais rápido do que podem ser corrigidas, o backlog de vulnerabilidades cresce continuamente e a janela de exposição deixa de ser exceção e passa a ser regra. Ou seja, a escalabilidade da descoberta rompe o equilíbrio histórico entre ofensiva e defensiva, favorecendo atacantes que podem explorar falhas imediatamente.
Implicações para ambientes industriais e infraestrutura
crítica
Embora os testes ainda indiquem limitações em cenários OT mais específicos, os resultados mostram que sistemas corporativos já são plenamente exploráveis por esses modelos. Para setores como energia, manufatu-
ra e óleo & gás, as implicações são diretas, com integração IT/OT amplia a superfície de ataque, sistemas legados se tornando alvos preferenciais e cadeias de ataque podem alcançar sistemas físicos via redes corporativas
Assimetria estrutural: vantagem do atacante
Um dos conceitos mais relevantes apresentados é o de “benefício assimétrico”: equanto organizações precisam validar, testar e implementar correções com cautela, atacantes podem adotar rapidamente novas capacidades de IA sem restrições ope -
racionais equivalentes. Isso cria um cenário em que a inovação favorece mais o ataque do que a defesa, a velocidade se torna o principal fator estratégico e o risco sistêmico aumenta mesmo com investimentos em segurança.
Diante desse cenário, o relatório propõe o conceito de “Mythos-ready security pro -
CIBERSEGURANÇA
gram”, que implica uma mudança estrutural no modelo de defesa. Entre os principais elementos estão a segurança orientada por antecipação (não apenas resposta), a integração de IA defensiva nos processos de detecção, a transformação da gestão de vulnerabilidades em capacidade contínua
(VulnOps) e a redução da dependência exclusiva de patches. Tudo levando para o fatp de que a defesa precisa operar na mesma escala e velocidade da ofensiva, o que só é possível com automação, inteligência contextual e integração contínua.
Da vulnerabilidade pontual ao risco sistêmico
A combinação entre o relatório da Cloud Security Alliance e as análises dde especialistas aponta para uma conclusão inequívoca: a cibersegurança está entrando em uma nova fase, caracterizada por ataques em escala de máquina e pela erosão dos modelos tradicionais de defesa. Mais do que uma evolução tecnológica, trata-se de uma mudança onde vulnerabilidades deixam de ser eventos isolados e passam a ocorrer em massa, o tempo
de resposta humano se prova insuficiente e a segurança precisa ser redesenhada como sistema dinâmico e automatizado. Para ambientes industriais, essa transformação é ainda mais crítica, pois conecta diretamente o domínio digital ao físico. Dessa forma, a “tempestade de vulnerabilidades” não é apenas um aumento de risco — é a redefinição da própria lógica de segurança no mundo digital e industrial.
EUA está estabelecendo um novo regime de exportação de IA
A movimentação recente do governo dos EUA para estruturar um novo regime de exportação de inteligência artificial sinaliza uma mudança estratégica relevante: a tecnologia deixa de ser apenas um ativo econômico e passa a ser instrumento explícito de política industrial, geopolítica e cibersegurança.
O Departamento de Comércio dos EUA está organizando um modelo que prevê a criação de um “portfólio prioritário” de soluções de IA a serem promovidas globalmente junto a aliados e parceiros estratégicos.
Na prática, a iniciativa busca estruturar pacotes completos (full-stack) que incluem desde hardware (chips e infraestrutura de
data centers) até modelos de IA, serviços em nuvem e camadas de cibersegurança. Esses pacotes, uma vez selecionados, passam a receber apoio institucional do governo, incluindo facilitação regulatória, coordenação interagências e até mecanismos de financiamento para viabilizar sua adoção internacional.
Essa abordagem representa uma inflexão importante em relação ao modelo tradicional de exportação tecnológica. Em vez de comercializar componentes isolados, os EUA passam a ofertar ecossistemas completos de IA, com o objetivo de influenciar não apenas o mercado, mas também os padrões tecno -

lógicos e regulatórios adotados globalmente. A diretriz está alinhada a uma política mais ampla que busca garantir que tecnologias, normas e modelos de governança americanos sejam amplamente adotados no cenário internacional, reforçando a liderança tecnológica do país.
Do ponto de vista estratégico, o programa também responde à crescente competição global, especialmente com a China, ao tentar consolidar uma “esfera de influência tecnológica” baseada em alianças. Ao exportar soluções completas e integradas, o governo americano procura reduzir a dependência de seus parceiros em relação a tecnologias concorrentes, ao mesmo tempo em que fortalece cadeias de valor alinhadas aos seus interesses econômicos e de segurança.
Outro aspecto relevante é o papel atribuído ao próprio Estado como articulador de mercado. O Departamento de Comércio dos EUA passa então a atuar não apenas como regulador, mas como facilitador ativo de negócios internacionais, conectando empresas, coordenando ofertas e promovendo soluções como parte de uma estratégia nacional de competitividade.
No entanto, há incertezas quanto à de -
manda real por soluções completas em mercados internacionais, bem como riscos de desalinhamento entre as necessidades locais e os pacotes ofertados. Além disso, a tentativa de equilibrar competitividade, segurança e abertura de mercado pode gerar tensões, especialmente em países que buscam maior soberania tecnológica.
Sob a ótica da cibersegurança, o movimento é igualmente significativo. Ao incorporar explicitamente componentes de segurança nos pacotes exportados, os Estados Unidos buscam não apenas proteger suas tecnologias, mas também estabelecer padrões globais de segurança digital - um fator crítico em um cenário marcado por ataques cada vez mais sofisticados e pela crescente integração entre infraestrutura digital e sistemas industriais.
Em síntese, o novo regime de exportação de IA revela uma mudança estrutural: a disputa tecnológica global deixa de ser apenas sobre inovação e passa a ser sobre quem define as regras, os padrões e a arquitetura do futuro digital. E torna ainda mais claro que no novo cenário geopolítico da inteligência artificial, exportar tecnologia é, na prática, exportar poder.
Conectores menores, mais inteligentes e mais ecológicos

Depois das raças de cachorro e shampoo, a tendência de miniaturizar chegou ao mundo dos componentes eletrônicos. As crescentes exigências por componentes miniaturizados leves nos setores automotivo, médico e de eletrônica de consumo ditaram a tendência em todo o setor, com empresas que aproveitaram a oportunidade de desenvolver seus projetos de componentes para melhorar o desempenho e a sustentabilidade. Aqui, Mark Baptista, engenheiro de vendas de contas estratégicas globais na PEI-Genesis, que é especializada em conectores elétricos, analisa o aumento de procura por componentes eletrônicos miniaturizados leves e como a empresa está remodelando os designs.
Não há dúvidas de que o tamanho dos nossos dispositivos eletrônicos está diminuindo. Os nossos smartphones, que já tiveram o tamanho de um tijolo, agora são dispositivos de bolso compactos que não têm mais de 170mm. Os componentes agora precisam
caber em espaços mínimos, mas sem deixar de ter alto desempenho, durabilidade e confiabilidade.
Para atingir o equilíbrio, os fabricantes precisam adotar engenharia avançada, materiais e técnicas de design inovadores. Eles também precisam considerar os requisitos específicos de cada setor no que se refere à miniaturização, por exemplo, polímeros de alta resistência que resistem à esterilização em aplicações médicas. Isso é crucial porque esses polímeros precisam resistir à exposição repetida a temperaturas que chegam a 250 °C e processos de limpeza química.
No setor automotivo, o aumento repentino de eletrificação de veículos e sistemas de veículos autônomos exigem mais conectores leves e de alta potência. A integração de várias fontes de energia em um conector permite criar um sistema de alta corrente que reduz o peso sem comprometer a alta potência, muitas vezes com tolerância a 1000 V.
A importância dos materiais
A inovação começa com os materiais. Em conectores em miniatura, os materiais que os compõem precisam atender a especificações voltadas para o desempenho, peso, durabilidade e confiabilidade. Por causa disso, os materiais tradicionais usados em conectores foram substituídos ou modificados.
Os materiais compósitos e polímeros tornaram-se uma escolha comum nos invólucros dos conectores e no isolamento. Os compósitos, por exemplo, têm as melhores propriedades de metais e polímeros, são extremamente leves e apresentam grande
O segredo da sustentabilidade
Os conectores em miniatura causaram uma reformulação completa no design dos componentes e essa inovação criou oportunidades para tornar o setor mais sustentável. Essa é uma mudança causada também por regulamentos ambientais estritos, iniciativas de sustentabilidade corporativa e a procura por parte do cliente por artigos eletrônicos mais ecológicos.
Os fabricantes estão gradualmente passando a utilizar materiais em conformidade com a diretriz RoHS (Restrição de Certas Substâncias Perigosas), que proíbe o uso de chumbo (Pb), mercúrio (Hg) e cádmio (Cd) na produção de componentes. Esses materiais estão sendo substituídos por prata (Ag), níquel (Ni) no chapeamento ou estanho-prata-cobre (Sn-Ag-Cu) na soldagem, reduzindo a toxicidade e tornando os componentes mais seguros para produzir e mais compatíveis com o meio-ambiente.
As técnicas de fabricação também mudaram em nome da sustentabilidade. Os conectores miniaturizados exigem engenharia de precisão em vez dos processos tradicionais de usinagem e moldagem, que podem causar um desperdício exagerado de materiais. Os métodos de impressão em 3D e moldagem por injeção de precisão usados na produção de conectores miniaturizados reduzem os
força mecânica. Eles também aumentam a resistência do componente a interferência eletromagnética (EMI), o que resulta em desempenho otimizado de modo constante. Outra inovação são os revestimentos nanométricos. Com espessura menor que dois micrômetros (µM), eles adicionam uma camada protetora microscópica a um conector em miniatura e aumentam a resistência à corrosão, condutividade e durabilidade mecânica. Essas qualidades possibilitam conectores menores, mas ainda assim eficientes, com vida útil mais longa, o que faz deles soluções mais econômicas.
resíduos de metais e plásticos e vêm sendo implementados em todo o setor para tornar a produção mais sustentável.
Os fabricantes de conectores estão buscando investir em energia renovável, e entre eles está a líder de mercado Amphenol. De acordo com o relatório de sustentabilidade de 2024 da empresa, ela já atingiu uma redução de 34% na emissão de GEE no escopo 1 e 2 (baseado em mercado) com receita normalizada em 2024 em comparação a 2021. À medida que as principais marcas passam a produzir com maior eficiência energética, os conectores mais procurados como os da série de microminiatura 2M da Amphenol, fornecida pela PEI-Genesis, alinham-se mais de perto à passagem do setor para soluções de conectores sustentáveis.
As tendências do setor constantemente abrem o espaço para inovação, e a miniatura não é nenhuma exceção. Os microconectores têm um impacto poderoso nas aplicações industriais graças aos desenvolvimentos únicos no design de conectores e simultaneamente propõem uma rota para práticas de produção mais ecológicas. No futuro, a colaboração entre a engenharia, ciência de materiais e fabricação serão essenciais para manter o progresso e inovar ainda mais tanto na miniaturização quanto na sustentabilidade.
Termografia ativa permite realizar ensaios não destrutivos de materiais

Imagine a asa de um avião ou o casco de um iate. Por fora, a superfície é impecável, polida e robusta, mas, em camadas que o olho humano não alcança, podem existir

microfissuras, bolhas de ar ou infiltrações de umidade. Essa diferença invisível pode separar uma viagem tranquila de um acidente catastrófico.
Até pouco tempo atrás, garantir essa segurança exigia a destruição de peças para a análise de seu interior. A indústria aeronáutica brasileira precisava de uma solução mais eficiente. A resposta veio da startup Subiter, nascida no Instituto Tecnológico de Aeronáutica (ITA), em São José dos Campos. Liderada pelo engenheiro mecânico Eduardo Novais , a empresa desenvolveu, com apoio do Programa Pesquisa Inovativa em Pequenas Empresas (PIPE), da FAPESP, uma solução com termografia ativa, um método de inspeção não destrutiva que usa calor e câmeras infravermelhas para enxergar o interior de materiais.
O nome da empresa reflete essa essência: “subter”, em latim, significa “o que está por baixo”. “Nosso slogan é ‘alcance o invisível’”, afirma Novais. “Somos a única empresa do hemisfério Sul a usar a tecnologia dessa forma para tornar visível aquilo que antes exigia cortes, radiação ou longas horas de inspeção”, diz.
Ensaios não destrutivos permitem avaliar a integridade de materiais sem danificá-los. Essa abordagem é decisiva em setores em que falhas internas podem ter consequências
graves: na indústria aeronáutica, por exemplo, uma descontinuidade estrutural pode evoluir para um problema crítico durante o voo. O mesmo vale para cascos de embarcações, componentes estruturais de trens ou pás de turbinas eólicas, submetidas a esforços contínuos.
O conceito é pura física: a peça é aquecida de forma controlada e uma câmera infravermelha monitora como o calor retorna à superfície. Quando o material é homogêneo e íntegro, o calor se dissipa de maneira previ-
sível. Se há uma falha interna (como delaminações, vazios ou descontinuidades), o fluxo térmico se altera e o calor revela essa irregularidade. O software da Subiter analisa essas variações e diagnostica a saúde da peça.
A tecnologia é especialmente valiosa para materiais compósitos — aqueles formados
O velho mundo da inspeção
Durante décadas, a inspeção industrial conviveu com limitações importantes. Em linhas de produção de alta cadência, como na indústria automotiva, o procedimento mais comum é o ensaio destrutivo por amostragem: algumas peças do lote são retiradas, cortadas e analisadas. Aplica-se, então, análise estatística para inferir a qualidade do conjunto.
O método tem fragilidades evidentes: além do desperdício com a destruição de peças, não garante que as unidades que seguem para o mercado estejam livres de falhas. “Você destrói peças novas, mas as que vão para os veículos não são avaliadas”, ex- plica Novais. “É uma amostragem falha.”
Surgiram, então, o ultrassom e a radiografia industrial, ensaios não destrutivos clássicos. O ultrassom exige operador altamente qualificado para tocar manualmente a peça com sensor e gel de acoplamento. É uma alternativa confiável, mas lenta, cara e que
Salto tecnológico
A termografia ativa surge como alternativa complementar e, em muitos cenários, mais eficiente. Entre as vantagens está o fato de todo o processo ocorrer sem contato físico com a peça, o que garante que não haja comprometimento da integridade do material nem da saúde do operador. Além disso, é possível inspecionar áreas da ordem de metros quadrados em poucos minutos e obter registros digitais completos.
Com isso, apesar de o preço do equipamento ser equiparável ao de sistemas de ultrassom, a produtividade é superior — um fator decisivo na prática industrial. A análise
pela combinação de dois ou mais materiais e que resultam em estruturas leves e resistentes —, como fibra de carbono e fibra de vidro. Eles dominam fuselagens de aeronaves, cascos de iates e lanchas, pás eólicas e outros componentes estruturais de alto desempenho.
requer preparação superficial meticulosa. Além disso, há o fator humano: profissionais qualificados chegam a ganhar R$ 20 mil por mês, enquanto inspetores de termografia ativa podem ser contratados por valores mais acessíveis.
Já a radiografia industrial utiliza radiação ionizante para atravessar o material e formar a imagem interna. Apesar da precisão, os equipamentos são caros, há riscos à saúde dos operadores, o volume de trabalho é limitado e peças de grandes dimensões representam um desafio logístico.
O mercado global de ensaios não destrutivos cresce de forma consistente, impulsionado pela busca por segurança, eficiência e redução de desperdícios. Com o avanço de materiais compósitos e estruturas cada vez maiores e mais complexas, métodos rápidos, seguros e digitais como a termografia ativa tendem a ganhar protagonismo.
de estruturas extensas (como um casco de embarcação ou uma pá eólica) com ultrassom pode levar de 12 a 20 vezes mais tempo do que com a termografia ativa. Isso altera profundamente o custo final do processo. Enquanto a certificação de especialistas em ultrassom requer centenas de horas, a termografia ativa tem interfaces amigáveis e exige menor grau de especialização técnica. Isso não elimina a necessidade de profissionais qualificados, mas torna o processo mais acessível e escalável. A economia aparece no tempo de inspeção, na redução de necessidade de mão de obra altamente espe -
cializada e na possibilidade de inspecionar 100% das peças — não apenas amostras.
No mercado náutico, por exemplo, a inspeção rápida e sem contato de grandes superfícies é especialmente valiosa. Estaleiros podem avaliar cascos ainda no processo produtivo ou em manutenção, sem desmontagens extensas. O mesmo vale para o setor de energia eólica, que lida com componentes de grandes dimensões e alto valor agregado.
A termografia ativa foi incluída nas normas técnicas internacionais apenas em 2007, segundo organismos de padronização como a Sociedade Americana para Testes e Materiais
Do ITA para o mercado
A história da Subiter começou como pesquisa acadêmica no ITA. Novais estudava ensaios não destrutivos quando percebeu a lacuna no fornecimento de serviços tecnológicos para a indústria aeronáutica — em especial para fabricantes como a Embraer, que entregou 206 aeronaves em 2024, um crescimento de 14% em relação a 2023, e acumula carteira de pedidos de US$ 26,3 bilhões.
Além do apoio do PIPE-FAPESP, a startup contou com mentoria do Parque de Inovação Tecnológica (PIT) de São José dos Campos. Esse ecossistema garantiu que a tecnologia deixasse de ser apenas um bom experimento de laboratório e resolvesse problemas re -
Mercados e barreiras
A indústria aeronáutica seria o mercado natural, mas há barreiras regulatórias. “Como a tecnologia é um método emergente, ainda não está incluída em normas brasileiras”, explica Novais. “Atuamos em parceria com associações técnicas do setor e órgãos reguladores para provocar a discussão da inclusão da termografia ativa nas normas técnicas brasileiras. Fazemos um esforço de educação do mercado para mostrar que a tecnologia não substitui outros métodos, mas amplia o arsenal de inspeção disponível.”
(American Society for Testing and Materials – ASTM) e a Organização Internacional de Normalização (International Organization for Standardization – ISO). Em comparação, ultrassom e radiografia industrial acumulam quase um século de uso.
A Subiter tem um aparelho portátil (para inspecionar, por exemplo, pás eólicas já montadas ou embarcações posicionadas em estaleiros e marinas) e um fixo, instalado na linha de produção. Ambas as opções são sincronizadas com o software que registra, processa e armazena os dados. No mercado global, poucas empresas atuam no segmento — a maioria está na Europa e nos EUA.
ais da indústria. “A FAPESP foi fundamental: além do financiamento, o treinamento em empreendedorismo fez muita diferença. Eles ensinam a olhar para a necessidade do mercado, não para a paixão pelo produto”, destaca Novais.
Envolvido com a engenharia mecânica desde o ingresso na graduação, aos 17 anos, Novais já havia concluído o mestrado e cursava o doutorado quando decidiu deixar o universo acadêmico para se dedicar à startup. “Levar meu conhecimento para o mercado era o desafio em que eu queria me concentrar. Quando entendi isso, decidi que deveria me concentrar em me tornar empreendedor, não somente cientista/pesquisador.”
No futuro, o objetivo é crescer em setores com certificação mais rigorosa, como a aeronáutica civil comercial. Atualmente, a startup avança em mercados com menor rigidez normativa. Por isso, serve principalmente o setor náutico, que movimenta R$ 2,5 bilhões anuais no Brasil e emprega cerca de 150 mil pessoas, segundo a Associação Brasileira de Construtores de Barcos (Acobar). O mercado cresceu 25% em empregos entre 2023 e 2024.
Outros segmentos atendidos incluem o
metroferroviário, o eólico e aplicações industriais diversas. O setor naval brasileiro, impulsionado por R$ 31 bilhões em inves -
timentos autorizados em 2024 pelo Fundo da Marinha Mercante, também representa oportunidade.

Hemisfério Sul e além
A internacionalização da empresa está nos planos da equipe. Para isso, a estratégia da startup é se dedicar a nichos que ainda estão descobertos. Futuramente, o uso de inteligência artificial para o diagnóstico automático das imagens térmicas pode reduzir a dependência de interpretação humana e elevar o nível de precisão em inspeções em série.
A transição de Novais, de pesquisador para empreendedor, foi desafiadora. “Na academia, você pode se apaixonar pelo produto. No mercado, você precisa resolver problemas reais”, diz. Isso ilustra um fenômeno comum: conhecimento acadêmico de ponta que fica nos laboratórios. “O conhecimento científico é essencial, mas sozinho não leva a lugar nenhum. Se você não conhece seu cliente, seus concorrentes, sua estrutura de
custos, o fracasso é quase certo.”
A Subiter transforma conhecimento acadêmico em solução de mercado para indústrias bilionárias. Enquanto a Embraer exportou mais de US$ 2 bilhões em aeronaves apenas em 2024, o setor naval cresceu 20% em empregos nos últimos quatro anos. E o mercado náutico tem potencial para crescer até 20 vezes, segundo a Acobar, se houver infraestrutura adequada.
Em todos esses segmentos, a capacidade de inspecionar materiais de forma rápida, segura e não destrutiva não é luxo: é um requisito básico de competitividade industrial. Quando um avião decola, quando um iate navega, quando uma pá eólica gira, a integridade estrutural precisa ser garantida. E, para isso, é preciso enxergar o invisível. (Fapesp)

Integração,
dados e regulação:
os desafios estruturais da inteligência distribuída no sistema elétrico brasileiro

O sistema elétrico brasileiro é reconhecido por sua sofisticação operacional, sustentado por uma arquitetura centralizada e coordenada sob o ONS – Operadador Nacional do Sistema. No entanto, a transição para redes elétricas inteligentes, ou smart grids, impõe uma mudança estrutural que vai além da incorporação de novas tecnologias; é necessária uma reconfiguração profunda da lógica de operação, na qual a inteligência deixa de estar concentrada no centro do sistema e passa a ser distribuída ao longo da rede, incorporando geração distribuída, armazenamento, resposta da demanda e fluxos bidirecionais de energia e informação.
Essa transformação pode ser compreendida de forma mais precisa a partir de uma abordagem sistêmica: tradicionalmente, o setor elétrico foi estruturado como um conjunto de ativos físicos - usinas, linhas de transmissão e subestações - cuja expansão determinava a segurança energética. No entanto, à medida que a interdependência entre esses elementos cresce e a variabilidade operacional se intensifica, essa arquitetura se torna insuficiente.
Sob uma nova perspectiva, o sistema elétrico passa a ser entendido como um sistema adaptativo, no
qual a estabilidade não decorre apenas da robustez da infraestrutura, mas da capacidade de coordenação entre seus elementos – e a informação, nesse cenário, assume papel equivalente ao da própria energia.
Essa mudança de paradigma é reforçada pela crescente aplicação de inteligência artificial ao longo da cadeia elétrica. Mais do que uma camada adicional de tecnologia, a IA aqui também emerge como elemento estruturante da operação, viabilizando a transição para redes capazes de monitorar, interpretar e agir em tempo real.
Essa nova arquitetura pode ser compreendida a partir de três camadas integradas: a Internet das Coisas (IoT), responsável por transformar a rede em um sistema sensorial distribuído, por meio de medidores inteligentes, sensores de corrente e tensão e monitoramento contínuo de ativos; a camada de dados, que assegura a integração, qualidade e governança das informações provenientes de sistemas de tecnologia da informação (TI) e tecnologia operacional (TO); e a inteligência artificial, que processa esse volume massivo de dados e viabiliza decisões automatizadas, desde manutenção preditiva até previsão de geração renovável e otimização da operação.
IA como camada de orquestração da smart grid

A incorporação da inteligência artificial às redes elétricas inteligentes/smart grids representa a introdução de uma nova camada funcional na arquitetura do sistema: a orquestração, em tempo real, de ativos, dados e decisões. Diferentemente das camadas tradicionais — responsáveis pela aquisição de dados (como sensores, IoT e medidores inteligentes) e pela supervisão e controle (SCADA, EMS e ADMS) — a IA atua de forma transversal, conectando essas estruturas e transformando dados dispersos em decisões operacionais coordenadas.
Essa função se torna essencial em um contexto de crescente complexidade sistêmica.
A expansão da geração distribuída, a variabilidade das fontes renováveis e a necessidade de respostas operacionais cada vez mais rápidas criam um ambiente em que os modelos tradicionais, baseados em regras fixas e operação centralizada se tornaram insuficientes. Nesse cenário, a IA passa a desempenhar o papel de “cérebro operacional”, capaz de integrar informações provenientes de diferentes camadas do sistema e convertê-las em ações em tempo quase instantâneo. Na prática, essa capacidade se manifesta em quatro frentes principais: a previsão, na qual modelos de aprendizado de máquina
permitem antecipar padrões de carga e geração renovável com maior precisão, reduzindo incertezas e melhorando o planejamento do despacho; a otimização, em que algoritmos avançados ajustam continuamente o fluxo de potência e a alocação de recursos, considerando restrições dinâmicas da rede; o diagnóstico, com identificação precoce de falhas, perdas e anomalias operacionais, permitindo a transição de uma manutenção reativa para uma abordagem preditiva; e o controle, que viabiliza respostas automatizadas de recomposição de rede e coordenação de recursos distribuídos em escalas de tempo incompatíveis com a intervenção humana.
A integração dessas funções permite transformar a smart grid em um sistema capaz de converter complexidade em estabilidade. Ao articular dados em tempo real, modelos preditivos e mecanismos de decisão automatizada, a IA viabiliza a coordenação simultânea de milhares de ativos distribuídos, incluindo geração fotovoltaica, armazenamento em baterias e cargas flexíveis. Esse processo é frequentemente potencializado pelo uso de gêmeos digitais, que permitem simular continuamente o comportamento do sistema e testar cenários operacionais antes de sua implementação.
Experiências internacionais indicam que essa abordagem já está em estágio avançado na Europa, EUA e China, onde a IA é aplicada à previsão probabilística, à operação de redes de distribuição e à coordenação de mercados de flexibilidade. No Brasil, embora existam iniciativas relevantes em centros de pesquisa e concessionárias, o principal desafio ainda reside na integração dessas soluções em escala sistêmica, especialmente no que se refere à interoperabilidade de dados e à governança da informação.
Do ponto de vista técnico, a adoção da IA como camada de orquestração enfrenta desafios importantes como a qualidade e a consistência dos dados provenientes de sistemas heterogêneos de tecnologia da informação e operação; a necessidade de padronização semântica; os requisitos de baixa latência para tomada de decisão em tempo real; e a ampliação da superfície de ataque em termos de cibersegurança.
Mas, apesar das limitações, a trajetória
Camada Função
IoT/AMI
SCADA
EMS/ADMS
DERMS
IA (transversal)
Aquisição de dados
Supervisão
Controle e despacho
Coordenação de DER
Decisão e coordenação
tecnológica é clara. O setor evolui de um modelo baseado em automação e controle centralizado para uma arquitetura progressivamente autônoma, na qual a operação passa a ser orientada por dados, algoritmos e capacidade adaptativa. Nesse novo paradigma, a estabilidade do sistema elétrico não depende apenas da robustez da infraestrutura física, mas da capacidade de interpretar informações, antecipar eventos e coordenar respostas de forma distribuída.
Limitação tradiciona Papel da IA
Volume e heterogeneidade
Baseado em regras
Complexidade combinatória
Pré-processamento, detecção de padrões
Enriquecimento analítico
Otimização dinâmica
Orquestração em tempo real
Integra todas as camadas -
**Os sistemas EMS (Energy Management System), ADMS (Advanced Distribution Management System) e DERMS (Distributed Energy Resource Management System) representam camadas complementares na evolução da operação do sistema elétrico, refletindo a crescente complexidade e descentralização das redes. O EMS atua no nível da transmissão e da operação sistêmica, sendo responsável pelo despacho da geração, análise de segurança, fluxo de potência e estabilidade do sistema interligado. Trata-se de uma plataforma orientada à visão global, com foco na confiabilidade e no equilíbrio entre oferta e demanda em larga escala. Já o ADMS opera no nível da distribuição, integrando funções de automação, supervisão e otimização da rede de média e baixa tensão. Ele combina recursos de SCADA, gestão de interrupções (OMS) e análise de rede, permitindo maior visibilidade e controle sobre alimentadores, cargas e qualidade de energia, com foco em eficiência operacional e redução de perdas. Com a crescente inserção de geração distribuída, armazenamento e recursos flexíveis, surge o DERMS, cuja função é coordenar e orquestrar esses ativos distribuídos - como sistemas fotovoltaicos, baterias e resposta da demanda - de forma integrada ao sistema elétrico. O DERMS atua como uma camada de agregação e controle dinâmico, viabilizando a participação desses recursos na operação e, potencialmente, em mercados de flexibilidade. Enquanto o EMS mantém a estabilidade do sistema como um todo e o ADMS otimiza a operação da rede de distribuição, o DERMS introduz a capacidade de coordenar recursos distribuídos em tempo real, conectando a lógica centralizada à inteligência descentralizada. Em conjunto, esses sistemas formam a base da arquitetura operacional das smart grids, permitindo que redes cada vez mais complexas operem com maior eficiência, resiliência e flexibilidade.
Em síntese, a inteligência artificial deixa de ser um recurso complementar e passa a constituir a infraestrutura lógica que sustenta a operação das redes elétricas inteligentes, permitindo que sistemas cada vez mais complexos, descentralizados e variáveis operem com níveis crescentes de eficiência, resiliência e segurança.

A integração dessas camadas transforma a smart grid em um sistema capaz de converter complexidade em estabilidade. Sem dados, não há coordenação. Sem coordenação, não há flexibilidade. E, sem flexibilidade, a segurança sistêmica torna-se inviável em um ambiente caracterizado por crescente descentralização e variabilidade.
Nesse sentido, a evolução para redes inteligentes não deve ser interpretada ape -

nas como modernização tecnológica, mas como uma mudança estrutural na lógica de operação do sistema elétrico, na qual a inteligência distribuída -sustentada por dados e algoritmos - passa a desempenhar papel central.
Nesse contexto, o Brasil vive uma transição marcada menos por limitações tecnológicas e mais por desafios de integração, governança e regulação.
Essa condição é evidenciada pela avaliação de Júlia Guerra, líder do Laboratório de Smart Grids do Cepel, que afirma que “no Brasil, o conceito de smart grids tem avançado de forma assimétrica nos últimos anos”. A especialista observa que já existem avanços concretos, mas distribuídos de forma desigual: “observam-se ‘ilhas’ de modernização (como a automação de subestações, a ampliação do telecontrole, pilotos de medição inteligente e a evolução de centros de operação mais sofisticados), mas ainda existem desafios na integração sistêmica entre os ambientes SCADA/ EMS e os Recursos Energéticos Distribuídos (REDs)”.
Em comparação com mercados da Europa e de partes da Ásia, onde há maior consolidação de padrões, governança de dados e integração em escala entre operação e flexibilidade distribuída, o Brasil apresenta avanços consistentes, porém com maior heterogeneidade entre agentes e com uma trajetória de implementação frequentemente condicionada por legados tecnológicos e por fatores regulatórios. Ainda assim, o país dispõe de base técnica e industrial sólida para avançar, desde que consiga alinhar tecnologia, regulação e governança.
Nesse ponto, a leitura regulatória converge com o diagnóstico técnico. Como afirmou Agnes da Costa, diretora da Aneel – Agência Nacional de Energia Elétrica, no evento O Setor Elétrico rumo à COP 30 (2025), “o papel da Aneel é identificar áreas em que é importante desenvolver regulação para possibilitar novas tecnologias”, evidenciando que a modernização do sistema depende de um ambiente normativo capaz de absorver inovação sem comprometer eficiência e equilíbrio setorial. Ao mesmo tempo, a diretora reconhece que o desafio é estrutural: “a gente tem que estar disposto a mudar e [...] desenhar regulações que permitam uma adaptabilidade e flexibilidade” — uma formulação que sintetiza, no plano institucio -

nal, o próprio conceito de smart grid. Essa necessidade de planejamento estruturado também foi reforçada pelos levantamentos da EPE – Empresa de Pesquisa Energética, responsável pelos estudos de longo prazo do setor. No Plano Decenal de Expansão de Energia 2035 (PDCE 2035), a empresa indica que a evolução do sistema elétrico brasileiro será marcada pela ampliação da participação de fontes renováveis variáveis e pela crescente necessidade de flexibilidade operativa, com impactos relevantes sobre o planejamento, a operação e a expansão da rede. Estudos anteriores já destacavam que a expansão do sistema elétrico deve considerar a crescente participação de fontes renováveis variáveis e a necessidade de maior flexibilidade operativa apontando que a integração de recursos distribuídos e intermitentes exige não apenas infraestrutura, mas também evolução dos modelos de operação e planejamento.
Nesse contexto, o PDCE 2035 também aponta que a incorporação de novas tecnologias, a digitalização e o uso intensivo de dados tendem a se tornar elementos centrais para garantir eficiência, segurança e sustentabilidade ao sistema ao longo do horizonte de planejamento.


Em linha com essa visão, a EPE também ressalta no Plano Nacional de Energia 2050, que o planejamento energético deve incorporar novas tecnologias e soluções digitais para garantir eficiência, segurança e sustentabilidade ao sistema, reforçando que smart grids são parte de uma agenda mais ampla de modernização estrutural do setor elétrico brasileiro.
Nesse cenário, o principal gargalo não está na ausência de padrões técnicos, como IEC 61850 ou modelos baseados em CIM (IEC 61970), mas na capacidade de fazê-los operar de forma integrada e consistente ao longo do tempo. Como explica Júlia Guerra, “o principal gargalo para viabilizar a interoperabilidade não está apenas na adoção formal dos padrões, mas na capacidade de garantir que esses ambientes troquem informações de forma consistente, sustentável, escalável e auditável ao longo do tempo”.
Segundo ela, as dificuldades se concentram sobretudo na harmonização semântica - isto é, na garantia de que ativos, topologias, estados operativos e grandezas medidas tenham o mesmo significado entre diferentes sistemas -, além de desafios relacionados à gestão de versões dos modelos e à governança das mudanças. Soma-se a isso o problema recorrente de qualidade de dados, envolvendo integridade, consistência, sincronização temporal e tratamento de informações incompletas, duplicadas ou incorretas, fatores que impactam diretamente a confiabilidade operacional e regulatória do sistema.
A crescente penetração da geração distribuída e do armazenamento em baterias adiciona uma camada de complexidade a esse cenário. “O avanço da geração distribuída e do armazenamento em baterias pode alterar de forma significativa os modelos tradicionais de despacho e de controle, principalmente porque a rede deixa de operar com uma lógica de carga predominantemente ‘passiva’ e passa a conviver, em escala crescente, com recursos energéticos distribuídos capazes de
variar rapidamente sua injeção e consumo, além de oferecer flexibilidade ao sistema,” observa Júlia Guerra. Esse novo paradigma amplia a relevância de previsões de curto prazo mais robustas, tanto de carga quanto de geração distribuída, bem como do gerenciamento de restrições locais como variações de tensão, frequência, carregamentos, reversões de fluxo e limites operativos em trechos específicos da rede. Exigi ainda uma coordenação mais integrada entre diferentes camadas de controle e entre transmissão e distribuição.
Essa necessidade de coordenação reforça o papel da regulação como elemento estruturante. Como observou Agnes da Costa, o desafio é “buscar uma solução que seja justa, que traga incentivos regulatórios eficientes [...] num contexto em que as tecnologias mudam”, evidenciando que a transição energética exige não apenas inovação tecnológica, mas também redesenho dos mecanismos de mercado e sinalização econômica.
Em paralelo, a EPE aponta que o aumento da complexidade do sistema -impulsionado pela descentralização da geração, pela variabilidade das fontes renováveis e pela inserção de novos recursos energéticos - exigirá maior coordenação entre planejamento, operação e expansão da rede, além do uso de ferramentas mais avançadas de modelagem e simulação, reforçando a convergência entre visão regulatória e planejamento energético.
Diante dessa nova realidade, os centros de operação precisam evoluir estruturalmente. Como destaca a especialista do Cepel, “os centros de operação precisam evoluir para além da supervisão, fortalecendo sua capacidade de otimização e controle em um ambiente mais dinâmico e orientado a dados”. Na prática, isso envolve reforçar funções de gerenciamento de energia e de análise operacional, incorporar uma camada estruturada de gestão de flexibilidade -incluindo sistemas de armazenamento por baterias,
resposta da demanda e, prospectivamente, o carregamento inteligente de veículos elétricos -, além de ampliar a observabilidade e a confiabilidade do modelo de topologia na distribuição. Trata-se, portanto, de uma transição para uma operação mais proativa, com decisões mais frequentes, apoiadas por dados de melhor qualidade, automações robustas e critérios claros de segurança operativa.
Nesse contexto, os sistemas EMS (Energy Management Systems) assumem um papel cada vez mais estratégico. “Os sistemas EMS tendem a se consolidar, nos próximos anos, como uma camada estratégica de inteligência da operação, pois o sistema elétrico está se tornando mais variável, descentralizado e complexo,” aponta Júlia Guerra. Essa visão é reforçada no próprio debate regulatório: a Aneel reconhece que a transição energética exige inovação regulatória e estrutural para aproveitar todo esse potencial, especialmente em um ambiente com maior participação de recursos distribuídos e novos modelos de negócio.
Complementarmente, os estudos da EPE indicam que a crescente complexidade do sistema elétrico brasileiro demandará o uso de ferramentas avançadas de previsão, otimização e gestão operacional, o que reforça o papel de plataformas digitais e sistemas integrados na sustentação de um ambiente mais dinâmico, descentralizado e orientado a dados.
Com o aumento da participação de fontes renováveis, da presença crescente de eletrônica de potência e da incorporação de recursos energéticos distribuídos, a operação passa a exigir decisões mais frequentes, baseadas em dados confiáveis e com melhor gestão de restrições elétricas e riscos operacionais. Nesse cenário, o EMS evolui de seu papel tradicional para uma plataforma capaz de integrar dados de alta qualidade, modelos consistentes do sistema, funções avançadas de segurança operativa e mecanismos de coordenação entre diferentes camadas de controle e agentes envolvidos, contribuindo diretamente para uma operação mais proativa e resiliente.

Outro vetor relevante dessa transformação é a adoção de abordagens baseadas em digital twin. O Cepel já possui experiência consolidada em simulação de redes elétricas, e, segundo Júlia Guerra, “os modelos evoluem para a abordagem de digital twin”, incluindo análise de contingências e simuladores de treinamento de operadores de tempo real. No roadmap da instituição, estão previstas evoluções voltadas à modelagem da rede de distribuição, previsão de carga e simulação de contingências em tempo quase real. Nesse contexto, “o digital twin consiste em manter um modelo digital da rede permanente -
mente atualizado com dados operacionais, permitindo testar cenários, antecipar riscos e apoiar decisões com maior segurança”. Na prática, essa abordagem melhora a qualidade do modelo elétrico, aprimora previsões de carga e geração distribuída e permite avaliar previamente impactos de manobras ou restrições, tornando a operação mais proativa. No entanto, sua consolidação no ambiente regulatório brasileiro dependerá da qualidade dos dados, da integração entre sistemas, da padronização de modelos e da demonstração clara de benefícios técnicos e econômicos.

Uma rede inteligente pede medidores inteligentes, dispositivos eletrônicos que permitem a medição automática, precisa e em tempo real do consumo de energia elétrica. Possibilitam comunicação remota, enviam dados diretamente às concessionárias sem a necessidade de leitura manual e armazenam históricos detalhados de consumo, registram interrupções no fornecimento, possibilitando ações como corte e religamento do serviço à distância, seguindo critérios regulatórios. Para a fiscalização, os medidores inteligentes oferecem maior controle sobre perdas não técnicas, como fraudes e furtos de energia, e facilitam a identificação de inadimplência; para os consumidores, a principal vantagem é a transparência.
Paralelamente, a digitalização da rede amplia significativamente os desafios de cibersegurança e resiliência sistêmica. Como alerta Júlia Guerra, “com a digitalização da rede e a maior conectividade entre ativos de campo, medidores inteligentes e sistemas centrais, aumenta a superfície de ataque e o risco de exploração de vulnerabilidades em dispositivos distribuídos”. Também se intensifica o risco de propagação de incidentes, nos quais um evento inicialmente localizado pode alcançar sistemas centrais caso não haja segmentação adequada. Além disso, “a crescente dependência de dados, telecomunicações e automações amplia o impacto potencial da manipulação de informações operacionais, falhas de comunicação ou problemas de sincronização temporal, podendo gerar efeitos mais rápidos e abrangentes sobre a operação”. Esse ponto ganha relevância adicional à medida que a própria Aneel passa a incorporar temas como resiliência e adaptação climática em sua agenda regulatória, reconhecendo a necessidade de redes mais robustas e preparadas para eventos extremos.
Para mitigar esses riscos, a especialista do Cepel destaca a importância de práticas consolidadas, como segmentação entre redes de TI e TO, aplicação do princípio do menor privilégio, gestão estruturada de vulnerabilidades, monitoramento contínuo, uso de criptografia e autenticação forte, além de testes periódicos de segurança e planos robustos de resposta a incidentes.
Apesar da complexidade desse cenário, a avaliação do Cepel é de que o Brasil possui condições concretas de avançar de forma consistente. Como sintetiza Júlia Guerra, “o país dispõe de competência técnica e de capacidade industrial para evoluir de maneira ordenada nesta área, desde que se avance simultaneamente na superação de entraves regulatórios e no estabelecimento de uma governança que induza a padronização, evite a fragmentação tecnológica e viabilize um
ambiente de interoperabilidade efetiva, com gestão de dados consistente e integração dos REDs de forma segura e plenamente operacional”. Nesse processo, o papel de instituições como a Aneel, o MME - Ministério de Minas e Energia e o próprio ONS é central, uma vez que a transição para smart grids não será espontânea, mas resultado de alinhamento entre regulação, operação e mercado.
Do ponto de vista do planejamento, a EPE reforça que o alinhamento entre expansão, operação e integração de novas tecnologias será determinante para garantir segurança do suprimento, eficiência sistêmica e uma transição energética sustentável no horizonte de longo prazo.
Assim, a transição brasileira para smart grids não deve ser interpretada como um atraso tecnológico, mas como um processo de integração sistêmica ainda em curso. As tecnologias já estão disponíveis e, em muitos casos, implementadas em escala piloto ou segmentada. O desafio agora é conectá-las de forma coerente, interoperável e segura, construindo uma arquitetura capaz de sustentar um sistema elétrico mais distribuído, dinâmico e orientado a dados. Nesse sentido, o futuro das smart grids no Brasil será definido menos pela inovação tecnológica em si e mais pela capacidade de alinhar operação, regulação, mercado e governança de dados em uma estrutura funcional e resiliente.
O Brasil já domina a inteligência do sistema elétrico. O desafio agora é distribuí-la, sem perder o controle.

Da eficiência à flexibilidade: o edifício como ativo energético

A automação predial no Brasil está se consolidando como um dos vetores centrais da transformação dos edifícios em plataformas inteligentes de eficiência energética, integração tecnológica e atuação ativa no sistema elétrico. Mais do que uma evolução incremental dos tradicionais sistemas de climatização e iluminação, o avanço dos sistemas de gestão predial (BMS/BAS) reflete uma mudança estrutural: a convergência entre infraestrutura elétrica, digitalização e novos modelos de gestão energética, em um cenário pressionado por custos crescentes de energia, metas ESG e complexidade operacional.
Segundo dados do setor, aproximadamente 47% do consumo elétrico de edifícios comerciais e públicos no país está concentrado em climatização e iluminação, com potencial de redução de até 30% por meio de sensores e sistemas inteligentes de monitoramento. Essa equação — alto consumo concentrado e capacidade de otimização — explica por que a automação predial deixou de ser diferencial e passou a ser componente estruturante em projetos corporativos, hospitalares e institucionais.
Nesse contexto, a base normativa brasileira desempenha um papel menos visível, porém decisivo. Embora não existam normas dedicadas exclusivamente à automação predial, o arcabouço técnico garante as condições para sua implementação segura e interoperável.

O presidente da ABNT, Mario William Esper, esclarece como a normatização sustenta, ainda que de forma indireta, a integração entre automação e infraestrutura elétrica: “a ABNT NBR 5410 não traz diretrizes específicas voltadas exclusivamente à integração de sistemas de automação predial e EMS à infraestrutura elétrica. Ainda assim, ela oferece as bases necessárias para que esses sistemas sejam instalados e operem adequadamente, porque estabelece regras claras e amplamente aplicáveis sobre proteção e seletividade, além de prescrições e recomendações relacionadas à qualidade de energia”.
Esper detalha que esse conjunto normativo abrange “subtensões, sobretensões, harmônicas, queda de tensão, aterramento e equipotencialização funcional”, criando um ambiente técnico que viabiliza a operação segura dos sistemas automatizados. A mesma lógica se aplica à ABNT NBR 14039, voltada à média tensão, que “não traz diretrizes específicas direcionadas à integração de automação predial, porém provê suporte técnico suficiente para uma integração segura”, ao exigir estudos de proteção, seletividade e qualidade de energia.
Ao avançar para a interface entre automação e infraestrutura elétrica, Esper destaca que a abordagem brasileira é necessariamente sistêmica. “A interface entre BAS/BMS e a infraestrutura elétrica se dá de forma combinada, por meio de normas regulatórias e normas técnicas ABNT, que tratam de segurança, desempenho e continuidade operacional.” Nesse arranjo, a NR-10 impõe requisitos de segurança em eletricidade, enquanto a série ABNT NBR IEC 61439 estabelece critérios de desempenho para painéis elétricos, garantindo que a automação não comprometa a integridade estrutural e funcional dos sistemas.
O presidente da ABNT também explicita um ponto crítico: a automação não pode interferir nas camadas de segurança. Como reforça Esper, falhas no supervisório não podem impedir a atuação de dispositivos essenciais, como botões de emergência. Complementarmente, normas como a ABNT NBR 5410 e a ABNT NBR 14039 tratam da continuidade operacional e da possibilidade de manutenção segura, enquanto referências como a ABNT NBR IEC 62382 (comissionamento) e ABNT NBR IEC 61000-4-6 (compatibilidade

eletromagnética) contribuem para a confiabilidade dos sistemas.
Essa arquitetura normativa converge para uma síntese conceitual: a supervisão é complementar; a proteção é soberana; e a segurança funcional torna-se mandatória quando há risco significativo.
No campo da digitalização, a ABNT avalia a adoção da série ISO 16484 (automação predial) e sua convergência com a ISO 50001 (gestão de energia), indicando uma tendência de alinhamento entre eficiência energética e governança técnica. Já na integração com geração distribuída e smart grids, normas internacionais como IEC 60364 e IEC 61936-1 aparecem como base para segurança e conexão, ainda que não tratem da operação da rede em si.
Outro ponto crítico é a cibersegurança. Segundo Esper, a incorporação da família IEC 62443 no Brasil estabelece princípios como “defesa em profundidade, segmenta-
ção por zonas e condutos, isolamento lógico e controle de fluxos”, fundamentais para proteger sistemas cada vez mais conectados. Essa abordagem é baseada em gestão de risco e considera requisitos de confidencialidade, integridade e disponibilidade - especialmente relevantes quando BMS, SCADA e ativos elétricos passam a operar de forma integrada.
Essa base normativa, ao estabelecer requisitos de segurança, qualidade de energia e continuidade operacional, cria as condições técnicas para que a automação predial avance além do controle de sistemas internos e passe a incorporar funções energéticas mais complexas, como geração distribuída, ar- mazenamento e gestão ativa da demanda. É justamente nesse ponto, na interface entre infraestrutura elétrica normatizada e inteligência operacional, que começam a emergir, no Brasil, projetos que materializam o conceito de edifício como ativo energético.

“O sistema de armazenamento em baterias (BESS) foi integrado à infraestrutura elétrica do edifício por meio da conexão ao quadro geral de baixa tensão, operando como um recurso energético distribuído dentro da lógica de gestão da demanda do empreendimento. A solução atua de forma coordenada com a geração fotovoltaica, ampliando a flexibilidade energética, conta Giovanni Milani, Head Comercial de BESS da GreenYellow
Um dos exemplos mais emblemáticos dessa transição é o comissionamento do primeiro sistema completo de armazenamento em baterias (BESS) aplicado a um edifício comercial no país. O projeto, desenvolvido pela GreenYellow em parceria com a 3P Energia, iniciou sua fase de comissionamento em 15 de dezembro de 2025 no Edifício Civil Towers, em Salvador, marcando um avanço concreto na integração entre automação predial e gestão energética.
A iniciativa projeta uma economia entre 15% e 20% na conta de energia do empreendimento, resultado da combinação entre armazenamento e estratégia de load shifting, na qual a energia é armazenada fora do horário de ponta e utilizada nos períodos de maior custo. Com capacidade de 215 kWh, potência instalada de 108 kW e integração a um sistema fotovoltaico de 42 kWp, a solução posiciona o edifício como um sistema energético ativo, capaz de gerenciar seu próprio perfil de consumo.
A fase de comissionamento - etapa crítica que envolve verificação, testes e validação de todos os sistemas - assegura que a operação ocorra de forma estável, eficiente e aderente aos requisitos técnicos da infraestrutura elétrica. Nesse sentido, o projeto materializa, na prática, os princípios destacados pela ABNT: a automação como camada de supervisão integrada, sem comprometer a segurança e a confiabilidade dos sistemas elétricos.
A relevância desse tipo de arquitetura vai além da eficiência intrínseca ao edifício e se conecta diretamente à evolução das redes elétricas para o conceito de smart grid. Ao incorporar armazenamento, geração distribuída e sistemas avançados de monitoramento, o edifício passa a operar como um recurso energético distribuído (DER), capaz não apenas de otimizar seu consumo, mas de interagir com a rede de forma dinâmica. Nesse contexto, a automação predial assume papel estratégico como camada de inteligência, viabilizando controle em tempo real, resposta a sinais tarifários e, potencialmente,
prestação de serviços à rede, como redução de carga em momentos críticos.
Essa transição ganha ainda mais relevância no contexto da abertura do mercado livre de energia no Brasil. À medida que consumidores de menor porte passam a ter acesso à contratação de energia fora do ambiente regulado, cresce a necessidade de ferramentas capazes de gerenciar exposição a preços, demanda contratada e perfis de consumo. Sistemas integrados de BMS, aliados a soluções como BESS e geração fotovoltaica, tornam-se instrumentos fundamentais para maximizar ganhos econômicos, permitindo estratégias como arbitragem energética, mitigação de encargos e maior previsibilidade operacional.
Além disso, a combinação entre automação predial e armazenamento posiciona os edifícios para uma futura inserção em mercados de flexibilidade, ainda em desenvolvimento no país. A capacidade de modular carga, armazenar energia e responder a sinais externos cria as bases para modelos em que consumidores deixam de ser apenas agentes passivos e passam a atuar como participantes ativos do sistema elétrico - um movimento que depende tanto de evolução regulatória quanto da maturidade tecnológica já observada em projetos como o Civil Towers.
Do ponto de vista operacional, o sistema possui interface com plataformas de monitoramento capazes de acompanhar “potência instantânea, estado de carga das baterias e fluxo de energia entre rede, geração fotovoltaica e cargas do edifício”, permitindo que o armazenamento deixe de ser passivo e passe a atuar como ferramenta ativa de gestão.
A estratégia de operação combina diferentes lógicas. “A estratégia principal baseia-se em load shifting tarifário”, explica Milani, armazenando energia em períodos de menor custo e utilizando-a no horário de ponta. Além disso, o sistema executa funções de peak shaving, monitorando o perfil de carga e atuando para evitar ultrapassagens de demanda contratada - especialmente em situa-
ções de picos momentâneos, como o uso intensivo de elevadores em horários de maior circulação.
Essa combinação permite “otimizar a operação energética do edifício, aumentar a previsibilidade do consumo e gerar savings por meio do modelo BaaS”. Segundo o executivo, a arquitetura foi concebida para ser escalável, permitindo integração futura com resposta à demanda, mercado livre e serviços de flexibilidade -dependentes, em grande medida, da evolução regulatória.
O processo de integração, no entanto, não é trivial. Um dos principais desafios foi garantir a interoperabilidade entre sistemas distintos - geração solar, baterias, inversores e proteção elétrica. Para isso, foram utilizados protocolos industriais como Modbus, com testes de comissionamento voltados à validação de proteção, controle e sincronização com a rede do edifício.
Na visão da empresa, esse modelo representa uma mudança de paradigma. “Projetos como o Civil Towers demonstram como edifícios comerciais podem evoluir de consumidores passivos para ativos energéticos distribuídos”, afirma Milani. Com a integração entre geração, armazenamento e monitoramento, o edifício ganha autonomia e capacidade de otimizar seu consumo em tempo real, podendo futuramente participar mais ativamente da operação do sistema elétrico.
O projeto - primeiro BESS da empresa no Brasil - possui capacidade de 215 kWh e potência de 108 kW, com estimativa de economia entre 15% e 20% na conta de energia. Mais do que os números, o caso evidencia o papel do armazenamento como elemento central da infraestrutura predial, capaz de transformar o consumo em variável gerenciável e estratégica.
A leitura conjunta das duas entrevistas revela um ponto fundamental: a automação predial no Brasil evolui em duas frentes complementares. De um lado, a normatização garante segurança, confiabilidade e interoperabilidade em um ambiente cada vez mais
complexo. De outro, a inovação tecnológica amplia o papel dos edifícios, integrando-os a um ecossistema energético digitalizado e descentralizado.
Nesse novo cenário, o BMS deixa de ser apenas um sistema de controle para se tornar uma plataforma de inteligência operacional e energética. A integração com IoT, analytics, computação em nuvem e gêmeos digitais amplia a capacidade de monitoramento e otimização, enquanto a conexão com geração distribuída e armazenamento posiciona o edifício como agente ativo no sistema elétrico.
A tendência é clara: edifícios inteligentes não serão apenas mais eficientes, serão infraestruturas críticas na transição energética. E, nesse processo, a automação predial deixa de ser uma camada técnica invisível para assumir um papel estratégico na engenharia, na regulação e no futuro das cidades.
Esse tipo de arquitetura projeta o edifício como um recurso energético distribuído (DER), capaz de interagir com a rede elétrica de forma dinâmica. A automação predial passa, assim, a desempenhar papel estratégico como camada de inteligência, viabilizando controle em tempo real, resposta a sinais tarifários e potencial participação em mercados de flexibilidade.
Esse movimento ganha relevância adicional com a abertura do mercado livre de energia no Brasil, ampliando a necessidade de ferramentas capazes de gerenciar exposição a preços, demanda contratada e perfis de consumo. Nesse contexto, BMS integrados a geração e armazenamento tornam-se instrumentos-chave para estratégias de arbitragem energética e otimização de custos.
A convergência entre automação, IoT, analytics e computação em nuvem amplia ainda mais esse papel, transformando o BMS em uma plataforma de inteligência operacional e energética. A tendência é clara: edifícios inteligentes deixam de ser apenas mais eficientes e passam a atuar como infraestruturas críticas na transição energética.

Wiper Malware em Sistemas
OT/ICS: Riscos e
Estratégias de Mitigação para Infraestruturas Críticas
Guilherme Neves, CISO da DoutorNet Tecnologia

Os ataques cibernéticos destrutivos, como o wiper malware reivindicado pelo grupo Handala Hack Team – ligado à inteligência iraniana –, contra a Stryker em março de 2026, destacam vulnerabilidades em ambientes OT/ICS. O incidente comprometeu sistemas de manufatura, logística e a plataforma LIFENET (EMS), resultando em inter-
rupções operacionais em hospitais na Irlanda e EUA. Embora sem impactos diretos em pacientes, gerou perdas milionárias por hora em downtime, reforçando o perfil assimétrico desses vetores: não buscam resgate, mas unavailability permanente como arma geopolítica.
Wipers, exemplificados pelo Shamoon na Saudi
Aramco (2012), apagam dados irremediavelmente, explorando obsolescência em PLCs, HMIs e RTUs. Em ICS/SCADA, onde loops de controle operam em tempo real, o risco transcende o digital: falhas em integridade podem escalar para eventos físicos, como overflows em tanques ou desligamentos indevidos em válvulas e bombas.
Riscos Específicos em OT/ICS
1. Downtime Prolongado e Custos Operacionais:
Corrupção de firmware em controladores lógicos programáveis (PLCs) e interfaces homem-máquina (HMIs) eleva o RTO além de 48 horas sem backups air-gapped (regra 3-2-1). Setores como óleo & gás, utilities e manufatura enfrentam perdas superiores a R$ 1 milhão/ hora, incluindo cadeia de suprimentos e sanções regulatórias (ANP, ANEEL).
2. Vetores de Propagação e Escalada Física:
Account takeover via credenciais válidas (phishing AI-driven), USBs infectados e CVEs do Known Exploited Vulnerabilities (KEV) em fornecedores como Siemens e Rockwell. Conectividade híbrida (air-gaps falhos) e ciclos CVE acelerados (disclosed -> exploited em dias) amplificam a ameaça.
3. Contexto Geopolítico:
Handala intensificou ondas de ataques pós-conflito EUA-Israel-Irã (fevereiro/2026), combinando wipers com DDoS. Pessoas permanecem o elo fraco: treinamentos pontuais são insuficientes; capacitação contínua é essencial.
Mitigações Alinhadas a Normas Técnicas
Adotando ISA/IEC 62443 e NIST 800-82, priorize hardening multicamadas:
• Físico: Bloqueadores de portas USB/rede e gabinetes trancados para acesso não autorizado.
• Lógico: Patch de firmware em switches/PLCs (regulares ou críticos), firewalls zona-based (Purdue Model) e forwarding de logs PLC para SIEM/Syslog.
• Endpoint: AV em estações OT e troca de credenciais default.
• Resiliência: Backups off-line testados trimestralmente.
Playbook de Resposta:
1. Detecção via SIEM (anomalias em logs PLC).
2. Contenção por segmentação IT/OT.
3. Recuperação com validação de integridade.

Essas práticas elevam OT/ICS para resiliência estratégica, convertendo cyber em ativo de governança.
Na DoutorNet Tecnologia, promovemos awareness via Curso Gratuito ‘Strategic Cybersecurity Pre-MBA’ (08/04/2026)
Antecipe-se: audite endpoints OT e valide backups. Cyber warfare define o #1 risco de unavailability industrial.

Controle baseado em PC para o ZIN in Noord, o maior complexo de edifícios de Bruxelas
Stefan Ziegler, Gerente Editorial de Relações Públicas, Beckhoff Automation
Na automação inteligente de edifícios, integra-se todos os sistemas técnicos para aumentar a eficiência e a sustentabilidade
O campus da ZIN in Noord tem restaurantes, escritórios e espaços comerciais, mais de 120 apartamentos e um hotel com 240 quartos: um verdadeiro centro urbano para viver e trabalhar. A VMA, especialista em sistemas e tecnologias multitécnicas, utilizou a abertura e a capacidade de desempenho da tecnologia de controle baseado em PC da Beckhoff para a automação desse edifício altamente eficiente e projetado de forma sustentável.
O ambicioso projeto de
modernização representa uma nova maneira de trabalhar, agregada a várias outras funções de forma inovadora. Em 31 andares, o edifício ZIN in Noord, com 128 m de altura, compreende 70.000 m² de espaço para escritórios (dos quais o governo de Flandres usa 55.000 m²), cerca de 5.000 m² de espaços de trabalho de coworking, além de 127 apartamentos, um hotel com 240 quartos e um estacionamento público com 1.200 vagas para carros e bicicletas. Outros
Projeto sustentável e controle climático
O objetivo é que o edifício seja operado de forma sustentável sempre que possível. “Sendo investidoras, as autoridades de Flandres estipularam que o consumo de energia deve diminuir a cada ano”, explica Pascal Kinoo, gerente de vendas de gerenciamento de edifícios inteligentes e sustentáveis da VMA. Uma fachada inteligente garante o conforto
de forma eficiente em termos de energia. Os painéis solares na parte externa fornecem energia e proteção contra o sol ao mesmo tempo.
O controle inteligente das janelas também contribui para uma operação eficiente em termos de energia: as janelas controladas automaticamente permitem a entrada de ar fresco durante o
elementos do campus são: áreas públicas com espaços para prática de esportes e lazer, lojas de varejo, cafés e restaurantes, além de um átrio de vidro de vários andares. Além de suas dimensões extraordinárias, o projeto também estabelece uma referência em termos de economia circular: duas torres de escritórios da década de 1970 foram completamente destruídas, reutilizadas o máximo possível e suas rotas de circulação foram mantidas.
dia e possibilitam o resfriamento natural à noite. Se a luz se apagar em um cômodo, as janelas podem ser configuradas para se fechar automaticamente. A luz nos corredores está ligada ao sistema de controle do elevador, o que significa que ela só é ligada pouco antes de a porta do elevador se abrir. Os telhados do edifício e o átrio também são equipados
com painéis solares. O calor e o frio para controle climático são gerados por um sistema geotérmico que cobre mais de 60% da necessidade de energia. “Para combinar e controlar todas essas funções de forma eficiente, é essencial um sistema de ge -
renciamento de edifícios em que todos os sistemas técnicos estejam integrados”, explica Pascal Kinoo.
Com isso em mente, a integradora de sistemas, VMA, localizada em Sint-Martens-Latem e especializada em economia de energia, geren-
ciamento de fluxo de energia e automação predial, implementou seu sistema de gerenciamento predial (BMS ou building management system, na sigla em inglês) Vmanager e integrou todos os componentes relevantes da tecnologia predial.
Sistemas técnicos consolidados em uma única plataforma
Como especialista multitécnica, a VMA foi responsável por aproximadamente 95% de todo o equipamento técnico instalado no ZIN in Noord: HVAC, iluminação, eletricidade, encanamento e tecnologia de proteção contra incêndio. Todos os sistemas foram integrados ao BMS. “Não foi uma tarefa fácil, considerando o tamanho do projeto”, lembra Dirk Stradiot, desenvolvedor de software da VMA. Ele recebeu a tarefa de integrar perfeitamente todos os sis -
temas ao Vmanager. Por fim, graças à abertura e à capacidade de desempenho do controle baseado em PC da Beckhoff, a VMA conseguiu implementar todos os requisitos.
“Para esse projeto grande e muito abrangente, precisávamos de um parceiro com muita experiência em automação predial que pudesse dar suporte às diversas interfaces e protocolos de várias áreas. Além disso, a plataforma de controle aberta nos permite programar todas as
funções de forma eficiente”, diz Dirk Stradiot, explicando a decisão em favor do controle baseado em PC da Beckhoff. As diferentes formas de uso do edifício e os requisitos de programação resultantes criaram uma complexidade adicional. Dirk Stradiot lidou com isso empregando uma abordagem incomum para esse projeto: “Nos projetos habituais, todas as configurações são programadas, mas no ZIN in Noord, o usuário ainda pode ajustar vários parâmetros.”
Interfaces consolidadas em embedded PCs e acopladores
Além dos embedded PCs CX5230 como o coração do sistema de automação predial, os acopladores de rede TCP/IP BK9050 foram integrados para coletar vários sinais. “Esse método simples, que pode ser conectado via Ethernet e é particularmente confiável, raramente é usado na automação predial, mas reduziu o custo e o tempo de instalação de muitos componentes”, explica Ronny Noynaert, que trabalha em vendas na Beckhoff da Bélgica.
De acordo com o tamanho do projeto, as quantidades envolvidas são grandes: 69 Embedded PCs CX5230 com diferentes configurações de E/S e 120 acopladores de rede TCP/IP BK9050 registram os dados dos vários subsistemas e controlam os diferentes componentes. As estações apresentam um total de 765 terminais de rede DALI/DALI-2 (KL6821), 82 terminais de rede KNX/ EIB (KL6301), 278 interfaces
de comunicação de 1 canal para controle de persianas (KL6831 e KL6841) e 139 interfaces de comunicação de 1 canal (KL6041). A VMA usa os módulos de sinalização de entrada digital de 16 canais KL8519 e os módulos de saída digital de 8 canais KL8528 como o nível de operação e exibição no local, nas salas técnicas. Para poder trabalhar de forma independente durante o planejamento e a programação, a tecnologia foi
dividida. “A iluminação, e tudo o que tem um impacto direto na experiência do usuário dos hóspedes do hotel e da equipe de escritório, foi separada da tecnologia HVAC, que é mais lenta”, explica Dirk Stradiot. Com o TwinCAT como plataforma de engenharia, a VMA foi capaz de programar todas as funções, inclusive as de natureza sofisticada. Pascal Kinoo cita como exemplo a iluminação do estacionamento. “A iluminação geralmente é reduzida e só é ajustada para 100% quando os sensores de movimento detectam veículos ou pessoas em uma determinada área.” Essa medida, por si só, economiza muita energia. Trabalho em equipe além das fronteiras da empresa Além do controle baseado em PC, Dirk Stradiot cita a cooperação construtiva com o escritório de engenharia VK Engineering e o restante da equipe do projeto como outro fator para o sucesso do projeto. “Todos trabalharam de forma muito pragmática para encontrar a melhor solução para o edifício. Quando surgiam problemas, buscava-se uma solução em conjunto com a equipe muito competente da Beckhoff, e ninguém ficava apontando o dedo para ninguém. Além disso, com uma instalação convencional, teríamos precisado de dez vezes mais espaço para a instalação elétrica.” Todos os dados são transferidos
para o Vmanager como o sistema de monitoramento central via OPC UA. Isso dá aos técnicos uma visão geral de todas as informações do edifício para que eles possam intervir até o nível do componente, se necessário. “O OPC UA também facilita a comunicação entre o hardware/software da Beckhoff e o nosso software”, explica Pascal Kinoo.
No ZIN in Noord, todas as áreas agora são visualizadas no Vmanager graças à combinação da experiência da VMA com a tecnolo -
gia de controle baseado em PC da Beckhoff. O teste de aceitação do sistema completo de automação predial foi realizado no final de janeiro de 2025, um ano após a mudança dos primeiros usuários. Considerando o tamanho do projeto e a complexidade da instalação e do controle, houve pouquíssimos tickets de falha, que foram mais do que compensados por todo o feedback positivo. Pascal Kinoo comenta: “É maravilhoso ver como tudo funciona e se encaixa.”

Vida e trabalho sustentáveis sob o mesmo teto: o ZIN in Noord tem cerca de 55.000 m² de espaço para escritórios, 127 apartamentos, 240 quartos de hotel, além de cafés e restaurantes e instalações de esportes, lazer e varejo para criar um centro urbano.

Várias dezenas de embedded PCs CX5230 e mais de 120 acopladores TCP/IP BK9050 registram todas as informações dos subsistemas de HVAC, encanamento, eletricidade, iluminação, sombra e proteção contra incêndio.

O controle inteligente de iluminação economiza cerca de 66% de energia.

Medidas como o controle automático de janelas e sombreamento apoiam a redução anual do consumo de energia estipulada pelo governo de Flandres como proprietário.
©PhilippevanGelooven

©PhilippevanGelooven
O equipamento técnico é operado no local por meio dos módulos de sinalização de entrada KL8519 e dos módulos de saída KL8528 (digital) e KL8548 (analógico).

Como especialista em multitecnologia, a VMA foi responsável por cerca de 95% da tecnologia predial na ZIN em Noord, liderada por (da esquerda para a direita) Dirk Stradiot, engenheiro de software, e Pascal Kinoo, gerente de vendas de automação predial inteligente e sustentável (ambos da VMA), e apoiada por Ronny Noynaert (vendas da Beckhoff Bélgica).



A materialização das tecnologias emergentes na disrupção estrutural da automação de processos
Adriano Marcelo Corteze, Marketing Nova Smar S/A
Octávio Paschoal, R&D Nova Smar S/A
Victor Teixeira C. Halfeld, R&D Nova Smar S/A
O setor industrial global atravessa atualmente uma série de transformações, marcada pela transição de arquiteturas de controle proprietárias e monolíticas para sistemas abertos, interoperáveis e definidos por software. No centro dessa metamorfose encontra-se o Open Process Automation Standard (O-PAS), uma iniciativa que não apenas desafia as normas estabelecidas há mais de cinco décadas, mas propõe uma redefinição da infraestrutura operacional das indústrias de processo. Este relatório analisa o enquadramento estratégico do O-PAS, sua implementação prática em campo, o dinamismo do ecossistema de fornecedores, os mecanismos de governança e faz, fundamentalmente, uma avaliação crítica sobre a natureza dessa evolução.
Enquadramento Estratégico: A Superação do Modelo de Purdue e o Fim do Lock-in
Desde a década de 1970, a automação industrial tem sido regida pelo Modelo de Purdue, uma hierarquia rígida que isola as funções de controle em camadas, muitas vezes proprietárias, resultando no fenômeno conhecido como “vendor lock-in” ou aprisionamento tecnológico. Nesse cenário, o proprietário do ativo torna-se dependente de um único fornecedor para hardware, software e serviços de manutenção, o
que limita a inovação e eleva os custos de ciclo de vida. O O-PAS surge como uma resposta estratégica a essas ineficiências, capitaneado pelo Open Process Automation Forum (OPAF), uma divisão do The Open Group que hoje conta com mais de 100 empresas membros, incluindo gigantes como ExxonMobil, Saudi Aramco, Shell e Petrobras, entre outras.
A visão estratégica do O-PAS é fundamentada na

criação de um “padrão de padrões”, aproveitando tecnologias existentes como OPC UA para conectividade, IEC 61131-3 e IEC 61499 para lógica de controle e ISA/IEC 62443 para segurança cibernética. O objetivo central é
permitir o desenvolvimento de sistemas “ajustados ao propósito”, compostos por elementos funcionais coesos adquiridos de fornecedores independentes e integrados de forma modular. Esta abordagem rompe a barreira que
impedia a reutilização de aplicações de controle entre diferentes sistemas, reduzindo a complexidade das atualizações e permitindo a infusão ágil de novas tecnologias, como inteligência artificial e computação de borda.
Evolução e Cronograma de Desenvolvimento do Padrão
O desenvolvimento do padrão O-PAS tem sido um processo interativo, focado em camadas progressivas de funcionalidade. Atualmente o padrão atingiu uma maturidade que permite a certificação de produtos reais e a
execução de testes de interoperabilidade em larga escala. O trabalho do OPAF, subdividido em seus grupos de trabalho, vem desenvolvendo a norma O-PAS baseada em versões, cada qual abordando uma série de requisi-
tos, de maneira a se chegar num status de maturidade suficiente para emprego em plantas reais. As versões da norma já lançadas ou em vias de serem liberadas com seus escopos podem ser vistas no quadro abaixo.

A transição para a Versão 3.0 é particularmente significativa, pois introduz a capacidade de mover aplicações inteiras entre diferentes sis -
temas, baseada na orquestração ou gerenciamento de sistemas, independentemente do fornecedor de hardware, garantindo que o
software de controle tenha uma vida útil que pode ultrapassar 30 anos, mesmo que o hardware subjacente seja substituído periodicamente.
Arquitetura de Referência e o Conceito de Nó de Controle
A inovação estrutural mais profunda do O-PAS é o achatamento da pirâmide de automação tradicional. Ao eliminar a hierarquia rígida de Purdue, o O-PAS garante que os dados estejam disponíveis para qualquer usuário ou aplicação com o mínimo de
overhead. O componente central desta nova arquitetura é o Nó de Controle Distribuído (DCN), que atua como o dispositivo de borda, executando as funções de controle.
Um DCN pode ser um dispositivo físico ou virtual, variando em tamanho e
capacidade computacional. O que o diferencia de um PLC ou controlador de DCS tradicional é o desacoplamento entre o software de controle e a plataforma de hardware. Essa separação permite a intercambiabilidade: se um DCN falhar, ele pode ser substituído por
outro componente certificado de outro fornecedor, e a mesma aplicação de controle pode ser baixada e colocada em operação imediatamente.

Comparação de Densidade e Redundância na Arquitetura DCN
Diferente dos controladores tradicionais que frequentemente gerenciam centenas ou milhares de pontos de E/S, o O-PAS oferece flexibilidade na densi-
dade de pontos por nó, o que impacta diretamente a disponibilidade do sistema. Isto quer dizer que o mesmo componente (DCN) pode ser utilizado desde um con-
junto de poucos controles simples até grandes quantidades de controle complexos, limitando-se apenas à capacidade computacional deste DCN.

O suporte para redundância 1:N é uma característica transformadora do O-PAS. Em vez de exigir um hardware idêntico em standby para cada controlador ativo, uma única plataforma de computação de alta
disponibilidade pode servir como backup para múltiplos nós de computação ou E/S, otimizando os custos de hardware e espaço físico nos gabinetes. Além disso, o uso de sistemas operacionais baseados em Linux e
Realidade de Campo: Pilotos, Testbeds e Resultados de Custo Total de Propriedade (TCO)
A migração do O-PAS de uma especificação técnica
para uma realidade industrial é evidenciada por pro -
tecnologias de orquestração permite atualizações e correções de segurança (patching) sem a necessidade de reboots ou interrupções no processo, um avanço crítico para a continuidade operacional.
jetos de campo e testbeds operados pelas maiores em-
presas do setor. A ExxonMobil tem sido um dos usuários finais mais avançados no processo, avançando de um testbed inicial para testes de campo em processos reais de planta. Estes resultados
têm movimentado a comunidade com outras grandes empresas participantes planejando a ampliação de seus sistemas (como Reliance na Índia e Petronas na Malásia), além da própria Petro -
Resultados de Custo e Eficiência Operacional
Um estudo realizado pela integradora Wood PLC (EUA) – disponível na sessão “Common Questions” aqui - demonstrou que a imple -
mentação de arquiteturas baseadas em OPA (Open Process Automation) pode reduzir o TCO em até 53%, redução esta impulsiona-
bras iniciando projeto para aplicação real de validação da tecnologia. Estes pilotos não visam apenas testar a funcionalidade, mas validar a viabilidade econômica do modelo aberto.
da por diversos fatores que vão além do custo inicial de aquisição do hardware:
• Redução de CAPEX: A capacidade de utilizar componentes COTS (Commercial Off-the-Shelf) e a competição entre fornecedores de hardware reduzem os preços pagos por dispositivos proprietários;
• Otimização de OPEX: O desacoplamento hardware/software permite atualizações de tecnologia de computação em ciclos de 5-7 anos sem a necessidade de migrações de software caros e arriscados, que tradicionalmente ocorrem a cada 20 anos;
• Manutenção e Obsolescência: A facilidade de substituição de componentes individuais e a gestão de obsolescência granular evitam as interrupções catastróficas associadas ao fim do suporte de sistemas legados inteiros;
• Atualizações sem paradas: a característica portátil e modular das aplicações O-PAS permite que atualizações de componentes sejam feitas na infraestrutura de plantas sem paradas, pois pode-se manter o sistema em funcionamento apenas alterando o DCN responsável pela aplicação.
Estratégias de Migração e Aprendizado Gradual
A realidade de campo mostra que o O-PAS não exige uma abordagem de “tudo ou nada”. Pelo contrário, a recomendação para usuários finais tem sido a migração de pequenas unidades ou PLCs
Ecossistema de
isolados para ganhar experiência operacional. Essa abordagem modular permite que as equipes de automação se requalifiquem e ajustem seus processos de suporte sem os riscos de uma migra-
ção de larga escala imediata. Projetos iniciais têm focado em escalas de 100 a 10.000 pontos de E/S para provar a estabilidade dos sistemas antes da aplicação em plantas de 100.000 pontos ou mais.
Fornecedores: A Dança entre Gigantes e Entrantes
O ecossistema de fornecedores do O-PAS é composto por uma mistura dinâmica de fabricantes tradicionais de DCS, empresas de tecnologia de informação (TI), especialistas em comunicações industriais e
empresas integradoras de sistemas. Esta diversidade é essencial para o sucesso do padrão, mas também cria tensões competitivas significativas.
A heterogeneidade dos papéis dentro da arquitetu-
ra O-PAS demonstra que a abertura de mercado não é apenas uma tendência, mas uma necessidade para a inovação. O padrão reduz as barreiras de entrada, permitindo que fornecedores de hardware, software ou ser-
viços contribuam independentemente. Nesse cenário, o Integrador de Sistemas as -
sume um papel central, atuando como o orquestrador capaz de unificar compo -
nentes de múltiplos vendedores através das interfaces padronizadas pela norma.

Governança e o Programa de Certificação
A governança do O-PAS é exercida pelo The Open Group, garantindo que o padrão permaneça neutro e independente de qualquer fornecedor específico. O programa de certificação é um dos pilares que sustenta a confiança do usuário final, assegurando que os produ-
tos realmente entreguem a interoperabilidade prometida. Outro pilar essencial, e até mais importante que a certificação num primeiro momento, é constituído pelos testes de interoperabilidade (ou IOPs). Tais testes acontecem semestralmente e buscam colocar frente a
Estrutura de Conformidade e Perfis de Certificação
frente os desenvolvedores de soluções O-PAS, com objetivo de testar a real interoperabilidade de suas aplicações, o que contribui para aumentar o leque de sistemas testados e a detecção de melhorias a serem realizadas.
A certificação é baseada em “Perfis”, que são conjuntos lógicos de requisitos de conformidade para funções específicas do sistema. Cada produto deve passar por verificação em laboratórios independentes reconhecidos (Recognized Verification Labs) antes de receber o selo O-PAS. Alguns dos perfis presentes na norma são:

Em agosto de 2024, o programa ISASecure foi selecionado como o provedor
exclusivo para verificação de requisitos de segurança cibernética no O-PAS, in-
tegrando a certificação ISA/ IEC 62443 diretamente no fluxo de conformidade do
padrão. Esta decisão estratégica simplifica o processo para os fornecedores e
aumenta a garantia para os usuários finais de que os sistemas multi-vendor não
possuem brechas de segurança críticas.
O-PAS em Sinergia com MTP e NOA: A Trindade da Indústria 4.0
Um dos pontos de maior dúvida estratégica para os gestores de automação é como o O-PAS se relaciona com o Module Type Package (MTP) e a NAMUR Open Architecture (NOA). Embora muitas vezes vistos como competidores, na verdade eles formam um ecossistema complementar para a viabilidade futura da indústria de processos.
• Module Type Package (MTP): Foca na modularização de unidades de processo (Package Units). Ele fornece uma descrição funcional e agnóstica de hardware para que um módulo (ex: uma centrífuga) possa ser integrado rapidamente a um sistema de orquestração superior (POL - Process Orchestration Layer). O MTP reduz o esforço de engenharia em até 70% e o tempo de lançamento no mercado em 50%. O O-PAS pode servir como a infraestrutura de controle onde esses módulos MTP são conectados e orquestrados;
• NAMUR Open Architecture (NOA): Resolve o problema dos “dados parados” (stranded data) em sistemas legados. O NOA cria um segundo canal de dados seguro para monitoramento e otimização (M+O) sem interferir no controle de processo central. O O-PAS, por ser intrinsecamente aberto, facilita a implementação do NOA ao fornecer uma infraestrutura que já suporta nativamente o acesso a dados de diagnóstico e manutenção em larga escala.
Enquanto o MTP foca na “Plug & Produce” para modularidade física e o NOA
foca na extração de dados para análises avançadas, o O-PAS foca na abertura da
Salto Estrutural de Arquiteturas de Automação: A Democratização da Inovação
O objetivo central do O-PAS é ser o catalisador necessário para
que a indústria de processos aproveite as tecnologias digitais modernas.
própria arquitetura de controle central, substituindo o DCS proprietário.
O salto estrutural manifesta-se em:
1. Ciclos de Inovação Independentes: Permite que a inovação em software (ex: novos algoritmos de IA para controle preditivo) não seja limitada pelos ciclos de hardware de 20 anos dos fornecedores de DCS;
2. Eficiência de Capital: Reduz o TCO, permitindo que os orçamentos de capital sejam focados em melhorias de processo em vez de simples substituições de hardware obsoleto “por hardware novo do mesmo tipo”;
3. Segurança Intrínseca: Ao adotar o modelo “secure by design” e a norma ISA/IEC 62443 desde a fundação, o O-PAS oferece uma postura de segurança muito mais robusta do que sistemas legados que dependiam apenas de “air gaps” físicos;
4. Diagnóstico Superior (Redfish): Diferente dos sistemas legados, onde cada fornecedor tem logs proprietários, o O-PAS utiliza o padrão DMTF Redfish para gerenciamento de hardware. Isso significa que o diagnóstico é unificado: o orquestrador recebe o mesmo tipo de alerta de DCNs de qualquer fabricante, permitindo uma visibilidade sistêmica que os sistemas fechados jamais tiveram;
5. Anti Lock-in: Ao se basear em padrões globais massivamente adotados pela indústria
de TI e Automação, o O-PAS elimina o risco de criar um “lock-in” de complexidade. A implementação não exige “mágica”, exige apenas aderência a normas que engenheiros de automação ou administradores de sistemas devam conhecer;
6. Orquestração como Redutor de Custo: A complexidade da integração manual é mitigada pela Orquestração. O O-PAS permite o deploy de software e configuração de hardware de forma automatizada (similar ao Kubernetes em TI). O que antes exigia “equipes enormes”, agora é gerido por software, permitindo que a equipe de engenharia foque em otimização de processo, e não em “passar cabos” ou configurar endereços IP manualmente.
Justificativa Financeira para o CFO: Além dos Bits e Bytes
Para que o O-PAS saia dos testbeds de engenharia e entre no orçamento corporativo, os líderes de automação devem tra-
duzir os benefícios técnicos para a linguagem financeira que o CFO (Chief Financial Office) compreende, uma vez que atualmente a pressão por ROI (Retorno sobre Investimento) em conformidade e resiliência nunca foi tão alta.

A “Precisão da Previsão” (Forecast Accuracy) também é beneficiada, pois a modularidade do O-PAS permi-
te uma escalabilidade mais linear do que os sistemas tradicionais, onde a adição de novos pontos de contro -
le frequentemente exigia a compra de controladores inteiros subutilizados ou expansões de rack caras.
Olhando para o Futuro: os desafios do O-PAS como tecnologia definitiva
Sistemas de automação industrial existem há cerca de cinco décadas, com evolução tecnológica contínua cada vez mais acelerada. No entanto, o mercado industrial é conservador, o que, inclusive, levou à caracterização de sistemas como é atualmente: busca-se robustez e continuidade operacional, mesmo que em detrimento da adoção de tecnologias mais completas, otimizadas e modernas.
A busca de padronização é um requisito sempre presente do usuário final, de maneira a se conseguir tomar o controle de sua planta industrial, o que de certa forma já foi conseguido com o desenvolvimento de protocolos de comunicação de campo (fieldbuses, etc) e integração de sistemas (OPC). Esta padronização, no entanto, é perdida quando o fluxo de informação barra na camada de controle, prote -
gida por hardware e software proprietários, onde apenas uma pequena camada de integração padronizada é disponibilizada. Um dos lemas da tecnologia O-PAS é justamente prover uma arquitetura de automação de processos aberta, segura e interoperável.
No entanto, como outras tecnologias de automação que surgiram trazendo inúmeros benefícios aos usuários, mas que mesmo assim
perderam força na adoção, o O-PAS tem seus desafios
para se consolidar como tecnologia definitiva a ser en-
contrada em plantas industriais mundo afora:
1. Consolidação da norma: O O-PAS baseia-se nos chamados atributos de qualidade, uma série de “desejos” que um usuário de sistema de automação de processos gostaria de ter disponível em seu sistema, como: segurança, modularidade, portabilidade, intercambialidade, etc. O padrão O-PAS vem reunindo as normas mais consolidades no mercado para cada um destes atributos, de forma a ser “o padrão dos padrões”, mas que ainda se encontra em desenvolvimento para alguns deles. A liberação da versão 3.0 da norma deverá fechar alguns destes requisitos faltantes, consolidando-se em aspectos ainda não visíveis pela comunidade;
2. Participação de mercado: o fórum responsável pelas discussões acerca do padrão ainda conta com poucos desenvolvedores de solução, independente de qual seja (hardware, software, serviço). A maior participação de grandes empresas de automação, centros de desenvolvimentos de software e academia poderá acelerar a conclusão da norma e maior desenvolvimento de soluções. No mesmo sentido, a maior presença de usuários finais deverá funcionar como incentivo para desenvolvedores investirem na tecnologia, colocando-a como mandatória em seus projetos;
3. Consciência e capacitação técnica de equipes: com o tema de convergência TI/TO, Indústria 4.0 e digitalização, equipes de engenharia têm visualizado seus sistemas “fora da caixinha” do CLP/DCS, e tendo mais conhecimentos das tais tecnologias emergentes, mas de maneira isolada. A continuidade desta capacitação, com consciência de união de força entre tais tecnologias vai aumentar o interesse dos usuários finais na adoção do padrão;
4. Divulgação: mesmo com a quantidade de notícias e trabalhos sobre o tema sendo divulgados (e na velocidade que o são), verifica-se ainda uma falta de conhecimento dos usuários finais sobre o O-PAS, não apenas nos temas mais intrínsecos, mas também no básico que a tecnologia pode habilitar. Desta maneira, os participantes do OPAF (fabricantes e usuários finais) já vêm se esforçando para disseminar os conceitos e resultados esperados (e porque não obtidos) na adoção do O-PAS.
Conclusões e Recomendações Estratégicas
O O-PAS não é apenas um novo padrão técnico, é um novo modelo de negócios para a automação industrial. Em 2026, ele se posiciona como uma resposta robusta ao estancamento tecnológico causado por décadas de hegemonia proprietária. No entanto, sua implementação exige uma mudança cultural e organizacional profunda.
A conclusão deste relatório é que o O-PAS representa um salto estrutural indispensável, mas que traz consigo alguns desafios já enfrentados por qualquer tecnologia
disruptiva inserida no ambiente de automação industrial. O benefício da interoperabilidade e da redução de TCO é real e mensurável, mas ele exige que o usuário final assuma um papel mais ativo na governança técnica de seus sistemas. O risco de complexidade só se torna uma armadilha se a empresa tentar tratar o O-PAS com a mesma mentalidade de “comprar e esquecer” aplicada aos DCS tradicionais. Em última análise, o sucesso do O-PAS num futuro próximo dependerá da ca-
pacidade do ecossistema de fornecedores de simplificar a experiência do usuário final, provendo ferramentas de orquestração e diagnóstico que gerenciem a complexidade intrínseca de um sistema aberto. Para as indústrias que buscam liderança na era da Inteligência Artificial e da sustentabilidade operacional, o risco da complexidade controlada do O-PAS é significativamente menor do que o risco da estagnação garantida dos sistemas fechados.



Resumo
Automação e redução de perdas em redes de abastecimento: Comparação entre modelos convencionais e soluções contemporâneas baseadas em IoT e Machine
Learning
Yan dos Santos Silva, Graduando em Tecnologia de Automação Industrial na Faculdade Senai de Tecnologia de Santos
Fabrício Ramos da Fonseca, Coordenador de Atividade Técnica e Pedagógica do Senai de Santos
Humberto de Sousa Megda, Professor de Educação Superior na Faculdade SENAI de Tecnologia de Santos
A redução de perdas físicas em sistemas de abastecimento de água é um desafio global que impacta a sustentabilidade e a eficiência hídrica. Historicamente, a setorização e a automação do controle de pressão utilizando válvulas redutoras de pressão (VRPs) e sistemas de supervisão tem composto a arquitetura de automação empregada para mitigação destas perdas. A eficácia desse modelo é solidamente documentada, destacando-se a experiência da SABESP nesta área, que culminou em expressivos índices de redu-
ção de perdas hídricas dos sistemas de abastecimento que controla. O atual cenário possibilitado pelo avanço tecnológico abriu caminho para uma nova geração de ferramentas que podem apoiar ainda mais nesta tarefa: redes de sensores envolvendo Internet das Coisas (IoT), para coleta massiva de dados das redes de abastecimento e algoritmos de Machine Learning, capazes de refinar a detecção e a localização preditiva de vazamentos com maior precisão e rapidez estão dentre estas ferramentas. Este artigo ex-
põe uma análise comparativa contrastando a arquitetura, as metodologias e os resultados alcançados pelo modelo consagrado empregado pela SABESP com as inovações possibilitadas pelo uso de tecnologias envolvendo a Inteligência Artificial das Coisas (AIoT). O cerne da pesquisa reside em avaliar o incremento de eficiência operacional e a otimização de custos proporcionados pela sinergia entre essas tecnologias. Propõe-se, ainda, um roteiro metodológico experimental detalhado, visando validar e quantificar
os ganhos esperados com a implementação dessas soluções contemporâneas, apre -
sentando uma alternativa mais vantajosa para aplicações em que a estabilidade
operacional e a redução do impacto ambiental são prioritárias.
Palavras-chave: Redução de Perdas de Água, IoT, Machine Learning (ML), Válvula Redutora de Pressão (VRP).
1. Introdução
A gestão eficiente dos recursos hídricos consolidou-se como um dos desafios mais críticos para a engenharia moderna, pressionada pelo crescimento urbano acelerado e pela necessidade urgente de sustentabilidade operacional (TUNDISI, 2008). No Brasil, o índice de perdas na distribuição de água tratada historicamente representa um gargalo financeiro e ambiental para as companhias de saneamento, exigindo soluções que vão além da simples manutenção corretiva de vazamentos visíveis. Segundo o Diagnóstico do Sistema Nacional de Informações sobre Saneamento, as perdas na distribuição ainda alcançam patamares elevados, o que reforça a urgência de melhorias na gestão de ativos e infraestrutura (SNIS, 2023).
Durante décadas, a resposta da engenharia para esse problema baseou-se na setorização física das redes e no controle hidráulico de pressão. A estratégia consistia em dividir a cidade em distritos de medição (DMCs) e utilizar válvulas para estabilizar a força da água nas tubulações, reduzindo o estresse na rede e, conse -
quentemente, os índices de ruptura (TSUTIYA, 2006). Esse modelo, robusto e eficaz, formou a base do combate às perdas em grandes metrópoles, alinhando-se às melhores práticas recomendadas internacionalmente pela International Water Association (FARLEY; TROW, 2003).
É nesse contexto de busca por eficiência que se insere o cenário da Baixada Santista, região que protagonizou importantes avanços na infraestrutura de saneamento. Para compreender o salto tecnológico que vivenciamos hoje com a Indústria 4.0, é importante revisitar modelos que fundamentaram avanços na eficiência operacional na última década. Um marco técnico de destaque para essa análise é o registro das práticas adotadas pela SABESP na cidade de São Vicente, no estado de São Paulo, conforme documentado na tese de Fonseca (2011).
Essa tese documenta o projeto de setorização da cidade de São Vicente, com implantação de automação baseada em VRPs, Estações Redutoras de Pressão (ERPs), instrumentação e
sistemas de supervisão, integrados por meio do protocolo de comunicação de redes industriais Foundation Fieldbus. No trabalho, há relatos de redução das perdas na região da Baixada Santista: de índices acima de 40% (da água tratada produzida) antes da setorização, para cerca de 32% após as intervenções, com possibilidade de reduções ainda maiores com a difusão das soluções propostas. Esses números e a descrição detalhada do sistema implementado, envolvendo VRPs, estratégias de controle, e sistemas de supervisão para priorização de zonas de setorização estão descritos na tese.
Relatórios corporativos mais recentes da própria SABESP confirmam a atenção contínua a perdas, modernização e adoção de projetos de eficiência desde a década passada. Os documentos de sustentabilidade referentes aos anos de 2019 e 2020, por exemplo, detalham métricas de desempenho e iniciativas voltadas à Pesquisa, Desenvolvimento e Inovação (P&D+I), reafirmando o compromisso com a redução de índices de perdas (SABESP, 2020).
2. Revisão Bibliográfica e estado da arte
2.1. Fundamentos do Controle de Perdas: O Legado da Setorização
A análise da literatura técnica e dos relatórios operacionais, com destaque para a tese de Fonseca (2011) e os relatórios de sustentabilidade da SABESP (2020), permite consolidar lições históricas fundamentais para o controle de sistemas de abastecimento. A estratégia central validada para a redução de perdas reside na combinação da setorização física das redes hídricas (criação de DMCs -
Distritos de Medição e Controle) com o controle ativo de pressão através de Válvulas Redutoras de Pressão (VRPs) e boosters: sistemas de recalque controlado de água presentes nas redes de abastecimento.
Historicamente, a instrumentação e a automação desempenharam o papel de permitir o controle dinâmico dessas zonas. A implementação de bandas mortas e set-points variáveis (pres -
2.2. Tecnologias Contemporâneas (2015–2024)
Na última década, observou-se um salto tecnológico impulsionado pela redução
de custos em sensores e pelo aumento da conectividade. Soluções contemporâneas
são versus horário) possibilitou reduzir vazamentos sem a necessidade de substituições massivas d tubulações. Além disso, o monitoramento contínuo e o compartilhamento de dados — via Centros de Controle Operacional (CCO) — mostraram-se importantes para o diagnóstico e a priorização de ações de manutenção em campo (FONSECA, 2011).
expandem o modelo tradicional através de quatro eixos principais:
• AIoT e Monitoramento Distribuído: A fusão de Inteligência Artificial com Internet das Coisas (AIoT) permitiu a criação de frameworks de gestão baseados em coleta de dados em malha. A telemetria avançada, integrando contadores e sensores acústicos distribuídos, tem sido aplicada em diversas cidades globais e brasileiras. Estudos recentes indicam que a integração de IoT a plataformas de Operação e Manutenção (O&M) gera ganhos operacionais expressivos, superando as limitações da telemetria passiva tradicional (SHIM et al., 2022).
• Machine Learning (ML) e Deep Learning (DL): Revisões sistemáticas da literatura apontam que técnicas baseadas em aprendizado de máquina — como Redes Neurais Artificiais (ANN), Support Vector Machines (SVM) e redes profundas — elevaram a precisão na detecção de anomalias. Diferente dos métodos estáticos, essas arquiteturas conseguem classificar eventos complexos, distinguindo com maior acurácia o que é um vazamento real de ruídos operacionais, utilizando séries temporais de pressão e sinais acústicos (ROMERO-BEN et al., 2023).
• Detecção Hidroacústica Urbana: Estudos de campo e revisões mostram que sensores acústicos/hidrofones instalados em redes urbanas — inclusive em experimentos realizados em Hong Kong — foram combinados com modelos de machine learning para distinguir sinais de vazamento de ruído de fundo e localizar falhas (Bakhtawar & Zayed, 2021; Bakhtawar et al., 2024; Fares et al., 2023; Abdul-Mugis et al., 2023). Essa combinação provou-se viável para identificar e geolocalizar vazamentos em áreas onde a inspeção física é difícil, demonstrando a aplicabilidade prática da tecnologia em cenários complexos.
• Gestão Avançada de Pressão (APM): A otimização hidráulica evoluiu com o uso de algoritmos genéticos e modelos computacionais (como o EPANET). Trabalhos recentes focam
na otimização da localização e do ajuste dinâmico de VRPs, minimizando vazamentos atra- vés de simulações preditivas que antecipam o comportamento da rede (GARCÍA-ÁVILA et al., 2019).
2.3. Análise Comparativa: Modelo Tradicional versus Soluções Inteligentes
Para compreender o avanço proposto, é útil comparar o modelo base, documentado por Fonseca (2011), com as soluções emergentes de IoT e ML descritas na literatura recente.
O modelo tradicional foca na automação de zonas pitométricas via VRPs com instrumentação digital robusta (como o protocolo Foundation Fieldbus) e supervisão centralizada. Sua detecção de anomalias depende fundamentalmente
de medições macrométricas (pressão média, vazão de entrada) e inspeção ativa humana. É uma abordagem eficaz para controle de pressão sistêmica e identificação de grandes vazamentos, como comprovado pelos resultados em São Vicente.
Em contraste, as soluções contemporâneas complementam esse cenário com sensores de alta frequência e processamento na borda (edge computing) ou nuvem. A principal distinção
2.4. Ganhos Esperados e Integração
reside na precisão e no tempo de resposta. Enquanto o modelo clássico reage a alterações macrométricas, o sistema IoT + ML é capaz de detectar padrões sutis de pressão e ruído, permitindo a identificação precoce de microvazamentos e rupturas incipientes (ROMERO-BEN et al., 2023). Essa granularidade reduz drasticamente o tempo entre a ocorrência e o reparo, mitigando o volume total perdido.

A integração dessas tecnologias propõe um modelo de ganhos cumulativos:
• Ganhos Físicos (base): A manutenção da setorização e do controle via VRPs garante a redução consistente de perdas em larga escala, atacando o desperdício estrutural.
• Ganhos de Inteligência (adicional): A adição da camada de IoT/ML proporciona a redução de perdas residuais. Evidências de campo sugerem que a detecção precoce e a otimização ativa podem gerar reduções adicionais significativas (estimadas entre 20% a 40% em cenários ideais) dependendo da topografia e densidade de sensores (SHIM et al., 2022; GARCÍA-ÁVILA et al., 2019). Além disso, há um ganho direto em eficiência energética ao otimizar o bombeamento baseado em demanda real prevista por algoritmos.
Para ilustrar a arquitetura dessa solução híbrida proposta, a Figura 1 apresenta o diagrama de blocos e o fluxograma de processos de um sistema integrado.
3. Metodologia
Este trabalho caracteriza-se como uma pesquisa aplicada, pois visa gerar conhecimento voltado à solução prática de um problema real: a redução de perdas hídricas em redes de abastecimento. A abordagem é mista combinando análise
documental e bibliográfica (qualitativa) e experimentação e simulação computacional (quantitativa).
A pesquisa propõe um método comparativo e experimental, no qual se confronta o modelo tradicional de automação aplicado pela
SABESP — fundamentado em válvulas redutoras de pressão (VRPs) e supervisão centralizada — com uma proposta moderna que integra tecnologias de Internet das Coisas (IoT) e Machine Learning (ML).
A metodologia foi estruturada em seis etapas principais, conforme o Quadro 1.

3.1. Delineamento das Etapas do Modelo
A etapa experimental busca demonstrar como a integração de sensores IoT e algoritmos de aprendizado de máquina pode otimizar a operação de VRPs e detectar vazamentos precoces. O experimento proposto será desenvolvido em ambiente simulado (ou em zona-piloto de abastecimento, quando aplicável), seguindo as etapas abaixo:
1 Definição do ambiente de estudo: seleciona-se uma zona pitométrica previamente setorizada pela SABESP, dotada de uma válvula redutora de pressão e pontos de medição de vazão e pressão.
2 Instrumentação adicional: instalam-se sensores de pressão (alta frequência) e sensores acústicos para coleta de dados contínuos. Os sensores se comunicam via LoRaWAN ou NB-IoT com um gateway de borda conectado à nuvem.
3 Aquisição e tratamento de dados: os dados de pressão, ruído e vazão são coletados durante um período mínimo de 60 dias, contemplando regimes normais e eventos simulados de vazamento. As leituras são armazenadas em um banco de dados para posterior análise.
4 Simulação hidráulica: o modelo hidráulico da rede é construído no software EPANET, permitindo reproduzir as variações de pressão, demandas e localização dos vazamentos.
5 Modelagem com Machine Learning: os dados coletados são tratados e utilizados para treinar algoritmos supervisionados (ex.: Random Forest, XGBoost ou Redes Neurais Artificiais), com o objetivo de classificar padrões de anomalia.
A acurácia e o tempo de resposta do modelo são avaliados e comparados com o sistema tradicional (sem IoT/ML).
3.2. Ferramentas e Instrumentos do Estudo

6 Integração e análise de desempenho: são avaliados os ganhos potenciais da automação inteligente sobre o sistema tradicional, considerando indicadores de perdas, tempo de detecção e custo de operação. Quadro 2 – Ferramentas utilizadas no estudo. Fonte: Desenvolvido pelo Autor.
Ao longo do estudo se faz necessário a instalação e testes com protótipos de sensores, instrumentos de medição direta e indireta,
telemetria com o uso de plataforma de comunicação e sistemas de linguagem a fim de parametrizar o sistema de controle, tornando-o cada vez mais inteligente e eficaz. Para este fim, faz-se uso de uma lista de equipamentos e sistemas destacados no quadro 2.
4. Resultados esperados do modelo e indicadores de desempenho
A validação do modelo proposto fundamenta-se na análise comparativa entre o cenário base (modelo atual da SABESP) e o cenário au-
tomatizado com IoT e Machine Learning. Para mensurar a eficácia da solução, foram definidos cinco indicadores-chave de desempenho (KPIs) que serão monitorados e correlacionados com as variáveis operacionais de pressão e vazão:
• Perdas Reais (%): Mensura o volume de água não contabilizado em relação ao total distribuído, sendo o principal indicador de eficiência física da rede.
• Tempo Médio de Detecção (h): Avalia a agilidade do sistema, contabilizando o intervalo cronológico entre o início da ocorrência (vazamento) e sua identificação efetiva pelo algoritmo.
• Índice de Falsos Positivos (%): Monitora a precisão do modelo de Inteligência Artificial, quantificando a porcentagem de alarmes incorretos gerados em relação ao total de notificações.
• Custo Operacional Relativo (R$/m³): Analisa a viabilidade econômica, estabelecendo a relação entre o investimento na tecnologia/reparos e o volume de água recuperado.
• Eficiência Energética (%): Verifica o impacto da otimização hidráulica no consumo de energia elétrica por metro cúbico bombeado.
A análise quantitativa desses indicadores permitirá determinar
não apenas a viabilidade técnica, mas também o retorno sobre o investimen-
5. Conclusões Preliminares
A abordagem metodológica proposta neste estudo busca integrar o conhecimento consolidado de engenharia hidráulica clássica com as ferramentas emergentes de análise de dados e Inteligência Artificial. O objetivo central é o de avaliar a viabilidade técnica e operacional de um paradigma de “automação inteligente” aplicado à redes de abastecimento de água.
A análise comparativa ratifica que a setorização física e o controle ativo de pressão — operacionalizado através de Válvulas Redutoras de Pressão (VRPs) — constituem a base infraestrutural indispensável para qualquer gestão eficiente. O estudo de caso da SABESP na cidade de São Vicente-SP, documentado por Fonseca (2011), confirma a robustez desse modelo, cujos resul-
to (ROI) da modernização proposta.
tados na redução de perdas físicas são referendados amplamente por estudos referenciados.
Contudo, conclui-se que o desafio contemporâneo não reside na substituição desse modelo consagrado, mas em sua convergência com as inovações da Indústria 4.0. A sobreposição de tecnologias de AIoT sobre a infraestrutura existente eleva a gestão a um novo
patamar de desempenho, destacando-se dois ganhos principais, a seguir.
A detecção preditiva e a redução do tempo médio para reparo (MTTR), uma vez que a aplicação de algoritmos de ML sobre dados acústicos e de vazão em tempo real viabiliza a detecção de microvazamentos e rupturas incipientes. Esses eventos, muitas vezes invisíveis aos métodos tradicionais ou perceptíveis apenas tardiamente por um aumento da Vazão Mínima Noturna (MNF), passam a ser identificados precocemente. Isso reduz o volume total de água perdida e minimiza drasticamente o –MTTR.
Referências
Ainda, a otimização dinâmica e a estabilidade dos sistemas, possibilitados pela evolução do controle convencional para o controle assistido por IA, permite que o setpoint de pressão seja ajustado dinamicamente com parâmetros baseados em análises mais complexas. Diferente das VRPs estáticas, o sistema inteligente responde a variáveis preditivas (consumo previsto, sazonalidade e anomalias), garantindo a estabilidade hidráulica, a redução do estresse mecânico nas tubulações e, consequentemente, o prolongamento da vida útil da rede.
Deduz-se, portanto, que
uma via promissora para o aumento da eficiência operacional dos sistemas de abastecimento hídrico encontra-se na sinergia entre a robustez física dos DMCs/ VRPs e a inteligência viabilizada pela AIoT. A proposição do projeto-piloto aqui delineado visa não apenas validar empiricamente o ganho marginal de eficiência — focando na redução das perdas residuais para níveis próximos às Perdas Reais Inevitáveis (UARL) — mas também quantificar o impacto positivo dessa otimização dinâmica nos custos operacionais (OPEX) e na eficiência energética do sistema.
BAKHTAWAR, B. et al. AIoT-Driven Leak Detection in Real Water Networks Using Hydroacoustic Data. Water, v. 16, n. 3, 2024.
COMPANHIA DE SANEAMENTO BÁSICO DO ESTADO DE SÃO PAULO (SABESP). Relatório de Sustentabilidade 2019. São Paulo: Sabesp, 2020. Disponível em: https://ri.sabesp.com.br. Acesso em: dez. 2025.
FARLEY, M.; TROW, S. Losses in Water Distribution Networks: A Practitioner’s Guide to Assessment, Monitoring and Control. London: IWA Publishing, 2003.
FONSECA, F. R. da. Modelo de Sistema de Automação Aplicado à Setorização de Redes de Abastecimento Hídrico. 2011. Tese (Doutorado em Engenharia) – Escola Politécnica, Universidade de São Paulo, São Paulo, 2011.
GARCÍA-ÁVILA, F. et al. Pressure management for leakage reduction using PRVs. Water, v. 11, n. 8, p. 1698, 2019.
ROMERO-BEN, L. et al. Leak detection and localization in water distribution networks: A review. Science of The Total Environment, v. 858, p. 159981, 2023.
SABESP. Relatório de Sustentabilidade 2020. São Paulo: Companhia de Saneamento Básico do Estado de São Paulo, 2021. Disponível em: https://ri.sabesp.com.br. Acesso em: dez. 2024.
SHIM, K. et al. Smart Water Solutions for the Operation and Management. Water, v. 14, n. 21, 2022. SINOX. Estação Redutora de Pressão de Água. Disponível em: https://sinox.com.br/produto/estacao-redutora-pressao-agua/. Acesso em: 04 dez. 2025.
SNIS. SISTEMA NACIONAL DE INFORMAÇÕES SOBRE SANEAMENTO. Diagnóstico dos Serviços de Água e Esgotos – 2022. Brasília: Ministério das Cidades, 2023. Disponível em: http://www.snis.gov.br. Acesso em: dez. 2024.
TSUTIYA, M. T. Abastecimento de água. 3. ed. São Paulo: Departamento de Engenharia Hidráulica e Sanitária da Escola Politécnica da Universidade de São Paulo, 2006.
TUNDISI, J. G. Recursos hídricos no futuro: problemas e soluções. Estudos Avançados, São Paulo, v. 22, n. 63, p. 7-16, 2008.

Cogeração: eficiência energética e resposta concreta à agenda do clima
Leonardo
Caio, diretor
de Tecnologia e Regulação da Associação da Indústria de Cogeração de Energia (Cogen).
Em um cenário global pressionado simultaneamente pela escalada da demanda por energia, pela volatilidade dos preços e pela urgência climática, poucas soluções reúnem tantos atributos positivos quanto a cogeração. Não por acaso, o mercado mundial de equipamentos do setor vive um momento de forte expansão. Segundo estudo recém-divulgado pela Research and Markets, consultoria global sediada em Dublin, na Irlanda, o movimento da geração cresceu de US$ 29,6 bilhões em 2024 para US$ 32,5 bilhões em 2025, com taxa anual próxima de 10%. Montante deverá alcançar US$ 49 bilhões até 2029. Trata-se de uma resposta estrutural a desafios centrais da transição energética.
A cogeração parte de um princípio simples e poderoso: com um único combustível é possível fornecer mais de um tipo de energia, como a elétrica, térmica e gás de processo. Ao elevar significativamente a eficiência dos sistemas, reduz perdas, diminui custos operacionais e
proporciona mais resiliência ao setor elétrico, contribuindo para evitar apagões e diminuir emissões de carbono. Em um cenário de consumo energético crescente, esse ganho de eficiência deixa de ser apenas desejável e passa a ser estratégico.
O estudo da Research and Markets mostra que o avanço da cogeração está diretamente associado à busca por eficiência energética, retorno sobre investimento e atendimento a regulações ambientais cada vez mais rigorosas. No horizonte à frente, entram em cena outros vetores igualmente relevantes: integração com fontes renováveis, sistemas descentralizados de energia, digitalização e uso de tecnologias inteligentes. Não é coincidência que grandes grupos industriais estejam apostando em soluções capazes de operar com gás natural, biomassa e biogás, combinando confiabilidade operacional com redução progressiva da pegada de carbono.
Esse movimento revela mudanças importantes no debate climático. A transi-
ção energética não se fará apenas com a expansão da oferta renovável centralizada, mas também com soluções que aumentem a eficiência do sistema como um todo, aproximem geração e consumo e reduzam a pressão sobre redes e investimentos em infraestrutura. A cogeração ocupa exatamente esse espaço, reforçando a segurança do suprimento, reduzindo riscos sistêmicos e entregando resultados ambientais mensuráveis no curto prazo.
O caso brasileiro ilustra bem esse potencial. Dados da Cogen (Associação da Indústria de Cogeração de Energia) mostram que o modelo, em especial a partir da cogeração com biomassa, cresce em importância na matriz elétrica nacional. Em 2025, a capacidade instalada de biomassa alcançou cerca de 18,7 GW, dos quais aproximadamente 70% têm origem no bagaço de cana-de-açúcar. Outras fontes relevantes incluem licor negro (21%), madeira (6%), biogás (2%) e outras biomassas (1%). Trata-se de uma fonte

energética fortemente associada à atividade industrial e ao agronegócio, com elevado grau de previsibilidade e baixo impacto ambiental.
A evolução ao longo das últimas duas décadas foi expressiva. Em 2005, a capacidade instalada de biomassa era cerca de 5 GW. Desde então, o crescimento foi contínuo, impulsionado principalmente pela cogeração no setor sucroenergético. Além de atender ao consumo interno, a biomassa contribui de maneira relevante para a exportação de energia elétrica, reforçando o papel da cogeração como segurança energética. Importante ter em conta que as exportações de energia
elétrica bateram recorde em 2025: foram de 28,8 TWh, ante o recorde anterior, que foi de 28,2TWh, em 2023.
Do ponto de vista regional, São Paulo lidera com folga, concentrando cerca de 7,9 GW de capacidade instalada, seguido por Mato Grosso do Sul (2,5 GW) e Minas Gerais (2,2 GW). Esse mapa reflete a integração virtuosa entre produção industrial, geração de energia e aproveitamento de resíduos, um modelo alinhado tanto à lógica econômica quanto às exigências da agenda climática.
Em um país com matriz elétrica majoritariamente renovável, a cogeração cumpre um papel ainda mais rele -
vante: aumenta a segurança energética do sistema, reduz a necessidade de despacho térmico fóssil em momentos críticos e contribui para a descarbonização de setores intensivos em energia.
O avanço global e a experiência brasileira mostram que a cogeração afirma-se como peça-chave para uma transição energética pragmática, que combina inovação, eficiência e resultados concretos. Em tempos de incerteza climática e pressão sobre os sistemas elétricos, soluções que entregam tudo isso ao mesmo tempo precisam estar sempre no centro das decisões de política energética e industrial.
Armazenamento de energia: peça-chave para um sistema elétrico mais eficiente e sustentável
IBS Energy

A transição energética global tem ampliado rapidamente a participação de fontes renováveis, como solar e eólica, na matriz elétrica. Embora essenciais para reduzir emissões e tornar o sistema mais sustentável, essas fontes apresentam um desafio estrutural: a intermitência da geração. Nesse cenário, o armazenamento de energia
ganha importância estratégica ao permitir que a eletricidade gerada em períodos de maior produção seja utilizada posteriormente, garantindo maior estabilidade e segurança ao sistema elétrico. Essa tecnologia possibilita armazenar energia gerada em momentos de pico — como durante o meio-dia, quando a geração solar é
mais intensa — e liberá-la quando a demanda aumenta ou a produção diminui. Com isso, o armazenamento contribui para equilibrar oferta e consumo e reduzir o chamado curtailment, situação em que usinas renováveis precisam interromper a produção por excesso de energia na rede. Segundo análises da Aurora Energy Research,

a adoção em larga escala de sistemas de baterias pode reduzir significativamente o desperdício de energia renovável em sistemas com alta penetração de solar e eólica, ampliando o aproveitamento da geração limpa.
O avanço dessas soluções já é observado globalmente. A Agência Internacional de Energia (IEA) aponta que a capacidade instalada de armazenamento de energia superou 270 GW no mundo em 2025, após a adição de mais de 100 GW em apenas um ano, refletindo o crescimento das energias renováveis e a necessidade de redes elétricas mais flexíveis e resilientes.
No Brasil, o tema também ganha relevância à medida que a matriz elétrica se diversifica. Embora o país tenha forte presença hidrelétrica, a rápida expansão da energia solar e eólica tem
provocado novos desafios operacionais, como momentos de excesso de geração renovável seguidos por períodos de aumento abrupto da demanda — fenômeno conhecido no setor como “curva do pato”. Nesse cenário, sistemas de armazenamento, especialmente baterias, surgem como infraestrutura essencial para absorver excedentes e liberar energia quando necessário, contribuindo para maior estabilidade da rede.
As projeções indicam um mercado em forte crescimento. Estimativas da BloombergNEF apontam que os investimentos globais em armazenamento de energia devem crescer de forma acelerada ao longo da próxima década, impulsionados pela expansão das renováveis e pela necessidade de maior flexibilidade do sistema elétrico. No Brasil, análises da
Associação Brasileira de Soluções de Armazenamento de Energia (ABSAE) indicam que o mercado de baterias pode movimentar cerca de R$ 77 bilhões até 2034, refletindo o avanço das tecnologias e a ampliação das aplicações no setor elétrico. Diante da crescente eletrificação da economia e da expansão das fontes limpas, o armazenamento de energia deixa de ser apenas uma solução complementar e passa a ocupar papel central na arquitetura do sistema elétrico do futuro. Ao permitir maior eficiência no uso da eletricidade, reduzir desperdícios e aumentar a resiliência das redes, essas tecnologias contribuem para construir um modelo energético mais inteligente, sustentável e preparado para os desafios da transição energética.
Escola Politécnica da Atitus lança novo modelo de formação direcionada por executivos do setor e disciplinas assinadas por empresas YOUTH

As profundas transformações tecnológicas, produtivas e sociais estão redefinindo o papel das engenharias, da arquitetura e da tecnologia no desenvolvimento econômico e na criação de soluções para os desafios do futuro. Nesse contexto, a Atitus apresenta o reposicionamento da sua Escola Politécni-
ca, com uma mudança estrutural na forma de pensar e operar os cursos de Engenharia Civil, Engenharia Mecânica, Engenharia de Produção, Arquitetura e Urbanismo e Ciência da Computação
Com cursos nos campi de Porto Alegre e Passo Fundo, municípios localizados em re -
YOUTH
giões com os maiores PIBs do Estado, a Escola Politécnica conta atualmente com mais de 700 estudantes. Com a remodelação, os cinco cursos superiores ganham tração e devem crescer em número de alunos.
O novo modelo de formação busca ampliar a conexão entre universidade e mercado, com foco em empregabilidade, empreendedorismo e desenvolvimento de soluções com impacto real no setor produtivo e na sociedade. “O mercado não busca apenas diplomas. Busca profissionais capazes de resolver problemas reais, com portfólio e experiência prática. A nova Escola Politécnica foi desenhada para formar profissionais que sabem fazer, entregar e evoluir continuamente”, afirma o diretor da Escola Politécnica da Atitus, João Henrique Corrêa de Souza


Segundo o presidente da Atitus, Eduardo Capellari, a iniciativa reforça a estratégia da instituição de aproximar a formação acadêmica das demandas do setor produtivo. “A Atitus carrega a inovação no DNA. Essa capacidade de fazer diferente é o que mantém nossa relevância e garante altos índices de empregabilidade. O reposicionamento da Escola Politécnica segue a mesma lógica aplicada na Escola do Agronegócio, fortalecendo a conexão entre formação e mercado”, destaca.
A nova Escola Politécnica assume papel de protagonismo frente aos desafios do Rio Grande do Sul. Em um contexto de reconstrução do Estado e de profundas transformações econômicas, climáticas e tecnológicas, formar engenheiros, arquitetos e urbanistas e profissionais de tecnologia prepara-
dos para atuar com impacto tornou-se uma necessidade estratégica para o desenvolvimento da região.
Um dos pilares do novo modelo é a ampliação da participação de empresas na vida acadêmica. Executivos e lideranças do setor produtivo passam a contribuir na construção do currículo, propor desafios reais e interagir com estudantes ao longo da graduação. A iniciativa ocorre por meio de um Programa de Parceiros, que já reúne empresas como Kuhn do Brasil, Metasa, SKA, Bruning Tecnometal, VDI Brasil, AltoQI, MC-Bauchemie,
AWS, Cisco e Oracle.
A Escola Politécnica também passa a contar com um Conselho Consultivo formado por lideranças da indústria, tecnologia, ciência aplicada e construção civil. Entre os integrantes confirmados estão Anderson Correia (presidente do IPT – Instituto de Pesquisas Tecnológicas); Jeferson Cheriegate (presidente do PIT – Parque de Inovação Tecnológica de São José dos Campos); Reno Schmidt (CEO da Bruning Tecnometal); Claudio Teitelbaum (presidente do Sinduscon/RS – Sindicato das Indústrias da Construção Civil); Susana

Kakuta (secretária de Desenvolvimento Econômico, Turismo e Eventos de Porto Alegre); Marco Colosio (executivo da General Motors
Brasil e diretor da SAE Brasil); e Joel Boaretto (diretor técnico do Instituto Hercílio Randon de Ciência e Tecnologia – IHR).
Parque de inovação da USP em Ribeirão Preto recebe 13 novas startups
O Supera Parque de Inovação e Tecnologia, fruto de um convênio entre a USP e a Prefeitura Municipal de Ribeirão Preto, realizou, no começo deste ano, o onboarding presencial de 13 startups selecionadas para o programa de incubação, iniciando a trajetória das empresas no ecossistema do Parque que reúne empreendedores e equipe técnica. O encontro marcou a integração das empresas selecionadas
ao ecossistema, com alinhamento estratégico e das diretrizes da incubadora.
O objetivo do evento foi fortalecer vínculos, estimular conexões iniciais e promover uma imersão direta no ambiente do parque. A agenda incluiu apresentações institucionais, orientações sobre o funcionamento da incubadora, uso da infraestrutura e atividades voltadas à interação entre as startups.
YOUTH


“O onboarding funciona como marco inicial do programa, no qual alinhamos expectativas e estabelecemos uma relação mais próxima com os empreendedores desde o primeiro contato”, destaca Milton Barros, coordenador de Desenvolvimento de Negócios do Supera Parque. “Esse momento é fundamental para que as startups compreendam a dinâmica da incubadora, conheçam a equipe de apoio e entendam como se integrar ao ecossistema ao longo do processo”.
Durante o encontro, os participantes também tiveram acesso a informações sobre os pilares do processo de incubação, que envolvem acompanhamento técnico, orientação estratégica e acesso à infraestrutura do parque. Dessa forma, buscou-se garantir que as startups iniciem essa etapa com clareza sobre responsabilidades, oportunidades e o papel que desempenharão ao longo da jornada de desenvolvimento.
Além do alinhamento institucional, o evento buscou incentivar a convivência entre startups com diferentes perfis e áreas de atuação, contribuindo para a formação de uma rede de apoio entre os empreendedores. “A troca de experiências entre startups em diferentes estágios ajuda a reduzir incertezas, compartilhar aprendizados e fortalecer um ambiente colaborativo”, explica o coordenador.
A partir do onboarding, as startups passam a integrar de forma efetiva a Incubadora do Supera, iniciando uma fase contínua de desenvolvimento. Nesse período, os empreendimentos são acompanhados pela equipe do parque, participam de atividades de capacitação e ampliam suas possibilidades de conexão, aprendizado e amadurecimento
Confira as novas startups:
YOUTH
dos projetos.
Ao estruturar esse percurso, o Supera Parque busca criar condições para que as startups amadureçam suas soluções, consolidem seus modelos de negócio e ampliem sua inserção no mercado, reforçando o papel do parque como ambiente de desenvolvimento tecnológico e empreendedor.
• Canabinote (Saúde /Tecnologia da Informação)
Plataforma para prescrição segura de cannabis medicinal, com base em estudos clínicos, definição de dosagens e monitoramento remoto de pacientes
• EmpoderaMente (Saúde / TI)
Aplicativo integrado para saúde universitária, reunindo agendamento, teleconsulta, prontuário digital, pagamentos e gestão de atendimentos
• Folha de Louro (Impacto Ambiental / TI)
Plataforma digital de certificação de carbono que conecta produtores rurais ao mercado de créditos de carbono, promovendo rastreabilidade e sustentabilidade
• Gluck Health (Saúde / Biotecnologia)
Desenvolve tecnologia para extração de glucanas de cogumelos, voltada à criação de prebióticos e nutracêuticos para a saúde intestinal
• Iatrix (Gestão / TI)
Software de gestão para oficinas mecânicas e concessionárias, com controle integrado de estoque, finanças e agendamentos
• Inovare Soluções (Gestão / TI)
Solução que conecta instituições bancárias a sistemas ERP (Enterprise Resource Planning) por meio de login único, automatizando pagamentos, conciliações e relatórios financeiros
• LicitarMais (Govtech / TI)
Plataforma baseada em inteligência artificial para geração automática de documentos licitatórios, otimizando processos de compras públicas
• Lola Vet Health (Saúde Animal / TI)
Plataforma de cuidados veterinários com monitoramento em tempo real, voltada à otimização de tratamentos e acompanhamento clínico
• Milo IA (Automação / TI)
Copiloto de automação que cria fluxos visuais a partir de comandos em linguagem natural, facilitando a implementação de processos automatizados
• OrganoSync (Saúde/Biotecnologia)
Atua com medicina personalizada para o tratamento do câncer, utilizando organoides do próprio paciente para testar terapias de forma individualizada
• PBF Nutrientes (Agronegócio / Biotecnologia)
Desenvolve nanofertilizantes à base de Carbon Dots, que aumentam a eficiência da fotossíntese e reduzem o estresse das plantas
• Prometeus (Impacto Ambiental / Agro / TI)
Consultoria em agrogenômica voltada à regeneração de solos e à substituição de insumos
químicos por soluções biotecnológicas no agronegócio
• Steps Tecnologia (Saúde / TI)
Plataforma para fisioterapia baseada em evidências científicas, com planos personalizados, tratamento remoto e aplicativo de adesão do paciente
Jovem Aprendiz: por que investir na formação de talentos desde cedo virou estratégia de negócio

Celebrado em 24 de abril, o Dia Mundial do Jovem Aprendiz consolida uma mudança relevante no mercado de trabalho brasileiro: a aprendizagem profissional deixou de ser apenas um instrumento de inclusão social para se afirmar como uma estratégia estruturante de formação de talentos e de produtividade empresarial. Regulamentado pela Lei da Aprendizagem (Lei nº 10.097/2000), o programa estabelece que empresas de médio e grande porte destinem entre 5% e 15% de suas vagas a jovens de 14 a 24 anos, combinando formação teórica e prática em ambiente corporativo.
Nos últimos anos, os dados oficiais indi-
cam uma expansão consistente dessa política pública. Segundo o Ministério do Trabalho e Emprego, o país atingiu em 2025 um recorde histórico de mais de 715 mil jovens aprendizes ativos, com saldo positivo de mais de 118 mil novas contratações no período. No primeiro semestre do mesmo ano, foram quase 70 mil novos vínculos, crescimento de 18,6% em relação a 2024. Para o governo, a aprendizagem se consolidou como “a principal porta de entrada para o primeiro emprego”, ao integrar experiência prática e qualificação profissional.
Esse avanço tem impacto direto na estrutura produtiva — especialmente na indús -
tria. Dados do próprio governo mostram que o setor industrial lidera a geração de vagas de aprendizagem, com mais de 42 mil novos contratos em 2025, enquanto iniciativas como as do Serviço Nacional de Aprendizagem Industrial ofertaram mais de 53 mil vagas no segundo semestre do ano, em áreas como eletromecânica, logística, TI e manufatura avançada. Na prática, isso significa que o programa vem sendo incorporado como mecanismo de formação técnica alinhada às demandas reais da indústria, reduzindo gaps históricos de qualificação e antecipando a preparação de mão de obra para setores intensivos em tecnologia.
Na avaliação do governo federal, esse movimento reflete uma mudança estrutural no papel da aprendizagem. Como destacou o Ministério do Trabalho, o crescimento do programa resulta de um esforço coordenado para “retomar a centralidade da aprendizagem profissional” e atender simultaneamente às necessidades das empresas e dos jovens. Já o ministro do Trabalho, Luiz Marinho, reforçou em 2025 que a alta adesão evidencia que os jovens buscam inserção formal, desde que associada a condições adequadas de trabalho e desenvolvimento profissional.
Do ponto de vista empresarial, o impacto vai além do cumprimento regulatório. A taxa de efetivação de aprendizes gira em torno de 47%, com níveis de permanência próximos a 94% durante o programa, indicando que a aprendizagem se tornou um pipeline relevante de recrutamento e retenção. Para a indústria, isso representa uma vantagem competitiva clara: formar profissionais desde a base, alinhados à cultura organizacional e às necessidades operacionais, reduz custos de contratação e acelera o tempo de adaptação.
Além disso, estudos de longo prazo apontam que a participação no programa aumenta a probabilidade de inserção formal e renda
futura, reforçando seu papel como política de desenvolvimento econômico e social. Em um contexto de transformação digital e escassez de mão de obra qualificada, especialmente em áreas técnicas e industriais, o Jovem Aprendiz passa a operar como um elo estratégico entre educação, produtividade e inovação.
Em síntese, o programa evolui de política pública de inclusão para um instrumento de política industrial e de gestão de talentos. Ao estruturar a entrada de jovens no mercado com formação orientada à prática, o Brasil avança na construção de uma base de capital humano mais qualificada, elemento crítico para sustentar a competitividade da indústria e da economia como um todo nos próximos anos.

Honeypots, cloud e inteligência do atacante: quando um projeto acadêmico vira laboratório real de ameaças


Um projeto recente desenvolvido na George Mason University evidencia uma mudança importante na forma como a cibersegurança está sendo estudada e aplicada: a transição de ambientes puramente teóricos para experimentos que interagem diretamente com atacantes reais. A iniciativa, conduzida por estudantes de engenharia de cibersegurança, consistiu na criação de um honeypot customizado em ambiente de nuvem — um sistema deliberadamente vulnerável projetado para atrair hackers e observar seu comportamento em tempo real.
O projeto, liderado pelo estudante Kevin Landry , demonstrou na prática como infraestruturas aparentemente simples podem se tornar alvos imediatos quando expostas à internet. Ao implantar o honeypot em um ambiente cloud, a equipe conseguiu atrair tentativas reais de intrusão, cap -
turando dados valiosos sobre técnicas, padrões de ataque e vetores utilizados por agentes maliciosos.
Do ponto de vista técnico, o uso de honeypots não é novo. No entanto, o diferencial desse experimento está na sua integração com ambientes modernos de computação em nuvem e na observação direta de ataques em escala real. Em vez de simular cenários, o sistema operou como um ponto ativo na superfície global da internet, recebendo tráfego malicioso autêntico. Isso permitiu aos estudantes identificar,
Da
teoria à operação
A principal contribuição do projeto está na sua capacidade de aproximar o ensino da realidade operacional. Ao observar ataques reais, os estudantes passam a compreender não apenas “como defender”, mas “como o ataque realmente acontece”. Essa mudança de perspectiva é essencial em um cenário onde os ataques são cada vez mais automatizados, as ferramentas ofensivas são ampla-
por exemplo, tentativas automatizadas de acesso (brute force), exploração de serviços expostos, varreduras sistemáticas em busca de vulnerabilidades, uso de scripts e ferramentas padrão de ataque.
Essa abordagem evidencia um aspecto crítico da cibersegurança contemporânea: a automação do ataque. Sistemas expostos são rapidamente identificados por bots que operam continuamente na internet, reduzindo o tempo entre exposição e tentativa de comprometimento a poucos minutos.
mente disponíveis e a superfície de ataque cresce com a adoção de cloud e IoT. O experimento revelou, por exemplo, que muitos ataques não são altamente sofisticados, mas sim baseados em escala e repetição. Isso reforça a importância de controles básicos — como autenticação forte, segmentação e hardening — que continuam sendo negligenciados em muitos ambientes.
Implicações para ambientes industriais e OT
Embora o projeto tenha sido conduzido em ambiente de TI/cloud, suas implicações para sistemas industriais são diretas. A crescente convergência entre IT e OT — especialmente em arquiteturas com acesso remoto, IIoT e controle baseado em IP — faz com que PLCs, DCS e sistemas SCADA passem a compartilhar características com sistemas expostos na internet.
Na prática, isso significa que controladores
industriais podem ser descobertos por varreduras automatizadas, interfaces de engenharia podem ser alvo de brute force e serviços mal configurados podem ser explorados rapidamente.
O comportamento observado no honeypot reflete exatamente o que já vem sendo registrado em ataques reais a infraestrutura crítica: exploração oportunista, automatizada e contínua.
Honeypots como ferramenta estratégica de defesa
Outro ponto relevante é o reposicionamento do honeypot dentro das estratégias de cibersegurança. Tradicionalmente visto
como ferramenta de pesquisa, ele passou a ser utilizado como componente ativo de defesa, permitindo detecção precoce de
YOUTH

ataques, coleta de inteligência sobre ameaças, análise de comportamento adversário e validação de controles de segurança.
Em ambientes industriais, essa aborda-
gem pode ser particularmente valiosa para monitorar redes OT sem interferir na operação real.
Observar o atacante para antecipar o ataque
O projeto da George Mason University reforça uma tendência clara: a cibersegurança eficaz depende cada vez mais da capacidade de compreender o comportamento do atacante em condições reais. Mais do que uma iniciativa acadêmica, o experimento evidencia mudança de paradigmas e mostra que defesa deixa de ser apenas reativa, passando a ser baseada
em inteligência observacional e se aproximando da dinâmica real do ataque.
Ou seja, em um ambiente onde sistemas são continuamente sondados por atacantes automatizados, a melhor forma de se defender pode ser, paradoxalmente, tornar-se visível, mas de forma controlada, para aprender com cada tentativa de invasão.
Honeypots no Brasil: da pesquisa acadêmica à inteligência para sistemas industriais


A utilização de honeypots como ferramenta de observação de ameaças não é exclusiva de centros internacionais. No Brasil, há um conjunto relevante de iniciativas acadêmicas e institucionais que operam como verdadeiros laboratórios de cibersegurança em tempo real, com potencial aplicação direta em ambientes industriais e de infraestrutura crítica.
Um dos exemplos mais consolidados é o projeto do CERT.br, que mantém uma rede distribuída de sensores (honeypots) para monitoramento contínuo de atividades maliciosas na internet brasileira. Esses sistemas permitem capturar tentativas de exploração, mapear vetores de ataque e gerar inteligência aplicada à resposta a incidentes, funcionando como um observatório nacional de ameaças.
No ambiente acadêmico, iniciativas mais recentes indicam alinhamento com tendências globais de cloud e IoT. Na Universidade Federal de Uberlândia, um projeto experimental implementou um honeypot em nuvem voltado à simulação de dispositivos conectados, evidenciando que sistemas expostos são rapidamente identificados por varreduras automatizadas e passam a receber tentativas reais de intrusão em curto intervalo de tempo.
Outra linha de trabalho envolve o uso de
Estatísticas de tráfego malicioso observado nos honeypots do Projeto Honeypots Distribuídos, mantido pelo CERT.br com atualização diária
inteligência artificial para aumentar a capacidade de interação dos honeypots. Estudos conduzidos em instituições como o Instituto Federal do Espírito Santo exploram modelos capazes de simular comportamentos de sistemas reais, elevando o nível de engajamento com atacantes e permitindo coleta mais rica de dados sobre técnicas e ferramentas utilizadas.
Já no campo de arquitetura e validação tecnológica, pesquisas no Instituto Federal do Rio Grande do Sul analisaram diferentes implementações de honeynets (como T-Pot), comparando sua eficácia na detecção de intrusões e na observação de comportamento adversário em redes simuladas.
Em um nível mais estratégico, iniciativas como as da UFMG – Universidade Federal de Minas Gerais – que passou a sediar o Instituto Nacional de Ciência e Tecnologia em Inteligência Artificial para Cibersegurança (INCT-IACiber), voltado à pesquisa científica de ponta, formação de recursos humanos e inovação em IA e cibersegurança - apontam para a consolidação de um ecossistema nacional de pesquisa em cibersegurança com foco em inteligência artificial e proteção de infraestruturas críticas — um movimento essencial diante da crescente convergência entre IT e OT.
Novo padrão avalia a soberania digital dos serviços em nuvem

A divisão de TI do Grupo Schwarz colocou no mercado seu Padrão Europeu de Soberania Digital (ES³) com estrutura projetada para fornecer às empresas dos setores industrial, PMEs e regulamentados uma base objetiva para avaliar a soberania digital de serviços em nuvem e serviços de TI. Ela se baseia na Estrutura de Soberania Digital em Nuvem (CSF) da Comissão Europeia e torna a avaliação mensurável por meio de um modelo concreto de maturidade e auditorias externas.
O modelo de maturidade da ES³ define quatro níveis de maturidade em soberania digital: no nível “Inicial”, há uma forte dependência de fornecedores externos, os processos são reativos e a estratégia corporativa carece de um entendimento padronizado de soberania digital; no “Gerenciado”, as dependências digitais são documentadas e planos de contingência iniciais estão em
vigor; no nível “Avançado”, a soberania está ancorada como um objetivo estratégico dentro da empresa e alternativas testadas ou caminhos de migração claros estão disponíveis para todos os serviços críticos; e no nível “À prova de futuro”, há ampla autonomia digital - os processos principais utilizam uma infraestrutura segura e controlada, padrões abertos e componentes de código aberto. Há imunidade genuína contra acesso externo.
O modelo examina as oito dimensões do Quadro de Soberania da Nuvem da UE: soberania estratégica, aspectos legais e jurisdicionais, dados e IA, independência operacional, cadeia de suprimentos, tecnologia, segurança e conformidade, e sustentabilidade ambiental. Cada dimensão é avaliada em três níveis: regulatório (contratos e SLAs), organizacional (processos) e tecnológico (implementação concreta).

Um princípio fundamental da norma é o princípio do mínimo: a classificação geral corresponde sempre ao nível mais baixo alcançado em todas as dimensões – o elo mais fraco determina a avaliação e a empresa de auditoria BDO deve verificar os resultados de forma independente. O seu CEO, Parwäz Rafiqpoor , descreveu o modelo como uma “base prática e independente para o fortalecimento da soberania digital na Europa”.
Em comparação com o Quadro de Soberania da Nuvem (CSF) da UE, que define oito objetivos de soberania com níveis SEAL de 0 a 4, o ES³ vai além em vários aspectos: além da dimensão adicional de IA, o modelo oferece maior detalhamento com três níveis de avaliação por dimensão. Enquanto o CSF se concentra principalmente em licitações
públicas e fornece uma pontuação de soberania ponderada, a Schwarz Digits busca atrair empresas industriais e PMEs com o ES³.
O padrão também inclui uma ferramenta de pré-vendas chamada ES³ Lens, que analisa o nível de maturidade. Com base nessa análise, a Stackit, provedora de nuvem da Schwarz Digits, recomenda soluções adequadas. Os serviços dos parceiros também podem receber selos de soberania, que visam tornar visível seu nível de soberania verificado. O co-CEO Rolf Schumann explicou: “Estamos traduzindo a necessidade de soberania digital em padrões mensuráveis para empresas da indústria, PMEs e setores regulamentados.”

PocketFab: manufatura enxuta de semicondutores testa novo modelo industrial no Brasil
A USP - Universidade de São Paulo inaugurou, no InovaUSP, uma unidade de fabricação de semicondutores que propõe uma ruptura relevante no modelo produtivo tradicional do setor. Denominada PocketFab, a iniciativa aposta em uma arquitetura compacta, modular e reconfigurável como alternativa às fábricas convencionais, intensivas em capital e voltadas à produção em larga escala.
Com cerca de 150 m² e investimento estimado em R$ 89 milhões, a unidade foi concebida para operar como uma infraestrutura intermediária entre pesquisa e produção industrial, cobrindo etapas que vão do design à validação de chips. A proposta responde a um desafio estrutural: o Brasil permanece fortemente dependente da importação de

semicondutores — componentes que lideraram os gastos do setor eletroeletrônico em 2025 — em um contexto de elevada concentração da produção global na Ásia.
“A fábrica modular de semicondutores da USP terá papel decisivo para o setor eletroeletrônico e para a reindustrialização do Brasil.”
afirmou o presidente da Abinee – Associação Brasileira da Indústria Elétrica e Eletrônica, Humberto Barbato.
A PocketFab emerge, portanto, como uma resposta industrial baseada não na escala, mas na flexibilidade. Seu modelo privilegia produção em lotes, adaptação rápida a diferentes aplicações e redução do tempo entre desenvolvimento e uso final. Com capacidade inicial de até 10 milhões de chips por ano, a estratégia prevê a replicação do conceito em múltiplas unidades, formando uma rede distribuída de produção conforme a demanda dos setores industriais.
O desenho institucional do projeto reforça essa orientação. A Universidade de São Paulo concentra as atividades de desenvolvimento e design dos semicondutores, enquanto o Senai-SP atua na validação tecnológica, integração aos sistemas produtivos e aplicação industrial. A FIESP participa como articuladora junto à base industrial, contribuindo para alinhar o projeto às demandas concretas do mercado.
Nesse arranjo, a Abinee exerce um papel central ao estruturar a interface entre oferta tecnológica e demanda industrial. A entidade atua no mapeamento de necessidades setoriais, na priorização de aplicações e na validação econômica dos componentes a serem desenvolvidos, reduzindo o risco de desalinhamento entre pesquisa e mercado - um dos principais entraves históricos à inovação no país.
“A cooperação entre o setor industrial e a academia é o caminho mais eficaz para
ampliar a independência tecnológica,” disse Barbato.
O portfólio inicial reflete essa lógica orientada à demanda. A produção deve atender, em uma primeira etapa, o setor automotivo — com chips voltados a sistemas avançados de assistência ao motorista (ADAS) — além de aplicações em automação industrial, manutenção preditiva e dispositivos médicos. Trata-se de uma estratégia deliberada de atuação em nichos de maior valor agregado, evitando a competição direta com grandes produtores globais.
Do ponto de vista tecnológico, a PocketFab se insere em uma tendência internacional de regionalização das cadeias de suprimento e de adoção de modelos produtivos mais distribuídos. A proposta de manufatura enxuta e modular dialoga com movimentos observados em diferentes países após as disrupções nas cadeias globais durante a pandemia, que evidenciaram a vulnerabilidade de setores dependentes de poucos polos produtores. Barbato reforçou essa ideia ao afirmar que alguns setores como o automotivo e o de data centers enfrentam oscilações no fornecimento devido à concentração da produção no leste asiático.
No plano institucional, o projeto também sinaliza uma mudança no papel da universidade no ecossistema de inovação. Segundo
a reitoria da USP, a iniciativa amplia a capacidade de resposta às demandas por inovação aplicada, reforçando a atuação da instituição como agente ativo no desenvolvimento tecnológico e industrial.
“A iniciativa amplia a capacidade de responder às demandas atuais por inovação aplicada,” afirmou Carlos Gilberto Carlotti Júnior, reitor da USP.
A visão de ruptura tecnológica é reforçada pela coordenação do projeto no InovaUSP, que destaca o caráter paradigmático da iniciativa ao propor uma nova lógica de fabricação de semicondutores, baseada em flexibilidade, escalabilidade distribuída e integração direta com o usuário final. “Trata-se de uma mudança de paradigma de como fabricar semicondutores,” ponderou Marcelo Zuffo, coordenador do Centro de Inovação InovaUSP.
Ao combinar manufatura enxuta, integração academia–indústria e coordenação com entidades setoriais, a PocketFab se configura como um experimento relevante de política tecnológica aplicada. Seu potencial não reside apenas na capacidade produtiva imediata, mas na possibilidade de estabelecer um novo modelo de inserção do Brasil em uma cadeia global altamente concentrada, baseado em especialização, flexibilidade e alinhamento direto com a demanda industrial.

Chips de IA fabricados na Alemanha

A Anker, especialista em fontes de alimentação e power banks, está entrando no mercado de chips de IA. Ao contrário de muitas startups, porém, a Anker não está lançando mais um acelerador de IA para servidores, mas sim um chip de nicho chamado Thus, projetado especificamente para dispositivos minúsculos. Ele é voltado principalmente para fones de ouvido intra-auriculares, onde busca suprimir o ruído ambiente de forma mais confiável do que as alternativas existentes, por exemplo, durante chamadas telefônicas.
Assim, um chip de memória flash NOR não possui núcleos de CPU ou unidades de matriz tradicionais. Em vez disso, um controlador modula as resistências das portas NOR para representar as matrizes necessárias.
O princípio já existia na década de 1990 quando a Mitsubishi oferecia a 3DRAM, que conseguia lidar com operações simples de
uma unidade lógica aritmética. Na era da IA, a computação em memória está recuperando sua importância.
O princípio CIM apresenta duas vantagens que beneficiam os fones de ouvido intra-auriculares: economiza espaço e requer apenas alguns miliwatts de energia elétrica, já que os dados não precisam transferir energia entre a CPU e a memória.
Como ponto negativo, seu poder de processamento é comparativamente baixo: ele é capaz de realizar cerca de cinco bilhões de cálculos por segundo enquanto as unidades de IA em processadores móveis modernos, como o Intel Core Ultra 300, são 10.000 vezes mais rápidas. De acordo com a Anker, isso é suficiente para modelos de IA com vários milhões de parâmetros.
No futuro, o Thus pretende se tornar uma plataforma a partir da qual surgirão outras variantes de chips para outras aplicações.
Microsoft quer recursos do OpenClaw no Copilot

A Microsoft está testando maneiras de integrar recursos semelhantes ao OpenClaw à sua ferramenta Microsoft 365 Copilot. Os novos recursos serão voltados para clientes corporativos, com controles de segurança mais robustos do que o agente de código aberto OpenClaw.
O OpenClaw é uma ferramenta que roda localmente no computador do usuário e pode criar agentes para executar tarefas em nome da pessoa. Se a Microsoft lançar sua própria versão do Claw, ou seja, um agente que roda localmente, esse esforço se juntará a uma série de outras ferramentas de agentes que a empresa anunciou nos últimos meses.
Em março, por exemplo, a Microsoft anunciou o Copilot Cowork, projetado para executar ações nos aplicativos do Microsoft 365, e não apenas para fornecer resultados de pesquisa ou conversar em um painel de trabalho separado. O Cowork é alimentado

por sua própria tecnologia Work IQ, uma camada de inteligência que tenta personalizar o Cowork para o usuário em todos os aplicativos do Microsoft 365.
A Microsoft também adotou o Claude como uma opção disponível para o Cowork. No entanto, o Cowork não é executado no hardware local; ele é executado na nuvem.
Ainda não está claro se este Claw será local ou se simplesmente adotará alguns dos outros recursos que os usuários do OpenClaw apreciam, mas ele será essencialmente uma versão do 365 Copilot que estará sempre ativa, capaz de executar ações a qualquer momento. A ideia é um agente que possa concluir tarefas complexas ao longo de longos períodos.
Ainda que o projeto de código aberto OpenClaw possa ser executado em Windows, os usuários do OpenClaw têm preferido o Mac Mini.
LOOPSERV DAY 2026


Foi o Loopserv Day, evento de conteúdo técnico e network oferecido pela Loopserv com o patrocínio e apoio das empresas Conaut Khrone, Instruere, TSL e Vanasa Multigas / Dresser , Rhino Valves Brasil- Worcester México.
Com o salão repleto, no Dia Internacional dos Profissionais de Automação Industrial, a abertura do evento foi da Loopserv, pelo diretor Ever Lucas, que tem um histórico de representação memorável em 36 anos da empresa junto ao segmento industrial, representando atualmente grandes marcas de equipamentos e serviços, Conaut, Instruere, Rhino Valves Brasil – Worcester México, TSL Engenharia e Serviços, Vanasa Multigas.
No dia 28 de Abril de 2026, a cidade de Salvador(BA) ganhou um evento de clima (tempo e energia) mais alto desses últimos meses!


As apresentações abriram com a participação do Eng. Carlos Barateiro, da Instruere, que falou sobre balanço de massa e energia nas plantas industriais, ressaltando a importância da gestão das medições e seu impacto nesses balanços, frisando a importância do uso correto do Certificado de Calibração, monitoramento da faixa calibrada, uso do computador de vazão, cálculo de volume X incerteza e comentários sobre algumas entregas da empresa.

Para a apresentação da Conaut/ Krohne, o Eng. Juan Carlos Ballesta e Eng. Ricardo Luiz Cardoso Lopes apresentaram aos participantes todas as tecnologias de fluxo de massa, trazendo também o lançamento do Medidor Mássico Coriolis Optimass 5000.
Foi destacado o medidor de vazão ultrassônico de transferência de custódia (CT) de 12 cordas para gás natural (Altosonic V12), projetado para oferecer a melhor precisão de medição possível, não apenas durante a calibração em condições ideais, mas também em condições menos ideais no campo.



A TSL Engenharia e Serviços contou com a palestra do Eng. Ambiental Guilherme Carnaíba Chaves , que apresentou suas soluções para manutenção complementar e limpeza industrial (hidrojateamento) para tanques e e caldeiras, tratamento de água produzida, e limpeza robotizada de tanques e lagoas. A empresa fornece soluções customizadas, através das tecnologias mais avançadas existentes, com excelência, segurança e preservação do meio ambiente. A TSL também está apta na prestação de serviços para a limpeza de equipamentos de descomissionamentos de plataformas offshore.


A apresentação da Vanasa Multigas contou com 3 palestrantes. O Eng. Mecânico Marcel Iacontini falou sobre as tecnologias, soluções e equipamentos para medição de óleo e gás, a importância do Laboratório de Vazão Walter Luiz Lapietra (inaugurado em março deste ano) que presta serviços de Calibração e Metrologia,que a empresa disponibiliza em Cerquilho-SP com slides explicativos e ótimos insides.

A Gerente de Contratos da Vanasa Multigas, Adrieli Vila da Silva, comentou sobre revenda de equipamentos de grandes marcas e sobre os contratos em regime Turn Key que a empresa oferece ao mercado de óleo e gás, opção que já tem dezenas de participantes ativos.

O Eng. Elétrico Fernando Ignacio Pupo, da Dresser Utility Solutions, iniciou sua palestra com a história de séculos da Dresser, que atualmente conta com grandes marcas incluídas em seu portfólio. Mostrou o medidor CORUS EVO+ Modular Design, conversor eletrônico de volume para aplicações comerciais e industriais de gás natural, que ao medir a temperatura e a pressão do fluxo de gás no medidor, fornece dados extremamente precisos, melhorando a exatidão da fatura para concessionárias e distribuidoras de gás. Os participantes do evento puderam ver em mãos o conversor.
O

LOOPSERV DAY 2026 aconteceu no Resort Catussaba, em Salvador, Bahia, e deu a oportunidade de grandes reencontros aos participantes do evento. Confiram algum desses encontros!



IA industrial encontra seu teste de realidade
No ARC Industry Leadership Forum 2026, a discussão sai do hype e entra na engenharia: integrar, operar e sustentar inteligência passa a ser o verdadeiro diferencial competitivo
A edição do ARC Advisory Group de 2026 marcou uma mudança de tom que dificilmente será revertida: a inteligência artificial continuou no centro de praticamente todas as apresentações, mas já não apareceu como novidade nem como promessa. Ela surgiu revelando, quando levada à prática, os limites da infraestrutura industrial existente. Essa inflexão aparece na própria proposta do evento, centrada em discutir o que é real, o que escala e o que falha: o encontro revelou que, enquanto 12,9% das empresas pioneiras conseguiram escalar a IA, os 87% restantes enfrentam dificuldades com conectividade básica e muitos problemas nos projetos-piloto.
O que se viu ao longo dos quatro dias foi uma maturidade forçada. A indústria não discute mais se a IA funciona; discute porque, funcionando, ela ainda não entrega o esperado quando atravessa a fronteira entre o ambiente controlado dos pilotos e a complexidade dos sistemas produtivos reais. Essa mudança ficou evidente em apresentações que mostraram que o foco em modelos e algoritmos mudou para temas menos visíveis como arquitetura de dados, integração entre ambientes de tecnologia da informação e automação, persistência de modelos em produção e governança ao longo do ciclo de vida. Ficou evidente que a inteligência artificial deixou de ser um projeto de inovação para se tornar um problema de engenharia industrial, sujeito às mesmas exigências de confiabilidade, repetibilidade e escala. Dessa forma, os problemas dos projetos-pilotos não desapareceram, mas perderam relevân-
cia como narrativa. O que se consolidou foi uma separação mais clara entre empresas que conseguiram transformar experimentação em capacidade operacional e aquelas que continuam presas a iniciativas isoladas.
Quando executivos e engenheiros detalhavam porque essa transição é tão difícil, o ponto de ruptura apareceu quase sempre no mesmo lugar: o contexto em que a IA precisa operar: sistemas industriais carregam décadas de heterogeneidade e integração incompleta, o que explica – em parte - por que soluções bem-sucedidas em pilotos encontram dificuldade ao escalar.
E aí conceitos como industrial data fabric (IDF) deixam de ser tratados como tendência e passam a ser discutidos como condição necessária. A capacidade de organizar, contextualizar e tornar interoperáveis os dados industriais aparece então no discurso de usuários e fornecedores como pré-requisito para qualquer ambição de escala.
Essa ênfase na decisão, aliás, foi outro eixo silencioso do evento. A inteligência artificial deixou de ser apresentada como ferramenta de análise e passou a ser descrita como mecanismo de ação. Em diferentes setores — da manufatura à energia, passando por cadeias de suprimentos — os casos mais avançados mostraram sistemas que não apenas geram insights, mas efetivamente reconfiguram operações, ajustam parâmetros e reorganizam fluxos com base em múltiplas variáveis.
Esse movimento fica particularmente evidente em supply chain, que apareceu como uma das áreas mais maduras para aplicação de IA em escala. A complexidade envolvida
na gestão de redes globais tornou inviável a dependência exclusiva de decisão humana, impulsionando a adoção de sistemas automatizados de decisão.
Outro tema que ganhou densidade em relação a edições anteriores foi a relação entre inteligência artificial e infraestrutura: à medida que a indústria amplia o uso de modelos mais intensivos em processamento, cresce a percepção de que a estratégia digital passa a ser inseparável da estratégia energética. Fornecedores de tecnologia presentes exploraram essa convergência ao posicionar a IA
dentro de um sistema mais amplo que envolve automação, software e gestão de energia, enquanto players como Shell trouxeram aplicações em ambientes de alta criticidade operacional.
Esse retorno à materialidade da operação também recolocou o chão de fábrica na discussão após um período dominado por narrativas de nuvem e plataformas. Fornecedores de tecnologia enfatizaram a necessidade de incorporar inteligência diretamente nos sistemas que controlam processos, reduzindo a distância entre análise e execução.
Por que dados — e não algoritmos — definem quem escala
Uma das discussões trouxe à tona uma constatação que, embora recorrente, ganhou contornos mais duros nesta edição: a batalha pela inteligência artificial industrial não será vencida nos modelos, mas na infraestrutura de dados que os sustenta.
O tema “Montando as Bases da Infraestrutura de Dados Industriais para IA Industrial” deslocou o debate do campo da aplicação para o da fundação. A mensagem foi direta e pouco confortável para um setor que ainda
O colapso do modelo ponto a ponto
Os casos apresentados mostraram que o principal obstáculo à escala não está na falta de tecnologia, mas na herança da arquitetura construída ao longo de décadas. O modelo predominante — baseado em integrações ponto a ponto entre sistemas — revelou-se estruturalmente insustentável. À medida que novas fontes de dados e aplicações são adicionadas, a complexidade cresce de forma exponencial, criando um ambiente difícil de manter, expandir ou mesmo compreender.
Um dos executivos presentes, responsável por um programa de data fabric, descreveu esse cenário como uma “barreira exponencial multithread”, em que o acúmulo de conexões e dependências leva inevitavelmente
aposta fortemente em algoritmos como diferencial: sem uma base de dados coerente, contextualizada e sustentável, qualquer ambição de IA em escala está condenada a permanecer no estágio de piloto.
Foi quase uma redescoberta da necessidade da qualidade dos dados expressa no princípio ‘ se lixo entra, lixo sai’ que só se intensifica com IA sintetizando uma percepção que atravessou todo o evento: a IA não resolve o problema dos dados, ela o amplifica.
a um impasse operacional.
A conclusão foi inequívoca: não se trata de otimizar o modelo existente, mas de substituí-lo por uma arquitetura que seja sustentável por design. O que conduz ao data fabric como infraestrutura, não como conceito. E a resposta encontrada por alguns passa pela construção de uma camada intermediária capaz de desacoplar fontes de dados e aplicações.
O resultado dessa abordagem não é apenas organização, mas velocidade. E a capacidade de escalar rapidamente pipelines de dados para centenas de ativos em questão de dias evidencia o ganho prático de uma abordagem desacoplada.
Do dado ao contexto e do contexto à decisão
Se a infraestrutura de dados emerge como condição necessária, há que se introduzir uma camada adicional: a diferença entre informação e inteligência.
Ao apresentar sua estratégia de gestão de ativos baseada na integração entre SAP e Databricks, um dos executivos-palestrantes chamou atenção para um ponto frequentemente negligenciado: detectar um problema em um ativo não equivale a resolvê-lo. Sem uma mudança na estratégia subjacente — que ataque a causa raiz — a falha tende a se repetir, independentemente da sofisticação do sistema de monitoramento.
A observação desloca o foco da detecção para o raciocínio. Não basta conectar dados; é necessário interpretá-los em contexto e traduzi-los em decisões que alterem como o sistema trabalha.
É preciso interiorizar que ter informações conectadas não significa ter informações inteligentes e essa distinção é central para entender o estágio atual da IA industrial.
A infraestrutura de dados resolve o problema da visibilidade. A inteligência, propriamente dita, começa quando essa visibilidade é convertida em ação.
Pragmatismo operacional e “Pântanos de dados”
Mas como implementar essa nova arquitetura? A discussão entre construir uma base completa desde o início ou evoluir a partir de casos de uso específicos revelou uma tendência clara entre os operadores: a experiência prática aponta para uma abordagem incremental, orientada por valor de negócio. Aplicações concretas — como otimização de produção ou gestão de medidores — devem guiar a estratégia de dados, e não o contrário.
Essa visão foi reforçada com críticas à migração indiscriminada para a nuvem: a tentativa de centralizar dados sem estrutura adequada resultou, em muitos casos, na criação de “pântanos de dados” — ambientes onde a informação existe, mas não pode ser efetivamente utilizada.
Esse foi um dos alertas mais incisivos do evento - a migração indiscriminada para a
nuvem criou o fenômeno dos “data swamps”.
Segundo especialistas presentes, muitas organizações transferiram grandes volumes de dados para a nuvem sem estrutura, governança ou modelagem adequada. O resultado são ambientes ricos em informação bruta, mas pobres em valor.
A crítica atinge diretamente uma das narrativas dominantes da transformação digital recente. A nuvem, por si só, não resolve o problema. Sem contexto, governança e arquitetura, ela apenas desloca a complexidade.
O problema não é armazenar dados, mas torná-los utilizáveis.
Sem contexto, integração e qualidade, a abundância de dados se transforma em complexidade adicional — e não em vantagem competitiva. Porque acumular dados não é estratégia — estruturar dados é.
O dado que falta — e o que nunca foi coletado
Um problema frequentemente ignorado é a ausência de dados. Em muitos ambientes industriais, sensores são insuficientes ou inexistentes, e a qualidade dos dados disponíveis é limitada.
A questão não é trivial. Ela levanta a necessidade de inferência, reconstrução e enriquecimento de dados — temas que devem ganhar mais relevância com o avanço de agentes de IA e novas abordagens de
DataOps. Ao mesmo tempo, reforça uma realidade incômoda: a transformação digital industrial não começa no software, mas na instrumentação e na coleta de dados.
A inteligência artificial não é mais o diferencial — ela é o destino. O verdadeiro ponto de diferenciação está na capacidade de construir a infraestrutura que a sustenta. E independentemente das plataformas utilizadas, o requisito é o mesmo: uma base de dados unificada, contextualizada e desacoplada, capaz de suportar aplicações
em escala.
Sem isso, organizações permanecem presas ao limbo dos projetos-piloto, incapazes de transformar experimentação em operação. Com isso, passam a competir em um novo nível, onde a velocidade de execução depende menos da tecnologia disponível e mais da qualidade da fundação construída. Em um fórum marcado pela discussão sobre quem realmente escala, a mensagem é inequívoca: dados não são apenas um ativo — são a linha de partida.
Supcon — da automação à autonomia operacional

A visão apresentada pelo vice-presidente da Supcon, Zhang Huize, no ARC Industry Leadership Forum 2026 converge de forma direta com o posicionamento institucional da empresa expresso em “Towards Autonomous Operating Plants”. Em ambos os casos, a mensagem é consistente: a indústria já ultrapassou a fase de discutir se a autonomia será alcançada — o desafio agora é como construir as bases para que ela funcione em escala.
Segundo a Supcon, plantas autônomas exigem a integração de múltiplos sistemas capazes de interpretar dados industriais em tempo real e operar continuamente com base em padrões e contexto operacional. O principal obstáculo não é a ausência de tec-
nologia, mas a fragmentação entre dados, controle e aplicações — uma herança de décadas de arquiteturas fechadas e heterogêneas.
Essa leitura aparece de forma prática na fala de Zhang, ao definir IA industrial como otimização em malha fechada, combinando machine learning e modelos físicos. A implicação é direta: a inteligência não deve atuar como camada analítica isolada, mas integrada ao controle, influenciando decisões em tempo real.
“Os algoritmos baseados em IA realmente se destacam pela capacidade de lidar com incertezas”, afirmou Zhang, ao mencionar mais de 100 projetos já em operação.
A base dessa estratégia está na arquitetu-
ra defendida pela empresa, que combina o Universal Control System (UCS) — um sistema de controle virtualizado — com modelos de IA como o TPT (Time-series Pre-trained Transformer). Essa abordagem reflete a condição para autonomia: desacoplar controle e hardware, integrar dados e incorporar inteligência diretamente na operação.
Outro ponto de convergência está no papel das arquiteturas abertas e da automação definida por software. A Supcon argumenta que sistemas tradicionais, embora confiáveis, limitam a evolução tecnológica por sua rigidez. Já modelos abertos e modulares permitem incorporar IA, analytics e novas aplicações sem reconfigurar toda a planta — criando o ambiente necessário para autonomia progressiva.
Essa lógica também se estende ao edge.
Na visão de Zhang, dispositivos como online analyzers deixam de ser apenas instrumentos de medição e passam a alimentar diretamente algoritmos de IA com dados em tempo real — um requisito essencial para fechar o ciclo entre percepção, decisão e ação.
No plano estratégico, a Supcon posiciona essa transformação como uma evolução inevitável da automação. Para a empresa, o caminho passa por arquiteturas abertas e interoperáveis, controle definido por software, infraestrutura de dados industrial e modelos de IA contextualizados por conhecimento de processo
Sem essa base integrada, A Supcon postula que a autonomia permanece limitada, mesmo quando tecnologias avançadas estão disponíveis.

A delegação da Petrobras este ano, além de Pedro Vieira, contou com Antonio Moraes, Gerente de Segurança Cibernética em Automação Industrial e Gustavo Carvalho, Engenheiro Eletrônico da Petrobras, mantendo ao mesmo tempo o alto nível técnico e a complementariedade de competências, cobrindo todas as trilhas, workshops e reuniões - Segurança Cibernética Industrial, Automação Industrial (incluindo O-PAS), Dados, IA e Digital Twins.
IA como vantagem operacional — não como experimento
A Shell reforçou uma posição que vem se consolidando entre as grandes operadoras: inteligência artificial não é mais um projeto de inovação, mas um instrumento direto de desempenho operacional. A empresa tem avançado na aplicação de IA em ativos críticos, especialmente em manutenção preditiva, otimização de produção e gestão de energia. O diferencial, no entanto, não está nos algoritmos, mas na capacidade de integrá-los à operação contínua.
O ponto central é a escala. Ao contrário de iniciativas isoladas, a Shell trabalha com plataformas capazes de replicar soluções entre ativos, garantindo consistência e retorno financeiro. Essa abordagem só é possível porque a empresa investe simultaneamente em infraestrutura de dados e governança — alinhando IT e OT em torno de objetivos comuns.
Ou seja, IA só gera valor quando sai do piloto e entra na operação — e isso exige arquitetura e governança.
Cibersegurança: a nova superfície de risco da convergência
A convergência entre IT, OT e ET — amplamente discutida no evento — amplia significativamente a superfície de ataque das operações industriais. A integração de sistemas, necessária para viabilizar IA e automação avançada, também expõe ativos críticos a novos riscos cibernéticos. O desafio não é apenas proteger sistemas isolados, mas garantir segurança em ambientes interconectados,
Presença brasileira
A presença brasileira seguiu o padrão dos últimos anos: discreta em termos de visibilidade pública, mas consistente entre usuários industriais e integradores. Empresas como Petrobras aparecem nesse contexto como parte de um grupo que já utiliza IA em aplicações críticas, enquanto integradores como Radix Engineering and Software reforçam o desafio persistente da integração entre IT e OT. Pedro Vieira, Data and Information for Engineering Technical Manager da Petrobras, participou de uma discussão sobre o futuro dos Dados Industriais, Gêmeos Digitais e IA Industrial.
distribuídos e dinâmicos.
Nesse contexto, a cibersegurança deixa de ser camada adicional e passa a ser elemento estrutural da arquitetura industrial.
A proteção de dados, a segmentação de redes e a governança de acesso tornam-se componentes essenciais para qualquer iniciativa de transformação digital - não existe IA industrial escalável sem segurança integrada desde a arquitetura.

A participação da Smar reforçou um dos movimentos mais estruturais discutidos ao longo do evento: a transição de arquiteturas proprietárias para modelos abertos, interoperáveis e orientados por software.
Presente como expositora e como patrocinadora global, a empresa utilizou o fórum não apenas como vitrine tecnológica, mas como plataforma para consolidar sua posição em torno do padrão OPAS - Open Pro -

Essa visão ganhou materialidade na apresentação de um dos desenvolvimentos mais emblemáticos levados pela empresa ao evento: um flow computer baseado em arquitetura OPAS. O ponto central não está no equipamento em si, mas no conceito que ele incorpora. Ao utilizar sinais padronizados que carregam não apenas valores de medição, mas também contexto — como timestamp, unidade de engenharia e status — torna-se possível desacoplar a medição do controle.
Essa separação tem implicações diretas na arquitetura industrial. Segundo Libânio, ela permite que aplicações de controle sejam executadas em diferentes plataformas de hardware, sem dependência direta do
cess Automation Standard — um dos temas mais recorrentes nas discussões sobre o futuro da automação de processos.
O diretor presidente da NovaSmar, Libânio Souza, reforçou que o OPAS deve ser entendido não como um produto, mas como uma tecnologia habilitadora, capaz de redefinir a forma como sistemas de automação são concebidos, integrados e mantidos.

dispositivo de campo, conectadas por meio de um modelo de dados comum. Trata-se, na prática, de um passo concreto na direção de sistemas mais modulares, portáveis e resilientes.
Libânio fez uma comparação entre sistemas tradicionais e arquiteturas abertas: nos modelos anteriores, a atualização tecnológica era complexa e frequentemente disruptiva, exigindo intervenções que impactavam diretamente a operação; com o OPAS, essa lógica se altera. A arquitetura passa a permitir a introdução de novas tecnologias de forma incremental, sem necessidade de grandes interrupções. Isso muda não apenas a tecnologia, mas os próprios procedimentos de manutenção e evolução dos sistemas.
“Com sistemas antigos era muito difícil acompanhar a inovação… com OPAS será possível introduzir novas tecnologias mais rapidamente, sem impactar a operação”, afirmou.
Essa capacidade de atualização contínua é particularmente relevante em um contexto em que novas soluções digitais — especialmente baseadas em inteligência artificial — passam a surgir em ritmo acelerado. Sem
uma arquitetura capaz de absorver essas inovações, o ganho potencial dessas tecnologias tende a se perder.
Ao projetar os próximos anos, Libânio demonstra confiança na adoção crescente do padrão, destacando que os usuários já reconhecem sua capacidade de atender requisitos críticos de operação. A expectativa é de expansão para projetos de maior escala e impacto.

Presença brasileira
O que ficou do ARC Forum 2026, então, é menos uma lista de tendências e mais uma mudança de postura. A inteligência artificial industrial deixou de ser tratada como diferencial e passou a ser encarada como capacidade básica, sujeita às mesmas exigências de qualquer sistema crítico. Isso implica um deslocamento importante: o debate sai do campo da inova-
ção e entra no da disciplina operacional. Nesse novo contexto, a vantagem competitiva não está em experimentar IA, mas em sustentá-la — e sustentar, no ambiente industrial, significa integrar, padronizar, governar e operar continua- mente. É um trabalho menos visível, mas, como ficou claro ao longo do evento, decisivo.
Radar Tech 2026
A edição 2026 do Radar Tech, promovida pela Federação das Indústrias do Estado de Santa Catarina, mostrou-se um dos principais fóruns de inteligência estratégica aplicada à transformação industrial no Brasil, ao articular, em um único ambiente, tendências tecnológicas globais, experiências práticas de implementação e uma agenda explícita de aceleração da modernização produtiva. Realizado em Florianópolis, o encontro reuniu executivos, especialistas e lideranças industriais para discutir o impacto combinado de robotização, inteligência artificial e novas
arquiteturas digitais sobre competitividade, produtividade e modelos de negócio. O evento teve como eixo estruturante a robotização em escala e a aceleração da difusão tecnológica como imperativos competitivos para a indústria catarinense — responsável por 36,7% dos empregos do estado. E, mais do que mapear tecnologias emergentes, o Radar Tech 2026 operou como instrumento de inteligência estratégica, com o objetivo explícito de “transformar informação em decisão e ação”, conectando análise de tendências a decisões industriais concretas.
A abertura do evento trouxe uma mudança de framing relevante: o presidente da FIESC, Gilberto Seleme, rompeu com a narrativa tradicional de futurismo ao afirmar: “Estas tecnologias não são mais uma promessa; são uma realidade que precisa ser considerada em nossas fábricas.”

A narrativa central partiu do fato de que a indústria está em uma fase de transição acelerada, marcada pela convergência entre automação avançada, dados e geopolítica tecnológica. Nesse contexto, Gilberto Seleme, sintetizou o momento ao afirmar que “robôs industriais cada vez mais aces -
síveis, colaborativos e inteligentes ampliam a produtividade, reduzem desperdícios e aumentam a precisão dos processos produtivos”, ao mesmo tempo em que impõem desafios estruturais relacionados à qualificação da força de trabalho e à priorização de investimentos.
Robotização em escala e o vetor asiático
Um dos eixos mais densos da programação foi a robotização em escala global. O painel dedicado ao tema teve participação de especialistas ligados ao ecossistema China–Brasil e evidenciou que a robotização deixou de ser diferencial competitivo para
se tornar infraestrutura básica da manufatura. A leitura apresentada indica que o gap tecnológico tende a se ampliar entre regiões que operam com automação intensiva e aquelas ainda presas a modelos híbridos ou legados.
O especialista e co-fundador da 5ERA, Gil Giardelli, enfatizou a aceleração exponencial da capacidade computacional aplicada à robótica e IA, além da integração com tecnologias como blockchain para disseminação de soluções industriais.

Nas discussões, ressaltou-se que a produção de robôs humanoides já está em escala industrial (20 mil unidades/ano, com crescimento projetado) e existem 13 dark factories no Brasil, operando com altíssimo nível de automação, o que ainda não faz frente aos ecossistemas asiáticos como o de Shenzhen, com centenas de empresas de robótica. Esses elementos sustentam uma conclusão crí-
tica: a competição industrial global passou a ser definida por densidade tecnológica instalada, não apenas por custo ou escala produtiva.
Nesse sentido, o Radar Tech 2026 deslocou o debate da automação incremental para uma visão sistêmica de reconfiguração industrial.
China como referência sistêmica, não apenas competitiva
A participação de especialistas ligados ao ecossistema China–Brasil aprofundou a análise geoeconômica da inovação.
Segundo a diretora institucional do grupo IEST, Marina Miranda , a China vai investir 7% de seu PIB em inovação e tecnologia até 2030, em dez eixos estratégicos, entre eles robôs humanoides para tarefas em casa e no trabalho.
“Das 64 tecnologias estratégicas que vão moldar o mundo no futuro, a China é líder mundial em 53 delas, e nas outras 11 está em segundo lugar. Das 1000 universidades mais inovadoras do mundo, 450 estão na China”, afirmou Miranda.


Fred Hou e Augusto Wang , executivos da chinesa Kunlun - especialista em transformação digital no setor de óleo e gás -, destacaram a importância da pesquisa aplicada no desenvolvimento de tecnologias. A cooperação tecnológica e o desenvolvimento de parcerias também são essenciais, na visão dos executivos.
Os dados reforçam o argumento central do evento: a transformação industrial contemporânea é inseparável de políticas de Estado, investimento em P&D e formação de capital humano.
Se o diagnóstico é conhecido, o dife -
rencial foi a ênfase na execução. O bloco dedicado à difusão tecnológica abordou o principal gargalo da indústria brasileira: a dificuldade de transformar awareness tecnológico em deployment escalável.
Executivos ligados à Amazon Web Services destacaram que a aceleração da transformação digital depende menos da disponibilidade de tecnologia e mais de arquitetura organizacional, governança de dados e cultura. A agenda apresentada enfatiza cloud, analytics e IA como pilares, mas com foco em redução de barreiras de entrada e custo de adoção.

Essa abordagem foi complementada pela visão institucional do SENAI em Santa Catarina, representado por Fabrízio Pereira , que reforçou o papel da educação tecnológica e da requalificação profissional como condição necessária para sustentar a transição industrial.
A densidade do evento se materializou nos casos apresentados por empresas como a WEG e a DR Aromas & Ingredientes, evi-
denciando a adoção real de tecnologias como IIoT, inteligência artificial industrial e integração de sistemas MES. Os relatos indicaram a tendência de que transformação digital industrial no Brasil avança de forma heterogênea, com ilhas de excelência altamente digitalizadas coexistindo com operações ainda analógicas. A implicação direta é a necessidade de estratégias de escala.
Inteligência estratégica como ativo industrial
Mais do que um evento de tecnologia, o Radar Tech 2026 se posicionou como uma plataforma de inteligência estratégica. A proposta, explicitada pela própria FIESC, é “transformar informação em estratégia”, conectando análise de tendências a decisões de investimento e posicionamen-
Entre aceleração e assimetria
O evento evidenciou um ponto central: a modernização industrial deixou de ser uma opção estratégica e passou a ser imperativo competitivo. A robotização em escala, a inteligência artificial aplicada e a digitalização de processos já redefinem padrões globais de produtividade e custo.
E também expõe a principal tensão do cenário brasileiro: a coexistência entre capacidade tecnológica disponível e baixa velo -
to competitivo.
Esse framing é particularmente relevante em um contexto de reconfiguração das cadeias globais, em que fatores como regionalização produtiva, tensões geopolíticas e transição energética passam a influenciar diretamente a agenda tecnológica da indústria.
cidade de difusão. A agenda proposta — baseada em qualificação, arquitetura digital e casos práticos — aponta caminhos, mas também explicita a urgência de coordenação entre indústria, academia e políticas públicas.
O Radar Tech 2026 não apenas mapeou tendências, mas ajudou a estruturar uma narrativa de transição industrial em curso, na qual o desafio não é mais entender o futuro e sim implementá-lo em escala.

Durante a RADAR Tech, a Fiesc assinou termo de cooperação estratégica com a Amazon Web Services (AWS) que contempla o desenvolvimento de projetos, a capacitação de profissionais e o uso de tecnologias avançadas em nuvem, acelerando a criação de soluções, gerando novas competências para o setor e aumentando a produtividade da indústria. Para o presidente da FIESC, Gilberto Seleme, o acordo é um marco na reindustrialização digital do estado.
“Ao unirmos a capilaridade da FIESC com a liderança tecnológica da AWS, entregamos à indústria o que há de mais moderno no mundo. Estamos falando de tecnologia para mais competitividade no cenário global”, destaca Seleme.
O, afirma que Santa Catarina tem um ecossistema industrial vibrante, e esta cooperação estratégica com a FIESC demonstra como a nuvem AWS pode acelerar a inovação desde o laboratório até o chão de fábrica.
“Ao unir a capilaridade do Sistema FIESC com as capacidades de computação em nuvem da AWS, estamos criando um ambiente propício para que as indústrias catarinenses desenvolvam soluções de ponta e compitam globalmente. Este é o tipo de colaboração que fortalece a base tecnológica do Brasil e prepara nossa força de trabalho para a indústria do futuro”, afirmou o líder para o setor público na AWS Brasil, Paulo Cunha.
Haircut energético: a crise que expõe as fragilidades do mercado livre

A Abraceel - Associação Brasileira dos Comercializadores de Energia, em nota pública assinada pelo presidente do conselho de administração Wilson Ferreira Jr., e por seu presidente-executivo, Rodrigo Ferreira, reiterou “seu compromisso com a segurança de mercado e com o respeito pleno aos contratos celebrados, premissas fundamentais e inegociáveis para operação no mercado livre de energia elétrica. E qualquer ação em sentido contrário, independentemente dos motivos, não conta com o apoio ou aprovação da Abraceel...”
A manifestação da Abraceel sobre o respeito aos contratos no mercado livre deve ser interpretada à luz de um evento recente que elevou significativamente o nível de alerta no setor: a emergência do chamado “haircut energético” com respaldo judicial, em meio a uma crise mais ampla de liquidez e risco de contraparte no Ambiente de Contratação Livre (ACL).
O tema ganhou centralidade após decisões judiciais envolvendo a comercializadora Tradener, que autorizam a alteração das condições de entrega de energia em contratos firmados — especialmente no perfil horário. Na prática, isso permite que a energia seja entregue de acordo com a geração disponível (como solar, concentrada durante o dia), e não conforme o perfil originalmente contratado, que inclui períodos de maior valor econômico, como o pico noturno. Esse mecanismo passou a ser caracterizado por agentes do setor como um “haircut energético”, por implicar redução indireta do valor econômico do contrato, mesmo sem alteração formal do volume contratado.
A distorção é relevante porque, no sistema elétrico brasileiro, diferenças horárias e locacionais de preço são determinantes para o valor da energia. Alterações unilaterais nessas condições podem transferir risco entre as partes e comprometer a equivalência eco -
nômica dos contratos. Reportagens recentes destacam que esse tipo de prática pode gerar impacto sistêmico, ao criar precedentes que fragilizam a previsibilidade jurídica e a confiança entre agentes, o que é essencial para o funcionamento do mercado livre.
O episódio da Tradener não é isolado. Ele se insere em um contexto mais amplo de deterioração das condições financeiras de comercializadoras, com aumento de inadimplência, pedidos de recuperação judicial e renegociações contratuais. A própria empresa buscou proteção judicial para manter suas operações enquanto enfrenta desequilíbrios decorrentes de volatilidade de preços, descasamento entre portfólio e exposição ao mercado de curto prazo e mudanças estruturais na formação do PLD.
Esse cenário tem sido associado a uma combinação de fatores estruturais: maior volatilidade de preços, avanço de fontes renováveis intermitentes, mudanças nos modelos de precificação e restrição de crédito no mercado. Como resultado, contratos firmados em condições anteriores passaram a apresentar perdas relevantes para determinados agentes, elevando o risco de quebra ou revisão contratual.
Dessa forma, o “haircut energético” emerge como um dos pontos mais sensíveis da crise. Diferentemente de reestruturações financeiras tradicionais, em que há redução explícita de dívida, aqui o ajuste ocorre sobre a qualidade da entrega do produto — energia elétrica — afetando diretamente seu valor econômico. Isso torna o fenômeno particularmente complexo, pois mistura dimensões técnicas (perfil de geração, modulação, submercados) com implicações jurídicas e financeiras.
A repercussão do caso levou a uma reação institucional imediata: a nota da Abraceel, reafirmando o “respeito pleno aos contratos”, deve ser lida como uma tentativa de conter a disseminação desse tipo de prática e preservar a integridade do mercado. Ao declarar que qualquer ação em sentido con-
trário “não conta com o apoio ou aprovação da Associação”, a entidade busca estabelecer um limite claro para comportamentos oportunistas em um momento de fragilidade sistêmica.
Paralelamente, a associação acelera iniciativas estruturais voltadas à gestão de risco, como a criação de uma Central de Risco — com monitoramento de métricas de contraparte — e a implementação de mecanismos de autorregulação com previsão de sanções, incluindo para práticas associadas ao haircut. Essas medidas refletem o reconhecimento de que o ACL brasileiro, embora maduro em termos de volume e participação, ainda carece de instrumentos equivalentes aos de mercados financeiros no que se refere à transparência de risco e garantias.
A crise atual também já é percebida como um alerta econômico mais amplo: análises recentes indicam que a instabilidade no mercado livre pode afetar decisões de investimento, encarecer o crédito para agentes do setor e comprometer a expansão do ambiente competitivo, que atualmente responde por parcela significativa do consumo nacional.
Dessa forma, a nota da Abraceel não apenas reage a eventos pontuais, mas sinaliza um problema estrutural: o mercado livre brasileiro está sendo forçado a evoluir de um modelo baseado predominantemente em contratos bilaterais para um arranjo que exige governança de risco, previsibilidade regulatória e mecanismos robustos de proteção contra inadimplência e distorções contratuais.
O debate sobre o “haircut energético” expõe uma tensão central da transição do setor elétrico: à medida que o sistema se torna mais complexo, descentralizado e dependente de variáveis como perfil horário e fontes intermitentes, aumenta a necessidade de instrumentos que garantam não apenas eficiência econômica, mas também integridade contratual e estabilidade sistêmica, exatamente o que a Abraceel busca reafirmar.
Novo Centro de Operação Integrado

A EDP, distribuidora de energia elétrica para 70 munícipios do estado do Espírito Santo, inaugurou seu novo Centro de Operação Integrado (COI). Localizado em Carapina, o novo espaço amplia a integração entre as áreas com uma das estruturas mais modernas do Brasil e aumenta a capacidade de monitoramento, em tempo real, de todo o sistema elétrico da companhia no Estado. Com investimento de R$ 72 milhões e área construída de 2.190,6 m², o local conta com diversos avanços tecnológicos que buscam harmonizar inovação, segurança e bem-estar dos colaboradores. Com essa nova dinâmica, os trabalhos são realizados em uma plataforma integrada de dados, sensores e sistemas inteligentes que possibilitam manobras à distância, redistribuição automática de cargas e isolamento de falhas em segundos. Essa consolidação das informações reduz o tempo
de restabelecimento de serviços, minimiza impactos aos clientes e fortalece a resiliência da rede, especialmente diante de eventos climáticos severos.
No novo COI, também, será possível ampliar a supervisão de 4.698 MVA de potência instalada e acompanhar de perto o trabalho de todas as equipes de campo, integrando tecnologia e atuação operacional. Essa conexão direta permite decisões mais rápidas e assertivas, reduzindo o tempo de deslocamento e de recomposição do fornecimento sempre que necessário.
Para ampliar o conforto aos colaboradores dentro do COI, o espaço possui isolamento acústico, com a utilização de vidros duplos e forro antirruído, impedindo que os ruídos dos demais ambientes externos do prédio não interfiram nas comunicações e concentração das equipes.

“No ano passado, renovamos nossa concessão no Espírito Santo, garantindo presença na vida dos capixabas até 2055. Assumimos o compromisso de seguir elevando a qualidade do fornecimento, com índices recordes e uma rede cada vez mais digital e robusta. A inauguração do novo Centro de Operação Integrado do Espírito Santo, um dos mais modernos do Brasil, reforça essa trajetória em um ano emblemático para a EDP, que celebra 50 anos no mundo e 30 anos de presença no Brasil”
João Brito Martins, CEO da EDP na América do Sul.
Operando 24 horas por dia, o COI centraliza o monitoramento das operações dos 69.3 mil Km de redes elétricas da EDP que atendem todo o território capixaba. Neste ambiente também são monitoradas as 117 subestações, fundamentais para dar suporte ao aumento da demanda de energia e ampliam as condições para crescimento e desenvolvimento das cidades da nossa área de concessão.
O novo COI também passa a abrigar, no mesmo endereço, o Centro Integrado de Medição (CIM) e o Centro Integrado de Segurança (CIS), consolidando um modelo de gestão que une operação, controle de consumo e proteção patrimonial.
A partir do CIM é realizado o monitoramento remoto e em tempo real de clientes conectados em alta, média e baixa tensão. A tecnologia permite identificar de forma imediata qualquer anormalidade no padrão de consumo, inclusive tentativas de fraude ou ligações irregulares.
Somente em janeiro de 2026, o CIM monitorou 311 mil clientes nos 70 municípios de atuação da companhia, volume que representou 638 GWh de energia consumida no período. A atuação integrada contribui para o combate às perdas não técnicas, promove maior justiça tarifária e reforça a confiabilidade do sistema elétrico.
Já o Centro Integrado de Segurança (CIS) é responsável pela vigilância remota de to -
das as subestações do setor de Distribuição, além de prédios administrativos e bases operacionais da companhia espalhadas por toda a área de concessão. Entre os recursos utilizados estão radares, câmeras com detecção de intrusão e instrumentos de alerta sonoro, garantindo monitoramento contínuo e resposta rápida a qualquer ocorrência. Ao reunir operação, medição e segurança em um mesmo ambiente, a EDP consolida um modelo operacional baseado em tecnologia, integração e inteligência de dados. O novo Centro de Operação Integrado marca um avanço estratégico para o sistema elétrico capixaba e reafirma o compromisso da companhia com eficiência, inovação e qualidade no atendimento à população.
Inaugurada segunda etapa do Complexo Guarulhos

A EDP, distribuidora de energia elétrica de Guarulhos, inaugurou a segunda etapa do Complexo Guarulhos, projeto estruturante que tem como objetivo transformar o sistema elétrico da cidade. Esta fase contempla uma nova subestação de energia e 23 torres de subtransmissão, beneficiando diretamente cerca de 78 mil clientes, incluindo residências, comércios e indústrias dos bairros Jardim Fortaleza, Jardim São João, Cidade Soberana, Jardim Ponte Alta I, Mato das Cobras e Água Azul. R$ 65 milhões foram investidos nesta etapa. Essa entrega acontece em um ano importante para EDP, que completa 30 anos de atuação no país e 50 no mundo.
A nova estação, localizada no bairro Fortaleza, adiciona 40 MVA de potência ao sistema de distribuição de energia de Guarulhos. A Subestação Fortaleza é totalmente digitalizada, permitindo supervisão, comando e controle remoto a partir do Centro de
Operações Integrado (COI) da EDP, o que fortalece toda a infraestrutura energética da cidade, com mais robustez e flexibilidade operativa. Esta etapa do Complexo Guarulhos contemplou, ainda, a construção de uma linha de subtransmissão de energia com 23 torres metálicas em uma faixa de servidão de aproximadamente 5 km de extensão, na mesma região.
Dyogenes Rosi, diretor-presidente de distribuição da EDP, reforçou a importância da parceria com o poder público municipal neste empreendimento estruturante para a cidade: “A entrega desta segunda etapa do Complexo Guarulhos simboliza o quanto a parceria entre poder público e concessionária é fundamental para preparar a cidade para um futuro sustentável. Estamos avançando de forma significativa no fortalecimento de uma infraestrutura energética capaz de sustentar o crescimento econômico local, ampliar a resiliência das redes elétri-
cas frente aos eventos climáticos extremos e garantir mais qualidade e segurança no fornecimento de energia para milhares de famílias e negócios.”
Secretário de Infraestrutura Urbana de Guarulhos, Roberto Kimura ressaltou a atuação em parceria, em prol do município:
“Essa entrega mostra a importância da parceria entre o poder público e a iniciativa privada para o desenvolvimento da cidade. Estamos avançando com planejamento, garantindo mais eficiência no sistema elétrico e melhores condições para o crescimento de Guarulhos.”

O Complexo Guarulhos teve sua primeira etapa concluída em março de 2023, com uma linha subterrânea com 3 km de extensão e dois setores de alta tensão nas subestações Iporanga e Gopoúva, na Vila Galvão. É um plano estratégico da EDP de reforço para a infraestrutura energética do município com investimento total de R$ 346 milhões, beneficiando diretamente 245 mil unidades consumidoras, o que equivale a cerca de 50% do município.
O conglomerado total de empreendimentos contempla duas novas subestações e 23 km de linhas de distribuição de energia, com rede área e subterrânea. Serão beneficiados diretamente residências, comércios e indústrias em toda a região norte e áreas adjacentes do município, desde o bairro da Vila Galvão até o bairro Água Azul. Além disso, o Complexo permitirá maior flexibilidade operativa do sistema elétrico de toda
a cidade, já que amplia a possibilidade de manobras automatizadas.
Os empreendimentos estão em linha com as políticas de sustentabilidade da EDP, como, por exemplo, os transformadores instalados nas subestações que utilizam óleo vegetal, por ser um material biodegradável e extraído de fontes renováveis, além de aumentar a durabilidade dos equipamentos. As estações contam com reutilização de água pluvial, instalação de geração solar para suprir o consumo próprio de energia elétrica, utilização de transformadores de serviço auxiliar a seco, sem o uso de nenhum tipo de óleo isolante, o que elimina os riscos de contaminação do solo. Entre as vantagens estão o emprego de materiais reciclados e recicláveis, redução na geração de resíduos de construção, uso menor de recursos naturais e fácil logística.
Future Grid comprova viabilidade técnica do Energy Harvesting

Em um cenário no qual a IoT expande fronteiras e conecta dispositivos nos mais remotos locais, a dependência de baterias sempre representou um desafio operacional, logístico e ambiental. Agora, uma pesquisa conduzida pelo Future Grid – Centro de Competência do Lactec credenciado pela Embrapii - Empresa Brasileira de Pesquisa e Inovação Industrial comprova que é possível romper essa barreira.
Sob a liderança do gerente sênior do Centro de Competência Future Grid, Luciano Carstens, a iniciativa integra a estratégia de desenvolvimento de tecnologias habilitadoras para redes elétricas inteligentes, reforçando o papel do Centro na antecipação de soluções para o setor elétrico.
O projeto coordenado pelo pesquisador Patryk Fonseca, do Lactec, comprovou, em laboratório, a viabilidade técnica do Energy Harvesting, que consiste em coletar energias disponíveis no ambiente ao redor de sensores, convertê-las em energia elétrica e utilizá-las para alimentar o dispositivo.


Os resultados obtidos nas três linhas de pesquisa desenvolvidas demonstram que é possível capturar energias disponíveis no ambiente – como vibrações, calor e campo elétrico – e convertê-las em eletricidade suficiente para operar dispositivos de baixíssimo consumo.
“Esse projeto visa atender a demanda energética do futuro. Em nível de laboratório, já energizamos sensores que fazem comunicação sem fio. O Energy Harvesting é possível, é viável, é factível”, afirma Patryk Fonseca, que coordena os projetos na área.
Solução para o desafio das baterias
O Energy Harvesting surge como resposta a um desafio crescente: inúmeros sensores espalhados em redes elétricas, processos industriais, plantas de agronegócio e estruturas urbanas dependem exclusivamente de baterias para funcionar. A manutenção desses dispositivos – que envolve deslocamento de equipes, custos operacionais e logística de troca – representa um custo significativo para as empresas.
“Já presenciei situações em empresas com mais de 2 mil ativos espalhados em um estado. Se gastava até um mês para fazer a
troca de baterias de uma região. Não é apenas o custo da bateria, mas o deslocamento da equipe e o tempo de operação comprometido”, relembra o pesquisador.
A tecnologia permite, num primeiro momento, reduzir a frequência de trocas e, no futuro, eliminar completamente o uso de baterias. Os dispositivos passariam a ser alimentados por energias locais disponíveis – como o campo elétrico presente ao redor de cabos de transmissão, calor residual de equipamentos industriais ou vibrações mecânicas.
Campo elétrico é o mais promissor para o setor elétrico

Dentre as fontes investigadas, o campo elétrico apresenta-se como a mais promissora para aplicações no setor de redes inteligentes (Smart Grid). Diferentemente de outras formas de captura, que podem exigir transdutores sofisticados, a captação de campo elétrico ao redor de linhas de transmissão e distribuição é tecnicamente simples e de baixo custo.
“O fenômeno físico da captura e conversão do campo elétrico é factível. O grande desafio está no condicionamento dessa energia, na parte eletrônica. Dentre as três frentes estudadas, o campo elétrico é o mais promissor no contexto de Smart Grids”, explica a pesquisadora Natalia Menezes, que integra o grupo de estudos de Energy Harvesting.
Armazenamento temporário e protocolos de baixo consumo
Embora a tecnologia possa eliminar baterias, os pesquisadores ressaltam que ainda é necessário algum dispositivo para armazenamento temporário de energia, dada a intermitência das fontes captadas. A solução encontrada são os supercapacitores – componentes com capacidade de armazenamento superior aos capacitores convencionais, com vida útil maior que baterias e características técnicas distintas.
Para viabilizar a comunicação com consumo reduzido, os projetos utilizam protocolos de rede mesh como o Wi-SUN, porém
Próximos passos
Os avanços obtidos já renderam publicações científicas, dois depósitos de patentes de desenho industrial e um pedido de patente de invenção em andamento. Os três projetos, iniciados de forma integrada e posteriormente desmembrados para maior especialização, devem ser concluídos em maio deste ano, com validação completa em ambiente laboratorial.
Como Centro de Competência credenciado pela Embrapii, o Future Grid atua em níveis de maturidade tecnológica (TRL) mais baixos, voltados à prova de conceito e validação de princípios básicos. “Nosso papel é trabalhar os fundamentos, entender se é possível extrair energia disponível no
ainda poderiam ser explorados Bluetooth, Zigbee e LoRa, todos adequados para dispositivos de baixíssimo consumo energético, operando na faixa de microwatts a miliwatts.
“É importante ressaltar que não estamos falando de geração de energia em grande escala, como megawatts ou gigawatts. É um reaproveitamento de pequenas quantidades de energia que, em geral, seriam desperdiçadas, mas, se bem gerenciadas, são suficientes para alimentar sensores IoT”, esclarece o coordenador.
ambiente e alimentar um dispositivo. Comprovado o conceito, disponibilizamos esses resultados para que as empresas associadas possam elevar a tecnologia através de outros modelos de desenvolvimento de projetos”, explica Patryk Fonseca.
Segundo Luciano Carstens, gerente sênior do Future Grid, iniciativas como essa demonstram a maturidade do ecossistema de inovação aplicado às redes inteligentes no Brasil. “Nosso papel é estruturar ambientes de experimentação tecnológica que permitam validar conceitos emergentes com rigor técnico e visão de longo prazo, criando base para soluções industriais robustas”, destaca.
Impactos para indústria, sociedade e meio ambiente
Além da redução de custos operacionais para empresas que monitoram ativos, a tecnologia abre caminho para uma nova geração de dispositivos conectados. A popularização do Energy Harvesting deve escalar o sensoriamento de outras informações que hoje não são monitoradas justamente pela limitação logística ou energética imposta pelo uso de baterias.
“Imagine, o cidadão do futuro, talvez não precise mais carregar seu celular, pois este irá utilizar as ondas de rádio presentes nas cidades para carregar sua bateria, ou ainda, poderá ter roupas inteligentes que utilizam o diferencial de temperatura do corpo com o ambiente para se auto energizar”, projeta Patryk Fonseca.
A pesquisadora Natalia Menezes avalia
que, do ponto de vista ambiental, a redução no uso de baterias significa “menos extração de recursos, menor volume de produção e descarte – uma contribuição relevante em um cenário de crescentes preocupações com resíduos eletrônicos e mudanças climáticas”, assinala.
Nesse contexto, o Future Grid, sob coordenação de Luciano Carstens, busca atrair empresas interessadas em converter
Centro de Competência
O Future Grid é um dos nove Centros de Competência credenciados pela Embrapii, cuja missão é transformar conhecimento científico e infraestrutura tecnológica avançada em soluções de alto impacto para o mercado. Parte do Lactec, atua como catalisador de soluções
essa base tecnológica em produtos comerciais, ao mesmo tempo em que estrutura novos projetos cooperativos que integrem múltiplas fontes de captura de energia. Essa abordagem visa aumentar a confiabilidade e a disponibilidade energética de dispositivos do futuro, preparando empresas e talentos para liderar a próxima geração de soluções industriais e tecnológicas.
tecnológicas e pesquisa e desenvolvimento em hardware para Smart Grids e Eletromobilidade. Já a Embrapii atua como elo estratégico entre o setor industrial e o conhecimento científico, aportando recursos e compartilhando risco tecnológico para acelerar a inovação no Brasil.
Maior leilão de geração do Brasil redefine o mercado livre e o despacho energético
A realização do Leilão de Reserva de Capacidade (LRCap 2026) marca um divisor de águas no setor elétrico brasileiro. Ao viabilizar a contratação de cerca de 19 GW de potência e movimentar R$ 515,7 bilhões em contratos, o certame desloca o eixo da expansão energética — historicamente centrado em energia — para a confiabilidade sistêmica baseada em capacidade disponível.
Mais do que um evento de escala inédita, o leilão redefine as relações entre o Ambiente de Comercialização Livre (ACL), a formação de preços e a operação coordenada pelo Operador Nacional do Sistema Elétrico, pela Agência Nacional de Energia
Elétrica e pela Câmara de Comercialização de Energia Elétrica.
O LRCap introduz um conceito central: a contratação de potência firme, dissociada da geração efetiva de energia. Trata-se de um mecanismo de adequação de capacidade, no qual usinas são remuneradas pela disponibilidade, e não apenas pelo despacho. Segundo a Aneel - Agência Nacional de Energia Elétrica, o objetivo do leilão é garantir a potência firme e a segurança do Sistema Interligado Nacional. Na prática, o modelo responde à crescente penetração de fontes renováveis intermitentes — como solar e eólica — cuja variabilidade exige respaldo despachável.

A principal inflexão ocorre no mercado livre de energia (ACL): energia negociada, capacidade socializada. Tradicionalmente orientado por contratos bilaterais e pelo
PLD, o ambiente passa a conviver com uma nova camada de custo sistêmico: a capacidade contratada via leilão e financiada por encargos.
Do preço marginal ao custo sistêmico
A introdução do LRCap altera profundamente a lógica de formação de preços. Se antes o mercado refletia predominantemente o custo marginal de operação — com elevada volatilidade em cenários críticos —, agora passa a incorporar uma componente estrutural associada à confiabilidade.
A remuneração fixa por disponibilidade reduz a exposição a eventos extremos e suaviza oscilações abruptas do PLD, mas introduz encargos que são socializados entre os consumidores. O resultado é um sistema em que o preço da energia deixa de refletir apenas a dinâmica de oferta e demanda e passa a carregar, ainda que indiretamente, o custo da segurança do abastecimento.
A introdução da receita fixa por disponibilidade altera o equilíbrio econômico do setor. Parte relevante da remuneração das usinas — especialmente térmicas — deixa de depender do despacho efetivo, deslocando o risco operacional.
Segundo a EPE - Empresa de Pesquisa Energética, o modelo amplia a segurança energética e melhora a alocação dos custos entre consumidores livres e cativos.

Receita versus despacho: uma dissociação estrutural
A separação entre receita e despacho redefine o papel dos ativos térmicos no sistema elétrico. No modelo tradicional, a viabilidade econômica estava diretamente associada à energia gerada, com forte exposição a variáveis como hidrologia e despacho fora da ordem de mérito. Com o LRCap, os empreendimentos passam a receber uma receita fixa pela disponibilidade, independentemente da geração efetiva, enquanto o despacho permanece condicionado à necessidade do sistema. Essa mudança transforma as térmicas em ativos de segurança operativa — verdadeiros “seguros energéticos” —, responsá-
veis por garantir estabilidade e confiabilidade em um sistema cada vez mais dependente de fontes intermitentes.
Do ponto de vista operacional, o impacto é igualmente relevante. O ONS-Operador Nacional do Sistema Elétrico passa a operar com um portfólio contratado de capacidade disponível, reduzindo a necessidade de medidas emergenciais. Assim, o leilão é considerado essencial para reforçar a segurança do sistema elétrico. Essa mudança desloca o paradigma operacional de uma lógica reativa para um modelo baseado em planejamento e confiabilidade probabilística.

“Hoje é um dia histórico para o setor elétrico brasileiro […] fizemos o maior leilão de térmicas da história do país,” disse o ministro de minas e energia, Alexandre Silveira. O ministro afirmou que não há transição energética sem segurança do suprimento elétrico. E não há segurança energética sem potência flexível. Silveira também defendeu o modelo do ponto de vista econômico afinal, contratar uma térmica em leilão […] garante menor tarifa […] do que contratar de forma emergencial. O LRCap não foi apenas um leilão, mas uma resposta estrutural ao novo sistema elétrico, mais renovável, mais instável e mais dependente de capacidade firme.
O que muda para o consumidor livre
Para os consumidores do ACL, o novo modelo representa uma transição para um ambiente mais previsível, porém estruturalmente mais oneroso. A contratação antecipada de capacidade reduz o risco de eventos extremos e melhora a segurança do
suprimento, favorecendo o planejamento energético e financeiro. Em contrapartida, a socialização dos custos de disponibilidade introduz novos encargos, independentemente da estratégia individual de contratação. Além disso, o preço da energia perde
parte de sua função como sinal econômico puro, passando a refletir também decisões regulatórias relacionadas à confiabilidade do sistema. O resultado é um mercado híbrido, no qual liberdade contratual e custos sistêmicos tornam-se interdependentes.
Assim, o LRCap 2026 inaugura uma nova fase do setor elétrico brasileiro, na qual a confiabilidade deixa de ser um subproduto do mercado e passa a ser explicitamente contratada, precificada e socializada.
A energia continua sendo negociada no mercado, mas a segurança do sistema passa a ser tratada como infraestrutura e cobrada como tal.
Note-se que a disputa envolvendo os irmãos Batista (JNS) no contexto do leilão expõe uma dimensão crítica do certame: o conflito concorrencial entre grandes players e o risco regulatório associado a contratos bilionários de capacidade.
Custo da energia pressiona competitividade da indústria e reforça busca por eficiência
O custo da energia segue entre os principais desafios para a competitividade da indústria brasileira. Considerada um insumo essencial para praticamente todos os processos produtivos, a energia tem impacto direto nos custos de produção e na capacidade das empresas de competir tanto no mercado interno quanto no cenário internacional.
Segundo o Ciesp - Centro das Indústrias do Estado de São Paulo – Regional Santo André – que também abrange as cidades de Mauá, Ribeirão Pires e Rio Grande da Serra -, a questão energética tornou-se estratégica para o setor produtivo, especialmente em um momento em que empresários buscam reduzir despesas e aumentar a eficiência operacional.
Para Eduardo Batistella Mazurkyewistz, diretor titular da Regional, a energia deve ser tratada como uma matéria-prima fundamental para a indústria, já que está presente em todas as etapas da produção. “Para a indústria, a energia é praticamente uma matéria-prima. Ela está presente em todo o processo produtivo e tem peso direto na formação dos custos. Quando esse insumo se torna caro, toda a cadeia produtiva sente os impactos”, afirma.
De acordo com o dirigente, além de pressionar os custos das empresas, o preço da energia também afeta a competitividade da indústria nacional em comparação com outros países que possuem estruturas energéticas mais eficientes ou

custos menores.
“Em muitos mercados internacionais, a indústria opera com custos energéticos mais competitivos. Isso cria um desafio adicional para o empresário brasileiro, que precisa buscar alternativas para manter sua produtividade e sua presença no mercado”, explica Mazurkyewistz.
Diante desse cenário, cresce entre as empresas o interesse por soluções que permitam reduzir o peso da energia nas operações. Alternativas como o uso de gás natural, biomassa e projetos voltados à eficiência energética têm ganhado espaço nas estratégias industriais.
Com o objetivo de apoiar as empresas nesse desafio, o CIESP mantém iniciativas voltadas à orientação e ao acesso a soluções que possam ajudar na gestão dos custos energéticos. Entre elas está um convênio com a Jacarandá Investimentos, em parceria com o BTG Pactual, que oferece condições especiais para associados interessados em estruturar projetos relacionados à eficiência e à gestão energética.
A iniciativa busca apoiar as indústrias na análise de oportunidades para otimizar o consumo de energia, identificar alternativas
mais competitivas e reduzir despesas operacionais.
“Sabemos que o custo da energia é uma dor real para o empresário industrial. Por isso, buscamos oferecer soluções que possam ajudar as empresas a enfrentar esse desafio, melhorar sua eficiência e reduzir despesas. É uma forma concreta de apoiar a competitividade do setor produtivo”, destaca o diretor.
Segundo Mazurkyewistz, iniciativas como essa também reforçam o papel das entidades industriais em oferecer benefícios práticos às empresas.
“O empresário está constantemente buscando formas de reduzir custos e tornar sua operação mais eficiente. Quando mostramos que o CIESP pode contribuir com soluções nesse sentido, fortalecemos ainda mais o vínculo com os associados e também ampliamos o interesse de novas empresas em participar da entidade”, conclui.
Com o aumento da pressão sobre os custos industriais, o tema da energia tende a ganhar cada vez mais relevância nas discussões sobre competitividade e desenvolvimento do setor produtivo, especialmente em regiões com forte presença industrial, como o ABC paulista.
Eletronor consolida presença no Sul do país em meio à transformação do setor industrial
O mercado global de automação industrial deverá alcançar US$ 337,69 bilhões até 2032, partindo de um patamar estimado em US$ 183,36 bilhões, com crescimento médio anual de 9,12% no período, de acordo com levantamento da MMR Statistics, em avanço que reflete o ritmo de modernização das operações industriais e o aumento dos investimentos em integração tecnológica ao redor do mundo. Neste cenário de expansão, a Eletronor, referência em automação industrial e na distribuição de materiais elétricos na Região Sul, consolida sua atuação na região ao oferecer soluções completas, consultoria técnica e suporte especializado para projetos de modernização, otimização e digitalização industrial. Como distribuidora oficial da Ro -
ckwell Automation, a empresa disponibiliza ao mercado regional tecnologias voltadas à automação e integração de sistemas produtivos. Esse movimento é acompanhado por investimentos em sua estrutura: com um investimento de R$ 35 milhões realizado no último ano, o espaço conta com 5 mil m² de área construída, quatro vezes maior que o anterior, e amplia significativamente a capa-
cidade logística e operacional da empresa, que mira triplicar de tamanho nos próximos 10 anos.
Com mais de 150 colaboradores, a Eletronor acompanha o crescimento do setor e a demanda por soluções industriais mais integradas e planeja triplicar de tamanho até 2035, investindo em infraestrutura, tecnologia e qualificação profissional.

“A modernização industrial passa necessariamente pela integração de tecnologias e pela adoção de soluções capazes de gerar eficiência e confiabilidade. Nosso trabalho envolve não apenas o fornecimento de equipamentos, mas também o suporte técnico e a consultoria necessários para que cada projeto seja implementado de forma estruturada”, Carlos Varisco, diretor da Eletronor.
Com forte atuação regional, a empresa atende gestores, engenheiros e especialistas das áreas de automação, manutenção, engenharia e produção, apoiando iniciativas voltadas à construção de arquiteturas industriais integradas. As soluções disponibilizadas permitem maior conectividade entre equipamentos, sistemas e plataformas, promovendo ganhos em eficiência operacional, visibilidade de processos e maior previsibilidade nas operações.
Além do fornecimento de equipamentos, a Eletronor mantém proximidade técnica com seus clientes ao longo das diferentes etapas dos projetos, oferecendo acompanhamento especializado e suporte alinhado às demandas operacionais de cada indústria. Essa atuação fortalece o relacionamento com

o setor produtivo regional e contribui para a consolidação de ambientes industriais mais integrados e preparados para os desafios da atual dinâmica de mercado.
“Com esse posicionamento, a empresa acompanha o crescimento do mercado global de automação ao reforçar sua presença no Sul do Brasil, ampliando sua contribuição para a modernização e a evolução tecnológica das operações industriais na região”, finaliza o executivo.
OPC e LoRa Alliance juntas para mapear LoRaWAN para OPC UA
A Fundação OPC anunciou um novo esforço conjunto com a LoRa Alliance para desenvolver um mapeamento de LoRaWAN para OPC UA, unindo duas tecnologias altamente complementares que desempenham papéis importantes no futuro da conectividade industrial e da IoT. Esta colaboração visa definir como os modelos de dados e informações originados de dispositivos e sistemas baseados em LoRaWAN podem ser representados em OPC UA, permitindo uma melhor interoperabilidade entre implantações de redes de longa distância de baixa potência (LPWAN) e sistemas de automação industrial, corporativos e baseados em nuvem.
LoRaWAN e OPC UA abordam camadas diferentes, porém altamente sinérgicas, do ecossistema digital. LoRaWAN é amplamente utilizado para comunicação sem fio de longo alcance e baixa potência, tornando-o ideal para sensoriamento distribuído, monitoramento remoto, medição e dispositivos de campo alimentados por bateria. O OPC UA, por outro lado, fornece uma estrutura robusta e independente de plataforma para modelagem segura de informações e troca de dados interoperável em ambientes industriais e corporativos. Juntos, eles oferecem uma combinação poderosa: conectividade sem fio eficiente na borda, aliada à integração de dados semanticamente rica e padronizada em sistemas operacionais e de tecnologia da informação. Criar um mapeamento estruturado entre LoRaWAN e OPC UA facilitará a integração de fluxos de dados baseados em LoRaWAN em arquiteturas habilitadas para OPC UA por usuários, fornecedores e provedores de soluções. Essa integração dará suporte a uma ampla gama de casos de uso em automação industrial, infraestrutura inteligente, energia, sistemas prediais, monitoramento ambiental e iniciativas de transformação digital.
“Ao trabalharmos juntos em uma abordagem de mapeamento comum, podemos ajudar a simplificar a integração e acelerar a adoção em uma ampla gama de cenários industriais e de IoT”, disse Alper Yegin, CEO da LoRa Alliance.
“Esta colaboração reflete a crescente necessidade de conectar diversas tecnologias de comunicação com modelos de informação interoperáveis”, disse Stefan Hoppe, presidente da OPC Foundation. “LoRaWAN e OPC UA são altamente complementares, e esta iniciativa ajudará os usuários a extrair maior valor de ambas.”



Cúpula Empresarial Espanha-Brasil reúne líderes empresariais em Barcelona

A ApexBrasil - Agência Brasileira de Promoção de Exportações e Investimentos, em parceria com o Ministério das Relações Exteriores e a Confederación Española de Organizaciones Empresariales (CEOE), promoveu, em Barcelona, na Espanha, a Cúpula Empresarial Espanha-Brasil. O encontro reuniu autoridades, lideranças empresariais e representantes de setores estratégicos dos dois países, com as presenças confirmadas do presidente Luiz Inácio Lula da Silva e do presidente da ApexBrasil, Laudemir Muller. O evento integrou a agenda de fortalecimento das relações bilaterais entre Brasil e Espanha, com foco na construção de parce -
rias sustentáveis e na diversificação das trocas comerciais em um cenário global dinâmico. Buscando aproximar os ecossistemas empresariais e estimular a cooperação em áreas prioritárias para o desenvolvimento econômico, o evento visa ampliar o diálogo econômico e fomentar novas oportunidades de negócios, comércio e investimentos.
Lula agradeceu aos empresários espanhóis pela confiança que eles têm demonstrado ao Brasil ao longo deste mandato presidencial e dos seus mandatos anteriores. “Desde a minha primeira eleição, eu dizia que, para que os empresários sejam motivados a fazer investimento no Brasil, é preci-
so que o presidente tenha a capacidade de mostrar aos investidores estrangeiros as possibilidades concretas que eles têm de fazer os seus investimentos e as possibilidades de retorno dos seus investimentos”, afirmou.
Durante o evento, o presidente Lula destacou os bons resultados da economia nacional, como a menor inflação acumulada em quatro anos da história do país. “Estamos com o maior crescimento da massa salarial no Brasil. Estamos com o menor desemprego da história do Brasil. Temos o maior financiamento para o agronegócio da história do Brasil, e vamos bater outra vez recorde de produção agrícola. Vamos chegar a mais de 350 milhões de toneladas de grãos. Além disso, nós temos a Nova Indústria Brasil, que vai chegar a quase R$ 600 bilhões de investimentos, sobretudo no setor de fármacos”, relatou.
Márcio Elias Rosa, ministro do Desenvolvimento, Indústria, Comércio e Serviços lembrou que, em 1º de maio, entrará em vi-
gor o acordo Mercosul-União Europeia, que contou com o apoio do governo espanhol para sua aprovação. “A partir de 1º de maio, nós teremos a desgravação imediata de pelo menos 540 bens que são reciprocamente importados e exportados. Por isso, é necessário que façamos diálogos com o setor privado e com o setor público. Alguns produtos, milho, etanol, arroz, proteína animal, suína ou de aves, começam já a ter cotas e a alíquota é zero. E nós precisamos de um setor privado devidamente informado para que esse comércio se expanda”, explicou.
“A nossa expectativa é que, com a vigência efetiva do Acordo Mercosul-União Europeia, se nós pegarmos só os 543 produtos que vão ter uma desgravação, que vai sair a tarifa imediatamente para zero, isso pode dar um ganho, ainda este ano, de mais 1 bilhão de dólares de exportação do Brasil, que se somariam aos quase 50 bilhões de exportação que o Brasil já tem”, apontou o presidente da ApexBrasil, Laudemir Müller.

A força das relações entre os dois países foi ressaltada pelo presidente do BNDES, Aloizio Mercadante. “O Brasil tem superávit com a Espanha. Agora, a qualidade do comércio é favorável à Espanha. Então, há um equilíbrio. Agora, o que é mais importante? É que a Espanha é o segundo maior investidor histórico do Brasil. A Espanha tem um papel decisivo, muito relevante, e é muito bem-vista pela população brasileira”, comentou.
“A Cúpula Empresarial Espanha-Brasil
reafirma o compromisso do governo Lula com o fortalecimento de parcerias internacionais, promovendo uma agenda de desenvolvimento econômico e ampliação do comércio bilateral que impacta na geração de emprego e renda par ao nosso país. A Espanha é a nossa segunda principal parceira na União Europeia e a quinta no ranking global, um mercado que precisamos cultivar e estimular”, destaca o presidente da ApexBrasil, Laudemir Muller.
Relações comerciais Brasil e Espanha
Em 2025, a corrente de comércio entre Brasil e Espanha alcançou US$ 12,6 bilhões, com superávit de US$ 5,0 bilhões para o Brasil. As exportações brasileiras somaram US$ 8,8 bilhões, enquanto as importações totalizaram US$ 3,8 bilhões, consolidando a Espanha como um parceiro estratégico no contexto europeu. A Espanha foi, no período, o 5º principal destino das exportações brasileiras no mundo e o 2º na União Europeia, representando 2,5% das vendas externas do Brasil. Já nas importações, ocupou a 13ª posição global e a 4ª entre os países europeus. Sob a ótica espanhola, o Brasil figura como o 13º fornecedor, com participação de 2,0% em seu mercado.
Considerando o potencial de diversificação de mercado, o Mapa de Oportunidades da ApexBrasil identifica 418 produtos com potencial de exportação para o mercado espanhol, incluindo itens como polietileno de alta densidade, abacates frescos ou secos, partes para motores e carne bovina desossada.
A relação bilateral também se destaca pela forte presença de investimentos espanhóis no Brasil, especialmente nos setores de energia, telecomunicações, infraestrutura e indústria. A Espanha é o 3º maior investidor da União Europeia no país, com estoque de US$ 56,5 bilhões.
Em relação aos produtos, destacam-se óleos brutos de petróleo (36,8%), soja (18,2%), farelos e outros alimentos para animais (7,2%) e minérios de cobre e seus concentrados (7,2%), evidenciando o peso da indústria extrativa e do agronegócio. Do lado das importações brasileiras, predominam produtos da indústria de transformação, que representam cerca de 96% da pauta, com destaque para medicamentos (15,3%), óleos combustíveis (11,2%), compostos químicos (5,8%) e partes e peças de veículos (3,6%).
No campo setorial, há convergência de interesses em áreas estratégicas como energia e transição energética — com protagonismo do petróleo nas exportações brasileiras — e agronegócio, com potencial de ampliação em produtos como frutas e carne bovina. Esse cenário reforça as oportunidades de aprofundamento da parceria econômica e de expansão do comércio bilateral.
Na China, ApexBrasil apoia investimento da CRRC no Brasil e reforça a cooperação com o país
Empresa da área de ferrovias anunciou investimentos de R$ 5,6 bilhões no Brasil em março

Em 25 de março de 2026, a China Railway Rolling Stock Corporation (CRRC) anunciou a implantação de uma fábrica de trens em Araraquara (SP) e o lançamento de projetos ferroviários que somam R$ 5,6 bilhões, marcando um novo avanço na cooperação entre Brasil e China nos setores de infraestrutura e manufatura.
A ApexBrasil, por meio de seu escritório na China, acompanhou o processo de aproximação institucional da empresa com o Brasil, apoiando a articulação com parceiros relevantes e contribuindo para a facilitação do diálogo ao longo das diferentes etapas do projeto.
A iniciativa prevê o início da produção no segundo semestre de 2026 e está associada a projetos estratégicos de mobilidade no es -
tado de São Paulo, incluindo o desenvolvimento do trem interurbano e a ampliação da capacidade do sistema metroviário.
Além de contribuir para a melhoria da infraestrutura de transporte, o investimento tem potencial para gerar empregos, fortalecer a cadeia produtiva local e estimular a incorporação de tecnologia no setor ferroviário brasileiro.
Segundo Victor Queiroz, Chefe do Escri- tório da ApexBrasil na Ásia-Pacífico, “a presença da CRRC no Brasil reflete o amadurecimento da cooperação sino-brasileira e o crescente interesse de empresas chinesas em investir no país. Iniciativas como essa apresentam potencial relevante para a transferência de tecnologia e o fortalecimento da base industrial brasileira”.
BYD lança empilhadeira com tecnologia inédita e acelera a eletrificação de toda a cadeia

A BYD dá mais um passo para ampliar a eletrificação da cadeia logística no Brasil com a chegada da primeira empilhadeira retrátil do país equipada com a bateria Blade, tecnologia proprietária da Companhia já consagrada em seus veículos eletrificados.
A novidade representa a expansão de uma tecnologia que já transformou a mobilidade elétrica da BYD para um novo ambiente de operação: a logística. Ao levar a bateria Blade para a movimentação de cargas, a empresa transfere ao setor uma solução já validada em larga escala em carros, ônibus e, mais re -
centemente, nos trens da Linha 17-Ouro do Metrô de São Paulo. É a mesma base tecnológica, agora aplicada para elevar eficiência, previsibilidade e segurança também dentro de armazéns e centros de distribuição.
A empilhadeira permite carregamento completo em aproximadamente uma hora, ampliando a disponibilidade do equipamento e reduzindo paradas, um dos principais gargalos da logística. O resultado é até 25% de redução no custo total de operação (TCO), aumento de até 20% na previsibilidade e ganhos diretos de produtividade entre
15% e 25%, impulsionado pela eliminação de trocas de bateria, menor necessidade de infraestrutura e redução de mão de obra indireta, além de aumento de até 20% na previsibilidade operacional, garantido pela estabilidade das baterias e pela ausência de efeito memória.
O sistema também oferece redução de até 30% no consumo de energia em comparação com soluções convencionais chumbo-ácido, com maior eficiência de carga, menor perda térmica, zero emissão local de gases e vida útil das baterias até três vezes superior, posicionando a Série RTR como uma solução mais eficiente, previsível e sustentável para operações de alta intensidade.
Baseada em fosfato de ferro-lítio (LFP), a bateria Blade é um dos principais ativos tecnológicos da BYD e se tornou referência por reunir durabilidade, estabilidade térmica e elevados padrões de segurança. Sua aplicação em veículos comerciais da marca já comprova, na prática, a versatilidade e a robustez dessa tecnologia em operações de alta exigência.
“Na BYD, a inovação só faz sentido quando ganha escala e aplicação real. A bateria Blade é um exemplo claro disso. Ela nasceu como uma tecnologia disruptiva, provou sua eficiência e segurança nos nossos carros, avançou para ônibus e trens, e agora chega
à logística mostrando a força de uma plataforma tecnológica capaz de transformar diferentes setores. Estamos levando ao setor uma solução já testada, validada e preparada para elevar o patamar de eficiência, confiabilidade e segurança das operações no Brasil”, afirma Marcello Schneider, diretor de Veículos Comerciais e Solar da BYD no Brasil.

Gerdau amplia participação em usina hidrelétrica no Rio Grande do Sul
A Gerdau celebrou com a Celesc - Centrais Elétricas de Santa Catarina S.A., contrato de aquisição da totalidade da participação acionária na Dona Francisca Energética S.A. (“Dfesa”), correspondente a 23,03% do capital social. A proposta considera um enterprise value de R$ 150 milhões, a qual foi aceita
nesta data pela Celesc. O preço de aquisição será pago à vista, na data do fechamento, com recursos próprios disponíveis. Este valor está sujeito aos termos e condições usuais em transações dessa natureza e estabelecidos nos contratos e ao eventual exercício do direito de preferência

proporcional detido pelos demais acionistas da Dfesa. Adicionalmente, o fechamento está condicionado à verificação de condições precedentes usuais para este tipo de operação, incluindo a aprovação pela autoridade concorrencial brasileira.
De acordo com Gustavo Werneck, CEO da Gerdau, “Estamos aumentando nossa participação em uma hidrelétrica da qual somos acionistas desde o início da operação, visando elevar nossa produção de energia renovável. Além disso, marca mais um investimento no Rio Grande do Sul, estado onde a Gerdau foi fundada há 125 anos”, afirma.
A Dfesa é uma sociedade anônima de capital fechado dedicada à geração de energia elétrica por meio da operação, mediante cota de 85% no consórcio da concessão da Usina Hidrelétrica Dona Francisca, localizada no rio Jacuí, no estado do Rio Grande do Sul, entre os municípios de Agudo e Nova Palma. A usina possui capacidade instalada de 125 MW e garantia física de 72,5 MW médios, dos quais aproximadamente 66 MW médios são destinados à Dfesa.
Atualmente, a Gerdau é detentora de 53,94% do capital social da Dfesa, equivalente a 35,6 MW médios de energia. Com a referida aquisição, a Companhia passará a deter 76,97% de participação acionária, totalizando cerca de 50 MW médios de energia assegurada.
A aquisição marca mais um passo para aumentar a competitividade aliada à descarbonização das operações da empresa no país. Em março de 2026, a Gerdau inaugurou o segundo parque solar do qual é acionista, no município de Barro Alto, em Goiás. O primeiro, inaugurado em junho de 2025, localiza-se em Arinos, em Minas Gerais. Em janeiro de 2025, a empresa também anunciou a aquisição de duas pequenas centrais hidrelétricas (PCHs) no Mato Grosso (MT).


Nova válvula esfera de bloqueio sem óleo
A Danfoss está expandindo seu programa EXO — Extended Oil-Free com o lançamento da linha OFB, uma válvula esférica de bloqueio isenta de óleo recém-desenvolvida, projetada para chillers isentos de óleo e bombas de calor com a compressores Turbocor®. Como uma válvula de serviço e válvula de migração de líquido anti-refrigerante (quando motorizada) usada no lado de sucção, a OFB traz eficientemente um novo nível de proteção para sistemas isentos de óleo, tornando-a particularmente valiosa quando instalada em aplicações exigentes, como data centers e instalações HVAC avançadas.
A OFB é estanque e isenta de óleo, projetada para sistemas de climatização (HVAC) e refrigeração por bombas de calor. Integrante do programa EXO da Danfoss, a OFB previne a migração do fluido refrigerante, protege os compressores e garante baixa perda de pressão com um design de válvula de bloqueio de 3 1/8” com passagem plena. Construa sistemas isentos de óleo mais robustos e seguros
Projetado para elevar a confiabilidade do lado de sucção, a OFB apresenta um design funcional Três em Um que combina uma transição suave do cone de sucção, uma válvula de isolamento de bloqueio apertada e capacidade total de motorização. O cone de sucção suave garante uma excelente qualidade do fluxo de entrada com queda de pressão insignificante, enquanto a válvula esférica motorizada evita a migração do refrigerante — durante as condições de parada e partida, e um serviço seguro para o sistema.
A nova OFB é construída como uma linha totalmente modular compatível com todos os compressores Danfoss Turbocor® TGx e TTx. Com 12 opções de flangeamento de entrada (3”, 4” e 5”), a válvula se encaixa com facilidade em sistemas novos e existentes e suporta múltiplos padrões globais de conexão, padrão ANSI, ASTM, DIN e EN. Seu design robusto suporta temperatura de operação de -40 °C a +100 °C, garantindo desempenho confiável em diversos climas e aplicações.
A OFB é a mais recente inovação adicionada ao programa estendido isento de óleo da Danfoss. Com a introdução dos novos modelos OFC, o lançamento de válvulas de escalonamento PTS de resposta rápida, a Danfoss eleva o padrão para novos níveis de confiabilidade e eficiência energética, que são essenciais para os Data Centers, onde a tecnologia isenta de óleo é amplamente implantada.

Transmissores de pressão
A Série EJX S representa a linha principal de transmissores de pressão OpreX da Yokogawa, estabelecendo um novo padrão em precisão, estabilidade a longo prazo, capacidade de alcance, exibição gráfica retroiluminada colorida e durabilidade. Construída sobre décadas de tecnologia comprovada DPharp e aprimorada com as mais recentes inovações em sensores, a Série EJX S foi projetada para aplicações críticas onde é exigido desempenho intransigente. Como o auge da família de transmissores de pressão OpreX, a Série EJX S oferece confiança excepcional na medição, mesmo nos ambientes de processo mais exigentes.
As características da Série EJX S incluem precisão de até ±0,025%; até± 0,1% a cada 20 anos Estabilidade; habilidade de Alcance até 400:1; até 3.600 psi MWP; certificado SIL2 / SIL3; diagnóstico avançado como padrão; exibição Gráfica Retroiluminada em Cor; suporte ao protocolo de comunicação de ponta: PROFINET
A Série EJX S pode ajudar você a maximizar a confiabilidade do processo, otimizar o desempenho da planta e garantir a excelência operacional a longo prazo.

Novo sistema de plasma compacto profissional
Projetado para metalúrgicos que exigem cortes de alta qualidade, maior capacidade e portabilidade, o novo sistema de plasma a ar Hypertherm Associates oferece mais potência, mais valor e uma garantia incomparável de seis anos para a fonte de alimentação. Construído para lidar com uma ampla gama de tarefas de corte, em diversos setores, e oferecido a um preço mais acessível, o Powermax33 XP combina desempenho de corte aprimorado com a reputação da Powermax em confiabilidade e longa vida útil dos consumíveis. A versatilidade do sistema proporciona alta potência para corte de metais espessos, além de ser compatível com os consumíveis FineCut® para cortes detalhados e de alta qualidade em materiais mais finos.
O sistema de plasma portátil e fácil de usar oferece uma capacidade de corte recomendada de 13 mm (0,5 pol.) e uma capacidade de separação de 20 mm (0,75 pol.), fornecendo potência de corte comparável a alguns sistemas concorrentes de 45 amperes. Com design bivolt, o Powermax33 XP pode operar com energia de 120 V ou 240 V, tornando-o ideal para uso em oficinas ou em campo.

Schaeffler oferece soluções de autonomia e eletrificação
A Schaeffler aumenta seu portfólio completo de produtos e soluções inovadoras, projetados para ajudar fabricantes de equipamentos originais (OEMs) a moldar o futuro da construção civil.
Com empreiteiras e proprietários de frotas enfrentando restrições persistentes de mão de obra, cronogramas mais apertados e expectativas crescentes em relação à segurança e sustentabilidade, o setor da construção civil está acelerando a adoção de equipamentos preparados para automação, sistemas de propulsão eletrificados e máquinas com capacidade de coleta e processamento de dados. As tendências do setor apontam para um aumento nos sistemas avançados de assistência ao motorista, controle de máquinas e eletrificação, especialmente em aplicações de alta utilização, onde os ganhos de eficiência e a redução do tempo de inatividade são cruciais.
Com a integração completa da Vitesco Technologies, a Schaeffler expandiu significativamente suas capacidades e expertise em eletrônica, software e tecnologias de sensores, complementando sua expertise central em mecânica e mecatrônica. Isso permite que a empresa ofereça uma gama mais ampla de soluções para equipamentos de construção inteligentes e eficientes, que serão apresentadas em seu estande.
A Schaeffler apresenta soluções em mecatrônica/sensores e atuadores eletromecânicos: sensores do sistema de arrefecimento - a válvula de controle de ar 12 e o sensor de fluxo de ar de massa da Schaeffler proporcionam controle preciso e gerenciamento otimizado do ar do motor para aumentar a eficiência da máquina; sensores do sistema de escape - sensores avançados de alta temperatura, sensores de NOx e sensores de pressão diferencial da Schaeffler ajudam a garantir a medição precisa das emissões e a conformidade com as normas regulamentares; sensores do sistema de transmissão – sensor de medição de torque e o sensor ultrassônico de nível de óleo da Schaeffler permitem um gerenciamento integrado e confiável do sistema de transmissão, reduzindo as necessidades de manutenção e prolongando a vida útil do equipamento.
As tecnologias de atuadores eletromecânicos da Schaeffler eliminam a necessidade de sistemas hidráulicos, permitindo movimentos precisos e energeticamente eficientes para equipamentos de construção inteligentes e livres de emissões e incluem o atuador Linear Ewellix CAHB-2xS - com capacidade para suportar até 10 kN de força e velocidades de até 55 mm/s, este atuador inteligente oferece feedback de posição absoluta e monitoramento de status, além de capacidade de sincronização e integração com barramento CAN; atuador eletromecânico Ewellix EMA-80 de 3 toneladas - com um design compacto, modular e totalmente elétrico (isento de óleo), este atuador oferece alta densidade de potência e eficiência energética para aplicações de elevação de cargas pesadas; atuador rotativo eletromecânico de alto torque - projetado para substituir atuadores rotativos hidráulicos, esta solução eletromecânica apresenta durabilidade excepcional, controle de posição repetível e programabilidade, além de desempenho livre de manutenção em um design sem óleo.
As soluções de acionamento elétrico, mancais e sistemas de válvulas incluem os motores elétricos para aplicações de acionamento e híbridas utilizadas em máquinas de construção permitem a operação livre de emissões dos equipamentos – em canteiros de obras urbanos, por exemplo – e ajudam os fabricantes de equipamentos originais (OEMs) a atingirem suas metas de sustentabilidade; Eixo Elétrico para Serviço Pesado - sistema de acionamento elétrico modular e totalmente integrado (construído em torno de uma arquitetura de 800 V) para caminhões e ônibus, este eixo elétrico combina motores de tração, transmissão, diferencial e eletrônica de potência de carboneto de silício em um único pacote de eixo; rolamentos Schaeffler projetados para atender às exigências de máquinas elétricas de alta velocidade e alta tensão, incluindo modelos especiais para motores elétricos que previnem danos causados por correntes elétricas parasitas; rolamentos de rolos cônicos X-life - oferecem classificações de carga dinâmica até 25% maiores e atrito 75% menor em comparação com os modelos padrão, atendendo diretamente à demanda por maior eficiência energética e menor necessidade de manutenção; rolamento de rolos cilíndricos NJ23-ILR - oferece o dobro da vida útil e classificações de carga líderes do setor para aplicações fora de estrada; iFlexAir - um controle de elevação da válvula de admissão totalmente variável e eletro-hidráulico, que pode ser facilmente integrado a diversas arquiteturas de motor; e o iRockAir - um sistema de balancins de dois estágios comutáveis para desativação de cilindros que pode reduzir significativamente as emissões de CO2 sem sacrificar o desempenho.


Atualização da biblioteca HART DD para interoperabilidade e expansão
A FieldComm Group disponibilizou o Release 4 – 2025 da biblioteca HART DD (Device Description), consolidando mais um ciclo de atualização do ecossistema de dispositivos inteligentes voltados à automação de processos. A atualização incorpora novos equipamentos, revisões e atualizações de descrições digitais, reforçando a interoperabilidade e a padronização em ambientes industriais heterogêneos.
O release amplia significativamente o conjunto de dispositivos suportados, com a inclusão de instrumentos de múltiplos fabricantes globais, abrangendo sensores, transmissores e equipamentos analíticos. Além dos novos dispositivos, a atualização contempla equipamentos atualizados, refletindo evoluções funcionais e de firmware; e revisões de DD existentes, garantindo compatibilidade com versões mais recentes de sistemas de engenharia e ativos.
Esse movimento evidencia a dinâmica contínua do ecossistema HART, no qual a biblioteca de descrições atua como elemento-chave para assegurar que dispositivos de campo possam ser configurados, diagnosticados e integrados de forma uniforme em diferentes plataformas. DD (Device Description): o núcleo da interoperabilidade
No contexto do protocolo HART, as Device Descriptions (DDs) desempenham papel central ao traduzir as capacidades dos dispositivos em estruturas compreensíveis por sistemas de controle, asset management e ferramentas de engenharia. Elas permitem parametrização padronizada de dispositivos multivendor, acesso a diagnósticos avançados e variáveis secundárias e integração com arquiteturas digitais baseadas em FDI (Field Device Integration)
A atualização da biblioteca DD, portanto, não é apenas incremental: ela sustenta a operação contínua de plantas industriais em ambientes cada vez mais orientados a dados. E a evolução da biblioteca HART DD ocorre em paralelo ao avanço das tecnologias de integração unificada, como o FDI, também promovido pela FieldComm Group apontando para maior integração entre protocolos (HART, Fieldbus, Ethernet-APL), modelos de informação padronizados (como PA-DIM), conectividade OT/IT em tempo real e adoção de requisitos de cibersegurança (ex.: CRA europeu)
Nesse cenário, a biblioteca DD funciona como camada fundamental de compatibilidade retroativa e continuidade operacional, permitindo que dispositivos legados coexistam com arquiteturas digitais modernas.
O Release 4 – 2025 reforça a estratégia da FieldComm Group de manter um ecossistema aberto, interoperável e em constante evolução. A inclusão de novos fabricantes — inclusive de mercados emergentes — indica um movimento de ampliação geográfica e tecnológica do padrão HART.

Zendure lança série avançada para um ecossistema completo de energia inteligente
A Zendure, pioneira global em Sistemas Plug-in de Gestão de Energia Residencial (HEMS), apresenta três novos modelos SolarFlow — SolarFlow 2400 Pro, SolarFlow 2400 AC+ e SolarFlow 1600 AC+. Esses lançamentos completam uma matriz de produtos de destaque do setor que abrange desde soluções de ponta até opções de entrada, atendendo às diversas necessidades dos consumidores, desde armazenamento solar em varandas e integração com sistemas FV de telhado até arbitragem de tarifas por Horário de Uso (TOU).
O SolarFlow 2400 Pro é um sistema de armazenamento solar para varandas de 2400 W, bidirecional em CA e orientado por IA, projetado para instalações de alta potência em varandas ou telhados. Ele suporta até 3000 W de entrada CC (4×750 W MPPT), com entrada total de FV chegando a 4800 W ao combinar o acoplamento CC+CA. Ele fornece 2400 W contínuos de saída conectada à rede (atualizável a partir do padrão de 800 W), 3200 W de entrada máxima em CA e capacidade de bateria expansível de 2,4 kWh até 14,4 kWh (até 16,8 kWh em configurações premium), com potência de descarga de 2400 W.
Otimizado para sistemas FV de telhado já existentes, o SolarFlow 2400 AC+ é uma atualização de armazenamento acoplada em CA. Ele oferece 2400 W de entrada em CA e saída contínua conectada à rede (atualizável a partir de 800 W), até 3200 W de entrada máxima em CA, 2400 W de descarga da bateria e armazenamento expansível de 2,4 kWh até 14,4 kWh (até 16,8 kWh em configuração premium), permitindo maior autoconsumo e economia de custos.
SolarFlow 1600 AC+ - Opção de entrada acessível, voltado para residências com sistemas FV de telhado já existentes e necessidades energéticas moderadas. Ele fornece 1600 W de entrada e saída em CA, com 800 W padrão de saída conectada à rede (atualizável para 1400 W por dispositivo ou 3600 W no modo premium). A capacidade da bateria começa em 1,92 kWh e pode ser expandida até 11,52 kWh, com até 1600 W de potência de descarga.
O HEMS 2.0 de última geração da Zendure integra painéis solares, baterias, bombas de calor e carregadores de VEs em uma plataforma inteligente unificada. Impulsionado pela IA ZENKI™ 2.0, ele prevê e otimiza os fluxos de energia, automatiza a economia de custos e oferece suporte a mais de 840 fornecedores de energia europeus. No Modo ZENKI™, os lares podem reduzir as contas de energia em até 73%. Todos os modelos contam com a proteção de bateria ZenGuard™, que inclui BMS duplo, recursos de automanutenção e supressão de incêndio, além de integração completa com casas inteligentes via MQTT (compatível com Home Assistant e Homey).

Disjuntores
A Schneider Electric lançou EasyPact NW, nova linha de Disjuntores Abertos (ACB) desenvolvida para ampliar os padrões de confiabilidade, escalabilidade e eficiência na distribuição de energia. Com mais de 70 anos de legado na fabricação de produtos da categoria, a companhia incrementa seu portfólio com uma solução que garante elevados níveis de segurança, disponibilidade de energia e sustentabilidade em diferentes segmentos e aplicações.
Foi projetado para simplificar todas as etapas do ciclo de vida, da instalação à operação e manutenção, oferecendo uma experiência mais intuitiva e eficiente. A solução incorpora recursos como barra de status com LED codificado por cores, que proporciona uma rápida identificação do estado e saúde do disjuntor mesmo à distância, conectividade com Near-field Communication (NFC) para diagnóstico via aplicativo móvel e arquitetura modular, que facilita a integração e futuras expansões. O equipamento também permite o monitoramento completo de parâmetros elétricos e conta com alertas inteligentes para manutenção preditiva, contribuindo para decisões mais assertivas e redução de tempo de inatividade.

Termômetros visuais para medição térmica em aplicações industriais e prediais
A Fluke, líder mundial em ferramentas de teste e medição, acaba de anunciar, com exclusividade para o mercado da América Latina, o lançamento dos termômetros visuais de IR Fluke VT06 e Fluke VT08. Os novos equipamentos ampliam o portfólio de soluções profissionais em medição térmica, combinando tecnologia avançada e praticidade em um único dispositivo portátil.
Os termômetros têm a capacidade de medir temperaturas em um intervalo de -20 °C a 400 °C, com resolução de 120 x 90 pixels e precisão 12 vezes maior em comparação com gerações anteriores. Com uma interface intuitiva, o apontador a laser, as funções de identificação automática de temperaturas altas e baixas, os dispositivos permitem localizar e diagnosticar problemas de maneira rápida e eficiente, eliminando a dificuldade de distinguir leituras imprecisas.
Além disso, o VT08 conta com a sobreposição de imagens infravermelhas e visíveis, facilitando a identificação precisa de objetos e áreas críticas. Desta forma, o usuário pode ajustar rapidamente o nível de sobreposição de acordo com a preferência ou alternar para o modo Picture-in Picture, proporcionando a experiência de um termovisor em um equipamento compacto.
Com alto desempenho em equipamentos compactos e leves, os novos termômetros visuais permitem medir temperaturas em áreas amplas, oferecendo a reconhecida robustez da Fluke, com proteção IP65 contra poeira e água, além de resistência a quedas de até 2 metros, tornando-os ideais para ambientes industriais exigentes. O VT06 se destaca com sua bateria recarregável, que garante até 8 horas de autonomia, e ambos oferecem um armazenamento interno capaz de armazenar mais de 50 mil imagens.
A linha VT foi desenvolvida para atender técnicos que atuam em ambientes industriais e prediais, com foco em triagens rápidas, explica o especialista.

Equipamento inédito no mercado brasileiro para fornecimento de energia em locais remotos
A NeoSolar lançou o Gerador Solar 12Vcc ZTROON, uma solução Off Grid completa para cargas em corrente contínua, compacta e fácil de instalar — ideal para quem busca autonomia e eficiência energética.
O Gerador Solar ZTROON é versátil e pode alimentar diversos tipos de equipamentos, como câmeras de segurança e sistemas de vigilância, antenas e roteadores de internet, dispositivos IoT e sensores agrícolas, além de estações meteorológicas e sistemas de telemetria.
O produto possui saída de 12V para câmeras, repetidores, roteadores, modems, Starlink, iluminação, IoT. Além disso, as vantagens incluem ainda proteção contra sobrecarga e descarga, aquecimento automático em baixas temperaturas, conta com IP65, proteção contra chuva e poeira.
A solução incorpora em um único equipamento tudo o que um sistema solar precisa para funcionar: painel solar, controlador de carga e bateria de lítio integrados, além de um BMS inteligente que garante armazenamento seguro e maior vida útil ao sistema.
Produto inédito no mercado brasileiro, o equipamento possui um portfólio bem amplo com atualmente 3 modelos, 60W, 100W e 240W prontos para uso no modo plug & play. O equipamento possui integração que dispensa instalações complexas e pode ser fixado diretamente em postes ou paredes.
Ideal para ambientes externos, o Gerador Solar possui baixo custo de manutenção, em uma operação confiável e de longa vida útil.

Conectividade inteligente para comissionamento, operação e manutenção
A Vivace Process Instruments oferece uma linha completa de interfaces de hardware e software compatíveis com protocolos HART® e Profibus-PA, desenvolvidas para simplificar as etapas de configuração, comissionamento, startup e manutenção de equipamentos de campo.
Projetadas para ambientes industriais exigentes, nossas interfaces garantem comunicação estável, configuração rápida e integração total com ferramentas modernas de automação.
A VCI10-BH é uma interface de comunicação HART® para utilização com dispositivos que possuam a tecnologia Bluetooth®. Permite conexão em redes HART® facilitando comissionamento, operação, manutenção e processos de calibração, diagnósticos e aquisição de dados de qualquer instrumento HART®. Pode operar em rede ou em modo stand-alone, alimentando o equipamento, seja por corrente ou tensão. Esta característica se faz muito útil em trabalhos de laboratório ou em condições iniciais de configuração, quando a rede HART® ainda não está estabelecida.
Opera em baixa potência, com isolação e é compatível com o protocolo HART® 7. Sua alimentação é fornecida por uma bateria recarregável de longa duração. Em dispositivos Android® trabalha com o aplicativo VMT- HART, Vivace Mobile Tool(consulte para ver mais detalhes dos equipamentos integrados). Em ambiente Windows® trabalha com ferramentas baseadas em FDT/DTM e EDDL, assim como ferramentas HART® proprietárias
A VCI10-UH é uma interface de comunicação HART® para utilização com dispositivos que possuam conexão USB tipo-A padrão. Permite conexão em redes HART® facilitando comissionamento, operação, manutenção e processos de calibração, diagnósticos e aquisição de dados de qualquer instrumento HART®. Pode operar em rede ou em modo stand-alone, alimentando o equipamento, seja por corrente ou tensão. Esta característica se faz muito útil em trabalhos de laboratório ou em condições iniciais de configuração, quando a rede HART® ainda não está estabelecida.
Opera em baixa potência, com isolação e é compatível com o protocolo HART® 7. Sua alimentação é fornecida pela própria USB do PC, não necessitando de qualquer alimentação externa.
O VPW10-PROFIWISER® é uma poderosa ferramenta PROFIBUS-PA com inteligência artificial que permite de forma muito fácil que o usuário, mesmo com pouco conhecimento de redes PROFIBUS, possa fazer uma completa análise de redes PROFIBUS-PA com diagnósticos, troubleshooting e manutenção, além de configurações e calibrações via FDT/DTM (mestre Profibus-DP classe 2). O VPW10-PROFIWISER representa o que se tem de mais avançado em tecnologia de analisador de rede PROFIBUS-PA e ferramenta de configuração integrada em um mesmo hardware.

Tenha Acesso Completo a Todas as Edições!
Quer car por dentro de tudo o que já foi publicado? Acesse a nossa coleção completa, sem custo e de onde estiver.
ACESSE AGORA A COLEÇÃO COMPLETA





Mantenha-se Sempre Atualizado!
Receba em primeira mão nossas newsletters exclusivas e que por dentro do lançamento de cada edição da revista! Notícias, insights, e tendências direto no seu e-mail.
INSCREVA-SE AGORA!
