DCmag - DCW Paris 2025

Page 1


ETIX & Schneider Electric : Un partenariat français pour accélérer la décarbonation

Un modèle de data centers réplicable alliant efficacité énergétique, souveraineté numérique et technologies émergentes.

Hélène Macela-Gouin vice-présidente Secure Power & Data Centers Business, Schneider Electric
Louis Blanchot CEO - Etix

ÉDITO

12 06 22 28

Vous lisez la seconde édition de Datacenter Magazine spécial Data Centre World Paris, diffusée exclusivement et gratuitement sur le salon de lʼédition 2025. La précédente édition avait rencontré un incroyable succès. Nous renouvelons lʼexpérience avec une maquette transformée et un contenu plus stratégique, qui vient compléter notre site web DCmag.fr

En un an, le monde du datacenter a changé, profondément. Lʼhébergement des infrastructures de cloud, chez les hyperscalers et les géants de la colocation, demeure lʼactivité principale des datacenters. Tandis quʼenfin les datacenters Edge et de proximité se font une place au soleil des territoires.

Mais aujourd'hui, la vague de lʼIA (Intelligence Artificielle) et ses méga projets dʼAI factory emporte tout sur son passage, et pose son empreinte sur notre écosystème. On ne conçoit plus, ni ne construit, ni nʼopère un datacenter sans imaginer quʼil héberge des infrastructures dʼIA. Le rack doit désormais se décliner en 50, 100, 150 kW, avant de dépasser prochainement le 1 MW. Le refroidissement se fait hybride, liquide sur les serveurs, air sur le stockage et le réseau. Quant à la construction, elle est modulaire, et privilégie le “speed to power”.

Face à cette vague, les DSI et les responsables dʼinfrastructures sont perdus, ils nous le disent régulièrement lorsque nous les côtoyons sur nos événements DCmag In Situ. Nous nous efforçons d'apporter des réponses à leurs interrogations. Et au-delà des phases de conception et de construction, nous traitons également lʼexploitation.

Reste à savoir si lʼargent qui coule à flot sur le secteur ne risque pas de se tarir ? Le datacenter restera-t-il longtemps une niche d'investissement rentable ? Cela dépendra certainement des compétences de ses acteurs. Et cʼest pour cela que vous allez apprécier la qualité des experts qui ont participé au contenu du magazine.

Un dernier mot pour nos sponsors. MERCI, vos contributions participent à la pérennité de notre média. Sans vous, et sans nos lecteurs, DCmag nʼexisterait pas. Lʼécosystème français des datacenters a besoin dʼun média à la hauteur de ses ambitions, cʼest ce que nous nous efforçons de réaliser au quotidien, merci de nous accompagner, de nous sponsoriser, et de nous lire.

Yves Grandmontagne

Rédacteur en chef de DCmag yves@datacenter-magazine.fr

De la donnée à la Nation : penser la dissuasion numérique française - 2AMH

La place de lʼhumain dans la conception et la performance des datacenters - CEME

L'onduleur HiPerGuard d'ABB améliore l'efficacité et la fiabilité des DataCenters - ABB

La tente de Meta… LʼIA sans datacenter ! - DCmag

Datacenters IA : vers une révolution silencieuse ? - Gamba - Theia Energy

“Use it or lose it : UIOLI”, Quels impacts pour le raccordement des datacenters ? - CMS Francis Lefebvre

Lʼinvestissement dans le datacenter vu depuis ses aspects juridiques - Reed Smith

Construire des Data Centers en France : surmonter les obstacles réglementaires et libérer la croissance - Bracewell

Cloud & AI development Act européen : « tripler les capacités en datacenters dʼici 5 à 7 ans », mode dʼemploi - Gearshift- Public Affairs

Le défi de lʼadaptation constante de la gestion des risques en datacenter, associé aux enjeux énergétiques (photovoltaïque, stockage dʼénergie, …) - BCFI

L'IA pernicieuse : Le MIT se penche sur le coût écologique insoupçonné de l'IA - DCmag

- Un partenariat français pour accélérer la décarbonation

Néoclouds Ils changent le paysage de lʼIA - DCmag

De la donnée à la Nation : penser la dissuasion numérique française

Pendant trop longtemps, lʼunivers du datacenter sʼest tenu à distance des projecteurs. Par culture, par discrétion, par stratégie parfois. Le secret était un réflexe, presque une valeur. Mais lʼépoque a changé : nos infrastructures, hier perçues comme de simples entrepôts techniques, sont devenues les organes vitaux du pays. Elles irriguent lʼéconomie, la recherche, lʼadministration, la santé, la défense. Elles abritent la mémoire et la puissance de la France numérique. Et pourtant, notre filière demeure méconnue, souvent caricaturée, parfois même attaquée sans que nous nʼayons su collectivement y opposer un discours clair, pédagogique et assumé. Cʼest une faiblesse. Et, à mes yeux, cʼest aussi une erreur stratégique.

Prendre la lumière pour prendre la main

Le secteur du datacenter doit désormais assumer sa place dans le débat public. Non pas pour séduire ou se défendre, mais pour expliquer, éduquer, convaincre. Nous devons passer de la confidentialité à la lumière, non pas comme un effet de communication, mais comme un devoir de souveraineté

À chaque étape de lʼhistoire industrielle française, les grands tournants technologiques ont été accompagnés dʼune doctrine politique : le nucléaire civil, la dissuasion militaire, le spatial, le TGV, lʼaéronautique. Chacun de ces domaines a bénéficié dʼune narration nationale, dʼune philosophie, dʼun cap. Le datacenter, lui, nʼen a pas encore.

Et pourtant, son importance dépasse désormais celle des infrastructures du siècle précédent. Sans électricité, pas dʼéconomie ; sans données, plus de nation.

Nos centres de données sont à la France numérique ce que nos centrales sont à sa production énergétique : le cœur battant de sa puissance et de sa continuité.

Construire une ligne philosophique nationale

Il nous faut maintenant bâtir un récit commun. Un récit qui ne parle pas seulement de technologies, mais de valeurs: sécurité, indépendance, durabilité, excellence technique, et surtout : intérêt national

LʼEurope sʼinterroge sur son autonomie stratégique. La France, elle, doit affirmer la sienne dans le champ numérique. Et cette autonomie ne se décrète pas : elle se construit, volt après volt, bit après bit.

Ce récit, nous devons le porter collectivement : concepteurs, ingénieurs, énergéticiens, opérateurs, constructeurs, élus, investisseurs. Car cʼest ensemble que nous pourrons imposer une vision française du datacenter : une infrastructure utile, raisonnée, intégrée au territoire et alignée sur lʼintérêt général

De l’architecture à la stratégie nationale

Chez 2AMH, nous avons vu cette transformation de lʼintérieur. Depuis plus de 175 opérations datacenter conduites, la certification simultanée TIER IV Design + Facility ‒ une première européenne ‒ jusquʼà la conception actuelle de sites dépassant 1 GVA, nous avons accompagné lʼévolution dʼun secteur passé du statut “dʼoutil technique” à celui de “pilier stratégique”.

Cette expérience forge une conviction : le datacenter nʼest pas un simple bâtiment, cʼest un élément de dissuasion. Une dissuasion numérique. Car dans un monde où les données sont devenues la matière première de toute économie, maîtriser leur production, leur transport, leur hébergement, cʼest garantir la continuité de notre souveraineté. Cʼest aussi garantir que la France restera maîtresse de ses outils de calcul, dʼintelligence artificielle et de défense.

Nous devons donc revendiquer cette mission comme un enjeu de politique nationale, et non comme une simple activité industrielle.

Réconcilier les territoires et la puissance numérique

Une autre bataille se joue : celle de lʼancrage territorial. Trop souvent, nos projets sont incompris car perçus comme des “non-lieux”, des espaces techniques sans âme. Cʼest faux.

Chaque implantation est une opportunité de réindustrialisation, de création dʼemplois qualifiés, dʼinnovation énergétique.

Chaque datacenter conçu en France, cʼest une usine du XXIᵉ siècle qui sʼancre dans le tissu local, alimente les réseaux intelligents, participe à lʼéquilibre énergétique et à la valorisation des territoires. Mais pour cela, encore faut-il le dire, le montrer, le faire comprendre.

Nous devons multiplier les portes ouvertes, les conférences, les articles, les plateaux télés, les partenariats avec les collectivités. Nous devons reprendre le contrôle du récit

Le courage de parler d’intérêt national

Le mot peut sembler fort. Il ne lʼest pas assez. Dans un monde fragmenté, traversé par les tensions économiques, énergétiques et géopolitiques, garantir la continuité numérique de la Nation est un acte politique. Et la France, forte de son histoire, de son industrie et de son savoirfaire, doit avoir le courage de le dire haut et fort : notre indépendance numérique vaut dʼêtre défendue

Nous avons les ingénieurs, les entreprises, les architectes, les institutions. Ce quʼil nous manque encore, cʼest la voix

La voix qui dit que la donnée nʼest pas un flux abstrait mais une richesse nationale. La voix qui dit que nos datacenters ne sont pas des consommateurs dʼénergie, mais des concentrateurs dʼintelligence collective. La voix qui dit que la France doit être dans la course, fière de ses 13% des réacteurs nucléaires dans le monde.

De la pédagogie à la souveraineté : un devoir collectif

Le défi est immense, mais il commence par une chose simple : parler. Le temps de la retenue est passé. Le datacenter doit cesser dʼêtre invisible. Il doit devenir un emblème : celui de la résilience, de la compétence et de lʼexcellence française. Cʼest à nous, acteurs du secteur, de prendre la plume, la parole et la scène. De proposer une philosophie claire, une doctrine, un horizon. Car si nous ne définissons pas notre rôle, dʼautres le feront pour nous ̶ et souvent contre nous.

Nous devons être fiers, visibles et responsables. Nous devons faire comprendre que la France numérique ne se défendra pas sans ses bâtisseurs. Et, à ce titre, nous avons un devoir : celui de construire, au sens large, les fondations de la dissuasion numérique française

La place de l’humain dans la conception et la performance des datacenters

La croissance du numérique, du cloud et de lʼintelligence artificielle place les datacenters au centre de la transformation digitale mondiale. Ces infrastructures critiques doivent conjuguer performance, disponibilité et sobriété énergétique, dans un contexte de fortes exigences de résilience et de conformité.

Le Groupe CEME sʼimpose comme un acteur majeur du secteur, en plaçant lʼexpertise humaine au cœur de la conception, de la construction et de lʼexploitation des datacenters de nouvelle génération.

L’humain, premier bâtisseur

Chez CEME, la conception dʼun datacenter est dʼabord une aventure dʼingénierie collective. Partout en France, les équipes conçoivent des installations sur-mesure pour répondre aux besoins spécifiques de chaque projet. La coordination des lots techniques et des projets dans leur globalité constitue un savoir-faire clé : garantir la parfaite maîtrise des interfaces entre génie élec-

trique, climatique et gestion technique du bâtiment, pour assurer la cohérence et la fiabilité globales de lʼinfrastructure.

Cette exigence sʼaccompagne dʼune forte capacité dʼadaptation locale. Chaque projet intègre les contraintes réglementaires (ICPE, normes électriques, sécurité incendie) et les particularités du site : climat, foncier, disponibilité du réseau. Une approche sur mesure, portée par des ingénieurs et chefs de projet capables dʼarticuler innovation technique et pragmatisme opérationnel.

La performance en exploitation

Cʼest une certitude : la réussite dʼun datacenter se mesure dans la durée. Cʼest pourquoi les équipes CEME assurent la supervision et la maintenance multitechnique, garantes de la continuité de service. Leurs procédures de haute fiabilité, inspirées des secteurs critiques, sʼappuient sur des contrôles croisés, un reporting structuré et un retour dʼexpérience systématique.

Formés aux spécificités des sites sensibles, les techniciens et ingénieurs CEME interviennent avec rigueur et précision. Leur engagement quotidien permet de réduire au minimum le risque dʼincident et de maintenir les plus hauts niveaux de disponibilité. Derrière chaque salle serveurs opérationnelle, il y a une équipe vigilante, capable dʼanticiper, de diagnostiquer et dʼagir avec précision.

Innovation et responsabilité

Lʼinnovation technique est au cœur de la démarche du groupe. CEME optimise le PUE de ses datacenters grâce à des solutions performantes : free cooling, refroidissement liquide (DLC), récupération de chaleur ou microgrids.

Ces technologies, intégrées dès la conception, permettent dʼaméliorer lʼefficacité énergétique et de réduire lʼempreinte environnementale, tout en garantissant la fiabilité des installations.

CEME inscrit également son action dans une logique de responsabilité sociétale. Ses équipes lo-

cales, mobilisées sur les chantiers partout en France, contribuent à la création dʼemplois et à la valorisation des savoir-faire régionaux. Une approche qui allie performance industrielle et ancrage territorial.

Conclusion

Les datacenters sont le socle du monde numérique et sont donc devenus incontournables. Leur fiabilité, leur durabilité et leur performance ne dépendent pas seulement des technologies quʼils embarquent, mais avant tout de lʼingénierie et de lʼengagement de ceux qui les conçoivent et les exploitent.

Le Groupe CEME en est lʼillustration : allier savoir-faire technique, innovation et responsabilité humaine pour bâtir les datacenters de demain ̶ des infrastructures à haute valeur ajoutée, conçues et opérées par des femmes et des hommes au service de la performance.

L'onduleur HiPerGuard d'ABB améliore l'efficacité et la fiabilité des DataCenters

• L'onduleur HiPerGuard d'ABB est une solution innovante pour l'alimentation des DataCenters et d'autres installations critiques

• La distribution en moyenne tension rend les installations plus simples et évolutives

• Grâce à son rendement de 98 %, HiPerGuard réduit les émissions de carbone de 1 245 tonnes sur une durée de vie moyenne de 15 ans

Les DataCenters et autres installations critiques évoluent rapidement pour répondre à une demande croissante, tout en intégrant des normes strictes de durabilité et en réduisant leur empreinte carbone. Avec un coût d'indisponibilité estimé à environ 1 million de dollars par incident, la nécessité d'une alimentation électrique fiable et continue devient primordiale. Actuellement, l'alimentation des DataCenters repose majoritairement sur des systèmes basse tension. Mais pour soutenir leur croissance future, le secteur se tourne de plus en plus vers des solutions en moyenne tension.

« L’explosion de l’intelligence artificielle (IA) entraîne une augmentation significative de la puissance des DataCenters, passant de 10 MW pour les plus grands à des projets potentiellement de plusieurs centaines de MW. Cette montée en puissance impacte l’architecture des DataCenters, où les UPS sont actuellement installés au plus près des salles de serveurs. Il devient donc pertinent de repenser le design, car la basse tension atteint ses limites face à de telles puissances élevées. L’objectif serait de passer à une distribution en moyenne tension, pouvant aller jusqu'à 20 kV. » déclare Almamy Faty, Business Developer Critical Power & UPS chez ABB France.

Pour répondre à ces défis, ABB lance son nouvel onduleur moyenne tension HiPerGuard. Cette nouvelle génération de système d'alimentation sans interruption en HTA fournit une alimentation continue et fiable de 6,6 à 35 kV. Il offre un rendement énergétique performant atteignant 98 % et permet ainsi de réduire les émissions de carbone de 1 245 tonnes sur une période de 15 ans.

Cet onduleur combine les avantages d'un système d'ASI dynamique traditionnel, tel que sa résistance accrue aux perturbations du réseau, avec la flexibilité et les capacités d'un convertisseur statique. Le résultat est un système ASI moyenne tension qui répond efficacement à la demande et réduit les coûts liés aux perturbations et aux coupures de tension.

« L'onduleur HiPerGuard d'ABB est une première solution du secteur pour l'alimentation des DataCenters et d'autres installations critiques. La solution moyenne tension unique rend les alimentations plus efficaces et évolutives. HiPerGuard offre des performances, une résilience élevée et ajoute une flexibilité et une évolutivité accrues » déclare Almamy Faty

Cet onduleur haute performance maximise la résilience et la continuité de l'alimentation, tout en réduisant les coûts d'infrastructure. Chaque alimentation de l'onduleur se compose de 18 modules en parallèle, pour une puissance maximale de 2,5 MW. La mise en parallèle de 10 machines permet d'atteindre une puissance de 25 MW. Grâce à sa conception, la maintenance n'est nécessaire que tous les 10 ans, ce qui diminue considérablement les coûts d'exploitation.

Outre ses performances exceptionnelles en matière de protection de la charge, HiPerGuard offre une large gamme d'options d'alimentation de secours, des générateurs à gaz et des turbines ainsi que la

possibilité d'intégrer des sources d'énergie alternatives telles que l'hydrogène. Ce système garantit également une grande flexibilité dans la conception et la mise en œuvre.

HiPerGuard fait également partie du programme ABB EcoSolutions™, gage de durabilité supplémentaire. Ce programme garantit une transparence totale sur les impacts environnementaux tout au long du cycle de vie du produit. Les produits de ce portefeuille sont conformes à des indicateurs de performance clés définis dans le cadre de la circularité d'ABB et portent une déclaration environnementale de produit, vérifiée par un tiers selon la norme ISO 14025.

Pour en savoir plus : https://new.abb.com/ups/fr/systems/onduleurs-moyenne-tension/hiperguard

ABB est un leader mondial des technologies dʼélectrification et dʼautomatisation, qui rend possible un futur plus durable et économe en ressources. En associant son expertise en ingénierie et en digital, ABB accompagne les industries à atteindre un haut niveau de performances, tout en devenant plus efficaces, productives et durables. Chez ABB, nous nommons cette ambition : "Engineered to Outrun" ("Quand l'ingénierie se surpasse"). ABB s'appuie sur 140 ans d'histoire et plus de 105 000 employés dans le monde. Les actions d'ABB sont cotées à la SIX Swiss Exchange (ABBN) et au Nasdaq Stockholm (ABB). www.abb.com

ABB Electrification est un leader technologique mondial de la distribution électrique et de la gestion de l'énergie. Avec plus de 50 000 collaborateurs répartis dans 100 pays, nous collaborons avec nos clients et partenaires pour résoudre les plus grands défis mondiaux pour une utilisation efficace et fiable de lʼélectricité, de la source à la prise. Nous aidons les entreprises, l'industrie, les bâtiments et les consommateurs à gérer leurs installations et leurs logements de manière sécurisée et performante. À mesure que la transition énergétique sʼaccélère, nous électrifions le monde de manière sûre, intelligente et durable. go.abb/electrification

Pour de plus amples informations, veuillez contacter :

ABBFrance

SandrineReckel-Docquin

ResponsableMarketing

CommunicationEL

Email:sandrine.reckel-docquin@fr.abb.com

ABBFrance

AlmamyFaty

BusinessDeveloper

CriticalPower&UPS

Email:almamy.faty@fr.abb.com

InfocomIndustrie

AmelKarim

Attachéedepresse

Tél.:+33(0)472336598

Email:amel.karim@infocom-industrie.fr

La tente de Meta…

L’IA sans datacenter !

Le projet a surpris le petit monde du datacenter : Meta - la maison mère de Facebook, Instagram et WhatsApp - déploie des grappes de serveurs dʼintelligence artificielle (IA) sous des tentes industrielles. Ce projet dʼenvergure, aussi audacieux quʼinédit, bouleverse les codes du secteur. Mais derrière la promesse dʼinnovation, la “tente data center” soulève dʼimportantes questions techniques, environnementales et stratégiques.

Quelle étrange idée, déployer un datacenter dʼIA sous une tente ! Que lʼon ne s'y trompe pas, le projet mené par Meta est sérieux. Lʼimage que lʼon en a est cependant galvaudée par de nombreuses personnes en mal dʼoriginalité qui ont profité des IA génératives pour leur demander de créer des images frisant le ridicule de serveurs sous des tentes de camping. Une vision qui ne rend pas hommage à lʼingéniosité des ingénieurs de Meta. Et pourtant, le datacenter sous tente premier cluster multi-GW de Meta est une réalité, qui soulève de nombreuses questions, dont celle inattendue de lʼavenir des datacenters…

L’urgence de l’IA

En 2025, la compétition mondiale pour lʼintelligence artificielle sʼest transformée en course dʼendurance énergétique et matérielle. Les géants du numérique sʼaffrontent à coups de gigawatts et de GPU, et bâtissent des campus à plusieurs milliards de dollars. Après des expériences mal engagées, Meta, faute de temps, opte pour une voie radicalement différente. Les “tentes de Meta” - visibles sur ses sites du cluster Prometheus (Ohio) et Hyperion (Louisiane) -

Photos : Meta
« Nous avons inventé une nouvelle méthode pour construire des data centers en quelques mois, pas en quelques années. »
Mark Zuckerberg, CEO de Meta

sont des structures légères en tissu renforcé, montées sur châssis dʼaluminium, abritant des clusters de GPU dʼune valeur de plusieurs milliards de dollars. Lʼobjectif : gagner du temps. Là où un datacenter classique demande a minima 18 à 36 mois pour sortir de terre, ces structures temporaires en toile deviennent opérationnelles en quatre à six mois.

Cette stratégie répond à une contrainte structurelle : les délais de construction explosent, en raison des tensions sur les chaînes dʼapprovisionnement (transformateurs, câbles haute tension, générateurs diesel) et de la lenteur administrative. Et à condition de disposer de lʼénergie nécessaire pour faire tourner les infrastructuresles clusters géants de Meta sont prévus pour atteindre 2 GW en 2030. Pour Meta, chaque mois perdu, cʼest un modèle dʼIA que Microsoft ou OpenAI peuvent entraîner avant elle. Et pour les opérateurs des infrastructures dʼIA, tout délai crée des retards pour accéder à la rentabilité de leurs investissements.

Le concept technique : un data center

“sous bâche”

Derrière la provocation visuelle, le concept repose sur une logique dʼingénierie modulaire. Ces tentes sont de grandes structures rectangulaires, réalisées en tissu renforcé (résistant aux perforations) et imperméable, supportées par une sousstructure de châssis en aluminium avec toit double-pente résistant aux intempéries, et qui comporte des vantaux pour une aération naturelle (free cooling). Elles abritent des modules préfabriqués intégrant :

• des racks de serveurs GPU refroidis par liquide ou air dirigé ;

• des unités dʼalimentation reliées à des sous-stations électriques dédiées ;

• un système de supervision thermique et sécurité incendie allégé ;

• et des connexions réseau haute capacité pour relier les clusters à lʼinfrastructure mondiale de Meta.

Cette approche emprunte à lʼarchitecture des datacenters conteneurisés ou des modules militaires : on assemble, on déploie, on démonte. Elle vise la flexibilité : une tente peut être agrandie ou déplacée selon les besoins.

Sur le plan énergétique, les tentes Meta sont alimentées directement depuis le réseau et des sous-stations dédiées, généralement sans générateurs de secours, ce qui limite leur robustesse lors des pannes. Le risque de coupure est compensé par un pilotage logiciel des charges de travail : le fonctionnement peut être restreint lors de pics de température, et en cas de panne, les entraînements dʼIA se répliquent ailleurs. Cʼest une forme de redondance “cloud native”, mais sans protection physique. De même, lʼIA générative a imposé à ses utilisateurs des délais de réponses éloignés de l'immédiateté du temps réel vers laquelle les solutions numériques tendent, ce qui laisse du temps pour contourner les difficultés. La prise de risque, réelle, est donc modérée.

Les performances thermiques constituent le principal défi. Les GPU modernes (comme les Nvidia H100) consomment jusquʼà 150 kW par rack ; une tente entière peut dégager plusieurs

mégawatts de chaleur. Meta expérimente donc un refroidissement hybride, mélange dʼair extérieur, de systèmes dʼéchange liquide et de ventilation passive. Le tout dans une structure textile censée résister aux intempéries - y compris aux ouragans, selon le constructeur.

Les intérêts économiques d’une infrastructure jetable

Derrière le discours dʼinnovation, le calcul économique est simple et transparent. Construire un datacenter classique coûte plus de 100 millions de dollars et 7 à 10 milliards en GW, son amortissement sʼétale sur 10 à 20 ans. Une tente coûte deux à cinq fois moins cher à déployer, et peut être montée en quelques mois. Meta achète ainsi du temps et de la liquidité. Plutôt que dʼimmobiliser des milliards dans le béton, elle les investit dans des GPU Nvidia (le coût dʼun rack Nvidia GB200 NVL72 - 72 GPU et refroidissement liquide - est dʼenviron 3 millions de dollars) et dans le développement de ses modèles dʼIA.

Cette stratégie permet aussi de contourner les lenteurs réglementaires : les structures tempo-

raires échappent partiellement aux procédures de permis de construire, aux obligations environnementales ou aux normes de certification Tier III/IV. Dans un contexte de compétition mondiale, cela confère un avantage décisif. Le modèle correspond à une logique de “disposable compute” : déployer vite, exploiter intensément, puis démanteler. Un paradigme radicalement différent de la vision durable des datacenters classiques.

Les avantages des datacenters temporaires sont donc réels :

• Vitesse de déploiement : la construction est bien plus rapide que pour les datacenters classiques, la mise en route est de lʼordre de 3 à 6 mois, grâce à une structure modulaire préfabriquée et à des process simplifiés, rendant possible une mise en route opérationnelle en quelques mois.

• Flexibilité et modularité : ces structures permettent dʼajuster aisément la capacité ou de déménager lʼinstallation selon lʼévolution des besoins. Elles conviennent pour des sites tests, des clusters GPU temporaires, ou des scénarios d'urgence.

« Nous disposons d'une équipe infrastructure très performante qui réalise des travaux innovants pour la construction de datacenters. Je voulais qu'ils ne mettent pas quatre ans à construire ces bâtiments en béton. Nous avons donc été les pionniers d'une nouvelle méthode : nous construisons des tentes résistantes aux intempéries et y installons les réseaux et les clusters de GPU afin de les accélérer. »

Mark Zuckerberg, CEO de Meta

Photos : Meta

• Moindres coûts dʼinvestissement initial : le coût de construction et dʼinstallation est inférieur à celui dʼun bâtiment classique de datacenter. Typiquement 2 à 5 fois moins cher que la construction dʼun bâtiment pérenne. Lʼamortissement sur un horizon réduit impose dʼamortir les équipements sur 1-5 ans maximum

• Réponse à une urgence technologique ou opérationnelle : les tentes constituent une solution efficace pour pallier les délais ou incertitudes liés à la régulation ou à lʼaménagement du territoire, tout en maintenant la continuité de service pour des projets stratégiques, notamment dans le domaine de lʼIA.

Les risques cachés d’une accélération sans garde-fou

La priorité de Meta est la rapidité, quitte à sacrifier la durabilité ou la redondance classique. Mais cette course à la vitesse sʼaccompagne de failles majeures.

• Vulnérabilité physique et climatique : les structures textiles résistent mal aux aléas extrêmes, vents violents, pluie, chaleur. Installer des GPU sous bâche dans des zones exposées relève du pari. Une vague de chaleur estivale pourrait forcer lʼarrêt temporaire des clusters.

• Fiabilité et redondance limitées : ces datacenters sont moins robustes face aux pannes électriques majeures, incendies ou incidents techniques. Lʼabsence de générateurs de secours rend ces sites dépendants à 100 % du réseau électrique. Or, un entraînement dʼIA interrompu brutalement peut coûter très cher en calcul perdu.

• Sécurité et conformité : les tentes présentent des vulnérabilités physiques, intrusion, incendie, sabotage. Leur statut “tempo-

raire” complique la certification ISO 27001, la conformité RGPD ou la continuité dʼactivité exigée pour les infrastructures critiques.

• Durée de vie et maintenance : ces infrastructures sont conçues pour être provisoires, donc moins durables, avec un cycle de vie écourté et une maintenance parfois plus complexe à assurer.

• Image et réputation : pour une entreprise déjà fragilisée par ses échecs dans le métavers et ses scandales de données, lʼimage dʼune “infrastructure sous tente” évoque lʼimprovisation plutôt que la maîtrise. Les analystes parlent dʼune “infrastructure de guerre” : rapide, mais fragile.

Ces fragilités pourraient se transformer en crise médiatique ou financière si une panne majeure survenait. Un seul incident pourrait invalider des semaines dʼentraînement et coûter plusieurs centaines de millions. Wall Street aspire à la croissance, mais pas à la fragilité. Les tentes peuvent accélérer la croissance, mais elles sapent la confiance des investisseurs dans la résilience de Meta.

« Cette approche remet en cause le statu quo des livraisons traditionnelles, nous permettant de progresser à une vitesse inédite et démontrant notre esprit d'innovation. »

Rachel Peterson, vice-présidente des services des datacenters chez Meta

Un pari révélateur des tensions structurelles

Au-delà du cas Meta, cette expérience met en lumière les limites du modèle hyperscale face à la révolution de lʼIA. Les datacenters classiques, conçus pour la stabilité et lʼefficacité énergétique, peinent à suivre lʼexplosion des besoins de calcul. Les “tentes” traduisent une rupture de cycle : les géants du cloud bricolent des infrastructures provisoires pour répondre à des ambitions immédiates. Certains y voient une innovation stratégique : démontrer quʼune infrastructure dʼIA peut être déployée en quelques mois, sans attendre que le béton sèche. Dʼautres y voient un symptôme de panique industrielle : une fuite en avant où la rapidité supplante la résilience. Meta prétend expérimenter un modèle “plus agile”. Mais en réalité, elle révèle lʼimpasse dʼune industrie piégée par sa propre voracité : le calcul de lʼIA demande plus dʼénergie, plus dʼespace, plus de matériel que le monde nʼen dispose à court terme.

La tente comme miroir du futur numérique

Les “tentes” de Meta sont peut-être lʼexpérience dʼinfrastructure la plus audacieuse ̶ ou la plus

désespérée ̶ de la décennie. Le site temporaire permet de gagner 2 à 3 années de délai et d'engager 2 à 5 fois moins d'investissements à capacité équivalente. Ces avantages sont réels, mais il reste moins rentable et performant à long terme que le site permanent, car conçu pour des usages transitoires où rapidité prime sur durabilité et robustesse dʼexploitation. Cʼest ainsi que ces tentes condensent les contradictions du numérique moderne : innover toujours plus vite, quitte à renoncer à la robustesse ; promettre une superintelligence (ou intelligence artificielle généraleAGI) tout en abritant des GPU sous toile.

À court terme, Meta gagne du temps. À long terme, elle risque dʼexposer la fragilité dʼun modèle industriel fondé sur lʼurgence. Si ces tentes fonctionnent, elles pourraient inspirer une nouvelle génération de datacenters modulaires, hybrides et éphémères. Si elles échouent, elles deviendront le symbole dʼune époque où la Silicon Valley a confondu vitesse et vision. Mais quʼon ne sʼy trompe pas, sur le cluster Prometheus et Hyperion de Meta, la superstructure sous tente sert de “pont” accéléré en attendant la complétude des bâtiments pérennes. Le datacenter traditionnel y retrouvera sa place.

Photos : Meta

Préparez votre data center aux défis du futur

MODULARITÉ

VersaTray®

Système de plateaux 19“

 Une flexibilité et modularité maximales

 Peut être équipé de tous les adaptateurs courants

 Incorporation de solutions d’épissures pour fibres simples ou ruban

DES SERVICES COMPLETS

Services d‘infrastructure numérique par un seul fournisseur

 Services de conseil

 Services d‘installation

 Services de gestion

SERVICES DE CONSEIL

 Analyse des besoins sur mesure

 Conception et planification

 Déménagement de data centers

 Gestion de projets

SERVICES D‘INSTALLATION

 Installation et assemblage

 Gestion de projet et supervision de la construction

 Assurance qualité et ateliers

FIABILITÉ MAXIMALE

Connecteur MPE EBO 3MTM

Le meilleur des deux mondes : monomode et connecteur à lentilles

 Faible sensibilité à la poussière

 Stabilité des performances même après de très nombreux cycles de connexions/ déconnexions

 Atténuation et réflectance faibles en monomode et multimode pour un connecteur à lentilles

SERVICES DE GESTION

 Services de base pour l’exploitation des centres de données

 Garantie des ressources

 Services supplémentaires individuels

www.rosenberger.com/osi

Datacenters IA : vers une révolution silencieuse ?

Un concepteur de data centers et une acousticienne, tous deux spécialistes dans leurs domaines, conjuguent leurs expertises pour analyser lʼimpact de ces infrastructures nouvelle génération et soulignent un enjeu souvent sous-estimé : lʼacoustique comme paramètre essentiel de réussite des projets.

• Fernanda AOR ‒ Spécialiste des datacenters chez Groupe Gamba, bureau dʼétudes en acoustique et vibrations

• Patrick MARTY ‒ Consultant chez Theia Energy, Bureau dʼétudes spécialisé dans la conception et lʼexploitation de datacenter

Lʼintelligence artificielle ne se limite plus à des algorithmes abstraits ou des promesses technologiques. Elle prend désormais une forme physique, massive, énergivore et bruyante : celle des datacenters nouvelle génération. À lʼheure où les géants du numérique déploient des racks GPU de plusieurs centaines de kilowatts, on peut légitimement sʼinterroger : faut-il réinventer la conception des datacenters pour accueillir lʼIA ?

La course aux GPU : une mutation structurelle

Les plateformes IA sʼappuient sur des architectures de calcul intensif. Nous pouvons citer le rack GB200 NVL72 de NVIDIA, avec ses 72 GPU Blackwell et 36 CPU interconnectés, qui consomme déjà 120 kW. Son successeur, le GB300 NVL72, dépasse les 150 kW. Ces équipements sont lʼapanage des géants comme AWS, Google, OpenAI, Meta ou autre Microsoft. Les constructeurs de racks GPU évoquent désormais des racks de 300, 600 voire 1 MW, là où les datacenters traditionnels plafonnaient à 5 kW /rack il y a peu.

Cette densification extrême transforme les salles informatiques en véritables centrales énergétiques. Ce que lʼon consommait sur 100 m² est désormais concentré sur 1 m². Si le refroidissement liquide permet de gérer la chaleur, la distribution électrique devient un casse-tête : répartition, redondance, sécurisation… tout est à repenser.

Une explosion des besoins énergétiques

La concentration de calcul IA et le traitement de données à grandes échelles des GAFAM entraîneront aussi des répercussions sur lʼensemble des datacenters par un besoin de traitements importants via des plateformes IA localisées, certes moins volumineuses et moins nombreuses, mais avec quelques adaptations à apporter en matière dʼintégration et de traitement de puissances énergétiques.

Un datacenter déjà important dʼune puissance de 10 MW équivaut à la consommation dʼenviron 4 000 foyers ; il ne pourra traiter, en plus de ces ca-

pacités envisagées, que très peu de racks GPU.

Les projets les plus ambitieux, réservés eux aux géants du marché, peuvent atteindre et dépasser les 400 MW concentrés sur quelques dizaines dʼhectares et équivalent à une consommation dʼune ville comme Toulouse ou Strasbourg… basés sur des designs le plus souvent décentralisés nécessitant jusquʼà 200 groupes électrogènes et deux fois plus de groupes froids. À titre de comparaison, le projet du deuxième hôpital de Mayotte, à Combani, nʼutilisera que 2 groupes électrogènes équivalents.

Ne serait-ce quʼau niveau énergétique, ces puissances impliquent des délais de déploiement et de renforcement de plusieurs années du réseau électrique, sans garantie de continuité de fourniture si cette puissance nʼest effectivement pas consommée au bout du compte.

Des contraintes environnementales croissantes

Un impact sonore mal maîtrisé génère non seulement des nuisances pour les riverains, mais aussi des risques réglementaires et des conséquences économiques : retards dans lʼobtention des permis, frais dʼétudes complémentaires, investissements techniques de rattrapage difficiles à intégrer une fois les travaux avancés. Anticiper ces enjeux en phase de conception devient donc stratégique.

Cette anticipation prend tout son sens dans le cas des data centers modernes. De plus en plus puissantes, ces infrastructures concentrent un grand nombre dʼinstallations techniques générant un bruit qui se fait entendre à plusieurs centaines de mètres.

À cette dimension technique sʼajoute une contrainte foncière : les data centers sʼinstallent généralement dans des environnements urbains

sensibles. En raison de leur besoin de proximité avec les réseaux électriques et de télécommunications, ils se retrouvent souvent en périphérie de métropoles, à proximité immédiate de zones habitées.

Dans ce contexte mêlant proximité du voisinage et surfaces densifiées, une réflexion acoustique menée en amont permet dʼévaluer la faisabilité du projet et dʼidentifier les solutions techniques adaptées. À titre dʼexemple, la mise en place de baffles autour des groupes froids nécessite de prévoir une distance minimale entre les équipements. Si cette contrainte nʼest pas anticipée, elle peut conduire à une reprise fastidieuse du projet avec des surcoûts imprévus.

Arrivés à 10 MW, les projets passent en régime dʼenregistrement ICPE, et au-delà en autorisation avec une obligation dʼétude dʼimpact environnemental des plus drastiques. Nous pouvons citer les actions de la MRAe (Mission Régionale dʼAutorité Environnementale) qui veille à la recevabilité écologique, sanitaire et sociale des projets.

Cette réalité illustre la nécessité, déjà évoquée, de faire évoluer la conception des data centers de nouvelle génération pour favoriser leur intégration dans lʼenvironnement. Elle impose notamment aux porteurs des projets des simulations thermiques, des plans de compensation, et surtout… une étude acoustique.

Le piège du cumul technique : entre bruit, pannes et maintenance

Lʼessor des datacenters de grandes capacités ne se traduit pas uniquement par une montée en puissance électrique ou une densification informatique. Il engendre aussi une prolifération dʼéquipements techniques indispensables à leur fonctionnement : groupes froids, groupes électrogènes, transformateurs, onduleurs, batteries, systèmes de distribution haute et basse tension… Autant de briques qui, mises bout à bout, forment une chaîne complexe, fragile et bruyante.

Chaque groupe froid ou électrogène est une source potentielle de nuisance sonore, mais aus-

si de panne. Multiplier ces équipements, cʼest multiplier les risques dʼincidents techniques, les besoins en maintenance préventive et curative, les arrêts programmés… et les imprévus. Dans un datacenter de 40 MW, on peut compter une vingtaine de groupes électrogènes, chacun nécessitant des cycles de test, des vidanges, des contrôles de charge, des remplacements de pièces. À cela sʼajoutent les systèmes de refroidissement, souvent redondants, qui doivent être surveillés en continu pour éviter les surchauffes.

Imaginez un datacenter de 400 MW….

Ce cumul technique implique un défi logistique et opérationnel. Il mobilise des équipes spécialisées, augmente les coûts dʼexploitation, et complexifie les plans de continuité dʼactivité. Il impose aussi une coordination fine entre les métiers de lʼénergie et de lʼinformatique, qui doivent désormais cohabiter dans des environnements ultra-denses et interdépendants.

Et comme si cela ne suffisait pas, ce foisonnement dʼéquipements renforce les nuisances acoustiques. Chaque machine vibre, souffle, ronfle… et lʼeffet cumulé peut dépasser les seuils réglementaires, surtout en zone urbaine ou périurbaine. Dʼoù lʼimportance cruciale dʼune étude acoustique dès la phase de conception, pour anticiper les impacts, modéliser les émissions sonores, et intégrer des solutions dʼatténuation (écrans, enclos, silencieux, revêtements absorbants).

Mutualiser pour mieux maîtriser : vers des centrales d’énergie dédiées

À partir dʼun certain seuil de puissance ̶ typiquement au-delà de 40 MW ̶ la logique de conception des datacenters doit évoluer. Il devient rationnel, voire indispensable pour des raisons évidentes de gestion de risques, de dissocier les fonctions informatiques de la production dʼénergie. Plutôt que dupliquer les équipements techniques pour chaque bâtiment, une mutualisation en « centrale dʼénergie » permet de centraliser, foisonner et optimiser les infrastructures. Cette approche présente plusieurs avantages : • Une réduction des emprises techniques : en

regroupant les équipements dans une zone dédiée, on libère de lʼespace pour les salles informatiques.

• Une meilleure efficacité énergétique : les équipements mutualisés peuvent être dimensionnés plus finement, avec des redondances partagées.

• Une acceptabilité environnementale renforcée : en concentrant les sources de bruit et de pollution dans une zone maîtrisée, il devient plus facile de maîtriser les risques environnementaux et dʼimplémenter des solutions acoustiques.

• La séparation des métiers : les énergéticiens peuvent gérer la centrale comme une infrastructure industrielle, tandis que les informaticiens se concentrent sur lʼexploitation des plateformes IA.

Cette dissociation fonctionnelle ouvre la voie à une nouvelle génération de datacenters hybrides, plus sobres, plus modulaires et mieux intégrés dans leur environnement.

Pour les data centers de forte puissance, la mise en place dʼune centrale dʼénergie dédiée au data center peut constituer une solution pertinente pour éviter la multiplication des sources de bruit

extérieures. Cette option doit toutefois être étudiée avec attention. En théorie, lʼintégration de moteurs ou de turbines dans des volumes bâtis facilite le traitement acoustique. Mais en pratique, ces turbines et leurs systèmes annexes ‒entrées et sorties dʼair, cheminées, refroidissement ‒ intègrent également des sources sonores à traiter.

Un autre exemple de technologie de plus en plus répandue dans les nouveaux projets de data centers est le système de stockage dʼénergie par batterie (BESS). Ce dispositif permet à la fois de sécuriser lʼalimentation électrique du data center et de favoriser lʼintégration dʼénergies renouvelables. Normalement installé à lʼextérieur des bâtiments, un container BESS sans traitement acoustique spécifique peut atteindre une puissance sonore de Lw = 110 dB(A). Cette valeur est comparable à celle de lʼensemble des équipements techniques de la centrale énergétique du CHU Rangueil à Toulouse ‒ la deuxième plus grande capacité dʼaccueil de la ville !

Les concepteurs ont devant eux différents choix et défis technologiques possibles, actuels ou en développement. Dans ce contexte, et au regard des enjeux environnementaux et sociétaux, il est indispensable dʼintégrer au plus tôt dans le projet les aspects acoustiques dans lʼévaluation des

avantages et inconvénients des différents scénarios technologiques envisagés.

Une orientation possible serait la réalisation dʼune étude de type paramétrique dont lʼobjectif serait de permettre une évaluation du risque acoustique très en amont : avec tel niveau de sensibilité du voisinage, telles distances de propagation et tel choix technologique de production dʼénergie, le concepteur serait en mesure dʼévaluer par lui-même la probabilité de désordres acoustiques dans lʼenvironnement et donc de sécuriser ses choix en amont. Davantage de connaissances et de sensibilisation sur le sujet acoustique sont déterminants, afin que concepteurs et exploitants sʼavancent en terrain déminé le plus tôt possible.

De l’étude préliminaire au design : le rôle essentiel de l’acousticien

Les data centers sʼimposent comme des infrastructures critiques de lʼéconomie numérique. Pour quʼils soient bien intégrés à leur milieu, quelle que soit leur taille, il est indispensable de traiter lʼacoustique au même niveau que les autres sujets environnementaux.

Intégrer lʼacoustique dès les premières étapes de conception constitue un enjeu majeur. À ce stade, lʼacousticien peut intervenir avec des approches simplifiées pour identifier rapidement les risques et orienter le concepteur dans ses choix technologiques et architecturaux. Cette dé-

Cartographie bruit d'un DC, calculée par le modèle de propagation AcouS PROPA®

marche permet dʼéviter des retours en arrière coûteux et un allongement des délais. Concrètement, il sʼagit dʼanticiper les enjeux acoustiques liés aux solutions techniques envisagées grâce à des études adaptées aux data centers, réalisées par des bureaux dʼétudes spécialisés. Cet accompagnement permet non seulement dʼassurer le respect de la réglementation, mais aussi dʼapporter de la sérénité dans la gestion du projet tant sur le plan financier que technique et environnemental. Cʼest pourquoi lʼacoustique devrait être abordée comme un paramètre essentiel de la conception et non comme une simple formalité administrative.

L’acoustique,

le talon d’Achille des datacenters IA

Les datacenters sont des symphonies industrielles : serveurs, ventilateurs, groupes froids, groupes électrogènes… tous émettent un bruit constant, souvent supérieur à 80 dB(A), soit lʼéquivalent dʼune rue très passante. Dans les zones urbaines ou périurbaines, ces nuisances sonores deviennent un enjeu majeur. La réglementation impose que le bruit nocturne ne dépasse pas le niveau ambiant existant. Cela nécessite des simulations acoustiques dès la phase de conception, des traitements spécifiques (écrans, isolation), et une anticipation des impacts sur les riverains.

Data Centers Modulaires Intégrés : Des solutions stratégiques

Les Data Centers font face à des défis croissants tels que l’augmentation de la demande en énergie, la pénurie de maind’œuvre et la croissance rapide des charges de travail liées à l’IA.

Les approches traditionnelles sont souvent trop lentes, trop coûteuses et non durables lorsqu’il s’agit de répondre aux besoins de rapidité, d’efficacité et de scalabilité.

R&M y répond avec des solutions modulaires, prêtes à l’emploi. Elles prennent en charge des domaines clés tels que les serveurs et le stockage, les salles informatiques, les meet-me rooms et les interconnexions.

Scannez pour nous contacter.

R&M France

Parc Méliès III, Bâtiment C

9 Rue René Clair, 78390 Bois-d’Arcy fra@rdm.com

www.rdm.com

“Use it or lose it : UIOLI”

Quels impacts pour le raccordement des datacenters ?

Avocate Associée Avocate

CMS Francis Lefebvre

Energie & Décarbonation

Aurore-Emmanuelle Rubio, Chloé Mifsud

La puissance de raccordement des datacenters peut désormais être modifiée (réduite) par RTE lorsque la puissance maximale soutirée par ces installations est inférieure à la puissance de raccordement en soutirage prévue. Ce dispositif, mieux connu sous la terminologie anglaise « Use it or lose it » (UIOLI), est prévu par lʼarticle L. 342-24 du Code de lʼénergie, et entrera en vigueur le 1er août 2025 pour les installations existantes et nouvelles.

Les gestionnaires de réseaux dʼélectricité font face à un accroissement des demandes de raccordement et de modification des raccordements existants, avec des contraintes fortes pour les réseaux électriques. Dont le dispositif UIOLI (Use it or lose it), est prévu par lʼarticle L. 342-24 du Code de lʼénergie, qui entrera en vigueur le 1er août 2025 pour les installations existantes et nouvelles.

Les datacenters ne sont pas exemptés du dispositif UIOLI

Malgré la demande de la filière, lʼarrêté du 14 novembre 2024 relatif aux installations soumises à lʼarticle L. 342-24 du Code de lʼénergie sʼapplique aux data centers.

La filière souhaitait en effet être exclue du dispositif, compte tenu de lʼimportance stratégique des data centers pour la souveraineté numérique de la France et de lʼévolution progressive de leurs besoins en fonction de la demande de leurs clients.

En ce sens, dans sa réponse publique à la seconde consultation menée par la Commission de régulation de lʼénergie (CRE) sur ce dispositif, Microsoft prenait lʼexemple des Pays-Bas. Cet Etat a également introduit des règles similaires au dispositif UIOLI, en exemptant néanmoins certains clients fournissant des « services essentiels », à lʼinstar des datacenters.

La CRE saisie de cette suggestion dʼexemption a toutefois considéré que lʼexclusion des datacenters pourrait emporter des discriminations entre les usagers, difficilement compatible avec le principe dʼégalité dʼaccès au réseau.

La puissance de raccordement demandée sera modifiée si la puissance souscrite lui est inférieure

Les modalités de modification de la puissance de raccordement ont été adoptées par la CRE dans une délibération n° 2024-229 du 18 décembre 2024.

Au préalable, les acteurs avaient été consultés par le régulateur dans le cadre de deux consultations publiques : une première consultation en date du 3 avril 2024, et une seconde consultation en date du 12 juillet 2024. A lʼoccasion de cette dernière, la CRE a pu ajuster sa position concernant les contraintes de raccordement des data centers, notamment sʼagissant des délais de modification de puissance.

La CRE proposait initialement une modification systématique et automatique de la puissance de raccordement cinq ans ou deux après la mise à disposition des ouvrages de raccordement, selon le réseau auquel lʼinstallation est raccordée. Sur ce point, les opérateurs de data centers consultés ont indiqué au régulateur quʼun temps de montée en charge de cinq à dix ans est généralement nécessaire pour atteindre la puissance de raccordement cible.

Dans sa délibération n° 2024-229, la CRE a donc retenu les modalités de modification de puissance de raccordement suivantes :

• Si le demandeur au raccordement choisit un raccordement avec montée en charge, comme cela sera probablement le cas dʼexploitants de data centers, cette montée en charge sera progressive jusquʼà dix ans ;

• Lʼutilisateur souhaitant se raccorder directement pour sa puissance cible verra sa puis-

sance réévaluée à lʼissue dʼune période de cinq ans à compter de la mise à disposition des ouvrages.

Lʼutilisateur pourra modifier les valeurs intermédiaires de sa puissance de raccordement sur au moins trois périodes au cours de ces dix premières années.

Dix ans après la mise à disposition du raccordement, la puissance de raccordement finale devra être atteinte.

La délibération n° 2024-229 prévoit également que la puissance de raccordement ne sera pas modifiée si la puissance souscrite par lʼutilisateur

sur la période de montée en charge est égale à la puissance demandée sur la même période.

En revanche, dans la situation où la puissance souscrite est inférieure à celle demandée, RTE pourra procéder à la modification de puissance. Dans ce cas, le gestionnaire de réseau déduira la puissance récupérée des valeurs intermédiaires suivantes et de la puissance finale.

Pour illustrer lʼengagement dʼun client sur une montée en charge, la CRE propose le schéma cidessous dans sa délibération n° 2024-229 :

Le demandeur du raccordement peut être indemnisé du fait de la modification de puissance lorsqu’il sollicitera une augmentation de cette puissance

Certaines modifications de puissance de raccordement nʼouvriront pas droit à indemnisation : cʼest le cas des modifications de puissance des installations pour lesquelles la convention de raccordement en vigueur au moment de la modification aura été signée à compter du 1er août 2025.

En revanche, une indemnisation égale à 60 % du coût du raccordement restant après la réfaction pourra bénéficier à lʼutilisateur. Une telle indemnisation sʼappliquera aux utilisateurs voyant leur puissance de raccordement modifiée et sollicitant une augmentation de cette puissance, pour autant que leur convention de raccordement antérieure soit au 1er août 2025. Cette indemnité sera déduite de la contribution financière au titre du raccordement.

Les demandes dʼaugmentation ultérieures nʼouvriront pas droit à indemnisation.

RTE

devra adapter sa documentation technique de référence

La documentation technique de référence de RTE va devoir être modifiée afin dʼintégrer les modalités de modification de puissance de raccordement et dʼindemnisation précisées par la CRE.

Pour cela, RTE doit saisir le régulateur avant le 1er juin 2025 pour approbation des projets de procédure de raccordement, des modèles de convention de raccordement et de contrats dʼaccès au réseau (CAR).

Enfin, la CRE précise dans sa délibération n° 2024-229 que les modalités définies dans celle-ci prévalent sur toutes les stipulations contractuelles des CAR ou des contrats uniques qui ne seraient pas encore mises à jour au 1er août 2025.

Raccordement

des datacenters aux réseaux publics d’électricité – Durcissement des règles de cession : anticiper la structuration

Le développement dʼun projet de centre de données nécessite de raccorder le datacenter aux réseaux publics dʼélectricité, quʼil sʼagisse du réseau public de distribution ou de transport dʼélectricité. Le datacenter correspond à une installation de consommation dʼélectricité et son raccordement ne doit pas perturber les autres utilisateurs ni le bon fonctionnement du réseau électrique.

Dans notre série dʼarticles dédiés aux problématiques juridiques relatives au raccordement des datacenters, le présent article envisage les possibilités de transfert des accords de raccordement à un tiers. En effet, le demandeur au raccordement dʼun datacenter au réseau public dʼélectricité peut vouloir transférer à une tierce per-

sonne sa demande de raccordement, aussi appelée demande de « proposition technique et financière » (PTF) de raccordement au réseau public dʼélectricité, avant ou après quʼil lʼa acceptée formellement, ou transférer la convention de raccordement avant complète exécution des travaux de raccordement.

Or un phénomène de patrimonialisation du raccordement a été observé. Les demandes de raccordement ont en effet longtemps été gérées suivant la logique du « premier arrivé, premier servi », qui ouvrait de fait la porte à des demandes de raccordement opportunistes, dont lʼobjectif principal était de sécuriser une proposition financière de raccordement qui allait ensuite bénéficier, par lʼeffet dʼun transfert, à un tiers indépendant du demandeur initial au raccordement.

Aussi, des mesures ont-elles été prises à la fin de lʼannée 2024 par RTE, gestionnaire du réseau de transport dʼélectricité, pour éviter toute spéculation des acteurs privés sur le raccordement. Parmi ces mesures, celles relatives à la cession des PTF et des conventions de raccordement. Parallèlement, un travail de fond ‒ qui nʼest pas lʼobjet du présent article, a été mené par RTE pour faire évoluer sa procédure de raccordement et passer progressivement dʼune logique « premier arrivé, premier servi » à une logique de « premier prêt, premier servi », avec pour objectif dʼassurer que les droits dʼaccès aux réseaux électriques sont bien octroyés à des projets effectivement en cours de réalisation. Les règles de raccordement aux réseaux publics de distribution sont pour leur part restées plus stables.

I – Cas du raccordement aux réseaux publics de distribution

Les réseaux publics de distribution dʼélectricité appartiennent aux communes, qui peuvent assurer elles-mêmes, par lʼintermédiaire de régies, la gestion de leurs réseaux de distribution. Elles peuvent aussi faire le choix de déléguer cette gestion à un gestionnaire de réseau de distribution (GRD). Ainsi, Enedis et quelque 160 régies

ou entreprises locales de distribution (ELD) se répartissent la gestion des réseaux publics de distribution qui acheminent lʼélectricité à la maille locale.

Pour les besoins du présent article, nous raisonnerons à partir de la documentation technique de référence dʼEnedis, qui assure la gestion des réseaux publics de distribution dʼélectricité sur 95% du territoire français mais en pratique, le demandeur au raccordement doit sʼappuyer sur la documentation technique de référence du gestionnaire de réseau dans la zone de desserte duquel est situé son datacenter.

• Accord préalable dʼEnedis

Les conditions générales de raccordement dʼune installation de consommation en HTA (EnedisMOP-RAC_021, en vigueur depuis le 3 juillet 2025) envisagent la cession de lʼ « offre de raccordement » qui est définie, à lʼarticle 1.3 de ces conditions générales (page 9), comme « le document soumis au demandeur par Enedis précisant les modalités techniques, juridiques et financières du raccordement ». Cette définition précise quʼil peut sʼagir dʼune convention de raccordement ou de son avenant, ou dʼune proposition de raccordement avant complétude (la fameuse PRAC). Cette offre de raccordement intègre la proposition technique et financière.

Lʼarticle 12.6. de ces conditions générales, dédié à la « cession de lʼoffre de raccordement », prévoit que cette offre peut être cédée sous réserve de lʼaccord « préalable et écrit » dʼEnedis. Sur ce point, Enedis rappelle que lʼoffre de raccordement est conclue en fonction des caractéristiques du site du demandeur existant au moment de la signature.

Les droits et obligations de lʼoffre sʼappliqueront de plein droit au cessionnaire à compter de la date de cession.

• Signature dʼun avenant bipartite

La cession donne lieu à la signature dʼun avenant bipartite, entre Enedis et le cessionnaire. Le cédant nʼest pas partie à lʼavenant, à lʼinverse de ce que prévoient les règles relatives au raccordement au réseau public de transport.

Aucune référence nʼest cependant faite aux articles 1216 à 1216-3 du code civil qui encadrent la cession de contrat. On note aussi quʼa priori, faute de clause explicite libérant le cédant, il semblerait que le cédant soit tenu solidairement à lʼexécution du contrat avec le cessionnaire sauf si lʼavenant à intervenir en dispose autrement.

• Changement dʼexploitant ou modification de la situation juridique du demandeur

Le changement dʼexploitant du site de consommation ou la modification de la situation juridique du demandeur doit faire lʼobjet dʼune information dʼEnedis, par le demandeur et par lettre recommandée avec avis de réception.

Ainsi en cas de changement pur et simple dʼexploitant sans changement dʼactivité, le demandeur transmet préalablement à Enedis un certain nombre dʼinformations relatives au futur exploitant, listées dans les conditions générales (par exemple : identité, adresse, forme juridique, numéro dʼimmatriculation au RCS etc.) afin que lʼoffre de raccordement soit cédée au nouvel exploitant.

En cas de modification de la situation juridique du demandeur (par exemple un changement dʼactionnariat) et alors même que ce changement ne correspond pas à un changement dʼexploitant, lʼexploitant doit informer Enedis dans les meilleurs délais.

A noter quʼen cas de maitrise dʼouvrage déléguée, prévue à lʼarticle L. 342-6 du code de lʼénergie, cʼest-à-dire lorsque lʼutilisateur choisit de faire exécuter à ses frais et sous sa responsa-

bilité les travaux de raccordement sur les ouvrages dédiés à son installation de consommation par des entreprises agréés par Enedis, la cession de lʼoffre de raccordement nʼentraîne pas la cession du contrat de mandat. Les travaux doivent demeurer exécutés par le demandeur du raccordement avec lequel Enedis avait signé le contrat de mandat aux fins de maitrise dʼouvrage déléguée, autrement dit le cédant.

II – Cas du raccordement au réseau public de transport

Jusquʼau milieu de lʼannée 2024, les conditions de la cession dʼune PTF ou dʼune convention de raccordement étaient relativement simples : le demandeur devait simplement sʼengager à faire part au tiers cessionnaire des droits et obligations afférents et informer RTE préalablement à la cession.

• Strict encadrement des conditions de cession

Depuis, la documentation technique de référence du gestionnaire de réseau de transport RTE encadre plus strictement les modalités de transfert de PTF/convention de raccordement par son titulaire.

Conformément à lʼarticle 9-7 des conditions générales de la PTF applicables depuis le 29 juin 2024 et à lʼarticle 8-7 des conditions générales de la convention de raccordement applicables depuis le 25 décembre 2024, la cession de la PTF ou de la convention de raccordement est soumise à deux conditions.

• Première condition : existence dʼun lien capitalistique entre le cédant et le cessionnaire

La première condition tient à la personne bénéficiaire du transfert : celle-ci ne peut être quʼune société contrôlée par le demandeur initial, ou une société le contrôlant, ou une société contrôlée par celle contrôlant le demandeur, au sens de lʼarticle L.233-3 du code de commerce qui retient une définition extrêmement large du contrôle. Autrement dit, le titulaire dʼune PTF ou dʼune

convention de raccordement ne peut pas céder lʼune ou lʼautre à une société avec laquelle il nʼaurait aucun lien capitalistique au sens du Code de commerce.

A noter que sʼagissant des data centers bénéficiant de la procédure « fast track », les possibilités de cession sont encore plus limitées. En effet, les conditions générales de la convention de raccordement précisent que la cession nʼest possible quʼà une société contrôlée par le demandeur ou une société le contrôlant au sens de lʼarticle L. 233-3 précité, lorsque cette société est également lʼexploitant de lʼinstallation de consommation.

• Deuxième condition : signature dʼun avenant tripartite

La seconde condition tient aux modalités de la cession. Celle-ci doit faire lʼobjet au préalable dʼune information auprès de RTE, et être constatée par la signature dʼun avenant entre ce gestionnaire de réseau, le cédant et le cessionnaire.

On retrouve donc là les conditions de la cession de contrat figurant à lʼarticle 1216 du Code civil. A noter que le cessionnaire de la PTF doit également disposer de droits réels sur le terrain du raccordement. A défaut, lʼune des conditions dʼacceptation de la PTF serait remise en cause.

III – Structuration du projet à anticiper

La vigilance est donc de rigueur pour les porteurs de projets de datacenter, qui se lancent dans les démarches de raccordement aux réseaux publics dʼélectricité du data center.

Un manquement aux règles précitées en matière de cession dʼune PTF ou dʼune convention de raccordement aux réseaux publics pourrait en effet entrainer lʼinopposabilité, et non la nullité, de la cession au gestionnaire de réseau, le cédé. Concernant la nullité, si le troisième alinéa de lʼarticle 1216 du Code civil prévoit bien que « la cession doit être constatée par écrit à peine de nullité », la 2ème chambre civile de la Cour de cassation est venue dans une décision du 24 avril 2024 (Civ. 2e, 24 avr. 2024, n° 22-15.958) rappeler que la cession de contrat est un acte autonome (i.e. indépendant de lʼaccord du cédé), caractérisé par le seul transfert de la qualité de contractant par le cédant titulaire de cette qualité au tiers cessionnaire. Lʼécrit est donc nécessaire entre le cédant et le cessionnaire mais le cédé, cʼest-à-dire le gestionnaire de réseau, est libre, par son comportement, dʼapprouver lʼexistence de son nouveau cocontractant.

La résiliation de la PTF ou de la convention de raccordement par le gestionnaire de réseau pour faute contractuelle du titulaire de la PTF ou de la convention de raccordement avec sortie du projet de la file dʼattente pourrait être envisagée, tout comme un refus du gestionnaire de réseau de signer la convention dʼaccès au réseau avec celui quʼelle ne considèrerait pas comme son cocontractant.

Il est donc recommandé dʼanticiper la structuration du projet en amont de la demande de raccordement, afin dʼéviter dʼéventuels surcoûts ou retards de raccordement du projet de datacenter aux réseaux publics dʼélectricité.

Réduit le bruit des chillers et des drycoolers jusqu

Trappes démontables d’accès aux ventilateurs des échangeurs.

Pièges à son rackables et sur glissières manipulables à l’aide de poignées, pour un accès total aux organes de la machine ou partiel en créant un corridor d’inspection.

Porte double vantail face au coffret électrique.

Hushflow®Datacooling, le capotage acoustique modulaire très haute efficacité pour unités de production d’eau glacée refroidis par air

Hushflow®Datacooling InLine aspiration sous gantry apporte une solution aux problèmes de recyclage d’air et aux contraintes règlementaires de la 5ème façade des terrasses techniques.

SECURITE DES TECHNICIENS

Hushflow®Datacooling peut être équipé de différents organes de sécurités des opérateurs d’exploitation et de maintenance. Les éclairages et blocssecours, barres antipaniques, détection de fuite de réfrigérant peuvent être prévus en usine.

Quant aux risques de chute des opérateurs de maintenance, pas de problèmes nous sommes partenaire d’EnergyCare. Hushflow®Datacooling peut être équipé de la solution brevetée SafetyCare®.

Découvrez pourquoi nous avons choisis SafetyCare® https://energycare.fr/index.php/safetycare-kit-ergonomique/

CONCEPTION INNOVANTE

Développé en collaboration avec les fabricants d'unités de refroidissement air-cooled, Hushflow® Datacooling est conçu spécifiquement pour s'adapter aux chillers air-cooled et aux dry-coolers. Son design optimisé garantit de hautes performances acoustiques et aérauliques (jusqu’à 25dBA).

VALIDE PAR DES EXPERTS

Hushflow®Datacooling a été testé dans les laboratoires des Constructeurs avant déploiement in-situ (FAT) et validé par les principaux bureaux d’études acoustiques (FIELD). Ces essais ont confirmé son efficacité acoustique, et l’absence d’impact sur les performances énergétique.

MAINTENANCE SIMPLIFIEE

La facilité d’accès et d’entretien des unités air-cooled est réellement au cœur de notre conception.

Les contraintes de maintenance des constructeurs sont respectées par un accès aisé aux principauxorganes des machines.

+33(1) 41 860 580 ACOUSTIQUE TOUTES FREQUENCES hushflow@acoustique-toutes-frequences.eu

58 route des Gardes 92180 Meudon France

DESIGN par C.F.D

L'utilisation de la simulation de dynamique des fluides dans le processus de conception est un atout majeur. Maîtrisée depuis 15 ans par nos ingénieurs, la C.F.D. permet de modéliser, d'analyser et d’optimiser le comportement des flux d'air autour des unités de refroidissement.

MISE EN OEUVRE RAPIDE

Grâce à une conception modulaire, Hushflow®Datacooling permet une installation rapide et réduit ainsi le temps de coactivité sur chantier.

La durée moyenne de mise en œuvre est de 2j par ensemble et les moyens humains nécessaires limités à deuxtechniciens.

LA REFERENCE EUROPEENNE

Hushflow®Datacooling a fait ses preuves sur plusieurs sites en démontrant son efficacité et sa pertinence dans des environnements variés. Adapté aux contraintes spécifiques des datacenters (performance, maquettage et poids), il a déjà été éprouvé sur 250 machines (France et Europe).

Dispositif de supportage/accrochage pour toiture ou canvas anti-recyclage We are more than manufacturer

L’investissement dans le datacenter vu depuis ses aspects juridiques

Interview de Carole Steimlé et Nicolas Walker, avocats associés du cabinet Reed Smith

Reed Smith est un cabinet dʼavocats international, originaire de Pittsburgh aux États-Unis et présent dans 34 bureaux à travers le monde. Carole Steimlé et Nicolas Walker, associés du bureau de Paris, conseillent les acteurs de lʼécosystème des data centers en France et en Europe depuis plus dʼune dizaine d'années.

DCmag - Pourriez-vous nous présenter les activités de votre cabinet dans le data center ?

Carole Steimlé - Reed Smith offre une couverture géographique internationale, avec des pratiques elles aussi internationales. À Paris, nous couvrons toutes les plus grandes pratiques juridiques, avec la particularité dʼavoir développé une équipe forte et experte sur les data centers. Ce nʼest pas uniquement un effet de mode, c'est un sujet que nos équipes suivent déjà depuis de très nombreuses années. Sur les data centers, le cabinet couvre toute la chaîne de valeur : aspects administratifs (tant énergétiques quʼurbanistiques et environnementaux), aspects immobiliers (acquisition, baux, etc.), aspects corporate (joint-ventures, création de structure ad hoc, etc.), aspects fiscaux (structuration), aspects data (protection des données, autorisations de stockages, etc.). Cʼest unique sur le marché français. Personnellement, je suis associée en droit immobilier, et je pilote la pratique immobilière au sens large. Jʼinterviens notamment sur lʼacquisition des terrains, la construction et les aspects locatifs, tant pendant la période intérimaire du développement que pendant la phase exploitation. Ma pratique est très complémentaire de celle de Nicolas, avec lequel je travaille de manière très fluide.

Nicolas Walker - Au sein du cabinet, je pilote un groupe dʼavocats dont la pratique est dédiée aux acteurs du data center. Nous conseillons les plus gros hyperscalers de la place. Ma pratique se concentre en particulier sur les aspects réglementaires, notamment pour le raccordement électrique, la construction, lʼexploitation et les obligations de conformité des data centers. Nous intervenons sur toutes sortes de problématiques juridiques pour nos clients comme les permis de construire, les ICPE, les raccordements, les

règles d'efficience énergétique, les boucles de chaleur, etc. Nous traitons également tous les aspects techniques et d'exploitation, en collaboration croissante avec nos collègues en droit fiscal ou corporate, qui accompagnent des levées de fonds ou des restructurations de portefeuilles de data centers.

DCmag - On sent quʼen France comme à lʼinternational, il y a un vrai engouement pour le data center, est-ce que vous le confirmez ?

Carole Steimlé ‒ Absolument, aucun doute làdessus. Il faut associer cette dynamique à l'explosion de l'IA (Intelligence Artificielle), avec l'arrivée des méga campus en Allemagne, en France, en Espagne. Plus que jamais, nous avons besoin de ces actifs, ce qui en fait une vraie priorité politique en France et ailleurs. Nous avons vu des annonces importantes de la part de fonds souverains, dʼÉtats ou directement de fonds d'investissement incontournables dans le secteur, avec des engagements majeurs annoncés en France. Ces derniers mois, nous assistons à un basculement dans les investissements. Historiquement, le marché était dominé par les hyperscalers, éventuellement accompagnés d'un investisseur. Aujourdʼhui, le marché sʼest développé et c'est devenu une classe d'actifs à part entière qui intéresse des acteurs traditionnellement pureplayers immobiliers, ou les équipes immobilières d'investisseurs multisectoriels. Ce secteur est à la croisée de l'immobilier et de l'infrastructure et implique des équipes variées. Lorsque ces actifs sont situés sur des terrains de droit privé (ce qui est très souvent le cas), les équipes immobilières traditionnelles sont bien placées pour s'y intéresser. Mais elles connaissent généralement assez peu le sujet et ont donc besoin de s'entourer de techniciens et de juristes pour progresser dans ce secteur.

DCmag - Nous avons pour notre part une vision du data center association du foncier et de l'industrie, alors que pour beaucoup, c'est de l'IT que l'on met quelque part. Ce nʼest donc ni la même vision ni le même public. Et en termes de financement, jʼimagine que ce n'est pas la même approche ? Nous sommes en train de basculer sur des gens qui investissent volontairement dans un domaine qui est quand même assez particulier, parce que le data center, c'est autre chose que de faire des entrepôts...

Carole Steimlé - Oui, mais les entrepôts, il y a dix/quinze ans, c'était déjà un secteur considéré comme une niche. Les acteurs traditionnels investissaient plutôt sur les secteurs du bureau, du commerce, et ont élargi à la logistique assez tardivement. Aujourd'hui, nous assistons au même mouvement avec les data centers, même si cela reste à ce stade une classe dʼactifs confidentielle avec un écart significatif entre les intentions dʼinvestissement et les investissements réalisés. Cʼest aussi parce que ces classes traditionnelles présentent parfois certaines difficultés d'investissement pour trouver le produit idéal. Il y a toujours de l'investissement sur ces classes dʼactifs, mais les dernières études des agents permettent de mesurer l'évolution des allocations dʼinvestissements. Ainsi, les investisseurs, même les plus traditionnels, cherchent des relais de croissance. Lʼintérêt pour la classe d'actifs vient de toute part, aussi bien du monde anglo-saxon que d'acteurs français pure-players.

DCmag - On a l'impression quand même que le Data Center répond à des objectifs de rendement… C'est du placement financier, mais ce sont des projets qui sont longs, avec des locataires captifs et une demande structurelle.

Carole Steimlé - C'est l'utilisateur final qui va conditionner beaucoup le produit, en fonction notamment de la puissance nécessaire, et de la localisation, qui ne correspond pas aux localisations traditionnelles de l'immobilier.

Les délais sont relativement longs puisque, contrairement à d'autres classes d'actifs, ils sont généralement développés de A à Z : soit sur ce qu'on appelle le Greenfield (terrains non construits ayant un autre usage), soit par la conversion (terrain bâti pour un autre usage).

C'est là quʼintervient cette clientèle pour un produit fait sur mesure pour un hyperscaler, avec des baux relativement longs car l'utilisateur aura installé des équipements extrêmement coûteux, dont la valeur dépasse largement celle de la coque elle-même. Ce sont des projets à développer à très long terme.

La particularité du développement du data center réside dans lʼacheminement de la puissance énergétique adéquate. Une autre difficulté rencontrée par les développeurs est la crainte des autorités publiques qui, connaissant souvent mal ce secteur, nécessitent dʼêtre « rassurées ». À cette fin, un accompagnement adapté est indispensable.

Nicolas Walker - Deux choses en complément. D'une part, à la différence d'un actif immobilier plus classique comme la logistique ou des bureaux, nous sommes en présence dʼun actif pour lequel il faut une énorme spécialisation pour l'opérer. Ce n'est pas juste construire, puis louer, c'est aussi fournir un environnement digital sécuritaire, la redondance électrique, la performance, la rentabilité environnementale du bâtiment, etc. Cʼest un énorme travail technique de conception et de maintenance, où la vie opérationnelle est très différente dʼautres immeubles. Des nouveaux entrants sur le marché peuvent avoir les yeux qui brillent parce que le rendement est intéressant, mais il est impératif de se faire assister sur la connaissance technique. C'est un point primordial.

Le deuxième point concerne lʼéventuelle frilosité de la personne publique évoquée par Carole. Nous constatons une sophistication croissante chez certains acteurs publics qui veulent, eux aussi, être porteurs de projets. Ils ne veulent plus

simplement céder les terrains. Ils veulent être associés dans des montages où la collectivité participe à la création de valeur. Ce sont des projets que l'on voit de plus en plus.

Carole Steimlé ‒ Les nouveaux entrants vont devoir, avant de se lancer sur le secteur, sʼinterroger sur le type de produit correspondant à leur profil de risque. Des investisseurs long terme « core » vont probablement investir une fois le projet sécurisé, tandis que des investisseurs plus opportunistes pourront investir à risques avant la sécurisation des différentes autorisations, de l'accès à l'énergie, et du foncier. Et entre les deux, d'autres acteurs vont présenter des profils de risques intermédiaires qui vont peut-être pouvoir porter le projet avant sa stabilisation.

DCmag - Dans cette catégorisation des investisseurs, est-ce que vous évoquez les neoclouds, comme on les voit sur les derniers projets britanniques au cœur des infrastructures dʼIA, ou alors la tendance du refinancement ?

Carole Steimlé - Les investisseurs que nous accompagnons préfèrent entrer dans la société de projet, investir en « equity » : il est toutefois possible dʼaugmenter lʼeffet de levier en faisant appel à un financement externe (bancaire ou non) en phase de construction.

Nicolas Walker - Beaucoup dʼinformations sont publiques. Les opérateurs annoncent quand ils font des levées de fonds massives, qui se chiffrent parfois en milliards. Nous avons notamment assisté des clients dans le cadre de financements paneuropéens pour financer les prochaines étapes de leur développement en Europe.

DCmag - Ce sont des projets très complexes, qui nécessitent d'être accompagnés et cela fait partie de vos missions. Et si on évoquait la partie fiscale ? Parmi les annonces qui ont été faites en début d'année par le Président Macron, certaines visent à faciliter l'arrivée des

data centers. Est ce qu'on cherche aujourd'hui à venir en France pour une fiscalité plus favorable ?

Nicolas Walker - La réponse est nuancée, car il y a plusieurs leviers fiscaux potentiels à prendre en compte. Le premier, classique de longue date, c'est le régime de la fiscalité énergétique, dans lequel les data centers bénéficient d'un régime de faveur. Le second levier se situe au niveau de la TVA, lors de la mise en location des espaces. Le troisième levier concerne la fiscalité immobilière qui, pour le moment, n'a pas été réellement mobilisée en faveur des data centers. Il y a aussi des points complexes sur la qualification fiscale des constructions. Les data centers sont qualifiés d'entrepôts en droit dʼurbanisme, mais ils ne le sont pas en fiscalité…

DCmag - Et si on parlait des risques, et en particulier de lʼassurantiel. Aux Etats-Unis, face à la démesure des projets, les compagnies d'assurance refusent d'assurer le data center audelà de certaines puissances. J'imagine que la question de l'assurance doit être un cassetête pour vos clients, comme pour vous qui les accompagnez ?

Nicolas Walker - Nous avons suivi de très gros dossiers assurantiels pour nos clients en France. La réalité, c'est que le marché est extrêmement difficile et les opérateurs ont parfois du mal à se faire assurer. Nous connaissons certains acteurs qui ont dû passer par les procédures de dernier recours au titre du code d'assurance, pour se faire désigner un assureur au titre des assurances obligatoires. Le marché assurantiel du data center est particulièrement complexe, car la technicité des bâtiments et des équipements est très élevée. Les assureurs sont parfois démunis face à cette complexité. Il y a énormément de débats, par exemple sur la valeur des équipements détachables ou non détachables de la coque du bâtiment. Lʼassurance, c'est un sujet dont on ne parle pas assez, et auquel nos clients sont confrontés assez régulièrement.

Carole Steimlé - Lorsque lʼassurance nʼest pas obligatoire, la question peut être réglée contractuellement par la répartition des risques via une matrice entre bailleur et preneur. Cela est particulièrement aisé dans la documentation contractuelle locative, qui permet également de se prémunir des éventuels incidents, notamment les coupures d'électricité.

LE SPECIALISTE DU CONFINEMENT 100% SUR MESURE

SOLUTION FULL AUTOPORTANTE

Aucun appui intermédiaire au sol, aucun appui sur les racks

Votre urbanisation enfin libre de ses mouvements

DCmag - Pour terminer, parlons dʼIA, ou plutôt des infrastructures d'IA qui coûtent tellement cher qu'il faut les rentabiliser très rapidement, dʼoù la modularité des nouveaux projets. Est-ce que ça change quelque chose dans la vision de vos clients, dans les process de financement des data centers ? Est-ce que vous sentez des évolutions en la matière ?

DES DESIGNS ET

DIMENSI

Confiner une allée froide en engloban câbles

Votre confinement large de 3,6 ML pour tous les gestes de proximité

ADAPTABILITÉ‒ÉVOLUTIVITÉ‒OCP© COMPLIANT

Mixer des racks classiques air cooling avec du liquid cooling et DLC, du 42, 47, 48U avec du 52 et 56U

Vous voilà prêt pour les défis de l’I A avec les confinements ODC reconnus standard mondial par l’OCP©.

TOITURE RÉHAUSSÉE

Carole Steimlé - Cʼest une question essentielle : les bâtiments dont la construction est lancée aujourdʼhui ne seront-ils pas obsolètes avant même leur achèvement ? Si les experts parviennent à estimer les besoins à court/moyen terme des quantités de stockage nécessaires, il est impossible dʼanticiper les progrès à venir sur lʼoptimisation du stockage lui-même.

ÉVOLUTIVITÉ OPTIMALE

Gérer facilement et sans sortir de la salle (pas de fumée, étincelle ni point chaud) le recalibrage du confinement

Vous accompagnez en autonomie vos ajouts et retraits de racks avec des kits d’occultations modulaires

Dans tous les cas, les besoins seront toujours là.

Nicolas Walker - Certains acteurs sophistiqués poussent en effet vers la flexibilité de l'actif. À la différence d'autres bâtiments, un data center n'est pas facilement « convertible » en dʼautres usages. Si lʼon fait construire un data center avec l'infrastructure électrique et informatique nécessaire, c'est en principe sur des temporalités dʼexploitation de 20, 30, 40 années. Si les acteurs ont une composante IA dans leur projet, ils se gardent la flexibilité dans la conception, dans la programmation, de faire autre chose, si le besoin évolue.

ACCESSOIRISATION

Introduire des chariots porte-serveu des PIRL de grandes hauteur. Vous exploitez enfin vos racks jusq

EXPLOITABILITÉ TOTALE

Accéder aux chemins de câbles, tap-o froide sans contrainte

Vous glissez simplement des tiroir dessus des racks et effectuer vos opé

Disposer immédiatement d’un catalogue d’accessoires permettant d’optimiser l’efficacité énergétique.

Vous installez, démontez, réutilisez sans outillage et à l’infini des produits intelligents, universels.

EXPERTISE ‒ EXPÉRIENCE

Profiter d’un accompagnement uniqu

Vous bénéficiez du retour d’expérie sur mesure

Découvrez l’ensemble de notre expertise sur CONFINEMENTDATACEN

Découvrez l’ensemble de notre gamme sur CONFINEMENTDATA

Une demande ?

Un conseil ?

LE SPECIALISTE DU CONFINEMENT 100% SUR MESURE ET EVOLUTIF

SOLUTION FULL AUTOPORTANTE

Aucun appui intermédiaire au sol, aucun appui sur les racks

Votre urbanisation enfin libre de ses mouvements

DES DESIGNS ET DIMENSIONS HORS NORME

Confiner une allée froide en englobant tous les chemins de câbles

Votre confinement large de 3,6 ML apporte un confort absolu pour tous les gestes de proximité

ADAPTABILITÉ‒ÉVOLUTIVITÉ‒OCP© COMPLIANT

Mixer des racks classiques air cooling avec du liquid cooling et DLC, du 42, 47, 48U avec du 52 et 56U

Vous voilà prêt pour les défis de l’I A avec les confinements ODC reconnus standard mondial par l’OCP©.

TOITURE RÉHAUSSÉE

Introduire des chariots porte-serveurs avec mat télescopiques, des PIRL de grandes hauteur.

Vous exploitez enfin vos racks jusqu’au dernier U utile.

ÉVOLUTIVITÉ OPTIMALE

Gérer facilement et sans sortir de la salle (pas de fumée, étincelle ni point chaud) le recalibrage du confinement

Vous accompagnez en autonomie vos ajouts et retraits de racks avec des kits d’occultations modulaires

EXPLOITABILITÉ TOTALE

Accéder aux chemins de câbles, tap-off depuis l’intérieur de l’allée froide sans contrainte

Vous glissez simplement des tiroirs latéraux pour accéder au dessus des racks et effectuer vos opérations

ACCESSOIRISATION

Disposer immédiatement d’un catalogue d’accessoires permettant d’optimiser l’efficacité énergétique.

Vous installez, démontez, réutilisez sans outillage et à l’infini des produits intelligents, universels.

EXPERTISE ‒ EXPÉRIENCE

Profiter d’un accompagnement unique pendant tout le projet

Découvrez l’ensemble de notre expertise sur CONFINEMENTDATACENTER.FR

Découvrez l’ensemble de notre gamme sur CONFINEMENTDATACENTER.FR

Vous bénéficiez du retour d’expérience de 700 allées traitées sur mesure Une demande ? Un conseil ?

Construire des Data Centers en France : surmonter les obstacles réglementaires et libérer la croissance

Simon Cudennec
Sandra Hahn Duraffourg

La France est à un carrefour. La convergence entre une demande en forte croissance, une réglementation complexe et de nouveaux cadres juridiques crée à la fois des risques, mais aussi des opportunités inédites pour les investisseurs qui anticipent et structurent leurs projets en tenant compte de ces réformes.

Le dilemme français : l’urgence face à la complexité

La France fait face à un paradoxe commun à toute lʼEurope. La demande en infrastructures numériques croît à un rythme sans précédent, portée par lʼadoption du cloud, lʼintelligence artificielle et le besoin de capacités de stockage souveraines et résilientes. Pourtant, malgré des évolutions récentes, lʼenvironnement réglementaire demeure complexe pour le développement de data centers de grande envergure.

Pour les opérateurs et investisseurs, la France reste un marché attractif, avec un mix énergétique favorable (notamment nucléaire et renouvelables), une connectivité compétitive et une main-dʼœuvre qualifiée. Mais bien appréhender le cadre juridique applicable est essentiel. Des retards dʼinstruction ou des ambiguïtés dʼinterprétation réglementaire peuvent affecter matériellement la faisabilité des projets et la confiance des investisseurs.

Où les projets se bloquent-ils ?

Classification réglementaire : Contrairement aux installations industrielles classiques, les data centers ne sont pas reconnus comme une catégorie distincte dʼICPE (Installations Classées pour la Protection de lʼEnvironnement) en droit français. Ce sont leurs systèmes auxiliaires, tels que les groupes électrogènes diesel de secours, équipements de refroidissement et cuves de stockage de carburant, qui déclenchent la classification ICPE (articles L.511-1 et s. du Code de lʼenvironnement). Cette approche indirecte soumet les projets à de longues procédures adminis-

tratives, non pas en raison de leur activité principale, mais de leurs équipements annexes.

Dans lʼancien cadre, les data centers étaient donc seulement régulés de manière indirecte via ces installations auxiliaires. Cependant, lʼarticle L.236-1 du Code de lʼénergie définit désormais expressément et régule les data centers en tant que tels. Cette disposition introduit des obligations sectorielles spécifiques relatives à lʼefficacité énergétique, à la consommation dʼeau et au reporting environnemental. En parallèle, les règles ICPE continuent à sʼappliquer aux systèmes techniques annexes, créant ainsi un cadre réglementaire à plusieurs niveaux : les data centers sont régulés directement par le Code de lʼénergie, tandis que leurs équipements auxiliaires relèvent toujours du Code de lʼenvironnement.

Autorisation dʼurbanisme et environnementale : Les data centers requièrent généralement plusieurs autorisations, notamment le permis de construire (articles L.421-1 et s. du Code de lʼurbanisme), les autorisations ICPE, les autorisations au titre de la loi sur lʼeau et les études dʼimpact environnemental. Lʼautorisation environnementale unique (AEU) (articles L.181-1 et s. du Code de lʼurbanisme) a été conçue pour rationaliser les procédures, mais dans la pratique elles restent souvent séquentielles et chronophages.

Raccordement au réseau : Le raccordement est régi par le Code de lʼénergie. Historiquement, la capacité était attribuée par RTE ou Enedis selon la règle du « premier arrivé, premier servi », ce qui encourageait des réservations spéculatives et limitait la visibilité sur les mégawatts disponibles. Plusieurs projets en Île-de-France ont ainsi connu des retards importants liés à la capacité du réseau.

À compter du 1er août 2025, le cadre du raccordement évolue : lʼattribution de capacité sera régie par les articles L.342-22 à L.342-24 du Code de lʼénergie, ainsi que par la délibération de la CRE du 18 décembre 2024 et lʼarrêté ministériel du 14 novembre 2024. Malgré les pressions du

secteur pour une exemption, le mécanisme sʼapplique à toutes les installations concernées, y compris les data centers. Il autorise RTE à réduire la capacité réservée si lʼutilisation réelle est inférieure à la puissance souscrite, selon les règles fixées par la CRE. Le mécanisme sʼapparente à un système « use-it-or-lose-it » (UIOLI).

La délibération n° 2024-229 de la CRE (18 décembre 2024) fixe les modalités :

• Nouvelles installations :

• Raccordement immédiat à pleine capacité, sous réserve dʼune réévaluation après cinq ans ; ou

• Montée en puissance progressive sur dix ans maximums, avec au moins trois points dʼajustement. La capacité peut être révisée à la baisse si lʼutilisation ne suit pas les prévisions.

• Installations existantes : la capacité sera recalculée sur la base de la puissance maximale souscrite au cours des cinq dernières années, majorée dʼune marge de 25 %, afin que les réductions reflètent la consommation réelle.

• Indemnisation : disponible uniquement pour les conventions de raccordement signées avant le 1er août 2025, plafonnée à 60 % des coûts résiduels. Après cette date, aucune indemnisation ne sʼapplique. Ces règles prévalent sur les stipulations contractuelles contraires. RTE doit transmettre à la CRE, avant le 1er juin 2025, des procédures de raccordement mises à jour, que tous les gestionnaires de réseaux devront appliquer dès le 1er août 2025.

Par ailleurs, la délibération n° 2025-120 de la CRE du 7 mai 2025 instaure une procédure accélérée spécifique pour le raccordement des très grands consommateurs dʼélectricité, en particulier les data centers hyperscale, au réseau de transport haute tension HTB3 (400 kV). Cette procédure simplifiée sʼapplique exclusivement aux projets situés sur des sites désignés comme favorables par lʼÉtat, sous réserve de faisabilité confirmée par RTE.

Principales caractéristiques de la procédure accélérée :

• Calendrier réduit : raccordements possibles en trois à quatre ans, contre des délais bien plus longs dans le régime standard.

• Pré-réservation de capacité : RTE peut réserver en amont de la capacité pour les sites identifiés par lʼÉtat, offrant une visibilité précoce aux développeurs et évitant les demandes spéculatives.

• Engagements financiers : dépôt dʼune garantie bancaire de 10 % dès lʼengagement de raccordement, versement de 30 % des coûts estimés au moment de la signature de la convention de raccordement, puis 60 % lors de lʼexécution finale.

• Disponibilité de la capacité : introduction dʼun nouveau composant tarifaire reflétant le coût pour RTE de mettre à disposition une capacité ferme avant le renforcement du réseau. Le calcul précis sera défini dans les futurs modèles contractuels.

• Exigence de permis de construire : celui-ci doit être obtenu dans les 16 mois suivant lʼengagement de raccordement ; à défaut, la capacité réservée est libérée.

Il est important de noter que ce régime accéléré ne constitue pas une réforme générale des procédures de raccordement mais une mesure ciblée pour les projets à demande exceptionnelle de puissance. Les projets HTB2 et HTB1 continuent à relever du régime ordinaire. Néanmoins, pour les projets éligibles, cette procédure pourrait réduire considérablement les délais et améliorer la prévisibilité.

Valorisation de la chaleur fatale : Conformément à la Directive (UE) 2023/1791 relative à lʼefficacité énergétique (article 26(6)), les États membres doivent veiller à ce que les data centers dʼune puissance totale installée égale ou supérieure à 1 MW valorisent leur chaleur fatale, sauf démonstration de lʼimpossibilité technique ou économique. Cette obligation a été transposée en droit français par lʼarticle L.236-2 du Code de

lʼénergie, introduit par la loi n° 2025-391 du 30 avril 2025, qui impose aux data centers définis à lʼarticle L.236-1 de valoriser leur chaleur fatale. Les conditions, modalités et exemptions, y compris celles prévues à lʼarticle 26(6) de la directive seront précisées par décret en Conseil dʼÉtat.

Acceptabilité locale : Bien que généralement moins controversés que les parcs éoliens, les data centers peuvent susciter une opposition liée à lʼoccupation du foncier, à lʼimpact visuel, à la consommation dʼeau ou aux nuisances sonores des générateurs (article R.1334-30 du Code de la santé publique). Un dialogue anticipé et transparent, mettant en avant des bénéfices comme la réutilisation de la chaleur fatale, est crucial pour réduire les risques contentieux, y compris les recours des tiers ou les recours pour excès de pouvoir.

Quatre solutions pratiques pour un développement efficace et responsable

• Zones dʼaccélération pour les infrastructures numériques : Inspirées des zones dʼaccélération pour les énergies renouvelables (loi n° 2023-175 du 10 mars 2023, dite loi APER, article L.141-5-3 du Code de lʼénergie), les communes pourraient désigner des zones préalablement évaluées pour accueillir

des data centers. Ces zones, évaluées conformément à la directive 2001/42/CE (article L.122-4 du Code de lʼenvironnement), offriraient une sécurité juridique en matière de foncier, de raccordement et dʼimpact environnemental, tout en garantissant des gardefous écologiques.

• Capacité réseau transparente et créneaux réservés : Des cartographies régionales de capacité et des règles claires dʼallocation permettraient de dissuader les réservations spéculatives et dʼoffrir aux investisseurs une visibilité fiable. Lʼapproche UIOLI rend cette transparence critique : les développeurs doivent anticiper les obligations de montée en puissance et planifier dʼéventuelles réductions de capacité si lʼutilisation ne correspond pas aux prévisions.

• Standardisation des exigences ICPE pour les équipements auxiliaires : Comme les data centers relèvent des ICPE via leurs systèmes auxiliaires, une standardisation est nécessaire. Des modèles émis par le Ministère de la Transition écologique pourraient harmoniser les seuils relatifs aux émissions, au bruit, et aux tests des groupes électrogènes et systèmes de refroidissement. Cela renforcerait la prévisibilité pour les investisseurs et lʼhomogénéité à lʼéchelle nationale.

• Anticiper la planification et la conformité réglementaire : Intégrer dès la conception les obligations issues du Code de lʼénergie

(articles L.236-1 et L.236-2), incluant le reporting énergétique annuel pour les sites > 500 kW et la valorisation de chaleur fatale > 1 MW, réduira les coûts de mise en conformité ultérieure et démontrera lʼalignement réglementaire.

Conclusion : une fenêtre d’opportunité

Avec lʼexplosion de la demande liée à lʼIA et au cloud, la France ne peut se permettre dʼêtre marginalisée dans la course aux infrastructures numériques. En parallèle, les régulateurs et les collectivités exigent des garanties fortes sur lʼusage des sols, de lʼeau et de lʼénergie.

Le projet de loi relatif à la simplification de la vie économique, adopté le 17 juin 2025 par lʼAssemblée nationale, introduit des simplifications pour le développement des data centers en France. Lʼarticle 15 crée la possibilité de désigner certains data centers comme projets dʼintérêt national majeur (PINM), leur donnant accès à des procédures administratives accélérées, notamment :

• Permis de construire délivrés par lʼÉtat (article L.422-2 du Code de lʼurbanisme);

• Harmonisation accélérée avec les documents dʼurbanisme locaux ;

• Procédures de raccordement simplifiées ; et

• Dérogations facilitées pour les espèces protégées (article L.411-2 du Code de lʼenvironnement).

Après la conciliation du texte par le Parlement en commission mixte paritaire, le projet de loi devra être promulgué, et les décrets dʼapplication viendront préciser les critères dʼéligibilité. La désignation PINM, combinée à lʼautorisation environnementale unique (AEU) et à lʼévolution du processus de raccordement, pourrait considérablement réduire lʼincertitude juridique et accélérer les délais de réalisation des projets.

Cloud & AI development Act européen :

« tripler les capacités en datacenters d’ici 5 à 7 ans », mode d’emploi

Le « Cloud and AI Development Act » constitue lʼune des initiatives phares dans le domaine du numérique, pour la Commission européenne présidée par Ursula von der Leyen. Cette initiative procède dʼune recommandation issue du rapport Draghi publié en septembre 2024 ‒ soulignant notamment lʼimportance dʼaccroître les capacités de calcul sur le territoire européen. Car le constat dressé par la Commission européenne est clair : lʼUE reste à la traîne par rapport aux États-Unis et à la Chine en termes de capacité de datacenters.

Une intervention publique apparaît ainsi impérieusement nécessaire, selon lʼexécutif européen, pour créer des conditions plus propices à lʼinvestissement sur le sol européen ‒ la Commission table sur un triplement des capacités en data centers dʼici cinq à sept ans. Le tout sans rien sacrifier à un double-objectif sous-jacent, de compétitivité et de souveraineté.

La Commission européenne a ouvert au printemps un appel à contributions publiques, clôt le 4 juillet dernier. Lʼoccasion de faire le point sur les arguments mis en avant par les acteurs du datacenter qui se sont prêtés à cet exercice démocratique ‒ à lʼinstar, pour les opérateurs de datacenters, de lʼAssociation européenne des datacenters (EUDCA), France Datacenter, son homologue italienne (IDA), Equinix, AtlasEdge datacenters ou EdgeConnex.

Sans surprise, lʼaccès à lʼénergie et aux énergies renouvelables est un premier sujet récurrent ‒mis en exergue par EUDCA comme le « plus grand défi » pour lʼindustrie des datacenters. Selon lʼassociation européenne, « dans un nombre croissant dʼendroits, le réseau nʼest pas en mesure de fournir lʼénergie nécessaire. Lorsquʼil est disponible, il y a souvent un décalage entre le temps de développement du centre de données (entre 5 et 36 mois) et lʼaccès au réseau de transmission (7 à 8 ans) ». Equinix ne dit pas autre chose : « giga-factories need gigawatts », déplorant que beaucoup de métropoles européennes manquent de capacité, même pour 100 MW.

Sur un plan macro, cʼest véritablement sur lʼexpansion, la modernisation et la numérisation des infrastructures énergétiques que lʼeffort devrait porter ‒ et la flexibilité du réseau encouragée, par exemple, via la reconnaissance des datacenters non seulement en tant que consommateurs dʼénergie, mais aussi en tant que contributeurs actifs à la stabilité du réseau ‒ par la production sur site, les services de flexibilité et lʼinvestissement conjoint à lʼœuvre dans la modernisation du réseau.

Par ailleurs, lʼUE devrait jouer un rôle, selon EUDCA, pour fournir des orientations et des incitations cohérentes aux États membres afin que ceux-ci accélèrent et placent en tête des files dʼattente des raccordements les projets de datacenters ayant une « importance stratégique » ‒sans pour autant que cette notion ne soit précisément définie, au-delà des montants dʼinvestissements en jeu.

Autre cheval de bataille unanimement relayé par les industriels pour limiter le risque de fragmentation du marché intérieur et les surcoûts induits : faciliter, rationaliser, accélérer les procédures dʼautorisation en Europe, aux niveaux national et local ‒ notamment en créant des « guichets uniques nationaux » pour lʼoctroi des autorisations, en appliquant des définitions harmonisées établies au niveau de lʼUE et une interprétation cohérente des règles relatives aux permis.

Concrètement, EUDCA propose trois mécanismes dʼapprobation accélérée :

• les projets qui se situeraient au plus haut des standards environnementaux et dʼefficacité énergétique ‒ grâce à un label basé sur la Directive efficacité énergétique ‒ pourraient bénéficier dʼune présomption de conformité aux procédures environnementales ;

• En cas de projets « dʼintérêt critique » ensuite ‒ la notion de « criticité » ouvrant à elle seule une boite de Pandore ;

• EUDCA défend enfin lʼidée dʼun « premium » dont les opérateurs de datacenters pourraient sʼacquitter pour accélérer leurs demandes de permis.

Sur le plan environnemental, EUDCA reste alignée sur les objectifs fixés par le Climate Neutral Data Centre Pact ‒ bien que ses objectifs aient été établis en 2021, avant lʼaccélération de la « hype » autour de lʼIA. Avant dʼintroduire des mesures supplémentaires liées à lʼefficacité énergétique, il conviendrait en premier lieu, selon le collectif industriel, de remédier « aux graves lacunes du système de notification » de la directive sur lʼefficacité énergétique (EED). Sans cela, lʼintroduction de nouvelles normes environnementales pourrait se révéler prématurée et « risquerait de compromettre lʼeffet escompté ». Sans compter

que la transposition manifestement hétérogène de cette directive, en fonction des Etats membres, a conduit, selon les industriels à des incohérences en termes de collecte de données ‒rendant celle-ci peu fiable ou consolidable à lʼéchelle européenne.

EUDCA estime que sʼil y avait lieu dʼélargir le champ dʼapplication de lʼEED, ce devrait être pour inciter les exploitants peu performants ‒dont la puissance informatique installée est inférieure à 500 kW ‒ à adopter des pratiques plus durables. LʼINRIA, de son côté, estimerait « souhaitable » de « fournir un soutien financier et/ou des opportunités de marchés publics aux acteurs européens qui déploient des technologies (…) différenciatrices » pour les datacenters, comprenant autant les logiciels, les composants et les systèmes, « par exemple lorsquʼils permettent une efficacité énergétique élevée et optimisent la maintenance opérationnelle ».

Sur la consommation dʼeau spécifiquement, EUDCA sʼen tient à sa ligne : les volumes imputables aux datacenters sont relativement faibles par rapport à dʼautres secteurs, même si la consommation peut effectivement être concentrée localement. Aussi, pour « alléger la pression sur les réserves dʼeau locales tout en encourageant les pratiques durables », les acteurs du datacenter recommandent aux régulateurs euro-

péens de faciliter lʼutilisation des eaux grises industrielles à des fins de refroidissement dans les datacenters, de poursuivre la (coûteuse) modernisation des infrastructures hydrauliques et de créer des incitations ciblées pour encourager lʼutilisation dʼeau non potable à des fins de refroidissement : autant de préconisations qui paraissent alignées avec lʼambition de la Stratégie européenne pour la résilience de lʼeau, présentée début juin par la Commission européenne. LʼIDA, elle, met en garde sur un autre plan : attention à ne pas imposer une approche unique, qui ne prendrait pas en compte la diversité des réalités hydriques locales.

Dernier gros pan de revendications de la part des principaux acteurs du datacenter : le recours à des incitations financières pour permettre des implantations dans des régions sous-représentées, moderniser les installations plus anciennes, encourager lʼadoption de technologies propres (e.g refroidissement par immersion), ou mettre en œuvre la réutilisation de chaleur fatale dès la phase de conception de nouvelles installations.

Autre levier que le secteur souhaiterait mobiliser, pour autoriser le déblocage de cofinancements renforcés à lʼéchelon national : obtenir des dérogations aux sacro-saintes règles européennes en matière dʼaide dʼEtat, via la création dʼun PIIEC (projets importants dʼintérêt européen commun)

‒ cadre déjà déployé par exemple dans le domaine du cloud, de la microélectronique, des batteries ou de lʼhydrogène.

A noter enfin que cʼest probablement la toute première fois que lʼenjeu de lʼacceptabilité est remonté aussi explicitement auprès des autorités européennes. Google Cloud ou lʼIDA ont en effet mis lʼaccent sur le phénomène bien connu du « NIMBY » (not in my backyard). Le rôle crucial ‒pour ne pas dire la responsabilité ‒ des autorités publiques à lʼégard des communautés locales, pour expliquer la plus-value et lʼimpact socioéconomique des datacenters, sont désormais mis sur la table.

La balle est maintenant dans le camp de la Commission européenne ‒ qui va continuer à plancher pour publier sa proposition de « Cloud & AI development Act » a priori au dernier trimestre 2025. Les deux colégislateurs européens, le Conseil de lʼUE (= les 27 Etats membres) et le Parlement européen, se pencheront par la suite sur ce texte. Ce qui promet des débats passionnés, tant les spécificités nationales et la diversité des appartenances partisanes conduisent à des approches différentiées, pour ne pas dire parfois antagonistes, sur les problématiques de politiques publiques en lien avec les datacenters et le cloud.

Le défi de l’adaptation constante de la gestion des risques en datacenter, associé aux enjeux

énergétiques

(photovoltaïque, stockage d’énergie, …)

Benjamin Cherdrong

Manager du risque incendie-explosion, directeur / fondateur du bureau dʼétude BCFI et sapeur-pompier professionnel. « Je mets mon expertise à votre disposition pour vous d’accompagner dans la maîtrise du risque ». Agréé INSSI

Les sujets liés à la résilience et à la sobriété énergétique nʼont jamais été autant au cœur de nos préoccupations. Les datacenters, déjà fortement préoccupés par leur efficacité énergétique : Power Usage Effectiveness (PUE), doivent maintenant relever le défi de la puissance nécessaire de par lʼessor de lʼIA avec des puissances par rack pouvant dépasser les 120KW. Des projets de datacenter atteignant le Gigawatt sont annoncés par Fluidstack et le fonds dʼinvestissement canadien Brookfield, la question de lʼalimentation de telles structures pose forcément question.

1GW de puissance IT, l'approvisionnement en énergie doit évoluer pour répondre à cette transformation révolutionnaire

Afin de répondre à ce besoin dʼapprovisionnement, les porteurs de projet et leur équipe techniques doivent rivaliser dʼingéniosité pour répondre aux besoins, maintenir un PUE le plus bas possible, mais également minimiser lʼemprunte carbone.

Entre résilience et sobriété énergétique, la démarche peut être volontaire, mais bien elle sʼimpose.

Dans la liste des impositions, nous avons notamment lʼapplication de la loi « Climat et Résilience » qui contraint les nouveaux bâtiments et les rénovations lourdes à solariser un pourcentage de leur surface.

Autre contrainte, les demandes clients qui souhaitent orienter leur choix vers des structures plus vertueuses et demandent, par exemple, dʼobtenir la certification ISO 50001 « système de management de lʼénergie » (SMÉ).

Aujourd’hui la solution apportée s’oriente donc vers le photovoltaïque et le stockage de l’énergie

Les installations photovoltaïques sont généralement implantées en toiture ou en ombrières pour les places de stationnement, dans le cas de nos datacenters, les parkings étant relativement limités. Le choix dʼimplantation est généralement fait en toiture, ce qui peut également présenter un intérêt pour le rendement des panneaux, mais aussi complexifier lʼintégration des autres installations techniques, tel que les groupes froids. Les panneaux photovoltaïques sont aujourdʼhui des sources dʼénergie à considérer comme source potentielle de risque incendie. Les incendies liés à ces installations sont aujourdʼhui suffisamment fréquents pour que lʼensemble des acteurs, autorités, préventeurs, assureurs, services de secours… ait pris des mesures pour limiter les risques.

Côté assureur, un référentiel dʼinstallation APSAD D20 (mis à jour en 2025), présente lʼensemble des recommandations dʼinstallation, mais aussi de maintenance pour une meilleure maîtrise des risques.

Les sapeurs-pompiers ont depuis 2017 rédigé des doctrines dʼintervention pour ces installations afin de mieux informer les intervenants sur les spécificités des installations, sur les différents risques (électriques, thermiques, chutes…). La doctrine des sapeurs-pompiers est claire : Si le courant ne peut pas être coupé dès lʼarrivée des secours, lʼextinction doit se faire avec des extincteurs appropriés (CO2, poudre). Sʼil nʼy a pas dʼautre option que lʼutilisation dʼune lance, seul le jet diffus dʼattaque est autorisé, en respectant une distance minimale de 5 mètres entre la lance et lʼinstallation (Source Guide de Doctrine, opération de secours en présence dʼélectricité 01-2024). Notez que lʼusage de lʼeau nʼest pas exclu, bon nombre de services dʼincendie ne sont pas dotés de moyens CO2 et poudre suffisamment dimensionnée pour lutter contre lʼincendie.

Sur lʼaspect utilité, une installation de panneaux photovoltaïques présente peu dʼintérêt pour lʼalimentation IT dʼun datacenter, lʼusage est souvent

dédié aux applications tertiaires. Face aux enjeux énergétiques, le stockage dʼénergie suscite donc lʼintérêt auprès des exploitants et des maîtrises dʼouvrage.

Le lithium-ion : technologie majeure du stockage d’énergie

Les solutions de stockage peuvent se présenter avec différents designs et peuvent offrir des capacités de stockage de plusieurs mégawatts, elles deviennent donc des nouvelles installations techniques à intégrer dans nos projets, mais aussi des sites existants.

Aujourdʼhui, la disponibilité et le coût des surfaces foncières amène les maîtrises dʼouvrage à optimiser les surfaces bâtimentaires, ce constat fait donc écho avec le stockage dʼénergie. Depuis maintenant plusieurs années, afin dʼoptimiser la densité énergétique et augmenter les puissances de stockage, nos batteries ont évolué et de nouvelles chimies de batteries voient le jour depuis une quinzaine dʼannées. En 2025, le lithium-ion est la technologie (chimie) majeure du stockage dʼénergie. Les acteurs du datacenter découvrent peu à peu ces nouvelles batteries dans les solutions dʼalimentation secourues, elles présentent aujourdʼhui 40% des usages en datacenter alors quʼelles étaient de 15% en 2020 dans les mêmes usages.

Pour le stockage dʼénergie de grande puissance (utility-scale), afin dʼobtenir des puissances dépassant le mégawatt, le recours aux batteries lithium est également la « norme ».

Comme toute source dʼénergie, les batteries sont à considérer comme une composante du risque incendie, mais également dʼexplosion en cas de dégazage sans inflammations. Lʼhistoire des alimentations secourues nous a permis dʼapprendre à maîtriser en partie les risques de nos batteries plombs, il faut donc aujourdʼhui initier la démarche avec le lithium-ion.

À ce jour, les risques liés aux batteries lithiumion nʼont plus de secret pour lʼensemble des acteurs concernés tant du côté des autorités avec les discussions en cours sur la modification de la rubrique ICPE 2925-2 (charge dʼaccumulateurs), que des assureurs, qui, pour certains, se refusent dʼentrer en souscription un assuré avec un usage batterie lithium. En ce qui concerne les services de secours, les retours dʼexpériences montrent des risques significatifs peu maîtrisables en cas dʼintervention. À ce propos, le guide de doctrine « Opération des secours en présence dʼélectricité » cité supra pour le photovoltaïque, précise les recommandations suivantes pour le stockage dʼénergie : lorsque la batterie est emballée, il est déconseillé de tenter de l'éteindre, car cela peut entraîner une augmentation du temps de combustion, une production accrue de fumées et de vapeur, une projection de particules de métal en fusion, une consommation excessive d'eau et des risques de pollution par les eaux d'extinction. La seule mesure recommandée est la protection de l'environnement.

Face à ces constats et du fait de la vulnérabilité des installations datacenter, le stockage

dʼénergie doit faire lʼobjet dʼune démarche dʼanalyse de risque, tout comme le photovoltaïque.

Bonne pratique : L’analyse de vulnérabilité et le management du risque incendie pour une meilleure maîtrise

Les maîtrises dʼouvrage doivent donc faire preuve de vigilance afin de répondre à lʼensemble des besoins pour limiter les risques, assurer leur résilience et faciliter lʼintervention des secours. Au-delà des référentiels existants et des prescriptions réglementaires, la bonne pratique est le recours à lʼanalyse de la vulnérabilité et au management de ces risques (ISO 31000), ce qui permet aux maîtrises dʼouvrage de garantir un niveau de maîtrise supérieur des risques incendie et explosion. Cette pratique permet également de proposer des solutions de maîtrise aux autorités dans le cadre des instructions DREAL / SDIS, mais aussi auprès des services prévention des assureurs.

Dans le cadre des études de vulnérabilité récemment réalisées, concernant le photovoltaïque, chez BCFI nous avons une attention particulière sur la nature des isolants, sur les cheminements des câbles, sur les moyens de détection précoce, mais aussi sur lʼaccès des secours et des moyens mis à disposition.

Concernant la présence des autres installations en toiture (ex : CTA, groupes froid), il est

impératif d'interdire l'installation à proximité, car cela représente un risque important, notamment en cas de nécessité de couper l'alimentation pour effectuer une intervention.

En ce qui concerne les risques liés au stockage de lʼénergie, lʼétude devient beaucoup plus complexe. Elle commence par lʼidentification des cellules, de la conception des modules/packs, puis des racks, lʼobjectif étant de connaître lʼensemble des spécificités et des sécurités existantes intrinsèques aux batteries. Sʼen suivent alors les propositions dʼimplantations, le choix des protections passives et actives, mais également les stratégies de gestion de lʼurgence et des crises en cas dʼincendie ou dʼaccident.

La stratégie des secours pouvant être de laisser bruler, il faut donc se préparer aux impacts sur la continuité dʼactivité du datacenter dans une telle situation.

Pour conclure, le risque incendie reste un risque majeur pour les datacenters et les sources électriques restent la première cause de départ de feu. Face à lʼarrivée de nouvelles installations techniques, tel que le photovoltaïque et le stockage dʼénergie, les maîtrises dʼouvrage et les exploitants entrer dans une démarche proactive dès le début des projets afin dʼaugmenter leur niveau de maîtrise et manager les risques.

L'IA pernicieuse

Le MIT se penche sur le coût écologique

insoupçonné de l'IA

Lʼessor fulgurant de l'IA générative sʼaccompagne dʼun coût écologique insoupçonné. Face à une consommation énergétique croissante et des émissions de gaz à effet de serre inquiétantes, le MIT Lincoln Laboratory recherche des solutions, allant de lʼoptimisation algorithmique à la gestion fine des datacenters, afin de maîtriser lʼempreinte carbone de lʼIA.

Derrière l'explosion de l'IA se cache, selon les chercheurs du MIT - Massachusetts Institute of Technology - une réalité alarmante : lʼaugmentation rapide du nombre et de la puissance des datacenters, alimentés par des modélisations dʼIA toujours plus complexes, promet de doubler la demande mondiale en électricité dʼici 2030. Or, selon une analyse de Goldman Sachs, 60 % de cette croissance énergétique pourrait être assurée par des sources fossiles, ce qui augmentera

les émissions mondiales de carbone d'environ 220 millions de tonnes de CO2. Mais le plus insidieux est que la plupart des débats sur lʼempreinte carbone de lʼIA se concentrent sur les émissions "opérationnelles" (liées à lʼusage des GPU dans les datacenters), en négligeant les émissions "incorporées", cʼest-à-dire, celles générées lors de la construction, du transport et de lʼinstallation des infrastructures.

L'entraînement de nouveaux modèles de raisonnement de l'IA générative - comme GPT-5 - nécessitent généralement de nombreux GPU fonctionnant simultanément. Goldman Sachs estime qu'un système de pointe pourrait compter jusqu'à 576 GPU connectés fonctionnant simultanément.
Les chercheurs du MIT se penchent sur des pistes pour atténuer l’impact

• Repenser la consommation énergétique

Pour ces chercheurs, il est possible dʼ"éteindre certaines lumières" : en limitant la puissance consommée par les GPU à environ 30 %, les performances de lʼIA nʼen sont que peu affectées, tout en réduisant la chaleur et les besoins de refroidissement. Une partie de lʼénergie utilisée pour optimiser les derniers pourcentages de performance des modèles est souvent peu utile, anticiper l'arrêt d'un entraînement peut économiser beaucoup dʼénergie sans perte notable de qualité.

• Exploiter lʼintelligence avec une planification temporelle

Certains traitements dʼIA ne sont pas urgents et peuvent être différés pour les heures où le réseau électrique est moins carboné (plus renouvelables, moins de combustibles fossiles). Ainsi une partie des charges de travail d'IA générative n'ont pas besoin d'être exécutées intégralement en même temps.

• Tirer profit de lʼarchitecture et de lʼefficacité algorithmique

L'optimisation et les innovations matérielles (puces plus denses, architectures plus parallèles) continuent dʼaméliorer le nombre dʼopérations par joule consommé. La notion de "negaflop" (opérations évitées grâce à une meilleure

conception) illustre lʼidée que diminuer le travail inutile est une voie aussi cruciale que dʼoptimiser le matériel. Des travaux qui exploitent des pratiques "carbon-friendly" dans la génération et l'inférence des LLM (Large Language Model) montrent que lʼon peut réduire les émissions de plus de 40 % en ajustant intelligemment les directives génératives. Autre exemple, "élaguer" les composants inutiles dʼun réseau neuronal ou utiliser des techniques de compression permettent de faire plus avec moins de calculs.

Le Dc Vijay N. Gadepally, chercheur principal au MIT Lincoln Laboratory, dirige des projets de recherche au Lincoln Laboratory Supercomputing Center.

• Intégrer lʼIA dans lʼénergie verte Paradoxalement, lʼIA peut elle-même servir la transition énergétique et verdir le système énergétique en accélérant les études de raccordement au réseau, en optimisant la production solaire ou éolienne, en anticipant les pannes, etc. Les chercheurs étudient lʼutilisation dʼunités de stockage dʼénergie de longue durée dans les datacenters pour stocker lʼexcès dʼénergie générée par des sources renouvelables et l'utiliser lorsqu'elle est nécessaire, ou pour éviter lʼutilisation de générateurs de secours diesel en cas de fluctuations du réseau.

CUBE Data Center, un terrain d’expérimentation collectif

Pourrépondreàcetenjeu,FranceDatacenter,GIMELEC,la FNCCR et des acteurs majeurs parmi lesquels Schneider ElectricetEDFontsoutenulacréationdeCUBEDataCenter, liguedédiéeduCFEE Pendantunan,chaquesitecandidat :

La performance énergétique n’exige pas forcément de lourds investissements. De permettentdéjàderéduiresignificativementlaconsommationdesdatacenters(ajustem defroid,confinementdesfluxd’air,densificationIT,pilotageaffinédescharges...) Ledéfi:structurercesactions,mobiliserleséquipesetdisposerd’indicateursfiablespours

Unnouveaustandardpourlesect

Entransformantlasobriétéénergétiq mesurableetvalorisant,lescandida solutionsreproductiblesetpartagées valorisentleseffortsdeleurséquipes compétitivitédurabledunumériquef

Mesuresesconsommationsréelles(kWh,CO₂,PUE); Met en œuvre des actions d’optimisation adaptées à sesusagesexistants; Comparesesrésultatsàceuxdesespairsgrâceàdes podiumssectoriels;

Partage les meilleures pratiques au sein d’une communautéd’experts

Améliorer l’efficacité énergétique sans sacrifier la disponibilitéIT

Vers une IA climato-responsable

Jusqu’à3%d’économiesenunan,malgréunehaussede l’activité de +6% à travers des approches diversifiées (confinementd’air,ajustementdesgroupesfroids,pilotage affiné ),c’estcequ’onréalisélesparticipantsdela1ère saisonduconcours

Le MIT invite à une IA “climato-responsable”, mais sous certaines conditions :

• Une collaboration étroite entre chercheurs, entreprises, décideurs et acteurs de lʼénergie : techniques et les politiques doivent sʼarticuler.

• Une métrique fiable : MIT ont développé le Net Climate Impact Score, une méthode pour évaluer le bilan carbone net dʼun projet IA (émissions moins bénéfices potentiels).

• Une transparence pour les utilisateurs : comme lʼempreinte carbone dʼun vol sʼaffiche à lʼachat, les IA pourraient indiquer leur coût écologique, orientant les choix.

• Des politiques publiques structurantes, pour accélérer le déploiement des énergies propres, simplifier les permis pour les infrastructures vertes, imposer des audits environnementaux et des normes de reporting, et proposer des incitations fiscales.

Commentrejoindrelaprochaines

Le concours est ouvert à tous les centers et salles IT Chaque parti bâtiment bénéficie d’un accompa (plateforme de suivi, webinaires, candidats, ressources techniqu communication) pour marquer de mois

Infosetinscriptionssur

Objectifs? réductionimmédiate excellenceopérationnelle:pilot mobilisées Image valorisée : communicationnationale

La performance énergétique n’exige pas forcément de lourds investissements. De nombreux leviers permettentdéjàderéduiresignificativementlaconsommationdesdatacenters(ajustementdesconsignes defroid,confinementdesfluxd’air,densificationIT,pilotageaffinédescharges...)

Ledéfi:structurercesactions,mobiliserleséquipesetdisposerd’indicateursfiablespoursuivrelesprogrès.

CUBE Data Center, un terrain d’expérimentation collectif

Pourrépondreàcetenjeu,FranceDatacenter,GIMELEC,la FNCCR et des acteurs majeurs parmi lesquels Schneider ElectricetEDFontsoutenulacréationdeCUBEDataCenter, liguedédiéeduCFEE Pendantunan,chaquesitecandidat :

Mesuresesconsommationsréelles(kWh,CO₂,PUE);

Met en œuvre des actions d’optimisation adaptées à sesusagesexistants;

Unnouveaustandardpourlesecteur

Entransformantlasobriétéénergétiqueenundéficollectif, mesurableetvalorisant,lescandidatsfont émergerdes solutionsreproductiblesetpartagées; valorisentleseffortsdeleurséquipesetcontribuentàune compétitivitédurabledunumériquefrançais

Commentrejoindrelaprochainesaison?

Comparesesrésultatsàceuxdesespairsgrâceàdes podiumssectoriels;

Partage les meilleures pratiques au sein d’une communautéd’experts

Améliorer l’efficacité énergétique sans sacrifier la disponibilitéIT

Jusqu’à3%d’économiesenunan,malgréunehaussede l’activité de +6% à travers des approches diversifiées (confinementd’air,ajustementdesgroupesfroids,pilotage affiné ),c’estcequ’onréalisélesparticipantsdela1ère saisonduconcours

Le concours est ouvert à tous les opérateurs de data centers et salles IT Chaque participant inscrivant un bâtiment bénéficie d’un accompagnement complet (plateforme de suivi, webinaires, évènements intercandidats, ressources techniques et kits de communication) pour marquer des points pendant 12 mois

Objectifs? réductionimmédiatedescoûtsd’énergie, excellenceopérationnelle:pilotagefiabilisé,équipes mobilisées Image valorisée : podiums, trophées, communicationnationale

Infosetinscriptionssur

ETIX ET SCHNEIDER ELECTRIC

Un partenariat français pour accélérer la décarbonation.

Un modèle réplicable qui conjugue efficacité énergétique, souveraineté numérique et technologies émergentes.

L’Europe fait face à un double impératif : réussir sa transition numérique tout en préservant son indépendance stratégique et ses engagements environnementaux. La France dispose d’atouts considérables dans l’énergie, le cloud, la cybersécurité et l’intelligence artificielle, mais la conjoncture récente souligne l’urgence de renforcer son autonomie technologique. Assurer une souveraineté durable suppose désormais de structurer une chaîne de valeur complète, de la production d’énergie à l’hébergement des données, en s’appuyant sur des technologies et des financements européens.

Dans cette bataille mondiale, les data centers ne sont plus de simples infrastructures techniques. Ils sont devenus des piliers de souveraineté, de compétitivité et de sécurité au cœur de l’économie numérique. Avec l’essor de l’intelligence artificielle et du cloud, une nouvelle génération de data centers s’impose : plus rapides, plus proches des utilisateurs et plus sobres énergétiquement. C’est précisément sur ce terrain qu’ETIX et Schneider Electric unissent leurs forces, pour bâtir un modèle européen fondé sur la performance, la durabilité et la souveraineté numérique.

Les data centers de proximité, piliers d’un numérique

souverain et durable

Les data centers de proximité incarnent une nouvelle ère de l’infrastructure numérique. Plus agiles, plus économes en énergie et plus proches des usages, ils dépassent le modèle centralisé qui a longtemps dominé le secteur.

Cette transformation répond à des enjeux cruciaux de latence, de souveraineté et d’efficacité énergétique pour les entreprises comme pour les territoires.

Dans ce contexte, ETIX (anciennement Etix Everywhere) dévoile une nouvelle identité : un nom plus court, plus direct, porteur de sens, pour “Ethical Internet Exchange”. À travers cette identité renouvelée, ETIX affirme sa vision : développer une alternative européenne de confiance, au service des entreprises, des collectivités et des écosystèmes régionaux.

Le data center ne se conçoit plus comme une simple infrastructure technique.

ETIX considère le data center comme des hubs technologiques

où la connectivité, les données et la performance convergent :

Data Hub : héberger et sécuriser les données critiques au plus près des besoins

Connectivity Hub : assurer l’interconnexion et la résilience des services numériques

Compute Hub : fournir la puissance de calcul nécessaire à l’essor de l’IA et des usages intensifs

Ce modèle hybride, modulaire et interconnecté permet à ETIX d’offrir une infrastructure rapide à déployer, évolutive et durable, adaptée aussi bien aux PME et ETI qu’aux grands acteurs du cloud et de l’intelligence artificielle.

Pour soutenir cette ambition, ETIX a finalisé un refinancement stratégique de 170 millions d’euros, auprès d’un groupement de banques de premier plan MUFG, Kommunalkredit, LBP AM, Bpifrance et BNP Paribas.

Ce financement, largement sursouscrit, confirme la confiance du marché des data centers de proximité et la solidité du modèle ETIX, soutenu par ses investisseurs de long terme, Eurazeo et Infranity.

Ainsi, ETIX s’impose comme une alternative européenne crédible et durable au service d’un numérique plus local, plus durable et plus souverain.

largement sursouscrit

Louis Blanchot CEO d’ETIX

Avec Schneider Electric, nous posons les fondations d’une nouvelle génération de data centers : plus sobres, plus rapides et pleinement ancrés dans les territoires. Ensemble, nous démontrons qu’il est possible d’allier innovation, efficacité énergétique et souveraineté numérique au service des entreprises et des citoyens européens.

Un modèle industriel innovant et réplicable

Pour concrétiser sa vision, ETIX s’appuie sur l’expertise de Schneider Electric afin de concevoir un modèle industriel réplicable à grande échelle. Ensemble, les deux partenaires développent une architecture intégrée, modulaire et préfabriquée, pensée pour être déployée rapidement sur l’ensemble des projets d’ETIX en France et en Europe.

Ce modèle s’appuie notamment sur une boucle d’eau modulaire innovante, qui permet d’optimiser le refroidissement des équipements tout en réduisant la consommation énergétique et l’empreinte carbone. Cette approche combine des innovations électriques, de refroidissement et logicielles au service d’une excellence opérationnelle tout en réduisant l’impact environnemental.

Parmi les technologies déployées :

• Équipements sans gaz SF₆ , remplacés par de l’air comprimé, éliminant l’usage d’un gaz à effet de serre 23 000 fois plus polluant que le CO₂

• Systèmes de refroidissement de nouvelle génération , utilisant des réfrigérants à très faible potentiel de réchauffement global

• Onduleurs Galaxy VXL , ultra-compacts, nécessitant 35 % de matières premières en moins et atteignant une efficacité énergétique supérieure à 99 %.

améliore significativement le PUE (Power Usage Effectiveness) de ses sites, atteignant des niveaux supérieurs aux standards du marché.

lement sur le plan économique, avec plus de 500 000 € de Certificats d’Économies d’Énergie (CEE) déjà obtenus et l’éligibilité depuis 2024 des onduleurs de plus de 100 kW, renforçant la compétitivité du modèle ETIX.

limite pas à la technologie : il trace une feuille de route industrielle claire, destinée à industrialiser la conception des data centers, tout en intégrant efficacité énergétique, durabilité et souveraineté numérique au cœur du modèle européen d’ETIX.

Une trajectoire ESG vers la neutralité carbone

ETIX franchit une nouvelle étape dans sa stratégie ESG, afin d’atteindre la neutralité carbone d’ici 2030.

Après la définition d’une stratégie RSE et la réalisation d’un premier bilan carbone en 2023, l’entreprise a mis en place un Système de Management Intégré (SMI) couvrant les certifications ISO 14001, 50001, 27001, HDS et PCI-DSS.

européenne la force d’un design modulaire et réplicable

tiques, énergétiques ou réglementaires.

Cette scalabilité repose sur un design préfabriqué et industrialisé, qui réduit considérablement les délais de livraison et garantit une efficience opérationnelle optimale.

• Modules préfabriqués : délais de construction raccourcis et logistique simplifiée.

• Standardisation maîtrisée : coûts optimisés, fiabilité renforcée et qualité homogène d’un site à l’autre.

Grâce à cette approche, ETIX ambitionne de déployer à l’échelle européenne un modèle industriel durable, à la fois compétitif, et réplicable.

Des innovations au service de l’intelligence artificielle

Le modèle industriel développé par ETIX avec Schneider Electric intègre dès sa conception

les technologies

Ces infrastructures, véritables Compute Hubs, sont conçues pour héberger et distribuer la puissance de au plus près des utilisateurs.

Résultat : latence réduite, meilleure maîtrise énergétique et souveraineté totale sur les données. En combinant modularité, compatibilité et efficience énergétique, ETIX s’impose comme un acteur clé du déploiement calcul de demain.

de calcu déploiement d’une IA de proximité, reliant les territoires européens à la puissance de technologies nécessaires à la montée en puissance des workloads d’intelligence artificielle. calcul dédiée à l’IA, au machine learning et aux applications temps réel, directement

Ancrés en France, tournés vers l’Europe

En France, ETIX renforce sa présence dans les grands bassins économiques : Lille, Nantes, Toulouse, Montpellier, Lyon et Paris.

L’objectif : créer des hubs régionaux capables d’interconnecter entreprises, cloud providers, acteurs du SaaS, hyperscalers et, demain, les AI Factories. Chaque site devient un point d’ancrage numérique essentiel, soutenant la compétitivité locale et l’émergence des champions français du num érique.

• Développement d’écosystèmes régionaux dédiés à l’hébergement des données critiques, à travers les data hubs d’ETIX.

• Partenariats renforcés avec les acteurs locaux pour la construction, l’exploitation et la maintenance des sites.

Accès simplifié à des infrastructures “AI-Ready” pour supporter les entreprises et tech scale-ups dans le développement, et déploiement de leur modèle en Private AI. En conjuguant innovation technologique, efficacité énergétique et ancrage territorial, ETIX et Schneider Electric démontrent qu’une voie européenne crédible existe pour construire l’infrastructure numérique de demain. Ce partenariat illustre trois messages clés

01 02 03

Durabilité et performance : prouver qu’un data center de proximité peut être à la fois performant et bas carbone.

Réplicabilité : offrir un modèle duplicable, capable d’accompagner une expansion rapide en Europe.

Souveraineté européenne : bâtir une alternative crédible face aux géants internationaux et garantir l’indépendance numérique du continent

À propos

ETIX, Ethical Internet Exchange, est le leader français des data centers de proximité avec 15 sites, dont 13 en France. Ancrée localement en France et résolument tournée vers l’Europe, ETIX incarne l’alternative européenne, portée par des investisseurs exclusivement européens — Infranity et Eurazeo — et par des infrastructures neutres et responsables. Sa vision associe proximité et souveraineté à une approche technologique où convergent connec- tivité, hébergement de données critiques et performance, afin d’accompagner l’expansion de ses clients en France, en Europe et en Asie.

À propos

Schneider Electric est le leader mondial de la gestion de l’énergie et de l’automatisation. Depuis plus de 20 ans, l’entreprise accompagne ses clients, partenaires et fournisseurs dans leur transition énergétique et numérique.

Schneider Electric est un acteur majeur mondial des centres de données, en étant présent sur l’ensemble de la chaîne électrique (« from grid to chip ») et la chaîne de refroidssement (« from chip to chillers »), y compris en liquid cooling. Récompensée à plusieurs reprises comme l’entreprise la plus durable au monde par Corporate Knights, Schneider Electric s’engage à fournir des solutions innovantes et écorespons- ables pour améliorer l’efficacité énergétique et réduire l’empreinte carbone des infrastructures critiques.

Néoclouds

Ils changent le paysage de l’IA

Ils sʼappellent CoreWeave, Crusoe, Lambda Labs, Nebius, Nscale, ou encore Voltage Park, et vous les voyez de plus en plus associés aux projets dʼinfrastructures dʼIA. Ils sont nés de la croissance fulgurante de lʼIntelligence Artificielle et de la difficultés des géants du cloud et de leurs colocateurs à suivre le rythme ou à se spécialiser : les néoclouds sont des fournisseurs de cloud de calcul haute performance, principalement des GPUaaS (GPU-as-a-Service) conçus pour les charges de travail d'IA les plus exigeantes, et sont hébergés dans des AI Factory, les usines dʼIA, et les datacenters.

Profitant de leur spécialisation, cʼest leur principal atout, les néoclouds étendent rapidement leur présence mondiale, afin de répondre à la demande de calcul dʼIA. Principalement aux Etats-Unis, également dans les hubs concentrations dʼinfrastructures dʼIA. Ils sʼassocient avec des opérateurs de datacenter, qui y trouvent un relais pour accueillir des clients dʼIA. Et plus récemment, ils ont commencé à sʼimplanter dans des pays qui demandent des garanties en matière de souveraineté de la donnée et un accès à faible latence.

Les néoclouds profitent de la manne de lʼIA pour investir des milliards de dollars. NVIDIA leur réserve un accueil favorable en leur garantissant un accès privilégié à ses derniers systèmes d'IA, comme le GB200, ce qui leur confère un avantage concurrentiel crucial et un flux de revenus stables.

Une question demeure : les néoclouds sont-ils une tendance passagère ? Si lʼon considère que lʼIA est une bulle, le risque est réel. Cependant, ils répondent à une attente, celle de compenser une lacune cruciale laissée par les hyperscalers traditionnels. Rappelons également que les infrastructures dʼIA offrent la capacité de fonctionner en cluster. Ce qui se traduit par le développement dʼune nouvelle approche : le Edge AI. Ou lʼIA sur des datacenters de proximité, avec une faible puissance mais équipés de réseaux fibres de grand débit. LʼIA et les néoclouds nʼont pas fini de nous conquérir.

LA FÉDÉRATION DES ACTEURS DES INFRASTRUCTURES NUMERIQUES

IOT RÉSEAUX

DATACENTER

PLATEFORMES DE DONNÉES

Née en 2012 du Plan France Très Haut Débit, InfraNum est la fédération de référence des acteurs de l’aménagement numérique des territoires. Elle fédère ces entreprises adhérentes autour d’une ambition commune : accélérer le développement d’infrastructures numériques performantes, durables et inclusives.

PARTENARIAT DCMAG

InfraNum représente spécifiquement les acteurs des datacenters de proximité Nous sommes fiers de ce partenariat qui permet d’enrichir notre compréhension de l’écosystème, de mutualiser les expertises et de faire grandir la filière.

NOTRE GUIDE « DATACENTER DE PROXIMITÉ »

Sortie en novembre 2025

Objectif - Accompagner les acteurs du territoire, collectivités et entreprises dans leur choix d’hébergement de données.

STRATÉGIE D’HÉBERGEMENT / SOUVERAINETÉ / ENVIRONNEMENT / RÉGLEMENTAIRE

S’ABONNER

S’ABONNER

Découvrez votre hébergeur français engagé pour un numérique responsable

ÇA FAIT DU BIEN DE SAVOIR SES DONNÉES EN TOUTE SÉCURITÉ

Venez échanger avec nos équipes au salon

TECH SHOW PARIS – Stand S20 et découvrir notre nouveau data center à Rennes.

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.