Africa-Press – Congo Kinshasa. Rendre la transition écologique concrète via une infrastructure normalement énergivore et polluante? L’idée peut sembler contre-intuitive. Pourtant l’entreprise CELESTE, spécialisée dans les télécoms et l’hébergement des données de plus de 20.000 entreprises, s’est lancée ce défi. En 2009, son fondateur et président, Nicolas Aubé, imagine un centre de données plus écologique du nom de Marilyn: il utilise l’air extérieur comme un fluide refroidissant les salles d’ordinateurs réparties sur cinq étages, et ce depuis 2011.
Dans un monde sévèrement impacté par le changement climatique et hautement dépendant de la technologie, « le processus de refroidissement demeure un sujet central » explique à Sciences et Avenir Nicolas Aubé. Visite de ce data center situé à Champs-sur-Marne (Seine-et-Marne), un lieu unique en France.
Marilyn: le data center fonctionnant sans climatisation
La plupart des serveurs informatiques des salles de calcul des data centers sont soit refroidis via la circulation d’eau (appelée le « water cooling »), soit via un système de climatisation faisant circuler l’air intérieur. Marilyn a la particularité de développer une troisième approche en n’utilisant uniquement la ventilation naturelle pour faire baisser la température des salles de calcul: il s’agit du « free cooling ».
Le data center est conçu sur cinq étages avec deux colonnes d’air, une chaude où circule l’air chauffé par les machines et l’autre, venue de l’extérieur, froide. Ce dispositif permet d' »optimiser les flux d’air » avec un débit de 200.000 m3 chaque heure, comme nous l’explique le fondateur de CELESTE,
Il est important de noter que la température maximale de fonctionnement dans chaque salle est limitée à 27°C ; cela nécessite un refroidissement qui est adapté suivant trois scénarios selon la température qu’il fait à l’extérieur: moins de 23 °C, entre 23 et 35°C et au-delà de 35 °C lors de vagues caniculaires.
« Quand il fait moins de 23°C, l’air extérieur est utilisé pour refroidir les ordinateurs et la chaleur produite par les machines sert à réchauffer nos locaux. Entre 23 et 35°C, l’air extérieur est partiellement employé pour climatiser les serveurs. Enfin, en cas de canicule, nous coupons l’arrivée d’air extérieur, c’est-à-dire que l’air chaud intérieur est recyclé pour fonctionner comme une climatisation dans un data center classique », détaille Nicolas Aubé.
Une des nombreuses salles d’ordinateurs du data center francilien. Crédit: Julien Boughon
Adaptation en cas de coupure de courant
Par ailleurs, l’infrastructure numérique est capable d’anticiper les pannes d’électricité non pas en ayant recours à une batterie de secours comme cela est souvent le cas, mais à l’aide d’un volant d’inertie qui tourne depuis près de 15 ans. Ce dernier consiste en une « roue à inertie de deux tonnes en rotation permanente qui va conserver l’énergie cinétique en cas de coupure, laissant au groupe électrogène le temps de démarrer. »
Le volant d’inertie assure le maintien électrique de Marilyn. Crédit: Julien Boughon
Les data centers, pas si récents…
Certes, les data centers soient en plein essor depuis l’apparition d’Internet et le boom de l’intelligence artificielle. Mais ils datent de bien avant: leur origine remonte aux années 1950 avec l’émergence des « mainframes », de « grandes salles remplies de technologies coûteuses, parfois parmi les seuls espaces climatisés de l’époque » et qui font la « taille d’une chambre froide de restaurant », comme nous l’explique Thomas Haigh, historien spécialiste de l’évolution des technologies informatiques à l’université du Wisconsin (Etats-Unis). Les ordinateurs centraux de ces salles de calcul traitent des données par lots à partir de cartes perforées.
Dans les décennies 1960 et 1970, l’informatique devient davantage interactive: « Un même ordinateur peut servir plusieurs utilisateurs à distance » grâce au « time-sharing » et aux premiers réseaux interconnectés comme l’ARPANET, un programme de recherche scientifique incarnant l’ancêtre d’Internet. L’essor d’Internet dans les années 1990 fait alors des data center une infrastructure clé du Web et des services numériques.
Le début des années 2000 voient arriver des nouveaux acteurs comme Google et imposent un modèle inédit fondé sur des milliers de machines standard pilotées par des logiciels capables de gérer automatiquement les pannes, ouvrant la voie au cloud computing.
Les développements actuels de l’intelligence artificielle reposent sur des data centers toujours plus vastes, équipés de processeurs spécialisés, soulevant des enjeux majeurs en matière d’énergie et de climat: « Les data centers sont devenus de plus en plus efficaces et les grandes entreprises technologiques ont mis en place l’objectif de réduire leurs émissions polluantes en lien avec l’intelligence artificielle », conclut l’historien américain.
Immersion dans le data center Marilyn avec Nicolas Aubé. Crédit: Emilie Proumen
Des centres de données dédiés à l’IA
Marilyn fonctionne tout au long de l’année grâce à une puissance électrique constante d’un mégawatt, soit l’équivalent de la consommation simultanée de 1000 foyers. L’énergie consommée est ensuite transformée en chaleur par les ordinateurs et récupérée pour chauffer les locaux de l’entreprise, générant ainsi un cercle vertueux. « Le réchauffement climatique implique le réchauffement des serveurs », résume le dirigeant de CELESTE en évoquant l’utilisation modulée de l’air extérieur selon les conditions météorologiques.
Bien que l’opérateur télécom francilien possède neuf autres data centers, refroidis principalement par water cooling, l’entreprise prévoit la construction d’un nouveau bâtiment dédié au calcul via l’intelligence artificielle d’ici 2026. La société française a aussi plannifié l’installation d’un data center inspiré de Marilyn en Suisse d’ici 2027.





