20.375

MILLIARDS

DE GIGA OCTETS de data produites dans le monde en 2015

Les chiffres donnent le vertige. En 2025, le volume de données mondiales produites pourrait atteindre 163 zettabits, soit 20 375 milliards de giga octets, prédit le cabinet d’études IDC dans l’étude data Age 2025 , commanditée par le spécialiste du stockage Seagate. C'est dix fois la quantité générée en 2016. Augmentation du nombre d’individus connectés dans le monde, multiplication des objets connectés, explosion des messages sur les réseaux sociaux ou plus encore du streaming vidéo, expliquent cette recrudescence.


Si le numérique s’avère pour l’individu lambda synonyme de monde virtualisé, les supports physiques qui accueillent ses échanges sont, eux, bel et bien réels. A mesure que la consommation mondiale de données explose, les « data centers », véritables usines numériques du XXIe siècle, se multiplient. Plus de 4100 centres de stockage sont aujourd'hui recensés par le site Datacentermap.com dans le monde, dont 141 en France. Un chiffre qui, selon toute vraisemblance, se situe en dessous de la réalité.

141 data centers en france

Datacenter

Shutterstock

A l'intérieur des « data centers », les industriels travaillent à l’urbanisation de l’espace

L’effet sur la consommation électrique est loin d’être neutre. Un centre de données s’avère particulièrement gourmand en énergie : un spécimen de 10 000 m² consomme en moyenne autant qu’une ville de 50 000 habitants. D’ores et déjà, l’industrie des « data centers » accapare environ 3% des besoins en électricité mondiale. En France, leur consommation aurait atteint près de 3 TWh en 2015 selon RTE, soit davantage que le besoin annuel de la ville de Lyon. Avec l’overdose de données échangées, la problématique devient un sujet de préoccupation.


Conscients du problème, les exploitants ont réalisé, depuis quelques années, d’énormes progrès afin de rendre leurs centres de calcul moins gourmands en énergie. Dans un premier temps, l’utilisation de technologies comme la virtualisation leur a permis d’améliorer leur rendement. «  La virtualisation a contribué à « vider » ponctuellement les data centers puis la courbe de croissance a repris à un rythme sans doute moins rapide que si cette technologie n’existait pas » rappelle Jérôme Grémaud, associé en charge du développement commercial du spécialiste des centres de données Jerlaure.

Le cold corridor

Datacenter

Les industriels ont également beaucoup œuvré à l’amélioration de l’aménagement intérieur. Ils remplissent ainsi les espaces vides entre les serveurs, montent des cloisons ou équipent les différentes zones de capteurs de température pour refroidir les équipements de manière plus ciblée. Exit les climatiseurs muraux, place aujourd’hui aux salles compartimentées où flux d’air froid et d’air chaud sont minutieusement étudiés pour être distribués le mieux possible et ne jamais se rencontrer. On parle de « confinement allées chaudes / allées froides » dans le jargon des exploitants.


La circulation de l’air dans le data center est désormais finement étudiée. Le « Cold Corridor » par exemple, ou « couloir thermique », est basé sur la séparation complète des flux d’air chaud et froid. L’air frais est isolé en fermant l’allée froide qui se situe entre les racks. Grâce à ces approches devenues traditionnelles, les constructeurs ont pu baisser le PUE ( ou “Power Usage Effectiveness” ), maître étalon de la performance énergétique, c’est-à-dire le rapport entre l’électricité effectivement consommée par les serveurs et la consommation totale du centre. Ce ratio se situe désormais en moyenne autour de 1,6 à 1,8 selon Jérôme Gremaud. Pour aller au-delà, les centres modernes qui parviennent à un rapport de 1,4, voire inférieur, optent pour des approches innovantes.


Réduire la consommation électrique du système de production de froid est devenu une priorité

40%

DE LA

CONSOMMATION DES DATA CENTERS EST PRODUITE PAR LES SYSTEMES DE PRODUCTION DE FROID

Concrètement, les industriels concentrent désormais leurs efforts sur l’utilisation de systèmes de refroidissement naturels, consommant moins d’énergie. Les installations d’un centre produisent énormément de chaleur qu’il faut tempérer au risque sinon de faire « planter » les serveurs si le thermomètre venait à grimper. A lui seul, le système de production de froid représente 40% de la consommation en électricité du centre de données selon l’étude publiée par ENR'CERT , une société de services spécialisée en efficacité énergétique, en novembre dernier.


Afin de limiter l’usage de systèmes de climatisation traditionnels, la solution technique privilégiée consiste à récupérer l'air froid extérieur pour rafraîchir les installations. Méthode la plus répandue, le « free chilling » s’appuie sur des échanges air/eau avec l’utilisation d’un réseau d’eau glacée pour produire du froid. Une autre, le « free cooling » – moins utilisée car plus contraignante- consiste à injecter directement de l’air. Cela implique que ce dernier soit filtré, déshumidifié. Puis de l’envoyer dans une grande salle située sous les serveurs qui vont ainsi être refroidis par l’air remontant. Sa perspective de mise en œuvre dépend grandement de la qualité de l’environnement ambiant. « La contrainte la plus importante reste l’hygrométrie qui peut poser des problèmes en cas d’orage l’été par exemple » souligne Christophe Weiss , Directeur Général d'APL, expert en construction de centre de données. 

LE DATA CENTER DE FACEBOOK EN SUEDE

LULEA

En septembre dernier, Mark Zuckerberg a dévoilé des photos de son data center européen, inauguré en 2013, situé à Lulea, ville sise au Nord de la Suède, près du cercle arctique. L’endroit est idéal pour utiliser l’air extérieur, ventiler les machines et refroidir le centre de données. Fort heureusement, cette méthode peut être désormais utilisée sous des climats plus tempérés. L’opérateur Orange l’exploite par exemple pour refroidir son centre du Val-de-Reuil en Normandie qui héberge ses services cloud.  Elle peut tout aussi bien être viable désormais dans le sud de la France, notamment la nuit.

Un éventail de solution de refroidissement naturels ont fait leur apparition

L’élévation, au cours de ces dernières années, du seuil de température préconisé dans le centre de données facilite sa diffusion. « On accepte désormais que la température d’une salle grimpe à 24-25 degrés contre 21 auparavant » rappelle Christophe Weiss. « Les constructeurs informatiques ont œuvré à l’élargissement des plages de fonctionnement de leurs matériels afin de contribuer à l’éclosion de centres informatiques plus vertueux sur le plan énergétique ».


Avec l’air, l’eau est l’autre ressource naturelle privilégiée pour refroidir les serveurs. Une autre solution, baptisée « water cooling », consiste ainsi à aller puiser de l'eau en mer ou dans des lacs pour alimenter les systèmes de climatisation. Près de Stockholm, le groupe Interxion, qui héberge tous les géants de l'Internet, capte de l'eau fraîche dans les fjords voisins pour refroidir ses machines. L’un des deux data centers de la ville de Lausanne (140 000 habitants) est également rafraichi par les eaux du lac Léman.

Selon un principe similaire, certains à l’instar de l’université de Strasbourg, utilisent l’eau des nappes phréatiques comme source de refroidissement. Une solution encouragée par l’Ademe (Agence de l’Environnement et de la Maitrise de l’Energie) qui la subventionne. A condition que le débit de la nappe soit stable et abondant tout au long de l’année.

LE data center  de l'universite de bourgogne 

Université de Bourgogne

Dernière voie plus inattendue pour produire du froid selon des procédés naturels : celle choisie par la jeune entreprise toulousaine, ColdInnov, qui a développé un générateur capable de générer du froid à partir ….des rayons du soleil ! Une solution testée par l’opérateur Netiwan dans son centre de données situé à Nîmes.

En complément, certains exploitants testent depuis peu une nouvelle orientation pour faire des économies d’énergie : récupérer la chaleur émise par les fermes de serveurs pour, ensuite, participer à la production d’eau chaude sanitaire ou chauffer des bâtiments attenants au centre de calcul. Cette orientation repose sur l’émergence de solutions technologiques capables de récupérer la chaleur fatale informatique. Un domaine où des entreprises françaises comme Qarnot Computing ou Stimergy  font figure de pionnières. Cette dernière contribue par exemple au chauffage de la piscine parisienne de la Butte aux cailles. Autre exemple, plus ambitieux : l’université de Bourgogne (28 000 étudiants) alimente le réseau de chauffage de ses bâtiments et de son restaurant universitaire sur l’ensemble de l’année grâce aux 400 KW valorisables (800KW à terme) de son centre de données. Un projet mené par le spécialiste Jerlaure.


Verra-t-on bientôt des centres de données chauffer des quartiers entiers ? Pas sûr. « La limite de cette approche est contractuelle »  relève Jérôme Grémaud «  Elle est aisée à mettre en place quand le même acteur exploite le data center et le système de chauffage. C’est plus délicat lorsqu’il s’agit de deux organisations séparées ». Ce n’est donc pas pour tout de suite que la kyrielle de data centers concentrés à la Plaine commune alimentera en chauffage ou eau chaude les environs de la capitale.

En revanche, cette solution peut facilement être adoptée par des grands groupes qui disposent de leurs propres centres de calcul. En région Provence-Alpes-Côte d'Azur, Air France récupère ainsi la chaleur d’une salle de calcul de 2400 m2 pour chauffer 5800 m2 de bureaux via un réseau technique en galerie. Ce qui a occasionné la mise à l’arrêt d’une chaudière gaz de 1,2 mégawatt et assure la totalité des besoins de chauffage de quatre bâtiments.



Les gafas s'engagent dans l'energie renouvelable

Apple center

Apple

Apple, Google et Facebook, champions de la consommation des énergies renouvelables

Un centre de données ne serait pas complètement vertueux en matière de maitrise énergétique s’il n’était pas alimenté au moyen d’énergies renouvelables. Dans ce domaine, Apple, Google et Facebook ont montré l’exemple au début de la décennie en multipliant les initiatives. Apple a dévoilé en septembre dernier une centrale à énergie solaire de 50 Megawatts à Florence (Arizona), jusqu’alors gardée secrète. Elle alimente son centre de données situé à Mesa. En termes d’implication dans la transition énergétique, Apple fait d’ailleurs figure de premier de la classe. Un engagement souligné  par un récent rapport de Greenpeace classant les entreprises du numérique en fonction de leur effort écologique et de leur volonté de s’affranchir des énergies fossiles. Chaque nouveau centre de données du fabricant de l’iPhone est implanté dans une zone permettant de satisfaire une alimentation reposant sur les énergies naturelles.


Depuis, le trio Apple, Facebook et Google a été rejoint dans cette avancée par des spécialistes du cloud ou des grands acteurs de la colocation comme Switch ou Equinix qui auparavant étaient à la traine.

En dépit de ses progrès, Amazon conserve, lui, le statut de mauvais élève aux yeux de Greenpeace. Notamment parce qu’il ne sélectionne pas assez ses lieux d'implantation en fonction de la disponibilité des énergies renouvelables. Et l’association de citer l’ouverture récente « de nouveaux data centers dans des zones comme la Virginie, un Etat charbonnier des Etats-Unis ».


Ces initiatives envers la transition énergétique se diffusent-elles sur notre territoire ? «  En France, l’exploitant de centre de données peut demander de plus en plus à ce qu’une part de l’électricité fournie soit issue de sources renouvelables » indique Christophe Weiss. Il est en revanche difficile d’imaginer des acteurs déployer, comme leurs homologues américains, leurs propres champs de panneaux solaires ou éoliens. L’espace libre fait défaut d’autant que la plupart des centres de données se situent aux abords des zones urbanisées, pas trop loin des utilisateurs et des cœurs de réseau afin de livrer des débits assurant un confort d’utilisation. Quant à une délocalisation à la campagne, seuls de très gros acteurs pourraient envisager un éloignement des villes et financer la connectivité nécessaire pour déployer de telles installations. Mais nul doute que se poserait alors la question de la pollution visuelle.

Rédigé par Olivier Discazeaux