Data center : un défi énergétique à relever

De plus en plus déployés à travers le monde, les data center consomment beaucoup d’énergie. Des chercheurs d’IMT Atlantique ont mené une étude qui associe énergie renouvelable et réseau électrique pour alimenter ces infrastructures. Pour consommer moins, les scientifiques jouent également sur le réseau, l’anticipation et l’organisation des tâches sur les différents serveurs.

 

Arriver sur ce site web par un moteur de recherche consomme quatre fois plus de CO2 que de l’atteindre directement en tapant l’adresse ou par un raccourci dans les favoris d’après l’ADEME [1]. S’il est facile d’oublier que le numérique émet des gaz à effet de serre par son absence de physicalité, rappelons que les data center émettent autant de dioxyde de carbone que l’aviation civile (2 % des émissions mondiales) de par leur consommation électrique. Un constat loin d’être anodin lorsque l’on observe la forte croissance du nombre de centres de données à travers le monde. Par ailleurs, avec l’arrivée du cloud computing les data center consomment de plus en plus ce qui engendre des problèmes écologiques et économiques.

C’est pourquoi à chaque nouvelle installation d’un centre de données, diminuer l’impact écologique est un élément clé. Dans l’objectif de réduire la consommation d’énergie, le projet collaboratif EPOC (Energy Proportional and Opportunistic Computing systems) combine énergies alternatives et réseau EDF pour alimenter des infrastructures mono-sites contenant une cinquantaine de serveurs. Ce projet purement théorique lancé en 2013 et financé par le labex CominLabs rassemble notamment des chercheurs en informatique et en télécommunication d’IMT Atlantique. Les compétences des chercheurs en optimisation informatique, virtualisation et adaptation logicielle s’associent à l’expertise dans les réseaux optiques très haut débit pour ce projet Green IT. Voici un aperçu de la théorie au cœur du projet en attendant sa mise en pratique.

 

Une optimisation technique

Dans la théorie d’EPOC, les data center sont rattachés au réseau d’EDF tout en étant alimentés par une énergie renouvelable. Cette dernière fournit de l’électricité de manière discontinue contrairement à celle fournit par le réseau électrique classique. Par exemple dans le cas d’un panneau photovoltaïque, un pic d’électricité survient lorsque le soleil est au zénith alors que la nuit l’apport est nul. « Le plus cher actuellement dans une installation électrique de type énergie renouvelable ce sont les batteries pour stocker ce qui n’est pas consommé. Or nous souhaitons nous affranchir du stockage et essayer de consommer la production électrique en direct« , explique Jean-Marc Menaud chercheur spécialisé dans le Green IT à IMT Atlantique et coordinateur d’EPOC. Raison de plus pour rentabiliser au mieux cette distribution hétérogène de l’énergie et alimenter les data center de façon uniforme dans le temps.

A ces fins, les chercheurs améliorent notamment la communication réseau. Ils optent pour une installation entièrement reliée par fibre optique. Cela permet de réduire la consommation d’énergie lors des transferts entre les serveurs. En effet, la transmission d’informations par fibre optique, autrement dit par signal lumineux, consomme moins d’électricité qu’une connexion par ADSL. Par exemple car cette-dernière utilise des câbles contenant du cuivre et des équipements qui consomment en permanence de l’électricité.

 

Ordonner les tâches en fonction de la charge électrique

Une fois en marche et connectés en réseau, les data center sont capables d’accueillir deux types d’applications. Certaines nécessitent une mise en ligne permanente, à l’image des moteurs de recherche. D’autres doivent être exécutées avant une date limite. Les chercheurs ont alors la possibilité d’articuler les applications en marche en fonction de l’énergie reçue. Lorsque l’énergie verte est disponible, ils peuvent ordonner les tâches comme ils le souhaitent. Jean-Marc Menaud nous donne un exemple : « à chaque fin de mois, les services comptables doivent sortir des feuilles de paie en PDF. Ce sont des fichiers qui doivent être disponibles au 30 du mois mais qui peuvent être produits à n’importe quel moment avant cette date. Donc on peut les exécuter lorsque l’apport en électricité verte est élevé ».

En plus du nombre de tâches en cours, il est aussi possible de jouer sur les applications toujours en ligne. L’objectif des data center est d’assurer en permanence un certain niveau de qualité de service ou SLA (Service Level Agreement). Il est question d’élasticité logicielle, c’est-à-dire la capacité d’adapter le fonctionnement d’une application selon les disponibilités énergétiques. Prenons l’exemple d’un site web qui permet d’évaluer un trajet entre deux points. Son SLA consiste à fournir un itinéraire en un temps imparti. Si la charge électrique est basse, il se contente de répondre à ces simples exigences. Si par contre le taux d’électricité verte reçu est élevé, alors le site web peut fournir des itinéraires alternatifs et ainsi améliorer le service proposé.

 

Réguler la charge de travail

Réduire la consommation d’énergie passe aussi par la diminution du nombre de serveurs en marche. Avant d’éteindre un serveur, les applications qui tournent sur celui-ci doivent être transférées à un autre. Pour cela, les chercheurs utilisent le principe de machine virtuelle. Afin de libérer la charge de travail d’un serveur, les chercheurs ont deux possibilités : soit ils suspendent le calcul, soit ils effectuent une migration à l’aide de machines virtuelles. Cet ordonnancement des tâches sur les serveurs est un problème complexe. C’est avant tout une question de placement et de répartition.

Jean-Marc Menaud explique : « Le principe de ce placement est proche du principe du remplissage d’un sac à dos. Vous partez faire un trek avec un sac à dos de 60 litres. Vous avez le choix entre une multitude d’aliments à emporter avec vous. Chaque aliment a une valeur calorique, un volume et un poids. Votre objectif est d’accumuler un maximum de calories avec la contrainte d’un sac à volume fixe, tout en minimisant le poids final. La solution est simple lorsqu’il n’y a que 5 aliments. Mais si vous en avez 10 000, le problème se complexifie car on ne peut pas tester toutes les possibilités. Ici notre situation est similaire. Un serveur est un sac à dos qui peut contenir une certaine quantité de machines virtuelles. On doit maximiser le service rendu (les calories) en minimisant l’énergie (le poids)« .

 

SeDuCe : un data center test grandeur nature

Le dernier axe étudié par les chercheurs d’EPOC est l’anticipation. La prédiction du besoin énergétique d’une application combinée à la prévision de la production électrique est la clé d’une consommation responsable. Un point qui pourra directement être testé par la mise en place du projet CPER [2] SeDuCe (Sustainable Data Center) en 2017. Celui-ci est une suite logique après trois années de théorie. Il va permettre la mise en place d’un data center mono-site test alimenté par des panneaux photovoltaïques. Cette infrastructure complète permettra d’analyser par la pratique les théories émergeant d’EPOC. « Ce genre de sites est rare en France. Ils commencent seulement à apparaître au niveau industriel. Avec des panneaux photovoltaïques de plus en plus abordables, on va pouvoir tester directement les hypothèses d’une recherche en avance de phase. Le site devrait être opérationnel dès l’été 2017″, conclut Jean-Marc Menaud.

 

[1] ADEME : Agence De l’Environnement et de la Maîtrise de l’Energie

[2] CPER : Contrat Plan Etat-Région

7 comments

  1. Allez voir l’entreprise Qarnot Computing! Ils mettent les data center dans des radiateurs pour chauffer les maisons et bureaux. Une super solution !!!

  2. Bonjour,

    est-ce que cette étude est disponible en anglais?

    Merci beaucoup

  3. Un article en anglais sur l’étude EPOC a été publié par les chercheurs, vous pouvez le trouver ici : https://hal.archives-ouvertes.fr/hal-01131602/document

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *