24/06/2007

Energie

Partager
Alerte à la surchauffe informatique
LE MONDE | 23.06.07 | 14h24 • Mis à jour le 23.06.07 | 14h24
Découvrez le Desk, votre écran de contrôle et de suivi de l'information en temps réel.

Ce seront les zones industrielles du XXIe siècle, sans ouvriers et reliées par fibre optique. Elles commencent tout juste à s'étendre près des grands barrages hydroélectriques du nord-est des Etats-Unis. Bientôt, elles pourraient encercler les centrales nucléaires en construction dans les pays émergents. Sur des milliers d'hectares, ces complexes concentreront la puissance de la nouvelle industrie dominante : l'informatique en ligne. Dans leurs blocs de béton, hermétiques aux curiosités du monde extérieur, les conglomérats du Web triomphant, les Google, Microsoft, Yahoo ! ou Ask.com, entasseront des dizaines de milliers de serveurs, capables de mémoriser des milliards de mails, textes, films, musiques et de les retrouver en un clin d'oeil.
ESSOR DES PAGES INDEXÉES

Pour répondre rapidement aux requêtes des internautes, les moteurs de recherche indexent, sur leurs serveurs, un nombre de pages exponentiel. A sa création en 2004, l'européen Exalead en comptait 300 millions. Ce chiffre est passé à 1 milliard (janvier 2005) puis 8 milliards actuellement. Celui de ses concurrents, tenu secret, est estimé de 20 à 25 milliards pour Google, 15 à 20 pour Yahoo ! et 5 à 8 pour Microsoft.
Pourquoi chercheront-ils à placer ces usines réinventées si près de sites de production électrique ? Parce que les lois de la physique ont commencé à rattraper un secteur économique qui prétendait les avoir abolies. Entre 2000 et 2005, la consommation électrique des centres informatiques a doublé, atteignant 45 milliards de kilowattheures, soit un total annuel de 7,2 milliards de dollars à l'échelle de la planète. Aux Etats-Unis, cela ne représente encore que 1,2 % de la consommation nationale, selon une récente étude publiée par un chercheur de Berkeley (Californie). Mais si rien ne vient corriger la tendance, la consommation totale des serveurs aura progressé de 76 % en 2010. Et encore, cette étude, financée par le fabricant de microprocesseurs AMD, ne donne sans doute qu'une estimation minimale de l'ampleur de cette explosion. Elle ne prend pas en compte les derniers centres de Google, dont la population exacte des serveurs, aux alentours de 450 000 unités, est tenue secrète.
"Notre cher ordinateur fait partie des appareils les plus inefficaces jamais inventés, écrit le spécialiste Timothy Prickett Morgan. Le plus gros de l'électricité qui le nourrit est relâché sous forme de chaleur, de bruit et de lumière." Selon Urs Hölzle, vice-président de Google, "un PC gâche environ la moitié de son énergie, et un serveur en gaspille un tiers". Longtemps, cette dépense en pure perte est passée inaperçue dans les budgets des centres de données. Le monde de l'informatique suivait aveuglément la loi de Moore : la puissance de calcul doublait tous les ans, ou presque, le coût des composants ne cessait de baisser. L'inefficacité énergétique des systèmes n'inquiétait personne.
C'est désormais une priorité, et pas seulement à cause de la hausse du prix de l'électricité. Dans leur incessante miniaturisation, les processeurs ont approché leurs limites physiques, ce qui se traduit par un échauffement intense. Depuis quelques années, leurs constructeurs ont dû les diviser en puces "multicoeurs" pour éviter qu'ils n'atteignent la température du Soleil vers 2015.
Dans les centres de données, où le nombre de serveurs n'a cessé d'augmenter, la chaleur ne s'est pas réduite pour autant. Les dépenses de climatisation ont encore accru le montant de la facture d'électricité. Le phénomène a été amplifié par le recours massif des mastodontes du Web à des appareils bon marché, beaucoup moins économes en énergie que les calculateurs hauts de gamme. Bientôt, l'acquisition d'une de ces machines à prix cassés sera moins onéreuse que son utilisation durant une seule année.
Avec plusieurs coups d'avance, Google tente de contourner la difficulté par la géographie. L'entreprise vient d'édifier dans l'Oregon, au bord du fleuve Columbia, le précurseur des grands centres de données à venir, avec leurs dispositifs d'évacuation de l'air chaud bien visibles. En amont du site, un barrage hydroélectrique fournit aux ordinateurs une source d'approvisionnement ininterrompue et bien moins chère que dans les centres urbains. Bientôt Microsoft et Yahoo ! implanteront leurs propres installations près d'autres barrages, plus au nord.
Mais ces mastodontes savent bien que cette course à l'énergie n'apportera pas de solution de long terme. Sans autre effort, le mal ne fera que croître. Aux usines de l'information finiront par s'agréger les serveurs externalisés des banques, avides d'une puissance de calcul dont elles commencent à trouver la facture excessive dans leurs locaux en centre-ville. Ces déplacements massifs vers barrages et centrales seront à l'origine de substantielles économies mais aussi de redoutables effets d'image.
Ceux-ci risquent d'associer brutalement les entreprises venues d'un monde virtuel aux difficultés les plus brûlantes du monde réel : la surconsommation d'énergie, les rejets de gaz à effet de serre et la contribution au réchauffement de la planète. Aux protestataires qui pourraient un jour se rassembler devant leurs enceintes grillagées, ces firmes ne pourront pas toujours répondre que le réseau mondial finira par réduire les voyages en avion, de colloques en réunions, ou que la vente en ligne a fait régresser les déplacements de proximité.
De fait, c'est l'ensemble des acteurs de l'informatique qui cherchent dès aujourd'hui à ne pas être accusés de gaspillage généralisé. Les poids lourds du secteur viennent de se rassembler dans une association environnementale commune (The Climate Savers Computing Initiative) pour trouver les moyens de rendre les ordinateurs plus économes, moins polluants. Google met aussi en avant son action en faveur de l'énergie solaire, en développant une batterie de panneaux qui fournira 30 % de l'alimentation de son siège californien de Mountain View.
Au-delà de ces annonces médiatisées, chacun s'efforce dans son domaine d'apporter sa part de solution. Les fabricants de processeurs ou de serveurs veulent concilier hausse de la performance et lutte contre chaleur et consommation. IBM vient ainsi d'annoncer la conception de puces dotées de milliards de microtrous qui faciliteront la circulation du courant et donc limiteront pertes et échauffements. Les spécialistes de la climatisation affirment qu'il faudra bientôt abandonner l'air soufflé pour passer au refroidissement par des fluides.
"Au moment d'acheter du nouveau matériel, le coût de sa consommation électrique est en train de s'imposer comme un critère plus déterminant que la puissance de calcul", dit François Bourdoncle, PDG du moteur de recherche Exalead. Pour autant, cette prise de conscience ne produira que des effets limités si le secteur ne change pas de philosophie, insistent nombre d'experts. Si l'informatique ne renonce pas aux mauvaises habitudes de ses années d'abondance pour revenir à "l'ordinateur frugal" de ses débuts, selon le bloggeur spécialisé Nicholas Carr. "Les serveurs utilisés par une entreprise unique ne fonctionnent que de 10 % à 30 % de leurs capacités", écrit-il. Cette sous-utilisation, liée au fait que les machines ne sont dédiées qu'à un seul programme, est la principale cause des gaspillages croissants.
Plusieurs procédés complexes ont été imaginés pour permettre aux serveurs de travailler sur plusieurs programmes à la fois, optimisant ainsi le rendement de centres informatiques jusqu'à 80 %. Une manière d'attendre plus confortablement que la loi de Moore atteigne un jour une limite infranchissable, et que l'invention révolutionnaire d'un autre moyen de calculer transforme les centres de données géants en nouvelles friches industrielles.
Jérôme Fenoglio
Article paru dans l'édition du 24.06.07.

Aucun commentaire:

Enregistrer un commentaire