Credits image : / Unsplash

HardwareIntelligence ArtificielleSciencesTechnologie
0

Les data centers doivent-ils vraiment s’installer sous la mer pour résoudre la crise énergétique de l’IA ?

Face à la pénurie grandissante d’électricité nécessaire au fonctionnement des centres de données pour l’IA, sommes-nous sur le point de voir l’infrastructure numérique migrer loin des côtes… ou même sous la mer ? L’idée d’envoyer des data centers dans l’espace séduit certains visionnaires, mais n’existe-t-il pas des alternatives plus « terrestres » – ou plutôt aquatiques ?

Alors que certains rêvent de capter l’énergie solaire dans l’orbite terrestre, la startup Aikido mise sur les fonds marins. Pourquoi l’océan deviendrait-il soudain l’endroit idéal pour nos serveurs assoiffés de mégawatts ? Cette entreprise norvégienne prévoit de tester, cette année, un centre de données de 100 kilowatts immergé au large de la Norvège, logé dans les bulbes d’une éolienne flottante. Serait-ce la solution miracle pour héberger l’intelligence artificielle tout en se passant du précieux terrain à terre ?

L’électrification de ces centres de traitement en mer pourrait-elle réellement pallier les plaintes des riverains (NIMBYs) et le manque d’espace disponible près des grosses lignes électriques ? La réponse se niche peut-être dans la régularité du vent offshore. Grâce à la puissance d’une éolienne entre 15 et 18 mégawatts – projetée pour une version britannique en 2028 – Aikido entend alimenter un data center conséquent, de 10 à 12 mégawatts. Faut-il suivre cette voie pour décarboner l’informatique ?

De la terre à la mer, la quête d’énergie pour l’IA pourrait bien remodeler l’architecture de notre univers numérique.

Mais, soyons réalistes, l’océan n’attend-il pas les imprudents pieds au tournant ? Les infrastructures devront résister à la corrosion du sel, aux mouvements permanents, et à la logistique complexe d’accès et de maintenance. Les serveurs seront-ils suffisamment protégés, et le refroidissement par l’eau de mer offrira-t-il une efficacité inégalée ou recèle-t-il de nouvelles complications insoupçonnées, comparées aux défis thermiques des centres de données orbitaux ?

L’idée de submerger les data centers n’est pas neuve. Microsoft, pionnière du genre, lançait il y a une dizaine d’années son ambitieux « Project Natick » au large de l’Écosse. Le bilan ? Seuls 6 serveurs sur plus de 850 ont flanché en 25 mois, grâce à une atmosphère inerte d’azote. À l’époque, cela semblait prometteur : va-t-on enfin tenir l’avenir de l’infodivision écologique ?

Cependant, pourquoi Microsoft a-t-elle finalement abandonné l’aventure ? Bien que l’entreprise ait publié ses brevets en open source en 2021, le projet était enterré dès 2024. S’agit-il d’une impasse technologique ou d’un problème économique ? Les défis logistiques et environnementaux s’avèrent-ils plus épineux que prévu ?

Si l’approche offshore séduit sur le papier, saura-t-elle tenir face à la rigueur et à l’imprévisibilité de l’océan ? L’avenir de notre infrastructure numérique passera-t-il vraiment par les abysses ou n’est-ce qu’une piste parmi d’autres vers un Internet plus vert et plus durable ?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.