Face à la pénurie grandissante d’électricité nécessaire au fonctionnement des centres de données pour l’IA, sommes-nous sur le point de voir l’infrastructure numérique migrer loin des côtes… ou même sous la mer ? L’idée d’envoyer des data centers dans l’espace séduit certains visionnaires, mais n’existe-t-il pas des alternatives plus « terrestres » – ou plutôt aquatiques ?
Alors que certains rêvent de capter l’énergie solaire dans l’orbite terrestre, la startup Aikido mise sur les fonds marins. Pourquoi l’océan deviendrait-il soudain l’endroit idéal pour nos serveurs assoiffés de mégawatts ? Cette entreprise norvégienne prévoit de tester, cette année, un centre de données de 100 kilowatts immergé au large de la Norvège, logé dans les bulbes d’une éolienne flottante. Serait-ce la solution miracle pour héberger l’intelligence artificielle tout en se passant du précieux terrain à terre ?
L’électrification de ces centres de traitement en mer pourrait-elle réellement pallier les plaintes des riverains (NIMBYs) et le manque d’espace disponible près des grosses lignes électriques ? La réponse se niche peut-être dans la régularité du vent offshore. Grâce à la puissance d’une éolienne entre 15 et 18 mégawatts – projetée pour une version britannique en 2028 – Aikido entend alimenter un data center conséquent, de 10 à 12 mégawatts. Faut-il suivre cette voie pour décarboner l’informatique ?
De la terre à la mer, la quête d’énergie pour l’IA pourrait bien remodeler l’architecture de notre univers numérique.
Mais, soyons réalistes, l’océan n’attend-il pas les imprudents pieds au tournant ? Les infrastructures devront résister à la corrosion du sel, aux mouvements permanents, et à la logistique complexe d’accès et de maintenance. Les serveurs seront-ils suffisamment protégés, et le refroidissement par l’eau de mer offrira-t-il une efficacité inégalée ou recèle-t-il de nouvelles complications insoupçonnées, comparées aux défis thermiques des centres de données orbitaux ?
L’idée de submerger les data centers n’est pas neuve. Microsoft, pionnière du genre, lançait il y a une dizaine d’années son ambitieux « Project Natick » au large de l’Écosse. Le bilan ? Seuls 6 serveurs sur plus de 850 ont flanché en 25 mois, grâce à une atmosphère inerte d’azote. À l’époque, cela semblait prometteur : va-t-on enfin tenir l’avenir de l’infodivision écologique ?
Cependant, pourquoi Microsoft a-t-elle finalement abandonné l’aventure ? Bien que l’entreprise ait publié ses brevets en open source en 2021, le projet était enterré dès 2024. S’agit-il d’une impasse technologique ou d’un problème économique ? Les défis logistiques et environnementaux s’avèrent-ils plus épineux que prévu ?
Si l’approche offshore séduit sur le papier, saura-t-elle tenir face à la rigueur et à l’imprévisibilité de l’océan ? L’avenir de notre infrastructure numérique passera-t-il vraiment par les abysses ou n’est-ce qu’une piste parmi d’autres vers un Internet plus vert et plus durable ?
Source : Techcrunch




