Faut-il vraiment croire que l’intelligence artificielle “ouverte” de Google est aussi transparente et accessible qu’elle le prétend ? Avec le lancement de Gemma 3n lors de la keynote Google I/O 2025, Google étend officiellement sa famille de modèles d’IA dits “ouverts”. Mais à qui profite vraiment cette ouverture, et quelles conséquences pour les utilisateurs lambda et les développeurs ?
Gemma 3n, vanté comme capable de fonctionner sur des appareils disposant de moins de 2 Go de RAM, promet une nouvelle révolution : l’utilisation de l’IA directement sur les téléphones, tablettes, et ordinateurs, sans passer par le cloud. Cette prouesse technique signifie-t-elle la fin du transfert massif de données vers les géants du numérique, ou Google y trouve-t-il son compte d’une autre manière ? La confidentialité vantée va-t-elle de pair avec une réelle démocratisation des outils d’IA ?
La tendance est nette : les modèles d’IA compacts, qui s’exécutent hors-ligne, séduisent de plus en plus la communauté tech. Plus économes, respectueux de la vie privée car ils évitent d’envoyer les données vers des datacenters lointains, ils semblent cocher toutes les cases. Mais la véritable question demeure : que sacrifie-t-on en performance, en sécurité et en indépendance ?
Les nouveaux modèles “ouverts” de Google suscitent autant d’enthousiasme que d’interrogations sur leur portée réelle et les intentions derrière cette générosité affichée.
En parallèle, Google annonce MedGemma, un modèle dédié à la compréhension multimodale des données de santé, ainsi que SignGemma, conçu pour traduire la langue des signes en texte. Là encore, la communication est limpide : offrir des outils puissants et personnalisables pour les développeurs d’applications médicales ou pour les personnes sourdes et malentendantes. Mais comment ces outils seront-ils adoptés sur le terrain, et pourront-ils vraiment transformer l’accessibilité ou l’analyse des données médicales sans failles éthiques ou techniques ?
Le détail qui fâche ? Malgré leur étiquette “open”, les modèles Gemma sont soumis à des licences personnalisées et parfois restrictives, bien loin des licences standards open source. Cette situation crée une incertitude juridique pour ceux qui envisagent une exploitation commerciale, certains développeurs estimant que prendre le risque d’utiliser Gemma n’est pas anodin. Pourtant, cela n’a pas ralenti la popularité des modèles, téléchargés des dizaines de millions de fois : l’appât de l’innovation et la curiosité priment encore sur la prudence légale.
Finalement, la stratégie de Google interroge : entre ambition technique, volonté affichée de démocratisation, et contrôle serré sur l’usage, où se trouve la véritable ligne directrice ? Les nouveaux modèles Gemma vont-ils vraiment mettre l’IA de pointe au service de tous, ou bien ne sont-ils qu’un nouvel outil de captation pour la firme de Mountain View ?
Alors, à l’aube de cette nouvelle ère “post-cloud” vantée par les géants de la tech, à qui fait-on vraiment confiance lorsque l’on parle d’IA “ouverte” et accessible ?
Source : Techcrunch