Apple est-elle en train de revoir discrètement sa copie sur l’intelligence artificielle, ou assiste-t-on simplement à une phase de maturation technologique ? Lors de la dernière keynote du WWDC, la firme de Cupertino s’est enfin décidée à mettre moins d’emphase sur l’IA pour remettre en avant ses essentiel : systèmes d’exploitation, services et logiciels. Mais pourquoi ce changement soudain, et que révèle-t-il vraiment sur l’état de l’IA chez Apple ?
Certes, quelques nouveautés alimentées par l’IA ont été annoncées – reconnaissance d’images, coach sportif vocalisé, traduction instantanée lors d’appels – mais l’atmosphère n’avait rien à voir avec l’euphorie de l’an passé. Faut-il y voir un désengagement ou, au contraire, une consolidation plus discrète des ambitions d’Apple en matière d’intelligence artificielle ? Pourquoi la « Liquid Glass » fait-elle parler d’elle, mais beaucoup moins que les robots conversationnels qui font la une chez la concurrence ?
L’exemple le plus frappant est sans doute Visual Intelligence, un outil capable d’interagir avec le contenu visuel affiché sur l’iPhone. Est-ce là la réponse d’Apple à la volonté presque obsédante du public d’obtenir des informations contextuelles en un clin d’œil ? En réalité, derrière le vernis, c’est toujours Google Search ou ChatGPT qui font le gros du travail. Est-ce vraiment une innovation signée Apple ?
Apple semble prendre son temps, mais la pression du marché lui laissera-t-elle ce luxe encore longtemps ?
Autre question qui intrigue : l’intégration de ChatGPT dans Image Playground, permettant de générer des images aux styles variés (anime, aquarelle…). Cette association inédite entre deux géants du numérique peut-elle réellement changer la donne, ou n’est-ce qu’une rustine temporaire en attendant mieux ? Les fonctionnalités comme Workout Buddy ou la traduction en direct impressionnent mais ont-elles le pouvoir de fidéliser un public qui se lasse vite des grandes annonces non suivies d’effets tangibles ?
Apple tente indéniablement d’arrondir les angles : « call screening » pour filtrer les appels indésirables, création automatisée de sondages dans Messages – autant d’évolutions qui misent sur la personnalisation discrète de l’expérience utilisateur. Mais qui tire réellement les ficelles : l’intelligence embarquée sur l’appareil, ou toujours ces serveurs distants sur lesquels Apple communique si peu ?
Étonnamment, le public de développeurs n’est pas oublié, grâce à l’introduction timide d’un framework – Foundation Models – qui permettra de déployer des solutions IA même hors-ligne. Est-ce le signe d’une volonté d’Apple de reprendre la main face à la domination des géants du cloud AI ? Leur conviction suffira-t-elle à faire émerger un écosystème solide et crédible ?
Mais la déception est palpable, voire cuisante, côté Siri : aucune annonce fracassante, aucun bouleversement en vue pour l’assistant vocal. Face à des rivaux toujours plus agressifs, Apple peut-elle vraiment se permettre d’attendre un an de plus avant de sortir sa botte secrète, ou risquera-t-elle de perdre définitivement la course à l’intelligence conversationnelle ?
À force de cultiver le secret, Apple ne prend-elle pas le risque de voir ses concurrents dicter l’avenir de l’IA… sous ses yeux ?
Source : Techcrunch