OpenAI peut-il vraiment démocratiser la recherche approfondie grâce à une intelligence artificielle « allégée » ? Voilà une question qui mérite qu’on s’y attarde. Alors que l’entreprise californienne vient d’annoncer jeudi une extension majeure de son outil « deep research », la promesse d’un ChatGPT capable de compiler des rapports détaillés sur n’importe quel sujet soulève autant d’espoirs que d’interrogations.
Le lancement de cette version « lightweight » du deep research, jusque-là réservée à une poignée d’abonnés payants, intrigue. Sur quoi repose cette nouvelle mouture ? Selon OpenAI, le moteur en charge n’est autre qu’un certain “o4-mini”, un modèle maison présenté comme moins puissant que la version complète, mais surtout beaucoup plus abordable à faire tourner. Faut-il y voir un compromis salutaire, ou une limitation masquée derrière des promesses technologiques ?
L’entreprise affirme que la qualité et la profondeur des réponses seraient préservées, même si leur longueur s’en retrouve réduite. Mais qui définit réellement ce qu’est une réponse en profondeur ? OpenAI assume ce pivot en expliquant que dès que l’utilisateur aura atteint ses limites de requêtes sur la version “profonde” d’origine, les questions basculeront automatiquement sur la version légère. Est-ce la meilleure manière d’ouvrir la technologie au plus grand nombre ou un simple moyen de contenir les coûts tout en maintenant une expérience acceptable ?
OpenAI mise sur la quantité, mais le pari sur la qualité restera-t-il tenable à grande échelle ?
D’autant que le contexte concurrentiel est brûlant : Google avec Gemini, Microsoft avec Copilot, et xAI avec Grok déploient déjà leurs propres outils de recherche avancée intégrant des IA capables de raisonnement automatisé et de vérification des faits. Sommes-nous face à une véritable révolution de la façon dont l’information est produite et consommée, ou à une course à l’IA “suffisamment intelligente, mais à bas coût” ?
Cette fonctionnalité « deep research » simplifiée s’adresse dès aujourd’hui aux utilisateurs gratuits de ChatGPT, tandis que les comptes Enterprise et éducatifs devront attendre la semaine prochaine pour en bénéficier. OpenAI promet qu’ils auront alors droit au même volume de requêtes que les abonnés Team. Est-ce vraiment une victoire pour l’accessibilité, ou faut-il craindre que l’IA de demain se contente de donner des réponses plus courtes, potentiellement moins nuancées ?
Au-delà de la prouesse technique, une question persiste : l’automatisation de la recherche approfondie par l’IA ne risque-t-elle pas d’appauvrir la réflexion humaine tout en démultipliant les fake news, même avec un garde-fou algorithmique ? La frontière entre efficacité et superficialité se réduit-elle à un simple problème de puissance de calcul ?
Face à ces évolutions rapides, utilisateurs comme experts attendent de voir si OpenAI saura imposer un nouveau standard ou si le marché s’orientera vers une course au “plus court, plus vite, moins cher”. Mais, dans cette ruée vers la décentralisation de la recherche assistée, qui garantira la fiabilité du savoir partagé ?
Source : Techcrunch