Jusqu’où ira ChatGPT dans sa quête pour devenir notre assistant numérique tout-puissant ? La promesse d’une intelligence artificielle capable de gérer à notre place les tâches les plus fastidieuses du quotidien n’a jamais semblé aussi proche. Mais derrière la dernière annonce fracassante d’OpenAI, une question demeure : sommes-nous réellement prêts pour un agent doté de tels pouvoirs ?
Le ChatGPT agent, dévoilé par OpenAI, fait figure de saut technologique. Capable de naviguer sur internet, de synchroniser votre agenda, de préparer vos présentations ou d’écrire et exécuter du code, cet agent se veut être le “super assistant” rêvé. Mais comment ces fonctions, autrefois éclatées dans différents outils comme Operator ou Deep Research, changent-elles la donne lorsque combinées ? Suffit-il de donner des instructions en langage naturel pour voir ses problèmes s’envoler ?
Ce nouvel outil ne sera d’abord accessible qu’aux utilisateurs Pro, Plus et Team de ChatGPT, activable via un simple menu déroulant. Mais n’y a-t-il pas un risque de voir l’outil réservé à une élite alors que sa portée pourrait bouleverser la productivité de millions de personnes ? En Silicon Valley, la course aux agents autonomes est lancée, mais jusqu’ici, la réalité a souvent déçu face à la vision futuriste vendue par les géants du secteur.
L’enjeu ne se limite pas à la technique : il redessine notre relation avec les machines, et soulève de nouvelles inquiétudes en matière de sécurité et de responsabilité.
OpenAI assure pourtant que son nouvel agent surpasse ses prédécesseurs : accès aux connecteurs ChatGPT pour relier Gmail et GitHub, capacité à exécuter des actions via des API ou des terminaux… L’idée glisse un parfum de délégation ultime – “planifier et acheter de quoi préparer un petit-déjeuner japonais pour quatre”, par exemple, ou “analyser trois concurrents et générer une présentation” – mais la complexité de ces missions ne risque-t-elle pas de mettre en lumière de nouvelles limites ? Les résultats annoncés sur des benchmarks comme Humanity’s Last Exam ou FrontierMath sont certes impressionnants, mais restent-ils valables dans la jungle du monde réel ?
La sécurité, justement, est au cœur des préoccupations. OpenAI ne cache pas que ChatGPT agent inaugure des territoires sensibles, notamment dans la manipulation d’informations biologiques ou chimiques. L’entreprise a ainsi multiplié les garde-fous : surveillance en temps réel, désactivation de la mémoire pour limiter les attaques par injection de prompts, analyse des demandes à double niveau pour prévenir les usages déviants… Mais est-ce vraiment suffisant face à des menaces de plus en plus sophistiquées ?
OpenAI évoque aussi le dilemme de la mémoire : utile pour personnaliser l’expérience, elle reste désactivée pour cet agent, de peur qu’un utilisateur malveillant ne s’en serve pour siphonner des données sensibles. La fonction pourrait être réintégrée plus tard… si les risques sont jugés maîtrisés. Jusqu’où ira la prudence des concepteurs face à la pression du marché et des usages ?
En définitive, alors qu’OpenAI promet un agent “plus capable que jamais”, la prudence reste de mise. L’histoire des agents numériques a jusqu’ici montré leur fragilité dès qu’il s’agit d’interagir avec la réalité, malgré les avancées spectaculaires sur le papier. ChatGPT agent sera-t-il enfin le chaînon manquant entre l’automatisation rêvée et l’autonomie de nos outils ? Ou devra-t-on revoir nos attentes à la baisse ?
Entre prouesses techniques et prudence éthique, au final, la vraie question est peut-être ailleurs : qui surveillera l’agent ?
Source : Techcrunch




