Les publicités du Super Bowl sont-elles en train de transformer l’intelligence artificielle en terrain de jeu pour les rivalités entre entreprises ? Depuis la diffusion d’une série de spots signés Anthropic — dont le message taclé directement son concurrent OpenAI — la question se pose, et soulève un débat inédit sur notre rapport à l’IA et à la publicité en ligne.
Que se passe-t-il quand un chatbot donne soudainement des conseils de vie, avant de bifurquer vers une publicité totalement inattendue pour un site de rencontres de “cougars” ? C’est le point de départ ingénieux de la première publicité d’Anthropic avec son assistant Claude, dans laquelle la société se moque des intentions d’OpenAI d’intégrer des publicités ciblées à ChatGPT. Plus qu’une simple blague, ce spot met le doigt sur une angoisse : les IA pourraient-elles sacrifier la neutralité au profit du placement de produits ?
Mais jusqu’où la frontière entre aide et manipulation peut-elle être franchie ? Une autre publicité Anthropic met en scène un jeune homme cherchant à se muscler, avant d’être dirigé vers des semelles censées “augmenter” sa taille. Faussement absurde, cette démonstration renvoie à l’annonce récente d’OpenAI d’introduire des publicités contextuelles dans la version gratuite de ChatGPT — et l’ironie n’a pas échappé au grand public comme aux médias, qui ne se sont pas privés de titrer que la société “tourne en dérision”, voire “ridiculise” son rival.
Anthropic questionne la frontière entre l’assistance intelligente et la publicité intrusive, tout en pointant du doigt le choix stratégique et éthique de ses concurrents.
Sam Altman, patron d’OpenAI, ne pouvait évidemment pas rester silencieux. Après avoir concédé sur X (ex-Twitter) que les publicités d’Anthropic l’avaient “fait rire”, il s’est vite empressé de qualifier leur démarche de “malhonnête”. Peut-on vraiment croire, comme il l’affirme, qu’OpenAI ne basculera jamais dans une telle utilisation intrusive de la pub ? La promesse faite aux utilisateurs est claire : les publicités seront “séparées”, “étiquetées”, et n’influenceront jamais les conversations… sauf qu’elles seront bien liéés au contenu des dialogues, ce que décrient justement les spots d’Anthropic.
L’échange dégénère d’ailleurs rapidement en rivalité d’image : Altman accuse Anthropic d’être réservé aux “riches” et d’empêcher certaines entreprises d’utiliser Claude. De son côté, Anthropic, créée justement par d’anciens d’OpenAI inquiets de la dérive éthique de l’IA, revendique un marketing centré sur le développement “responsable”. Mais alors, où finit la prudence et où commence la censure ? Si Anthropic interdit l’érotisme sur Claude pendant qu’OpenAI l’autorise sur ChatGPT, les deux imposent tout de même de multiples garde-fous et politiques d’utilisation.
Ce qui choque surtout, c’est la montée d’un ton polémique entre leaders du secteur : Altman va jusqu’à traiter Anthropic “d’autoritaire”, un qualificatif lourd de sens, alors même que des drames politiques se déroulent ailleurs dans le monde. Est-ce que ce genre de clash sert vraiment le débat sur la sécurité et les risques liés à l’IA ? Ou détourne-t-il notre attention des vrais enjeux, comme la dépendance grandissante de l’IA à des modèles économiques invasifs ?
Dans quelle direction l’écosystème des chatbots va-t-il évoluer à présent ? Est-ce que la publicité guidera l’intelligence artificielle, au risque de compromettre notre confiance dans ces outils ? Ou bien la bataille communicationnelle d’Anthropic sera-t-elle le signal d’alarme qui nous oblige à reposer les bases éthiques, en tant qu’utilisateurs et citoyens ?
Source : Techcrunch




