« Les machines apprennent de nos erreurs… mais visiblement, certains humains en profitent avant tout le monde. » Voilà qui résume joliment le dernier remous qui secoue les bureaux (ultra secrets) d’OpenAI : un employé vient de se faire éjecter plus vite qu’un “prompt” mal formulé pour avoir joué au devin sur les marchés de prédiction… avec un petit avantage maison : des infos confidentielles !
Selon Wired, OpenAI a confirmé le licenciement d’un de ses salariés coupable d’avoir utilisé des informations internes pour miser sur Polymarket, ces plateformes où on parie sur l’avenir comme d’autres spéculent sur la météo du weekend… Sauf que chez OpenAI, la météo, c’est plutôt : “Quel nouvel outil allons-nous sortir cette année ?” ou “Quand fera-t-on notre entrée en Bourse ?” Bref, rien qui devrait être tranché à pile ou face en toute impartialité !
Évidemment, le nom du si joueur employé est resté secret (on peut imaginer qu’il évite de répondre « Je sais sur quoi vous allez miser ! » à ses collègues). Mais la société l’affirme : utiliser des infos sous embargo pour prendre de l’avance est proscrit chez eux. Pour OpenAI, pas question de confondre intelligence artificielle… et avantages bien humains.
Là où certains jouent aux devinettes, d’autres jouent à “Qui veut gagner des millions ?” mais avec les réponses du questionnaire.
Il faut dire que le marché ne manque pas de piment. Les sites comme Polymarket ou Kalshi semblent avoir trouvé la formule magique pour attirer les parieurs adeptes de pronostics, rebaptisés « investisseurs ». On y trouve de gros poissons, comme cet audacieux comptable qui a raflé 470 300 $ en pariant contre une vague de fans de Dogecoin — preuve vivante que l’audace sourit (parfois) aux mieux informés.
Les plateformes de marchés de prédiction, qui préfèrent se qualifier de places financières plutôt que de casinos digitaux, se veulent sérieuses : Kalshi, dûment régulée, n’a ainsi pas hésité à infliger amende et bannissement à un éditeur de MrBeast accusé d’avoir triché à ce même petit jeu de l’insider. Mais la frontière entre coup de poker et délit d’initié tourne parfois à la devinette…
Ce nouvel épisode embarrassant rappelle qu’avant d’être remplacés par les robots, les humains aiment (un peu trop) tenter leur chance avec ce qu’ils savent de trop. Et qu’en 2024, même chez les champions de l’intelligence artificielle, l’intuition reste un terrain… risqué !
Morale de l’histoire : chez OpenAI, mieux vaut miser sur la transparence, sinon la porte de sortie est… automatique. Après tout, sur les marchés prédictifs comme en entreprise, il ne faut jamais vendre la mèche avant d’avoir les allumettes. Qui aurait deviné ?
Source : Techcrunch




