a person sitting on a window sill using a laptop

Credits image : Kaptured by Kasia / Unsplash

BlockchainIntelligence ArtificielleTechnologie
0

Jusqu’où OpenAI doit-elle aller pour protéger ses secrets ?

Dans un secteur où les secrets valent de l’or, peut-on vraiment protéger une technologie aussi prisée que l’intelligence artificielle d’OpenAI contre l’espionnage industriel ?

Selon le Financial Times, OpenAI aurait bouleversé toute sa politique de sécurité, en réaction directe à la publication d’un modèle concurrent par la startup chinoise DeepSeek. Cet épisode brûlant a-t-il révélé des failles jusque-là ignorées dans la protection des joyaux technologiques américains ? Lorsque OpenAI soupçonne DeepSeek d’avoir copié ses modèles grâce à des techniques de « distillation », la suspicion plane-t-elle désormais sur tout échange d’information interne ?

Pour tenter de circonscrire la menace, on parle désormais d’une véritable bunkerisation des connaissances chez OpenAI. Chaque employé n’aurait accès qu’aux projets sur lesquels il est explicitement autorisé à travailler. Lors du développement du modèle « o1 », seuls les membres triés sur le volet et informés pouvaient en discuter, et ce, même dans les espaces partagés du siège. Jusqu’où l’entreprise peut-elle cloisonner ses équipes sans ralentir l’innovation ?

OpenAI semble désormais aussi obsédé par sa sécurité que par ses innovations.

Ce verrouillage va bien au-delà des murs de l’entreprise. Des technologies propriétaires sont isolées sur des systèmes déconnectés d’Internet, les accès aux bâtiments s’effectuent grâce à la biométrie et tout contact avec l’extérieur se fait désormais sur autorisation expresse. À chaque porte de salle de serveurs, un scanner d’empreintes digitales : surprotège-t-on ou anticipe-t-on simplement les liens complexes entre guerre de talents et fuites industrielles ?

Mais la véritable menace est-elle uniquement extérieure ? Alors que la concurrence entre firmes américaines s’intensifie, avec achat de cerveaux et fuites de discussions de Sam Altman, PDG d’OpenAI, la frontière entre risques d’espionnage étranger et dissensions internes devient floue. OpenAI, tout en renforçant la cybersécurité et la surveillance physique de ses centres de données, cherche probablement aussi à resserrer sa garde sur ses propres troupes.

L’enjeu dépasse la simple guerre contre la Chine ou Meta : il touche à la survie et à l’hégémonie dans la course mondiale à l’intelligence artificielle. Mais face à cette escalade sécuritaire, jusqu’où peut-on aller sans nuire à la culture d’échange qui fait la force du secteur ?

Nous avons sollicité OpenAI pour un commentaire, mais à l’heure où nous écrivons, le mystère reste entier. La protection de la propriété intellectuelle va-t-elle redessiner les frontières, non seulement du bureau, mais de l’innovation elle-même ?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.