a neon circle with a snake on it

Credits image : Brecht Corbeel / Unsplash

Intelligence ArtificielleSociétéTechnologie
0

Quels sont les dangers cachés de l’IA pour les entreprises ?

Quelles sont les menaces que le développement rapide de l’IA peut faire peser sur les entreprises aujourd’hui ? Alors que l’IA infiltre de plus en plus notre quotidien professionnel, les entreprises sont confrontées à un dilemme: ignorer les avancées peut être synonyme de retard, mais les adopter précipitamment peut exposer à des risques insoupçonnés. Comment donc naviguer parmi ces choix cruciaux ?

À l’avant-garde de cette course à la sécurité, des startups telles que Noma en Israël, Hidden Layer aux États-Unis ou encore Mindgard au Royaume-Uni s’attellent à démystifier l’évolution rapide de ces technologies. Mais quels dangers cachés justifient une telle effervescence autour de la « sécurité pour l’IA »? Peter Garraghan, PDG de Mindgard, explique que les réseaux neuronaux ont un comportement intrinsèquement aléatoire exigeant une nouvelle approche. Ne serait-il pas temps de considérer l’IA comme un logiciel à part entière, avec tous les risques cybernétiques associés ?

Mindgard propose une solution novatrice : le test dynamique de sécurité des applications pour l’IA (DAST-AI). Ce processus s’attaque aux vulnérabilités visibles uniquement à l’exécution, grâce à une équipe de simulation d’attaques automatiques et continues. Mais jusqu’où diriger cette technologie, et quels bénéfices réels procure-t-elle aux entreprises utilisatrices ?

Mindgard mise sur une forte collaboration académique pour avancer dans la sécurisation de l’IA.

Fondée sur les travaux de Garraghan et de ses collègues chercheurs à l’université de Lancaster, la société Mindgard bénéficie d’un partenariat unique lui permettant d’exploiter les travaux de 18 doctorants. Cette collaboration académie-industrie pourrait-elle en faire un acteur incontournable dans la sécurité IA ? La capacité à protéger contre des menaces en constante évolution, notamment avec un secteur des modèles de langage GPT en pleine expansion, soulève des perspectives fascinantes.

Mindgard a également pris le chemin de la commercialisation. Mais qu’est-ce qui différencie son offre? En tant que plateforme SaaS, elle attire les entreprises ayant besoin d’affirmer leur capacité à prévenir les risques IA. Steve Street, cofondateur, prend en main cette course en effervescence. Toutefois, la question subsiste : les entreprises traditionnelles adopteront-elles cette approche sécuritaire proactive ?

Peut-être pour séduire un public plus vaste, Mindgard a récemment enrichi sa structure capitalistique avec des investissements américains. Un tour de table de 8 millions de dollars, mené par .406 Ventures de Boston, amènera-t-il cette expansion vers le marché US à son apogée ? Avec un nombre de collaborateurs prévu pour passer de 15 à seulement 25 d’ici l’année prochaine, quelle stratégie Mindgard adoptera-t-elle pour maximiser son impact tout en restant agile ?

Tout cela nous ramène à une question essentielle : à mesure que l’IA s’intègre dans tous les recoins de notre vie professionnelle et personnelle, les entreprises sont-elles prêtes à assumer les responsabilités éthiques et sécuritaires que cela implique ?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.