Quelles sont les menaces que le développement rapide de l’IA peut faire peser sur les entreprises aujourd’hui ? Alors que l’IA infiltre de plus en plus notre quotidien professionnel, les entreprises sont confrontées à un dilemme: ignorer les avancées peut être synonyme de retard, mais les adopter précipitamment peut exposer à des risques insoupçonnés. Comment donc naviguer parmi ces choix cruciaux ?
À l’avant-garde de cette course à la sécurité, des startups telles que Noma en Israël, Hidden Layer aux États-Unis ou encore Mindgard au Royaume-Uni s’attellent à démystifier l’évolution rapide de ces technologies. Mais quels dangers cachés justifient une telle effervescence autour de la « sécurité pour l’IA »? Peter Garraghan, PDG de Mindgard, explique que les réseaux neuronaux ont un comportement intrinsèquement aléatoire exigeant une nouvelle approche. Ne serait-il pas temps de considérer l’IA comme un logiciel à part entière, avec tous les risques cybernétiques associés ?
Mindgard propose une solution novatrice : le test dynamique de sécurité des applications pour l’IA (DAST-AI). Ce processus s’attaque aux vulnérabilités visibles uniquement à l’exécution, grâce à une équipe de simulation d’attaques automatiques et continues. Mais jusqu’où diriger cette technologie, et quels bénéfices réels procure-t-elle aux entreprises utilisatrices ?
Mindgard mise sur une forte collaboration académique pour avancer dans la sécurisation de l’IA.
Fondée sur les travaux de Garraghan et de ses collègues chercheurs à l’université de Lancaster, la société Mindgard bénéficie d’un partenariat unique lui permettant d’exploiter les travaux de 18 doctorants. Cette collaboration académie-industrie pourrait-elle en faire un acteur incontournable dans la sécurité IA ? La capacité à protéger contre des menaces en constante évolution, notamment avec un secteur des modèles de langage GPT en pleine expansion, soulève des perspectives fascinantes.
Mindgard a également pris le chemin de la commercialisation. Mais qu’est-ce qui différencie son offre? En tant que plateforme SaaS, elle attire les entreprises ayant besoin d’affirmer leur capacité à prévenir les risques IA. Steve Street, cofondateur, prend en main cette course en effervescence. Toutefois, la question subsiste : les entreprises traditionnelles adopteront-elles cette approche sécuritaire proactive ?
Peut-être pour séduire un public plus vaste, Mindgard a récemment enrichi sa structure capitalistique avec des investissements américains. Un tour de table de 8 millions de dollars, mené par .406 Ventures de Boston, amènera-t-il cette expansion vers le marché US à son apogée ? Avec un nombre de collaborateurs prévu pour passer de 15 à seulement 25 d’ici l’année prochaine, quelle stratégie Mindgard adoptera-t-elle pour maximiser son impact tout en restant agile ?
Tout cela nous ramène à une question essentielle : à mesure que l’IA s’intègre dans tous les recoins de notre vie professionnelle et personnelle, les entreprises sont-elles prêtes à assumer les responsabilités éthiques et sécuritaires que cela implique ?
Source : Techcrunch