L’innovation technologique peut-elle vraiment garantir la sécurité de l’intelligence artificielle? Alors que Nvidia présente trois nouveaux microservices NIM, l’objectif semble d’être de renforcer les mesures de contrôle et de sécurité autour des agents IA pour les entreprises. Mais que cachent réellement ces avancées en termes de sécurité et de confiance pour les utilisateurs?
Parmi ces nouveaux services, l’un se concentre sur la sécurité du contenu et s’efforce de prévenir la génération de résultats nuisibles ou biaisés par un agent IA. Un autre vise à maintenir les discussions sur des sujets approuvés uniquement, tandis que le troisième service aide à empêcher les tentatives de jailbreak des agents IA. Ces services font partie de Nvidia NeMo Guardrails, un ensemble de logiciels et microservices open source destinés à améliorer les applications IA des entreprises.
Nvidia semble anticiper les défis d’une adoption plus généralisée de l’IA au sein des entreprises, mais les préoccupations liées à la sécurité seront-elles suffisamment adressées?
Pourquoi cette insistance sur des modèles spécialisés et légers comme garde-fous alors qu’un cadre mondial pourrait suffire? Il semble que l’idée d’une approche unique soit remise en question, car elle pourrait ne pas offrir une sécurité et un contrôle adéquats pour les workflows IA complexes, selon le communiqué. Cela reflète-t-il une prise de conscience croissante des défis liés à l’adoption des technologies IA par les entreprises?
La réalité sur le terrain semble indiquer que les entreprises ne se ruent pas aussi rapidement qu’on pourrait le penser pour adopter des technologies IA. Par exemple, Marc Benioff, PDG de Salesforce, prédit qu’il y aura plus d’un milliard d’agents fonctionnant sur Salesforce dans les 12 mois à venir, mais les prévisions parlent différemment.
Une étude récente de Deloitte indique qu’environ 25 % des entreprises utilisent déjà ou prévoient d’utiliser des agents IA d’ici 2025. D’ici 2027, environ la moitié des entreprises devraient les adopter. Cette lenteur dans l’adoption soulève des questions : l’attrait pour l’IA est-il freiné par des soucis de sécurité et de fiabilité?
Nvidia espère probablement qu’avec ces initiatives, adopter des agents IA semblera plus sûr et moins expérimental pour les entreprises. Mais cela sera-t-il véritablement le cas à l’avenir ? La réponse à cette question dépendra de la manière dont ces mesures de sécurité seront mises en œuvre et acceptées par les utilisateurs.
Source : Techcrunch