Le gouvernement du Royaume-Uni a-t-il une vision trop étroite de la sécurité et des risques liés à l’intelligence artificielle, au point de risquer de prendre du retard dans la course effrénée à l’IA? C’est ce que suggère un rapport publié aujourd’hui par le comité de la Communication et du Numérique de la Chambre des Lords. Mais de quelles manières les conclusions de ce rapport pourraient-elles influencer l’avenir de la réglementation de l’IA?
Ce rapport est le fruit d’un effort de collecte de témoignages de plusieurs mois impliquant une large gamme de parties prenantes, y compris de grandes entreprises technologiques, le milieu universitaire, des capital-risqueurs, les médias et le gouvernement. Que révèle-t-il sur les préoccupations actuelles et les recommandations faites au gouvernement britannique?
Le rapport insiste sur l’importance pour le gouvernement de se concentrer sur les risques de sécurité et sociétaux à court terme posés par les grands modèles de langage (LLM), tels que les infractions au droit d’auteur et la désinformation. Or, est-ce vraiment l’apocalypse et les menaces existentielles hypothétiques qui sont « exagérées »? Avec le développement rapide de l’IA s’apparentant à l’introduction d’Internet, le comité souligne qu’il est vital pour le gouvernement d’agir de manière proportionnée et pratique afin de ne pas manquer une possible ruée vers l’or de l’IA due à une prudence excessive pour des risques éloignés et improbables. Comment le gouvernement peut-il alors ajuster sa stratégie?
Le comité de la Chambre des Lords incite le gouvernement à se focaliser sur des risques plus immédiats et à éviter de se laisser distraire par des scénarios apocalyptiques exagérés.
Le débat sur l’IA prend de l’ampleur à mesure que des outils tels que ChatGPT d’OpenAI façonnent l’opinion publique et suscitent autant d’enthousiasme que d’inquiétude. Alors que des dirigeants politiques et d’entreprise se réunissent pour discuter de gouvernance de l’IA, une fracture se profile autour de la question de savoir dans quelle mesure nous devrions réguler cette nouvelle technologie. Doit-on privilégier une approche ouverte ou fermée face à l’essor de l’IA et quel impact cela pourrait-il avoir sur la compétitivité du marché et la supervision réglementaire?
Des acteurs importants tels que Microsoft et Google préconisent un accès ouvert aux technologies de l’IA, tout en soulignant les risques de sécurité associés aux LLM librement disponibles, nécessitant ainsi plus de garde-fous. Mais quelle est la position du comité sur l’opposition entre modèles ouverts et fermés, et comment cela affecte-t-il la concurrence et la réglementation potentielle?
Le rapport indique que toute approche doit être nuancée et itérative, mais les témoignages recueillis reflètent les intérêts propres à chaque partie prenante. Le comité recommande-t-il alors des mesures de gouvernance accrues pour atténuer les risques de capture réglementaire involontaire et de pensée de groupe?
Le rapport propose des solutions pour adresser les « opportunités », notamment en matière de désinformation et de contenu protégé par le droit d’auteur, mais quel équilibre le gouvernement doit-il trouver entre la prévention des risques et la saisie des avantages stratégiques? Et comment cela pourrait-il affecter sa position concurrentielle sur la scène internationale?
Finalement, le comité de la Chambre des Lords semble suggérer que, bien que les LLM et le mouvement de l’IA globalement comportent des risques réels, la stratégie gouvernementale doit se « rééquilibrer » avec moins de focus sur les « scénarios de science-fiction apocalyptiques » et plus sur les avantages potentiels. Mais, sommes-nous certains que les opportunités l’emportent sur les risques?
Source : Techcrunch