woman in black and white dress sitting on bed

Credits image : Barbara Zandoval / Unsplash

Intelligence ArtificielleSciencesTechnologie
0

Peut-on faire confiance aux études générées par l’intelligence artificielle ?

Dans quelle mesure devrions-nous accepter les études générées par l’intelligence artificielle dans le domaine académique? Un débat houleux s’est récemment enflammé autour des études dites « générées par AI », soumises à la conférence ICLR, un évènement de longue date dédié à l’intelligence artificielle.

Trois laboratoires AI, à savoir Sakana, Intology et Autoscience, ont affirmé avoir utilisé l’IA pour générer des études acceptées dans les ateliers de l’ICLR. Ces révélations soulèvent des questions importantes concernant la transparence et l’éthique dans le domaine académique. Seule Sakana aurait obtenu le consentement préalable des évaluateurs, tandis qu’Intology et Autoscience semblent avoir omis cette étape cruciale.

Pourquoi les critiques sont-elles si virulentes à l’encontre d’Intology et Autoscience ? Des experts en IA ont critiqué ces actions, les considérant comme une exploitation du système traditionnel de revue par les pairs. Prithviraj Ammanabrolu, professeur assistant en informatique à UC San Diego, a exprimé ses préoccupations sur les réseaux sociaux, soulignant que ces laboratoires utilisent les lieux de publication comme des bancs d’évaluation humaine sans consentement préalable.

Mais en fin de compte, quel est l’avenir de l’évaluation par les pairs à l’ère de l’IA ?

La revue par les pairs est un processus qui demande du temps et des efforts, souvent bénévoles. Une enquête de Nature a révélé que 40 % des universitaires consacrent entre deux à quatre heures à l’examen d’une seule étude. De plus, le volume de papiers soumis à de grandes conférences ne cesse d’augmenter, comme en témoigne l’augmentation significative des soumissions à NeurIPS l’année dernière.

Certaines entreprises d’IA semblent utiliser ce processus pour promouvoir et tester leurs technologies de manière non conventionnelle. Les revendications d’Intology selon lesquelles leurs papiers ont reçu des critiques unanimement positives posent la question : ces éloges étaient-ils entièrement mérités ?

La communauté académique est peut-être justifiée dans son scepticisme envers ces soumissions générées par AI. Même Sakana a reconnu les erreurs embarrassantes de son système IA et a finalement retiré son papier, marquant une décision en faveur de la transparence et du respect des conventions de l’ICLR.

Pour conclure, la nécessité de réglementer ces soumissions semble plus pressante que jamais. Une suggestion pourrait être de créer des agences pilotées par le public ou des entreprises pour évaluer de manière rémunérée ces études générées par l’AI. L’académie est-elle prête à intégrer ces changements dans ses structures traditionnelles ?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.