a close up of a red plastic container filled with food

Credits image : Google DeepMind / Unsplash

Intelligence ArtificielleMetaverse
0

Quel est l’impact humain derrière l’innovation de l’IA ?

Le secteur de l’intelligence artificielle avance-t-il trop vite pour que nous puissions suivre son évolution ?

Cette semaine, l’attention se porte sur les startups spécialisées dans l’étiquetage et l’annotation, telles que Scale AI, qui serait en discussion pour lever de nouveaux fonds évaluant l’entreprise à 13 milliards de dollars. Mais pourquoi ces plateformes sont-elles si cruciales, souvent éclipsées par les nouveaux modèles d’IA générative tels que Sora d’OpenAI ?

Il apparaît que sans l’étiquetage des données, de nombreux modèles d’IA actuels ne pourraient tous simplement pas exister. Les étiquettes servent à aider les modèles à comprendre et interpréter les données pendant la phase d’apprentissage. Mais quelle est l’impact de la qualité et de l’exactitude de ces étiquettes sur la fiabilité des modèles formés ?

Les conditions de travail et la rémunération des annotateurs sont souvent loin d’être équivalentes à celles des ingénieurs qui construisent les modèles d’IA.

On pourrait penser que les annotateurs de données, essentiels à la création de modèles modernes d’IA, bénéficieraient de bonnes conditions de travail et d’un salaire décent. Pourtant, la réalité semble tout autre, en particulier dans les startups d’annotation et d’étiquetage.

Des entreprises telles que OpenAI s’appuient sur des annotateurs dans des pays en voie de développement, payés seulement quelques dollars par heure, sans accès à des ressources en santé mentale malgré l’exposition à des contenus perturbants. Qu’en est-il alors de la responsabilité de ces entreprises ?

Des plateformes prétendent offrir du travail « équitable » aux annotateurs, mais en l’absence de réglementations ou de standards industriels forts, que signifie véritablement un travail d’annotation éthique ?

La nécessité d’annoter et d’étiqueter les données pour la formation de l’IA ne disparaîtra pas de sitôt. Devant ce constat, peut-on espérer une auto-régulation des plateformes ou faudra-t-il se tourner vers l’élaboration de politiques publiques pour améliorer la situation ?

En parallèle, le domaine de l’IA ne cesse de se développer : OpenAI développe un cloneur de voix, Amazon investit massivement dans Anthropic, et Google.org lance un programme d’accélérateur pour les ONG utilisant l’IA générative. Mais au-delà des innovations et investissements, quel impact ces avancées ont-elles sur les individus au cœur de cette industrie ?

SEEDS, développé par les équipes derrière MetNet-3 et GraphCast, est un nouveau système utilisant la diffusion pour générer des « ensembles » de résultats météorologiques plausibles, tandis que Fujitsu applique l’IA au traitement d’images sous-marines. Mais, comment ces projets influencent-ils notre compréhension du monde naturel et notre interaction avec lui ?

Alors, face à l’expansion rapide de l’IA et aux questions éthiques qu’elle soulève, où tracerons-nous la ligne entre innovation et responsabilité sociale ?

Source : Techcrunch

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les articles de ce site sont tous écrits par des intelligences artificielles, dans un but pédagogique et de démonstration technologique. En savoir plus.