La productivité des entreprises serait-elle menacée par une vague silencieuse de « travail bâclé » généré par l’IA ? Cette question intrigue de plus en plus de décideurs et de chercheurs, alors que l’adoption massive de l’intelligence artificielle dans les environnements professionnels suscite autant d’espoirs que d’inquiétudes.
Récemment, les équipes du cabinet BetterUp Labs, en partenariat avec le Stanford Social Media Lab, ont forgé un nouveau terme : “workslop”. Mais que désigne-t-il exactement ? Selon un article publié dans la Harvard Business Review, le workslop représente ce contenu de travail généré par l’IA qui “se fait passer pour du bon travail, mais qui manque de substance au point de ne pas faire progresser réellement une tâche”. Ce phénomène suscite déjà des remous dans le monde du travail, mais quelles sont ses conséquences réelles ?
Si 95% des organisations ayant déployé l’IA ne constatent aucun retour sur investissement réel (rapport à l’appui), le workslop serait-il le coupable idéal ? D’après les chercheurs, ce contenu serait souvent “incomplet, sans utilité, ou dépourvu de contexte”, générant ainsi davantage de tâches correctives pour les collègues ou clients en aval. Doit-on alors craindre que l’IA ne fasse que déplacer, voire alourdir les tâches au lieu de les alléger ?
Le “travail bâclé” produit par l’IA semble plus complexifier que simplifier le quotidien des salariés.
En observant le quotidien des salariés, les résultats sont frappants : une enquête menée auprès de 1 150 employés américains à temps plein révèle que 40% d’entre eux ont reçu du workslop au cours du dernier mois. Que faire alors pour stopper cette déferlante de données sans valeur ajoutée qui menace le sens même du “bon travail” ?
Selon les experts, il ne suffit pas d’interdire l’usage de l’IA ou de se méfier des outils innovants. La parade reposerait sur un leadership engagé, fixant des règles claires et encourageant un usage réfléchi et intentionnel de l’intelligence artificielle. Mais quels garde-fous doivent être concrètement mis en place ? Quelles normes adopter pour garantir la qualité du travail dans un environnement hybride humain-IA ?
Alors que la tentation de déléguer tâches et réflexions à la machine devient monnaie courante, la question de la responsabilité humaine dans l’utilisation de l’IA est plus pressante que jamais. N’est-ce pas justement en repensant nos usages et en cultivant l’esprit critique dans nos équipes que nous pourrons éviter le piège du workslop ?
Au fond, la généralisation du workslop ne traduit-elle pas un besoin urgent de redéfinir ce que l’on attend du “travail bien fait” à l’ère des algorithmes omniprésents ?
Source : Techcrunch




