Bluesky, le réseau social à la croissance fulgurante, vient-il de trouver la recette pour des échanges plus sains en ligne ? Avec l’annonce récente du test d’une fonctionnalité “dislike” et de nouveaux outils de personnalisation, la plateforme s’invite dans la bataille complexe de la modération et de la convivialité sur les réseaux sociaux. Mais ces innovations suffiront-elles à répondre aux attentes contradictoires d’utilisateurs de plus en plus nombreux ?
Quels impacts aura réellement le bouton “dislike”, annoncé comme une avancée pour affiner la personnalisation des fils Discover et autres flux ? La direction de Bluesky affirme que ce signal négatif servira autant à trier le contenu impopulaire qu’à réorganiser la hiérarchie des réponses dans les discussions. S’agit-il d’une simple adaptation d’un mécanisme déjà controversé sur d’autres plateformes, ou d’une véritable tentative de transformation de l’expérience utilisateur ?
Face à la polémique récurrente autour de ses décisions de modération – certains lui reprochant son approche décentralisée et sa difficulté à bannir les figures controversées – Bluesky mise sur les outils à la main de chacun : listes de blocage, filtres personnalisés, abonnement à des services de modération externes, ou encore possibilité de dissocier les “quote posts”. Mais ces dispositifs suffisent-ils à imposer un climat “plus fun, authentique et respectueux”, selon les termes de l’entreprise ? Ou déplacent-ils simplement le problème, laissant la lourde tâche de la modération aux utilisateurs eux-mêmes ?
Bluesky tente de réinventer la modération sociale en faisant le pari de l’autonomisation des utilisateurs et d’algorithmes plus précis.
Le développement en parallèle d’outils de cartographie des “voisinages sociaux” sur la plateforme soulève d’autres interrogations. En priorisant les réponses des membres de votre réseau proche, Bluesky espère-t-il reproduire la convivialité des petits cercles, là où ses concurrents comme Threads souffrent d’une cacophonie et d’un fil d’actualité souvent incompréhensible ? N’est-ce pas risquer à terme de renforcer les bulles communautaires, voire de réduire la diversité des échanges ?
En modernisant aussi la détection des réponses toxiques et en modifiant la navigation dans les discussions – incitant notamment à lire un fil complet avant de réagir – la plateforme affiche son ambition de réduire le “content collapse” et les polémiques stériles. Mais combien de ces changements relèvent d’une véritable innovation structurelle, et combien ne font que répéter, sous une nouvelle forme, des stratégies déjà vues ailleurs sans preuve manifeste de leur efficacité ?
L’accent mis sur la visibilité des options de gestion des réponses – pour choisir qui peut interagir avec ses publications – annonce-t-il une responsabilisation accrue des utilisateurs, ou bien une complexification de leur parcours sur la plateforme ?
Alors que Bluesky franchit le cap des 40 millions d’utilisateurs et ajuste sa feuille de route en pleine phase d’expansion, une question centrale demeure : la combinaison de l’autonomie des membres, de l’intelligence algorithmique et d’un contrôle fin de l’interaction suffira-t-elle à bâtir un réseau social réellement plus sain et pertinent ?
Source : Techcrunch




