Que se passe-t-il quand la technologie autonome censée garantir notre sécurité devient elle-même une source d’inquiétude ? Depuis le début de l’année scolaire, les robotaxis de Waymo ont été signalés pour avoir, à 19 reprises, dépassé illégalement des bus scolaires arrêtés à Austin. Face à ces incidents, l’agence fédérale américaine NHTSA exige aujourd’hui que l’entreprise fournisse des explications et des données détaillées sur le fonctionnement de son système de conduite autonome. Mais comment des véhicules présentés comme plus sûrs que ceux conduits par l’homme en viennent-ils à bafouer une règle aussi élémentaire de sécurité routière ?
Cette affaire pose une question brûlante : où tracer la limite entre innovation et prudence ? Après la diffusion d’une vidéo montrant un robotaxi Waymo contournant un bus scolaire arrêté – stop déployé et feux clignotants allumés – tandis que des enfants descendaient, l’alerte a été donnée. Pourtant, Waymo avait alors expliqué que le bus bloquait partiellement l’allée d’accès et soutenait que son véhicule n’avait pas détecté les signaux lumineux. Comment ce type d’aveuglement technologique demeure-t-il possible malgré des capteurs toujours plus sophistiqués ?
Suite à l’incident, Waymo a déployé une mise à jour logicielle censée empêcher que la situation se reproduise. Cependant, le district scolaire d’Austin rapporte que cinq des 19 violations ont eu lieu après ce correctif, ce qui remet en cause l’efficacité de la solution. Les responsables scolaires s’insurgent : jusqu’où attendre des progrès logiciels au détriment de la sécurité des élèves ?
Les promesses de l’IA ne sauraient primer sur la sécurité de nos enfants.
De son côté, Waymo se retranche derrière ses statistiques : l’entreprise met en avant une diminution de cinq fois les accidents avec blessures par rapport à des conducteurs humains, et des collisions impliquant des piétons douze fois moins fréquentes. Mais ces chiffres suffisent-ils à apaiser l’angoisse de parents et de responsables éducatifs quand des élèves se retrouvent exposés ? La confiance dans l’intelligence artificielle suffit-elle à se substituer à la vigilance humaine ?
Face à l’inquiétude persistante, l’Austin School District exige l’arrêt des robotaxis Waymo aux heures d’entrée et de sortie des classes, le temps qu’une solution vraiment efficace soit trouvée. La lettre envoyée à Waymo le 20 novembre est sans équivoque : “Vos mises à jour logicielles sont manifestement insuffisantes et tardent à résoudre le problème. Nous ne pouvons pas exposer nos élèves pendant que vous cherchez un correctif.” Dans ce contexte, la NHTSA veut savoir si Waymo a respecté cette demande, si le nouveau logiciel suffit pour lever la menace et, question brûlante, si un rappel officiel de la flotte pourrait être envisagé.
Jusqu’où doit-on pousser l’expérimentation et le déploiement public de technologies autonomes quand même les meilleures intentions se heurtent à la réalité – celle de vies d’enfants, celle de la responsabilité collective ? À l’heure où la voiture autonome promet un avenir plus sûr, se pourrait-il que notre confiance, elle, ait besoin d’une bonne mise à jour ?
Source : Techcrunch




