À San Francisco, une panne électrique a suffi à figer des robotaxis pilotés par l’IA en pleine rue. Derrière l’anecdote technologique, une question dérangeante surgit : que se passe-t-il lorsque nous confions entièrement nos décisions aux machines ?
Il a suffi d’une panne de courant pour rappeler une vérité que l’enthousiasme technologique tend parfois à reléguer au second plan : une intelligence artificielle, aussi avancée soit-elle, reste dépendante d’un monde imparfait. À San Francisco, le 20 décembre, une coupure électrique massive a plongé plusieurs quartiers dans le noir. Parmi les victimes collatérales de cet incident, des véhicules autonomes se sont retrouvés brutalement incapables de remplir leur mission la plus élémentaire : avancer.
Dans plusieurs intersections privées de feux tricolores, des robotaxis se sont immobilisés, incapables de trancher entre prudence et mouvement. Résultat : des axes bloqués, des embouteillages improvisés, et surtout des passagers coincés dans des véhicules sans conducteur… ni solution immédiate. Aucun accident grave n’a été signalé. Mais l’épisode agit comme un révélateur.
Quand l’algorithme hésite, l’humain attend
Dans les scénarios de conduite autonome, les feux hors service sont assimilés à des carrefours à priorité partagée. Sur le papier, la règle est claire. Dans la réalité, elle suppose un environnement lisible, prévisible, coopératif. Or, en pleine panne générale, avec des piétons traversant librement, des automobilistes improvisant leurs propres règles et une circulation désorganisée, la machine s’est retrouvée confrontée à ce qu’elle redoute le plus : l’ambiguïté.
Face à l’incertitude, l’algorithme a choisi l’option la plus sûre… pour lui : l’immobilisme. Une décision rationnelle du point de vue logiciel, mais absurde dans une ville vivante. Là où un conducteur humain aurait avancé lentement, établi un contact visuel, pris une décision imparfaite mais adaptée, la voiture autonome a attendu. Longtemps.
La question n’est pas de savoir si la machine a eu tort, mais si elle était légitime à décider seule.
Et si des passagers étaient restés enfermés ?
Dans ce cas précis, les passagers ont pu sortir. Mais imaginons un instant un autre scénario : des portières verrouillées pour des raisons de sécurité, une panne prolongée, des passagers vulnérables (enfants, personnes âgées, malades, femmes enceintes) incapables d’intervenir. À quel moment reprend-on la main ? Qui est responsable ? Le constructeur, le logiciel, la collectivité, ou l’utilisateur qui a accepté de monter à bord ?
L’argument selon lequel « tout s’est finalement bien passé » masque une réalité plus inquiétante : nous acceptons de plus en plus facilement que des systèmes autonomes prennent des décisions critiques sans supervision humaine directe. Or, la sécurité ne se mesure pas à l’absence d’accident, mais à la capacité à gérer l’imprévu.
De la science-fiction à la rue
Le parallèle avec le cinéma vient presque naturellement. Dans Matrix, les machines ne deviennent dangereuses qu’à partir du moment où l’humanité leur délègue le contrôle total. Dans Terminator, ce n’est pas la malveillance qui déclenche le chaos, mais l’autonomie sans garde-fou. Bien sûr, personne ne parle ici d’un soulèvement des machines. Mais l’idée centrale demeure : lorsqu’un système n’a plus d’humain pour arbitrer, la logique froide remplace le discernement.
À San Francisco, les voitures électriques n’ont pas « pris le pouvoir ». Elles ont simplement montré leurs limites. Et c’est peut-être plus inquiétant encore.
Reprendre la main, sans renoncer au progrès
L’épisode pose une question fondamentale : jusqu’où sommes-nous prêts à déléguer ? L’intelligence artificielle peut assister, optimiser, sécuriser. Elle ne peut pas, et ne doit pas, être l’unique décideur dans des environnements complexes, mouvants, humains.
Cela suppose des mécanismes de reprise de contrôle clairs, immédiats, accessibles. Un bouton, un protocole, une présence humaine capable d’intervenir. Le progrès technologique n’est pas incompatible avec la prudence. Il l’exige.
Car si une panne électrique suffit à figer des voitures dans une ville parmi les plus technologiquement avancées du monde, alors la question n’est plus de savoir quand l’IA sera prête… mais si nous, humains, sommes prêts à lui confier autant.
















