Raffi Krikorian, ancien responsable du programme de conduite autonome d’Uber, a vécu une expérience inattendue au volant de sa Tesla Model X équipée du système Full Self-Driving (FSD). Son incident met en lumière les limites de cette technologie, pourtant présentée comme quasi autonome par le constructeur américain. Selon nos confrères de Frandroid, il alerte désormais sur les risques liés à un système « trop parfait » sur le papier, mais dont l’usage réel révèle des failles imprévisibles.
Ce qu'il faut retenir
- Raffi Krikorian, ex-directeur du programme autonome d’Uber, a été impliqué dans un incident au volant d’une Tesla Model X équipée du FSD.
- Son expérience illustre les dangers d’un système de conduite autonome perçu comme infaillible, mais dont les réactions en situation réelle peuvent surprendre le conducteur.
- L’accident survient dans un contexte où Tesla continue de promouvoir le FSD comme une solution quasi mature, malgré les critiques persistantes sur sa fiabilité.
- Ce cas rappelle les défis technologiques et psychologiques posés par l’automatisation avancée, notamment en matière d’adaptation du cerveau humain à ces nouvelles contraintes.
Un incident révélateur des limites du FSD
L’ancien responsable d’Uber a partagé son expérience dans un billet publié en ligne, décrivant une situation où le système de Tesla a réagi de manière inattendue. « Le FSD m’a pris de court, et j’ai dû reprendre le contrôle en urgence », a-t-il déclaré. Selon lui, la perfection affichée par Tesla dans ses démonstrations ne reflète pas toujours la réalité des usages quotidiens. Frandroid rapporte que Krikorian, bien que familier des technologies autonomes, a été surpris par la rapidité des décisions du système, parfois difficiles à anticiper pour un humain.
Cet incident s’ajoute à une série de critiques adressées au FSD, notamment sur sa capacité à gérer des situations complexes ou à réagir face à des comportements imprévisibles d’autres usagers de la route. Tesla, de son côté, continue de vanter les performances de son système, tout en insistant sur son statut de « bêta » — un argument souvent contesté par les experts.
Un cerveau humain mal préparé à l’automatisation poussée
Le principal enseignement de cet accident réside dans l’inadéquation entre la perception humaine et les capacités réelles du FSD. Raffi Krikorian souligne que « notre cerveau n’est pas conçu pour suivre des processus algorithmiques en temps réel ». Cette affirmation rejoint les conclusions de plusieurs études sur la psychologie de la conduite autonome, qui mettent en garde contre une confiance excessive dans ces systèmes.
Les constructeurs automobiles, Tesla en tête, misent sur une automatisation croissante pour réduire les erreurs humaines — responsables de la majorité des accidents. Pourtant, comme le note Krikorian, « un système trop parfait peut induire une fausse impression de sécurité ». Les conducteurs, habitués à des réactions « humaines » de la part des véhicules, peuvent se retrouver désorientés face à des décisions logicielles incompréhensibles.
Tesla face à ses promesses et ses limites
Tesla reste le pionnier des systèmes de conduite avancée grand public, avec plus de 400 000 véhicules équipés du FSD en circulation dans le monde. La société, dirigée par Elon Musk, présente régulièrement des démonstrations spectaculaires de son logiciel, alimentant l’idée d’une autonomie totale à portée de main. Pourtant, les régulateurs et les associations de consommateurs réclament des évaluations indépendantes plus strictes.
En Europe, où les normes sont particulièrement exigeantes, le FSD n’est pas autorisé en l’état actuel. Aux États-Unis, Tesla a obtenu une certification partielle, mais les accidents impliquant son système — comme celui de Krikorian — pourraient relancer les débats sur sa légitimité. Frandroid indique que plusieurs plaintes ont déjà été déposées contre Tesla pour des dysfonctionnements présumés du FSD, bien que le constructeur n’ait pas encore réagi publiquement à cet incident précis.
Cet incident rappelle une évidence : l’innovation technologique ne peut ignorer la dimension humaine. Tant que le cerveau des conducteurs ne sera pas « programmé » pour comprendre et anticiper les décisions d’une intelligence artificielle, le rêve d’une autonomie totale restera un chantier en construction.
Le Full Self-Driving (FSD) de Tesla est un système avancé d’aide à la conduite, conçu pour gérer des situations complexes comme les ronds-points, les changements de voie ou les intersections. Contrairement à une autonomie niveau 5 (conduite totalement autonome), le FSD nécessite une supervision constante du conducteur, qui doit rester prêt à reprendre le contrôle à tout moment. Tesla insiste sur le fait que cette technologie est encore en phase de test (bêta), bien que commercialisée.
