ACCUEIL > QUESTION D'ACTU > Voiture autonome : l’Autopilot hors de cause dans l’accident mortel

Voiture Tesla

Voiture autonome : l’Autopilot hors de cause dans l’accident mortel

Par la rédaction

Le système Autopilot a été mis hors de cause, après l’accident mortel qui a impliqué une voiture semi-autonome. Les conducteurs doivent rester vigilants.

tinx/epictura

Le 7 mai 2016, un homme d’une quarantaine d’années se tuait au volant d’une voiture autonome dans une collision avec un camion, sur une voie rapide de Floride. L’automobile était alors pilotée automatiquement, grâce au système de conduite assistée Autopilot.

Six mois plus tard, l’enquête est achevée ; elle a été classée sans suite et dédouane le système d'aide à la conduite installé dans les voitures (Modèlel S et Modèle X) commercialisées par Tesla.

"Aucun défaut de logiciel"

« L'enquête n'a pas trouvé de défaut au logiciel. Il n'y a pas de preuve qu'il y a un défaut », a déclaré jeudi Bryan Thomas, porte-parole de NHTSA (National Highway Traffic Safety Administration), lors d'une conférence téléphonique, cité par l’AFP.

Dans son rapport, l'agence de la sécurité routière américaine insiste ainsi sur le fait que ses enquêteurs « n'ont pas identifié de défaut, ni sur la conception, ni dans la performance des systèmes de freinage d'urgence d'Autopilot, ni d'incidents au cours desquels ces systèmes n'ont pas fonctionné correctement ».

« Facteurs humains »

L’accident serait lié à un « nombre de facteurs humains », précise le rapport. Dans un premier bilan daté de juin 2016, la NHTSA avait évoqué plusieurs circonstances. « De ce que nous savons, le véhicule se trouvait sur une route à chaussées séparées avec l'Autopilot activé quand un semi-remorque est passé sur la route, perpendiculairement à la voiture Model S. Ni le pilote automatique, ni le conducteur n'ont remarqué le flanc blanc de la remorque du semi-remorque face à un ciel très lumineux, de sorte que les freins n'ont pas été actionnés ».

C’est cette piste qui semble donc confortée. Selon le dernier rapport, « le poids lourd aurait dû être vu par le conducteur de la Tesla au moins sept secondes avant le choc ». Le conducteur aurait ainsi dû lui-même freiner. Les autorités ne précisent pas la raison de sa distraction, mais un témoin avait à l'époque affirmé à l'agence AP que le conducteur était en train de regarder un DVD de Harry Potter au moment de l'accident.

Des voitures pas si autonomes

C’est d’ailleurs là toute l’ambiguïté de ce système de pilotage automatique, qui a vocation à assister le conducteur plutôt qu’à se substituer à lui. Si elle met hors de cause le logiciel, la NHTSA se dit ainsi préoccupée par l'usage du mot « Autopilot dans les brochures marketing et de communication » déployées par l'ensemble de l'industrie automobile pour vanter les prouesses technologiques.

Cette appellation « donne une fausse idée aux conducteurs sur les capacités de la voiture », prévient la NHTSA, qui indique avoir découvert au cours de son enquête sur les voitures Tesla que le système d'aide à la conduite interne « exige une attention totale du conducteur ». « Un conducteur ne devrait jamais attendre que s'opère le freinage automatique lorsqu'il perçoit un risque de collision », met-elle en garde.

Tesla a procédé en septembre à une amélioration d'Autopilot, davantage basée sur l'utilisation de radars et capable de fonctionner à travers la pluie, le brouillard et la neige.

Mais « cela ne signifie pas qu'il n'y a pas de défaut relatif à la sécurité », prévient la NHTSA, qui affirme que les enquêtes sur les incidents impliquant les voitures équipées de fonctions semi-autonomes ont montré que les conducteurs étaient « confus » sur le rôle qu’ils devaient occuper au volant.