2 points par GN⁺ 9 일 전 | 1 commentaires | Partager sur WhatsApp
  • Des données internes divulguées révèlent que Tesla a poursuivi les essais sur route ouverte tout en connaissant des milliers de rapports d’accidents graves et de défauts liés à ses fonctions de conduite autonome
  • Plus de 2 400 plaintes pour accélération soudaine et plus de 1 000 accidents liés à Autopilot ont été recensés, et de nombreux cas étaient marqués comme non résolus
  • Certains véhicules ont présenté des accélérations et freinages brusques sans raison, et une mauvaise interprétation de l’environnement peut conduire à des collisions mortelles à grande vitesse
  • Dans un procès lié à un accident mortel, des données supprimées du véhicule ont été récupérées, confirmant que la voiture avait détecté l’obstacle au moment de l’accident, mais n’avait effectué aucune manœuvre d’évitement et n’avait émis qu’une alerte sonore juste avant l’impact
  • Un jury américain a ordonné à Tesla de verser plus de 243 millions de dollars de dommages et intérêts, tandis que l’affaire s’est étendue à une enquête du ministère de la Justice et des autorités de sécurité routière, relançant la controverse sur la responsabilité des essais de conduite autonome sur route ouverte

Vue d’ensemble

  • Sur la base d’une fuite de données internes, de nouveaux éléments suggèrent que Tesla a poursuivi ses essais sur route ouverte tout en dissimulant des milliers de rapports d’accidents graves et de défauts liés à ses fonctions de conduite autonome
    • Selon les documents divulgués, Tesla connaissait depuis des années des défaillances critiques de son système
    • Lors du premier verdict d’un jury, Tesla a été condamnée à verser plus de 243 millions de dollars aux victimes d’un accident mortel
  • Contrairement aux promesses associées aux véhicules autonomes, cette technologie s’est transformée en cauchemar pour certains utilisateurs, et des critiques estiment que des systèmes de conduite fondés sur l’IA ont été déployés à la hâte sans validation suffisante
    • L’enquête mentionne qu’Elon Musk et Tesla ont utilisé les routes comme un terrain d’essai
  • Les conséquences des accidents graves ne touchent pas seulement les conducteurs et passagers, mais exposent aussi les autres usagers de la route à des défaillances du système sans leur consentement

Points clés des données divulguées

  • Une fuite massive de documents internes a révélé des milliers de plaintes de clients ainsi que de nombreux enregistrements d’accidents
    • Plus de 2 400 plaintes liées à des accélérations soudaines
    • Plus de 1 000 accidents liés à Autopilot
  • Dans de nombreux cas, le suivi de l’incident était marqué comme « non résolu »
  • L’ensemble des documents montre que Tesla avait conscience de l’ampleur des défaillances du système

Des « hallucinations » mortelles sur la route

  • Certains véhicules Tesla ont été signalés pour des accélérations brusques et des freinages brusques sans raison apparente
    • L’article qualifie ces dysfonctionnements de l’IA d’« hallucinations »
    • Par analogie avec le phénomène où ChatGPT produit une réponse totalement erronée
  • Le système de conduite autonome peut mal interpréter son environnement, et à grande vitesse, ce type d’erreur peut avoir des conséquences mortelles
  • Les défauts d’Autopilot ne représentent pas un danger uniquement pour les utilisateurs de Tesla, mais pour tous les usagers de la route
    • Beaucoup n’ont jamais accepté de servir de cobayes aux expérimentations de Tesla, mais y sont en réalité exposés

Les recours judiciaires des victimes

  • Naibel Benavides est morte dans un accident impliquant une Tesla en mode Autopilot
    • Elle était alors piétonne
  • Dillon Angulo a survécu au même accident, mais a été grièvement blessé et continue de subir les séquelles
    • Il déclare notamment : « Je ne savais même pas qu’Autopilot existait, et quand je l’ai appris, je me suis senti comme un rat de laboratoire. »
  • Les proches des victimes ont intenté une action en justice contre Tesla
    • Ils affirment que Tesla a dissimulé des informations essentielles
    • Tesla a constamment soutenu que la responsabilité incombait au conducteur

Des données d’accident présentées comme endommagées

  • Au cours de l’enquête sur l’accident, il était nécessaire d’obtenir les données de boîte noire du véhicule, mais Tesla a affirmé qu’elles étaient endommagées
  • Les avocats des victimes, avec l’aide d’experts, ont réussi à récupérer les données supprimées
    • D’après les informations restaurées, Tesla connaissait déjà la défaillance dès le soir même de l’accident
  • Au moment de l’accident, le véhicule avait bien détecté l’obstacle, mais n’a exécuté aucune manœuvre d’évitement
    • Seule une alerte sonore a retenti juste avant la collision

Un verdict historique

  • Un jury américain a condamné Tesla à verser plus de 243 millions de dollars de dommages et intérêts
  • Ce jugement est présenté comme la première décision majeure dans une affaire liée à Autopilot
    • Le jury a estimé que Tesla comme le conducteur portaient une part de responsabilité
  • L’avocat des victimes a qualifié cette décision de journée historique pour la justice
    • Il a déclaré que ce verdict montrait qu’un constructeur ne peut pas utiliser les routes publiques comme son laboratoire
  • Tesla a tenté de faire annuler le verdict, mais fin février, un juge fédéral a maintenu les sanctions
    • L’entreprise peut toujours faire appel

L’élargissement des enquêtes aux États-Unis

  • Tesla fait l’objet de plusieurs enquêtes aux États-Unis
    • Le ministère de la Justice enquête sur une possible tromperie des consommateurs
    • Les autorités de sécurité routière mènent également une enquête distincte
  • Des lanceurs d’alerte ont témoigné auprès des autorités en affirmant que l’entreprise a privilégié la vitesse à la sécurité
  • Leurs déclarations indiquent que des fonctions de conduite autonome en version d’essai ont été lancées prématurément sur le marché, et que plusieurs employés avaient averti la direction des risques d’Autopilot
  • Des experts estiment que ce premier verdict pourrait ouvrir la voie à d’autres poursuites
    • Il est présenté comme une décision susceptible d’ouvrir la voie à de nouveaux procès contre Tesla

1 commentaires

 
GN⁺ 9 일 전
Commentaires Hacker News
  • Il a trouvé vraiment choquant qu’il y ait des indices montrant que Tesla désactivait Autopilot quelques secondes avant l’impact pour éviter qu’il soit enregistré comme actif au moment de l’accident. Il a vu cela dans l’article de Futurism

    • Du coup, cela lui enlève aussi toute envie d’utiliser facilement ce genre de système d’assistance à la conduite. Ne sachant pas à quel moment il pourrait devoir reprendre soudainement la main, il a le sentiment qu’il vaut mieux garder le contrôle lui-même du début à la fin
    • Pour être juste, l’article disait que la fonction de conduite autonome avait cessé de contrôler le véhicule moins d’une seconde avant le premier impact. À ses yeux, il est naturel qu’un système abandonne immédiatement le contrôle dans une situation qu’il ne sait pas gérer. En revanche, si des preuves montrent que Tesla a activement utilisé cela pour se défausser de sa responsabilité dans l’accident, il serait prêt à changer d’avis. Personnellement, il trouve qu’un seuil d’environ 5 secondes serait plus raisonnable
    • Cela semble entrer en conflit avec les conclusions de l’enquête de la NHTSA, mais Tesla explique sur sa page de sécurité FSD que si le FSD était actif dans les 5 secondes précédant une collision, l’accident est comptabilisé comme un accident impliquant le FSD dans ses statistiques. En théorie, cela semble largement couvrir un temps de perception-réaction habituel de 1 à 1,5 seconde, mais en pratique le processus de disengagement par lequel le système rend le contrôle au conducteur peut lui-même modifier ce temps de réaction. Si le conducteur s’habitue à laisser la voiture gérer le freinage et la direction, il ne s’agit plus seulement de répondre à un stimulus simple : il faut aussi ramener son attention, repasser en contrôle manuel complet, puis réagir, ce qui peut prendre plus de temps. En plus, on peut se demander si appuyer sur le frein ou tourner le volant constitue vraiment un signal conscient de reprise du contrôle. Cela peut aussi être un geste réflexe
    • C’est connu depuis un moment, et il comprend cela non pas comme une tentative d’éviter l’enregistrement en mode actif, mais comme un choix de sécurité destiné à empêcher l’ordinateur de continuer à piloter un véhicule potentiellement endommagé après une collision. Si la voiture s’est retournée ou a subi de lourds dégâts, AP ou FSD n’ont peut-être pas été entraînés pour ce type de situation, et si les roues continuent à tourner dans cet état, cela peut représenter un danger supplémentaire pour les occupants ou les secours. À sa connaissance, l’AEB peut continuer à aider au freinage, mais il est plus sûr de désactiver l’auto-steer et le cruise control. De mémoire, le seuil de désactivation était d’environ 1 seconde
  • Il estime que Tesla a un très mauvais passif en matière de conformité réglementaire et de transparence concernant les accidents de conduite autonome

    • Cela dit, l’article lui-même semblait manquer de chiffres concrets au regard de l’importance de ses affirmations. Indépendamment des cas individuels tragiques, l’ensemble du récit lui a paru trop vague, ce qui affaiblissait au contraire la force de persuasion de l’argument
  • Cet article existait aussi en version allemande. On peut aussi consulter l’article en allemand de la SRF

    • La SRF étant le service public suisse de radio-télévision, il pense qu’elle propose probablement des contenus similaires dans quatre langues ou plus
  • Ce reportage parlait de l’ancien Autopilot, pas du FSD, et il ne semble pas contenir grand-chose de nouveau. Il paraît s’appuyer sur les mêmes données divulguées qui étaient déjà publiques depuis 2023. Le titre lui semblait également inexact, et il n’a trouvé dans l’article aucune preuve directe que Tesla aurait caché un accident mortel

    • Encore un titre racoleur faux ou exagéré à propos d’Elon ou d’une entreprise appartenant à Elon, ce qui ne le surprend même plus
  • Il voulait ajouter un peu de contexte sur la vidéo et l’article. Ce documentaire a été produit par le média public suisse RTS et, à la différence de l’image qu’on peut parfois avoir de l’ensemble des médias publics européens, il le considère comme relativement bien financé et de bonne qualité. Son indépendance éditoriale et sa neutralité lui semblent globalement correctes, avec une légère sensibilité de gauche. Si la vidéo est en français, c’est parce que les médias suisses sont structurés par régions linguistiques, et c’est aussi ce qui explique l’existence d’une traduction allemande. Si quelqu’un veut suggérer des sous-titres anglais, il pense que cela vaut la peine de contacter directement la RTS

    • Cela dit, cette explication donnait presque l’impression que les médias publics européens seraient généralement peu fiables. Il se demandait pourquoi. La liste des pays européens disposant d’un audiovisuel public de grande qualité est si longue que cette généralisation lui a paru étrange
  • Il se demandait si, au fond, ces accidents relevaient aussi de l’inattention du conducteur

    • Il pense que oui. Mais selon lui, l’enjeu central est que la nature même du FSD peut inciter le conducteur à relâcher son attention
  • Lui non plus n’aime pas particulièrement Tesla et estime que l’entreprise est très surestimée et survendue, mais cet article lui a franchement paru être un article bâclé. Le titre annonçait « la façon dont Tesla a caché des accidents pour tester Autopilot », mais le corps du texte n’expliquait ni ce qui aurait été caché, ni comment, ni à qui. Il mélangeait la fuite de données Tesla de 2022 et une autre procédure judiciaire prévue pour 2026 sans montrer le lien entre les deux. Il pense bien qu’il existe un schéma récurrent de promesses trompeuses et de divulgation insuffisante chez Tesla, mais cet article ne parvenait pas à l’établir correctement

    • Même impression pour lui. Il voyait cela plus souvent encore sur les sujets liés à Musk. Il y a largement assez de matière à critique, mais si le journalisme d’investigation veut regagner le respect du public, il vaudrait mieux avancer moins d’accusations mais les étayer avec des affirmations et des preuves concrètes, plutôt que de multiplier les soupçons vagues. Une approche floue peut être plus efficace pour influencer l’opinion, mais c’est aussi, selon lui, un mécanisme dangereux qui n’a pas besoin d’être cohérent avec la vérité
    • Après avoir vu ce commentaire, il est allé lire l’article lui-même et a lui aussi trouvé qu’il n’y avait pas grand-chose dedans. En revanche, il ne comprenait pas bien pourquoi cet avis recevait des downvotes. Pour référence, lui non plus n’est pas fan de Tesla, et il trouve ce camion vraiment mauvais
  • Si vous voulez voir la vidéo complète, vous pouvez regarder le reportage complet de la RTS

  • Si vous êtes plus à l’aise en allemand, vous pouvez lire l’article allemand qui reprend le même contenu