Tesla a dissimulé des données et induit la police en erreur pour éviter d'assumer la responsabilité d'un accident d'Autopilot
(electrek.co)- Tesla a tenté, dans un accident lié à l'Autopilot, d'éluder sa responsabilité en dissimulant des données essentielles et en faisant de fausses déclarations
- Peu après l'accident, elle a caché les données de « snapshot de collision » téléchargées du véhicule vers le serveur et a soutenu auprès de la police et du demandeur qu'elles n'existaient pas
- Tout au long des procédures judiciaires et d'enquête, Tesla a poursuivi une stratégie de fourniture d'informations délibérément inexactes aux demandes de données et de déformation de preuves clés
- Grâce à l'analyse d'experts forensiques externes et aux mesures coercitives du tribunal, les données dissimulées ont finalement été rendues publiques, et l'analyse interne de Tesla a également confirmé le fonctionnement de l'Autopilot
- Le jury a attribué 33 % de la responsabilité de l'accident à Tesla, et il a été établi que le geofencing et la surveillance insuffisante du conducteur de l'Autopilot ont été l'un des facteurs ayant empêché la prévention de l'accident
Introduction
Les détails complets d'une affaire dans laquelle Tesla a dissimulé des données et induit en erreur, pendant plusieurs années, la police, le tribunal et le demandeur après un accident mortel de voiture lié à l'Autopilot en 2019 ont été rendus publics par les pièces du procès. Ce résumé présente, de manière chronologique, le processus d'effacement et de manipulation des preuves orchestré par Tesla après l'accident et ses conséquences.
Accident et dissimulation des données
1 | 25 avril 2019 – Survenue de l'accident et upload immédiat des données
- Dans les 3 minutes suivant l'accident, les données de la vidéo des capteurs du véhicule, du bus CAN, de l'EDR, etc. ont été transmises au serveur dans le fichier « snapshot_collision_airbag-deployment.tar »
- Une copie locale du véhicule a été supprimée ; en pratique, ces données n'étaient accessibles qu'à Tesla
- Un ingénieur d'analyse forensique a confirmé l'existence de ces données en analysant l'ordinateur embarqué du véhicule
- Tesla a déposé une fausse réponse aux demandes de preuve légales en affirmant que ces données n'existaient pas
2 | 23 mai 2019 – L'avocat de Tesla pousse à la rédaction directe d'une demande officielle de la police
- Le sergent Riso des routes de Floride a demandé à Tesla les données de collision
- En dictant directement le contenu d'un document officiel, l'avocat de Tesla a exclu les véritables données de collision (en ne fournissant que des données secondaires, comme des logs de divertissement)
- Bien que Tesla disposât déjà de ces données, elle a caché ce fait à la police et au demandeur
3 | Juin 2019 – Un processus d'extraction de données à la coopération douteuse
- La police a saisi directement l'ECU et le MCU de l'Autopilot du véhicule
- Tesla a tenté d'extraire les données dans un centre de service ; pourtant un technicien interne a déclaré qu'il n'était pas familier avec la procédure et a invoqué une « altération des données »
- Par la suite, un ingénieur forensique a réussi à accéder aux données depuis cet ordinateur, prouvant qu'elles existaient réellement
4 | 2019–2024 – Dissimulation et mensonges répétés concernant les données
- Pendant plusieurs années, malgré le fait que Tesla avait déjà récupéré les données, elle a systématiquement soutenu, face aux demandes de la police et du tribunal, qu'elles étaient absentes ou endommagées
- Elle a avancé l'argument de l'existence d'une fonction de suppression automatique des données
- Les données n'ont été partiellement admises qu'après leur existence confirmée par des preuves forensiques ou par la contrainte judiciaire
5 | Fin 2024 – Extraction forcée des données par le tribunal
- Par ordre du tribunal, l'expert du demandeur a réalisé l'image complète de la mémoire NAND flash de l'ECU Autopilot
- Une tâche que Tesla prétendait impossible a été effectuée avec succès par un expert externe, avec récupération complète des données
6 | Février–mars 2025 – Preuves décisives obtenues via l'analyse forensique
- Ont été récupérées des métadonnées clés du nom de fichier « snapshot_collision_airbag-deployment.tar », des checksums et des chemins serveur
- Contrairement aux données précédemment fournies par Tesla, celles-ci comprenaient de nombreux journaux décisifs, notamment le fonctionnement de l'Autopilot juste avant et après la collision, les signaux d'alerte, ainsi que les données de carte/vision
- Bien que le drapeau cartographique indiquait cette zone comme une « restriced Autosteer zone », l'Autopilot a continué de fonctionner sans désembulement ni alerte
7 | Mai 2025 – Tesla se retrouve acculé par la production des logs serveur et des preuves
- La partie demanderesse a confirmé, via la convocation des logs AWS, que le fichier avait été stocké sur le serveur dès le 25 avril 2019 à 18:16 (PDT)
- L'analyse interne de Tesla a clairement confirmé l'utilisation de ce fichier, le fonctionnement de l'Autopilot et que le conducteur avait retiré les mains du volant
- Aucune donnée n'a été fournie ni à la police ni à la famille de la victime
8 | Juillet 2025 – Examen du verdict du jury
- Le jury a constaté la publication des données d'accident et la tentative systématique de dissimulation de Tesla
- Contenu réel des données : Autopilot/Autosteer pleinement opérationnels, aucune intervention manuelle du conducteur
- Aucune alerte ; le système a réagi de manière insuffisante à l'entrée en zone restreinte (Autopilot activé sur une route hors zone conçue pour les autoroutes)
- Le NTSB avait déjà recommandé à Tesla de renforcer le geofencing et la surveillance du conducteur pour prévenir les usages abusifs du système
- La négligence du conducteur était la cause directe, mais le jury a attribué à Tesla une part minimale de responsabilité (33 %) en raison de failles systémiques
Commentaire d'Electrek
- Les critiques minimisent ce cas comme une demande d'indemnisation indue de la part du demandeur, tandis que du point de vue des familles, il met en avant la légitimité de faire la lumière sur les faits et d'éviter la répétition
- La responsabilité directe incombe au conducteur, mais Tesla partage une partie importante des responsabilités en raison de l'absence de limitations suffisantes d'utilisation de l'Autopilot, du manque d'alertes de danger et de la tentative de se défausser de ses responsabilités
- Après examen de toutes les preuves, les 12 jurés ont attribué 33 % de la responsabilité à Tesla, ce qui peut être considéré comme une décision équitable
- Cette décision de jurisprudence confirme l'importance de la confiance dans les systèmes Autopilot, de la transparence des données et de la clarification des responsabilités
Aucun commentaire pour le moment.