Una mujer de Texas está demandando a Tesla por más de $1 millón después de que su Cybertruck, funcionando en piloto automático, intentó salirse de un paso elevado de Houston y se estrelló contra una barrera de concreto. La demanda incluye una acusación inusualmente precisa: que Tesla fue negligente al contratar y retener a Elon Musk como director ejecutivo.
El caso, presentado en el Tribunal de Distrito del Condado de Harris, se suma a lo que se ha convertido en una avalancha de consecuencias legales vinculadas a los reclamos de «conducción autónoma» de Tesla, y se produce pocas semanas después de que un juez federal confirmó un veredicto histórico de 243 millones de dólares contra el fabricante de automóviles en un caso separado de accidente de piloto automático.
el accidente
Según el expediente judicial revisado por electrekla demandante Justine Saint Amour compró un Cybertruck usado con el paquete “Full Self-Driving” (FSD) de Tesla en un concesionario de Florida en febrero de 2025.
El 18 de agosto de 2025, Saint Amour conducía el Cybertruck por la autopista 69 Eastex en Houston con el FSD comprometido. Cuando el vehículo se acercó a un paso elevado en forma de Y cerca de 256 Eastex Park and Ride, el Cybertruck debería haber seguido la curva hacia la derecha. En cambio, según la petición, el vehículo intentó conducir en línea recta, directamente hacia una barrera de concreto en el borde del paso elevado, con la autopista debajo.
Saint Amour desactivó el sistema de asistencia al conductor y agarró el volante, pero ya era demasiado tarde para evitar la colisión.
Las acusaciones contra Musk
Si bien las reclamaciones por negligencia y responsabilidad del producto son habituales en las demandas por piloto automático de Tesla, este caso va más allá que la mayoría. Entre las 16 acusaciones específicas de conducta negligente, la petición acusa a Tesla de “contratar y retener negligentemente a Elon Musk como director ejecutivo y permitirle participar en las decisiones de diseño de productos”.
La presentación también alega que Tesla fue negligente al “permitir que Elon Musk anulara las preocupaciones de los ingenieros de Tesla”. En concreto, la denuncia afirma que los ingenieros de Tesla recomendaron incorporar en sus vehículos sensores de radar y LiDAR, el sistema basado en láser utilizado por competidores como Waymo, para mejorar la seguridad de su sistema de asistencia al conductor. Musk rechazó la recomendación a favor de depender únicamente de las cámaras, una decisión que ha definido y limitado el enfoque de Tesla hacia la autonomía durante años.
La petición describe a Musk como “un vendedor agresivo e irresponsable, que tiene un largo historial de tomar decisiones de diseño peligrosas y prometer demasiado las características de sus productos”.
Defecto de diseño y afirmaciones de marketing engañosas
Más allá de la negligencia, la demanda presenta reclamaciones de responsabilidad estricta por defectos de diseño y defectos de comercialización. La denuncia alega que el Cybertruck y sus características FSD eran «defectuosos e irrazonablemente peligrosos» debido a la falta de un sistema de monitoreo del conductor adecuado, la ausencia de LiDAR, el frenado automático de emergencia (AEB) ineficaz y la comercialización engañosa del sistema como «autónomo».
La presentación hace referencia a los cinco niveles de automatización de conducción de la SAE, señalando que el sistema de Tesla opera en el Nivel 2, lo que requiere supervisión constante del conductor, mientras que Mercedes-Benz ofrece un sistema certificado de Nivel 3 que en realidad informa a los conductores cuando deben tomar el control. Tesla comercializa su sistema como “conducción totalmente autónoma”, un nombre que, según el demandante, crea una impresión falsa y peligrosa.
Esto sigue lo que un juez de California dictaminó en diciembre de 2025, que el marketing FSD de Tesla es «en realidad, inequívocamente falso y contrafactual».
La demanda también acusa a Tesla de utilizar acuerdos de confidencialidad para evitar que los conductores compartan información sobre el desempeño de FSD, haciendo referencia a la preocupación de la NHTSA de que tales prácticas afecten negativamente su capacidad para investigar problemas de seguridad.
Una creciente ola legal
El caso llega en un momento particularmente difícil para el programa de “conducción autónoma” de Tesla. La NHTSA está investigando 2,88 millones de vehículos Tesla equipados con FSD después de conectar 58 incidentes al sistema, incluidos choques en los que el FSD dirigió a los vehículos hacia carriles opuestos y a través de intersecciones de solo giro. Tesla ha tenido dificultades para cumplir con la investigación y solicitó múltiples extensiones de plazo para entregar datos sobre accidentes.
Mientras tanto, el programa Robotaxi de Tesla en Austin ha producido accidentes a aproximadamente cuatro veces la tasa humana, y continúan apareciendo videos virales que muestran a FSD conduciendo a través de barreras de cruce de ferrocarril e intentando dirigirse hacia lagos.
El demandante solicita daños monetarios que excedan el millón de dólares, además de daños ejemplares (punitivos) según la ley de Texas. El caso está a cargo de Hilliard Law, una firma con sede en Corpus Christi.
La opinión de Electrek
La acusación de “retención negligente de Elon Musk” es legalmente inusual, pero llega a algo sobre lo que hemos estado informando durante años: la toma de decisiones personales de Musk ha moldeado directamente las limitaciones técnicas del sistema de asistencia al conductor de Tesla y ha creado una responsabilidad significativa para Tesla.
Su rechazo al LiDAR, sus repetidas falsas promesas de lograr una autonomía total “para el próximo año” y su insistencia en comercializar un sistema de nivel 2 como “conducción totalmente autónoma” están bien documentados.
Esta demanda es una más de una serie creciente, y el panorama legal ha cambiado dramáticamente contra Tesla durante el año pasado. El veredicto de 243 millones de dólares, el fallo sobre publicidad falsa de California, las investigaciones de la NHTSA, el patrón es claro. Tesla construyó su narrativa de conducción autónoma sobre la base de exageraciones de marketing que su tecnología no podía respaldar, y las consecuencias ahora están llegando a los tribunales de todo el país.

















