La cuenta oficial de Tesla Norteamérica en X promovió una entrevista en video de un nuevo propietario de Cybertruck que dice que su oftalmólogo le recomendó comprar un Tesla con “conducción totalmente autónoma” porque está perdiendo la vista.
El problema es que la propia Tesla clasifica el FSD como un sistema de asistencia al conductor de nivel 2 que requiere supervisión del conductor en todo momento, y el conductor es responsable del vehículo en todo momento. Esas dos cosas son fundamentalmente incompatibles.
Tesla North America volvió a publicar un vídeo de un creador de contenido conocido como Capitán Eli, quien se describe a sí mismo como un “inversor de Tesla que apoya a Elon Musk”. En este clip en particular, un comprador de Cybertruck llamado Ricky explica que el deterioro de su vista es lo que lo llevó a Tesla.
Ricky dice que acudió a su oftalmólogo para analizar su capacidad para seguir conduciendo. Según Ricky, el médico, propietario de dos Tesla, le dijo que necesitaba un coche con el software «Full Self-Driving» de Tesla. Luego, el oftalmólogo organizó una prueba de manejo para Ricky e incluso se reunió con él un sábado para guiarlo a través del sistema.
Durante la prueba de manejo, Ricky dice que el auto “condujo solo” durante una hora y media por tres rutas diferentes y que “nunca tocó el volante”. Esa experiencia le convenció del Cybertruck, que compró específicamente para el software FSD.
“Entonces compras un software que te cuesta una cierta cantidad de dinero, mucho dinero, y viene con el auto”, dijo Ricky al entrevistador cuando se le pidió que confirmara que había comprado el vehículo para FSD.
La decisión de Tesla North America de ampliar este testimonio en particular es lo que hace que las cosas pasen de ser preocupantes a imprudentes.
Por qué este es un problema enorme
La propia página de soporte de Tesla para “Conducción autónoma total (supervisada)” establece claramente que el sistema es un sistema de automatización parcial SAE Nivel 2. Esa clasificación significa que el conductor debe permanecer totalmente atento y comprometido con la tarea de conducir en todo momento. El conductor es responsable del vehículo, ya sea que el FSD esté habilitado o no. El sistema «no hace que el vehículo sea autónomo», según la propia documentación de Tesla.
Esto no es ambiguo. El nivel 2 significa que el ser humano es el conductor. El software es un asistente. Si el humano no puede conducir el vehículo con seguridad, digamos, porque está perdiendo la vista, entonces un sistema de Nivel 2 no resuelve ese problema. Lo empeora, porque crea la ilusión de que el automóvil está realizando tareas de conducción que legal y técnicamente siguen siendo responsabilidad del ser humano.
Hemos cubierto ampliamente cómo la FSD crea una complacencia peligrosa incluso en conductores expertos. Raffi Krikorian, CTO de Mozilla y exjefe de la división de vehículos autónomos de Uber, un hombre que literalmente construía autos sin conductor y entrenaba a conductores seguros, estrelló su Tesla Model X mientras usaba FSD porque el desempeño casi perfecto del sistema lo adormecía con una falsa sensación de seguridad. Las investigaciones muestran que los conductores necesitan de 5 a 8 segundos para volver a conectarse mentalmente después de que un sistema automatizado les devuelve el control, pero las emergencias se desarrollan más rápido de lo que permite esa ventana.
Si un exjefe de vehículos autónomos no puede mantener una supervisión adecuada, ¿qué sucede cuando alguien con una visión deteriorada está detrás del volante y confía en que FSD sea sus ojos?
Esto llega en un momento en que la NHTSA ha intensificado su investigación sobre FSD para cubrir 3,2 millones de vehículos, el paso que normalmente precede a un retiro del mercado. La agencia ya está llevando a cabo una investigación separada sobre más de 80 infracciones de tránsito de la FSD, y Tesla ha tenido dificultades incluso para entregar los datos de accidentes solicitados. El propietario de un Cybertruck ya presentó una demanda alegando que el FSD provocó un accidente. El propio director ejecutivo de Tesla ha afirmado que los conductores de FSD deberían poder enviar mensajes de texto y conducir, manteniendo al mismo tiempo el FSD clasificado como Nivel 2 para evitar responsabilidades.
El patrón es claro: Tesla comercializa el FSD como si fuera autónomo, les dice a los clientes que pueden relajarse y luego señala la clasificación de Nivel 2 como escudo legal cuando algo sale mal.
La opinión de Electrek
Apuesto todo lo que tengo a que este tweet de Tesla Norteamérica terminará como prueba en un caso judicial sobre un accidente del Tesla FSD en algún momento. El abogado del demandante lo sostendrá y dirá: «La propia cuenta oficial de Tesla promovió un testimonio de un comprador con problemas de visión que compró el vehículo específicamente porque creía que FSD podía conducir para él, y Tesla amplificó ese mensaje a millones».
Esto está alcanzando niveles realmente peligrosos. Considere la cadena de eventos que Tesla acaba de respaldar: un oftalmólogo supuestamente recomienda Tesla FSD a un paciente que está perdiendo la vista, ese paciente sigue la recomendación, compra un Cybertruck específicamente para el software, cuenta con orgullo ante la cámara que FSD condujo durante una hora y media sin tocar el volante, y la cuenta oficial de Tesla promueve esto como una historia de cliente para sentirse bien.
Todo mientras la propia documentación de Tesla dice que FSD es un sistema de asistencia al conductor de Nivel 2 que requiere un conductor totalmente atento que sea «responsable del vehículo en todo momento». Todo mientras la NHTSA lleva a cabo tres investigaciones simultáneas sobre la seguridad de FSD. Todo mientras hemos documentado cómo incluso los expertos en conducción autónoma se vuelven peligrosamente complacientes al volante de un Tesla con FSD.
Si Tesla realmente cree que la FSD es lo suficientemente segura para que una persona con problemas de visión pueda confiar en ella, entonces debería clasificar la FSD como Nivel 3 o superior y aceptar la responsabilidad que conlleva. Pero Tesla no hará eso, porque el Nivel 2 le permite mantener el marketing al alza mientras traslada todo el riesgo al conductor. Promocionar este vídeo manteniendo esa posición legal es una locura.
Es cierto que el FSD ahora puede conducir unas pocas horas, unos cientos de millas, incluso unos miles de millas sin una intervención crítica, pero eso no es ni de lejos lo que necesita para ser lo suficientemente confiable para una autonomía de nivel 4. ¿Qué sucede cuando se necesita esa intervención crítica en un par de miles de millas y el conductor no es capaz de tomar el control?
Lo peligroso ahora es que se puede ver claramente la idea generalizada de que el FSD es más que un sistema de asistencia al conductor está integrada en la comunidad de Tesla. El oftalmólogo puede conocer los ojos y ser propietario de un Tesla, pero eso no significa que tenga un buen conocimiento de las capacidades de FSD y que Tesla promueva el uso de FSD para personas que pierden la vista no está ayudando.

















