El vídeo grabado por la dashcam del propietario de un Tesla Model 3 con el sistema Autopilot Full Self-Driving (FSD) activado que se libra de milagro de chocar contra un tren está generando mucha polémica en las redes sociales, después de que el propio conductor explicase que el asistente de conducción no detectó ni el paso a nivel ni al tren en movimiento, obligándole a realizar una maniobra evasiva de último momento.
Y por lo visto, no es la primera vez. “Tengo mi Tesla desde hace menos de un año, y en los últimos seis meses, ha intentado dirigirse directamente hacia un tren dos veces mientras tenía el modo FSD activado. El incidente más reciente ocurrió el 8 de mayo de 2024, y tengo imágenes de la dashcam”, explica el propietario, alias ‘cdotyii’, en un foro especializado.
La polémica está servida: ¿Irresponsabilidad del conductor o un nuevo fallo grave del Autopilot FSD?
En el foro de Teslamotorsclub.com, los usuarios (en su mayoría propietarios de un Tesla) hace años que comparten dudas, experiencias y noticias sobre sus coches eléctricos. Entre las muchas conversaciones, en los últimos días ha llamado la atención un mensaje que pide ampliar información y datos sobre incidentes relacionados con el sistema Autopilot FSD, objeto de críticas y alabanzas a partes iguales desde el principio.
En esta ocasión, tanto la polémica como las imágenes han llegado hasta la red social X de Elon Musk (antes conocida como Twitter), difundidas por otro usuario al que ha llamado la atención el caso. El vídeo grabado por la cámara de salpicadero del propietario muestra cómo el Tesla va circulando en medio de una densa niebla hacia un cruce ferroviario, al mismo tiempo que se aproxima un tren.
Cameras are good enough for FSD - Elon Musk.
— Artem Russakovskii (@ArtemR) May 19, 2024
Unless you don't want to get hit by a train.
"I have owned my Tesla for less than a year, and within the last six months, it has twice attempted to drive directly into a passing train while in FSD mode. The most recent incident… pic.twitter.com/XAQccItBYw
Todo pasa en cuestión de segundos: el FSD no parece detectar ni el paso ni ver las señales, ni mucho menos al tren, ya que el coche no reacciona y el conductor ha de intervenir rápidamente. Este acaba realizando una maniobra brusca que aparta al vehículo de la carretera, colisionando antes con la pluma del paso a nivel. Aunque el coche eléctrico sufrió daños y el conductor también, como él mismo explica, afortunadamente no hubo colisión con el tren ni víctimas graves que lamentar.
Hemos de recordar que, a pesar de que su nombre pueda generar confusión (algo a lo que no ha ayudado su publicidad engañosa en EEUU, con mensajes como que “el coche se conduce sólo” con el FSD) el Autopilot más avanzado de Tesla sólo es un sistema de asistencia a la conducción que ofrece un nivel 2 de autonomía SAE. Es decir, un control de crucero activo con mantenimiento en carril y cambio de carril (si el conductor pone el intermitente para decirle al coche que cambie de carril).
En el video, el conductor parece confiar en que el FSD reaccionaría, pero si no hubiera estado pendiente no le habría dado tiempo a reaccionar en el último segundo, librándose por los pelos de lo que podría haber sido un accidente fatal. En el momento del siniestro, el Tesla circulaba a una velocidad de entre 100 y 110 km/h y el conductor ha dicho en el foro ‘Tesla Motors Club’, que sólo sufrió heridas leves como “contusiones en el brazo derecho y dolor de espalda”, pero que no necesitó atención médica.
BREAKING: ELON MUSK SAYS $TSLA FSD CAN TRAIN BASED ON USER INTERVENTIONS 👀
— TheSonOfWalkley (@TheSonOfWalkley) May 5, 2024
Being a Tesla customer also means training the software! pic.twitter.com/FmwoBIejUG
Resulta preocupante que, en un Model 3 con una antigüedad de menos de un año, según el propietario sea “la segunda vez que le pasa”. Muchas de las respuestas que le han dado otros internautas apuntan a que este incidente es únicamente culpa suya: “Eres totalmente responsable como conductor cuando el FSD está activado”. Otro usuario apunta a que el sistema FSD debería haber detectado el cruce, “con niebla o sin ella”, pero no se explica la espera en la reacción:
“¿Cómo demonios reaccionaste tan tarde? ¿Estabas esperando a ver si paraba, o no te diste cuenta hasta el último momento?”, le pregunta. Por su parte, el conductor del Tesla Model 3 en cuestión entiende que es responsable del vehículo, pero dice que “su problema es la incapacidad del FSD para reconocer el paso del tren”.
Además remarca que “estaba atento y consciente” cuando el coche se acercaba al cruce”, pero “esperaba que el vehículo frenara ante el tren”. Pero también está recabando información sobre incidentes similares y opina que después de utilizar el sistema durante un tiempo, esperaba que funcione correctamente.
En este punto, cabe recordar que los conductores de Tesla que forman parte del programa de pruebas de la marca y reciben actualizaciones de software periódicas actúan como ingenieros de prueba no entrenados y a lo largo de los años han encontrado innumerables problemas, como que los vehículos se han llegado a dirigir hacia el tráfico en sentido contrario, saltarse semáforos e incluso hacer giros ilegales.
Este último incidente relacionado con el Autopilot FSD de Tesla subraya la importancia de mantener siempre la atención al volante, incluso cuando el coche cuenta con sistemas de conducción avanzada. La tecnología puede fallar, y la responsabilidad última siempre recae en el conductor. A medida que los sistemas de conducción autónoma continúan desarrollándose, es crucial que los conductores comprendan sus limitaciones y no confíen ciegamente en ellos.