"Podría haberme matado". Un Tesla que conducía solo aterroriza a su conductor al meterse en las vías del tren. El problema no es el coche; es que el hombre no hizo nada por impedirlo

“Me dejó literalmente temblando. Y el tren venía por detrás. Podría haberme matado”, cuenta Jesse Lyu. Todo iba bien hasta que su Tesla, con el Autopilot FSD activado, confundió las vías del metro en Santa Mónica con la carretera en un giro a la izquierda.  El coche siguió por la vías del tren hasta el siguiente cruce.

Jesse Lyu, fundador de la empresa de hardware basado en inteligencia artificial Rabbit, publicó el alarmante vídeo en X el jueves y afirmó que tuvo que saltarse un semáforo en rojo para salvar su vida. El Autopilot FSD tiene fallos gordos, sí, pero el empresario tampoco hizo nada por evitarlo. Y es que el verdadero problema de este sistema, al final, somos nosotros, los conductores.

El oxímoron de Tesla: Capacidad de Conducción Autónoma Total... Supervisada

Mientras Elon Musk, CEO de Tesla, sigue promoviendo el Autopilot FSD como un sistema que conduce mejor y es más seguro que los humanos, incidentes como este siguen acumulándose. Lyu, afortunadamente, no resultó herido, pero desactivó el FSD en el siguiente cruce y, asegura, tuvo que saltarse un semáforo en rojo para evitar ser arrollado por el metro de la línea E de Los Angeles.

En esos tramos exteriores, las vías del metro discurren flanqueadas de unos bordillos de hormigón para que los coches no las invadan, salvo en los cruces, lógicamente. Es decir, una vez dentro Luy no podía salir de ahí hasta el siguiente cruce. Sin embargo, cuando vio que el coche se iba a meter en las vías del tren, tampoco corrigió la trayectoria con el volante o simplemente frenó.

Y no es que Jesse Luy sea, a priori, un manco con el volante. Asegura en su perfil de LinkedIn que compite en el campeonato Lamborghini Super Trofeo. Sin embargo, cuando el volante del Tesla giró lo suficiente como para entrar en la vía del tren, el bordillo ya estaba en su camino. Lyu cree que “nunca ha sido una buena idea” sujetar el volante del Tesla mientras gira por sí solo, porque es difícil predecir perfectamente el ángulo que tomará el coche, asegura al diario SFGate.

Así, en un sólo vídeo, se aprecia todo lo que está mal en el sistema “Autopilot FSD (Supervised)” de Tesla. Sí,la Capacidad de Conducción Autónoma Total, como se le conoce en España, tiene en su nombre oficial la palabra “supervisada” en Estados Unidos. Además de una contradicción como una catedral, es reconocer que no tiene la capacidad total que se le presupone. Recordemos que en el caso de Tesla son sistemas de conducción autónoma de nivel 2 sobre una escala de 5, y se considera conducción autónoma completa a partir del nivel 4.

De entrada, el incidente pone de manifiesto el tambaleante enfoque de Tesla respecto a la tecnología de conducción autónoma a nivel de hardware. De Mercedes a Honda pasando por los robotaxis de Waymo, todos usan una combinación de cámaras de alta definición, radares y lidares, mientras que Tesla se aferra a las cámaras.

Y lo que es peor, suelta lo que es esencialmente miles de prototipos de conducción autónoma en carretera abierta para que vayan recopilando datos y entrenando al sistema. Los conductores de estos coches son al final beta testers. Y unos probadores que no cobran por ello sino que han pagado para actuar como tal. Es un negocio redondo para Tesla.

La función Autopilot de Tesla es un control de crucero activo que mantiene el coche dentro del carril, como proponen todas las marcas o casi en el mercado. Más herramientas y funciones de navegación vienen con el paquete denominado Capacidad de Conducción Autónoma Total (Supervisada). Aquí, los conductores deben mantener las manos en el volante en todo momento cuando utilicen el sistema.

La tecnología no hace que sus coches sean autónomos, dice Tesla en repetidas ocasiones en Internet; se supone que los conductores como Lyu deben permanecer constantemente alerta. Pero, reconozcámoslo, los coches suelen moverse sin necesidad de intervención la mayoría de las veces. El problema es que el conductor debe estar atento a lo que hace su coche. Es decir, debe mantener la misma concentración y estar alerta como si condujese. Visto así, el Autopilot FSD no tiene valor añadido.

Es lo que explica la habitual grandilocuencia de Elon Musk. El pasado mes marzo, publicó que la tecnología “será sobrehumana hasta tal punto que en el futuro parecerá extraño que los humanos conduzcan coches”. Además, muchos propietarios de Tesla han conseguido seguidores en Internet probando la tecnología sin intervención humana, y Musk ha compartido los vídeos. Al final, hay que dar a entender que el cliente paga por un sistema realmente completo.

"El Autopilot ha provocado un mal uso previsible y accidentes evitables", aseguraba la NHTSA (la DGT estadounidense) el año pasado, lo que le llevó a iniciar una investigación sobre ese sistema. ¿Por qué un mal uso previsible? Sencillamente porque el principal problema del Autopilot FSD es que el conductor confíe ciegamente en el sistema, como en el caso de Jesse Lyu, y se deje llevar por el coche poniendo su vida y la de los demás en peligro.

Encuentra tu coche eléctrico ideal

Si te has planteado comprar un coche eléctrico, esto te va a interesar. Hemos creado el Recomendador personalizado de coches eléctricos en el que además de ver los modelos que se adaptan a tus necesidades también tendrás respuestas a las dudas que más te pueden preocupar como el precio, la autonomía o los puntos de carga cercanos.

También te puede gustar

Portada de Motorpasión

Ver todos los comentarios en https://www.motorpasion.com

VER 1 Comentario