
El propietario de una Tesla Cybertruck de Florida (EEUU), acaba de compartir una experiencia que vuelve a poner en entredicho la seguridad del sistema Autopilot ‘Full Self-Driving (FSD)’ de Tesla. Y es que, mientras confiaba en la tecnología de su pick-up eléctrica, esta realizó una maniobra errática, golpeó un bordillo y terminó chocando contra un poste de la luz sin que el sistema hiciera nada para evitarlo.
El afectado, que afortunadamente salió ileso del incidente, reconoció que no intervino a tiempo para corregir la maniobra. Sin embargo, también dejó claro que Elon Musk y la narrativa en torno a la supuesta “autonomía” del Autopilot FSD han generado una falsa sensación de seguridad entre los usuarios.
El accidente: ¿un fallo del sistema o de exceso de confianza?
El conductor de la Tesla Cybertruck accidentada, Jonathan Challinger, es un desarrollador de software de Florida que trabaja para Kraus Hamdani Aerospace. Este, tras estrellarse en su pick-up eléctrica contra un poste, relató en un post en la red social X, antes Twitter, cómo había sucedido todo. Ahora el post se está haciendo viral.
Challinger relató que circulaba con la versión 13.2.4 del FSD activada cuando su Cybertruck comenzó a cambiar de carril. “Falló al salirse de un carril que estaba terminando (no había nadie a mi izquierda) y no hizo ningún intento de frenar o girar hasta que ya había chocado contra el bordillo”, explicó.
No obstante, terminó estrellándose contra un poste. A pesar de lo sucedido, el propietario reconoce su error al confiar en exceso en la tecnología y advierte a otros conductores: “Un gran fallo por mi parte, obviamente. No cometas el mismo error que yo. Presta atención. Puede suceder”.
Soooooo my @Tesla @cybertruck crashed into a curb and then a light post on v13.2.4.
— Jonathan Challinger (@MrChallinger) February 9, 2025
Thank you @Tesla for engineering the best passive safety in the world. I walked away without a scratch.
It failed to merge out of a lane that was ending (there was no one on my left) and made… pic.twitter.com/vpT4AGz8jZ
Tesla, la conducción autónoma y las promesas de Elon Musk
Aunque Elon Musk acaba reconocer ante sus inversores ciertas lagunas de su discurso, lleva más de una década prometiendo a sus clientes y accionistas que el sistema de conducción autónoma Autopilot FSD alcanzaría el ansiado nivel de “conducción autónoma”.
De hecho, en repetidas ocasiones ha afirmado que los coches de la marca fabricados desde 2016 tendrían “el hardware necesario para ser completamente autónomos”.
No sólo seguimos esperando, sino que esa promesa y toda la publicidad engañosa que ha habido a su alrededor, ha llevado a Tesla a los tribunales en Estados Unidos en varias ocasiones. El uso del FSD, relacionado con varios accidentes fatales y la responsabilidad o no de los conductores, siempre ha estado en el centro de la polémica.
En 2024, primer año en que las ventas de Tesla bajaron por primera vez en la historia de la marca, Musk presentó la inteligencia artificial, la conducción autónoma y el almacenamiento de energía como las nuevas prioridades de la empresa.
La conducción autónoma, que Musk describe como "alucinante" y el sistema Autopilot FSD no supervisado son las piezas centrales de la nueva Tesla, especialmente tras la presentación del robotaxi de la marca, el Cybercab. Musk anunció que Tesla “comenzaría las pruebas de FSD sin supervisión en Austin este verano antes de introducir la función en los vehículos de los clientes en 2026”.
Sin embargo, no todos los propietarios tendrían acceso a ello. Mientras tanto, Tesla sigue desarrollando su software sin haber alcanzado un nivel de seguridad que permita prescindir de la supervisión humana. De hecho, la compañía ha admitido recientemente que los modelos equipados con hardware HW3 podrían no ser compatibles con una conducción 100 % autónoma, a pesar de haber vendido esta idea durante años.
"No estamos seguros al 100 %", reconoció Musk, asegurando que Tesla ofrecería una actualización gratuita a los afectados si finalmente no se puede lograr el nivel de seguridad necesario.
Problemas y riesgos derivados de confiar a ciegas en el Autopilot
Tesla ha insistido en que su sistema FSD es “más seguro que la conducción humana”, aunque la falta de datos independientes y los incidentes registrados ponen en duda esta afirmación. A lo largo de los años, ha habido múltiples accidentes en los que los vehículos de Tesla no han reconocido intersecciones, obstáculos, peatones o incluso trenes.
A diferencia de otras compañías como Waymo o Mercedes, que combinan en su tecnología LiDAR, radares y cámaras para mejorar la percepción del entorno, Tesla apuesta exclusivamente por el uso de cámaras. Esto ha llevado a problemas en la detección de objetos y la interpretación del entorno.
Además, los coches Tesla en realidad actúan como prototipos rodantes, recopilando datos de los usuarios que han pagado por el sistema FSD. Estos conductores, que realizan pruebas reales en carretera, están expuestos a situaciones potencialmente peligrosas, convirtiéndose en beta testers.
Este último incidente refuerza la idea de que, a pesar del optimismo de Elon Musk, la conducción autónoma sigue estando lejos de ser una realidad segura y fiable para Tesla. Confiar ciegamente en las promesas de la tecnología puede salir caro.
Imágenes: Tesla, Motorpasión, Jonathan Challinger