
En un vídeo publicado esta semana, el youtuber estadounidense Mark Rober compara el comportamiento de las ayudas a la conducción de un Tesla, en su caso el Autopilot basado en las cámaras, con el de un coche equipado con LiDAR, en varias situaciones en las que un muñeco infantil tiene que ser esquivado por los vehículos. El Tesla fracasa en varios de los escenarios, incluido uno especialmente caricaturesco en el que aparece un muro falso pintado como una carretera.
El Tesla atravesó el muro como si nada. Más allá de lo espectacular que resulta, y de poner en imágenes lo que toda la industria viene diciendo, a saber, no puede haber conducción autónoma sin el uso de un LiDAR, muchos se están planteando serias preguntas sobre lo que sucedió y cómo sucedió.
Dejarlo todo en manos de las cámaras
En primer lugar, cabe destacar que no se trata de una prueba realizada de forma independiente por un organismo oficial, como el ADAC, la NHTSA o Euro NCAP, por citar los más famosos. No deja de ser un vídeo de entretenimiento en el que puede que se hayan tomado ciertas libertades narrativas. O no.
Para uno de los mayores defensores de Elon Musk y Tesla en redes sociales, Sawyer Merritt, es un vídeo con trampas y sesgo. Según él, el Tesla de la prueba no está equipado con la última actualización del Autopilot FSD. Además, se pregunta porque el coche con LIDAR tiene el sistema activado desde el inicio del recorrido y lo hace sólo unos pocos segundos antes con el Tesla.
Here is the raw footage of my Tesla going through the wall. Not sure why it disengages 17 frames before hitting the wall but my feet weren’t touching the brake or gas. pic.twitter.com/ddmeyqO3ww
— Mark Rober (@MarkRober) March 17, 2025
En respuesta a las críticas, Mark Rober publicó un vídeo sin editar del interior del coche poco antes del impacto con el muro. Vídeo en el que se ve cómo activa el Autopilot y cómo se desactiva “17 imágenes antes del impacto”, sin que el conductor “tocase el pedal de freno o acelerador”.
Así, el vídeo y los defensores de Tesla ponen de manifiesto sin quererlo, de nuevo, la dudosa práctica de Tesla de desactivar el Autopilot antes de un accidente. ¿Cómo supo entonces que iba a chocar si lo que vio fue una carretera y no un muro? El Tesla Model Y equipa un sistema de frenado automático, el cual va asociado a un radar. Éste detectó un obstáculo, pero era demasiado tarde para que el Autopilot pudiese corregir por lo que se desconectó.
Esta práctica no es nueva. Un accidente ocurrido en 2019 en el que se vio implicado un Tesla Model X hirió a cinco agentes de policía. Mientras los vehículos de emergencia estaban parados en la carretera, el Model X chocó contra ellos. Una investigación del Wall Street Journal, publicada en agosto de 2023, analizó también este accidente.
Este accidente forma parte de un grupo de 16 accidentes similares en los que se ha visto implicado un Tesla y que las autoridades estadounidenses vía la NHTSA han investigado para determinar si se trata de un fallo del sistema Autopilot.
El Model X detectó vehículos en movimiento en la autopista a una buena distancia. Pero no detectó a tiempo los vehículos de la policía detenidos en medio de la carretera. El Tesla Model X frenó y desactivó el Autopilot 2,5 segundos antes del impacto. El Model X circulaba a 87 km/h cuando colisionó con los coches de la policía.
Así, en el momento de la colisión, el Autopilot no estaba oficialmente activado y, por tanto, no era culpable. La culpa fue del conductor distraído, y en este caso, particular, ebrio. Pero, ¿cuántas veces dijo Tesla a las autoridades que el sistema de asistencia al conductor estaba inactivo en el momento de la colisión, cuando en realidad se había desactivado en el momento justo?
Además, como recuerdan desde Electrek, Tesla tiene la costumbre de someter los informes y datos recogidos por sus coches de accidentes de conducción autónoma a la NHTSA extremadamente censurados.
“El fabricante está obligado a informar de todos los accidentes en los que estén implicados Autopilot o sus sistemas de conducción autónoma completa (FSD), pero sistemáticamente ha censurado todos los detalles importantes de los informes”, cosa que no hacen la mayoría de los otros fabricantes.
Imágenes | Mark Rober