"Es un fallo fundamental". Una investigación concluye que el ahorro de costes de Elon Musk en la conducción autónoma de Tesla incrementó el número de accidentes

"Es un fallo fundamental". Una investigación concluye que el ahorro de costes de Elon Musk en la conducción autónoma de Tesla incrementó el número de accidentes
10 comentarios

Para Elon Musk, la “conducción autónoma total” de Tesla es perfecta para sus robotaxis y para sus coches. La función Autopilot FSD (Full Self Driving, o conducción autónoma total) es la piedra angular de la nueva Tesla, reconvertida en una empresa de Inteligencia Artificial, según Musk. Sin embargo, dista mucho de ser perfecta. Y todo ello podría deberse a un «fallo fundamental» del software, según una investigación del Wall Street Journal.

Entre los numerosos accidentes imputables, el regulador federal estadounidense asegurando que “el Autopilot ha provocado un mal uso previsible y accidentes evitables" y que, en Estados Unidos, es preciso dar un cursillo para poder usar el sistema, muchos son los que desconfían del sistema y de la insistencia de Elon Musk en que todo se resuelva con cámara y software.

Cuando ahorrar costes es la prioridad

El sistema Autopilot FSD funciona gracias a una serie de cámaras situadas delante, detrás y en los laterales del coche para poder ver qué ocurre con el tráfico, los vehículos y barreras arquitectónicas que pueda haber alrededor del coche, así como ver dónde están la carretera y los carriles de circulación.

Así, las cámaras vigilan constantemente la zona que rodea al Tesla y, mediante machine learning, o aprendizaje automático, el coche calcula cómo debe comportarse el conductor activa el Autopilot (control de crucero activo) o la conducción autónoma total, el Autopilot FSD.

Básicamente, el sistema está entrenado, digamos, por los ingenieros de Tesla para reconocer las señales de tráfico, los obstáculos que pueda haber en su trayectoria (camión, vaca, barrera, etc). El problema surge cuando se presenta un obstáculo que el software nunca ha visto antes.

Tesla Autopilot FSD

En esos casos, el coche no sabe qué hacer. En el mejor de los casos devolverá los mandos al conductor (otra cosa es que lo haga a tiempo) o simplemente lo ignorará y seguirá con su trayectoria hacia el obstáculo. En el peor de los casos no lo reconoce como obstáculo, o no lo ve, y por tanto para el sistema no es un obstáculo, por lo que puede seguir con su rumbo, aunque sea hacia un tren de mercancías en un paso a nivel.

Esta deficiencia se ha vuelto a señalar en una nueva investigación del Wall Street Journal, que analizó más de 200 accidentes en los que se vieron implicados coches Tesla equipados con Autopilot y FSD.

De los más de 1.000 accidentes notificados por Tesla a la NHTSA, la Administración Nacional de Seguridad del Tráfico en Carretera, el Wall Street Journal ha podido analizar 222 incidentes. Entre ellos, 44 fueron causados por coches Tesla que se desviaron repentinamente de su trayectoria y 31 se produjeron cuando los coches no se detuvieron o no cedieron el paso.

“El tipo de cosas que tienden a fallar con estos sistemas son cosas como que no estaba entrenado en las imágenes de un camión semirremolque volcado en la carretera, simplemente no sabía lo que era”, explicó al diario Phil Koopman, profesor asociado de ingeniería eléctrica e informática en la Universidad Carnegie Mellon.

Y añadió: “Una persona habría dicho claramente 'hay algo grande en medio de la carretera', pero la forma en que funciona el machine learning es que se entrena con un montón de ejemplos. Si se encuentra con algo para lo que no tiene un montón de ejemplos, puede que no tenga ni idea de lo que está pasando».

Elon Musk

Así, según el prestigioso diario, el «fallo fundamental» de la tecnología Autopilot de Tesla y de su software Full-Self Drive sería esencialmente el hecho de que el sistema se basa exclusivamente en las cámaras y la experiencia o ejemplos que se le puedan inculcar al software. Es decir, la cabezonería de Elon Musk para ahorrar costes de usar únicamente cámaras y no sensores como radares y lidares. Algo, por cierto, que sí equiparon los Tesla hace unos años

En lugar de depender en gran medida de las cámaras y el machine learning otros fabricantes de automóviles utilizan también sensores más complejos en sus prototipos de conducción autónoma.

Volvo, por ejemplo, emplea lidar y radar. Estos sensores escanean la carretera mediante ondas sonoras y láser para obtener una visión más clara del camino incluso en condiciones adversas de visibilidad, como niebla, oscuridad o lluvia torrencial en las que una cámara no sería tan eficaz.

Son sistemas más caros (unos 800 dólares la unidad por coche aproximadamente) y que a menudo son de proveedores externos y pueden ser vistos como redundantes, pero aportan una seguridad doble. En caso de que la cámara no detecte un obstáculo o el software no sepa lo que es, un radar y un lidar sí enviarían una señal de que efectivamente hay un obstáculo y es preciso detenerse.

Desde Nio a Xpeng pasando por Volvo, Honda o Mercedes, todos los fabricantes implicados en la conducción autónoma utilizan una combinación de cámaras, radar y lidar. Así, Honda ha sido el primer fabricante en proponer un coche con un nivel 3 de conducción autónoma, en Japón, y Mercedes ha hecho lo mismo en Europa y Estados Unidos.

Recordemos que el nivel 3 permite realmente al conductor desentenderse de la  conducción y que en caso de accidente, es el fabricante del coche el responsable, no el conductor. Mientras tanto, Tesla sigue relegada a un nivel 2 como cualquier fabricante generalista y se lava las manos de cualquier responsabilidad en caso de accidente.

Temas