La máxima autoridad federal en cuestiones de seguridad del automóvil en Estados Unidos, National Highway Traffic Safety Administration (NHTSA), está investigando la posible responsabilidad del Autopilot de Tesla en dos siniestros viales acontecidos el pasado mes de julio en los que dos motoristas perdieron la vida.
Fueron dos accidentes distintos y con diferentes vehículos implicados, pero con varias coincidencias fatales entre sí: en ambos casos los Tesla “no vieron” a los motoristas e impactaron fatalmente por detrás, era de noche y circulaban por autopista.
Lo (mucho) que el Autopilot no ve…
En el primero de los casos, ocurrido el 7 de julio de en California (EEUU) un motorista circulaba con su Yamaha V-Star por la Ruta Estatal 91, cuando un Tesla Model Y blanco le impactó por detrás: el conductor salió disparado y murió en el acto. Las autoridades aún tratan de determinar si el Tesla llevaba el Autopilot activado.
El segundo de los siniestros fue el 24 de julio cerca de Draper, Utah (EEUU). En este caso, una Harley-Davidson circulaba por la autopista cuando un Tesla Model 3 se acercó por detrás y la golpeó, provocando que el conductor saliera despedido de la moto… y que también falleciera en el lugar de los hechos. En esta ocasión, el conductor del Model 3 sí declaró que llevaba el Autopilot activado.
A tenor de los datos, hemos de recalcar que las dos motocicletas mencionadas eran ‘tipo cruiser’, es decir, algo más bajas de lo normal. Esto es relevante, al igual que mencionemos que hablamos de siniestros viales acontecidos en autopistas, y de noche.
Ride Apart y FortNine tienen una teoría de lo más interesante del por qué, que apunta directamente al LiDAR... y al radar frontal.
En este punto, hay que recordar que actualmente ningún vehículo puede "conducir solo" en condiciones normales de tráfico abierto, y que se requiere la plena atención del conductor para tomar el control de la conducción en cualquier momento.
Ni en el caso del "Drive Pilot" de Mercedes-Benz (solo se permite usar este sistema en algunas autopistas alemanas y a velocidades de hasta 60 km/h), ni en el del Autopilot de Tesla, pues además este está calificado como de nivel 2 SAE de conducción autónoma, y es más bien un asistente. Lo mismo sucede con el FSD superior del fabricante californiano.
El sistema de Tesla entre otras cosas lleva ocho cámaras que, en teoría, deberían poder ver una moto en línea recta en una autopista (aunque la frontal tiene un rango estrecho de visión y un alcance de 250 m). Por no hablar de la inteligencia artificial supuestamente entrenada con millones de pruebas para saber a qué distancia se encuentra el resto de vehículos.
Pues bien, según el análisis de FortNine, el radar que se situaba en el frontal de los Tesla como parte del Autopilot, y que ha sido recientemente retirado para reducir costes de fabricación (entre otros) era el encargado de calcular la distancia con los objetos y vehículos alrededor del coche gracias a sus ondas “de ida y vuelta”.
Al menos, de forma más precisa de lo que lo hacen simplemente las cámaras. Ahora, la computadora del coche solo con las cámaras a su favor, no parece ser capaz de calcular las distancias a otros objetivos y vehículos con la misma precisión.
Menos, cuando hay poca luz. Y esto es un problema que choca frontalmente contra la idea de que un sistema como el Autopilot ha sido creado para mejorar la seguridad a la hora de conducir.
Esta no es la primera vez que el Autopilot está en el punto de mira de la NHTSA, pues en concreto desde 2016 el organismo lleva investigados un total de 19 accidentes saldados con víctimas mortales en los que se sospecha que el sistema estaba activado.
Además, el año pasado se abrió una investigación en torno a varios siniestros viales de 2018 en los que el sistema “no vio” a diferentes vehículos de emergencia y dejó en evidencia serios problemas del Autopilot para detectar vehículos y objetos (en este caso estáticos) en condiciones de baja luminosidad.
Pero no hay que irse tan lejos para encontrar más ejemplos: la mayor investigación de la NHTSA sobre Tesla se amplió a 830.000 vehículos el pasado junio.
En los últimos meses, la marca se ha visto obligada a emitir hasta 11 llamadas a revisión por orden del organismo, a fin de subsanar defectos en su hardware y software que presentaban riesgos para la seguridad.
Sin duda, esto es algo que no beneficia a una marca que ha convertido la conducción autónoma en una de sus principales bazas para hacer caja, pero la reputación debería ser lo de menos cuanto hay vidas en juego.
Y eso es algo que no tenemos muy claro que Elon Musk comparta, a la luz de los acontecimientos y de sus múltiples declaraciones manipulando las estadísticas o "endulzándolas" para hacer pasar al Autopilot como un sistema 100 % seguro cuando está demostrado que aún tiene muchos escollos que superar.
Sobre todo en carreteras abiertas y en largas distancias, pero también en ciertas condiciones de luz y climatología.