En el accidente mortal de Uber falló todo: de la conductora a la víctima pasando por el propio sistema

La Junta Nacional de Seguridad en el Transporte (NTHSA por sus siglas en inglés) ha dado a conocer su informe preliminar en el que analiza las causas del accidente mortal en el que el pasado 18 de marzo una mujer falleció tras ser atropellada por un coche autónomo de Uber.

1,3 segundos antes del impacto, el sistema determinó que era necesario un frenado de emergencia para mitigar una colisión, pero previamente se había clasificado al peatón como objeto desconocido. El informe también señala que los resultados de la prueba de toxicología efectuada a la víctima fueron positivos para metanfetamina y marihuana.

Un compendio de variables

Del informe -no concluyente- de la NTHSA se desprenden muchas variables que contribuyeron a hacer del atropello un accidente mortal:

  • La peatona, que vestía con ropa oscura, cruzó por una parte de la calzada por la que estaba prohibido el acceso a peatones y empujaba una bicicleta que no equipaba reflectores laterales. La prueba toxicológica efectuada después del accidente dio positivo en metanfetamina y marihuana.

  • Los datos estatales obtenidos del sistema autónomo muestran que tras detectar a la peatona, registró las observaciones de radar y LIDAR unos seis segundos antes del impacto, cuando el vehículo viajaba a unos 70 km/h.

  • A medida que el vehículo y las rutas peatonales convergían, el software del sistema de conducción autónoma clasificaba al peatón primero como un objeto desconocido, luego como un vehículo, y finalmente como una bicicleta con diferentes expectativas de trayectoria de viaje. 1.3 segundos antes del impacto, el sistema de conducción automática determinó que se necesitaba un frenado de emergencia para mitigar una colisión.

  • La mujer que controlaba el vehículo (según la NTHSA) tomó el control del volante menos de un segundo antes del impacto y comenzó a frenar menos de un segundo después del impacto. Ha declarado que no estaba distraída a pesar de que en las imágenes su vista se dirige hacia abajo y no hacia el frente.

  • Todos los aspectos del sistema de conducción autónoma estaban funcionando normalmente en el momento del choque, y no había fallos ni mensajes de diagnóstico.

Fue el sistema de Uber el que falló

Unos días después del accidente la compañía Aptiv, que es proveedora de componentes para los sistemas de seguridad del Volvo XC90 que estaba probando la plataforma de movilidad, afirmó que Uber estaba usando su propio sistema de sensores y radares para las pruebas de conducción autónoma y, por tanto, los sistemas de la dotación de serie del Volvo estaban desconectados.

Según se desprende en el informe, el vehículo fue equipado de fábrica con varias funciones avanzadas de asistencia al conductor de Volvo Cars, incluida una función de prevención de colisiones con frenado de emergencia automático, así como funciones para detectar distracciones del conductor y la lectura de información de las señales de tráfico.

Sin embargo, las funciones de Volvo se desactivan solo cuando el vehículo de prueba se opera en modo de control por ordenador, por lo que el sistema de frenada de emergencia automática no estaba habilitado para reducir un posible comportamiento errático del vehículo, según Uber.

Todo esto ha llevado a que Uber haya cancelado sus operaciones con coches autónomos en Arizona y haya despedido a sus 300 conductores. Sin embargo, continuarán operando en San Francisco y Pittsburgh.

Además, a finales de marzo se anunciaba que la familia de la víctima había llegado a un acuerdo con Uber, de forma que el caso se ha resuelto amigablemente. ¿Tuvo algo que ver este acuerdo con los resultados de las pruebas toxicológicas que hoy conocemos?

Foto | NTHSA.

También te puede gustar

Portada de Motorpasión

Ver todos los comentarios en https://www.motorpasion.com

VER 11 Comentarios