"Es un fallo fundamental". Una investigación concluye que el ahorro de costes de Elon Musk en la conducción autónoma de Tesla incrementó el número de accidentes

"Es un fallo fundamental". Una investigación concluye que el ahorro de costes de Elon Musk en la conducción autónoma de Tesla incrementó el número de accidentes
10 comentarios

Para Elon Musk, la “conducción autónoma total” de Tesla es perfecta para sus robotaxis y para sus coches. La función Autopilot FSD (Full Self Driving, o conducción autónoma total) es la piedra angular de la nueva Tesla, reconvertida en una empresa de Inteligencia Artificial, según Musk. Sin embargo, dista mucho de ser perfecta. Y todo ello podría deberse a un «fallo fundamental» del software, según una investigación del Wall Street Journal.

Entre los numerosos accidentes imputables, el regulador federal estadounidense asegura que “el Autopilot ha provocado un mal uso previsible y accidentes evitables". Además, en Estados Unidos, es preciso dar un cursillo para poder usar el sistema y muchos son los que desconfían del sistema y de la insistencia de Elon Musk en que todo se resuelva con cámara y software.

Cuando ahorrar costes es la prioridad

El sistema Autopilot FSD funciona gracias a una serie de cámaras situadas delante, detrás y en los laterales del coche para poder ver qué ocurre con el tráfico, los vehículos y barreras arquitectónicas que pueda haber alrededor del coche, así como ver dónde están la carretera y los carriles de circulación.

Así, las cámaras vigilan constantemente la zona que rodea al Tesla y, mediante machine learning, o aprendizaje automático, el coche calcula cómo debe comportarse el conductor activa el Autopilot (control de crucero activo) o la conducción autónoma total, el Autopilot FSD.

Básicamente, el sistema está entrenado, digamos, por los ingenieros de Tesla para reconocer las señales de tráfico, los obstáculos que pueda haber en su trayectoria (camión, vaca, barrera, etc). El problema surge cuando se presenta un obstáculo que el software nunca ha visto antes.

Tesla Autopilot FSD

En esos casos, el coche no sabe qué hacer. En el mejor de los casos devolverá los mandos al conductor (otra cosa es que lo haga a tiempo) o simplemente lo ignorará y seguirá con su trayectoria hacia el obstáculo. En el peor de los casos no lo reconoce como obstáculo, o no lo ve, y por tanto para el sistema no es un obstáculo, por lo que puede seguir con su rumbo, aunque sea hacia un tren de mercancías en un paso a nivel.

Esta deficiencia se ha vuelto a señalar en una nueva investigación del Wall Street Journal, que analizó más de 200 accidentes en los que se vieron implicados coches Tesla equipados con Autopilot y FSD.

De los más de 1.000 accidentes notificados por Tesla a la NHTSA, la Administración Nacional de Seguridad del Tráfico en Carretera, el Wall Street Journal ha podido analizar 222 incidentes. Entre ellos, 44 fueron causados por coches Tesla que se desviaron repentinamente de su trayectoria y 31 se produjeron cuando los coches no se detuvieron o no cedieron el paso.

“El tipo de cosas que tienden a fallar con estos sistemas son cosas como que no estaba entrenado en las imágenes de un camión semirremolque volcado en la carretera, simplemente no sabía lo que era”, explicó al diario Phil Koopman, profesor asociado de ingeniería eléctrica e informática en la Universidad Carnegie Mellon.

Y añadió: “Una persona habría dicho claramente 'hay algo grande en medio de la carretera', pero la forma en que funciona el machine learning es que se entrena con un montón de ejemplos. Si se encuentra con algo para lo que no tiene un montón de ejemplos, puede que no tenga ni idea de lo que está pasando».

Elon Musk

Así, según el prestigioso diario, el «fallo fundamental» de la tecnología Autopilot de Tesla y de su software Full-Self Drive sería esencialmente el hecho de que el sistema se basa exclusivamente en las cámaras y la experiencia o ejemplos que se le puedan inculcar al software. Es decir, la cabezonería de Elon Musk para ahorrar costes de usar únicamente cámaras y no sensores como radares y lidares. Algo, por cierto, que sí equiparon los Tesla hace unos años

En lugar de depender en gran medida de las cámaras y el machine learning otros fabricantes de automóviles utilizan también sensores más complejos en sus prototipos de conducción autónoma.

Volvo, por ejemplo, emplea lidar y radar. Estos sensores escanean la carretera mediante ondas sonoras y láser para obtener una visión más clara del camino incluso en condiciones adversas de visibilidad, como niebla, oscuridad o lluvia torrencial en las que una cámara no sería tan eficaz.

Son sistemas más caros (unos 800 dólares la unidad por coche aproximadamente) y que a menudo son de proveedores externos y pueden ser vistos como redundantes, pero aportan una seguridad doble. En caso de que la cámara no detecte un obstáculo o el software no sepa lo que es, un radar y un lidar sí enviarían una señal de que efectivamente hay un obstáculo y es preciso detenerse.

Desde Nio a Xpeng pasando por Volvo, Honda o Mercedes, todos los fabricantes implicados en la conducción autónoma utilizan una combinación de cámaras, radar y lidar. Así, Honda ha sido el primer fabricante en proponer un coche con un nivel 3 de conducción autónoma, en Japón, y Mercedes ha hecho lo mismo en Europa y Estados Unidos.

Recordemos que el nivel 3 permite realmente al conductor desentenderse de la  conducción y que en caso de accidente, es el fabricante del coche el responsable, no el conductor. Mientras tanto, Tesla sigue relegada a un nivel 2 como cualquier fabricante generalista y se lava las manos de cualquier responsabilidad en caso de accidente.

Temas
Comentarios cerrados
    • Usuario desactivado

      Usuario desactivado

      @Lluc2 si es posible pero comercialmente no vende tanto... sacas el modelo a la calle recopilando información, luego la procesas y cuando logras un precisión real del 99,1% lo sacas como producto... Ahora, el siempre va a contra corriente, saca un producto llamado Autopilot que no llega al grado de un piloto automatico...

      Que cada uno con su dinero compre lo que quiera pero a Tesla hay que empezar a coserla a multas por el riesgo que sufren sus compradores en sistemas que no están 100% testados... y hoy hablamos de este, pero hace unos dias era el sistema de detección de mascotas en el interior del coche...

      Tesla tiene una larga lista de fallos en la seguridad de sus coches que a otros fabricantes se les crucificaria...

    • No solo es que únicamente use cámaras, es que el HW3, que es hardware de conducción autónoma que va en la gran mayoría de los Tesla, usa cámaras de tan solo 1 megapixel, una resolución muy inferior a la del ojo humano.

      Además no hay redundancia de cámaras, de modo que si solo una de las cámaras queda bloqueada por agua, barro, o deslumbramiento por el sol, el sistema deja de funcionar correctamente.

    • O como eso de llevar el tesla a revisión y que te desinstalen los radares, y lo fíen todo a cámaras, una práctica muy "normal"

    • Que Tesla base todo su software en cámaras y no junto a Lidars no es por un tema de costes. Integrar en un software 2 entradas diferentes y crea dificultades a nivel de interpretación de datos. Voy a intentar explicarlo: Un poco es como los humanos, es mejor tener una muy buen software (cerebro) para interpretar lo que ven los ojos que tener inputs de vista y ultrasonidos que lo acaben confundiendo.
      Cuando el software vía sea muy, muy bueno, entonces podrán ponerse Lidars u otros sensores ya que en ese momento podra integrar los diferentes datos.

    • Usuario desactivado

      Usuario desactivado

      Tesla no invierte como otras marcas en testear sus productos antes de lanzarlos al mercado... insisto en que son los clientes quien hacen los test en las condiciones más dificiles para el sistema... Cuando invierta como Toyota o Mercedes en ese punto hablamos...

      Que nos pensamos que los fabricantes tradicionales hacen 1 millon de kilometros por gusto o que testean durante 10 años un nuevo sistema a implementar... y aun asi fallan

    • Usuario desactivado

      Usuario desactivado

      ¿@Lluc2 quien habla de calles ardiendo?

      Yo no digo que no se pueda fallar sino que hay que testear como toca... y sancionar como toca.... referente a los airbags hago un apunte no es un problema de los fabricantes de coches sino de una empresa tercera que es la que fabrica los airbags la cual fue sancionada.

      Tranquilo te facilito un link del dog mode de este mismo blog asi puedes conocer mejor el asunto... pero si te fijas volvemos a lo mismo, el cliente confia en un servicio que no funciona como tendria que hacerlo:
      https://www.motorpasion.com/tesla/no-usen-modo-perro-momento-nunca-sensato-encerrar-a-tu-perro-coche-ultima-actualizacion-tesla-podria-ponerlo-peligro

      Pd: yo tengo animales y de antemano decir que nunca los dejo en el coche solos.

    • Comentario moderado
    • Comentario moderado
    • Comentario moderado
    Inicio
    ×

    Utilizamos cookies de terceros para generar estadísticas de audiencia y mostrar publicidad personalizada analizando tu navegación. Si sigues navegando estarás aceptando su uso. Más información