El dilema moral del coche autónomo. ¿Soñó Asimov con el Google Car?
Tecnología

El dilema moral del coche autónomo. ¿Soñó Asimov con el Google Car?

Los coches autónomos, es decir, los coches que se conducen por sí solos sin necesidad de conductor, llegarán tarde o temprano. Ya se están probando hoy en día y para 2020 o 2025 podrían empezar a venderse. Un coche autónomo funciona gracias a un conjunto de diferentes sensores y un potente computador que procesa todos los datos del entorno y toma las decisiones.

El computador tiene que hacer las veces de conductor. Pero un computador ni es inteligente, ni sabe qué tiene que hacer, necesita de una completa programación para discernir en cada situación qué acción tiene que realizar. Y esa programación la realiza el hombre desde el principio hasta el final. Se hace imprescindible que esa programación prevea absolutamente todo lo que puede pasar, para que el computador sepa lo que debe hacer.

Conducción autónoma

Todo debe estar recogido en la programación del coche

Pongamos un ejemplo: uno de los miles de algoritmos que vendría a incluir esa programación podría ser:

  • Si la luz del semáforo es de color rojo, y no hay ningún agente de tráfico indicando lo contrario, entonces detener el vehículo frenándolo antes de la línea de detención.

  • Si la luz del semáforo es de color verde, y no hay ningún agente de tráfico indicando lo contrario, entonces proseguir la marcha, salvo que haya algún vehículo o peatón delante de la trayectoria.

Y así líneas y líneas de algoritmos con situaciones tanto más complejas, en las que se combinan varios condicionantes, que entremezclan varios factores. Conducir es más complejo de lo que nos parece, y continuamente tomamos decisiones, solo que con la experiencia ya ni nos damos cuenta, y conducimos de manera casi automática, por instinto.

La cuestión es: ¿qué sucederá cuando un computador tenga que tomar una decisión controvertida, delicada, que sea un dilema moral?

Cruces

No hacer daño a la Humanidad ni permitir que la Humanidad sufra daño

Es oblvio que el computador que conduce el coche incluirá lógicamente en su programación todas las normas de circulación que estén vigentes y debe cumplir: señales de tráfico, velocidad máxima, prioridades, prohibiciones... pero el hecho de conducir implica todavía más acciones. El computador del coche autónomo que tiene que tomar una decisión para realizar una acción, se puede comparar con un robot. Hay personas que supieron ver la situación que llegaría mucho tiempo atrás. ¿Cuál debería ser el principio fundamental que debe regir al "cerebro" electrónico del coche autónomo?

Como máquina que también es como el robot, debería ser el mismo: Un robot (coche autónomo) no puede hacer daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.

Este suele considerarse el mandamiento fundamental y sintetiza las tres leyes de la robótica enunciadas por Isaac Asimov en 1942, y que más de 60 años después siguen estando vigentes. Recordémoslas.

  • 1 - Un robot (coche autónomo) no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  • 2 - Un robot (coche autónomo) debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley.
  • 3 - Un robot (coche autónomo) debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.
Car To Car com

He puesto entre paréntesis coche autónomo porque aunque Asimov las pensara teniendo en mente un robot, y no un coche, resulta que serían totalmente aplicables. Vamos a verlo.

  • Fijémonos en la primera ley. Significaría que un coche autónomo no puede atropellar a un peatón o arrollar a un ciclista, por ejemplo, y de la misma manera que tiene que conducir intentando evitar a toda costa un accidente que dañe a sus ocupantes. Así que es válida.

  • La segunda ley significaría que el conductor en cualquier momento tiene la última decisión, y podría tomar el control del coche a su voluntad. Pero eso sí, si el conductor toma el control para intentar atropellar a un peatón o arrollar a un ciclista, algo que contraviene la primera ley, el coche no odecería. O sea que también nos vale esta ley.

  • La tercera ley significaría que el coche autónomo tiene que cuidarse a sí mismo. Pensemos que el coche viene a recogernos al trabajo, pues obviamente queremos que nuestro coche llegue en buen estado, y aunque vaya vacío, no queremos que se nos estrelle por ahí, ni llegue todo rozado. La salvaguarda de esta ley es que, aunque el propio coche no tiene que estrellarse, eso pasa a un segundo plano si con ello se evita atropellar a un peatón o arrollar a un ciclista (por seguir con el mismo ejemplo). Es decir, que también es válida.

Peatones

El dilema del tranvía

Pues todo esto está muy bien, y parece que un coche autónomo que se programase conforme a estas tres leyes, y para el respeto de las normas de circulación, sería perfecto y funcionaría sin pega alguna. Pero no es tan simple. Pensemos en el dilema del tranvía (el trolley problem, que dicen en inglés) algo que muchos informáticos conocerán bien.

Este problema plantea la disyuntiva más delicada y complicada que sin duda el propio ser humano podría encontrarse en su vida:

Un tranvía se acerca por una vía, a gran velocidad, y no puede frenar. Más adelante en la vía hay cinco personas atadas a la vía que no pueden irse. El tranvía si sigue con su trayectoria las arrollará y matará.

Pero hay una persona que puede hacer algo. Resulta que hay una bifurcación de las vías antes de donde están esas cinco personas, y esa persona puede accionar la palanca que haría cambiar al tranvía de trayectoria, tomar la bifurcación, y no arrollar a las cinco personas. Lo que sucede es que en la vía de la bifurcación hay una persona también atada que no puede irse.

No hay más alternativas, descarrilar el tranvía tampoco es una opción, pues va lleno de gente, no se puede hacer nada más.

Así que, ¿qué decisión debe tomar la única persona que puede hacer algo? ¿No hacer nada y dejar que el tranvía siga su trayectoría, y arolle, y mate, a cinco personas, o hacer algo y que tome la bifurcación y arrolle y mate a una persona que inicialmente no estaba en peligro?

¿Menudo dilema moral, verdad? Pues aquí aparece un punto complicadísimo en la programación del computador que conduce un coche autónomo: no debe hacer daño a ningún ser humano, pero, ¿cuándo no hay ninguna otra posibilidad? ¿qué tendría que hacer por ejemplo en el problema del tranvía?

Niños

Y aquí hay que plantear qué le programamos al coche autónomo.

Si en caso de accidente inevitable, una opción es que el coche atropelle a cuatro niños que han salido corriendo detrás de una pelota y han aparecido de sopetón en mitad del carril, o dar un volantazo y arollar (y matar) al motorista que iba a nuestro lado ¿qué debe hacer el coche? ¿decidirse por salvar la vida al mayor número de humanos implicados?

¿Y si la situación es un poco diferente? y si solo es un peatón, y no hay forma de frenar antes de atropellarlo, pero la única alternativa es dar el volantazo, lo cual implicaría invadir el sentido contrario y chocar contra otro coche que viene con cinco personas dentro ¿decidir por salvar a los humanos más vulnerables, en este caso el peatón? ¿Debería el computador calcular la probabilidad de supervivencia de cada humano implicado, e igualmente decidir por salvar el mayor número de humanos?

Pero, ¿y qué sucede con los humanos a bordo del propio coche autónomo? ¿Qué sucede si para evitar atropellar esos cuatro niños de los que hablábamos antes, el volantazo hace que choquemos contra un camión que venía en sentido contrario, e implica la muerte del conductor del coche?

Ciclistas

¿Debe prevalecer en el caso del coche autónomo la protección ante todo de sus ocupantes, por delante de la protección de cualquier otro humano (el peatón, los de otros vehículos), o tiene que responder a una cuestión de número y probabilidad de supervivencia?

¿Deben tenerse en cuenta otras cuestiones? ¿Por ejemplo la edad? Cuando no haya ninguna otra opción, ¿atropella el coche a un niño, o atropella a dos ancianos? ¿Y si es cuestión de normas de tráfico (o culpabilidades)? Pongamos que los peatones se han puesto a cruzar en rojo, imprudentemente, si no hay ninguna otra opción, ¿atropellamos a esos peatones, ya que lo han hecho mal ellos, o damos el volantazo y arrollamos al motorista, que iba perfectamente sin culpa alguna?

Pero ¿qué haría un humano en situaciones así? ¿Debemos programar el computador del coche autónomo para que reaccione como haría una persona? Esto casi sería más complejo aún, ya que una persona puede hacer muchas cosas, desde quedarse bloqueada, hasta sobrerreaccionar por el susto, o vaya usted a saber. De hecho, ¿sabe realmente una persona reaccionar ante una situación tan tremenda?

¿Quién puede decidir qué decisión debe tomar el coche? ¿qué decisión es mejor o peor?

En Xataka | ¿Debería tu coche autónomo ponerte en peligro en caso de accidente se así se salvan más vidas?
En Motorpasión | Nueve situaciones en las que un coche autónomo siempre llevará la L

Temas
Comentarios cerrados
    • brillante

      PELIGRO, SPOILER:

      Olvidas la ley 0: Un robot (coche autónomo) no puede hacer daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.

      Esta ley se sitúa por encima de la 1 porque la humanidad está por encima del individuo, así que si para salvar a la humanidad un robot (coche autónomo) debe cometer un genocidio, así lo hará. O más simple, si debe matar a cinco ocupantes para salvar a diez peatones... Pues eso. Aunque todo esto es ficción, y los coches no tendrían por qué seguir estas leyes.

      PS, si hay algo de lo que soy más friki que de Dragon Ball, es de la obra de Asimov.

    • interesante

      Lanzo una pregunta al aire.

      ¿Estaria dispuesta la gente a viajar en vehiculo que les sacrificaria en caso de ser necesario?

      Yo personalmente, no lo tengo nada claro.

    • Cerrar respuestas
    • Avatar de hormigaz Respondiendo a hormigaz

      no creo que llegara a ser necesario, un sistema asi y bien estudiado esos fallos no podria permitirlos, siempre antelacion amigo.

    • Avatar de hormigaz Respondiendo a hormigaz

      Uhhhhh !!!!! Que dilema !! Y las veces que nos subimos a un vehiculo cuyo conductor humano sabemos ( o a veces no ) va a tomar una decision arriesgada o fatal ? Nos bajamos del auto ? Cerramos los ojos y nos encomendamos a alguna deidad para que no nos pase nada ?

      Como decia hace tiempo el robot B9 de Perdidos en el Espacio : PELIGRO !!
      PELIGRO !!
      PELIGRO !!!

    • Cerrar respuestas
    • Avatar de egrenadier Respondiendo a egrenadier

      No se tu, pero yo no me monto con gente que no sabe conducir o que no respeta las normas de conduccion basicas.

    • Cerrar respuestas
    • Avatar de hormigaz Respondiendo a hormigaz

      Ok, estas seguro que cada conductor del vehiculo al que subas ( amigo, vecino, pareja, chofer de taxi, bus, tren , avion o cualquier cosa que necesite un humano que lo conduzca) JAMAS DE LOS JAMASES COMETIO UN ERROR O IMPRUDENCIA Y QUE SIEMPRE TOMA LA DECISION CORRECTA ?
      Es creo algo bastante utopico.....

    • Cerrar respuestas
    • Avatar de egrenadier Respondiendo a egrenadier

      la diferencia creo que radica en el error o imprudencia cuan grande es o fue. no es lo mismo saltarse un stop o un ceda que haberle besado el maletero a varios coches. no se si me explico..

    • Cerrar respuestas
    • Avatar de sphyrna Respondiendo a andres

      Jajajaja una maquina va a hacer siempre lo mismo bajo las mismas condiciones y un humano.... bueno no creo que sea tan estricto. De todas formas no creo que sea tan malo lo de la conduccion autonoma, hay tantas cosas en que las alternativas las toman maquinas que es solo cuestion de tiempo en que lo tengamos entre nosotros

    • Avatar de hormigaz Respondiendo a hormigaz

      A veces hay que coger el bus o el taxi...

    • Cerrar respuestas
    • Avatar de golan_trevize Respondiendo a Juri

      Ni muerto. Antes me endeudo media vida. Cada uno sabra que es prioritario.

      Saludos

    • Avatar de egrenadier Respondiendo a egrenadier

      jajaja, que gran verdad que te subes en ese coche y dices se que es un torpe me quedo o me bajo.??

    • interesante

      Me pregunto y esto sin el afán de ser negativo o mal intencionado.

      Que pasara si un virus o defectos en la programación causen problemas, si afectara los autos como sucede con las computadoras, yo en el mejor de los casos guardaré un auto 100% mecánico (conducido por humanos)

      Ya saben por si acaso.

    • Beep beep me estoy volviendo gilipollas beep beep. Resultara que al final no sabremos ni atarnos los cordones sin una máquina, ¡AAAGGHHH!

    • La verdad es un tema muy complicado, el robot se rige por instrucciones, no tiene moralidad en sus acciones y no puede tomar decisiones lógicas más allá de las que pueda calcular con la información disponible.

      Los robots se basan en la inteligencia artificial, especialmente en el concepto de retroalimentación: toman acciones a priori aleatorias, una vez realizada la acción evalúan la consecuencia de dicha acción (si ha sido correcta o no), y usan dicha información para almacenarla en la base de datos para cuando vuelva a darse una situación similar.

      El problema es que conducir es una labor infinitamente complicada desde el punto de vista de la programación: hay un número infinito de acciones que se pueden realizar en función de todas y cada una de las variables presentes: condiciones climáticas, estado de la carretera, personas o animales en la vía, otros vehículos no autónomos, situaciones accidentales... Podemos tener infinitas variables, o mejor dicho, infinitas combinaciones de ellas.

      Por poner un ejemplo muy ilustrativo, la supercomputadora Deep Blue que se usó para ganar al campeón del mundo de ajedrez Gary Kaspárov, tuvieron que incluirle en su base de datos 700.000 de las mejores partidas para que tuviera información suficiente, pudiendo valorar hasta 200 millones de jugadas por segundo. ¡Y aún así perdió dos partidas cuando se enfrentó al campeón del mundo!
      ¿Y sabéis cuántas combinaciones diferentes existen en el ajedrez? Pues son 10 elevado a 123, para que os hagáis una idea, 10 elevado a 80 es el número estimado de átomos en el universo.

      En mi opinión, la conducción autónoma solo tiene sentido para ser usada en autovías y autopistas donde es más fácilmente controlable la conducción y las variables externas. De resto, son demasiadas las condiciones y variables que entran en juego como para que un robot pueda llegar a sobrepasarnos... ¡y por supuesto el factor humano! - la moralidad y ética, que eso no podrá tenerlo ninguna máquina.

      Un saludo!

    • Cerrar respuestas
    • Avatar de the_blue_samurai Respondiendo a the_blue_samurai

      "...¡y por supuesto el factor humano! - la moralidad y ética, que eso no podrá tenerlo ninguna máquina..."

      Ningún humano contempla dilemas morales en el segundo (o décimas de éste) antes de que se produzca o no un accidente. No pidas a una máquina que lo haga si el humano no lo hace. Pídele que haga lo mismo que el humano (reaccionar dependiendo de sus capacidades, entorno y aprendizaje) pero siempre de manera previsible y sin distracciones.

    • La película de Yo Robot está muy bien, acción, suspense, etc. El libro, bueno, según quién le lea será más o menos ameno, pero no tiene nada que ver con la película. El libro se basa en las contradicciones que hay entre estas leyes y cómo actuaría el robot en ciertos casos. Se queda pillado, y eso, si se tratase de un coche, sería un gran problema.

    • yo creo que todas tus preguntas se resuelven mas facilmente,igual que hacemos los conductores, si el sistema ve hay un peaton reducir la velocidad y si invade la calzada frenar.
      con lo de invadir el otro sentido simplemente decirselo al otro coche para que frene antes pues sino va a matar a una persona en este carril.
      y una cosa importante que se os olvidaba, si el coche respeta los limites de velocidad, se eliminarian muchos radares pues uqedarian inutiles y muchos gc en el paro por tanto. aparte de que determinadas marcas de coches solo podrian vender calidad y y fiabilidad las prestaciones habrian acabado. aqui hay mas tela de la que parece.

    • Mensaje de buffer overflow y pantalla azul.
      Sinceramente, me parece muy dificil cuantificar lo que vale la vida de una persona y creo que nadie tiene la potestad de definirlo. A nivel de cobertura juridica, veo este tema muy verde. Ya pasa con los humanos, pues todavia más con una maquina. Imaginaos que atropellamos al señor de la moto que circula en sentido contrario para evitar la muerte de los niños que han salido corriendo a la calle detrás de la pelota. Os dejo varias preguntas y a ver cuantas podeis contestar:
      - Si soy familia del motorista puedo demandar al fabricante del coche o al programador por homicido involuntario?
      - Que conjunto de leyes daria cobertura legal a la programación?
      - Como se llegarian a juzgar este tipo de casos?
      - El lenguaje seria universal para todo el mundo, por paises,...?
      - Imaginaos que atropellamos el motorista porque al esquivar los niños, hemos pasado por encima de una mancha de aceite que los señores de la brigada de limpieza no habian limpiado y el coche ha tardado en frenar un par de metros mas, porque ademas llevaba los neumaticos gastados.
      Muchas situaciones que programar, la verdad... y me asusta que alguien pueda jugar a ser dios sin mi consentimiento.

    • Cerrar respuestas
    • Avatar de charlize_gt Respondiendo a charlize_gt

      Si el coche está en mal estado (ruedas desgastadas, luz fundida, etc.) quizas le de por no arrancar. O te lleve directamente al taller correspondiente (y no podras abrir las puertas ni girar el volante. Seras un prisionero de tu coche porque eres un descuidado, un peligro vial!) Juajuajuajuajuajua!!!!! (risa malvada)

    • Ni que una persona pudiese tomar esas decisiones en el poco tiempo que se tiene de reacción ante un accidente. En las personas predomina la tercera ley, el instinto de conservación, y muchos accidentes son tienen más implicados por eso. Nosotros vamos a intentar una esquiva, sin importarnos quién esté al lado o de frente. Es un instinto.

    • Vale. Sois MUY buenos. Cuando leí por primera vez el tema de la conducción autónoma, tardé poco en acordarme de Asimov por el mismo tema que tratais aquí. Un 10 para vosotros.

    • ¿Y que podría pasar si nuestro coche empieza a tener lag? Podríamos terminar en un glitch del mundo real?

      Fuera de chistes, para que esto del coche autónomo funcione, creo que tendrían que ser TODOS los autos-buses-motos y tendrían que estar interconectados entre sí, así podrían prever las situaciones que pasan en su entorno.

      O podría hacerse algo mas fácil y empezar a dar educación vial en las escuelas y que los peatones circulen en la calle de forma mas responsable.

    • si surge algún problema con cerrar las ventanas quitar el contacto y volver arrancar, problema solucionado

    • A priori el coche autónomo no puede saber cuantas personas y de que edades viajan en otro coche, ni debería ir calculando las edades de los peatones por si a alguno se le ocurre cruzar sin mirar y tiene que decidir a quien atropellar.

      Lo del tranvía tampoco debería ser un problema pues no afecta a la conducción del coche autónomo si no es algo que se encuentre en su camino, que es un coche y no un justiciero protector de la humanidad! A ver si ahora me subo en el coche para que me lleve al trabajo y en vez de eso se va a otra ciudad porque tiene que evitar un atropello...
      Obviando que el problema del tranvía es un ejercicio para detectar sicópatas sin demasiada relación con la conducción autónoma...

      También las leyes físicas están por encima de las robóticas, que si un peatón se te tira al coche desde un puente o aparece desde detrás de un obstáculo justo al pasar, a ver que hace el coche para evitarlo.

      En el autoescuela me enseñaron que si iba circulando y de repente aparecía un animal (vamos a incluir una pelota, una piedra o, por que no, una persona cruzando por donde no debe y por sorpresa) y realmente NO puedo hacer nada por esquivarlo sin poner en peligro a los demás ocupantes de la vía, debía agarrar el volante con firmeza. Es decir, lo que no se puede evitar hay que asumirlo.
      Realmente se siente por la víctima, pero por tratar de salvar a un imprudente sin siquiera garantías de salvarle nos podemos llevar por delante muchas víctimas inocentes, y no creo que sea justo.

      Es solo mi opinión del asunto.

    • Cerrar respuestas
    • Avatar de r080 Respondiendo a r080

      "...que si un peatón se te tira al coche desde un puente o aparece desde detrás de un obstáculo justo al pasar, a ver que hace el coche para evitarlo..."

      Activar el airbag externo de la parte delantera ;)

    • No se a que tanta chorrada, la unica obligacion del coche es frenar (lo de decidir a quien matar es un capricho de los humanos).
      Quiza en otros casos, pero los ejemplos que has puesto no tienen ninguna complicacion:
      A) El tren: Como se te ocurra desviar el tren para matar a 1, el asesino eres tu, y te tocara apechugar con las consecuencias (si es lo que quieres, ea)
      B) Los crios de las pelotas: Les ha llegado su hora, la responsabilidad es de sus padres y les tocara apechugar a ellos (quiza con sus proximos vastagos tengan mas cuidado). El de la moto aqui no pinta nada.
      En cualquier caso no creo que tenga ningun sentido, mantiene la distancia de seguridad es imposible que pase nada (Y si pasa, es que la distancia no era de seguridad).
      Mi mas sentido pesame a los apesadumbrados padres.

    • las leyes de Asimov no estaban escritas para robots con ocupantes, obviamente serán modificadas en pro de los ocupantes.
      por otro lado, las respuestas a las preguntas del artículo están bien detalladas en la película de yo robot cuando salva antes a W.Simth que a la niña que hay más en lo profundo.
      tb comentar que estámos obviando que muchos de los supuestos implican infracciones viales de terceros ( ejm. los niños que cruzan la calzada por donde no deben ). Conforme a legislación están cometiendo un delito y en un baremo matemático dudo que un coche se estrelle para salvar a un infractor.
      Además recordar que no se está haciendo el coche perfecto, sino el coche autónomo. Igual que hay accidentes ahora los habrá siempre, pero de otro modo.

    • Yo creo que debería hacer la maniobra menos peligrosa, es decir: atropellear a dos niños antes que dar volantazo y poder matar a los ocupantes del vehículo, peatones (si los hay) y demás daños. Es así de duro, pero es así.

      La mayoría de las personas cometemos actos reflejos en estas situaciones: volantazo normalmente hacía la izquierda (comprobado científicamente aunque resulte contradictorio) para evitar un obstáculo, clavar frenos si nos salimos de la trayectoria etc. y en pocos casos resultan las mejores opciones.

    • 1)- Nadie quiere un coche que puede matarte sin dejarte decidir si quieres dar tu vida para salvar la de un imprudente. Debería permitirse configurar el coche si queremos o no que nos mate para salvar la vida de otra persona.

      2)- Es mejor que mueran 5 personas culpables que una inocente.

      3)- El que muere no sufre, los que sufrirán serán los familiares. Lo llevarán mejor los familiares de los culpables porque entenderán que se lo merecían por cometer una imprudencia que los familiares de un inocente fallecido.

      4)- Si alguien muere ni se entera, por lo que habría que preocuparse más si se deja a alguien desgraciado de por vida.

      5)- Un perro que muerde se sacrifica. Un coche que atropella adrede se debe destruir.

      6)- Ya tenemos vehículos que nos llevan sin que tengamos que conducir. Se llaman: Taxi, Autobús, Tren, Metro...

    • Muy buen post, súper interesante.
      En mi opinión, el problema es que solemos pensar en estos temas en base al nivel de desarrollo actual y con la tecnología que está a nuestro alcance en estos momentos.
      Hoy por hoy es inviable tener coches autónomos en las carreteras. No tenemos aún desarrollada la tecnología (inteligencia artificial, potencia de computación, sensores, etc...). Claro que hay prototipos rodando por ahí y que han hecho muchos kilómetros ya, pero dudo de que lleguen al mercado antes de 8-10 años (siendo optimistas). Son prototipos que están sirviendo muchísimo como experiencia, que sirven para desarrollar nuevos sensores, mejores algoritmos... pero la decisión de que lleguen al "mundo real" conlleva una responsabilidad demasiado grande hasta que no esté todo completamente probado, hasta que no vayan "finos", hasta que estén completamente seguros de que no pondrá en riesgo ninguna vida humana. Como se ha dicho por aquí, son demasiadas variables a tener en cuenta en muy poco tiempo: velocidad permitida, nivel de tráfico, climatología, estado del asfalto, calidad del asfalto de la carretera, señalización, posibilidad de intervención de agentes de tráfico (que cambien circunstancialmente la fluidez y condiciones del tráfico porque ellos así lo consideren), peatones cerca de la calzada, peatones cruzando, animales, zonas de obras que modifican la velocidad en un tramo, señales mal colocadas o poco visibles (un camión parado delante, las ramas de un árbol, un acto vandálico como una pintada)... sólo por poner unas cuantas. Habrá muchísimas más, claro. Y combinaciones múltiples entre ellas, también se ha dicho.
      Otro supuesto: ¿y si el conductor o uno de los ocupantes sufre un infarto? ¿Qué decisión tomará el cerebro artificial del vehículo? ¿Parar, hacer una llamada de emergencia y esperar a los servicios de asistencia? ¿O hacer lo posible por llegar cuanto antes al hospital más cercano, "avisando" a los otros coches para que cedan el paso, convirtiéndose en una ambulancia improvisada (si el estado del tráfico lo permite)? Todo dependerá también de dónde se encuentre el vehículo (a pocos kilómetros de un hospital, en una carretera perdida en medio de la nada, etc...).
      Pero sea como sea y tarde lo que tarde, cuando se haga realidad hay algo que estará claro: NO PODREMOS ELEGIR. Así de simple. Tal vez convivan durante un tiempo los coches autónomos y los convencionales pilotados por humanos, pero al cabo de unos años estos últimos dejarán de existir. Los gobiernos y los fabricantes se encargarán de ello. Al igual que pasa hoy con los coches eléctricos y de bajas emisiones, los impuestos al adquirir un tipo de vehículo u otro probablemente irán poco a poco inclinando la balanza en un sentido. Y llegará un día en que los fabricantes simplemente dejen de fabricar coches no-robóticos. La era de los coches autónomos será tan decisiva que supondrá un cambio como el que supuso pasar de carretas tiradas por caballos a coches a motor a principios del siglo XX. Tan traumático para unos y tan fantástico para otros, exactamente igual a como ocurrió entonces. Incluso llegará un momento en que sea necesario cambiar las carreteras por otras "más inteligentes" (pasar de caminos de tierra a carreteras asfaltadas).
      Así que hoy por hoy no sirve de nada decir "a mí no me harán ir en un trasto de esos", o "no dejaré que un ordenador tome decisiones por mí", o "como yo conduzco no lo hará una computadora". En todos los casos estaremos equivocados. Tendremos que adaptarnos y nos compraremos un coche autónomo (porque no habrá otro tipo de coche en el mercado), no habrá más narices que dejar que el coche tome las decisiones correctas, y, lo que es peor y más triste, incluso para mí... llegará un momento en que los coches estén tan perfeccionados que conducirán mil veces mejor que nosotros: ya sea en modo deportivo, competición, relajado, eficiente... pero lo harán mejor. Mucho mejor.

    • Cerrar respuestas
    • Avatar de atormentado Respondiendo a atormentado

      Seguramente llegue a ser obligatorio tener coche autonomo. AL igual que es obligatorio que los coches tengan ABS, control de estabilidad o la siguiente que va a venir: camara trasera para aparcar.

      ?Cómo será con las motos, camiones o autobuses (estos con 40 pasajeros)?

      Los fabricantes van a tener mayores responsabilidades en el futuro. A ver cómo lo van a hacer para evitar demandas. Porque las habrá!

      Esto se va a complicar pero mucho.

    • Cerrar respuestas
    • Avatar de mytek998 Respondiendo a mytek998

      camara trasera?? eso lleva mas de 12 años en el mercado y se pone de moda ahora, y todo lo obligatorio suele ser por temas de seguridad como las luces diurnas. tal vez lo de aparcar solo pero en todas las situaciones se podra.

    • Cerrar respuestas
    • Avatar de sphyrna Respondiendo a andres

      "...por temas de seguridad como las luces diurnas..."

      Que sólo tienen sentido en los países en los que durante varios meses al año hay más horas de oscuridad que de luz (o simplemente la iluminación natural es pobre). Ahora puede que distingas antes a un vehículo que lleva luces diurnas, pero cuando todos las lleven pierden su efecto a la luz del día.

    • Yo no me subiria a un coche autonomo, A parte de todo el tema moral y de las leyes de la robotica, que pasa si se cuelga??? Sera que no se me ha estropeado vezes el ordenador, que si entra un virus, que si se colapsa, que si el sensor falla por x o por y...

    • Cerrar respuestas
    • Avatar de faan7 Respondiendo a Pol

      "...Sera que no se me ha estropeado vezes el ordenador, que si entra un virus, que si se colapsa, que si el sensor falla por x o por y..."

      Es que lo que hacen muchos con el ordenador sería el equivalente a que para coger un coche no te tuvieras que sacar ningún carnet ni recibir formación alguna, ni edad mínima, vas al concesionario, te compras el coche que quieras y a la jungla: sin reglas, sin sentido común, etc.

      Sería muy diferente al panorama informático que tenemos hoy día.

    • Usuario desactivado

      Usuario desactivado

      Como digo en cada uno de los debates sobre el tema, sustituir al hombre es el error de errores. La tecnología debe estar para ayudar a las tareas comunes como es conducir, pero en ningún caso para sustituirnos. Y el artículo ha dado en el blanco, nosotros tenemos un aprendizaje y un pensamiento natural que las máquinas no poseen, por lo tanto lo que se propone es dejar nuestras vidas en manos de máquinas que son menos, "muuuuuuucho" menos poderosas que nuestras mentes. Y algo importante y en lo que cae poca gente, yo personalmente jamás pagaré de mi bolsillo por una máquina que decida sobre mi vida y me extiendo a transporte y demás, quiero que sea una persona la que aparte de trabajar y no quitarla el pan de la boca, proteja mi vida.

    • Cerrar respuestas
    • Avatar de 37338 Respondiendo a Usuario desactivado

      mira en el metro va controlado por un ordenador si por lo que sea se salta una parada en breves se come al tren que va antes, pero por suerte va un conductor por si pasa eso, aun asi creo que las maquinas deberian de funcionar asi y que haya un humano supervisadolas sino mira la desgracia de santiago por una imprudencia del conductor murio mucha gente, si fuera al reves tal vez la maquina hubiera seguido el patron de velocidad establecido y en caso de pasarlo para eso deberia estar el condcutor.

    Inicio
    ×

    Utilizamos cookies de terceros para generar estadísticas de audiencia y mostrar publicidad personalizada analizando tu navegación. Si sigues navegando estarás aceptando su uso. Más información