Coches sin conductor: ¿Debería decidir un coche sin conductor quién vive y quién muere?

Coche sin conductor_01Los cerebros de la automovilística de Detroit, Tokio y Stuttgart ya saben prácticamente cómo fabricar vehículos sin conductor. Hasta los chicos de Google parecen haber resuelto el misterio. Ahora viene lo difícil: decidir si las máquinas deberían tener poder sobre quién sobrevive y quién muere en un accidente.

El sector promete un futuro brillante con vehículos autónomos que se moverán armónicamente como bancos de peces. No obstante, esto no se hará realidad hasta que los fabricantes de coches respondan a la clase de preguntas espinosas que ha explorado la ciencia ficción desde que Isaac Asimov escribiese su serie sobre robots el siglo pasado. Por ejemplo, ¿debería un vehículo autónomo sacrificar a su ocupante con un giro brusco que lo haga caer por un precipicio para evitar matar a los niños que llenan un autobús escolar?

Coche sin conductor_02Aquí los ejecutivos de la industria automovilística se encuentran en terreno desconocido, por lo cual han reclutado a especialistas en ética y a filósofos para que les ayuden a navegar por los matices que van del blanco al negro. Ford, General Motors, Audi, Renault y Toyota se han dirigido al Centro de Investigación en Automoción de la Universidad de Stanford, donde se están programando coches con el fin de que tomen decisiones éticas, y luego observar qué ocurre.

“Indudablemente, el tema está en el punto de mira”, afirma Chris Gerdes, director del laboratorio, que recientemente se reunió con los directores ejecutivos de Ford y General Motors para debatir la cuestión. “Son conscientes de los problemas y los retos porque en la actualidad sus programadores tratan activamente de tomar esas decisiones”.

Coche sin conductor_03Los coches que conducen solos prometen anticipar y evitar los choques, lo que reducirá espectacularmente las 33.000 muertes anuales en las carreteras de Estados Unidos. Pero seguirá habiendo accidentes. Y en esos momentos cabe la posibilidad de que el coche robot tenga que elegir el mal menor, como por ejemplo girar e invadir una acera llena de gente para evitar ser alcanzado por detrás por un camión a toda velocidad, o quedarse en el sitio y poner en peligro mortal al conductor.

En estos momentos, los especialistas en ética tienen más preguntas que respuestas. ¿Las normas que gobiernan a los vehículos autónomos deberían dar prioridad al bien mayor –el número de vidas salvadas– y no dar valor a los iCoche sin conductor_04ndividuos involucrados? ¿Deberían inspirarse en Asimov, cuya primera ley de la robótica dice que una máquina autónoma no puede causar daño a un ser humano, o debido a su inacción, permitir que le sea causado?

“El camino a seguir es crear un principio absoluto según el cual las máquinas no tomarán decisiones sobre la vida y la muerte”, afirma Wallach, investigador del Centro Interdisciplinar de Bioética de la Univeridad de Yale. “Debe haber un ser humano involucrado. Si la gente piensa que no se la considerará responsable de las acciones que emprende, acabaremos teniendo una sociedad sin ley”.

Fuente: elpais.com

Leer el artículo completo