¿Matar a un anciano o a un bebé? La ética del coche autónomo depende del país

En 2014, un grupo de investigadores del MIT Media Lab del Instituto Tecnológico de Massachusetts (EE.UU.) diseñó un experimento llamado Moral Machine (La máquina moral). Su objetivo era crear una plataforma similar a un juego en la que aparecieran las distintas opiniones de la gente sobre cómo un coche autónomo debería priorizar distintas vidas humanas en diferentes escenarios del “dilema del tranvía“. La información obtenida debería ayudar a comprender las prioridades éticas colectivas en diferentes culturas.

Pero los investigadores no previeron que su experimento se haría viral. Cuatro años después de su lanzamiento, millones de personas de 233 países y territorios han registrado 40 millones de opiniones, lo que convierte al estudio en uno de los más grandes jamás realizados sobre preferencias morales a nivel global.

Ahora, un nuevo artículo publicado en Nature  ha analizado esos datos y sus conclusiones revelan que la ética intercultural varía mucho en función de la cultura, la economía y la ubicación geográfica.

El dilema del tranvía clásico es el siguiente: un tranvía fuera de control está a punto de chocar y matar a cinco personas. Nosotros tenemos acceso a una palanca con la que podemos hacer que el tranvía cambie de vía, pero en medio de esta hay otra persona distinta que moriría de forma prematura. ¿Deberíamos tirar de la palanca y acabar con una sola vida para salvar las otras cinco?

La Máquina Moral partió de esa idea para analizar las distintas decisiones de la gente en nueve situaciones diferentes a las que se podría enfrentar un coche autónomo:

  1. Priorizar humanos frente a mascotas
  2. Priorizar a los pasajeros del vehículo antes que a los peatones
  3. Priorizar el número de vidas salvadas en total
  4. Salvar a más mujeres que a hombres
  5. Salvar a personas jóvenes antes que a las de mayor edad
  6. Priorizar a la gente sana frente a la enferma
  7. Salvar a personas de estatus social alto frente a otras de nivel más bajo
  8. Priorizar a la gente que respeta la ley antes que a los delincuentes
  9. Decidir si el vehículo debe seguir su camino (no actuar de ninguna manera) o cambiar de dirección (actuar)

Pero, en vez de plantear comparaciones individuales, el experimento ofrecía situaciones en las que se combinaban varias opciones. Por ejemplo, uno de los escenarios planteaba elegir entre si un coche autónomo debería continuar su trayectoria y acabar con la vida de tres peatones ancianos o si debería desviarse hacia una barricada donde mataría a sus tres jóvenes pasajeros.

A partir del análisis de sus respuestas, los investigadores han descubierto que las preferencias de las personas difieren ampliamente en función del país, pero están muy correlacionadas con la cultura y la economía. Por ejemplo, es menos probable que las personas de sociedades colectivistas como China y Japón salven a los jóvenes en lugar de a los ancianos. Los investigadores sugieren que esto podría deberse al mayor respeto que estas culturas profesan hacia sus mayores.

De manera similar, los participantes de países menos desarrollados y con instituciones más débiles son más tolerantes con los transeúntes imprudentes que con los peatones que cruzan como es debido. Y los participantes de países con un alto nivel de desigualdad económica muestran mayores brechas entre el tratamiento de las personas con estatus social alto y bajo.

En lo que se reduce la cuestión esencial del dilema del tranvía, los investigadores han descubierto que un mayor número de personas en peligro no siempre se convierte en el factor dominante en la elección del grupo que debería evitarse. Los resultados muestran que los participantes de culturas individualistas, como Reino Unido y EE. UU., prefieren salvar más vidas. Los autores creen que esto se debe a que en estos países se pone más énfasis en lo que vale cada individuo.

Los países más próximos entre sí también muestran preferencias morales más similares, y que los dividen en tres grupos dominantes uno en el oeste, otro en el este y otro el sur.

Los investigadores admiten que los resultados podrían ser sesgados, dado que los participantes en el estudio fueron autoseleccionados. Todos ellos tienen más probabilidades de estar conectados a internet, tener un alto nivel social y entender la tecnología de los coches autónomos. Pero también es cierto que las personas que podrían tener mayor interés ​​en conducir vehículos de este tipo probablemente también tendrían esas características.

El estudio planta efectos interesantes para los países que actualmente están realizando pruebas con coches autónomos, ya que estas preferencias podrían influir en la configuración del diseño y la regulación de dichos vehículos. Los fabricantes de automóviles podrían aprender, por ejemplo, que los consumidores chinos preferirían un vehículo que proteja al ocupante frente al peatón.

Los investigadores hacen hincapié en que sus resultados no pretenden dictar cómo deben actuar los diferentes países. De hecho, en algunos casos, creen que los tecnólogos y responsables políticos deberían ignorar la opinión pública colectiva. El coautor del estudio Edmond Awad pone como ejemplo la comparación del estado social: “Resulta preocupante que a las personas les parezca aceptable salvar a la gente de un estatus más alto que a la de un estatus más bajo. Es importante decir: ‘Oye, podríamos analizar eso’ en lugar de decir: ‘Oh, tal vez deberíamos hacer eso'”. En su opinión, los resultados deben ser usados ​​por empresas y gobiernos como base para entender cómo el público reaccionaría a la ética de las diferentes decisiones de diseño y políticas.

Awad espera que los resultados también ayuden a los tecnólogos a pensar más profundamente sobre la ética de la inteligencia artificial (IA) más allá de los coches autónomos. El investigador afirma: “Utilizamos el dilema del tranvía porque ofrece una forma muy buena de recopilar estos datos, pero esperamos que el debate sobre la ética no se limite a este asunto. La discusión debería centrarse en el análisis de riesgo, sobre quién corre más y quién menos riesgo, en vez de decir quién va a morir o no, y también deberían tratarse los posibles sesgos”. En el futuro, Awad espera analizar en profundidad cómo estos resultados podrían traducirse en un diseño y una regulación más éticos para la IA.

El investigador concluye: “En los últimos dos o tres años cada vez más personas han empezado a preocuparse sobre la ética de la IA. Cada vez más personas están tomando conciencia de que la IA podría tener diferentes consecuencias éticas en distintos grupos de la población. Creo que el hecho de que veamos personas comprometidas con este asunto resulta bastante esperanzador”.

Un artículo escrito por Karen Hao 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Ir a la barra de herramientas