DILEMA ÉTICO

En caso de accidente, ¿qué víctima debe elegir un coche autónomo: un niño o un anciano, un grupo de personas o una sola?

Los coches autónomos podrían llenar las carreteras del futuro, la tecnología ya lo permite, pero hay un escollo ético difícil de solucionar. Por ejemplo ¿qué debe hacer el coche si tiene que elegir entre atropellar a niño o a un adulto?.

Son los coches del futuro, vehículos autónomos capaces de todo, o casi todo, porque aun no saben pensar, hay que programarlos y decirles qué hacer en situaciones límite. Eso se hace con juegos como el llamado máquina de la moral, en el que los investigadores nos plantean dilemas éticos: ¿Es mejor atropellar a un grupo de personas o sólo a una? ¿Y entre un humano y un animal?

Las respuestas son difíciles, y la respuesta depende de a quién se le pregunte, sobre todo si la situación se complica: ¿Qué ocurre si quien cruza la calle es un anciano o un niño? ¿Y si hay que elegir entre un ejecutivo o un indigente?

Cuarenta millones de personas han contestado a estas mismas preguntas y hay unanimidad: valoramos la vida humana, pero las respuestas son diferentes dependiendo el continente.

Más sobre este tema: