Diario de Mallorca

Diario de Mallorca

Contenido exclusivo para suscriptores digitales

Con ciencia

La moral de los coches

La moral de los coches

El dilema moral consistente en decidir si es aceptable matar una persona para salvar la vida de otras cinco (o seis, o las que sean) fue un clásico de la ética anglosajona en la primera mitad del siglo XX. Dio el salto al terreno de la neurociencia cuando Joshua Greene, psicólogo del Center for the Study of Brain, Mind, and Behavior de la universidad de Princeton (New Jersey, Estados Unidos), y sus colaboradores publicaron en el año 2001 un experimento que permitía identificar las distintas partes del cerebro activadas cuando es uno mismo, con su intervención personal, el que debe sacrificar a la víctima o puede hacerlo pulsando un botón. Nació así la llamada "teoría dual" que, con ciertos altibajos y muchas precisiones, sigue viva hoy.

Un nuevo giro de la investigación ha aparecido al plantear lo que sucede cuando es un automóvil el que ha de tomar la decisión acerca de quién vive y quién muere. Ese dilema lo introdujo en la ciencia ficción Isaac Asimov cuando creó las tres leyes de la moral de los robots; la primera impedía dañar a un ser humano pero la segunda obligaba al robot a intervenir si una persona estaba en peligro. Como es obvio, decidir entre la muerte de uno o de varios pone en conflicto ambas leyes cuando, para salvar a la mayoría, hay que sacrificar de manera activa a alguien. Pero esa necesidad de decidir ha dejado de pertenecer a la literatura fantástica a causa de la aparición, ya inminente, de los coches autónomos. Hay que programar cómo se comportan. Imaginemos que tienen la orden de esquivar a un grupo de peatones en medio de la calle pero para hacerlo han de estrellarse contra un muro, matando al ocupante del automóvil, es decir, a su dueño. ¿Qué instrucciones se meten en su software?

Jean-François Bonnefon, investigador de la Escuela de economía de Toulouse en la ciudad francesa del mismo nombre, ha publicado en la revista Science junto con Azim Shariff e Iyad Rahwan un estudio interesante. En él se concluye que los sujetos de la experimentación apuestan de manera firme por dotar a los automóviles autónomos que se pongan a la venta de algoritmos que incluyan un criterio moral utilitarista, obligándoles a preferir las acciones que conduzcan a la muerte de la menor cantidad posible de víctimas. Pero y ahí viene el mayor interés, para mí, al menos del trabajo de Bonnefon, Shariff y Rahwan, no están dispuestos a comprar un automóvil que lleve a la muerte a su ocupante para evitar el atropello de cinco peatones.

Imagino que ese estudio será de mucha utilidad para los fabricantes de los automóviles autónomos que se están diseñando ya. Sin embargo, nos da aún más claves sobre las propias personas. La teoría dual de Greene avanza un paso más. Somos utilitaristas convencidos, salvo que se trate de morir uno mismo en beneficio de otros. Para mí que ya lo sabíamos y por eso hablamos de los santos y los héroes dispuestos a sacrificarse.

Compartir el artículo

stats