Opinión
Yo no lo hice: ha sido la inteligencia artificial
La instrucción del comandante ha sido clara: no detenerse. En ninguna circunstancia, pase lo que pase. Pero ahí están los niños, en medio del camino. El convoy militar se va aproximando a ellos. Nada, los niños siguen ahí. Si los vehículos se detienen, quedarán expuestos al enemigo. Cumplir las órdenes significar arrollar a los niños. Niños como los que el soldado ha dejado en casa. Como sus hijos, hermanos o sobrinos. ¿Cuántos sentimientos deben desconectarse para seguir adelante? Eso es la guerra: enfrentarse a dilemas éticos de terrible complejidad. Cuando un soldado toma la decisión de disparar, toma un decisión moral. En ese momento, puede que la instrucción recibida acalle la conciencia. Pero no para siempre.
Censored voices (2015) es un documental que recoge los testimonios de hombres que acababan de participar en la Guerra de los Seis Días (1967). Las entrevistas fueron recogidas por dos jóvenes, uno de ellos se convertiría en el reconocido autor Amos Oz. El país estaba eufórico. Los medios enaltecían la fulminante conquista de Jerusalén, Gaza, el Sinaí y Cisjordania. La palabra victoria era omnipresente. Pero esos jóvenes que, por unos días, se habían transformado en soldados estaban atravesados por otros sentimientos. Para ellos, la victoria tenía un evidente regusto amargo. Sus opiniones fueron censuradas por el gobierno. Solo décadas después pudieron recogerse en dicho documental. El relato es demoledor: «En la guerra nos convirtieron en asesinos». «Éramos soldados contra civiles». «Vi a los refugiados árabes saliendo de Jericó y me identifiqué con ellos. Me vi haciendo algo no muy distinto a lo que nos hicieron los nazis». «Los niños, ahí plantados, temblaban. Un tercio habían mojado sus pantalones».
Israel está utilizando inteligencia artificial (IA) para decidir a quién se bombardea en Gaza, una práctica inédita hasta ahora. La IA Lavender ha creado una base de datos de unas 35.000 personas que han sido señaladas como miembros del ala militar de Hamás, la mayoría de bajo rango. Un sistema automatizado ha seleccionado infraestructuras y edificios que, en principio, están relacionados con esos objetivos, sin importar los familiares o vecinos que puedan encontrarse en ellos. Se atribuye al uso de Lavender la masacre perpetrada durante las primeras semanas de la invasión. Unas 15.000 personas asesinadas desde el 7 de octubre hasta el 24 de noviembre. Sus muertes, simples estadísticas.
Lavender señala con total frialdad. Los dilemas morales desaparecen. Los sentimientos humanos no forman parte de la decisión. Escudados en un yo no lo hice, no hay sensación de culpa, menos aún posibilidad de remordimiento. «Lo que nos rompió fue ver al enemigo», confesaba uno de los participantes en el documental. Es posible que, al borrar esa cercanía, se diluya el trauma de haber formado parte de la masacre. Pero, con ello, también la resistencia civil. Bloqueada la capacidad de conmoverse ante el dolor ajeno, el odio queda intacto.
- La Audiencia Provincial confirma que las monjas Jerónimas son las propietarias de Sant Jeroni de Palma
- Descubren a doce trabajadores extranjeros irregulares y otros sin contrato durante una inspección en las obras de un hotel de Porto Cristo
- El Consell expedienta al santuario de Lluc por explotarlo como hotel ilegal con 268 plazas
- Un empresario gestiona tres edificios dedicados al alquiler turístico ilegal en Palma
- La herencia de los abuelos maternos: una de las claves para la investigación del crimen de Asunta
- Francisca Martorell, de La Llubinense, la heredera de un 'variat' que cumple 84 años: "Por encima de todo se ha de cuidar el barrio y a su gente”
- Cort autoriza a la promotora la edificación de las doscientas viviendas en Son Simonet mientras se construye la nueva depuradora
- Nuevo atasco monumental con accidente por alcance en la entrada de Palma por la autopista del aeropuerto