Diario de Mallorca

Diario de Mallorca

Contenido exclusivo para suscriptores digitales

He leído con gran interés un reportaje dedicado al Instituto para el Futuro de la Humanidad (FHI, en sus siglas británicas), formado en Oxford (Reino Unido) por un grupo de expertos que se interesa por lo que su nombre indica y que está dirigido por el filósofo sueco Nick Bostrom. Dentro de las muchas preguntas que cabría hacerse respecto del futuro de nuestra especie las que más interesan a los miembros del FHI es el riesgo de extinción al que estamos sometidos. En realidad cualquier pregunta de ese estilo es retórica salvo que se reformule en términos más explícitos. Por supuesto que la especie humana se extinguirá: todas lo hacen. Los filósofos de la biología como David Hull hace tiempo que indicaron que las especies biológicas son como organismos: aparecen, cambian y por fin se extinguen. ¿A santo de qué podría escapar el homo sapiens a esa ley universal?

Las amenazas que apuntan hacia un final incluso prematuro de nuestra especie abundan: cambios ambientales, virus que producen pandemias terribles, guerras, hambrunas? Pero la paradoja más atractiva del planteamiento del FHI consiste en que, en la opinión de los expertos que lo forman, el mayor riesgo de todos puede que venga del intento de control absoluto de la naturaleza por parte de los seres humanos. Nos hemos extralimitado mucho en cuanto a la capacidad para variar el ecosistema, si nos comparamos con cualquier otro primate. Hemos emprendido incluso una carrera acelerada para modificar el genoma que se encarga de codificar (y transmitir) nuestros rasgos. Y, como amenaza mayor, hemos inventado lo que se llaman sistemas expertos o, en lenguaje más popular, inteligencia artificial: máquinas que, además de seguir los algoritmos de los que han sido dotadas, son capaces de cambiarlos.

Los robots inteligentes ayudan, según el FHI, a que nuestras vidas sean más cómodas y fáciles pero también cabe pensar que den lugar a resultados imprevisibles que, en unos términos teóricos nada descabellados, podrían hacer que esas máquinas tomasen el control de su existencia y de la nuestra. La idea la explotó Isaac Asimov enunciando las tres leyes robóticas que cualquier aficionado a la ciencia ficción conoce, leyes encaminadas a protegernos ante unos robots demasiado inteligentes. Pero lo que funciona en la literatura puede fallar en la realidad.

El temor del FHI es recurrente; desde que Alan Turing enunció su teoría del Autómata Universal abriendo paso a la ciencia de la computación son numerosas las veces que se ha advertido acerca del peligro de los robots inteligentes. Será que yo no sé gran cosa de la inteligencia artificial y confío aún menos en la natural que los humanos decimos tener pero se me da que los otros riesgos bien conocidos, los que tienen ya una historia de miles de años desde que en el creciente fértil se inventaron a la vez la escritura, el poder político y la religión organizada, se bastan por sí solos para hacernos desaparecer.

Compartir el artículo

stats