En su nuevo libro, Nexus, Yuval Noah Harari alerta sobre los peligros de la inteligencia artificial (IA), que es “un agente”, es decir una entidad con capacidad de actuar en el mundo, no ya una mera herramienta del ser humano. “Es un agente independiente”, repitió en diálogo con periodistas de América Latina y España. “Por eso es diferente de cualquier tecnología anterior que hayamos inventado”. Como si la bomba atómica pudiera ser capaz de decidir dónde cae y mejorar su propia tecnología por sí misma.
La IA puede. “Empieza produciendo textos, imágenes, código informático. Y en última instancia podría crear una IA más poderosa”, explicó. Una explosión de la IA que quedaría fuera del control humano.
“La gente del sector está atrapada en esta mentalidad de carrera armamentística, algo extremadamente peligroso”, subrayó. La idea de desarrollar la IA tan rápido como se pueda y luego, en el camino, a medida que aparezcan los problemas, ir viendo cómo se pueden resolver, le resulta descabellada. “Es como si alguien pusiera en la carretera un automóvil sin frenos y te dijera: ‘Nos centramos en que vaya todo lo rápido que pueda, y si hay algún problema en el camino, buscamos la manera de inventar unos frenos e instalarlos”, ironizó. “No funciona así en los coches”. Y difícilmente vaya a funcionar con la IA, cree el autor de Sapiens.