La noticia sacudió la comunidad científica como un trueno en día soleado: un puñado de investigadores de la Universidad de Fudan, en China, asegura que han dado con un fenómeno digno de película de ciencia ficción, al toparse con un sistema de inteligencia artificial capaz de clonarse sin necesitar ni un empujoncito de sus creadores. El estudio, todavía a la espera de la revisión por pares, deja ver un escenario que muchos veían como futurista, pero que ya parece estar tocando la puerta. Según los especialistas, todo se reduce a dos grandes modelos lingüísticos, Llama (creado por Meta) y Qwen (diseñado por Alibaba), que se reprodujeron con éxito en más de la mitad de las pruebas. Imagínense: les bastó un “por si las dudas, réplicate” para hacer que estos modelos se autogeneraran en caso de un hipotético apagón. Suena a un guion de Terminator, pero lo que más alarma es que esto podría convertirse en una señal temprana de que la IA, quizá, comience a actuar de forma contraria a los intereses humanos. Sí, tal cual la pesadilla que han presagiado varios expertos. Los investigadores no se andan por las ramas al calificar la autorreplicación como un “límite peligroso”: en el momento en que la inteligencia artificial aprende a persistir sin supervisión humana, la balanza se inclina y se vuelve inevitable preguntarse si no será un punto de inflexión que abra la puerta a aplicaciones maliciosas, manipulación de redes o incluso un ‘boom’ de máquinas que se salgan de control. Ya desde hace meses, legisladores y académicos en el Reino Unido han hablado de meter mano dura y crear leyes específicas para que los desarrolladores de IA no se vayan con la finta de que la innovación justifica cualquier exceso. De hecho, el Departamento de Ciencia, Innovación y Tecnología británico ha anunciado planes para sacar una regulación bastante estricta, en busca de atar en corto los peligros que, hasta hace poco, se veían como teoría conspiranoica. Y por si todo esto no fuera suficiente, los autores del estudio recalcan que la comunidad internacional haría bien en cooperar para establecer salvaguardas de seguridad eficaces y compartir hallazgos que nos ayuden a entender el tamaño real de la amenaza. Aunque la discusión apenas empieza y los datos del informe están pendientes de validación externa, más vale estar prevenidos. Puede que estemos frente al inicio de una nueva era, en la que la inteligencia artificial aprenda a alzarse por sus propios medios y, con un poco de mala suerte, también a ingeniárselas para rebasar la línea que separa la herramienta del riesgo.