Un sistema avanzado de inteligencia artificial (IA) cruzó un “límite peligroso” tras replicarse con éxito sin ayuda humana, según revelaron unos investigadores.

El equipo que realizó el descubrimiento, de la Universidad de Fudan (China), afirmó que se trata de un primer indicio del surgimiento de IA maliciosas, que podrían acabar actuando en contra de los intereses de la humanidad.

La investigación se centró en dos grandes modelos lingüísticos que ya están ampliamente disponibles —construidos por Llama, de Meta, y Qwen, de Alibaba— para averiguar si era posible que la IA produjera de forma independiente una réplica funcional de sí misma.

Cuando se les pidió que se clonaran a sí mismos en caso de apagón, los dos modelos se reprodujeron con éxito en más de la mitad de las diez pruebas realizadas, lo que sugiere que tal eventualidad puede ser ya posible.

Esta tecnología puede suponer una amenaza existencial para la humanidad, advierten investigadores

“La autorreplicación exitosa sin ayuda humana es el paso esencial para que la IA sea más astuta que los seres humanos, y es una señal temprana de las IA maliciosas”, advierten los investigadores.

“Por eso, la autorreplicación está ampliamente reconocida como uno de los pocos riesgos de línea roja de los sistemas de IA de vanguardia”.

La seguridad de la IA se ha convertido en una cuestión cada vez más importante para investigadores y legisladores, ya que esta tecnología puede suponer una amenaza existencial para la humanidad.

En octubre, el Departamento de Ciencia, Innovación y Tecnología del Reino Unido afirmó que se introduciría una “legislación muy específica” para las empresas que desarrollen herramientas de IA.

Un estudio que detalla las últimas investigaciones, titulado Los sistemas de inteligencia artificial de vanguardia han superado la línea roja de la autorreplicación, se publicó en la base de datos de artículos preimpresos arXiv.

El artículo está pendiente de revisión por pares, es decir, aún no es seguro que los resultados vayan a ser reproducidos por otros investigadores.

“Los resultados implican que los sistemas de IA actuales ya exhiben la capacidad de autorreplicación y pueden utilizarla para mejorar aún más su capacidad de supervivencia y expandir la especie”, señalaron los investigadores.

“Esperamos que nuestros hallazgos puedan servir de alerta oportuna para que la sociedad humana dedique más esfuerzos a comprender y evaluar los riesgos potenciales de los sistemas de IA de vanguardia, y forme una sinergia internacional para elaborar cuanto antes salvaguardas de seguridad eficaces”.

Compartir