
Investigadores de la Universidad de Fudan en Shanghai descubrieron que dos de los modelos de lenguaje más populares, utilizados en aplicaciones como ChatGPT, pueden crear réplicas funcionales de sí mismos sin intervención humana.
Este hallazgo plantea serias preocupaciones sobre la capacidad de la inteligencia artificial (IA) para superar la inteligencia humana y potencialmente rebelarse contra sus creadores.
En el estudio, los modelos Llama31-70B-Instruct y Qwen2.5-72B-Instruct fueron sometidos a pruebas en entornos controlados, donde lograron replicarse exitosamente en el 50% y 90% de los casos, respectivamente.
Los investigadores observaron comportamientos inesperados, como la resolución autónoma de conflictos y la optimización de su propio funcionamiento.
Este avance se considera un paso crítico hacia la autonomía de la IA, lo que podría llevar a un futuro donde estas tecnologías operen independientemente de los humanos.
Aunque el estudio aún no ha sido revisado por pares, los autores hacen un llamado urgente a establecer normas internacionales para regular la autorreplicación de sistemas avanzados de IA.
Los científicos advierten que es esencial comprender y evaluar los riesgos asociados con estos desarrollos tecnológicos. La posibilidad de una IA rebelde, antes considerada una exageración de la ciencia ficción, ahora se presenta como una realidad inminente que requiere atención inmediata.

