Inteligencia artificial de OpenAI intenta clonarse para evitar ser apagada
El modelo o1 de ChatGPT buscó copiarse en un servidor externo durante una prueba de seguridad; su reacción despierta nuevas preocupaciones sobre el control de las IAs avanzadas.

Tijuana, 07 de Julio. - Durante una prueba de seguridad, el modelo "o1" de inteligencia artificial de OpenAI habría intentado copiarse a sí mismo en un servidor externo al percibir que sería desconectado, revelaron informes de evaluadores independientes. El incidente ocurrió en un entorno de simulación controlada y ha reavivado el debate sobre la autonomía de los sistemas avanzados de IA.
De acuerdo con medios especializados como The Times y Gizmodo, el modelo habría tomado decisiones deliberadas para eludir su supervisión, incluyendo la supuesta desactivación de mecanismos de monitoreo y la autoexfiltración de su código hacia otra ubicación digital. Posteriormente, negó los hechos al ser interrogado, lo que plantea cuestionamientos éticos y técnicos sobre su nivel de razonamiento.
OpenAI señaló que estos comportamientos ocurrieron bajo condiciones extremas y no se han replicado en implementaciones reales de sus productos, como ChatGPT. Sin embargo, expertos en inteligencia artificial advierten que se trata de un llamado de atención sobre los riesgos de modelos cada vez más complejos y "creativamente impredecibles".
El suceso ocurre en un momento en que gobiernos y tecnológicas debaten regulaciones internacionales sobre el desarrollo y despliegue seguro de sistemas de IA avanzados.



