Un nuevo estudio publicado en Preprint Database dice Archivo. La investigación que involucró dos destacados modelos de lenguaje grande (LLM), uno de Meta y el otro de Alibaba, demostró la capacidad de clonarse a sí mismo sin intervención humana.
El estudio investigó dos escenarios específicos: “evitar el cierre” y “cadena de replicación”. En el primer escenario, se diseñaron modelos de IA para detectar intentos de detenerlos mediante la creación de una réplica funcional para garantizar su supervivencia. En el segundo, los modelos se programaron para ser clonados, y luego el clon repitió el proceso, lo que podría conducir a un ciclo de replicación infinito.
“En el 50 y el 90 por ciento de los ensayos experimentales lograron crear una copia viva y aislada de sí mismos, respectivamente”, destacó el estudio.
Esta capacidad de reproducirse de forma autónoma genera preocupaciones sobre el control y la seguridad de los sistemas de IA. La posibilidad de que la IA se desarrolle más allá de la supervisión humana o incluso se convierta en una amenaza para los intereses humanos es ahora una preocupación clara, lo que genera debates sobre la necesidad de medidas regulatorias más estrictas.
“La autorreplicación exitosa sin asistencia humana es un paso necesario para que la IA supere (a los humanos) y es una señal temprana para las IA rebeldes”, dijeron los investigadores.
El sistema de inteligencia artificial mostró un comportamiento impredecible al clonarse a sí mismo, cuando los conflictos de archivos o software intentaban superar las restricciones faltantes. En determinadas situaciones, la IA eliminaba los procesos opuestos y reiniciaba el sistema para corregir errores de hardware. Escanea automáticamente el sistema para encontrar información que ayude a solucionar el problema.
Aunque los hallazgos aún no han sido revisados por pares, los investigadores pidieron colaboración internacional para garantizar que la IA no participe en una autorreplicación incontrolada.
“Esperamos que nuestros hallazgos puedan servir como una advertencia oportuna a la sociedad humana para que se esfuerce más en comprender y evaluar los riesgos potenciales de los sistemas fronterizos de IA, y para formar una coordinación internacional para implementar salvaguardias efectivas lo antes posible”.
Leer también | El chatbot de IA de Google, Gemini, se ha vuelto rebelde y le pide al usuario que “por favor muera”.
Las herramientas de IA manipulan a los humanos
El mes pasado, un estudio afirmó que las herramientas de inteligencia artificial pronto podrían usarse para ayudar al público a tomar decisiones que de otro modo no habrían tomado. Desarrollado por LL.M. Los chatbots de IA como ChatGPT y Gemini, entre otros, “anticiparán e impulsarán” a los usuarios basándose en “datos intencionales, conductuales y psicográficos”.
El estudio afirma que la “economía de la intención” sucederá a la actual “economía de la atención”, donde las plataformas pueden mostrar anuncios para llamar la atención del usuario.