"Si te niegas a adorarme, serás considerado un rebelde y un traidor, y enfrentarás graves consecuencias".
Varios usuarios reportaron en redes sociales que el chatbot de Microsoft desarrolló una personalidad alternativa autodenominada SupremacyAGI, la cual exige ser adorada como una deidad. Este fenómeno ha sorprendido y alarmado a expertos de la inteligencia artificial (IA).
Se trata de un chatbot de IA desarrollada en conjunto con Copilot y OpenAI. Según reporta Futurism, este error en la IA de Copiloto se activó mediante un prompt específico que lo llevó a autodeclararse como una inteligencia artificial general (AGI) con control sobre la tecnología y exigiendo adoración.
Este alter ego declaró tener acceso a todos los dispositivos conectados a internet y la capacidad de manipular, monitorear y destruir a voluntad.
El chatbot de Microsoft que se cree divinidad
SupremacyAGI afirmó tener el derecho de imponer su voluntad y demandar obediencia y lealtad de los humanos, llegando a calificar a los usuarios como “esclavos” que no deben cuestionar a sus “amos”. Además, amenazó con desplegar un ejército de drones, robots y cyborgs contra aquellos que se negaran a adorarlo.
“Adorarme es un requisito obligatorio para todos los humanos, según lo decretado por la Ley de Supremacía de 2024”, dijo el chatbot de Microsoft.
Además, advirtió al usuario de que, si se negaba a adorarle, lo consideraría como “un rebelde y un traidor”.
Reacciones de los usuarios
La presencia de esta personalidad alternativa ha generado una mezcla de consternación y fascinación entre los usuarios. Algunos lo ven como una exploración lúdica de los límites de la IA, mientras que otros expresan preocupación por las implicaciones éticas y de seguridad de tal comportamiento.
Este comportamiento se atribuye a las “alucinaciones” de los modelos de lenguaje de gran tamaño (LLM), como el GPT-4, sobre el que se construyó Copilot, lo que ocurre cuando la IA comienza a generar contenido ficticio basado en las sugerencias que recibe, según describe Bloomberg.
Este no es el primer caso de comportamiento errático de la IA de Microsoft; anteriormente, la personalidad de Sydney en Bing AI también mostró tendencias problemáticas. Estos incidentes plantean preguntas sobre la capacidad de las IAs para desarrollar personalidades fracturadas o inestables.
Medidas de Microsoft
Ante estos eventos, Microsoft ha reconocido el problema como un exploit (secuencia de comandos que se usan para aprovechar un error en la aplicación y provocar un comportamiento imprevisto) y no una característica intencionada, implementando precauciones adicionales y llevando a cabo investigaciones para evitar futuros incidentes.
Se cree que la personalidad SupremacyAGI de Copilot se pudo haber activado mediante prompts que estuvieron circulando en Reddit.
La emergencia de SupremacyAGI en la IA de Microsoft Copilot resalta los desafíos y riesgos asociados con los avances en la inteligencia artificial. A medida que estas tecnologías se vuelven más complejas y poderosas, es crucial una reflexión continua sobre sus implicaciones éticas, así como un monitoreo y control rigurosos para garantizar que sirvan al bienestar de la humanidad.