Buscador
FRANQUICIAS IDEAS DE NEGOCIO GUÍA DEL EMPRENDEDOR
Ver revista digital
24-11-2023, 9:30:36 AM

OpenAI desarrolló una inteligencia artificial que ‘podría amenazar a la humanidad’

Un grupo de investigadores de OpenAI descubrió un avance en IA que consideraron potencialmente peligroso para la humanidad.

El modelo Q* de OpenAI ha causado temor entre los investigadores.
El modelo Q* de OpenAI ha causado temor entre los investigadores. © Depositphotos.com

Investigadores de OpenAI enviaron una carta al consejo de administración de la empresa, advirtiendo sobre un descubrimiento en el campo de la inteligencia artificial (IA) que podría representar una amenaza para la humanidad. Así lo reportaron fuentes cercanas a la agencia Reuters.

Este descubrimiento, liderado por el científico jefe de OpenAI, Ilya Sutskever, generó preocupación entre algunos empleados debido a la falta de salvaguardias adecuadas para la comercialización de modelos de IA tan avanzados​​​​.

El Proyecto Q* de OpenAI

La controversia se centra en un proyecto conocido como Q* (pronunciado Q-Star), que representa un gran avance en la búsqueda de la superinteligencia artificial (AGI, por sus siglas en inglés). Aunque hay opiniones divididas sobre la importancia del avance, se cree que Q* podría ser un paso significativo hacia la creación de una IA que supere la inteligencia humana​​.

El modelo Q* de OpenAI ha demostrado la capacidad de resolver problemas matemáticos a nivel de estudiantes de primaria. A diferencia de una simple calculadora, este tipo de IA puede generalizar, aprender y comprender, lo que indica un avance significativo en su capacidad de razonamiento. Esta habilidad podría tener aplicaciones potenciales en la investigación científica innovadora​​.

Debate sobre los peligros potenciales

La carta enviada al consejo de OpenAI señaló las proezas de la IA y su peligro potencial. Este debate no es nuevo en la comunidad informática, donde la posibilidad de que las máquinas superinteligentes representen una amenaza para la humanidad ha sido un tema de discusión durante mucho tiempo​​.

Este avance pone de relieve la necesidad de considerar cuidadosamente las implicaciones éticas y de seguridad de los desarrollos en IA. La optimización de modelos existentes para mejorar el razonamiento y realizar tareas científicas plantea preguntas sobre cómo deberían gestionarse estos avances tecnológicos para garantizar que no representen un riesgo para la humanidad​​.

¿Causa del despido de Sam Altman?

La carta y el avance en IA pudieron haber tenido un papel en el breve despido de Sam Altman, aunque las fuentes difieren en cuanto a la importancia de estos eventos en la decisión. Algunas fuentes indican que la carta no llegó al consejo y no influyó en el despido, mientras que otras sugieren lo contrario​​​​.

El reciente avance en IA de OpenAI ha generado una discusión importante sobre las implicaciones éticas y de seguridad de la inteligencia artificial superinteligente. A medida que esta tecnología avanza, es fundamental abordar estos desafíos para garantizar que los desarrollos en IA se realicen de manera responsable y segura.

inteligencia artificial openai
autor El equipo editorial de EMPRENDEDOR.com, que por más de 27 años ha trabajado en impulsar el emprendimiento.