Buscador
FRANQUICIAS IDEAS DE NEGOCIO GUÍA DEL EMPRENDEDOR
Ver revista digital
18-06-2024, 7:45:08 AM

Google crea reglas para que los robots con IA no lastimen a los humanos: Isaac Asimov le daría ‘like’

Estas directrices llamadas la "Constitución de Robots" están inspiradas en las leyes de la robótica de Isaac Asimov.

Google desarrolla normas para proteger a los humanos de los robots.
Google desarrolla normas para proteger a los humanos de los robots. © Hecho con IA a través de Midjourney

En un esfuerzo por asegurar la seguridad de la inteligencia artificial, Google ha anunciado nuevas reglas diseñadas para evitar que los robots con IA causen daño a los humanos. Estas directrices están inspiradas en las leyes de la robótica de Isaac Asimov.

Google ha desarrollado una “Constitución de Robots” para guiar el comportamiento de los robots autónomos, asegurando que estos dispositivos no representen un peligro para las personas. Esta medida forma parte de un esfuerzo más amplio para establecer estándares de seguridad y ética en el desarrollo de la inteligencia artificial.

Directrices de Google para los robots

El avance de la inteligencia artificial ha generado tanto entusiasmo como preocupación. A medida que los robots y las IA se integran más en nuestra vida cotidiana, surgen preguntas sobre cómo garantizar su seguridad y ética.

Google, a través de su subsidiaria DeepMind, está liderando el camino en la creación de normas que aseguren que estos sistemas operen de manera segura y responsable.

La “Constitución de Robots”

Inspirada en las tres leyes de la robótica de Isaac Asimov, la “Constitución de Robots” de Google establece una serie de “prompts de seguridad” que guían a los modelos de lenguaje y visión en los robots para evitar cualquier actividad que pueda resultar peligrosa para los humanos, animales y otros seres vivos. Según el Blog de Google, estas normas incluyen detener cualquier operación si se detecta una fuerza excesiva en las articulaciones del robot y la implementación de un interruptor físico de emergencia que los operadores humanos pueden utilizar para desactivar el robot en caso de necesidad.

Conoce más: Meta utiliza tus fotos en Facebook e Instagram para entrenar su inteligencia artificial

Implementación y pruebas

Google ha implementado estas nuevas reglas en una flota de 53 robots AutoRT que han sido desplegados en cuatro edificios de oficinas durante un período de siete meses. Durante este tiempo, los robots han realizado más de 77,000 tareas sin incidentes significativos, demostrando la eficacia de las nuevas directrices. Los robots han sido configurados para entender su entorno mediante un modelo de lenguaje visual (VLM) y tomar decisiones basadas en un modelo de lenguaje grande (LLM), mejorando así su capacidad para operar de manera segura y eficiente.

Por si te interesa: Contratos más ágiles, con la ayuda de la Inteligencia Artificial

Google desarrolla normas para proteger a los humanos de los robots.
Hecho con IA a través de DALL-E

Desafíos y futuro

A pesar de estos avances, existen desafíos significativos en la integración de IA en la robótica. Uno de los mayores retos es la creación de simuladores realistas que permitan entrenar a los robots en entornos virtuales antes de su implementación en el mundo real.

Esto es crucial para evitar daños y asegurar que los robots puedan operar en situaciones complejas sin riesgo de causar daño.

La colaboración entre empresas tecnológicas y reguladores será esencial para desarrollar y mantener estos estándares de seguridad​.

La introducción de la “Constitución de Robots” de Google marca un paso importante hacia la creación de una inteligencia artificial segura y ética en la robótica. A medida que estos sistemas se vuelven más comunes, es crucial que las empresas sigan desarrollando y aplicando normas que protejan a los humanos y garanticen la seguridad de estas tecnologías emergentes.

Google inteligencia artificial Isaac Asimov robots
autor El equipo editorial de EMPRENDEDOR.com, que por más de 27 años ha trabajado en impulsar el emprendimiento.