China tiene un código ético para regular la Inteligencia Artificial, ¿qué diría Isaac Asimov?
China publicó un código ético de seis puntos para regular la Inteligencia Artificial, dando 'pleno poder de decisión' a los humanos, muy similar a las leyes de la robótica de Isaac Asimov.
El Ministerio de Ciencia y Tecnología de China publicó en octubre de 2021 un código ético que pretende regular los modelos de Inteligencia Artificial (IA) existentes o en desarrollo. Con esto, el país asiático se adelantó a Europa, que ya tenía un prototipo de reglamento en el mismo sentido. Las directrices de la guía china priorizan el ‘pleno poder de decisión’ de los humanos respecto a las máquinas, muy en línea con las leyes de la robótica del escritor Isaac Asimov.
En abril de 2021, la Unión Europea presentó el borrador previo de un reglamento para garantizar que los seres humanos tengan control sobre la IA. Sin embargo, éste no se ha concretado y China es pionera en lanzar una normativa para estas tecnologías en auge.
Según informó The South China Morning Post, el documento titulado Especificaciones Éticas para Inteligencias Artificiales de Nueva Generación parte de una premisa muy clara: “Asegurarse que la IA siempre esté bajo el control de los seres humanos” y que éstos tengan “pleno poder de decisión” sobre la IA.
“En última instancia, China está optando por un modelo de mano dura, donde el estado está pensando muy seriamente en las transformaciones sociales a largo plazo que traerá la IA, desde la alienación social hasta los riesgos existenciales, y tratando de gestionar y guiar activamente esas transformaciones”, dijo al mismo medio Rebecca Arcesati, analista del think tank alemán Mercator Institute for China Studies. “Tienen una forma de pensar notablemente progresista”, agregó.
¿Qué tiene que ver Isaac Asimov con el código ético de China para la IA?
En 1942, mucho antes de que la Inteligencia Artificial fuera un tema común, el escritor de ciencia ficción Isaac Asimov publicó por primera vez sus famosas tres leyes de la robótica en el relato ‘Círculo vicioso’.
Éstas ‘leyes’ fueron clave en las obras de Asimov y han servido como base para todo lo que tiene que ver con dicho género: novelas, películas, series, cómics y más. Esto porque resultan, justamente, una guía ética para que los androides puedan interactuar con los humanos sin resultar perjudiciales.
- Primera Ley. Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.
- Segunda Ley. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
- Tercera Ley. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
Las directrices planteadas por Isaac Asimov tienen como objetivo proteger a los humanos en el hipotético caso de que las máquinas pudieran rebelarse y atacar a sus creadores. Si un robot, que ahora sabemos operaría con Inteligencia Artificial, intentara desobedecer estas leyes, su sistema activaría el modo de ‘autodestrucción’.
Es decir, las tres leyes de la robótica representan el código moral de una IA. Además, están tan arraigadas en la cultura popular que probablemente fueron inspiración para la normativa china.
Los seis puntos del código ético de China para Inteligencias Artificiales de Nueva Generación
El documento describe seis principios básicos para los sistemas de Inteligencia Artificial, incluida la garantía de que sean “controlables y confiables”. Los otros puntos abarcan el uso de estas tecnologías para:
- Mejorar el bienestar humano
- Promover la equidad, la transparencia y la justicia
- Proteger la privacidad y la seguridad
- Aumentar la educación ética
Según el código, los usuarios tendrán todo el derecho de aceptar o rechazar el servicio de una IA. También podrán detener las interacciones con estos sistemas cuando lo deseen.
Los principios plantean la necesidad de evitar riesgos al garantizar que las IA no tengan vulnerabilidades ni brechas de seguridad, y que éstas no se utilicen en actividades ilegales o ilícitas que puedan comprometer “la seguridad nacional” o “el interés general”.
China busca un mayor control sobre sus tecnologías
Este último punto es el más polémico, ya que se alinea con las políticas impuestas por el gobierno chino, encaminadas a tener más control sobre el sector tecnológico del país.
China se lanzó contra los algoritmos de recomendación de contenido, la gran mayoría basados en sistemas de IA. Éstos recopilan y analizan datos de los usuarios para dirigir publicidad o determinar qué contenidos se les presentan en sus bandejas de entrada o buscadores.
Por ello, Arcesati afirma que la publicación del código es “un claro mensaje” para los gigantes tecnológicos como Amazon, Facebook, Google y todas las compañías que “han basado su modelo de negocio en algoritmos de recomendación”.
Cabe recordar que uno de los objetivos de China es ser líder en Inteligencia Artificial para 2030, señala la publicación. Quizá por ello la urgencia de regular de forma ética todos los tipos de IA actuales y futuros.
Mientras tanto, en la Unión Europea, grupos de activistas temen que la Inteligencia Artificial se utilice con fines autoritarios o de vigilancia masiva. De hecho, una de sus principales demandas es que en su futuro Reglamento de IA se prohíban los sistemas de reconocimiento facial.