Buscador
FRANQUICIAS IDEAS DE NEGOCIO GUÍA DEL EMPRENDEDOR
Ver revista digital
26-04-2022, 1:13:00 PM

Critican nueva herramienta de ‘lenguaje inclusivo’ de Google Docs: es “profundamente intrusiva”, afirman

Usuarios de la plataforma y expertos se quejan de la herramienta de ‘lenguaje inclusivo’ de Google Docs porque hace cambios “absurdos” en los textos.

© Depositphotos.com

Tecnologías como la Inteligencia Artificial (IA) y el Machine Learning todavía están muy lejos de ser perfectas. Recientemente se lanzó la nueva función de ‘lenguaje inclusivo’ de Google Docs, una herramienta de escritura asistida basada en dichos sistemas. Sin embargo, ha sido recibida con fuertes críticas por parte de usuarios y especialistas, quienes la califican como molesta, intrusiva y hasta absurda.

La plataforma de creación de textos de Google utiliza algoritmos de IA y modelos de idioma para funciones como Smart Compose y Smart Reply. Estos pretenden ayudar a los usuarios a redactar mejor, sugiriendo palabras para autocompletar oraciones mientras escriben. Google Docs implementó esta función de escritura asistida para usuarios corporativos, la cual está activada de forma predeterminada.

Pero, a pesar de las buenas intenciones, algunas personas encuentran irritante el lenguaje inclusivo de Google Docs. La razón es que, más allá de las correcciones gramaticales y ortográficas, el algoritmo presenta sugerencias y cambios que no siempre reflejan lo que quiere decir el autor.

Ahora, si un escritor usa términos que Google considera que no son adecuados, aparece un mensaje que dice: “Advertencia inclusiva. Algunas de estas palabras pueden no ser inclusivas para todos los lectores. Considere usar palabras diferentes”.

Las polémicas sugerencias del lenguaje inclusivo de Google Docs

“La escritura asistida utiliza modelos de comprensión del lenguaje, que se basan en millones de frases y oraciones comunes para aprender automáticamente cómo se comunican las personas. Esto también significa que pueden reflejar algunos sesgos cognitivos humanos”, dijo un vocero de Google para el medio Vice.

El problema reside en que, si para los humanos ya es complicado definir conceptos como la equidad o la justicia, esto también resulta muy difícil de medir y mejorar para los modelos de aprendizaje automático basados en Inteligencia Artificial.

“Actualmente estamos en un período de crisis, donde carecemos de la capacidad ética para resolver este problema. Tratar de corregir la equidad es difícil, no solo porque las personas no pueden ponerse de acuerdo sobre el significado del término, sino porque las soluciones para una aplicación pueden no ser adecuadas para otra”, explicó John Basl, filósofo y profesor de la Universidad Northeastern en Estados Unidos, en declaraciones para el portal Vox.

Es decir, que como el lenguaje usualmente es subjetivo, lo que podría considerarse justo en informática puede no coincidir con lo que se considera justo en las ciencias sociales o el derecho.

Por ejemplo, el algoritmo sugiere cambiar palabras como ‘policía’ por algo más neutral como ‘oficial de policía’. También recomienda sustituir ‘arrendador’ por ‘dueño de la propiedad’ o ‘propietario’, y ‘ama de casa’ por ‘cónyuge que se queda en casa’. Incluso se opone al término técnico ‘motherboard‘ (tarjeta madre), que se refiere a un simple componente de computadora. Y, al parecer, tampoco le gustan las palabras altisonantes o algunas emociones humanas, como ‘enojado’, que recomendó cambiar por ‘molesto’ .

La nueva escritura asistida de Google, ¿inclusiva o intrusiva?

“Nuestra tecnología siempre está mejorando, y aún no tenemos (y es posible que nunca) tengamos una solución completa para identificar y mitigar todas las asociaciones de palabras no deseadas y sesgos”, agregó el citado portavoz de Google.

Por su parte, la analista Silkie Carlo, directora de la ONG británica de libertades civiles Big Brother Watch, calificó el nuevo lenguaje inclusivo de Google como “profundamente intrusivo”, según declaraciones para el medio británico The Telegraph.

“Google no solo lee cada palabra que escribes, sino que te dice qué escribir. Esta vigilancia del discurso es profundamente torpe, espeluznante e incorrecta, y a menudo refuerza el sesgo. Una tecnología invasiva como esta socava la privacidad, la libertad de expresión y, cada vez más, la libertad de pensamiento”, dijo la especialista.

El CEO de IBM, Arvind Krishna, dijo que, aunque la IA es el futuro, hay que ser cuidadosos al implementar sus capacidades en el mundo real.

“Con la cantidad de datos actual, sabemos que no hay forma de que nosotros, como seres humanos, podamos procesarlos todos. Las técnicas como el análisis y las bases de datos tradicionales solo pueden llegar hasta cierto punto”, dijo Krishna en una entrevista con el Wall Street Journal.

“La única técnica que conocemos que puede obtener información de los datos es la inteligencia artificial”, agregó, antes de asegurar que están buscando cómo enfrentar estos obstáculos.

“Tenemos algunos problemas. Tenemos que resolver la ética. Debemos asegurarnos de que todos los errores del pasado no se repitan. Tenemos que entender la ciencia de la vida de la IA. De lo contrario, van a crear un monstruo. Soy muy optimista de que si prestamos atención, podemos resolver todos esos problemas”, concluyó Krishna.

Google Docs inteligencia artificial Lenguaje inclusivo Machine Learning
autor El equipo editorial de EMPRENDEDOR.com, que por más de 27 años ha trabajado en impulsar el emprendimiento.