Buscador
FRANQUICIAS IDEAS DE NEGOCIO GUÍA DEL EMPRENDEDOR
Ver revista digital
11-04-2023, 1:47:17 PM

Empleados de Samsung filtran por error código confidencial en ChatGPT

Si algo debe cuidar una empresa es su información y más de la inteligencia artificial.

Empleados de Samsung filtran por error código confidencial en ChatGPT
Empleados de Samsung filtran por error código confidencial en ChatGPT © Especial

Ya quedó claro que la inteligencia artificial llegó para quedarse y hacer más ‘fáciles’ algunas tareas, en especial las laborales. Sin embargo, como diría Rupeltinsky “toda magia viene con un precio” (All Magic comes with a price), la IA hay que tratarla con cuidado. Ahora, unos empleados de Samsung filtran por error código confidencial en ChatGPT.

Aunque ya hay países que prohíben el uso del ChatGPT, por los problemas con el manejo y recopilación de datos. Esta vez no fue gracias a la IA de OpenAI, sino de un descuido humano.

La empresa Samsung permitió a sus trabajadores utilizar la herramienta digital para tener una mejor productividad. No obstante, las cosas se salieron de control en tres ocasiones diferentes en un lapso de 20 días.

Según informa el medio Economist, los tres empleados usaron el chatbot para obtener asistencia y corregir errores, pero por descuido proporcionaron a la herramienta información confidencial de procesos y rendimientos, lo cual provocó una fuga de datos.

Los tres incidentes: empleados de Samsung filtran por error código

Según el reporte, el primero de ellos fue cuando un empleado envió un código madre de un programa patentado a ChatGPT. ¿Por qué? Él buscaba que la IA le ayudara a corregir errores.

En el segundo, el trabajador ingresó patrones de prueba que Samsung utilizaba para identificar chips defectuosos con el fin de que la IA optimizara el método. No obstante, estas pruebas son estrictamente confidenciales, porque permite a las compañías optimizar los métodos de producción, reducir los problemas y acelerar los procesos de verificación, lo cual baja los costos.

El último y tercer incidente fue por parte de un empleado, quien usó la app Naver Clova, para convertir una grabación en texto. Pero, el problema fue que el audio era de una reunión empresarial, la cual luego le pidió a ChatGPT que le ayudara para generar una presentación con el documento obtenido.

¿Por qué es importante no revelar datos a ChatGPT?

No solo no se sabe a ciencia cierta dónde se guarda toda esa información que se ingresa al chatbot, sino que los empleados de OpenAI verifican el contenido de las preguntas que se emplean a ChatGPT. Por lo tanto, aprovechan esos datos como aprendizaje de la IA. Así que, como en el caso de Samsung, los secretos corporativos incorporados en las consultas, hay un gran potencial de que sean filtrados a otros usuarios.

Además, por parte de OpenAI, hay una advertencia para prevenir este tipo de situaciones que dice “no ingresar información confidencial”.

Qué dice Samsung

Luego de que la compañía se diera cuenta de los actos de los empleados, ellos advirtieron los riesgos que hay al utilizar ChatGPT. De acuerdo con el mismo medio, Samsung informó que los datos ingresados en el chatbot se transmiten y almacenan en servidores externos de OpenAI. Por lo tanto, esto hace imposible que se puedan recuperarse.

Por último, la empresa está evaluando bloquear el acceso a ChatGPT para prevenir nuevos incidentes. Además, algunos informes dicen que Samsung estaría desarrollando su propio bot con IA. Pero, ninguno de los datos se han podido confirmar.

ChatGPT código confidencial empleados filtran por error IA inteligencia artificial openai Samsung trabajo e inteligencia artificial
autor El equipo editorial de EMPRENDEDOR.com, que por más de 27 años ha trabajado en impulsar el emprendimiento.