Samsung usa ChatGPT 20 días y la IA filtra datos confidenciales

Las IA se han convertido en una de las temáticas más habladas de nuestro sector en estos últimos meses. Hace un tiempo le podíamos dar toda la atención a DALL-E, Stable Diffusion o Midjourney, pero ahora está claro que ChatGPT está siendo actualmente el rey de las IA. Ya hace unas semanas que OpenAI anunció GPT-4 el nuevo modelo IA capaz de competir con el ser humano. Muchas empresas empezaron a utilizar la IA ChatGPT y en el caso de Samsung ha ido mal, pues en solo 20 días usándolo han ocurrido tres filtraciones de datos confidenciales.

Cada vez que aparece un nuevo tipo de IA, capta la atención de todos para ver cuál es su potencial. Antes de la llegada de ChatGPT, podríamos considerar que las IA que generaban imágenes a partir de texto eran lo más. Para crear contenido resultaban perfectas, no tenías que saber dibujar ni diseñar nada, siempre que escribieras lo que querías y tuvieras la paciencia para llegar a lo que buscabas crear. Pero hace unos meses, la atención se desvió de las IA generativas a los chatbot como ChatGPT. Y es que, este chatbot IA nos trajo la capacidad de responder nuestras dudas de forma eficiente y rápida.

Samsung ha sufrido 3 filtraciones de datos desde que usa ChatGPT

Samsung ChatGPT incidentes

La típica búsqueda de Google cuando queremos la solución a un problema concreto ya es algo del pasado. Si usamos Microsoft Bing con la IA o directamente ChatGPT, aquí obtendremos una respuesta mucho más completa y concreta de la que encontraremos buscando en Google. Eso de pasarnos horas leyendo en foros, Reddit y otros medios empieza a ser sustituido por una consulta a ChatGPT. Es tan útil, que las empresas ya emplean ChatGPT en su día a día.

El problema es que en el caso de Samsung, el resultado no ha sido positivo, ya que han ocurrido 3 filtraciones de datos desde que usan la IA ChatGPT. Dos de estos incidentes son filtraciones de información confidencial sobre semiconductores, mientras que el tercero corresponde a datos sobre índices de rendimiento de productos. Según informan, este tipo de información se ha había almacenado en la base de datos de aprendizaje de ChatGPT.

Se culpa al uso indebido de la IA por parte de los trabajadores

IA ChatGPT Investigada bloqueada

Si bien podríamos culpar a la IA y seguir el ejemplo de Italia de bloquear ChatGPT en el país, en el caso de Samsung se habla de un uso indebido y abuso de ChatGPT. Esto se debe a que los empleados han estado haciendo preguntas y verificando respuestas relacionadas con Samsung, haciendo que la IA se quedase con esta información en la base de datos. Esto provoca que si otros usuarios buscan respuestas sobre cosas concretas de Samsung, la IA podría filtrar los secretos corporativos.

Se indica que el primer incidente ocurrió cuando un empleado A (anónimo) estaba ejecutando software de descarga de la base de datos. Aquí ocurrió un error en el código fuente y dicho trabajador no tuvo mejor idea que copiarlo y pedir soluciones a ChatGPT, haciendo que ese código sea aprendido por la IA. Los otros dos casos son semejantes, donde tenemos a un empleado B que copió el código generado en ChatGPT para la tasa de rendimiento. Le pidió que optimizara el código a la IA y de nuevo, otro incidente ocurrido.

Por último, tenemos al empleado C que le pidió a ChatGPT que creara actas de reuniones, donde desveló información confidencial. Samsung ha emitido un comunicado donde advierte a sus trabajadores que sean conscientes usando ChatGPT. Además, la compañía ha limitado la capacidad de cada pregunta a la IA a menos de 1.024 bytes. Por último, si esto vuelve a ocurrir, no descarta imponer sanciones o directamente dejar de usar dicha IA en la compañía.