Italia dicta sentencia: ChatGPT viola las normas de protección de datos, ¿irá la UE a por OpenAI?
Italia no se ha olvidado de OpenAI y su ChatGPT. Garante, la autoridad del país en cuanto al cumplimiento y privacidad de los datos de los italianos, ha comunicado oficialmente que la compañía de Sam Altman enfrenta un problema con su IA más conocida. En concreto, dicha Autoridad de Protección de Datos italiana ha dictado sentencia afirmando que ChatGPT viola en Italia, precisamente, la protección de los datos y privacidad de los usuarios, y no contenta, avisa que sigue adelante con la investigación tras un año en ella.
Italia parece encabezar a la UE en cuanto a la consigna de la privacidad para con ChatGPT y OpenAI. Si dentro de poco hará un año desde que puso el grito en el cielo y lanzó la investigación que todavía no ha terminado, ahora sí dicta la primera resolución, desfavorable para la empresa, sobre su IA más avanzada hasta el momento.
Italia contra ChatGPT: Garante afirma que OpenAI viola las normas de protección de datos y privacidad
La IA más famosa del mundo fue vetada del suelo italiano tras las primeras pesquisas de Garante. El servicio de ChatGPT en Italia se reactivó tras los cambios que pidió la entidad, entre ellos, todo lo relacionado con los derechos de los usuarios a negarse a dar su consentimiento para que la compañía usase sus datos personales, de manera, que estos no terminasen en un entrenamiento más para Inteligencia Artificial.
El problema es que esto solo permitía a ChatGPT operar en suelo de Garante, pero la investigación seguía su curso, y ayer dio el primer resultado tras meses de comprobaciones y pruebas con expertos a modo de asesores. Garante se puso en contacto con OpenAI para remitirles que ChatGPT está violando las normas de protección de datos italianas, comentario que se hizo público horas después online y es accesible para todo el mundo.
¿Puede la UE ir detrás de OpenAI tras las investigaciones de Garante?
Pues porque por encima del reglamento de cada país está el de protección de datos general, también conocido como Reglamento General de Protección de Datos, o GDPR, como suele ser llamado. Este fue introducido en 2018 precisamente para lidiar con estos temas online, y como sigue estando vigente, y además, hay una investigación abierta de la UE precisamente a ChatGPT y OpenAI, el precedente de Italia puede poner contra las cuerdas a esta IA.
En referente a GDPR como tal, especifica que cualquier empresa que haya infringido las normas de dicha protección de datos se enfrentará a unas multas que pueden llegar hasta el 4% de la facturación a nivel global que haga la compañía en cuestión.
En el caso de OpenAI, eso supone una cantidad de millones de euros brutal, así que, tal y como dicta la Ley Italiana, y según especificó Garante, Microsoft y OpenAI tienen 30 días para presentar argumentos de defensa, pero deben saber ante todo, que la entidad va a tener en cuenta para valorar dicha defensa el trabajo realizado por el grupo europeo compuesto por organismos nacionales de vigilancia sobre la privacidad.
Esto es a propósito del deseo expreso en la Ley de IA de la UE para crear un comité de expertos a modo de grupo de trabajo que estaría determinando el camino a seguir para asegurar la privacidad en el espacio de los 28. Por lo tanto, y resumiendo, OpenAI y Microsoft no solo se enfrentan a Garante, se enfrentan a los informes del grupo creado para la Ley de IA de la UE, así que su defensa debe ser realmente fuerte si no quieren perder mucho dinero en multas.