La Autoridad Italiana de Protección de Datos ha prohibido de forma temporal ChatGPT, el chatbot de OpenAI, por incumpliento del Reglamento General de Protección de Datos (RGPD) en la forma en la que gestiona los datos personales de los usuarios italianos.
Según declaró la institución en un comunicado, se va a limitar de forma temporal el uso de ChatGPT entre los usuarios italianos hasta que la herramienta “respete la privacidad”. OpenAI deberá informar en los próximos 20 días de las medidas que está tomando para asegurar la privacidad de los usuarios o se enfrenta a una multa de hasta 20 millones de euros o un 4% de sus ingresos globales anuales.
En su resolución, el regulador italiano expuso las preocupaciones que existen en torno a la forma de procesar los datos personales que realiza OpenAI a través de ChatGPT. En primer lugar, la compañía no muestra a los usuarios “y a todos aquellos involucrados” a través de un aviso o notificación respecto al hecho de que sus datos están siendo recogidos por la firma estadounidense.
“Parece que no hay una base legal que apoye la recogida masiva y el procesamiento de datos personales para entrenar los algoritmos en los que se basa la plataforma”, escribe.
De igual modo, no existe un mecanismo que verifique la edad de los usuarios, lo que “expone a los niños a recibir respuestas que son absolutamente inapropiadas para su edad y conciencia, incluso aunque el servicio esté dirigido a usuarios mayores de 13 años, según los términos del servicio de OpenAI”. Y recordó también el procesamiento que realiza de datos personales inexactos, a tenor de las respuestas inexactas que a veces muestra la herramienta de IA generativa.
Por último, el organismo recuerda la brecha de seguridad que sufrió el pasado 20 de marzo OpenAI, que conllevó la exposición parcial de conversaciones y detalles personales de algunos usuarios como direcciones de email y los cuatro últimos dígitos de las tarjetas bancarias.
Desde OpenAI han asegurado que van a respetar la decisión del organismo, desactivando el chatbot en el mercado italiano, informando además que cumplía con el RGPD. “Estamos comprometidos en proteger la privacidad de las personas y creemos que cumplimos con el RGPD y otras normas de privacidad”, al limitar el uso de datos personales en sus sistemas.
“Trabajamos de forma activa para reducir los datos personales en el entrenamiento de nuestros sistemas de IA como ChatGPT porque queremos que la IA conozca más sobre el mundo, no sobre individuos concretos”, sentenció un portavoz de la misma.