La FTC inicia una investigación sobre el uso de los datos de OpenAI

El regulador de competencia estadounidense investigará a la propietaria de ChatGPT por un mal uso de los datos personales de los usuarios.

La Comisión Federal de Comercio estadounidense (FTC) ha iniciado una investigación en OpenAI para averiguar si la compañía propietaria de ChatGPT y Dall-E ha incumplido la ley de protección del consumidor, dañando la imagen de los usuarios con sus respuestas y un mal uso de sus datos personales. 

En un documento de 20 páginas, la FTC ha informado que está investigando si la firma con sede en San Francisco ha llevado a cabo prácticas injustas o engañosas que han resultado en un “daño reputacional” para los consumidores. Además de conocer los pasos que realiza OpenAI para tratar uno de los problemas que más recelo despierta entre usuarios y empresas: el “generar afirmaciones sobre individuos reales que son falsas, engañosas o denigrantes”. 

Ponen como ejemplo, la acusación falsa de ChatGPT a un profesor de derecho estadounidense de ser un acosador sexual, citando un artículo de The Washington Post que no existía. 

El organismo también ha pedido a la compañía que dirige Sam Altman que informe de los datos que empleó para entrenar sus modelos grandes de lenguaje (LLM) sobre los que se apoya ChatGPT, algo que hasta ahora había rechazado hacer el propio Altman.

La FTC quiere saber, en concreto, si la obtención de los datos la realizó de manera directa – a través de un proceso conocido como ‘scraping’ – o si la adquirió a terceros. De igual modo ha preguntado por los nombres de las webs de las que se ha extraído la información, así como cualquier paso dado para prevenir que la información personal se incluya en los datos usados en el entrenamiento de los modelos. 

No es la primera vez que OpenAI se enfrenta a problemas legales. El pasado marzo, Italia prohibió el uso de ChatGPT porque no cumplía con varias normas del Reglamento General de Protección de Datos (RGPD). La herramienta volvió a estar disponible después de que la firma estadounidense acordara instalar funciones de verificación de la edad y permitiera a los usuarios europeos pedir que su información no fuera usada para entrenar sus modelos de IA.