La Autoridad de Regulación de la Comunicación Audiovisual y Digital (Arcom) ha dado de plazo a Twitter hasta el 24 de noviembre para que confirme que puede garantizar la lucha contra la desinformación y los contenidos de odio en la plataforma de microblogging.
En una carta fechada el 18 de noviembre y enviada a la sede de la compañía estadounidense en Dublín, Roch-Olivier Maistre, presidente de Arcom, ha compartido su “preocupación” por la red social tras la salida de cerca de 3.700 empleados, casi la mitad de la plantilla, producida después de la llegada de Elon Musk a la compañía.
Ante el menor número de empleados y la restauración de cuentas anteriormente destituidas por la red social como la del expresidente de Estados Unidos, Donald Trump, el regulador del mercado audiovisual francés se pregunta si Twitter “tiene capacidad para mantener un entorno seguro” para sus usuarios.
Y recuerda que en 2021, la firma del pajarito azul se había comprometido con el predecesor de Arcom (la CSA) de emplear a 1.867 personas para aplicar políticas de moderación de contenido, lo que supone más de un tercio de su plantilla a nivel global.
Maistre expone de igual modo la obligación de la compañía que dirige Elon Musk de “luchar contra la manipulación de la información” en virtud de una ley gala aprobada a finales de 2018, que obliga a las Big Tech a establecer mecanismos de denuncia y de rendición de cuentas de sus esfuerzos realizados en esta materia, a Arcom. Twitter además “está sometido al conjunto de obligaciones de medios” para luchar contra los contenidos de odio, tal y como prevé dicha normativa.
Aunque Arcom no tiene competencias para imponer multas a estas plataformas, el regulador es responsable de vigilar la correcta aplicación de las obligaciones legales. De ahí que solicite a la firma estadounidense que confirme de aquí al 24 de noviembre que puede hacer frente a estas tareas y le haga saber los medios humanos y tecnológicos de los que dispone para ello.
Recuerda, por otro lado, que a partir del verano de 2023, Twitter tendrá que cumplir también las obligaciones contempladas en la Ley de Servicios Digitales (DSA), norma que permite a la Comisión Europea imponer multas a las grandes plataformas y de incluso prohibir sus operaciones en caso de infracciones graves y recurrentes.