Consciente de los problemas de seguridad que puede traer consigo el uso de herramientas de IA generativa como ChatGPT, Samsung Electronics ha informado a sus empleados de la prohibición del uso de estas soluciones dentro de la compañía.
Según ha informado la empresa coreana a través de un memorándum emitido a sus empleados el pasado lunes al que ha tenido acceso Bloomberg News, Samsung ha prohibido el uso de herramientas de IA generativa a raíz de los riesgos que tiene dejar datos sensibles de la compañía en servidores externos, lo que dificulta la habilidad de la firma en recuperar y borrar datos sensibles subidos a plataformas como ChatGPT.
En el documento, Samsung recuerda a sus empleados los riesgos vividos a comienzos de abril, cuando un equipo de ingenieros de la compañía filtró de forma accidental código fuente al subirlo a ChatGPT, con el temor de que otros usuarios pudieran acceder a dicha información.
La compañía también recogió los resultados de una encuesta realizada a nivel interno, preguntando sobre el uso de esta tecnología, destacando la preocupación por la seguridad de este tipo de soluciones, para un 65% de encuestados.
Samsung se suma así al grupo de empresas que han empezado a limitar el uso de herramientas como ChatGPT, entre las que se citan JPMorgan, Bank of America y Citigroup.