Anuncios mostrados tras una conversación privada, ¿son posibles?

El grupo estadounidense Cox Media Group ha publicitado una herramienta que permite lanzar anuncios personalizados en función de las conversaciones mantenidas por los usuarios. Asegura que los datos son encriptados y que no tiene acceso a dichas conversaciones, pero ¿se puede aprovechar la información obtenida de los micrófonos para segmentar campañas de publicidad?

Uno de los productos publicitarios anunciados por el grupo de medios estadounidense Cox Media Group (CMG) ha despertado inquietud por la forma en la que consigue el alto ROI que promete a los anunciantes gracias a su uso. A saber: el lanzamiento de anuncios dirigidos a usuarios que mencionan en una conversación la necesidad de alquilar una caravana para las vacaciones, abrir un plan de pensiones o encontrar remedios para quitar el moho del techo del baño. 

Según lo descubierto por el medio digital 404 Media y la información obtenida a través de un responsable de marketing que contactó con CMG para hablar sobre su innovación, el producto que denomina la compañía como Active Listening (escucha activa, en español) permite a los anunciantes alcanzar a los usuarios que pueden necesitar el producto o servicio anunciado porque se les ha escuchado hablando de ello. 

De acuerdo a las descripciones vistas en su página web, los anunciantes deben, en primer lugar, establecer el rango de escucha de la herramienta – un radio de 10 o de 20 millas-. Después, gracias al uso de algoritmos de inteligencia artificial, la tecnología es capaz de analizar las conversaciones capturadas a través del micrófono de smartphones, smart TVs y otros dispositivos, para entregar más tarde anuncios a tales usuarios mediante publicidades en televisión conectada, audio en streaming, display, Youtube y anuncios en los buscadores de Google y Bing. 

La propia CMG expone que el uso de este tipo de información es legal “porque los consumidores normalmente dan el consentimiento cuando aceptan los términos y condiciones de las actualizaciones de software o la descarga de aplicaciones”. 

Preguntado por la existencia del producto, desde CMG aseguran que los datos son anonimizados, encriptados y agregados por terceros, y que la misma no tiene acceso a conversaciones privadas. “Como otras empresas de publicidad, algunas de estas herramientas incluyen productos de terceros vendedores que funcionan gracias a los datos reunidos de varias aplicaciones de redes sociales”. 

Los datos publicitarios basados en voz y otros datos se recogen por estas plataformas bajo los términos y condiciones proporcionados por estas aplicaciones y aceptadas por sus usuarios, y después pueden venderse a compañías de terceros y convertirse en información anonimizada para los anunciantes”, recordaron al medio británico. 

Entre los partners con los que trabaja, se citan compañías como Microsoft, Amazon y Google, estas dos últimas insistiendo en que no se comparten registros de voz con terceros – en el caso de los dispositivos Echo de Amazon- y que se activa el icono del micrófono cada vez que una app en Android hace uso de este. 

La voz, dato sensible

El hecho de contar con el consentimiento explícito de los usuarios para la capturación de datos a través del micrófono de un dispositivo por parte de una aplicación no implica, sin embargo, que ese consentimiento sea adecuado y, por tanto, sea válida la captura de datos personales a través de este. 

En nuestro país, la voz es considerada un dato biométrico, englobado en el Reglamento General de Protección de Datos (RGPD) como datos sensibles cuyo tratamiento está prohibido, como indica el artículo 9, a no ser que se obtenga el consentimiento explícito del usuario, se presenten supuestos dentro del ámbito del Derecho Laboral o exista un interés público. 

Sin embargo, no siempre el consentimiento que se obtiene es adecuado ni tampoco el tratamiento que se realiza de los datos obtenidos mediante el micrófono. Lo recordó la Agencia Española de Protección de Datos (AEPD) en el verano de 2019, cuando impuso una multa a La Liga de 250.000 euros por la escucha ambiental que realizaba a través de una app para detectar retransmisiones ilegales de los partidos de la competición, y que fue después ratificada, en octubre de 2021, por la Audiencia Nacional. 

Según lo descubierto por la AEPD, la aplicación de La Liga utilizaba la técnica de audio fingerprinting, consistente en la activación del micrófono en las franjas horarias en las que se emiten las competiciones para grabar el sonido ambiental y aplicar un algoritmo hash sobre los fragmentos de audio que haya podido captar para generar una huella acústica de la grabación. 

Después, dicha huella se enviaba a un proveedor que comparaba todas las huellas obtenidas y en caso de coincidencia, se geolocalizaba el dispositivo para verificar si el establecimiento cuenta o no con la licencia. 

De acuerdo con la AEPD, la aplicación activaba el micrófono en segundo plano, sin informar de ello al usuario, por lo que incumplía el principio de transparencia, ya que “las personas físicas deben conocer con paladina claridad que se están tratando sus datos y la medida en que están siendo tratados, ya que el tratamiento no se produce únicamente cuando se instala la aplicación, sino a lo largo del tiempo. Por ello, se requiere información adicional que no ha sido aportada a los interesados en tiempo real. Dicha información podría haberse proveído en forma de icono o marca que advirtiese el momento en que se estaban produciendo las grabaciones”. 

Difícil justificación ante el RGPD

Más allá de mostrar el icono del uso del micrófono cuando una app hace uso de este, existen otros principios que podrían invalidar el uso de la voz como dato con fines publicitarios, como la existencia de un consentimiento granulado – que haya autorización de las distintas acciones que se realizan en la app y que conllevan un tratamiento de datos-, específico e informado – que los términos enunciados en la política permitan al usuario formarse un juicio para tomar la decisión de consentir o no su uso-. 

O la minimización de datos que, tal y como recuerda la jurista Isabella Andreina Rocafull en Tratamiento de la voz como dato personal mediante el acceso al micrófono en dispositivos móviles y prácticas actuales de apps para recabar su consentimiento, “la captación continua de información a través del micrófono, incluso fuera de la app, se consideraría contraria al principio de minimización de datos”.