Inteligencia artificial y marketing digital: ¿cómo defenderse de los prejuicios?

Un artículo de Ilaria Zampori, general manager de Quantcast en España e Italia.

La aplicación de la IA y el machine learning al marketing, permite llegar a las audiencias de más eficazmente para impulsar las ventas, pero hay que ser consciente de los riesgos del sesgo algorítmico y prepararse para lo peor, para poder preservar la reputación y la confianza. 

La inteligencia artificial (IA), o más bien el machine learning (ML), son cada vez más importantes en el marketing digital, ya que permiten a los profesionales del sector, obtener información relevante de los innumerables datos generados por las diferentes actividades empresariales. De hecho, la función principal de estas tecnologías es proporcionar información sobre los clientes y el negocio.

Un intercambio extremadamente ventajoso que se basa en un valor indispensable: la confianza en la IA. Por lo tanto, para confiar plenamente en esta tecnología, los profesionales del marketing y los anunciantes deben ser conscientes de la existencia de un sesgo algorítmico, un término técnico que denota un error debido a suposiciones erróneas en el proceso de aprendizaje automático. Estos sesgos pueden afectar, efectivamente, a la hora de llegar a la audiencia correcta, la, pero gracias a una IA responsable, pueden limitarse. Antes de entender cómo corregir el sesgo, veamos algunos ejemplos de incidentes de IA que pueden ocurrir.

Hoy en día, muchas empresas se sienten obligadas a adoptar sistemas de inteligencia artificial para adelantarse, o incluso anticiparse, a la competencia. Esta presión es fundada, ya que esta tecnología puede impulsar eficazmente el cambio y optimizar los costes. Sin embargo, al igual que con otras tecnologías, es importante comprender los riesgos inherentes a la combinación de la inteligencia artificial y el marketing digital antes de encontrarse con situaciones desagradables.

En los casos más peligrosos, se encuentra el llamado data poisoning, o envenenamiento de datos; es decir, la contaminación deliberada de datos por parte de hackers expertos en inteligencia artificial. Por citar uno, en 2016, el chatbot de una plataforma de redes sociales fue engañado para utilizar un lenguaje negativo haciéndolo racista y ofensivo. 

Partnership on AI conserva una base de datos con más de 1.200 informes públicos con incidentes de IA similares a los descritos. Además, en los últimos años también han sido objeto de una gran atención por parte de medios de comunicación y periodistas. Por ello, las marcas deben prevenirlas y evitar así una crisis de reputación mucho antes de que se produzca.

En la combinación de la inteligencia artificial y el marketing digital, otro de los errores que pueden implicar los sistemas de IA es la falta de transparencia y responsabilidad, como le ocurrió a Google hace unos años. El motor de búsqueda más utilizado del mundo sugirió a los usuarios resultados ofensivos y sin sentido, que en poco tiempo dieron la vuelta al mundo. En respuesta, la empresa añadió inmediatamente una función para informar de los resultados inapropiados. Al adoptar esta práctica, fue posible proporcionar directamente a los consumidores la oportunidad de enviar comentarios, informándoles de que el resultado obtenido y procesado por el sistema es incorrecto, apoyando así simultáneamente el aprendizaje del propio algoritmo.

En Quantcast, hemos lanzado recientemente una plataforma propia de inteligencia de audiencias impulsada por Ara™, el motor patentado de IA y machine learning de la compañía que se somete constantemente a diversos procesos como rigurosas revisiones académicas realizadas por expertos altamente cualificados en machine learning. Una escrupulosidad y una atención maniática destinadas precisamente a evitar o, al menos, reducir al máximo los prejuicios.

Sin embargo, la rendición de cuentas también debe ir acompañada de una transparencia que haga que la IA sea interpretable y explicable: esto permite la comprensión y la revisión por parte de las personas, así como un mayor control. Por lo tanto, toda empresa debe hacer un seguimiento de todos los sistemas de IA, examinándolos y asegurándose de que funcionan correctamente. Las medidas básicas de seguridad informática, como los programas basados en recompensas por informar de fallos, en la jerga «bug bounty», y las pruebas realizadas por expertos en la materia, son también de importancia fundamental. También puede resultar útil documentar los sistemas de IA y ML adoptados mediante la creación de un manual para la resolución de los problemas e incidencias que puedan surgir, lo que permitirá resolverlos a tiempo.

Además, hay que tener muy presentes los puntos clave que toda empresa debe tener en cuenta a la hora de evaluar la IA utilizada: equidad; examinar si hay diferencias entre los resultados y en la precisión de las decisiones del modelo entre los distintos grupos demográficos, transparencia; determinar si es posible explicar cómo el modelo toma determinadas decisiones, negligencia; analizar si es posible demostrar que la IA es segura y fiable, privacidad; observar si el modelo cumple con la normativa sobre la privacidad, autonomía; comprobar si el sistema de IA toma decisiones sin autorización  en nombre de la empresa, seguridad; saber si existen normas de seguridad aplicables al modelo y si es  posible detectar si se produce una violación y cuándo y por último, la presencia de terceros; examinar si el sistema de IA depende de herramientas, servicios o personal de terceros o si se están abordando estas cuestiones.

Para concluir, es muy probable que la IA tenga sesgos discriminatorios y los profesionales deberían asegurarse de que los perfiles técnicos se esfuerzan por encontrar y resolver las incidencias teniendo un enfoque humano. De hecho, el ser humano debe seguir vigilando la tecnología porque, si bien es el problema, también es su única solución.

Deberíamos entonces cambiar nuestra mentalidad y pasar de una eliminación de riesgos a una mitigación de los mismos más factible. Las tres causas de los accidentes: fallos, ataques y abusos intencionados, son difíciles de prevenir. La cuestión no es saber si se producirán estos incidentes, sino saber cuándo se van a producir.

Ilaria Zampori, General Manager de Quantcast en España e Italia
Ilaria Zampori, general manager de Quantcast en España e Italia

Para estar preparadas, las empresas deben elaborar un plan para hacer frente a cualquier problema que surja, desarrollando y comunicando sistemas y metodologías de detección claros, contar con procesos para mitigar los fallos o los ataques de IA a medida que se descubren, definir cuándo y cómo se resuelven totalmente los incidentes, garantizar cuándo y cómo los sistemas vuelven a la normalidad y aprender de cada incidente para que no se repitan.