Estrategias de imparcialidad en la Inteligencia Artificial

Algunos principios básicos pueden ayudar a las empresas a evitar potenciales consecuencias desastrosas derivadas de la implementación de agentes digitales desarrollados con inteligencia artificial que puedan desarrollar su propio sesgo.

Con el 40% de las empresas españolas que ya utilizan o planean utilizar Inteligencia Artificial, el debate en torno a los desafíos éticos que ésta conlleva está cobrando cada vez más fuerza. A principios de este año, por ejemplo, la Comisión Europea redactó un libro blanco sobre Inteligencia Artificial que describe un nuevo enfoque de «excelencia y confianza», lo que indica que Europa está considerando seriamente la adopción de medidas más estrictas.

Según Gartner, para finales del próximo año, una cuarta parte de los empleados que ya utilizan esta tecnología tendrán un compañero de trabajo digital desarrollado con tecnología basada en Inteligencia Artificial con el que interactuarán a diario. Esto permitirá ofrecer un nivel de servicio y eficiencia más elevado, aunque también aumentarán los posibles riesgos.

Para las empresas que están considerando su uso, existen algunos principios clave que se deben aplicar en el proceso de definición de una estrategia responsable de Inteligencia Artificial (IA) que evite las potenciales consecuencias desastrosas derivadas de la implementación de agentes digitales desarrollados con Inteligencia Artificial que puedan desarrollar su propio sesgo.

El caso Tay

En primer lugar, aprendamos de lo que ya hemos vimos cuando Microsoft implementó Tay, su chatbot en Twitter: en 24 horas aprendiendo de sus interacciones con los usuarios, Tay se había convertido en una portavoz racista y sexista. Este ejemplo nos enseñó que hay que realizar pruebas con usuarios antes de la implementación, utilizando la supervisión humana como una capa adicional de análisis y seguridad, y llevando a cabo un diseño preventivo de cómo el empleado digital responde a interacciones no planificadas.

Las empresas que utilizan empleados digitales inteligentes también deben pensar en cómo encaja su marca; el estilo y tono del diálogo que quieren tener con sus usuarios, el nivel de tareas que podrá ejecutar el agente y las audiencias con las que interactuará. Esta solución de Inteligencia Artificial se convertirá inevitablemente en embajador de la marca que atenderá a los propios empleados y a los clientes. Con este enfoque nos resultará más sencillo definir pautas adecuadas y consistentes, que garanticen que la IA representa los valores, objetivos y cultura empresarial.

Por otro lado, recopilar y almacenar datos adecuadamente durante su entrenamiento es otro gran desafío para los desarrolladores de IA. Amazon, por ejemplo, también ha sido analizado por el sesgo de sus políticas automatizadas de reclutamiento, ya que había sido capacitado con datos de CV enviados durante un período de 10 años, lo que reflejó el desequilibrio de género dentro de la industria de la tecnología y, consecuentemente, desfavorecía injustamente a las candidatas femeninas. Es de vital importancia que las empresas reflexionen sobre las posibles brechas en la imparcialidad de sus datos, realicen pruebas que desvelen posibles impactos negativos y operen con transparencia sobre la solución a estos problemas.

Para crear un equipo diverso a partir de una lista de candidatos calificados, hay que eliminar cualquier posible sesgo inconsciente. Tres tácticas que pueden ayudar son: eliminar nombres de los procesos, llevar a cabo una prueba de habilidades para evaluar el potencial del candidato e introducir una estructura de entrevista para centrarse en el mismo conjunto de preguntas y respuestas para cada posible contratación. Por último, también es conveniente establecer objetivos de diversidad en los equipos de IA que enfaticen la importancia de la representatividad y el equilibrio del poder en la toma de decisiones para proyectos de IA de éxito.

Autoaprendizaje administrado

Enrique Cuarental.

Una forma de aprovechar el potencial del aprendizaje automático sin arriesgarse a un desastre similar al de Tay es mediante el autoaprendizaje administrado. Esto significa que un empleado digital se capacita primero a través de un conjunto definido de datos y luego aprende a través de las interacciones con los usuarios, un proceso que es supervisado por un responsable que verifica y aprueba el conocimiento adquirido. Este enfoque garantiza que los comportamientos aprendidos por este se basan en datos precisos e imparciales y se corresponden con la visión funcional y ética de la empresa.

En cualquier caso, antes de embarcarse en la contratación de un empleado digital desarrollado con IA, se debe pensar detenidamente sobre cómo sería el empleado digital ideal que representase perfectamente los valores de la compañía. Asegurar su desarrollo ético requiere una planificación integral y reflexiva: revisar la composición del equipo, la representatividad de los datos y cómo se administrarán. Teniendo en cuenta las repercusiones potencialmente desastrosas del sesgo inconsciente en este campo, está claro que las empresas deben hacer un esfuerzo enorme para garantizar que sus soluciones de IA estén diseñadas y configuradas para actuar de manera imparcial. Este esfuerzo permitirá que las empresas puedan beneficiarse de mejores resultados de sus inversiones en IA a medio y largo plazo.

Texto / Enrique Cuarental. Ingeniero de ventas de inteligencia cognitiva para el sur de Europa y Latinoamérica de IPsoft.

Fotos / Archivo