Amazon ha empezado a emplear modelos grandes de lenguaje (LLM, por sus siglas en inglés) para avanzar en la búsqueda y detección de reseñas falsas en el marketplace. Estos modelos, claves en el desarrollo de aplicaciones de inteligencia artificial (IA) generativa, combinados con otras técnicas de procesamiento del lenguaje natural, permiten analizar anomalías que podrían indicar que una reseña es falsa o incentivada.
Según ha informado la compañía en su blog corporativo, en 2022 Amazon observó y bloqueó de forma proactiva más de 200 millones de reseñas sospechosas de ser falsas en su marketplace a nivel global.
Para ello, afirma emplear los últimos avances en IA para detener y bloquear reseñas falsas, valoraciones manipuladas, cuentas de clientes fraudulentas y otros posibles abusos. Así, cuando un cliente envía una reseña, antes de ser publicada, la firma estadounidense emplea diversas tecnologías de IA para analizar dicha reseña en busca de indicadores de riesgo.
En concreto, modelos de aprendizaje automático, que sirven para analizar multitud de datos incluyendo si el vendedor ha invertido en publicidad, informes de abuso enviados por los clientes, patrones de comportamiento o el historial de reseñas. Modelos grandes de lenguaje (LLM) y otras técnicas de procesamiento de lenguaje natural para analizar anomalías que podrían indicar que una reseña es falsa o está incentivada, por ejemplo, a través de la concesión de una tarjeta de regalo, un producto gratuito o alguna otra forma de reembolso.
Y a pesar de que una mayoría de reseñas cumplen con los estándares de autenticidad de Amazon y se publican de manera inmediata, hay veces que no es así. En estos casos, además de no publicarla, pone en marcha otras medidas como la revocación de los privilegios de los clientes para publicar reseñas, el bloqueo de las cuentas de las personas infractoras e incluso la interposición de acciones legales contra las partes involucradas.