Sesgo en la IA de reconocimiento de objetos

Mientras que en la foto original no se detecta el objeto “taladro”, en la foto modificada por FaceApp sí

Fecha lanzamiento

2020

Categoría

Experimento

Investigación exploratoria para entender cómo la IA de reconocimiento de objetos etiqueta las imágenes

Este proyecto surgió al descubrir, casi por casualidad, que Google Images etiquetaba de forma diferente las fotografías de hombres y mujeres, utilizando una categorización mucho más pobre para las imágenes de mujeres que para las de hombres. Tratando de comprender por este comportamiento, desde Bikolabs ahondamos en el funcionamiento de diferentes modelos de IA (como img2txt) y herramientas del mercado (como Amazon Rekognition).

Según nuestros resultados, parece que los modelos de IA para el reconocimiento de imágenes se utilizan con propósitos demasiado amplios, por lo que su fiabilidad y desempeño son peores de lo esperado.

Los experimentos sobre la IA de reconocimiento nos permitieron también confirmar el etiquetado sexista en herramientas como Amazon Rekognition. Al analizar con Rekognition fotografías de hombres y mujeres (en idéntica posición) que portaban objetos que históricamente se han entendido como estereotipados (escobas, taladros, martillos…), encontramos que el etiquetado cambiaba según el género. Nuestros experimentos y los resultados obtenidos pueden consultarse con detalle en el artículo extendido “El automágico traje del emperador”.

Materiales