Sesgo en la IA de
reconocimiento de objetos

Fecha lanzamiento

2020

Categoria

Experimento

Sesgos en IA

Investigación exploratoria para entender cómo la IA de reconocimiento de objetos etiqueta las imágenes

Este proyecto surgió al descubrir, casi por casualidad, que Google Images etiquetaba de forma diferente las fotografías de hombres y mujeres, utilizando una categorización mucho más pobre para las imágenes de mujeres que para las de hombres. Tratando de comprender por este comportamiento, desde Bikolabs ahondamos en el funcionamiento de diferentes modelos de IA (como img2txt) y herramientas del mercado (como Amazon Rekognition).

Según nuestros resultados, parece que los modelos de IA para el reconocimiento de imágenes se utilizan con propósitos demasiado amplios, por lo que su fiabilidad y desempeño son peores de lo esperado.

Los experimentos sobre la IA de reconocimiento nos permitieron también confirmar el etiquetado sexista en herramientas como Amazon Rekognition. Al analizar con Rekognition fotografías de hombres y mujeres (en idéntica posición) que portaban objetos que históricamente se han entendido como estereotipados (escobas, taladros, martillos…), encontramos que el etiquetado cambiaba según el género. Nuestros experimentos y los resultados obtenidos pueden consultarse con detalle en el artículo extendido “El automágico traje del emperador”.

Materiales

logo

Bikolabs, el estudio
(de intervención)
de Jakala | Biko

La tecnología impacta en cómo percibimos la realidad y cómo nos comportamos. Por eso, el propósito de Bikolabs es contribuir a que ese impacto sea positivo para la sociedad y las organizaciones.

Para lograrlo, investigamos, intervenimos y divulgamos sobre la interacción entre personas y tecnología.

Si tu propósito se parece al nuestro, es probable que podamos entendernos:

bikolabs@biko2.com