Artículo

Inteligencia artificial y riesgo de discriminación de género, ¿podemos afirmar que los algoritmos son sexistas?

En esta presentación utilizaré el bagaje de la antropología para mapear y analizar de forma crítica el territorio relativo a los sesgos (y, por tanto, previsibles discriminaciones) de los algoritmos, especialmente aquellos que constituyen los recursos/productos de software basados en IA.En primer lugar mostraré cómo y cuándo, a lo largo del ciclo de vida de un producto basado en IA, sus algoritmos incorporan/aprenden los sesgos de género: en el momento de su diseño o concepción (sesgo de diseño), en el momento de la codificación (sesgo de traducción), en el momento de su adiestramiento o aprendizaje (sesgo del entrenador y del terreno de juego), en el momento de su comercialización (sesgo de márquetin) y, finalmente, en el momento de su ajuste y uso reiterado en tareas concretas (sesgo de implementación).A continuación y con finalidad didáctica presentaré algunos ejemplos concretos de discriminación de género circunscritos en el área de selección y contratación de personal. Los ejemplos nos mostrarán cómo un enfoque interseccional (Crenshaw) es apropiado para comprender cómo las discriminaciones operan conjuntamente, también las algorítmicas. Siguiendo la metáfora de Crenshaw, en un cruce de carreteras podemos ser atropellados por varios camiones a la vez. De igual manera ocurre, en las carreteras virtuales, por parte de las inteligencias no humanas.El contenido de la comunicación es el resultado de un trabajo crítico de revisión bibliográfica.

(*)El autor o autora no ha asociado ningún archivo a este artículo