AIBR http://www.aibr.org Registro AIBR, SSCI text/plain; charset=utf-8 TY - JOUR JO - ARIES, Anuario de Antropología Iberoamericana TI - Inteligencia artificial y riesgo de discriminación de género, ¿podemos afirmar que los algoritmos son sexistas? VL - IS - 2024 PB - Asociación AIBR, Antropólogos Iberoamericanos en Red T2 - ARIES, Anuario de Antropología Iberoamericana PY - 2024 M1 - SN - 2530-7843 UR - https://aries.aibr.org/articulo/2024/19/6247/inteligencia-artificial-y-riesgo-de-discriminacion-de-genero-podemos-afirmar-que-los-algoritmos-son-sexistas DO - doi: AU - Núria Tria A2 - A3 - A4 - A5 - A6 - A7 - SP - LA - Esp DA - 19/08/2024 KW - Inteligencia artificial, algoritmos, discriminación de género, sexismo AB - Spanish: En esta presentación utilizaré el bagaje de la antropología para mapear y analizar de forma crítica el territorio relativo a los sesgos (y, por tanto, previsibles discriminaciones) de los algoritmos, especialmente aquellos que constituyen los recursos/productos de software basados en IA.En primer lugar mostraré cómo y cuándo, a lo largo del ciclo de vida de un producto basado en IA, sus algoritmos incorporan/aprenden los sesgos de género: en el momento de su diseño o concepción (sesgo de diseño), en el momento de la codificación (sesgo de traducción), en el momento de su adiestramiento o aprendizaje (sesgo del entrenador y del terreno de juego), en el momento de su comercialización (sesgo de márquetin) y, finalmente, en el momento de su ajuste y uso reiterado en tareas concretas (sesgo de implementación).A continuación y con finalidad didáctica presentaré algunos ejemplos concretos de discriminación de género circunscritos en el área de selección y contratación de personal. Los ejemplos nos mostrarán cómo un enfoque interseccional (Crenshaw) es apropiado para comprender cómo las discriminaciones operan conjuntamente, también las algorítmicas. Siguiendo la metáfora de Crenshaw, en un cruce de carreteras podemos ser atropellados por varios camiones a la vez. De igual manera ocurre, en las carreteras virtuales, por parte de las inteligencias no humanas.El contenido de la comunicación es el resultado de un trabajo crítico de revisión bibliográfica. English: En esta presentación utilizaré el bagaje de la antropología para mapear y analizar de forma crítica el territorio relativo a los sesgos (y, por tanto, previsibles discriminaciones) de los algoritmos, especialmente aquellos que constituyen los recursos/productos de software basados en IA.En primer lugar mostraré cómo y cuándo, a lo largo del ciclo de vida de un producto basado en IA, sus algoritmos incorporan/aprenden los sesgos de género: en el momento de su diseño o concepción (sesgo de diseño), en el momento de la codificación (sesgo de traducción), en el momento de su adiestramiento o aprendizaje (sesgo del entrenador y del terreno de juego), en el momento de su comercialización (sesgo de márquetin) y, finalmente, en el momento de su ajuste y uso reiterado en tareas concretas (sesgo de implementación).A continuación y con finalidad didáctica presentaré algunos ejemplos concretos de discriminación de género circunscritos en el área de selección y contratación de personal. Los ejemplos nos mostrarán cómo un enfoque interseccional (Crenshaw) es apropiado para comprender cómo las discriminaciones operan conjuntamente, también las algorítmicas. Siguiendo la metáfora de Crenshaw, en un cruce de carreteras podemos ser atropellados por varios camiones a la vez. De igual manera ocurre, en las carreteras virtuales, por parte de las inteligencias no humanas.El contenido de la comunicación es el resultado de un trabajo crítico de revisión bibliográfica. CR - Copyright; 2024 Asociación AIBR, Antropólogos Iberoamericanos en Red ER -