Ir al contenido

Documat


Concienciando al alumnado del Grado de Ingeniería Informática sobre los sesgos de género de los algoritmos

  • Autores: Carmen Lacave Rodero Árbol académico, Francisco Pascual Romero Chicharro Árbol académico, Jesús Fontecha Diezma, Ana I. Molina Díaz Árbol académico
  • Localización: Actas de las Jornadas sobre la Enseñanza Universitaria de la Informática (JENUI), ISSN 2531-0607, Nº. 9 (Actas de las XXX Jornadas sobre Enseñanza Universitaria de la Informática (La Coruña, 19, 20 y 21 de), 2024, págs. 125-132
  • Idioma: español
  • Enlaces
  • Resumen
    • español

      En la actualidad, muchas de las decisiones que tomamos las confiamos cada vez más a los algoritmos, aunque hay pruebas de que muchos de ellos están sesgados por factores como el género, la raza, el poder adquisitivo, etc., lo que conlleva un agravamiento de las desigualdades entre los grupos afectados. Es evidente que el sesgo de género es el que más contribuye a los estereotipos y a las desigualdades sociales, ya que afecta a la mitad de la población. Para tratar de evitar que los algoritmos estén sesgados es necesario que las personas que se van a encargar de su desarrollo sean conscientes de su existencia. Con ese objetivo, durante el curso 21/22 se realizó una experiencia piloto para concienciar a estudiantes universitarios de Ingeniería Informática sobre los sesgos de género de los algoritmos y las consecuencias que estos pueden tener sobre la sociedad. En este trabajo se describe la réplica de dicha experiencia, realizada durante el curso 22/23, mediante la que se han confirmado los principales resultados obtenidos en la experiencia anterior: (1) la mayor implicación de las mujeres en este tipo de experiencias relacionadas con la igualdad de género, y (2) que ellas consideran, en mucha mayor medida que sus compañeros hombres, la necesidad de abordar la brecha de género en los estudios de Ingeniería Informática. Por tanto, se demuestra la importancia de concienciar sobre la brecha de género de los algoritmos durante la enseñanza de la programación.

    • English

      As the prevalence of algorithmic decision-making grows in our daily lives, concerns arise regarding the inherent biases within these algorithms. Evidence suggests that factors like gender, race, and purchasing power significantly influence these biases, leading to exacerbated inequalities among various societal groups. Among these factors, gender bias stands out as a significant contributor to perpetuating stereotypes and social disparities, impacting a substantial portion of the population. Addressing these biases in algorithms requires a profound awareness among those tasked with their development. To this end, a pilot initiative was undertaken during the 21/22 academic year, aiming to educate Computer Science undergraduate students about the gender biases embedded in algorithms and their social implications. This paper details the replication of this initiative during the 22/23 academic year, reaffirming the key findings from the prior effort. These results underline (1) that women participate more than men in initiatives promoting gender equality, and (2) that women are more aware than their male counterparts of the urgency of addressing gender differences in CS studies. It therefore demonstrates the importance of raising awareness of the gender gap in algorithms during the teaching of programming.

  • Referencias bibliográficas
    • [1] Ujué Agudo y Helena Matute (2021). The influence of algorithms on political and dating decisions. PLOS ONE, 16(4), e0249454.
    • [2] Alireza Ahadi, Arto Hellas, Petri Ihantola, Ari Korhonen y Andrew Petersen. (2016). Replica- tion in computing education research: Researcher...
    • [3] Ricardo Baeza-Yates. (2018). Bias on the web. Communications of the ACM, 61(6), 54–61.
    • [4] Ian Baracskay, Donald J. Baracskay, Mehtab Iqbal y Bart Piet Knijnenburg (2022). The Di- versity of Music Recommender Systems. International...
    • [5] Veronika Bogina, Alan Hartman, Tsvi Kuflik y Avital Shulner-Tal (2022). Educating Software and AI Stakeholders About Algorithmic Fairness,...
    • [6] Alan R. Dennis y Joseph S. Valacich (2015). A Replication Manifesto. AIS Transactions on Replication Research, 1.
    • [7] Marguerite Doman y Chlotia Garrison (2021). Introducing algorithmic bias considerations in an introductory CS course. Journal of Computing...
    • [8] Madalena Favaretto, Eva De Clercq y Bernice Simone Elger (2019). Big Data and discrimination: perils, promises and solutions. A systematic...
    • [9] Casey Fiesler, Natalie Garrett y Nathan Beard (2020). What Do We Teach When We Teach Tech Ethics? Proceedings of the 51st ACM Technical...
    • [10] Casey Fiesler, Mikhaila Friske, Natalie Garrett, Felix Muzny, Jessie J. Smith y Jason Zietz (2021). Integrating Ethics into Introductory...
    • [11] Mauricio Noris Freire y Leandro Nunes de Castro (2021). e-Recruitment recommender systems: a systematic review. Knowledge and Information...
    • [12] Alicia García-Holgado, Carina S. GonzalezGonzalez y Francisco José Garcia-Penalvo (2020). Gender gap perceptions of computing students:...
    • [13] Alicia García-Holgado, Sonia Verdugo-Castro, Mª Cruz Sánchez-Gómez y Francisco José García-Peñalvo (2020). Facilitating Access to the...
    • [14] Qiang Hao, David H. Smith, Naitra Iriumi, Michail Tsikerdekis y Amy J. Ko (2019). A systematic investigation of replications in computing...
    • [15] Diane Horton, David Liu, Sheila A. McIlraith y Nina Wang (2023). Is more better when embedding ethics in CS courses? SIGCSE 2023: Proceedings...
    • [16] Diane Horton, Sheila A. McIlraith, Nina Wang, Maryam Majedi, Emma McClure y Benjamin Wald (2022). Embedding ethics in Computer Science...
    • [17] Nima Kordzadeh y Maryam Ghasemaghaei (2021). Algorithmic bias: review, synthesis, and future research directions. European Journal of...
    • [18] Carmen Lacave, Ana Isabel Molina, Alicia García-Holgado y Carina S. GonzálezGonzález (2021). Delving into gender gap per- ceptions of...
    • [19] Carmen Lacave y Ana Isabel Molina (2023). A pilot experience to raise awareness among Computer Science undergraduates about the gender...
    • [20] Raja Marappan y S. Bhaskaran (2022). Movie Recommendation system modeling using machine learning. Trends Journal of Sciences Research,...
    • [21] Hilarie Nickerson, Catharine Brand y Alexander Repenning (2015). Grounding computational thinking skill acquisition through contextualized...
    • [22] Dana Pessach y Erez Shmueli (2022). A review on fairness in machine learning. ACM Computing Surveys, 55(3).
    • [23] Deepjyoti Roy y Mala Dutta (2022). A systematic review and research perspective on recommender systems. Journal of Big Data, 9, 59.
    • [24] Kyarash Shahriari y Mana Shahriari (2017). IEEE standard review - Ethically aligned design: A vision for prioritizing human wellbeing...
    • [25] Jessie J. Smith, Blakeley H. Payne, Shamika Klassen, Dylan Thomas Doyle y Casey Fiesler (2023). Incorporating ethics in computing courses:...
    • [26] Lucía Vicente y Helena Matute (2023). Humans inherit artificial intelligence biases. Scientific Reports, 13, 15737.

Fundación Dialnet

Mi Documat

Opciones de artículo

Opciones de compartir

Opciones de entorno