This work focuses on the risk of artificial intelligence perpetuating and amplify-ing existing social biases. Reaching a consensus on defining and measuring bias is inherently challenging, which is why we began by addressing this foundational issue. From there, we inves-tigated the causes of AI-generated bias, analyzing each step of the machine learning process and illustrating the origins of bias with concrete examples. We also highlighted real-world cases of bias, including instances of gender bias, biases tied to physical characteristics, and others linked to the origins of datasets. Furthermore, we explored various proposals aimed at mitigating bias. However, the complexity of the issue remains evident, as reflected in the growing body of re-search dedicated to this critical topic.
Lan honetan adimen artifizialak gizartean dagoen alborapen soziala errepikatzeko eta areagotzeko duen arriskuan jarri nahi izan dugu fokua. Ez da erraza adostasuna lortzea alborapena terminoa definitzerakoan, eta are gutxiago termino hori neurtzea. Arazo horri helduz eman diogu hasiera lan honi. Ondoren, adimen artifizialak sortzen duen alborapena zergatik gertatzen den miatu dugu, eta horretarako, ikasketa automatikoko urrats bakoitza aztertu eta bertan gertatzen den alborapenaren jatorria azaldu dugu adibide banarekin lagunduta. Azkenik, alborapenaren kasu erreal batzuk ekarri ditugu paperera, izan genero-alborapena, izan jatorriarekin lotutakoa, izan ezaugarri fisikoetara atxikia. Alborapena murrizteko proposamenen nondik norakoak ere ekarri ditugu baina arazoa konplexua da benetan, eta horren erakusle da gaur egun ikerketako gai hori ardatz duten lanen gorakada.
© 2008-2025 Fundación Dialnet · Todos los derechos reservados