Victoria Muñoz García, María Villalba Oses, Juan Pablo Consuegra Ayala
Los modelos generativos de texto a imagen pueden crear contenido visual a partir de descripciones textuales, pero suelen perpetuar sesgos de sus datos de entrenamiento. Este estudio analiza el sesgo de género en tres modelos—ChatGPT (DALL-E), Copilot y Gemini—usando indicaciones neutras en español, un idioma poco explorado en esta área. Se generaron 300 imágenes a partir de 50 prompts sobre salud y bienestar, evaluadas manualmente para identificar sesgos. Los resultados muestran que ChatGPT presentó más salidas estereotípicas y menor neutralidad, Copilot mantuvo estricta neutralidad y Gemini tuvo un comportamiento intermedio. En todos los modelos, la neutralidad fue menor en el sujeto principal de la imagen que en los elementos contextuales. Estos hallazgos resaltan la persistencia del sesgo de género y la necesidad de sistemas de IA más equitativos mediante evaluaciones sistemáticas.
Text-to-image generative models can create visual content from text but often reflect biases in their training data. This study examines gender bias in three widely used models—ChatGPT (DALL-E), Copilot, and Gemini—using gender-neutral prompts in Spanish, an underexplored language in bias research. A dataset of 300 images from 50 neutral prompts on health and well-being was manually analyzed for gender representation biases. ChatGPT showed the highest stereotyping and lowest neutrality, Copilot maintained strict neutrality, and Gemini exhibited intermediate behavior. Across models, neutrality dropped when analyzing the main subject (gender-target annotations) versus contextual elements (genderrelated annotations). These findings underscore persistent gender bias, even with neutral prompts, and highlight the need for fairer AI systems through systematic evaluation.
© 2008-2025 Fundación Dialnet · Todos los derechos reservados