Ariel Guersenzvaig, Javier Sánchez-Monedero
Desde su introducción masiva a finales de 2022, los generadores de texto con inteligencia artificial (IA) –llamados Large Language Models (LLM)– como ChatGPT y versiones posteriores como GPT-4 no dejan de acaparar interés en los medios. Estos sistemas son capaces de generar textos, resúmenes, traducciones y transcripciones de audios. Su capacidad de redacción sería tan avanzada que estos sistemas son capaces de generar abstracts tan coherentes que ni siquiera los propios especialistas son capaces de detectar que han sido escritos por una máquina. Sus usos aplicados están a la orden del día; se ha sugerido, por ejemplo, que podrían servir para predecir las primeras fases de la enfermedad de Alzheimer. Sin embargo, también se ha insistido mucho en que estos sistemas carecen de capacidad real de comprender los textos que procesan (que «leen» o «escriben»). Por esta razón, se los ha caracterizado como «loros estocásticos». También se ha hecho hincapié en otros problemas tales como la falta de transparencia en los datos de entrenamiento, privacidad, los sesgos, o las llamadas «alucinaciones» y falsedades que producen. Si bien el interés es real, hoy por hoy no puede afirmarse con certeza que el uso de esta tecnología esté implementada en procesos de trabajo formalizados ni que se haya generalizado más allá del uso experimental, el chafardeo lúdico o la satisfacción de la curiosidad. Esta es, sin duda, una cuestión que merece ser dilucidada mediante estudios empíricos serios.
© 2008-2025 Fundación Dialnet · Todos los derechos reservados