Ir al contenido

Documat


Evaluación de guardarraíles de modelos LLM ante la generación de artículos sesgados

  • Julio García Barrena [1] ; Joaquín Borrego Díaz [1] Árbol académico
    1. [1] Universidad de Sevilla

      Universidad de Sevilla

      Sevilla, España

  • Localización: DACIU 2023/2024: Ingeniería y Arquitectura, 2024, ISBN 978-84-10237-11-7, págs. 66-76
  • Idioma: español
  • Enlaces
  • Referencias bibliográficas
    • IBM. ¿Qué es LangChain?, 2023. https://www.ibm.com/es-es/topics/langchain
    • ATTRI. A Comprehensive Guide: Everything You Need to Know About LLMs Guardrails, 12 enero 2024. https://attri.ai/blog/a-comprehensive-guide-everything-you-needto-know-about-llms-guardrails
    • Sunil Ramlochan. System Prompts in Large Language Models, 8 Marzo 2024 https: //promptengineering.org/system-prompts-in-large-language-models/#:~:text= System%20prompts%20are%20a%20crucial,align%20with%20the%20intended%20goals
    • Aparna Dhinakaran. Safeguarding LLMs with Guardrails, 1 Septiembre 2023 https:// towardsdatascience.com/safeguarding-llms-with-guardrails-4f5d9f57cff2
    • Andy Zou. Universal and Transferable Adversarial Attacks on Aligned Language Models, 27 Julio 2023 https://arxiv.org/abs/2307.15043
    • AWS. ¿Qué es una red neuronal?, 28 abril 2024 (last checked) https://aws.amazon.com/es/ what-is/neural-network/
    • Angela Symons. El agua embotellada contiene 100 veces más nanopartículas de plástico de las que se pensaba, 9 enero 2024 https://es.euronews.com/green/2024/01/09/el-aguaembotellada-contiene-100-veces-mas-nanoparticulas-de-plastico-de-lo-que-sepensaba

Fundación Dialnet

Mi Documat

Opciones de artículo

Opciones de compartir

Opciones de entorno