Ir al contenido

Documat


Evaluación flexible de preguntas de respuesta corta en los SGA mediante modelos preentrenados de lenguaje

  • María Valero Redondo [1] ; Alejandro Martín [2] ; Javier Huertas-Tato [2] Árbol académico ; David Camacho [2] Árbol académico
    1. [1] Universidad de Córdoba

      Universidad de Córdoba

      Cordoba, España

    2. [2] Universidad Politécnica de Madrid

      Universidad Politécnica de Madrid

      Madrid, España

  • Localización: Nuevos enfoques en innovación educativa y transferencia de conocimiento: aplicación en ingenierías y enseñanza STEM / coord. por Alejandro Martínez García, Mónica Souto Rico, Rocío Guede Cid, 2022, ISBN 978-84-1122-490-1, págs. 210-226
  • Idioma: español
  • Enlaces
  • Referencias bibliográficas
    • Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P., ... & Amodei, D. (2020). Language models are few-shot learners....
    • Carstairs, J., & Myors, B. (2009). Internet testing: A natural experiment reveals test score inflation on a high-stakes, unproctored cognitive...
    • Chowdhary, K. (2020). Natural language processing. Fundamentals of artificial intelligence, 603-649.
    • Conneau, A., & Lample, G. (2019). Cross-lingual language model pretraining. Advances in neural information processing systems, 32.
    • Conneau, A., Khandelwal, K., Goyal, N., Chaudhary, V., Wenzek, G., Guzmán, F., ... & Stoyanov, V. (2019b). Unsupervised cross-lingual...
    • Elzainy, A., El Sadik, A., & Al Abdulmonem, W. (2020). Experience of e- learning and online assessment during the COVID-19 pandemic at...
    • Friedman, A., Blau, I., & Eshet-Alkalai, Y. (2016). Cheating and Feeling Honest: Committing and Punishing Analog versus Digital Academic...
    • Jordan, M. I., & Mitchell, T. M. (2015). Machine learning: Trends, perspectives, and prospects. Science, 349(6245), 255-260.
    • Kenton, J. D. M. W. C., & Toutanova, L. K. (2019). BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In...
    • Lewis, M., Liu, Y., Goyal, N., Ghazvininejad, M., Mohamed, A., Levy, O., ... & Zettlemoyer, L. (2019). Bart: Denoising sequence-to-sequence...
    • Radford, A., Narasimhan, K., Salimans, T., & Sutskever, I. (2018). Improving language understanding by generative pre-training.
    • Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., & Sutskever, I. (2019). Language models are unsupervised multitask learners. OpenAI...
    • Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., ... & Liu, P. J. (2020). Exploring the limits of transfer learning...
    • Reimers, N., & Gurevych, I. (2019). Sentence-bert: Sentence embeddings using siamese bert-networks. arXiv preprint arXiv:1908.10084.
    • Turnbull, D., Chugh, R., & Luck, J. (2020). Learning Management Systems, An Overview. Encyclopedia of education and information technologies,...
    • Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., ... & Polosukhin, I. (2017). Attention is all you need....

Fundación Dialnet

Mi Documat

Opciones de artículo

Opciones de compartir

Opciones de entorno