*We apologize if you receive multiple copies of this CFP*
*Spanish and Portuguese follows English*
*Workshop website: https://sites.google.com/view/eval-lac-2024/
===============
1st Workshop on Automated Evaluation of Learning and Assessment Content
AIED 2024 workshop | Recife (Brazil) & Hybrid | 8-12 July 2024
===============
We are happy to announce the first edition of the Workshop on Automated Evaluation of Learning and Assessment Content will be held in Recife (Brazil) & online during the AIED 2024 conference.
About the workshop
The evaluation of learning and assessment content has always been a crucial task in the educational domain, but traditional approaches based on human feedback are not always usable in modern educational settings. Indeed, the advent of machine learning models, in particular Large Language Models (LLMs), enabled to quickly and automatically generate large quantities of texts, making human evaluation unfeasible. Still, these texts are used in the educational domain -- e.g., as questions, hints, or even to score and assess students -- and thus the need for accurate and automated techniques for evaluation becomes pressing. This hybrid workshop aims to attract professionals from both academia and the industry, and to to offer an opportunity to discuss which are the common challenges in evaluating learning and assessment content in education.
Topics of interest include but are not limited to:
Human-in-the-loop approaches are welcome, provided that there is also an automated component in the evaluation and there is a focus on the scalability of the proposed approach. Papers on generation are also very welcome, as long as there is an extensive focus on the evaluation step.
Important dates
Submission deadline: May 17, 2024
Notification of acceptance: June 4, 2024
Camera ready: June 11, 2024
Workshop: 8 July or 12 July 2024
Submission guidelines
Authors are invited to submit short papers (5 pages, excluding references) and long papers (10 pages, excluding references), formatted according to the workshop style available on the website.
Submissions should contain mostly novel work, but there can be some overlap between the submission and work submitted elsewhere (e.g., summaries, focus on the evaluation phase of a broader work). Each of the submissions will be reviewed by the members of the Program Committee, and the proceedings volume will be submitted for publication to CEUR Workshop Proceedings.
===============
1er Workshop en Evaluación Automatizada de Contenidos de Aprendizaje y Evaluación
AIED 2024 workshop | Recife (Brazil) & Híbrido | 8-12 Julio 2024
===============
Nos complace anunciar que la primera edición del workshop en Evaluación Automatizada de Contenidos de Aprendizaje y Evaluación (Automated Evaluation of Learning and Assessment Content) se llevará a cabo en Recife (Brasil) y en línea durante la conferencia AIED 2024.
Sobre el workshop
La evaluación de los contenidos de aprendizaje y evaluación siempre ha sido una tarea crucial en el ámbito educativo, pero los enfoques tradicionales basados en la retroalimentación humana no siempre son utilizables en los entornos educativos modernos. En efecto, la llegada de los modelos de aprendizaje automático, en particular los grandes modelos lingüísticos (LLM), ha permitido generar rápida y automáticamente grandes cantidades de textos, lo que hace inviable la evaluación humana. Sin embargo, estos textos se utilizan en el ámbito educativo -por ejemplo, como preguntas, pistas o incluso para calificar y evaluar a los estudiantes-, lo que resalta la necesidad de contar con técnicas precisas y automatizadas para la evaluación de los mismos. Este workshop híbrido pretende atraer a profesionales tanto del mundo académico como de la industria, y ofrecer la oportunidad de debatir cuáles son los retos comunes a la hora de evaluar contenidos de aprendizaje y evaluación en el ámbito educativo.
Se aceptan artículos de investigación sobre los siguientes temas, incluyendo, pero sin limitarse a:
Métodologías de human-in-the-loop (HITL) son bienvenidas, siempre y cuando también haya un componente automatizado en la evaluación y se preste atención a la escalabilidad del enfoque propuesto. También son bienvenidos los trabajos sobre generación, siempre que se preste especial atención a la fase de evaluación.
Fechas importantes
Fecha final para el envío de artículos: 17 de mayo de 2024
Notificación de aceptación: 4 de junio de 2024
Versión final: 11 de junio de 2024
Workshop: 8 de julio o 12 de julio de 2024
Tipos de artículos y pautas para los autores
Se invita a los autores a presentar artículos cortos (5 páginas, excluyendo referencias) y largos (10 páginas, excluyendo referencias), formateados según la plantilla del workshop que se encuentra disponible en el sitio web.
Los artículos deberán contener principalmente trabajos novedosos, pero puede haber ciertas similitudes entre la versión del trabajo enviado a este workshop y una versión del trabajo que haya sido presentado en otros lugares (por ejemplo, resúmenes, centrados en la fase de evaluación de un trabajo más amplio). Cada uno de los trabajos enviados será revisado por los miembros del Comité de Programa, y serán enviados para su publicación a CEUR Workshop Proceedings.
===============
1er Workshop sobre Avaliação Automatizada de Conteúdo de Aprendizagem e Avaliação
AIED 2024 workshop | Recife (Brazil) & Híbrido | 8-12 Julho 2024
===============
Temos o prazer de anunciar que a primeira edição do workshop sobre Avaliação Automatizada de Conteúdo de Aprendizagem e Avaliação (Automated Evaluation of Learning and Assessment Content) será realizada em Recife (Brasil), e on-line durante a conferência AIED 2024.
Sobre o workshop
A avaliação do conteúdo de aprendizagem sempre foi uma tarefa crucial na educação, mas as abordagens tradicionais baseadas em feedback humano nem sempre são utilizáveis em ambientes educacionais modernos. De fato, o surgimiento de modelos de aprendizado de máquina, em especial os modelos linguísticos de grande porte (LLMs), possibilitou a geração rápida e automática de grandes quantidades de textos, inviabilizando a avaliação humana. No entanto, esses textos são usados na educação - por exemplo, como perguntas, dicas ou até mesmo para classificar e avaliar os alunos - destacando a necessidade de técnicas precisas e automatizadas para a avaliação de textos. Este workshop híbrido tem como objetivo atrair profissionais do meio acadêmico e do setor e oferecer uma oportunidade para discutir desafios comuns na avaliação de conteúdo de aprendizagem e avaliação na educação.
Artigos de pesquisa sobre os seguintes tópicos são bem-vindos, incluindo, mas não se limitando a:
As metodologias Human-in-the-loop (HITL) são bem-vindas, desde que haja também um componente automatizado para a avaliação e que seja dada atenção à escalabilidade da abordagem proposta. Trabalhos sobre geração também são bem-vindos, desde que seja dada atenção especial à fase de avaliação.
Datas importantes
Prazo final para envio de artigos: 17 de maio de 2024
Notificação de aceitação: 4 de junho de 2024
Versão final: 11 de junho de 2024
Workshop: 8 ou 12 de julho de 2024
Tipos de artigos e diretrizes para autores
Os autores são convidados a enviar artigos curtos (5 páginas, excluindo referências) e longos (10 páginas, excluindo referências), formatados de acordo com o modelo de workshop disponível no site.
Os artigos devem conter principalmente trabalhos novos, mas pode haver algumas semelhanças entre a versão do artigo enviado para este workshop e uma versão do artigo que tenha sido apresentada em outro lugar (por exemplo, resumos, com foco na fase de avaliação de um artigo maior). Cada um dos trabalhos enviados será revisado por membros do Comitê do Programa e será enviado para publicação nos Anais do Workshop do CEUR.
Organisers
Luca Benedetto (1), Andrew Caines (1), George Dueñas (2), Diana Galvan-Sosa (1), Anastassia Loukina (3), Shiva Taslimipoor (1), Torsten Zesch (4)
(1) ALTA Institute, Dept. of Computer Science and Technology, University of Cambridge
(2) National Pedagogical University, Colombia
(3) Grammarly, Inc.
(4) FernUniversität in Hagen