Use este identificador para citar ou linkar para este item:
http://repositorio.ufc.br/handle/riufc/80588
Tipo: | TCC |
Título: | Uma plataforma de avaliação de Grandes Modelos de Linguagem aplicados à geração de questões educacionais para avaliações diagnósticas de língua portuguesa |
Autor(es): | Freitas, Daniel Almeida |
Orientador: | Oliveira, Paulo de Tarso Guerra |
Palavras-chave em português: | avaliações diagnósticas;grandes modelos de linguagem;gGeração automática de questões |
CNPq: | CNPQ: CIÊNCIAS EXATAS E DA TERRA |
Data do documento: | 2025 |
Citação: | FREITAS, Daniel Almeida. Uma plataforma de avaliação de Grandes Modelos de Linguagem aplicados à geração de questões educacionais para avaliações diagnósticas de língua portuguesa. 2025. 74 f. Trabalho de Conclusão de Curso (Graduação em Engenharia de Software)- Campus de Quixadá, Universidade Federal do Ceará, Quixadá, 2025. |
Resumo: | As avaliações desempenham um papel fundamental no contexto educacional, sendo essenciais para a construção do conhecimento do estudante. Dentre os diferentes tipos de avaliação, destacam-se as diagnósticas, alinhadas às habilidades da Base Nacional Comum Curricular (BNCC), que fornecem informações prévias sobre o conhecimento de um aluno ou turma, permitindo que os educadores ajustem seus planos de ensino e metodologias. Apesar de sua importância, a elaboração de questões educacionais para avaliações é um processo trabalhoso, que demanda tempo e experiência, especialmente quando o objetivo é avaliar habilidades específicas dos alunos. Esse desafio torna o processo muitas vezes inviável para os professores. Diante dessa dificuldade, pesquisas na área de Inteligência Artificial têm ganhado destaque, especialmente no campo da Geração de Perguntas, um ramo do Processamento de Linguagem Natural (PLN) voltado à criação automatizada de questões. Essas pesquisas impulsionaram o desenvolvimento de sistemas baseados em Grandes Modelos de Linguagem, que podem ser aplicados no contexto educacional. No entanto, apesar do potencial desses sistemas, sua adoção ainda enfrenta desafios, sendo a qualidade das questões geradas um dos principais. Muitos focam apenas na qualidade linguística, negligenciando a relevância pedagógica. Esse problema ocorre principalmente devido à falta de ferramentas que auxiliem na avaliação e à ausência de um padrão estabelecido na literatura para métricas eficazes. Diante disso, este trabalho propõe uma plataforma padronizada para avaliação tanto de aspectos linguísticos quanto pedagógicos das questões, auxiliando pesquisadores na validação de modelos para geração de questões educacionais alinhadas às avaliações diagnósticas da BNCC. O desenvolvimento da plataforma seguiu um processo estruturado, desde a elicitação de requisitos e prototipação até a implementação e implantação em plataformas gratuitas. Para validar a plataforma, realizamos um caso de uso, ajustando o modelo FLAN-T5 para três tarefas de Processamento de Linguagem Natural, permitindo que, em conjunto, gerassem questões educacionais completas e estruturadas para avaliações diagnósticas. Com os modelos ajustados, a ferramenta foi avaliada por meio das métricas disponibilizadas, demonstrando sua utilidade e praticidade para avaliar os modelos no contexto educacional utilizado. |
Abstract: | Assessments play a fundamental role in the educational context, being essential for the construction of student knowledge. Among the different types of assessment, diagnostic assessments stand out, aligned with BNCC skills, which provide prior information about the knowledge of a student or class, allowing educators to adjust their teaching plans and methodologies. Despite its importance, creating educational questions is a laborious process that requires time and experience, especially when the objective is to assess specific student skills. This challenge often makes the process unfeasible for teachers. In view of this difficulty, research in the area of Artificial Intelligence has gained prominence, especially in the field of Question Generation, a branch of Natural Language Processing focused on the automated creation of questions. This research has driven the development of systems based on Large Language Models, which can be applied in the educational context. However, despite the potential of these systems, their adoption still faces challenges, with the quality of the questions generated being one of the main ones. Many focus only on linguistic quality, neglecting pedagogical relevance. This problem occurs mainly due to the lack of tools to assist in assessment and the absence of an established standard in the literature for effective metrics. In view of this, this work proposes a standardized platform for assessing both linguistic and pedagogical aspects of the questions, assisting researchers in validating models for generating educational questions aligned with the BNCC diagnostic assessments. The development of the platform followed a structured process, from requirements elicitation and prototyping to implementation and deployment on free platforms. To validate the platform, we carried out a use case, adjusting the FLAN-T5 model for three Natural Language Processing tasks, allowing them to jointly generate complete and structured educational questions for diagnostic assessments. With the adjusted models, the tool was evaluated through the metrics made available, demonstrating its usefulness and practicality for evaluating the models in the educational context used. |
URI: | http://repositorio.ufc.br/handle/riufc/80588 |
ORCID do Orientador: | https://orcid.org/0000-0002-0424-055X |
Currículo Lattes do Orientador: | http://lattes.cnpq.br/5228033768526863 |
Tipo de Acesso: | Acesso Aberto |
Aparece nas coleções: | ENGENHARIA DE SOFTWARE - QUIXADÁ - TCC |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
2025_tcc_dafreitas.pdf | 4,76 MB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.