Biomedical Text Classification Using LSTM, GRU and Bahdanau Attention
Mvomo Eto, Wilfried
Promoteur(s) :
Ittoo, Ashwin
Date de soutenance : 8-sep-2025/9-sep-2025 • URL permanente : http://hdl.handle.net/2268.2/24931
Détails
| Titre : | Biomedical Text Classification Using LSTM, GRU and Bahdanau Attention |
| Titre traduit : | [fr] Classification de textes biomédicaux à l'aide des réseaux neuronaux LSTM, GRU et Bahdanau Attention |
| Auteur : | Mvomo Eto, Wilfried
|
| Date de soutenance : | 8-sep-2025/9-sep-2025 |
| Promoteur(s) : | Ittoo, Ashwin
|
| Membre(s) du jury : | Geurts, Pierre
Huynh-Thu, Vân Anh
Singh, Akash
|
| Langue : | Anglais |
| Nombre de pages : | 65 |
| Mots-clés : | [en] Biomedical Text Classification [en] Natural Language Processing [en] Deep Learning [en] Few-Shot Learning [en] SMOTE (Synthetic Minority Over-sampling Technique) [en] Class Weighting |
| Discipline(s) : | Ingénierie, informatique & technologie > Ingénierie civile |
| Public cible : | Chercheurs Professionnels du domaine Etudiants Grand public Autre |
| Institution(s) : | Université de Liège, Liège, Belgique |
| Diplôme : | Master en science des données, à finalité spécialisée |
| Faculté : | Mémoires de la Faculté des Sciences appliquées |
Résumé
[en] This research evaluates the performance of deep learning models—Gated Recurrent Unit (GRU)
and Long Short-Term Memory (LSTM), with Bahdanau attention added—for biomedical text classification using two datasets: the Memorial Sloan Kettering Cancer Center (MSKCC ) dataset for binary classification of genetic mutations and the Medical Abstracts dataset for multi-class disease categorization. The experiments showed that GRU models generally offer better training efficiency and balanced accuracy than LSTM models, and that class weighting proved more effective than Synthetic Minority Over-sampling Technique (technique for oversampling minority classes) (SMOTE) in handling class imbalance. While few-shot learning remains challenging, models using Biomedical Natural Language Processing (BioMedNLP) contextual embeddings combined with attention mechanisms demonstrated promising generalization, particularly in low-resource scenarios. These findings support the development of more robust and equitable Natural Language Processing (NLP) systems for biomedical applications.
Fichier(s)
Document(s)
Citer ce mémoire
L'Université de Liège ne garantit pas la qualité scientifique de ces travaux d'étudiants ni l'exactitude de l'ensemble des informations qu'ils contiennent.

Master Thesis Online


s226625.pdf