Feedback

Faculté des Sciences appliquées
Faculté des Sciences appliquées
Mémoire

Biomedical Text Classification Using LSTM, GRU and Bahdanau Attention

Télécharger
Mvomo Eto, Wilfried ULiège
Promoteur(s) : Ittoo, Ashwin ULiège
Date de soutenance : 8-sep-2025/9-sep-2025 • URL permanente : http://hdl.handle.net/2268.2/24931
Détails
Titre : Biomedical Text Classification Using LSTM, GRU and Bahdanau Attention
Titre traduit : [fr] Classification de textes biomédicaux à l'aide des réseaux neuronaux LSTM, GRU et Bahdanau Attention
Auteur : Mvomo Eto, Wilfried ULiège
Date de soutenance  : 8-sep-2025/9-sep-2025
Promoteur(s) : Ittoo, Ashwin ULiège
Membre(s) du jury : Geurts, Pierre ULiège
Huynh-Thu, Vân Anh ULiège
Singh, Akash ULiège
Langue : Anglais
Nombre de pages : 65
Mots-clés : [en] Biomedical Text Classification
[en] Natural Language Processing
[en] Deep Learning
[en] Few-Shot Learning
[en] SMOTE (Synthetic Minority Over-sampling Technique)
[en] Class Weighting
Discipline(s) : Ingénierie, informatique & technologie > Ingénierie civile
Public cible : Chercheurs
Professionnels du domaine
Etudiants
Grand public
Autre
Institution(s) : Université de Liège, Liège, Belgique
Diplôme : Master en science des données, à finalité spécialisée
Faculté : Mémoires de la Faculté des Sciences appliquées

Résumé

[en] This research evaluates the performance of deep learning models—Gated Recurrent Unit (GRU)
and Long Short-Term Memory (LSTM), with Bahdanau attention added—for biomedical text classification using two datasets: the Memorial Sloan Kettering Cancer Center (MSKCC ) dataset for binary classification of genetic mutations and the Medical Abstracts dataset for multi-class disease categorization. The experiments showed that GRU models generally offer better training efficiency and balanced accuracy than LSTM models, and that class weighting proved more effective than Synthetic Minority Over-sampling Technique (technique for oversampling minority classes) (SMOTE) in handling class imbalance. While few-shot learning remains challenging, models using Biomedical Natural Language Processing (BioMedNLP) contextual embeddings combined with attention mechanisms demonstrated promising generalization, particularly in low-resource scenarios. These findings support the development of more robust and equitable Natural Language Processing (NLP) systems for biomedical applications.


Fichier(s)

Document(s)

File
Access s226625.pdf
Description:
Taille: 19 MB
Format: Adobe PDF

Auteur

  • Mvomo Eto, Wilfried ULiège Université de Liège > Mast. sc. don. fin. spéc.

Promoteur(s)

Membre(s) du jury









Tous les documents disponibles sur MatheO sont protégés par le droit d'auteur et soumis aux règles habituelles de bon usage.
L'Université de Liège ne garantit pas la qualité scientifique de ces travaux d'étudiants ni l'exactitude de l'ensemble des informations qu'ils contiennent.