Feedback

Faculté des Sciences appliquées
Faculté des Sciences appliquées
Mémoire
VIEW 4 | DOWNLOAD 8

Large Language Models: Building General Coding Assistants

Télécharger
Daoud, Samuel ULiège
Promoteur(s) : Ernst, Damien ULiège
Date de soutenance : 5-sep-2024/6-sep-2024 • URL permanente : http://hdl.handle.net/2268.2/20996
Détails
Titre : Large Language Models: Building General Coding Assistants
Titre traduit : [fr] Grands Modèles de Langage: Construire des Assistants Généraux en Programmation
Auteur : Daoud, Samuel ULiège
Date de soutenance  : 5-sep-2024/6-sep-2024
Promoteur(s) : Ernst, Damien ULiège
Membre(s) du jury : Drugmand, Philippe 
Louppe, Gilles ULiège
Langue : Anglais
Nombre de pages : 74
Mots-clés : [en] LLM
Discipline(s) : Ingénierie, informatique & technologie > Sciences informatiques
Institution(s) : Université de Liège, Liège, Belgique
Diplôme : Master : ingénieur civil en science des données, à finalité spécialisée
Faculté : Mémoires de la Faculté des Sciences appliquées

Résumé

[en] In the realm of software development, the frequent release of new Application Programming Interface (API) versions presents a significant challenge for engineers and developers. Traditionally, adapting to these changes requires a comprehensive update of the entire application, resulting in considerable time and resource investments.
This situation highlights the need to support developers in managing the numerous tedious tasks they encounter daily.

This thesis addresses these challenges by leveraging Large Language Models (LLMs) for code-related tasks and introduces a framework for deploying advanced general coding assistants that achieve state-of-the-art performance.

The approach involves selecting and deploying a model based on several meaningful criteria, choosing appropriate benchmarks and datasets for fine-tuning, and developing a framework capable of fine-tuning on a single GPU. We also deploy our own benchmark, building upon the dataset released in previous related works.

We address the limitations associated with fine-tuning under constrained computational resources. Our fine-tuned models demonstrate a systematic improvement in performance for the specific downstream tasks they are adapted to. Improving their precision up to 206.25\%.

We also provide critical insights into both the evaluation metrics for LLMs and the limits of current benchmarks.


Fichier(s)

Document(s)

File
Access SamuelDaoudTFE.pdf
Description:
Taille: 4.61 MB
Format: Adobe PDF

Auteur

  • Daoud, Samuel ULiège Université de Liège > Mast. ing. civ. sc. don. fin. spéc.

Promoteur(s)

Membre(s) du jury

  • Drugmand, Philippe
  • Louppe, Gilles ULiège Université de Liège - ULiège > Dép. d'électric., électron. et informat. (Inst.Montefiore) > Big Data
    ORBi Voir ses publications sur ORBi
  • Nombre total de vues 4
  • Nombre total de téléchargements 8










Tous les documents disponibles sur MatheO sont protégés par le droit d'auteur et soumis aux règles habituelles de bon usage.
L'Université de Liège ne garantit pas la qualité scientifique de ces travaux d'étudiants ni l'exactitude de l'ensemble des informations qu'ils contiennent.