Comparaison de 4 LLM dans le contexte du traitement du langage naturel
Jamali, Yassine
Promoteur(s) : Ittoo, Ashwin
Date de soutenance : 18-jui-2024/25-jui-2024 • URL permanente : http://hdl.handle.net/2268.2/20248
Détails
Titre : | Comparaison de 4 LLM dans le contexte du traitement du langage naturel |
Auteur : | Jamali, Yassine |
Date de soutenance : | 18-jui-2024/25-jui-2024 |
Promoteur(s) : | Ittoo, Ashwin |
Membre(s) du jury : | Schyns, Michael |
Langue : | Français |
Nombre de pages : | 99 |
Discipline(s) : | Sciences économiques & de gestion > Multidisciplinaire, généralités & autres |
Public cible : | Grand public Autre |
Institution(s) : | Université de Liège, Liège, Belgique |
Diplôme : | Master en ingénieur de gestion, à finalité spécialisée en digital business |
Faculté : | Mémoires de la HEC-Ecole de gestion de l'Université de Liège |
Résumé
[fr] À l'ère de l'intelligence artificielle, les modèles de langage de grande taille (LLM) jouent un rôle crucial dans le traitement du langage naturel (NLP). Ce mémoire compare quatre LLM notables GPT, Mistral, Falcon et Llama, sur différents critères pertinents : la taille, l'architecture des modèles, le type de licence utilisée, les langues supportées par les modèles, l'èthique, la notoriété, la performance, la tendance à halluciner et les bases de donées utilisées par les modèles pour leur entrainement.
Fichier(s)
Document(s)
JAMALI_Yassine_Master_Thesis.pdf
Description:
Taille: 1.58 MB
Format: Adobe PDF
Description:
Taille: 1.58 MB
Format: Adobe PDF
Citer ce mémoire
Tous les documents disponibles sur MatheO sont protégés par le droit d'auteur et soumis aux règles habituelles de bon usage.
L'Université de Liège ne garantit pas la qualité scientifique de ces travaux d'étudiants ni l'exactitude de l'ensemble des informations qu'ils contiennent.
L'Université de Liège ne garantit pas la qualité scientifique de ces travaux d'étudiants ni l'exactitude de l'ensemble des informations qu'ils contiennent.