Feedback

Faculté des Sciences appliquées
Faculté des Sciences appliquées
Mémoire
VIEW 318 | DOWNLOAD 3542

Master's Thesis : NetBERT: A Pre-trained Language Representation Model for Computer Networking

Télécharger
Louis, Antoine ULiège
Promoteur(s) : Louppe, Gilles ULiège
Date de soutenance : 25-jui-2020/26-jui-2020 • URL permanente : http://hdl.handle.net/2268.2/9060
Détails
Titre : Master's Thesis : NetBERT: A Pre-trained Language Representation Model for Computer Networking
Titre traduit : [fr] NetBERT : Un Modèle de Représentation Linguistique pour le Domaine des Réseaux Informatiques.
Auteur : Louis, Antoine ULiège
Date de soutenance  : 25-jui-2020/26-jui-2020
Promoteur(s) : Louppe, Gilles ULiège
Membre(s) du jury : Mathy, Laurent ULiège
Geurts, Pierre ULiège
De Pra, Hugues 
Langue : Anglais
Nombre de pages : 94
Discipline(s) : Ingénierie, informatique & technologie > Sciences informatiques
Public cible : Chercheurs
Professionnels du domaine
Institution(s) : Université de Liège, Liège, Belgique
Diplôme : Master : ingénieur civil en science des données, à finalité spécialisée
Faculté : Mémoires de la Faculté des Sciences appliquées

Résumé

[en] Obtaining accurate information about products in a fast and efficient way is becoming increasingly important at Cisco as the related documentation rapidly grows. Thanks to recent progress in natural language processing (NLP), extracting valuable information from general domain documents has gained in popularity, and deep learning has boosted the development of effective text mining systems. However, directly applying the advancements in NLP to domain-specific documentation might yield unsatisfactory results due to a word distribution shift from general domain language to domain-specific language. Hence, this work aims to determine if a large language model pre-trained on domain-specific (computer networking) text corpora improves performance over the same model pre-trained exclusively on general domain text, when evaluated on in-domain text mining tasks.

To this end, we introduce NetBERT (Bidirectional Encoder Representations from Transform-ers for Computer Networking), a domain-specific language representation model based on BERT (Devlin et al., 2018) and pre-trained on large-scale computer networking corpora. Through several extrinsic and intrinsic evaluations, we compare the performance of our novel model against the general-domain BERT. We demonstrate clear improvements over BERT on the following two representative text mining tasks: networking text classification (0.9% F1 improvement) and networking information retrieval (12.3% improvement on a custom retrieval score). Additional experiments on word similarity and word analogy tend to show that NetBERT capture more meaningful semantic properties and relations between networking concepts than BERT does. We conclude that pre-training BERT on computer networking corpora helps it understand more accurately domain-related text.


Fichier(s)

Document(s)

File
Access Antoine_Louis_Thesis.pdf
Description:
Taille: 14.05 MB
Format: Adobe PDF

Annexe(s)

File
Access Antoine_Louis_Code.zip
Description:
Taille: 17.74 MB
Format: Unknown
File
Access Antoine_Louis_illustrations.zip
Description:
Taille: 1.24 MB
Format: Unknown
File
Access Antoine_Louis_summary.pdf
Description:
Taille: 74.68 kB
Format: Adobe PDF

Auteur

  • Louis, Antoine ULiège Université de Liège > Master ingé. civ. sc. don. à . fin.

Promoteur(s)

Membre(s) du jury

  • Mathy, Laurent ULiège Université de Liège - ULiège > Dép. d'électric., électron. et informat. (Inst.Montefiore) > Systèmes informatiques répartis et sécurité
    ORBi Voir ses publications sur ORBi
  • Geurts, Pierre ULiège Université de Liège - ULiège > Dép. d'électric., électron. et informat. (Inst.Montefiore) > Algorith. des syst. en interaction avec le monde physique
    ORBi Voir ses publications sur ORBi
  • De Pra, Hugues
  • Nombre total de vues 318
  • Nombre total de téléchargements 3542










Tous les documents disponibles sur MatheO sont protégés par le droit d'auteur et soumis aux règles habituelles de bon usage.
L'Université de Liège ne garantit pas la qualité scientifique de ces travaux d'étudiants ni l'exactitude de l'ensemble des informations qu'ils contiennent.