Feedback

Faculté des Sciences appliquées
Faculté des Sciences appliquées
Mémoire
VIEW 135 | DOWNLOAD 579

Master thesis : Deep Reinforcement Learning for Robotic Grasping

Télécharger
Fares, Nicolas ULiège
Promoteur(s) : Ernst, Damien ULiège ; Sacré, Pierre ULiège
Date de soutenance : 5-sep-2022/6-sep-2022 • URL permanente : http://hdl.handle.net/2268.2/16288
Détails
Titre : Master thesis : Deep Reinforcement Learning for Robotic Grasping
Titre traduit : [fr] Apprentissage par renforcement profond pour la préhension robotique
Auteur : Fares, Nicolas ULiège
Date de soutenance  : 5-sep-2022/6-sep-2022
Promoteur(s) : Ernst, Damien ULiège
Sacré, Pierre ULiège
Membre(s) du jury : Wehenkel, Louis ULiège
Ewbank, Tom ULiège
Langue : Anglais
Nombre de pages : 83
Mots-clés : [en] Reinforcement Learning
[en] Robotic Grasping
[en] Deep Learning
Discipline(s) : Ingénierie, informatique & technologie > Sciences informatiques
Organisme(s) subsidiant(s) : Financement Win2Wal
Centre(s) de recherche : Montefiore
Intitulé du projet de recherche : IntegrIA
Public cible : Chercheurs
Professionnels du domaine
Etudiants
Institution(s) : Université de Liège, Liège, Belgique
Diplôme : Master : ingénieur civil en science des données, à finalité spécialisée
Faculté : Mémoires de la Faculté des Sciences appliquées

Résumé

[en] The development and deployment of robotic grasping systems in the industry help to improve the efficiency and productivity of one’s production lines.
Even though interesting for any industrial actor, those robotic systems require a significant upfront investment.
This significant investment is composed of two primary types of costs: hardware and software.
Thanks to recent developments in Deep Reinforcement Learning applied to robotic grasping through vision-based systems, IntegrIA is researching solutions that could reduce the software costs of robotic grasping applications focused on pick-and-place tasks.

Thus, this master’s thesis implements a state-of-the-art reinforcement learning algorithm named QT-Opt and aims to compare it with IntegrIA’s one.
Both online and offline learning versions of QT-Opt are developed, resulting in three training algorithms to compare across three training datasets.
Performances of resulting agents are quantitatively evaluated and qualitatively compared through metrics such as the normalised area under the success rate curve.

In the end, it is observed that this master thesis best agent trained on a dataset composed of 1,800 objects achieves a grasping success rate of 96.67% on previously unseen objects, against 97.32% for IntegrIA’s agent.
Even though it cannot outperform their implementation, it is interesting to observe that the best agent trained for this master’s thesis achieves the 96% success rate from the original paper while being powered with a fraction of its resources.


Fichier(s)

Document(s)

File
Access Nicolas_Fares_Thesis.pdf
Description:
Taille: 6.21 MB
Format: Adobe PDF

Annexe(s)

File
Access Nicolas_Fares_Abstract.pdf
Description:
Taille: 81.16 kB
Format: Adobe PDF

Auteur

  • Fares, Nicolas ULiège Université de Liège > Master ingé. civ. sc. don. à . fin.

Promoteur(s)

Membre(s) du jury

  • Wehenkel, Louis ULiège Université de Liège - ULiège > Dép. d'électric., électron. et informat. (Inst.Montefiore) > Méthodes stochastiques
    ORBi Voir ses publications sur ORBi
  • Ewbank, Tom ULiège Université de Liège - ULiège > Dép. d'électric., électron. et informat. (Inst.Montefiore) > Méthodes stochastiques
    ORBi Voir ses publications sur ORBi
  • Nombre total de vues 135
  • Nombre total de téléchargements 579










Tous les documents disponibles sur MatheO sont protégés par le droit d'auteur et soumis aux règles habituelles de bon usage.
L'Université de Liège ne garantit pas la qualité scientifique de ces travaux d'étudiants ni l'exactitude de l'ensemble des informations qu'ils contiennent.