Deep Video Frame Interpolation for Sports Content
Robinson, John
Promoteur(s) : Louppe, Gilles
Date de soutenance : 24-jui-2024/25-jui-2024 • URL permanente : http://hdl.handle.net/2268.2/20234
Détails
Titre : | Deep Video Frame Interpolation for Sports Content |
Auteur : | Robinson, John |
Date de soutenance : | 24-jui-2024/25-jui-2024 |
Promoteur(s) : | Louppe, Gilles |
Membre(s) du jury : | Botta, Vincent
Cioppa, Anthony Debruyne, Christophe |
Langue : | Anglais |
Nombre de pages : | 70 |
Mots-clés : | [en] deep learning [en] computer vision [en] sports content [en] interpolation [en] frame rate |
Discipline(s) : | Ingénierie, informatique & technologie > Sciences informatiques |
Public cible : | Professionnels du domaine Etudiants Grand public |
Institution(s) : | Université de Liège, Liège, Belgique |
Diplôme : | Master en science des données, à finalité spécialisée |
Faculté : | Mémoires de la Faculté des Sciences appliquées |
Résumé
[en] In this work, we will explore and tackle the problem of video frame interpolation, which aims to artificially generate sequences of frames that are temporally consistant with existing footage. More specifically, we investigate the applications of deep learning methods to the production of high resolution super slow-motion footage.
This thesis is done in collaboration with EVS Broadcast Equipment. We approach the problem around the improvement of their solution, XtraMotion.
We narrow down zones of improvements with probes agnostic to the implementation of XtraMotion and eventually introduce the problem of blinking, our contributions relates to the characteristics, causes and solutions to that specific problem through an extensive analysis of interpolation models.
Fichier(s)
Document(s)
Description: The abstract
Taille: 296.91 kB
Format: Adobe PDF
Description: The full thesis
Taille: 78.55 MB
Format: Adobe PDF
Citer ce mémoire
L'Université de Liège ne garantit pas la qualité scientifique de ces travaux d'étudiants ni l'exactitude de l'ensemble des informations qu'ils contiennent.