← Retour aux offres

Few-Shot Learning : Comment apprendre avec peu de données annotées ? (H/F)

Postée le 15 oct.

Lieu : Palaiseau, France · Contrat : Stage · Rémunération : A négocier

Société : CEA List

Présentation du laboratoire d’accueil
Basé à Paris-Saclay, le CEA List est l’un des quatre instituts de recherche technologique de CEA Tech, direction
de la recherche technologique du CEA. Dédié aux systèmes numériques intelligents, il contribue au développement
de la compétitivité des entreprises par le développement et le transfert de technologies.
L’expertise et les compétences développées par les 800 ingénieurs-chercheurs et techniciens du CEA List
permettent à l’Institut d’accompagner chaque année plus de 200 entreprises françaises et étrangères sur des
projets de recherche appliquée s’appuyant sur 4 programmes et 9 plateformes technologiques. 21 start-ups ont
été créées depuis 2003.
Labellisé Institut Carnot depuis 2006, le CEA List est aujourd’hui l’institut Carnot Technologies Numériques.
Le Laboratoire de Vision et Apprentissage pour l’analyse de scène (LVA) mène ses recherches dans le domaine
de la Vision par Ordinateur (Computer Vision) selon quatre axes principaux :
- La reconnaissance visuelle (détection et/ou segmentation d’objets, de personnes, de patterns ; détection
d’anomalies ; caractérisation)
- L’analyse du comportement (reconnaissance de gestes, d’actions, d’activités, de comportements
anormaux ou spécifiques pour des individus, un groupe, une foule)
- Annotation intelligente (annotation à grande échelle de données visuelles 2D/3D de manière semiautomatique)
- Perception et décision (processus de décision markovien, navigation)

Description du poste

De nombreuses tâches en vision par ordinateur sont aujourd’hui réalisées avec succès par les méthodes
d’apprentissage profond (deep learning). C’est le cas par exemple de la détection et la reconnaissance d’objets dans
les images, la classification d’images, la reconnaissance de personnes ou d’activités… utiles dans divers domaines
d’application (vidéosurveillance, conduite autonome, imagerie médicale, etc.). L’inconvénient de ces approches
basées réseaux de neurones profonds est que leur entrainement supervisé requiert de grandes quantités de
données annotées. D’une part, l’annotation manuelle de données est une tâche longue et couteuse. D’autre part,
ces données peuvent être rares ou difficiles à collecter. Il est alors nécessaire d’avoir des méthodes d’apprentissage
qui se basent sur très peu d’exemples.
Deux stratégies principales se distinguent. L’une consiste à apprendre sur une seule tâche globale des
caractéristiques suffisamment génériques pour résoudre la tâche élémentaire cible (feature reuse). Il s’agit alors de
régler finement les dernières couches (fine-tuning) d’un réseau de neurones existant sur les données rares ciblées
[Wang20]. L’utilisation de données augmentées ou non annotées (lorsque celles-ci ne sont pas rares) rend alors
l’apprentissage plus générique. L’autre stratégie est le paradigme de méta-apprentissage (meta-learning). Il
consiste à apprendre à apprendre de multiples tâches élémentaires à partir de peu de données, pour ensuite
s’adapter facilement à la tâche élémentaire ciblée [Finn17]. Dans le cas où les données sont nombreuses mais les
annotations rares, certaines méthodes exploitent l’information des données non annotées [Ren18, Gidaris19].
L’objectif de ce stage est d’explorer des stratégies basées sur les paradigmes d’apprentissage semi-supervisé
et/ou auto-supervisé qui permettent de répondre à la problématique du few-shot learning. On s’intéressera, en
particulier, aux tâches de classification d’images et de détection d’objets [Karlinsky19, Yan19]. Dans un premier
temps, l’appropriation des méthodes de l’état de l’art permettra d’analyser leurs avantages et leurs limitations.
Dans un second temps, de nouvelles méthodes seront développées. Elles seront ensuite évaluées et comparées à
l’état de l’art sur divers jeux de données afin de quantifier l’amélioration des performances, la dépendance au
nombre d’échantillons annotés/non-annotés, ainsi que la capacité de généralisation face aux types de données. Les
résultats du stage pourront faire l’objet de publication.
Keywords : computer vision, deep learning, few-shot learning, meta-learning, semi-supervised learning, selfsupervised learning

Références
[Wang20] Wang X. et al. (2020) Frustratingly Simple Few-Shot Object Detection. ICML.
[Finn17] Finn C. et al. (2017). Model-agnostic meta-learning for fast adaptation of deep networks. ICML.
[Ren18] Ren M et al. (2018) Meta-learning for semi-supervised few-shot classification. ICLR.
[Gidaris19] Gidaris S. et al. (2019) Boosting Few-Shot Visual Learning with Self-Supervision. ICCV.
[Karlinsky19] Karlinsky L. et al. (2019) Repmet : Representative-based metric learning for classification and few-shot
object detection. CVPR.
[Yan19] Yan X. et al. (2019) Meta R-CNN : Towards General Solver for Instance-Level Low-Shot Learning. ICCV.

Profil recherché

Niveau demandé : Ingénieur, Master 2
Ce stage ouvre la possibilité de poursuite en thèse et ingénieur R&D dans notre laboratoire.
Durée : 6 mois
Rémunération : entre 700 € et 1300 € suivant la formation.
Compétences requises :
- Vision par ordinateur
- Apprentissage automatique (deep learning)
- Reconnaissance de formes
- C/C++, Python
- La maîtrise d’un framework d’apprentissage profond (en particulier Tensorflow ou PyTorch) est un plus.

Voir le fichier joint

Pour postuler :

Romaric Audigier
romaric.audigier@cea.fr
+33 (0)1 69 08 01 06