← Retour aux offres

Segmentation panoptique 3D (H/F)

Postée le 15 oct.

Lieu : Palaiseau, France · Contrat : Stage · Rémunération : A négocier

Société : CEA List

Basé à Paris-Saclay, le CEA List est l’un des quatre instituts de recherche technologique de CEA
Tech, direction de la recherche technologique du CEA. Dédié aux systèmes numériques intelligents, il
contribue au développement de la compétitivité des entreprises par le développement et le transfert
de technologies.
L’expertise et les compétences développées par les 800 ingénieurs-chercheurs et techniciens du
CEA List permettent à l’Institut d’accompagner chaque année plus de 200 entreprises françaises et
étrangères sur des projets de recherche appliquée s’appuyant sur 4 programmes et 9 plateformes
technologiques. 21 start-ups ont été créées depuis 2003.
Labellisé Institut Carnot depuis 2006, le CEA List est aujourd’hui l’institut Carnot Technologies
Numériques.
Le Laboratoire de Vision et Apprentissage pour l’analyse de scène (LVA) mène ses recherches dans
le domaine de la Vision par Ordinateur (Computer Vision) selon quatre axes principaux :
- La reconnaissance visuelle (détection et/ou segmentation d’objets, de personnes, de
patterns ; détection d’anomalies ; caractérisation)
- L’analyse du comportement (reconnaissance de gestes, d’actions, d’activités, de
comportements anormaux ou spécifiques pour des individus, un groupe, une foule)
- Annotation intelligente (annotation à grande échelle de données visuelles 2D/3D de manière
semi-automatique)
- Perception et décision (processus de décision markovien, navigation).

Description du poste

L’objectif de ce stage est de proposer une nouvelle méthode de segmentation panoptique d’un nuage
de point 3D. La segmentation panoptique 3D [2, 3, 4] prédit une carte de segmentation regroupant
deux types d’information: la segmentation sémantique et la segmentation d’instances. La
segmentation sémantique consiste à attribuer à chaque élément du nuage de point la classe auquel il
appartient (arbre, route, voiture, personne...) tandis que la segmentation d’instances produit un
masque pour chaque objet dans la scène. Le regroupement de ces deux types de segmentation
fournit une description 3D très riche ce qui s’avère très utile dans un certain
nombre d’application (notamment la conduite autonome, cartographie aérienne).
Le stagiaire devra s’inspirer des algorithmes de reconnaissance 3D existants et des approches de
segmentation panoptique appliqués aux images pour proposer une approche de segmentation
panoptique 3D.

Références
[1] Behley et al. SemanticKITTI: A Dataset for Semantic Scene Understanding of LiDAR Sequences, ICCV
2019
[2] Wu et al. Squeezeseg: Convolutional neural nets with recurrent crf for real-time road-object
segmentation from 3d lidar point cloud, ICRA 2018
[3] Alonso et al. 3D-MiniNet: Learning a 2D Representation from Point Clouds for Fast and Efficient 3D
LIDAR Semantic Segmentation , IROS 2020
[4] Biasutti et al. LU-Net: An Efficient Network for 3D LiDAR Point Cloud Semantic Segmentation Based
on End-to-End-Learned 3D Features and U-Net, ICCVW, 2019

Profil recherché

Niveau demandé : Ingénieur, Master 2
Ce stage ouvre la possibilité de poursuite en thèse et ingénieur R&D dans notre laboratoire.
Durée : 6 mois
Rémunération : entre 700 € et 1300 € suivant la formation.
Compétences requises :
- Vision par ordinateur
- Apprentissage automatique (deep learning)
- Reconnaissance de formes
- C/C++, Python
- La maîtrise d’un framework d’apprentissage profond (en particulier Tensorflow ou PyTorch)
est un plus

Voir le fichier joint

Pour postuler :

Nicolas Granger
Tél +33 (0)1 69 08 11 32
E-mail nicolas.granger@cea.fr