L'équipe R&D de la marque 3DVia de Dassault Systèmes développe des produits destinés aux consommateurs et aux professionnels pour faciliter l'aménagement de leurs intérieurs. L'usage de la 3D permet de se projeter, facilite la prise de décision et le parcours d'achat avec les différents outils de la marque HomeByMe.
Dans ce cadre, l'équipe 3DVia située à Toulouse réalise des évolutions sur différents produits : configurateur 3D, outils de catalogues, et IA générative autour de l'image.
- Les dernières avancées de l'Intelligence Artificielle permettent l'émergence de scénarios relevant de la fiction jusqu'à maintenant : génération d'images à partir d'un texte, effacement et remplacement d'un meuble dans une image, estimation de la 3D à partir d'une seule image, détection et segmentation renforcées.
- Ces méthodes ont besoin pour une utilisation optimale d'une grande quantité de données à intégrer dans leurs modèles.
- 3DVIA dispose, grâce à HomeByMe, d'une grande quantité de données de pièces d'intérieur pouvant être utilisées comme source d'entraînement pour des modèles IA (détection, segmentation, effacement, recherche de sémantique 3D, etc.) mais qui sont parfois très hétérogènes ;
- Cependant, ces données sont sous un format qui rend difficile d'annoter celles-ci et d'organiser automatiquement en datasets structurés en vue d'être exploitées pleinement pour de faire des entraînements de modèles d'Intelligence Artificielle
Vos Missions
Le but principal de ce stage est de faciliter la creation de datasets "valides" à partir des données HbM et à destination des modèles d'IA.
Pour cela, le stagiaire devra créer un outil capable, à partir d'une liste de critères et de filtres définis par l'utilisateur :
- De faciliter l'annotation des données HbM notamment via l'intégration d'un système de tags et d'une assistance à la description textuelle, via des outils (IA ou non) disponibles ;
- D'extraire un ensemble de données HbM selon une métrique de qualité ;
- Mesurer la qualité de la data trouvée, et trouver des solutions de réparation / complétion si la qualité est insuffisante (données incomplètes, anciennes données, etc.)
- Structurer ces données pour en faire ressortir une structure de dataset pouvant être utilisée selon le modèle à entraîner
Cet outil doit être résilient par rapport à la quantité de données à récupérer.
Étapes proposées :
- Faire une veille de ce qui se fait actuellement dans l'équipe de 3DVIA
- Lister et définir les critères et filtres à mettre en place
- Définir les structures des datasets en fonction des modèles à entraîner
- Créer l'outil défini ci-dessus
- Challenger à grande échelle
Qualifications
Etudiant en dernière année de Master (M2) ou école d'ingénieur en informatique, avec :
- Bonnes compétences en programmation (notamment python) ;
- Ayant suivi une formation sur les technologies IA et réaliser des projets pratiques en adéquation ;
- Spécialisation ou expériences autour du traitement de la data à grande échelle bienvenues ;
- Esprit d'équipe ;
- Bonne autonomie ;
- Maîtrise du français et de l'anglais.
Les atouts en nous rejoignant
· Environnement collaboratif et innovant
· Collaboration internationale
· Diversité des technologies, produits et solutions
· Apprentissage au sein d'une équipe experte
· Engagement en faveur de la diversité et de l'inclusion
sur le site du recruteur.