Job details
Job Type
Internship
Full Job Description
Mission
Le sujet du stage
A Paris, Grenoble ou Pau, tu renforceras notre équipe Data dans un projet de collecte, de transformation, d'analyse et de valorisation des données. Dans ce contexte, tu interviendras pour l'industrialisation des différentes étapes du traitement des données et pour la mise en place d'outils permettant d'accélérer et de fiabiliser le développement de modèles de Deep Learning et de Machine Learning.
Au sein de l'équipe, tu auras les responsabilités suivantes :
- Recueil des spécifications et des contraintes techniques auprès du client (origine des données, volumétrie, règles métiers pour les traitements, etc.) ;
- Déploiement et exploitation d'outils pour le suivi du cycle de vie de projets ML (suivi des paramètres et des résultats d'expérience, versionning des modèles, etc.) ;
- Définition et mise en oeuvre de mécanismes pour l'exploitation des modèles (exemple : développement d'une API, lancement de batch de prédiction, etc.) ;
- Mise en place des différents composants de la chaîne de CI-CD-CT (Continuous Integration, Deployment and Training) ;
- Déploiement de pipeline d'entraînement et de prédiction sur le cloud (AWS, GCP ou Azure).
Afin d'assurer une bonne montée en compétences, tu auras l'occasion de consacrer du temps en début de stage pour le passage d'une certification cloud. Également, comme tous les membres de l'équipe, tu seras amené à participer à l'amélioration continue de nos outils et de nos méthodes : dojos, ateliers d'architecture, rétros...
Les plus : travail sur plusieurs projets, passage de certification cloud, travail avec la méthode SCRUM
profil
Edutiant(e) en fin de cursus
Lieux : Ã caler entre nos bureaux de Paris, Grenoble & Pau
Durée : 6 mois pouvant déboucher sur un CDI
compétences
Monter en compétences :
- Tensorflow, scikit-learn
- MlFlow, Kubeflow, DVC
- Cloud (AWS, GCP ou Azure)
- CI/CD (Github Actions, Gitlab CI ou Bitbucket Pipelines)
Type d'emploi : Stage
sur le site du recruteur.