Effy rend plus simples, plus efficaces et plus accessibles les travaux de rénovation énergétique.
Entre l'urgence climatique, la précarité énergétique et un marché de l'emploi au ralenti, Effy veut contribuer, à son échelle, à construire un monde meilleur. Chaque jour, nos équipes relèvent ce défi avec enthousiasme et exigence !
Pour accélérer la rénovation énergétique, Effy s'appuie depuis plus de 10 ans sur ses 3 valeurs fortes : Pionnier, Fiabilité et Efficacité
Cette offre est une opportunité d'entreprendre dans un secteur inspirant et porteur de sens.
Chez Effy, la data est le pilier qui permet de guider toutes les décisions de l'entreprise et de construire la stratégie sur le long-terme.
L'équipe Data est une équipe transverse qui interagit avec tous les métiers, au niveau stratégique et opérationnel. L'équipe a pour mission de collecter, retraiter et modéliser toutes les données pour procurer à chaque métier des indicateurs fiables et pertinents et leur permettre de :
- Suivre leurs performances en direct
- Prendre des décisions rapides et toujours basées sur les données
- Construire leurs stratégies à moyen et long-terme (plan de chasse, investissement média, incentives)
- Présenter aux métiers des analyses poussées pour leur permettre de prendre du recul et de mieux saisir les opportunités
- Optimiser la performance de l'entreprise grâce à des algorithmes de machine learning (e.g. scoring des utilisateurs, la prévision de churn)
Vous serez entouré de business analysts, de data scientist, de data engineers ainsi que de l'ensemble de l'équipe digitale, tant sur le point fonctionnel (product managers, product owners...), que sur le plan technique (architecte, développeurs, cloud...) et pourrez ainsi développer vos compétences business et techniques.
Au sein de l'équipe data, vous aurez une vision exhaustive des rouages de l'entreprise et de ses facteurs clés de succès.
Les missions qui vous seront attribuées :
- La définition et le développement d'une architecture Data
- La collecte multi-source des données
- L'automatisation des flux de données
- La prise en compte du contexte réglementaire quant à la récolte et à l'accès aux données (RGPD)
- La collaboration et la communication avec les équipes internes/externes
- Extraire, uniformiser et structurer les données depuis notre datalake
- Maitriser la modélisation des données dans un datalake pour assurer la bonne exécution de ses traitements
- S'assurer de la fiabilité des données utilisées
- Mettre en place des flux de données entre les systèmes en ingestion et en exposition (batch, API, temps réel...)
- Comprendre l'architecture Datalake dans son ensemble et préconiser des adaptations pour le déploiement et le traitement de ses modèles
- Vous avez un minimum de 2 ans d'expérience en data engineering
- L'open data est votre dada
- Maîtrise de Python et de différentes technologies autour des flux de données : SQL, Bigquery, Airflow, Consommation d'API.
Autres connaissances souhaitées :
- Cloud : GCP, Composer, Docker
- Base de données : PostgreSQL, MySQL,
- Eventing : Pub/sub.
- DBT
sur le site du recruteur.