Data engineer (H/F) Clara Inc.
Lyon (69)CDI
Il y a 6 jours sur le Web
Critères de l'offre
Métiers :
- Data Engineer (H/F)
- + 2 métiers
Expérience min :
- 1 à 5 ans
Secteur :
- Ingénierie & services associés
Diplômes :
- Bac+5
Compétences :
- DEVOPS
- Cloud
- Python
- Gitlab
- SQL
- + 1 compétence
Lieux :
- Lyon (69)
Conditions :
- CDI
- Temps Plein
- Aucun déplacement à prévoir
Description du poste
Rejoignez Hyggle et prenez en charge la mise en place et l'automatisation des pipelines de données qui alimentent notre plateforme SaaS de pilotage et d'optimisation des infrastructures hydrogène et énergie verte.
Vous serez le garant de la fiabilité, de la scalabilité et de la qualité des flux de données (APIs marché, SCADA, PPA, comptage Enedis/GRDF, etc.), en construisant un socle robuste pour nos algorithmes IA.
Responsabilités
- Concevoir, développer et maintenir les pipelines d'ingestion (APIs, fichiers, flux temps réel).
- Structurer et optimiser le stockage dans BigQuery / GCS.
- Mettre en place l'orchestration et le monitoring avec Prefect + GCP.
- Définir les règles de qualité et validation des données.
- Collaborer avec l'AI Engineer pour fournir des datasets fiables et prêts à l'usage.
- Suivre les performances et coûts des jobs data (GCP Monitoring).
Stack
- Cloud : GCP (BigQuery, GCS, Pub/Sub, Cloud Run, Vertex AI en support).
- Orchestration : Prefect.
- Langages : Python, SQL.
- CI/CD & Infra : GitLab , Docker, Terraform (bonus).
Profil recherché
- Expérience 2-5 ans en Data Engineering.
- Solide pratique des pipelines ETL/ELT sur cloud public (idéalement GCP).
- Maîtrise SQL + Python.
- Culture DevOps (monitoring, automatisation).
- Intérêt pour l'énergie, l'optimisation ou l'Industrie 4.0 est un plus.
Vous serez le garant de la fiabilité, de la scalabilité et de la qualité des flux de données (APIs marché, SCADA, PPA, comptage Enedis/GRDF, etc.), en construisant un socle robuste pour nos algorithmes IA.
Responsabilités
- Concevoir, développer et maintenir les pipelines d'ingestion (APIs, fichiers, flux temps réel).
- Structurer et optimiser le stockage dans BigQuery / GCS.
- Mettre en place l'orchestration et le monitoring avec Prefect + GCP.
- Définir les règles de qualité et validation des données.
- Collaborer avec l'AI Engineer pour fournir des datasets fiables et prêts à l'usage.
- Suivre les performances et coûts des jobs data (GCP Monitoring).
Stack
- Cloud : GCP (BigQuery, GCS, Pub/Sub, Cloud Run, Vertex AI en support).
- Orchestration : Prefect.
- Langages : Python, SQL.
- CI/CD & Infra : GitLab , Docker, Terraform (bonus).
Profil recherché
- Expérience 2-5 ans en Data Engineering.
- Solide pratique des pipelines ETL/ELT sur cloud public (idéalement GCP).
- Maîtrise SQL + Python.
- Culture DevOps (monitoring, automatisation).
- Intérêt pour l'énergie, l'optimisation ou l'Industrie 4.0 est un plus.
Salaire et avantages
Mensuel de 3000.0 Euros à 3200.0 Euros sur 12.0 mois
Titres restaurant / Prime de panier
Indemnité transports
Titres restaurant / Prime de panier
Indemnité transports
Référence : 197MJGD
Recommandé pour vous

Lyon (69)CDI 45 000 € - 50 000 € Il y a 13 jours

Clermont-Ferrand (63)CDI Il y a 3 jours

Lyon (69)CDI Il y a 11 jours