Data Engineer / BI Engineer (PySpark, GCP/AWS, Power BI) - H/F (H/F) DL CONSULTING
Clamart (92)CDI
Hier sur le WebSoyez parmi les premiers à postuler
Critères de l'offre
Métiers :
- Data Engineer (H/F)
- + 2 métiers
Expérience min :
- débutant à 2 ans
Secteur :
- ESN, Editeurs de logiciel, Services informatiques
Diplômes :
- Bac+5
Compétences :
- DEVOPS
- Cloud
- MSBI
- Python
- Sqoop
- + 2 compétences
Lieux :
- Clamart (92)
Conditions :
- CDI
- Temps Plein
- Aucun déplacement à prévoir
Description du poste
Description du poste
Nous recherchons un(e) Data Engineer passionné(e) pour rejoindre notre équipe et participer à la construction et l'évolution de notre architecture de données. Vous interviendrez sur un environnement technique riche, alliant la puissance du Big Data (Cloud, PySpark) à la rigueur de la Business Intelligence (MSBI, Power BI).
En tant que référent technique, vous jouerez un rôle clé dans la modernisation de nos flux de données et garantirez la qualité de l'information mise à disposition des métiers.
Vos Missions
Ingénierie & Développement (Data Engineering) :
Concevoir et développer des pipelines de données robustes et scalables (ETL/ELT) en Python/PySpark.
Orchestrer les flux de données dans un environnement Cloud (GCP ou AWS).
Optimiser les performances des traitements et assurer le stockage optimisé (Data Lake / Data Warehouse).
Business Intelligence (BI) :
Maintenir et faire évoluer les briques existantes sous MSBI (SSIS, SSAS, SSRS).
Modéliser les données pour le reporting (Star Schema, Tabular).
Développer et optimiser les rapports Power BI (DAX avancé, Dataflows).
Qualité & Gouvernance :
Assurer la surveillance, la documentation et la qualité des données (Data Quality).
Participer à la mise en place de bonnes pratiques CI/CD et DevOps.
Votre Profil
De formation supérieure en Informatique ou Data (Bac+5), vous justifiez d'une expérience significative (min. 3 ans) sur un poste similaire. Vous êtes à l'aise aussi bien dans le scripting backend que dans la restitution de données.
Compétences techniques indispensables :
Langages : Python (maîtrise impérative), SQL expert.
Big Data : Framework PySpark (traitement distribué).
Cloud : Expérience avérée sur GCP (BigQuery, Dataproc, GCS) ou AWS (Glue, EMR, S3).
BI & Viz : Suite MSBI (SSIS/SSAS) et expertise Power BI.
Les "Plus" qui feront la différence :
Connaissance des outils d'orchestration (Airflow, Cloud Composer).
Sensibilité à l'architecture Data (Lakehouse, Medallion Architecture).
Expérience en migration "On-premise vers Cloud".
Savoir-être
Esprit d'analyse et rigueur (souci du détail et de la robustesse du code).
Autonomie et capacité à proposer des solutions techniques.
Bon communiquant, capable de vulgariser des sujets techniques auprès des métiers.
Nous recherchons un(e) Data Engineer passionné(e) pour rejoindre notre équipe et participer à la construction et l'évolution de notre architecture de données. Vous interviendrez sur un environnement technique riche, alliant la puissance du Big Data (Cloud, PySpark) à la rigueur de la Business Intelligence (MSBI, Power BI).
En tant que référent technique, vous jouerez un rôle clé dans la modernisation de nos flux de données et garantirez la qualité de l'information mise à disposition des métiers.
Vos Missions
Ingénierie & Développement (Data Engineering) :
Concevoir et développer des pipelines de données robustes et scalables (ETL/ELT) en Python/PySpark.
Orchestrer les flux de données dans un environnement Cloud (GCP ou AWS).
Optimiser les performances des traitements et assurer le stockage optimisé (Data Lake / Data Warehouse).
Business Intelligence (BI) :
Maintenir et faire évoluer les briques existantes sous MSBI (SSIS, SSAS, SSRS).
Modéliser les données pour le reporting (Star Schema, Tabular).
Développer et optimiser les rapports Power BI (DAX avancé, Dataflows).
Qualité & Gouvernance :
Assurer la surveillance, la documentation et la qualité des données (Data Quality).
Participer à la mise en place de bonnes pratiques CI/CD et DevOps.
Votre Profil
De formation supérieure en Informatique ou Data (Bac+5), vous justifiez d'une expérience significative (min. 3 ans) sur un poste similaire. Vous êtes à l'aise aussi bien dans le scripting backend que dans la restitution de données.
Compétences techniques indispensables :
Langages : Python (maîtrise impérative), SQL expert.
Big Data : Framework PySpark (traitement distribué).
Cloud : Expérience avérée sur GCP (BigQuery, Dataproc, GCS) ou AWS (Glue, EMR, S3).
BI & Viz : Suite MSBI (SSIS/SSAS) et expertise Power BI.
Les "Plus" qui feront la différence :
Connaissance des outils d'orchestration (Airflow, Cloud Composer).
Sensibilité à l'architecture Data (Lakehouse, Medallion Architecture).
Expérience en migration "On-premise vers Cloud".
Savoir-être
Esprit d'analyse et rigueur (souci du détail et de la robustesse du code).
Autonomie et capacité à proposer des solutions techniques.
Bon communiquant, capable de vulgariser des sujets techniques auprès des métiers.
Salaire et avantages
Annuel de 38500.0 Euros à 39900.0 Euros sur 12.0 mois
Plan d'épargne retraite d'entreprise
Plan d'actionnariat salarié
Plan d'épargne retraite d'entreprise
Plan d'actionnariat salarié
Référence : 202QCBY
Recommandé pour vous

Guyancourt (78)CDI Il y a 16 jours

Clichy (92)CDI 70 000 € - 75 000 € Il y a 10 jours

Issy-les-Moulineaux (92)CDI 35 000 € - 45 000 € par an Il y a 6 jours