Data & AI Engineer F/H DIGORA
Hauts-de-Seine (92)CDI
Il y a 43 minutes sur le WebSoyez parmi les premiers à postuler
Critères de l'offre
Métiers :
- Data Engineer (H/F)
- + 2 métiers
Expérience min :
- 3 à 20 ans
Secteur :
- ESN, Editeurs de logiciel, Services informatiques
Diplômes :
- Bac+5
Compétences :
- Java
- Big data
- SAP
- DEVOPS
- Cloud
- + 10 compétences
Lieux :
- Hauts-de-Seine (92)
Conditions :
- CDI
- Temps Plein
Description du poste
En tant que Data Engineer, vous interviendrez sur des missions variées chez nos clients (ETI et grands groupes), en collaboration avec des équipes pluridisciplinaires.
Votre rôle consistera à concevoir, développer et optimiser des pipelines de données robustes, scalables et sécurisés, tout en accompagnant les métiers d ans la définition de leurs besoins et la valorisation de leurs données.
Vous serez à la fois faiseur et conseil: capable de construire des architectures techniques fiables, mais aussi d'animer des ateliers métiers pour transformer les besoins fonctionnels en solutions data concrètes
Vos principales responsabilités
Data Engineering
- Concevoir, développer et maintenir des pipelines de données robustes et automatisés.
- Mettre en place des flux d'intégration et de traitement de données, y compris dans des contextes de migration vers le Cloud.
- Définir et implémenter de nouvelles architectures data (data warehouse, data lake, lakehouse).
- Assurer la qualité, la sécurité, la conformité (RGPD) et la performance des données.
- Industrialiser les traitements et mettre en œuvre les bonnes pratiques DevOps (CI/CD, monitoring).
Data Consulting
- Animer des ateliers métiers pour comprendre les besoins utilisateurs et les traduire en solutions data adaptées.
- Participer à la conception, l'implémentation et l'automatisation des flux de données répondant aux enjeux métiers.
- Produire et restituer des analyses et visualisations claires pour accompagner la prise de décision.
Innovation & veille
- Expérimenter et industrialiser des modèles de Machine Learning (LLMs, NLP, RAG, etc.).
- Contribuer à la veille technologique, tester et intégrer de nouvelles solutions innovantes dans les projets.
Formation & Expérience
- Expérience significative avec plusieurs mises en production de pipelines ou projets data.
Compétences techniques :
- Langages : SQL, Python, Java.
- Bases de données / DWH : PostgreSQL, SQL Server, Oracle.
- Orchestration & Big Data : Airflow, Spark, Monitoring, MLOps.
- DevOps : Docker, Kubernetes, CI/CD (GitLab, GitHub Actions).
- Cloud : AWS.
- Data Viz : Plotly/Dash (idéalement Power BI ou Tableau en complément).
- IA / ML : GPT, BERT, HuggingFace, LangChain, Pinecone.
- Gestion du code : Git (GitFlow standard), GitHub.
- Serait un plus : DBT, Snowflake, Terraform, Dataiku, Databricks.
Soft skills :
- Vous avez l'esprit analytique et aimez résoudre des problèmes complexes.
- Vous savez vulgariser les concepts techniques auprès des clients (IT / métiers /CDO).
- Vous êtes curieux(se) et disposez d'une réelle appétence pour l'innovation et les nouvelles technologies.
Votre rôle consistera à concevoir, développer et optimiser des pipelines de données robustes, scalables et sécurisés, tout en accompagnant les métiers d ans la définition de leurs besoins et la valorisation de leurs données.
Vous serez à la fois faiseur et conseil: capable de construire des architectures techniques fiables, mais aussi d'animer des ateliers métiers pour transformer les besoins fonctionnels en solutions data concrètes
Vos principales responsabilités
Data Engineering
- Concevoir, développer et maintenir des pipelines de données robustes et automatisés.
- Mettre en place des flux d'intégration et de traitement de données, y compris dans des contextes de migration vers le Cloud.
- Définir et implémenter de nouvelles architectures data (data warehouse, data lake, lakehouse).
- Assurer la qualité, la sécurité, la conformité (RGPD) et la performance des données.
- Industrialiser les traitements et mettre en œuvre les bonnes pratiques DevOps (CI/CD, monitoring).
Data Consulting
- Animer des ateliers métiers pour comprendre les besoins utilisateurs et les traduire en solutions data adaptées.
- Participer à la conception, l'implémentation et l'automatisation des flux de données répondant aux enjeux métiers.
- Produire et restituer des analyses et visualisations claires pour accompagner la prise de décision.
Innovation & veille
- Expérimenter et industrialiser des modèles de Machine Learning (LLMs, NLP, RAG, etc.).
- Contribuer à la veille technologique, tester et intégrer de nouvelles solutions innovantes dans les projets.
Formation & Expérience
- Expérience significative avec plusieurs mises en production de pipelines ou projets data.
Compétences techniques :
- Langages : SQL, Python, Java.
- Bases de données / DWH : PostgreSQL, SQL Server, Oracle.
- Orchestration & Big Data : Airflow, Spark, Monitoring, MLOps.
- DevOps : Docker, Kubernetes, CI/CD (GitLab, GitHub Actions).
- Cloud : AWS.
- Data Viz : Plotly/Dash (idéalement Power BI ou Tableau en complément).
- IA / ML : GPT, BERT, HuggingFace, LangChain, Pinecone.
- Gestion du code : Git (GitFlow standard), GitHub.
- Serait un plus : DBT, Snowflake, Terraform, Dataiku, Databricks.
Soft skills :
- Vous avez l'esprit analytique et aimez résoudre des problèmes complexes.
- Vous savez vulgariser les concepts techniques auprès des clients (IT / métiers /CDO).
- Vous êtes curieux(se) et disposez d'une réelle appétence pour l'innovation et les nouvelles technologies.
Référence : 201BGJH
Recommandé pour vous

Hauts-de-Seine (92)CDI Il y a 5 jours

Vanves (92)CDI Il y a 11 jours

Saint-Rémy-lès-Chevreuse (78)CDI 50 000 € - 60 000 € par an Il y a 3 jours