Data Engineer Confirmé-e (H/F) SOYHUCE
Paris (75)CDI
Il y a 3 jours sur le WebSoyez parmi les premiers à postuler
Critères de l'offre
Métiers :
- Data Engineer (H/F)
Expérience min :
- 3 à 20 ans
Secteur :
- ESN, Editeurs de logiciel, Services informatiques
Diplômes :
- Diplôme de grande école d'ingénieur
Compétences :
- Anglais
- Java
- Big data
- REST api
- Cloud
- + 9 compétences
Lieux :
- Paris (75)
Conditions :
- CDI
- Temps Plein
Description du poste
Au sein de notre DataLab, tu travailles conjointement avec les Data Scientists, Data Engineers, MLE/MLOps engineer déjà en poste et tu es impliqué.e dans la prise de décisions liée aux solutions Data et à son évolution.
A cet effet, tu es en charge de :
- Contribuer au développement de notre offre Data et à l'industrialisation de plateformes data pour nos clients
- Comprendre, analyser et proposer des solutions techniques répondant aux besoins des Plateformes digitales et des projets internes
- Définir l'architecture logiciel ETL / ELT en collaboration avec vos pairs
- Travailler la donnée sous toutes ses formes (stockage, élaboration de modèles, structuration, nettoyage)
- Rédiger de la documentation technique (diagrammes UML, documentation d'API, .)
- Partager votre savoir-faire entre les différents membres de l'équipe
- Concevoir et développer des connecteurs entre les sources de données (internes et/ou externes) et la plateforme
- Concevoir et développer des pipelines de traitements de données (batch et/ou temps réel) dans un environnement Big Data
- Assurer une veille technologique et savoir mener à bien un projet de R&D
Tu assures en autonomie les missions suivantes en interne ou auprès de nos clients grands comptes :
- Cartographier des données et des flux de données
- Implémenter des algorithmes d'analyse de données pour l'industrialisation
- Collecter, consolider et modéliser de gros volumes de données (Big Data, Data Warehouses, Data Lakes)
- Développer et automatiser des flux de données et leurs visualisations en dashboards, reporting
- S'assurer de la scalabilité, sécurité, stabilité et disponibilité des données de la plateforme
- Analyser les données web pour répondre aux questions métiers et participer à la construction de l'architecture Big Data
- Mettre en place du séquencement et de la supervision des flux précitées en gérant les cas limites
Compétences attendues :
Bon niveau en développement: :
- De script ETL : Python (Pandas, API Rest, FaaS), Java (ex Kafka Connect, SOAP), Spark (PySpark, Databricks, Delta Lake)
- De script ELT : DBT (ex. Snowflake, PostgreSQL)
- Connaissance conception et administration d'entrepôt de données : Snowflake, Big Query, PostgreSQL
- LakeHouse : Delta LakeConnaissance message broker, RabbitMQ, Kafka
- Compétences cloud : Kubernetes, Conteneurisation, Fournisseur cloud (AWS, GCP ou Azure), Infrastructure As Code (Terraform)
- Expérience d'architecture et de dimensionnement d'une architecture cloud via des services managés
- Cartographie des données
Profil recherché
Diplômé-e d'études supérieures dans le système d'information, computer sciences, big data (école d'ingénieurs, école spécialisée ou équivalent universitaire), tu justifies d'au moins 3 ans en Data engineering.
- Tu as une expérience significative sur la mise en place de pipelines complets de valorisation de données massives, de la collecte à la mise à disposition d'applications en passant par le traitement.
- La maîtrise de l'anglais est appréciée.
- Certification-s appréciée-s : GCP Professionnal Data Engineer OU Azure Data Engineer Associate OU AWS Solution Architect.
- Tu es passionné-e par ton métier et aimes le faire partager.
A cet effet, tu es en charge de :
- Contribuer au développement de notre offre Data et à l'industrialisation de plateformes data pour nos clients
- Comprendre, analyser et proposer des solutions techniques répondant aux besoins des Plateformes digitales et des projets internes
- Définir l'architecture logiciel ETL / ELT en collaboration avec vos pairs
- Travailler la donnée sous toutes ses formes (stockage, élaboration de modèles, structuration, nettoyage)
- Rédiger de la documentation technique (diagrammes UML, documentation d'API, .)
- Partager votre savoir-faire entre les différents membres de l'équipe
- Concevoir et développer des connecteurs entre les sources de données (internes et/ou externes) et la plateforme
- Concevoir et développer des pipelines de traitements de données (batch et/ou temps réel) dans un environnement Big Data
- Assurer une veille technologique et savoir mener à bien un projet de R&D
Tu assures en autonomie les missions suivantes en interne ou auprès de nos clients grands comptes :
- Cartographier des données et des flux de données
- Implémenter des algorithmes d'analyse de données pour l'industrialisation
- Collecter, consolider et modéliser de gros volumes de données (Big Data, Data Warehouses, Data Lakes)
- Développer et automatiser des flux de données et leurs visualisations en dashboards, reporting
- S'assurer de la scalabilité, sécurité, stabilité et disponibilité des données de la plateforme
- Analyser les données web pour répondre aux questions métiers et participer à la construction de l'architecture Big Data
- Mettre en place du séquencement et de la supervision des flux précitées en gérant les cas limites
Compétences attendues :
Bon niveau en développement: :
- De script ETL : Python (Pandas, API Rest, FaaS), Java (ex Kafka Connect, SOAP), Spark (PySpark, Databricks, Delta Lake)
- De script ELT : DBT (ex. Snowflake, PostgreSQL)
- Connaissance conception et administration d'entrepôt de données : Snowflake, Big Query, PostgreSQL
- LakeHouse : Delta LakeConnaissance message broker, RabbitMQ, Kafka
- Compétences cloud : Kubernetes, Conteneurisation, Fournisseur cloud (AWS, GCP ou Azure), Infrastructure As Code (Terraform)
- Expérience d'architecture et de dimensionnement d'une architecture cloud via des services managés
- Cartographie des données
Profil recherché
Diplômé-e d'études supérieures dans le système d'information, computer sciences, big data (école d'ingénieurs, école spécialisée ou équivalent universitaire), tu justifies d'au moins 3 ans en Data engineering.
- Tu as une expérience significative sur la mise en place de pipelines complets de valorisation de données massives, de la collecte à la mise à disposition d'applications en passant par le traitement.
- La maîtrise de l'anglais est appréciée.
- Certification-s appréciée-s : GCP Professionnal Data Engineer OU Azure Data Engineer Associate OU AWS Solution Architect.
- Tu es passionné-e par ton métier et aimes le faire partager.
Salaire et avantages
Autre
L'entreprise : SOYHUCE
Depuis 2013, SoyHuCe accompagne les entreprises, industries et collectivités dans leurs problématiques liées aux enjeux du numérique et leur transformation digitale. Les solutions que nous concevons et développons sont centrées sur les utilisateurs, mettant l humain au c?ur des organisations.
Tech Lab spécialisé en algorithmes et en IA, SoyHuCe met à votre disposition son expertise avec :
- Un laboratoire R&D en algorithmie et data science
- Une data factory
- Une usine Digitale
Tech Lab spécialisé en algorithmes et en IA, SoyHuCe met à votre disposition son expertise avec :
- Un laboratoire R&D en algorithmie et data science
- Une data factory
- Une usine Digitale
Référence : 194DNCW
Recommandé pour vous

Paris (75)CDI 60 000 € - 75 000 € par an Il y a 16 jours

Jardin du Luxembourg (75)Stage Il y a 22 jours

Jardin du Luxembourg (75)Stage Il y a 22 jours