Data Engineer – ScaledUp Paris (M/F/X) F/H Recruteur partenaire
Critères de l'offre
Métiers :
- Data Engineer (H/F)
Expérience min :
- 3 à 10 ans
Diplômes :
- Bac+5
Compétences :
- Anglais
- Cloud
- MongoDB
- Python
- SQL
- + 3 compétences
Lieux :
- Paris (75)
Conditions :
- CDI
- 50 000 € - 65 000 € par an
- Temps Plein
- Aucun déplacement à prévoir
Description du poste
Le contexte
Une stack SQL qui fonctionne, qui alimente déjà les équipes au quotidien… mais qui n'a pas encore été structurée pour passer à l'échelle.
Les transformations sont en production sur un data warehouse cloud (type BigQuery) : elles tournent, mais elles sont peu testées, peu documentées, et pas encore portées dans un framework moderne comme dbt.
Ta mission : changer ça.
Poser les bonnes fondations, migrer vers dbt, industrialiser la stack et faire en sorte que la donnée devienne une ressource de confiance pour toutes les équipes - y compris l'équipe IA, qui s'en sert pour ses pipelines LLM et ses agents en production.
Tu seras le premier Data Engineer dédié sur ce périmètre : pas de page blanche totale, mais un vrai chantier de construction avec un impact direct sur le produit et le business.
Ce que tu feras
- Piloter la migration des transformations SQL vers dbt sur un data warehouse cloud (type BigQuery) : modélisation, tests, documentation, CI/CD.
- Être l'owner technique de la data stack : tu ne fais pas qu'exécuter un backlog, tu prends des décisions d'architecture et tu fixes les standards.
- Mettre en place des bonnes pratiques de collaboration data : conventions de nommage, revue de code, gestion des merge requests, documentation claire.
- Garantir la qualité, la disponibilité et la fiabilité de la donnée pour Sales, Ops, Finance et Produit : tests, monitoring, alerting, gestion des incidents data.
- Devenir le garant de la source de vérité : métriques partagées, data catalog, modèles documentés et compréhensibles par les métiers.
- Travailler en binôme avec l'équipe IA pour exposer des données propres, structurées et prêtes pour les pipelines LLM et les agents.
- Comprendre les enjeux business pour prioriser les bons chantiers : tu arbitres entre dette technique, besoins métier urgents et vision long terme.
Stack & environnement
- Tu évolueras dans un environnement très proche de cette stack :
- Data warehouse cloud (type BigQuery) avec SQL avancé.
- dbt (core/cloud) pour les transformations.
- Orchestration : Airflow ou outil équivalent.
- Base opérationnelle : MongoDB ou base NoSQL similaire.
- Tooling : Python (scripts, intégrations), Git / GitHub pour la collaboration et la CI/CD.
Ce que tu vas apprendre ici
- Comment structurer une stack qui tourne "en mode startup" pour la rendre scalable et maintenable à grande échelle.
- Comment la donnée que tu façonnes alimente des agents LLM en production : feature store, jeux de données pour fine-tuning, monitoring de performance.
- Comment travailler au quotidien au contact d'équipes Produit, IA, Ops et Finance dans un contexte de scale‑up qui se déploie à l'international.
PS : Si tu n'as pas encore évolué dans un environnement où la data est directement branchée à des systèmes IA en production, c'est un vrai accélérateur de courbe d'apprentissage.
Profil recherché
- Anglais niveau professionnel
- BAC +5 en Informatique
- 3 ans d'expérience minimum en Data Engineering, avec une expérience confirmée sur un data warehouse cloud (idéalement BigQuery) et dbt en production.
- Tu as déjà mené - ou contribué activement - à une migration de système de transformation (refonte, standardisation, tests, documentation).
- Tu maîtrises Git et les pratiques de collaboration modernes : branches, merge requests, code review.
- Tu es à l'aise pour challenger un besoin métier, poser des questions, proposer une meilleure modélisation plutôt que d'appliquer une spec sans recul.
- Tu aimes les environnements où tout n'est pas encore figé, où tu peux laisser une vraie empreinte sur l'architecture et les pratiques.
Package & conditions
- Salaire brut annuel cible : 50-65 k€
- Localisation : Paris Intramuros (Hybride Remote)
- Mutuelle
- Titres resto
- Evénements d'équipe
- Budget formation
- BSPCE très avantageux
Process de recrutement
Process clair et rapide en 4 étapes, géré en coordination avec le client final :
- Entretien visio (45 min) avec le manager de l'équipe data/engineering, pour faire connaissance, parler de ton parcours et du contexte.
- Étude de cas technique à réaliser en autonomie, centrée sur du data modelling / dbt / SQL, très proche des enjeux réels.
- Debrief technique de l'étude de cas : on parle de ta démarche, de tes choix, de ta façon de raisonner et de prioriser.
- Speed meeting avec plusieurs membres de l'équipe (data, produit, tech) pour valider le fit humain, la culture et le mode de collaboration.
Pour postuler
- Envoie ton CV à jour
- Quelques lignes sur une migration de stack ou de modèles dont tu es fier (idéalement BigQuery + dbt ou équivalent)
- Un lien GitHub ou tout exemple de projet qui illustre ta manière de travailler
On revient vers toi rapidement si ton profil matche avec les attentes du client final et on planifie ensemble la première étape du process.
BAILLY NETWORK | Recrutement d'Experts. Décodé par des experts.
BAILLY NETWORK est le cabinet d'Executive Search ultra-spécialisé pour les rôles Sales & Executive. Fondé et piloté par un ancien développeur & Engineering Manager, nous apportons une lecture avancée des profils Sales. Au-delà des buzzwords, nous comprenons les enjeux business et la réalité du terrain.
Notre Crédo : Qualité, Sécurité, Partenariat.
Recommandé pour vous


