Data Engineer GCP H/F ACEO TECH
Toulouse (31)CDITélétravail partiel
Il y a 1 heures sur le WebSoyez parmi les premiers à postuler
Critères de l'offre
Métiers :
- Data Engineer (H/F)
- + 1 métier
Télétravail :
- Télétravail partiel
Expérience min :
- 1 à 20 ans
Secteur :
- ESN, Editeurs de logiciel, Services informatiques
Diplômes :
- Bac+5
Compétences :
- Anglais
- Python
- SQL
- Kubernetes
- Scala
Lieux :
- Toulouse (31)
Conditions :
- CDI
- Temps Plein
Description du poste
En tant que Data Engineer GCP -Google Cloud Platform- tu joueras un rôle clé dans la conception, la mise en œuvre et l'optimisation des architectures data sur Google Cloud Platform.
Tu travailleras sur des projets d'envergure, en collaboration avec les équipes data et cloud, pour structurer, transformer et valoriser la donnée au service des enjeux métiers de nos clients.
Ce que tu vas faire :
- Concevoir, développer et maintenir des pipelines de données performants et scalables sur GCP (Dataflow, Dataproc, BigQuery, Pub/Sub, Cloud Storage, etc.).
- Mettre en œuvre des processus d'ingestion, de transformation et de qualité des données.
- Industrialiser les flux de données via des outils d'orchestration (Airflow, Cloud Composer).
- Participer à la modélisation des architectures data et à la mise en place de data lakes / data warehouses sur GCP.
- Collaborer avec les Data Scientists, Analysts et Cloud Engineers pour créer des écosystèmes data intégrés.
- Garantir la sécurité, la gouvernance et la conformité des données dans l'environnement cloud.
- Documenter les solutions et partager les bonnes pratiques data au sein de l'équipe.
Ce qu'on recherche chez toi :
- Diplôme en informatique, data ou ingénierie (Bac+5).
- Expérience significative sur Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Composer, Dataproc, etc.).
- Maîtrise d'au moins un langage de programmation orienté data (Python, SQL, Scala, etc.).
- Connaissance des outils d'infrastructure as code (Terraform, Deployment Manager).
- Bonne compréhension des architectures cloud et data distribuées.
- Familiarité avec les concepts de data governance, data quality et CI/CD data.
- Niveau d'anglais professionnel (B2 minimum).
- Esprit analytique, rigueur technique et goût pour le travail en équipe.
Ce que nous t'offrons :
Une évolution sans limite, simplement basée sur ton ambition.
Un accompagnement de proximité via un programme career management.
Des outils de formation et un parcours de certification GCP personnalisé.
Excellente mutuelle avec Alan
Prise en charge du transport à 50%
Tickets resto avec Swile
Contrat de prévoyance
Intéressement :
Afterworks mensuels
Un PC dernier cri
Séminaires Aceo
Politique de télétravail hybride
Process de recrutement :
Un échange téléphonique de 15 mins avec l'une de nos IT recruiters.
Un entretien (en visio ou en présentiel) de 45mins avec l'un de nos cofondateurs.
Un échange technique de 45mins avec l'un(e) de nos consultant(e)s (pour tester ton raisonnement et ta culture Google).
Un dernier entretien de 30mins en visio avec les deux autres cofondateurs.
Tu travailleras sur des projets d'envergure, en collaboration avec les équipes data et cloud, pour structurer, transformer et valoriser la donnée au service des enjeux métiers de nos clients.
Ce que tu vas faire :
- Concevoir, développer et maintenir des pipelines de données performants et scalables sur GCP (Dataflow, Dataproc, BigQuery, Pub/Sub, Cloud Storage, etc.).
- Mettre en œuvre des processus d'ingestion, de transformation et de qualité des données.
- Industrialiser les flux de données via des outils d'orchestration (Airflow, Cloud Composer).
- Participer à la modélisation des architectures data et à la mise en place de data lakes / data warehouses sur GCP.
- Collaborer avec les Data Scientists, Analysts et Cloud Engineers pour créer des écosystèmes data intégrés.
- Garantir la sécurité, la gouvernance et la conformité des données dans l'environnement cloud.
- Documenter les solutions et partager les bonnes pratiques data au sein de l'équipe.
Ce qu'on recherche chez toi :
- Diplôme en informatique, data ou ingénierie (Bac+5).
- Expérience significative sur Google Cloud Platform (BigQuery, Dataflow, Pub/Sub, Composer, Dataproc, etc.).
- Maîtrise d'au moins un langage de programmation orienté data (Python, SQL, Scala, etc.).
- Connaissance des outils d'infrastructure as code (Terraform, Deployment Manager).
- Bonne compréhension des architectures cloud et data distribuées.
- Familiarité avec les concepts de data governance, data quality et CI/CD data.
- Niveau d'anglais professionnel (B2 minimum).
- Esprit analytique, rigueur technique et goût pour le travail en équipe.
Ce que nous t'offrons :
Une évolution sans limite, simplement basée sur ton ambition.
Un accompagnement de proximité via un programme career management.
Des outils de formation et un parcours de certification GCP personnalisé.
Excellente mutuelle avec Alan
Prise en charge du transport à 50%
Tickets resto avec Swile
Contrat de prévoyance
Intéressement :
Afterworks mensuels
Un PC dernier cri
Séminaires Aceo
Politique de télétravail hybride
Process de recrutement :
Un échange téléphonique de 15 mins avec l'une de nos IT recruiters.
Un entretien (en visio ou en présentiel) de 45mins avec l'un de nos cofondateurs.
Un échange technique de 45mins avec l'un(e) de nos consultant(e)s (pour tester ton raisonnement et ta culture Google).
Un dernier entretien de 30mins en visio avec les deux autres cofondateurs.
Salaire et avantages
Annuel de 35000.00 Euros à 50000.00 Euros sur 12 mois
Référence : 205JGDF
Recommandé pour vous

Toulouse (31)CDI Il y a 21 jours

Toulouse (31)CDI Il y a 7 jours

Toulouse (31)CDI Hier