Tenth Revolution recrute un Data Engineer GCP H/F pour une entreprise en pleine croissance basée à Paris
Dans le cadre d'un recrutement en CDI directement chez l'un de mes clients finaux, je recherche un(e) Data Engineer GCP souhaitant s'engager durablement dans un projet stratégique de migration cloud.
Vous êtes passionné(e) par la data, l’architecture cloud et souhaitez contribuer activement à la transformation d'une entreprise ambitieuse ?
Rejoignez une équipe dynamique de 6 personnes au sein de la DSI et participez à un projet majeur de migration vers GCP !
Pourquoi ce poste est fait pour vous ?
Nous recrutons un Data Engineer GCP expérimenté, capable d'accompagner, de challenger des partenaires externes et de s’impliquer dans la construction d'une architecture moderne et scalable.
Vous serez un acteur clé dans la migration de l'environnement on-premise (SQL Server 2019) vers GCP et la refonte de la Data Platform.
Vos missions principales :
Data Platform OPS
- Gestion, maintenance et amélioration continue de la plateforme de données sur GCP.
- Garantir la performance, la sécurité et l’opérabilité de la Data Platform.
Architecture
- Contribuer à la définition et à l’évolution de l’architecture cloud de la plateforme.
- Assurer la scalabilité et l'efficacité des solutions développées.
Engineering
- Développer et optimiser des pipelines de données sur GCP (BigQuery, Dataproc, Dataflow…).
- Intégrer des flux entrants et sortants robustes et performants (ETL / ELT).
ML Ops & Delivery
- Accompagner les projets Agile et les Data Scientists pour le déploiement de modèles IA/ML.
- Mettre en œuvre les bonnes pratiques de CI/CD, sécurité et excellence technique.
Collaboration
- Travailler étroitement avec les équipes métiers (finance, marketing, commercial...) pour comprendre et traduire les besoins business en solutions data performantes.
- Challenger les équipes externes et garantir la qualité des livrables.
Profil recherché :
- Minimum 5 ans d'expérience en Data Engineering, avec 2 à 3 ans d'expérience concrète sur GCP.
- Maîtrise des principaux services GCP : BigQuery, Dataproc, Dataflow, Composer, Terraform, Databricks, Looker...
- Solide expérience en Python et SQL.
- Compétences en CI/CD, GitLab, bonnes pratiques DevOps et Terraform.
- Forte capacité d’analyse, sens de l'organisation et autonomie.
Compétences clés :
Savoir-faire :
- Python, SQL
- GCP (BigQuery, Dataflow, Composer, Dataproc…)
- Databricks
- Intégration de données ETL/ELT
- Terraform, GitLab CI/CD
- Culture MLOps
Savoir-être :
- Organisé(e) et structuré(e)
- Proactif(ve) et force de proposition
- Bon(ne) communicant(e)
- Dynamique
- Esprit d'équipe et culture de l’excellence
Ce que nous offrons :
✅ Un CDI en interne chez un client final solide et ambitieux
✅ Un projet de migration vers GCP structurant et stimulant
✅ Une équipe experte et bienveillante
✅ Un environnement moderne tourné vers l’innovation et l’amélioration continue
✅ De réelles perspectives d’évolution au sein de la DSI
KPI de succès :
- Robustesse et qualité du code livré
- Vélocité et fiabilité des livrables
- Qualité de la documentation technique
- Contribution active à la réussite du projet de migration GCP
Intéressé(e) ?
N’hésitez pas à postuler ou à me contacter directement pour en savoir plus sur cette belle opportunité en CDI !