Data Engineer - Analytics Engineer - Snowflake & Dbt H/F - Activus Group
- Bordeaux - 33
- CDI
- Activus Group
Les missions du poste
Nous rejoindre c'est intégrer un groupe humain ayant pour domaines d'expertise :
- Intelligence Artificielle et Big Data
- Conseil & Audit
- Infrastructure et cloud
- Applications digitales
- SSI/Cyber sécurité
- Digitalisation de la production
Nous puisons notre force dans une équipe composée de femmes et d'hommes passionnés et ambitieux, toujours prêts à relever de nouveaux défis !
Ecoute, proximité, réactivité et efficacité se retrouvent dans notre management quotidien, ce sont ces valeurs qui contribuent à notre réussite collective.
Data Engineer / Analytics Engineer - Snowflake & dbt (H/F)
Vos responsabilités
- Concevoir, développer et maintenir des pipelines de données ELT performants avec Snowflake et dbt
- Modéliser les données (conceptuel et technique) selon les besoins métier
- Optimiser les requêtes SQL et les modèles dbt pour garantir les performances
- Mettre en place et maintenir une infrastructure DataOps (CI/CD, automatisation)
- Gérer la sécurité des données : RBAC, Row-Level Security, Dynamic Data Masking
- Assurer l'ingestion des données depuis AWS S3 vers Snowflake
- Orchestrer les flux de données (dbt, DAGs, gestion des dépendances et tags)
- Implémenter des tests de qualité des données via dbt
- Administrer les environnements Snowflake (gestion des objets, supervision, optimisation)
Le profil recherché
Compétences techniques requises
Snowflake
- Maîtrise avancée (Time Travel, Zero-Copy Cloning)
- Optimisation et configuration des warehouses
- Gestion des external stages et Snowpipe
- Mise en oeuvre des mécanismes de sécurité (RBAC, RLS, masking)
- Administration complète de la plateforme
dbt (data build tool)
- Développement avancé de modèles SQL
- Modélisation analytique (tables de faits, dimensions)
- Utilisation des macros Jinja
- Tests de qualité des données
- Snapshots pour le suivi des données
- Création de DAGs optimisés (dépendances, tags)
- Documentation des modèles
DataOps & Automatisation
- Automatisation des migrations avec schemachange
- Mise en place de pipelines CI/CD
- Maîtrise de Git et des workflows collaboratifs
AWS & Intégration
- Bonne connaissance de AWS S3
- Intégration et ingestion vers Snowflake
Qualifications souhaitées
- Expérience avec Snowflake Tasks et Dynamic Tables
- Connaissance des concepts de data mesh et de gouvernance
- Expérience avec des frameworks de tests de données
- Expérience dans le secteur pharmaceutique / life sciences
Certifications appréciées
- SnowPro Core Certification (fortement recommandée)
- Certification dbt Analytics Engineering
- Certifications AWS (Solutions Architect, Data Engineer...)