Architecte Data Azure - Databricks - Snowflake - Part-Time Puis Full-Time H/F - Ascalium
- Puteaux - 92
- Intérim
- Ascalium
Les missions du poste
Créé en 2008, le Groupe Ascalium est un acteur global du recrutement spécialisé dans le placement de freelances (#WeAreFreelance) et le portage salarial (#WeArePortage).
En 16 ans, plus de 5 000 consultants ont fait confiance au groupe et près de 100 clients ont été satisfaits.
Ascalium accompagne également ses clients dans leur recherche de compétences en CDI.
CONTEXTE & OBJECTIF DU POSTE
Le client est un établissement opérant une plateforme data Azure en cours de construction sur Databricks et Snowflake.
Trois enjeux simultanés :
- Recadrer diplomatiquement la direction technique actuelle - identifier les problèmes, les formuler de façon constructive, convaincre de changer de cap sans détruire la relation
- Concevoir et industrialiser une plateforme data robuste - architecture cible, pipelines ETL/ELT, CI/CD, IaC, gouvernance, RGPD
- Coacher et faire monter en compétences l'équipe data interne - transfert de connaissance, standards, patterns, sans créer de dépendance
MISSIONS PRINCIPALES
Audit & Recadrage Diplomatique de l'Architecture Existante
- Analyser l'architecture data actuelle : identifier les problèmes structurels, les anti-patterns, les risques opérationnels
- Formuler les recommandations de façon constructive
- Convaincre le management et les équipes de changer de direction : argumentation technique, démonstration par les risques, roadmap de transition réaliste
- Conduire des revues d'architecture régulières pour maintenir la cohérence dans la durée
Définition de l'Architecture Cible
- Concevoir l'architecture data cible : zones medallion (raw/processed/curated), formats (Delta Lake / Snowflake selon les cas d'usage), partitionnement, clés de distribution
- Définir les patterns d'intégration entre Databricks et Snowflake pour éviter les silos
- Produire le DAT complet, défendable en comité de direction
- Définir la stratégie de gouvernance : Unity Catalog, RBAC, RLS, Data Lineage, catalogue de données
Industrialisation des Pipelines & DataOps
- Concevoir et implémenter les pipelines ETL/ELT sur Databricks et Snowflake (Snowpipe, Streams & Tasks)
- Mettre en place les pipelines CI/CD Azure DevOps (YAML) avec Terraform pour l'infrastructure as code
- Tests automatisés data : qualité, contrats, régression - culture DataOps production réelle
- Structurer les environnements dev/staging/prod avec isolation et promotion contrôlée
Sécurité & Conformité
- IAM Azure, RBAC Unity Catalog, RLS Snowflake, Key Vault
- Conformité RGPD : pseudonymisation, chiffrement, audit trail, droit à l'oubli
Coaching & Transfert de Compétences
- Revues de code, revues d'architecture, sessions de formation sur les patterns et standards
- Documentation des décisions (ADR) et bonnes pratiques pour assurer la continuité sans dépendance
- Montée en compétences sur Unity Catalog, Delta Live Tables, optimisation Snowflake, Terraform
Stratégie Data à 3 ans
- Roadmap data : quick wins, transformations structurelles, jalons, dépendances
- Veille technologique : évolutions Databricks/Snowflake/Azure, data mesh, data fabric
- Cadrage des POCs nécessaires avant l'implémentation à grande échelle
Le profil recherché
PROFIL RECHERCHÉ
- 10 à 15 ans, dont 5 ans en architecture data et 3 ans sur plateformes Azure/Databricks/Snowflake en production réelle - pas de sandbox, pas de POC uniquement
- Expérience en mission de conseil ou de transformation : l'influence sans autorité hiérarchique s'apprend dans ce contexte
- Expérience de coaching ou mentoring d'équipes data : transfert sans créer de dépendance
SOFT SKILLS CLÉS
- Diplomatie et influence (critère n°1) : convainc un client de changer de direction par la démonstration et la confiance, pas par l'autorité
- Pédagogie : valorise l'existant avant de proposer des changements
- Humilité technique : écoute le contexte avant de prescrire
- Présentation et communication : à l'aise en comité de direction, en revue d'architecture, en présentation de roadmap
- Patience
COMPÉTENCES REQUISES
Databricks - Must Have (++) :
- Delta Lake : optimisation, Z-ordering, vacuum, Data Skipping, liquid clustering
- Unity Catalog : mise en place en production, RBAC, Data Lineage
- Delta Live Tables, MLflow apprécié
- Intégration ADF / Azure DevOps / Terraform
Snowflake - Must Have (++) :
- Administration réelle : virtual warehouses, sizing, Snowpipe, Streams & Tasks
- Sécurité : RBAC, RLS, masking policies, encryption
- Tuning performance : clustering keys, materialized views, query profiling
- ACCOUNT\_USAGE monitoring, optimisation des coûts
Azure Data & IaC - Must Have (++) :
- Azure Data Factory / Synapse, Event Hub / Service Bus, Azure Monitor, Key Vault
- Terraform - modules, state management, multi-comptes : critère central
- Azure DevOps YAML pipelines : CI/CD data, tests automatisés, promotion d'environnements
DataOps & Code - Must Have :
- PySpark / Python / SQL avancé - écrire, auditer et optimiser du code data
- Tests automatisés data : Great Expectations, dbt tests ou équivalent
- Medallion architecture, lakehouse patterns, data mesh concepts
Nice-to-have :
- MLflow, Azure ML
- RPA : connaissance fonctionnelle (Power Automate, UiPath)
- dbt, data contracts