Expert DevOps / Data Engineer (H/F)
FICHE DE POSTE
Expert Data Engineer / DevOps
1. Contexte de la mission
Dans le cadre d’un programme structurant de modernisation du système d’information, nous recherchons un profil Data Engineer / DevOps senior pour renforcer une équipe existante.
La mission s’inscrit au cœur du SI cible, au service de plusieurs applications critiques orientées data, intégration et services temps réel.
Le poste vise à industrialiser les chaînes DevOps et à structurer les flux Data Lake dans un environnement cloud native, fortement automatisé et orienté open source.
2. Objectifs de la mission
Le rôle est double :
DevOps / Plateforme
- Industrialisation et sécurisation des chaînes d’intégration et de déploiement
- Standardisation des pratiques GitOps sur un socle Kubernetes multi‑environnements
- Renforcement de l’automatisation et de l’observabilité des plateformes applicatives et data
Data / Streaming
- Accompagnement à la conception et à la standardisation des flux data temps réel
- Structuration d’un Data Lake orienté streaming et lakehouse
- Garantie de la performance, de la résilience et de la maintenabilité des flux
3. Domaines d’intervention & compétences clés
Socle Kubernetes & DevOps
- Orchestration : Kubernetes (Namespaces, Ingress, RBAC)
- GitOps : GitLab CI, Helm, ArgoCD
- Observabilité : Grafana, Prometheus, Loki, Tempo
- Sécurité CI/CD : SAST, DAST, Trivy
- Environnements : OpenStack
Écosystème Data & Data Lake
- Streaming & CDC : Kafka, Debezium
- Processing : Spark SQL, Airflow
- Lakehouse : Apache Iceberg
- Query Engine : Trino (PrestoSQL)
- Stockage objet : Ceph (ou équivalent)
Micro‑services & APIs
- Runtimes : Java / Quarkus, Python
- API Management : Kong
- Protocoles : MQTT (atout)
- Optimisation des performances applicatives et data
4. Livrables attendus (exemples)
Socle & automatisation
- Mise en place d’architectures ArgoCD (Application of Applications)
- Catalogue de Charts Helm industrialisés
- Bibliothèque de pipelines GitLab CI/CD standardisés et sécurisés
Data & Streaming
- Provisionnement automatisé des clusters Kafka et connecteurs Debezium
- Configuration optimisée de Trino sur stockage objet
- Mise en place des DAGs Airflow pour l’orchestration des traitements
Documentation & MCO
- Dashboards de supervision avancés
- Rédaction du Dossier d’Architecture Technique (DAT)
- Rédaction de Runbooks MCO / PRA
- Définition de standards techniques et bonnes pratiques cloud native
5. Profil recherché
- Expérience confirmée (5 à 8 ans minimum) en DevOps, Data Engineer ou Platform Engineer
- Très bonne maîtrise de Kubernetes et des pratiques GitOps
- Expérience concrète sur des plateformes Kafka et Data Lake
- À l’aise dans des contextes SI complexes et structurants
- Capacité à travailler en collaboration étroite avec équipes de développement, architectes et chefs de projet
- Autonomie, rigueur, sens de l’industrialisation

