CrawlJobs Logo

Data Engineer ou Architecte Data

apec.fr Logo

APEC

Location Icon

Emplacement:
France , Saint-Denis

Category Icon

Job Type Icon

Type de contrat:
Non fourni

Salary Icon

Salaire:

50000.00 - 71000.00 EUR / Année
Enregistrer l'offre
Save Icon
Postuler

Description du poste:

Dans le cadre de l’évolution d’une plateforme Data stratégique, nous recherchons un Data Engineer ou Architecte Data pour intervenir sur des problématiques d’architecture, d’ingestion et d’optimisation autour de Databricks sur Azure.

Responsabilités:

  • Conception et modélisation des flux de données
  • Choix d’architecture sur Databricks
  • Audit et optimisation de code (Spark / Python)
  • Résolution de problématiques de performance, scalabilité et coûts
  • Mise en place et amélioration des pipelines CI/CD
  • Automatisation des tâches d’exploitation (catalogues, habilitations, provisioning)
  • Mise en place de monitoring (DataDog)
  • Réalisation de POC et veille technologique
  • Contribution à la production des livrables d’architecture (HLD / LLD)
  • Suivi projet en méthodologie Agile

Exigences:

  • Minimum 4 ans d’expérience en Data Engineering ou Architecture Data
  • Très bonne maîtrise de Databricks et Azure
  • Expérience sur plateformes d’ingestion et data lake
  • Capacité à prendre de la hauteur sur l’architecture globale
  • Esprit force de proposition

Souhaitable:

Une expérience R&D ou IA sur Databricks est un plus

Informations supplémentaires:

Offre publiée:
17 février 2026

Type d'emploi:
Temps plein
Type de travail:
Travail sur site
Partager le lien de l'offre:

Vous cherchez plus d'opportunités ? Recherchez d'autres offres d'emploi qui correspondent à vos compétences et à vos intérêts.

Briefcase Icon

Emplois similaires pour Data Engineer ou Architecte Data

Squad Lead Data

En tant que Squad Lead Data Analytics, vous serez responsable de la gestion et d...
Emplacement
Emplacement
France , Bobigny
Salaire
Salaire:
50000.00 - 60000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Bac +5 en informatique, ingénierie des données, ou équivalent
  • Minimum 5 ans d'expérience dans la gestion de projets data, incluant le management d'équipes pluridisciplinaires en mode agile
  • Expérience significative sur des solutions de gestion de données, intégration de données (API, flux de données...) et des plateformes cloud (Salesforce, Snowflake, Azure Data Factory)
  • Connaissances sur les outils de Data Visualisation tels que PowerBI, Tableau, CRM Analytics
  • Compréhension des concepts liés à Salesforce et à son intégration avec des systèmes de données, ainsi qu'une appétence pour l'écosystème CRM & Marketing
  • Capacité à encadrer une équipe, à les motiver et à résoudre des problèmes complexes
  • Expérience en gestion de projets en environnement Agile, avec des compétences en planification, suivi des tâches, et gestion des priorités, budget
  • Excellente communication, esprit d'équipe, et capacité à collaborer avec des parties prenantes variées (métiers, IT, marketing, partenaires)
  • Autonomie
  • Capacité à résoudre des problèmes
Responsabilités
Responsabilités
  • Encadrement d'équipe : Manager et coacher une équipe composée de Data Analyst, Data Engineer et Data Architect , tout en favorisant la montée en compétences et l'autonomie
  • Pilotage des projets Data : Mener les projets de bout en bout, de la définition des besoins métier à la livraison des solutions data en CI/CD DevOps (pipeline de données, conception et implémentation du modèle de données , Data Visualisation)
  • Architecture et flux de données : Concevoir et maintenir une architecture de données robuste et scalable du Data Domain CRM & Marketing en garantissant l'intégrité et la sécurité des données tout au long du cycle de vie
  • Intégration Salesforce : Travailler étroitement avec les équipes Salesforce afin de garantir l'intégration des données entre les solutions CRM/Marketing Salesforce et la stack Data de l'entreprise
  • Supervision des pipelines : Mettre en place le monitoring des flux de données, garantir les performances des traitements et analyser les erreurs potentielles
  • Analytics et Data Visualisation : Mettre en place des solutions de pilotage au travers des outils de Dashboarding & Data Visualisation
  • Collaboration agile : Organiser et animer les cérémonies agiles de l'équipe (daily stand-ups, sprints, retrospectives), tout en assurant le lien avec les Product Owners et autres parties prenantes
  • Veille technologique : Être à l'affût des nouvelles technologies et méthodologies en matière de data engineering, d'architecture cloud et d'intégration Salesforce
  • Temps plein
Lire la suite
Arrow Right

Architecte Data Microsoft Fabric

Inetum est une entreprise de services numériques agile et innovante, acteur mond...
Emplacement
Emplacement
Maroc , Casablanca
Salaire
Salaire:
Non fourni
https://www.inetum.com Logo
Inetum
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Bac+5 en informatique, data, ingénierie ou école d’ingénieur
  • Certifications appréciées : Microsoft Certified: Fabric Analytics Engineer Associate, Azure Data Engineer, Power BI Data Analyst
  • Maîtrise de Microsoft Fabric (OneLake, Lakehouse, Data Pipelines, Dataflows, Notebooks, Warehouse…)
  • Excellente connaissance de Power BI, DAX, Data Modeling
  • Solide culture Cloud : Azure Data Services (Synapse, Azure Data Lake, Azure SQL, Azure Purview…)
  • Notions avancées en Spark, T-SQL, Python ou Scala
  • Connaissance des principes DataOps / DevOps dans un environnement cloud
  • Sécurité et gestion des identités dans l’écosystème Microsoft
Responsabilités
Responsabilités
  • Concevoir l’architecture cible d’un écosystème Data autour de Microsoft Fabric : ingestion, stockage, transformation, modélisation et exposition de la donnée
  • Définir les standards d’architecture (données, flux, sécurité, modèles sémantiques) en lien avec les parties prenantes Data (Data Engineers, Data Stewards, BI Analysts…)
  • Accompagner l’intégration de données multi-sources (ERP, CRM, APIs, fichiers, bases externes…) via Dataflows Gen2 ou Notebooks (Spark)
  • Superviser le modèle de gouvernance des données (catalogue, qualité, ownership) en s’appuyant sur Purview si déployé
  • Optimiser l’usage de Power BI (Fabric Capacity, modèle sémantique, DAX) pour répondre aux enjeux de self-service et de performance
  • Collaborer avec les équipes Infrastructure, Sécurité et Cloud pour garantir la conformité RGPD, la sécurité des accès (Azure AD, RBAC, sécurité au niveau des lignes…)
  • Contribuer à la mise en place de l’industrialisation : CI/CD des artefacts Data (pipelines, notebooks, datasets…), DataOps, automatisation
  • Assurer une veille technologique et un rôle de référent dans l’écosystème Fabric et Power Platform
  • Temps plein
Lire la suite
Arrow Right
Nouveau

Data Engineer Cloud

Visian, cabinet de conseil spécialisé en Innovation, Design Produit, et Data, re...
Emplacement
Emplacement
France , Courbevoie
Salaire
Salaire:
45000.00 - 65000.00 EUR / Année
visian.tech Logo
VISIAN
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Entre 3 et 5ans en tant que Data Engineer
  • Connaissance de Python et Java
  • Expérience avec un des cloud provider : AWS, Azure, GCP.
  • Savoir Construire des pipelines ETL de données évolutifs et tolérants aux pannes basées sur les technologies du Big Data
  • Expériences en implémentation d’inférences basées sur des modèles d’apprentissage profond avec des frameworks comme Apache MXNet, Tensorflow, Keras etc
  • Mise en production des modèles ML suite à MLOps
  • Expériences avec les langages de programmation orientés objet
  • Compréhension du web sémantique / des Données liées
  • Approches agiles (SCRUM, SAFE)
  • Expériences de soutien et de travail avec des équipes interfonctionnelles dans un environnement dynamique
Responsabilités
Responsabilités
  • Développer et maintenir des systèmes de traitement de données à grande échelle.
  • Déployer et industrialiser des modèles d’apprentissage automatique fournis par des Data Scientists.
  • Garantir que les pipelines ETL supportent des flux de données à volume élevé.
  • Identifier des opportunités d’acquisition, stockage et interrogation de données performants.
  • Utiliser et intégrer une variété de langages et outils, avec sensibilisation aux frameworks open source Apache et outils ML.
  • Comprendre, personnaliser et maintenir des projets open source et contribuer au développement de nouveaux frameworks.
  • Collaborer avec les développeurs logiciels, architectes de bases de données, Data Analysts et Data Scientists pour garantir une architecture de prestation de services d’IA optimale.
  • Assurer la qualité, la fiabilité et la performance des pipelines et modèles déployés.
  • Participer à la veille technologique et au partage interne de connaissances au sein de la PySquad.
Ce que nous offrons
Ce que nous offrons
  • Entre 1-2 jours de télétravail
  • RTT / Jour de repos
  • Temps plein
Lire la suite
Arrow Right
Nouveau

Consultant Data Engineer Cloud GCP

L’équipe Cloud 4 Data, forte de 70 collaborateurs, joue un rôle clé à la fois da...
Emplacement
Emplacement
France , Lyon
Salaire
Salaire:
Non fourni
talan.com Logo
Talan
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé(e) d’une école d’Ingénieur ou d’une formation technique niveau Master à Doctorat
  • Au moins 4 années d’expérience sur les sujets Data avec des réussites notables sur la technologie GCP
  • Certification GCP (Professional Data Engineer, Professional Cloud Architect) serait un atout
  • Connaissances des technologies Data et BI, surtout liés à l’écosystème GCP
  • Maîtrise de l’ingestion, la transformation et la préparation des données en utilisant des langages tels que Scala, Python, Java, SQL
  • Habitué(e) aux environnements Cloud comme AWS, Azure, Google Cloud pour déployer des clusters
  • Familier avec les outils de monitoring (Cloud Monitoring, Cloud Audit Logs, AWS CloudWatch, CloudTrail,) et de gestion des clusters (CloudFormation, Terraform…)
  • Expérience sur des problématiques de gestion des performances, mise en place de bonnes pratiques, conceptions & implémentation de pipelines de données complexes, maîtrise des bases de données SQL et NoSQL
  • Familier avec des systèmes de traitement en temps réel tels que Kinesis, Lambda, MSK, Cloud Pub/Sub, BigQuery, Kafka, Redpanda…
  • Idéalement une première expérience dans la conception d’architectures techniques
Responsabilités
Responsabilités
  • Participer à des ateliers technico-fonctionnel, préconiser des outils, concevoir des solutions et les mettre en œuvre
  • Réaliser des projets décisionnels et optimiser les solutions techniques
  • Savoir auditer des architectures existantes et proposer des améliorations
  • Participer aux phases d’avant-vente et au chiffrage des projets
  • Être Référent(e) sur les bonnes pratiques et les étapes de la mise en place d’un projet cloud
  • Contribuer à l’évolution des équipes internes via le transfert de connaissances, l’animation d’ateliers thématiques grâce à votre veille technologique active
Ce que nous offrons
Ce que nous offrons
  • Prime d’équipement de 100 €
  • Mutuelle prise en charge à hauteur de 80% minimum
  • Titres-restaurant
  • Primes de cooptation de 500 à 4000€
  • Actionnariat salarié
  • Retour de congé maternité possible à 4/5ème sans perte de salaire pendant 6 mois
  • Permanence handicap (consultant dédié aux collaborateurs en situation de handicap et aux proches aidants)
  • Offre de formation complète sur site et à distance, programme de mentoring pour les femmes
  • Mobilité en France et à l’étranger
  • Activité sportive hebdomadaire au sein des locaux encadré par un coach
  • Temps plein
Lire la suite
Arrow Right

Data Engineer DBT/Snowflake

En tant que Data Engineer, vous jouerez un rôle clé dans le développement, l’amé...
Emplacement
Emplacement
Luxembourg , Luxembourg
Salaire
Salaire:
Non fourni
talan.com Logo
Talan
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplôme universitaire en Informatique, Systèmes d’Information ou Ingénierie (BAC +5)
  • Parfaite maîtrise du français et de l’anglais
  • Expérience confirmée en ETL et dans les environnements cloud
  • Expérience en Oracle Data Integrator (ODI) est un réel atout
  • Maîtrise de Snowflake, DBT ou technologies similaires fortement appréciée
  • Capacité à lire, comprendre et mettre à jour des modèles de données logiques et physiques
  • Expérience en DevOps, pipelines CI/CD et gestion de versions
  • Très bonne connaissance du SQL et du PL/SQL
  • Connaissance générale des produits bancaires et des processus financiers
Responsabilités
Responsabilités
  • Participer à la définition des solutions cibles autour de produits de données communs, en promouvant une Single Source of Truth
  • Traduire les besoins métiers en solutions concrètes et collaborer avec les data architects, data modelers, data engineers et analystes
  • Maintenir et faire évoluer les solutions existantes tout en construisant les solutions cibles
  • Encadrer, challenger et valider les livrables (flows, documentations, processus…) afin de garantir leur qualité et réutilisabilité
  • Améliorer les pipelines CI/CD et veiller à leur alignement avec les meilleures pratiques de Data Engineering de l’équipe
  • Garantir la qualité des livrables et assurer que les tests automatisés soient mis en place et maintenus
Lire la suite
Arrow Right

Data Engineer Senior

L’entité Développement Régionale de Sopra Steria accompagne les entreprises et l...
Emplacement
Emplacement
France , Marseille
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé/e d’une école d'Ingénieurs ou équivalent universitaire
  • Expérience similaire d’au moins 5 ans
  • Avoir déjà évolué(e) sur une Data Platform Cloud
  • Capacité d’intervenir sur des projets critiques à fort enjeu business
  • Maîtrise de l’anglais indispensable
  • Conception et maintenance de pipelines de données performants (ETL/ELT)
  • Développement des traitements d’ingestion batch et streaming vers Snowflake
  • Implémentation des transformations et modèles opérationnels (Data Vault, dimensionnel)
  • Gestion des flux MDM autour de Semarchy (intégration, traitements, qualité)
  • Mise en œuvre CI/CD data (Git, Jenkins/GitLab CI)
Responsabilités
Responsabilités
  • Renforcer les équipes Data en charge de la construction et de l’industrialisation de la plateforme Snowflake, des flux MDM et des dispositifs de gouvernance
  • Intervenir sur l’ensemble de la chaîne de valorisation des données
Ce que nous offrons
Ce que nous offrons
  • Accord télétravail pour télétravailler jusqu’à 2 jours par semaine
  • Mutuelle
  • CSE
  • Titres restaurants
  • Accord d’intéressement
  • Primes vacances
  • Prime cooptation
  • Opportunités de carrières multiples : plus de 30 familles de métiers
  • Collectif Tech'Me UP (formations, conférences, veille)
  • Temps plein
Lire la suite
Arrow Right

Architecte Cloud AWS

Pierre Fabre engage un programme de transformation Data & IA sur le périmètre R&...
Emplacement
Emplacement
France , Lavaur
Salaire
Salaire:
Non fourni
pierre-fabre.com Logo
Pierre Fabre
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Bac+5 (école d’ingénieur ou université)
  • 8+ ans d’expérience en architecture cloud/plateforme, dont expérience significative AWS
  • Certifications recommandées: AWS Solutions Architect (Associate/Professional)
  • Security Specialty, DevOps Engineer et/ou Data Specialty appréciées
  • Anglais professionnel courant (documentation et échanges dans un contexte international)
  • Expertise AWS démontrée (architecture et mise en œuvre): IAM, réseau, sécurité, logging/monitoring, automation, patterns multi-comptes et Landing Zone
  • Expérience confirmée en architecture de plateformes Data/IA: ingestion, stockage, processing, gouvernance/qualité, MLOps
  • GenAI/LLMOps appréciés
  • Pratique DevSecOps: IaC (Terraform et/ou CDK), CI/CD, policy-as-code, observabilité et operating model
  • Expérience en environnement régulé (GxP/CSV) et culture audit: traçabilité, change control, evidence, SOP
Responsabilités
Responsabilités
  • Définir et faire adopter des architectures de référence (patterns, standards) et produire les dossiers HLD/LLD et ADR, garantissant scalabilité, résilience, supportabilité et extensibilité
  • Concevoir et faire évoluer une Landing Zone AWS multi-comptes (AWS Organizations/Control Tower): modèle OU/comptes, séparation des environnements, guardrails (SCP), standards IAM/SSO, naming/tagging, socle réseau (VPC, segmentation, connectivité privée) et services partagés
  • Mettre en œuvre une sécurité end-to-end by design et une posture cyber shift-left: least privilege, secrets, chiffrement (KMS), durcissement, détection/réponse, gestion des vulnérabilités, ainsi que policies et controls-as-code (garde-fous automatisés, pipelines sécurisés)
  • Assurer la conformité et la qualité (GxP/CSV) en traduisant les exigences en contrôles techniques et processus audit-ready (change control, traçabilité, evidence pack, SOP/runbooks), dans une approche risk-based maintenant l’état qualifié en continu, en lien étroit avec Qualité, Compliance, Legal et Sécurité
  • Définir les patterns de plateforme Data R&D: ingestion batch/streaming/event-driven et data contracts, stockage SQL/NoSQL et lake/lakehouse, processing/orchestration, gouvernance/qualité (lineage, catalog/metadata, access governance) et exposition/consommation (APIs, events, BI/analytics), adaptés aux besoins scientifiques et à la collaboration partenaires/CRO
  • Porter le leadership technique: conduire les design reviews, arbitrer les décisions, cadrer les POC (options, évaluations) et mentorer les équipes produit/engineering jusqu’au passage à l’échelle et à l’opérationnalisation
  • Définir le modèle d’exploitation (observabilité logs/metrics/traces, SLO, runbooks, incident/problem management) et piloter la maîtrise des coûts via une démarche FinOps (tagging, showback/chargeback, optimisation, capacity planning)
Ce que nous offrons
Ce que nous offrons
  • Intéressement
  • participation
  • Actionnariat Pierre Fabre avec abondement
  • Mutuelle santé et prévoyance
  • 16 RTT en plus des CP
  • participation transport collectif
  • CE très attractif
  • Temps plein
Lire la suite
Arrow Right

Data Architect

Inetum's Data Solutions team supports clients with specialized BI and Big Data p...
Emplacement
Emplacement
France , Saint-Ouen
Salaire
Salaire:
Non fourni
https://www.inetum.com Logo
Inetum
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Experience in development as an engineer (Java, Scala, or Python) with a DevOps culture
  • At least 3 years of experience in architecture and implementing Big Data Hadoop clusters or cloud architecture
  • Proficiency in at least one Hadoop distribution or a Cloud Provider solution
  • Curious mindset
  • Team player
  • Enjoy taking on new technical challenges
  • Willingness to share expertise.
Responsabilités
Responsabilités
  • Support clients in defining a strategy for integrating Big Data and/or Cloud solutions into their IT systems
  • Define interfaces and technical choices for components and software architecture
  • Work on Hadoop ecosystem components, cloud data solutions, or Snowflake
  • Evaluate technical platform sizing
  • Write technical architecture documents
  • Deploy Big Data solutions
  • Act as a consultant and reference for clients
  • Contribute to pre-sales
  • Support junior colleagues in skill development
  • Conduct Big Data technology watch.
Ce que nous offrons
Ce que nous offrons
  • 27 paid vacation days and 10 RTT
  • Meal vouchers worth €9 (60% covered by Inetum)
  • Individualized career monitoring
  • Personalized onboarding process
  • Flexible work-from-home policy (up to 3 days per week, depending on the client)
  • 70% coverage of public transportation costs for business travel
  • Access to training and certification programs for market-leading technologies
  • Participation in agency activities (game nights, after-work events, team-building activities)
  • Opportunities to share expertise (TechLunches, meetups, conferences, educational institutions)
  • Ability to champion relationships with technology partners.
  • Temps plein
Lire la suite
Arrow Right