CrawlJobs Logo

Data Engineer Snowflake

talan.com Logo

Talan

Location Icon

Emplacement:
France , Paris

Category Icon

Job Type Icon

Type de contrat:
Non fourni

Salary Icon

Salaire:

Non fourni
Enregistrer l'offre
Save Icon
Postuler

Description du poste:

Nous sommes à la recherche d’un Big Data Engineer Snowflake qui sera en charge des modélisations data et de l’intégration des données : acquisition, préparation, modélisation et stockage, exposition. Vous devrez faire preuve d’un état d’esprit à la fois innovant, méthodique, orienté solution (et non problème !), et communiquant.

Responsabilités:

  • Analyse des besoins techniques métiers, participation à la définition des architectures solution SQL, développement et optimisation, code review, maintenir les pratiques Devops “You build IT, You run IT”, support à recette et mise en production, documentation,…
  • Modélisation de la Cloud Database Snowflake
  • Benchmark de solutions et conseil auprès de notre client sur les solutions technologiques à adopter, en lien avec leurs besoins
  • Partage de connaissances et formations interne

Exigences:

  • Issu d’une formation supérieure (école d’ingénieur, master…)
  • Expérience dans le domaine du conseil (orienté satisfaction client et vision partenariale)
  • Au moins 6 années d’expérience dans le domaine du SQL/ETL
  • Expérience d’au moins 1 an sur Snowflake
  • Maîtrise du développement data (SQL, Python, …)
  • Solides expériences dans la mise en place de pipeline de données
  • Maîtrise d’au moins une technique de modélisation : Star Schéma, DataVault, DataMesh,…
  • Expérience sur une plateforme Cloud (idéalement AWS)
  • Expérience sur des flux temps réel
  • Expérience de l’Agilité
  • Autonomie, organisation, sens du partage
  • Bonne communication
  • Orientation produit et solution

Souhaitable:

Connaissance de concepts comme les suivants : DataOps, FinOps

Ce que nous offrons:
  • Plan de formation pour accompagner votre carrière (formations éditeurs, certifications)
  • Locaux modernes en centre-ville
  • Télétravail jusqu’à 5 jours selon les missions, prime d’équipement de 100€
  • Mobilité en France et à l’étranger
  • Tickets restaurant, prime vacances, 50% transport (abonnement transport public), mutuelle
  • Permanence handicap (consultant dédié aux collaborateurs en situation de handicap et aux proches aidants)
  • Actionnariat salarié
  • Prime de cooptations
  • RTT

Informations supplémentaires:

Offre publiée:
08 janvier 2026

Type d'emploi:
Temps plein
Type de travail:
Travail hybride
Partager le lien de l'offre:

Vous cherchez plus d'opportunités ? Recherchez d'autres offres d'emploi qui correspondent à vos compétences et à vos intérêts.

Briefcase Icon

Emplois similaires pour Data Engineer Snowflake

Data Engineer confirmé Snowflake

Le centre d’expertise Data Solutions propose à ses clients un accompagnement de ...
Emplacement
Emplacement
France , Saint-Ouen-sur-Seine
Salaire
Salaire:
Non fourni
https://www.inetum.com Logo
Inetum
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Ingénieur de formation
  • expérience de 3 ans minimum en tant que Data Engineer
  • maîtrise des langages Java, Scala ou Python
  • expertise sur les framework Spark
  • expérience sur des solutions Big data et cloud, particulièrement Snowflake
Responsabilités
Responsabilités
  • Analyser et comprendre les besoins métiers
  • participer à la définition et à la conception de l’architecture
  • gestion des données : préparation, ingestion, traitement, contrôle qualité
  • développer les jobs (par exemple Spark) et effectuer l'automatisation des flux d’alimentation du Data Lake
  • réaliser les tests de charge, tests unitaires
  • gérer la maintenabilité de la solution Snowflake (Optimisation et performance des traitements)
Ce que nous offrons
Ce que nous offrons
  • 27 jours de congés payés + 10 RTT
  • tickets restaurant d'une valeur de 9€ (prise en charge à 60% par Inetum)
  • suivi de carrière individualisé
  • parcours d'intégration unique et personnalisé
  • accord télétravail flexible (jusqu'à 3 jours/semaine)
  • prise en charge à 70% des frais de transport en commun
  • politique de formation avantageuse
  • animations d'agence régulières
  • opportunité d'intégrer une communauté d'experts sur la data
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Senior

L’entité Développement Régionale de Sopra Steria accompagne les entreprises et l...
Emplacement
Emplacement
France , Marseille
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé/e d’une école d'Ingénieurs ou équivalent universitaire
  • Expérience similaire d’au moins 5 ans
  • Avoir déjà évolué(e) sur une Data Platform Cloud
  • Capacité d’intervenir sur des projets critiques à fort enjeu business
  • Maîtrise de l’anglais indispensable
  • Conception et maintenance de pipelines de données performants (ETL/ELT)
  • Développement des traitements d’ingestion batch et streaming vers Snowflake
  • Implémentation des transformations et modèles opérationnels (Data Vault, dimensionnel)
  • Gestion des flux MDM autour de Semarchy (intégration, traitements, qualité)
  • Mise en œuvre CI/CD data (Git, Jenkins/GitLab CI)
Responsabilités
Responsabilités
  • Renforcer les équipes Data en charge de la construction et de l’industrialisation de la plateforme Snowflake, des flux MDM et des dispositifs de gouvernance
  • Intervenir sur l’ensemble de la chaîne de valorisation des données
Ce que nous offrons
Ce que nous offrons
  • Accord télétravail pour télétravailler jusqu’à 2 jours par semaine
  • Mutuelle
  • CSE
  • Titres restaurants
  • Accord d’intéressement
  • Primes vacances
  • Prime cooptation
  • Opportunités de carrières multiples : plus de 30 familles de métiers
  • Collectif Tech'Me UP (formations, conférences, veille)
  • Temps plein
Lire la suite
Arrow Right

Senior data engineer

L'entreprise : Acteur majeur du secteur du logiciel en mode SaaS, elle accompagn...
Emplacement
Emplacement
France , Nantes
Salaire
Salaire:
42000.00 - 50000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Minimum 3 ans d'expérience
  • Expériences en conception et maintenance de data warehouse
  • Expériences sur Snowflake, DBT ou AWS Lambda
  • Maîtrise des bonnes pratiques de cybersécurité (OWASP Top 10, recommandations ANSSI) et des réglementations européennes (RGPD, LCB-FT, PCI-DSS)
  • Expériences en développement (50 à 75% du temps)
  • Rigueur dans la documentation, la maintenabilité et le reporting
  • Capacité à piloter des projets complexes, de la planification à la livraison, en collaboration avec des équipes multiculturelles
  • Aisance en anglais (langue de travail)
  • Autonomie
  • Capacité d'adaptation
Responsabilités
Responsabilités
  • Garantir la fiabilité et la performance des flux de données entre les outils métiers (HubSpot, Jira, Odoo, Google Workspace, etc.): Maintenance proactive (niveau 3), résolution d'incidents, réduction de la dette technique
  • Optimisation des coûts et de la scalabilité des infrastructures data
  • Piloter des projets d'évolution des pipelines de données: De la collecte des besoins à la livraison (spécifications, développement, tests, revue de code, documentation, déploiement)
  • Accompagnement des équipes métiers dans l'adoption des nouvelles solutions
  • Conduire la refonte stratégique du data warehouse (Snowflake + DBT): Finalisation des travaux initiés pour l'équipe Finance, puis extension à l'ensemble des besoins métiers
  • Conception d'une architecture robuste, scalable et conforme aux enjeux réglementaires
Ce que nous offrons
Ce que nous offrons
  • Travailler dans le secteur de la Tech for Good avec des organisations qui ont un impact positif sur le monde
  • Avoir un équilibre pro/perso grâce à la politique de télétravail flexible
  • Environnement international et multiculturel
  • Avoir des responsabilités et gérer votre activité de manière autonome
  • 3 j/an accordés dans le cadre du mécénat de compétences via la plateforme Komeet et participation de la société au Giving Tuesday
  • Des tickets restaurant pris en charge à 60%
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Senior - AWS

L’entité Développement Régionale de Sopra Steria accompagne les entreprises et l...
Emplacement
Emplacement
France , Marseille
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé/e d’une école d'Ingénieurs ou équivalent universitaire
  • Expérience similaire d’au moins 5 ans
  • Solide expérience sur AWS Data et l’environnement Snowflake
  • Habitué aux projets industrialisés à forte volumétrie
  • Maitrise de l’anglais indispensable
Responsabilités
Responsabilités
  • Renforcer les capacités Cloud Data de l’agence
  • Accompagner les projets de Data Gouvernance et de Data Platform sur la modernisation des architectures et pipelines AWS intégrés à Snowflake
  • Conception AWS Data: Concevoir des pipelines AWS avec Glue, Lambda, Step Functions, S3
  • Industrialiser l’ingestion vers Snowflake (Snowpipe, Streams, Tasks)
  • Implémenter les transformations via Glue/Spark ou Python
  • Plateforme et gouvernance: Participer à la structuration de la Data Platform AWS + Snowflake
  • Contribuer aux chantiers MDM (Semarchy) et Data Gouvernance
  • Définir les bonnes pratiques d’architecture et industrialisation Cloud
  • Performance, sécurité, observabilité: Optimiser stockage, coûts et performance des traitements AWS
  • Déployer les politiques IAM, encryption, secrets management
Ce que nous offrons
Ce que nous offrons
  • Accord télétravail pour télétravailler jusqu’à 2 jours par semaine selon vos missions
  • Mutuelle
  • CSE
  • Titres restaurants
  • Accord d’intéressement
  • Primes vacances
  • Prime cooptation
  • Opportunités de carrières multiples: plus de 30 familles de métiers
  • Collectif Tech'Me UP (formations, conférences, veille)
  • Temps plein
Lire la suite
Arrow Right

Senior Data Engineer

Rejoignez-nous en tant que Senior Data Engineer Snowflake et participez à la con...
Emplacement
Emplacement
France , Bezons
Salaire
Salaire:
Non fourni
1glink.com Logo
1G-LINK CONSULTING
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Experience d'au moins 5 ans d'expérience en Data Engineering
  • Expertise Snowflake et des procédures stockées
  • Maîtrise d’Azure DevOps (CI/CD) et Azure Data Factory
  • Au moins une expérience avec SAP (obligatoire) et maîtrises des SAP Tables
  • Compétences avancées en SQL
  • Expertise DWH/DataMart
Responsabilités
Responsabilités
  • Concevoir/maintenir des Data Warehouses et DataMarts évolutifs basés sur des données financières
  • Développer/optimiser des requêtes SQL complexes et procédures stockées (Snowflake)
  • Intégrer des données SAP (table, mappage, transformation)
  • Orchestrer des pipelines via Azure Data Factory
  • Implémenter des processus CI/CD (Azure DevOps)
  • Garantir la qualité des données (contrôles ELT)
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Snowflake

En tant qu'Ingénieur de Données Snowflake chez Micropole, vous jouerez un rôle c...
Emplacement
Emplacement
France , Levallois-Perret
Salaire
Salaire:
Non fourni
micropole.com Logo
Micropole
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplôme de licence en informatique, ingénierie ou domaine connexe
  • un master est un plus
  • Expérience avérée en tant qu'Ingénieur de Données, Développeur de Logiciels, ou rôle similaire
  • Expérience approfondie avec la plateforme de données cloud de Snowflake, y compris SnowSQL, SnowPipe et autres fonctionnalités de Snowflake
  • Maîtrise de SQL et expérience avec les bases de données relationnelles, la rédaction de requêtes, ainsi qu'une familiarité de travail avec une variété de bases de données
  • Expérience avec les outils de big data : Hadoop, Spark, Kafka, etc.
  • Expérience avec les outils de gestion de pipelines et de flux de travail de données : Azkaban, Luigi, Airflow, etc.
  • Expérience avec les services cloud AWS : EC2, EMR, RDS, Redshift
  • Fortes compétences analytiques liées au travail avec des ensembles de données non structurés
  • Expérience avec les systèmes de traitement en flux : Storm, Spark-Streaming, etc.
Responsabilités
Responsabilités
  • Concevoir, construire, installer, tester et maintenir des systèmes de gestion de données hautement évolutifs
  • Assurer que les systèmes répondent aux exigences métiers et aux pratiques de l'industrie
  • Construire des algorithmes de haute performance, des prototypes, des modèles prédictifs et des preuves de concept
  • Intégrer de nouvelles technologies de gestion de données et outils d'ingénierie logicielle dans les structures existantes
  • Créer des outils de données pour les équipes d'analytique et de science des données afin de les aider à construire et optimiser notre produit
  • Utiliser une variété de langues et d'outils pour assembler les systèmes ensemble
  • Recommander des moyens d'améliorer la fiabilité, l'efficacité et la qualité des données
  • Collaborer avec les architectes de données, les modélisateurs et les membres de l'équipe IT sur les objectifs des projets
Ce que nous offrons
Ce que nous offrons
  • Intégrer une communauté de 1200 experts passionnés
  • Construire ensemble les solutions stratégiques et innovantes de demain
  • Participer au développement de nos 4 centres d’excellences cloud : AWS, Microsoft, Salesforce, GCP
  • Evoluer continuellement au travers de formations et de certifications
  • S’assurer d’une innovation continue grâce à : notre écosystème de partenaires technologiques
  • notre accélérateur de start’up databoost’R
  • nos lieux d’innovations « innovativeSpaces » et de co-construction avec les clients
  • notre management par les talents naturels
  • Temps plein
Lire la suite
Arrow Right

Squad Lead Data

En tant que Squad Lead Data Analytics, vous serez responsable de la gestion et d...
Emplacement
Emplacement
France , Bobigny
Salaire
Salaire:
50000.00 - 60000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Bac +5 en informatique, ingénierie des données, ou équivalent
  • Minimum 5 ans d'expérience dans la gestion de projets data, incluant le management d'équipes pluridisciplinaires en mode agile
  • Expérience significative sur des solutions de gestion de données, intégration de données (API, flux de données...) et des plateformes cloud (Salesforce, Snowflake, Azure Data Factory)
  • Connaissances sur les outils de Data Visualisation tels que PowerBI, Tableau, CRM Analytics
  • Compréhension des concepts liés à Salesforce et à son intégration avec des systèmes de données, ainsi qu'une appétence pour l'écosystème CRM & Marketing
  • Capacité à encadrer une équipe, à les motiver et à résoudre des problèmes complexes
  • Expérience en gestion de projets en environnement Agile, avec des compétences en planification, suivi des tâches, et gestion des priorités, budget
  • Excellente communication, esprit d'équipe, et capacité à collaborer avec des parties prenantes variées (métiers, IT, marketing, partenaires)
  • Autonomie
  • Capacité à résoudre des problèmes
Responsabilités
Responsabilités
  • Encadrement d'équipe : Manager et coacher une équipe composée de Data Analyst, Data Engineer et Data Architect , tout en favorisant la montée en compétences et l'autonomie
  • Pilotage des projets Data : Mener les projets de bout en bout, de la définition des besoins métier à la livraison des solutions data en CI/CD DevOps (pipeline de données, conception et implémentation du modèle de données , Data Visualisation)
  • Architecture et flux de données : Concevoir et maintenir une architecture de données robuste et scalable du Data Domain CRM & Marketing en garantissant l'intégrité et la sécurité des données tout au long du cycle de vie
  • Intégration Salesforce : Travailler étroitement avec les équipes Salesforce afin de garantir l'intégration des données entre les solutions CRM/Marketing Salesforce et la stack Data de l'entreprise
  • Supervision des pipelines : Mettre en place le monitoring des flux de données, garantir les performances des traitements et analyser les erreurs potentielles
  • Analytics et Data Visualisation : Mettre en place des solutions de pilotage au travers des outils de Dashboarding & Data Visualisation
  • Collaboration agile : Organiser et animer les cérémonies agiles de l'équipe (daily stand-ups, sprints, retrospectives), tout en assurant le lien avec les Product Owners et autres parties prenantes
  • Veille technologique : Être à l'affût des nouvelles technologies et méthodologies en matière de data engineering, d'architecture cloud et d'intégration Salesforce
  • Temps plein
Lire la suite
Arrow Right

Data Engineer DBT/Snowflake

En tant que Data Engineer, vous jouerez un rôle clé dans le développement, l’amé...
Emplacement
Emplacement
Luxembourg , Luxembourg
Salaire
Salaire:
Non fourni
talan.com Logo
Talan
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplôme universitaire en Informatique, Systèmes d’Information ou Ingénierie (BAC +5)
  • Parfaite maîtrise du français et de l’anglais
  • Expérience confirmée en ETL et dans les environnements cloud
  • Expérience en Oracle Data Integrator (ODI) est un réel atout
  • Maîtrise de Snowflake, DBT ou technologies similaires fortement appréciée
  • Capacité à lire, comprendre et mettre à jour des modèles de données logiques et physiques
  • Expérience en DevOps, pipelines CI/CD et gestion de versions
  • Très bonne connaissance du SQL et du PL/SQL
  • Connaissance générale des produits bancaires et des processus financiers
Responsabilités
Responsabilités
  • Participer à la définition des solutions cibles autour de produits de données communs, en promouvant une Single Source of Truth
  • Traduire les besoins métiers en solutions concrètes et collaborer avec les data architects, data modelers, data engineers et analystes
  • Maintenir et faire évoluer les solutions existantes tout en construisant les solutions cibles
  • Encadrer, challenger et valider les livrables (flows, documentations, processus…) afin de garantir leur qualité et réutilisabilité
  • Améliorer les pipelines CI/CD et veiller à leur alignement avec les meilleures pratiques de Data Engineering de l’équipe
  • Garantir la qualité des livrables et assurer que les tests automatisés soient mis en place et maintenus
Lire la suite
Arrow Right