CrawlJobs Logo

Senior Platform Engineer

altavia.it Logo

Altavia Italia

Location Icon

Emplacement:
France , Saint Ouen sur Seine

Category Icon

Job Type Icon

Type de contrat:
Non fourni

Salary Icon

Salaire:

Non fourni
Enregistrer l'offre
Save Icon
L'offre d'emploi a expiré

Description du poste:

Rattaché(e) à Benoît notre Platform Engineering Lead, vous jouerez un rôle clé dans la conception et la construction de la nouvelle infrastructure technologique d’Altavia, conçue pour répondre aux besoins de scalabilité et de résilience du groupe. Vous participerez activement à l’évolution de notre infrastructure cloud (GCP) tout en accompagnant l’ensemble des équipes Tech dans l’adoption des meilleures pratiques DevOps.

Responsabilités:

  • Contribuer à la stratégie d'infrastructure
  • Renforcer l’automatisation
  • Améliorer les outils et processus
  • Assurer la disponibilité et la sécurité
  • Collaborer avec les équipes
  • Promouvoir les bonnes pratiques

Exigences:

  • Au moins 5 ans d’expérience en tant que DevOps Engineer ou dans un rôle similaire
  • Expertise en conception et gestion d’infrastructures complexes
  • Maîtrise des environnements cloud, idéalement GCP
  • Expérience significative en infrastructure-as-code (Terraform, Ansible, ou équivalent)
  • Bonne connaissance des pratiques SRE (Service Level Objectives, monitoring, post-mortems)
  • Connaissance des outils CI/CD avancés
  • Capacité à travailler dans des environnements collaboratifs
  • Capacité à travailler de manière autonome
  • Capacité à identifier les opportunités d’amélioration continue
Ce que nous offrons:
  • Télétravail 2 jours par semaine possible
  • RTT
  • 13e mois
  • Tickets restaurant
  • Mutuelle
  • Accès gratuit au parking extérieur
  • Participation aux divers événements sur le site

Informations supplémentaires:

Offre publiée:
05 décembre 2025

Type d'emploi:
Temps plein
Type de travail:
Travail hybride
Partager le lien de l'offre:

Vous cherchez plus d'opportunités ? Recherchez d'autres offres d'emploi qui correspondent à vos compétences et à vos intérêts.

Briefcase Icon

Emplois similaires pour Senior Platform Engineer

Senior Platform Engineer

Rejoignez Sis ID au sein du groupe Eftsure et participez à l’évolution et à la s...
Emplacement
Emplacement
France , Lyon
Salaire
Salaire:
50000.00 - 55000.00 EUR / Année
eftsure.com Logo
Eftsure
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Expérience significative en DevOps / Platform Engineering / DevSecOps (5 ans)
  • Excellente maîtrise de Kubernetes
  • Expertise en IaC : OpenTofu, FluxCD, Kustomize
  • Compétences en scripts et langages (Bash, Python, Golang)
  • Connaissance des frameworks Java (Spring Boot, Maven)
  • Capacité à résoudre des problèmes complexes et à proposer des améliorations
  • Maîtrise du français et de l’anglais technique (B2-C1)
  • Proactivité, autonomie, rigueur et esprit d’équipe
Responsabilités
Responsabilités
  • Améliorer en continu l’infrastructure et les pipelines CI/CD
  • Gérer les déploiements en staging et production
  • Renforcer l’observabilité (métriques, dashboards)
  • Maintenir et développer l’Infrastructure-as-Code (OpenTofu, Terragrunt)
  • Collaborer avec les équipes tech pour des opérations fiables et sécurisées
  • Contribuer aux activités de sécurité, conformité et performance
  • Documenter les procédures et intégrer de nouvelles technologies
Ce que nous offrons
Ce que nous offrons
  • 2 jours de télétravail par semaine
  • 12 demi-journées de congés supplémentaires
  • Temps plein
Lire la suite
Arrow Right

Senior platform Engineer

Senior Platform Engineer pour concevoir, industrialiser et fiabiliser les platef...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
65000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Minimum 5 ans d’expérience en data engineering ou software engineering sur des architectures data modernes
  • Titulaire d’un Master, d’un diplôme d’ingénieur ou équivalent
  • Anglais courant, à l’écrit comme à l’oral
  • Maîtrise de Google Cloud Platform (BigQuery, GCS, Compute Engine, GKE)
  • Maîtrise de l’ETL Talend
  • Solides compétences en Python et SQL
  • Maîtrise des outils d’orchestration (Control-M, Airflow)
  • Très bonne connaissance des bases de données SQL et NoSQL
  • Expérience des bonnes pratiques CI/CD
  • Connaissance de langages complémentaires ou frameworks de pipelines
Responsabilités
Responsabilités
  • Concevoir, mettre en œuvre et maintenir des pipelines d’ingestion et de transformation de données hétérogènes dans le datalake / datawarehouse (batch, streaming…)
  • Assurer le run, la disponibilité, la fiabilité et la performance des produits data sous votre responsabilité
  • Garantir la qualité, la précision et l’exactitude des données circulant dans les pipelines
  • Définir, faire évoluer et mettre en œuvre les normes data en conformité avec les politiques internes et les exigences réglementaires
  • Concevoir et administrer des produits data adaptés aux besoins des différents services de l’entreprise
  • Gérer la plateforme data et l’ensemble des actifs de données
  • Intégrer des technologies data et logiciels innovantes dans une architecture existante complexe
  • Travailler en méthodologie agile pour délivrer des évolutions itératives, robustes et alignées avec les besoins métier
  • S’assurer que toutes les solutions respectent les standards du marché et les attentes de l’organisation
  • Temps plein
Lire la suite
Arrow Right

Senior Platform Engineer

Senior Platform Engineer pour concevoir, industrialiser et fiabiliser les platef...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
65000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Minimum 5 ans d’expérience en data engineering ou software engineering sur des architectures data modernes
  • Titulaire d’un Master, d’un diplôme d’ingénieur ou équivalent
  • Anglais courant, à l’écrit comme à l’oral, indispensable
  • Maîtrise de Google Cloud Platform (BigQuery, GCS, Compute Engine, GKE)
  • Maîtrise de l’ETL Talend
  • Solides compétences en Python et SQL
  • Maîtrise des outils d’orchestration (Control-M, Airflow)
  • Très bonne connaissance des bases de données SQL et NoSQL
  • Expérience des bonnes pratiques CI/CD
  • Connaissance de langages complémentaires ou frameworks de pipelines
Responsabilités
Responsabilités
  • Concevoir, mettre en œuvre et maintenir des pipelines d’ingestion et de transformation de données hétérogènes dans le datalake / datawarehouse (batch, streaming…)
  • Assurer le run, la disponibilité, la fiabilité et la performance des produits data sous votre responsabilité
  • Garantir la qualité, la précision et l’exactitude des données circulant dans les pipelines
  • Définir, faire évoluer et mettre en œuvre les normes data en conformité avec les politiques internes et les exigences réglementaires
  • Concevoir et administrer des produits data adaptés aux besoins des différents services de l’entreprise
  • Gérer la plateforme data et l’ensemble des actifs de données
  • Intégrer des technologies data et logiciels innovantes dans une architecture existante complexe
  • Travailler en méthodologie agile pour délivrer des évolutions itératives, robustes et alignées avec les besoins métier
  • S’assurer que toutes les solutions respectent les standards du marché et les attentes de l’organisation
  • Temps plein
Lire la suite
Arrow Right

Senior Platform Engineer

Senior Platform Engineer pour concevoir, industrialiser et fiabiliser les platef...
Emplacement
Emplacement
France , Colombes
Salaire
Salaire:
65000.00 - 75000.00 EUR / Année
apec.fr Logo
APEC
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Minimum 5 ans d’expérience en data engineering ou software engineering sur des architectures data modernes
  • Titulaire d’un Master, d’un diplôme d’ingénieur ou équivalent
  • Anglais courant, à l’écrit comme à l’oral, indispensable
  • Maîtrise de Google Cloud Platform (BigQuery, GCS, Compute Engine, GKE)
  • Maîtrise de l’ETL Talend
  • Solides compétences en Python et SQL
  • Maîtrise des outils d’orchestration (Control-M, Airflow)
  • Très bonne connaissance des bases de données SQL et NoSQL
  • Expérience des bonnes pratiques CI/CD
  • Connaissance de langages complémentaires ou frameworks de pipelines
Responsabilités
Responsabilités
  • Concevoir, mettre en œuvre et maintenir des pipelines d’ingestion et de transformation de données hétérogènes dans le datalake / datawarehouse (batch, streaming…)
  • Assurer le run, la disponibilité, la fiabilité et la performance des produits data sous votre responsabilité
  • Garantir la qualité, la précision et l’exactitude des données circulant dans les pipelines
  • Définir, faire évoluer et mettre en œuvre les normes data en conformité avec les politiques internes et les exigences réglementaires
  • Concevoir et administrer des produits data adaptés aux besoins des différents services de l’entreprise
  • Gérer la plateforme data et l’ensemble des actifs de données
  • Intégrer des technologies data et logiciels innovantes dans une architecture existante complexe
  • Travailler en méthodologie agile pour délivrer des évolutions itératives, robustes et alignées avec les besoins métier
  • S’assurer que toutes les solutions respectent les standards du marché et les attentes de l’organisation
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Senior

L’entité Développement Régionale de Sopra Steria accompagne les entreprises et l...
Emplacement
Emplacement
France , Marseille
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé/e d’une école d'Ingénieurs ou équivalent universitaire
  • Expérience similaire d’au moins 5 ans
  • Avoir déjà évolué(e) sur une Data Platform Cloud
  • Capacité d’intervenir sur des projets critiques à fort enjeu business
  • Maîtrise de l’anglais indispensable
  • Conception et maintenance de pipelines de données performants (ETL/ELT)
  • Développement des traitements d’ingestion batch et streaming vers Snowflake
  • Implémentation des transformations et modèles opérationnels (Data Vault, dimensionnel)
  • Gestion des flux MDM autour de Semarchy (intégration, traitements, qualité)
  • Mise en œuvre CI/CD data (Git, Jenkins/GitLab CI)
Responsabilités
Responsabilités
  • Renforcer les équipes Data en charge de la construction et de l’industrialisation de la plateforme Snowflake, des flux MDM et des dispositifs de gouvernance
  • Intervenir sur l’ensemble de la chaîne de valorisation des données
Ce que nous offrons
Ce que nous offrons
  • Accord télétravail pour télétravailler jusqu’à 2 jours par semaine
  • Mutuelle
  • CSE
  • Titres restaurants
  • Accord d’intéressement
  • Primes vacances
  • Prime cooptation
  • Opportunités de carrières multiples : plus de 30 familles de métiers
  • Collectif Tech'Me UP (formations, conférences, veille)
  • Temps plein
Lire la suite
Arrow Right

Data Engineer Senior - AWS

L’entité Développement Régionale de Sopra Steria accompagne les entreprises et l...
Emplacement
Emplacement
France , Marseille
Salaire
Salaire:
Non fourni
https://www.soprasteria.com Logo
Sopra Steria
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Diplômé/e d’une école d'Ingénieurs ou équivalent universitaire
  • Expérience similaire d’au moins 5 ans
  • Solide expérience sur AWS Data et l’environnement Snowflake
  • Habitué aux projets industrialisés à forte volumétrie
  • Maitrise de l’anglais indispensable
Responsabilités
Responsabilités
  • Renforcer les capacités Cloud Data de l’agence
  • Accompagner les projets de Data Gouvernance et de Data Platform sur la modernisation des architectures et pipelines AWS intégrés à Snowflake
  • Conception AWS Data: Concevoir des pipelines AWS avec Glue, Lambda, Step Functions, S3
  • Industrialiser l’ingestion vers Snowflake (Snowpipe, Streams, Tasks)
  • Implémenter les transformations via Glue/Spark ou Python
  • Plateforme et gouvernance: Participer à la structuration de la Data Platform AWS + Snowflake
  • Contribuer aux chantiers MDM (Semarchy) et Data Gouvernance
  • Définir les bonnes pratiques d’architecture et industrialisation Cloud
  • Performance, sécurité, observabilité: Optimiser stockage, coûts et performance des traitements AWS
  • Déployer les politiques IAM, encryption, secrets management
Ce que nous offrons
Ce que nous offrons
  • Accord télétravail pour télétravailler jusqu’à 2 jours par semaine selon vos missions
  • Mutuelle
  • CSE
  • Titres restaurants
  • Accord d’intéressement
  • Primes vacances
  • Prime cooptation
  • Opportunités de carrières multiples: plus de 30 familles de métiers
  • Collectif Tech'Me UP (formations, conférences, veille)
  • Temps plein
Lire la suite
Arrow Right
Nouveau

Consultant Senior MLOPS Engineer

Dans le cadre de nos projets Data & IA, nous recherchons un Consultant Senior ML...
Emplacement
Emplacement
France , Paris
Salaire
Salaire:
Non fourni
talan.com Logo
Talan
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • Bac +5 en informatique, data science ou équivalent
  • minimum 6 ans d'expérience en Data/IA dont 3 ans en MLOps
  • expérience confirmée en mise en production et industrialisation de modèles à grande échelle
  • maîtrise des contraintes de performance, scalabilité et coûts en environnement cloud
  • leadership technique pour encadrer des profils juniors
  • capacité à travailler en mode agile avec rigueur et sens de l'organisation
  • excellentes compétences en communication et vulgarisation technique
  • force de proposition, curiosité technologique et sensibilité aux enjeux d'éthique, d'explicabilité et de durabilité des solutions IA
  • Langages & DevOps : Python, Spark, Bash, Git, GitLab CI/Jenkins, Docker, Kubernetes
  • expérience confirmée sur au moins un cloud (AWS Sagemaker, Azure ML, GCP Vertex AI) ou une Data Platform comme Databricks, Snowflake
Responsabilités
Responsabilités
  • Concevoir et mettre en place des pipelines CI/CD pour les modèles de machine learning et deep learning
  • Déployer et maintenir des environnements de production pour l’IA sur cloud (AWS, Azure ou GCP) ou on-premise
  • Mettre en place des solutions de monitoring et d’alerte (performance, dérive des données, disponibilité)
  • Standardiser et automatiser les workflows ML (data preprocessing, entraînement, déploiement, monitoring)
  • Travailler en collaboration avec les data scientists et data engineers pour assurer la qualité et la robustesse des modèles déployés
  • Intégrer des pratiques de sécurité, conformité RGPD et bonnes pratiques de gouvernance des données
  • Contribuer à la veille technologique et proposer des améliorations continues sur les architectures et process IA
  • Participation à des phases d’avant-vente : rédaction de la réponse technique (sur la partie MLOps), participation à la soutenance client
  • Benchmark de solutions et conseil auprès de nos clients sur les solutions technologiques à adopter, en lien avec leurs besoins
  • Réalisation de POC (Proof Of Concept)
Ce que nous offrons
Ce que nous offrons
  • Plan de formation pour accompagner votre carrière (formations éditeurs, certifications)
  • Locaux modernes en centre-ville
  • Télétravail jusqu’à 5 jours selon les missions, prime d’équipement de 100€
  • Mobilité en France et à l’étranger
  • Tickets restaurant
  • prime vacances
  • 50% transport (abonnement transport public)
  • mutuelle
  • Permanence handicap (consultant dédié aux collaborateurs en situation de handicap et aux proches aidants)
  • Actionnariat salarié
  • Temps plein
Lire la suite
Arrow Right

Senior Backend Engineer

As a Back End Engineer you are responsible for designing, developing, and mainta...
Emplacement
Emplacement
France , Paris
Salaire
Salaire:
55000.00 - 70000.00 EUR / Année
beamy.io Logo
Beamy
Date d'expiration
Jusqu'à nouvel ordre
Flip Icon
Exigences
Exigences
  • 7+ years of professional software development experience in back-end development
  • Strong expertise in back-end technologies and system architecture
  • Comfortable with server-side technologies (Elixir, Node.js, Ruby, Python, Java, or similar)
  • Comfortable with database systems (PostgreSQL, MySQL, MongoDB, Redis, etc.)
  • Comfortable with RESTful APIs and/or GraphQL
  • Comfortable with microservices architecture and distributed systems
  • Comfortable with message queues and event-driven architectures (RabbitMQ, Kafka, etc.)
  • Comfortable with version control systems (Git)
  • Comfortable with testing frameworks and methodologies (unit, integration, end-to-end)
  • Comfortable with CI/CD practices and deployment automation
Responsabilités
Responsabilités
  • Design, develop, and maintain scalable back-end services and APIs
  • Build and optimize database schemas and data models
  • Write clean, maintainable, and well-tested code following team standards and best practices
  • Participate in code reviews and provide constructive feedback to team members
  • Debug production issues and implement robust solutions
  • Contribute to technical documentation and architecture decisions
  • Design and implement RESTful APIs and GraphQL endpoints
  • Optimize application performance, database queries, and system scalability
  • Implement caching strategies and asynchronous processing systems
  • Participate in agile ceremonies and technical planning sessions
Ce que nous offrons
Ce que nous offrons
  • Semaine de 4 jours
  • Plan de développement professionnel
  • Congés pour enfant malade
  • Solution de prévention santé mentale
  • Employee Resource Groups (ERG)
  • Temps plein
Lire la suite
Arrow Right