CrawlJobs Logo

Data Platform Engineer

taisolutions.com Logo

TAI SOLUTIONS

Location Icon

Località:
Italy , Pisa

Category Icon

Job Type Icon

Tipo di contratto:
Contratto di lavoro

Salary Icon

Salario:

Non fornito
Salva lavoro
Save Icon
Candidati

Descrizione del lavoro:

T.A.I. Software Solution s.r.l. ricerca candidati con profilo professionale di “Data Platform Engineer” per le sedi di Pisa, Firenze, Milano e Roma: è comunque prevista la possibilità di Smart Working, incluso Full Remote. Le figure selezionate saranno inserite nella Business Line “Data Engineering & AI", all’interno del gruppo “Data Platform & Infrastructure” dedicato alla gestione e manutenzione di infrastrutture IT legate al mondo Big Data e all’automazione dei processi di rilascio infrastrutture/applicativi. La selezione è rivolta a candidati con esperienza lavorativa specifica di almeno 3 anni.

Responsabilità:

  • gestione e manutenzione di infrastrutture IT legate al mondo Big Data
  • automazione dei processi di rilascio infrastrutture/applicativi

Requisiti:

  • 4-5 anni di esperienza consolidata nella gestione di ambienti Linux
  • 4-5 anni di esperienza consolidata nella gestione di attività di supporto e troubleshooting
  • Buona attitudine al lavoro in team
  • Buona conoscenza di almeno una delle seguenti piattaforme: Cloudera, Databricks, Nifi, Apache kafka / Confluent kafka / Confluent Cloud
  • Buona conoscenza di sistemi di automazione come Ansible o Terraform

Preferibile:

  • Laurea in discipline scientifiche
  • Conoscenza di Ambienti e servizi Cloud (AWS/GCP/Azure/OCI)
  • Eventuali certificazioni conseguite
  • disponibilità a turni di reperibilità
  • Ottime conoscenze sui requisiti di HA, scalabilità, sicurezza e standard tecnologici
  • Buone conoscenze del mondo infrastrutturale che ruota intorno ai servizi di GenAI (MLOps, Serving, Nvidia NIM)
  • Conoscenza della lingua inglese
Cosa offriamo:
  • strumenti di formazione sia per le hard che soft skill
  • follow-up costanti con il team HR e con il proprio Business Manager
  • un piano di crescita professionale ben strutturato in un ambiente dinamico e stimolante

Informazioni aggiuntive:

Offerta pubblicata:
16 gennaio 2026

Tipo di impiego:
Tempo pieno
Tipo di lavoro:
Lavoro da remoto
Condividi link dell'offerta:

Cerchi altre opportunità? Cerca altre offerte di lavoro che corrispondano alle tue competenze e ai tuoi interessi.

Briefcase Icon

Lavori simili per Data Platform Engineer

Senior Data Engineer

In Key Partner cerchiamo un Senior Data Engineer appassionato di dati, tecnologi...
Località
Località
Italy , Roma; Milano; Termoli
Salario
Salario:
Non fornito
keypartner.com Logo
keypartner
Data di scadenza
Fino a nuovo avviso
Flip Icon
Requisiti
Requisiti
  • Esperienza in consulenza IT e interazione diretta con il cliente
  • Capacità di analisi funzionale e di sintesi delle esigenze di business
  • Time management e capacità di gestire più attività contemporaneamente
  • Comunicazione efficace e attitudine al lavoro di squadra
  • Inglese (B2 scritto, B1 orale)
  • Python (avanzato)
  • Spark/PySpark (intermedio)
  • SQL (intermedio)
  • Azure Data Services (avanzato)
  • Esperienza con strumenti di Business Intelligence (Power BI, Tableau, Qlik, Spotfire)
Responsabilità
Responsabilità
  • Progettazione e implementazione di soluzioni di Data Management scalabili e performanti
  • Sviluppo e ottimizzazione di pipeline ETL per l’integrazione e trasformazione dei dati
  • Manipolazione e analisi dati con Python (pandas, polars, numpy)
  • Sviluppo di API con FastAPI per l’esposizione di dati e servizi
  • Lavoro su architetture Big Data con Spark/PySpark per l’elaborazione distribuita
  • Utilizzo della Data Platform di Azure (Databricks, Synapse, Data Lake, Data Factory, Event Hubs, Purview)
  • Progettazione e gestione di database SQL per garantire efficienza e qualità dei dati
  • Creazione di dashboard e reportistica per supportare il decision-making aziendale
Cosa offriamo
Cosa offriamo
  • Un percorso di crescita personalizzato, tarato sulle esigenze di sviluppo individuali
  • Formazione continua attraverso academy interna, certificazioni ufficiali, workshop e mentorship
  • Progetti sfidanti e concreti su integrazione, orchestrazione AI-based e digital transformation
  • Modalità di lavoro flessibile: puoi scegliere tra lavoro full remote o ibrido presso le sedi di Milano e Roma
  • Un ambiente inclusivo, trasparente e collaborativo, in cui il contributo di ogni persona è riconosciuto
  • Un’organizzazione meritocratica, che valorizza la competenza e il desiderio di crescita
  • Un clima di lavoro informale ma professionale: si lavora sodo, ma con equilibrio e umanità
  • Tempo pieno
Leggi di più
Arrow Right

MLOps/Generative AI Engineer

La risorsa sarà il punto di riferimento tecnico per la progettazione, sviluppo, ...
Località
Località
Italy , Bari
Salario
Salario:
Non fornito
sideagroup.com Logo
Sidea Group
Data di scadenza
Fino a nuovo avviso
Flip Icon
Requisiti
Requisiti
  • Laurea magistrale in Ingegneria Informatica, Informatica, Matematica, Fisica o discipline affini
  • Esperienza consolidata nello sviluppo di soluzioni AI/ML cloud-native, preferibilmente su Google Cloud Platform (GCP)
  • Solide competenze in Cloud Data Engineering: utilizzo avanzato di BigQuery, Dataflow, Pub/Sub, Cloud Storage, Cloud Composer
  • Competenze in MLOps e automazione: CI/CD con GitHub Actions, Terraform per IaC, orchestrazione con Kubernetes e Docker
  • Sviluppo AI & Generative AI: Padronanza di Python (in particolare per data engineering e modelli AI) ed esperienza con framework come LangChain, Vertex AI, ADK, RAG, fine-tuning LLM, prompt engineering
  • Data Modeling e architetture dati scalabili: progettazione di ETL/ELT, data warehouse su GCP
  • Sviluppo API & Integrazione: costruzione di API RESTful scalabili, integrazione A2A/MCP
  • Cloud Security & FinOps: conoscenza di IAM, rete, cost control, ottimizzazione costi e governance
Responsabilità
Responsabilità
  • Architettura e sviluppo della piattaforma AI/ML: progettare ed evolvere infrastrutture dati e AI su GCP, garantendo scalabilità, resilienza e performance per carichi AI/ML complessi
  • Deployment e industrializzazione AI: sviluppare pipeline dati automatizzate per alimentare modelli AI in tempo reale (API) e batch, con monitoraggio e gestione del ciclo di vita del modello
  • MLOps e Automazione: implementare processi CI/CD, provisioning automatizzato delle infrastrutture (IaC), orchestrazione con Kubernetes e monitoraggio continuo delle soluzioni
  • Integrazione di sistemi aziendali: garantire la comunicazione sicura tra modelli AI e sistemi interni tramite protocolli moderni (A2A, MCP)
  • Standard, Sicurezza e FinOps: definire e applicare best practice architetturali, controlli di sicurezza cloud (IAM, rete), governance dei dati e strategie di ottimizzazione costi
  • Supporto e collaborazione: agire da facilitatore tecnico per i team AI, Data Science e Product, fornendo infrastrutture dati e AI affidabili e performanti
  • Testing e qualità AI: validare modelli LLM e AI generativa in ottica di sicurezza, explainability e robustness
Cosa offriamo
Cosa offriamo
  • Piano di welfare e sistema incentivante
  • Percorsi di coaching e attività di team building
  • Possibilità di lavorare da remoto con flessibilità nell'organizzazione delle proprie attività
  • In ufficio: caffè, snack, frutta fresca e frutta secca
  • Tempo pieno
Leggi di più
Arrow Right

Data Engineer

Nel ruolo di Data Engineer contribuirai alla progettazione, evoluzione e gestion...
Località
Località
Italy , Pisa, Milano, Roma
Salario
Salario:
Non fornito
intarget.net Logo
Intarget
Data di scadenza
Fino a nuovo avviso
Flip Icon
Requisiti
Requisiti
  • Esperienza nella progettazione e implementazione di pipeline di ingestion, trasformazione e modellazione dati su GCP (BigQuery, Cloud Storage, Dataform, Cloud Run)
  • (In alternativa: competenze equivalenti su Azure – Data Factory, Synapse, Storage, Functions.)
  • Ottima conoscenza di SQL (query complesse, ottimizzazione, partizionamento, clustering)
  • Esperienza nella progettazione di architetture dati scalabili e modelli per analytics
  • Capacità di lavorare con almeno uno strumento di BI (Looker Studio, Power BI, Looker…)
  • 3+ anni esperienza minima
Responsabilità
Responsabilità
  • Progettare, sviluppare e manutenere datalake e data warehouse su Google Cloud Platform garantendo scalabilità, qualità e sicurezza
  • Implementare processi di ingestion, normalizzazione e trasformazione dati da fonti eterogenee (Advertising Platforms, GA4, CRM, eCommerce, API custom, file batch)
  • Creare pipeline robuste a supporto di reporting avanzato, analisi operative, modelli ML e insight strategici
  • Tradurre requisiti di business e KPI in dashboard efficaci, progettando visualizzazioni coerenti e orientate al decision-making (Looker Studio, Power BI, Looker, ecc.)
  • Collaborare con team Digital Marketing, SEO, Content, Data Science e BI, traducendo le loro esigenze in requisiti tecnici e soluzioni dati
  • Fornire supporto tecnico a figure meno esperte e contribuire alla diffusione di best practice
  • Definire e mantenere pratiche di governance, documentazione, versioning, monitoraggio e presidio dei processi ETL/ELT
  • Sperimentare nuove tecnologie e metodologie, collaborando quando necessario con il team Data Science per supportare modelli predittivi e processi MLOps
Cosa offriamo
Cosa offriamo
  • Smart Working e flessibilità oraria
  • Buoni pasto elettronici per i tuoi pranzi con i colleghi
  • 6 settimane di full remote dove poter lavorare da dove vuoi (anche all’estero!)
  • Birthday off: il giorno del compleanno non si lavora!
  • Premio annuale in base al raggiungimento di obiettivi aziendali e personali
Leggi di più
Arrow Right

Azure Data Engineer

Sr Databricks Engineer- HYDERABAD. This role is a part of the Data Engineering a...
Località
Località
India , Hyderabad
Salario
Salario:
Non fornito
dxc.com Logo
DXC Technology
Data di scadenza
Fino a nuovo avviso
Flip Icon
Requisiti
Requisiti
  • 5+ years software solution development using agile, dev ops, product model that includes designing, developing, and implementing large-scale applications or data engineering solutions
  • 3+ years data analytics experience using SQL
  • 3+ years full-stack development experience, preferably in Azure
  • 3+ years of cloud development and data lake experience (prefer Microsoft Azure) including Azure EventHub, Azure Data Factory, Azure Functions, ADX, ASA, Azure Databricks, Azure DevOps, Azure Blob Storage, Azure Data Lake, Azure Power Apps and Power BI
  • Airline Industry Domain Experience
  • Expertise with the Azure Technology stack for data management, data ingestion, capture, processing, curation and creating consumption layers
  • Azure Development Track Certification (preferred)
  • Spark Certification (preferred)
  • Senior level experience with data bricks and other analytics tools for moving and transforming data from one platform to another
  • Senior level experience with Azure and its services
Responsabilità
Responsabilità
  • Help enable data engineering solutions at Customer
  • Be part of a team that innovates
  • Work closely with source data application teams and product owners to design, implement and support analytics solutions that provide insights to make better decisions
  • Implement data migration and data engineering solutions using Azure products and services: (Azure Data Lake Storage, Azure Data Factory, Azure Functions, Event Hub, Azure Stream Analytics, Azure Databricks, etc.) and traditional data warehouse tools
  • Perform multiple aspects involved in the development lifecycle – design, cloud engineering (Infrastructure, network, security, and administration), ingestion, preparation, data modeling, testing, CICD pipelines, performance tuning, deployments, consumption, BI, alerting, prod support
  • Provide technical leadership and collaborate within a team environment as well as work independently
  • Be a part of a DevOps team that completely owns and supports their product
  • Implement batch and streaming data pipelines using cloud technologies
  • Tempo pieno
Leggi di più
Arrow Right

Azure Data Engineer

Sr Databricks Engineer- HYDERABAD. This role is a part of the Data Engineering a...
Località
Località
India , Hyderabad
Salario
Salario:
Non fornito
dxc.com Logo
DXC Technology
Data di scadenza
Fino a nuovo avviso
Flip Icon
Requisiti
Requisiti
  • 5+ years software solution development using agile, dev ops, product model that includes designing, developing, and implementing large-scale applications or data engineering solutions
  • 3+ years data analytics experience using SQL
  • 3+ years full-stack development experience, preferably in Azure
  • 3+ years of cloud development and data lake experience (prefer Microsoft Azure) including Azure EventHub, Azure Data Factory, Azure Functions, ADX, ASA, Azure Databricks, Azure DevOps, Azure Blob Storage, Azure Data Lake, Azure Power Apps and Power BI
  • Airline Industry Domain Experience
  • Expertise with the Azure Technology stack for data management, data ingestion, capture, processing, curation and creating consumption layers
  • Azure Development Track Certification (preferred)
  • Spark Certification (preferred)
  • Senior level experience with data bricks and other analytics tools for moving and transforming data from one platform to another
  • Senior level experience with Azure and its services
Responsabilità
Responsabilità
  • Help enable data engineering solutions at Customer
  • Be part of a team that innovates
  • Work closely with source data application teams and product owners to design, implement and support analytics solutions that provide insights to make better decisions
  • Implement data migration and data engineering solutions using Azure products and services: (Azure Data Lake Storage, Azure Data Factory, Azure Functions, Event Hub, Azure Stream Analytics, Azure Databricks, etc.) and traditional data warehouse tools
  • Perform multiple aspects involved in the development lifecycle – design, cloud engineering (Infrastructure, network, security, and administration), ingestion, preparation, data modeling, testing, CICD pipelines, performance tuning, deployments, consumption, BI, alerting, prod support
  • Provide technical leadership and collaborate within a team environment as well as work independently
  • Be a part of a DevOps team that completely owns and supports their product
  • Implement batch and streaming data pipelines using cloud technologies
  • Tempo pieno
Leggi di più
Arrow Right

Azure Data Engineer

Sr Databricks Engineer- HYDERABAD. This role is a part of the Data Engineering a...
Località
Località
India , Hyderabad
Salario
Salario:
Non fornito
dxc.com Logo
DXC Technology
Data di scadenza
Fino a nuovo avviso
Flip Icon
Requisiti
Requisiti
  • 5+ years software solution development using agile, dev ops, product model that includes designing, developing, and implementing large-scale applications or data engineering solutions
  • 3+ years data analytics experience using SQL
  • 3+ years full-stack development experience, preferably in Azure
  • 3+ years of cloud development and data lake experience (prefer Microsoft Azure) including Azure EventHub, Azure Data Factory, Azure Functions, ADX, ASA, Azure Databricks, Azure DevOps, Azure Blob Storage, Azure Data Lake, Azure Power Apps and Power BI
  • Airline Industry Domain Experience
  • Expertise with the Azure Technology stack for data management, data ingestion, capture, processing, curation and creating consumption layers
  • Azure Development Track Certification (preferred)
  • Spark Certification (preferred)
  • Senior level experience with data bricks and other analytics tools for moving and transforming data from one platform to another
  • Senior level experience with Azure and its services
Responsabilità
Responsabilità
  • Help enable data engineering solutions at Customer
  • Be part of a team that innovates
  • Work closely with source data application teams and product owners to design, implement and support analytics solutions that provide insights to make better decisions
  • Implement data migration and data engineering solutions using Azure products and services
  • Perform multiple aspects involved in the development lifecycle – design, cloud engineering (Infrastructure, network, security, and administration), ingestion, preparation, data modeling, testing, CICD pipelines, performance tuning, deployments, consumption, BI, alerting, prod support
  • Provide technical leadership and collaborate within a team environment as well as work independently
  • Be a part of a DevOps team that completely owns and supports their product
  • Implement batch and streaming data pipelines using cloud technologies
  • Tempo pieno
Leggi di più
Arrow Right

Data Scientist

Sidea Group unisce marketing e tecnologia per supportare i clienti in ogni fase ...
Località
Località
Italy , Bari
Salario
Salario:
Non fornito
sideagroup.com Logo
Sidea Group
Data di scadenza
Fino a nuovo avviso
Flip Icon
Requisiti
Requisiti
  • Machine Learning: Conoscenza approfondita sia teorica che applicata di algoritmi di classificazione, regressione e clustering. Esperienza nel rilascio di modelli in ambiente di produzione.
  • Programmazione e Data Manipulation: Conoscenza approfondita di Python e delle principali librerie di data science (scikit-learn, pandas, NumPy, PyTorch). Conoscenza di SQL avanzato per l'estrazione, la trasformazione e l'analisi di dati complessi
  • Piattaforme Cloud & Data Science: Competenze su Google Cloud Platform: in particolare Vertex AI, BigQuery e Cloud Storage
  • MLOps: Solida conoscenza del ciclo di vita MLOps, incluse strategie di versioning dei modelli (es. Git), pipeline CI/CD, monitoraggio delle performance e principi di Infrastructure as Code (es. Terraform)
  • Soft Skills: Forte orientamento al business e capacità di comunicare con stakeholder non tecnici. Mentalità proattiva e curiosità
Responsabilità
Responsabilità
  • Collaborazione e Mentorship: Lavorare a stretto contatto con AI Engineer, Product Manager e Business Analyst per l’integrazione dei modelli nei sistemi aziendali. Fornire mentoring ad altri data scientist e promuovere l’eccellenza analitica nel team
  • Sviluppo e Deployment Modelli: Progettare e sviluppare modelli ML end-to-end per classificazione e lo scoring predittivo, sia in real-time che in modalità batch su Google Cloud Platform
  • Evolutionary Model Maintenance: Gestire il ciclo di vita dei modelli già in produzione, monitorandone le performance, rilevando eventuali drift, curandone il retraining e l’ottimizzazione nel tempo
  • Standardizzazione MLOps: Contribuire attivamente alla definizione e all’adozione delle best practice MLOps per garantire efficienza, riproducibilità e robustezza dell’intero ciclo di vita dei modelli
  • Analisi Dati e Feature Engineering: Eseguire analisi esplorative, collaborare con i team di business per comprendere le esigenze e costruire feature efficaci che migliorino le performance dei modelli
Cosa offriamo
Cosa offriamo
  • Ambiente di lavoro positivo, stimolante, aperto al confronto e volto all'innovazione e al miglioramento costante
  • Inserimento in un team giovane e dinamico
  • Coinvolgimento su progetti cross-sector
  • Possibilità di lavorare con tecnologie all'avanguardia
  • Percorso di carriera definito valutando periodicamente desideri e obiettivi di ciascuno
  • Piano di welfare e sistema incentivante
  • Percorsi di coaching e attività di team building, per lavorare meglio e non sentirsi estranei fra colleghi
  • Possibilità di lavorare da remoto con flessibilità nell'organizzazione delle proprie attività
  • Per sostenere la concentrazione, in ufficio troverai per te: caffè, snack, frutta fresca e frutta secca
Leggi di più
Arrow Right

Cloud Data Engineer

Il ruolo di Cloud Data Engineer offre un'opportunità unica per neolaureati di en...
Località
Località
Italy , Milano; Roma; Napoli; Salerno; Bologna; Bari; Torino
Salario
Salario:
Non fornito
nttdata.com Logo
NTT DATA
Data di scadenza
Fino a nuovo avviso
Flip Icon
Requisiti
Requisiti
  • Laurea Informatica/Ingegneria Informatica
  • Interesse/passione per attività legate allo sviluppo del codice
  • Conoscenza della lingua inglese
Responsabilità
Responsabilità
  • Partecipare alla progettazione e allo sviluppo dei processi di integrazione e gestione dei dati
  • Sviluppare e testare programmi/moduli/modelli
  • Eseguire l'automazione e la configurazione degli strumenti per contribuire all'efficienza del progetto/prodotto/servizio
  • Supportare nella definizione del disegno tecnico del modello dati
  • Collaborare con il team
Cosa offriamo
Cosa offriamo
  • formazione continua
  • programmi di apprendimento avanzati
  • piani di crescita personalizzati
  • Tempo pieno
Leggi di più
Arrow Right