Si richiede : Progettazione e Sviluppo di Pipeline Dati: Progettare, sviluppare e mantenere pipeline ETL/ELT robuste e scalabili utilizzando servizi AWS e Databricks. Architetture Dati Cloud: Implementare soluzioni di Data Lakehouse e Data Warehouse in AWS (es. S3, Redshift) e/o in Databricks Sviluppo su Databricks: Scrivere, ottimizzare e gestire codice in Python o Scala (principalmente PySpark) all'interno di notebook Databricks per l'elaborazione di grandi volumi di dati. Infrastruttura e Operazioni: Collaborare con i team DevOps per automatizzare l'infrastruttura dati utilizzando strumenti IaaC (es. CloudFormation o Terraform) e garantire l'affidabilità, la sicurezza e la governance dei dati . Monitoraggio e Ottimizzazione: Monitorare le pipeline e i cluster Databricks per garantirne l'efficienza, l'ottimizzazione dei costi e le performance, intervenendo proattivamente per risolvere eventuali problematiche.