Annuncio dedicato alle persone appartenenti alle categorie protette - legge 68/99.
DI COSA TI OCCUPERAI
All'interno del team Information Technology ti occuperai di scrivere moduli architetturali big data e di validare artefatti scritti da altri data engineer o data scientist, integrando con aspetti industriali ove necessario (es. suggerendo pipeline DevOps, refactoring dei pattern di integrazione, miglioramento della qualità del codice). Dimostrerai il tuo interesse per l'innovazione e per la continua formazione e ti allenerai nello studio e nella sperimentazione degli ultimi aggiornamenti tecnologici, in contatto con i nostri partner nel settore big tech company.
COSA TI SERVE
- Esperienza in ruolo analogo di almeno 3 anni
- Preferibile laurea in Informatica
- Ottima conoscenza dei design pattern e dei pattern di integrazione enterprise
- Esperienza nel coding pySpark e preferibile esperienza in Databricks
- Padronanza del ciclo di sviluppo software (versioning git, pipeline di rilascio e promozione, preferibile conoscenza DevOps e IaaC)
- Preferibile esperienza nel ciclo di vita dei modelli statistici (training e retraining)
- Esperienza nello sviluppo a microservizi su Kubernetes e dell'utilizzo di Kubernetes per l'esercizio di modelli statistici trainati
- Ottima conoscenza di RDBMS e preferibile conoscenza delle pratiche di governo di un warehouse su bigdata
- Esperienza in architetture di data streaming e fast data processing
- Preferibile conoscenza di MongoDB o altro db documentale
- Preferibile conoscenza delle soluzioni PaaS Azure (i.e. Data Factory, Event Hub, ecc)
- Inglese fluente
DI COSA TI OCCUPERAI
All'interno del team Information Technology ti occuperai di scrivere moduli architetturali big data e di validare artefatti scritti da altri data engineer o data scientist, integrando con aspetti industriali ove necessario (es. suggerendo pipeline DevOps, refactoring dei pattern di integrazione, miglioramento della qualità del codice). Dimostrerai il tuo interesse per l'innovazione e per la continua formazione e ti allenerai nello studio e nella sperimentazione degli ultimi aggiornamenti tecnologici, in contatto con i nostri partner nel settore big tech company.
COSA TI SERVE
- Esperienza in ruolo analogo di almeno 3 anni
- Preferibile laurea in Informatica
- Ottima conoscenza dei design pattern e dei pattern di integrazione enterprise
- Esperienza nel coding pySpark e preferibile esperienza in Databricks
- Padronanza del ciclo di sviluppo software (versioning git, pipeline di rilascio e promozione, preferibile conoscenza DevOps e IaaC)
- Preferibile esperienza nel ciclo di vita dei modelli statistici (training e retraining)
- Esperienza nello sviluppo a microservizi su Kubernetes e dell'utilizzo di Kubernetes per l'esercizio di modelli statistici trainati
- Ottima conoscenza di RDBMS e preferibile conoscenza delle pratiche di governo di un warehouse su bigdata
- Esperienza in architetture di data streaming e fast data processing
- Preferibile conoscenza di MongoDB o altro db documentale
- Preferibile conoscenza delle soluzioni PaaS Azure (i.e. Data Factory, Event Hub, ecc)
- Inglese fluente
Orario di lavoro: Tempo pieno
Il presente annuncio è rivolto ad entrambi i sessi, ai sensi della vigente normativa in tema di discriminazioni di genere