Seltis Hub D&I ricerca per azienda operante nella consulenza informatica, un/a Data Engineer junior/mid da inserire nel team per la progettazione, sviluppo e manutenzione di soluzioni dati basate su piattaforma Microsoft Fabric in ambiente Microsoft Azure.
Cerchiamo un profilo con esperienza iniziale su piattaforma Azure (gestione utenti, sicurezza, storage e governance) e competenze di base in ambito data engineering, in grado di lavorare su attività a complessità medio-bassa con affiancamento su progettualità più strutturate.
Compiti e Responsabilità
• Sviluppo e manutenzione di pipeline dati su Microsoft Fabric (Data Factory / Dataflows / Lakehouse)
• Ingestione, trasformazione e modellazione dei dati (ETL/ELT)
• Gestione e ottimizzazione di dataset su Data Lake / Warehouse
• Supporto al deployment e alla gestione delle soluzioni dati
• Collaborazione con team di BI per l’esposizione dei dati (Power BI – marginale)
Requisiti minimi
• Conoscenza della lingua inglese
• 2+ anni di esperienza in ambito IT (data / sviluppo / sistemi)
• Forte motivazione all’apprendimento
Competenze tecniche
• Buona conoscenza di SQL e modellazione dati
• Esperienza, anche base, con ETL/ELT e pipeline dati
• Conoscenza di base di ambienti cloud (preferibilmente Azure)
• Familiarità con concetti di data lake, data warehouse
• Conoscenza base di Python o altri linguaggi per data processing (nice to have)
Competenze su Microsoft Fabric / Azure
• Esperienza, anche iniziale, su servizi dati in ambiente Azure (es. Data Factory, Storage, Synapse o Fabric)
• Capacità di lavorare su pipeline dati e trasformazioni a complessità medio-bassa
Plus
• Microsoft Certified: Azure Administrator Associate (preferibile)
• Microsoft Certified: Fabric Data Engineer Associate (obiettivo di crescita)
Sede di lavoro: Rivoli (TO) in modalità ibrida
Cerchiamo un profilo con esperienza iniziale su piattaforma Azure (gestione utenti, sicurezza, storage e governance) e competenze di base in ambito data engineering, in grado di lavorare su attività a complessità medio-bassa con affiancamento su progettualità più strutturate.
Compiti e Responsabilità
• Sviluppo e manutenzione di pipeline dati su Microsoft Fabric (Data Factory / Dataflows / Lakehouse)
• Ingestione, trasformazione e modellazione dei dati (ETL/ELT)
• Gestione e ottimizzazione di dataset su Data Lake / Warehouse
• Supporto al deployment e alla gestione delle soluzioni dati
• Collaborazione con team di BI per l’esposizione dei dati (Power BI – marginale)
Requisiti minimi
• Conoscenza della lingua inglese
• 2+ anni di esperienza in ambito IT (data / sviluppo / sistemi)
• Forte motivazione all’apprendimento
Competenze tecniche
• Buona conoscenza di SQL e modellazione dati
• Esperienza, anche base, con ETL/ELT e pipeline dati
• Conoscenza di base di ambienti cloud (preferibilmente Azure)
• Familiarità con concetti di data lake, data warehouse
• Conoscenza base di Python o altri linguaggi per data processing (nice to have)
Competenze su Microsoft Fabric / Azure
• Esperienza, anche iniziale, su servizi dati in ambiente Azure (es. Data Factory, Storage, Synapse o Fabric)
• Capacità di lavorare su pipeline dati e trasformazioni a complessità medio-bassa
Plus
• Microsoft Certified: Azure Administrator Associate (preferibile)
• Microsoft Certified: Fabric Data Engineer Associate (obiettivo di crescita)
Sede di lavoro: Rivoli (TO) in modalità ibrida