Ingestion och modellering av data: arbeta med verkliga dataanvändningsfall för att bygga pipelines, applicera anonymisering och skapa återanvändbara dataprodukter i Databricks
Skapa golden paths: definiera standardmönster och verktyg för publicering, versionering och konsumtion av dataprodukter — inklusive SDK:er, dokumentation och mallar
Operationalisera compliance: bygga in funktioner för integritet och governance i plattformen (t.ex. GDPR, RtBF, dataklassificering, anonymiseringsramverk)
Samarbeta tvärfunktionellt: arbeta nära plattforms-, infrastruktur-, ingenjörs
och analysteam för att göra plattformen eller dess dataprodukter användbara, säkra och värdeskapande från dag ett.
Requirements
Har 7+ års praktisk erfarenhet som software
eller data engineer
Har djup erfarenhet av Databricks, inklusive Unity Catalog, Delta Lake, workspace-setup och data engineering
Är bekant med Azure, särskilt i relation till att köra Databricks i Azure.
Har jobbat med Terraform och Infrastructure as Code-verktyg
Förstår data governance och integritetskrav — och har implementerat lösningar för anonymisering, pseudonymisering eller åtkomstkontroll
Har erfarenhet av orkestrering av pipelines och jobb i Databricks-miljö
Djup erfarenhet av Python och SQL, samt CLI-verktyg och Git-baserade arbetsflöden
Är pragmatisk — du balanserar struktur och snabbhet, och gillar att leverera iterativt
Gillar att samarbeta mellan team, dokumentera ditt arbete och hjälpa andra att lyckas
Extra plus om du har byggt eller integrerat datasetkataloger, verktyg för metadataspårning eller Backstage-plugins
Har kunskap och praktisk erfarenhet att jobba i en data mesh, intern plattformsdesign eller developer experience
Har erfarenhet av Power BI, datamodellering för analys och slutanvändares databehov.