Senior Data Engineer

19165
16 Feb, 2026 to 16 Feb, 2027
Stockholm (Onsite)

Vi söker nu en Senior Data Engineer till ett tvärfunktionellt Data Foundry-team hos en större organisation. Teamet arbetar i ett hybridupplägg och kombinerar utveckling av gemensamma plattformsförmågor – såsom datakatalog, governance, orkestrering och SDK:er – med hands-on-arbete i verksamhetsnära use cases.


Genom att själva bygga dataprodukter säkerställer teamet att plattformen fungerar i praktiken och att affärsvärde skapas tidigt. Uppdraget passar dig som vill vara nära tekniken, men också bidra till att andra team lyckas.


Om rollen


Rollen är tydligt hands-on med fokus på att bygga och vidareutveckla dataprodukter och plattformsmönster i Azure och Databricks. En viktig del av uppdraget är också att möjliggöra för andra team att arbeta effektivt på plattformen, genom guidning, stöd och gemensamma arbetssätt – där det ger störst effekt.


Uppdragets innehåll

Bygga och visa vägen


→ Utveckla dataprodukter hands-on genom att arbeta med verkliga datakällor, bygga pipelines och publicera återanvändbara dataset i Databricks.

→ Ta fram referensimplementationer enligt organisationens golden path som visar hur team onboardar, transformerar och exponerar data med Unity Catalog och Databricks-native verktyg.

→ Utvärdera och driva designval samt göra medvetna avvägningar mellan Spark Declarative Pipelines, Databricks Jobs, SDK-baserad orkestrering och olika sätt att driftsätta lösningar.


Enablement och samarbete


→ Stötta andra utvecklingsteam i att onboarda sina dataprodukter till plattformen och komma igång med golden path, inklusive struktur i Unity Catalog, metadatahantering och säkra accessmönster.

→ Under perioder arbeta nära andra team för att guida dem genom uppsättning och driftsättning av deras första dataprodukter.

→ Samla in feedback från faktisk användning och omsätta den i förbättrade arkitekturmönster, verktyg och dokumentation.


Driva plattformen framåt


→ Bidra till den interna plattformsutvecklingen, exempelvis SDK:er, scaffoldade templates, Databricks Asset Bundles (DAB)-baserade workflows och CLI-verktyg.

→ Designa mönster för automation och CI/CD, till exempel med GitHub Actions, för hantering av datapipelines och Databricks-resurser.

→ Säkerställa compliance och governance by design – inklusive GDPR, rätten att bli glömd (RtBF), dataklassificering och integritetsbevarande transformationer.

→ Arbeta kontinuerligt med att förbättra utvecklarupplevelsen baserat på hur plattformen används i praktiken.


Obligatoriska krav (SKALLKRAV)


→ Minst 5 års erfarenhet av praktiskt data engineering-arbete, gärna i molnbaserad miljö.

→ Djup erfarenhet av Databricks, inklusive Unity Catalog, Jobs, Workflows samt workspace- och klusterkonfiguration.

→ Erfarenhet av att designa och orkestrera datapipelines, gärna med Databricks-native verktyg såsom Spark Declarative Pipelines.

→ God vana av Python, SQL och Git-baserade arbetssätt.

→ Förståelse för data governance, integritet och åtkomststyrning.

→ Förmåga att arbeta tvärfunktionellt, dela kunskap, coacha andra och dokumentera tekniska lösningar på ett tydligt sätt.

→ Svenska – krav.


Meriterande


→ Erfarenhet av Dagster eller Airflow.

→ Vana av att automatisera Databricks-miljöer med GitHub Actions.

→ Kännedom om Backstage eller andra developer portals.

→ Erfarenhet av att möjliggöra Power BI eller andra analytiska konsumtionsmönster.

→ Erfarenhet av intern plattformsutveckling samt arbete med återanvändbara templates och mönster.