Senior Data Engineer
Vi söker nu en Senior Data Engineer till ett tvärfunktionellt Data Foundry-team hos en större organisation. Teamet arbetar i ett hybridupplägg och kombinerar utveckling av gemensamma plattformsförmågor – såsom datakatalog, governance, orkestrering och SDK:er – med hands-on-arbete i verksamhetsnära use cases.
Genom att själva bygga dataprodukter säkerställer teamet att plattformen fungerar i praktiken och att affärsvärde skapas tidigt. Uppdraget passar dig som vill vara nära tekniken, men också bidra till att andra team lyckas.
Om rollen
Rollen är tydligt hands-on med fokus på att bygga och vidareutveckla dataprodukter och plattformsmönster i Azure och Databricks. En viktig del av uppdraget är också att möjliggöra för andra team att arbeta effektivt på plattformen, genom guidning, stöd och gemensamma arbetssätt – där det ger störst effekt.
Uppdragets innehåll
Bygga och visa vägen
→ Utveckla dataprodukter hands-on genom att arbeta med verkliga datakällor, bygga pipelines och publicera återanvändbara dataset i Databricks.
→ Ta fram referensimplementationer enligt organisationens golden path som visar hur team onboardar, transformerar och exponerar data med Unity Catalog och Databricks-native verktyg.
→ Utvärdera och driva designval samt göra medvetna avvägningar mellan Spark Declarative Pipelines, Databricks Jobs, SDK-baserad orkestrering och olika sätt att driftsätta lösningar.
Enablement och samarbete
→ Stötta andra utvecklingsteam i att onboarda sina dataprodukter till plattformen och komma igång med golden path, inklusive struktur i Unity Catalog, metadatahantering och säkra accessmönster.
→ Under perioder arbeta nära andra team för att guida dem genom uppsättning och driftsättning av deras första dataprodukter.
→ Samla in feedback från faktisk användning och omsätta den i förbättrade arkitekturmönster, verktyg och dokumentation.
Driva plattformen framåt
→ Bidra till den interna plattformsutvecklingen, exempelvis SDK:er, scaffoldade templates, Databricks Asset Bundles (DAB)-baserade workflows och CLI-verktyg.
→ Designa mönster för automation och CI/CD, till exempel med GitHub Actions, för hantering av datapipelines och Databricks-resurser.
→ Säkerställa compliance och governance by design – inklusive GDPR, rätten att bli glömd (RtBF), dataklassificering och integritetsbevarande transformationer.
→ Arbeta kontinuerligt med att förbättra utvecklarupplevelsen baserat på hur plattformen används i praktiken.
Obligatoriska krav (SKALLKRAV)
→ Minst 5 års erfarenhet av praktiskt data engineering-arbete, gärna i molnbaserad miljö.
→ Djup erfarenhet av Databricks, inklusive Unity Catalog, Jobs, Workflows samt workspace- och klusterkonfiguration.
→ Erfarenhet av att designa och orkestrera datapipelines, gärna med Databricks-native verktyg såsom Spark Declarative Pipelines.
→ God vana av Python, SQL och Git-baserade arbetssätt.
→ Förståelse för data governance, integritet och åtkomststyrning.
→ Förmåga att arbeta tvärfunktionellt, dela kunskap, coacha andra och dokumentera tekniska lösningar på ett tydligt sätt.
→ Svenska – krav.
Meriterande
→ Erfarenhet av Dagster eller Airflow.
→ Vana av att automatisera Databricks-miljöer med GitHub Actions.
→ Kännedom om Backstage eller andra developer portals.
→ Erfarenhet av att möjliggöra Power BI eller andra analytiska konsumtionsmönster.
→ Erfarenhet av intern plattformsutveckling samt arbete med återanvändbara templates och mönster.
