Senior Platform Engineer

Oversigt og nøgleindsigter
Pyne søger en Senior Platform Engineer med erfaring i Databricks til at opbygge og optimere dataplatforme. Stillingen indebærer ledelse af klientprojekter og udvikling af moderne dataløsninger i et innovativt miljø.
Højdepunkter
- Mulighed for at forme Databricks-praksis fra bunden
- Fleksible arbejdsordninger med mulighed for remote arbejde
- Støttende og inkluderende virksomhedskultur
Påkrævede kvalifikationer
- • Omfattende praktisk erfaring med Databricks og Delta Lake
- • Stærk færdighed i PySpark eller Spark SQL
- • Solid erfaring med Azure cloud-tjenester
Ønskværdige kvalifikationer
- • Erfaring med infrastruktur-som-kode (Terraform)
- • Kendskab til GenAI/Machine Learning/MLOps
Den ideale kandidat
Den ideelle kandidat har en dybdegående forståelse for dataplatforme og evnen til at lede komplekse projekter. De er problemløsende og har en passion for at arbejde i et dynamisk teammiljø.
Jobdetaljer
Jobbeskrivelse
📢 Join Our Data Consultancy Team! 📢
Are you an experienced and passionate data engineer with a knack for Databricks? Pyne is seeking a Senior Data Engineer to join our innovative and growing team. At Pyne, you'll have the opportunity to make a significant impact while working in a fast-paced and forward-thinking environment — and play a key role in building out our Databricks practice.
Who are we?
We specialize in delivering modern data platforms and data-driven solutions to businesses. Our mission? To empower companies with reliable, scalable data infrastructure that drives informed decisions and growth. Our core stack includes dbt, Snowflake, Azure, and Power BI — and we're actively expanding into Databricks and lakehouse architectures to meet growing client demand.
Responsibilities:
Design, build, and optimize data pipelines and lakehouse architectures on Databricks (Delta Lake, Unity Catalog, Workflows).
Lead and manage client projects, ensuring timely and high-quality delivery of data platform solutions.
Collaborate with clients to understand their business needs and translate them into scalable technical solutions.
Write production-grade Spark (PySpark or Spark SQL) for data transformation at scale.
Implement medallion architectures, data quality frameworks, and governance patterns using Unity Catalog.
Integrate Databricks with the broader Azure ecosystem (ADLS, Data Factory, Key Vault, Entra ID).
Develop and maintain data models, pipelines, and orchestration across client environments.
Explore and implement advanced techniques in GenAI and ML using Databricks capabilities (MLflow, Model Serving).
Mentor and guide team members, fostering a culture of continuous learning and improvement.
Requirements:
Extensive hands-on experience with Databricks — including Delta Lake, Unity Catalog, and Databricks Workflows/Jobs.
Strong proficiency in PySpark or Spark SQL, writing clean and testable code at scale.
Solid experience with Azure cloud services (ADLS, ADF, DevOps, Key Vault).
Experience in data warehousing, modeling, and pipeline development.
Proficiency in SQL, Python, and working with APIs.
Knowledge of complementary tools in the modern data stack (e.g. dbt, Snowflake, Power BI) is a strong plus.
Experience with infrastructure-as-code (Terraform or Databricks Asset Bundles) is a plus.
Experience with GenAI/Machine Learning/MLOps is seen as a plus.
Excellent problem-solving abilities and attention to detail.
Strong communication skills in English; Danish is a plus but not required.
Ability to manage multiple projects and deliver results in a consulting environment.
If you don't meet every single requirement but are excited about this role, we encourage you to apply. We value a diverse range of experiences and are committed to helping our team members grow and develop their skills.
What we offer:
Competitive salary, reflecting your skills and experience level.
Flexible work arrangements, including remote work options.
The chance to shape our Databricks practice from the ground up — real ownership, not just execution.
Extra perks such as team trips abroad and events to foster a fun and engaging work environment.
Work from our office in SOHO Kødbyen, a dynamic office environment with lunch, snacks of your choice, protein bars, and coffee on Pyne.
Opportunity to work closely with a talented and diverse team of data professionals.
Exciting challenges and opportunities to grow together with this young company.
A supportive and inclusive company culture that values diversity and encourages continuous professional development.
Ready to take your data expertise to the next level? Join us in shaping the future of data consultancy! Send your resume and a brief cover letter highlighting your passion for data and relevant experiences to michael@pyne.dk. We can't wait to hear from you!
Learn more about us at https://pyne.dk/
Karrierevej
Typisk karriereforløb
Lead Data Engineer
Data Architect
Chief Data Officer
Vækstpotentiale
Som Senior Platform Engineer har du mulighed for at udvikle dig til ledende roller, hvor du kan styre større projekter og teams. Væksten inden for dataplatforme og cloud-tjenester skaber efterspørgsel efter erfarne fagfolk, hvilket åbner døren for avancerede stillinger.
Overførbare færdigheder
Branchekontekst
Stillingens fokus på moderne dataplatforme gør den relevant i en branche, hvor virksomheder i stigende grad investerer i datainfrastruktur for at træffe informerede beslutninger. Efterspørgslen efter datingeniører, der kan arbejde med avancerede værktøjer som Databricks, er steget markant i takt med væksten i datadrevne løsninger.
Færdighedsanalyse
Kritiske færdigheder
Omfattende praktisk erfaring med Databricks, herunder Delta Lake, Unity Catalog og Databricks Workflows/Jobs.
Stærk færdighed i at skrive ren og testbar kode i PySpark eller Spark SQL.
Solid erfaring med Azure cloud-tjenester som ADLS, ADF, DevOps og Key Vault.
Fremragende problemløsningsevner og opmærksomhed på detaljer.
Stærke kommunikationsevner på engelsk; dansk er en fordel.
Vigtige færdigheder
Beherskelse af SQL og Python, samt erfaring med at arbejde med APIs.
Erfaring med data warehousing, modellering og udvikling af datarørledninger.
Ønskværdige færdigheder
Erfaring med infrastruktur som kode, herunder Terraform eller Databricks Asset Bundles.
Erfaring med avancerede teknikker inden for GenAI og ML ved brug af Databricks.
Mest kritiske færdigheder
Sådan fremhæver du din erfaring
Fremhæv tidligere erfaringer med Databricks og specifikke projekter, hvor du har anvendt PySpark eller Spark SQL. Beskriv, hvordan du har arbejdet med Azure cloud-tjenester og data pipelines for at vise din relevante tekniske baggrund.
Interviewforberedelse
Sandsynlige spørgsmål
Kan du beskrive din erfaring med Databricks og specifikt Delta Lake?
tekniskTip: Fokusér på konkrete projekter og udfordringer, du har håndteret.
Hvordan håndterer du datakvalitet i dine datatransformationer?
tekniskTip: Giv eksempler på metoder og værktøjer, du har brugt.
Hvordan prioriterer du opgaver, når du arbejder på flere projekter samtidigt?
erfaringTip: Del din tilgang til tidsstyring og projektledelse.
Kan du give et eksempel på en udfordrende situation, du har stået overfor i et projekt, og hvordan du løste den?
situationTip: Brug STAR-metoden (Situation, Task, Action, Result) til at strukturere dit svar.
Hvordan sikrer du, at dine løsninger er skalerbare?
tekniskTip: Tal om designmønstre og best practices, du følger.
Hvordan vil du beskrive din kommunikation med klienter?
kulturTip: Fremhæv vigtigheden af at forstå klientens behov og hvordan du opbygger relationer.
Spørgsmål du kan stille
- Hvordan ser et typisk projektforløb ud hos Pyne?
- Hvilke muligheder er der for faglig udvikling og læring i virksomheden?
- Hvordan måler I succes og effektivitet i jeres dataplatformløsninger?
Tale punkter
- Din erfaring med at implementere medallion-arkitekturer og datakvalitetsrammer.
- Din evne til at arbejde med Azure-økosystemet og integrationer.
- Din interesse for at udforske GenAI og ML-teknologier i dataprojekter.
Bekymringspunkter at være opmærksom på
- Manglende konkret erfaring med Databricks og relaterede teknologier.
- Uvillighed til at arbejde i et team eller dele viden med kolleger.
Ansøgningsstrategi
Ansøgningstips
- Fremhæv din erfaring med Databricks, især Delta Lake og Unity Catalog, i din ansøgning.
- Vis tydeligt, hvordan dine tidligere projekter har involveret design og optimering af data pipelines.
- Inkluder eksempler på, hvordan du har arbejdet med klienter for at forstå deres behov og levere skræddersyede løsninger.
Nøgleord at inkludere
Fokus i ansøgningen
Fremhæv din passion for dataplatforme og din erfaring med at lede projekter, samtidig med at du understreger din evne til at mentorere andre.
Tilpasning af CV
Tilpas dit CV ved at fremhæve relevante projekter og teknologier, der matcher stillingsbeskrivelsen, og sørg for at inkludere specifikke resultater fra tidligere roller.
Ofte stillede spørgsmål
Hvad indebærer stillingen som Senior Platform Engineer hos Pyne?
Som Senior Platform Engineer vil du designe og optimere data pipelines og lakehouse arkitekturer på Databricks. Du vil lede klientprojekter og samarbejde med kunder for at forstå deres behov samt implementere skalerbare tekniske løsninger.
Hvilke kvalifikationer kræves for at ansøge til denne stilling?
Du skal have omfattende erfaring med Databricks, især Delta Lake og Unity Catalog, samt stærke færdigheder i PySpark eller Spark SQL. Derudover er erfaring med Azure cloud-tjenester og data warehousing vigtigt.
Hvad tilbyder Pyne medarbejderne?
Vi tilbyder en konkurrencedygtig løn, fleksible arbejdsordninger, herunder mulighed for remote arbejde, samt chancen for at forme vores Databricks-praksis. Vi fokuserer også på kontinuerlig læring og udvikling af medarbejdere.
Hvordan er arbejdsmiljøet hos Pyne?
Arbejdsmiljøet hos Pyne er dynamisk og fremadskuende med fokus på innovation og samarbejde. Vi værdsætter en kultur, hvor teammedlemmer kan lære af hinanden og dele viden.
Hvad er forventningerne til en Senior Platform Engineer?
Forventningerne inkluderer evnen til at lede flere projekter samtidig, levere resultater af høj kvalitet, samt at samarbejde effektivt med både interne teams og kunder. Du skal også være i stand til at guide og mentorere teammedlemmer.
Er det nødvendigt at kunne dansk for at ansøge?
Dansk er en plus, men ikke et krav. Stærke kommunikationsevner på engelsk er de vigtigste, da vi arbejder med internationale kunder og teams.
Hvilke teknologier arbejder Pyne med?
Vi arbejder med en moderne tech-stack, herunder dbt, Snowflake, Azure, og Power BI, og udvider vores fokus til Databricks og lakehouse-arkitekturer for at imødekomme kundernes efterspørgsel.
Hvordan kan jeg ansøge om stillingen?
Du kan ansøge ved at sende dit CV og en motiveret ansøgning via vores hjemmeside. Vi opfordrer alle, der er interesserede, til at ansøge, selvom de ikke opfylder alle kravene.