Senior Platform Engineer

Pyne
Copenhagen,
Pyne logo

Oversigt og nøgleindsigter

Pyne søger en Senior Data Engineer med erfaring i Databricks til at designe og optimere dataplatforme. Stillingen tilbyder mulighed for at arbejde i et innovativt team og bidrage til virksomhedens vækst.

Højdepunkter

  • Mulighed for at forme Databricks-praksis fra bunden
  • Fleksible arbejdsordninger inklusiv fjernarbejde
  • Støttende og inkluderende virksomhedskultur

Påkrævede kvalifikationer

  • Omfattende erfaring med Databricks, herunder Delta Lake og Unity Catalog
  • Stærk kompetence i PySpark eller Spark SQL
  • Solid erfaring med Azure cloud-tjenester

Ønskværdige kvalifikationer

  • Erfaring med infrastruktur-as-code (Terraform eller Databricks Asset Bundles)
  • Kendskab til GenAI/Machine Learning/MLOps

Den ideale kandidat

Den ideelle kandidat har en stærk baggrund inden for data engineering og er passioneret omkring at levere innovative dataløsninger. De skal kunne lede projekter og samarbejde effektivt med kunder for at opfylde deres forretningsbehov.

Jobdetaljer

Løn efter aftale
Fuldtid
37 timer/uge
Hybrid
Copenhagen

Jobbeskrivelse

📢 Join Our Data Consultancy Team! 📢

Are you an experienced and passionate data engineer with a knack for Databricks? Pyne is seeking a Senior Data Engineer to join our innovative and growing team. At Pyne, you'll have the opportunity to make a significant impact while working in a fast-paced and forward-thinking environment — and play a key role in building out our Databricks practice.

Who are we?

We specialize in delivering modern data platforms and data-driven solutions to businesses. Our mission? To empower companies with reliable, scalable data infrastructure that drives informed decisions and growth. Our core stack includes dbt, Snowflake, Azure, and Power BI — and we're actively expanding into Databricks and lakehouse architectures to meet growing client demand.

Responsibilities:

  • Design, build, and optimize data pipelines and lakehouse architectures on Databricks (Delta Lake, Unity Catalog, Workflows).

  • Lead and manage client projects, ensuring timely and high-quality delivery of data platform solutions.

  • Collaborate with clients to understand their business needs and translate them into scalable technical solutions.

  • Write production-grade Spark (PySpark or Spark SQL) for data transformation at scale.

  • Implement medallion architectures, data quality frameworks, and governance patterns using Unity Catalog.

  • Integrate Databricks with the broader Azure ecosystem (ADLS, Data Factory, Key Vault, Entra ID).

  • Develop and maintain data models, pipelines, and orchestration across client environments.

  • Explore and implement advanced techniques in GenAI and ML using Databricks capabilities (MLflow, Model Serving).

  • Mentor and guide team members, fostering a culture of continuous learning and improvement.

Requirements:

  • Extensive hands-on experience with Databricks — including Delta Lake, Unity Catalog, and Databricks Workflows/Jobs.

  • Strong proficiency in PySpark or Spark SQL, writing clean and testable code at scale.

  • Solid experience with Azure cloud services (ADLS, ADF, DevOps, Key Vault).

  • Experience in data warehousing, modeling, and pipeline development.

  • Proficiency in SQL, Python, and working with APIs.

  • Knowledge of complementary tools in the modern data stack (e.g. dbt, Snowflake, Power BI) is a strong plus.

  • Experience with infrastructure-as-code (Terraform or Databricks Asset Bundles) is a plus.

  • Experience with GenAI/Machine Learning/MLOps is seen as a plus.

  • Excellent problem-solving abilities and attention to detail.

  • Strong communication skills in English; Danish is a plus but not required.

  • Ability to manage multiple projects and deliver results in a consulting environment.

If you don't meet every single requirement but are excited about this role, we encourage you to apply. We value a diverse range of experiences and are committed to helping our team members grow and develop their skills.

What we offer:

  • Competitive salary, reflecting your skills and experience level.

  • Flexible work arrangements, including remote work options.

  • The chance to shape our Databricks practice from the ground up — real ownership, not just execution.

  • Extra perks such as team trips abroad and events to foster a fun and engaging work environment.

  • Work from our office in SOHO Kødbyen, a dynamic office environment with lunch, snacks of your choice, protein bars, and coffee on Pyne.

  • Opportunity to work closely with a talented and diverse team of data professionals.

  • Exciting challenges and opportunities to grow together with this young company.

  • A supportive and inclusive company culture that values diversity and encourages continuous professional development.

Ready to take your data expertise to the next level? Join us in shaping the future of data consultancy! Send your resume and a brief cover letter highlighting your passion for data and relevant experiences to michael@pyne.dk. We can't wait to hear from you!

Learn more about us at https://pyne.dk/

Karrierevej

Typisk karriereforløb

1

Lead Data Engineer

2

Data Engineering Manager

3

Chief Data Officer

Vækstpotentiale

Som Senior Platform Engineer har du mulighed for at udvikle dine ledelses- og tekniske færdigheder, hvilket kan føre til stillinger med mere ansvar som ledende ingeniør eller leder. Væksten inden for dataplatforme og cloud-løsninger sikrer, at der er stor efterspørgsel efter erfarne fagfolk i dette felt.

Overførbare færdigheder

Data pipeline designCloud computing (Azure)Projektledelse

Branchekontekst

Jobbet som Senior Platform Engineer er centralt i den voksende data- og cloud-teknologiindustri. Med stigende fokus på datadrevne beslutninger er kompetencer inden for dataengineering og moderne datastakke mere relevante end nogensinde før.

Færdighedsanalyse

Kritiske færdigheder

Databricks

Omfattende erfaring med Databricks, herunder Delta Lake, Unity Catalog og Databricks Workflows/Jobs.

PySpark eller Spark SQL

Stærk færdighed i at skrive ren og testbar kode i PySpark eller Spark SQL til datatransformation.

Azure cloud services

Solid erfaring med Azure-tjenester såsom ADLS, ADF, DevOps og Key Vault.

Vigtige færdigheder

SQL og Python

Færdigheder i SQL og Python, samt arbejde med API'er.

Data warehousing og pipeline udvikling

Erfaring med data warehousing, modellering og udvikling af datarørledninger.

Problemløsning

Fremragende evner inden for problemløsning og opmærksomhed på detaljer.

Kommunikation

Stærke kommunikationsevner på engelsk; dansk er en fordel.

Ønskværdige færdigheder

Infrastructure-as-code (Terraform)

Erfaring med Terraform eller Databricks Asset Bundles.

GenAI/Machine Learning/MLOps

Erfaring med avancerede teknikker inden for GenAI og maskinlæring.

Mest kritiske færdigheder

DatabricksPySpark eller Spark SQLAzure cloud services

Sådan fremhæver du din erfaring

Fremhæv erfaringer med Databricks-projekter, hvor du har designet og optimeret datarørledninger. Beskriv specifikke resultater, du har opnået ved hjælp af PySpark eller Spark SQL, samt din erfaring med Azure-tjenester, der understøtter dataplatforme.

Interviewforberedelse

Sandsynlige spørgsmål

Kan du beskrive din erfaring med Databricks, især Delta Lake og Unity Catalog?

teknisk

Tip: Fokuser på konkrete projekter, hvor du har brugt disse teknologier, og hvilke resultater det gav.

Hvordan håndterer du datasikkerhed og governance i dine projekter?

teknisk

Tip: Giv eksempler på, hvordan du har implementeret governance mønstre i tidligere projekter.

Hvordan prioriterer du opgaver, når du arbejder på flere projekter samtidigt?

erfaring

Tip: Del din tilgang til projektledelse og tidsstyring, og giv eksempler på, hvordan det har fungeret for dig i fortiden.

Kan du give et eksempel på en udfordring, du har mødt i et teamprojekt, og hvordan du løste det?

situation

Tip: Brug STAR-metoden (Situation, Task, Action, Result) til at strukturere dit svar.

Hvordan holder du dig opdateret med nye teknologier inden for data engineering?

kultur

Tip: Vis din entusiasme for læring og professional udvikling ved at nævne kurser, konferencer eller ressourcer, du følger.

Spørgsmål du kan stille

  • Hvordan ser en typisk dag ud for en Senior Platform Engineer hos Pyne?
  • Hvilke projekter arbejder teamet på i øjeblikket?
  • Hvordan understøtter virksomheden medarbejdernes udvikling og læring?

Tale punkter

  • Din erfaring med at designe og optimere dataplatforme.
  • Din evne til at arbejde med kunder og forstå deres forretningsbehov.
  • Din interesse for at mentorere og udvikle teammedlemmer.

Bekymringspunkter at være opmærksom på

  • Manglende erfaring med centrale teknologier som Databricks, PySpark eller Azure.
  • Usikkerhed vedrørende teamarbejde eller ledelse af projekter.

Ansøgningsstrategi

Ansøgningstips

  • Fremhæv din erfaring med Databricks, især med Delta Lake og Unity Catalog.
  • Vis konkrete eksempler på projekter, hvor du har ledet og leveret dataplatformløsninger.
  • Understreg dine kommunikationsevner og din evne til at arbejde i et team, da samarbejde er vigtigt i konsulentmiljøet.

Nøgleord at inkludere

DatabricksPySparkAzure

Fokus i ansøgningen

Fremhæv din passion for datateknologi og hvordan du har bidraget til succesfulde projekter, der involverer Databricks og Azure. Nævn din evne til at lede teams og levere løsninger, der opfylder kundernes behov.

Tilpasning af CV

Tilpas dit CV ved at inkludere specifikke resultater fra tidligere stillinger, der relaterer sig til Databricks og Azure. Sørg for at fremhæve relevante tekniske færdigheder og projekter, der demonstrerer din evne til at arbejde med dataplatforme.

Ofte stillede spørgsmål

Hvad indebærer stillingen som Senior Platform Engineer?

Stillingen som Senior Platform Engineer indebærer design, opbygning og optimering af datarørledninger og lakehouse-arkitekturer på Databricks. Du vil lede klientprojekter og samarbejde med kunder for at forstå deres forretningsbehov, samt implementere avancerede teknikker inden for GenAI og ML.

Hvilke kvalifikationer kræves for at ansøge?

Vi søger kandidater med omfattende erfaring med Databricks og stærke færdigheder i PySpark eller Spark SQL. Du skal også have solid erfaring med Azure cloud-tjenester, data warehousing, samt kendskab til SQL og Python.

Hvad tilbyder virksomheden til sine medarbejdere?

Pyne tilbyder en konkurrencedygtig løn, fleksible arbejdsarrangementer inklusive mulighed for remote work, samt chancen for at forme vores Databricks-praksis. Vi værdsætter kontinuerlig læring og udvikling af færdigheder.

Hvordan er arbejdsmiljøet hos Pyne?

Arbejdsmiljøet hos Pyne er innovativt og fremadskuende, hvor teammedlemmer opfordres til at dele viden og erfaring. Vi har en kultur, der fremmer samarbejde og kontinuerlig forbedring, hvilket gør det til et inspirerende sted at arbejde.

Hvad er forventningerne til den, der ansættes?

Vi forventer, at du kan lede flere projekter, levere resultater i en konsulentmiljø og have fremragende problemløsningsevner. Du skal være i stand til at skrive produktion-klar kode og kommunikere effektivt med både teknikere og ikke-tekniske interessenter.

Er erfaring med GenAI og Machine Learning nødvendigt?

Erfaring med GenAI og Machine Learning er ikke et krav, men det vil være en fordel. Vi ser positivt på kandidater, der har viden inden for disse områder, da det vil bidrage til vores innovative tilgang til dataløsninger.

Hvad er det primære fokus for rollen i forhold til kunder?

Det primære fokus for rollen er at forstå klienternes forretningsbehov og oversætte disse til skalerbare tekniske løsninger. Du vil samarbejde tæt med kunderne for at sikre, at de får de bedste dataplatformsløsninger.

Hvad er de vigtigste teknologier, jeg skal arbejde med?

Du vil primært arbejde med Databricks, herunder Delta Lake, Unity Catalog og Azure-økosystemet. Vores teknologiske stack inkluderer også dbt, Snowflake, Azure og Power BI, hvilket gør det nødvendigt at have kendskab til disse værktøjer.

Stillinger

Senior Data EngineerData Engineer

Lignende jobs