💻 IT & teknik

Ansøgning Data Engineer — eksempel & skabelon

En stærk ansøgning som data engineer viser, at du kan designe datapipelines, bygge dataplatforme og levere pålidelig data til hele organisationen. Her er et færdigt eksempel til det danske arbejdsmarked.

✉️ Eksempel

Ansøgning som data engineer — færdigt eksempel

Brug dette eksempel som udgangspunkt. Tilpas virksomhed, konkrete erfaringer og dine egne resultater.

Scenario: Erfaren data engineer søger ny rolle hos Maersk efter arbejde med realtids-datapipelines hos Danske Bank.

Til Maersk · att. Line Vestergaard, Head of Data Platform

Ansøgning: Senior Data Engineer, ref. MAERSK-2026-203

Jeres opslag om en Senior Data Engineer til den globale dataplatform fangede min interesse, fordi det kræver præcis den kombination af realtids-pipelines og enterprise-skala, som jeg har bygget hos Danske Bank de seneste 4 år.

Jeg har 6 års erfaring som data engineer med fokus på streaming-arkitektur og batch-pipelines i Python og Spark. Hos Danske Bank har jeg designet en datapipeline, der processerer 8 mio. transaktioner dagligt med Kafka, Spark Structured Streaming og Delta Lake — med 99,95 % uptime og <5 min latency.

Maersks globale logistikdata er en af verdens mest komplekse datadomæner, og muligheden for at bygge en platform, der gør den data tilgængelig og pålidelig, motiverer mig stærkt.

Jeg vil gerne diskutere min tilgang til data mesh og platform-design i en samtale. Jeg kan starte efter tre måneders opsigelse.

Med venlig hilsen

Emil Krogh
Senior Data Engineer · Danske Bank

🔄 Flere scenarier

Ansøgninger til forskellige situationer

Uopfordret, karriereskifte eller nyuddannet — tilpas din tilgang til konteksten.

Nyuddannet data engineer
Scenario: Nyuddannet datamatiker søger første data engineer-stilling.

Til Trustpilot · att. Data Engineering Team

Ansøgning: Junior Data Engineer

Som nyuddannet datamatiker fra CPH Business med speciale i data engineering og et afgangsprojekt om streaming-pipelines i Kafka søger jeg min første stilling hos Trustpilot.

Mit afgangsprojekt byggede en end-to-end pipeline fra API-indsamling til dashboard i Kafka, dbt og BigQuery. Projektet processerer 50.000 events dagligt og fik topkarakter for sin arkitektur og dokumentation.

Jeg bringer stærk SQL, Python og cloud-forståelse, og jeg er ivrig efter at lære fra et af Danmarks mest datadrevne teams.

Med venlig hilsen

Mikkel Sørensen
Datamatiker · CPH Business

Karriereskift fra BI til data engineering
Scenario: BI-udvikler søger karriereskift til data engineer-rolle.

Til Ørsted · att. Data & Analytics Team

Ansøgning: Data Engineer, Ørsted

Efter 5 år som BI-udvikler hos Vestas — med stigende fokus på datamodellering, ETL og Python — er jeg klar til at fokusere fuld tid på data engineering. Jeres opslag matcher præcis den tekniske dybde, jeg søger.

I mit nuværende job har jeg bygget ETL-pipelines i Python og Airflow, designet dimensionelle modeller i Snowflake og automatiseret rapportering, der tidligere tog 2 dage om ugen. Jeg har hands-on erfaring med dbt, SQL og cloud-infrastruktur.

Skiftet fra BI til data engineering er naturligt — jeg vil bygge de dataplatforme, der gør analytics mulig.

Med venlig hilsen

Thomas Bech
BI-udvikler · Vestas

💡 Indledninger

Stærke indledninger — byt dem ud

Den første sætning afgør, om din ansøgning bliver læst. Her er 8 indledninger der virker for data engineer-stillinger.

Resultat-hook
Da I søger en data engineer til realtids-pipelines, vil jeg nævne, at min streaming-arkitektur hos Danske Bank processerer 8 mio. transaktioner dagligt med <5 min latency.
Åbn med konkret pipeline-performance.
Skala
Jeg har bygget datapipelines, der håndterer petabyte-skala data i Spark og Delta Lake — præcis den enterprise-størrelse, jeres opslag beskriver.
Vis skala-erfaring.
Data mesh
Jeg har implementeret data mesh-principper hos Danske Bank med domæne-ejede dataprodukter og en self-service dataplatform — og det er den arkitektur, I bevæger jer mod.
Vis moderne dataarkitektur-forståelse.
Datakvalitet
Pålidelig data starter med pålidelige pipelines. Jeg implementerer data quality checks, schema validation og monitoring fra dag ét — fordi dårlig data koster mere end ingen data.
Vis datakvalitetsbevidsthed.
Tech-match
Python, Spark, Kafka, dbt og Snowflake — jeres stack er identisk med det, jeg har arbejdet med de seneste 4 år.
Direkte teknologimatch.
Menneskeligt
Data engineering handler om at gøre data tilgængelig for alle — analytikere, data scientists og forretningsbrugere. Det er min mission.
Vis din motivation.
BI til DE
Med 5 års erfaring i BI og datamodellering bringer jeg en unik forståelse af, hvad slutbrugerne faktisk har brug for fra en dataplatform.
For karriereskiftere fra BI.
Cloud-native
Alt, jeg bygger, er cloud-native — Terraform-provisioneret, container-deployet og overvåget med alerting. Ingen manuelle skridt.
Vis cloud og automation.
💬 Nyttige formuleringer

Formuleringer der virker

Klippeklare sætninger du kan tilpasse og bygge din ansøgning op omkring.

Min pipeline processerer [X] events/transaktioner dagligt med [X %] uptime og [X] latency.
Jeg har bygget en dataplatform i [Snowflake/Databricks/BigQuery] med [dbt/Airflow/Spark] og [X] dataprodukter.
Datakvalitet er built-in — jeg implementerer schema validation, data contracts og automatiserede quality checks.
Jeg arbejder dagligt med [Python/SQL/Spark] og deployer via [Terraform/Docker/CI-CD].
Min tilgang til data engineering er platform-first — jeg bygger self-service-platforme, ikke one-off-pipelines.
Jeg vedlægger CV og kan dele eksempler fra min GitHub.
✅ Tips

Gør og undgå i ansøgningen

Vis pipeline-performance

Throughput, latency, uptime — vis at dine pipelines er pålidelige og performante.

Nævn datakvalitet

Data quality checks, monitoring og alerting viser modenhed. Det er ikke kun et nice-to-have.

Fremhæv samarbejde med data scientists

Data engineers enabler data scientists. Vis at du forstår den dynamik og samarbejder effektivt.

Ignorer ikke forretningskontekst

En pipeline uden forretningsforståelse er bare teknologi. Vis at du forstår, hvorfor dataen er vigtig.

Overdriv ikke skalerbarhed

"Kan skalere til billioner af rækker" er irrelevant, hvis virksomheden har millioner. Tilpas til konteksten.

Glem ikke dokumentation

Godt dokumenterede datapipelines er sjældne og værdifulde. Nævn din tilgang til dokumentation.

❓ Ofte stillede spørgsmål

FAQ: Ansøgning som data engineer

Data engineers bygger de platforme og pipelines, der gør data tilgængelig. Data scientists bruger den data til at bygge modeller. Begge roller er essentielle.

Ja. Python er det primære sprog for data engineering i Danmark. SQL er også essentielt. Spark, dbt og Airflow er de mest efterspurgte tools.

I praksis ja. De fleste danske virksomheder bruger cloud-baserede dataplatforme. AWS, Azure eller GCP-erfaring er næsten altid et krav.

Max én A4-side. 300–400 ord. Fokuser på pipelines, platforme og datakvalitet.

Ja — dbt er blevet standard for datatransformation i moderne dataplatforme. Hvis du har erfaring med det, nævn det eksplicit.

🔗 Relaterede ansøgninger

Ansøgninger til lignende stillinger

Klar til at sende din data engineer-ansøgning?

Tilpas eksemplet ovenfor, kombinér det med et CV der fremhæver dine datapipelines, og send et stærkt match.