Data Engineer (m/w/d) * Laufzeit bis Dezember 2026

Projektbewertung

Die Ausschreibung bietet einen sehr detaillierten Einblick in die Anforderungen für einen Data Engineer mit umfangreichen technischen Skills, flexiblem Arbeitsort (Remote und vor Ort in mehreren Städten) und einer interessanten Projektlaufzeit bis Ende 2026.

Liebes Netzwerk,

für unseren Kunden sind wir aktuell auf der Suche nach einem Data Engineer (m/w/d).





Eckdaten:



Rolle: Data Engineer

Zeitraum: November 2025 bis Dezember 2026 + Option auf Verlängerung

Ort: Remote und vor Ort in Bonn, München, Frankfurt, Trier und Köln

Auslastung: Vollzeit

Sprachen: Deutsch





Leistungsbeschreibung:



•    Konzeption und Planung von Architektur & Mandantenmodellen

•    Auswahl und Integration Cloud-nativer Tools & Automatisierung

•    Erarbeitung von Logging-, Monitoring- & Multi-Cloud-Strategien

•    Aufbau Kubernetes-Infrastruktur & CI/CD-Prozesse

•    Realisierung von ETL-Strecken, Datenanalysen & Visualisierungen

•    Betrieb und Wartung inkl. Patches & Backups

•    Stabilisierung und Automatisierung der Plattform & Datenflüsse

•    Onboarding und Support für Nutzer

•    Weiterentwicklung und Anpassung an Solutions & MLOps

•    Durchführung von Delta-Analysen & Requirement Engineering

•    Betreuung analytischer Use Cases







Qualifikations- und Erfahrungsanforderung:



•    Certified Kubernetes Administrator (CKA)



•    Certified Kubernetes Application Developer (CKAD)



•    Linux Foundation Certified System Administrator (LFCS)



•    Mind. 3 Jahre: Erfahrung im Umgang mit ETL/ELT Prozessen/Workflows (MinIO, Apache Airflow)



•    Mind. 3 Jahre: Erfahrung im Umgang mit Python (Fast API und Django (Web-frameworks), Dash, Flask, Jupyter, PySpark oder Flink, Pandas, Numpy



•    Mind. 3 Jahre: Erfahrung im Umgang mit relationalen DB (PostgreSQL, Oracle oder MySQL), Datenbank Anbindung, Schema-Definitionen, Datenbank-Abfragen (CRUD bei SQL), Optimierungen / Performance Tuning



•    Mind. 3 Jahre: Erfahrung mit agilen Arbeitsweisen Scrum oder Kanban



•    Mind. 3 Jahre: Erfahrung im Umgang mit Big Data Processsing Frameworks, Spark, Flink oder ähnlich



•    Mind. 3 Jahre: Erfahrung in CI/CD-Build-Automatisierung mit GitLab



•    Mind. 3 Jahre: Erfahrung in Datenvisualisierung und -exploration (Apache Superset oder ähnlich)



•    Mind. 3 Jahre: Erfahrung in der Anwendung von Softwarequalitätssicherungs-Prinzipien (Code Review, Clean Code, SOLID, statische Code Analyse (z.B. Sonarqube), Linter



•    Mind. 1 Jahr: Erfahrung im Umgang in der Linux System Administration, (Bash, Git, top, grep, ps)



•    Mind. 1 Jahr: Erfahrung im Umgang mit Containertechnologien (Kubernetes); Betrieb von Containern, Build von Container-Images, Podman, Kubernetes, Kubespray









Haben wir Ihr Interesse geweckt?

Dann senden Sie uns Ihren CV im Wordformat sowie Ihre aktuelle Verfügbarkeit inklusive Stundensatz an:

anna.puskaric@deedcon.de



Mit freundlichen Grüßen



Anna Puskaric

Recruiterin

KubernetesAutomatisierungCloud ComputingDatenbankenContinuous IntegrationETLLinuxClean CodeAPIsAirflow

Art der Anstellung

contracting

Gepostet am

15. September 2025

Angeboten von:

Freelancermap

Zur Ausschreibung (öffnet in neuem Tab)