Projektbewertung
Die Ausschreibung bietet einen guten Überblick über die Data Engineering Rolle mit klaren technischen Anforderungen, lässt jedoch zentrale Details wie Stundensatz, exakte Einsatzorte und Remote-Möglichkeiten vermissen.
Analyse und Beurteilung von Daten und Entwicklung von Daten Pipelines basierend auf der bestehenden Architektur und dem aktuellen Zonen-Konzept (raw – trusted – refined)
Optimierung der Code-Basis hinsichtlich Performanz und Kosten
Automatisierung von Datenprozessen
fachliche Unterstützung bei der Konzeption von Datenmodellen zur Umsetzung der Use Cases und der Projektplanung
Fachliche Unterstützung im SCRUM Team, Teilnahme an Dailies, Refinements, Plannings, Reviews, Retros
Wahrnehmung von Projektbezogenen Vor-Ort Terminen bei Anfrage der Projektkunden
Code-Verwaltung in Gitlab, Projektmanagement in JIRA
Mindestens 3 Jahre Erfahrung in der SW-EntwicklungGitCICDTest-Driven DevelopmentMindestens 2 Jahre Projekterfahrung in der Entwicklung und Automatisierung von ETL Strecken und der Datenmodellierung einschließlich Kenntnisse der Tools sowie Konzepte und üblichen ProgrammiersprachePythonApache SparkPysparkPandasSQLProjekterfahrung mit AWS Cloud Technologien und deren managed servicesAWS BatchAWS S3AWS AthenaErfahrung mit Apache AirflowKenntnisse agiler Arbeitsmethoden (insbesondere Scrum): Nachweis Erfahrung durch Projekterfahrung (min. 1 Projekt) oder individuelle Erfahrungen (z.B. Zertifikate)Praktische Erfahrung mit Docker ContainernProjekterfahrung im Umgang mit typischen Projekten und Daten in der Branche Transport & Logistikinsbesondere im Umgang mit unterschiedlichen Datenformaten sowie Qualitätseinschränkungen und Verarbeitungsprozessen auf vorgelagerten Data Lakes
Art der Anstellung
contracting
Gepostet am
6. Oktober 2025
Zur Ausschreibung (öffnet in neuem Tab)