ITP-610: Data Engineer- Analyse und Auflösung bestehender SAP BW Queries in SQL-Logiken (m/w/d)

Projektbewertung

Die Projektausschreibung bietet einen sehr detaillierten Einblick in die Anforderungen eines Data Engineering Projekts mit klarer Aufgabenbeschreibung, konkreten Einsatzorten, flexiblen Stundensätzen und umfassenden technischen Anforderungen für einen SAP- und Databricks-spezialisierten Experten.

Start: 22.09.2025

Ende: 31.12.2025

Einsatzort: Ruhrgebiet (Essen, Dortmund usw.)

Weitere Hinweise: Bei den Konditionen ist eine Differenz 18€/h von Onsite zum Offsite Stundensatz nötig. Die geplante Aufteilung der Stunden ist wie genannt, kann aber abweichen.

Max. Stundensatz remote: 75€/h – 87/h

Offsite: 280h

Onsite: 20h

Reisezeiten: 0h

Anzahl Personen: 1



Job-Details:

Für ein bereichsübergreifendes Datenintegrationsprojekt suchen wir einen erfahrenen Data Engineer (m/w/d) mit tiefgehender Expertise im SAP S4United-Datenmodell sowie in der Analyse und Auflösung von SAP BW Queries.

Ziel ist der Aufbau einer zentralen, automatisierten Datenbasis zur Versorgung mehrerer PowerBI-Dashboards. Bestehende manuelle Prozesse sollen abgelöst und eine abgestimmte ETL-Strecke etabliert werden.



Tasks:

Der externe Data Engineer übernimmt im Rahmen der Beauftragung eigenverantwortlich folgende Tätigkeiten:

• Analyse und Auflösung bestehender SAP BW Queries (AfO-basiert) in SQL-Logik

• Verständnis und Modellierung der relevanten Datenstrukturen im S4United-Datenmodell

• Aufbau eines skalierbaren Datenmodells mit Bronze- und Silber-Layer in Databricks

• Konzeption einer zentralen ETL-Strecke für mehrere Fachbereiche

• Zusammenarbeit mit technischen Umsetzern aus Datenmanagement und fachlichen Experten aus dem Controlling zur gemeinsamen Entwicklung einer SQL-/Python-basierten Architektur



Skills:

Must-Have:

• Tiefgehende Kenntnisse des SAP S4United-Datenmodells

• Erfahrung in der Analyse und Umwandlung von SAP BW Queries in SQL-Abfragen

• Sehr gute Kenntnisse in SQL

• Erfahrung mit Databricks und Data Lakehouse-Architekturen

• IT-Affinität und Fähigkeit zur eigenständigen Leistungserbringung

• Sehr gute Kommunikations- und Koordinationsfähigkeiten



Nice-to-Have:

• Kenntnisse in Python zur Umsetzung von ETL-Prozessen

• Erfahrung mit PowerBI-Datenanbindungen und Dashboard-Architekturen

• Erfahrung mit ETL-Prozessen und Datenmigration

• Sicherer Umgang mit Excel und PowerPoint

• Sehr gute Deutsch- oder Englischkenntnisse in Wort und Schrift

SQLSAP Netweaver Business IntelligenceAuflösungETLDatenmodellArchitekturPythonPower BiSAP ApplicationsDatabricks

Art der Anstellung

contracting

Gepostet am

9. September 2025

Angeboten von:

Freelancermap

Zur Ausschreibung (öffnet in neuem Tab)