Data Architect / Engineer (m/w/d)
Projektbewertung
Die Projektausschreibung bietet einen sehr detaillierten und umfassenden Einblick in einen komplexen Data Architecture Kontext mit klaren technischen Anforderungen, Azure-Fokus und spezifischen Erwartungen an einen Senior Data Architect/Engineer in der Finanzdienstleistungsbranche.
Projektkontext
Aufbau einer Self-Service Data-Share/API für Fonds-Administrationsdaten als Single Source of Truth auf Azure (ADLS Gen2 + Databricks/Delta Lake).
Ziel: mandantensicherer Near-Realtime-Zugriff für interne Kunden (Finanzdienstleistung)
Start: Q4
Dauer: 4–6 Monate
Ort: Remote, Einzeltermine in Frankfurt a. M. möglich
Auslastung: bis zu Vollzeit
Aufgaben
• Zielarchitektur entwerfen (Azure Lakehouse, Databricks, ADLS, Unity Catalog, Purview, Key Vault).
• Datenmodell & Data Contracts definieren (Bronze/Silver/Gold), Pipelines mit ADF/Databricks (PySpark/DLT).
• APIs (Azure Functions + API Management) und/oder Delta Sharing bereitstellen, Versionierung & Quotas.
• Mandantentrennung, AuthN/Z (Entra ID/OAuth2), RLS/CLS, GDPR/PII-Kontrollen, Audit Trails, SLAs.
• CI/CD (Azure DevOps/GitHub), IaC (Terraform/Bicep), Monitoring/Cost-Control, Data Quality Gates.
• MVP, Last-/Sicherheitstests, Pilotkunde, Go-Live & Hypercare.
Anforderungen
• Senior Data Architect / Data Engineer (Azure) mit Schwerpunkt Databricks/Delta Lake & Python/PySpark.
• Praxis in Investment-/Fondsdaten (NAV, Holdings, Transaktionen, Performance; Security Master). oder anderen Finanzdienstleistungen
• API-Entwicklung (FastAPI/Functions), API Management, OpenAPI; Caching, Rate Limiting.
• Governance & Katalog: Unity Catalog, Microsoft Purview, Lineage & PII-Klassifizierung.
• Security by design: RBAC/ABAC, RLS/CLS, Key Vault, Netz- und Datenzugriffskontrollen.
• Testautomatisierung, Observability (Azure Monitor/Log Analytics); Performance- & Kostenoptimierung.
• Deutsch & Englisch für Fach- und Technik-Stakeholder.