DevOps Engineer (m/w/d) mit Kafka-Erfahrung
Projektbewertung
Die Ausschreibung bietet einen sehr detaillierten Einblick in ein komplexes DevOps-Projekt mit Kafka in Hamburg, das hybrides Arbeiten ermöglicht und umfangreiche technische Anforderungen mit klaren Erwartungen an Expertise und Erfahrung definiert.
Für einen Hamburger Kunden suchen ich einen erfahrenen Dev(Sec)Ops Engineer mit tiefgreifenden Kafka Kenntnissen.
Kontext:
Im Rahmen des Aufbaus einer unternehmensweiten Datenplattform soll Apache Kafka als zentrale Event-Streaming-Plattform für die Integration von Quell- und Zielsystemen etabliert werden. Das Kafka-Cluster dient als Backbone für Datenintegration, Echtzeitverarbeitung und die Bereitstellung analytischer und operativer Datenströme (z.B. für Azure Synapse, Data Lake, Power BI, Microservices).
Must Haves:
• DevSecOps
• Kafka
• Azure / AKS
• Kubernetes
• GitLab / Piplines / CI/CD
• Nexus
• Cloud native Dev
• AuthN & AuthZ mit Entra ID
Anforderungen:
• Mehrjährige praktische Erfahrung mit Apache Kafka in produktiven Umgebungen
• Fundiertes Wissen zu Kafka-Architektur, Partitionierung, Consumer-Gruppen, Delivery-Semantics etc.
• Erfahrung mit Kafka Connect, inkl. Konnektoren für Datenbanken (z.B. PostgreSQL, Oracle, SQL-Server) und idealerweise SAP
• Erfahrung mit Schema Management (Confluent Schema Registry)
• Kenntnisse in der Anbindung von Kafka an Cloud-Plattformen (Azure, idealerweise auch Event Hubs)
• Erfahrung im Aufbau von robustem Monitoring und Logging für Kafka-Umgebungen
Start: ab Oktober 2025
Auslastung: 80-100%
Ort: Hamburg, hybrid (Onboarding sowie einzelne Meetings vor Ort)
Ich freue mich auf Deine Bewerbung mit einer aktuellen Projektübersicht und Deinem Stundensatz an mjedelhauser@tergos.de