Senior AI Engineer (m/w/d) LLMs in RAG-Architekturen
Projektbewertung
Die Projektausschreibung bietet einen sehr detaillierten Einblick in die Anforderungen eines Senior AI Engineers mit Fokus auf LLMs und RAG-Architekturen, mit klaren technischen Spezifikationen, Einsatzort (Dresden, remote möglich), Vollzeit-Auslastung und umfassenden Erwartungen an Technologien und Erfahrungen.
Unser Kunde sucht einen Senior KI-Spezialisten mit technischem Schwerpunkt, um End-to-End-KI-Lösungen zu entwickeln. Das Projekt umfasst Aufgaben wie Datenaufbereitung, Modellierung, Evaluierung, Deployment und Betrieb in produktiven Umgebungen. Der Fokus liegt auf der Nutzung von LLMs in RAG-Architekturen.
Laufzeit: 01.10.25 - 31.12.25 (Verlängerung möglich)
Einsatzort: Dresden, remote
Auslastung: Vollzeit
Hauptaufgaben:
• Entwicklung von End-to-End-KI-Lösungen, einschließlich Datenaufbereitung, Modellierung, Evaluierung, Deployment und Betrieb.
• Schwerpunkt auf der Nutzung von LLMs in RAG-Architekturen.
• Effektive Zusammenarbeit in cross-funktionalen Teams, klare Kommunikation und strukturierte Anforderungsaufnahme.
• Integration und Architektur von KI-Modulen in Microservices und bestehende IT-Landschaften.
Anforderungen:
• Mindestens 3 Jahre praktische Erfahrung im Bereich Machine Learning (End-to-End), idealerweise mit Projekten in NLP/LLM (z. B. NER, semantische Suche) oder Computer Vision.
• Fundierte Kenntnisse in Python mit sauberem, testbarem Code; Java-Kenntnisse für Services sind ein Plus.
• Erfahrung mit Software- und Datenpipelines (CI/CD, Containerisierung) sowie MLOps-Prozessen in der Produktion.
• Vertrautheit mit der Integration/Architektur von KI-Modulen in Microservices oder bestehende IT-Landschaften.
• Starke Fähigkeiten in der Zusammenarbeit mit cross-funktionalen Teams, klare Kommunikation und strukturierte Anforderungsaufnahme.
• Wünschenswert: Erfahrung mit Edge-AI, Grundkenntnisse in Java/Kotlin für Service-Anbindungen.
Erforderliche Tools:
• Programmier-/ML-Stack: Python, plus mindestens eines: PyTorch oder TensorFlow/Keras.
• NLP/LLM & Suche: Erfahrung mit semantischer Suche auf Basis von Lucene/Elasticsearch oder vergleichbaren Vektor-/Index-Ansätzen.
• MLOps/Plattform: Docker, Git, CI/CD (z. B. GitHub Actions/Azure DevOps), MLflow für Tracking; Cloud-Grundlagen in Microsoft Azure (z. B. Functions, AKS) oder OpenShift/Kubernetes.
• Daten & Storage: SQL- und Vektor-Datenbanken.