Überblick
In großen Unternehmen stehen Mitarbeitern oft riesige Datenmengen zur Verfügung – verteilt über verschiedene interne Systeme und Plattformen. Die Herausforderung: Relevante Erkenntnisse schnell zu gewinnen, ohne sich durch Dashboards und Datenbanken arbeiten zu müssen. Genau hier setzt dieses Projekt an.
Für einen großen deutschen Automobilkonzern haben wir ein internes KI-gestütztes Analyse-Tool entwickelt, das auf einer Multi-Agenten-Architektur basiert. Über eine intuitive Chat-Oberfläche können Mitarbeiter in natürlicher Sprache Fragen stellen. Im Hintergrund orchestrieren mehrere spezialisierte KI-Agenten die Abfrage verschiedener Datenquellen – darunter Databricks – und liefern aufbereitete Antworten, konkrete Handlungsempfehlungen sowie proaktive Risikowarnungen.
Das Ergebnis ist ein Werkzeug, das datengetriebene Entscheidungen deutlich beschleunigt und auch Mitarbeitern ohne tiefes technisches Wissen den Zugang zu komplexen Analysen ermöglicht.
Meine Rolle
Als Fullstack-Entwickler war ich von September 2025 bis März 2026 Teil eines größeren Entwicklungsteams und habe die Leitung der Frontend-Entwicklung übernommen. Das bedeutete sowohl technische Verantwortung für Architekturentscheidungen im Frontend als auch enge Abstimmung mit dem Backend-Team rund um die Agenten-Logik und API-Schnittstellen. Darüber hinaus habe ich aktiv an der Backend-Entwicklung mitgewirkt, insbesondere bei der Agenten-Orchestrierung und der Anbindung der Datenquellen.
Aufgaben
- Leitung der Frontend-Entwicklung – Technische Führung und Architekturentscheidungen für das Next.js-basierte Frontend innerhalb eines größeren Teams
- Chat-Oberfläche mit Echtzeit-Streaming – Konzeption und Umsetzung der zentralen Benutzeroberfläche, über die Agenten-Antworten in Echtzeit gestreamt werden
- Datenvisualisierung – Darstellung komplexer Analyseergebnisse und Risikoindikatoren in verständlichen, interaktiven Formaten
- Backend-Entwicklung mit LangGraph – Entwicklung von API-Endpunkten und Implementierung der Agenten-Orchestrierung im Python-Backend mit FastAPI
- Datenquellen-Integration – Anbindung verschiedener interner Systeme, darunter Databricks, als Wissensgrundlage für die KI-Agenten
Technische Highlights
Streaming-Architektur für Agenten-Antworten: Da die Multi-Agenten-Verarbeitung je nach Komplexität der Anfrage mehrere Sekunden dauern kann, war ein nahtloses Echtzeit-Streaming der Antworten essenziell. Über Server-Sent Events werden Teilergebnisse der einzelnen Agenten direkt an das Frontend übertragen, sodass Nutzer den Fortschritt live mitverfolgen können.
Multi-Agenten-Orchestrierung mit LangGraph: Die verschiedenen Agenten – etwa für Datenabfrage, Risikoanalyse und Empfehlungsgenerierung – werden über LangGraph als gerichteter Graph orchestriert. So lassen sich komplexe Workflows abbilden, bei denen Agenten aufeinander aufbauen oder parallel arbeiten.
Sichere Integration in die Unternehmensinfrastruktur: Das gesamte System läuft auf Azure und nutzt Azure OpenAI als LLM-Backend. Die Anbindung an Databricks und weitere interne Datenquellen erfolgt über abgesicherte Schnittstellen, die den Sicherheitsanforderungen des Konzerns entsprechen.