KI als intelligenter Assistent für die 24/7-Incident-Resolution – ein Erfahrungsbericht

Dies ist ein Erfahrungsbericht darüber, wie ein Team von DevOps-Ingenieuren, das für den Betrieb eines kritischen Kundensystems rund um die Uhr verantwortlich ist, künstliche Intelligenz (KI) als intelligenten Assistenten nutzt. Das DevOps-Team betreut auf mehreren Ebenen ein zeitkritisches System in der Produktionslogistik eines großen deutschen Automobilherstellers. Angesichts der Komplexität und Kritikalität des Systems hat das Team eine umfassende Bibliothek mit Anleitungen erstellt, die spezifische Incident-Fälle und deren Lösungen dokumentieren.

Der Zugriff auf und die Befolgung der entsprechenden Richtlinien fordert vom diensthabenden Personal jedoch eine sorgfältige Analyse, Erfahrung und ein hohes Maß an Konzentration. Um diese Herausforderung zu bewältigen, haben wir einen KI-basierten Assistenten entwickelt, der ein großes Sprachmodell (LLM – Large Language Model) verwendet, das die Incident-Beschreibung als Eingabe nimmt und den DevOps Engineer durch die notwendigen Schritte zur Behebung des Incidents führt.

Der KI-Assistent erfüllt folgende Funktionen:

  • Vorschlagen des geeigneten Incident-Resolution-Prozesses durch Abgleich der Fehlerbeschreibung mit der Anleitungsbibliothek.
  • Parametrisierung der für den Incident-Fall spezifischen Datenbank- oder Log-Abfragen.
  • Generierung von Zwischenschritten, die zu Dokumentationszwecken erforderlich sind.
Im Rahmen des Vortrags stellen wir den Systemaufbau, die eingesetzten KI-basierten Dienste und die Herausforderungen bei der Bereitstellung von Kontextinformationen für das große Sprachmodell vor. Zusätzlich werden wir unsere Erkenntnisse und Lösungen bezüglich der Auswahl geeigneter Prompts für das LLM diskutieren.

Die im Erfahrungsbericht geteilten Einblicke beleuchten die praktische Implementierung von KI als intelligenten Assistenten für die 24/7-Incident-Resolution. Durch den Einsatz von KI-Technologien können Organisationen ihre Incident-Resolution-Prozesse verbessern, die Effizienz steigern und die Abhängigkeit von menschlichem Fachwissen reduzieren.

Speaker

 

Constantin Grauvogl
Constantin Grauvogl ist Lead-IT-Consultant bei der MaibornWolff GmbH und verfügt über einen breiten Branchenhintergrund sowie einen starken Fokus auf Technologie. Mit seinem kundenzentrierten Ansatz strebt er danach, Prozesse zu optimieren und die Effizienz sowohl für Entwicklungsteams als auch für Kunden zu maximieren. Sein Interesse an KI-gestützten Projektabläufen ermöglicht es ihm, innovative Lösungen zu finden und nachhaltige Ergebnisse zu erzielen.

Morris Witthein
Morris Witthein ist Softwareingenieur im DevOps-Cloud-Native-Bereich bei der MaibornWolff GmbH. Mit 2 Jahren Berufserfahrung hat sich Morris auf die Backend-Entwicklung für Cloud-native Anwendungen und die Bereitstellung von Cloud-Infrastruktur spezialisiert. Er ist begeistert von GenAI und hat erfolgreich Large Language Models in verschiedene Projekte integriert. Diese Projekte umfassen die automatisierte Codedokumentation für Legacy-Code und ein Tool, das defekte Terraform-Module iterativ reparieren kann.

Newsletter

Sie möchten über die Mastering Observability und weitere Angebote wie die CLC (Continuous Lifecycle/ContainerConf) auf dem Laufenden gehalten werden?

 

Anmelden