Generative KI für die Versicherungswirtschaft: Nutzung von KI-Agenten zur Automatisierung entlang der Wertschöpfungskette

In unserer Artikelserie behandelten wir bisher Anwendungsfälle generativer KI mit steigender Komplexität, endend mit dem Vergleich von Versicherungsbedingungen im vierten Artikel. Wir wollen uns nun noch vielschichtigeren Einsatzbereichen generativer KI widmen.

Stellen Sie sich vor, Sie sind die Leitung1 der Schadenbearbeitung einer Versicherung. Ihr Team besteht aus den Agenten Albert bis Gustav, von welchen jeder einer bestimmten Aufgabe bei der Bearbeitung eines Schadenfalls nachgeht (siehe auch Schaubild):

  • Albert interagiert mit dem Kunden, nimmt fernmündliche oder schriftliche Schadenmeldungen entgegen und verarbeitet möglicherweise vorhandene Bilder dazu.
  • Berta prüft die eingereichten Informationen auf Richtigkeit und Vollständigkeit. Um eine möglichst präzise und fundierte Einschätzung zu treffen, greift sie bei Bedarf auf unternehmensinterne Datenquellen zurück.
  • Christian fokussiert sich auf potentiellen Versicherungsbetrug, dessen Wahrscheinlichkeit er unter Beachtung verdächtiger Muster und historischer Daten einschätzt.
  • Doris bewertet den Schaden und schlägt Erstattungsoptionen basierend auf dem Schadenumfang und den geltenden Versicherungsbedingungen vor.
  • Ernst greift die Ergebnisse seiner Kolleginnen und Kollegen auf und trifft eine inhaltlich begründete Entscheidung zur (partiellen) Annahme und Ablehnung des Schadenfalls.
  • Frieda kümmert sich um die Auszahlung der Versicherungsleistung, sobald Ernst ihr die (partielle) Annahme des Schadenfalls mitteilt.
  • Gustav übernimmt im gesamten Prozess die Kommunikation mit dem Kunden und hält ihn zum aktuellen Bearbeitungsstand auf dem Laufenden.

 

 

 
Können Sie sich vorstellen, dass dieses Team ausschließlich aus KI-Agenten besteht, ausgestattet mit der notwendigen Tätigkeitsbeschreibung und dem erforderlichen Datenschatz? Zurecht schränken die aktuellen Regeln der EU-KI-Verordnung die Umsetzung eines solchen Szenarios ein. Denn die KI-Verordnung begrenzt das autarke Agieren einer KI und betont die Relevanz von „Human in the loop“. Deshalb erfordert die Implementierung von KI-Systemen zwingend einen umfassenden Governance-Rahmen, um langfristige Nachhaltigkeit und unternehmerische Stabilität zu gewährleisten. Unter dieser Voraussetzung können KI-Agenten jedoch zu einem mächtigen Werkzeug werden – zur Modernisierung von Versicherungsprozessen.

Lassen Sie uns im Folgenden erörtern, was KI-Agenten sind, welche Technologie ihnen stark vereinfacht zugrundeliegt, wie sie in der Versicherungswirtschaft (über obiges Beispiel hinaus) genutzt werden können und welche Chancen, aber auch Risiken ihr Einsatz mit sich bringt.

Was ist ein KI-Agent?

Perplexity2, einer der bekanntesten Anbieter von KI-Agenten neben AutogenAI3, CrewAI4 oder Azure AI Agent5, beschreibt KI-Agenten wie folgt: KI-Agenten sind hochentwickelte Softwareeinheiten, die so konzipiert sind, dass sie ihre Umgebung autonom wahrnehmen, interagieren und darauf reagieren können. Diese Agenten integrieren fortschrittliche Funktionen wie Lernen, Schlussfolgern und Entscheidungsfindung, um Aufgaben auszuführen, die von einfacher Datenerfassung bis hin zur Lösung komplexer Probleme reichen. Damit spielen sie eine entscheidende Rolle bei der Erweiterung der Fähigkeiten verschiedener KI-Anwendungen in verschiedenen Branchen6

Demzufolge ahmen KI-Agenten noch deutlich stärker als KI-Assistenten menschliches Verhalten nach. Unter KI-Assistenten verstehen wir vorliegend Chatbots wie ChatGPT, die Eingaben ihrer Umwelt reaktiv verarbeiten. KI-Agenten dagegen interagieren mit ihrer Umwelt, wie unser Schadenbearbeitungsbeispiel zeigt. Sie können nicht nur reagieren, sondern Aufgaben ausführen, Entscheidungen treffen oder zunächst Vorgehensweisen empfehlen, bspw. zum Erreichen eines bestimmten Ziels, zur Maximierung eines vorab definierten Nutzens oder zum Validieren früherer Entschlüsse unter Nutzung von KI.

Auf welcher technologischen Basis beruht ein KI-Agent?

Wir wollen das Konzept eines KI-Agenten erläutern, ohne auf technische Details einzugehen. Das Ziel besteht darin, die bereits skizzierte Interaktion eines KI-Agenten mit seiner Umwelt verständlich darzustellen. Daher werden an geeigneter Stelle Parallelen zum menschlichen Verhalten gezogen.

Grundsätzlich besteht ein KI-Agent aus drei Komponenten7, die während der Runtime8 relevant sind:

  • Orchestrierung
  • Modell 
  • Werkzeuge / Tools

Die Orchestrierung steuert, wie ein Agent Informationen verarbeitet und daraus Entscheidungen ableitet, bis er sein Ziel erreicht. Die Komplexität variiert je nach Auftrag und kann sich in einfachen Regeln bis hin zu komplexer Logik widerspiegeln. Ebenso existieren verschiedene Stufen einer Art Gedächtnis, die von fehlender Informationsspeicherung bis hin zu einem Langzeitgedächtnis reichen. Man kann die Orchestrierung also mit den Fragen, Gedanken, Beobachtungen und daraus abgeleiteten Aktionen assoziieren, die ein Mensch beim Erledigen einer Aufgabe durchläuft.

Das (Sprach-)Modell fungiert als Entscheider und kann je nach Anforderung angepasst werden. Das Modell sollte zur vorgesehenen Aufgabe passen und mit relevanten Daten trainiert sein. Es ist vergleichbar mit dem Gehirn eines Menschen als zentrale Instanz bei der Entscheidungsfindung. Es verarbeitet Informationen, wendet Logik und Erfahrung an, um Entscheidungen zu treffen – ähnlich wie ein Mensch Informationen verwendet und danach handelt. Sowohl das Modell als auch das menschliche Urteilsvermögen werden durch Lernen und Erfahrung verbessert.

Obwohl Modelle verschiedene Datentypen wie Text oder Bild verarbeiten können, ist es ihnen nicht möglich, direkt mit der Außenwelt zu interagieren. Diese Aufgabe übernehmen Tools. Sie sind vergleichbar mit vom Menschen genutzten Sinnen und Hilfsmitteln zur Interaktion mit der Umwelt. Menschen greifen auf Werkzeuge oder Technologien zurück, um Aufgaben auszuführen, Informationen zu sammeln oder auf äußere Einflüsse zu reagieren. KI-Agenten gebrauchen zur Aufgabenerfüllung technische Werkzeuge, um Daten zu verarbeiten oder externe Dienste zu verwenden.

Das Zusammenspiel von Orchestrierung, Modell und Tools lässt sich erneut am Beispiel der Schadenbearbeitung veranschaulichen:

  • Die Orchestrierung koordiniert den gesamten Schadenbearbeitungsprozess und bestimmt, wann das Modell und Tools eingesetzt werden sollen. 
  • Das Modell analysiert die Schadenmeldung und bewertet die entscheidungsrelevanten Informationen.
  • Tools interagieren mit externen Systemen, um zusätzliche Daten zu beschaffen und erforderliche Aktionen wie z. B. eine Terminvereinbarung mit einem Gutachter auszuführen.

Wo können KI-Agenten in Versicherungsunternehmen eingesetzt werden?

Zur Nutzung von KI-Agenten in Versicherungsunternehmen lassen sich verschiedene Bereiche entlang der Wertschöpfungskette finden. Ergänzend zu unserem Schadenbearbeitungsbeispiel werden nachfolgend zunächst zwei potenzielle Einsatzfelder eines einzelnen KI-Agenten skizziert. Daran schließen sich zwei Beispiele für das Zusammenspiel mehrerer KI-Agenten an.

Einzelne KI-Agenten in Versicherungsunternehmen:

  • Mitigation des Kündigungsrisikos: Ein KI-Agent könnte gerade im Gewerbebereich implementiert werden, um potenzielle Kündigungen zu vermeiden. Neben der Analyse von Verhaltensmustern und der Auswertung von Kundendaten ist es einem KI-Agenten möglich, auf externe Daten wie z. B. Berichte zu Geschäftsentwicklungen, die auf der Website eines Unternehmens oder in den Nachrichten publiziert werden, zurückzugreifen und auf dieser Basis gezielt Maßnahmen zur Kundenbindung bzw. -rückgewinnung vorzuschlagen.
  • Überprüfung von Richtlinien oder Verträgen: Ein KI-Agent kann nicht nur mit internen Richtlinien oder Verträgen mit Dienstleistern gespeist werden, sondern er kann auch externe Quellen in Echtzeit auf gesetzliche Änderungen hin durchsuchen. Nach einem Abgleich einer neuen oder geänderten Bestimmung mit den internen Richtlinien oder Verträgen ist er in der Lage, den Anpassungsbedarf zur Sicherstellung regulatorischer Compliance zu identifizieren und Formulierungen vorzuschlagen.

Mehrere KI-Agenten in Versicherungsunternehmen:

  • Produktentwicklung mit KI-Agenten: In diesem Beispiel kollaborieren fünf KI-Agenten. Zunächst identifiziert ein Marktanalyse-Agent Trends und Kundenbedürfnisse. Ein Risikobewertungs-Agent bewertet potenzielle Risiken. Ein Preisgestaltungs-Agent errechnet mögliche Prämien auf Basis der Risikoanalyse. Ein Produktdesign-Agent erstellt ein Produktkonzept unter Beachtung von Kundenbedürfnissen und Prämientabellen. Ein AVB-Agent erstellt schließlich ein geeignetes AVB-Werk. Jeder Agent hat folglich seine spezifische Aufgabe und in Zusammenarbeit wird ein marktfähiges Versicherungsprodukt erstellt.
  • IT-Support mit KI-Agenten: Dieses Szenario lässt mehrere KI-Agenten kooperieren, um den IT-Support für Tickets zu übernehmen. Ein Ticket-Kategorisierungs-Agent sortiert eingehende Meldungen nach Dringlichkeit und Typ. Ein Diagnostik-Agent analysiert häufige Probleme und bietet zusammen mit einem Lösungsvorschlags-Agenten entsprechende Lösungen an. Bei komplexeren Schwierigkeiten leitet ein Eskalations-Agent die Ticket-Anfragen an menschliche Mitarbeitende weiter. Ein Berichts-Agent erstellt Analysen zur Ticket-Bearbeitung. Schließlich entwickelt ein Code-Generierungs-Agent Codeänderungen zur Behebung identifizierter Systemfehler. Im Gesamtergebnis werden Support-Prozesse automatisiert und effizient gestaltet. 

Welche Chancen und Risiken gehen mit der Nutzung von KI-Agenten einher?

Die Chancen von KI-Agenten liegen auf der Hand, wir möchten uns auf die drei wichtigsten fokussieren:

  • Effizienzsteigerung durch Automatisierung von Tätigkeiten
  • Datenbasiertes Agieren oder Entscheiden ohne Einfluss menschlicher Emotionen
  • Überkompensation einmaliger Implementierungsaufwände durch langfristig realisierbare Personalkosteneinsparungen 
    Den Chancen stehen Risiken gegenüber, denen schon vor dem Einsatz von KI-Agenten aktiv begegnet werden sollte. Auch hier fokussieren wir auf die drei aus unserer Sicht bedeutsamsten Risiken gerade mit Blick auf das Spezifikum eines Agenten, dass er eigenständig handeln und entscheiden kann:
  • Risiko unkontrollierter oder verzogener Entscheidungen; verursacht durch Bias, Halluzieren oder Mangel an ex ante festgesetzten Einschränkungen oder Regeln
  • Mangelnde Verantwortlichkeit für KI-basierte Entscheidungen oder Handlungen aufgrund fehlender persönlicher Rechenschaftspflicht von Angestellten oder Führungskräften
  • Ungewollte Abkehr vom Entrepreneurship-Gedanken durch Delegation von Tätigkeiten an Technologie statt menschliche Arbeitskräfte, die aus sozialen wie ökonomischen Aspekten auf eine Anstellung angewiesen sind.

Fazit

Um das angedeutete Potenzial von KI-Agenten zu entfalten, bedarf es – neben dem Schaffen der technischen Voraussetzungen wie flexiblen und sicheren Plattformen, auf denen die KI-Agenten entwickelt, betrieben und überwacht werden – einer intensiven Auseinandersetzung mit den genannten Risiken auf Ebene der Unternehmensleitung. Zudem muss jeglicher Einsatz von KI-Agenten in ein Rahmenwerk zur KI-Governance eingebettet sein, welches eine rechtssichere Grundlage für den KI-Einsatz schafft. Dabei ist neben dem Prozess der Entscheidungsfindung insbesondere der Zugriff auf interne und externe Daten zu regeln. 

In unserem nächsten Artikel werden wir das Konzept des KI-Agenten erneut aufgreifen und uns auf die Möglichkeit der Automatisierung von Massenprozessen konzentrieren. KI fungiert somit immer stärker als eigenständiger Unternehmensangestellter. 

Wenn Sie entdecken möchten, wie Capco bei der Gestaltung einer KI-Governance als maßgebendes Rahmenwerk zum Einsatz von KI vorgeht, kontaktieren Sie uns gerne. Erfahren Sie ebenfalls, wie sich ein KI-basiertes Target Operating Model (TOM) gestalten lässt. 

 

25 March 2025

Dr. Lina Schroeppel

 

1 Diversity gehört zu den Kernwerten von Capco. Um Texte für Sie so kurz wie möglich zu halten, lesen Sie an einigen Stellen nur die männliche Form, gemeint sind jedoch ausdrücklich sämtliche Geschlechter.
2 Siehe Perplexity, zuletzt aufgerufen am 10.03.2025.
3 Siehe AutogenAI | AI Proposal Writing Solutions for Businesses, zuletzt aufgerufen am 10.03.2025.
4 Siehe CrewAI, zuletzt aufgerufen am 10.03.2025.
5 Siehe Azure AI Agent Service: Revolutionizing AI Agent Development and Deployment, zuletzt aufgerufen am 10.03.2025.
6 Siehe Understanding The Impact of AI Agents, zuletzt aufgerufen am 10.03.2025 und in deutscher Sprache übersetzt.
7 Siehe Newwhitepaper_Agents.pdf, zuletzt aufgerufen am 10.03.2025.
8 Die sogenannte Runtime ist die Phase, in der ein Programm aktiv läuft und seine Aufgaben ausführt, nachdem es gestartet wurde.

 

Kontakt

Wenn Sie mehr über die Zusammenarbeit mit Capco erfahren möchten und wie wir Sie bei der Bewältigung möglicher Herausforderungen unterstützen können, kontaktieren Sie unsere Expertinnen und Experten über das untenstehende Kontaktformular.