In unserem ersten Beitrag haben wir datenarme Anwendungsfälle generativer KI in der Versicherungwirtschaft betrachtet – und einige typische Kennzeichen identifiziert:
Diese auf den Nutzer bezogenen Kriterien gelten auch für datenreiche Anwendungsfälle, egal welcher Art. Datenreiche unterscheiden sich allerdings von datenarmen Anwendungsfällen dadurch, dass über den Prompt hinaus, zusätzliche Daten zum Einsatz kommen (siehe Tabelle 1 zur Typisierung datenarmer und datenreicher Anwendungsfälle). Ein typischer Anwendungsfall ist der Chatbot. Sein Zweck ist es, den Experten zu entlasten, an den sich der Laie zur Klärung von Fragen richtet. Chatbots werden gerne im Innen- oder Außendienst von Unternehmen genutzt. Mit der Entlastung der Experten geht eine Beschleunigung des Prozesses einher. Der Kunde erhält schneller kompetente Antwort, was potenziell die Kundenzufriedenheit steigert. Moral und gefühlter Selbstwert der Mitarbeiter gehen ebenso nach oben, weil sie dem Kunden direkt helfen können. Zudem ändert sich mit der Einführung eines Chatbots auch der Ablauf des Prozesses. Hier zeigt sich ein weiterer grundlegender Unterschied zwischen datenarmen und datenreichen Anwendungsfällen: letztere verändern immer den Prozessablauf.
Typ Anwendungsfall | Datenarm | Datenreich |
---|---|---|
Input | Prompt | Prompt und zusätzliche Daten |
Einfluss auf Prozessablauf | Prozesse bleiben gleich | Prozesse ändern sich |
Das Versprechen an Experten, Belegschaft und Kunden kann der Chatbot jedoch nur dann halten, wenn seine Antworten sich qualitativ mit den Antworten der Experten messen lassen können. Aufgrund der Spezifizität der Daten ist in aller Regel nicht davon auszugehen, dass sich die geforderte Qualität ohne weiteres Zutun einstellt. Die generative KI muss vielmehr auf die unternehmensspezifischen Daten abgestimmt werden, damit die Ergebnisse eine akzeptable Qualität erzielen. Chatbots sind auch deshalb ein beliebter Anwendungsfall für den Einstieg in generative KI, weil die Abstimmung der Daten vergleichsweise einfach gehalten werden kann:
Sind mit der Eingrenzbarkeit und der Stabilität des Inhalts beide Kriterien für eine einfache Abstimmung der Daten gegeben, muss das Sprachmodell normalerweise nicht auf diese trainiert werden. Stattdessen werden sie lediglich so angepasst, dass der Chatbot sie maschinell verarbeiten kann. Diese Art der Abstimmung der Daten auf den Chatbot wird Einbettung genannt.
Typ Anwendungsfall | Datenreich – einfach |
---|---|
Input | Prompt und zusätzliche Daten |
Komplexität des Inputs | Einfach |
Stabilität des Inputs in der Zeit | Stabil, Input ändert sich nicht |
Trainingsbedarf | Einbettung, kein Training erforderlich |
Beispiel Anwendungsfall | Chatbot zu Bedingungswerk |
Tabelle 2: Kennzeichen einfacher datenreicher Anwendungsfälle
Ein weiterer Umstand qualifiziert den Chatbot zum Einsteigermodell generativer KI. Chatbots können zunächst intern genutzt werden. Das Bedingungswerk einer Kfz-Versicherung ist so komplex, dass zwar die Experten aus dem Produktmanagement den Inhalt verstehen. Anderen internen Nutzergruppen etwa aus Vertrieb oder Telefonie fehlt dagegen dieses Detailverständnis. Aber gerade diese Nutzergruppen werden in ihrem Arbeitsalltag immer wieder mit Kundenfragen konfrontiert, zu deren Beantworung ein gewisses Maß an Detail- und Spezialwissen erforderlich ist. Dieses Wissen wird dem Vertrieb oder der Telefonie jetzt mit dem Chatbot bereitgestellt. Die interne Nutzung bedeutet darüber hinaus, dass sich das Unternehmen mit dem Chatbot nicht gleich zu Beginn der Nutzung extern in Richtung Markt und Kunden exponieren muss. Damit wird vermieden, dass sich Kunden oder Wettbewerber etwaige Schwächen umstandslos zunutze machen oder das Unternehmen schädigen können. Welche Folgen dies haben kann, zeigt zum Beispiel der Fall von Microsofts Chatbot „Tay“ im Jahre 2016. „Tay“ fiel im Dialog mit den Nutzern durch rassistische Antworten auf. Einige Nutzer hatten in Kontakt mit dem Chatbot gezielt rassistische Inhalte platziert, die in der Folge von Tay reproduziert wurden. Microsoft legte Tay nach kurzer Zeit still, um weitere Reputationsschäden zu vermeiden.2
Die interne Nutzung eines Chatbots schließt natürlich falsche Antworten genauso wenig aus wie deren Übermittlung an Kunden. Allerdings verlassen solche Fehler zum einen in der Regel nicht den Kontext eines konkreten Kundengesprächs, was den Schaden begrenzt. Zum anderen werden Vertrieb oder Telefonie allzu krude Fehler eines Chatbots eigenständig identifzieren können. Zur Vermeidung solcher Schäden, gilt es Sicherheitsnetze im weiteren Prozess aufzuspannen. Ein solches Sicherheitsnetz besteht zum Beispiel in der Auswertung der gesammelten Antworten des Chatbots. Häufig lassen sich dadurch die Ursachen für Fehler identifizieren und beseitigen.
Wo es einfache datenreiche Anwendungfälle gibt, da sind komplexe datenreiche Anwendungsfälle nicht fern. Interessiert? Dann freuen Sie sich auf den dritten Artikel der Serie, der in Kürze erscheint!
Capco besitzt umfassende Erfahrungen, diese und andere Sicherheitnetze für generative KI herzustellen und anzuwenden. Kontaktieren Sie uns und finden Sie heraus, wie wir Sie bei der Implementierung erfolgreicher Anwendungsfälle unterstützen können – von der initialien Idee bis zur Skalierung der generativen KI in einer Use Case Factory!
1 Diversity gehört zu den Kernwerten von Capco. Um Texte für sie so kurz wie möglich zu halten, lesen sie an einigen Stellen nur die männliche Form, gemeint sind jedoch ausdrücklich sämtliche Geschlechter.
2 Ein frühes Beispiel von Microsoft: Künstliche Dummheit: Microsofts Chat-Bot Tay wird zum Rassisten - Business Insider