Potenziale und Risiken: Large Language Models bei Versicherern


Selbstlernende künstliche Intelligenz-Modelle haben in den letzten Jahren bedeutende Fortschritte gemacht. Eines dieser bemerkenswerten Modelle ist ChatGPT.

Dieses basiert auf dem GPT-3.5-Modell und zeichnet sich durch seine Fähigkeit aus, natürliche Sprache zu verstehen und menschenähnliche Texte zu generieren. Es bietet zahlreiche Anwendungen, von der Texterstellung bis zur Beantwortung komplexer Fragen. Im Nachfolgenden werden die Funktionsweise, Anwendungsgebiete sowie die Chancen und Risiken von ChatGPT in der Versicherungsbranche dargestellt.

Künstliche Intelligenz bei LLMs

Das in Sprachmodellen eingesetzte Machine-Learning-Modell bzw. das darauf basierende Large Language Model (LLM) ist ein Teilbereich der Künstlichen Intelligenz zur Verarbeitung von natürlicher Sprache (Natural Language Processing – NLP).
Large Language Models verstehen, verarbeiten und generieren natürliche Sprache als eine Form von generativer Künstlicher Intelligenz für textbasierte Inhalte.

Sie sind für viele Aufgaben wie für das Beantworten von Fragen, das Zusammenfassen, Vervollständigen, Übersetzen oder das Erzeugen von Daten einsetzbar. Eine echte KI ist selbstlernend. Sie lernt aus Erfahrungen und verbessert dazu fortwährend ihre Entscheidungsregeln mit Hilfe von Trainingsdaten und Zeit. Im Gegensatz zu regelbasierter Software lassen sich die Resultate ihrer Rechenvorgänge nicht exakt voraussagen.

Large Language Models

Um die Komplexität von Sprache erfassen zu können, beschreibt der eingesetzte Algorithmus im jeweiligen Kontext Wörter und Satzzeichen, um maschinelle Rechenoperationen durchzuführen.
Diese Informationen werden in Parametern gespeichert. Da die menschliche Sprache sehr komplex ist, gibt es sehr zu ihrer Beschreibung viele solcher Parameter. Daher wird auch der Ausdruck „Large“ Language Models genutzt. Übersetzt bedeutet dies etwa so viel wie „Große Sprachmodelle“. Diese trainierten Sprachmodelle kommen mit komplexen Fragestellungen zurecht und können so schlüssige Antworten liefern.
LLMs basieren auf Künstlichen Neuronalen Netzwerken. Diese neuronalen Netze verwenden Deep-Learning-Algorithmen und werden mit einer Reihe von Texten und Informationen trainiert. Mittlerweile können diese Sprachmodelle sogar Aufgaben lösen, für die sie nicht trainiert wurden. Ein Beispiel wäre hierzu das Erstellen von Programmcode in diversen Programmiersprachen.

Was können LLMs leisten und was nicht?

Neben ChatGPT gibt es eine ganze Reihe an künstlichen Sprachmodellen, deren Einsatzgebiet und Zweck mitunter sehr unterschiedlich ausgerichtet sind. Antrainiertes Wissen und der Bezug von Informationen stammen oft aus verschiedenen Quellen und haben mitunter einen zeitlichen Versatz.
ChatGPT-3 beispielsweise verfügt über einen Wissensstand bis zum Jahr 2021 und wurde mit ca. 175 Milliarden Parametern trainiert, wohingegen die Version 4 aktuelle Daten aus dem Internet beziehen kann und mit ca. 100 Billionen Parametern trainiert wurde.
Allein daran ist erkennbar, welch große Differenzen zwischen den einzelnen Sprachmodellen möglich sind. Dennoch sind bestimmte Grundfähigkeiten oder Grundlagen recht ähnlich und erst diese zeichnen „intelligente“ Sprachmodelle aus.
Sie produzieren einen inhaltlich grammatikalischen, logischen und fehlerfreien (im Sinne der Rechtschreibung) Text und integrieren dabei vergangene Gesprächsprotokolle zu der Person, welche das Sprachmodell nutzt. Hierbei muss allerdings zwischen Grundkompetenzen und funktionalen Kompetenzen unterschieden werden. Zu den funktionalen Kompetenzen können das Erstellen von Strategien, Routinen oder Vorstellungsvermögen sein.
Funktionale Kompetenz ist bisher nur vereinzelt zu beobachten. Dies liegt auch daran, dass bisher eine sogenannte „schwache KI“ im Einsatz ist.
Diese definiert sich so, dass sie für spezielle und definierte Aufgaben eingesetzt wird und nicht wie eine „starke KI“ menschliche Intelligenz erreicht oder übersteigt sowie Problemlösungsfähigkeit auf beliebige Problemstellungen anwenden kann.

Um diesen „Human-Level AI“ genannten Stand der KI zu erreichen, wäre eine Hardware nötig, die mit dem menschlichen Gehirn vergleichbar ist. Dazu hat das Center for Data Innovation im Jahr 2016 einige Beispiele aufgezählt. Zu diesem Level zählt unter anderem auch das Schreiben von Programmiercodes, was aber aktuell durchaus schon möglich ist. Das verdeutlicht, wie schnell sich eine „schwache KI“ innerhalb von nur sieben Jahren weiterentwickeln kann.
Auch täuschend echte Bilder können mittlerweile von einer KI erstellt werden. Dazu eignen sich am besten die bekannten Plattformen wie Midjourney, DALL-E oder ArtSmart.

Large Language Models haben also einen breiten Zugriff auf Informationen von Trainingsdaten und unter Umständen auch auf aktuelle Daten aus dem Internet. Somit können diese beispielsweise ein guter Start für eine Recherche sein, da die Antworten durch gezielte Fragestellungen sehr umfangreich ausfallen. Automatisiert geschriebener Code oder täuschend echt erzeugte Bilder stellen jedoch viele Finanz- und Versicherungsdienstleister vor große Risiken. Es bleiben die Fragen offen, worin die Chancen für diese Branchen bestehen und an welchen Stellen im Kontext Versicherung ein LLM an seine Grenzen stößt.

Chancen und Risiken beim Einsatz von künstlichen Sprachmodellen in der Versicherungsbranche

Auch die Versicherungsbranche muss sich neuen Innovationen gegenüber öffnen und experimentierfreudig sein. Gerade in einer solch regulierten Branche fällt es aber oft schwer, neue Entwicklungen direkt einzusetzen, ohne rechtliche Bedenken haben zu müssen. So ist das Thema Datenschutz allgegenwärtig und muss im Umgang mit peniblen Informationen der Kunden ständig Beachtung finden. Gerade Tools, die von Unternehmen mit Sitz außerhalb der EU betrieben werden, sollten dabei im Fokus stehen.
So kann ebenfalls die interne Verwendung von ChatGPT schon ein Problem sein, wenn personenbezogene Daten dabei preisgegeben werden – auch wenn es sehr verlockend ist, sich eine gute Formulierung für ein Kundenanschreiben von einem intelligenten Sprachmodell ausgeben zu lassen. Jedoch kann dies ebenso ein Ansporn für das Unternehmen sein, solche Sprachmodelle in ein eigenes Tool einzubinden – nur eben datenschutzkonform. So ist der erste Prototyp bei adesso bereits im Einsatz und hilft nicht nur dabei, Wissen aus dem Internet zu beschaffen, sondern auch Informationen im Intranet schnell und einfach finden zu können.
Jedoch gibt es auch hier Beschränkungen. Sollte ein solcher „PfefferminziaGPT“ in sensiblen Abteilungen zum Einsatz kommen (beispielsweise um Leistungsfälle zu bearbeiten), muss dieser mit sehr vielen Datensätzen trainiert werden. Um einen datenschutzkonformen Umgang zu gewährleisten, ist es jedoch schwierig, den Chatbot mit externen Trainingsdaten weiterzuentwickeln, da hierfür sehr spezifische Datensätze nötig sind. Interne Datensammlungen reichen meist nicht aus (siehe Anzahl der Trainingssätze bei ChatGPT).

Eine große Unterstützung können jedoch selbstlernende Chatbots bei weniger anspruchsvollen Aufgaben sein. So können Supportanfragen, Schadensmeldungen oder Use-Case-abhängiges Routen zum Fachbereich mit Hilfe der KI bereits im Vorfeld gefiltert und beantwortet sowie Folgeprozesse angestoßen werden. Ein Einsatz eines durchschnittlichen Chatbots kann das Aufkommen an Supportanfragen bereits um ca. 12 % reduzieren. Da die Idee eines Chatbots nicht neu ist und bereits vermehrt eingesetzt wird, können sich die automatisiert beantworteten Kundenanfragen im Laufe der Zeit jedoch auch noch erhöhen. Denn mit dem Durchbruch im Jahr 2022/2023 von OpenAI durch ChatGPT und andere Anbieter sowie dem damit verbundenen allgemeinen Fortschritt in diesem Bereich wurden und werden viele Systeme stark verbessert.

Sprachmodelle in der Krankenversicherung

Neben den bereits dargestellten Stärken bietet ein solches Sprachmodell auch Hilfe bei der Recherche im Kontext der Krankenversicherung. Detaillierte Diagnosen und Krankenberichte können zusammengefasst und eine Recherche dazu gestartet werden, um dem Mitarbeitenden in einfachen Worten zu erklären, um was und um welche Krankheit es sich in diesem Fall handelt und welche Folgeprozesse angestoßen werden sollten (beispielsweise das Einholen einer Zweitmeinung). Man sollte nicht verschweigen, dass ChatGPT und Co aber auch Möglichkeiten zum Betrug eröffnen, wie Christoph Dombrowski in diesem Blogbeitrag darlegt.

All diesen Möglichkeiten steht jedoch bei komplexen Prozessen oft eine Tatsache im Weg: Entscheidungen, insbesondere sensible Entscheidungen mit weitreichenden Konsequenzen, wie z. B. die Entscheidung über das Vorliegen oder Nichtvorliegen einer Berufsunfähigkeit, müssen nachvollziehbar und wiederholbar sein. Das heißt, eine Entscheidung muss morgen genauso ausfallen wie heute. Da das Innere einer KI aber oft einer Art „Black Box“ gleicht, ist die Umsetzung hier noch relativ schwierig. Dennoch können aber auch unterstützende Tätigkeiten schon sehr hilfreich sein. So kann das Modell zur Plausibilisierung von Gesundheitsfragen eingesetzt werden. Entscheidungen, ob z. B. weitere ärztliche Berichte erforderlich sind oder nicht, können so direkt vor Ort beim Kunden in Sekundenschnelle getroffen werden.

Ein Einsatz – auch mit Schutzeinrichtungen – ist jedoch nicht frei von Restrisiken. Diese können in Form von Cyberangriffen (auf das KI-System) oder Ähnlichem auftreten. Auch die Manipulation des KI-Systems selbst stellt ein hohes Risiko dar. Dahinter muss nicht immer eine böswillige Absicht stecken. Auch Unachtsamkeit oder ein zu großer Vertrauensvorschuss können zu unerwünschten Ergebnissen führen. So sollten Ergebnisse der KI nicht ungeprüft übernommen werden, da es hierbei auch oft zu Falschaussagen kommt.

Wie sollte dann mit Risiken umgegangen werden, ohne dass es zu restriktiven Einschränkungen kommt?

Es bleibt nun die Frage offen, wie mit den Risiken umgegangen werden kann und mit welchen Mitteln sich gleichzeitig die Potentiale weiter ausbauen lassen. Eine pauschale Antwort oder Lösung für alle Risiken ist weder darstellbar noch realistisch. Selbst wenn gewisse Risikofaktoren eingeschränkt werden könnten, verringert das im gleichen Schritt die Chancen der KI. Dennoch können gewisse Regeln und Vorkehrungen helfen, die Sicherheit zu erhöhen, ohne dass die digitale Revolution gebremst wird.
Durch Schulung und Sensibilisierung können viele Gefahren im Vorfeld vermieden werden. Versicherungsunternehmen sollten bewusst alle relevanten digitalen Möglichkeiten testen und eine Chancen-Risiken-Abwägung vornehmen. Auch für bereits eingesetzte KI-Tools muss ein rollierender Prozess stattfinden.
Im Rahmen der täglichen Arbeiten sollten auch Chatbots nicht per se ausgeschlossen werden. Eine Umfrage von Bitkom hat herausgefunden, dass bereits 53 % der Schüler ChatGPT genutzt haben. So lässt sich erkennen, dass auch in Zukunft dieses Werkzeug zunehmend Beachtung finden wird. Es sollte dabei kontrolliert und reflektiert eingesetzt werden und eher als eine Art Sparringspartner dienen.

Sie möchten mehr über moderne Versicherungssoftware erfahren? Dann wenden Sie sich gerne an unseren Experten Karsten Schmitt, Senior Business Developer bei adesso insurance solutions.

Sie haben Fragen oder Anmerkungen? Dann hinterlassen Sie uns gerne einen Kommentar.

Alle Artikel

Sie haben Interesse an Produkten von adesso insurance solutions?

Hier finden Sie eine Übersicht aller Software-Lösungen für alle Versicherungssparten – für Bestandsführung, Leistungsmanagement, Schadenbearbeitung, Produktmodellierung oder zur allgemeinen Digitalisierung.

Zur Produktseite
}