Entscheidend für KI-Projekte: Datenqualität


Eine unzureichende Datenqualität muss nicht unmittelbar auffallen, kann aber gravierende Auswirkungen auf ein Unternehmen haben, wohingegen eine hohe Datenqualität die Basis für viele Digitalisierungsprojekte und die Entwicklung neuer Geschäftsmodelle darstellt. Das sollte für Versicherer Anreiz genug sein, sich mit dem Thema zu beschäftigen.

Kleine Ursache, große Wirkung: Der „Mars Climate Orbiter“ sollte der NASA eigentlich neue Erkenntnisse über die Atmosphäre des Mars bringen. Doch leider führte ein Einheitenfehler dazu, dass die Sonde einen falschen Kurs nahm und im All verglühte. Ein, zugegeben, spektakuläres Beispiel dafür, was unzureichende Datenqualität bewirken kann. Ähnlich gravierend kann sich unzureichende Qualität der Daten aber auch bei Versicherern auswirken, wenn es um die Nutzung von KI geht.

KI ist kein Wunderwerk

Die in KI-Methoden gesetzten Erwartungen sind hoch. Informationen aus dem IoT bilden die Basis für Telematik-Tarife oder parametrische Versicherungen. Mithilfe von Techniken der „Künstlichen Intelligenz“, wie maschinelles Lernen und Predictive Analytics, wollen Versicherer mehr über das Verhalten der Versicherten herausfinden. KI-Analysen sollen wichtige Impulse liefern, um neue Produkte zu entwickeln sowie deren Rentabilität und Risiken zu kalkulieren.

Für viele Entscheider in Unternehmen bleibt der Begriff der KI allerdings abstrakt. Es scheint sich um ein Wunderwerk der modernen IT zu handeln und dabei wird schnell vergessen, dass KI von Menschen entwickelt wird. Und die können weiterhin Fehler machen oder aber ihre eigenen Ansichten und Werte in die Entwicklung von Algorithmen einfließen lassen.

KI ist auf Daten angewiesen. Diese müssen in großen Mengen vorliegen und korrekte Informationen liefern. Und um die Korrektheit steht es dabei nicht immer zum Besten.

Schlechte Daten führen zu schlechten Annahmen

Gerade weil Menschen Fehler machen, kommt es auch immer wieder zur falschen Erfassung von Informationen. Ein Zahlendreher in einer Eingabemaske oder eine falsche Auswahl in einem Formular führen dann etwa zu nicht korrekten Anschriften oder Anreden in den Stammdaten von Kundinnen und Kunden. Eine fehlerhafte Adressierung in einem Mailing wirkt lediglich unprofessionell und kann rasch korrigiert werden.

Gravierender sind aber Falschinformationen spätestens dann, wenn unternehmenskritische Prozesse auf unzureichenden Daten basieren (wie die Risikoanalyse und das Risk Management) oder sie in KI-Analysen einfließen.

KI unterscheidet sich hier nicht von einer Standardsoftware wie Photoshop. Selbst der beste Algorithmus kann aus einem schlechten Foto kein Meisterwerk kreieren. Und die beste KI-Analysetechnik wird das Unternehmen auf die falsche Fährte führen, wenn die Datenqualität nicht stimmt.

Viele Fehlerquellen: Datenqualität messen
 
Die Qualität von Daten lässt sich anhand einer Reihe von Parametern messen. Dazu gehören etwa die Vollständigkeit, Korrektheit, Aktualität, Eindeutigkeit und Konsistenz. Fehlerquellen, die zu schlechter Datenqualität führen, gibt es im Alltag von Versicherern viele.

Da ist zuerst das menschliche Versagen bei der Erfassung oder Weiterverarbeitung von Informationen zu nennen. Großen negativen Einfluss haben auch Daten-Silos, die fast zwangsläufig zu Problemen führen, weil Informationen redundant und teilweise widersprüchlich vorliegen können.

Und auch tief im Maschinenraum der IT lauern Gefahren für die Qualität der Daten. Wenn Zentrale und Tochtergesellschaften nicht auf dem gleichen Versionsstand ihrer Core-Lösungen arbeiten, kann es durch Veränderungen der Datenmodelle zu Abweichungen und Widersprüchen in den Daten kommen.

Wirken die exemplarisch genannten Fehlerquellen auf den gesamten Datenhaushalt ein, potenzieren sich die Fehler. Und die Qualität der Daten nimmt insgesamt ab.

Versicherer benötigen eine Data Governance
 
Anhand der bereits genannten Kriterien kann die Gesamtqualität der vorhandenen Daten bestimmt werden. Um sie zu verbessern, müssen Versicherer eine zweigleisige Strategie wählen. Einerseits gilt es, die bereits vorhandenen Daten zu verbessern. Dazu gehören die Löschung redundanter Daten, nachdem die Informationen konsolidiert wurden, die Ableitung von Daten aus anderen Informationen oder auch die Vervollständigung aus alternativen Quellen.
 
Für zukünftige Daten muss eine Data Governance etabliert werden. Sie besteht aus unterschiedlichen Elementen, wie konkreten Hinweisen für die korrekte Erfassung von Daten, aber auch die softwareseitige Unterstützung bei der Erhebung und Verarbeitung, um Fehlerquellen zu verringern.
 
Eine Data Governance bedingt häufig aber auch eine Veränderung des Mindsets. Im Zeitalter datenzentrierten Arbeitens muss den Daten-Ownern auch die Wichtigkeit der Datenqualität für die gesamte Organisation vermittelt werden. Sonst kann die (zusätzliche) Erfassung von Informationen als Belastung empfunden werden, der aus Sicht des Daten-Owners kein zusätzlicher Nutzen gegenübersteht. Es braucht die Motivation, die Datenqualität auch als Unternehmenswert zu sehen. Denn sie bildet die Basis für verlässliche Reportings und KI-Projekte.

Warum sich Versicherungsunternehmen für den Einsatz von KI entscheiden und wie das erfolgreich geschieht, erfahren Sie in unserem kostenlosen Whitepaper.

Sie haben Fragen oder Anmerkungen? Dann hinterlassen Sie uns gerne einen Kommentar.

Alle Artikel

Sie haben Interesse an Produkten von adesso insurance solutions?

Hier finden Sie eine Übersicht aller Software-Lösungen für alle Versicherungssparten – für Bestandsführung, Leistungsmanagement, Schadenbearbeitung, Produktmodellierung oder zur allgemeinen Digitalisierung.

Zur Produktseite