N

„Deep Fakes“ – eine Bedrohung für Versicherer?

„Deep Fakes“ – eine Bedrohung für Versicherer?


Zu den Schattenseiten der Digitalisierung gehören „Deep Fakes”. Diese mit Hilfe von KI produzierten Fotos, Audio- und Videoaufnahmen spiegeln eine Realität vor, die nicht existiert. Und das hat Folgen für die Versicherungswirtschaft.

In Vor- und Grundschule wird Kindern vermittelt, am besten nur das zu glauben, was sie mit eigenen Augen gesehen oder direkt gehört haben. Aber was, wenn das, was wir sehen, gar nicht existiert, sondern eine am Computer entstandene Fälschung ist? Sogenannte „Deep Fakes” können so real erscheinen, dass sie für den Menschen nicht mehr als Manipulation zu erkennen sind.

Spektakulärer Fall in Großbritannien

Genügend kriminelle Energie und ein mit KI ergänztes Computersystem vorausgesetzt, entstehen glaubwürdige und überzeugende Fälschungen. Für Schlagzeilen sorgte im Herbst 2019 ein Fall aus Großbritannien. Nachdem er einen Anruf seines Chefs erhalten hatte, entsprach der Mitarbeiter dessen Bitte und transferierte über 200.000 Euro auf das gewünschte Konto. Der Mitarbeiter wunderte sich zwar, aber da er die Stimme seiner Führungskraft erkannte, folgte er der Anweisung.

Doch der Anruf war ein „Deep Fake”. Die wohlbekannte Stimme wurde synthetisch erzeugt. Der entstandene Schaden musste im Rahmen der Vertrauensschadenversicherung reguliert werden.

Neue Formen des Versicherungsbetruges

Versicherungsbetrug mit gefälschten Beweisen ist keine neue Erscheinung. Doch während im Zeitalter analoger Fotografie Mühe und Fachkenntnisse nötig waren, um Beweisfotos in der Qualität zu fälschen, dass Sachbearbeiter:innen keinen Verdacht schöpften, sind heute Werkzeuge zur Bildmanipulation Bestandteil jeder Bildbearbeitungs-Software. Mit wenigen Mausklicks lassen sich Objekte ausschneiden und verändern. KI-Systeme optimieren anschließend die Manipulationen.

Die unaufhaltsamen Fortschritte in der Technologie führen zu „Deep Fakes” in unterschiedlichen Erscheinungsformen und damit verschiedenen Betrugsformen wie z. B. manipulierte Fotos, die als Beweis der Schadensmeldung beigefügt werden oder den Besitz einer angeblich entwendeten Sache nur vorspiegeln.

Denkbar sind auch Videoaufnahmen, die vorgeblich aus Überwachungseinrichtungen stammen und als Nachweis eines Schadens herhalten müssen. Oder, wie im geschilderten Fall, Telefonate und Sprachbotschaften, die Menschen zu Handlungen animieren, die dann im Kern zu Schäden führen, die reguliert werden müssen.

Das Arsenal an Werkzeugen ist vorhanden und dabei geht es längst nicht nur um den Gelegenheitsbetrüger, der die Regulation von angeblichem Vandalismus erbittet.

Und nicht zu vergessen ist ein umgekehrter Effekt: Mit dem Hinweis auf „Deep Fakes” können Beweise infrage gestellt werden.

Die Welt des Risikomanagements wird somit noch unübersichtlicher.

KI kann KI enttarnen
 
Das Schadenspotenzial, das sich mittel- und langfristig aus „Deep Fakes” für die Versicherungswirtschaft ergibt, dürfte deutlich sein. Doch zu Pessimismus besteht kein Anlass, denn die Gesellschaften sind diesem Treiben nicht hilflos ausgeliefert. KI kann eben nicht nur gegen die Versicherer, sondern auch von ihnen selbst eingesetzt werden. Und (noch) lassen sich „Deep Fakes” enttarnen und Manipulationen erkennen.

Kleine Veränderungen in der Modulation der Stimme, für den Menschen nicht hörbar, werden in einer Computeranalyse sichtbar. Für das menschliche Auge nur schwer erkennbare Nuancen in den Lichtverhältnissen auf einem Foto oder Video können KI-Analysen entdecken.

„Deep Fakes” sollten von der Versicherungswirtschaft zwar nicht auf die leichte Schulter genommen werden, wer aber die Herausforderungen annimmt und in KI-Technologie zur Betrugsprävention investiert, stellt Waffengleichheit mit den Kriminellen her. Auf diese Weise verhindern Versicherer, dass sich „Deep Fakes” zu einem Alptraum ihres Geschäftsmodells entwickeln.

Sie möchten mehr zu unseren KI-Lösungen für Betrugsidentifikation erfahren? Dann nehmen Sie direkt Kontakt mit unserem Experten Karsten Schmitt auf oder wollen Sie mehr zum Thema lesen dann geht's hier weiter.

Alle Artikel