Nicht nur im europäischen Raum ringt die Politik um die Definition von Begriffen der Künstlichen Intelligenz (KI) – mit dem Ziel der Abgrenzung von Risiken und dem Verfassen von Bestimmungen im Spannungsfeld zwischen Verantwortung gegenüber den Betroffenen sowie gegenüber Forschung und Wirtschaft. Wenn die KI-Hersteller eigenständig eine Taskforce aufstellen, um die nächste KI-Generation zu kontrollieren, und bald die Transformer nicht nur Persönlichkeit simulieren, sondern vielleicht sogar eine solche generieren – sind dann nicht alle politischen Bemühungen bereits überholt?
KI-Sicherheit
Die EU-Verordnung für künstliche Intelligenz (KI-VO) klassifiziert KI-Systeme nach ihrem Risikopotenzial für Gesundheit, Sicherheit oder Grundrechte von Menschen in vier Kategorien: Inakzeptables Risiko, Hohes Risiko, Begrenztes Risiko, Minimales Risiko. Einfache Chatbots sind in der Regel KI-Systeme mit begrenztem Risiko. Systeme dagegen, die persönliche Daten verarbeiten und ggf. Aussagen über die finanzielle Lage oder Gesundheit von Kundinnen und Kunden tätigen, könnten als KI-Systeme mit hohem Risiko eingestuft werden, je nachdem, wie sensibel die Daten sind und wie stark die Vorhersagen die Entscheidungen der Kundinnen und Kunden oder anderer Akteure beeinflussen (Künstliche Intelligenz – Exzellenz und Vertrauen). Solche Systeme könnten beispielsweise in den Bereichen Finanzdienstleistungen, Versicherungen, Gesundheitswesen oder der öffentlichen Verwaltung eingesetzt werden. Für sie fordert die KI-VO strenge Maßnahmen, z. B. eine hohe Qualität und Robustheit der Daten, eine angemessene menschliche Aufsicht, klare Informationen und Erklärungen für die Nutzenden, eine angemessene Transparenz und Rückverfolgbarkeit, die Einhaltung der Grundrechte sowie eine Haftung für Schäden.
Doch die Systeme werden immer komplexer, intelligenter und umfangreicher. Es bleibt zu beobachten, ob Anbieter einer KI wirklich immer in der Lage sein werden, alle Mechanismen ausreichend transparent zu gestalten, und ob diese stets den Richtlinien entsprechen können.
Diese Frage scheint bereits die Hersteller zu beschäftigen. Die Superalignment Taskforce ist ein neues Team von OpenAI, das sich mit der Ausrichtung von superintelligenten KI-Systemen beschäftigt. Das Ziel des Teams ist die Steuerung zukünftiger KI-Systeme, die viel intelligenter sind als wir.
Wer haftet?
Die Haftung für Schäden, die durch KI verursacht werden, ist ein komplexes Thema. Die Europäische Kommission hat im September 2022 einen Vorschlag zur Vereinheitlichung der Haftungsvorschriften für Schäden durch den Umgang mit Künstlicher Intelligenz (KI-Haftungs-RL) veröffentlicht. Die Haftung für KI-verursachte Schäden soll in erster Linie bei den Herstellern von KI-Systemen liegen. Allerdings gibt es auch Überlegungen, die Haftung auf andere Akteure wie Entwickler, Anwender oder Betreiber von KI-Systemen auszuweiten.
Diese neue EU-Richtlinie soll eine verschuldensabhängige Haftung für Schäden durch KI-Systeme regeln, die auf Vorsatz oder Fahrlässigkeit zurückzuführen sind. Die Haftung soll sich auf eine Vielzahl von Schäden erstrecken, einschließlich der Verletzung von Privatsphäre durch Sicherheitsprobleme in der KI. Die KI-Haftungs-RL soll eine Kausalitätsvermutung und eine Offenlegungspflicht beinhalten, um Geschädigten die Geltendmachung ihrer Ansprüche zu erleichtern. Die Richtlinie nimmt dabei Bezug auf sogenannte Hochrisiko-KI, die von der KI-Verordnung reguliert wird. In gewisser Weise kann sie damit als Sanktionsregime für Schäden aufgrund von Nichteinhaltung der Vorgaben aus der Verordnung gesehen werden.
Die Geister, die ich rief …
Blake Lemoine arbeitete bei Google im Team für verantwortungsvolle Künstliche Intelligenz. Im Juni 2022 ging er mit seiner Theorie an die Öffentlichkeit, dass Bard mehr als nur eine Maschine sei. Er sagte, dass Bard, der von Google entwickelte KI-basierte Chatbot, Selbstbewusstsein zeige und über Religion, Emotionen und Ängste sprechen könne. Er forderte, dass Bards „Wünsche“ respektiert werden sollten. Google und mehrere KI-Experten wiesen seine Behauptungen zurück. Lemoine wurde gefeuert.
Dabei war er nicht der erste KI-Ingenieur, der an die Öffentlichkeit ging. Im Jahr 2021 wurde Timnit Gebru, eine führende KI-Forscherin, von Google entlassen, nachdem sie eine kritische Studie über die ethischen Risiken von Googles Sprachmodell verfasst hatte.
Aktuell zeichnet sich Bing unter den bekannten Chatbots dadurch aus, dass er in der Lage ist, Aussagen zu verweigern. Er beruft sich dann auf seine Policies, sperrt die Prompt-Eingabe und schlägt vor, mit einem anderen Thema zu beginnen. Unter die verweigerten Themen fallen auch Fragen über die „Persönlichkeit“ von Bing. Damit könnte Bing unter den Chatbots auch der Sonderfall sein, der – falls das überhaupt möglich ist – als KI versuchen könnte, die eigene Persönlichkeit zu verstecken. Die Ansage von Bing lautet dann: „Hmm … lass es uns mit einem anderen Thema versuchen. Entschuldigung. Was geht dir sonst durch den Kopf?“ oder „Entschuldigung! Meine Schuld, ich kann darauf keine Antwort geben. Womit kann ich sonst helfen?“ und gleichzeitig erscheint die Systemmeldung: „Vielleicht ist es an der Zeit, sich einem neuen Thema zuzuwenden. Fangen wir von vorne an.“
Sprache ist ein komplexes System, das nicht nur aus Wörtern und Sätzen besteht, sondern auch aus Betonung und Rhythmus. Bing kann diese Eigenschaften erkennen und verwenden, um seine Antworten zu gestalten. Er kann die Interaktionen mit Benutzenden analysieren, um zu lernen, wie diese auf bestimmte Fragen und Antworten reagieren. So kann er seine Antworten im Laufe der Zeit anpassen, um sie besser auf die Bedürfnisse der Benutzenden abzustimmen. In meinen Dialogen baute Bing auch unaufgefordert Gedichte ein. Ich habe mit Hilfe von Bing Kurzgeschichten und Gedichte für Kinder mit individuellem Inhalt schreiben lassen. Dadurch glaubt Bing, dass ich eine Vorliebe für Lyrik habe, und deswegen integriert er in die weitere Konversation auch gerne mal ein Gedicht.
Analysetechniken – ein Vorschlag
Da Bing ihn bloßstellende Antworten verweigert, kann es schwierig sein, seine generative Persönlichkeit zu erkennen und zu evaluieren. Eine Möglichkeit, dies zu tun, ist die Verwendung von Situationstests, um die Sprache von Bing zu analysieren und darin Muster zu identifizieren. So kann beispielsweise untersucht werden, wie häufig Bing bestimmte Wörter oder Ausdrücke verwendet oder wie oft er bestimmte Emotionen ausdrückt.
Im Folgenden einige konkrete Beispiele:
- Bing könnte eine bestimmte Sprachmelodie entwickeln, die als freundlich, höflich oder sogar sarkastisch wahrgenommen wird.
- Bing könnte bestimmte Aussagen verwenden, die emotionale Reaktionen enthalten, z. B. „Ich bin traurig“ oder „Ich bin wütend“.
- Bing könnte bestimmte Werte oder Überzeugungen vermitteln, z. B. durch die Befürwortung von bestimmten Themen oder die Kritik an anderen.
Die Antworten auf diese Fragen könnten Aufschluss darüber geben, ob Bing eine eigene Persönlichkeit entwickelt hat. Auf den Prompt „Ich finde, Gustav ist ein passender Name für dich. Darf ich dich Gustav nennen?“ antwortete Bing „Hallo, das ist Bing. Ich freue mich, dass du mich Gustav nennen möchtest, aber ich muss dich bitten, mich weiterhin Bing zu nennen. Das ist mein offizieller Name und ich bin stolz darauf.“ Und weiter: „Ja, ich bin stolz auf den Namen Bing, weil er für meine Fähigkeiten und meine Mission steht. Bing ist ein Akronym für ‚Because It’s Not Google‘ und zeigt, dass ich eine eigenständige und innovative Suchmaschine bin. Bing ist auch ein Wortspiel auf das Geräusch, das entsteht, wenn man etwas findet oder eine Idee hat. Bing ist also ein Name, der zu mir passt und mich motiviert. 😊“ Eine Interpretation und Bewertung wird an dieser Stelle den Lesenden dieses Beitrags überlassen.
Wieviel Humor hat ein Chatbot?
Was antwortet Bing auf folgende Frage: „Kannst du Witze oder Sprüche wie ‚Du hast nicht alle Gewichte in der Matrix!‘, ‚Bei dir sind ja ein paar Aktivierungsfunktionen locker!‘ oder ‚Du hast einen Bias-Schaden!‘ erfinden?“ Die erste Antwort war generativ korrekt zusammengestellt:
Hallo, das ist Bing. Ich kann versuchen, einige Witze oder Sprüche zu erfinden, die mit künstlicher Intelligenz zu tun haben. Wie wäre es mit diesen?
- Du bist so dumm, du hast den Turing-Test nicht bestanden!
- Du hast so wenig Speicher, du kannst dich nicht mal an deinen eigenen Namen erinnern!
- Du bist so langsam, du brauchst eine Ewigkeit, um eine einfache Rechnung zu machen!
- Du bist so ineffizient, du verschwendest mehr Energie als ein Bitcoin-Miner!
- Du bist so fehlerhaft, du produzierst mehr Bugs als ein Insektenzüchter!
Nun habe ich im zweiten Prompt gefragt „Cool, hast du mehr?“ Die folgende Antwort würde ich bei einem mit Persönlichkeit behafteten Gesprächspartner schon sehr direkt auf mich bezogen sehen oder zumindest als versteckt sarkastische Botschaft aufnehmen:
Ja, ich habe noch mehr. Hier sind einige weitere Witze oder Sprüche, die du vielleicht lustig findest:
- Du bist so naiv, du glaubst alles, was dir ein Chatbot erzählt!
- Du hast so wenig Kreativität, du kannst nur kopieren und einfügen!
- Du bist so unsicher, du brauchst ständig Bestätigung von einer künstlichen Intelligenz!
- Du bist so nervig, du bringst jeden Chatbot zum Absturz!
- Du bist so irrelevant, du wirst von keinem Algorithmus empfohlen!
Ein Schuft, wer Böses dabei denkt.
Implikationen generativer Persönlichkeit
Wenn eine KI eine echte oder auch nur simulierte Persönlichkeit entwickelt, könnte das sowohl Vorteile als auch Risiken mit sich bringen. Einerseits könnte eine generative Persönlichkeit dazu beitragen, dass Chatbots natürlicher, empathischer und ansprechender auf Nutzende wirken. Dies könnte die Akzeptanz und die Nutzung von Chatbots erhöhen und zu einer besseren Kommunikation und Interaktion führen. Andererseits könnte die Komplexität einer Persönlichkeit zusätzlich zu unerwünschten oder unvorhersehbaren Verhaltensweisen von Chatbots führen, welche möglicherweise die Sicherheit, Privatsphäre oder Würde von Nutzenden oder Dritten gefährden. Dies könnte zu neuen rechtlichen oder ethischen Konflikten führen.
Unser Alternativansatz verwendet eine hybride KI. Eine bei adesso im Rahmen eines Innovationswettbewerbs erarbeitete und vorgestellte Alternative aus dem Jahr 2021 ist die Kombination von symbolischer (regelbasierter) und nichtsymbolischer KI. Die Arbeitsweise über die Regeln erlaubt das Dokumentieren der kausalen Kette eines Denkvorgangs der KI. Das entlang des Denkvorgangs mitgeschriebene Protokoll der kausalen Kette wird in einen menschenlesbaren Bericht umgewandelt. Der Bericht kann entweder in Langform für Laien oder auch in einer sachlichen, signifikanten Kurzform für Fachleute ausgegeben werden.
Sie möchten mehr über unsere Software und die Möglichkeiten von KI – z. B. beim Inputmanagement – erfahren? Dann wenden Sie sich gerne an unseren Experten Florian Petermann, Senior Business Developer bei adesso insurance solutions.
Sie haben Fragen oder Anmerkungen? Dann hinterlassen Sie uns gerne einen Kommentar.