Die Idee entstand bereits Mitte des 19. Jahrhunderts und doch ist die Technologie der Quantencomputer noch relativ neu. Ihnen wird großes Potenzial zugeschrieben, aber inwiefern unterscheiden sie sich von herkömmlichen Rechnern und worin liegt ihre Stärke?
Im Gegensatz zu bisherigen, deterministischen Computern, deren Informationsverarbeitung auf binären Bits basiert, nutzen Quantencomputer die ihnen namensgebenden Eigenschaften der Quantenphysik, was völlig neue Möglichkeiten für die Datenverarbeitung eröffnet.
Der Schlüssel zur Leistungsfähigkeit eines Quantencomputers liegt in den Quantenbits, kurz „Qubits“. In der klassischen Physik finden sich Teilchen immer in klar definierbaren Zuständen vor. Im Gegensatz dazu können Qubits nicht nur einen der beiden binären Grundzustände annehmen, sondern zu gewissen Anteilen beide gleichzeitig. Dieses Konzept nennt sich „Superposition“. Und genau diese Eigenschaft ist Grundvoraussetzung dafür, dass Quantencomputer in der Lage sind, Informationen gleichzeitig in einer Vielzahl von Zuständen zu speichern und zu verarbeiten. Eine große Stärke der Quantencomputer ist daher die Parallelverarbeitung.
Um nun aus mehreren Qubits leistungsstarke Quantensysteme zu bilden, können diese miteinander verknüpft werden. In der Quantenmechanik nennt sich dieses Phänomen „Verschränkung“. Die Verschränkung mehrerer Qubtis führt dazu, dass ihre Einzelzustände nicht mehr voneinander unabhängig sind und sie fortan nur noch als gesamtes System betrachtet werden können. So lassen sich Quantenregister sowie komplexe Problemstellungen modellieren.
Einen weiteren Unterschied zu herkömmlichen Rechnern stellt das Auslesen von Informationen aus solchen Quantensystemen dar. In einem klassischen Computer lassen sich sämtliche Informationen jederzeit auslesen, ohne dass sie dabei verändert werden. Dies ist hier nicht möglich. Die Quantenmechanik besagt, dass die Messung eines Quantenzustands das System in einen der vielen Zustände kollabieren lässt, der zum Zeitpunkt der Messung möglich ist. Welcher Zustand dabei gemessen wird, ist probabilistisch und kann zu keinem Zeitpunkt vorhergesagt werden.
Von der Idee zur Umsetzung
Auf Basis dieser Eigenschaften werden seit den 1990er Jahren Quantencomputer realisiert. Im Jahr 2019 wurde von einem Forscherteam schließlich erstmals Quantenüberlegenheit beansprucht. Das bedeutet, dass ein Quantencomputer bei der Lösung eines bestimmten Problems um ein Vielfaches schneller war als der bisher schnellste Supercomputer. In diesem Fall brauchte ein Quantencomputer der Firma Google mit Namen Sycamore lediglich 200 Sekunden für die Lösung des „Random Circuit Sampling Problems“, für das die schnellsten herkömmlichen Rechner nach Aussage der Forscher 10.000 Jahre benötigen würden. Die Ergebnisse der Studie lösten Diskussionen in der Branche aus. Neben Schwächen in der Fehlerkorrektur bestand ein zentraler Kritikpunkt darin, dass für Sycamore gezielt ein künstliches Problem ausgewählt wurde, das sich optimal auf die Quantenhardware übertragen lässt, aber keinen praktischen Nutzen hat. Trotz dieser Kritik wird der Erfolg weiträumig als wichtiger Meilenstein in der Ära der Quantencomputer gesehen.
Aber welche praktischen Probleme lassen sich mit Hilfe eines Quantencomputers nun eigentlich lösen und für welche Aufgaben ist die Technologie vielleicht auch ungeeignet?
Um diese Frage beantworten zu können, sei zunächst gesagt, dass es – anders als bei herkömmlichen Rechnern – mehr als eine einzige Technologie zur Umsetzung von Quantencomputern gibt. Jede einzelne der Technologien hat dabei ihre Vor- und Nachteile. Zusätzlich zur teils völlig unterschiedlichen Hardware existieren aktuell zwei verschiedene Typen von Quantencomputern, die sich bereits in ihrer Grundidee bei der Ausführung von Algorithmen unterscheiden.
Universelle Quantencomputer – die (fast) Alleskönner
Auf der einen Seite haben wir es mit universellen Quantencomputern zu tun. In der Herangehensweise ähneln sie stark der technischen Informatik. Algorithmen werden hier als Quantenschaltkreise implementiert. Solch ein Schaltkreis lässt sich entweder direkt durch den Einsatz bestimmter (parametrisierter) Quantengatter implementieren oder mit entsprechenden Tools und Frameworks aus einer mathematischen Formulierung des Problems heraus generieren. Der Schaltkreis wird anschließend von der QPU ausgewertet. Aktuell ist es gängige Praxis, bei bestimmten Problemstellungen sog. Hybridalgorithmen einzusetzen, was v. a. dem relativ hohen Rauschen bei der Messung von Ergebnissen geschuldet ist. Solch ein Hybridalgorithmus (z. B. VQE oder QAOA) führt einen parametrisierten Quantenschaltkreis mehrfach aus und passt die Parameter iterativ an, bis das Ergebnis erreicht ist. Die gezielte Anpassung der Parameter wird von einem klassischen Rechner ausgeführt, daher auch der Name „Hybrid“-Algorithmen. Universelle Quantenrechner eignen sich für eine Vielzahl von Aufgabenstellungen. Mit ihnen lassen sich komplexe Simulationen durchführen, was z. B. in der Medizin völlig neue Möglichkeiten eröffnet. Außerdem lassen sich Optimierungsprobleme – wie z. B. Wegfindungsaufgaben – lösen oder kryptographische Verfahren durchführen. Zudem wird ihnen ein großes Potenzial für die Implementierung von neuronalen Netzen und KI zugeschrieben.
Adiabatische Quantencomputer – die Optimierer
Den zweiten wichtigen Typ der Quantenrechner bilden die adiabatischen Quantencomputer, kurz Quantenannealer. Diesen liegt eine Idee zugrunde, die bereits aus der Metallurgie bekannt ist – das sog. Heißschmelzen. Beim Abkühlen von glühendem Metall legen sich die einzelnen Moleküle in einen energetisch günstigen Zustand aneinander. Dieser Zustand nennt sich Grundzustand und ist für die Durchführung eines Algorithmus auf einem adiabatischen Quantenrechner von zentraler Bedeutung. Anders als bei universellen Quantenrechnern muss das zu lösende Problem als Ising-Modell vorliegen. Das Ising-Modell ist ein Gittermodell der Physik, bei dem die Knotenpunkte die einzelnen Atome eines physikalischen Systems darstellen. Dabei wird angenommen, dass jedes Atom ein positives oder negatives magnetisches Moment hat. Diese Darstellung kommt der Umsetzung aktueller Quantenhardware relativ nah und erleichtert die Realisierung von entsprechenden Algorithmen. Praktisch geschieht die Problemmodellierung in Form einer quadratischen Funktion, der sog. Energiefunktion. Das daraus erzeugte Ising-Modell wird anschließend in die QPU des Annealers eingebettet, wodurch die einzelnen Qubits entsprechend konfiguriert werden. Nun bewegt sich das System gemäß den Gesetzen der Quantenphysik aus diesem energetisch angeregten Initialzustand in den Grundzustand. Zum Schluss wird der Grundzustand des Systems gemessen und so die Lösung ermittelt. Die Besonderheit der Quantenannealer besteht darin, dass sie sich ausschließlich für Optimierungsprobleme eignen, auf diesem Gebiet aber aktuell bereits sehr gute Leistungen zeigen.
Quantencomputer in der Versicherungsbranche?
Zusammengefasst lässt sich sagen, dass sich Quantencomputer für viele Probleme eignen, für die approximative Lösungsstrategien denkbar sind und die von einem hohen Parallelisierungsgrad der Berechnungen profitieren würden. Praktische Anwendungsbeispiele, die auch für die Versicherungs-IT interessant sein könnten, sind die logische Optimierung von Datenbankanfragen oder die Suche nach bestimmten Elementen in unsortierten Datenbanken. Grovers Suchalgorithmus beschleunigt letztere nämlich quadratisch gegenüber herkömmlichen Verfahren. Algorithmen, die einen solchen Suchschritt beinhalten, ließen sich auf diese Weise deutlich schneller gestalten.
Außerdem sind Quantencomputer in der Lage, echten „Zufall“ zu erzeugen. Das klingt zunächst banal, ist allerdings auf herkömmlichen, deterministischen Rechnern nicht möglich, aber z. B. für bestimmte Simulationen sehr interessant. Derzeit noch weitestgehend ungeeignet sind Quantenrechner hingegen etwa für die Ausführung einfacher arithmetischer Operationen.
Aktuelle Nachteile ergeben sich aus der sehr aufwändigen und noch nicht perfekten hardwaretechnischen Umsetzung. Zum einen sind beide Formen von Quantencomputern in ihrer Rechenleistung derzeit relativ begrenzt, da sie noch nicht über die Mengen von Qubits verfügen, die für viele komplexere Berechnungen nötig wären. Andererseits sind sie noch sehr fehleranfällig, was daran liegt, dass aktuelle Qubits sowie daraus erzeugte Quantensysteme noch vergleichsweise instabil sind. Je mehr Qubits an einer Berechnung beteiligt sind und je höher ihr Grad der Verschränkung ist, desto stärker zudem fällt diese Fehleranfälligkeit ins Gewicht. Strategien zur Fehlerkorrektur beruhen zumeist noch auf wiederholten Berechnungen, was den Vorteil gegenüber herkömmlichen Computern momentan schmälert.
Können diese Schwierigkeiten überwunden werden, haben Quantencomputer ein unglaubliches Potenzial, und es ist nicht unwahrscheinlich, dass sie künftig viele Bereiche in der Forschung und Technik revolutionieren werden.
Sie möchten mehr über unsere evolutionäre Softwarelösung erfahren? Dann wenden Sie sich gerne an unseren Experten Karsten Schmitt, Head of Business Development.
Sie haben Fragen oder Anmerkungen? Dann hinterlassen Sie uns gerne einen Kommentar.