top of page

BREAKING: KI lässt sich nicht beherrschen

Laut einer umfassenden Untersuchung gibt es derzeit keine Beweise dafür, dass KI sicher kontrolliert werden kann, und ohne den Nachweis, dass KI kontrolliert werden kann, sollte sie nicht entwickelt werden, warnt ein Forscher.

an artificial intelligence illustration on the wall

Photo by Tara Winstead on Pexels.com

Trotz der Erkenntnis, dass das Problem der KI-Kontrolle eines der wichtigsten Probleme der Menschheit sein könnte, wird es nach wie vor kaum verstanden, definiert und erforscht, erklärt Dr. Roman V. Yampolskiy.

In seinem demnächst erscheinenden Buch AI: Unexplainable, Unpredictable, Uncontrollable (KI: Unerklärlich, unvorhersehbar, unkontrollierbar) geht der KI-Sicherheitsexperte Dr. Yampolskiy der Frage nach, wie KI die Gesellschaft dramatisch umgestalten kann – nicht immer zu unserem Vorteil.

Er erklärt: „Wir stehen vor einem fast sicheren Ereignis, das das Potenzial hat, eine existenzielle Katastrophe auszulösen. Kein Wunder, dass viele dies für das wichtigste Problem halten, dem die Menschheit je gegenüberstand. Das Ergebnis könnte Wohlstand oder Auslöschung sein, und das Schicksal des Universums hängt in der Schwebe“.

Unkontrollierbare Superintelligenz

Dr. Yampolskiy hat die wissenschaftliche Literatur über KI eingehend geprüft und ist zu dem Schluss gekommen, dass es keinen Beweis dafür gibt, dass KI sicher kontrolliert werden kann – und selbst wenn es einige Teilkontrollen gäbe, wären diese nicht ausreichend.

Er erklärt: „Warum gehen so viele Forscher davon aus, dass das KI-Kontrollproblem lösbar ist? Soweit wir wissen, gibt es dafür keine Belege, keine Beweise. Bevor man sich auf die Suche nach einer kontrollierten KI begibt, ist es wichtig zu zeigen, dass das Problem lösbar ist.

„Dies in Verbindung mit Statistiken, die zeigen, dass die Entwicklung von KI-Superintelligenz ein fast garantiertes Ereignis ist, zeigt, dass wir erhebliche KI-Sicherheitsbemühungen unterstützen sollten.

Er argumentiert, dass unsere Fähigkeit, intelligente Software zu entwickeln, unsere Fähigkeit, sie zu kontrollieren oder auch nur zu überprüfen, bei weitem übersteigt. Nach einer umfassenden Literaturrecherche kommt er zu dem Schluss, dass fortgeschrittene intelligente Systeme niemals vollständig kontrollierbar sein können und daher unabhängig von ihrem Nutzen immer ein gewisses Risiko darstellen werden. Seiner Meinung nach sollte es das Ziel der KI-Gemeinschaft sein, dieses Risiko zu minimieren und gleichzeitig den potenziellen Nutzen zu maximieren.

Was sind die Hindernisse?

KI (und Superintelligenz) unterscheiden sich von anderen Programmen durch ihre Fähigkeit, neue Verhaltensweisen zu erlernen, ihre Leistung anzupassen und in neuen Situationen teilautonom zu handeln.

Ein Problem dabei, KI „sicher“ zu machen, besteht darin, dass die möglichen Entscheidungen und Fehler eines superintelligenten Wesens, das immer leistungsfähiger wird, unendlich sind, so dass es eine unendliche Anzahl von Sicherheitsproblemen gibt. Es reicht möglicherweise nicht aus, die Probleme einfach nur vorherzusagen und sie durch Sicherheitspatches zu entschärfen.

Gleichzeitig, so Yampolskiy, kann die KI nicht erklären, was sie entschieden hat, und/oder wir können die gegebene Erklärung nicht verstehen, da die Menschen nicht intelligent genug sind, um die implementierten Konzepte zu verstehen. Wenn wir die Entscheidungen der KI nicht verstehen und nur eine „Blackbox“ haben, können wir das Problem nicht verstehen und die Wahrscheinlichkeit künftiger Unfälle verringern.

So werden KI-Systeme bereits mit Entscheidungen in den Bereichen Gesundheit, Investitionen, Beschäftigung, Bankwesen und Sicherheit betraut, um nur einige zu nennen. Solche Systeme sollten in der Lage sein zu erklären, wie sie zu ihren Entscheidungen gekommen sind, insbesondere um zu zeigen, dass sie frei von Vorurteilen sind.

Yampolskiy erklärt: „Wenn wir uns daran gewöhnen, die Antworten der KI ohne Erklärung zu akzeptieren und sie im Grunde wie ein Orakelsystem zu behandeln, können wir nicht erkennen, wenn sie beginnt, falsche oder manipulative Antworten zu geben.“

Kontrolle des Unkontrollierbaren

Mit zunehmender Leistungsfähigkeit der KI steigt auch ihre Autonomie, aber unsere Kontrolle über sie nimmt ab, erklärt Yampolskiy, und mehr Autonomie ist gleichbedeutend mit weniger Sicherheit.

Um zu vermeiden, dass eine Superintelligenz ungenaues Wissen erwirbt, und um ihre Programmierer von jeglicher Voreingenommenheit zu befreien, könnte sie beispielsweise all dieses Wissen ignorieren und alles von Grund auf neu entdecken/beweisen, aber das würde auch jegliche pro-menschliche Voreingenommenheit beseitigen.

„Weniger intelligente Agenten (Menschen) können intelligentere Agenten (ASIs) nicht dauerhaft kontrollieren. Das liegt nicht daran, dass wir im riesigen Raum aller möglichen Entwürfe keinen sicheren Entwurf für Superintelligenz finden könnten, sondern daran, dass ein solcher Entwurf nicht möglich ist, er existiert nicht. Superintelligenz rebelliert nicht, sie ist von vornherein unkontrollierbar“, erklärt er.

„Die Menschheit steht vor der Wahl, ob wir wie Babys werden, für die man sorgt, über die man aber keine Kontrolle hat, oder ob wir es ablehnen, einen hilfreichen Beschützer zu haben, sondern selbst verantwortlich und frei bleiben.“

Er schlägt vor, dass ein Gleichgewichtspunkt gefunden werden könnte, bei dem wir im Gegenzug für ein gewisses Maß an Kontrolle einige Fähigkeiten opfern, um dem System ein gewisses Maß an Autonomie zu geben.

Angleichung der menschlichen Werte

Ein Vorschlag zur Steuerung besteht darin, eine Maschine zu entwickeln, die menschliche Befehle genau befolgt, aber Yampolskiy weist auf das Potenzial für widersprüchliche Befehle, Fehlinterpretationen oder böswillige Nutzung hin.

Er erklärt: „Menschen in Kontrolle können zu widersprüchlichen oder explizit böswilligen Befehlen führen, während KI in Kontrolle bedeutet, dass Menschen es nicht sind.“

Wenn die KI mehr als Berater fungieren würde, könnte sie Probleme mit der Fehlinterpretation direkter Befehle und potenziell böswillige Befehle umgehen, aber der Autor argumentiert, dass die KI, um als nützlicher Berater zu fungieren, ihre eigenen übergeordneten Werte haben muss.

„Die meisten KI-Sicherheitsforscher suchen nach einer Möglichkeit, die künftige Superintelligenz an den Werten der Menschheit auszurichten. Eine auf Werte ausgerichtete KI wird per definitionem voreingenommen sein, und zwar zugunsten des Menschen, ob gut oder schlecht, ist immer noch ein Vorurteil. Das Paradoxon einer wertorientierten KI besteht darin, dass eine Person, die einem KI-System ausdrücklich einen Auftrag erteilt, möglicherweise ein „Nein“ erhält, während das System versucht, das zu tun, was die Person eigentlich will. Die Menschlichkeit wird entweder geschützt oder respektiert, aber nicht beides“, erklärt er.

Minimierung des Risikos

Um das Risiko der KI zu minimieren, müsse sie veränderbar sein, mit Rückgängigmach-Optionen, begrenzbar, transparent und in menschlicher Sprache leicht zu verstehen.

Er schlägt vor, alle KI als kontrollierbar oder unkontrollierbar zu kategorisieren, nichts vom Tisch zu nehmen und begrenzte Moratorien oder sogar Teilverbote für bestimmte Arten von KI-Technologie in Betracht zu ziehen.

Anstatt sich entmutigen zu lassen, sagt er: „Es ist vielmehr ein Grund für mehr Menschen, tiefer zu graben und die Anstrengungen und die Finanzierung der KI-Sicherheitsforschung zu erhöhen. Wir werden vielleicht nie eine zu 100 % sichere KI erreichen, aber wir können die KI im Verhältnis zu unseren Bemühungen sicherer machen, was viel besser ist als nichts zu tun. Wir müssen diese Chance klug nutzen.“

Weitere Informationen

KI: Unerklärlich, unvorhersehbar, unkontrollierbar, Roman V. Yampolskiy (Chapman and Hall/CRC, 2024) ISBN: Taschenbuch: 9781032576268 | Gebundene Ausgabe: 9781032576275 | eBook 9781003440260 DOI: https://doi.org/10.1201/9781003440260

Über den Autor Dr. Roman V. Yampolskiy ist außerordentlicher Professor an der Abteilung für Computertechnik und Informatik an der Speed School of Engineering der University of Louisville. Er ist der Gründer und derzeitige Leiter des Cyber Security Lab und Autor zahlreicher Bücher, darunter Artificial Superintelligence: a Futuristic Approach. Während seiner Amtszeit an der UofL wurde Dr. Yampolskiy ausgezeichnet als: Distinguished Teaching Professor, Professor of the Year, Faculty Favorite, Top 4 Faculty, Leader in Engineering Education, Top 10 of Online College Professor of the Year und Outstanding Early Career in Education Award Gewinner neben vielen anderen Ehrungen und Auszeichnungen. Yampolskiy ist Senior-Mitglied des IEEE und der AGI, Mitglied der Kentucky Academy of Science und ehemaliger Forschungsberater des MIRI und Mitarbeiter des GCRI.

Aktuelle Beiträge

Alle ansehen

Comments


bottom of page