Registrierung erfolgreich abgeschlossen!
Klicken Sie bitte den Link aus der E-Mail, die an geschickt wurde

Künstliche Intelligenz: Wettlauf um die Kontrolle zwischen Mensch und Maschine

© SNA / Sony Pictures Releasing CISStandfoto aus dem Hollywood-Flim Terminator: Die Erlösung
Standfoto aus dem Hollywood-Flim Terminator: Die Erlösung - SNA, 1920, 12.01.2021
Abonnieren
Bei der Künstlichen Intelligenz werden ständig neue Fortschritte gemacht: Maschinen, die Autos steuern, Symphonien komponieren oder Menschen in Schach, Go oder Jeopardy besiegen. Nun warnen aber Wissenschaftler vor den Gefahren einer superintelligenten und unkontrollierbaren KI.
Das Jahr: 2029. John Connor führt die Widerstandsgruppe „Tech-Com“ gegen die Einheiten der Künstlichen Intelligenz (KI) „Skynet“ in den Kampf und beendet einen jahrzehntelangen Krieg der Menschheit gegen Roboter und Maschinen, der unzählige Leben gekostet hat. Das ist natürlich die Handlung des Science-Fiction Films „The Terminator“ von 1984.

Lässt sich eine superintelligente KI kontrollieren?

Aber auch Forscher befassen sich mittlerweile mit den Risiken von KI. Angenommen, jemand würde eine KI programmieren, deren Intelligenz dem Menschen überlegen wäre und die selbstständig alles lernen könnte. Angeschlossen an das Internet hätte die KI Zugriff auf alle Daten der Menschheit, sie könnte alle bestehenden Programme ersetzen und alle ans Internet angeschlossenen Maschinen kontrollieren. Ist das eine Utopie oder ein Horrorszenario? Würde die KI Krebs heilen, den Weltfrieden herbeiführen und die Klimakatastrophe verhindern? Oder würde sie die Menschheit vernichten und die Erde übernehmen?
Ließe sich eine superintelligente KI überhaupt kontrollieren, so dass sie der Menschheit nicht schadet? Ein internationales Team von Computerwissenschaftlern unter Beteiligung des Forschungsbereichs Mensch und Maschine am Max-Planck-Institut für Bildungsforschung zeigt anhand theoretischer Berechnungen, dass es nicht möglich ist, eine superintelligente KI zu kontrollieren. Die Studie „Superintelligence Cannot be Contained: Lessons from Computability Theory” ist im „Journal of Artificial Intelligence Research” erschienen.

Bald keine Science-Fiction mehr?

„Eine superintelligente Maschine, die die Welt kontrolliert, klingt nach Science-Fiction. Doch schon heute gibt es Maschinen, die bestimmte wichtige Aufgaben selbständig erledigen, ohne dass Programmierer komplett verstehen, wie sie das gelernt haben. Daher stellt sich für uns die Frage, ob das für die Menschheit irgendwann unkontrollierbar und gefährlich werden könnte“, erklärt Manuel Cebrian, Leiter der Forschungsgruppe „Digitale Mobilisierung“ am Forschungsbereich Mensch und Maschine am Max-Planck-Institut für Bildungsforschung und Co-Autor der Studie.
Wissenschaftler ziehen bisher zwei Ideen in Betracht, wie eine superintelligente KI kontrolliert werden könnte. Zum einen könnte man die Ressourcen der superintelligenten KI gezielt einschränken, indem man sie beispielsweise vom Internet und allen anderen technischen Geräten abschottet, so dass sie keinen Kontakt zur Außenwelt hat – doch dadurch würden auch die Fähigkeiten der KI deutlich geringer sein. Die großen Menschheitsprobleme würde sie so nicht lösen. Die andere Option wäre, die KI von vornherein zu motivieren, nur Ziele zu verfolgen, die im Interesse der Menschheit liegen, zum Beispiel indem man ihr ethische Regeln einprogrammiert. Doch zeigen die Forscher in ihrer Studie, dass diese und andere Ideen, die KI zu kontrollieren, ihre Grenzen haben.
Fernsehen (Symbolbild) - SNA, 1920, 06.01.2021
Rätsel in Wales: Alte Glotze kappt 18 Monate lang Internet-Empfang eines gesamten Dorfes

Schutzalgorithmus würde sich aufhängen

Das Forscherteam konzipierte einen theoretischen Algorithmus, der sicherstellt, dass eine superintelligente KI unter keinen Umständen der Menschheit schadet. Dieser Algorithmus simuliert zunächst das Verhalten der KI und stoppt sie, wenn er es als schädlich erachtet. Jedoch zeigte eine genaue Analyse, dass nach aktuellem Stand der Computerwissenschaften ein solcher Algorithmus nicht programmiert werden könne.

„Bricht man das Problem auf einfache Grundregeln aus der theoretischen Informatik herunter, zeigt sich, dass ein Algorithmus, der einer KI befehlen würde, die Welt nicht zu zerstören, sich womöglich aufhängen würde. Man wüsste dann nicht, ob der Algorithmus die Bedrohung noch analysiert oder ob er aufgehört hat, die schädliche KI einzudämmen. Das macht diesen Algorithmus praktisch unbrauchbar.“

Iyad Rahwan
Direktor des Forschungsbereichs Mensch und Maschine
Die Studie kommt also zu dem Ergebnis, dass es bisher unmöglich ist, einen Algorithmus zu programmieren, der erkennt, ob eine KI der Welt Schaden zufügen würde oder nicht. Hinzu kommt, dass man möglicherweise nicht einmal erkennen könnte, ob eine Maschine superintelligent ist. Denn ob eine Maschine eine dem Menschen überlegene Intelligenz besitzt, lässt sich nach aktuellen Erkenntnissen ebenfalls nicht berechnen.
Newsticker
0
Um an der Diskussion teilzunehmen,
loggen Sie sich ein oder registrieren Sie sich
loader
Chats
Заголовок открываемого материала