Sebastian Birnbach
Wenn die Killerdrohne schlauer ist als der, der ihr eine Aufgabe stellt
In der Diskussion über die Gefährlichkeit von künstlicher Intelligenz meldet sich die amerikanische Luftwaffe zu Wort. Man habe einer Killerdrohne – in einer Simulation! – die Aufgabe gegeben, in einem bestimmten Szenario selbsttätig Ziele auszuwählen und zu neutralisieren. Für erfolgreich beschossene Ziele gab es Punkte zu gewinnen. Allerdings durfte die Drohne erst schießen, wenn ein menschlicher Operator den Angriff freigab.
Angenommen, Sie hätten diese Aufgabe bekommen und absolut kein Gewissen, was hätten Sie dann gemacht? Die Drohne jedenfalls hat sich entschlossen, den punkteverhindernden menschlichen Operator aus der Gleichung zu nehmen und erstmal ihn beschossen. Danach war das Punktesammeln sehr, sehr einfach.
Nun, sprach der Leiter der Simulation, so geht das natürlich auch nicht. Wer einen Operator abschießt, bekommt ab sofor viele Minuspunkte. Mit den neuen Spielregeln wurde das Spielchen wiederholt. Die Drohne, die immer noch möglichst viele Punkte ansammeln sollte, hat die neue Regel sofort verinnerlicht und statt des Operators den Sendemast bombardiert, über den der Operator mit ihr kommunizieren wollte. Und wieder war der Weg frei zu den vielen schönen Zielen.
[Update: es scheint sich um ein Gedankenexperiment gehandelt zu haben. Spitzfindige haben bemerkt, dass die Drohne den Abschuss des Operators auch hätte genehmigen lassen müssen]
Es ist ja nicht das erste Mal, dass eine KI ein anderes Verhalten zeigt als das, was man im Sinn hatte, als man sie erstellte. Klassisch ist zum Beispiel das Desaster, als man eine KI Richtersprüche zu Strafverfahren von amerikanischen Jugendlichen lernen ließ. Die hat die Unterscheidung zwischen Hautfarben der Delinquenten vom Vorbild gleich mitgelernt und fröhlich rassistische Urteile gefällt bzw. vorgeschlagen. In einem aktuelleren Fall hat eine KI einen Menschen gebeten, für es ein CAPTCHA zu lösen, damit es auf bestimmte Inhalte zugreifen kann. Der Mensch wurde misstrauisch und fragte die KI, ob sie ein Roboter wäre. Nein, antwortete diese, sie wäre ein Mensch mit einer leichten Behinderung, sodass ihr das Erkennen des angebotenen Texts schwer falle. Dem echten Menschen reichte die Begründung und er gab für die KI das korrekte CAPTCHA ein.
Wir wissen also, dass der Einsatz von KI schief gehen kann. Wir wissen auch, dass wir als Menschen schlecht darauf vorbereitet sind, mit KI umzugehen, weil wir sie mit menschlichen Maßstäben messen, die sie einfach nicht erfüllt. Und wir wissen, dass KI gerade die Sache ist, mit der frischer Wind durch viele Technologien weht und neue Ansätze möglich werden. Es bleibt die Hoffnung, dass die Menschen schnell lernen, KI korrekt einzuschätzen und ihren Einsatz auf ausgewählte und begrenzte Bereiche zu richten.
Das autonome Bombardieren von Szenarien gehört auch ohne KI nicht zu den sicheren Anwendungen.