Es bedurfte indes nicht einer Tay, um die Schwächen der künstlichen Intelligenz freizulegen. Der Wissenschaftler und Publizist Caleb Scharf rechnete in einem Essay im Magazin „Aeon“ vor, dass die Energie des Drei-Schluchten-Staudamms nötig wäre, um mit heutiger Computertechnologie auch nur ein einzelnes menschliches Gehirn (das dank biologischer Raffinesse mit zwanzig Watt auskommt) zu betreiben. Auch die „neuralen“ Algorithmen, die in den vergangenen Jahren bemerkenswerte Fortschritte bescherten, liefern blamable Fehlleistungen. Viel wichtiger als diese Punkte sind aber zwei grundsätzliche Fragen: Wenn wir die Wahl zwischen einer vollkommenen und einer unvollkommenen künstlichen Intelligenz hätten, welche würden wir wählen? Und wer soll bestimmen, wie diese Intelligenz eingesetzt wird?
In Berlin trat vor einigen Monaten Jared Cohen auf, Gründer des Denklabors Google Ideas und einer der wichtigsten Berater von Eric Schmidt, dem Verwaltungsratsvorsitzenden von Alphabet. In seinem Vortrag brüstete er sich damit, dass die künstliche Intelligenz des Unternehmens künftig in der Lage sein werde, das Entstehen einer neuen terroristischen Bewegung im frühestmöglichen Stadium zu erkennen, was beispielsweise durch eine algorithmische Analyse von Bewegungsmustern, politischen Äußerungen, Umweltdaten, historischen Entwicklungen, digitalen sozialen Netzwerken und anderer Faktoren von Menschen geschehen könnte.
Wer zieht einen Nutzen daraus?
Cohen wurde gefragt, was er mit diesem Wissen tun würde. Würde er es für sich behalten und nur die Mitarbeiter des Unternehmens aus der Gefahrenzone abziehen? Würde er es aus patriotischem Pflichtgefühl mit der amerikanischen Regierung teilen? Oder würde er es gänzlich öffentlich machen? Trotz Nachfragen verweigerte Cohen die Antwort. Sie kam verspätet und indirekt – in Form der Mitteilung, dass Eric Schmidt den Vorsitz des „Defense Innovation Advisory Board“ des Pentagons übernimmt, um eine engere Zusammenarbeit des amerikanischen Militärs mit Silicon Valley zu koordinieren. Sollen wir dankbar sein, wenn künftig eine Art digitaler Schutzschirm über unser Leben gespannt ist?
Ein allmächtiger KI-Cybercop wäre für die Befehle seiner Programmierer ebenso empfänglich wie Tay, das Cybergirl. Wer würde eine mit dem ganzen „Internet der Dinge“ verschmolzene Singularität mit Zielkoordinaten füttern? Wer könnte verhindern, dass beliebig neue Zielgruppen ins Visier gerieten, etwa alle Umweltschützer, weil irgendwo ein Öko-Terrorist zugeschlagen hat? Wie würde ein Präsident wie Donald Trump ein solches System manipulieren? Das Tay-Experiment zeigt, wie stark menschliche Interessen in Technologien eingebettet sind: Eine künstliche Intelligenz ist auch nur eine von Menschen gesteuerte.
Manipulation leicht gemacht
Die Manipulationsgefahr ist groß. Kann eine KI künftig über Wahlen entscheiden, indem sie Inhalte auswählt, die ein Wähler zu sehen bekommt? Könnte sie demokratische Widerstandsbewegungen, die sich gegen einen Konzern oder Politiker richten, im Entstehen vereiteln, indem sie die Akteure isoliert? Mit wenigen algorithmischen Kniffen könnte man kritische Meinungsäußerungen auf ein kleines Publikum beschränken, um Meinungsfreiheit zu simulieren, ohne eine kritische Größe von Unterstützern zu erlauben.
Optimistisch betrachtet, ist es aber auch möglich, dass IT-Konzerne eine Art Demokratisierungsprozess durchlaufen und ihre künstlichen Intelligenzen in den Dienst der Aufklärung stellen, als Werkzeug von Wissenschaftlern und Weltbürgern. Dafür gibt es durchaus Anzeichen. Ein ganzes Netz aus Sensoren trägt heute maßgeblich dazu bei, dass wir die Veränderungen des Erdsystems in Echtzeit verfolgen können. Unter den richtigen Bedingungen hat künstliche Intelligenz das Potential, der Erde eine Stimme zu geben und Forschung an den drängendsten Menschheitsproblemen zu befeuern, indem sie wie beim Go-Spiel Lösungen vorschlägt, auf die keiner gekommen wäre. Doch dazu bedarf es tiefgreifender Veränderungen in der Ausrichtung der Programme. Im Dienst des Pentagons oder einer einzelnen Firma sollten sie jedenfalls nicht primär stehen.
http://www.faz.net/aktuell/feuilleton/debatten/warum-die-kuenstliche-intelligenz-gefahren-birgt-14151739-p2.html