Warum wir vor Künstlicher Intelligenz keine Angst haben sollten

Serien wie Black Mirror zeichnen düstere Zukunftsszenarien, von denen einige bereits in der Realität angekommen sind. Aber wie schlimm steht es wirklich um uns? 

In der "Black-Mirror"-Episode "Abgestürzt" leben die Charaktere in einer Welt, in der ihr Social-Media-Verhalten beeinflusst, welche Arbeit sie bekommen – ein Szenario, das ab 2018 in China Realität werden soll. © Screenshot / YouTube / Netflix

Seit Orwell geht permanent die Welt unter: Wir Menschen werden wahlweise unterjocht oder gleich ganz ausgelöscht. Die Maschinen werden die Herrschaft übernehmen, und wir werden ihre Sklaven sein, vielleicht nicht körperlich, aber ganz sicher mental.

Das ist im Kern, wovor uns die moderne Science-Fiction warnt. Von Blade Runner bis Black Mirror: Die Dystopien, die solche Filme und Serien heraufbeschwören, sind meist apokalyptisch, vom Mensch und einem freien Geist bleibt wenig übrig. Wir sehen darin: Die Technologie wird irgendwann zu stark sein, als dass wir selbst sie noch kontrollieren könnten. Und dann wird sie uns kontrollieren.

Nachrichten in der realen Welt befeuern unsere Angst. Es wird mehr überwacht, an öffentlichen Orten und Arbeitsplätzen. Es wird an einem System gearbeitet, mit dem Straftaten vorausgesehen werden können sollen; fast wie in Minority Report. Roboter können mittlerweile Backflips und Gespräche führen. In China soll ab 2018 ein sogenanntes Social-Credit-System starten, mit dem geprüft werden soll, wer welche Arbeit verrichten kann und kreditwürdig ist; fast so wie in der Episode Abgestürzt von Black Mirror.

Nicht mehr lange also, dann haben wir den Salat, so wirkt es. Aber steht es wirklich so schlimm um uns?

Gefahren gibt es, aber Angst ist ein schlechter Ratgeber

In den Medien sind solche Neuigkeiten oft alarmierend formuliert. Immer wieder lesen wir etwa von den Problemen, die unser unbekümmerter Umgang mit Social-Media-Angeboten und Smartphones schaffe. Beispielsweise, dass sie mit moralisch fragwürdigen Mechaniken arbeiten, welche uns immer wieder zur Nutzung bewegen sollen, darunter das süchtig machende Von-oben-nach-unten-Ziehen zum Aktualisieren.

[Außerdem auf ze.tt: Warum Facebook sicherheitshalber deine Nacktbilder sehen will]

Durch besorgniserregende Berichte wird die Furcht vor dem totalen Überwachungsstaat genährt, etwa wenn eine neue Kamera am örtlichen Bahnhof installiert wird, die Gesichter erkennen kann, wie jetzt in Berlin geschehen.

Am schlimmsten aber scheint die Gefahr, die von Künstlicher Intelligenz (KI) ausgeht. Kürzlich warnten der Physiker Stephen Hawkings und unabhängig davon der Visionär Elon Musk davor, wie schon viele vor ihnen.

Als KI bezeichnen Informatiker*innen den Versuch, menschliche Intelligenz in Computersystemen oder Software nachzubilden, sodass sie eigenständig Probleme lösen oder menschliches Verhalten imitieren können; wie zum Beispiel Figuren in Videospielen. Problematisch wird das Ganze, wenn diese Technologie nicht mehr dafür verwendet werden, Menschen im Alltag oder bei der Arbeit zu unterstützen, sondern zum Beispiel Waffensysteme autonom werden. Sie könnten sich ihre Ziele anhand eines Algorithmus selbst heraussuchen. Man stelle sich eine bewaffnete Drohne vor, die selbst entscheidet, wann und wen sie tötet. Man müsse die KI deshalb regulieren und Gesetze zur Eindämmung schaffen, schrieben zuletzt einige Größen der Technikbranche in einem offenen Brief an die Vereinten Nationen.

[Außerdem auf ze.tt: Zum ersten Mal hat ein Roboter mit Künstlicher Intelligenz an einer UN-Konferenz teilgenommen]

Doch was, wenn Kunst und Medien unser Bild von der Zukunft verzerren? Wenn sie durch die Art und Weise, wie sie gefilmt oder geschrieben sind, Beklemmung hervorrufen, ohne uns dann eine realistische Einordnung anzubieten? Ein im Dezember vergangenen Jahres publizierter Artikel im Schweizer Medium Das Magazin suggerierte etwa, dass allein durch über Social-Media erhobene Daten politische Wahlen beeinflussbar wären. Im Nachhinein wurde vieles von dem, was im Text sehr bedrohlich dargestellt wurde, aber widerrufen; man habe deutlich übertrieben. Da war der Text aber schon tausendfach geteilt, mit teils panischen Kommentaren. Die sachlichen, wissenschaftlich fundierten Nachträge dazu erreichten weitaus weniger Menschen, das Thema war durch.

In den Augen von Reinhold Popp ist das ein großes Problem: Die realwissenschaftliche Komponente fehle oft in Filmen und Nachrichten, darunter auch eine Übersetzung in eine gut verständliche Sprache, die aufzeigt, welche Probleme tatsächlich auftreten könnten, und welche nicht. „In den Medien und in der Kunst wirkt es oft so, als würde das unwiderruflich alles auf uns zukommen. Man bekommt den Eindruck, als seien negative Folgen unvermeidbar“, sagt Popp. Der 68-Jährige ist einer der führenden Zukunftsforscher*innen im deutschsprachigen Raum. Er forscht und lehrt im Masterstudiengang Zukunftsforschung der FU-Berlin und an der Sigmund Freud Privatuniversität Wien. Einige seiner Publikationen gelten als Standardwerke in der Thematik.

Er selbst habe einen sehr viel zuversichtlicheren Blick auf die Zukunft, sagt er. Laut ihm dürften wir uns nicht von den Übertreibungen der Science-Fiction oder solcher Meldungen lähmen lassen. „Zukunftsangst ist ein schlechter Ratgeber. Besser wäre sich zu fragen: Wie kann man die Gefahren eindämmen?“ Denn klar ist: Künstliche Intelligenz etwa kann Menschen gefährlich werden. Aber das kann ein Küchenmesser auch, in den falschen Händen.

Hat Künstliche Intelligenz wirklich etwas mit Intelligenz zu tun?

In einem Gebiet der Zunkunftsforschung, der Technikfolgenforschung, geht es daher vor allem darum, auf mögliche Probleme und Gefahren hinzuweisen und zu warnen. „Aber nicht wie die Science-Fiction das tut, sondern seriös und pragmatisch“, sagt Popp. Erst wird gefragt: Wie und wofür ist die Errungenschaft brauchbar? Dann: Wo liegen Gefahren? Dann: Wie sind diese in den Griff zu kriegen? Dabei werde laut Popp interdisziplinär gearbeitet, mit Psycholog*innen, Philosoph*innen, Techniker*innen.

Dabei gehe es nicht darum, technologischen Fortschritt zu überwachen oder gar zu verhindern. „Regelungen für die Gesellschaft festzulegen und deren Einhaltung zu kontrollieren, obliegt der Politik, nicht der Forschung“, sagt Popp. Eine der schwierigeren Aufgaben für diesen Forschungszweig wird jedenfalls womöglich sein, den Menschen die Angst vor der technischen Zukunft zu nehmen oder sie gar nicht erst entstehen zu lassen. Denn Angst ist stark.

Ein zu großes Maß an Angst setzt entweder Fluchttendenzen in Gang oder lässt Menschen erstarren.“ – Reinhold Popp

Während für einen Schauspieler ein wenig Lampenfieber förderlich für die Leistung sein könne, könne ihm zu viel Angst diese völlig verhunzen. Für Popp ist einer der wichtigsten Aspekte für einen sinnvollen Umgang mit Technologie, etwas Ruhe und Seriösität in die Diskussionen darüber zu bringen. Das beginne schon bei der Wortwahl. Die unkritische Verwendung des Begriffs Künstliche Intelligenz etwa kritisiert Popp scharf. Die Leistungsfähigkeit von digitalisierten Maschinen sei zwar im Bereich der Speicherung und Verknüpfung von Daten beachtlich, habe aber mit der vielschichtigen und komplexen Intelligenz von Menschen nur wenig zu tun.

„Der Begriff wurde von Technikern und Informatikern in die Welt gesetzt, die gut darin sind, leblose Maschinensysteme zu bauen“, sagt der Forscher. Der Begriff gehe von einer technischer Sicht der Menschen aus.

Wer Menschen für Maschinen und Roboter für Lebewesen hält, hat in Psychologie nicht aufgepasst.“ – Reinhold Popp

Die menschliche Intelligenz habe sich in einem langen Evolutionsprozess entwickelt. „Dabei spielten nicht nur die Verbesserung des neuronalen Netzwerks unserer Gehirne sondern auch die vielfältigen Beziehungen der Menschen, also die soziale Vernetzung, eine wesentliche Rolle“, sagt Popp. Einige führenden Köpfe im Silicon Valley prognostizierten, Künstliche Intelligenz würde bereits sehr bald das Niveau der menschlichen Intelligenz erreichen. „Aber Maschinen können auch zukünftig nicht lieben und nicht streiten, können weder gute Musik noch gutes Essen genießen, haben keine Emotionen, keine Sexualität, keine Sehnsüchte und keine Träume, keine Moral, keine Pubertät, keine Altersweisheit und schon gar keinen Humor“, sagt Popp. „Maschinen wie der in den Medien gerne vorgeführte humanoide Roboter, der auf einfache Fragen antworten kann, reagiert nur mithilfe geschickt programmierter Textbausteine, kann sich aber keineswegs an einer lebendigen Diskussion beteiligen.“

Künstliche Intelligenz, so scheint es, kann also kaum mit menschlicher Intelligenz verglichen werden. Und Roboter werden auch nicht den Menschen ähnlicher, sondern einfach besser.

Misstrauen ist besser als Furcht

Popp setzt sich dafür ein, klar darzustellen, was Maschinen mit ihrer sogenannten Künstlichen Intelligenz könnten – und was nicht. Gleichzeitig müsste laut ihm in den Medien die Leistungsfähigkeit der menschlichen Intelligenz viel deutlicher herausgearbeitet werden. Dabei ginge es auch um die Fähigkeit des Menschen, seine individuelle Intelligenz zu verbessern.

„Mit seiner politischen und juristischen Intelligenz hat der Mensch Institutionen geschaffen, die ihn vor den Folgen seiner eigenen aggressiven Gefühle schützen. Man denke etwa an die gigantische Zerstörungskraft mörderischer Waffentechnologien, deren Einsatz auch zukünftig unbedingt verhindert werden muss“, sagt er. So entkräftet Popp nach und nach Nachrichten, mit denen man ihn konfrontiert. Und damit auch Befürchtungen.

Mit Gift injizierte Moskitos, an denen die US-Waffenindustrie gerade forscht, könnten womöglich in Kriegen eingesetzt werden? Für den Zukunftsforscher lenken solche Nachrichten von den längst existierenden Gefahren ab. „Wir haben ja bereits heute viel zu viele biologische und chemische Waffensysteme. Wer seine Mitmenschen massenhaft vernichten will, hat also leider viele Möglichkeiten. Mit diesem realen Problem sollten wir uns mehr und kritischer beschäftigen als mit Sensationsmeldungen über zukünftige Kampfmoskitos.“

Eine App, mit der man anhand eingespeister Daten glaubhaft mit Verstorbenen kommunizieren könne, wie die, an der ein Start-up in der USA entwickelte? Für den Forscher ein Hirngespinst. „Mit jeder neuen Technologie gab es einen neuen Frankenstein-Mythos: den Glauben daran, man könnte Leben künstlich erschaffen oder den Tod austricksen“, sagt er. Das habe die Menschen schon immer beschäftigt, in der Religion und mit vermeintlich magischen Methoden. „Heutzutage wird eben versucht, diesen Mythos durch Technologie voranzutreiben.“

Eine Dystopie, die 2018 durch das eingangs erwähnte Social-Credit-System in China wahr werden soll? Für Popp kaum vorstellbar, dass das so tiefgreifend möglich sei und von der Regierung durchgesetzt werde. „Für mich klingt das eher wie eine moderne Form der Hardcore-Planwirtschaft“, sagt er. „Und planwirtschaftliche Systeme sind immer an der Vielfalt und Komplexität der Gesellschaft gescheitert. Ein Credit-System würde diese Vielfalt blockieren.“ In einem so riesigen Land wie China sei es daher fast unmöglich, dass so etwas flächendeckend funktioniert.

[Außerdem auf ze.tt: Die fünf größten Bedrohungen für die Menschheit]

Wir Menschen haben uns im gesellschaftlichen Zusammenleben durch eine Balance zwischen Vertrauen und Kontrolle gegen die Risiken unseres egoistischen Verhaltens abgesichert„, sagt der Forscher. Dazu müssten wir nur den Straßenverkehr in Deutschland als Beispiel betrachten. Dort wurden viele Regelungen geschaffen und unter der StVo gesammelt. Gleichzeitig gilt dabei aber der Vertrauensgrundsatz. „Sprich: Man vertraut auf das richtige Verhalten, rechnet aber auch mit dem falschen, und hat deshalb ein Gesetz, das Regeln setzt. Es gibt im Straßenverkehr immer noch viele Probleme, aber im Großen und Ganzen hat das über Jahrzehnte lang so funktioniert.“ 

Das Spannungsverhältnis zwischen Vertrauen und Misstrauen in der Gesellschaft funktioniert laut dem Zukunftsforscher in dieser Hinsicht relativ gut. Und tatsächlich zeigt die Vergangenheit und der Blick in den Alltag: Misstrauen führt dazu, dass Menschen Methoden entwickeln, die sie vor destruktiver Energie schützen.

Trotz allem müssen die Entwicklungen kritisch beobachtet werden

Doch was, wenn das Misstrauen überhand nimmt und doch in Kontrolle ausufert, wie es in einigen Ländern auf der Welt bereits der Fall ist? Der Informatiker Benjamin Kees, der sich intensiv mit Videoüberwachung beschäftigt, sieht den Ursprung der Gefahren, die sich durch Technologie ergeben könnten, bei psychischen menschlichen Eigenschaften. Genauer: bei dem Wunsch nach Macht und finanzieller Interessen.

Tatsächlich ist Technik meist in Hard- und Software gegossene Firmenstrategie – also alles andere als neutral“, sagt Kees, der den Verein Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung leitet. „Bringt man einem Computer bei, etwas zu erkennen und dann Entscheidungen zu treffen, steht dahinter immer eine bestimmte Sichtweise und ein bestimmtes Interesse.“ Überwachung etwa diene laut Kees daher eben nicht wie oft behauptet der Sicherheit jedes*r einzelnen, sondern der Informationsgewinnung, um eigene Interessen gegen die Überwachten durchzusetzen. Diese Entwicklung müsse kritisch beobachtet werden.

Bei Künstlicher Intelligenz geht es laut dem Informatiker nicht darum, eine künstliche Intelligenz zu schaffen, die der eines Menschen gleicht. „Es geht bei der Entwicklung viel eher darum, in unstrukturierten großen Datenmengen Muster zu erkennen“, sagt er. Das könne in Bereichen wie der Waffentechnologie Chaos anrichten, aber es gäbe eben viele für die Gesellschaft nützliche Anwendungsgebiete, darunter automatische Lernverfahren für Software. So ergeben sich etwa eine intelligente Ampelsteuerung oder Gefahrenfrühwarnsysteme.

Dass unsere Technologie angewendet wird, um sozial zu sein oder Gutes leisten zu können, dafür sieht Kees auch die Gesellschaft in der Verantwortung. Sie müsse im Sinne der Demokratie mit gestalten. Zukunftsforscher Popp sieht das ähnlich: Die großen Chancen der Technologie könnten laut ihm nur dann im Hinblick auf das Gemeinwohl genutzt werden, wenn man die vielfältigen Interessen der Gesellschaft berücksichtige. „Die Politik sollte dabei die Rahmenbedingungen für einen demokratischen Diskurs schaffen. Dies erfordert freilich Transparenz und verständliche Informationen„, sagt er.

[Außerdem auf ze.tt: Dieses Projekt zeigt dir bald alle Überwachungskameras in der Nähe]

Wir haben die Zukunft also offenbar selbst in der Hand – und damit auch die Angst vor ihr. Alarmierende Filme und Serien der Science-Fiction machen Spaß und sind hervorragend dafür geeignet, den Horizont zu erweitern und auszuloten, was möglich sein kann.

Wenn wir uns trotz vermeintlicher Gefahren Vertrauen in die Gesellschaft und einen optimistischeren Blick bewahren, ist schon viel gewonnen. Wir sind dann in der Lage zu sehen, dass es womöglich gar nicht so schlimm um uns steht, wie Kunst oder Nachrichten suggerieren. Und dass eine Welt, in der die Maschinen uns beherrschen, noch ganz weit weg ist.

Nur eines sollten wir laut dem Zukunftsforscher und dem Informatiker nicht tun: nichts. Denn der technologische Fortschritt geht uns alle an, ob wir wollen oder nicht.