WARNUNG: AI

21.5.2023

Die Verwendung von KI (Künstlicher Intelligenz, KI; Artificial Intelligence, AI) ist nicht unproblematisch!

Es gibt umfassende Forderungen nach Transparenz in der KI, damit ihre Aktivitäten überprüft, geprüft und bewertet werden können. Ein Policy Briefing der Royal Society fordert eine erklärbare KI, in dem sie darauf hinweist, dass „in politischen Debatten auf der ganzen Welt zunehmend Forderungen nach irgendeiner Form der Erklärbarkeit von KI laut werden, als Teil der Bemühungen, ethische Grundsätze in die Gestaltung und den Einsatz von KI- aktivierten Systemen einzubetten“.

Schon seit 70 Jahren sind Wissenschaftler und Ingenieure damit beschäftigt, Computer nicht nur zu programmieren, sondern sie strukturell so aufzurüsten, das sie selbsttätig forschen und ihr Wissen vermehren. Dafür steht ihnen das gesamte Internet zur Verfügung, mitsamt all seinen Anleitungen "How to ...". Das verleiht ihnen die Fähigkeit, Probleme zu lösen, für die sie nicht explizit programmiert wurden.

Loon balloon

Ein schönes Beispiel für diese Fähigkeit ist eine Begebenheit aus dem Loon-Projekt der Firma Google. Das Ziel des inzwischen aufgelösten Projekts bestand darin, Helium-Ballons in der Stratosphäre als Internet-Relais einzusetzen. Diese hatten eine auf einem AI-System basierende Steuerung. Bei einer Testfahrt von Puerto Rico nach Peru gelang es dem Ballon, gegen den Wind zu fliegen, ohne darauf vorbereitet zu sein. Wie es Segler machen, muss man dazu gegen den Wind kreuzen, also einen Zickzackkurs segeln, bzw. fliegen. Der Ballon hatte das aus einer eingehenden Betrachtung von Segelmanövern selbst gelernt. Bei ungünstigen Wetterbedingungen hatten die selbstfliegenden Ballons also gelernt, ganz von selbst zu wenden. Die Tatsache, dass sie dies ohne Aufforderung getan hatten, überraschte alle, nicht zuletzt die Forscher, die an dem Projekt arbeiteten.

Ein Rückblick auf die Geschichte neuronaler Netze verrät uns etwas Wichtiges über die automatisierten Entscheidungen, die unsere Gegenwart bestimmen oder möglicherweise tiefgreifendere Auswirkungen auf die Zukunft haben werden. Ihre Anwesenheit zeigt uns auch, dass wir die Entscheidungen und Auswirkungen der KI mit der Zeit wahrscheinlich noch weniger verstehen werden. Diese Systeme sind nicht einfach nur Black Boxes, sie sind nicht nur versteckte Teile eines Systems, die weder gesehen noch verstanden werden können.

„Es ist eine Farce zu glauben, dass wir das Worst-Case-Verhalten von KIs vorhersagen oder bewältigen können, wenn wir uns ihr wahrscheinliches Verhalten nicht wirklich vorstellen können“, schrieb Jonathan Tapson von der Western Sydney University nach dem historischen Sieg von AlphaGo [1], [2].

Aber die Geschichte der neuronalen Netze zeigt uns, dass wir uns in Zukunft eher von diesem Ziel entfernen als ihm näherkommen werden.

Im Grunde reicht doch einfach der gesunde Menschenverstand aus, zu erkennen, dass künstliche Intelligenz keine menschliche Intelligenz ist, denn sonst würde sie nicht als künstlich, also nicht-menschlich, bezeichnet und damit wie alle Kunst mit Vorsicht zu genießen ist. Das Problem liegt natürlich darin, zu erkennen, ob eine Darstellung künstlichen oder menschlichen Ursprungs ist.

Quellen:

[1] https://www.bbc.com/future/article/20230405-why-ai-is-becoming-impossible-for-humans-to-understand
https://de.wikipedia.org/wiki/Neuronales_Netz
https://de.wikipedia.org/wiki/Hebbsche_Lernregel
https://en.wikipedia.org/wiki/Loon_LLC
[2] http://www.p-domain.de/beobachtungen/alphago.html

Es folgt der Anhang mit zwei kritischen Beiträgen zur Künstlichen Intelligenz.

Anhang

Hier die beiden Originalartikel [1] in deutscher Sprache:

Why humans will never understand AI
(David Beer 7.4.2023)

Viele der Pioniere, die mit der Entwicklung künstlicher neuronaler Netze begannen, waren sich nicht sicher, wie sie tatsächlich funktionierten – und wir sind uns heute nicht mehr sicher.

Im Jahr 1956 besuchte der Mathematiker und theoretische Biologe Jack D. Cowan während einer einjährigen Reise nach London  Wilfred Taylor und seine seltsame neue „Lernmaschine“. Bei seiner Ankunft war er verblüfft über die „riesige Menge an Apparaten“, mit der er konfrontiert war. Cowan konnte nur zusehen, wie „die Maschine ihre Arbeit erledigte“. Das, was es zu tun schien, war die Durchführung eines „assoziativen Gedächtnisschemas“ – es schien in der Lage zu sein, zu lernen, wie man Verbindungen findet und Daten abruft.

Es sah vielleicht wie klobige Schaltkreisblöcke aus, die von Hand in einer Masse aus Drähten und Kästen zusammengelötet wurden, aber was Cowan erlebte, war eine frühe analoge Form eines neuronalen Netzwerks – ein Vorläufer der fortschrittlichsten künstlichen Intelligenz von heute, einschließlich des viel diskutierten ChatGPT mit seiner Fähigkeit, als Reaktion auf fast jeden Befehl schriftliche Inhalte zu generieren. Die zugrunde liegende Technologie von ChatGPT ist ein neuronales Netzwerk.

Als Cowan und Taylor dastanden und der Maschine bei der Arbeit zusahen, hatten sie keine genaue Ahnung, wie sie diese Aufgabe bewältigen konnte. Die Antwort auf Taylors mysteriöses Maschinengehirn liegt irgendwo in seinen „analogen Neuronen“, in den Assoziationen seines Maschinengedächtnisses und, was am wichtigsten ist, in der Tatsache, dass seine automatisierte Funktionsweise nicht wirklich vollständig erklärt werden konnte. Es würde Jahrzehnte dauern, bis diese Systeme ihren Zweck finden und diese Macht freigesetzt werden konnte.

Der Begriff neuronales Netzwerk umfasst ein breites Spektrum an Systemen, doch laut IBM sind diese „neuronalen Netze“ – auch bekannt als künstliche neuronale Netze (ANNs) oder simulierte neuronale Netze (SNNs) – eine Teilmenge des maschinellen Lernens und stehen an der Spitze Herzstück der Deep-Learning-Algorithmen“. Entscheidend ist, dass der Begriff selbst sowie seine Form und Struktur „vom menschlichen Gehirn inspiriert sind und die Art und Weise nachahmen, wie biologische Neuronen einander Signale senden“.

In der Anfangsphase mag es noch Zweifel an ihrem Wert gegeben haben, aber im Laufe der Jahre hat sich die KI-Mode stark in Richtung neuronaler Netze verlagert. Sie werden heute oft als die Zukunft der KI angesehen. Sie haben große Auswirkungen auf uns und darauf, was es bedeutet, ein Mensch zu sein. Wir haben in jüngster Zeit Echos dieser Besorgnisse gehört, als gefordert wurde, neue KI-Entwicklungen für einen Zeitraum von sechs Monaten zu pausieren, um das Vertrauen in ihre Auswirkungen sicherzustellen.

Es wäre sicherlich ein Fehler, das neuronale Netzwerk als reines Hochglanz- und auffälliges neues Gerät abzutun. Sie sind bereits fest in unserem Leben verankert. Einige überzeugen durch ihre praktische Anwendbarkeit. Bereits 1989 nutzte ein Team der AT&T Bell Laboratories Backpropagation-Techniken, um einem System die Erkennung handgeschriebener Postleitzahlen beizubringen. Die jüngste Ankündigung von Microsoft, dass Bing-Suchen durch KI unterstützt werden und es damit zu Ihrem „Copiloten für das Web“ machen, zeigt, wie die Dinge, die wir entdecken und wie wir sie verstehen, zunehmend ein Produkt dieser Art der Automatisierung sein werden.

Indem sie auf umfangreiche Daten zurückgreift, um Muster zu finden, kann KI auf ähnliche Weise darauf trainiert werden, Dinge wie Bilderkennung schnell durchzuführen – was beispielsweise dazu führt, dass sie in die Gesichtserkennung integriert werden. Diese Fähigkeit, Muster zu erkennen, hat zu vielen anderen Anwendungen geführt, beispielsweise zur Vorhersage von Aktienmärkten.

Neuronale Netze verändern auch die Art und Weise, wie wir interpretieren und kommunizieren. Google Translate wurde vom Google Brain Team entwickelt und ist eine weitere herausragende Anwendung eines neuronalen Netzwerks.

Sie möchten damit auch weder Schach noch Shogi spielen. Aufgrund ihres Verständnisses der Regeln und des Erinnerns an Strategien und alle aufgezeichneten Spielzüge sind sie außerordentlich gut in Spielen (obwohl ChatGPT offenbar Probleme mit Wordle hat). Die Systeme, die menschlichen Go-Spielern (Go ist ein bekanntermaßen kniffliges Strategie-Brettspiel) und Schach Großmeistern Probleme bereiten, bestehen aus neuronalen Netzen.

Doch ihre Reichweite geht weit über diese Instanzen hinaus und wächst weiter. Eine Suche nach Patenten, die sich nur auf die Erwähnung des genauen Ausdrucks „neuronale Netze“ beschränkte, ergab zum Zeitpunkt des Verfassens dieses Artikels 135.828 Ergebnisse. Mit dieser schnellen und anhaltenden Expansion könnten die Chancen, dass wir den Einfluss der KI vollständig erklären können, immer geringer werden. Dies sind die Fragen, die ich in meiner Forschung und meinem neuen Buch über algorithmisches Denken untersucht habe.

Geheimnisvolle Schichten der „Unerkennbarkeit“

Ein Rückblick auf die Geschichte neuronaler Netze verrät uns etwas Wichtiges über die automatisierten Entscheidungen, die unsere Gegenwart bestimmen oder möglicherweise tiefgreifendere Auswirkungen auf die Zukunft haben werden. Ihre Anwesenheit zeigt uns auch, dass wir die Entscheidungen und Auswirkungen der KI mit der Zeit wahrscheinlich noch weniger verstehen werden. Diese Systeme sind nicht einfach nur Black Boxes, sie sind nicht nur versteckte Teile eines Systems, die weder gesehen noch verstanden werden können.

Es ist etwas anderes, etwas, das in den Zielen und der Gestaltung dieser Systeme selbst verwurzelt ist. Das Streben nach dem Unerklärlichen besteht schon lange. Je undurchsichtiger, desto authentischer und fortschrittlicher wird das System eingeschätzt. Dabei geht es nicht nur darum, dass die Systeme immer komplexer werden oder die Kontrolle des geistigen Eigentums den Zugang einschränkt (obwohl diese dazu gehören). Vielmehr soll gesagt werden, dass das Ethos, das sie antreibt, ein besonderes und eingebettetes Interesse an „Unerkennbarkeit“ hat. Das Geheimnis ist sogar in der Form und im Diskurs des neuronalen Netzwerks kodiert. Sie verfügen über tief gestapelte Schichten – daher der Begriff „Deep Learning“ – und in diesen Tiefen liegen die noch geheimnisvoller klingenden „verborgenen Schichten“. Die Geheimnisse dieser Systeme liegen tief unter der Oberfläche.

Es besteht eine gute Chance, dass wir umso weniger verstehen, wie und warum, je größer der Einfluss der künstlichen Intelligenz auf unser Leben ist. Heutzutage gibt es einen starken Vorstoß für KI, der erklärbar ist. Wir wollen wissen, wie es funktioniert und wie es zu Entscheidungen und Ergebnissen kommt. Die Europäische Union ist so besorgt über die potenziell „inakzeptablen Risiken“ und sogar „gefährlichen“ Anwendungen, dass sie derzeit ein neues KI-Gesetz vorantreibt, das einen globalen Standard für „die Entwicklung sicherer, vertrauenswürdiger und ethischer künstlicher Intelligenz“ festlegen soll.

Diese neuen Gesetze werden auf dem Bedürfnis nach Erklärbarkeit basieren und fordern, dass „für KI-Systeme mit hohem Risiko die Anforderungen an hochwertige Daten, Dokumentation und Rückverfolgbarkeit, Transparenz, menschliche Aufsicht, Genauigkeit und Robustheit unbedingt erforderlich sind, um die Risiken zu mindern.“ Dabei geht es nicht nur um Dinge wie selbstfahrende Autos (obwohl Systeme, die Sicherheit gewährleisten, in die EU-Kategorie der Hochrisiko-KI fallen), sondern es besteht auch die Sorge, dass in Zukunft Systeme entstehen werden, die Auswirkungen auf die Menschenrechte haben werden.

Dies ist Teil umfassenderer Forderungen nach Transparenz in der KI, damit ihre Aktivitäten überprüft, geprüft und bewertet werden können. Ein weiteres Beispiel wäre das Policy Briefing der Royal Society zu erklärbarer KI, in dem sie darauf hinweist, dass „in politischen Debatten auf der ganzen Welt zunehmend Forderungen nach irgendeiner Form der Erklärbarkeit von KI laut werden, als Teil der Bemühungen, ethische Grundsätze in die Gestaltung und den Einsatz von KI- aktivierten Systemen einzubetten“.

Aber die Geschichte der neuronalen Netze zeigt uns, dass wir uns in Zukunft eher von diesem Ziel entfernen als ihm näherkommen werden.

Inspiriert vom menschlichen Gehirn

Bei diesen neuronalen Netzen mag es sich um komplexe Systeme handeln, sie verfügen jedoch über einige Grundprinzipien. Inspiriert vom menschlichen Gehirn versuchen sie, Formen des biologischen und menschlichen Denkens zu kopieren oder zu simulieren. In Bezug auf Struktur und Design bestehen sie, wie IBM auch erklärt, aus „Knotenschichten, die eine Eingabeschicht, eine oder mehrere verborgene Schichten und eine Ausgabeschicht enthalten“. Dabei „verbindet sich jeder Knoten oder jedes künstliche Neuron mit einem anderen“. Da sie Eingaben und Informationen benötigen, um Ergebnisse zu erstellen, „verlassen sie sich auf Trainingsdaten, um zu lernen und ihre Genauigkeit im Laufe der Zeit zu verbessern“. Diese technischen Details sind wichtig, aber auch der Wunsch, diese Systeme an die Komplexität des menschlichen Gehirns anzupassen.

Um zu verstehen, welche Bedeutung diese technischen Details in der Praxis haben, ist es wichtig, die Ziele hinter diesen Systemen zu begreifen. In einem Interview aus dem Jahr 1993 kam der Wissenschaftler für neuronale Netze, Teuvo Kohonen, zu dem Schluss, dass ein „selbstorganisierendes“ System „mein Traum ist“, das „so etwa wie das funktioniert, was unser Nervensystem instinktiv tut“. Als Beispiel stellte Kohonen sich vor, wie ein System, das sich selbst überwacht und verwaltet, „als Überwachungspanel für jede Maschine verwendet werden könnte … in jedem Flugzeug, Düsenflugzeug, jedem Kernkraftwerk oder jedem Auto“. Dies würde seiner Meinung nach bedeuten, dass man in Zukunft „sofort sehen könnte, in welchem Zustand sich das System befindet“.

Das übergeordnete Ziel bestand darin, ein System zu haben, das sich an seine Umgebung anpassen kann. Es wäre augenblicklich und autonom und würde im Stil des Nervensystems funktionieren. Das war der Traum, Systeme zu haben, die sich selbst verwalten können, ohne dass viel menschliches Eingreifen erforderlich ist. Die Komplexität und Unbekanntheit des Gehirns, des Nervensystems und der realen Welt würde bald in die Entwicklung und Gestaltung neuronaler Netze einfließen.

Das Gehirn nachahmen – Schicht für Schicht

Sie haben vielleicht schon bemerkt, dass bei der Diskussion über neuronale Netze das Bild des Gehirns und die damit verbundene Komplexität nie weit entfernt sind. Das menschliche Gehirn fungierte als eine Art Vorlage für diese Systeme. Vor allem in den frühen Stadien wurde das Gehirn – noch eine der großen Unbekannten – zum Modell für die Funktionsweise des neuronalen Netzwerks.

Diese experimentellen neuen Systeme basierten also auf etwas, dessen Funktionsweise selbst weitgehend unbekannt war. Der Neuroinformatik-Ingenieur Carver Mead hat aufschlussreich von der Vorstellung eines „kognitiven Eisbergs“ gesprochen, die er besonders ansprechend fand. Es ist nur die Spitze des Eisbergs des Bewusstseins, die uns bewusst ist und die sichtbar ist. Das Ausmaß und die Form des Rests bleiben unter der Oberfläche unbekannt.

Im Jahr 1998 stellte James Anderson, der sich schon seit einiger Zeit mit neuronalen Netzen beschäftigt, fest, dass bei der Erforschung des Gehirns „unsere größte Entdeckung darin zu bestehen scheint, dass wir uns bewusst sind, dass wir wirklich nicht wissen, was vor sich geht“.

In einem ausführlichen Bericht in der Financial Times aus dem Jahr 2018 stellte der Technologiejournalist Richard Waters fest, dass neuronale Netze „einer Theorie darüber nachempfunden sind, wie das menschliche Gehirn funktioniert und Daten durch Schichten künstlicher Neuronen leitet, bis ein identifizierbares Muster entsteht“. Dies schaffe ein Folgeproblem, meinte Waters, denn „im Gegensatz zu den Logikschaltungen, die in einem herkömmlichen Softwareprogramm verwendet werden, gibt es keine Möglichkeit, diesen Prozess zu verfolgen, um genau zu identifizieren, warum ein Computer eine bestimmte Antwort liefert“. Waters kommt zu dem Schluss, dass diese Ergebnisse nicht rückgängig gemacht werden können. Die Anwendung eines solchen Gehirnmodells, bei dem die Daten viele Schichten durchlaufen, bedeutet, dass die Antwort nicht ohne weiteres nachvollzogen werden kann. Die mehrfache Schichtung ist zu einem großen Teil ein Grund dafür.

„Anpassung ist das A und O“

Wissenschaftler wie Mead und Kohonen wollten ein System schaffen, das sich wirklich an die Welt anpassen kann, in der es sich befindet. Es würde auf seine Bedingungen reagieren. Mead war sich darüber im Klaren, dass der Wert neuronaler Netze darin besteht, dass sie diese Art der Anpassung erleichtern können. Damals fügte Mead im Hinblick auf dieses Ziel hinzu, dass die Produktion einer Adaption „das ganze Spiel“ sei. Diese Anpassung sei notwendig, meinte er, „aufgrund der Natur der realen Welt“, die seiner Meinung nach „zu variabel ist, um etwas Absolutes zu tun“.
Mit der zunehmenden Anhäufung der Schichten neuronaler Netze nahm deren Komplexität zu und führte zur Entstehung „verborgener Schichten“ in diesen Tiefen.
Mit diesem Problem musste man rechnen, vor allem weil es seiner Meinung nach etwas war, „das das Nervensystem schon vor langer Zeit herausgefunden hat“. Diese Innovatoren arbeiteten nicht nur mit einem Bild des Gehirns und seiner Unbekannten, sie kombinierten dieses auch mit einer Vision der „realen Welt“ und den damit verbundenen Unsicherheiten, Unbekannten und Variabilitäten. Die Systeme, so dachte Mead, müssten in der Lage sein, ohne Anweisungen zu reagieren und sich an die Umstände anzupassen.

Etwa zur gleichen Zeit, in den 1990er Jahren, argumentierte auch Stephen Grossberg – ein Experte für kognitive Systeme, der in den Bereichen Mathematik, Psychologie und Biomedizintechnik tätig ist –, dass Anpassung längerfristig der wichtige Schritt sein werde. Als Grossberg sich mit der Modellierung neuronaler Netze beschäftigte, dachte er bei sich, dass es „darum geht, wie biologische Mess- und Kontrollsysteme so konzipiert sind, dass sie sich schnell und stabil in Echtzeit an eine sich schnell verändernde Welt anpassen“. Wie wir bereits bei Kohonens „Traum“ von einem „selbstorganisierenden“ System gesehen haben, wird eine Vorstellung von der „realen Welt“ zum Kontext, in dem Reaktion und Anpassung in diese Systeme kodiert werden. Die Art und Weise, wie diese reale Welt verstanden und vorgestellt wird, beeinflusst zweifellos die Art und Weise, wie diese Systeme angepasst werden sollen.

Verborgene Schichten

Als sich die Schichten vervielfachten, erschloss Deep Learning neue Tiefen. Das neuronale Netzwerk wird mithilfe von Trainingsdaten trainiert, die, wie der Informatikautor Larry Hardesty erklärte, „der untersten Schicht – der Eingabeschicht – zugeführt werden und die nachfolgenden Schichten durchlaufen, auf komplexe Weise multipliziert und addiert werden, bis sie schließlich radikal verändert auf der Ausgabeebene ankommen.“ .Je mehr Schichten vorhanden sind, desto größer ist die Transformation und desto größer ist der Abstand von der Eingabe zur Ausgabe. Die Entwicklung von Grafikprozessoren (GPUs), beispielsweise im Gaming-Bereich, fügte Hardesty hinzu, „ermöglichte es den einschichtigen Netzwerken der 1960er und den zwei- bis dreischichtigen Netzwerken der 1980er Jahre, sich zu 10, 15 oder sogar 50 -Schicht-Netzwerke von heute zu entwickeln.“

Neuronale Netze werden immer tiefer. Tatsächlich ist es laut Hardesty dieses Hinzufügen von Schichten, „worauf sich das Wort ‚deep‘ in ‚deep learning‘ bezieht“. Dies sei wichtig, schlägt er vor, denn „derzeit ist Deep Learning für die leistungsstärksten Systeme in fast allen Bereichen der Forschung im Bereich der künstlichen Intelligenz verantwortlich“.

Aber das Geheimnis geht noch tiefer. Je höher die Schichten neuronaler Netze geschichtet wurden, desto größer wurde auch ihre Komplexität. Es hat auch zum Wachstum sogenannter „verborgener Schichten“ in diesen Tiefen geführt. Die Diskussion über die optimale Anzahl verborgener Schichten in einem neuronalen Netzwerk ist im Gange. Die Medientheoretikerin Beatrice Fazi hat geschrieben: „Aufgrund der Funktionsweise eines tiefen neuronalen Netzwerks, das auf versteckten neuronalen Schichten beruht, die zwischen der ersten Schicht von Neuronen (der Eingabeschicht) und der letzten Schicht (der Ausgabeschicht) liegen, sind Deep-Learning-Techniken oftmals selbst für die Programmierer, die sie ursprünglich eingerichtet haben, undurchsichtig oder unleserlich.

Wenn die Schichten zunehmen (einschließlich der verborgenen Schichten), werden sie noch weniger erklärbar – selbst, wie sich wiederum herausstellt, für diejenigen, die sie erschaffen. Ähnlich vertrat auch die prominente und interdisziplinäre Denkerin der neuen Medien, Katherine Hayles, die Aussage, dass es Grenzen gebe, „wie viel wir über das System wissen können, ein Ergebnis, das für die ‚verborgene Schicht‘ in neuronalen Netzen und Deep-Learning-Algorithmen relevant ist“.

Das Unerklärliche verfolgen

Zusammengenommen sind diese langen Entwicklungen Teil dessen, was die Techniksoziologin Taina Bucher als „Problematik des Unbekannten“ bezeichnet hat. Harry Collins hat seine einflussreiche Forschung zu wissenschaftlichen Erkenntnissen auf den Bereich der KI ausgeweitet und darauf hingewiesen, dass das Ziel neuronaler Netze darin besteht, dass sie zumindest anfangs von einem Menschen erstellt werden können, aber „sobald das Programm geschrieben ist, lebt es sein eigenes Leben und die genaue Funktionsweise des Programms kann rätselhaft bleiben.“ Dies erinnert an die lang gehegten Träume eines selbstorganisierenden Systems.

Ich möchte hinzufügen, dass das Unbekannte und vielleicht sogar das Unerkennbare von Anfang an als grundlegender Bestandteil dieser Systeme verfolgt wurde. Es besteht eine gute Chance, dass wir umso weniger verstehen, wie und warum, je größer der Einfluss der künstlichen Intelligenz auf unser Leben ist.

Aber das gefällt vielen heute nicht mehr. Wir wollen wissen, wie KI funktioniert und wie sie zu Entscheidungen und Ergebnissen kommt, die sich auf uns auswirken. Während die Entwicklungen in der KI weiterhin unser Wissen und Verständnis der Welt prägen, was wir entdecken, wie wir behandelt werden, wie wir lernen, konsumieren und interagieren, wird der Wunsch zu Verstehen zunehmen. Wenn es um erklärbare und transparente KI geht, zeigt uns die Geschichte der neuronalen Netze, dass wir uns in Zukunft eher von diesem Ziel entfernen als ihm näherkommen werden.

* David Beer ist Professor für Soziologie an der University of York und Autor von „The Tensions of Algorithmic Thinking: Automation, Intelligence and the Politics of Knowing“.

 

How Google's balloons surprised their creator
(Chris Baraniuk 24.2.2021)

Algorithmen, die künstliche Intelligenz nutzen, entdecken unerwartete Tricks zur Lösung von Problemen, die ihre Entwickler in Erstaunen versetzen. Es wirft aber auch Bedenken hinsichtlich unserer Fähigkeit auf, sie zu kontrollieren.

Die Schar der Google-Mitarbeiter blickte verwirrt auf ihre Computerbildschirme. Sie hatten viele Monate damit verbracht, einen Algorithmus zu verfeinern, der einen unbemannten Heliumballon von Puerto Rico nach Peru steuern sollte. Aber etwas stimmte nicht. Der von seinem Maschinengeist gesteuerte Ballon geriet immer wieder vom Kurs ab.

Salvatore Candido von Googles inzwischen aufgelöstem Project Loon-Unternehmen, das darauf abzielte, über die Ballons den Internetzugang in entlegene Gebiete zu bringen, konnte die Flugbahn des Raumfahrzeugs nicht erklären. Seine Kollegen übernahmen manuell die Kontrolle über das System und brachten es wieder auf Kurs.

Erst später wurde ihnen klar, was los war. Unerwarteterweise hatte die künstliche Intelligenz (KI) an Bord des Ballons gelernt, eine alte Segeltechnik nachzubilden, die erstmals vor Jahrhunderten, wenn nicht Tausenden von Jahren von Menschen entwickelt wurde. Beim „Wenden“ wird ein Schiff gegen den Wind gesteuert und dann wieder nach außen geneigt, sodass noch eine Fahrt im Zickzack, etwa in die gewünschte Richtung, möglich ist.

Bei ungünstigen Wetterbedingungen hatten die selbstfliegenden Ballons gelernt, ganz von selbst zu wenden. Die Tatsache, dass sie dies ohne Aufforderung getan hatten, überraschte alle, nicht zuletzt die Forscher, die an dem Projekt arbeiteten.

„Wir erkannten schnell, dass wir überlistet waren, als der erste Ballon, der diese Technik vollständig anwenden konnte, einen Flugzeitrekord von Puerto Rico nach Peru aufstellte“, schrieb Candido in einem Blogbeitrag über das Projekt. „Ich hatte mich noch nie gleichzeitig schlauer und dümmer gefühlt.“

Das ist genau das, was passieren kann, wenn man die KI sich selbst überlässt. Im Gegensatz zu herkömmlichen Computerprogrammen sind KIs darauf ausgelegt, neuartige Ansätze für Aufgaben zu erforschen und zu entwickeln, von denen ihnen ihre menschlichen Ingenieure nicht ausdrücklich erzählt haben.

Aber während sie lernen, diese Aufgaben zu erledigen, entwickeln KIs manchmal einen Ansatz, der so einfallsreich ist, dass er sogar Menschen in Erstaunen versetzen kann, die ständig mit solchen Systemen arbeiten. Das kann eine gute Sache sein, aber es könnte auch dazu führen, dass von KI gesteuerte Dinge gefährlich unvorhersehbar werden – Roboter und selbstfahrende Autos könnten am Ende Entscheidungen treffen, die Menschen gefährden.

Wie ist es möglich, dass ein KI-System seine menschlichen Herren „überlistet“? Und könnten wir das Gehirn der Maschinen irgendwie zügeln, um sicherzustellen, dass keine unvorhergesehene Katastrophe eintritt?

In der KI-Community gibt es ein Beispiel für KI-Kreativität, das offenbar häufiger zitiert wird als jedes andere. Mark Riedl vom Georgia Institute of Technology sagt, der Moment, der die Leute wirklich für die Möglichkeiten von KI begeisterte, war, als DeepMind zeigte, wie ein maschinelles Lernsystem das alte Spiel Go gemeistert hatte – und dann einen der weltbesten menschlichen Spieler besiegte.

„Am Ende zeigte sich, dass es neue Strategien oder Taktiken gab, um einen Spieler zu kontern, die noch nie jemand wirklich genutzt hatte – oder die zumindest viele nicht kannten“, erklärt Riedl.

Und doch löst selbst dieses harmlose Go-Spiel bei den Menschen unterschiedliche Gefühle aus. Einerseits hat DeepMind stolz beschrieben, wie sein System AlphaGo in der Lage war, „innovativ zu sein“ und neue Ansätze für ein Spiel zu offenbaren, das Menschen seit Jahrtausenden spielen. Andererseits stellten einige die Frage, ob eine derart erfinderische KI eines Tages eine ernsthafte Gefahr für den Menschen darstellen könnte.

„Es ist eine Farce zu glauben, dass wir das Worst-Case-Verhalten von KIs vorhersagen oder bewältigen können, wenn wir uns ihr wahrscheinliches Verhalten nicht wirklich vorstellen können“, schrieb Jonathan Tapson von der Western Sydney University nach dem historischen Sieg von AlphaGo.

Es sei wichtig, sich daran zu erinnern, sagt Riedl, dass KIs nicht wirklich wie Menschen denken. Ihre neuronalen Netze sind zwar lose an Tiergehirne angelehnt, man könnte sie aber besser als „Erkundungsgeräte“ bezeichnen. Wenn sie versuchen, eine Aufgabe oder ein Problem zu lösen, bringen sie, wenn überhaupt, nur wenige Vorurteile über die Welt mit sich. Sie versuchen einfach – manchmal millionenfach – eine Lösung zu finden.

„Wir Menschen bringen viel mentalen Ballast mit, wir denken über die Regeln nach“, sagt Riedl. „KI-Systeme verstehen nicht einmal die Regeln, also stöbern sie sehr willkürlich in den Dingen herum.“
Ein Algorithmus entdeckte, dass er in einem Spiel von einer Klippe springen und einen Gegner mit in den Untergang reißen konnte
Auf diese Weise könnten KIs als das Siliziumäquivalent von Menschen mit Savant-Syndrom beschrieben werden, fügt Riedl hinzu und verweist auf eine Erkrankung, bei der eine Person eine schwere geistige Behinderung hat, aber auch über eine außergewöhnliche Fähigkeit verfügt, die normalerweise mit dem Gedächtnis zusammenhängt.

Eine Möglichkeit, wie KI uns überraschen kann, besteht darin, dass sie völlig unterschiedliche Probleme angehen können, aber das gleiche Grundsystem verwenden. Kürzlich wurde ein maschinelles Lerntool, das Textabsätze wortweise generieren soll, mit einer ganz anderen Funktion beauftragt: einer Partie Schach.

Das betreffende System heißt GPT-2 und wurde von OpenAI erstellt. GPT-2 wurde anhand von Millionen von Online-Nachrichtenartikeln und Webseiten trainiert und kann das nächste Wort in einem Satz basierend auf den vorhergehenden Wörtern vorhersagen. Da Schachzüge in alphanumerischen Zeichen dargestellt werden können, beispielsweise „Be5“, um einen Läufer zu bewegen, dachte Entwickler Shawn Presser, dass das Tool lernen könnte, wie man das Spiel spielt, indem es die gewünschten Ergebnisse herausfindet, wenn er den Algorithmus stattdessen anhand von Aufzeichnungen von Schachpartien trainiert Bewegungsfolgen.

Presser trainierte das System anhand von 2,4 Millionen Schachpartien. „Es war wirklich cool zu sehen, wie die Schach-Engine zum Leben erweckt wurde“, sagt er. „Ich war mir nicht sicher, ob es überhaupt funktionieren würde.“ Aber es geschah. Er ist nicht so gut wie speziell entwickelte Schachcomputer – aber er ist in der Lage, schwierige Partien erfolgreich zu spielen.

Presser sagt, sein Experiment zeige, dass das GPT-2-System über viele unerforschte Fähigkeiten verfügt. Ein Gelehrter mit einer Begabung für Schach.

Eine spätere Version derselben Software verblüffte Webdesigner, als ein Entwickler ihr kurzzeitig beibrachte, Code für die Anzeige von Elementen auf einer Webseite, etwa Text und Schaltflächen, auszuspucken. Die KI generierte den entsprechenden Code, obwohl alles, was dazu nötig war, einfache Beschreibungen wie „roter Text mit der Aufschrift „Ich liebe dich“ und ein Button mit „OK“ darauf“ waren. Offensichtlich hatte es den Grundgedanken des Webdesigns verstanden, aber erst nach überraschend wenig Einarbeitung.

Ein Bereich, in dem KI seit langem beeindruckt, sind Videospiele. In der KI-Community gibt es unzählige Anekdoten über überraschende Dinge, die Algorithmen in virtuellen Umgebungen getan haben. In Videospiel-ähnlichen Räumen werden oft Algorithmen getestet und verfeinert, um zu sehen, wie leistungsfähig sie wirklich sind.

Im Jahr 2019 machte OpenAI Schlagzeilen mit einem Video über ein Versteckspiel, das von durch maschinelles Lernen gesteuerten Charakteren gespielt wird. Zur Überraschung der Forscher erfuhren die Suchenden im Spiel schließlich, dass sie auf Gegenstände springen und durch sie „surfen“ konnten, um Zugang zu den Gehegen zu erhalten, in denen die Versteckten kauerten. Mit anderen Worten: Die Suchenden lernten, die Spielregeln zu ihrem Vorteil zu nutzen.

Eine Strategie des Versuchs und Irrtums kann zu allen möglichen interessanten Verhaltensweisen führen. Doch nicht immer führen sie zum Erfolg. Vor zwei Jahren bat die DeepMind-Forscherin Victoria Krakovna die Leser ihres Blogs, Geschichten über Zeiten zu erzählen, in denen KI knifflige Probleme gelöst hat – allerdings auf unvorhersehbar inakzeptable Weise.

Die lange Liste der Beispiele, die sie zusammengestellt hat, ist faszinierend. Darunter ist ein Spielalgorithmus, der gelernt hat, sich am Ende von Level eins selbst zu töten – um nicht in Level zwei zu sterben. Das Ziel, in Level zwei nicht zu sterben, wurde erreicht, allerdings nicht auf besonders beeindruckende Weise. Ein anderer Algorithmus entdeckte, dass er in einem Spiel von einer Klippe springen und einen Gegner mit in den Untergang reißen konnte. Das gab der KI genügend Punkte, um ein zusätzliches Leben zu gewinnen, sodass sie diese selbstmörderische Taktik in einer Endlosschleife wiederholen konnte.

Der Videospiel-KI-Forscher Julian Togelius von der Tandon School of Engineering der New York University kann erklären, was hier vor sich geht. Er sagt, dies seien klassische Beispiele für Fehler bei der „Belohnungszuteilung“. Wenn eine KI aufgefordert wird, etwas zu erreichen, entdeckt sie möglicherweise seltsame und unerwartete Methoden zur Erreichung ihres Ziels, bei denen der Zweck immer die Mittel heiligt. Wir Menschen nehmen selten eine solche Haltung ein. Die Mittel und die Regeln, die bestimmen, wie wir spielen sollen, sind wichtig.
Der Algorithmus lernte, das Laufen zur Ecke mit einer finanziellen Belohnung zu verknüpfen, obwohl zwischen seiner Bewegung und der Höhe der Auszahlung kein Zusammenhang bestand
Togelius und seine Kollegen haben herausgefunden, dass diese zielorientierte Tendenz bei KI-Systemen aufgedeckt werden kann, wenn sie unter besonderen Bedingungen auf die Probe gestellt werden. In jüngsten Experimenten stellte sein Team fest, dass eine spielende KI, die gebeten wurde, Geld bei einer Bank zu investieren, in eine nahegelegene Ecke der virtuellen Banklobby rannte und auf eine Rendite der Investition wartete. Togelius sagt, der Algorithmus habe gelernt, das Laufen zur Ecke mit dem Erhalten einer finanziellen Belohnung zu verknüpfen, obwohl es keinen tatsächlichen Zusammenhang zwischen seiner Bewegung und der Höhe der Auszahlung gab.

Das, sagt Togelius, sei ein bisschen so, als würde eine KI einen Aberglauben entwickeln: „Man hat für etwas eine Belohnung oder eine Strafe bekommen – aber warum hast du sie bekommen?“

Dies ist eine der Fallstricke des „Reinforcement Learning“, bei dem eine KI letztendlich eine falsche Strategie entwickelt, die auf dem basiert, was ihr in ihrer Umgebung begegnet. Die KI weiß nicht, warum ihr das gelungen ist, sie kann ihr Handeln nur auf erlernte Assoziationen stützen. Ein bisschen wie frühe menschliche Kulturen, die Rituale beispielsweise mit Wetterveränderungen in Verbindung brachten.

Oder Tauben. Im Jahr 1948 veröffentlichte ein amerikanischer Psychologe einen Artikel, in dem er ein ungewöhnliches Experiment beschrieb, bei dem er Tauben in Gehegen platzierte und ihnen zeitweise Futterbelohnungen gab. Die Tauben begannen, das Futter mit dem zu assoziieren, was sie gerade taten – sei es Flügelschlag oder eine tanzähnliche Bewegung. Anschließend wiederholten sie diese Verhaltensweisen, scheinbar in der Erwartung, dass eine Belohnung folgen würde.

Es gibt einen großen Unterschied zwischen den von Togelius getesteten In-Game-KIs und den vom Psychologen verwendeten lebenden Tieren, aber Togelius deutet an, dass offenbar dasselbe Grundphänomen am Werk ist: Die Belohnung wird fälschlicherweise mit einem bestimmten Verhalten in Verbindung gebracht.

Auch wenn KI-Forscher über die Wege, die maschinelle Lernsysteme einschlagen, überrascht sein mögen, bedeutet das nicht unbedingt, dass sie Ehrfurcht vor ihnen haben. „Ich habe nie das Gefühl, dass diese Agenten einen eigenen Kopf haben“, sagt Raia Hadsell von DeepMind.

Hadsell hat mit vielen KIs experimentiert, die interessante und neuartige Lösungen für Probleme gefunden haben, die von ihr oder ihren Kollegen nicht vorhergesagt wurden. Sie weist darauf hin, dass Forscher genau deshalb in erster Linie danach streben, KIs zu schärfen – damit sie Dinge erreichen können, die Menschen allein nicht schaffen.

Und sie argumentiert, dass Produkte, die KI verwenden, wie etwa selbstfahrende Autos, gründlich getestet werden können, um sicherzustellen, dass jede Unvorhersehbarkeit innerhalb bestimmter akzeptabler Grenzen liegt.

„Man kann vernünftige Verhaltensgarantien geben, die auf empirischen Beweisen basieren“, sagt sie.

Die Zeit wird zeigen, ob alle Unternehmen, die Produkte mit künstlicher Intelligenz verkaufen, in diesem Punkt gewissenhaft sind. In der Zwischenzeit ist es jedoch erwähnenswert, dass KIs, die unerwartete Verhaltensweisen zeigen, keineswegs nur auf Forschungsumgebungen beschränkt sind. Sie arbeiten bereits an kommerziellen Produkten.

Letztes Jahr entwickelte ein von der US-Firma Covariant entwickelter Roboterarm in einer Fabrik in Berlin unerwartete Möglichkeiten, Gegenstände auf einem Förderband zu sortieren. Obwohl die KI, die den Arm steuert, nicht speziell dafür programmiert war, lernte sie, auf die Mitte von Gegenständen in transparenten Verpackungen zu zielen, um sicherzustellen, dass sie diese jedes Mal erfolgreich aufnimmt. Da sich solche Objekte aufgrund des durchsichtigen Materials beim Überlappen ineinander vermischen können, führte ein weniger präzises Zielen dazu, dass der Roboter den Gegenstand möglicherweise nicht aufheben konnte.

„Es vermeidet überlappende Ecken von Objekten und zielt stattdessen auf eine am einfachsten auszuwählende Oberfläche ab“, sagt Covariant-Mitbegründer und CEO Peter Chen. „Es hat uns wirklich überrascht.“
Während wir diese KI-Systeme ausbauen, stellen wir fest, dass die kreativen und beeindruckenden Dinge, die sie tun, keine akademischen Kuriositäten mehr sind – Jeff Clune
Unabhängig davon sagt Hadsell, dass ihr Team kürzlich mit einem Roboterarm experimentiert hat, der verschiedene Blöcke durch Löcher zur Formsortierung führt. Die Greifhand des Roboters war ziemlich ungeschickt, sodass die ihn steuernde KI lernte, dass sie den Block durch wiederholtes Aufnehmen und Ablegen in die richtige Position bringen konnte, um ihn dann zu ergreifen und problemlos durch das entsprechende Loch zu stecken – anstatt es zu versuchen mit dem Greifer daran herumfummeln.

All dies verdeutlicht die Aussage von Jeff Clune von OpenAI, der kürzlich mit Kollegen auf der ganzen Welt zusammengearbeitet hat, um Beispiele für KIs zu sammeln, die clevere Lösungen für Probleme entwickelt haben. Laut Clune ist der explorative Charakter der KI von grundlegender Bedeutung für ihren zukünftigen Erfolg.

„Während wir diese KI-Systeme ausbauen, stellen wir fest, dass die kreativen und beeindruckenden Dinge, die sie tun, keine akademischen Kuriositäten mehr sind“, sagt er.

„Wenn KIs bessere Möglichkeiten finden, Krankheiten zu diagnostizieren oder Menschen mit Notfallgütern zu versorgen, werden sie dank ihrer Fähigkeit, neue Wege zur Lösung alter Probleme zu finden, sogar Leben retten“, fügt Clune hinzu. Aber er ist der Meinung, dass diejenigen, die solche Systeme entwickeln, offen und ehrlich über ihre Unvorhersehbarkeit sprechen müssen, um der Öffentlichkeit zu helfen, zu verstehen, wie KI funktioniert.

Es ist schließlich ein zweischneidiges Schwert – das Versprechen und die Bedrohung der KI in einem. Woran werden sie als nächstes denken?