Die Mär von der Superintelligenz

Künstliche Intelligenz kann sich weniger denn je mit menschlichem Denken messen.

Die Illustration zeigt einen intelligenten Computer, der ohne die Hilfe des Menschen nicht arbeiten kann
Eine KI kann Unmengen an Daten speichern, aber kaum einen VW von einem Mercedes unterscheiden. © Matthias Seifarth

Schon die ersten Forscher auf dem Gebiet der künstli­chen Intelligenz (KI) hatten sehr viel versprochen. So hatte etwa Herbert Simon, einer der wichtigsten KI-Pioniere, 1965 behauptet, KI werde innerhalb von zwanzig Jahren alle menschlichen Arbeiten übernehmen können. Als sich diese Hoffnungen nicht erfüllten, kam es in den 1980ern zum ersten „KI-Winter“. Die Forschung verlor das Interesse, es flossen kaum noch Fördermittel und Unternehmen investierten wieder in konventionelle Informatik.

Dann blühte das…

Sie wollen den ganzen Artikel downloaden? Mit der PH+-Flatrate haben Sie unbegrenzten Zugriff auf über 2.000 Artikel. Jetzt bestellen

kaum noch Fördermittel und Unternehmen investierten wieder in konventionelle Informatik.

Dann blühte das Gebiet wieder auf, es folgten abermals Versprechungen und Enttäuschungen, wieder ein KI-Winter und so weiter. Im Ergebnis wurde durchaus einiges erreicht – zum Beispiel wurde dieser Text mit einer Spracherkennungssoftware geschrieben, die besser wird, je häufiger sie benutzt wird. Außerdem hatte der Informatiker John McCarthy, ein anderer KI-Pionier, wohl recht, als er sagte: „Wenn etwas funktioniert, wird es nicht mehr KI genannt.“ Trotzdem: Der größte Teil der Versprechungen wurde enttäuscht – die meisten körperlichen und geistigen Arbeiten werden weiterhin von uns Menschen erledigt.

Dennoch ist heute mal wieder viel von KI die Rede. Diesmal soll die enorme Informationsmasse aus dem Internet samt sozialer Netzwerke analysiert und mit Techniken des machine learning weiterverarbeitet werden, um komplexe Zusammenhänge zu erkennen und Vorhersagen zu ermöglichen. Dazu werden die Systeme mit riesigen Datenmengen trainiert, in denen sie dann statistische Muster erkennen und auf neue Daten anwenden. So konnte zum Beispiel bei dem sehr komplizierten Strategiespiel Go das KI-Programm AlphaGo die stärksten menschlichen Spieler schlagen, weil es zuvor mit Millionen Partien zwischen starken menschlichen Spielern trainiert worden war.

Auch Roboter und Fahrzeuge, die KI-Techniken verwenden, greifen dauernd auf das Internet zu und sammeln Unmengen an Nutzerdaten, die dann wiederum von KI genutzt werden. Und wieder verkünden KI-Konzerne und Start-up-Firmen, dass in rund zwanzig Jahren KI den Menschen in den meisten geistigen Bereichen überlegen sein werde.

Eng mit der Psychologie verbunden

Zwanzig Jahre sind ein ideales Zeitfenster für riskante Prognosen, wie Nick Bostrom in seinem Buch Superintelligenz feststellt. Fünf Jahre wären zu kurz. Wir würden die Vorboten dieser Entwicklung bereits in heutigen Technologien sehen können. Hundert Jahre würden kaum interessant klingen. Ein Zeitintervall von zwanzig Jahren betrifft aber noch die meisten jetzt lebenden Menschen und klingt realistisch genug, um ernst genommen zu werden. Hinzu kommt, dass viele der Propheten in zwei Jahrzehnten nicht mehr für mögliche Fehlprognosen verantwortlich gemacht werden können.

Eines ist heute anders als in früheren Blütezeiten der KI. Bisher war KI immer eng mit Psychologie verbunden. Ein gutes Beispiel sind „semantische Netze“, die 1968 von dem Informatiker Ross Quillian zur Darstellung von Wissen in KI-Systemen entwickelt wurden. Kurz darauf übertrug der Psychologe Allan Collins diese Theorie gemeinsam mit Quillian auf den Menschen.

Das noch heute aktuelle Modell erklärt, wie Wissen im menschlichen Gedächtnis organisiert ist, zum Beispiel dass eine Meise ein Vogel ist, dass Vögel fliegen können und Eier legen, dass Vögel Lebewesen sind, die atmen, und so weiter. Diese und viele andere Gedächtnistheorien sind untrennbar mit Modellen der KI verbunden und heute in fast jedem Lehrbuch der Kognitionspsychologie zu finden.

Ebenso erfolgreich war die Zusammenarbeit zwischen Psychologie und KI in der Disziplin des Problemlösens, beschrieben als ein Prozess, bei dem ein (unerwünschter) Anfangszustand Schritt für Schritt in einen (erwünschten) Zielzustand überführt wird. In anderen Gebieten haben beide Disziplinen gerade aus Unterschieden gelernt. So denken Menschen oft anders als KI-Systeme, die nur auf der Anwendung logischer Regeln beruhen. KI-Forscher entwickelten deshalb Programme, die logische Schlussfolgerungen zurücknehmen oder aufweichen können. So ist KI der Intelligenz von Menschen immer ähnlicher geworden, aber von dieser Zusammenarbeit ist heute kaum noch etwas übriggeblieben.

Daten sind kein Wissen

Aber was hat KI heute mit menschlicher Intelligenz gemeinsam und wo liegen die Unterschiede? Für Kognitionspsychologen hängen intelligente Leistungen entscheidend von zwei Faktoren ab: von der Menge der Information, die gleichzeitig berücksichtigt werden kann, und von dem Wissen, ohne das intelligentes Verhalten nicht möglich ist. Was die Menge der Information betrifft, könnten Menschen und KI kaum unterschiedlicher sein.

Während Menschen nur eine sehr geringe Anzahl von Information gleichzeitig im Gedächtnis aktiv halten können, nutzt KI riesige Arbeitsspeicher, um unglaubliche Datenmengen gleichzeitig zu verarbeiten. Allerdings können Menschen ihre beschränkten Ressourcen sehr effizient nutzen. KI profitiert hingegen inzwischen von extrem leistungsfähiger Hardware.

Auch beim Wissen bestehen große Unterschiede zwischen KI und Menschen. Durch den Zugriff auf enorme Datenmengen könnte man hier eine Überlegenheit der KI vermuten. Allerdings sind Daten und Information nicht mit Wissen zu verwechseln. So ist ein großer Teil unseres menschlichen Wissens mit körperlichen Erfahrungen verbunden. Zwar weiß wohl jeder, was das Wort „Liebe“ ungefähr bedeutet, aber dieses abstrakte Konzept bliebe unvollständig, wenn Sie sich nicht auch an das Gefühl im Bauch erinnerten, als Sie zum ersten Mal verliebt waren.

Katze oder Hydrant?

Die Kognitionspsychologie weiß seit langem, dass solche körperlichen Erfahrungen wichtig sind, um zuverlässiges Wissen zu erlangen. Über unseren Körper ist eine Rückkopplung mit der Umwelt möglich und können wir unsere Hypothesen über die Welt prüfen. Man kann sich das an folgendem Beispiel gut verdeutlichen: Aus Internetformularen kennen Sie die Felder, in denen Sie anhand einer kleinen Testaufgabe nachweisen müssen, dass Sie ein menschlicher Nutzer und kein Algorithmus sind.

Man nennt diese Tests „Captchas“. Bei Kachel-Captchas etwa haben Sie die Aufgabe, auf diejenige Kachel zu klicken, auf der eine Katze oder ein Hydrant abgebildet ist. Eine KI tut sich damit schwer: Wenn ein Hydrant aus einem bestimmten Winkel aufgenommen wurde oder sich vor einem bestimmten Hintergrund befindet, muss sie oft passen.

Für Menschen ist es jedoch einfach, den Hydranten zu erkennen. Warum? Weil Sie in der realen Welt Ihren Körper einsetzen und im Zweifel nur ein wenig den Kopf neigen oder einen Schritt zur Seite gehen müssen, um den abgebildeten Gegenstand zu identifizieren. Mit Ihren Klicks bieten Menschen den Firmen wertvolles Wissen, das mit KI aus reinen Daten und Fotos nicht gewonnen werden kann.

Im Internet sind Einhörner real

Das Wissen von Menschen und die Datensammlung einer KI unterscheiden sich noch in einem weiteren wichtigen Aspekt. Wissen beruht auf subjektiven Überzeugungen. Sie können zum Beispiel davon überzeugt sein, dass Donald Trump auch im Jahr 2021 noch US-Präsident ist. Diese Überzeugung wird aber erst zu Wissen, wenn das tatsächlich der Fall ist. Ansonsten bleibt es nur eine Überzeugung, die wahr oder falsch sein kann. Nur wenn eine Überzeugung wahr ist, wird sie als Wissen bezeichnet.

In der Kognitionspsychologie sagen wir, eine bestimmte Aussage habe einen „Wahrheitswert“, wenn man entscheiden kann, ob sie wahr oder falsch ist. Ein Katzenfoto hat keinen solchen Wahrheitswert, ebenso wenig wie ein Foto eines Einhorns. Katzen gibt es, Einhörner nicht, aber von beiden gibt es viele Bilder im Internet. Aufgrund von Bildern kann KI den Unterschied zwischen Katzen und Einhörnern aber nicht wissen.

Hier liegt ein Grundproblem der heutigen KI, das mit den bisherigen Verfahren kaum zu lösen ist. Früher wurde in der KI versucht, menschliches Wissen nachzubilden. Heute greifen Algorithmen auf das Internet zu und stellen Korrelationen her, ohne etwas über die Welt zu wissen und ohne beurteilen zu können, ob etwas wahr oder falsch ist. Katzen, Hydranten, Einhörner, Flugzeuge, Menschen, Zombies, Nachrichten, Fakenews, Vorurteile, Liebeserklärung und Beschimpfung: Für eine KI hat das alles keinerlei Bedeutung, sie berechnet lediglich mathematische Zusammenhänge darüber, was mit was im Internet häufiger oder seltener gemeinsam auftritt.

Dumme, vulgäre Algorithmen

Aber wie werden Informationen von Menschen und in der KI verarbeitet? Auch hier könnte der Unterschied kaum größer sein. Da Menschen über relativ beschränkte Ressourcen zur Verarbeitung von Informationen verfügen, haben sich im Laufe der Evolution sehr intelligente Verfahren entwickelt, effizient damit umzugehen. Dabei spielen oft Heuristiken eine wichtige Rolle. Das sind Faustregeln, mit denen wir relativ schnell zu guten Lösungen für Probleme und Entscheidungen kommen.

Jemand fragt Sie: Welche Stadt hat mehr Einwohner: San Diego oder San Antonio? Sie können nun im Internet suchen, aber dann werden Sie zunächst bei Flugverbindungen von Airlines oder touristischen Attraktionen landen. Sie können aber auch rasch folgende Faustregel zurate ziehen: „Von größeren Städten habe ich wahrscheinlich schon häufiger gehört als von kleineren.“ – Also: San Diego. Richtig. Der Kognitionspsychologe Gerd Gigerenzer hat gezeigt, dass Menschen solche Heuristiken sehr erfolgreich nutzen.

Heuristiken sind schnell und effizient, weil sie einen großen Teil der verfügbaren Information ignorieren. Sie durchsuchen nicht den gesamten Raum aller Möglichkeiten, sondern verwenden Wissen, um die Möglichkeiten auf eine möglichst kleine Anzahl zu reduzieren. In der KI wurde deshalb eine Zeitlang versucht, die Systeme mit umfangreichem Wissen über die Welt auszustatten, allerdings sind diese Ansätze heute nicht mehr en vogue. Dabei könnten eigentlich dumme Algorithmen durchaus von mehr Wissen profitieren.

Nur Korrelation ohne Weltwissen birgt Risiken

Ein schönes Beispiel dafür hat der Big-Data-Experte Krzysztof Janowicz von der University of California berichtet. Ein KI-System benötigt normalerweise hunderttausende von Lerndurchgängen, um einen VW Golf von einem S-Klasse-Mercedes zu unterscheiden. Versieht man das System aber nur mit ein wenig Wissen über Luxuskarossen, etwa dass sie oft dort parken, wo auch andere Luxuslimousinen stehen, kann es den Mercedes sofort identifizieren.

Wohin es hingegen führen kann, wenn Algorithmen allein auf Korrelationen ohne Weltwissen beruhen, hat sich in den letzten Jahren an vielen Stellen herausgestellt: Amazon musste eine KI zur Personalauswahl wieder einstampfen. Sie hatte ausschließlich weiße Männer mittleren Alters ausgewählt. Google versprach vor einigen Jahren, auf der Grundlage von Suchanfragen die nächste Grippewelle vorherzusagen. Hat nicht geklappt. Der KI-Bot „Tay“ von Microsoft leugnete kurz nach seinem Start den Holocaust und beschimpfte Frauen als Huren. Er wurde ganz schnell wieder abgeschaltet. Eine KI von Google bezeichnete Afroamerikanerinnen als „Gorillas“ und löste entsprechende Empörung aus.

Natürlich manifestieren sich im Internet auch die Stereotypen, Vorurteile und rassistischen oder sexistischen Überzeugungen von Menschen. Im Unterschied zur KI haben Menschen aber das Potenzial, diese Fehler zu erkennen und zu korrigieren. KI ist dazu oft nicht in der Lage. Schon in den frühen Phasen der KI gab es die Redensart garbage in – garbage out: Wo du Müll hineinsteckst, kommt auch Müll heraus. Mit den heutigen Ansätzen in der KI bekommt diese Erkenntnis aber eine neue Dimension. Einfache Filter, wie sie zum Beispiel bei Facebook gegen Hassbotschaften eingesetzt werden, sind wenig treffsicher, weil sie nicht über das nötige Wissen und moralische Urteilsvermögen verfügen.

Oft wird behauptet, KI habe viel mit dem menschlichen Gehirn gemeinsam. Tatsächlich wurden schon in den 1980er Jahren die sogenannten „künstlichen neuronalen Netze“ entwickelt. Der britische Informatiker Geoffrey Hinton gilt er als einer der Väter des deep learning, eines maschinellen Lernverfahrens, das inzwischen den meisten KI-Systemen mit künstlichen neuronalen Netzen zugrunde liegt.

Neuronale Netze

Lernen funktioniert in künstlichen neuronalen Netzen eigentlich recht simpel. Eine Anzahl von Schalt­elementen wird zu einem Netzwerk verbunden. Jedes dieser Schaltelemente empfängt und sendet Signale an andere Schaltelemente. Die Schaltelemente werden – angelehnt an menschliche Nervenzellen – als „Neurone“ bezeichnet. Jedes Neuron ändert seinen Zustand abhängig von den Signalen der anderen Neurone.

Die Neurone sind in Schichten angeordnet. Die erste Schicht, die Eingabeschicht, verarbeitet die Eingangsdaten, zum Beispiel die Pixel eines Katzenfotos. Dann folgen sehr viele Zwischenschichten, die zum Beispiel bestimmte Formen oder Kanten erkennen. Die letzte Schicht, die Ausgabeschicht, liefert dann eine Klassifikation, also zum Beispiel ob es sich bei dem Bild um eine Katze handelt.

Wichtig ist dabei, dass die Signalverarbeitung zwischen den Neuronen nicht von vornherein festgelegt ist, sondern mit der Zeit gelernt wird. Das neuronale Netz fängt mit Raten an und probiert dann sehr viele Verknüpfungsmöglichkeiten aus. Wenn es zum Beispiel mit Bildern gefüttert wird, die als Katze oder Hunde bezeichnet sind, überprüft und korrigiert es die Gewichte der Neurone so lange, bis eine richtige Klassifikation vorgenommen wird.

Eben doch kein menschliches Gehirn

Das klingt nach vielen Gemeinsamkeiten mit dem menschlichen Gehirn. Aber der Schein trügt. Bereits in den 1980ern wurde der Ansatz von vielen ­Forschern kritisiert und als ungeeignet verworfen. Im Aufbau, aber auch in der Leistung gibt es enorme Unterschiede zum menschlichen Gehirn. In der Regel kann ein neuronales Netz nur eine einzige Aufgabe lernen, zum Beispiel Katzen von Hunden zu unterscheiden. Dafür braucht es aber viele tausend Beispiele von Katzen und Hunden. Und es muss meist jedes Mal eine ausdrückliche Rückmeldung darüber erhalten, ob es nun richtig gelegen hat.

Dieses Netzwerk ist überdies zu nichts anderem in der Lage. Es kann nicht einmal Männer von Frauen unterscheiden. Dafür bedarf es eines anderen Netzwerkes, das wiederum aus tausenden von Beispielen lernen muss. Eine solche starre Spezialisierung gibt es im menschlichen Gehirn nicht. Zudem lernen Menschen oft sehr effektiv aus nur sehr wenigen Erfahrungen. Kinder wissen nach wenigen Begegnungen mit Hunden, was ein Hund ist und was nicht. Und manche Sachen lassen sich mit einer einzigen Erfahrung lernen, zum Beispiel dass es nicht gut ist, auf eine heiße Herdplatte zu fassen.

Wohin geht die Reise?

Offenbar hat sich die heutige KI weitgehend von der menschlichen Intelligenz als Vorbild verabschiedet. Und die Kognitionspsychologie glaubt inzwischen nicht mehr, dass mit dieser Art von KI etwas über menschliche Intelligenz zu erfahren ist. Beim Vergleich zwischen menschlicher und künstlicher Intelligenz sollten deshalb verschiedene Ziele unterschieden werden.

Unter „schwacher KI“ verstehen wir Systeme, die für eine sehr spezielle Aufgabe, zum Beispiel Go spielen oder Röntgenbilder analysieren gemacht sind und dies auf eine Weise tun, die nicht unbedingt etwas mit menschlicher Intelligenz zu tun hat. Was wir heute als KI bezeichnen, fällt meist in diese Kategorie. Unter „starker KI“ fassen wir Systeme zusammen, die ebenfalls auf bestimmte Aufgaben spezialisiert sind, aber diese Arbeiten auf eine menschenähnliche Weise erledigen. In diesem Bereich gab es traditionell die engste Kooperation zwischen Kognitionspsychologen und KI-Forschern. Davon ist zurzeit nur wenig übriggeblieben.

Eine dritte Art von KI können wir als „generelle KI“ bezeichnen. Der Begriff ist jüngeren Datums und soll für Systeme stehen, die nicht nur auf eine Aufgabe spezialisiert sind, sondern ihre Intelligenz auf verschiedene Aufgabenstellungen anwenden. Im Idealfall kann so eine generelle KI Schach und Go spielen, Röntgenbilder analysieren und Fakenews von seriös recherchierten Nachrichten unterscheiden. Wenn das gelingen sollte, hätte das schon sehr viel mit menschlicher Intelligenz zu tun. Bisher ist davon aber so gut wie nichts zu sehen.

Und schließlich können wir von „Superintelligenz“ sprechen, wenn eine KI dem Menschen in allen geistigen Fähigkeiten überlegen wäre. Bisher gibt es praktisch keine Anzeichen dafür, dass dieses Ziel mittelfristig erreicht werden könnte. Viele Fragen sind vollkommen ungeklärt: Wie können wir Bewusstsein in KI-Systemen nachbilden? Ist Bewusstsein für intelligentes Verhalten überhaupt notwendig? Welche ethischen Fragen stellen sich damit? Sind menschliches Bewusstsein und Intelligenz wirklich nichts anderes als die nüchterne Verarbeitung von Information und Bits und Bytes?

Auf all das kennen wir bisher keine befriedigenden Antworten. Am wahrscheinlichsten ist deshalb, dass sich einige Ergebnisse der KI-Forschung in zukünftigen Geräten unseres Alltags und mehr oder weniger nützlicher Software bemerkbar machen werden. Die wirklich grandiosen Versprechungen über künstliche Intelligenz werden aber wahrscheinlich wieder einmal auf ebenso grandiose Weise scheitern. Denn: Intelligenz ohne Körper, ohne eigene Erfahrungen mit der Umwelt ist kaum möglich. Und Intelligenz ohne echtes Wissen über die Welt, ohne die Möglichkeit, etwas als wahr oder falsch, als Ursache oder Wirkung zu erkennen, ist kaum vorstellbar. Der nächste KI-Winter kommt bestimmt.

Markus Knauff ist Professor für Psychologie und Kognitionsforschung an der Universität Gießen. Seine Forschungsgebiete sind Denken und andere höhere kognitive Prozesse in Menschen und Computern

Zum Weiterlesen

Hector J. Levesque: Common sense, the Turing test, and the quest for real AI. MIT Press, Cambridge 2018

Krzysztof Janowicz, Frank van Harmelen, James A. Hendler, Pascal Hitzler: Why the data train needs semantic rails. AI Magazine, 36/1, 2015

Dieser Artikel befindet sich in der Ausgabe: Psychologie Heute 4/2020: Mein wunder Punkt