Sind wieder einmal nur Reste im Kühlschrank, die sich so gar nicht zu einer Mahlzeit fügen wollen? Aioli, Aprikosen, Tintenfisch und Senf? Fragen Sie Watson. Watson ist ein Programm der Firma IBM. 2011 machte es von sich reden, als es die menschlichen Champions in der amerikanischen Quizshow Jeopardy! besiegte. Neuerdings kreiert es Rezepte. Auf der Website www.ibmchefwatson.com kann man (nach Anmeldung) eingeben, welche Zutaten zur Hand sind, und innerhalb von Millisekunden liefert Watson Ideen dazu.…
Sie wollen den ganzen Artikel downloaden? Mit der PH+-Flatrate haben Sie unbegrenzten Zugriff auf über 2.000 Artikel. Jetzt bestellen
und innerhalb von Millisekunden liefert Watson Ideen dazu. Aioli-Tacos zum Beispiel. Diese Kreationen sucht Watson nicht einfach aus einer Datenbank heraus. Vielmehr haben seine Algorithmen Tausende von Rezepten darauf hin untersucht, was Menschen so mögen, und auf dieser Basis entwirft Watson neue. Wie das Selleriesandwich und die Schokoladenburritos. Watson ist ein Publikumsmagnet.
Kognitives Kochen nennt IBM diese kulinarischen Experimente. Kognitiv soll heißen: Die Maschine denkt. Das kognitive Kochen ist, wie der Auftritt bei Jeopardy!, ein verspielter Teil der kognitiven Informatik, jener Disziplin, die Computer, Roboter und andere Maschinen richtig klug machen will. So klug, dass wir uns in natürlicher Sprache mit ihnen unterhalten können, so klug, dass sie uns angenehme und ungefährliche Helfer und Gefährten sein können. Watsons Spezialität ist die Analyse von Texten und Datenbanken. Das Programm soll aus den Datenmassen, die uns umgeben, die Antworten herausfiltern, die wir haben möchten, auf den Finanzmärkten ebenso wie im Gesundheitswesen. Watson wird die Industrie revolutionieren wie kaum etwas zuvor, versprechen seine Entwickler.
Durch zunehmend leistungsfähigere Prozessoren und Batterien, neue flexible Materialien und den Zugriff auf gigantische Datenmengen gelingt künstlichen Systemen immer häufiger, was der Mensch bislang als seine ureigene Domäne angesehen hat. Programme komponieren Musik, die auch Fachleute nicht von Menschenwerk unterscheiden können; interaktive Dialogsysteme, sogenannte Chatbots, lassen Menschen glauben, sie hätten es mit einem menschlichen Gegenüber zu tun. „Intelligente Technik wird ein immer selbstverständlicherer Teil unserer Lebenswelt sein“, sagt Helge Ritter, Professor für Neuroinformatik an der Universität Bielefeld.
„Superintelligenz“: eine alte Schreckensvision
Zwar sind die meisten computergenerierten Witze (noch) nicht besonders komisch, und auch bei Watsons Rezepten scheint ein kritischer Blick empfehlenswert. Dennoch beschwor jüngst der schwedische Philosoph Nick Bostrom, Leiter des Future ofHumanity Institute der Universität Oxford, das Herannahen eines Zustands, den Insider „Singularität“ nennen. Das ist der Zeitpunkt, an dem die Maschinen beginnen, sich selbst zu verbessern, und die Menschen nicht mehr benötigen. Gill A. Pratt, ehemaliger Programmdirektor der DARPA, der Forschungsbehörde der US-Armee, sieht eine kambrische Explosion der Roboterentwicklung heraufziehen, benannt nach dem Kambrium, der Zeit vor gut 500 Millionen Jahren, als auf der Erde die Vielfalt der biologischen Arten sprung-haft zunahm.
Das ist eine so faszinierende wie beunruhigende Entwicklung. Natürlich sind wir froh, dass Maschinen größere Gewichte heben, sich schneller fortbewegen und besser rechnen können als wir. Aber werden wir uns auch freuen, wenn sie klüger sein werden? Die Science-Fiction-Literatur ist reich an Schreckensvisionen von intelligenten Supermaschinen, die die gemächlichen Denker aus Fleisch und Blut unterjocht und die Weltherrschaft an sich gerissen haben. Der Bau von künstlichen Super-intelligenzen sei die größte und vermutlich auch die letzte Herausforderung für die Menschheit, prognostiziert Bostrom.
Tatsächlich geht ein beträchtlicher Teil der amerikanischen Militärausgaben in die Robotertechnik, mit dem Etappenziel autonom agierender Kampfdrohnen. Erst kürzlich warnten Tausende renommierter Forscher, darunter der Astrophysiker Stephen Hawking und der Mitbegründer von Apple, Steve Wozniak, in einem offenen Brief davor, ein globales Wettrüsten mit künstlicher Intelligenz zu beginnen. Autonome Waffen, so die Unterzeichner, könnten die Kalaschnikows von morgen sein. In der zivilen Robotik dürften die autonom fahrenden Autos derzeit die klügsten aller Maschinen sein.
Doch klug genug, um sich selbständig zu machen, sind diese Systeme noch lange nicht. „Das ist ein alter Gedanke. Dass so etwas passiert, ist nicht ausgeschlossen, aber jetzt erst mal Fantasie“, beruhigt Helge Ritter, der an intelligenten Maschinenhänden forscht. „Wir haben hier im Labor wirklich tolle Roboter, aber wenn wir den Raum verlassen und aus Versehen eine Fliege einschließen, dann ist diese Fliege mit ihrem einen Kubikmillimeter Gehirn immer noch das komplexeste Geschöpf im ganzen Labor.“ Doch auch Ritter rechnet fest damit, dass die Maschinen intelligenter werden als wir: „Der Gedanke, dass die Evolution bis zu uns geführt hat und wir nun der Endpunkt sind, ähnelt sehr der mittelalterlichen Vorstellung, wir seien das Zentrum der Welt. Und die hat sich nicht als sehr tragfähig herausgestellt.“ Der Wissenschaftsphilosoph Klaus Mainzer von der TU München teilt diese Einschätzung: „Ich glaube, alle, die die Technik kennen, kommen zu diesem Ergebnis.“
Die Hardware braucht den Vergleich mit dem menschlichen Gehirn schon heute nicht mehr zu scheuen. „Der schnellste Computer steht zur Zeit in China“, erklärt Ritter. „Seine Geschwindigkeit wird in Fließkommaoperationen pro Sekunde gemessen, sogenannten Flops. Zurzeit bringt er es auf eine drei mit 16 Nullen. Das sind 30 Millionen Milliarden.“ Die Anzahl der Nervenzellen im Gehirn wird auf 20 Milliarden geschätzt. Also stehen jeder Nervenzelle anderthalb Millionen Flops gegenüber. „Damit liegt der Computer schon sehr gut im Rennen, auch wenn wir berücksichtigen, dass im Gehirn jeder Impuls gleich an Tausende Neuronen geht. Eigentlich müsste man damit alles, was in einem menschlichen Gehirn abläuft, nachbilden können“, sagt Ritter. Eigentlich. Doch es fehlen die Detailkenntnisse: „Wir haben die Leinwand, aber noch nicht das Bild.“
Als die Computer das Lernen lernten
Um dieses Bild zu zeichnen, verbrachten noch in den 1980er und 1990er Jahren Forscher – und vor allem ihre Hilfskräfte und Studenten – Stunden um Stunden damit, menschliches Wissen in Sätze und Regeln zu gießen und die Computer damit zu füttern. Ohne großen Erfolg. „Per Hand ein komplexes Gebiet in Regeln abzubilden ist irrsinnig aufwendig. Erst muss ein Experte das Wissen liefern, dann muss ein Informatiker für den Computer übersetzen“, erklärt Cord Spreckelsen vom Institut für Medizinische Informatik der RWTH Aachen. Die so entstandenen „Expertensysteme“ blieben digitale Nachschlagwerke ohne einen Funken von Intelligenz.
In den 1990ern erkannten die Forscher, dass sie mit diesem Ansatz auf dem Holzweg waren, und taten einen entscheidenden Schritt: Sie lehrten die Maschinen lernen. Etwa mithilfe künstlicher neuronaler Netze, die grob den Neuronennetzen des Gehirns nachempfunden sind. Diese werden nicht programmiert, sie üben und verbessern ihre Leistung anhand von Feedback. Das gelang schon früh, war aber nicht besonders effizient.
Erst seit die Computer leistungsfähiger sind und Zugriff auf die gigantischen Datenmengen der Clouds haben, macht diese Technik als Deep Learning Furore. Moderne Deep-Learning-Netze bestehen aus Millionen künstlicher Neuronen in 20 bis 30 Schichten. Erkennt die erste Schicht lediglich die Pixel eines Bildes, kodiert die zweite Linien, die dritte Rundungen, die vierte Ohren und so weiter, und die letzte setzt ein komplettes Porträt zusammen. Der Clou dabei: Das System entwickelt die Kategorien, nach denen es die Daten sortiert, selbst.
„Derzeit wachsen beide Techniken zusammen: die, die mit Regeln arbeitet, und die, die sich am Gehirn orientiert“, erklärt Klaus Mainzer. „Das ist wie eine Kerze, die an beiden Seiten brennt.“ Das Ergebnis sind mächtige Algorithmen, die in großen Datenbeständen selbständig Strukturen ausmachen können: Gesichter, Sprache, Kundenprofile. Mit Deep Learning konnte die Spracherkennung in Smartphone-Assistenten wie Siri, Cortana oder Google Now stark verbessert werden. Watson sortiert damit E-Mails nach ihrer Wichtigkeit. Google setzte seinen Algorithmus 2011 auf zehn Millionen YouTube-Standbilder an. Dabei entwickelte das Programm eigenständig eine Kategorie für die nach dem Menschen am häufigsten im Netz vertretene Spezies: Katzen. Heute organisiert Googles Programm „Fotos“ eigenständig Bilder zu thematischen Gruppen: Menschen, Autos, Landschaften. Irgendwann sollen die Systeme in der Lage sein, Fragen zu beantworten, statt nur Trefferlisten zu liefern.
Die Weltherrschaft der Algorithmen
Wirklich klug sind diese Algorithmen nicht. „Ein Dreijähriger hat kaum mehr als eine Million Minuten erlebt. Wenn er in jeder Minute ein paar Dinge lernt, hat er höchstens einige Millionen Lernschritte durchlaufen. Und nun überlegen Sie, was ein Dreijähriger alles kann“, erklärt Ritter. Maschinelle Lernalgorithmen benötigen häufig Milliarden an Lernschritten. Und alles, was mehr Kontext erfordert– Wortspiele, Humor, eine Weinflasche entkorken–, macht Computern und Robotern nach wie vor große Schwierigkeiten. „Und Bewusstsein, da haben wir ja noch gar nicht verstanden, was das überhaupt ist“, erinnert Ritter. Dazu der Energieverbrauch: Supercomputer fressen so viel Strom wie eine Kleinstadt, das Gehirn hingegen begnügt sich mit 20 Watt.
Trotz dieser Unterschiede kommen die Algorithmen zu Ergebnissen, von denen man die längste Zeit annahm, sie seien nur mit großer Intelligenz zu erzielen. „Vor ein paar Jahren habe ich noch gedacht, vielleicht können wir einmal in mathematischen Gleichungen beschreiben, was im Gehirn passiert. Und wenn wir diese Gleichungen lösen, können wir voraussagen, was Menschen tun werden. Diese Gleichungen brauchen wir nicht mehr. Wir brauchen nur noch Big-Data-Algorithmen, um Verhaltensmuster zu erkennen“, stellt Wissenschaftsphilosoph Mainzer fest, erstaunt über das Tempo der Entwicklung. „Ein Quantenphysiker hat mir erklärt, mein Verhalten sei viel leichter vorauszusagen als das eines Elementarteilchens. Das ist schon beängstigend.“
Eher als die Weltherrschaft der Kampfroboter ist demnach die der Algorithmen zu fürchten. Denn wenn wir aus den Datenmengen, die wir generieren, irgendwelche sinnvollen Informationen gewinnen wollen, sind wir auf sie angewiesen. Und das wollen wir in mehr Lebensbereichen. Natürlich ist es praktisch, wenn mich das Smartphone daran erinnert, dass ich noch Milch einkaufen wollte. Doch das geht natürlich nur, wenn es mitbekommt, was ich tue, was ich mag, wo ich mich aufhalte und mit wem ich worüber kommuniziere. Firmen, die solche Daten in ihren Clouds sammeln, können sie nutzen, um uns gezielt mit Informationen zu versorgen und uns andere vorzuenthalten. So kann aus dem Assistenten flugs eine Überwachungs- und Manipulationsmaschine werden.
Auch an der Börse sind Algorithmen aktiv: „Im Hochfrequenzhandel erfolgen die Transaktionen innerhalb von Sekundenbruchteilen. Das schafft natürlich kein Mensch, so schnell kann man ja nicht einmal auf einen Knopf drücken“, erklärt Ulrich Horst, Professor für Finanzmathematik an der Humboldt-Universität zu Berlin. Die Algorithmen machen einen wesentlichen Teil des Handels unter sich aus. Sie analysieren, wie die Kursentwicklung in den vergangenen Minuten war, und versuchen vorauszusagen, ob die Kurse steigen oder fallen werden.
Auf der anderen Seite steht ein Phänomen namens flash crash: Dabei stürzen die Aktienkurse ohne ersichtlichen Grund in kürzester Zeit um mehrere Prozent. Der Fehler liegt nicht bei den Algorithmen: „Diese Algorithmen werden von Menschen programmiert, die alle sehr ähnlich denken“, sagt Ulrich Horst. Das führe dazu, dass sie bisweilen alle das Gleiche tun und sich die Bewegung hochschaukelt.
Der Computer als Arzthelfer
Auch im Gesundheitswesen ist der Datenstrom aus Fachpublikationen, Biomarkern und Genanalysen selbst für einen Spezialisten nicht mehr zu überblicken. Seit den 1970er Jahren arbeiten Informatiker deshalb an Systemen, die Ärzte in ihren Entscheidungen unterstützen sollen. „Zuerst hat man versucht, zum Beispiel die ganze innere Medizin in einem System abzubilden. Das war viel zu viel, das hat sich nicht bewährt“, erklärt Cord Spreckelsen. Heute sind vor allem Systeme im Einsatz, die den Arzt auf mögliche Fehler oder seltene Erkrankungen hinweisen. Andere analysieren Röntgenaufnahmen, Hirnscans oder Fotos von Verfärbungen der Haut. Der Arzt schaut sich dann nur die verdächtigen Fälle an. Das spart Zeit und Geld.
Bislang stoßen die lernenden Systeme allerdings auch in der Medizin an ihre Grenzen. Den mitfühlenden Arzt, der durch seine bloße Präsenz wirkt, können Maschinen nicht ersetzen. Und sie können nicht entscheiden, was für einen Patienten und seine Lebensqualität denn nun das Wichtigste ist. „Hier müssen nach wie vor normative Entscheidungen getroffen werden, und zwar von Menschen“, betont Spreckelsen. Doch die Geschwindigkeit, mit der die Maschinen auch in diesem Bereich besser werden, überrascht ihn: „Vor wenigen Jahren noch habe ich gedacht, die Ärzte leisten die kognitiv wichtigen Dinge, und die Computer erinnern sie daran, wenn sie etwas vergessen haben. Jetzt glaube ich, Ärzte und Patienten müssen sich auf eine andere Arbeitstei-lung einstellen. Das ist bedenklich, aber auch eine Chance.“
Das vielbeschworene Bauchgefühl des Arztes, das durch Computerentscheidungen ersetzt werden könnte, sieht Spreckelsen mit gemischten Gefühlen: „Es stimmt, der erfahrene Arzt kann manchmal mit sehr wenigen Informationen sehr schnell zu einem guten Urteil kommen. Aber wir dürfen uns nichts vormachen: Ärzte machen auch Fehler.“ Spreckelsens Fazit: Wenn wir die Maschinen gegen die Ärzte ausspielen, können wir nur verlieren. Die Frage sei nicht, ob der Arzt besser ist als die Maschine, sondern ob ein Arzt in Zusammenarbeit mit intelligenter Software bessere Entscheidungen fällt als ohne.
Eine Hybridexistenz von Mensch und Technik
Übergeben wir der künstlichen Intelligenz mehr oder weniger unbeabsichtigt die Herrschaft, indem wir uns von ihr abhängig machen, im Privatleben, im Beruf, beim Arzt, beim Autofahren? „Von der Elektrizität sind wir auch abhängig, und dennoch würden die meisten Menschen sagen, dass das eine segensreiche Erfindung ist“, gibt Ritter zu bedenken. Statt von Gefahren spricht er lieber von Überraschungen, die passieren können. Und von den zwei Haltungen, Neuem zu begegnen: Wollen wir uns eher vor dem Neuen fürchten, oder sagen wir: Das ist spannend, und wir werden es schon hinkriegen?
Ritter ist für die optimistische Variante: Wie der Arzt mit Unterstützung der künstlichen Intelligenz ein besserer Arzt sein könnte, könnte die Zukunft der Menschheit in einer Hybridexistenz mit der Technik bestehen: „Es gemeinsam zu machen ist vielleicht die zukunftsweisende Existenzform“, sagt Ritter. „Das ist jetzt Spekulation: Vielleicht fürchten wir die intelligenten Roboter, weil wir denken, die werden so sein wie die unangenehmsten Exemplare unserer Spezies. Vielleicht stimmt das aber gar nicht. Wenn es uns gelingt, diese Systeme mit Ethik und Moral auszustatten, entsteht vielleicht eine Ethikethik oder eine Moralmoral, mit der wir zu besseren Konfliktlösungen kommen und die globalen Probleme angehen können. Wir wissen genau, dass wir etwas gegen die Klimaerwärmung tun müssen, und tun es trotzdem nicht. Vielleicht fehlt uns die passende Gehirnstruktur. Vielleicht bekämen wir das in einer Gesellschaft von Hybriden hin. Dann wären die Superintelligenzen ein toller Zugewinn.“
Klaus Mainzer sieht die Lage kritischer: „Wir müssen unsere Verantwortung ernst nehmen und zusehen, dass wir diese Algorithmen im Griff behalten, bevor uns die Entwicklung um die Ohren fliegt.“ Er plädiert dafür, das Licht der menschlichen Urteilskraft nicht unter den Scheffel zu stellen. Der Mensch habe zum Beispiel präzise Einsichten in mathematische Probleme erarbeitet – lange bevor es Computer gab.
Literatur
Nick Bostrom: Superintelligenz. Szenarien einer kommenden Revolution. Suhrkamp, Berlin 2014
Klaus Mainzer: Die Berechnung der Welt. Von der Weltformel zu Big Data. C.H. Beck, München 2014
Thomas Wagner: Robokratie. Google, das Silicon Valley und der Mensch als Auslaufmodell. PapyRossa, Köln 2015