fbpx

„Die Phantasie, dass wir Roboter herstellen, die wie Menschen aussehen und handeln ist einfach madness“: Ein Text zum 100. Geburtstag von Joseph Weizenbaum

Eine merkwürdige Koinzidenz, dass seit wenigen Wochen ChatGPT die Medien und die Menschen so elektrisiert, da sich ein Geburtstag zum hundertsten Mal jährt, der damit in Verbindung gebracht werden kann, schreibt Chris Kaiser am 8. Januar 2023. An diesem Tag wäre Joseph Weizenbaum 100 Jahre alt geworden. Eine gute Gelegenheit, auf einen Text zu verweisen, den ich 2007 verfasste. Damals war es mir gelungen, Weizenbaum für ein Podiumsgespräch in Berlin zu gewinnen. Hier der Artikel, der vor 15 Jahren erschien:

Ein Dialog zwischen Mensch und Auto könnte in nicht allzu ferner Zukunft so aussehen: „Ich möchte ins Büro fahren!“ – „Gerne“, antwortet eine Computerstimme, „im Tank sind nur noch drei Liter Benzin. Die nächste Tankstelle ist fünf Kilometer entfernt. Möchten Sie auf dem Weg ins Büro dort anhalten?“ Das Auto berechnet die Route ins Büro und sagt rechtzeitig Bescheid, wenn die Tankstelle kommt. Maschinen oder Computersysteme, die scheinbar wie ein Mensch sprechen, agieren und reagieren, sind Forschungsergebnisse der „Künstlichen Intelligenz“ (KI): Die Wissenschaft verspricht Kühlschränke, die selbstständig Lebensmittel nachbestellen, staubsaugende Roboter, virtuelle Assistenten in Bibliotheken, Krankenhäusern und anderen personalintensiven Dienstleistungen sowie Computersysteme, mit denen jeder ganz normal reden kann. Vertreter der so genannten ‚harten KI’ prognostizieren sogar eine kommende Generation von Robotern, die denken, lernen und fühlen kann. Derart intelligente Systeme werden sehr viel leistungsfähiger als Menschen sein und sie daher überflüssig machen, behauptet Hans Moravec. Der Professor für Robotik an der Carnegie Mellon University im amerikanischen Pittsburgh glaubt an ein postbiologisches Zeitalter, in dem Roboter die Menschen ersetzen werden. 

Künstliche Intelligenz  – ist sie also Segen oder Fluch für die Menschheit und wo liegen die Grenzen der Forschung? „Sie ist eindeutig ein Segen“, so Wolfgang Wahlster, Direktor des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI). Seine These: Intelligente Systeme werden den Menschen das Leben erleichtern. Auf dem Fachkongress Call Center World in Berlin diskutierten Wahlster, der Computerwissenschaftler Joseph Weizenbaum sowie Gastgeber Lupo Pape, Geschäftsführer des Berliner Unternehmens SemanticEdge, über das Für und Wider Künstlicher Intelligenz: „Wir untersuchen konkrete anwendungsorientierte Fragestellungen, um mit menschenfreundlichen Dienstleistungen den Alltag zu unterstützen“, so Wahlster. Vor allem in der in der Entwicklung von semantischen Technologien, von Computersystemen, die die natürliche gesprochene Sprache ‚verstehen’, sei das DFKI führend „Das ist eine der größten Herausforderungen für die Informatik in den kommenden Jahren“, betonte Wahlster. Nicht die Interaktion über komplizierte Kunstsprachen mit Tastatur und Maus, sondern die alltägliche Sprache und Gestik sollten Computer und Roboter künftig steuern. In Japan spreche man bereits vom One-Button-Computer, „ein und aus, alles andere geschieht über Sprache, Mimik und Gestik“, erläuterte der Direktor des DFKI. Autos sind ein weiteres spannendes Einsatzfeld semantischer Spracherkennung. 

Hier setzte auch Lupo Pape an. „Softwaresysteme müssen intelligenter werden, damit sie besser verstehen, was der Mensch von ihnen will und damit sie sich umgekehrt dem Menschen einfacher verständlich machen“, forderte Pape am Beispiel der Sprachdialogsysteme. Um all das zu ermöglichen, arbeiten Sprachwissenschaftler, Psychologen und Informatiker ständig an neuen Sprachdialogen. Die Erkennung gesprochener Sprache im Kontext der Anwendung und ein intelligenterer und freierer Umgang des Sprachdialogsystems mit den Wünschen und Antworten des Nutzers stehe im Zentrum der SemanticEdge-Entwicklungen. Das Ziel der Sprachdialoge sei es, den Erwartungen des Menschen so nahe wie möglich zu kommen. „Bei einem Dialog mit menschlichen Zügen wird sich der Anrufer eher angenommen fühlen als bei einem mit starrer Menüführung und der Abfrage bestimmter Antworten“, sagte Pape. Selbst wenn man den Namen eines Geschäftspartners gerade nicht weiß, könne man über eine Suchfunktion mit der Eingabe von Branche und Standort die gewünschte Verbindung aufbauen, so der Sprachdialogexperte. 

Doch was ist Verstehen? „Wir können nur in ganz engen Kontexten Sprachdialoge mit Maschinen führen“, so Weizenbaum, der in den sechziger Jahren am Massachusetts Institut of Technology (MIT) das Computerprogramm ELIZA entwickelte, das scheinbar einen Dialog zwischen Mensch und Computer ermöglichte und der Prototyp für heutige Chatbots ist. Ein Satz hätte immer auch einen Bedeutungszusammenhang, oder einen Erfahrungshintergrund, den der Computer nicht erschließen könne. Zum Beispiel stoppt das Auto bei dem Wort „Halt“. Wenn nun aber der Fahrer sagt: „Ich bin halt müde“, dann hält das Auto auch an, womöglich mitten auf der Autobahn. „Das Gesagte ist nicht immer das Gemeinte“, so Weizenbaum. „Der menschliche Empfänger interpretiert den Satz im Sinne seiner ganzen Lebensgeschichte“, eine Maschine würde das nie können.

„Wozu brauchen wir eigentlich Autos, mit denen wir sprechen können?“ fragte Weizenbaum. Und in der Tat ist nicht zu erkennen, warum es beispielsweise  beim Auto einfacher ist, „Halt“ zu sagen als auf die Bremse zu treten. Gefühle werden im allgemeinen Lebewesen zugeordnet und nicht Maschinen. Doch sind Emotionen auch programmierbar? „In begrenztem Maße“, meint Wahlster. „Mit sehr viel Training kann beispielsweise ein virtueller Call Center-Agent ‚lernen’, dass eine laute und erregte Stimme Ärger bedeutet, und entsprechend darauf reagieren. Dazu müssen aber sehr viele Verhaltensmuster eingespeichert werden. Noch Wissen die Forscher zu wenig, was sich bei Gefühlen im menschlichen Gehirn abspielt, um eine Bedienungsanleitung für Freude oder Angst zu programmieren. Das dauert sicher noch Jahrhunderte“, ist Wahlster überzeugt. 

Vorerst gibt es Roboter wie Elvis aus Göteborg, der selbstständig das Laufen lernen soll. Elvis’ Programm verwirft die erfolglosen Versuche, die ihn umkippen lassen und speichert nur erfolgreiche Programmvarianten. Wissenschaftler am MIT gehen schon einen Schritt weiter. An der weltweit führenden Universität für Technologie ‚leben’ derzeit mehrere Roboter, die nicht nur menschenähnlich aussehen, sondern auch wie kleine Kinder reagieren und ‚lernen’ sollen. Vor über zehn Jahren erweckte der KI-Experte Rodney Brooks die Roboterkinder Cog und Kismet zum Leben. Ausgestattet mit einigen grundlegenden Fähigkeiten sollten die beiden durch die Interaktion mit den Teammitgliedern menschliches Verhalten lernen, ähnlich wie kleine Kinder es tun. Cog kann hören, sprechen und sehen. Inzwischen erkennt der Roboter seine Betreuer und ‚fremdelt’ mit anderen. Mit Kismet wollen die Forscher menschliche Stimmungen auf die Maschine übertragen. Kismet wird traurig, wenn länger keiner mit ihm spricht, und lächelt, wenn jemand stehen bleibt und ihn ansieht. Roboter Lazlo bekommt ein Gesicht, das die menschliche Mimik trainiert. 

„Größenwahn!“, kontert Weizenbaum. 

„Die Phantasie, dass wir Roboter herstellen, die wie Menschen aussehen und handeln ist einfach ‚madness’. Hier sind die Grenzen der Künstlichen Intelligenz erreicht und wir sollten sie nicht überschreiten, auch wenn wir es könnten“, warnte der Computerdissident. „Menschen machen sich etwas vor, wenn sie denken, der Computer lächelt, weil er sich freut. Die Freude ist lediglich programmiert“, gibt Weizenbaum zu Bedenken. Wenn eine bestimmte Reihe von Umständen aufeinander treffen, seien Menschen in der Regel glücklich und lächeln. Das berechne der Roboter. Aber er könne es nicht wirklich empfinden. Schon bei seinem Computerprogramm ELIZA war der damalige MIT-Professor Weizenbaum entsetzt darüber, dass Menschen tatsächlich dachten, ELIZA würde auf ihre Fragen und Probleme eingehen. In Wirklichkeit hatte Weizenbaum lediglich eine gewisse Anzahl von Frage- und Antwortenmuster programmiert. Je mehr es sind desto besser gelingt die Illusion, dass der Computer den Menschen ‚versteht’. 

Eine Datenbank müsse eine Million Datensätze gespeichert haben, und zwar auch widersprüchliche, um sich dem gesunden Menschenverstand anzugleichen, behauptet Marvin Minsky, der vor fünfzig Jahren auf der Dartmouth Konferenz den Begriff der Künstlichen Intelligenz prägte und jahrelang Leiter des Labors für Künstliche Intelligenz am MIT war. Ende 2006 hat er das Buch „The Emotion Machine“ herausgebracht. Darin beschäftigt sich Marvin mit dem Thema, wie Gefühle programmierbar werden. „Es gibt Zustände, die sich Emotionen nennen, und von denen Menschen denken, sie seien eine Art mystische Ergänzung zu rationalem Denken. Meine Sicht der Dinge ist, dass der jeweilige emotionale Zustand nur eine andere Art des Denkens ist“, so Marvin. Von ihm stammt auch der Ausspruch: „Das Gehirn ist lediglich eine Maschine aus Fleisch.“

Ist der Mensch also total berechenbar und kann in Bits und Bytes aufgeteilt werden oder durch eine bestimmte Anzahl von Algorithmen, kleinen Bedienungsanleitungen, genau definiert werden? Gerade die „Verachtung des biologischen Lebens“ hält Weizenbaum für bedenklich. Marvin, Moravec und andere Verfechter der so genannten ‚harten KI’ bezeichnen den Menschen als „Fehlentwicklung“: Er ist schwach und störanfällig. Weizenbaum beobachtet eine fast schon religiös anmutende Gläubigkeit in die Naturwissenschaft, nicht nur die Organe können durch künstliche ersetzt werden, sondern ebenso das Gehirn.

Auch Wahlster und Pape halten das postbiologische Zeitalter für nicht erstrebenswert. „Wir brauchen keine Roboter, die fühlen“, sagt Wahlster. Roboter sollten nützliche Dinge machen. „Reinigungsroboter werden beispielsweise auch ganz anders aussehen als Menschen, weil sie flach sein sollten, um unter Tischen und Stühlen sauber zu machen. In Krankenhäusern werden schon Roboter eingesetzt, die Botengänge erledigen und Mahlzeiten austeilen, hoffentlich mit einer Trefferquote von einhundert Prozent. Die intelligenten Helfer erledigen die Routinearbeiten und schaffen Freiräume. Humane Roboter sind für das DFKI kein Thema. Wir sehen die Künstliche Intelligenz als Ingenieurwissenschaft, gehen pragmatisch vor und verfolgen anwendungsorientierte Fragen. Beispielsweise in der Fahrzeugtechnik für Unternehmen wie BMW oder Mercedes. Dort ist unsere Technik schon drin“, resümierte Wahlster. 

Über den Autor

gsohn
Diplom-Volkswirt, Wirtschaftsblogger, Livestreamer, Moderator, Kolumnist und Wanderer zwischen den Welten.

Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

%d Bloggern gefällt das: