Freitag, 29. Mai 2020

Gesunder Maschinenverstand?

aus nzz.ch, 28.05.2020                                                                                                                      zu Philosophierungen

Gesucht: künstliche Intelligenz mit Common Sense
Maschinen, die sich in alltäglichen Situationen wie Menschen verhalten: Das ist das Ziel der KI-Forschung. Aber der gesunde Menschenverstand kann manchmal ziemlich ungesund sein .

von Eduard Kaeser 

Die jüngste Geschichte künstlich intelligenter (KI-)Systeme ist zweifellos beeindruckend. Mit den neuronalen Netzwerken und dem Maschinenlernen hat die Forschung einen entscheidenden Schritt in Richtung eines umweltadaptierteren Programmierens getan. Es gibt Sprach-, Gesichts-, Mustererken-nungsysteme von erstaunlicher Anpassungsfähigkeit, und entsprechend hochgeschraubt sind die Erwar-tungen und Visionen der KI-Gemeinde. Jetzt beginnt am Horizont die sogenannte allgemeine künstliche Intelligenz (AGI: Artificial General Intelligence) zu leuchten, eine Maschine mit «gesundem künstlichem Verstand».

Erste sozusagen infantile Formen probiert man ja zurzeit bei selbstfahrenden Autos aus. Die Artefakte beginnen zu lernen, sich an Situationen anzupassen, sie werden also wie die natürlichen Kreaturen adaptiv. Und damit bekommen wir es nicht bloss mit technischen Problemen zu tun, sondern auch mit philosophi-schen. Eines lautet: Was bedeutet es eigentlich, in Alltagssituationen mit Common Sense zu reagieren?

Descartes’ Vorbehalte

Die Frage beschäftigte schon Descartes. In einem berühmten Abschnitt seines «Discours» spricht er von der Universalität der Vernunft, die sich in allen Lebenslagen zu behaupten weiss. Wenn Maschinen «auch viele Dinge ebenso gut oder vielleicht besser als einer von uns machten», würden sie «doch unausbleiblich in einigen anderen fehlen und dadurch zeigen (. . .), dass sie nicht nach Einsicht, sondern lediglich nach der Disposition ihrer Organe handeln. Denn während die Vernunft ein Universalinstrument ist, das in allen mög-lichen Fällen dient, müssen diese Organe für jede besondere Handlung eine besondere Disposition haben, und deshalb ist es moralisch (praktisch, Anm. d. Verf.) unmöglich, dass in einer Maschine verschiedene Organe genug sind, um sie in allen Lebensfällen so handeln zu lassen, wie unsere Vernunft uns zu handeln befähigt.»

Das sind frappant moderne Worte, und sie zielen genau auf den Kern der heutigen Problematik lernender Maschinen. Setzen wir für «Organ» «neuronales Netz» ein und für «Disposition» «Lernalgorithmus», liest sich Descartes’ Text als Vorbehalt gegen einen künstlichen Common Sense. Lernende Maschinen werden nie aus Einsicht handeln, weil ihr Bauprinzip keine universelle Vernunft ermöglicht. Bis dato sind Compu-ter jedenfalls Idiots savants.

Computeringenieure würden Descartes entgegenhalten, dass sie ja gar nicht viele Organe benötigten, son-dern einen potenten Algorithmus plus eine immense, womöglich bereits vorstrukturierte Datenmenge, die er durchpflügen könne. Deep Learning funktioniert eigentlich nach überraschend einfachen Prinzipien, deshalb ist auch das Fernziel des künstlichen Common Sense «im Prinzip» erreichbar.

Die Betonung liegt auf «fern». Bisher exzellierten die neuartigen künstlichen Systeme in Spielen, also in klar definierten Rahmen mit vorgegebenen Regeln und einem primären Ziel: gewinnen. Ein selbstfahrendes Auto kann aber nicht einfach gewinnen. Sein Funktionieren hängt von zahlreichen Eventualitäten ab – vom pünktlichen Abliefern der Passagiere an der richtigen Destination über das Befolgen der Verkehrsregeln, das Berücksichtigen von Wetterverhältnissen und Strassen­zuständen bis zu Unwägbarkeiten wie unerlaub-ten Strassenüberquerungen von Fussgängern, nicht funktionierenden Ampeln, Staus oder Unfällen.

Ein selbstfahrendes Auto hat zum Beispiel im Laufe seines Trainings unzählige Rotsignale registriert und in seinem neuronalen Netz so etwas wie ein Konzept von Rot gespeichert. Unter normalen Bedingungen funktioniert das recht gut, aber immer wieder ist mit anormalen Situationen zu rechnen. Und wie sich zeigt, genügen oft ganz kleine Störungen des gelernten Musters, um den Algorithmus zu einer totalen und womög-lich fatalen Fehlklassifikation zu verleiten.

Ungesunder Maschinenverstand

Genau diese Offenheit der realen Situation stellt bis anhin das grosse Hindernis auf dem Weg zur künst-lichen Intelligenz mit Common Sense dar. Das mag ein weiteres Beispiel veranschaulichen. Youtube ent-wickelte einen Algorithmus mit der Vorgabe, die Zeit zu maximieren, die der Nutzer am Videoportal ver-bringt. Der Algorithmus bewerkstelligte dies, indem er Videos mit immer extremerem Content empfahl, nach dem Prinzip «upping-the-ante»: Erhöhe den Einsatz. Eine Nutzerin berichtet etwa, wie sie ein paar Videos über den Wahlkampf von Donald Trump anschaute, und daraufhin mit rassistischem, verschwö-rungstheoretischem und anderem anrüchigem Material überhäuft wurde. Der Algorithmus «interpretiert» also seine Aufgabe in höchst eigenwilliger, ja, sturer Weise, die zu nicht beabsichtigten Effekten wie Radikalisierung und Polarisierung führt. Kaum ein Zeichen «gesunden» Maschinenverstandes.

Die Designer suchen Abhilfe mit einem neuen Ansatz. Er stammt vom Computerwissenschafter Stuart Russell und nennt sich «humankompatible Maschinen». Solche Maschinen fangen sozusagen bei null an. Statt ein vorgegebenes Ziel zu enkodieren und zu maximieren, lernen sie selbst, aus menschlichem Ver-halten ein solches Ziel zu dekodieren und das Verhalten anschliessend zu verbessern. Inverses Verstärken nennt sich das. Daran knüpft sich die Erwartung, dass die Orientierung an menschlichem Verhalten die Maschine auch kompatibler – also mit mehr Common Sense – agieren lasse.

Die Skepsis bleibt. Erstens stellt sich die Frage, ob der Mensch sich als Vorbild für ein KI-System eignet. Er ist im Grunde kein logisches Wesen. Sein Verhalten speist sich aus einem dichten impliziten Netz von Erwartungen, Vorlieben, Meinungen, Motiven, das sich wohl kaum je vollständig in einem expliziten For-malismus entflechten lässt. Zweitens ändern sich unsere Vorlieben und Wünsche ständig, und zwar sind sie häufig nicht von rational rekonstruierbaren Gründen geleitet, sondern von irrationalen Stimmungen und Launen, die oft vage oder gar widersprüchlich sind. Und drittens: Was, wenn der Mensch sich im Tiefsten von schlechten Gründen leiten lässt? Sollen die Maschinen dann lernen, diese Schlechtigkeit zu optimie-ren? Erfahrungen wie jene von Youtube und anderen schändlichen Algorithmen nähren eine nicht eben optimistische Zukunftsvision.

Zurück zur Urfrage

Der gesunde Computerverstand wirft uns eigentlich auf die Urfrage zurück: Was heisst es, sich wie ein Mensch zu verhalten, ja, ein Mensch zu sein? Wir lernen zum Beispiel nicht auf die gleiche Weise wie KI-Systeme. Wir müssen nicht 10 000 Katzenbilder sehen, um daraus eine verlässliche Kategorie «Katze» zu bilden. Eher entwickeln wir Erwartungshaltungen, wie die Dinge ablaufen könnten, und auf dieser Basis treffen wir Vorhersagen. Wir schliessen in unserer Wahrnehmung natürlicherweise auf versteckte Partien eines Dinges, ohne entsprechende Daten darüber zu haben. Oder wir entwickeln eine Intuition für den Unterschied zwischen Korrelation und Kausalität. Der Regen ist nicht Ursache dafür, dass die Leute den Schirm aufspannen; ihr Wunsch, trocken zu bleiben, dagegen schon.

Es sind solche kognitiven Aspekte, die wesentlich zu unserem gesunden Menschenverstand beitragen, sozusagen unserem verkörperten Geistigsein. Das beginnt nicht wenigen KI-Forschern zu dämmern. Kein Geringerer als Rodney Brooks vom MIT, Koryphäe auf diesem Gebiet, zog kürzlich eine Kernannahme des ganzen KI-Projekts in Zweifel: Womöglich stossen künstliche Systeme an eine Grenze der Komplexität, weil sie aus dem falschen Stoff bestehen. Das heisst, die Tatsache, dass Roboter nicht aus Fleisch sind, könnte einen grösseren Unterschied zum Menschen ausmachen, als er, Brooks, bisher angenommen hat. Das Rätsel des menschlichen Geistes liegt in seiner Inkarniertheit.

Und deshalb wird die KI-Forschung ihr Augenmerk mehr auf diesen spezifischen Stoff legen müssen, aus dem wir gemacht sind. Sie wird biologischer denken müssen. Bereits beginnen die Robotiker mit Tierzellen zu experimentieren, die sich nach Vorgabe eines Programms entwickeln – Xenoboter. Hüten wir uns, hier voreilig ein Zukunftsszenario mit smarten organoiden Geräten auszumalen. Fassen wir vielmehr das wirk-liche Problem ins Auge. Künstliche Intelligenz bleibt uns zutiefst fremd. Wir schaffen mit ihr im Grunde unsere eigenen Aliens. Und diese Aliens werden sich, trotz allen Bemühungen, wahrscheinlich nicht unse-rem Alltag angleichen. Eher passen wir unseren Alltag ihnen an. Das Problem sind also nicht superschlaue Maschinen, sondern subschlaue Menschen. 


Nota. - Eduard Kaeser geht nicht so gründlich an die Sache heran, wie es zu wünschen ist. Zwar erwähnt er an der passenden Stelle, dass zur Bestimmung des menschlichen (einen andern kennen wir ja nicht) Geistes seine "Inkarniertheit" gehört. Aber das bleibt ihm als ein Rätsel übrig, und die Unvollkommenheit der intel-ligentesten Maschine sei, da sie am Anfang von Menschen entworfen wurde, dass sie uns nicht rätselhaft ist. Als Pointe ist das gut, aber um sie zu verstehen, braucht man Humor, und den darf man bei den KI-Ex-perten nicht so selbstverständlich voraussetzen.

Doch auch, wenn man rationell an die Sache herangeht, bleibt ein romantisch-existenzialistischer Rest; aber erst zum Schluss, nicht mittendrin.

Gesunder Menscherverstand alias Common Sense ist die Naturalform der Vernunft. Und die wirklichen Menschen aus Fleisch und Blut sind nicht nur vernünftig, da hat Kaeser völlig Recht. Sie folgen nicht einmal immer ihrem gesunden Menschenstand, sondern haben außer vernünftigen Gründen massenhaft individuelle Motive, die ihre Handlungen viel mehr bestimmen als jene - und bei vielen Gelegenheiten zu Recht. Doch anders als die Richtsprüche der Vernunft kann man persönliche Motive nicht verallgemeinern, kann sie auf kein Muster reduzieren und nicht einmal so weit identifizieren, dass ein Algorithmus sie über-haupt erfassen könnt.

Wäre das aber das Ziel: die Maschinen so einzurichten wie einen von seinen Leidenschaften hin- und her-gebeutelten Menschen?

Den Menschen machen nicht eben seine Leidenschaften aus - Anmutungen  'aus seinem Innersten', die von außen weder identifizierbar noch gar beurteilbar sind. Sondern dass er sich, wenn er denn EIN MENSCH  sein will, anmutet, seine effektiven Handlungen dem Richtspruch der Venunft zu unterwerfen.

Und da ist die KI doppelt im Hintertreffen. Nicht nur kann sie nicht "nachvollziehen", was im Innersten der wirklichen, lebenden und webenden Menschen 'vor sich geht', noch ist sie imstande, die am Ende die Hand-lungen einschränkende oder befeuernde Vernunft zu imitieren, die zwar nicht überall an ihrem Platze ist, aber dort, wo doch, kategorisch urteilt. 

Fürs wirkliche Menschsein fehlt ihr die Leidenschaft - erstens das Leiden und zweitens der Furor. den es begründet.

Und dann vor allem die Nüchternheit des So soll es sein. Denn die mehr oder minder bestimmte Idee von dem. was Sein soll, kann sie nicht fassen, denn zu fassen ist sie ja gerade nicht, sondern 'es gibt sie' nur in der Form eines unendlichen, der Bestimmung ewig harrenden Problems. 

Wenn Eduard Kaeser sagt, die Künstliche Intelligenz bliebe 'uns zutiefst fremd', meint er offenbar, wir blieben der künstlichen Intelligenz zutiefst fremd. Weder kann sie imitieren, was das Menschliche, allzu Menschliche ist, noch das, was an ihm eben nicht allzu menschlich ist.
JE


Keine Kommentare:

Kommentar veröffentlichen