Von
Günter Hack
Software ist das am weitesten entwickelte Produktionsmittel unserer Gesellschaft. Unter-nehmen wie Google, Facebook oder Microsoft schöpfen aus der Programmierkunst ihres Personals enorme Macht. Wer diese Macht abseits der üblichen Hypes realistisch einschät-zen möchte, sollte sich darum bemühen, die Prinzipien zu verstehen, die Googles Suche, Facebooks Auswahl von Beiträgen oder den Assistenzsystemen Siri und Alexa zugrunde liegen.
Der niederländische Mathematiker und Philosoph Stefan Buijsman will seinen Lesern dabei helfen, und es gelingt ihm. Er hat mit „Ada und die Algorithmen“ eine knappe und für Laien verständliche Zusammenfassung wesentlicher Technologien aus dem Bereich der Künstlichen Intelligenz vorgelegt, die auch gesellschaftliche und politische Dimensionen dieses Themenkomplexes nicht vernachlässigt.
Buijsman entzaubert die gängigen Fachbegriffe. Er erklärt mit einfachen Worten, was ein Algorithmus ist und was Programmiererinnen und Informatiker zu verschiedenen Zeit-punkten der IT-Geschichte unter Künstlicher Intelligenz verstanden haben. Zudem zeigt er Schritt für Schritt, wie Ingenieure mithilfe neuronaler Netze den menschlichen Gesichtssinn nachzubilden versuchen.

Einen eigenen Abschnitt widmet Buijsman den Schwachstellen neuronaler Netze. Im Grunde liefert er die wesentlichen Argumente für die Existenz von Organisationen wie Algorithm Watch, die automatisierte Entscheidungsfindungssysteme möglichst transparent machen wollen. Die Frage, wer die neuronalen Netze mit welchem Material und zu welchen Zwecken trainiert und einsetzt, hat längst den rein akademischen Bereich verlassen.
Buijsman schildert den Feldversuch eines Lügendetektors namens „Silent Talker“, der falsche Aussagen von Probanden durch die Analyse von Stimme und Gesichtsausdruck erkennen sollte. „Silent Talker (. . .), das im Sommer 2019 an europäischen Grenzüber-gängen getestet wurde, lag bei einer Gruppe von 32 Personen in 75 Prozent der Fälle richtig“, schreibt er. 75 Prozent, das klingt nach einem Erfolg, aber eine umfangreiche Übersichtsstudie habe keine Belege dafür gefunden, dass man die Gefühle einer Person am Gesichtsausdruck erkennen kann. Ein Stirnrunzeln etwa könne, müsse aber nicht bedeuten, dass jemand verärgert ist. „Emotionen tatsächlich zu entziffern gestaltet sich überaus schwierig: dazu genügt es nicht, einem neuronalen Netz eine Reihe von Bildern oder Videos vorzulegen und zu hoffen, dass diese in die richtige Schublade gesteckt werden.“
Für große Organisationen, in denen es oft darum geht, die Verantwortung für heikle Ent-scheidungen wie eine heiße Kartoffel weiterzureichen, ist der Einsatz solcher nach ver-meintlich objektiven Kriterien gestalteten Assistenzsysteme freilich mehr als verführerisch: „Wir hätten ihnen gern geholfen, aber der Computer sagt nein, da können wir leider nichts mehr tun.“ Die Algorithmen erfüllen dann eine ähnliche Blitzableiterfunktion wie der Ein-satz von Unternehmensberatern vor ohnehin geplanten Sparmaßnahmen, nur dass Zwecke und Methoden dort noch durchschaubar sind.
Das Spiel der Kräfte in einem neuronalen Netzwerk hingegen ist auch für Profis nicht immer durchschaubar. Buijsman hebt hervor, dass neuronale Netze Entscheidungen auf intransparente Weise treffen: „Angenommen, ein Algorithmus macht etwas Merkwürdiges, wie findet man dann heraus, was dahintersteckt? Wen kann man haftbar machen, wenn niemand weiß, worauf eine Entscheidung genau beruht?“ In genau dieser Unschärfe, die an der Oberfläche als eine Art Autonomie des Systems erscheint, liegt aber ihre Attraktivität für Zeitgenossen, die als Entscheidungsträger bezeichnet und bezahlt werden. Die Verfüh-rung, die „intelligenten“ Systeme als eine Art Entscheidungswaschmaschinen zu verwenden, um Verantwortung auf sie abzuwälzen, ist groß.
Eine weitere wichtige Lektion Buijsmans beruht auf dem alten Datenarbeitermotto „Garba-ge in – Garbage out“ (GIGO). Wenn ein neuronales Netz mit unzureichenden und/oder falschen Daten gefüttert wurde, wird es keine hilfreichen Ergebnisse präsentieren können. Dies wiederum sei die Ursache für die unstillbare Datengier einiger Institutionen: „Genau diese Limitierungen der Netze führen auch dazu, dass Unternehmen und Behörden immer mehr Daten von uns haben wollen.“
Bei aller solide untermauerten Skepsis ist Buijsman davon überzeugt, dass die unter dem Begriff der Künstlichen Intelligenz zusammengefassten Technologien in vielen Berufen und Lebenssituationen überwiegend hilfreich sind. Die Software werde die Menschen auf abseh-bare Zeit nicht ersetzen, sondern bei der Arbeit unterstützen. Aus Buijsmans Beispielen wird aber auch deutlich: Die entscheidenden Fragen sind letztlich weniger technischer oder mathematischer Natur, sondern betreffen die Machtstrukturen der Gesellschaft.
Stefan Buijsman: „Ada und die Algorithmen“. Wahre Geschichten aus der Welt der Künstlichen Intelligenz. Aus dem Niederländischen von Bärbel Jänicke. C.H. Beck Verlag, München 2021. 236 S., Abb., geb., 20,– €.
Nota. - Für ein repräsentativ verfasstes Gemeinwesen ist Öffentlichkeit die elementare Voraussetzung. Anders gibt es keine Kontrolle seitens des repräsentierten Souveräns. Ins-besonders beruht eine rechtsstaatliche Verwaltung auf der prinzipiellen Einklagbarkeit jeder Entscheidung. Die ist in einer hochdifferenzierte Bürokratie gerade prekär genug. Doch wenn die Entscheidungen von einer selbst für Fachleute undurchschaubaren Technik ge-troffen werden, ist sie prinzipiell gar nicht möglich. Dass da "die Machtstrukturen der Ge-sellschaft" betroffen sind, kann man wohl sagen.
JE
Keine Kommentare:
Kommentar veröffentlichen