Springers Einwürfe
Was künstliche Intelligenz zu Fall bringt
Die Pandemie stellt Computeralgorithmen vor ungeahnte Probleme: Plötzlich verhalten sich die Menschen völlig anders, als die Programme gelernt haben.
von Michael Springer
Den ersten internationalen Warnhinweis auf das neue Coronavirus lieferte ein Computer. Am 30. Dezem-ber 2019 meldete HealthMap – eine US-Website des Boston Children's Hospital, die mittels künstlicher Intelligenz (KI) soziale Medien automatisch nach Krankheitsausbrüchen durchforstet –, es gebe Berichte über ein neuartiges Lungenleiden in Wuhan. Nach kaum einer Stunde erreichte die Meldung ProMED, eine Seuchen-Website mit knapp 85 000 Abonnenten, berichten Forscher in »Science«.
Soll man also künftig die Suche nach neuen Infektionen vertrauensvoll in die Hände von Algorithmen le-gen, die Alarm schlagen, sobald sie aus den digitalen Sozialkontakten drohende Epidemien herauslesen? Lieber nicht. Ein abschreckendes Beispiel lieferte die US-Firma Google mit ihrem 2008 gestarteten Netz-dienst Google Flu Trends, der aus den Suchanfragen auf der eigenen Plattform Grippeepidemien vorhersa-gen wollte, jedoch zwischen 2011 und 2013 unentwegt falschen Alarm gab.
Der Grund: Menschen ändern manchmal ihr Verhalten in unvorhersehbarer Weise; sie suchen zum Beispiel immer öfter nach Grippemeldungen, ohne sich selbst krank zu fühlen. Auf die neue Besorgnis muss das KI-System dann erst eigens trainiert werden.
Noch viel krasser ändert sich das Verhalten beim Ausbruch einer Pandemie. Ende Februar dauerte es kaum eine Woche, bis unter den bei Amazon besonders gefragten Artikeln Toilettenpapier, Gesichtsmasken und Desinfektionsmittel die Spitzenplätze eroberten; vordem waren es Smartphone-Hüllen, Elektronikteile und Legobaukästen gewesen. Die plötzlich ansteigende Nachfrage nach coronahalber begehrten Waren spiegel-te getreu den Zeitverlauf der ersten Ansteckungen wider: Zuerst schnellten sie früh in Italien hoch, dann hintereinander in Spanien, Frankreich, Deutschland, Großbritannien und schließlich in den USA.
Wenn in der Pandemie die Normalität zusammenbricht, kommt die künstliche Intelligenz gehörig durch-einander. Sie ist auf das Auftreten eines »Schwarzen Schwans« nicht gefasst. So nennt man – seit dem gleichnamigen Bestseller von Nassim Nicholas Taleb – ein höchst unwahrscheinliches, kaum vorherseh-bares Ereignis. Der Name erinnert an den berühmten Beispielsatz des Philosophen Karl Popper »Alle Schwäne sind weiß«, der so lange gilt, bis ihn eine einzige Ausnahme falsifiziert.
Der Schwarze Schwan der Pandemie führt vor, wie stark Algorithmen bereits unser Leben prägen – und wie dringend man sie modifizieren muss, sobald sich unser Verhalten auf einmal radikal wandelt. Zum Beispiel beginnen viele Menschen in ihrer sozialen Isolation die Heimarbeit zu entdecken und bestellen ungewöhnlich oft schweres Werkzeug und Gartengeräte. Das ruft unter Umständen KI-Programme auf den Plan, die gelernt haben, dahinter Kreditkartenbetrug oder Einbruchsvorbereitungen zu wittern. Also müssen menschliche Programmierer die neue Normalität in Algorithmen übersetzen.
Das könnte Sie auch interessieren:
Insgesamt hat sich das Internet ziemlich reibungslos auf die veränderte Nutzung eingestellt. Sie nahm in der ersten Jahreshälfte um geschätzte 40 Prozent zu, und ihr Maximum verlagerte sich vom Feierabend auf den späten Vormittag, an dem sich jetzt offenbar virtuelle Meetings und Heimunterricht häufen. Zudem scheinen mit dem Homeoffice die lokalen Spitzen der Netzaktivität aus den Stadtzentren an deren Ränder zu wandern.
Eigentlich erstaunlich, wie gut das weltweite Netz die enorm gestiegene Belastung ausgehalten hat. Das gelang nur, weil heimlich, still und leise in Windeseile hunderte zusätzliche Server entstanden – und weil die Lieferkette für Halbleiter und Glasfasern aus China nie unterbrochen wurde.
Nota. - Wo ist die Pointe, was sucht das in meinem Blog?
Dies: Der Algorithmus zapft nicht an der wahren Wahrheit; er zapft an den (weltweit) verfügbaren Daten.
Verfügbar wo und wie? Im Internet.
Ja ja, das sind unheimlich viele. Aber nicht alle, die es gibt, und schon gar nicht alle, die es geben könnte oder gar sollte. Sondern die, die dort eben eingespeist wurden; und zwar so viele, wie dort eingespeist wur-den: Wenn das eine Datum millionenfach eingespeist wurde, zählt es so viel wie Millionen Daten. Wie könnte, sollte, dürfte der Algorithmus sie unterscheiden und sortieren?
Wir können nur hoffen, dass es immer um Milliarden Daten geht, da fallen ein paar Millionen nicht ins Gewicht. Aber etwas ganz Besonderes, von keinem Erwartetes ist zuerst immer nur ein Datum. Das geht unter, aber es könnte seit hundert Jahren das erste wirklich Wichtige sein.
Das kann, soll und darf der Algorithmus nicht beurteilen wollen.
Merke: Die Masse von Daten wird ins Internet von einer Masse von Leuten eingegeben, und die kennt gottlob keiner.
Mit andern Worten, vom Algorithmus solltest du dir das Denken nicht abnehmen lassen.
JE
Keine Kommentare:
Kommentar veröffentlichen