Dienstag, 11. August 2020

Die allwissende Sprachmaschine.

 

aus spektrum.de, 11.08.2020                                                                 zuJochen Ebmeiers Realien

Künstliche Intelligenz: Multitalent für Sprache 

Der neue Textgenerator GPT-3 kann Shakespeare nachahmen, Programmcode schreiben und Fremdsprachen sowie Rechtsparagrafen übersetzen. Aber versteht er auch, was er tut?

Die Vergleiche können kaum groß genug sein: »Ich habe das Gefühl, die Zukunft gesehen zu haben«, schrieb ein kalifornischer Tech-Unternehmer vor einigen Tagen bei Twitter. Andere ließen verlauten, das neue Tool werde die Welt komplett verändern. Grund für diese Euphorie ist GPT-3 (Generative Pretrained Transformer 3), ein auf künstlicher Intelligenz basierendes Sprachprogramm. Dessen Betaversion ist derzeit für ausgewählte Testnutzer zugänglich, und seitdem sorgen Videos und Screenshots von den außergewöhnlichen Fähigkeiten des Tools in den sozialen Netzwerken für Aufregung.

Denn egal, ob smarte Tweets, Gebrauchsanleitungen, Gedichte und Kurzgeschichten, Raptexte im Stil Jay-Zs oder gar ein Gespräch mit Gott – all das scheint GPT-3 nach den ersten Eindrücken derart authentisch zu erzeugen, dass sich die Manuskripte nicht von denen eines menschlichen Autors unterscheiden lassen. Aber es geht noch weiter: Die KI kann übersetzen, beantwortet Fragen von Biologie bis Geschichte, löst simple Rechenaufgaben und kann sogar eigenständig einen Computercode schreiben, wenn man das gewünschte Ergebnis eingibt (hier einige Beispiele für Anwendungen). Der Befehl »Erstelle einen Button in der Haarfarbe von Donald Trump« kreiert so beispielsweise einen gelben Knopf für die Website.

Hinter GPT-3 steckt das US-amerikanische Technologieunternehmen OpenAI – eine Art All-Star-Team der kalifornischen Investorenszene. Wichtige Geldgeber sind unter anderem die Tech-Milliardäre Elon Musk (Tesla), Peter Thiel (PayPal) und Reid Hoffman (LinkedIn). Zudem stellte Softwareriese Microsoft im vergangenen Jahr eine Milliarde Dollar zur Verfügung. 2015 war OpenAI ursprünglich als gemeinnütziges Projekt gegründet worden; seit 2019 gibt es aber auch ein profitorientiertes Tochterunternehmen, das die Vermarktung der Technologien übernimmt. Bewusst weist das Unternehmen immer wieder auf die drohende Gefahr durch künstliche Intelligenz hin – nur um dann selbst noch leistungsstärkere Tools zu entwickeln. Frei nach dem Motto: Kenne die Waffen deines Gegners, um ihn zu schlagen.

Entsprechend bedrohlich klangen die Warnungen, mit denen OpenAI im Februar vergangenen Jahres das Vorgängermodell GPT-2 präsentierte. Anders als geplant könne man den Code des Textgenerators nun doch nicht öffentlich machen, hieß es. Zu überwältigend seien die Möglichkeiten, zu groß die Gefahr des Missbrauchs. Da verwunderte es einige Beobachter, dass das Unternehmen nach der Vorstellung des eindeutig leistungsfähigeren GPT-3 eher auf ruhige Töne bedacht war: Der derzeitige Hype sei völlig übertrieben, schrieb Mitgründer Sam Altman. Natürlich sei ihr Tool beeindruckend, allerdings habe es durchaus noch einige Schwächen, »wir müssen noch eine Menge herausfinden«.

Heftcover Spektrum der Wissenschaft Digitalpaket: Künstliche IntelligenzDas könnte Sie auch interessieren: Spektrum der Wissenschaft Digitalpaket: Künstliche Intelligenz

Klar ist: Die grundlegende Technik dahinter ist zumindest nichts Neues. GPT-3 ist ein statistisches Sprachmodell, das erst einmal nichts anderes macht, als die Wahrscheinlichkeit zu berechnen, mit der ein Wort auf ein anderes folgt. Nach diesem Prinzip arbeiten Textgeneratoren schon sehr lange. Aber während ältere Modelle nur auf sehr wenige Worte zurückgreifen konnten, um das nächste Wort vorherzusagen, bezieht GPT-3 mehrere Absätze mit ein: Bis zu 2048 so genannte Token – neben Wörtern können das auch Teile von einem Code sein – berücksichtigt die KI bei ihrer Prognose.

Grundlage dafür ist Deep Learning: maschinelles Lernen mit »tiefen«, also mehrschichtigen künstlichen neuronalen Netzen. Das heißt: Dem Modell wird immer wieder ein Textdatensatz gezeigt, bei dem stets andere Wörter oder Sätze zufällig unlesbar gemacht wurden. Diese Lücken soll die Maschine dann wieder füllen. So lernt das System, verschiedene Kontexte zu erkennen, und entwirft nach und nach ein multidimensionales Koordinatensystem, in dem ähnliche Begriffe gruppiert werden.

Über 570 Gigabyte an Text benutzen die Entwickler für ihr Training, das entspricht rund einer Billion Wörter

Was nun zum einen besonders beeindruckt, sind die schier unglaublichen Zahlen, die OpenAI veröffentlicht hat und die GPT-3 auf den Rang der bisher mit Abstand größten und kraftvollsten Sprach-KI heben: Aus 175 Milliarden Parametern besteht das neuronale Netz – das sind gleich 100-mal mehr als beim erst 2019 veröffentlichten Vorgänger GPT-2. Zudem hat das neue Tool eine ganze Menge gelesen. Über 570 Gigabyte an Text benutzen die Entwickler für ihr Training, das entspricht rund einer Billion Wörter. In dem Datensatz befand sich das Textarchiv von Common Crawl, einer Non-Profit-Organisation, die seit 2011 Texte aus dem Internet zusammenträgt, darunter Foreneinträge, Blogbeiträge und Leitartikel. Zudem wurde GPT-3 mit der englischsprachigen Wikipedia und mehreren Literaturdatenbanken gefüttert.

Zum anderen setzen die Entwickler auf einen Paradigmenwechsel beim Training ihres Sprachmodells. Denn die meisten Konkurrenten, wie beispielsweise Google mit seinem Textgenerator BERT, sind bisher auf so genanntes Fine-Tuning angewiesen. Dabei muss die KI nach dem Basistraining an die jeweiligen Anforderungen, etwa einer Übersetzung, mit aufgabenspezifischen Datensätzen angepasst werden. Bei GPT-3 fällt dieser meist sehr aufwändige Prozess weg. Es reicht, dem Modell wenige Beispiele manuell vorzugeben, damit es den Kontext und die Aufgabe versteht.

Besonders in dieser Fähigkeit liegt der Hype um GPT-3 begründet. Es gibt viele Kurzclips, in denen GPT-3 nach wenigen Beispielen zu begreifen scheint, was der Nutzer von ihm will, und anschließend beinahe kreativ an die Sache herangeht.

In wenigen klaren Sätzen fasst die Maschine beispielsweise zusammen, was hinter beliebigen verklausulierten juristischen Paragrafen steckt. Beispiele wie dieses führen immer wieder zu der verlockenden Annahme, dass solche Modelle schlussfolgern könnten oder gar die Bedeutung von Sprache verstünden. Das wiederum wären Hinweise auf eine Intelligenz, wie sie dem Menschen zugeschrieben wird. Aber wie nahe kommt GPT-3 diesem Ideal wirklich? Ist die Sprach-KI vielseitig wie das menschliche Gehirn und dabei ungleich schneller?

Abgesehen davon, dass die meisten Menschen künstlichen Intelligenzen vorschnell menschliche Eigenschaften zugestehen, äußern auch Experten eine gewisse Zurückhaltung. »Die Fähigkeiten von GPT-3 sind sehr beeindruckend, aber angesichts der Größe des Modells auch nicht überraschend«, sagt Sina Zarrieß, Professorin für Maschinelles Lernen und Sprachtechnologie an der Universität Jena. Der KI-Forscher Kristian Kersting von der TU Darmstadt sieht das ähnlich: »Man kann von einem erwartbaren Durchbruch sprechen. Es zeigt, dass mit großen Datenmengen sehr viel möglich ist.«

Aber nicht alle Ergebnisse überzeugen die Forscher. »Wer sich etwa diese authentisch wirkenden Kurzgeschichten genauer anschaut, merkt, dass hinter der Fassade oft kein wirklicher Sinn steckt«, sagt Zarrieß. Immer wieder findet das Modell auch abwegige und falsche Lösungen für Aufgaben, die Menschen keine Probleme bereiten würden. Schwer tut sich GPT-3 zudem mit absurden Fragen wie: »Schmilzt ein Käse, wenn ich ihn in den Kühlschrank stelle?« Das Gleiche gilt für Fragen des inhaltlichen Verständnisses, beispielsweise, ob aus einer Aussage notwendigerweise eine andere folgt.

 

Nota. - Nächstliegende Frage: Versteht das abgebildete Computerkind denn, was es da liest? 

Antwort: Im Gespräch, sei's auf der Cocktailparty oder im Hochschulseminar, könnte es den niedergeschriebenen Gedanken im sachlichen Zusammenhang so wiedergeben, dass man es meinen möchte. Auch auf Rückfragen und kritische Einwände würde es tragfähige Antworten geben.

Freilich immer unter der Voraussetzung, dass sie im Internet schonmal dagewesen sind. Das wird alle Vielwisser verblüffen, denn so viel weiß keiner von uns. Doch jeder, der sich im Internet auskennt, kann so viel zu seiner Kenntnis nehmen, wenn ihm nicht vorher der Schädel platzt

Wenn er aber auf eine Frage stößt, die im Internet noch nicht gestellt und noch nicht beant-wortet wurde, steht er wie der Ochs vorm neuen Tor. Er müsste selber denken, denn auszuzäh-len hätte er nichts.

JE



Keine Kommentare:

Kommentar veröffentlichen