Schüler, Studenten, Angestellte und zahlreiche andere lassen mittlerweile schreiben statt es selbst zu tun. Sie geben Stichworte ein, etwa historische Daten und damit in Zusammenhang stehende Namen und schon füllt sich der Bildschirm mit gefälligen Sätzen. Fertig ist die Hausarbeit. Mails lassen sich genauso erstellen, auch Angebote an andere Unternehmen. Möglich macht das ChatGPT, eine Texterstellungssoftware, die mit künstlicher Intelligenz ausgestattet ist und das gesamte Internet nach den Eckdaten absucht. Die wahrscheinlichsten Kombinationen sucht sie aus und formt daraus wohlklingende Sätze. Es sieht aus, als habe ein Mensch sie verfasst. Kaum einer kann das überprüfen.


Die Frage war: Arbeitet ChatGPT rational?

Manchmal fällte es jedoch direkt ins Auge, dann nämlich, wenn ChatGPT sich völligen Unsinn zusammengereimt hat. Das haben der auf künstliche Intelligenz (KI) spezialisierte Assistenzprofessor Mayank Kejriwal und der Ingenieurstudent Zhisheng Tang von der University of Southern California in Los Angeles herausgefunden. Sie überprüften ChatGPT auf ihre Fähigkeit, rational zu arbeiten.


Die Wahl fällt auf das Wahrscheinlichste

Die Software wühlt im Internet gigantische Mengen an Informationen durch und „schaut“, ob sie zu den eingegebenen Stichworten passen. Sie liefert dann das, was statistisch gesehen am wahrscheinlichsten richtig ist. „Trotz ihrer beeindruckenden Fähigkeiten denken große Sprachmodelle nicht wirklich“, schreibt Kejriwal in einem Artikel über die Arbeit des Teams. „Sie neigen dazu, elementare Fehler zu machen und sogar Dinge zu erfinden. Da sie jedoch fließende Texte erzeugen, neigen die Menschen dazu zu glauben. dass sie denken können. „

Alles war frei erfunden

Besonders krass ist ein Fall, den die „Washington Post“ aufdeckte.Ein Anwalt in Kalifornien hatte ChatGPT gebeten, eine Liste von Rechtswissenschaftlern zu erstellen, die andere sexuell belästigt hatten. Auf der Liste erschien auch der Name des Juraprofessors Jonathan Turley. Er habe sexuell anzügliche Kommentare abgegeben und versucht, einen Schüler während einer bestimmten Klassenfahrt nach Alaska zu berühren. Alles war frei erfunden, ergab eine Nachprüfung. Die Quelle mit der Falschinformation, die sich in den Weiten des Internets befinden muss, blieb allerdings unentdeckt.

Kombi von Fakten und Unwahrheiten

„ChatGPT-Texte können eine sehr spezifische Kombination von Fakten und Unwahrheiten sein“, sagt Kate Crawford, Professorin an der University of Southern California, die selbst einmal Opfer der Texterstellungssoftware war.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.