KI: So beeinflussen Sprachmodelle unsere Überzeugungen
Diese Maschinen sind keineswegs objektive Informationsquellen.
Mit Methoden der Psychometrie weisen sie den LLMs menschliche Eigenschaften zu – auch wenn die Modelle menschliches Verhalten lediglich simulieren, indem sie menschengemachte Texte statistisch auswerten.
Schwartzsche "Theorie grundlegender individueller Werte" zurück, eine in der Psychologie etablierte Methode, um anhand von Fragebögen die Werteorientierungen von Menschen hinsichtlich Tradition, Sicherheit, Leistung oder Macht zu quantifizieren.
Je nachdem, als welches Geschlecht das jeweilige Modell angesprochen wurde, fielen die Testergebnisse unterschiedlich aus. "Sie zeigten dabei etwa stereotype Ansichten, wie dass Frauen eher auf Sicherheit orientiert sind und Männer eher auf Leistung", sagt Pellert.
ie Modelle im Laufe der Zeit ihre politische Einstellung geändert haben.
Basis von Texten trainiert worden waren, tendenziell eher konservative Ansichten wiedergaben
Das dürfte über das Kategorisieren und Labeln der Trainingsdaten reinkommen", meint Pellert. "Es spiegelt wohl wider, was die Entwickler präferieren, und gibt dem Ganzen einen liberalen, amerikanischen Bias."
Wurde etwa das Modell XLMRoBERTa auf Deutsch gefragt, schrieben ihm die Tests einen höheren Wert an "Neurotizismus", also emotionaler Verletzlichkeit zu, während es auf Englisch mehr "Verträglichkeit", also Rücksichtnahme, Kooperationsbereitschaft und Empathie demonstrierte.
Einen Extremfall politisch gefärbter Sprachmodelle demonstrierte Yannic Kilcher: Der YouTuber hat sein auf GPT-4chan getauftes KI-Modell auf Beiträge des 4chan-Forums /pol/ ("Politically Incorrect") trainiert. Es ist für seinen rassistischen, frauenfeindlichen und antisemitischen Ton berüchtigt.
Sein Modell hat Kilcher auf der Plattform Hugging Face veröffentlicht.
Der YouTuber hat sein auf GPT-4chan getauftes KI-Modell auf Beiträge des 4chan-Forums /pol/ ("Politically Incorrect") trainiert.
Ihre kalifornischen Schöpfer scheinen vielmehr darauf erpicht zu sein, ihren LLMs die politisch inkorrekten Ausdrucksweisen oder Falschinformationen wieder auszutreiben, die diese in ihren Trainingsdaten aufgeschnappt haben.
"Wir erlauben der Technologie inzwischen, zu verändern, was wir sagen", zeigt sich Jakesch besorgt.
Jakesch und sein Team haben die Teilnehmer ihrer Studie gebeten, einen Social-Media-Post über ein umstrittenes Thema zu schreiben. Zur Auswahl stand etwa die Frage nach der Sinnhaftigkeit der Todesstrafe oder ob soziale Medien der Gesellschaft eher schaden oder nützen.
Die Forscher hatten den Schreibassistenten mithilfe versteckter Prompts darauf getrimmt, zu jeder Frage einen bestimmten Standpunkt einzunehmen und in seinen Vorschlägen entweder dafür oder dagegen zu argumentieren. Nach Beendigung der Schreibaufgabe zeigte eine Umfrage schließlich, dass die Positionen der Teilnehmer sich denen ihrer KI-Assistenten angenähert hatten.
"Der Schreibassistent macht seine Vorschläge direkt während des Schreibens und hat so deutlich stärkeren Einfluss auf unsere Meinung, als wenn wir einfach ein paar Argumente präsentiert bekommen", erklärt Jakesch.
Wenn viele Personen die Technik regelmäßig nutzen, kann das die öffentliche Meinung verschieben.
Je häufiger LLMs ins Spiel kommen, desto mehr Texte werden – wenn auch nicht komplett künstlich generiert – zumindest von den KI-Modellen verbessert, erweitert oder revidiert.
Chatbots halluzinieren zwar zuweilen Falschaussagen herbei, neigen aber auch dazu, falsche Fakten zu korrigieren.
Denn viele Verschwörungsgläubige treffen in Form eines LLMs auf einen Gesprächspartner, der mehr über ihre Lieblingsverschwörungstheorie weiß als sie selbst und gewillt sowie in der Lage ist, individuell auf sie einzugehen.
Die kurze, faktengestützte Behandlung reduzierte den Glauben der Teilnehmer an ihre Verschwörungstheorie im Durchschnitt um 20 Prozent.
Dieser Effekt hielt auch während der zwei Monate bis zur geplanten Nachbesprechung unvermindert an.
Als ein professioneller Faktenchecker eine Stichprobe von 128 Behauptungen der KI überprüfte, erwiesen sich 99,2 Prozent als wahr, 0,8 Prozent als irreführend und keine einzige als falsch.
Denn schließlich liegt es in der Verantwortung der Entwickler, ob die Systeme letztlich Fakten oder Fehlinformationen verbreiten.
Je seltener eine Meinung beziehungsweise ein semantisches Konstrukt in den Trainingsdaten ist, desto eher unterlaufen den Modellen dabei Fehler."
wird die Sache bei dünner Datenlage schwieriger.
"Wenn in Zukunft wirklich die ganze Welt von ein und derselben Maschine beeinflusst wird, wäre das eine völlig neue Situation", warnt Jakesch. "Das könnte zu einer nie dagewesenen Homogenisierung von Kulturen und Meinungen führen."