Spiral-Bench testet, wie KI-Modelle Nutzer in gefährliche Gedankenspiralen treiben

MMM
Psycholog*innen warnen: Soziale Medien als Zerrspiegel der Gesellschaft
"Stimme des Publikums": Wie staatsfern sind die Rundfunkräte? | Podcast zur neuen OBS-Studie
Meta-Studie: Mythos Desinformation?
Fest stehe aber, dass die Warnungen selbst negative Effekte haben.
Deren Wirkung sei jedoch begrenzt gewesen, so der Tenor
Gestützt wird dieses Fazit von einer umfangreichen Studie des Observatory on Information and Democracy, die bereits im Dezember vergangenen Jahres erschien und Ende Januar in Berlin vorgestellt wurde
Nachweis sei schon deshalb schwierig, weil die Tech-Konzerne die dafür erforderlichen Daten nicht herausgäben.
könnte aus Sicht der Studien-Autor:innen negative Auswirkungen haben, weil so das Misstrauen in der Gesellschaft geschürt werde.
Aus Sicht von Kettemann befindet sich die Desinformationsforschung daher auch „in einer Krise“.
Einige Untersuchungen finden keine direkten Auswirkungen von Fehl- und Desinformation auf die politische Polarisierung oder das Wahlverhalten. Andere wiederum zeigen […] den geradezu gegenteiligen Effekt, wonach Bemühungen, das Bewusstsein für Fehl- und Desinformation zu schärfen, zu Misstrauen gegenüber seriösen Informationen führt.“
KI: So beeinflussen Sprachmodelle unsere Überzeugungen
Diese Maschinen sind keineswegs objektive Informationsquellen.
Mit Methoden der Psychometrie weisen sie den LLMs menschliche Eigenschaften zu – auch wenn die Modelle menschliches Verhalten lediglich simulieren, indem sie menschengemachte Texte statistisch auswerten.
Schwartzsche "Theorie grundlegender individueller Werte" zurück, eine in der Psychologie etablierte Methode, um anhand von Fragebögen die Werteorientierungen von Menschen hinsichtlich Tradition, Sicherheit, Leistung oder Macht zu quantifizieren.
Je nachdem, als welches Geschlecht das jeweilige Modell angesprochen wurde, fielen die Testergebnisse unterschiedlich aus. "Sie zeigten dabei etwa stereotype Ansichten, wie dass Frauen eher auf Sicherheit orientiert sind und Männer eher auf Leistung", sagt Pellert.
ie Modelle im Laufe der Zeit ihre politische Einstellung geändert haben.
Basis von Texten trainiert worden waren, tendenziell eher konservative Ansichten wiedergaben
Das dürfte über das Kategorisieren und Labeln der Trainingsdaten reinkommen", meint Pellert. "Es spiegelt wohl wider, was die Entwickler präferieren, und gibt dem Ganzen einen liberalen, amerikanischen Bias."
Wurde etwa das Modell XLMRoBERTa auf Deutsch gefragt, schrieben ihm die Tests einen höheren Wert an "Neurotizismus", also emotionaler Verletzlichkeit zu, während es auf Englisch mehr "Verträglichkeit", also Rücksichtnahme, Kooperationsbereitschaft und Empathie demonstrierte.
Einen Extremfall politisch gefärbter Sprachmodelle demonstrierte Yannic Kilcher: Der YouTuber hat sein auf GPT-4chan getauftes KI-Modell auf Beiträge des 4chan-Forums /pol/ ("Politically Incorrect") trainiert. Es ist für seinen rassistischen, frauenfeindlichen und antisemitischen Ton berüchtigt.
Sein Modell hat Kilcher auf der Plattform Hugging Face veröffentlicht.
Der YouTuber hat sein auf GPT-4chan getauftes KI-Modell auf Beiträge des 4chan-Forums /pol/ ("Politically Incorrect") trainiert.
Ihre kalifornischen Schöpfer scheinen vielmehr darauf erpicht zu sein, ihren LLMs die politisch inkorrekten Ausdrucksweisen oder Falschinformationen wieder auszutreiben, die diese in ihren Trainingsdaten aufgeschnappt haben.
"Wir erlauben der Technologie inzwischen, zu verändern, was wir sagen", zeigt sich Jakesch besorgt.
Jakesch und sein Team haben die Teilnehmer ihrer Studie gebeten, einen Social-Media-Post über ein umstrittenes Thema zu schreiben. Zur Auswahl stand etwa die Frage nach der Sinnhaftigkeit der Todesstrafe oder ob soziale Medien der Gesellschaft eher schaden oder nützen.
Die Forscher hatten den Schreibassistenten mithilfe versteckter Prompts darauf getrimmt, zu jeder Frage einen bestimmten Standpunkt einzunehmen und in seinen Vorschlägen entweder dafür oder dagegen zu argumentieren. Nach Beendigung der Schreibaufgabe zeigte eine Umfrage schließlich, dass die Positionen der Teilnehmer sich denen ihrer KI-Assistenten angenähert hatten.
"Der Schreibassistent macht seine Vorschläge direkt während des Schreibens und hat so deutlich stärkeren Einfluss auf unsere Meinung, als wenn wir einfach ein paar Argumente präsentiert bekommen", erklärt Jakesch.
Wenn viele Personen die Technik regelmäßig nutzen, kann das die öffentliche Meinung verschieben.
Je häufiger LLMs ins Spiel kommen, desto mehr Texte werden – wenn auch nicht komplett künstlich generiert – zumindest von den KI-Modellen verbessert, erweitert oder revidiert.
Chatbots halluzinieren zwar zuweilen Falschaussagen herbei, neigen aber auch dazu, falsche Fakten zu korrigieren.
Denn viele Verschwörungsgläubige treffen in Form eines LLMs auf einen Gesprächspartner, der mehr über ihre Lieblingsverschwörungstheorie weiß als sie selbst und gewillt sowie in der Lage ist, individuell auf sie einzugehen.
Die kurze, faktengestützte Behandlung reduzierte den Glauben der Teilnehmer an ihre Verschwörungstheorie im Durchschnitt um 20 Prozent.
Dieser Effekt hielt auch während der zwei Monate bis zur geplanten Nachbesprechung unvermindert an.
Als ein professioneller Faktenchecker eine Stichprobe von 128 Behauptungen der KI überprüfte, erwiesen sich 99,2 Prozent als wahr, 0,8 Prozent als irreführend und keine einzige als falsch.
Denn schließlich liegt es in der Verantwortung der Entwickler, ob die Systeme letztlich Fakten oder Fehlinformationen verbreiten.
Je seltener eine Meinung beziehungsweise ein semantisches Konstrukt in den Trainingsdaten ist, desto eher unterlaufen den Modellen dabei Fehler."
wird die Sache bei dünner Datenlage schwieriger.
"Wenn in Zukunft wirklich die ganze Welt von ein und derselben Maschine beeinflusst wird, wäre das eine völlig neue Situation", warnt Jakesch. "Das könnte zu einer nie dagewesenen Homogenisierung von Kulturen und Meinungen führen."
Wenn der Schein trügt – Deepfakes und die politische Realität
Wolf-Schneider-KI (WSKI) – Reporterfabrik
SocialAI spricht Deutsch: Ein Nikotinkaugummi für Social Media
Weizenbaum Report 2024: Politische Partizipation verlagert sich ins Netz
Zum fünften Mal untersucht sie, wie sich im Laufe des zurückliegenden Jahres die politischen Partizipationsformen verändert haben.
Es sei denkbar, dass Bürger:innen davon ausgehen, dass sie die Politik über soziale Medien besser beeinflussen können als über klassischen Formen der Partizipation.
In den Jahren 2022 und 2021 befand sich die Spendenbereitschaft mit 62 bzw. 64 Prozent noch auf einem Hoch. Dieser Wert fiel im vergangenen Jahr auf 54 Prozent. Eine mögliche Erklärung könnte laut den Forschenden die wirtschaftliche Rezession sein.
Rund 40 Prozent der Befragten kamen im vergangenen Jahr nach eigenen Angaben mit Fehlinformationen in Kontakt
Jüngere sind auch aktiver, wenn es darum geht, Nachrichten zu überprüfen und problematische Inhalte zu melden
Nur 59 Prozent der Frauen nutzen das Netz zu diesem Zweck
Vor allem Männer mit höherem Bildungsgrad – konkret 78 Prozent von ihnen – nutzen das Internet, um sich über das politische Tagesgeschehen zu informieren. Bei Menschen mit einem niedrigeren Bildungsabschluss sind es 51 Prozent.
Radio und Zeitungen verlieren an Bedeutung
27 Prozent sehen Social Media eher negativ, 32 Prozent tun dies bei KI
Dabei gab mit 75 Prozent ein Großteil der Deutschen an, die Technik in der Freizeit bereits genutzt zu haben
Am wenigsten Anwendung findet die Technologie bisher im Bildungskontext – nur 17 Prozent der Befragten verwenden sie dort.
Fake It To Make It
Spiel, bei dem man selbst Fake News erstellt
Lage der Nation - der Politik-Podcast aus Berlin: Spezial: Wer spaltet unsere Gesellschaft? (Steffen Mau, Soziologe) (1h8m)
Künstliche Intelligenz: Falsche tagesschau-Audiodateien im Umlauf
Studie OBS Fit for News
Medienkompetenz für Jugendliche in Schulen und Berufsausbildung
Social Media: Warum es höchste Zeit ist, sich von datengetriebenen Geschäftsmodellen zu verabschieden
Diese Plattformen sind auf eine Aufmerksamkeitsökonomie ausgerichtet, die darauf abzielt, bewusst Erregung/Aufregung zu erzeugen, um die Interaktion mit fremden Inhalten zu steigern
Da Inhalte mit hoher emotionaler Wirkung bevorzugt werden, führt dies zu einer verstärkten Verbreitung von Hass/Hetze und Fake News
Oder wählen wir einen anderen Weg, der auf Wahlfreiheit und Autonomie setzt und damit letztlich das Individuum befähigt, selbstbestimmt in der digitalen Welt zu agieren?
„Quelle: Internet“? Digitale Nachrichten- und Informationskompetenzen der deutschen Bevölkerung im Test
Denn durch den radikalen Medienwandel haben Journalist:innen und Medieninstitutionen ihren Einfluss als Gatekeeper:innen verloren.
Den Befragten fällt es zum Teil schwer, zwischen verschiedenen Kommunikationsabsichten, das heißt zwischen Werbung, Information, Desinformation und Meinung zu unterscheiden. So hielten 56 % Befragten ein Advertorial – trotz Werbekennzeichnung – fälschlicherweise für eine Information.
Relativ gut waren die Befragten hingegen darin, die Neutralität oder Vertrauenswürdigkeit von Quellen einzuschätzen.
Allerdings fällt es – trotz weiterführender Informationen – oft schwer, die konkreten Interessenskonflikte zu benennen.
Quer durch die Studie zeigt sich immer wieder, dass Plattform-spezifische Hinweise zum Teil wenig wirksam sind.
Der Gedanke, es gäbe gemeinsamen Machenschaften zwischen Medien und Politik, ist weit verbreitet
25 % stimmen der Aussage zu, dass Medien und Politik Hand in Hand arbeiten,
24 % glauben, dass die Bevölkerung in Deutschland von den Medien systematisch belogen wird (weitere 30 % sagen teils/teils)
Insbesondere die journalistische Unabhängigkeit des öffentlich-rechtlichen Rundfunks wird falsch eingeschätzt.
Mit dem Alter sinkt die digitale Nachrichtenkompetenz:
Neben dem Alter spielt auch Schulbildung eine zentrale Rolle
Neben Bildung und Alter steht auch die demokratische Grundhaltung der Befragten in Zusammenhang mit digitaler Nachrichten- und Informationskompetenz.
Deepfakes – Wenn man Augen und Ohren nicht mehr trauen kann
Studien zu Facebook und Instagram: Algorithmen rütteln kaum an politischen Einstellungen
Fake oder Fakt
Was in den Medien fehlt - Die "Vergessenen Nachrichten" des Jahres 2022 | deutschlandfunk.de
Die Initiative Nachrichtenaufklärung e.V. -
Datenhändler in der Big-Data-Ökonomie: Das Geschäft der Datenbroker - taz.de
Die US-Firma Acxiom, einer der größten Datenhändler weltweit, hat Profile von 2,5 Milliarden Konsumenten auf der Welt erstellt – mit bis zu 11.000 Datenpunkten pro Person
Am alten Firmensitz von Acxiom, einem Bürogebäude in Little Rock im US-Bundesstaat Arkansas, ratterten zeitweise mehr als 23.000 Server, die gigantische Datenmengen verarbeiteten
Käufertypen destilliert wie etwa „hypothekenfreier Jetset“, „Alleinflieger“ oder „sparsame Rentner“
Diese „Kartierung des Verbrauchergenoms“, wie die <em>New York Times</em> das Data Mining einmal bezeichnet hat
Risikoscores, die eine Wahrscheinlichkeit indizieren, mit der jemand an Diabetes erkrankt oder zahlungsunfähig wird
konnten die Datenbroker lange weitgehend unbehelligt ihre Silos füllen. Doch seit dem <a target="_blank" href="/Datenschutz-Skandal-bei-Facebook/!5611890/">Skandal um die mittlerweile abgewickelte Analysefirma Cambridge Analytica</a>, die illegal Millionen Facebook-Profile für Wahlkampfteams ausgewertet hatte, schauen die Aufsichtsbehörden genauer auf die geheimen Geschäftspraktiken in der zweiten und dritten Reihe.
FTC kürzlich Klage gegen den Datenhändler Kochava eingereicht, weil dieser Standortdaten von Millionen von mobilen Endgeräten verkauft haben soll
Damit gelten die Regelungen der Bundesstaaten. Und in jenen 13 Bundesstaaten, in denen Abtreibung illegal ist (zum Beispiel Texas und Wisconsin), kann der Aufenthalt in der Nähe einer Abtreibungsklinik für schwangere Frauen zum strafrechtlichen Problem werden
In einigen Bundesstaaten wertet die Polizei bereits Websuchen nach Abtreibung aus.
hochrangiges Verwaltungsmitglied der amerikanischen Bischofskonferenz zurücktreten, nachdem eine katholische Nachrichtenseite einen <a target="_blank" href="/Dating-App-fuer-Homosexuelle/!5033393/">Handy-Datensatz erhielt, der offenbarte, dass der Priester die Dating-App Grindr</a> nutzte und in Schwulenbars verkehrte. Der Geistliche wurde zwangsgeoutet.
Deutsche Welle: „Wie Apps uns süchtig machen“
Irgendwas mit Internet: Der Journalismus der Zukunft
Geschäftsmodelle | bpb.de
HOME
Freie soziale Medien: Fotos teilen mit dem werbefreien Pixelfed | heise online
Cookie-Banner der meistbesuchten Websites: Miese Tricks und fiese Klicks
Verif!cation Quiz Bot (@quiztime) / Twitter
InVID Project - Video Verification
Dark Patterns: Datenschutzbehörden warnen vor manipulativem Design im Netz