"Stimme des Publikums": Wie staatsfern sind die Rundfunkräte? | Podcast zur neuen OBS-Studie

MMM
Meta-Studie: Mythos Desinformation?
Fest stehe aber, dass die Warnungen selbst negative Effekte haben.
Deren Wirkung sei jedoch begrenzt gewesen, so der Tenor
Gestützt wird dieses Fazit von einer umfangreichen Studie des Observatory on Information and Democracy, die bereits im Dezember vergangenen Jahres erschien und Ende Januar in Berlin vorgestellt wurde
Nachweis sei schon deshalb schwierig, weil die Tech-Konzerne die dafür erforderlichen Daten nicht herausgäben.
könnte aus Sicht der Studien-Autor:innen negative Auswirkungen haben, weil so das Misstrauen in der Gesellschaft geschürt werde.
Aus Sicht von Kettemann befindet sich die Desinformationsforschung daher auch „in einer Krise“.
Einige Untersuchungen finden keine direkten Auswirkungen von Fehl- und Desinformation auf die politische Polarisierung oder das Wahlverhalten. Andere wiederum zeigen […] den geradezu gegenteiligen Effekt, wonach Bemühungen, das Bewusstsein für Fehl- und Desinformation zu schärfen, zu Misstrauen gegenüber seriösen Informationen führt.“
KI: So beeinflussen Sprachmodelle unsere Überzeugungen
Diese Maschinen sind keineswegs objektive Informationsquellen.
Mit Methoden der Psychometrie weisen sie den LLMs menschliche Eigenschaften zu – auch wenn die Modelle menschliches Verhalten lediglich simulieren, indem sie menschengemachte Texte statistisch auswerten.
Schwartzsche "Theorie grundlegender individueller Werte" zurück, eine in der Psychologie etablierte Methode, um anhand von Fragebögen die Werteorientierungen von Menschen hinsichtlich Tradition, Sicherheit, Leistung oder Macht zu quantifizieren.
Je nachdem, als welches Geschlecht das jeweilige Modell angesprochen wurde, fielen die Testergebnisse unterschiedlich aus. "Sie zeigten dabei etwa stereotype Ansichten, wie dass Frauen eher auf Sicherheit orientiert sind und Männer eher auf Leistung", sagt Pellert.
ie Modelle im Laufe der Zeit ihre politische Einstellung geändert haben.
Basis von Texten trainiert worden waren, tendenziell eher konservative Ansichten wiedergaben
Das dürfte über das Kategorisieren und Labeln der Trainingsdaten reinkommen", meint Pellert. "Es spiegelt wohl wider, was die Entwickler präferieren, und gibt dem Ganzen einen liberalen, amerikanischen Bias."
Wurde etwa das Modell XLMRoBERTa auf Deutsch gefragt, schrieben ihm die Tests einen höheren Wert an "Neurotizismus", also emotionaler Verletzlichkeit zu, während es auf Englisch mehr "Verträglichkeit", also Rücksichtnahme, Kooperationsbereitschaft und Empathie demonstrierte.
Einen Extremfall politisch gefärbter Sprachmodelle demonstrierte Yannic Kilcher: Der YouTuber hat sein auf GPT-4chan getauftes KI-Modell auf Beiträge des 4chan-Forums /pol/ ("Politically Incorrect") trainiert. Es ist für seinen rassistischen, frauenfeindlichen und antisemitischen Ton berüchtigt.
Sein Modell hat Kilcher auf der Plattform Hugging Face veröffentlicht.
Der YouTuber hat sein auf GPT-4chan getauftes KI-Modell auf Beiträge des 4chan-Forums /pol/ ("Politically Incorrect") trainiert.
Ihre kalifornischen Schöpfer scheinen vielmehr darauf erpicht zu sein, ihren LLMs die politisch inkorrekten Ausdrucksweisen oder Falschinformationen wieder auszutreiben, die diese in ihren Trainingsdaten aufgeschnappt haben.
"Wir erlauben der Technologie inzwischen, zu verändern, was wir sagen", zeigt sich Jakesch besorgt.
Jakesch und sein Team haben die Teilnehmer ihrer Studie gebeten, einen Social-Media-Post über ein umstrittenes Thema zu schreiben. Zur Auswahl stand etwa die Frage nach der Sinnhaftigkeit der Todesstrafe oder ob soziale Medien der Gesellschaft eher schaden oder nützen.
Die Forscher hatten den Schreibassistenten mithilfe versteckter Prompts darauf getrimmt, zu jeder Frage einen bestimmten Standpunkt einzunehmen und in seinen Vorschlägen entweder dafür oder dagegen zu argumentieren. Nach Beendigung der Schreibaufgabe zeigte eine Umfrage schließlich, dass die Positionen der Teilnehmer sich denen ihrer KI-Assistenten angenähert hatten.
"Der Schreibassistent macht seine Vorschläge direkt während des Schreibens und hat so deutlich stärkeren Einfluss auf unsere Meinung, als wenn wir einfach ein paar Argumente präsentiert bekommen", erklärt Jakesch.
Wenn viele Personen die Technik regelmäßig nutzen, kann das die öffentliche Meinung verschieben.
Je häufiger LLMs ins Spiel kommen, desto mehr Texte werden – wenn auch nicht komplett künstlich generiert – zumindest von den KI-Modellen verbessert, erweitert oder revidiert.
Chatbots halluzinieren zwar zuweilen Falschaussagen herbei, neigen aber auch dazu, falsche Fakten zu korrigieren.
Denn viele Verschwörungsgläubige treffen in Form eines LLMs auf einen Gesprächspartner, der mehr über ihre Lieblingsverschwörungstheorie weiß als sie selbst und gewillt sowie in der Lage ist, individuell auf sie einzugehen.
Die kurze, faktengestützte Behandlung reduzierte den Glauben der Teilnehmer an ihre Verschwörungstheorie im Durchschnitt um 20 Prozent.
Dieser Effekt hielt auch während der zwei Monate bis zur geplanten Nachbesprechung unvermindert an.
Als ein professioneller Faktenchecker eine Stichprobe von 128 Behauptungen der KI überprüfte, erwiesen sich 99,2 Prozent als wahr, 0,8 Prozent als irreführend und keine einzige als falsch.
Denn schließlich liegt es in der Verantwortung der Entwickler, ob die Systeme letztlich Fakten oder Fehlinformationen verbreiten.
Je seltener eine Meinung beziehungsweise ein semantisches Konstrukt in den Trainingsdaten ist, desto eher unterlaufen den Modellen dabei Fehler."
wird die Sache bei dünner Datenlage schwieriger.
"Wenn in Zukunft wirklich die ganze Welt von ein und derselben Maschine beeinflusst wird, wäre das eine völlig neue Situation", warnt Jakesch. "Das könnte zu einer nie dagewesenen Homogenisierung von Kulturen und Meinungen führen."
Wenn der Schein trügt – Deepfakes und die politische Realität
Wolf-Schneider-KI (WSKI) – Reporterfabrik
SocialAI spricht Deutsch: Ein Nikotinkaugummi für Social Media
Weizenbaum Report 2024: Politische Partizipation verlagert sich ins Netz
Zum fünften Mal untersucht sie, wie sich im Laufe des zurückliegenden Jahres die politischen Partizipationsformen verändert haben.
Es sei denkbar, dass Bürger:innen davon ausgehen, dass sie die Politik über soziale Medien besser beeinflussen können als über klassischen Formen der Partizipation.
In den Jahren 2022 und 2021 befand sich die Spendenbereitschaft mit 62 bzw. 64 Prozent noch auf einem Hoch. Dieser Wert fiel im vergangenen Jahr auf 54 Prozent. Eine mögliche Erklärung könnte laut den Forschenden die wirtschaftliche Rezession sein.
Rund 40 Prozent der Befragten kamen im vergangenen Jahr nach eigenen Angaben mit Fehlinformationen in Kontakt
Jüngere sind auch aktiver, wenn es darum geht, Nachrichten zu überprüfen und problematische Inhalte zu melden
Nur 59 Prozent der Frauen nutzen das Netz zu diesem Zweck
Vor allem Männer mit höherem Bildungsgrad – konkret 78 Prozent von ihnen – nutzen das Internet, um sich über das politische Tagesgeschehen zu informieren. Bei Menschen mit einem niedrigeren Bildungsabschluss sind es 51 Prozent.
Radio und Zeitungen verlieren an Bedeutung
27 Prozent sehen Social Media eher negativ, 32 Prozent tun dies bei KI
Dabei gab mit 75 Prozent ein Großteil der Deutschen an, die Technik in der Freizeit bereits genutzt zu haben
Am wenigsten Anwendung findet die Technologie bisher im Bildungskontext – nur 17 Prozent der Befragten verwenden sie dort.
Fake It To Make It
Spiel, bei dem man selbst Fake News erstellt
Lage der Nation - der Politik-Podcast aus Berlin: Spezial: Wer spaltet unsere Gesellschaft? (Steffen Mau, Soziologe) (1h8m)
Künstliche Intelligenz: Falsche tagesschau-Audiodateien im Umlauf
Studie OBS Fit for News
Medienkompetenz für Jugendliche in Schulen und Berufsausbildung
Social Media: Warum es höchste Zeit ist, sich von datengetriebenen Geschäftsmodellen zu verabschieden
Diese Plattformen sind auf eine Aufmerksamkeitsökonomie ausgerichtet, die darauf abzielt, bewusst Erregung/Aufregung zu erzeugen, um die Interaktion mit fremden Inhalten zu steigern
Da Inhalte mit hoher emotionaler Wirkung bevorzugt werden, führt dies zu einer verstärkten Verbreitung von Hass/Hetze und Fake News
Oder wählen wir einen anderen Weg, der auf Wahlfreiheit und Autonomie setzt und damit letztlich das Individuum befähigt, selbstbestimmt in der digitalen Welt zu agieren?
„Quelle: Internet“? Digitale Nachrichten- und Informationskompetenzen der deutschen Bevölkerung im Test
Denn durch den radikalen Medienwandel haben Journalist:innen und Medieninstitutionen ihren Einfluss als Gatekeeper:innen verloren.
Den Befragten fällt es zum Teil schwer, zwischen verschiedenen Kommunikationsabsichten, das heißt zwischen Werbung, Information, Desinformation und Meinung zu unterscheiden. So hielten 56 % Befragten ein Advertorial – trotz Werbekennzeichnung – fälschlicherweise für eine Information.
Relativ gut waren die Befragten hingegen darin, die Neutralität oder Vertrauenswürdigkeit von Quellen einzuschätzen.
Allerdings fällt es – trotz weiterführender Informationen – oft schwer, die konkreten Interessenskonflikte zu benennen.
Quer durch die Studie zeigt sich immer wieder, dass Plattform-spezifische Hinweise zum Teil wenig wirksam sind.
Der Gedanke, es gäbe gemeinsamen Machenschaften zwischen Medien und Politik, ist weit verbreitet
25 % stimmen der Aussage zu, dass Medien und Politik Hand in Hand arbeiten,
24 % glauben, dass die Bevölkerung in Deutschland von den Medien systematisch belogen wird (weitere 30 % sagen teils/teils)
Insbesondere die journalistische Unabhängigkeit des öffentlich-rechtlichen Rundfunks wird falsch eingeschätzt.
Mit dem Alter sinkt die digitale Nachrichtenkompetenz:
Neben dem Alter spielt auch Schulbildung eine zentrale Rolle
Neben Bildung und Alter steht auch die demokratische Grundhaltung der Befragten in Zusammenhang mit digitaler Nachrichten- und Informationskompetenz.
Deepfakes – Wenn man Augen und Ohren nicht mehr trauen kann
Studien zu Facebook und Instagram: Algorithmen rütteln kaum an politischen Einstellungen
Fake oder Fakt
Was in den Medien fehlt - Die "Vergessenen Nachrichten" des Jahres 2022 | deutschlandfunk.de
Die Initiative Nachrichtenaufklärung e.V. -
Datenhändler in der Big-Data-Ökonomie: Das Geschäft der Datenbroker - taz.de
Die US-Firma Acxiom, einer der größten Datenhändler weltweit, hat Profile von 2,5 Milliarden Konsumenten auf der Welt erstellt – mit bis zu 11.000 Datenpunkten pro Person
Am alten Firmensitz von Acxiom, einem Bürogebäude in Little Rock im US-Bundesstaat Arkansas, ratterten zeitweise mehr als 23.000 Server, die gigantische Datenmengen verarbeiteten
Käufertypen destilliert wie etwa „hypothekenfreier Jetset“, „Alleinflieger“ oder „sparsame Rentner“
Diese „Kartierung des Verbrauchergenoms“, wie die <em>New York Times</em> das Data Mining einmal bezeichnet hat
Risikoscores, die eine Wahrscheinlichkeit indizieren, mit der jemand an Diabetes erkrankt oder zahlungsunfähig wird
konnten die Datenbroker lange weitgehend unbehelligt ihre Silos füllen. Doch seit dem <a target="_blank" href="/Datenschutz-Skandal-bei-Facebook/!5611890/">Skandal um die mittlerweile abgewickelte Analysefirma Cambridge Analytica</a>, die illegal Millionen Facebook-Profile für Wahlkampfteams ausgewertet hatte, schauen die Aufsichtsbehörden genauer auf die geheimen Geschäftspraktiken in der zweiten und dritten Reihe.
FTC kürzlich Klage gegen den Datenhändler Kochava eingereicht, weil dieser Standortdaten von Millionen von mobilen Endgeräten verkauft haben soll
Damit gelten die Regelungen der Bundesstaaten. Und in jenen 13 Bundesstaaten, in denen Abtreibung illegal ist (zum Beispiel Texas und Wisconsin), kann der Aufenthalt in der Nähe einer Abtreibungsklinik für schwangere Frauen zum strafrechtlichen Problem werden
In einigen Bundesstaaten wertet die Polizei bereits Websuchen nach Abtreibung aus.
hochrangiges Verwaltungsmitglied der amerikanischen Bischofskonferenz zurücktreten, nachdem eine katholische Nachrichtenseite einen <a target="_blank" href="/Dating-App-fuer-Homosexuelle/!5033393/">Handy-Datensatz erhielt, der offenbarte, dass der Priester die Dating-App Grindr</a> nutzte und in Schwulenbars verkehrte. Der Geistliche wurde zwangsgeoutet.
Deutsche Welle: „Wie Apps uns süchtig machen“
Irgendwas mit Internet: Der Journalismus der Zukunft
Geschäftsmodelle | bpb.de
HOME
Freie soziale Medien: Fotos teilen mit dem werbefreien Pixelfed | heise online
Cookie-Banner der meistbesuchten Websites: Miese Tricks und fiese Klicks
Verif!cation Quiz Bot (@quiztime) / Twitter
InVID Project - Video Verification
Dark Patterns: Datenschutzbehörden warnen vor manipulativem Design im Netz
Ukraine-Krieg auf TikTok, Twitter und Co.: So entlarven Sie falsche Bilder und Videos - DER SPIEGEL
Die erste Frage, die Sie sich stellen sollten, wenn Ihnen ein Algorithmus ein vermeintlich krasses Foto oder Kurzvideo in die Timeline spült, lautet: Habe ich überhaupt eine Ahnung, was hier zu sehen ist? Habe ich Hintergrundwissen, um die Situation einzuordnen? Verstehe ich den Text drumherum oder die Dialoge im Video?
Die Komikerin Abbie Richards, <a target="_blank" rel="noopener noreferrer" href="https://www.tiktok.com/@tofology/video/7068423698927111471?is_copy_url=1&is_from_webapp=v1" data-link-flag="external">die sich auf TikTok mit Falschinformationen beschäftigt</a>, sagt in ihrem neuesten Video, dass es den Algorithmus einer Plattform befeuern kann, wenn Nutzerinnen und Nutzer ein älteres Video plötzlich so kommentieren, als wäre es aktuell und aus der Ukraine. Als Beispiel zeigt sie einen Clip, der eigentlich aus Kasachstan stammt.
Eine grobe Orientierung geben auf Plattformen wie Facebook und Twitter blaue Haken auf den Profilseiten
Für einen schnellen Überblick, welchen Accounts es sich zum Ukraine-Konflikt zu folgen lohnt, helfen von Redaktionen kuratierte Twitter-Listen. »Zeit Online« etwa versammelt <a target="_blank" rel="noopener noreferrer" href="https://twitter.com/i/lists/1486391104782098436" data-link-flag="external">in seiner Liste »Ukraine und Russland«</a> mehrere Dutzend »wichtige Stimmen, die über den Krieg in der Ukraine twittern«.
Der Journalist Marcus Bösch verweist <a target="_blank" rel="noopener noreferrer" href="https://tiktoktiktoktiktok.substack.com/p/tiktok-newsletter-72?utm_source=url" data-link-flag="external">in seinem jüngsten Newsletter</a> auf ein TikTok-Video mit einem Fallschirmspringer in Militärkleidung, das laut dem Top-Kommentar angeblich eine Invasion zeigt. Auf TikTok ist der Clip <a target="_blank" rel="noopener noreferrer" href="https://twitter.com/oneunderscore__/status/1496897223237554177" data-link-flag="external">rund 20 Millionen Mal aufgerufen worden</a>. Letztlich ist der Kommentar aber Quatsch: Das Video wurde <a target="_blank" rel="noopener noreferrer" href="https://www.instagram.com/p/6zv1DqhAwb/?utm_medium=copy_link" data-link-flag="external">bereits 2015 auf Instagram hochgeladen, von einem Nutzer mit demselben Namen</a>.
Auch ein anderer Clip, der auf TikTok und Twitter die Runde macht und angeblich die Landung russischer Fallschirmspringer zeigt, kursiert bereits seit Jahren im Netz. Mit dem aktuellen Kampfgeschehen hat er nichts zu tun, <a target="_blank" rel="noopener noreferrer" href="https://twitter.com/Shubham_RSS_/status/1496812048868515847" data-link-flag="external">daran ändern auch mehr als 500 Retweets binnen 24 Stunden nichts</a>.
Im Netz gibt es einige Tools, deren Daten dabei helfen, das Alter von Videos abzuschätzen und ob es sich um Re-Uploads handelt. Im Fall von YouTube etwa helfen der <a target="_blank" rel="noopener noreferrer" href="https://citizenevidence.amnestyusa.org/" data-link-flag="external">YouTube DataViewer von Amnesty International</a> und die <a target="_blank" rel="noopener noreferrer" href="https://mattw.io/youtube-metadata/" data-link-flag="external">Website YouTube Metadata</a>.
In vielen Fällen lohnt ein Blick in die sogenannten Metadaten. Auslesen lassen sich diese Informationen mithilfe von <a target="_blank" rel="noopener noreferrer" href="https://www.metadata2go.com/" data-link-flag="external">Online-Services wie Metadata2Go</a> oder auch <a target="_blank" rel="noopener noreferrer" href="http://exif.regex.info/exif.cgi" data-link-flag="external">Jeffrey's Image Metadata Viewer</a>. Metadaten lassen sich <a target="_blank" rel="noopener noreferrer" href="https://www.heise.de/select/ct/2020/5/2002714501095530495" data-link-flag="external">aus Fotos aber auch entfernen</a>. Mehr zum Thema lesen Sie <a target="_blank" rel="noopener noreferrer" href="https://www.poynter.org/reporting-editing/2022/how-to-spot-video-and-photo-fakes-as-russia-invades-ukraine/" data-link-flag="external">hier beim Poynter Institute</a>. Dienste wie Twitter, Facebook und Instagram löschen Metadaten in Fotos automatisch schon beim Upload.
Rückwärtssuchen gibt es auch von Anbietern wie <a target="_blank" rel="noopener noreferrer" href="https://www.bing.com/visualsearch/Microsoft/SimilarImages" data-link-flag="external">Microsoft</a>, <a target="_blank" rel="noopener noreferrer" href="https://tineye.com/" data-link-flag="external">TinEye</a> und <a target="_blank" rel="noopener noreferrer" href="https://yandex.com/images/" data-link-flag="external">Yandex</a>. Auf der Images-Unterseite des russischen Dienstes versteckt sich die Funktion hinter dem Icon rechts im Suchfeld.
Bei jedem Clip steht unten links unter dem Nutzernamen, woher der verwendete Ton kommt. Ein einfacher Klick auf den »Originalton«-Schriftzug lässt so erahnen, ob Ton und Video von der gleichen Person stammen. Unterscheiden sich die Angaben, ist es unwahrscheinlich, dass Aufnahme und Sound zusammengehören.
Um ein Grundgefühl dafür bekommen, welche Arten von Fakes kursieren, kann es helfen, sich Fake-Sammlungen etablierter Medien oder von Faktencheck-Organisationen anzusehen. Solche Übersichten finden sich beispielsweise <a target="_blank" rel="noopener noreferrer" href="https://www.bbc.com/news/60513452" data-link-flag="external">hier bei der BBC</a> und <a target="_blank" rel="noopener noreferrer" href="https://correctiv.org/faktencheck/hintergrund/2022/02/22/diese-falschinformationen-und-geruechte-kursieren-zum-ukraine-russland-konflikt/" data-link-flag="external">hier bei Correctiv</a>. Das deutsche Portal, <a target="_blank" rel="noopener noreferrer" href="https://correctiv.org/faktencheck/ueber-uns/2018/12/17/ueber-die-kooperation-zwischen-correctiv-faktencheck-und-facebook/" data-link-flag="external">das Facebook im Kampf gegen Falschnachrichten unterstützt</a>, berichtet zum Beispiel von einem angeblichen Saboteurs-Video, dessen Tonspur ursprünglich aus einem YouTube-Video aus dem Jahr 2010 stammt.
Dazu zählt das Centre for Information Resilience. <a target="_blank" rel="noopener noreferrer" href="https://maphub.net/Cen4infoRes/russian-ukraine-monitor" data-link-flag="external">Auf einer interaktiven Karte</a> sammelt die in London ansässige Organisation Videos, Tweets und Quellen, die durch öffentlich verfügbare Informationen wie etwa Satellitendaten verifiziert werden konnten.
Warum diese 5 Corona-Fake News in der Esoterik-Szene so beliebt sind