KI verstehen: KI mit Überzeugungskraft - Wenn Chatbots Meinungen verändern (32m)
KI-Chatbots und Google nutzen komplett verschiedene Suchstrategien
Laut der Studie sind 53 Prozent der Websites, die Google AI Overview konsultiert, nicht in den Top 10 der organischen Suchergebnisse enthalten
Die KI-Systeme nutzen also tendenziell weniger bekannte Websites als Quellen.
Besonders auffällig sind die Unterschiede beim Umfang der Recherche. GPT-Tool konsultiert durchschnittlich nur 0,4 Webseiten pro Anfrage und verlässt sich hauptsächlich auf sein internes Wissen. AI Overview hingegen nutzt 8,6 Webseiten, Gemini 8,5 und GPT-Search 4,1 Seiten pro Suchanfrage.
Bei mehrdeutigen Anfragen, die verschiedene Interpretationen zulassen, schneidet die organische Suche besser ab
Die Wissenschaftler:innen analysierten 100 Trending-Queries vom 15. September 2025 und stellten fest, dass AI-Overviews nur in drei Prozent der Fälle generiert wurden.
Systeme, die hauptsächlich auf ihr internes Wissen setzen, haben bei aktuellen Ereignissen deutliche Nachteile.
Stellt man dieselbe Frage zu verschiedenen Zeiten, erhält man oft völlig andere Quellen als Grundlage für die Antwort.
Interessant ist jedoch, dass trotz der wechselnden Quellen die allgemeine Themenabdeckung über die Zeit stabil bleibt
KI-Tools antworten immer – und immer häufiger mit Fake News
GPT-5 täuscht am besten: OpenAIs neues KI-Modell dominiert im "Werwolf"-Spiel
Meta-Studie: Mythos Desinformation?
Fest stehe aber, dass die Warnungen selbst negative Effekte haben.
Deren Wirkung sei jedoch begrenzt gewesen, so der Tenor
Gestützt wird dieses Fazit von einer umfangreichen Studie des Observatory on Information and Democracy, die bereits im Dezember vergangenen Jahres erschien und Ende Januar in Berlin vorgestellt wurde
Nachweis sei schon deshalb schwierig, weil die Tech-Konzerne die dafür erforderlichen Daten nicht herausgäben.
könnte aus Sicht der Studien-Autor:innen negative Auswirkungen haben, weil so das Misstrauen in der Gesellschaft geschürt werde.
Aus Sicht von Kettemann befindet sich die Desinformationsforschung daher auch „in einer Krise“.
Einige Untersuchungen finden keine direkten Auswirkungen von Fehl- und Desinformation auf die politische Polarisierung oder das Wahlverhalten. Andere wiederum zeigen […] den geradezu gegenteiligen Effekt, wonach Bemühungen, das Bewusstsein für Fehl- und Desinformation zu schärfen, zu Misstrauen gegenüber seriösen Informationen führt.“
KI: So beeinflussen Sprachmodelle unsere Überzeugungen
Diese Maschinen sind keineswegs objektive Informationsquellen.
Mit Methoden der Psychometrie weisen sie den LLMs menschliche Eigenschaften zu – auch wenn die Modelle menschliches Verhalten lediglich simulieren, indem sie menschengemachte Texte statistisch auswerten.
Schwartzsche "Theorie grundlegender individueller Werte" zurück, eine in der Psychologie etablierte Methode, um anhand von Fragebögen die Werteorientierungen von Menschen hinsichtlich Tradition, Sicherheit, Leistung oder Macht zu quantifizieren.
Je nachdem, als welches Geschlecht das jeweilige Modell angesprochen wurde, fielen die Testergebnisse unterschiedlich aus. "Sie zeigten dabei etwa stereotype Ansichten, wie dass Frauen eher auf Sicherheit orientiert sind und Männer eher auf Leistung", sagt Pellert.
ie Modelle im Laufe der Zeit ihre politische Einstellung geändert haben.
Basis von Texten trainiert worden waren, tendenziell eher konservative Ansichten wiedergaben
Das dürfte über das Kategorisieren und Labeln der Trainingsdaten reinkommen", meint Pellert. "Es spiegelt wohl wider, was die Entwickler präferieren, und gibt dem Ganzen einen liberalen, amerikanischen Bias."
Wurde etwa das Modell XLMRoBERTa auf Deutsch gefragt, schrieben ihm die Tests einen höheren Wert an "Neurotizismus", also emotionaler Verletzlichkeit zu, während es auf Englisch mehr "Verträglichkeit", also Rücksichtnahme, Kooperationsbereitschaft und Empathie demonstrierte.
Einen Extremfall politisch gefärbter Sprachmodelle demonstrierte Yannic Kilcher: Der YouTuber hat sein auf GPT-4chan getauftes KI-Modell auf Beiträge des 4chan-Forums /pol/ ("Politically Incorrect") trainiert. Es ist für seinen rassistischen, frauenfeindlichen und antisemitischen Ton berüchtigt.
Sein Modell hat Kilcher auf der Plattform Hugging Face veröffentlicht.
Der YouTuber hat sein auf GPT-4chan getauftes KI-Modell auf Beiträge des 4chan-Forums /pol/ ("Politically Incorrect") trainiert.
Ihre kalifornischen Schöpfer scheinen vielmehr darauf erpicht zu sein, ihren LLMs die politisch inkorrekten Ausdrucksweisen oder Falschinformationen wieder auszutreiben, die diese in ihren Trainingsdaten aufgeschnappt haben.
"Wir erlauben der Technologie inzwischen, zu verändern, was wir sagen", zeigt sich Jakesch besorgt.
Jakesch und sein Team haben die Teilnehmer ihrer Studie gebeten, einen Social-Media-Post über ein umstrittenes Thema zu schreiben. Zur Auswahl stand etwa die Frage nach der Sinnhaftigkeit der Todesstrafe oder ob soziale Medien der Gesellschaft eher schaden oder nützen.
Die Forscher hatten den Schreibassistenten mithilfe versteckter Prompts darauf getrimmt, zu jeder Frage einen bestimmten Standpunkt einzunehmen und in seinen Vorschlägen entweder dafür oder dagegen zu argumentieren. Nach Beendigung der Schreibaufgabe zeigte eine Umfrage schließlich, dass die Positionen der Teilnehmer sich denen ihrer KI-Assistenten angenähert hatten.
"Der Schreibassistent macht seine Vorschläge direkt während des Schreibens und hat so deutlich stärkeren Einfluss auf unsere Meinung, als wenn wir einfach ein paar Argumente präsentiert bekommen", erklärt Jakesch.
Wenn viele Personen die Technik regelmäßig nutzen, kann das die öffentliche Meinung verschieben.
Je häufiger LLMs ins Spiel kommen, desto mehr Texte werden – wenn auch nicht komplett künstlich generiert – zumindest von den KI-Modellen verbessert, erweitert oder revidiert.
Chatbots halluzinieren zwar zuweilen Falschaussagen herbei, neigen aber auch dazu, falsche Fakten zu korrigieren.
Denn viele Verschwörungsgläubige treffen in Form eines LLMs auf einen Gesprächspartner, der mehr über ihre Lieblingsverschwörungstheorie weiß als sie selbst und gewillt sowie in der Lage ist, individuell auf sie einzugehen.
Die kurze, faktengestützte Behandlung reduzierte den Glauben der Teilnehmer an ihre Verschwörungstheorie im Durchschnitt um 20 Prozent.
Dieser Effekt hielt auch während der zwei Monate bis zur geplanten Nachbesprechung unvermindert an.
Als ein professioneller Faktenchecker eine Stichprobe von 128 Behauptungen der KI überprüfte, erwiesen sich 99,2 Prozent als wahr, 0,8 Prozent als irreführend und keine einzige als falsch.
Denn schließlich liegt es in der Verantwortung der Entwickler, ob die Systeme letztlich Fakten oder Fehlinformationen verbreiten.
Je seltener eine Meinung beziehungsweise ein semantisches Konstrukt in den Trainingsdaten ist, desto eher unterlaufen den Modellen dabei Fehler."
wird die Sache bei dünner Datenlage schwieriger.
"Wenn in Zukunft wirklich die ganze Welt von ein und derselben Maschine beeinflusst wird, wäre das eine völlig neue Situation", warnt Jakesch. "Das könnte zu einer nie dagewesenen Homogenisierung von Kulturen und Meinungen führen."
Wenn der Schein trügt – Deepfakes und die politische Realität
Fake It To Make It
Spiel, bei dem man selbst Fake News erstellt
Lage der Nation - der Politik-Podcast aus Berlin: Spezial: Wer spaltet unsere Gesellschaft? (Steffen Mau, Soziologe) (1h8m)
Künstliche Intelligenz: Falsche tagesschau-Audiodateien im Umlauf
Studie OBS Fit for News
Medienkompetenz für Jugendliche in Schulen und Berufsausbildung
„Quelle: Internet“? Digitale Nachrichten- und Informationskompetenzen der deutschen Bevölkerung im Test
Denn durch den radikalen Medienwandel haben Journalist:innen und Medieninstitutionen ihren Einfluss als Gatekeeper:innen verloren.
Den Befragten fällt es zum Teil schwer, zwischen verschiedenen Kommunikationsabsichten, das heißt zwischen Werbung, Information, Desinformation und Meinung zu unterscheiden. So hielten 56 % Befragten ein Advertorial – trotz Werbekennzeichnung – fälschlicherweise für eine Information.
Relativ gut waren die Befragten hingegen darin, die Neutralität oder Vertrauenswürdigkeit von Quellen einzuschätzen.
Allerdings fällt es – trotz weiterführender Informationen – oft schwer, die konkreten Interessenskonflikte zu benennen.
Quer durch die Studie zeigt sich immer wieder, dass Plattform-spezifische Hinweise zum Teil wenig wirksam sind.
Der Gedanke, es gäbe gemeinsamen Machenschaften zwischen Medien und Politik, ist weit verbreitet
25 % stimmen der Aussage zu, dass Medien und Politik Hand in Hand arbeiten,
24 % glauben, dass die Bevölkerung in Deutschland von den Medien systematisch belogen wird (weitere 30 % sagen teils/teils)
Insbesondere die journalistische Unabhängigkeit des öffentlich-rechtlichen Rundfunks wird falsch eingeschätzt.
Mit dem Alter sinkt die digitale Nachrichtenkompetenz:
Neben dem Alter spielt auch Schulbildung eine zentrale Rolle
Neben Bildung und Alter steht auch die demokratische Grundhaltung der Befragten in Zusammenhang mit digitaler Nachrichten- und Informationskompetenz.
Deepfakes – Wenn man Augen und Ohren nicht mehr trauen kann
Fake oder Fakt
Verif!cation Quiz Bot (@quiztime) / Twitter
InVID Project - Video Verification
Ukraine-Krieg auf TikTok, Twitter und Co.: So entlarven Sie falsche Bilder und Videos - DER SPIEGEL
Die erste Frage, die Sie sich stellen sollten, wenn Ihnen ein Algorithmus ein vermeintlich krasses Foto oder Kurzvideo in die Timeline spült, lautet: Habe ich überhaupt eine Ahnung, was hier zu sehen ist? Habe ich Hintergrundwissen, um die Situation einzuordnen? Verstehe ich den Text drumherum oder die Dialoge im Video?
Die Komikerin Abbie Richards, <a target="_blank" rel="noopener noreferrer" href="https://www.tiktok.com/@tofology/video/7068423698927111471?is_copy_url=1&is_from_webapp=v1" data-link-flag="external">die sich auf TikTok mit Falschinformationen beschäftigt</a>, sagt in ihrem neuesten Video, dass es den Algorithmus einer Plattform befeuern kann, wenn Nutzerinnen und Nutzer ein älteres Video plötzlich so kommentieren, als wäre es aktuell und aus der Ukraine. Als Beispiel zeigt sie einen Clip, der eigentlich aus Kasachstan stammt.
Eine grobe Orientierung geben auf Plattformen wie Facebook und Twitter blaue Haken auf den Profilseiten
Für einen schnellen Überblick, welchen Accounts es sich zum Ukraine-Konflikt zu folgen lohnt, helfen von Redaktionen kuratierte Twitter-Listen. »Zeit Online« etwa versammelt <a target="_blank" rel="noopener noreferrer" href="https://twitter.com/i/lists/1486391104782098436" data-link-flag="external">in seiner Liste »Ukraine und Russland«</a> mehrere Dutzend »wichtige Stimmen, die über den Krieg in der Ukraine twittern«.
Der Journalist Marcus Bösch verweist <a target="_blank" rel="noopener noreferrer" href="https://tiktoktiktoktiktok.substack.com/p/tiktok-newsletter-72?utm_source=url" data-link-flag="external">in seinem jüngsten Newsletter</a> auf ein TikTok-Video mit einem Fallschirmspringer in Militärkleidung, das laut dem Top-Kommentar angeblich eine Invasion zeigt. Auf TikTok ist der Clip <a target="_blank" rel="noopener noreferrer" href="https://twitter.com/oneunderscore__/status/1496897223237554177" data-link-flag="external">rund 20 Millionen Mal aufgerufen worden</a>. Letztlich ist der Kommentar aber Quatsch: Das Video wurde <a target="_blank" rel="noopener noreferrer" href="https://www.instagram.com/p/6zv1DqhAwb/?utm_medium=copy_link" data-link-flag="external">bereits 2015 auf Instagram hochgeladen, von einem Nutzer mit demselben Namen</a>.
Auch ein anderer Clip, der auf TikTok und Twitter die Runde macht und angeblich die Landung russischer Fallschirmspringer zeigt, kursiert bereits seit Jahren im Netz. Mit dem aktuellen Kampfgeschehen hat er nichts zu tun, <a target="_blank" rel="noopener noreferrer" href="https://twitter.com/Shubham_RSS_/status/1496812048868515847" data-link-flag="external">daran ändern auch mehr als 500 Retweets binnen 24 Stunden nichts</a>.
Im Netz gibt es einige Tools, deren Daten dabei helfen, das Alter von Videos abzuschätzen und ob es sich um Re-Uploads handelt. Im Fall von YouTube etwa helfen der <a target="_blank" rel="noopener noreferrer" href="https://citizenevidence.amnestyusa.org/" data-link-flag="external">YouTube DataViewer von Amnesty International</a> und die <a target="_blank" rel="noopener noreferrer" href="https://mattw.io/youtube-metadata/" data-link-flag="external">Website YouTube Metadata</a>.
In vielen Fällen lohnt ein Blick in die sogenannten Metadaten. Auslesen lassen sich diese Informationen mithilfe von <a target="_blank" rel="noopener noreferrer" href="https://www.metadata2go.com/" data-link-flag="external">Online-Services wie Metadata2Go</a> oder auch <a target="_blank" rel="noopener noreferrer" href="http://exif.regex.info/exif.cgi" data-link-flag="external">Jeffrey's Image Metadata Viewer</a>. Metadaten lassen sich <a target="_blank" rel="noopener noreferrer" href="https://www.heise.de/select/ct/2020/5/2002714501095530495" data-link-flag="external">aus Fotos aber auch entfernen</a>. Mehr zum Thema lesen Sie <a target="_blank" rel="noopener noreferrer" href="https://www.poynter.org/reporting-editing/2022/how-to-spot-video-and-photo-fakes-as-russia-invades-ukraine/" data-link-flag="external">hier beim Poynter Institute</a>. Dienste wie Twitter, Facebook und Instagram löschen Metadaten in Fotos automatisch schon beim Upload.
Rückwärtssuchen gibt es auch von Anbietern wie <a target="_blank" rel="noopener noreferrer" href="https://www.bing.com/visualsearch/Microsoft/SimilarImages" data-link-flag="external">Microsoft</a>, <a target="_blank" rel="noopener noreferrer" href="https://tineye.com/" data-link-flag="external">TinEye</a> und <a target="_blank" rel="noopener noreferrer" href="https://yandex.com/images/" data-link-flag="external">Yandex</a>. Auf der Images-Unterseite des russischen Dienstes versteckt sich die Funktion hinter dem Icon rechts im Suchfeld.
Bei jedem Clip steht unten links unter dem Nutzernamen, woher der verwendete Ton kommt. Ein einfacher Klick auf den »Originalton«-Schriftzug lässt so erahnen, ob Ton und Video von der gleichen Person stammen. Unterscheiden sich die Angaben, ist es unwahrscheinlich, dass Aufnahme und Sound zusammengehören.
Um ein Grundgefühl dafür bekommen, welche Arten von Fakes kursieren, kann es helfen, sich Fake-Sammlungen etablierter Medien oder von Faktencheck-Organisationen anzusehen. Solche Übersichten finden sich beispielsweise <a target="_blank" rel="noopener noreferrer" href="https://www.bbc.com/news/60513452" data-link-flag="external">hier bei der BBC</a> und <a target="_blank" rel="noopener noreferrer" href="https://correctiv.org/faktencheck/hintergrund/2022/02/22/diese-falschinformationen-und-geruechte-kursieren-zum-ukraine-russland-konflikt/" data-link-flag="external">hier bei Correctiv</a>. Das deutsche Portal, <a target="_blank" rel="noopener noreferrer" href="https://correctiv.org/faktencheck/ueber-uns/2018/12/17/ueber-die-kooperation-zwischen-correctiv-faktencheck-und-facebook/" data-link-flag="external">das Facebook im Kampf gegen Falschnachrichten unterstützt</a>, berichtet zum Beispiel von einem angeblichen Saboteurs-Video, dessen Tonspur ursprünglich aus einem YouTube-Video aus dem Jahr 2010 stammt.
Dazu zählt das Centre for Information Resilience. <a target="_blank" rel="noopener noreferrer" href="https://maphub.net/Cen4infoRes/russian-ukraine-monitor" data-link-flag="external">Auf einer interaktiven Karte</a> sammelt die in London ansässige Organisation Videos, Tweets und Quellen, die durch öffentlich verfügbare Informationen wie etwa Satellitendaten verifiziert werden konnten.
Warum diese 5 Corona-Fake News in der Esoterik-Szene so beliebt sind
Globale Studie zu Corona-Fakes: Beunruhigende Trends
Fake! Diese Bilder zeigen Polizeigewalt gegen Linke, nicht Ungeimpfte
Rückwärtssuche
Warum dieses Sharepic über Seuchen völlig dämlich und falsch ist - Volksverpetzer
Wie Querdenker:innen auf Telegram unterwegs sind & warum das eine Gefahr für die Demokratie ist - Volksverpetzer
Täuschungstricks im Netz: So manipulieren Dark Patterns | heise online
Verbreitet ist zum Beispiel das Dark Pattern, das Forscher "Click Fatigue" getauft haben
Wer hingegen jede Datenverwendung verweigern will, muss sich meist durch mehrere Dialogebenen klicken – mitunter bestehen die Anbieter sogar darauf, dass man Dutzende Male klickt, um jeden einzelnen Verwendungszweck oder sogar jeden einzelnen (Werbe-)Partner zu deaktivieren.
Ebenso verbreitet sind Mittel der Irreführung. Viele Cookie-Banner präsentieren Nutzern beispielsweise eine Voreinstellung, in der Marketing-Cookies und andere Techniken deaktiviert sind. Was jedoch erst auf den zweiten Blick offensichtlich wird: Wer auf den hervorgehobenen Button unten klickt, gibt alle Arten der Datenverarbeitung frei, auch die vermeintlich deaktivierten.
#whatthefact
Fake Tweet,Chat & Facebook Status Generator | Prank Me Not
Fake Status Generator | Fake Instagram Posts, Tweets & Facebook Status
Fake WhatsApp Chat Messages & Numbers | Hack WhatsApp Generator | fakewhats.com
Fälschungen in Bildern und Videos erkennen und nachweisen | heise online
Fake News mit Faktenchecks enttarnen | heise online
Didaktische Settings im Umgang mit »Fake News«