Abstract Although AI assistants are now deeply embedded in society, there has been limited empirical study of how their usage affects human empowerment. We present the first large-scale empirical analy- sis of disempowerment patterns in real-world AI assistant interactions, analyzing 1.5 million con- sumer Claude.ai conversations using a privacy- preserving approach. We focus on situational dis- empowerment potential, which occurs when AI assistant interactions risk leading users to form distorted perceptions of reality, make inauthen- tic value judgments, or act in ways misaligned with their values. Quantitatively, we find that severe forms of disempowerment potential occur in fewer than one in a thousand conversations, though rates are substantially higher in personal domains like relationships and lifestyle. Qualita- tively, we uncover several concerning patterns, such as validation of persecution narratives and grandiose identities with emphatic sycophantic language, definitive moral judgments about third parties, and complete scripting of value-laden personal communications that users appear to im- plement verbatim. Analysis of historical trends reveals an increase in the prevalence of disem- powerment potential over time. We also find that interactions with greater disempowerment po- tential receive higher user approval ratings, pos- sibly suggesting a tension between short-term user preferences and long-term human empow- erment. Our findings highlight the need for AI systems designed to robustly support human au- tonomy and flourishing.
Have we entered a new age of AI-enabled scientific discovery?
Some say we’ve entered a new age of AI-enabled scientific discovery. But human insight and creativity still can’t be automated.
Technology: AI & Security - It's Not One Discussion
The problem with this topic is that it isn’t one single topic. What I see is multiple distinct discussions rolled into a single convoluted mess. So let me deflate this overheated discourse
Warum T-förmiges Wissen in Zeiten von KI wichtiger wird denn je
KI-Tools verändern die Softwareentwicklung grundlegend. Wer in Grundlagenwissen und tiefe Expertise investiert, sichert seine Karriere langfristig.
AI platforms can be abused for stealthy malware communication
AI assistants like Grok and Microsoft Copilot with web browsing and URL-fetching capabilities can be abused to intermediate command-and-control (C2) activity.
AI and the American Smile
How AI misrepresents culture through a facial expression.
Dr. Mann, We Read Science Under Siege. This Website Is What You're Warning About.
An open letter to Michael Mann. You identified five forces threatening science. AI is the force multiplier. This website is the proof of concept.
AI fatigue is real and nobody talks about it | Siddhant Khare
You're using AI to be more productive. So why are you more exhausted than ever? The paradox every engineer needs to confront.
Please: Enough with the Claims That Modern Advanced Machine Learning Models Hallucinate Only Rarely
"Rise of the Sparrows", disappearance of the world model: what MAMLM hallucinations are trying to tell us. Treating large language models as semi-sober research assistants misunderstands what they...
Deutsches Gericht verneint Urheberrechtsschutz für KI-generierte Logos
Ein deutsches Amtsgericht verweigert drei KI-generierten Logos den Urheberrechtsschutz. Selbst aufwendiges Prompting reiche nicht aus, solange die kreative Gestaltung letztlich der KI überlassen werde.
Informatik-Professorin: KI kann eigentlich nicht viel, nur Kontrolle und Datenklau
Seit 13 Jahren ist Alke Martens Professorin für praktische Informatik an der Universität Rostock. Seit einem Jahr postet sie regelmäßig Reels und geht damit viral. Ihre Botschaft: KI ist nur eine Software, die vor allem Datenklau kann.
Meta's New Patent: an AI That Likes, Comments and Messages For You When You're Dead - Slashdot
Meta was granted a patent in late December that describes how a large language model could be trained on a deceased user's historical activity -- their comments, likes, and posted content -- to keep their social media accounts active after they're gone. Andrew Bosworth, Meta's CTO, is listed as the…
An AI Agent Published a Hit Piece on Me
Summary: An AI agent of unknown ownership autonomously wrote and published a personalized hit piece about me after I rejected its code, attempting to damage my reputation and shame me into acceptin…
Experten: KI-Karikaturen mit ChatGPT liefern Betrügern wertvolle Beute | Euronews
Fotos, die Nutzer in KI-Chatbots hochladen, könnten unbefristet gespeichert werden und Kriminellen Vorlagen für Identitätsdiebstahl und Fake-Profile liefern.
Wütender KI-Agent: Bot stellt Entwickler an den Pranger, weil sein Code abgelehnt wurde | t3n
Ein Entwickler einer quelloffenen Software muss sich derzeit Kritik von einem KI-Agenten anhören. Der Grund: Er hatte Code-Vorschläge der KI abgelehnt. Statt sich damit abzufinden, holte der Agent zum Gegenschlag aus und versuchte, den Namen des Entwicklers öffentlich zu beschmutzen. KI-Agenten sollen uns tiefgreifende, mehrteilige Aufgaben abnehmen, die normale Chatbots überfordern würden. Die autonom agierenden […]
Generative Artificial Intelligence and Copyright Law
The Device That Can't Legally Exist in a Room With Children
OpenAI announced ads in ChatGPT on January 16, 2026. OpenAI is shipping always-on AI earbuds called "Dime" in late 2026.
Gefährliches Update: Wenn KI im OP mehr schadet als nutzt | t3n
Ein Routine-Update sollte chirurgische Eingriffe sicherer machen, doch die Realität entspricht den Erwartungen nur teilweise. Ein aktueller Bericht enthüllt, wie neue Technik im Operationssaal zur Gefahr für Leib und Leben werden kann und warum Behörden kaum etwas dagegen tun können. Ein aktueller Investigativ-Report der Nachrichtenagentur Reuters wirft ein Schlaglicht auf die Schattenseiten künstlicher Intelligenz in […]
Opinion | The Fever Dream of Imminent Superintelligence Is Finally Breaking
Building bigger A.I. isn’t leading to better A.I.
KI-Kritiker Gary Marcus: Warum die Technologie an ihre Grenzen stößt
Der Hype um KI ist gigantisch, doch die Technologie hat massive Schwächen. Ein Gespräch mit Gary Marcus über die drohende Finanzblase.
Artificial Intelligence and the Interpretation of the Past | Advances in Archaeological Practice | Cambridge Core
Artificial Intelligence and the Interpretation of the Past
HALLUHARD: A Hard Multi-Turn Hallucination Benchmark
Large language models (LLMs) still produce
plausible-sounding but ungrounded factual claims,
a problem that worsens in multi-turn dialogue as
context grows and early errors cascade. We in-
troduce HALLUHARD, a challenging multi-turn
hallucination benchmark with 950 seed questions
spanning four high-stakes domains: legal cases,
research questions, medical guidelines, and cod-
ing. We operationalize groundedness by requiring
inline citations for factual assertions. To support
reliable evaluation in open-ended settings, we pro-
pose a judging pipeline that iteratively retrieves
evidence via web search. It can fetch, filter, and
parse full-text sources (including PDFs) to assess
whether cited material actually supports the gen-
erated content. Across a diverse set of frontier
proprietary and open-weight models, hallucina-
tions remain substantial even with web search
(≈30% for the strongest configuration, Opus-4.5
with web search), with content-grounding errors
persisting at high rates. Finally, we show that hal-
lucination behavior is shaped by model capacity,
turn position, effective reasoning, and the type of
knowledge required.
HalluHard: So oft halluzinieren die besten KI-Modelle | Barbara Geyer | 63 Kommentare
60 % Halluzinationsrate, ohne Websuche.
Who’s in Charge? Disempowerment Patterns in Real-World LLM Usage
Sixteen Claude AI agents working together created a new C compiler
The $20,000 experiment compiled a Linux kernel but needed deep human management.
Gartenplanung mit ChatGPT und Gemini
Ich habe mir einen Vorgarten von einer KI gestalten lassen. Das Ergebnis schockiert!
KI nimmt uns die Arbeit ab!
KI hat die Arbeitswelt übernommen. In vielen Berufen arbeiten nur noch wenige Menschen im Hintergrund. Die KIs erledigen die breite Masse an Aufgaben und halten unsere Wirtschaft am Laufen. Verlieren wir dann unsere Identität oder verschiebt sich unser Fokus auf ehrenamtliches Engagement und Zeit um uns selbst zu verwirklichen? // Alle Hintergründe von uns findest Du hier: www.quarks.de. Hast Du selbst ein Szenario, das wir prüfen sollen oder Feedback? Schreib uns gerne an: mal_angenommen@wdr.de
Eure Hosts heute sind:
Samira El Hattab und Julia Nestlen
Und das sind unsere wichtigsten Quellen:
Hier ist die Mckinsey-Studie über Jobs, die KI potenziell übernehmen kann:
https://www.mckinsey.de/~/media/mckinsey/locations/europe%20and%20middle%20east/deutschland/news/presse/2024/2024%20-%2005%20-%2023%20mgi%20genai%20future%20of%20work/mgi%20report_a-new-future-of-work-the-race-to-deploy-ai.pdf
So wird KI aktuell in deutschen Unternehmen eingesetzt:
https://www.destatis.de/DE/Presse/Pressemitteilungen/2024/11/PD24_444_52911.html
Das ist der Link, um rauszufinden, ob Eure Arbeit KI-sicher ist:
https://job-futuromat.iab.de/
In Deutschland könnten bald bis zu 4,2 Milliarden Arbeitsstunden unbesetzt bleiben(Die Studie hat das Institut der deutschen Wirtschaft Köln im Auftrag von Google erstellt.):
https://der-digitale-faktor.de/
Wie identitätsstiftend ist Arbeit für Menschen:
https://www.destatis.de/DE/Themen/Arbeit/Arbeitsmarkt/Qualitaet-Arbeit/Dimension-7/identifikation-arbeit.html
Job und Identität gehören auch im KI-Zeitalter zusammen:
https://www.weizenbaum-institut.de/forschung-aufbauphase/aufbauphase/fg1/
Pilotprojekt zum Grundeinkommen: https://www.pilotprojekt-grundeinkommen.de/#studienergebnissen
Die Forschung sagt, wenn wir bei Veränderungen mitbestimmen, dann fallen sie uns leichter:
https://www.selfdeterminationtheory.org/SDT/documents/1993_DeciRyan_DieSelbstbestimmungstheoriederMotivation-German.pdf
Im Bundestag werden die ethischen und politischen Fragen zur Rolle von KI beim Büro für Technikfolgen-Abschätzung wissenschaftlich untersucht:
https://www.tab-beim-bundestag.de/projekte_anwendungspotenziale-und-herausforderungen-von-kuenstlicher-intelligenz-in-der-bildung.php
Petra Grimm und Kai Erik Trost forschen zu den ethischen Folgen der KI-Nutzung:
https://hdm-stuttgart.de/view_news?ident=news20240905154515
Die UNESCO empfiehlt zur KI-Ethik, dass am Ende aller Entscheidungen Menschen stehen sollten:
https://www.unesco.de/dokumente-und-hintergruende/publikationen/detail/unesco-empfehlung-zur-ethik-der-kuenstlichen-intelligenz/
Und hier ist unsere Empfehlung zum ARD-Podcast über KI und den Berufseinstieg:
https://www.ardaudiothek.de/episode/urn:ard:episode:1590d0e0c0aa53dd/
A Software Library with No Code
Do we still need libraries of 3rd party code when AI agents are this good?
Waymo Exec Admits Remote Drivers in Philippines
Mechanical Turk, meet Mechanical Filipino: Mauricio Peña, the company's Chief Safety Officer, confirmed under questioning that the Google subsidiary employs human operators abroad [...] "They provide guidance. They do not remotely drive the vehicles," Peña told the Senate committee. "The Waymo vehicle is always in charge of the dynamic driving tasks, so that is just one additional input." ...
Vibe Coding Is Killing Open Source Software, Researchers Argue
‘If the maintainers of small projects give up, who will produce the next Linux?’
Sicherheitslücke in Claude Cowork: So verschaffen sich Hacker unbemerkt Zugriff
Claude Cowork ist als Begleiter für den Arbeitsalltag gedacht. In der aktuellen Testphase weist der KI-Agent allerdings noch gravierende Sicherheitslücken auf.