OpenAI Loses Key Discovery Battle as It Cedes Ground to Authors in AI Lawsuits
The issue has been a major battleground in discovery. OpenAI could be on the hook for hundreds of millions, if not billions, of dollars if it was aware it was infringing on copyrighted material.
Informationen aus erster Hand: Warum KI-Trainer von Chatbots abraten
Tausende Menschen weltweit helfen, KI-Modelle zu trainieren, indem sie Antworten bewerten oder Fakten prüfen. Doch genau sie raten von der Nutzung ab. Warum?
Ein Viertel der meistgeklickten TikTok-Suchergebnisse ist künstlich erzeugt. Oft ohne Kennzeichnung, oft täuschend echt. Welche Orientierung bleibt in dieser neuen Realität? Im August 2025 bemerkte der AlgorithmWatch-Reporter Nicolas Kayser-Bril etwas Ungewöhnliches. Er fand sein Profil inklusive Bild und Biografie auf einer Seite, von der er noch nie etwas gehört hatte. Es stellte sich heraus, dass […]
Last week in a seminar we discussed a text that was largely about sexual violence, including mass rape during war. Heavy stuff.
One student admitted they had not read the text but worked off a ChatGPT summary.
They had no idea the text was about sexual violence. ChatGPT withheld that information.
This wasn’t just a minor error nor a typical LLM hallucination.
About a third of the text, arguably its most important part, went completely ignored because it didn’t match OpenAI’s content policies
Today I was browsing the commit history of a project of a very well known open source software foundation that is now "focusing on AI".
I almost lost my shit when I discovered that "Claude Code" started rephrasing the included copy of the Apache 2.0 license in a random bugfix commit.
yes, they merged it. :blob_cat_sip_glare:
Warum Künstliche Intelligenz nicht als Suchmaschine taugt
Die Hälfte der Deutschen verwendet mittlerweile ChatGPT & Co. als Google-Ersatz. Gleichzeitig arbeiten auch die klassischen Suchmaschinen immer mehr mit KI. Warum das ein Problem ist. Von Till Bücker.
Attached: 1 image
Um den Arbeitsaufwand zu minimieren, habe ich meine Texte schnell von deepl übersetzen lassen.
Was ich nicht auf dem Schirm hatte: deepl nutzt LLMs jetzt nicht nur in ihrem neuen AI Deepl Write Service, sondern auch per default in ihren Übersetzungen. Und sie halluzinieren hart. Hier eines von vielen Beispielen.
Man kann es glücklicherweise unten rechts ausschalten. Dann bekomme ich auch wieder korrekte Übersetzungen.
Weiß die KI, dass sie nichts weiß? – scobel im Gespräch: Mit Katharina Zweig
Wie „intelligent“ sind Chatbots wirklich und wo fangen ihre Gefahren an?Sozioinformatikerin Prof. Katharina Zweig spricht über die Grenzen von KI, die Illusi...
Microsoft warns that Windows 11’s agentic OS could open the door to new security risks, with Xpia malware showing how AI-driven systems may be exploited by attackers
Microsoft is pushing ahead with its plan to add agentic capabilities to Windows 11 but has issued an important security warning for anyone who is interested in trying it out.
OpenAI veröffentlicht Prompting‑Guide für neues GPT‑5.1‑Modell
OpenAIs neues 5.1‑Modell soll besonders präzise auf Nutzereingaben reagieren. Ein umfangreicher Prompting‑Guide zeigt, wie Entwickler das System steuern können. OpenAI gibt unter anderem Prompt-Tipps, um Geschwätzigkeit zu reduzieren und die Vollständigkeit bei agentischen Aufgaben zu verbessern.
Power Companies Are Using AI To Build Nuclear Power Plants
Tech companies are betting big on nuclear energy to meet AIs massive power demands and they're using that AI to speed up the construction of new nuclear power plants.
Ich habe es heute Morgen schon in einem Thread geschrieben, aber ich wollte es noch mal separat posten:
In einem LLM ist nicht irgendwo 'die Wahrheit' versteckt, die man mit einem geschickten Prompt herauskitzeln kann. Da ist keine Wahrheit, da ist auch kein Unsinn, da ist nur Text. Das Modell hat keine Ahnung, welcher Output korrekt oder sinnvoll ist. Es weiß nur, welche Wortkombinationen häufiger vorkommen.
Vielleicht ist es tröstlich, dass die Wahrheit offenbar häufiger vorkommt als die Lüge, weshalb ein gewisser Prozentsatz der Antworten stimmt – aber falsche Bezüge kommen mindestens genauso häufig vor wie richtige. Wenn es eine Wahrheit oder Sinnhaftigkeit im Output gibt, lesen wir Menschen die hinein.
Es macht auch keinen Sinn, ein LLM zu instruieren: 'Sag ruhig, wenn du es nicht weißt, und komm mir bloß nicht mit Vermutungen.'
Woher soll ChatGPT wissen, was eine Vermutung ist oder Bullshit und was stimmt? Es ist ein statistischer Wortgenerator. Irgendeine Antwort hat immer den höchsten Wahrscheinlichkeitswert. Und es gibt keinen definierten Grenzwert zwischen Wahrheit und Unsinn. Nur weil das Ding, wenn man es dazu auffordert, ab und an 'Ich weiß es nicht' ausspuckt (und damit sagt, was du hören willst), erhöht das nicht die Wahrscheinlichkeit, dass die Antworten, die es gibt, korrekt sind.
Aus diesem Grund ist es auch dringend zu empfehlen, LLMs zu meiden bei Themen, bei denen ich mich nicht auskenne. Wenn ich selbst zu den Fachleuten gehöre, kann ich die Spreu vom Weizen trennen. Dann kann es manchmal eine ganz nette Inspiration oder ein Shortcut sein, zu schauen, was ein LLM ausspuckt. Aber wenn ich nicht weiß, was Spreu ist und was Weizen, dann werde ich es von einem LLM nicht erfahren.
Das Netzwerk der Tech-Riesen: So pumpen Kreisgeschäfte die KI-Blase auf
Die Wall Street wird nervös. Der Hype um KI dreht sich nur noch im Kreis: Nur weil sich Unternehmen wie Nvidia und OpenAI quersubventionieren, geht die Börsenparty weiter. Wenn sie stoppt, könnten die Abhängigkeiten zur Abwärtsspirale werden.
Collection of PC and Arduino Neural Network Applications.
The code provided here is a simple multilayer perceptron (MLP) neural network implementation coded from scratch and based upon an article by Matt Mazur (https://mattmazur.com/2015/03/17/a-step-by-step-backpropagation-example/).
Backpropagation is a common method for training a neural network. There is no shortage of papers online that attempt to explain how backpropagation works, but few that include an example with actual numbers. This post is my attempt to explain how it works with a concrete example that folks can compare their own calculations to in order to ensure they understand backpropagation correctly.