Stop saying that AI is just a tool and it only matters how it is used
I’m tired of this phrase and this simple way of thinking about tools. This blog post is a wandering train of thought on the topic of what tools are and why it matters to be even slightly more mature in how we think about them.
Jimmy Wales Says Wikipedia Could Use AI. Editors Call It the 'Antithesis of Wikipedia'
Wikipedia's founder said he used ChatGPT in the review process for an article and thought it could be helpful. Editors replied to point out it was full of mistakes.
Die Maus : Wie schreibt eine KI Texte? - hier anschauen
Aus einer Idee einen Text zu machen – das schafft eine Künstliche Intelligenz in Sekundenschnelle. Aber wie funktioniert das eigentlich? Ralph erklärt, warum eine KI viel mehr zählt, als sie schreibt. Denn erst durch das Zählen von Wörtern, Buchstaben und deren Kombinationen sammelt sie Daten – und erkennt darin schließlich Muster. So „lernt“ die KI und kann mithilfe dieser Muster neue Texte zusammenzusetzen. Die wirken fast, als hätte sie ein Mensch geschrieben…
I get a lot of requests for a piece on the AI 2027 paper. That’s the one that draws a lot of lines going up on a graph to show we’re getting a genuine artificial general intelligence by 2027! Then …
Attached: 1 image
Do not trust AI or #chatgpt5 to do the most basic things like labeling a picture of the hydrologic cycle. Here's the gobbledygook it gave me.
(Evaporation arrow pointing into the ground. Both surface water and the "ocean" labels underground. No "groundwater." No ice/glacier stock. Transpiration arrow coming from the #water surface, not plants, no mention of condensation...]
Denn sie wissen nicht, was Lernen bedeutet... "da müssen wir ran!" - bildungssprit
Lesezeit: ca. 10 Minuten – Wörter: 2.535 Ich höre den Podcast Bildungstaxi von Marcel Spitau und Ralf Appelt schon seit Langem und schätze vor allem den Bezug zu meinen beruflichen Themen, da die beiden auch im Kontext der beruflichen Bildung unterwegs sind. Zudem sind sie aus Schleswig-Holstein, sodass auch ein regionaler Anker hinzu kommt. Ihre Erzählweisen und das gemeinsame Reflektieren aktueller Bildungsthemen inspirieren mich und regen mich zudem regelmäßig zu Antworten und Interaktionen an. In der jüngsten Folge „Künstliche Intelligenz, Moodle und Obsidian“ hat mich eine Sequenz besonders bewegt. Dort schildert Ralf, wie ein Schüler sämtliche Aufgaben mithilfe von KI gelöst hat – und doch keine Erklärung dafür geben konnte, warum die Antworten korrekt waren. Ralf: „Also ich hatte neulich zum Beispiel einen Schüler, die haben die Aufgabe bekommen, Text zu lesen und da wichtige Daten zu entnehmen und dazu einen Zeitstrahl zu erstellen. Und einige Schüler haben sich dran gemacht, das zu machen. Und ein anderer Schüler hat gesagt so, hier, ich bin schon fertig. Und ich so, ja, haha, witzig. Da habe ich ja schon Verdacht, wie das geschehen ist. Und die Grafik sah wirklich hervorragend aus, hat auch alles Relevante enthalten. Und da habe ich gesagt, ja. Wie sind Sie denn vorgegangen, um diese Grafik zu erstellen?“ Schüler: „So digital.“ Ralf: „Ja – und mit welchem Tool haben Sie das gemacht? Weil, also ich hatte ein Tool vorgeschlagen und das hat er offenbar nicht genutzt, weil das konnte gar nicht so schöne Grafiken erstellen. Und naja, es kam dann raus, ja, mit KI, und der hat halt alle Aufgaben, die wir an dem Tag bearbeitet haben, mit KI bearbeitet und hat letztlich aber nicht sagen können, warum, wieso, weshalb da welche Antwort richtig ist. Und das war sozusagen genau dieser Bot-Papagei: ‚Ja, hier, ich habe die Aufgaben fertig.‘“ Ralf: „Ich habe den Eindruck, dass das so ein bisschen schon fast reflexartig passiert: Lehrer gibt eine Aufgabe und ich erledige die mit KI, weil dann bin ich schnell fertig und kann sagen, ‚hier, ich habe es gemacht.‘ Und das ist, glaube ich, so eine Größenordnung, die problematisch wird, wenn man dann sagt, ‚ah ja, hier die Aufgabe – Punkt 1: du hast sie gelöst, Punkt 2: die ist inhaltlich auch noch richtig‘ – was zumindest bei einfachen Aufgaben ja die meisten KIs mittlerweile ganz gut hinbekommen.“ Marcel: „Richtig.“ Ralf: „Und dann ist der Schüler auch happy, weil er wahrscheinlich eine gute Note kriegt.“ Marcel: „Richtig.“ Im Anschluss (20:59–21:52) diskutieren Ralf und Marcel, dass Schülerinnen und Schüler KI-Hilfsmittel deutlich kritischer einsetzen, sobald es nicht mehr um Noten, sondern um lebenspraktische oder sicherheitsrelevante Fragestellungen geht. Ralf bringt Beispiele wie den eigenen Autoumbau oder eine Krankheitsdiagnose: Bei solchen Themen würden sie die KI-Ergebnisse nicht einfach übernehmen, sondern sorgfältiger überprüfen oder gleich ein Fachbuch zur Hand nehmen. Marcel hakt nach, ob die Lernenden dieses differenzierte Vorgehen tatsächlich praktizieren, was Ralf verneint. Er betont daraufhin, dass es gerade Aufgabe der Lehrkräfte sei, den Schülerinnen und Schülern eine angemessene Medienkritik und einen reflektierten Umgang mit KI beizubringen. Wenn „Lernen“ nur noch Abarbeiten bedeutet Für mich stand eines fest: Diese Szene zeigt, dass es vielen Schüler:innen heute nur noch darum geht, Aufgaben abzuarbeiten. Diese kurze Episode wirft eine viel grundlegendere Frage auf: Wie gut verstehen unsere Schüler:innen wirklich, was Lernen bedeutet? Da mir dieses Verhalten immer mehr in meinem eigenen beruflichen Alltag als Lehrkraft auffällt, möchte ich auf diesen Abschnitt mit einem eigenen Blogbeitrag antworten. In vielen Klassen scheint das Wort „Lernen“ heute ein reines Synonym für punktuelles Abarbeiten von Aufgaben zu sein. Der Schüler, der seine Aufgaben per Knopfdruck durch KI erledigt, bestätigt diesen Mythos: Er hakt ab, was verlangt wird, ohne den substanziellen Lernzweck zu reflektieren. In diesem Sinne verkommt jede Lernaufgabe zu einem ritualisierten Vollzug, der zwar Ergebnisse, nicht aber Erkenntnis generiert. Als Berufsschullehrkraft beobachte ich, wie viele junge Menschen nach Abschluss allgemeinbildender Schulen zu uns kommen – und dabei keine Ahnung haben, was Lernen eigentlich ist. Klassische Lernmethoden sind ihnen fremd. Sie verfügen nicht über das metakognitive Repertoire, um bewusst und effizient Wissen zu festigen und zu vernetzen. Aus einer grundsätzlichen Perspektive ist Lernen mehr als reines Auswendiglernen: Es führt zu einer echten Veränderung im Denken, bei der wir Neues mit unserem vorhandenen Wissen verknüpfen. Das heißt: Wir hinterfragen Zusammenhänge, verstehen sie wirklich und setzen das Gelernte dann in neuen Situationen um. KI-Anwendungen wie ChatGPT verstärken diese oberflächliche Abarbeitungsmentalität, da sie fertige Antworten liefern, ohne dass der Lernende den semantischen Kern der Aufgabe selbst durchdringt. So entsteht eine Illusion von Verständnis, die im Kern ein leeres Abbild komplexen Wissens ist. Der Ausweg liegt im metakognitiven Perspektivwechsel: Lernende müssen wieder erfahren, dass Wissen nicht konsumiert, sondern aktiv entfaltet wird. Methodentraining, Selbstevaluation und gestaltete Lernumgebungen, in denen Fragen und Scheitern Teil des Prozesses sind, öffnen den Raum für echten Erkenntnisgewinn. Nur so kann Lernen jenseits mechanischer Abarbeitung zur lebendigen Reise und zum integralen Bestandteil des selbstbewussten Handelns werden. Historische Wurzeln des Output-Systems Passend zu diesem Thema ist der Artikel von Bent Freiwald von den Krautreportern: „Der klassische Schulunterricht ist gescheitert“. Er zeigt, wo der Ursprung und der grundlegende Fehler liegen: Freiwald erinnert daran, dass mit der Industrialisierung ein Output-System entstand, das standardisierte Arbeitskräfte schriftlich prüft. Frontalunterricht und feste Prüfzyklen wurden eingeführt – nicht, weil sie optimal für echtes Verstehen sind, sondern weil sie sich wirtschaftlich rentieren. „Am Ende von Bruchrechnung wird eine Klassenarbeit geschrieben. Dann schauen wir uns den Notenspiegel an und erkennen: Ein Drittel der Schüler:innen kann Bruchrechnung noch nicht! Was machen wir also? Geometrie.“ Dieses Vorgehen, möglichst schnell zum nächsten Thema zu springen, kennzeichnet das klassische Schulmodell bis heute: Erfolg wird an abgegebenen Ergebnissen gemessen, nicht am tatsächlichen Verständnis. In vielen Schulen erwartet man, dass Lernende nach einem kurzen Input sofort in standardisierten Tests demonstrieren, was sie behalten haben. Der gesellschaftliche Konsens dahinter ist tief verankert – Notenlisten und Zeugnisnoten gelten als Gradmesser von Leistung und sind fest in unserem Schul- und Berufsleben verankert. Wer eine „gute Note“ erzielt, gilt in der breiten Öffentlichkeit als
Solche Grässlichkeiten erlaubt Meta seinen KI-Chatbots
Auf über 200 Seiten hat Meta festgelegt, was seine KI-Chatbots sagen dürfen, und was nicht. Das Dokument ist durchgesickert und offenbart Erstaunliches.
Mark McCaughrean (@markmccaughrean@mastodon.social)
Attached: 2 images
Why you shouldn't use AI-derived "facts" for anything serious, part 5912.
The galactic coordinates of the Orion Nebula are l~209º, b~-19º.
That puts it in the third galactic quadrant: the four quadrants are l=0–90º, 90–180º, 180–270º, & 270–360º.
Wikipedia has this correct, & yet Google's AI, citing that very source, says "nope, it's in the second galactic quadrant."
Just imagine how many actually important things this software is fucking up daily with its fake authoritativeness 🙄
Over 2 years ago, the at-the-time not-for-profit research organisation OpenAI released a new version of their Large Language Model, GPT 3.5, under the friendlier brand name of ChatGPT, and started …
ChatGPT 5 was released today.
ChatGPT-maker OpenAI has unveiled the long-awaited latest version of its artificial intelligence (AI) chatbot, GPT-5, saying it can provide PhD-level expertise. Billed as “smarter, faster, and more useful,” OpenAI co-founder and chief executive Sam Altman lauded the company’s new model as ushering in a new era of ChatGPT. “I think having something like GPT-5 would be pretty much unimaginable at any previous time in human history,” he said ahead of Thursday’s launch. GPT-5’s release and claims of its “PhD-level” abilities in areas such as coding and writing come as tech firms continue to compete to have the most advanced AI chatbot.
Preisanstieg bei KI-Coding-Tools: The Free Lunch Is Over
Nach einer Phase unglaublich günstiger Angebote für Dienste zur KI-gestützten Programmierung haben alle Anbieter nun die Limits begrenzt und die Preise erhöht.
Perplexity is using stealth, undeclared crawlers to evade website no-crawl directives
Perplexity is repeatedly modifying their user agent and changing IPs and ASNs to hide their crawling activity, in direct conflict with explicit no-crawl preferences expressed by websites.
"If generative AI could REALLY make the next GTA in 6 months with 10 staff, or write the next bestseller, or produce 10 blockbusters a day? They wouldn't be trying to sell it to YOU. They would keep it for themselves and guard it from you ferociously."
I've seen this quote without attribution a couple of times. Whoever said it, they're spot on.