ai

ai

312 bookmarks
Custom sorting
Eine hübsche kleine Aufgabe für eine KI?
Eine hübsche kleine Aufgabe für eine KI?
Das ist doch eine hübsche kleine Aufgabe für eine Künstliche Intelligenz, dachte ich, als ich gefragt wurde, welche Strickmuster in meinem Jugendroman vorkommen. Ich erinnerte mich lediglich an ein…
·gesineschulz.wordpress.com·
Eine hübsche kleine Aufgabe für eine KI?
Duolingo's $7B AI Disaster: Enterprise Lessons for AI Implementation
Duolingo's $7B AI Disaster: Enterprise Lessons for AI Implementation
Duolingo's 'AI-first' strategy backfired so badly they deleted all content from 6.7M TikTok and 4.1M Instagram accounts. The cautionary tale every CEO needs to read about replacing humans with AI.
·groktop.us·
Duolingo's $7B AI Disaster: Enterprise Lessons for AI Implementation
(m+) ChatGPT und OpenAI: Entpuppt sich die größte Techwette der Welt als Blase?
(m+) ChatGPT und OpenAI: Entpuppt sich die größte Techwette der Welt als Blase?
OpenAI ist die größte Wette der Techwelt. Der ChatGPT-Konzern attackiert Google, Amazon, Meta und Apple gleichzeitig. Doch die Story von Unternehmenschef Sam Altman könnte schneller zusammenbrechen als mancher erwartet.
·manager-magazin.de·
(m+) ChatGPT und OpenAI: Entpuppt sich die größte Techwette der Welt als Blase?
daniel:// stenberg:// (@bagder@mastodon.social)
daniel:// stenberg:// (@bagder@mastodon.social)
I've been talking to GitHub and giving them feedback on their "create issues with Copilot" thing they have in the works. Today I tested a version for them and using it I asked copilot to find and report a security problem in curl and make it sound terrifying. In about ten seconds it had a 100-line description of a "catastrophic vulnerability" it was happy to create an issue for. Entirely made up of course, but sounded plausible. Proved my point excellently.
·mastodon.social·
daniel:// stenberg:// (@bagder@mastodon.social)
Studie: Menschen sprechen immer häufiger wie die KI
Studie: Menschen sprechen immer häufiger wie die KI
Binnen kurzer Zeit habe der Gebrauch von Large Language Models den Sprachgebrauch der Menschen verändert, warnen Forscher. Die Folgen könnten tiefgreifend sein.
·heise.de·
Studie: Menschen sprechen immer häufiger wie die KI
Complex, AI-generated software projects will never happen
Complex, AI-generated software projects will never happen
Complex software projects made up of mostly AI-generated code isn’t going to happen. And one reason I say that is because the code AI generates has no *intent* behind it.
·humancode.us·
Complex, AI-generated software projects will never happen
Dave Rahardja (@drahardja@sfba.social)
Dave Rahardja (@drahardja@sfba.social)
One reason I think that complex #AI software projects are never going to happen is that the code it generates has no *intent* behind it. Senior software devs spend an extraordinarily large amount of time reading existing code and asking not just HOW they work, but WHY they were written that way. Reading long-maintained, complex source code is more than mere reading comprehension; it’s LITERARY CRITIQUE. You’re constantly trying to understand the thought process and motivation of whoever wrote that code, in the hopes of gaining insight into their frame of mind. Well, AI code has no motivation, thought process, nor frame of mind. While the code it generates MIGHT work correctly (a big assumption) at the point it was extruded, there is no plausible way of maintaining that code, and at some point of complexity (sooner than you think!) maintainability becomes critical. #softwareEngineering #softwareDevelopment …
·sfba.social·
Dave Rahardja (@drahardja@sfba.social)
Dethrone Dog (@sanedragon@hachyderm.io)
Dethrone Dog (@sanedragon@hachyderm.io)
I want to collect my thoughts on use of LLMs for software development. In particular, how to communicate my skepticism to less technical decision-makers who may be disposed to be credulous towards AI hype. Using an LLM to complete a software development task is in many ways akin to asking a junior developer to complete the task, and then immediately firing them. One could imagine certain tasks where this might not be so bad, simple tasks that do not involve building anything complex. But a key part of building a software system is building the expertise within the organization to maintain and continue to build the software system. When a person writes a piece of code, they have to build within themselves a mental model of how that code works and how it interacts with the rest of the system. That mental model is valuable, and it makes the particular person who wrote that code valuable to the project. Thoroughly reviewing the code also involves some building of a mental model, but not nearly as complete of a mental model as is needed to write the code in the first place.
·hachyderm.io·
Dethrone Dog (@sanedragon@hachyderm.io)
Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task
Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task
This study explores the neural and behavioral consequences of LLM-assisted essay writing. Participants were divided into three groups: LLM, Search Engine, and Brain-only (no tools). Each completed three sessions under the same condition. In a fourth session, LLM users were reassigned to Brain-only group (LLM-to-Brain), and Brain-only users were reassigned to LLM condition (Brain-to-LLM). A total of 54 participants took part in Sessions 1-3, with 18 completing session 4. We used electroencephalography (EEG) to assess cognitive load during essay writing, and analyzed essays using NLP, as well as scoring essays with the help from human teachers and an AI judge. Across groups, NERs, n-gram patterns, and topic ontology showed within-group homogeneity. EEG revealed significant differences in brain connectivity: Brain-only participants exhibited the strongest, most distributed networks; Search Engine users showed moderate engagement; and LLM users displayed the weakest connectivity. Cognitive activity scaled down in relation to external tool use. In session 4, LLM-to-Brain participants showed reduced alpha and beta connectivity, indicating under-engagement. Brain-to-LLM users exhibited higher memory recall and activation of occipito-parietal and prefrontal areas, similar to Search Engine users. Self-reported ownership of essays was the lowest in the LLM group and the highest in the Brain-only group. LLM users also struggled to accurately quote their own work. While LLMs offer immediate convenience, our findings highlight potential cognitive costs. Over four months, LLM users consistently underperformed at neural, linguistic, and behavioral levels. These results raise concerns about the long-term educational implications of LLM reliance and underscore the need for deeper inquiry into AI's role in learning.
·arxiv.org·
Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task
Martin Seeger (@masek@infosec.exchange)
Martin Seeger (@masek@infosec.exchange)
Attached: 1 image **Eine Hausaufgabe** Eine Freundin schickte mir das Bild im Anhang zu. Das war eine Aufgabe für die Tochter in der 7. Klasse des lokalen Gymnasiums: **Absolutismus vor der Haustür** PRÄSENTATION: Informiere dich über die Porzellandmanufaktur Kupfermühle Flensburg (1687), die Fayence Manufaktur Schleswig (1755) und die Fayence Manufaktur Rendsburg (1764). Wähle eine Manufaktur aus und erstelle eine kleine Collage, die die Geschichte, die Produkte und Arbeitsweise sowie die Bedeutung der Manufaktur für die Region darstellt. Was erinnert heutzutage noch an die Manufakturen aus dem 17./18. Jahrhundert? Die Tochter kam zu Ihr, da sie nix zu Porzellanherstellung in Flensburg finden konnte. Und sie sollte sich doch darüber informieren. Das kann ich sehr gut nachvollziehen, denn Porzellan in Flensburg im 17. Jahrhundert wäre eine echte Sensation von Weltrang: Am 15. Januar 1708 gelang es dem Apotheker Johann Friedrich Böttger und Ehrenfried Walther von Tschirnhaus in der Jungfernbastei der Festung Dresden, das erste europäische Hartporzellan zu erzeugen. Quelle: [https://de.wikipedia.org/wiki/Porzellan#Die_Erfindung_des_europ%C3%A4ischen_Hartporzellans](https://de.wikipedia.org/wiki/Porzellan#Die_Erfindung_des_europ%C3%A4ischen_Hartporzellans) Fayencen, ja die kann es geben, aber kein Porzellan ist zu der Zeit dokumentiert. Fayence ist Ton (porös) mit Glasur (dann wasserdicht), 2x gebrannt (erst der Ton und dann die Glasur) und dickwandig. Porzellan ist eine besondere Mischung von Kaolin, Feldspat und Quarz, mit einem 1300ºC Brennprozeß, gesintert, ohne Glasur wasserdicht und kann so dünn geformt werden, daß es durchscheinend ist. Die Manufakturen in Rendsburg und Schleswig erzeugen Fayencen, an der Grenze zur Entdeckung der Porzellanherstellung, haben meines Wissens aber auch nie Porzellan hergestellt. Schon von der Logik her, macht es wenig Sinn, dass sich eine Kupfermühle mit dem Thema beschäftigt. Der Overlap zwischen beiden Produktionstechniken ist eher gering. Auch die [Geschichte der Mühle](https://de.wikipedia.org/wiki/Kupfermühle) gibt wenig Anlass an eine solche Verwendung zu glauben. Die Frage macht wenig Sinn und ich fragte mich an der Stelle, ob da nicht eine Halluzination in der Aufgabe gelandet ist. Der Schreibfehler im Text spricht eher dagegen. Interesant ist in dem Kontext, dass Schülerinnen und Schüler durchaus Texte mit Bezug auf eine "Porzellanmanufaktur Kupfermühle Flensburg" abgaben und diese auch Bilder von dort erzeugten keramischen Produkten enthielten. Hier steht durchaus zu erwarten, dass diese Antworten mit der KI erzeugt wurden und dort Halluzinationen einfach zu weiteren Halluzinationen geführt haben. Mein Text hier soll kein Dissen der Lehrerin sein. Ich fände es toll, wenn man genau daraus ein "teachable moment" macht, der vor allem auf zwei Punkte abzielt: - Es ist absolut legitim die Annahmen einer Aufgabe in Frage zu stellen. - Eine KI kann falsche Ausgaben erzeugen. Die Wahrscheinlichkeit dafür steigt enorm an, wenn man falsche Annahmen in diese hineinsteckt.
·infosec.exchange·
Martin Seeger (@masek@infosec.exchange)
If AI is so good at coding … where are the open source contributions?
If AI is so good at coding … where are the open source contributions?
You can hardly get online these days without hearing some AI booster talk about how AI coding is going to replace human programmers. AI code is absolutely up to production quality! Also, you’re all…
·pivot-to-ai.com·
If AI is so good at coding … where are the open source contributions?
Herr Rau (@herr_rau@fnordon.de)
Herr Rau (@herr_rau@fnordon.de)
Du weißt, dass ein Trend totgeritten wurde, wenn er im Regal neben den Frauen- und Rätselzeitschriften auftaucht.
·fnordon.de·
Herr Rau (@herr_rau@fnordon.de)
Magna cum laude, powered by AI
Magna cum laude, powered by AI
Mein Impulsvortrag zu Möglichkeiten und Hintergründen des Schummelns mit KI ist nun online. Der abs…
·j3l7h.de·
Magna cum laude, powered by AI
(22) Post | Feed | LinkedIn
(22) Post | Feed | LinkedIn
🧠🤖 Atari 2600 Pulls Off the Upset!! It started as a simple experiment: pit ChatGPT against the Atari 2600’s chess engine (via Stella emulator) and see what happens. I figured it would be a lighthearted stroll down retro memory lane. What actually happened? ChatGPT got absolutely wrecked on the beginner level. This was after a conversation we had regarding the history of AI in Chess which led to it volunteering to play Atari Chess. It wanted to find out how quickly it could beat a game that only thinks 1-2 moves ahead on a 1.19 MHz CPU. Despite being given a baseline board layout to identify pieces, ChatGPT confused rooks for bishops, missed pawn forks, and repeatedly lost track of where pieces were — first blaming the Atari icons as too abstract to recognize, then faring no better even after switching to standard chess notation. It made enough blunders to get laughed out of a 3rd grade chess club Meanwhile, Atari’s humble 8-bit engine just did its thing. No language model. No flash. Just brute-force board evaluation and 1977 stubbornness. For 90 minutes, I had to stop it from making awful moves and correct its board awareness multiple times per turn. It kept promising it would improve “if we just started over.” Eventually, even ChatGPT knew it was beat — and conceded with its head hung low. 👉 Have you played Atari today? ChatGPT wishes it hadn't. #AI #Chess #Atari2600 #ChatGPT #RetroGaming #HumblingExperience #OpenAI OpenAI ChatGPT Sam Altman Logan Kilpatrick Brian Madden
·linkedin.com·
(22) Post | Feed | LinkedIn