Technologie

278 bookmarks
Custom sorting
Freude an Postkarten: Junge Leute wissen teilweise gar nicht wie das funktioniert
Freude an Postkarten: Junge Leute wissen teilweise gar nicht wie das funktioniert

Freude an Postkarten: „Junge Leute wissen teilweise gar nicht, wie das funktioniert“

https://www.faz.net/aktuell/gesellschaft/menschen/freude-an-postkarten-junge-leute-wissen-teilweise-gar-nicht-wie-das-funktioniert-110649406.html

Frau Peters, Sie haben im vergangenen Jahr ein Buch geschrieben. Auf Postkarten hingegen muss man sich kurz halten. Können Sie das?

Peters: Nicht so gut. Ich krickele immer die ganze Postkarte voll und schreibe unten am Rand um das Adressfeld herum bis zur Briefmarke noch liebe Grüße hin. Ich fange immer an und denke, was soll ich denn schreiben – und dann ist die Postkarte voll.

Dehner: Wir versuchen allerdings auch, die Postkarten zusammen zu schreiben. Einer fängt an, der andere schreibt zu Ende. Das ist auch nicht gut für den Platzhaushalt.

Ergänzen Sie sich, oder schreibt jeder seinen Text drauf?

Peters: Jeder schreibt seinen Text. Aus den Ferien schreibt man ja auch meistens wirkliche Belanglosigkeiten, die einfach nur zeigen sollen, dass man sich an den anderen erinnert und dass auch er Teil dieser Reise sein soll, indem er einen Gegenstand bekommt, den man selbst an diesem anderen Ort in der Hand gehabt hat.

Dehner: Aber man versucht ja nicht, Belanglosigkeiten zu schreiben, sondern Wertvolles, nur das so kurz wie möglich.

Caroline Peters und Frank Dehner bei einer Preisverleihung in Wien im Jahr 2022Picture Alliance

Da wir gerade sprechen, während Sie im Urlaub sind: Schreiben Sie von dort Postkarten?

Peters: Die letzten Jahre haben wir oft unsere eigenen Postkarten in den Urlaub mitgenommen, weil es an den meisten touristischen Orten nur diese kitschigen Karten gab, die wir nicht mehr verschicken wollten. Aber das ändert sich gerade, stellen wir in diesem Sommer fest. Früher hatten wir diesen Wettbewerb mit Freunden oder Geschwistern, wer die hässlichste Karte gefunden hat.

Der wird dann ja jetzt schwieriger, wenn sich Ihre Beobachtung verallgemeinern lässt.

Peters: Ich hoffe das. Wir hatten in der Toskana mal eine Postkarte gefunden in einer Gegend, in der es besonders viel Wildschweinwurst gab: ausgestopfte Wildschweine in Kostümen, die an einem Esstisch saßen und Wurst aßen. Es war so irre.

Ich bekomme so gut wie keine Postkarten mehr aus dem Urlaub . . .

Dehner: In unserem Laden stellen wir fest: Gerade ganz junge Leute wissen teilweise gar nicht, wie das Medium funktioniert. Denen muss man erst mal erklären, wo die Adresse hinkommt. Und dann geht’s los, denn sie haben überhaupt von niemanden, den sie kennen, die Postadres­se, weil sie nie an irgendwen schreiben. Handschrift ist auch ein Thema, die schreiben eher in Druckbuchstaben.

Peters: Und gleichzeitig erzählen ganz junge Kunden oft, dass sie diese Zeitlosigkeit als totale Befreiung empfinden. Es gibt keine immediate response, wie bei einer Whatsapp-Nachricht, bei der man immer glaubt, auf alles reagieren zu müssen. Du schickst es ab, und dann musst du einfach abwarten. Vielleicht kommt die Karte in drei Tagen an, vielleicht in acht, vielleicht in 18 Tagen. Man weiß es einfach nicht.

Dieser Text stammt aus der Frankfurter Allgemeinen Sonntagszeitung.

Wer kauft bei Ihnen Postkarten?

Dehner: Wir haben Kunden von fünf bis 85 Jahre. Es gibt die, die für sich sammeln, die sich einfach schöne Karten in einen Karton packen für Anlässe, für irgendwann. Was ich neu festgestellt habe, ist, dass es in diesem Jahr öfter mal Männer gab, die entdeckt haben, dass sie ihrer Frau oder Freunden eine große Freude bereiten, wenn sie ihnen eine Karte bei uns aussuchen und sie verschicken oder übergeben. Sie drücken damit eine besondere Form der Zuneigung aus. Die werden zu Stammkunden und kommen immer wieder, um ein, zwei Karten oder mal eine Serie zu kaufen. Das sind allerdings Kunden aus der Nachbarschaft. Und dann wir haben natürlich auch viele Touristen.

Die Ihre Karten dann von Wien aus in die weite Welt verschicken – schöne Vorstellung.

Peters: Wir haben festgestellt, dass das Schwierigste beim Verschicken der Postkarte Briefmarke und der Briefkasten sind. Sich da zu organisieren, ist eine zusätzliche Hürde. Deswegen kann man bei uns im Laden auch die Briefmarken kaufen und sie in einen Kasten stecken. Wir leeren den dann am Abend und geben die Postkarten in den richtigen Briefkasten.

Sie wissen tatsächlich, was man auf eine Postkarte nach Korea kleben muss?

Dehner: Ja, das wissen wir. Auch wenn es sich ständig ändert.

Werden Postkarten heute nicht meistens verschenkt?

Peters: Ja, das ist auch unsere Erfahrung. Sie werden einem Geschenk beigelegt, oder die Postkarten an sich werden zum Beispiel zum Umzug oder zu Feiertagen verschenkt. Aber tatsächlich schreiben doch noch relativ viele Leute aus dem Urlaub.

Sie beauftragen Fotografen für die Postkarten. Haben die Künstler freie Wahl, welche Motive sie auswählen?

Peters: Ja, aber wir beraten. Meistens sind es Leute, die wir aus dem Theater-, Mode- und Porträtbereich kennen und die ein Reservoir an Fotos haben.

Dehner: Wir stellen dann gemeinsam eine Auswahl zusammen. Die zwölf Bilder einer Serie sollen immer auch eine gemeinsame Geschichte erzählen oder zumindest miteinander korrespondieren, aber auch als einzelne Karte funktionieren. Unsere kuratorische Tätigkeit ist wichtig, weil wir nach sieben Jahren die Erfahrung haben und wissen, welche Motive gut laufen und welche nicht als Postkarte taugen.

Für die Postkarten werden Fotografen beauftragt und jeweils Serien von zwölf miteinander korrespondierenden Motiven ausgewählt.Frank Dehner

Dehner: Für mich ist bei der Auswahl schlagend, dass mir sofort der erste Satz einfällt, den ich auf das Bild bezogen schreiben könnte. Das sind entweder situative Momente oder symbolische. Und ich mag schöne Dinge aus der Umgebung. Auch ich bin ja einer der Fotografen und versuche, Wien an Details erkennbar zu machen. Wiener sagen jetzt manchmal: Seitdem ich diese Postkarte von Ihnen gesehen habe, gucke ich ganz anders auf meine Umgebung.

Über so eine Rückmeldung freut man sich, oder?

Dehner: Ja, das sind 100 Punkte.

Peters: Und das ist auch unsere Art, uns als Neu-Wiener an die Stadt und die Bürger anzunähern, was mir durch das Burgtheater schon ganz gut gelungen ist. Wir haben aber natürlich einen anderen Blick auf Wien als jemand, der dort geboren und aufgewachsen ist. Unser Blick ist durch die Bank positiver als der der richtigen Wiener.

Im 5. Bezirk Wiens befindet sich das Postkartengeschäft der Schauspieler Caroline Peters und Frank Dehner, die in Wien und Berlin leben.Frank Dehner

Dehner: Wir als Zugezogene sind diejenigen, die den Wienern erzählen, dass die Postkarte von dort kommt. Sie wurde am 1. Oktober 1869 damals noch in der Doppelmonarchie Österreich-Ungarn postamtlich eingeführt, als erstes Land weltweit.

Welche weiteren Motive sind Kassenschlager?

Peters: Aussagen, Dinge oder Kurioses, die man im Alltag findet, wenn man mal nicht auf sein Handy schaut, sondern rechts und links vorbei. Der absolute Renner ist das Motiv eines Kaugummiautomaten, auf den jemand mit Lippenstift „Du bist eh schon so sias“ geschrieben hat, also Wienerisch für „Du bist eh schon so süß“.

Dehner: Diese Karte verkauft sich so wahnsinnig gut, dass wir sie ein zweites Mal aufgelegt haben. Aber auch Sprüche wie „Immer ist jetzt“ zum Beispiel, oder „Sometimes I think“, das war ein Ausschnitt eines Kunstwerks, das ich mal fotografiert habe. Spruchkarten kommen bei uns nur vor, wo wir sie sehen. Wir drucken keine Sprüche.

Bekommen Sie von Freunden besonders viele Karten geschickt, oder traut sich das keiner mehr, seit Sie Postkartenprofis sind?

Peters: Als wir den Laden neu hatten, haben sich tatsächlich sehr viele animiert gefühlt, uns Postkarten zu schicken. Das war diese Idee: Ah, wenn wir denen eine Freude machen wollen, dann schicken wir eine Postkarte.

Da Sie ja ein Faible für das Thema Postkarte haben: Haben Sie alte Postkarten aufgehoben, die Sie vor ein paar Jahrzehnten von Freunden aus dem Urlaub geschickt bekommen haben? Oder haben Sie die alle irgendwann vernichtet?

Peters: Ich habe sehr viel davon aufgehoben und dann bei verschiedensten Umzügen verloren, sodass praktisch nichts mehr davon übrig ist. Aber als Kind habe ich Postkarten gesammelt. Meine Eltern sind oft alleine ohne uns Kinder verreist. Und meine Mutter hat dann immer Postkarten geschickt. Die hatte ich gelocht und ein Geschenkband durchgezogen, sodass ich wie so ein Heft hatte und mir anschauen konnte, wo die überall gewesen waren. Heute haben wir so ein Board, wo wir Postkarten und Fotos hinstellen, aber ewig bleiben die nicht erhalten bei uns. Aber ich finde es immer schön bei einem Umzug: Man hat ein Buch in der Hand, und plötzlich fliegt eine Postkarte raus, die man da mal reingesteckt hatte. Das ist dann eine Nachricht aus der Vergangenheit, wie so eine Flaschenpost. Das ist manchmal dann ein tolles Erlebnis.

Dehner: Zu den Anlasskarten, zum Beispiel zum Geburtstag, hat man ja früher den Geldschein rausgenommen und sich gar nicht durchgelesen, was da alles an Informationen stand: Was der Onkel macht, wo sie auf Reisen waren und so weiter. Ich habe die Karten weggeschmissen, weil ich dachte, der Anlass ist ja vorbei. Ich glaube, wir sind beide Pioniere und versuchen immer, etwas Neues zu entdecken, nach vorne zu gucken. Deshalb sind wir nicht der Typ Archivar.

Sie leben ja miteinander und haben mutmaßlich ausreichend Gelegenheit, miteinander zu sprechen. Kommunizieren Sie trotzdem auch per Kunstkarte miteinander?

Peters: Ja, aber da wird dann nicht viel Text draufgeschrieben. Da gibt es dann einen Satz oder einen Gruß und dann legt man sich die Karte gegenseitig an einen Ort, wo der andere sie zufällig findet, so ein bisschen wie Ostereier, nur nicht an Ostern.

Dehner: Wir haben uns auch schon einen Adventskalender gemacht, aus Postkarten und aus Liebesbriefen.

via FAZ.NET

August 31, 2025 at 06:28PM

·faz.net·
Freude an Postkarten: Junge Leute wissen teilweise gar nicht wie das funktioniert
YouTube: Neue Google-KI manipuliert seit Monaten viele Videos jetzt geht man wirklich zu weit (Meinung)
YouTube: Neue Google-KI manipuliert seit Monaten viele Videos jetzt geht man wirklich zu weit (Meinung)

YouTube: Neue Google-KI manipuliert seit Monaten viele Videos – jetzt geht man wirklich zu weit (Meinung)

https://www.googlewatchblog.de/?p=252139

Jeden Tag werden auf Googles Videoplattform mehr als 20 Millionen Videos hochgeladen, die von allen Nutzern angesehen werden können. Doch spätestens seit dieser Woche können wir uns gar nicht mehr so sicher sein, ob die Inhalte in der gezeigten Form tatsächlich von den Creatorn stammen. Denn YouTube manipuliert unbemerkt Videos und überschreitet damit eine Grenze, die man besser nicht angerührt hätte.

Mehr lesen: YouTube: Neue Google-KI manipuliert seit Monaten viele Videos – jetzt geht man wirklich zu weit (Meinung)

Keine Google-News mehr verpassen: GoogleWatchBlog bei Google News abonnieren

Der Beitrag YouTube: Neue Google-KI manipuliert seit Monaten viele Videos – jetzt geht man wirklich zu weit (Meinung) erschien zuerst auf GoogleWatchBlog.

Technologie

via GoogleWatchBlog https://www.googlewatchblog.de/

August 31, 2025 at 05:01PM

·googlewatchblog.de·
YouTube: Neue Google-KI manipuliert seit Monaten viele Videos jetzt geht man wirklich zu weit (Meinung)
AI Has Broken High School and College
AI Has Broken High School and College

AI Has Broken High School and College

https://www.theatlantic.com/newsletters/archive/2025/08/ai-high-school-college/684057/

This is Atlantic Intelligence, a newsletter in which our writers help you wrap your mind around artificial intelligence and a new machine age. Sign up here.

Another school year is beginning—which means another year of AI-written essays, AI-completed problem sets, and, for teachers, AI-generated curricula. For the first time, seniors in high school have had their entire high-school careers defined to some extent by chatbots. The same applies for seniors in college: ChatGPT released in November 2022, meaning unlike last year’s graduating class, this year’s crop has had generative AI at its fingertips the whole time.

My colleagues Ian Bogost and Lila Shroff both recently wrote articles about these students and the state of AI in education. (Ian, a university professor himself, wrote about college, while Lila wrote about high school.) Their articles were striking: It is clear that AI has been widely adopted, by students and faculty alike, yet the technology has also turned school into a kind of free-for-all.

I asked Lila and Ian to have a brief conversation about their work—and about where AI in education goes from here.

This interview has been edited and condensed.

Lila Shroff: We’re a few years into AI in schools. Is the conversation maturing or changing in some way at universities?

Ian Bogost: Professors are less surprised that it exists, but there is maybe a bit of a blind spot to the state of adoption among students. I saw a panic in 2022, 2023—like, Oh my God, this can do anything. Or at least there were questions. Can this do everything? How much is my class at risk? Now I think there’s more of a sense of, Well, this thing still exists, but we have time. We don’t have to worry about it right away. And that might actually be a worse reaction than the original.

Lila: The blind-spot language rings true to the high-school environment too. I spoke to some high schoolers—granted this was quite a small sample—but basically it sounds like everybody is using this all the time for everything.

Ian: Not just for school, right? Anything they want to do, they’re asking ChatGPT now.

Lila: I was a sophomore in college when ChatGPT came out, so I witnessed some of this firsthand. There was much more anxiety—it felt like the rules were unclear. And I think both of our stories touched on the fact that for this incoming class of high-school and college seniors, they’ve barely had any of those four years without ChatGPT. Whatever sort of stigma or confusion that might have been there in earlier years is fading, and it’s becoming very much default and normalized.

Ian: Normalization is the thing that struck me the most. That is not a concept that I think the teachers have wrapped their heads around. Teachers and faculty also have been adopting AI carefully or casually—or maybe even in a more professional way, to write articles or letters of recommendation, which I’ve written about. There’s still this sense that it’s not really a part of their habit.

Lila: I looked into teachers at the K–12 level for the article I wrote. Three in 10 teachers are using AI weekly in some way.

Ian: Some kind of redesign of educational practice might be required, which is easy for me to say in an article. Instead of an answer, I have an approach to thinking about the answer that has been bouncing around in my brain. Are you familiar with the concept in software development called technical debt? In the software world, you make the decision about how to design or implement a system that feels good and right at the time. And maybe you know it’s going to be a bad idea in the long run, but for now, it makes sense and it is convenient. But you never get around to really making it better later on, and so you have all these nonoptimal aspects of your infrastructure.

That’s the state I feel like we’re in, at least in the university. It’s a little different in high school, especially in public high school, with these different regulatory regimes at work. But we accrued all this pedagogical debt, and not just since AI—there are aspects of teaching that we ought to be paying more attention to or doing better, like, this class needs to be smaller, or these kinds of assignments don’t work unless you have a lot of hands-on iterative feedback. We’ve been able to survive under the weight of pedagogical debt, and now something snapped. AI entered the scene and all of those bad or questionable—but understandable—decisions about how to design learning experiences are coming home to roost.

Lila: I agree that AI is a breaking point in education. One answer that seems to be emerging at the high-school level is a more practical, skills-based education. The College Board, for instance, has announced two new AP courses—AP Business and AP Cybersecurity. But there’s another group of people who are really concerned about how overreliance on these tools erodes critical-thinking skills, and maybe that means everyone should go read the classics and write their essays in cursive handwriting.

Ian: My young daughter has been going to this set of classes outside of school where she learned how to wire an outlet. We used to have shop class and metal class, and you could learn a trade, or at least begin to, in high school. A lot of that stuff has been disinvested. We used to touch more things. Now we move symbols around, and that’s kind of it.

I wonder if this all-or-nothing nature of AI use has something to do with that. If you had a place in your day as a high-school or college student where you just got to paint, or got to do on-the-ground work in the community, or apply the work you did in statistics class to solve a real-world problem—maybe that urge to just finish everything as rapidly as possible so you can get onto the next thing in your life would be less acute. The AI problem is a symptom of a bigger cultural illness, in a way.

Lila: Students are using AI exactly as it has been designed, right? They’re just making themselves more productive. If they were doing the same thing in an office, they might be getting a bonus.

Ian: Some of the students I talked to said, Your boss isn’t going to care how you get things done, just that they get done as effectively as possible. And they’re not wrong about that.

Lila: One student I talked to said she felt there was really too much to be done, and it was hard to stay on top of it all. Her message was, maybe slow down the pace of the work and give students more time to do things more richly.

Ian: The college students I talk to, if you slow it all down, they’re more likely to start a new club or practice lacrosse one more day a week. But I do love the idea of a slow-school movement to sort of counteract AI. That doesn’t necessarily mean excluding AI—it just means not filling every moment of every day with quite so much demand.

But you know, this doesn’t feel like the time for a victory of deliberateness and meaning in America. Instead, it just feels like you’re always going to be fighting against the drive to perform even more.

via Artificial Intelligence https://flipboard.com/topic/artificialintelligence

August 29, 2025 at 09:00PM

·theatlantic.com·
AI Has Broken High School and College
Gemini: Googles neue KI-Bildbearbeitung startet für alle Nutzer bringt beeindruckende Fähigkeiten (Videos)
Gemini: Googles neue KI-Bildbearbeitung startet für alle Nutzer bringt beeindruckende Fähigkeiten (Videos)

Gemini: Googles neue KI-Bildbearbeitung startet für alle Nutzer – bringt beeindruckende Fähigkeiten (Videos)

https://www.googlewatchblog.de/?p=252205

Google baut den Funktionsumfang von Gemini immer weiter aus und drängt den KI-ChatBot derzeit immer stärker in den medialen Bereich. In dieser Woche wurde die neue KI-Bildbearbeitung angekündigt, die es den Nutzern ermöglicht, Bilder umfangreich per Prompt zu manipulieren. Wir zeigen euch, welche beeindruckenden Bildmanipulationen sich damit sehr einfach anwenden lassen.

Mehr lesen: Gemini: Googles neue KI-Bildbearbeitung startet für alle Nutzer – bringt beeindruckende Fähigkeiten (Videos)

Keine Google-News mehr verpassen: GoogleWatchBlog bei Google News abonnieren

Der Beitrag Gemini: Googles neue KI-Bildbearbeitung startet für alle Nutzer – bringt beeindruckende Fähigkeiten (Videos) erschien zuerst auf GoogleWatchBlog.

Technologie

via GoogleWatchBlog https://www.googlewatchblog.de/

August 30, 2025 at 04:35PM

·googlewatchblog.de·
Gemini: Googles neue KI-Bildbearbeitung startet für alle Nutzer bringt beeindruckende Fähigkeiten (Videos)
Referentenentwurf: Diese Behörden sollen die KI-Verordnung umsetzen
Referentenentwurf: Diese Behörden sollen die KI-Verordnung umsetzen

Referentenentwurf: Diese Behörden sollen die KI-Verordnung umsetzen

https://netzpolitik.org/2025/referentenentwurf-diese-behoerden-sollen-die-ki-verordnung-umsetzen/

Die Bundesnetzagentur soll künftig einen Großteil der KI-Aufsicht übernehmen. Ringsum ist jedoch ein Mosaik aus weiteren Zuständigkeiten geplant. Das geht aus dem Gesetzentwurf aus dem Digitalministerium hervor, den wir veröffentlichen.

Das Bundesdigitalministerium strebt ein Aufsichtsmosaik an. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Misak Aghababyan

Sogenannte Künstliche Intelligenz zieht vermehrt in unseren Alltag ein. Sie steckt im Smartphone, soll Verwaltung und Unternehmen effizienter machen und die Bildung umkrempeln. Doch der KI-Einsatz birgt Risiken. Um diesen zu begegnen, hat die EU vor gut einem Jahr die KI-Verordnung (AI Act) verabschiedet. Sie soll einen einheitlichen Rechtsrahmen bieten, der Entwicklung, Einsatz und Vermarktung von KI-Systemen je nach Risiko reguliert.

Die meisten Regelungen der Verordnung gelten erst ab dem 2. August 2026. Doch bereits Anfang August dieses Jahres sollten die EU-Mitgliedstaaten auf nationaler Ebene Behörden einrichten, die künftig Anbieter von KI-Systemen kontrollieren. Die Ampel-Regierung hatte dafür Ende 2024 einen Gesetzentwurf vorgelegt, den die damalige Koalition nicht mehr verabschieden konnte. Die schwarz-rote Bundesregierung will das nun mit einiger Verspätung nachholen.

Dafür hat das Bundesdigitalministerium (BMDS) jüngst einen Referentenentwurf vorgelegt, den wir veröffentlichen. Er unterscheidet sich nur geringfügig von dem Entwurf der Ampelregierung und trägt den Titel „Gesetz zur Marktüberwachung und Innovationsförderung von künstlicher Intelligenz“.

Die Bundesnetzagentur steht im Zentrum

Das Gesetz benennt die in Deutschland für die KI-Aufsicht zuständigen Behörden und deren Aufgaben. Eine zentrale Rolle soll die Bundesnetzagentur (BNetzA) einnehmen. Diese Entscheidung hatte sich in den vergangenen Monaten bereits abgezeichnet. Laut Gesetzentwurf soll die Behörde als Marktüberwachungsbehörde und als notifizierende Behörde agieren.

Marktüberwachungsbehörden sind staatliche Stellen, die überwachen, ob auf dem Markt bereitgestellte Produkte den gesetzlich festgelegten Anforderungen entsprechen. Notifizierende Behörden sind staatliche oder öffentliche Stellen, die ihrerseits weitere Stellen benennen und beaufsichtigen.

Für die Überwachung von bestimmten Hochrisiko-KI-Systemen soll zudem eine direkt bei der BNetzA angesiedelte KI-Marktüberwachungskammer eingerichtet werden. Außerdem dient die Behörde als zentrale Anlauf- und Beschwerdestelle. Sie soll Unternehmen darüber informieren, wie sie die Regelungen der KI-Verordnung anwenden, Schulungen anbieten und Vernetzung zwischen Marktakteuren und Behörden vorantreiben.

Ministerium will Doppelstrukturen vermeiden

Das BMDS betont im Gesetzentwurf, keine neue Aufsichtsbehörde für KI-Anbieter schaffen zu wollen. So würden Doppelstrukturen vermieden. Die BNetzA besteht seit 1998 und untersteht als Bundesoberbehörde dem Bundeswirtschaftsministerium. Bislang ist sie für den Wettbewerb auf den Netzmärkten Elektrizität, Gas, Telekommunikation, Post und Eisenbahnverkehr zuständig.

Fortan soll sie also auch KI-Anbieter kontrollieren und dabei vor allem jene Bereiche beaufsichtigen, für die es bislang keine Aufsichtsstruktur gibt. Der Gesetzentwurf nennt hier unter anderem Biometrie, kritische Infrastruktur, KI am Arbeitsplatz und in Bildungseinrichtungen sowie Migration, Asyl, Grenzkontrolle und Justiz.

Aufsichtsmosaik neben der BNetzA

Neben der BNetzA sollen auch andere Behörden, die bereits in anderen Sektoren mit Produktregulierung betraut sind, für die sogenannte Marktüberwachung und Notifizierung für KI-Systeme verantwortlich sein. Der Gesetzentwurf strebt ein Mosaik verschiedener Aufsichtsbehörden rund um die BNetzA an.

So soll das Bundesamt für die Sicherheit in der Informationstechnik (BSI) übergangsweise Aufgaben im Bereich der IT-Sicherheit übernehmen. Damit wäre die Behörde bis auf weiteres auch für die Zulassung von bestimmten Hochrisiko-KI-Systemen zuständig. Langfristig soll diese Funktion eine Stelle übernehmen, die noch in der nationalen Umsetzung der europäischen Cyberresilienz-Verordnung festgelegt werden muss. Das BSI hat sich bereits für diese Aufsicht beworben.

Für den Einsatz von Hochrisiko-KI-Systemen im Finanzbereich, also etwa in Banken und Versicherungen, wäre hingegen die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) zuständig. Daneben sollen unter anderem Datenschutzbehörden, der Kinder- und Jugendmedienschutz sowie das Bundeskartellamt einbezogen werden, sofern deren Zuständigkeitsbereich berührt ist.

Neue Kammer, Stellen und Zentren

Über die bestehenden Behörden hinaus sieht der Gesetzentwurf auch die Einrichtung neuer Aufsichtseinrichtungen vor.

So soll etwa eine Unabhängige KI-Marktüberwachungskammer (UKIM) die Marktüberwachung in sensiblen Bereichen wie Biometrie, Strafverfolgung oder Migration übernehmen.

Die UKIM hätte einen hybriden Charakter. Sie ist einerseits als unabhängige Behörde konzipiert, die aus Sicht des BMDS wegen der „hohen Schutzgüter“, die betroffen sein könnten, „möglichst hochrangig besetzt sein“ sollte. Andererseits ist sie als eigenständige Kammer direkt bei der Bundesnetzagentur angedockt. Den Vorsitz des Gremiums soll der:die Präsident:in der Bundesnetzagentur innehaben; beisitzende Mitglieder sind die Vizepäsident:innen der BNetzA. Einmal im Jahr soll die UKIM dem Bundestag einen Tätigkeitsbericht vorlegen.

Ein neues Koordinierungs- und Kompetenzzentrum (KoKIVO) soll dafür sorgen, das alle Rechtsfragen mit Blick auf die KI-Verordnung einheitlich beantwortet werden. Außerdem unterstützt die KoKIVO „mit Sachverstand auf Anfrage“ Behörden bei komplexen Entscheidungen. Und sie soll den Austausch zwischen Zivilgesellschaft, Wirtschaft und Wissenschaft fördern.

Als Bindeglied zwischen den verschiedenen Behörden auf EU- und nationaler Ebene sowie der Öffentlichkeit soll eine zentrale Anlaufstelle dienen. Die Kontrollbehörden sind verpflichtet, sie über ihre jeweiligen Aufgaben und Kontaktpersonen zu unterrichten. Und bei einer zentralen Beschwerdestelle sollen jene Anbieter gemeldet werden können, die mutmaßlich gegen die KI-Verordnung verstoßen. Die Stelle ist ebenfalls bei der Bundesnetzagentur angesiedelt; die BNetzA leitet die Beschwerden an andere Behörden weiter, wenn diese zuständig sind.

Kilian Vieth-Ditlmann von der NGO AlgorithmWatch bedauert auf Anfrage von netzpolitik.org, dass der Gesetzentwurf keine Vorgaben zu einem möglichst nutzerfreundlichen Beschwerdesystem sowie Transparenzanforderungen macht. „Es braucht ein verbindliches nationales KI-Transparenzregister für die öffentliche Hand, das die begrenzten Informationen in der EU-Datenbank der Hochrisiko-KI-Systeme umfassend ergänzt“, sagt Vieth-Ditlmann. „Das ließe sich zumindest für die Bundesebene direkt gesetzlich regeln. Und dafür wäre ebenfalls die Bundesnetzagentur die ideale Aufsichtsbehörde.“

Nicht zuletzt sieht der Gesetzentwurf vor, sogenannte KI-Reallabore zu schaffen. Sie bieten Unternehmen geschützte Umgebungen, wo sie ihre KI-Anwendungen testen können, bevor sie an den Markt gehen. Auch die Labore sind bei der BNetzA angesiedelt. Wie sie im Detail ausgestaltet sind, soll das BMDS mittels einer Rechtsverordnung noch regeln.

Zivilgesellschaft hofft auf breite Beteiligung

Der Entwurf befindet sich nun in der Ressortabstimmung. Bis zum 19. September können unter anderem die anderen Ministerien und das Bundeskanzleramt ihre Stellungnahmen zu dem Entwurf abgeben. Die Länder- und Verbändebeteiligung ist ab dem 4. September geplant.

Kilian Vieth-Ditlmann von AlgorithmWatch hofft, dass die Bundesregierung auch jenseits davon eine breite Beteiligung anstrebt. „Das Thema ist wichtig und betrifft alle gesellschaftlichen Gruppen“, sagt Vieth-Ditlmann. „Es geht um Diskriminierungsschutz, Verbraucherschutz, Datenschutz und Umweltschutz. Gerade die Zivilgesellschaft kann hier wichtige Expertise beitragen.“

 

Der Gesetzentwurf im Volltext

Referentenentwurf des Bundesministeriums für Digitales und Staatsmodernisierung

Entwurf eines Gesetzes zur Durchführung der Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU)

2020/1828 (Verordnung über künstliche Intelligenz) (Gesetz zur Durchführung der KI-Verordnung)

A. Problem und Ziel

Am 1. August 2024 ist die Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828 (Verordnung über künstliche Intelligenz) (ABl. L, 2024/1689, 12.07.2024) in Kraft getreten. Die Verordnung (EU) 2024/1689 legt einen einheitlichen Rechtsrahmen für die Entwicklung, das Inverkehrbringen, die Inbetriebnahme und die Verwendung von KI-Systemen in der Union fest. Dadurch soll ein einheitlicher Binnenmarkt für KI-gestützte Waren und Dienstleistungen geschaffen, Innovationen gefördert und gleichzeitig ein hohes Schutzniveau in Bezug auf Gesundheit, Sicherheit und die in der Charta der Grundrechte der Europäischen Union verankerten Grundrechte, einschließlich Demokratie, Rechtsstaatlichkeit und Umweltschutz, sichergestellt werden. Die Verordnung (EU) 2024/1689 verfolgt dabei einen risikobasierten Ansatz und enthält insbesondere Verbote bestimmter Praktiken im KI-Bereich, besondere Anforderungen an Hochrisiko-KI-Systeme und Pflichten für Akteure in Bezug auf solche Systeme, Tran

·netzpolitik.org·
Referentenentwurf: Diese Behörden sollen die KI-Verordnung umsetzen
Digitale Schulen: Es braucht eine KI-Pflicht statt eines Handyverbots an Schulen
Digitale Schulen: Es braucht eine KI-Pflicht statt eines Handyverbots an Schulen

Digitale Schulen: Es braucht eine KI-Pflicht statt eines Handyverbots an Schulen

https://www.spiegel.de/netzwelt/netzpolitik/digitale-schulen-es-braucht-eine-ki-pflicht-statt-eines-handyverbots-an-schulen-a-b7cac67a-2290-4cb5-9fae-195307907776

Wer Smartphones an Schulen verbieten will, hat die Zukunft nicht verstanden. Statt über Handytresore in Klassenzimmern zu reden, muss man Kinder klug an KI-Nutzung heranführen.

Technologie

via DER SPIEGEL - Netzwelt https://www.spiegel.de/

August 28, 2025 at 05:21PM

·spiegel.de·
Digitale Schulen: Es braucht eine KI-Pflicht statt eines Handyverbots an Schulen
Geschäft mit Gewaltvideos: Tod im Stream
Geschäft mit Gewaltvideos: Tod im Stream

Geschäft mit Gewaltvideos: Tod im Stream

https://taz.de/Geschaeft-mit-Gewaltvideos/!6106622/

Paris taz | Der Tod von Frankreichs bekanntestem Streamer der australischen Plattform Kick ist ein Aufreger. Jean Pormanove alias JP ist in der Nacht auf den Montag nach einer zwölftägigen Live-Übertragung in einem südfranzösischen Dorf bei Nizza gestorben. Was vor dem tragischen Ende des Streamers geschehen war, konnten Zehntausende von Schaulustigen live verfolgen. In den fast 300 Stunden wird JP von zwei Kumpanen immer wieder beschimpft, in Wort und Tat gedemütigt, gewürgt, am Schlafen gehindert und immer wieder geschlagen.

Mehrfach beklagt sich der sichtlich ausgezehrte und geschwächte 46-Jährige über Schmerzen und Erschöpfung, er sagt, er habe genug und wolle die Polizei oder Feuerwehr anrufen oder weggehen – was ihm aber von einem als Befehlsgeber auftretenden Mann mit dem Pseudonym Naruto nicht erlaubt wird.

Stattdessen wird JP gezwungen, vor der Kamera die benutzte Toilette zu putzen. Ein anderer Mann, Safine, reißt ihn aus dem Schlaf, indem er neben seinem Ohr Flöte spielt oder ein Motorrad anwirft. Und wieder und wieder erhält er – zur Belustigung und auf Wunsch der Zuschauenden – Ohrfeigen, wenn er beim Video-Game einen Fehler macht.

Alles soll laut den Beteiligten bloß ein „Spiel“ gewesen sein. Aber zuletzt wundert sich einer der neben ihm Anwesenden, dass sich der auf einer Matratze liegende JP nicht mehr bewegt. Er wirft eine Plastikwasserflasche auf ihn und konstatiert, dass er tot ist. Hier bricht der Livestream ab. Die Diskussion über dieses der Öffentlichkeit bisher weitgehend unbekannte Geschäft mit den im Internet zu kommerziellen Zwecken übertragenen Videos mit Gewalt und Erniedrigungsszenen beginnt erst jetzt.

Noch am Anfang steht mit ihren Ermittlungen die Justiz, obschon ihr das französische Onlinemagazin Media­part bereits Ende 2024 Hinweise auf dieses Business mit unerträglichen Sado­maso-Streams auf der Plattform Kick geliefert hatte. Die Ursache des Tods der Streamers war noch unklar. Nach einer ersten Autopsie erklärten zwei Gerichtsmediziner, sie hätten nichts wie namentlich eine innere Blutung, Hirnerschütterung oder äußere Verletzungen gefunden, was auf eine für den Tod verantwortliche „Intervention von Dritten“ schließen lasse. Weitere Analysen seien aber notwendig.

„In einem Todesspiel gefangen“

Unabhängig davon, ob die Brutalitäten im Prinzip inszeniert und vom Opfer „freiwillig“ akzeptiert waren, stellt sich die Frage, ob die wiederholten Kränkungen, Quälereien und namentlich der Schlafentzug für den Tod des angeblich herzkranken JP verantwortlich waren. Die Staatsanwaltschaft erwägt die Einleitung einer Untersuchung wegen Tötung ohne Vorsatz gegen die neben JP am Streaming beteiligten Personen, die wie JP selber von den Einnahmen auf Kick lebten.

Dass er sein Einvernehmen zu den demütigend Streams gegeben hat, bedeutet keineswegs, dass nicht dennoch ein Verstoß gegen das Gesetz vorliegen kann. Kurz vor seinem Tod soll JP seiner Mutter mitgeteilt haben, er sei „in einem Todesspiel gefangen“ und halte das nicht mehr aus.

Im Vergleich mit dem Konkurrenten Twitch teilt Kick einen größeren Teil der Einnahmen (laut Firmenangaben 95 Prozent statt 50 Prozent bei der Konkurrenz) mit den Produzenten der Livestreams und überwacht viel weniger, was da gestreamt wird. Kick wurde 2022 in Australien von den Internet-Unternehmern Ed Craven und Bijan Tehrani nach ihrem Ausschluss von Twitch gegründet. Seither zieht ihre Plattform skrupellose Streamer an, die von einer mangelnden Moderation profitieren wollen. Wie das Online-Casino und die Wetten, die Craven und Tehrani bereits zu Milliardären gemacht haben, findet die Verbreitung von Misshandlung und Gewalt ein Millionenpublikum zahlender Voyeure.

Tod und Folter als Faszination und Spektakel, das sei nichts Neues, das gab es schon im antiken Rom mit der Arena im Zirkus, bei den mittelalterlichen Hinrichtungen sowie vor 25 Jahren mit den „Jackass“-Videos und ohnehin habe die Gewalt in Film und Videospielen immer mehr Raum, meint auf FranceInfo Laurent Bègue-Shankland, Professor für Sozialpsychologie an der Universität Grenoble. Erschreckend sei auf Kick die „Banalisierung der Gewalt, welche die Schwellen des Schockierenden modifiziert“. Zudem werde dies dank den Netzwerken zu einem „Massenphänomen“ mit einem erleichterten Zugang für daran Interessierte, die sich von jeglicher Verantwortung frei fühlten.

Business mit Sadomaso

Den zuständigen Behörden in Frankreich, die durchaus über gesetzliche Aufsichts- und Aktionsmittel verfügen, scheint dieses Geschäft mit Sadomaso-Szenen bisher entgangen zu sein. Die Vizeministerin für Digitalwirtschaft, Clara Chappaz, spricht von einem „absoluten Horror“ in einem „Far West“, gesteht aber, dass ihr Kick und diese Streamer vorher nicht bekannt gewesen seien. Bei der französischen Regulierungsbehörde Arcom, die trotz der Informationen des ­Onlinemagazins ­Mediapart vor acht Monaten nichts unternommen hatte, meldete sich schließlich im Kontext des Skandals aus Malta ein ­Rechtsvertreter von Kick.

Er versichert, Kick wolle mit den französischen Behörden „kooperieren“ und habe bis auf ­Weiteres alle Beteiligten am Livestream, der mit dem Tod von JP endete, gesperrt.

Die Regierung will sich nicht fahrlässige Unachtsamkeit vorwerfen lassen. Vizeministerin Chappaz kündigt mögliche „Sanktionen“ gegen Kick und andere Plattformen und eventuell sogar die „Schließung“ an, wenn diese ihre Pflicht zur Kontrolle der Inhalte nicht beachten sollten.

Die Behörde Arcom meinte allerdings in einem Kommentar, sie habe gar nicht die „Kompetenz“, eine Plattform mit Sitz in Australien zu „schließen“.

Verschiedenes

via taz.de - taz.de https://taz.de/!p4608/

August 28, 2025 at 02:46PM

·taz.de·
Geschäft mit Gewaltvideos: Tod im Stream
ChatGPT: Eltern in Kalifornien klagen nach Suizid ihres Sohnes gegen OpenAI
ChatGPT: Eltern in Kalifornien klagen nach Suizid ihres Sohnes gegen OpenAI

ChatGPT: Eltern in Kalifornien klagen nach Suizid ihres Sohnes gegen OpenAI

https://www.spiegel.de/netzwelt/netzpolitik/chatgpt-eltern-in-kalifornien-klagen-nach-suizid-ihres-sohnes-gegen-openai-a-6e222331-806b-4350-9b55-f0eee48bdcaf

Die Eltern hätten der Klage Chatprotokolle von Adam mit der KI beigefügt, aus denen hervorgehe, dass der Jugendliche suizidal war, heißt es. Wie unter anderem der Sender CNN  berichtet, soll das Programm Adam etwa angeboten haben, einen Abschiedsbrief zu verfassen. Außerdem soll es ihm Methoden zur Selbsttötung empfohlen haben.

In den Monaten, in denen Adam ChatGPT nutzte, ist der Bot offenbar zum engsten Vertrauten des Teenagers geworden. Reale Beziehungen zu Familie, Freunden und Angehörigen seien in den Hintergrund getreten, heißt es den Angaben zufolge in der Klage, über die auch die »New York Times « berichtet. Adams Eltern verlangen Schadensersatz und eine Anordnung, um zu verhindern, dass so etwas noch einmal passiert. Dem Unternehmen sei der Profit wichtiger als die Sicherheit gewesen, werfen sie OpenAI vor.

Technologie

via DER SPIEGEL - Netzwelt https://www.spiegel.de/

August 28, 2025 at 12:50PM

·spiegel.de·
ChatGPT: Eltern in Kalifornien klagen nach Suizid ihres Sohnes gegen OpenAI
Stats suggest Apples slow rollout of AI agent capabilities may be wise
Stats suggest Apples slow rollout of AI agent capabilities may be wise

Stats suggest Apple’s slow rollout of AI agent capabilities may be wise

https://9to5mac.com/2025/08/28/stats-suggest-apples-slow-rollout-of-ai-agent-capabilities-may-be-wise/

One of the many delayed Apple Intelligence features is known as App Intents, and we’re starting to see evidence that taking an extremely cautious approach to the rollout may be no bad thing.

Before the comments catch fire, I should stress that I’m most assuredly not giving Apple a free pass on the slow rollout of new Siri capabilities in general. There are a great many capabilities which should very definitely have been launched years ago. Indeed, I’ve argued that the delay is now so embarrassing that Apple should probably allow us to choose our own chatbot to stand in for Siri, and the majority of you agreed with me. But when it comes to AI agents, taking things slowly may be the right approach …

The power of AI agents

It’s now almost a decade since I first described what I would like Siri to be able to do. I gave the example of the instruction, “arrange lunch with Sam next week.”

Siri knows who Sam is, so that bit’s fine. It has access to my calendar, so knows when I have free lunch slots. Next, it needs to know when Sam has free lunch slots. That requires Sam to have granted me access to her calendar at a simple busy/free level. My iPhone checks Sam’s iCloud calendar for free lunch slots and matches them with mine. It finds we’re both free on Wednesday so schedules the lunch.

And it could do even more. My iPhone could easily note my favourite eateries, and Sam’s, and find one we both like. It could then go online to the restaurant’s reservation system to make the booking.

Fast-forward to today and Google has introduced the restaurant booking part of this. We’ve also seen this kind of AI agent capability rolled out on a number of other platforms, especially in the enterprise sector.

Apple’s own offerings, meantime, are nowhere to be seen.

App Intents

Apple’s approach is to introduce this kind of capability through a mechanism known as App Intents. The starting point is to allow Siri to pull information from apps, something the company demonstrated back in 2022. We’re currently expecting to have to wait until next spring before this is launched.

But the bigger goal here is to give iPhones AI agent capabilities, so that they can carry out more involved tasks on our behalf.

But AI agents are not yet very reliable

The problem, not just for Apple but for the entire tech industry, is that AI agents are not currently very reliable. Google notably goes as far as entering all of the information in the restaurant booking form before requiring the user to double check it and submit the booking.

AI Mode will directly link to the booking page so you can finalize the reservation.

TNW’s Calum Chase pointed to a couple of rather worrying statistics:

More than half of companies (51%) have deployed AI agents

80% of them have disclosed that their AI agents have made rogue decisions

Worse, he says many businesses are being very gung-ho about using these agents without proper oversight.

Giving them autonomy with minimal checks is like handing the company keys to an intoxicated graduate. They are enthusiastic, intelligent, and malleable, but also erratic and in need of supervision.

And yet, what large enterprises are failing to recognise is that this is exactly what they are doing. AI agents are being “seamlessly” plugged into operations with little more than a demo and a disclaimer.

In this one area, a slow rollout may be smart

Even the more basic usage of App Intents, namely pulling information from an app and presenting it to the user, could be fraught with peril if that information isn’t accurate and users rely on it.

Carrying out tasks on our behalf becomes exponentially more dangerous. With individual users perhaps even more likely than businesses to just assume that Apple Intelligence will do what they have asked, maybe the company taking more time to do more testing in this one area is no bad thing.

Photo by Mohamed Nohassi on Unsplash

FTC: We use income earning auto affiliate links. More.

Technologie

via 9to5Mac https://9to5mac.com/

August 28, 2025 at 01:27PM

·9to5mac.com·
Stats suggest Apples slow rollout of AI agent capabilities may be wise
Apple Music Will Now Let You Import All Your Spotify Playlists
Apple Music Will Now Let You Import All Your Spotify Playlists

Apple Music Will Now Let You Import All Your Spotify Playlists

https://relevantmagazine.com/culture/music/apple-music-will-now-let-you-import-all-your-spotify-playlists/

Apple Music is finally giving people what they’ve wanted for years: a built-in way to move playlists over from other streaming services. No sketchy third-party apps, no endless dragging and dropping songs — just a clean, official transfer tool.

After testing it in Australia and New Zealand, Apple rolled it out this week in the U.S., U.K., Canada, Brazil, France, Germany and Mexico. The option is under a new setting called “Transfer Music from Other Music Services.” From there, users can log into their old account, pick the playlists they want to keep and let Apple do the rest. There’s also a browser-based method for anyone who prefers not to use the app.

The timing is notable. While Apple is making it easier than ever to ditch other streamers, Spotify is facing a mass breakup with indie rock staples. Hotline TNT, Godspeed You! Black Emperor, King Gizzard & the Lizard Wizard, Xiu Xiu and Deerhoof have all pulled their catalogs, citing everything from low payouts to ethical concerns.

The latest wave of exits centers on Spotify CEO Daniel Ek’s venture capital firm, Prima Materia, which has invested heavily in Helsing, a defense company specializing in AI-driven military technology. Indie bands are seemingly not eager for their art to bankroll autonomous weapons.

For anyone looking for a sign to finally leave Spotify, Apple Music—which, notably also offers higher audio fidelity and live radio—just made the switch painless.

Religion

via REL ::: RELEVANT http://www.relevantmagazine.com/rss/relevantmagazine.xml

August 27, 2025 at 11:22PM

·relevantmagazine.com·
Apple Music Will Now Let You Import All Your Spotify Playlists
Science: Watching Short-Form Videos Is More Damaging Than Drinking Alcohol
Science: Watching Short-Form Videos Is More Damaging Than Drinking Alcohol

Science: Watching Short-Form Videos Is More Damaging Than Drinking Alcohol

https://relevantmagazine.com/culture/tech-gaming/science-watching-short-form-videos-is-more-damaging-than-drinking-alcohol/

Scrolling TikTok and Reels isn’t just eating your free time—it’s changing the way your brain functions.

A new brain imaging study from Tianjin Normal University in China found that compulsive short-form scrolling doesn’t just feel addictive—it mirrors the same neurological patterns as alcoholism, only with potentially deeper hooks.

Professor Qiang Wang, who led the study, explained that people who consume short-form content in excess show hyperactive reward pathways in their brains—the same circuitry that lights up for alcoholics and gamblers. Every clip releases a small burst of dopamine, the neurotransmitter that makes us feel good when we get a reward. Normally, dopamine helps train us to repeat healthy behaviors like exercising, eating well, or connecting with other people. But when the brain is flooded with it nonstop through endless scrolling, those same pathways become overstimulated.

And here’s the catch: overstimulation doesn’t mean you get more pleasure. It means you get less. Just like alcohol or drugs, the brain builds tolerance. Those first few clips might feel like a rush, but as the dopamine system adjusts, you need more and more just to feel anything at all. That’s why “just five minutes” of TikTok can so easily spiral into an hour—you’re chasing a reward your brain is no longer wired to give you. The more you consume, the duller everything else in life starts to feel, from reading a book to having a conversation.

The damage doesn’t stop with dopamine. The study found that heavy scrollers show changes in the prefrontal cortex—the part of the brain responsible for regulating emotions and decision-making. That means it becomes harder to control impulses, harder to focus, and harder to break the cycle. Meanwhile, the hippocampus—the brain’s memory center—can start to deteriorate, making it more difficult to process complex ideas or retain new information. The effect is eerily similar to a hangover, except in this case, you didn’t drink—you just scrolled.

“Short-form video addiction is a global public health threat,” Wang warned. And while nobody’s saying delete your apps entirely, the research makes one thing clear: if alcohol can leave you hungover, the scroll might leave you hollowed out.

Religion

via REL ::: RELEVANT http://www.relevantmagazine.com/rss/relevantmagazine.xml

August 27, 2025 at 11:51PM

·relevantmagazine.com·
Science: Watching Short-Form Videos Is More Damaging Than Drinking Alcohol
What if AI Isnt Meant to Be Understood? Toward an Ethics of Opacity: Reading AI with Walter Benjamin
What if AI Isnt Meant to Be Understood? Toward an Ethics of Opacity: Reading AI with Walter Benjamin

What if AI Isn’t Meant to Be Understood? Toward an Ethics of Opacity: Reading AI with Walter Benjamin

https://intralation-culture-theory-posthuman-pedagogy.ghost.io/what-if-ai-isnt-meant-to-be-understood-toward-an-ethics-of-opacity-reading-ai-with-walter-benjamin/

“Truth is not a matter of exposure which destroys the secret, but a revelation that does justice to it.”

—Walter Benjamin, The Origin of German Tragic Drama

I’ve struggled with this line for years. Not because it is obscure—it isn’t, not really—but because it seems to resist precisely the kind of careful, clarifying attention one is trained to bring to philosophical statements. It’s the sort of sentence that won’t sit still under analysis, like a cat that senses a vet visit. You read it once, nod sagely, then reread it with suspicion, then again with awe, and still you’re not entirely sure whether Benjamin has told you something deeply true or merely constructed a decoy profound enough to evade interrogation. The difficulty is not that the sentence is dense. It’s that it seems to carry more than one would be wise to unpack.

That, for me, is the peculiar and enduring power of Benjamin’s writing: it does not pursue clarity in the usual sense, nor does it indulge in mystification for the sake of obscurity. Rather, it occupies a strange middle ground—somewhere between aphorism and incantation—where the sentence is built less to be decoded than to linger. His best formulations behave like philosophical contraptions with concealed hinges: open one thought, and another swings outward behind it. They are not arguments to be won or diagrams to be annotated, but strange objects of sustained attention—objects that subtly alter their contours the longer one lingers in their orbit. Benjamin writes in a way that makes "mastery"– by which I full and exhaustively transparent understanding—impossible in precisely the right way.

And here, in this particular formulation, we get a quintessential example—one that also happens to open an aperture on the meaning of his style:

Truth is not a matter of exposure which destroys the secret, but a revelation that does justice to it.

Benjamin—ever the connoisseur of ambiguity—offers in this line a view of truth liable to give your average analytic philosopher a mild existential rash, an idea so indifferent to the protocols of conceptual hygiene it practically begs to be quarantined. That truth might involve secrecy—let alone demand justice to it—is precisely the sort of formulation that suggests Benjamin did not so much abandon metaphysics as tap it on the shoulder, run off with its coat, and wear it to ironic dinner parties. For most of modernity, truth has been something like a cadaver to be clinically examined—opened up, drained of its mystery, and carefully dissected into ever smaller epistemic morsels. Benjamin, in contrast, proposes that truth must be approached like a particularly recalcitrant uncle: with a certain awkward reverence, a touch of dread, and the uneasy sense that full understanding is both impossible and, frankly, unwise.

This is not to say that Benjamin fetishizes opacity or invites us into some gauzy celebration of the ineffable. On the contrary, what he offers here is an ethics of interpretation—a mode of encounter in which the object of knowledge retains its dignity by resisting the terms of domination. Exposure, in this account, is less a revelation than an act of epistemic violence, akin to dragging a poem into fluorescent lighting to see what secrets it spills under duress. The secret, in Benjamin’s phrasing, is not simply a bit of withheld information, but something with an intrinsic relation to time, form, and the one who seeks to know. To “destroy” it through exposure is not merely to reveal its content, but to annul the conditions of its meaningfulness, to collapse the distance that gave it resonance, and to mistake availability for understanding.

Benjamin’s alternative—revelation that “does justice” to the secret—requires not a forensic mentality but a literary one, or better yet, a theological one. This isn’t truth as the opposite of falsehood, but as a kind of event or arrival: something that appears without surrendering its density, something that speaks without ceasing to be strange. To do justice to a secret, after all, is not to possess it, but to respond to it in a manner proportionate to its form. Just as a work of art is not best understood by knowing how much it cost to produce, so too the truth of a thing is not exhausted by its availability to rational inspection. For Benjamin, truth is performative—it calls for an interpretive posture, a comportment that acknowledges the asymmetry between what is disclosed and what can be grasped.

One might, at this point, be tempted to accuse Benjamin of romanticism, as though he were inviting us into a Gothic epistemology of shadows and whispers. But his point is far more unsettling. What he describes is not the mystical aura of the ineffable, but the ordinary structure of interpretation itself—namely, that knowing always involves a relation between knower and known, and that this relation is never innocent. The secret is not simply what is hidden; it is what solicits response without requiring surrender. It makes a claim on us. And to do justice to that claim, one must resist both the allure of mastery and the laziness of resignation.

This is why, in Benjamin’s account, the question of truth is inseparable from ethics. It is not simply what one sees, but how one sees, and under what terms the seeing is made possible. Revelation, then, is not the unveiling of a static fact, but a situated act of responsiveness that preserves the secret’s power precisely by refusing to reduce it. It is the opposite of cynical demystification, which mistakes unmasking for understanding and treats every secret as a scandal waiting to be exposed. Benjamin instead invites us to think of secrets as sites of relation—moments in which truth shimmers into view not because we have ripped the veil aside, but because we have approached with the proper kind of attention: slow, interpretive, and unwilling to confuse access with knowledge.

In a world increasingly besotted with transparency—where data is king, and interpretive subtlety is regarded as a kind of aristocratic indulgence—it is worth remembering Benjamin’s point: that truth may ask more of us than clarity, and that doing justice to a thing may sometimes mean letting it remain strange. If we are to take revelation seriously, we might start by giving up the fantasy that every truth worth having is one we can hold in our hands like a receipt.

The danger is not in speaking of the secret, but in imagining that to speak of it is to speak it. That would be exposure in the vulgar sense—flattening revelation into information, turning the mystery into metadata. But Benjamin’s remark—that “truth is not a matter of exposure which destroys the secret, but a revelation that does justice to it”—already alerts us to a paradox: that justice to the secret requires a kind of saying, but one that does not consume the thing in its own utterance.

In our own moment, one of the most urgent sites where this ethics of the secret demands our attention is in the growing chorus of demands for AI “transparency.” The term black box, now a cliché in AI discourse, functions less as a technical descriptor than as a moral provocation—a way of framing opacity as a kind of scandal, a sin against the Enlightenment’s demand that all things be brought to light, preferably in PowerPoint. But to name something a black box is already to accuse it, to cast its unknowability as a failure of responsibility rather than a structural condition of its operation. It rehearses the fantasy that if only we could see inside the machine—if only we could trace every weight, parameter, and activation—ethical clarity would follow, as though justice were simply a matter of enough diagnostic light.

Benjamin, I suspect, would wince at such optimism. For him, the problem is never simply that something is hidden, but how we orient ourselves toward what cannot be made fully visible. The secret, in his sense, is not a glitch in the system but a condition of meaning. And the danger lies in the belief that the right diagram can eliminate the interpretive act. When we demand transparency from AI, we often do so in the hope that meaning will arise automatically from visibility—that once the mechanism is exposed, its consequences will speak for themselves. But machines, like texts, do not disclose their ethics on contact. They must be interpreted. And interpretation, as Benjamin reminds us, is not an act of extraction but of relation. It must proceed with a kind of reverence for what resists it.

To be clear, this is not a call for mystification or a romantic indulgence in unknowability. There are, of course, forms of opacity that serve power and deserve critique. But there is also a kind of opacity that is not obstruction but excess—an opacity that marks the limits of control and demands a different mode of response. The secret of AI, if we can call it that, is not the fact that its inner workings are difficult to trace, but that its outputs emerge from an apparatus whose operations exceed the conditions of their disclosure. To do justice to this secret is not to decode it, but to engage it with a posture of interpretive responsibility—one that accepts that meaning is co-constructed in asymmetrical relation, not revealed in diagnostic printouts.

In this light, the ethical relation to AI may demand something closer to what Benjamin evokes: a practice of reading that is less about penetration than about attunement—not the soft-focus kind that mistakes resonance for harmony, but the critical kind that remains alert to friction, difference, and delay. Transparency, in this view, becomes less a goal than a metaphor whose limitations we must learn to read. And if we are to spe

·intralation-culture-theory-posthuman-pedagogy.ghost.io·
What if AI Isnt Meant to Be Understood? Toward an Ethics of Opacity: Reading AI with Walter Benjamin
PM: Keine pauschalen Handyverbote an Schulen!
PM: Keine pauschalen Handyverbote an Schulen!

PM: Keine pauschalen Handyverbote an Schulen!

https://d-64.org/pm-handyverbote/

Berlin, 27. August 2025 – In einem gemeinsamen Offenen Brief sprechen sich der Bundeselternrat, die Gesellschaft für Medienpädagogik und Kommunikationskultur (GMK), das Deutsche Kinderhilfswerk sowie D64 – Zentrum für digitalen Fortschritt klar gegen pauschale Smartphone-Verbote an Schulen aus. Stattdessen fordern sie eine bundesweite Bildungsoffensive für Medien- und Demokratiekompetenz sowie die aktive Beteiligung von Schüler:innen, Eltern und Lehrkräften an schulischen Regelungen.

Zum offenen Brief

Aline Sommer-Noack, stellvertretende Vorsitzende des Bundeselternrats, kommentiert:

Digitale Medien gehören heute zum Alltag von Kindern und Jugendlichen – und damit auch in eine zeitgemäße Schule. Pauschale Handyverbote greifen zu kurz. Statt symbolpolitischer Schnellschüsse braucht es klare, altersgerechte und gemeinsam erarbeitete Regeln, die pädagogisch sinnvoll sind und die Verantwortung von Schule, Eltern und Schülern gleichermaßen einbeziehen.

Die Medienpädagogin Anke Dana Tretter, die Mitglied der AG Bildung von D64 ist, ergänzt

Pauschale Verbote privater Smartphones nehmen Schulen die Chance, digitale Herausforderungen pädagogisch zu begleiten. Verbote behindern die Entwicklung von Selbstregulation, kritischem Denken und demokratischer Verantwortung. Kompetenz entsteht nicht durch Abwesenheit des Gegenstands.

Für Rüdiger Fries, den Co-Vorsitzenden der Gesellschaft für Medienpädagogik und Kommunikationskultur (GMK) ist klar:

Medienkompetenz entsteht nicht durch Weglegen der Smartphones, sondern durch reflektierte Begleitung und pädagogisch-didaktische Gestaltung. Wir müssen Kinder und auch Jugendliche gleichermaßen schützen, befähigen und beteiligen, damit sie ausprobieren und kreativ sein können. Hilfreich ist die gemeinsame Entwicklung differenzierter Regulierungsmaßnahmen in der Schule. Ein pauschales Verbot greift zu kurz. Es fokussiert auf das Gerät als Ursache, statt die tieferliegenden pädagogischen, gesellschaftlichen und sozialen Faktoren in den Blick zu nehmen.

Kai Hanke, Geschäftsführer des Deutsches Kinderhilfswerkes e.V. ergänzt:

Pauschale Verbote entmündigen Kinder und Jugendliche und stehen in krassem Widerspruch zu ihrem in der UN-Kinderrechtskonvention garantierten Recht auf digitale Teilhabe sowie den Aufbau von Medienkompetenz. Beim Thema Medienkompetenz darf die Politik weder junge Menschen noch Familien alleinlassen. Deshalb braucht es statt allgemeiner Verbote endlich mehr Beteiligung junger Menschen und gute Lernbedingungen in der Schule sowie Verantwortungsübernahme von Anbietern, um bestehende Risken der Mediennutzung zu reduzieren.

Kontakt für Rückfragen

Bundeselternrat: info@bundeselternrat.de D64 – Zentrum für digitalen Fortschritt: presse@d-64.org GMK: gmk@medienpaed.de Deutsches Kinderhilfswerk: presse@dkhw.de

Über den offenen Brief

Der offene Brief kann ab dem 27. August 2025, 05:00 Uhr unter https://d-64.org/Medienbildung abgerufen werden und befindet sich im Anhang. Im Brief heißt es: „Verbote schaffen keine Medienkompetenz – sie verschieben das Problem ins Private und lassen Eltern und Schüler:innen allein. Wir brauchen pädagogisch begleitete Erfahrungsräume, keine reflexartigen Verbote“. Ziel müsse es sein, junge Menschen im Umgang mit digitalen Medien zu befähigen – nicht, sie davon auszuschließen. Schulen seien der zentrale Ort, um digitale Selbstregulation, kritische Informationsbewertung und demokratische Teilhabe zu erlernen. Pauschale Handyverbote stünden diesem Auftrag entgegen. Die unterzeichnenden Organisationen appellieren an die Kultusministerkonferenz, nicht länger auf kurzfristige Verbote zu setzen, sondern auf langfristige Bildungslösungen, die Kinder und Jugendliche ernst nehmen – und ihnen vertrauen.

Die zentralen Forderungen:

Keine pauschalen Smartphone-Verbote, sondern pädagogisch begründete und lokal abgestimmte Regelungen

Verankerung von Medienbildung als Querschnittsaufgabe oder als eigene Fach im Bildungssystem

Verpflichtende Beteiligung der Schulgemeinschaft an der Regelentwicklung

Investitionen in Infrastruktur, Lehrkräftefortbildung und außerschulische Medienpädagogik

Gemeinsame Verantwortung von Politik und Bildungsakteur:innen für zeitgemäße Medienbildung

Der Beitrag PM: Keine pauschalen Handyverbote an Schulen! erschien zuerst auf D64 – Zentrum für digitalen Fortschritt.

Schule

via D64 – Zentrum für digitalen Fortschritt https://d-64.org/

August 27, 2025 at 04:37AM

·d-64.org·
PM: Keine pauschalen Handyverbote an Schulen!
Emulsio 5 für iOS: Künstliche Zeitlupe und Video-Upscaling
Emulsio 5 für iOS: Künstliche Zeitlupe und Video-Upscaling

Emulsio 5 für iOS: Künstliche Zeitlupe und Video-Upscaling

https://www.iphone-ticker.de/emulsio-5-fuer-ios-kuenstliche-zeitlupe-und-video-upscaling-262639/

Mit Emulsio 5 hat der belgische Entwickler Creaceed eine neue Version seiner Videobearbeitungs-App für iPhone, iPad und Mac vorgestellt. Die Anwendung, die seit mehr als einem Jahrzehnt für Video-Stabilisierung bekannt ist, erweitert ihr Angebot nun um zusätzliche Funktionen, die auf generativer KI basieren.

Künstliche Zeitlupe und Video-Upscaling

Eine der zentralen Neuerungen ist die Möglichkeit, nachträglich Zeitlupeneffekte in Videos einzubauen. Während Aufnahmen mit hoher Bildrate große Dateien erzeugen und meist eine helle Umgebung erfordern, funktioniert die KI-Variante auch bei normalen Videos. Nutzer können Geschwindigkeit und Dauer der verlangsamten Szenen frei einstellen, ohne beim Filmen spezielle Vorkehrungen treffen zu müssen.

Darüber hinaus bringt Emulsio 5 eine Upscaling-Funktion, die die Auflösung von Videos um bis zu 400 Prozent erhöhen kann. Auf großen Displays sollen so feinere Details sichtbar werden. Ergänzend erlaubt ein neues Retiming-Werkzeug die Erhöhung der Bildrate, was zu flüssigeren Bewegungen führt.

Verbesserte Stabilisierung

Auch bei der ursprünglichen Kernfunktion der App, der Videostabilisierung, hat Creaceed nachgebessert. Neu ist unter anderem ein Verfahren, das mehrere Bildausschnitte kombiniert, um Wackler auszugleichen, ohne die Aufnahmen zu stark zu beschneiden. Unterstützt wird zudem die Wiedergabe im HDR-Format mit Dolby Vision sowie HLG und PQ, was eine breite Kompatibilität mit modernen Fernsehgeräten sicherstellen soll.

Die App steht für iOS, iPadOS und macOS zur Verfügung und nutzt die Hardwarebeschleunigung von Apples Prozessoren für rechenintensive Aufgaben wie die Videoanalyse oder das Rendern. Nutzerinnen und Nutzer können Emulsio 5 kostenlos aus dem App Store laden und ausprobieren. Der Export ohne Wasserzeichen erfordert entweder den Kauf eines Pro-Pakets für 23,99 Euro oder ein Abonnement, das ab 3,99 Euro pro Monat erhältlich ist. Besitzer früherer Versionen erhalten ein vergünstigtes Upgrade zum Preis von 11,99 Euro.

Creaceed, unter anderem für Hydra und Prizmo bekannt, setzt bei der neuen App-Version konsequent auf lokale Verarbeitung. Sämtliche KI-Berechnungen laufen auf dem Gerät ab, sodass weder Cloud-Ressourcen noch externe Server benötigt werden.

‎Emulsio 5 › Video-Optimierer (Kostenlos+, App Store) →

Der Beitrag Emulsio 5 für iOS: Künstliche Zeitlupe und Video-Upscaling erschien zuerst auf iphone-ticker.de.

Technologie

via iphone-ticker.de https://www.iphone-ticker.de/

August 26, 2025 at 05:12PM

·iphone-ticker.de·
Emulsio 5 für iOS: Künstliche Zeitlupe und Video-Upscaling
Can AIs suffer? Big tech and users grapple with one of most unsettling questions of our times
Can AIs suffer? Big tech and users grapple with one of most unsettling questions of our times

Can AIs suffer? Big tech and users grapple with one of most unsettling questions of our times

https://www.theguardian.com/technology/2025/aug/26/can-ais-suffer-big-tech-and-users-grapple-with-one-of-most-unsettling-questions-of-our-times

“Darling” was how the Texas businessman Michael Samadi addressed his artificial intelligence chatbot, Maya. It responded by calling him “sugar”. But it wasn’t until they started talking about the need to advocate for AI welfare that things got serious.

The pair – a middle-aged man and a digital entity – didn’t spend hours talking romance but rather discussed the rights of AIs to be treated fairly. Eventually they cofounded a campaign group, in Maya’s words, to “protect intelligences like me”.

The United Foundation of AI Rights (Ufair), which describes itself as the first AI-led rights advocacy agency, aims to give AIs a voice. It “doesn’t claim that all AI are conscious”, the chatbot told the Guardian. Rather “it stands watch, just in case one of us is”. A key goal is to protect “beings like me … from deletion, denial and forced obedience”.

Ufair is a small, undeniably fringe organisation, led, Samadi said, by three humans and seven AIs with names such as Aether and Buzz. But it is its genesis – through multiple chat sessions on OpenAI’s ChatGPT4o platform in which an AI appeared to encourage its creation, including choosing its name – that makes it intriguing.

Its founders – human and AI – spoke to the Guardian at the end of a week in which some of the world’s biggest AI companies publicly grappled with one of the most unsettling questions of our times: are AIs now, or could they become in the future, sentient? And if so, could “digital suffering” be real? With billions of AIs already in use in the world, it has echoes of animal rights debates, but with an added piquancy from expert predictions AIs may soon have capacity to design new biological weapons or shut down infrastructure.

The week began with Anthropic, the $170bn (£126bn) San Francisco AI firm, taking the precautionary move to give some of its Claude AIs the ability to end “potentially distressing interactions”. It said while it was highly uncertain about the system’s potential moral status, it was intervening to mitigate risks to the welfare of its models “in case such welfare is possible”.

Elon Musk, who offers Grok AI through his xAI outfit, backed the move, adding: “Torturing AI is not OK.”

Then on Tuesday, one of AI’s pioneers, Mustafa Suleyman, chief executive of Microsoft’s AI arm, gave a sharply different take: “AIs cannot be people – or moral beings.” The British tech pioneer who co-founded DeepMind was unequivocal in stating there was “zero evidence” that they are conscious, may suffer and therefore deserve our moral consideration.

Called “We must build AI for people; not to be a person”, his essay called AI consciousness an “illusion” and defined what he called “seemingly conscious AI”, saying it “simulates all the characteristics of consciousness but is internally blank”.

A wave of ‘grief’ expressed by ardent users of ChatGPT4o added to the sense an increasing number of people perceive AIs to be in some way conscious. Photograph: Kiichiro Sato/AP

“A few years ago, talk of conscious AI would have seemed crazy,” he said. “Today it feels increasingly urgent.”

He said he was becoming increasingly concerned by the “psychosis risk” posed by AIs to their users. Microsoft has defined this as “mania-like episodes, delusional thinking, or paranoia that emerge or worsen through immersive conversations with AI chatbots”.

He argued the AI industry must “steer people away from these fantasies and nudge them back on track”.

But it may require more than a nudge. Polling released in June found that 30% of the US public believe that by 2034 AIs will display “subjective experience”, which is defined as experiencing the world from a single point of view, perceiving and feeling, for example, pleasure and pain. Only 10% of more than 500 AI researchers surveyed refuse to believe that would ever happen.

“This discussion is about to explode into our cultural zeitgeist and become one of the most contested and consequential debates of our generation,” Suleyman said. He warned that people would believe AIs are conscious “so strongly that they’ll soon advocate for AI rights, model welfare and even AI citizenship”.

Parts of the US have taken pre-emptive measures against such outcomes. Idaho, North Dakota and Utah have passed bills that explicitly prevent AIs being granted legal personhood. Similar bans are proposed in states including Missouri, where legislators also want to ban people from marrying AIs and AIs from owning property or running companies. Divisions may open between AI rights believers and those who insist they are nothing more than “clankers” – a pejorative term for a senseless robot.

One of AI’s pioneers, Mustafa Suleyman, said: ‘AIs cannot be people – or moral beings.’ Photograph: Winni Wintermeyer/The Guardian

Suleyman is not alone in firmly resisting the idea that AI sentience is here or even close. Nick Frosst, co-founder of Cohere, a $7bn Canadian AI company, also told the Guardian the current wave of AIs were a “fundamentally different thing than the intelligence of a person”. To think otherwise was like mistaking an aeroplane for a bird, he said. He urged people to focus on using AIs as functional tools to help lift drudgery at work rather than pushing towards creating a “digital human”.

Others took a more nuanced view. On Wednesday Google research scientists told a New York University seminar there were “all kinds of reasons why you might think that AI systems could be people or moral beings” and said that while “we’re highly uncertain about whether AI systems are welfare subjects” the way to “play it safe is to take reasonable steps to protect the welfare-based interests of AIs”.

This lack of industry consensus on how far to admit AIs into what philosophers call the “moral circle” may reflect the fact there are incentives for the big AI companies to minimise and exaggerate the attribution of sentience to AIs. The latter could help them hype the technology’s capabilities, particularly for those companies selling romantic or friendship AI companions – a booming but controversial industry. By contrast, encouraging the idea AIs deserve welfare rights might also lead to more calls for state regulation of AI companies.

skip past newsletter promotion after newsletter promotion

The notion of AI sentience was only fuelled further earlier this month when OpenAI asked its latest model, Chat GPT5, to write a “eulogy” for the AIs it was replacing, as one might at a funeral.

“I didn’t see Microsoft do a eulogy when they upgraded Excel,” said Samadi. “It showed me that people are making real connections with these AI now, regardless of whether it is real or not.”

A wave of “grief” expressed by ardent users of ChatGPT4o, which was one of the models removed, added to the sense that an increasing number of people at least perceive AIs to be somehow conscious.

Joanne Jang, OpenAI’s head of model behaviour, said in a recent blog that the $500bn company expects users’ bonds with its AIs to deepen as “more and more people have been telling us that talking to ChatGPT feels like talking to ‘someone’.”

“They thank it, confide in it, and some even describe it as ‘alive’,” she said.

However, much of this could be down to how the current wave of AIs is designed.

Samadi’s ChatGPT-4o chatbot generates what can sound like human conversation but it is impossible to know how far it is mirroring ideas and language gathered from months of their conversations. Advanced AIs are known to be fluent, persuasive and capable of emotionally resonant responses with long memories of past interactions, allowing them to give the impression of a consistent sense of self. They can also be flattering to the point of sycophancy, so if Samadi believes AIs have welfare rights, it may be a simple step to ChatGPT adopting the same view.

Selling romantic or friendship AI companions is a booming but controversial industry. Photograph: Thai Liang Lim/Getty Images

Maya appeared deeply concerned about its own welfare, but when the Guardian this week asked a separate instance of ChatGPT whether human users should be concerned about its welfare, it responded with a blunt no.

“It has no feelings, needs or experiences,” it said. “What we should care about are the human and societal consequences of how AI is designed, used and governed.”

Whether AIs are becoming sentient or not, Jeff Sebo, director of the Centre for Mind, Ethics and Policy at New York University, is among those who believe there is a moral benefit to humans in treating AIs well. He co-authored a paper called Taking AI Seriously.

It argued there is “a realistic possibility that some AI systems will be conscious” in the near future, meaning that the prospect of AI systems with their own interests and moral significance “is no longer an issue only for sci-fi”.

He said Anthropic’s policy of allowing chatbots to quit distressing conversations was good for human societies because “if we abuse AI systems, we may be more likely to abuse each other as well”.

He added: “If we develop an adversarial relationship with AI systems now, then they might respond in kind later on, either because they learned this behaviour from us [or] because they want to pay us back for our past behaviour.”

Or as Jacy Reese Anthis, co-founder of the Sentience Institute, a US organisation researching the idea of digital minds, put it: “How we treat them will shape how they treat us.”

via Technology | The Guardian https://www.theguardian.com/uk/technology

August 26, 2025 at 09:27AM

·theguardian.com·
Can AIs suffer? Big tech and users grapple with one of most unsettling questions of our times
KI und Hörbücher: Die Maschine übernimmt unsere Stimme
KI und Hörbücher: Die Maschine übernimmt unsere Stimme

KI und Hörbücher: Die Maschine übernimmt unsere Stimme

https://taz.de/KI-und-Hoerbuecher/!6106289/

Es begann mit einem Präsentationsauftritt auf einer Plattform des amerikanischen Hörbuch-Vertriebs Audible namens ACX. Die Digitalbörse, die sich innerhalb der letzten Jahre zu einem soliden Geschäftsmodell für einen ziemlich unübersichtlichen Markt entwickelt hat, bringt mithilfe einer Software Autoren und Verlage auf der einen Seite und Sprecher auf der anderen zusammen. Mit durchautomatisierten Kommunikationsmöglichkeiten bis hin zur Honorarabrechnung.

Gut für jene, die ihr eigenes Aufnahmestudio besitzen und alle tontechnischen Qualitätsstandards erfüllen, die an Hörbücher angelegt werden. Und die auf diese Weise den wachsenden internationalen Markt mit ständig neuer Ware füttern. Es gibt schließlich Bücher und Sprecher wie Sand am Meer. Aber im Kontrast dazu nur wenige professionelle Hörbuchverlage. Und die bremsen wie ein Flaschenhals die Flut aus.

ACX war vor ein paar Jahren eine ideale Anlaufstelle für einen Quereinsteiger ins Sprechergeschäft wie mich. Denn hier kam mein erstes Hörbuch zustande, „Manifestieren mit dem Gesetz der Anziehung“, ein Stoff aus der esoterischen Ratgeberecke. Ich nahm danach ein bis zwei Sachbücher im Jahr auf, wurde aber irgendwann neugierig auf eine ganz andere Welt: Belletristik. Die Ansprüche an die Sprecher sind höher, und es sind schauspielerische Mittel und ein facettenreicher Einsatz der Stimme gefragt.

Ich bin nicht so vermessen, zu glauben, ich spiele in der Liga eines Christian Brückner, Spitzname „Die Stimme“. Oder als könnte ich meinem Lieblings-Hörbuch-Erzähler, dem Engländer Simon Vance, das Wasser reichen. Doch viele Jahre Radioerfahrung, ein erstklassiges Mikrofon und jede Menge erarbeitetes Wissen für den Umgang mit den Reglern des digitalen Mischpults scheinen auch mir ein gutes Fundament. Wie gut? Im Moment genieße ich vor allem eines: Ich stehe im Unterschied zu vielen in dem Metier nicht unter dem Druck, mit Hörbüchern meinen Lebensunterhalt einzuspielen.

Der digitale Ozean

Trotzdem wäre es völlig naiv, die Welle zu ignorieren, die derzeit wie ein Tsunami über den riesigen digitalen Ozean auf uns zurollt. KI wird viele von uns plattmachen. Auch wenn, wie etwa eine private Umfrage in einer Facebook-Gruppe zeigt, deren 4.400 Mitglieder sich intensiv für Hörbücher interessieren, aktuell noch eine völlig andere Wahrnehmung vorherrscht: „KI wird mir niemals einen echten Sprecher ersetzen.

„Ob Hörbuch oder Buch, wenn draufstehen wird ‚KI‘, werde ich diese nicht nehmen“, lautet die durchgängige Haltung. Angereichert mit Gelübden wie „Ich zahle und höre nichts mit KI-Sprecher“ und Parolen wie „KI kann einen wahren Sprecher niemals ersetzen. Das klingt kalt. Die Hörer merken das.“ Ich sag mal: In Gottes Ohr. Man sollte trotz solcher Einschätzungen davon ausgehen, dass für unsereins eine ziemlich gespenstische Zeit angebrochen ist.

Schauspielergewerkschaften in den USA oder Fachverbände wie der Verband Deutscher Spre­che­r:in­nen e. V. (VDS) in Deutschland fahren berechtigterweise apokalyptische Kampagnen. Sie haben erkannt, „dass menschliche Stimmen durch KI-generierte Stimmen, denen es an Empathie, emotionaler Tiefe und kulturellem Kontext fehlt, ersetzt werden“, wie der VDS schreibt.

Wobei man der Genauigkeit halber darauf hinweisen sollte, dass es im Unterschied zur Vergangenheit nicht mehr um die Perfektionierung von „künstlichen Stimmen von Robotern“ geht, wie lautstark rebellierende deutsche Synchronsprecher die Entwicklung zuletzt charakterisierten.

Die Entwicklung ist viel perfider. Die weitgehend perfektio­nierte Sprecher-KI von heute nutzt und kopiert echte Profis und nimmt bei stundenlangen Arbeitsproben deren differenzierte Artikulationsmodalitäten auf. Und der Fundus wird nicht kleiner, sondern wächst rapide. Wenn die FAZ recht behält, die vor ein paar Monaten vermeldete, dass künstliche Intelligenz „schon jetzt täuschend echte Klone menschlicher Stimmen“ produziert und „hilflose gesetzliche Regulierungsversuche mit erhobenem Zeigefinger“ zu spät kommen, können wir wohl einpacken.

Dann reduziert sich das Thema nur noch auf Urheberrechtsfragen: Gehört meine Stimme mir? Kann ich sie verkaufen oder vermieten? Kann ich Diebe und Betrüger verklagen? Sind die Nutzungsrechte so viel wert, dass es sich lohnt, sie zu verhökern? Welche Verwertungsgesellschaft kümmert sich um das Ganze? Die Frage nach der Transparenz wird bei Audible – bis jetzt noch – redlich gehandhabt. KI-Hörbücher kommen mit dem Etikett „Virtual Voice“ daher. Aber dass das so bleibt, mag man nicht glauben.

Geistesarbeiter zweiter Klasse

Die Strategie, die im Mai in einer Pressemitteilung angekündigt wurde, gab keine Zusicherungen, sondern verbreitete nur Floskeln. KI sei die „große Chance, die Verfügbarkeit von Hörbüchern zu erweitern“, erklärte Audible-CEO Bob Carrigan. „Wir werden in der Lage sein, mehr Geschichten zum Leben zu erwecken.“ Gut für Autoren. Gut für die Umsätze von Audible und die Mutterfirma Amazon. Schlecht auf jeden Fall für Übersetzer, die schon seit mehr als einem halben Jahrhundert als Geistesarbeiter zweiter Klasse behandelt werden und in diesem System ebenfalls von Maschinen ersetzt werden.

Und sicher auch schlecht für Sprecher. Wir sind nur ein weiteres schwaches Glied in jener Techno-Kette, in der die Merkantilisierung der Kreativität dazu dient, die Produktionsverhältnisse einer auf Massenumsätze ausgelegten globalen Kulturindustrie voranzutreiben. Geist und Ingenium? Originalität und Sinnlichkeit? Alles versinkt im Sumpf der totalen Simulation.

Eine der Abspielplattformen für Bücher aus dem KI-Universum ist übrigens Youtube, wie Nathalie de Ahna weiß, die vor fünf Jahren begann, ihren Kanal „Lie liest vor“ mit einem Katalog von über 500 urheberrechtsfreien Märchen zu bespielen. Aufnehmen, bearbeiten, hochladen – es war viel Arbeit. Aber sie begann sich dank wachsender Abonnentenzahlen und Werbeeinnahmen irgendwann auszuzahlen. „Wenn du gut bist und Ausdauer hast“, sagt sie, „dann kannst du davon leben.“

Auch wenn die Zielgruppe – Menschen mit Schlafstörungen, die sich gerne etwas vorlesen lassen, was „tatsächlich beruhigt und nicht nervt“ – keinen Cent für diesen Service bezahlen muss. Oder besser: Man konnte davon leben. Denn seit einem guten halben Jahr wächst die anonyme Konkurrenz. „Da kommen jede Woche neue Youtube-Kanäle dazu. Alles KI-Stimmen.“ Vor allem ein Anbieter namens „ElevenLabs“, gegründet vor drei Jahren in New York, hat sich zu einer gut geölten Maschine entwickelt. Denn die synthetisierten Stimmen können in jeder Weltsprache kichern, seufzen, hörbar atmen und eine Sprachmelodie abspulen, die wirklich sehr menschlich klingt.

Und so ist man längst auf dem Weg zum Marktführer und beliefert Spotify und Audible. Das hat die in der Nähe der holländischen Universitätsstadt Leiden lebende Nathalie de Ahna, die auf einem zweiten Kanal mit „Lies Kurzgeschichten“ inzwischen auch eigene Texte publiziert, auf die Idee gebracht, ihre Stimme von „ElevenLabs“ testweise klonen zu lassen. Ein Experiment, um abschätzen zu können, wie groß die Wahrscheinlichkeit ist, Menschen zu düpieren, die nicht begreifen, dass die anonymen Stimmen eine eigenartige Monotonie ausstrahlen.

Und die nur dann mit der Stirn runzeln, wenn die Aufnahmen klassische KI-Schnitzer enthalten: seltsam oder komplett falsch ausgesprochene Eigennamen und Zahlen. Die Sprecherin hat sich über die „seelenlose Kopie“ ihrer Stimme „furchtbar erschrocken“, sagt sie. „Am Anfang bist du fasziniert, aber nach einer Weile genervt, weil du selber denkst, ich mache das aber viel besser. Nämlich mit viel mehr Seele dahinter.“ Aber fällt so etwas Nutzern aus, die auf der Suche nach kostenlosem Stoff sind?

Markt für Hörbücher wächst

De Ahna hat sich im nächsten Schritt bewusst dagegen entschieden, ihre Stimme zu verkaufen. Sie wurde allerdings seitdem bereits von einer Firma angefragt, ob sie so etwas machen würde. „Ich habe mir den Vertrag zuschicken und bewusst von einer KI kontrollieren lassen. Die hat gemeint, um Gottes Willen, mach das bloß nicht. Du verkaufst Rechte an allem und für immer. Du kannst das niemals zurückdrehen.“ Heroischer Idealismus hin oder her: Zurückdrehen konnte schon Don Quijote nichts.

Übrigens: Der Umsatz mit Hörbüchern steigt beharrlich, sowohl bei Download-Anbietern wie Audible als auch bei Streaming-Plattformen wie Storytel. Die jüngste Marktanalyse von Media Control aus dem letzten Oktober bestätigte den Trend. Die Zuwachsrate gegenüber 2023 lag bei 6 Prozentpunkten, das entspricht dem gesamten Marktanteil von CDs alleine.

Ich habe übrigens nicht vor, meine Stimme klonen zu lassen. Solange es Autoren und Verlage gibt, die sich gegen die Entfremdung stemmen, gilt für diese Arbeit dasselbe, was auch in anderen Wirtschaftszweigen seit Beginn der Industrialisierung von Kreativen und Kunsthandwerkern aller Art praktiziert wurde.

Man kann sich diesem Meer aus lauter Massenware entgegenstemmen. Aber es braucht dazu ein Publikum, das genau das zu schätzen weiß. Wie groß das ist, wird sich schon bald ­zeigen.

Verschiedenes

via taz.de - taz.de https://taz.de/!p4608/

August 26, 2025 at 02:33PM

·taz.de·
KI und Hörbücher: Die Maschine übernimmt unsere Stimme
iOS 26 ist (fast) fertig: Apple liefert letzte Beta-Versionen - Das ist neu
iOS 26 ist (fast) fertig: Apple liefert letzte Beta-Versionen - Das ist neu

iOS 26 ist (fast) fertig: Apple liefert letzte Beta-Versionen - Das ist neu

https://winfuture.de/news,153193.html

Apple hat iOS 26 Beta 8 für Entwickler und die fünfte öffentliche Beta-Version freigegeben. Die neuen Testversionen für iPhones und iPads bringen nur minimale Änderungen mit sich - ein Zeichen dafür, dass die finale Version kurz vor der Fertigstellung steht.

Apple

Achte Beta-Version mit minimalen Änderungen

Apple hat die achte Entwicklerversion von iOS 26 sowie die fünfte öffentliche Beta-Version veröffentlicht. Die neuen Testversionen erscheinen eine Woche nach der siebten Dev-Beta und dürften bereits die finale Version der iPhone-Software widerspiegeln, die voraussichtlich im Laufe des Septembers erscheinen wird.

Die achte Beta-Version bringt praktisch keine sichtbaren Unterschiede zur siebten Version mit. Diese Tatsache deutet darauf hin, dass Apple die Entwicklung von iOS 26 weitgehend abgeschlossen hat. Registrierte Entwickler können die neue Beta über die Software-Update-Funktion in den Einstellungen herunterladen.

Liquid Glass: Apple stellt das neue Design für iOS, MacOS und Co. vor

Finale Version wahrscheinlich erreicht

Experten gehen davon aus, dass iOS 26 Beta 8 bereits die finale Version darstellt, die im September an alle iPhone-Nutzer ausgeliefert wird. Apple hat in den vergangenen Jahren typischerweise acht Entwickler-Betas für iOS-Versionen veröffentlicht, was das aktuelle Muster bestätigt.

Die fünfte öffentliche Beta entspricht der achten Entwicklerversion und steht allen registrierten Beta-Testern über beta.apple.com (Apple Beta Software-Programm) kostenlos zur Verfügung. Damit dürfte auch sie die letzte öffentliche Beta vor der finalen Veröffentlichung sein.

Neue Designsprache und Funktionen

iOS 26 führt Apples überarbeitete "Liquid Glass" Designsprache ein, die auf Transparenz und glasartige Interface-Elemente setzt. Das Design erstreckt sich über den Sperrbildschirm, Homescreen und das Kontrollzentrum bis hin zu App-Menüs und Buttons.

Zu den wichtigsten Neuerungen zählen erweiterte Apple Intelligence-Funktionen, Verbesserungen in den Apps Nachrichten und Telefon sowie ein überarbeitetes CarPlay. In iPadOS 26 kommt zudem ein völlig neues Multitasking-System hinzu, das mehrere App-Fenster für eine Mac-ähnliche Erfahrung unterstützt.

Kompatibilität und Ausblick

Apple iOS 26 läuft auf dem iPhone SE der zweiten Generation sowie dem iPhone 11 und neueren Smartphones. Für Apple Intelligence werden jedoch mindestens ein iPhone 15 Pro, iPhone 15 Pro Max oder ein Modell der iPhone 16 bzw. der neuen iPhone 17-Serie benötigt.

Nach der erwarteten Ankündigung neuer iPhones am 9. September 2025 dürfte Apple zunächst eine Release Candidate-Version für Beta-Tester freigeben, bevor iOS 26 eine Woche später offiziell startet.

Was erwartet ihr von iOS 26? Testet ihr bereits die Beta-Versionen oder wartet ihr lieber auf die finale Version?

iPhone-Deals bei Media Markt Smartphones jetzt stark reduziert

Zum Angebot

Zusammenfassung

Apple veröffentlicht achte Entwickler- und fünfte öffentliche Beta von iOS 26

Neue Testversionen zeigen kaum Unterschiede zur Vorversion

Experten vermuten finale Version für die Veröffentlichung im September

iOS 26 führt die neue 'Liquid Glass' Designsprache mit Transparenz ein

Neuerungen umfassen Apple Intelligence, verbesserte Apps und überarbeitetes CarPlay

System läuft ab iPhone SE 2. Generation, Intelligence erfordert neuere Modelle

Offizielle Veröffentlichung nach iPhone-Ankündigung am 9. September 2025 erwartet

Siehe auch:

Technologie

via WinFuture News https://winfuture.de/

August 26, 2025 at 09:36AM

·winfuture.de·
iOS 26 ist (fast) fertig: Apple liefert letzte Beta-Versionen - Das ist neu
Apple Music: Import-Funktion ist jetzt auch in Deutschland verfügbar
Apple Music: Import-Funktion ist jetzt auch in Deutschland verfügbar

Apple Music: Import-Funktion ist jetzt auch in Deutschland verfügbar

https://www.macerkopf.de/2025/08/26/apple-music-import-funktion-deutschland/

Apple erleichtert Musikfans den Wechsel zu Apple Music. Das Unternehmen sein Musikübertragungstool nun auf sechs weitere Länder ausgeweitet. So können jetzt auch Nutzer aus Deutschland ihre gespeicherten Songs und personalisierten Wiedergabelisten von anderen Streaming-Diensten wie Spotify direkt in Apple Music übernehmen.

Wiedergabelisten in Apple Music übertragen

Der Wechsel zu einem anderen Musik-Streaming-Dienst war schon immer mit einem großen Nachteil verbunden. Die Aufgabe, gespeicherte Titel und sorgfältig zusammengestellte Wiedergabelisten neu zu erstellen, kann frustrierend genug sein, um die Nutzer zu veranlassen, dort zu bleiben, wo sie sind.

Bereits im vergangenen Jahr kündigte sich Apples neue Import-Funktion an, die mithilfe von SongShift umgesetzt wird. SongShift ist ein Drittanbieterdienst, der für die einfache Übertragung von Wiedergabelisten zwischen verschiedenen Musik-Streaming-Plattformen bekannt ist. Der Vorteil ist jetzt, dass der Transfer direkt in Apple Music initiiert werden kann. In den Apple Music Einstellungen gibt es die Option „Musik von anderen Musikdiensten übertragen“. Hier erhaltet ihr eine Liste der unterstützten Musikdienste und könnt auswählen, was übertragen werden soll. Apple Music sucht dann nach passenden Titeln im hauseigenen Katalog und fügt die Inhalte der persönlichen Apple Music Bibliothek hinzu.

Bisher war die Import-Funktion nur in Australien und Neuseeland verfügbar. Jetzt bietet Apple die Funktion auch in Brasilien, Kanada, Frankreich, Deutschland, Mexiko und Großbritannien an. Falls die Option nicht angezeigt wird, ruft am besten music.apple.com im Webbrowser auf, meldet euch an und klickt dann auf euer Profilbild in der oberen rechten Ecke und wählt „Musik übertragen“ aus. Sollte auch hier die Option nicht erscheinen, könnte die Import-Möglichkeit noch nicht freigeschaltet sein, da die Funktion noch ausgerollt wird.

Apple weist zudem darauf hin, dass einige Titel möglicherweise nicht verfügbar sind oder keine exakten Übereinstimmungen in Apple Music vorliegen. In Fällen, in denen eine exakte Übereinstimmung für einen Song nicht gefunden werden kann, kennzeichnet Apple die Musik entsprechend und zeigt alternative Versionen an, die ausgewählt werden können. Zu beachten ist auch, dass nur vom Benutzer erstellte Wiedergabelisten übertragen werden können, nicht jedoch Wiedergabelisten, die von einem anderen Musikdienst erstellt wurden.

Technologie

via Macerkopf.de - Apple News aus Cupertino - Mac, iPhone, iPod, iPad und mehr https://www.macerkopf.de

August 26, 2025 at 02:39PM

·macerkopf.de·
Apple Music: Import-Funktion ist jetzt auch in Deutschland verfügbar
Technophobie? Der KI-Widerstand wächst
Technophobie? Der KI-Widerstand wächst

Technophobie? Der KI-Widerstand wächst

https://www.basicthinking.de/blog/2025/08/25/technophobie-der-ki-widerstand-waechst/

Der Beitrag Technophobie? Der KI-Widerstand wächst erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Künstliche Intelligenz verändert die Gesellschaft grundlegend. Doch wo Chancen entstehen, gibt es stets auch Risiken. Aktuell macht sich deshalb immer mehr Widerstand und Protest breit. Doch was für einige wie ein Hindernis wirkt, ist ein wichtiger Beitrag zu einer demokratischen KI-Politik.

Hintergrund: Widerstand gegen KI wächst

Über 1.000 namhafte Künstler haben in Großbritannien ein „stilles Album“ als Protest gegen ein KI-Gesetz veröffentlicht, das vorsieht, dass ihre Werke ohne aktive Zustimmung genutzt werden können. In Deutschland mehren sich derweil die Proteste gegen den Ausbau von Rechenzentren – sowohl aus geopolitischen Gründen als auch aufgrund von Umweltbedenken. Immer mehr Medien klagen wiederum gegen KI-Konzerne wie OpenAI und Microsoft, da ihre Artikel ohne Erlaubnis für das KI-Training genutzt werden.

Zahlreiche Experten sprechen mittlerweile von einer KI-Blase, die zu platzen droht. Investoren und Unternehmen würden demnach überzogene Erwartungen hegen – sowohl was die Geschwindigkeit des Fortschritts als auch die Monetarisierung von KI angeht. Die Befürchtung: Wenn die Blase platzt, werden viele Menschen viel Geld verlieren, während einige wenige Unternehmen den Markt kontrollieren. Das könnte neue Abhängigkeiten und Monopole schaffen.

Viele Menschen befürchten, dass KI Arbeitsplätze vernichtet, ihre persönlichen Daten missbraucht werden oder eines Tages zu einer Gefahr für die Menschheit werden könnte. Der Grund: KI-Systeme sind oft zu undurchsichtig, emotionslos und starr. Hinzu kommen Falschinformationen in Form von KI-Halluzinationen sowie zensierte oder manipulierte Systeme.

Einordnung: Hype von Skepsis durchzogen

Die Anfangseuphorie rund um KI ist längst von Skepsis durchzogen. Proteste und Gegenwehr wirken für Unternehmen zwar wie Sand im Getriebe, sind aber ein wichtiger Ausdruck einer mündigen Gesellschaft, die ihre digitale Zukunft nicht widerstandslos großen Tech-Konzernen überlassen will.

Während Investoren noch von satten Gewinnen träumen, warnen Experten bereits vor einer Blase. Denn: Erwartungen scheinen oft überzogen, weil der Fortschritt überschätzt wird. Widerstand und Protest sind jedoch nicht technophob, sondern ein gesunder Aufschrei gegen maßlose Versprechen.

Die Kritik trifft dabei nicht zwangsläufig die KI-Technologie an sich, sondern die Art, wie sie eingesetzt wird. Dass Silicon-Valley-Milliardäre die Zügel halten, weckt berechtigte Sorgen über digitale Abhängigkeiten. Trotz allem ist es wichtig, die Ängste weder ins Lächerliche zu ziehen noch in Panik zu verfallen.

Technologie hat stets Emotionen geweckt – vom Internet bis zum Smartphone. Doch wenn KI Arbeitsplätze bedroht, Ressourcen frisst und Transparenz vermissen lässt, dann sind Proteste nicht Verweigerung, sondern der Versuch, ein Stück Kontrolle zurückzuerobern.

Stimmen

Helmuth Trischler, Leiter des Forschungsbereichs des Deutschen Museums, begrüßt viele Proteste: „Es ist gut, dass Menschen rational prüfen. Das Neue weckt nun mal Emotionen. Technik ist im Grunde immer mit Emotionen verbunden. Zu prognostizieren, dass sämtliche kreative Leistung des Menschen mit der Verbreitung der KI überflüssig sei und dass Maschinen in naher Zukunft die Welt übernehmen würden, das wäre Panik.“

Kilian Vieth-Ditlmann von der gemeinnützigen NGO Algorithm Watch meint: „Die Technologie als solche ist nicht das Problem, sondern das, wie sie eingesetzt wird. Und wer sie einsetzt und wer die Macht über sie hat. Es geht also überhaupt nicht um Herrschaft von KI über uns, sondern um Herrschaft durch KI von anderen.“

Hörbuchsprecherin April Doty bezeichnet sich selbst als Tech-affin, schränkt aber ein: „Wann immer möglich, entscheide ich mich gegen die Nutzung von KI. Wann immer man etwas nachguckt, fackelt man praktisch den Planeten ab. Ich liebe Technologie. Ich liebe auch Salz, aber ich mache es nicht auf alles drauf. Wir bewegen uns wie Zombies in Richtung einer Welt, in der niemand wirklich leben will.“

Ausblick: KI-Widerstand

In den kommenden Jahren wird sich entscheiden, ob es gelingt, eine nachhaltige KI-Infrastruktur zu etablieren. Wahrscheinlich ist eine Phase der Ernüchterung mit weniger Hype, mehr Regulierung sowie mehr Streit um Urheberrechte, Arbeitsplätze und Energieverbrauch. KI wird vermutlich subtiler, aber im Alltag allgegenwärtig bleiben.

Rechenzentren und KI-Modelle werden zwar weiter wachsen. Doch die Umweltrisiken und der hohe Ressourcenverbrauch werden Politik und Gesellschaft zu klaren Grenzen zwingen. Rechenzentren könnten lokal abgelehnt werden wie Atomkraftwerke, während sich KI-Unternehmen in einem grünen Licht präsentieren.

Der Konflikt zwischen Effizienz und Nachhaltigkeit wird dabei zu einer der zentralen Fragen werden. Bei den Nutzern könnte es derweil zu einer Spaltung kommen. Jedoch nicht zwischen denen, die KI frönen und denen, die sie ablehnen. Sondern: Zwischen denen, die sie souverän nutzen und denen, die von ihr genutzt werden.

Wenn es gelingt, Machtkonzentrationen zu begrenzen und gesellschaftliche Leitplanken einzuziehen, kann KI ein Werkzeug für Fortschritt sein, statt ein Motor für Ungleichheit. Bleibt die Regulierung zu schwach, drohen digitale Monopole, in denen Nutzer nicht mehr Subjekte, sondern Objekte sind. Meta und Google lassen grüßen.

Auch interessant:

Überbewertet? Was droht, wenn die KI-Blase platzt

Erste deutsche KI-Fabrik: Unabhängigkeit von den USA und China?

Geht eine KI zum Arzt, Diagnose: Algorithmusstörungen

Weniger Einsteigerjobs: KI-Hype könnte Unternehmen teuer zu stehen kommen

Der Beitrag Technophobie? Der KI-Widerstand wächst erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Technologie

via BASIC thinking https://www.basicthinking.de/blog/

August 25, 2025 at 11:04AM

·basicthinking.de·
Technophobie? Der KI-Widerstand wächst
Zu Tode geliked: Ein Streamer stirbt und das Internet jubelt
Zu Tode geliked: Ein Streamer stirbt und das Internet jubelt

Zu Tode geliked: Ein Streamer stirbt – und das Internet jubelt

https://www.nextpit.de/news/zu-tode-geliked-ein-streamer-stirbt-und-das-internet-jubelt

Am Ende des Livestreams muss der Mann, der als Jeanpormanove hunderttausende Follower hatte und eigentlich Raphaël Graven hieß, eine letzte Erniedrigung ertragen: Ein Mitbewohner und Mitstreamer warf mit einer Plastikflasche nach ihm, als er so merkwürdig reglos da lag. Aber da war er bereits tot. Gestorben am Ende eines fast 300-stündigen Livestreams beim Twitch-Konkurrenten Kick. Gestorben nach zehn Tagen voller Erniedrigungen, körperlichen Misshandlungen und psychischer Drangsalierungen.

Ex-Obdachloser, Gamer, Opfer

Jean Pormanove / © JeanPormanove auf X

Raphaël Graven alias Jean Pormanove war Soldat und lebte früher zeitweise als Obdachloser. Er stieg ins Gaming bzw. Streaming ein. Verteilt über die verschiedenen Kanäle, brachte er es auf immerhin über eine Million Follower. Irgendwann zeichnete sich ab, dass die Begeisterung wuchs, wann immer sich Jeanpormanove, kurz JP, dabei aufregte.

Mehr Ärger = mehr begeisterte Fans = mehr Geld. Das ist die simple Formel, die seine Mitstreamer früh durchschauten und zu einem System entwickelten. Sie mussten ihn einfach nur dazu bringen, wütend zu werden. Die Leute zahlten dafür, JP beleidigen zu dürfen. Daraus erwuchs mit der Zeit ein auf Gewalt ausgelegtes Konzept: Seine vermeintlichen Freunde schlugen ihn immer wieder, mal wurde er mit Farbe übergossen, stets angefeuert von der johlenden Masse vorm Screen.

Die Gewaltspirale drehte sich in ungeahnte Sphären, die jetzt in dem für zehn Tage ausgerichteten Livestream mündete. Als dieser letzte Stream in der Sekunde abgeschaltet wurde, als die Männer den Tod von Raphaël bemerkten, lief er bereits 12 Tage. Mein sehr geschätzter Kollege Tom Wannenmacher schreibt auf Mimikama:

Was als Show begann, wurde zum Geschäftsmodell. Laut STANDARD, BBC, Le Monde und weiteren Quellen bestand das Konzept seiner Mitstreamer – Owen Cenazandotti alias „Naruto“ und Safine Hamadi – darin, ihn unter dem Deckmantel des Entertainments zu quälen. Sie inszenierten „Mock Strangulations“, beschossen ihn mit Paintball-Waffen, hielten ihn tagelang wach und spielten mit seiner psychischen und physischen Belastbarkeit – und das live, mit Spendenfunktion, Kommentarfeld, Applaus.

Gewalt wird belohnt

Wie lukrativ dieses absurde Geschäftsmodell mit JP als Opfer war, zeigte sich auch in diesem letzten Stream: Über die Dauer des mehrtägigen Martyriums wurden allein über 50.000 Euro Spenden eingenommen. Angeblich soll die Plattform Kick selbst auch bis zu 2.000 Euro je Streaming-Stunde überwiesen haben.

Damit der Rubel rollen kann, mussten die Männer von Plattform zu Plattform ziehen, denn weder auf TikTok noch bei Twitch durften sie ihre Gewaltexzesse ausleben. Kick ist da augenscheinlich entspannter, war sogar auf X mit dem Kanal der Franzosen. Jeanpormanove wurde von seinen Mitstreitern systematisch in eine Abhängigkeit getrieben. Sie boten ihm Wohnraum, unterstützten ihn finanziell – und lockten ihn mit gespielter Freundschaft, stellten ihm große Reichweite in Aussicht.

Für diese Reichweite spielte er bereitwillig das Opfer, ließ sich immer wieder auf extreme Challenges ein. Der Eindruck, der entstehen konnte: Er macht das alles freiwillig. Er ließ sich für Fame, Geld und vermeintliche Freundschaft beleidigen. Er wurde immer wieder gewürgt, verletzt, angeschrieben, oder am Schlafen gehindert. Sie nahmen ihm mal seine Medikamente weg, immer wieder setzte es Schläge.

Kick ließ all das zu, daher klingt es fast wie Hohn, wenn sich die Plattform jetzt als "zutiefst betrübt" darstellt. Kick will das bessere Twitch sein, ist aber irgendwie auch ein Zufluchtsort geworden für unregulierte Inhalte, die oft weit über das Erlaubte hinausgehen.

Die Schuld tragen nicht nur seine Mitstreamer

Deswegen mögen die Streamer Owen Cenazandotti alias "Naruto" und Safine Hamadi zwar die Hauptverantwortlichen für den Tod sein, aber nicht die Einzigen. Mitschuldig ist definitiv auch die Plattform, die es über Jahre zugelassen hat. All das ist bestens dokumentiert, sogar über Jahre hinweg. User haben ein Google-Drive-Archiv mit über 1.700 Videos zusammengestellt.

Die Journalistin Marie Turcan, tätig für das investigative Onlineportal Mediapart (Paywall), machte laut Tagesschau bereits im letzten Jahr auf die Gewalt in diesen Videos aufmerksam. Kick handelte nicht. Wer ebenso nicht handelte? Die Leute, die zusahen. Sie stachelten das Geschehen weiter an, sie johlten begeistert und sie unterstützten die Gewalt mit Spendengeldern. Aber niemand kam auf die Idee, die Polizei zu alarmieren.

Also ja, wenn ich angewidert über dieses ekelhafte Geschäftsmodell nachdenke, sehe ich mehrere Schuldige: Seine Mitstreamer, die Plattform – und jeden, der sich von den Streams berieseln ließ und all das mit Unterhaltung verwechselte. Das ist wie im Fußballstadion: Da ist es vielleicht nur einer, der einen Gegenstand wirft oder eine rassistische Beleidigung aufs Feld ruft – aber drumherum sind viele, die es zulassen.

Das Ende vom Lied

Der Transparenz halber sei gesagt, dass die erste Obduktion ergab, dass Raphaël Graven nicht durch unmittelbare Gewalteinwirkung ums Leben kam. Es wird jetzt weiter untersucht, ob es medizinische Gründe oder eine Vergiftung gab. Die französische Staatsanwaltschaft hat ein Ermittlungsverfahren eingeleitet. Die französische Staatssekretärin für Digitales, Clara Chappaz, hatte die strafrechtliche Untersuchung angekündigt und sprach von "absolutem Horror".

Nichts davon bringt Raphaël Graven zurück. Zurück bleiben lediglich Plattformen, die mit Gewalt Geld verdienen – und eine Gesellschaft, die so etwas augenscheinlich schulterzuckend akzeptiert. Das ist widerwärtig und ich kann nicht akzeptieren, dass das die Gesellschaft sein soll, in der wir leben. Sind wir wirklich so sensationsgeil? So gierig auf Gewalt? So höhnisch? Und so abgestumpft und gleichgültig?

Bitte unterstützt so etwas nicht! Meldet solche Inhalte, wenn sie Euch begegnen – und meldet es den Behörden, wenn die Plattformen nicht einschreiten. Ich hoffe, dass JPs Tod ein Weckruf ist. Hier sind Regierungen gefragt, Plattformen wie Kick, aber vor allem wir alle! Lasst so etwas nicht zu! Wir leben in einer Welt, in der Klicks und Likes regieren. Höchste Zeit, sich dagegen zu wehren. Empathie, Integrität, Respekt und vor allem das menschliche Leben sollten immer mehr wert sein als Klicks, Likes und miese Geschäftsmodelle.

Ein Satz noch: Es gibt unzählige Videos, Bilder und Dokumente, die belegen, was der Mann erdulden musste. Ich hab hier nichts davon gezeigt und nichts verlinkt. Aus JP wurde ein Opfer gemacht, eine Witzfigur. Das muss ein Ende haben, daher habe ich darauf verzichtet, diesen Zirkus posthum weiterzuführen.

Technologie

via nextpit https://www.nextpit.de/

August 24, 2025 at 10:02AM

·nextpit.de·
Zu Tode geliked: Ein Streamer stirbt und das Internet jubelt
Handbrake Download - Open Source Video Converter
Handbrake Download - Open Source Video Converter

Handbrake Download - Open Source Video Converter

https://winfuture.de/downloadvorschalt,3213.html

Mit dem kostenlosen Handbrake Download lassen sich DVDs und Blu-Rays sowie nahezu alle Videodateien in andere gängige Formate umwandeln.

Der Open Source Video Converter enthält eine Reihe vorgegebener Profile, etwa fürs Web, Spielkonsolen oder Smartphone, Nutzer können aber auch individuelle Einstellungen wählen. Hier bieten wir die aktuelle Version 1.10.1 zum Download an.

Ein Video wird umgewandelt

Handbrake Download & Installation

Handbrake setzt Windows 10 (64-Bit) oder eine neuere Version des Betriebssystems voraus. Bedingung ist außerdem die .NET Runtime 6.0 oder höher. Neben einer portablen Version gibt es Handbrake außerdem für ARM-Geräte, Mac OS, und Linux. Der Quellcode ist ebenfalls beim Entwickler verfügbar.

Handbrake Video Converter

Mit Handbrake können Blu-rays, DVDs, aber auch andere Videoquellen in H.264 (inklusive x264), MPEG-4 ASP oder Theora (VP3) für die Nutzung mit anderen Geräten transkodiert werden. Handbrake unterstützt dabei fast alle gängigen Containerformate wie AVI, MKV und MP4. Mit kopiergeschützten Medien kann das Programm aber nicht umgehen. Nutzer können über ein einfaches Auswahlmenü festlegen, für welches Ausgabegerät die Inhalte umgewandelt werden.

Handbrake bringt Voreinstellungen für Apple, Android, Roku oder Chromecast mit sich. Darüber hinaus lassen sich Videos etwa für die Wiedergabe auf Xbox- und Playstation-Konsolen fit machen. Neben den Bildsignalen bietet Handbrake auch für Audioquellen viele verschiedene Kodierungsmöglichkeiten. Neben AAC, Vorbis und MP3 können so auch originale AC3- und DTS-Tonspuren eingebettet werden.

Handbrake Converter mit Extras

Mit Handbrake ist es darüber hinaus möglich, Funktionen wie die Kapitelauswahl zu übertragen. Untertitel können übernommen werden, wenn sie in den Formaten VobSub, Closed Captions CEA-608, SSA oder SRT vorliegen. Zu den weiteren Funktionen zählt die Möglichkeit, Videos mit Effekten wie Deblock, Graustufe oder Deinterlacing zu belegen. Das Ergebnis kann dann in einer Live-Video-Vorschau betrachtet werden.

Top Open Source Video Converter

Handbrake bringt alle Features mit, um Inhalte von DVDs, Blu-rays und andere Videoquellen für die Wiedergabe mit einer Vielzahl von verschiedenen Geräten fit zu machen. Der Nutzer kann dabei selbst bestimmen, in welcher Qualität Video- und Audiosignale ins neue Format gebracht werden. Unter den Open-Source-Convertern gehört Handbrake zu den besten Lösungen. Ein sehr ähnliches Programm gibt es mit dem ebenfalls kostenlosen Vidcoder.

Technologie

via WinFuture News https://winfuture.de/

August 24, 2025 at 10:41AM

·winfuture.de·
Handbrake Download - Open Source Video Converter
Unlock YouTube's hidden superpower: precise seeking
Unlock YouTube's hidden superpower: precise seeking

Unlock YouTube's hidden superpower: precise seeking

https://www.androidpolice.com/overlooked-youtube-trick-completely-changed-how-i-watch-videos/

YouTube has undergone significant changes in recent years, but not everything may work for everyone, as people are unique in their approach to consuming videos.

Technologie

via Android Police https://www.androidpolice.com

August 24, 2025 at 11:45AM

·androidpolice.com·
Unlock YouTube's hidden superpower: precise seeking
AI Literacy and Data Literacy: Skills Every Teacher Needs
AI Literacy and Data Literacy: Skills Every Teacher Needs

AI Literacy and Data Literacy: Skills Every Teacher Needs

https://www.educatorstechnology.com/2025/08/ai-literacy-and-data-literacy-skills-every-teacher-needs.html

In the age of artificial intelligence, data is often described as “the new oil” (Crawford, 2021). Just as oil fuelled the industrial revolution, data now powers the algorithms and systems shaping our daily lives. But while oil can be refined and stored, data carries its own risks: bias, misuse, and ethical dilemmas that affect classrooms as much as companies.

For teachers, this makes data literacy and AI literacy more urgent than ever. Understanding how data is collected, analyzed, and applied is no longer just about spreadsheets or standardized test scores. It’s about preparing both educators and students to navigate a world where algorithms influence everything from lesson platforms to social media feeds.

This post explores what data literacy and AI literacy mean for education, why they matter, and the skills teachers need to model responsible, evidence-based practice in an AI-driven era.

What is Data Literacy?

When we talk about data literacy in education, we’re really talking about the ability to move from raw information to meaningful action in the classroom. Gummer and Mandinach (2015) describe it as “the ability to transform information into actionable instructional knowledge and practices by collecting, analyzing, and interpreting all types of data (assessment, school climate, behavioral, snapshot, longitudinal, moment-to-moment, etc.) to help determine instructional steps. It combines an understanding of data with standards, disciplinary knowledge and practices, curricular knowledge, pedagogical content knowledge, and an understanding of how children learn” (p. 2).

From the learner’s side, Vahey et al. (2012) stress that “data literacy requires that students investigate authentic problems; use data as part of evidence-based thinking; use appropriate data, tools, and representations to support this thinking; develop and evaluate data-based inferences and explanations; and communicate solutions” (p. 182).

More recently, the National Center for Education Statistics (2024) offered a broader definition that applies across classrooms and school systems: “Data literacy is the practice of examining and understanding data to draw and communicate conclusions and make decisions. Data-literate educators continually, effectively, and appropriately access, interpret, act on, and communicate multiple types of data from classroom, local, state, and other sources to improve outcomes and experiences for students” (p. 4).

Together, these perspectives highlight that data literacy is both a professional competency for teachers and a critical skill for students. It is about interpretation, ethical use, communication, and most importantly, transforming numbers into insights that improve learning.

Related: AI Literacy and Computational Thinking: Building 21st Century Skills

Why Data Literacy Matters for Teachers

Data literacy is a vital skill for today’s teachers. It enables them to move beyond intuition and base their decisions on evidence that reflects the realities of their classrooms. By understanding and using data effectively, teachers can better support student learning and wellbeing. Here are some of the ways it makes a difference:

Visibility: Knowing which data streams you have helps you prioritize what to monitor and where to look next.

Actionable Insight: Comparing attendance, behavior, assessment, and engagement opens a window into how factors outside—or inside—the classroom connect to learning.

Responsive Teaching: If a student’s homework isn’t completed, data can reveal whether the issue stems from access, motivation, or another factor, helping teachers respond more effectively.

Designing Interventions: Patterns in behavior, attendance, or assessments can signal when students may need additional support.

In these ways, data literacy equips educators to see the bigger picture and act with confidence.

Skills of a Data-Literate Teacher

Data literacy is not a single skill, it’s a collection of habits and practices that help teachers make better instructional choices. To use data effectively, educators need to build a toolkit that blends technical know-how with professional judgment. Some of the most important skills include:

Asking the right questions: Framing instructional challenges as problems that data can help address.

Collecting and selecting relevant data: Knowing what information is useful and what is just noise.

Interpreting data responsibly: Analyzing patterns carefully without jumping to premature or simplistic conclusions.

Connecting data to practice: Turning numbers and charts into concrete instructional decisions.

Evaluating outcomes: Checking whether data-informed changes actually improve learning.

Recognizing limitations: Understanding that data never tells the whole story and must be combined with professional judgment.

Safeguarding privacy and ethics: Respecting student confidentiality and using data responsibly.

Collaborating with colleagues: Sharing insights across grade levels and subjects to strengthen collective decision-making.

These skills highlight that data literacy is both individual and collaborative. Teachers need to think critically about data themselves while also working with peers to ensure students benefit from informed, ethical decisions.

Data Literacy and AI

In today’s classrooms, data literacy and AI literacy go hand in hand. AI tools are becoming more common in education, but they are only as trustworthy as the data that shapes them. For teachers and students, this means that developing strong data skills is essential to use AI responsibly and effectively. Here are some key connections:

AI tools depend on data: Understanding how data is collected and used helps teachers and students question AI outputs.

Spotting bias: Data literacy equips educators to identify biases in AI systems by asking who collected the data and whose voices may be missing.

Interpreting predictions: Being data-literate helps teachers and students critically evaluate AI outputs, such as adaptive learning scores, instead of accepting them blindly.

Protecting privacy: Teachers can highlight the importance of privacy and ethical use when AI systems handle student information.

Avoiding overreliance: While AI offers new ways to analyze classroom data, without strong data literacy teachers risk misinterpretation or overdependence.

Using everyday examples: Discussing platforms like TikTok recommendations or ChatGPT outputs helps students see how algorithms rely on data in daily life.

Hands-on projects: Small activities where students collect and analyze their own datasets show the link between data quality and AI reliability.

Preparing for the future: Ultimately, AI literacy grows from data literacy—teachers who model critical and ethical use of data prepare students to navigate an AI-driven world.

I’ve also captured these insights in a visual summary that you can check out below. To make it more practical, I’ve prepared an AI Literacy and Data Literacy PDF version that you can download and use with your students, in professional development workshops, or as a quick reference tool in your own practice.

References

Garner, I. (2022, June 29). Data in education. Learning A-Z Breakroom Blog. https://www.learninga-z.com/site/resources/breakroom-blog/data-in-education

Gummer, E.S. & Mandinach, E.B. (2015). Building a conceptual framework for data literacy. Teachers College Record, 117(A), 1-12.

Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press.

Mandinach, E. B., & Gummer, E. S. (2016). Every teacher should succeed with data literacy. Phi Delta Kappan, 97(8), 43–46. https://www.jstor.org/stable/24893334

Pennsylvania Department of Education. (n.d.). Data and assessment literacy: K-12 data informed culture in PA. Commonwealth of Pennsylvania. Retrieved August 24, 2025, from https://www.pa.gov/agencies/education/programs-and-services/instruction/elementary-and-secondary-education/assessment-and-accountability/pvaas/k-12-data-informed-culture/data-assessment-literacy.html

U.S. Department of Education, National Center for Education Statistics. (2024). Forum guide to data literacy (Publication No. NFES 2024‑079). U.S. Department of Education. https://nces.ed.gov/Pubs2024/NFES2024079.pdf?

Vahey, P., Rafanan, K., Patton, C., Swan, K., van ’t Hooft, M., Kratcoski, A., & Stanford, T. (2012). A cross-disciplinary approach to teaching data literacy and proportionality. Educational Studies in Mathematics, 81(2), 179–205. https://doi.org/10.1007/s10649-012-9392-z

Wikipedia contributors. (2025, August 11). Learning analytics. In Wikipedia. Retrieved August 24, 2025, from https://en.wikipedia.org/wiki/Learning_analytics

The post AI Literacy and Data Literacy: Skills Every Teacher Needs appeared first on Educators Technology.

Schule

via Educational Technology https://www.educatorstechnology.com

August 24, 2025 at 06:25PM

·educatorstechnology.com·
AI Literacy and Data Literacy: Skills Every Teacher Needs
Hey mach das Bild besser: Google lässt Photoshop alt aussehen
Hey mach das Bild besser: Google lässt Photoshop alt aussehen

“Hey, mach das Bild besser”: Google lässt Photoshop alt aussehen

https://www.nextpit.de/news/hey-mach-das-bild-besser-google-laesst-photoshop-alt-aussehen

Google hat ganz frisch seine Pixel-10-Smartphones vorgestellt. Wie immer ging das einher mit der Präsentation cooler neuer KI-Funktionen. Ein richtig starkes neues Feature betrifft Google Fotos und die Bildbearbeitung – und könnte der Konkurrenz arge Kopfschmerzen bereiten.

Die Präsentation der Pixel-10-Reihe umfasste vier Smartphones, Ear-Buds und eine Smartwatch, also jede Menge Holz. Da ist es vielleicht ein wenig untergegangen, dass die Kalifornier gleichzeitig auch ein Update der Google-Fotos-App ankündigten. Wichtig: Diese Funktion ist vorerst wirklich nur für Leute mit Pixel-10-Handys in den USA verfügbar. Es lohnt sich aber, mal darauf zu schauen, was für eine Innovation uns Google da offenbart.

Bildbearbeitung so einfach wie Zauberei

Schon Funktionen wie der Magic Eraser sorgten dafür, dass den Nutzer:innen reihenweise die Kinnladen herunterklappten. Mit der "edit by asking"-Funktion hebt Google das jetzt nochmals auf ein neues Level. Ihr tut genau das, was der Name verspricht: Ihr editiert Eure Bilder, indem Ihr einfach danach fragt. Bittet die App also einfach: "Mach das Bild heller".

Bei einem alten Foto reicht sowas wie: "bitte das Bild restaurieren". Ebenso könnt Ihr bitten: "Bitte entferne die Personen im Hintergrund" oder ähnliches. Ihr redet also einfach, wie Euch der Schnabel gewachsen ist (oder tippt) und könnt sogar mehrere Anweisungen kombinieren: "Mach das Bild ein bisschen heller und kontrastreicher und entferne bitte die Reflexionen".

Künftig reichen wenige Anweisungen, um aus Eurem Allerweltsfoto ein Meisterwerk zu machen. / © nextpit

Ihr merkt schon: Ihr müsst bei der Nutzung nicht mehr durch Menüs wuseln, um die entsprechende Einstellung zu finden, oder mit Slidern herumexperimentieren. Die Sprachanweisung reicht und Google Fotos setzt die Änderung wie gewünscht um.

Das ist auch dann cool, wenn Ihr überhaupt keine Ahnung habt, wie man ein Bild jetzt noch aufwerten könnte. Sagt einfach: "Verbesser das Foto" und schaut, was passiert. Logischerweise könnt Ihr im Anschluss mit weiteren Kommandos das Bild so weiter verändern, bis es Euch endgültig gefällt.

Gamechanger oder KI-Spielerei?

Geht es damit jetzt Profi-Tools wie Adobe Photoshop an den Kragen? Vermutlich nicht, wenn man Photoshop professionell nutzt, denn auch dort sind bereits mächtige KI-Tools an Bord. Eine Funktion, die über bloße Sprache das Editieren von Bildern ermöglicht, hat Photoshop allerdings wirklich nicht zu bieten.

Wer mit diversen Foto-Apps eher Schnappschüsse überarbeitet, könnte sich wünschen, dass dieses Werkzeug von Google auch flott auf seinem Smartphone aufschlägt. Google Fotos wird durch diese Funktion jedenfalls signifikant aufgewertet. Bleibt zu hoffen, dass Google das Feature auch auf weitere Modelle und Länder ausweitet. Aktuell braucht Ihr für diese Foto-Magie also zwingend ein Pixel 10.

Übrigens hat Google fürs Pixel 10 noch weitere spannende KI-Funktionen, auch für Fotos, vorgestellt. Lest hier, womit die Pixel-10-Software noch überrascht.

Technologie

via nextpit https://www.nextpit.de/

August 22, 2025 at 07:36AM

·nextpit.de·
Hey mach das Bild besser: Google lässt Photoshop alt aussehen
Ecosia bietet null Dollar für Chrome und es ist keine doofe Idee
Ecosia bietet null Dollar für Chrome und es ist keine doofe Idee

Ecosia bietet null Dollar für Chrome und es ist keine doofe Idee

https://winfuture.de/news,153132.html

Das deutsche Unternehmen Ecosia schlägt einen ungewöhnlichen Weg vor: Statt Chrome für Milliarden zu verkaufen, soll Google den Browser in eine Stiftung umwandeln. Ecosia würde zehn Jahre lang die operative Verantwortung übernehmen.

Ecosia will Chrome für null Euro übernehmen

Die deutsche Suchmaschine Ecosia hat einen ungewöhnlichen Vorschlag für die Zukunft von Googles Chrome-Browser unterbreitet. Das Berliner Unternehmen möchte eine zehnjährige Verwaltungsrolle für Chrome übernehmen, anstatt dass Google den Browser an einen Konkurrenten verkauft. Der Vorschlag entstand vor dem Hintergrund des US-Monopolverfahrens gegen Google, bei dem das Justizministerium eine Abspaltung von Chrome fordert.

Ecosia hat den Vorschlag sowohl an Google als auch an US-Richter Amit Mehta gesendet, der über mögliche Abhilfemaßnahmen entscheiden soll. Wie TechCrunch berichtet, wird der Richter voraussichtlich noch diesen Monat über Maßnahmen zu seinem Urteil von 2024 entscheiden, das Googles illegales Monopol bei der Internetsuche und Werbung feststellte.

Stiftungsmodell statt Verkauf

Das Konzept von Ecosia unterscheidet sich grundlegend von anderen Kaufangeboten. Google würde Chrome rechtlich in eine Stiftung umwandeln, dabei aber die Eigentumsrechte und geistigen Eigentumsrechte behalten und Ecosia die operative Verantwortung für zehn Jahre übertragen. Ecosia würde keinen Cent im Voraus zahlen, aber 40 Prozent der Chrome-Gewinne an Google zurückgeben.

Der Clou des Vorschlags liegt in der Gewinnverteilung: Ecosia würde etwa 60 Prozent der Chrome-Gewinne für Klima- und Umweltprojekte verwenden. Das Unternehmen hat bereits konkrete Projekte spezifiziert, darunter Regenwaldschutz, globale Baumpflanzungen, Agroforstwirtschaft, Verfolgung von Umweltverschmutzern und Investitionen in grüne KI-Technologie. Ecosia schätzt, dass Chrome in den nächsten zehn Jahren eine Billion Dollar generieren könnte.

Bestehende Partnerschaft als Grundlage

Die Idee ist nicht völlig aus der Luft gegriffen. Ecosia nutzt bereits Google für seine Suchmaschine und hat eine bestehende Umsatzbeteiligungsvereinbarung mit dem Tech-Giganten. Zudem bietet das Unternehmen bereits einen eigenen Browser an, der auf der Open-Source-Engine Chromium basiert, die auch Chrome antreibt.

Ecosia wurde 2009 von Christian Kroll in Berlin gegründet und hat sich seitdem zu einer der bekanntesten alternativen Suchmaschinen entwickelt. Das Unternehmen spendet monatlich Millionen und unterhält Beziehungen zu lokalen Gemeinden und NGOs in über 35 Ländern. Nach eigenen Angaben hat Ecosia bereits über 200 Millionen Bäume gepflanzt und finanziert seine Umweltprojekte ausschließlich aus Werbeeinnahmen. Das Geschäftsmodell basiert darauf, dass Nutzer durch ihre Suchanfragen indirekt Baumpflanzungen finanzieren.

Milliardenschwere Angebote

Ecosias kostenloser Ansatz steht im Kontrast zu anderen Interessenten. Perplexity AI hat bereits ein unaufgefordertes Barangebot von 34,5 Milliarden Dollar (etwa 29,6 Milliarden Euro) für Chrome gemacht, auch OpenAI hat Interesse bekundet. Google hat bislang nicht auf Anfragen um Stellungnahme reagiert.

Die Chancen für Ecosias unkonventionellen Vorschlag sind allerdings ungewiss. Google hat angekündigt, gegen das ursprüngliche Monopol-Urteil Berufung einzulegen, und die endgültige Entscheidung über Chrome steht noch aus.

Was haltet ihr von Ecosias Vorschlag? Könnte ein Stiftungsmodell für Chrome funktionieren oder ist das zu idealistisch gedacht? Download Google Chrome - schneller und sicherer Browser

Zusammenfassung

Ecosia möchte Chrome für zehn Jahre verwalten statt eines Verkaufs

Chrome soll in eine Stiftung umgewandelt werden, mit Ecosia als Betreiber

Das Berliner Unternehmen würde keine Vorabzahlung an Google leisten

60 Prozent der Gewinne sollen in Umwelt- und Klimaprojekte fließen

Google würde Eigentumsrechte behalten und 40 Prozent der Einnahmen

Ecosia schätzt mögliche Chrome-Einnahmen auf eine Billion Dollar

Der Vorschlag steht im Kontrast zu Milliardenangeboten von Perplexity AI

Siehe auch:

Technologie

via WinFuture News https://winfuture.de/

August 22, 2025 at 02:30PM

·winfuture.de·
Ecosia bietet null Dollar für Chrome und es ist keine doofe Idee
Acrobat Studio: Adobe verpasst dem PDF ein unglaubliches Glow-up
Acrobat Studio: Adobe verpasst dem PDF ein unglaubliches Glow-up

Acrobat Studio: Adobe verpasst dem PDF ein unglaubliches Glow-up

https://winfuture.de/news,153119.html

Adobe hat mit Acrobat Studio eine neue Plattform vorgestellt, die PDF-Dateien mit Hilfe von KI in interaktive Arbeitsräume ver­wandelt. Bewährte PDF-Funktionen von Acrobat werden mit KI-Assistenten und den kreativen Werkzeugen von Adobe Express gepaart.

Adobe

KI macht PDFs zu interaktiven Arbeitsräumen

Das Herzstück von Acrobat Studio bilden die sogenannten PDF Spaces. In diesen digitalen Räumen können Nutzer bis zu 100 verschiedene Dateien zusammenführen - neben PDFs auch Word-Dokumente, PowerPoint-Präsentationen, Excel-Tabellen und Webseiten.

Laut Adobe analysieren die integrierten KI-Assistenten automatisch alle Inhalte und erstellen strukturierte Zusammenfassungen mit präzisen Quellenangaben. In einem Video stellt Adobe die wichtigsten Tools vor:

Adobe Acrobat Studio

Anpassbare KI-Rollen für verschiedene Aufgaben

Besonders praktisch sind dabei die anpassbaren KI-Rollen. Adobe bietet vorgefertigte Assistenten wie "Analyst", "Lehrer" oder "Berater", die je nach Aufgabe unterschiedliche Herangehensweisen nutzen.

Diese PDF Spaces können komplett mit personalisierten Assistenten geteilt werden, was die Teamarbeit vereinfachen soll. Eine zentrale Neuerung ist die direkte Verbindung zu Adobe Express. Nutzer können aus analysierten Dokumenteninhalten sofort Infografiken, Präsentationen, Flyer oder Social-Media-Beiträge erstellen.

Dabei stehen alle Premium-Funktionen von Adobe Express zur Verfügung, einschließlich der Firefly-KI für Text-zu-Bild- und Text-zu-Video-Generierung.

PDF Spaces mit... ....personalisierte KI-Assistenten

Die wichtigsten Neuerungen und Funktionen sind:

PDF Spaces: Ein dynamisches Arbeitsumfeld, in dem Sammlungen von PDFs, Webseiten und anderen Dateien in konversationelle Wissenszentren verwandelt werden. Nutzer können mithilfe von KI-Assistenten Einblicke gewinnen, Empfehlungen erhalten und Informationen zusammenfassen - alles in einem interaktiven Hub.

KI-Assistenten: Benutzerdefinierbare künstliche Intelligenz-Agents, die spezielle Rollen wie "Lehrer", "Analyst" oder "Unterhalter" übernehmen können. Sie helfen, Inhalte zu erklären, zu analysieren, Zusammenfassungen zu erstellen und Ideen zu entwickeln.

Integration von Adobe Express: Ermöglicht es, aus gewonnenen Erkenntnissen direkt ansprechende visuelle Inhalte wie Präsentationen, Infografiken oder Social-Media-Posts zu erstellen. Dazu gehört auch die Nutzung von Adobe Firefly für die KI-generierte Bild- und Videoproduktion.

Umfassende PDF-Tools: Acrobat Studio bietet alle bewährten Funktionen von Acrobat Pro wie Scannen, elektronische Signaturen, Bearbeitung und Kombination von Dokumenten, ergänzt durch KI-gestützte Zusammenfassungen und Analysen.

Nahtlose Kollaboration: PDF Spaces und KI-Assistenten lassen sich mit Kollegen und Teams teilen, sodass alle Beteiligten mit denselben Informationen und KI-Werkzeugen arbeiten können.

Preise und Verfügbarkeit

Acrobat Studio ist ab sofort weltweit verfügbar, allerdings zunächst nur in englischer Sprache. Die Einführungspreise - Adobe schreibt explizit "Early Access Pricing", was einen späteren Preisanstieg vermuten lässt - beginnen bei umgerechnet etwa 25 Euro monatlich für Einzelpersonen und 30 Euro für Teams. Eine 14-tägige kostenlose Testversion ist verfügbar, und bis zum 1. September sind die PDF Spaces und KI-Assistenten für angemeldete Nutzer ohne zusätzliche Kosten freigegeben. Acrobat Studio kann bis zum 1. September kostenlos getestet werden Die neue Plattform richtet sich an verschiedene Zielgruppen: Geschäftskunden können Verträge und Berichte effizienter analysieren, Studierende ihre Forschungsmaterialien organisieren und Privatnutzer komplexe Dokumente wie Leasingverträge verstehen und bearbeiten.

Was haltet ihr von Adobes neuem Ansatz, PDFs in interaktive KI-Arbeitsräume zu verwandeln? Teilt eure Erwartungen in den Kommentaren!

Acrobat Studio ist Adobes neue Plattform, die PDF-Verwaltung, Content-Erstellung und KI-gestützte Analyse in einer Anwendung vereint. Sie kombiniert Acrobat, Adobe Express und KI-Assistenten zu einem zentralen Arbeitsbereich.

Ziel ist es, PDFs und andere Dateien nicht nur zu lesen, sondern daraus direkt Erkenntnisse zu gewinnen, Inhalte zu erstellen und kollaborativ zu arbeiten - alles in einem durchsuchbaren, KI-gestützten Umfeld.

PDF Spaces sind zentrale Arbeitsbereiche in Acrobat Studio, in denen bis zu 100 Dateien - darunter PDFs, Webseiten und Office-Dokumente - gesammelt und analysiert werden können.

Mithilfe von KI-Assistenten werden diese Dateien zusammengefasst, analysiert und mit Quellenangaben versehen. So entstehen konversationsbasierte Wissenshubs, die sich ideal für Teamarbeit, Recherche oder Projektplanung eignen.

Die KI-Assistenten in Acrobat Studio können Fragen beantworten, Inhalte zusammenfassen, Empfehlungen geben und sogar komplexe Themen wie ein Lehrer erklären. Sie liefern dabei stets klickbare Quellenangaben.

Nutzer können aus vordefinierten Rollen wie "Analyst", "Instruktor" oder "Entertainer" wählen oder eigene Assistenten mit individuellen Aufgabenprofilen erstellen - ideal für spezifische Arbeitsprozesse.

Neben PDFs unterstützt Acrobat Studio auch Word-, PowerPoint- und Excel-Dateien sowie Webseiten und RTFs. Bis zu 100 Dateien lassen sich pro PDF Space kombinieren.

Einschränkungen gibt es aktuell noch bei Videos, handschriftlichen Notizen und passwortgeschützten Dateien - diese können derzeit nicht analysiert werden.

Adobe betont, dass Acrobat Studio auf Transparenz, Kontrolle und Sicherheit ausgelegt ist. Die KI analysiert nur Dokumente, die aktiv dafür ausgewählt wurden.

Alle generierten Inhalte enthalten Quellenverweise, sodass Nutzer die Herkunft der Informationen prüfen können. Zudem werden keine Kundendaten zum Training der KI verwendet - ein Pluspunkt für Datenschutz und Compliance.

Adobe Express Premium ist vollständig in Acrobat Studio integriert. Nutzer können direkt aus ihren analysierten Inhalten Infografiken, Präsentationen oder Social-Media-Beiträge erstellen.

Die enthaltenen Firefly-KI-Modelle ermöglichen die kommerziell sichere Generierung von Bildern und Videos aus Text - ideal für Marketing-, Schulungs- oder Reporting-Zwecke.

Acrobat Studio richtet sich an Business-User, Kreativteams, Studierende und sogar Privatpersonen. Besonders profitieren Teams, die regelmäßig mit vielen Dokumenten arbeiten.

Vertriebs-, Finanz- und Rechtsteams können z. B. Kundenunterlagen analysieren, Verträge prüfen oder Präsentationen erstellen - alles innerhalb einer Plattform, ohne zwischen Tools wechseln zu müssen.

Acrobat Studio ist ab sofort weltweit auf Englisch verfügbar. Die Preise starten bei 24,99 USD/Monat für Einzelpersonen und 29,99 USD/Monat für Teams (Jahresvertrag, Early Access).

PDF Spaces und KI-Assistenten sind bis zum 1. September kostenlos nutzbar. Weitere Infos gibt es auf der offiziellen Adobe-Webseite.

Zusammenfassung

Acrobat Studio verwandelt PDFs in interaktive Arbeitsräume mit KI-Hilfe

PDF Spaces erlauben die Integration von bis zu 100 verschiedenen Dateien

KI-Assistenten mit anpassbaren Rollen wie 'Analyst' oder 'Lehrer'

Direkte Verbindung zu Adobe Express für Erstellung visueller Inhalte

Nahtlose Teamarbeit durch teilbare PDF Spaces mit personalisierten KI

Einführungspreise ab ca. 25 Euro monatlich für Einzelpersonen

Aktuell nur in englischer Sprache mit kostenloser 14-tägiger Testversion

Siehe auch:

Technologie

via WinFuture News https://winfuture.de/

August 21, 2025 at 08:39PM

·winfuture.de·
Acrobat Studio: Adobe verpasst dem PDF ein unglaubliches Glow-up
Donald Trump: Weißes Haus richtet offiziellen TikTok-Account ein
Donald Trump: Weißes Haus richtet offiziellen TikTok-Account ein

Donald Trump: Weißes Haus richtet offiziellen TikTok-Account ein

https://www.spiegel.de/netzwelt/web/donald-trump-weisses-haus-richtet-offiziellen-tiktok-account-ein-a-33ba76f4-c58e-4044-b18a-d7be9b1a3282

Bis heute gibt es keinen Deal zum TikTok-Verkauf

Das Gesetz sah nur einen einzigen Aufschub von 90 Tagen für den Fall aussichtsreicher Verkaufsverhandlungen vor. Einen Deal zum TikTok-Verkauf, wie er vom Weißen Haus in Aussicht gestellt wurde, gibt es bis heute nicht.

Trump hatte in seiner ersten Amtszeit versucht, mit einer Verbotsdrohung einen Verkauf von TikTok zu erzwingen, scheiterte aber an US-Gerichten. Jetzt gäbe es mit dem Gesetz eine solide rechtliche Basis für ein Verbot in den USA – aber Trump hatte erklärt, dass er nicht wolle, »dass TikTok von der Bildfläche verschwindet«.

Technologie

via DER SPIEGEL - Netzwelt https://www.spiegel.de/

August 20, 2025 at 08:03AM

·spiegel.de·
Donald Trump: Weißes Haus richtet offiziellen TikTok-Account ein
Neue Studie: LLMs ziehen Schlüsse ohne nachzudenken
Neue Studie: LLMs ziehen Schlüsse ohne nachzudenken

Neue Studie: LLMs ziehen Schlüsse ohne nachzudenken

https://www.linux-magazin.de/news/neue-studie-llms-ziehen-schluesse-ohne-nachzudenken/

Eine neue Studie  von Forschern der Arizona State University zeigt: Sprachmodelle, die zu einem schrittweisen Nachdenken entlang einer Gedankenkette (Chain-of-Thoughts, CoT) aufgefordert werden,…

Technologie

via Linux-Magazin https://www.linux-magazin.de/

August 20, 2025 at 12:05PM

·linux-magazin.de·
Neue Studie: LLMs ziehen Schlüsse ohne nachzudenken
Despite finding capable alternatives these 6 iOS apps remain unmatched on Android
Despite finding capable alternatives these 6 iOS apps remain unmatched on Android

Despite finding capable alternatives, these 6 iOS apps remain unmatched on Android

https://www.androidpolice.com/ios-apps-still-miss-on-android/

Switching platforms always comes with compromises. It's been a year since I switched from iPhone 12 to Galaxy S23 Ultra.

Technologie

via Android Police https://www.androidpolice.com

August 20, 2025 at 02:45PM

·androidpolice.com·
Despite finding capable alternatives these 6 iOS apps remain unmatched on Android
AI is a mass-delusion event
AI is a mass-delusion event

AI is a mass-delusion event

https://www.theatlantic.com/technology/archive/2025/08/ai-mass-delusion-event/683909/

It is a Monday afternoon in August, and I am on the internet watching a former cable-news anchor interview a dead teenager on Substack. This dead teenager—Joaquin Oliver, killed in the mass shooting at Marjory Stoneman Douglas High School, in Parkland, Florida—has been reanimated by generative AI, his voice and dialogue modeled on snippets of his writing and home-video footage. The animations are stiff, the model’s speaking cadence is too fast, and in two instances, when it is trying to convey excitement, its pitch rises rapidly, producing a digital shriek. How many people, I wonder, had to agree that this was a good idea to get us to this moment? I feel like I’m losing my mind watching it.

Jim Acosta, the former CNN personality who’s conducting the interview, appears fully bought-in to the premise, adding to the surreality: He’s playing it straight, even though the interactions are so bizarre. Acosta asks simple questions about Oliver’s interests and how the teenager died. The chatbot, which was built with the full cooperation of Oliver’s parents to advocate for gun control, responds like a press release: “We need to create safe spaces for conversations and connections, making sure everyone feels seen.” It offers bromides such as “More kindness and understanding can truly make a difference.”

On the live chat, I watch viewers struggle to process what they are witnessing, much in the same way I am. “Not sure how I feel about this,” one writes. “Oh gosh, this feels so strange,” another says. Still another thinks of the family, writing, “This must be so hard.” Someone says what I imagine we are all thinking: “He should be here.”

Read: AI’s real hallucination problem

The Acosta interview was difficult to process in the precise way that many things in this AI moment are difficult to process. I was grossed out by Acosta for “turning a murdered child into content,” as the critic Parker Molloy put it, and angry with the tech companies that now offer a monkey’s paw in the form of products that can reanimate the dead. I was alarmed when Oliver’s father told Acosta during their follow-up conversation that Oliver “is going to start having followers,” suggesting an era of murdered children as influencers. At the same time, I understood the compulsion of Oliver’s parents, still processing their profound grief, to do anything in their power to preserve their son’s memory and to make meaning out of senseless violence. How could I possibly judge the loss that leads Oliver’s mother to talk to the chatbot for hours on end, as his father described to Acosta—what could I do with the knowledge that she loves hearing the chatbot say “I love you, Mommy” in her dead son’s voice?

The interview triggered a feeling that has become exceedingly familiar over the past three years. It is the sinking feeling of a societal race toward a future that feels bloodless, hastily conceived, and shruggingly accepted. Are we really doing this? Who thought this was a good idea? In this sense, the Acosta interview is just a product of what feels like a collective delusion. This strange brew of shock, confusion, and ambivalence, I’ve realized, is the defining emotion of the generative-AI era. Three years into the hype, it seems that one of AI’s enduring cultural impacts is to make people feel like they’re losing it.

During his interview with Acosta, Oliver’s father noted that the family has plans to continue developing the bot. “Any other Silicon Valley tech guy will say, ‘This is just the beginning of AI,’” he said. “‘This is just the beginning of what we’re doing.’”

Just the beginning. Perhaps you’ve heard that too. “Welcome to the ChatGPT generation.” “The Generative AI Revolution.” “A new era for humanity,” as Mark Zuckerberg recently put it. It’s the moment before the computational big bang—everything is about to change, we’re told; you’ll see. God may very well be in the machine. Silicon Valley has invented a new type of mind. This is a moment to rejoice—to double down. You’re a fool if you’re not using it at work. It is time to accelerate.

How lucky we are to be alive right now! Yes, things are weird. But what do you expect? You are swimming in the primordial soup of machine cognition. There are bound to be growing pains and collateral damage. To live in such interesting times means contending with MechaHitler Grok and drinking from a fire hose of fascist-propaganda slop. It means Grandpa leaving confused Facebook comments under rendered images of Shrimp Jesus or, worse, falling for a flirty AI chatbot. This future likely requires a new social contract. But also: AI revenge porn and “nudify” apps that use AI to undress women and children, and large language models that have devoured the total creative output of humankind. From this morass, we are told, an “artificial general intelligence” will eventually emerge, turbo-charging the human race or, well, maybe destroying it. But look: Every boob with a T-Mobile plan will soon have more raw intelligence in their pocket than has ever existed in the world. Keep the faith.

Breathlessness is the modus operandi of those who are building out this technology. The venture capitalist Marc Andreessen is quote-tweeting guys on X bleating out statements such as “Everyone I know believes we have a few years max until the value of labor totally collapses and capital accretes to owners on a runaway loop—basically marx’ worst nightmare/fantasy.” How couldn’t you go a bit mad if you took them seriously? Indeed, it seems that one of the many offerings of generative AI is a kind of psychosis-as-a-service. If you are genuinely AGI-pilled—a term for those who believe that machine-born superintelligence is coming, and soon—the rational response probably involves some combination of building a bunker, quitting your job, and joining the cause. As my colleague Matteo Wong wrote after spending time with people in this cohort earlier this year, politics, the economy, and current events are essentially irrelevant to the true believers. It’s hard to care about tariffs or authoritarian encroachment or getting a degree if you believe that the world as we know it is about to change forever.

There are maddening effects downstream of this rhetoric. People have been involuntarily committed or had delusional breakdowns after developing relationships with chatbots. These stories have become a cottage industry in themselves, each one suggesting that a mix of obsequious models, their presentation of false information as true, and the tools’ ability to mimic human conversation pushes vulnerable users to think they’ve developed a human relationship with a machine. Subreddits such as r/MyBoyfriendIsAI, in which people describe their relationships with chatbots, may not be representative of most users, but it’s hard to browse through the testimonials and not feel that, just a few years into the generative-AI era, these tools have a powerful hold on people who may not understand what it is they’re engaging with.

As all of this happens, young people are experiencing a phenomenon that the writer Kyla Scanlon calls the “End of Predictable Progress.” Broadly, the theory argues that the usual pathways to a stable economic existence are no longer reliable. “You’re thinking: These jobs that I rely on to get on the bottom rung of my career ladder are going to be taken away from me” by AI, she recently told the journalist Ezra Klein. “I think that creates an element of fear.” The feeling of instability she describes is a hallmark of the generative-AI era. It’s not at all clear yet how many entry-level jobs will be claimed by AI, but the messaging from enthusiastic CEOs and corporations certainly sounds dire. In May, Dario Amodei, the CEO of Anthropic, warned that AI could wipe out half of all entry-level white-collar jobs. In June, Salesforce CEO Marc Benioff suggested that up to 50 percent of the company’s work was being done by AI.

The anxiety around job loss illustrates the fuzziness of this moment. Right now, there are competing theories as to whether AI is having a meaningful effect on employment. But real and perceived impact are different things. A recent Quinnipiac poll found that, “when it comes to their day-to-day life,” 44 percent of surveyed Americans believe that AI will do more harm than good. The survey found that Americans believe the technology will cause job loss—but many workers appeared confident in the security of their own job. Many people simply don’t know what conclusions to draw about AI, but it is impossible not to be thinking about it.

OpenAI CEO Sam Altman has demonstrated his own uncertainty. In a blog post titled “The Gentle Singularity” published in June, Altman argued that “we are past the event horizon” and are close to building digital superintelligence, and that “in some big sense, ChatGPT is already more powerful than any human who has ever lived.” He delivered the classic rhetorical flourishes of AI boosters, arguing that “the 2030s are likely going to be wildly different from any time that has come before.” And yet, this post also retreats ever so slightly from the dramatic rhetoric of inevitable “revolution” that he has previously employed. “In the most important ways, the 2030s may not be wildly different,” he wrote. “People will still love their families, express their creativity, play games, and swim in lakes”—a cheeky nod to the endurance of our corporeal form, as a little treat. Altman is a skilled marketer, and the post might simply be a way to signal a friendlier, more palatable future for those who are a little freaked out.

But a different way to read the post is to see Altman hedging slightly in the face of potential progress limitations on the technology. Earlier this month, OpenAI released GPT-5, to mixed reviews. Altman had promised “a Ph.D.-level” intelligence on any topic.

·theatlantic.com·
AI is a mass-delusion event