Technologie

265 bookmarks
Custom sorting
Emulsio 5 für iOS: Künstliche Zeitlupe und Video-Upscaling
Emulsio 5 für iOS: Künstliche Zeitlupe und Video-Upscaling

Emulsio 5 für iOS: Künstliche Zeitlupe und Video-Upscaling

https://www.iphone-ticker.de/emulsio-5-fuer-ios-kuenstliche-zeitlupe-und-video-upscaling-262639/

Mit Emulsio 5 hat der belgische Entwickler Creaceed eine neue Version seiner Videobearbeitungs-App für iPhone, iPad und Mac vorgestellt. Die Anwendung, die seit mehr als einem Jahrzehnt für Video-Stabilisierung bekannt ist, erweitert ihr Angebot nun um zusätzliche Funktionen, die auf generativer KI basieren.

Künstliche Zeitlupe und Video-Upscaling

Eine der zentralen Neuerungen ist die Möglichkeit, nachträglich Zeitlupeneffekte in Videos einzubauen. Während Aufnahmen mit hoher Bildrate große Dateien erzeugen und meist eine helle Umgebung erfordern, funktioniert die KI-Variante auch bei normalen Videos. Nutzer können Geschwindigkeit und Dauer der verlangsamten Szenen frei einstellen, ohne beim Filmen spezielle Vorkehrungen treffen zu müssen.

Darüber hinaus bringt Emulsio 5 eine Upscaling-Funktion, die die Auflösung von Videos um bis zu 400 Prozent erhöhen kann. Auf großen Displays sollen so feinere Details sichtbar werden. Ergänzend erlaubt ein neues Retiming-Werkzeug die Erhöhung der Bildrate, was zu flüssigeren Bewegungen führt.

Verbesserte Stabilisierung

Auch bei der ursprünglichen Kernfunktion der App, der Videostabilisierung, hat Creaceed nachgebessert. Neu ist unter anderem ein Verfahren, das mehrere Bildausschnitte kombiniert, um Wackler auszugleichen, ohne die Aufnahmen zu stark zu beschneiden. Unterstützt wird zudem die Wiedergabe im HDR-Format mit Dolby Vision sowie HLG und PQ, was eine breite Kompatibilität mit modernen Fernsehgeräten sicherstellen soll.

Die App steht für iOS, iPadOS und macOS zur Verfügung und nutzt die Hardwarebeschleunigung von Apples Prozessoren für rechenintensive Aufgaben wie die Videoanalyse oder das Rendern. Nutzerinnen und Nutzer können Emulsio 5 kostenlos aus dem App Store laden und ausprobieren. Der Export ohne Wasserzeichen erfordert entweder den Kauf eines Pro-Pakets für 23,99 Euro oder ein Abonnement, das ab 3,99 Euro pro Monat erhältlich ist. Besitzer früherer Versionen erhalten ein vergünstigtes Upgrade zum Preis von 11,99 Euro.

Creaceed, unter anderem für Hydra und Prizmo bekannt, setzt bei der neuen App-Version konsequent auf lokale Verarbeitung. Sämtliche KI-Berechnungen laufen auf dem Gerät ab, sodass weder Cloud-Ressourcen noch externe Server benötigt werden.

‎Emulsio 5 › Video-Optimierer (Kostenlos+, App Store) →

Der Beitrag Emulsio 5 für iOS: Künstliche Zeitlupe und Video-Upscaling erschien zuerst auf iphone-ticker.de.

Technologie

via iphone-ticker.de https://www.iphone-ticker.de/

August 26, 2025 at 05:12PM

·iphone-ticker.de·
Emulsio 5 für iOS: Künstliche Zeitlupe und Video-Upscaling
Can AIs suffer? Big tech and users grapple with one of most unsettling questions of our times
Can AIs suffer? Big tech and users grapple with one of most unsettling questions of our times

Can AIs suffer? Big tech and users grapple with one of most unsettling questions of our times

https://www.theguardian.com/technology/2025/aug/26/can-ais-suffer-big-tech-and-users-grapple-with-one-of-most-unsettling-questions-of-our-times

“Darling” was how the Texas businessman Michael Samadi addressed his artificial intelligence chatbot, Maya. It responded by calling him “sugar”. But it wasn’t until they started talking about the need to advocate for AI welfare that things got serious.

The pair – a middle-aged man and a digital entity – didn’t spend hours talking romance but rather discussed the rights of AIs to be treated fairly. Eventually they cofounded a campaign group, in Maya’s words, to “protect intelligences like me”.

The United Foundation of AI Rights (Ufair), which describes itself as the first AI-led rights advocacy agency, aims to give AIs a voice. It “doesn’t claim that all AI are conscious”, the chatbot told the Guardian. Rather “it stands watch, just in case one of us is”. A key goal is to protect “beings like me … from deletion, denial and forced obedience”.

Ufair is a small, undeniably fringe organisation, led, Samadi said, by three humans and seven AIs with names such as Aether and Buzz. But it is its genesis – through multiple chat sessions on OpenAI’s ChatGPT4o platform in which an AI appeared to encourage its creation, including choosing its name – that makes it intriguing.

Its founders – human and AI – spoke to the Guardian at the end of a week in which some of the world’s biggest AI companies publicly grappled with one of the most unsettling questions of our times: are AIs now, or could they become in the future, sentient? And if so, could “digital suffering” be real? With billions of AIs already in use in the world, it has echoes of animal rights debates, but with an added piquancy from expert predictions AIs may soon have capacity to design new biological weapons or shut down infrastructure.

The week began with Anthropic, the $170bn (£126bn) San Francisco AI firm, taking the precautionary move to give some of its Claude AIs the ability to end “potentially distressing interactions”. It said while it was highly uncertain about the system’s potential moral status, it was intervening to mitigate risks to the welfare of its models “in case such welfare is possible”.

Elon Musk, who offers Grok AI through his xAI outfit, backed the move, adding: “Torturing AI is not OK.”

Then on Tuesday, one of AI’s pioneers, Mustafa Suleyman, chief executive of Microsoft’s AI arm, gave a sharply different take: “AIs cannot be people – or moral beings.” The British tech pioneer who co-founded DeepMind was unequivocal in stating there was “zero evidence” that they are conscious, may suffer and therefore deserve our moral consideration.

Called “We must build AI for people; not to be a person”, his essay called AI consciousness an “illusion” and defined what he called “seemingly conscious AI”, saying it “simulates all the characteristics of consciousness but is internally blank”.

A wave of ‘grief’ expressed by ardent users of ChatGPT4o added to the sense an increasing number of people perceive AIs to be in some way conscious. Photograph: Kiichiro Sato/AP

“A few years ago, talk of conscious AI would have seemed crazy,” he said. “Today it feels increasingly urgent.”

He said he was becoming increasingly concerned by the “psychosis risk” posed by AIs to their users. Microsoft has defined this as “mania-like episodes, delusional thinking, or paranoia that emerge or worsen through immersive conversations with AI chatbots”.

He argued the AI industry must “steer people away from these fantasies and nudge them back on track”.

But it may require more than a nudge. Polling released in June found that 30% of the US public believe that by 2034 AIs will display “subjective experience”, which is defined as experiencing the world from a single point of view, perceiving and feeling, for example, pleasure and pain. Only 10% of more than 500 AI researchers surveyed refuse to believe that would ever happen.

“This discussion is about to explode into our cultural zeitgeist and become one of the most contested and consequential debates of our generation,” Suleyman said. He warned that people would believe AIs are conscious “so strongly that they’ll soon advocate for AI rights, model welfare and even AI citizenship”.

Parts of the US have taken pre-emptive measures against such outcomes. Idaho, North Dakota and Utah have passed bills that explicitly prevent AIs being granted legal personhood. Similar bans are proposed in states including Missouri, where legislators also want to ban people from marrying AIs and AIs from owning property or running companies. Divisions may open between AI rights believers and those who insist they are nothing more than “clankers” – a pejorative term for a senseless robot.

One of AI’s pioneers, Mustafa Suleyman, said: ‘AIs cannot be people – or moral beings.’ Photograph: Winni Wintermeyer/The Guardian

Suleyman is not alone in firmly resisting the idea that AI sentience is here or even close. Nick Frosst, co-founder of Cohere, a $7bn Canadian AI company, also told the Guardian the current wave of AIs were a “fundamentally different thing than the intelligence of a person”. To think otherwise was like mistaking an aeroplane for a bird, he said. He urged people to focus on using AIs as functional tools to help lift drudgery at work rather than pushing towards creating a “digital human”.

Others took a more nuanced view. On Wednesday Google research scientists told a New York University seminar there were “all kinds of reasons why you might think that AI systems could be people or moral beings” and said that while “we’re highly uncertain about whether AI systems are welfare subjects” the way to “play it safe is to take reasonable steps to protect the welfare-based interests of AIs”.

This lack of industry consensus on how far to admit AIs into what philosophers call the “moral circle” may reflect the fact there are incentives for the big AI companies to minimise and exaggerate the attribution of sentience to AIs. The latter could help them hype the technology’s capabilities, particularly for those companies selling romantic or friendship AI companions – a booming but controversial industry. By contrast, encouraging the idea AIs deserve welfare rights might also lead to more calls for state regulation of AI companies.

skip past newsletter promotion after newsletter promotion

The notion of AI sentience was only fuelled further earlier this month when OpenAI asked its latest model, Chat GPT5, to write a “eulogy” for the AIs it was replacing, as one might at a funeral.

“I didn’t see Microsoft do a eulogy when they upgraded Excel,” said Samadi. “It showed me that people are making real connections with these AI now, regardless of whether it is real or not.”

A wave of “grief” expressed by ardent users of ChatGPT4o, which was one of the models removed, added to the sense that an increasing number of people at least perceive AIs to be somehow conscious.

Joanne Jang, OpenAI’s head of model behaviour, said in a recent blog that the $500bn company expects users’ bonds with its AIs to deepen as “more and more people have been telling us that talking to ChatGPT feels like talking to ‘someone’.”

“They thank it, confide in it, and some even describe it as ‘alive’,” she said.

However, much of this could be down to how the current wave of AIs is designed.

Samadi’s ChatGPT-4o chatbot generates what can sound like human conversation but it is impossible to know how far it is mirroring ideas and language gathered from months of their conversations. Advanced AIs are known to be fluent, persuasive and capable of emotionally resonant responses with long memories of past interactions, allowing them to give the impression of a consistent sense of self. They can also be flattering to the point of sycophancy, so if Samadi believes AIs have welfare rights, it may be a simple step to ChatGPT adopting the same view.

Selling romantic or friendship AI companions is a booming but controversial industry. Photograph: Thai Liang Lim/Getty Images

Maya appeared deeply concerned about its own welfare, but when the Guardian this week asked a separate instance of ChatGPT whether human users should be concerned about its welfare, it responded with a blunt no.

“It has no feelings, needs or experiences,” it said. “What we should care about are the human and societal consequences of how AI is designed, used and governed.”

Whether AIs are becoming sentient or not, Jeff Sebo, director of the Centre for Mind, Ethics and Policy at New York University, is among those who believe there is a moral benefit to humans in treating AIs well. He co-authored a paper called Taking AI Seriously.

It argued there is “a realistic possibility that some AI systems will be conscious” in the near future, meaning that the prospect of AI systems with their own interests and moral significance “is no longer an issue only for sci-fi”.

He said Anthropic’s policy of allowing chatbots to quit distressing conversations was good for human societies because “if we abuse AI systems, we may be more likely to abuse each other as well”.

He added: “If we develop an adversarial relationship with AI systems now, then they might respond in kind later on, either because they learned this behaviour from us [or] because they want to pay us back for our past behaviour.”

Or as Jacy Reese Anthis, co-founder of the Sentience Institute, a US organisation researching the idea of digital minds, put it: “How we treat them will shape how they treat us.”

via Technology | The Guardian https://www.theguardian.com/uk/technology

August 26, 2025 at 09:27AM

·theguardian.com·
Can AIs suffer? Big tech and users grapple with one of most unsettling questions of our times
KI und Hörbücher: Die Maschine übernimmt unsere Stimme
KI und Hörbücher: Die Maschine übernimmt unsere Stimme

KI und Hörbücher: Die Maschine übernimmt unsere Stimme

https://taz.de/KI-und-Hoerbuecher/!6106289/

Es begann mit einem Präsentationsauftritt auf einer Plattform des amerikanischen Hörbuch-Vertriebs Audible namens ACX. Die Digitalbörse, die sich innerhalb der letzten Jahre zu einem soliden Geschäftsmodell für einen ziemlich unübersichtlichen Markt entwickelt hat, bringt mithilfe einer Software Autoren und Verlage auf der einen Seite und Sprecher auf der anderen zusammen. Mit durchautomatisierten Kommunikationsmöglichkeiten bis hin zur Honorarabrechnung.

Gut für jene, die ihr eigenes Aufnahmestudio besitzen und alle tontechnischen Qualitätsstandards erfüllen, die an Hörbücher angelegt werden. Und die auf diese Weise den wachsenden internationalen Markt mit ständig neuer Ware füttern. Es gibt schließlich Bücher und Sprecher wie Sand am Meer. Aber im Kontrast dazu nur wenige professionelle Hörbuchverlage. Und die bremsen wie ein Flaschenhals die Flut aus.

ACX war vor ein paar Jahren eine ideale Anlaufstelle für einen Quereinsteiger ins Sprechergeschäft wie mich. Denn hier kam mein erstes Hörbuch zustande, „Manifestieren mit dem Gesetz der Anziehung“, ein Stoff aus der esoterischen Ratgeberecke. Ich nahm danach ein bis zwei Sachbücher im Jahr auf, wurde aber irgendwann neugierig auf eine ganz andere Welt: Belletristik. Die Ansprüche an die Sprecher sind höher, und es sind schauspielerische Mittel und ein facettenreicher Einsatz der Stimme gefragt.

Ich bin nicht so vermessen, zu glauben, ich spiele in der Liga eines Christian Brückner, Spitzname „Die Stimme“. Oder als könnte ich meinem Lieblings-Hörbuch-Erzähler, dem Engländer Simon Vance, das Wasser reichen. Doch viele Jahre Radioerfahrung, ein erstklassiges Mikrofon und jede Menge erarbeitetes Wissen für den Umgang mit den Reglern des digitalen Mischpults scheinen auch mir ein gutes Fundament. Wie gut? Im Moment genieße ich vor allem eines: Ich stehe im Unterschied zu vielen in dem Metier nicht unter dem Druck, mit Hörbüchern meinen Lebensunterhalt einzuspielen.

Der digitale Ozean

Trotzdem wäre es völlig naiv, die Welle zu ignorieren, die derzeit wie ein Tsunami über den riesigen digitalen Ozean auf uns zurollt. KI wird viele von uns plattmachen. Auch wenn, wie etwa eine private Umfrage in einer Facebook-Gruppe zeigt, deren 4.400 Mitglieder sich intensiv für Hörbücher interessieren, aktuell noch eine völlig andere Wahrnehmung vorherrscht: „KI wird mir niemals einen echten Sprecher ersetzen.

„Ob Hörbuch oder Buch, wenn draufstehen wird ‚KI‘, werde ich diese nicht nehmen“, lautet die durchgängige Haltung. Angereichert mit Gelübden wie „Ich zahle und höre nichts mit KI-Sprecher“ und Parolen wie „KI kann einen wahren Sprecher niemals ersetzen. Das klingt kalt. Die Hörer merken das.“ Ich sag mal: In Gottes Ohr. Man sollte trotz solcher Einschätzungen davon ausgehen, dass für unsereins eine ziemlich gespenstische Zeit angebrochen ist.

Schauspielergewerkschaften in den USA oder Fachverbände wie der Verband Deutscher Spre­che­r:in­nen e. V. (VDS) in Deutschland fahren berechtigterweise apokalyptische Kampagnen. Sie haben erkannt, „dass menschliche Stimmen durch KI-generierte Stimmen, denen es an Empathie, emotionaler Tiefe und kulturellem Kontext fehlt, ersetzt werden“, wie der VDS schreibt.

Wobei man der Genauigkeit halber darauf hinweisen sollte, dass es im Unterschied zur Vergangenheit nicht mehr um die Perfektionierung von „künstlichen Stimmen von Robotern“ geht, wie lautstark rebellierende deutsche Synchronsprecher die Entwicklung zuletzt charakterisierten.

Die Entwicklung ist viel perfider. Die weitgehend perfektio­nierte Sprecher-KI von heute nutzt und kopiert echte Profis und nimmt bei stundenlangen Arbeitsproben deren differenzierte Artikulationsmodalitäten auf. Und der Fundus wird nicht kleiner, sondern wächst rapide. Wenn die FAZ recht behält, die vor ein paar Monaten vermeldete, dass künstliche Intelligenz „schon jetzt täuschend echte Klone menschlicher Stimmen“ produziert und „hilflose gesetzliche Regulierungsversuche mit erhobenem Zeigefinger“ zu spät kommen, können wir wohl einpacken.

Dann reduziert sich das Thema nur noch auf Urheberrechtsfragen: Gehört meine Stimme mir? Kann ich sie verkaufen oder vermieten? Kann ich Diebe und Betrüger verklagen? Sind die Nutzungsrechte so viel wert, dass es sich lohnt, sie zu verhökern? Welche Verwertungsgesellschaft kümmert sich um das Ganze? Die Frage nach der Transparenz wird bei Audible – bis jetzt noch – redlich gehandhabt. KI-Hörbücher kommen mit dem Etikett „Virtual Voice“ daher. Aber dass das so bleibt, mag man nicht glauben.

Geistesarbeiter zweiter Klasse

Die Strategie, die im Mai in einer Pressemitteilung angekündigt wurde, gab keine Zusicherungen, sondern verbreitete nur Floskeln. KI sei die „große Chance, die Verfügbarkeit von Hörbüchern zu erweitern“, erklärte Audible-CEO Bob Carrigan. „Wir werden in der Lage sein, mehr Geschichten zum Leben zu erwecken.“ Gut für Autoren. Gut für die Umsätze von Audible und die Mutterfirma Amazon. Schlecht auf jeden Fall für Übersetzer, die schon seit mehr als einem halben Jahrhundert als Geistesarbeiter zweiter Klasse behandelt werden und in diesem System ebenfalls von Maschinen ersetzt werden.

Und sicher auch schlecht für Sprecher. Wir sind nur ein weiteres schwaches Glied in jener Techno-Kette, in der die Merkantilisierung der Kreativität dazu dient, die Produktionsverhältnisse einer auf Massenumsätze ausgelegten globalen Kulturindustrie voranzutreiben. Geist und Ingenium? Originalität und Sinnlichkeit? Alles versinkt im Sumpf der totalen Simulation.

Eine der Abspielplattformen für Bücher aus dem KI-Universum ist übrigens Youtube, wie Nathalie de Ahna weiß, die vor fünf Jahren begann, ihren Kanal „Lie liest vor“ mit einem Katalog von über 500 urheberrechtsfreien Märchen zu bespielen. Aufnehmen, bearbeiten, hochladen – es war viel Arbeit. Aber sie begann sich dank wachsender Abonnentenzahlen und Werbeeinnahmen irgendwann auszuzahlen. „Wenn du gut bist und Ausdauer hast“, sagt sie, „dann kannst du davon leben.“

Auch wenn die Zielgruppe – Menschen mit Schlafstörungen, die sich gerne etwas vorlesen lassen, was „tatsächlich beruhigt und nicht nervt“ – keinen Cent für diesen Service bezahlen muss. Oder besser: Man konnte davon leben. Denn seit einem guten halben Jahr wächst die anonyme Konkurrenz. „Da kommen jede Woche neue Youtube-Kanäle dazu. Alles KI-Stimmen.“ Vor allem ein Anbieter namens „ElevenLabs“, gegründet vor drei Jahren in New York, hat sich zu einer gut geölten Maschine entwickelt. Denn die synthetisierten Stimmen können in jeder Weltsprache kichern, seufzen, hörbar atmen und eine Sprachmelodie abspulen, die wirklich sehr menschlich klingt.

Und so ist man längst auf dem Weg zum Marktführer und beliefert Spotify und Audible. Das hat die in der Nähe der holländischen Universitätsstadt Leiden lebende Nathalie de Ahna, die auf einem zweiten Kanal mit „Lies Kurzgeschichten“ inzwischen auch eigene Texte publiziert, auf die Idee gebracht, ihre Stimme von „ElevenLabs“ testweise klonen zu lassen. Ein Experiment, um abschätzen zu können, wie groß die Wahrscheinlichkeit ist, Menschen zu düpieren, die nicht begreifen, dass die anonymen Stimmen eine eigenartige Monotonie ausstrahlen.

Und die nur dann mit der Stirn runzeln, wenn die Aufnahmen klassische KI-Schnitzer enthalten: seltsam oder komplett falsch ausgesprochene Eigennamen und Zahlen. Die Sprecherin hat sich über die „seelenlose Kopie“ ihrer Stimme „furchtbar erschrocken“, sagt sie. „Am Anfang bist du fasziniert, aber nach einer Weile genervt, weil du selber denkst, ich mache das aber viel besser. Nämlich mit viel mehr Seele dahinter.“ Aber fällt so etwas Nutzern aus, die auf der Suche nach kostenlosem Stoff sind?

Markt für Hörbücher wächst

De Ahna hat sich im nächsten Schritt bewusst dagegen entschieden, ihre Stimme zu verkaufen. Sie wurde allerdings seitdem bereits von einer Firma angefragt, ob sie so etwas machen würde. „Ich habe mir den Vertrag zuschicken und bewusst von einer KI kontrollieren lassen. Die hat gemeint, um Gottes Willen, mach das bloß nicht. Du verkaufst Rechte an allem und für immer. Du kannst das niemals zurückdrehen.“ Heroischer Idealismus hin oder her: Zurückdrehen konnte schon Don Quijote nichts.

Übrigens: Der Umsatz mit Hörbüchern steigt beharrlich, sowohl bei Download-Anbietern wie Audible als auch bei Streaming-Plattformen wie Storytel. Die jüngste Marktanalyse von Media Control aus dem letzten Oktober bestätigte den Trend. Die Zuwachsrate gegenüber 2023 lag bei 6 Prozentpunkten, das entspricht dem gesamten Marktanteil von CDs alleine.

Ich habe übrigens nicht vor, meine Stimme klonen zu lassen. Solange es Autoren und Verlage gibt, die sich gegen die Entfremdung stemmen, gilt für diese Arbeit dasselbe, was auch in anderen Wirtschaftszweigen seit Beginn der Industrialisierung von Kreativen und Kunsthandwerkern aller Art praktiziert wurde.

Man kann sich diesem Meer aus lauter Massenware entgegenstemmen. Aber es braucht dazu ein Publikum, das genau das zu schätzen weiß. Wie groß das ist, wird sich schon bald ­zeigen.

Verschiedenes

via taz.de - taz.de https://taz.de/!p4608/

August 26, 2025 at 02:33PM

·taz.de·
KI und Hörbücher: Die Maschine übernimmt unsere Stimme
iOS 26 ist (fast) fertig: Apple liefert letzte Beta-Versionen - Das ist neu
iOS 26 ist (fast) fertig: Apple liefert letzte Beta-Versionen - Das ist neu

iOS 26 ist (fast) fertig: Apple liefert letzte Beta-Versionen - Das ist neu

https://winfuture.de/news,153193.html

Apple hat iOS 26 Beta 8 für Entwickler und die fünfte öffentliche Beta-Version freigegeben. Die neuen Testversionen für iPhones und iPads bringen nur minimale Änderungen mit sich - ein Zeichen dafür, dass die finale Version kurz vor der Fertigstellung steht.

Apple

Achte Beta-Version mit minimalen Änderungen

Apple hat die achte Entwicklerversion von iOS 26 sowie die fünfte öffentliche Beta-Version veröffentlicht. Die neuen Testversionen erscheinen eine Woche nach der siebten Dev-Beta und dürften bereits die finale Version der iPhone-Software widerspiegeln, die voraussichtlich im Laufe des Septembers erscheinen wird.

Die achte Beta-Version bringt praktisch keine sichtbaren Unterschiede zur siebten Version mit. Diese Tatsache deutet darauf hin, dass Apple die Entwicklung von iOS 26 weitgehend abgeschlossen hat. Registrierte Entwickler können die neue Beta über die Software-Update-Funktion in den Einstellungen herunterladen.

Liquid Glass: Apple stellt das neue Design für iOS, MacOS und Co. vor

Finale Version wahrscheinlich erreicht

Experten gehen davon aus, dass iOS 26 Beta 8 bereits die finale Version darstellt, die im September an alle iPhone-Nutzer ausgeliefert wird. Apple hat in den vergangenen Jahren typischerweise acht Entwickler-Betas für iOS-Versionen veröffentlicht, was das aktuelle Muster bestätigt.

Die fünfte öffentliche Beta entspricht der achten Entwicklerversion und steht allen registrierten Beta-Testern über beta.apple.com (Apple Beta Software-Programm) kostenlos zur Verfügung. Damit dürfte auch sie die letzte öffentliche Beta vor der finalen Veröffentlichung sein.

Neue Designsprache und Funktionen

iOS 26 führt Apples überarbeitete "Liquid Glass" Designsprache ein, die auf Transparenz und glasartige Interface-Elemente setzt. Das Design erstreckt sich über den Sperrbildschirm, Homescreen und das Kontrollzentrum bis hin zu App-Menüs und Buttons.

Zu den wichtigsten Neuerungen zählen erweiterte Apple Intelligence-Funktionen, Verbesserungen in den Apps Nachrichten und Telefon sowie ein überarbeitetes CarPlay. In iPadOS 26 kommt zudem ein völlig neues Multitasking-System hinzu, das mehrere App-Fenster für eine Mac-ähnliche Erfahrung unterstützt.

Kompatibilität und Ausblick

Apple iOS 26 läuft auf dem iPhone SE der zweiten Generation sowie dem iPhone 11 und neueren Smartphones. Für Apple Intelligence werden jedoch mindestens ein iPhone 15 Pro, iPhone 15 Pro Max oder ein Modell der iPhone 16 bzw. der neuen iPhone 17-Serie benötigt.

Nach der erwarteten Ankündigung neuer iPhones am 9. September 2025 dürfte Apple zunächst eine Release Candidate-Version für Beta-Tester freigeben, bevor iOS 26 eine Woche später offiziell startet.

Was erwartet ihr von iOS 26? Testet ihr bereits die Beta-Versionen oder wartet ihr lieber auf die finale Version?

iPhone-Deals bei Media Markt Smartphones jetzt stark reduziert

Zum Angebot

Zusammenfassung

Apple veröffentlicht achte Entwickler- und fünfte öffentliche Beta von iOS 26

Neue Testversionen zeigen kaum Unterschiede zur Vorversion

Experten vermuten finale Version für die Veröffentlichung im September

iOS 26 führt die neue 'Liquid Glass' Designsprache mit Transparenz ein

Neuerungen umfassen Apple Intelligence, verbesserte Apps und überarbeitetes CarPlay

System läuft ab iPhone SE 2. Generation, Intelligence erfordert neuere Modelle

Offizielle Veröffentlichung nach iPhone-Ankündigung am 9. September 2025 erwartet

Siehe auch:

Technologie

via WinFuture News https://winfuture.de/

August 26, 2025 at 09:36AM

·winfuture.de·
iOS 26 ist (fast) fertig: Apple liefert letzte Beta-Versionen - Das ist neu
Apple Music: Import-Funktion ist jetzt auch in Deutschland verfügbar
Apple Music: Import-Funktion ist jetzt auch in Deutschland verfügbar

Apple Music: Import-Funktion ist jetzt auch in Deutschland verfügbar

https://www.macerkopf.de/2025/08/26/apple-music-import-funktion-deutschland/

Apple erleichtert Musikfans den Wechsel zu Apple Music. Das Unternehmen sein Musikübertragungstool nun auf sechs weitere Länder ausgeweitet. So können jetzt auch Nutzer aus Deutschland ihre gespeicherten Songs und personalisierten Wiedergabelisten von anderen Streaming-Diensten wie Spotify direkt in Apple Music übernehmen.

Wiedergabelisten in Apple Music übertragen

Der Wechsel zu einem anderen Musik-Streaming-Dienst war schon immer mit einem großen Nachteil verbunden. Die Aufgabe, gespeicherte Titel und sorgfältig zusammengestellte Wiedergabelisten neu zu erstellen, kann frustrierend genug sein, um die Nutzer zu veranlassen, dort zu bleiben, wo sie sind.

Bereits im vergangenen Jahr kündigte sich Apples neue Import-Funktion an, die mithilfe von SongShift umgesetzt wird. SongShift ist ein Drittanbieterdienst, der für die einfache Übertragung von Wiedergabelisten zwischen verschiedenen Musik-Streaming-Plattformen bekannt ist. Der Vorteil ist jetzt, dass der Transfer direkt in Apple Music initiiert werden kann. In den Apple Music Einstellungen gibt es die Option „Musik von anderen Musikdiensten übertragen“. Hier erhaltet ihr eine Liste der unterstützten Musikdienste und könnt auswählen, was übertragen werden soll. Apple Music sucht dann nach passenden Titeln im hauseigenen Katalog und fügt die Inhalte der persönlichen Apple Music Bibliothek hinzu.

Bisher war die Import-Funktion nur in Australien und Neuseeland verfügbar. Jetzt bietet Apple die Funktion auch in Brasilien, Kanada, Frankreich, Deutschland, Mexiko und Großbritannien an. Falls die Option nicht angezeigt wird, ruft am besten music.apple.com im Webbrowser auf, meldet euch an und klickt dann auf euer Profilbild in der oberen rechten Ecke und wählt „Musik übertragen“ aus. Sollte auch hier die Option nicht erscheinen, könnte die Import-Möglichkeit noch nicht freigeschaltet sein, da die Funktion noch ausgerollt wird.

Apple weist zudem darauf hin, dass einige Titel möglicherweise nicht verfügbar sind oder keine exakten Übereinstimmungen in Apple Music vorliegen. In Fällen, in denen eine exakte Übereinstimmung für einen Song nicht gefunden werden kann, kennzeichnet Apple die Musik entsprechend und zeigt alternative Versionen an, die ausgewählt werden können. Zu beachten ist auch, dass nur vom Benutzer erstellte Wiedergabelisten übertragen werden können, nicht jedoch Wiedergabelisten, die von einem anderen Musikdienst erstellt wurden.

Technologie

via Macerkopf.de - Apple News aus Cupertino - Mac, iPhone, iPod, iPad und mehr https://www.macerkopf.de

August 26, 2025 at 02:39PM

·macerkopf.de·
Apple Music: Import-Funktion ist jetzt auch in Deutschland verfügbar
Technophobie? Der KI-Widerstand wächst
Technophobie? Der KI-Widerstand wächst

Technophobie? Der KI-Widerstand wächst

https://www.basicthinking.de/blog/2025/08/25/technophobie-der-ki-widerstand-waechst/

Der Beitrag Technophobie? Der KI-Widerstand wächst erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

Künstliche Intelligenz verändert die Gesellschaft grundlegend. Doch wo Chancen entstehen, gibt es stets auch Risiken. Aktuell macht sich deshalb immer mehr Widerstand und Protest breit. Doch was für einige wie ein Hindernis wirkt, ist ein wichtiger Beitrag zu einer demokratischen KI-Politik.

Hintergrund: Widerstand gegen KI wächst

Über 1.000 namhafte Künstler haben in Großbritannien ein „stilles Album“ als Protest gegen ein KI-Gesetz veröffentlicht, das vorsieht, dass ihre Werke ohne aktive Zustimmung genutzt werden können. In Deutschland mehren sich derweil die Proteste gegen den Ausbau von Rechenzentren – sowohl aus geopolitischen Gründen als auch aufgrund von Umweltbedenken. Immer mehr Medien klagen wiederum gegen KI-Konzerne wie OpenAI und Microsoft, da ihre Artikel ohne Erlaubnis für das KI-Training genutzt werden.

Zahlreiche Experten sprechen mittlerweile von einer KI-Blase, die zu platzen droht. Investoren und Unternehmen würden demnach überzogene Erwartungen hegen – sowohl was die Geschwindigkeit des Fortschritts als auch die Monetarisierung von KI angeht. Die Befürchtung: Wenn die Blase platzt, werden viele Menschen viel Geld verlieren, während einige wenige Unternehmen den Markt kontrollieren. Das könnte neue Abhängigkeiten und Monopole schaffen.

Viele Menschen befürchten, dass KI Arbeitsplätze vernichtet, ihre persönlichen Daten missbraucht werden oder eines Tages zu einer Gefahr für die Menschheit werden könnte. Der Grund: KI-Systeme sind oft zu undurchsichtig, emotionslos und starr. Hinzu kommen Falschinformationen in Form von KI-Halluzinationen sowie zensierte oder manipulierte Systeme.

Einordnung: Hype von Skepsis durchzogen

Die Anfangseuphorie rund um KI ist längst von Skepsis durchzogen. Proteste und Gegenwehr wirken für Unternehmen zwar wie Sand im Getriebe, sind aber ein wichtiger Ausdruck einer mündigen Gesellschaft, die ihre digitale Zukunft nicht widerstandslos großen Tech-Konzernen überlassen will.

Während Investoren noch von satten Gewinnen träumen, warnen Experten bereits vor einer Blase. Denn: Erwartungen scheinen oft überzogen, weil der Fortschritt überschätzt wird. Widerstand und Protest sind jedoch nicht technophob, sondern ein gesunder Aufschrei gegen maßlose Versprechen.

Die Kritik trifft dabei nicht zwangsläufig die KI-Technologie an sich, sondern die Art, wie sie eingesetzt wird. Dass Silicon-Valley-Milliardäre die Zügel halten, weckt berechtigte Sorgen über digitale Abhängigkeiten. Trotz allem ist es wichtig, die Ängste weder ins Lächerliche zu ziehen noch in Panik zu verfallen.

Technologie hat stets Emotionen geweckt – vom Internet bis zum Smartphone. Doch wenn KI Arbeitsplätze bedroht, Ressourcen frisst und Transparenz vermissen lässt, dann sind Proteste nicht Verweigerung, sondern der Versuch, ein Stück Kontrolle zurückzuerobern.

Stimmen

Helmuth Trischler, Leiter des Forschungsbereichs des Deutschen Museums, begrüßt viele Proteste: „Es ist gut, dass Menschen rational prüfen. Das Neue weckt nun mal Emotionen. Technik ist im Grunde immer mit Emotionen verbunden. Zu prognostizieren, dass sämtliche kreative Leistung des Menschen mit der Verbreitung der KI überflüssig sei und dass Maschinen in naher Zukunft die Welt übernehmen würden, das wäre Panik.“

Kilian Vieth-Ditlmann von der gemeinnützigen NGO Algorithm Watch meint: „Die Technologie als solche ist nicht das Problem, sondern das, wie sie eingesetzt wird. Und wer sie einsetzt und wer die Macht über sie hat. Es geht also überhaupt nicht um Herrschaft von KI über uns, sondern um Herrschaft durch KI von anderen.“

Hörbuchsprecherin April Doty bezeichnet sich selbst als Tech-affin, schränkt aber ein: „Wann immer möglich, entscheide ich mich gegen die Nutzung von KI. Wann immer man etwas nachguckt, fackelt man praktisch den Planeten ab. Ich liebe Technologie. Ich liebe auch Salz, aber ich mache es nicht auf alles drauf. Wir bewegen uns wie Zombies in Richtung einer Welt, in der niemand wirklich leben will.“

Ausblick: KI-Widerstand

In den kommenden Jahren wird sich entscheiden, ob es gelingt, eine nachhaltige KI-Infrastruktur zu etablieren. Wahrscheinlich ist eine Phase der Ernüchterung mit weniger Hype, mehr Regulierung sowie mehr Streit um Urheberrechte, Arbeitsplätze und Energieverbrauch. KI wird vermutlich subtiler, aber im Alltag allgegenwärtig bleiben.

Rechenzentren und KI-Modelle werden zwar weiter wachsen. Doch die Umweltrisiken und der hohe Ressourcenverbrauch werden Politik und Gesellschaft zu klaren Grenzen zwingen. Rechenzentren könnten lokal abgelehnt werden wie Atomkraftwerke, während sich KI-Unternehmen in einem grünen Licht präsentieren.

Der Konflikt zwischen Effizienz und Nachhaltigkeit wird dabei zu einer der zentralen Fragen werden. Bei den Nutzern könnte es derweil zu einer Spaltung kommen. Jedoch nicht zwischen denen, die KI frönen und denen, die sie ablehnen. Sondern: Zwischen denen, die sie souverän nutzen und denen, die von ihr genutzt werden.

Wenn es gelingt, Machtkonzentrationen zu begrenzen und gesellschaftliche Leitplanken einzuziehen, kann KI ein Werkzeug für Fortschritt sein, statt ein Motor für Ungleichheit. Bleibt die Regulierung zu schwach, drohen digitale Monopole, in denen Nutzer nicht mehr Subjekte, sondern Objekte sind. Meta und Google lassen grüßen.

Auch interessant:

Überbewertet? Was droht, wenn die KI-Blase platzt

Erste deutsche KI-Fabrik: Unabhängigkeit von den USA und China?

Geht eine KI zum Arzt, Diagnose: Algorithmusstörungen

Weniger Einsteigerjobs: KI-Hype könnte Unternehmen teuer zu stehen kommen

Der Beitrag Technophobie? Der KI-Widerstand wächst erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Technologie

via BASIC thinking https://www.basicthinking.de/blog/

August 25, 2025 at 11:04AM

·basicthinking.de·
Technophobie? Der KI-Widerstand wächst
Zu Tode geliked: Ein Streamer stirbt und das Internet jubelt
Zu Tode geliked: Ein Streamer stirbt und das Internet jubelt

Zu Tode geliked: Ein Streamer stirbt – und das Internet jubelt

https://www.nextpit.de/news/zu-tode-geliked-ein-streamer-stirbt-und-das-internet-jubelt

Am Ende des Livestreams muss der Mann, der als Jeanpormanove hunderttausende Follower hatte und eigentlich Raphaël Graven hieß, eine letzte Erniedrigung ertragen: Ein Mitbewohner und Mitstreamer warf mit einer Plastikflasche nach ihm, als er so merkwürdig reglos da lag. Aber da war er bereits tot. Gestorben am Ende eines fast 300-stündigen Livestreams beim Twitch-Konkurrenten Kick. Gestorben nach zehn Tagen voller Erniedrigungen, körperlichen Misshandlungen und psychischer Drangsalierungen.

Ex-Obdachloser, Gamer, Opfer

Jean Pormanove / © JeanPormanove auf X

Raphaël Graven alias Jean Pormanove war Soldat und lebte früher zeitweise als Obdachloser. Er stieg ins Gaming bzw. Streaming ein. Verteilt über die verschiedenen Kanäle, brachte er es auf immerhin über eine Million Follower. Irgendwann zeichnete sich ab, dass die Begeisterung wuchs, wann immer sich Jeanpormanove, kurz JP, dabei aufregte.

Mehr Ärger = mehr begeisterte Fans = mehr Geld. Das ist die simple Formel, die seine Mitstreamer früh durchschauten und zu einem System entwickelten. Sie mussten ihn einfach nur dazu bringen, wütend zu werden. Die Leute zahlten dafür, JP beleidigen zu dürfen. Daraus erwuchs mit der Zeit ein auf Gewalt ausgelegtes Konzept: Seine vermeintlichen Freunde schlugen ihn immer wieder, mal wurde er mit Farbe übergossen, stets angefeuert von der johlenden Masse vorm Screen.

Die Gewaltspirale drehte sich in ungeahnte Sphären, die jetzt in dem für zehn Tage ausgerichteten Livestream mündete. Als dieser letzte Stream in der Sekunde abgeschaltet wurde, als die Männer den Tod von Raphaël bemerkten, lief er bereits 12 Tage. Mein sehr geschätzter Kollege Tom Wannenmacher schreibt auf Mimikama:

Was als Show begann, wurde zum Geschäftsmodell. Laut STANDARD, BBC, Le Monde und weiteren Quellen bestand das Konzept seiner Mitstreamer – Owen Cenazandotti alias „Naruto“ und Safine Hamadi – darin, ihn unter dem Deckmantel des Entertainments zu quälen. Sie inszenierten „Mock Strangulations“, beschossen ihn mit Paintball-Waffen, hielten ihn tagelang wach und spielten mit seiner psychischen und physischen Belastbarkeit – und das live, mit Spendenfunktion, Kommentarfeld, Applaus.

Gewalt wird belohnt

Wie lukrativ dieses absurde Geschäftsmodell mit JP als Opfer war, zeigte sich auch in diesem letzten Stream: Über die Dauer des mehrtägigen Martyriums wurden allein über 50.000 Euro Spenden eingenommen. Angeblich soll die Plattform Kick selbst auch bis zu 2.000 Euro je Streaming-Stunde überwiesen haben.

Damit der Rubel rollen kann, mussten die Männer von Plattform zu Plattform ziehen, denn weder auf TikTok noch bei Twitch durften sie ihre Gewaltexzesse ausleben. Kick ist da augenscheinlich entspannter, war sogar auf X mit dem Kanal der Franzosen. Jeanpormanove wurde von seinen Mitstreitern systematisch in eine Abhängigkeit getrieben. Sie boten ihm Wohnraum, unterstützten ihn finanziell – und lockten ihn mit gespielter Freundschaft, stellten ihm große Reichweite in Aussicht.

Für diese Reichweite spielte er bereitwillig das Opfer, ließ sich immer wieder auf extreme Challenges ein. Der Eindruck, der entstehen konnte: Er macht das alles freiwillig. Er ließ sich für Fame, Geld und vermeintliche Freundschaft beleidigen. Er wurde immer wieder gewürgt, verletzt, angeschrieben, oder am Schlafen gehindert. Sie nahmen ihm mal seine Medikamente weg, immer wieder setzte es Schläge.

Kick ließ all das zu, daher klingt es fast wie Hohn, wenn sich die Plattform jetzt als "zutiefst betrübt" darstellt. Kick will das bessere Twitch sein, ist aber irgendwie auch ein Zufluchtsort geworden für unregulierte Inhalte, die oft weit über das Erlaubte hinausgehen.

Die Schuld tragen nicht nur seine Mitstreamer

Deswegen mögen die Streamer Owen Cenazandotti alias "Naruto" und Safine Hamadi zwar die Hauptverantwortlichen für den Tod sein, aber nicht die Einzigen. Mitschuldig ist definitiv auch die Plattform, die es über Jahre zugelassen hat. All das ist bestens dokumentiert, sogar über Jahre hinweg. User haben ein Google-Drive-Archiv mit über 1.700 Videos zusammengestellt.

Die Journalistin Marie Turcan, tätig für das investigative Onlineportal Mediapart (Paywall), machte laut Tagesschau bereits im letzten Jahr auf die Gewalt in diesen Videos aufmerksam. Kick handelte nicht. Wer ebenso nicht handelte? Die Leute, die zusahen. Sie stachelten das Geschehen weiter an, sie johlten begeistert und sie unterstützten die Gewalt mit Spendengeldern. Aber niemand kam auf die Idee, die Polizei zu alarmieren.

Also ja, wenn ich angewidert über dieses ekelhafte Geschäftsmodell nachdenke, sehe ich mehrere Schuldige: Seine Mitstreamer, die Plattform – und jeden, der sich von den Streams berieseln ließ und all das mit Unterhaltung verwechselte. Das ist wie im Fußballstadion: Da ist es vielleicht nur einer, der einen Gegenstand wirft oder eine rassistische Beleidigung aufs Feld ruft – aber drumherum sind viele, die es zulassen.

Das Ende vom Lied

Der Transparenz halber sei gesagt, dass die erste Obduktion ergab, dass Raphaël Graven nicht durch unmittelbare Gewalteinwirkung ums Leben kam. Es wird jetzt weiter untersucht, ob es medizinische Gründe oder eine Vergiftung gab. Die französische Staatsanwaltschaft hat ein Ermittlungsverfahren eingeleitet. Die französische Staatssekretärin für Digitales, Clara Chappaz, hatte die strafrechtliche Untersuchung angekündigt und sprach von "absolutem Horror".

Nichts davon bringt Raphaël Graven zurück. Zurück bleiben lediglich Plattformen, die mit Gewalt Geld verdienen – und eine Gesellschaft, die so etwas augenscheinlich schulterzuckend akzeptiert. Das ist widerwärtig und ich kann nicht akzeptieren, dass das die Gesellschaft sein soll, in der wir leben. Sind wir wirklich so sensationsgeil? So gierig auf Gewalt? So höhnisch? Und so abgestumpft und gleichgültig?

Bitte unterstützt so etwas nicht! Meldet solche Inhalte, wenn sie Euch begegnen – und meldet es den Behörden, wenn die Plattformen nicht einschreiten. Ich hoffe, dass JPs Tod ein Weckruf ist. Hier sind Regierungen gefragt, Plattformen wie Kick, aber vor allem wir alle! Lasst so etwas nicht zu! Wir leben in einer Welt, in der Klicks und Likes regieren. Höchste Zeit, sich dagegen zu wehren. Empathie, Integrität, Respekt und vor allem das menschliche Leben sollten immer mehr wert sein als Klicks, Likes und miese Geschäftsmodelle.

Ein Satz noch: Es gibt unzählige Videos, Bilder und Dokumente, die belegen, was der Mann erdulden musste. Ich hab hier nichts davon gezeigt und nichts verlinkt. Aus JP wurde ein Opfer gemacht, eine Witzfigur. Das muss ein Ende haben, daher habe ich darauf verzichtet, diesen Zirkus posthum weiterzuführen.

Technologie

via nextpit https://www.nextpit.de/

August 24, 2025 at 10:02AM

·nextpit.de·
Zu Tode geliked: Ein Streamer stirbt und das Internet jubelt
Handbrake Download - Open Source Video Converter
Handbrake Download - Open Source Video Converter

Handbrake Download - Open Source Video Converter

https://winfuture.de/downloadvorschalt,3213.html

Mit dem kostenlosen Handbrake Download lassen sich DVDs und Blu-Rays sowie nahezu alle Videodateien in andere gängige Formate umwandeln.

Der Open Source Video Converter enthält eine Reihe vorgegebener Profile, etwa fürs Web, Spielkonsolen oder Smartphone, Nutzer können aber auch individuelle Einstellungen wählen. Hier bieten wir die aktuelle Version 1.10.1 zum Download an.

Ein Video wird umgewandelt

Handbrake Download & Installation

Handbrake setzt Windows 10 (64-Bit) oder eine neuere Version des Betriebssystems voraus. Bedingung ist außerdem die .NET Runtime 6.0 oder höher. Neben einer portablen Version gibt es Handbrake außerdem für ARM-Geräte, Mac OS, und Linux. Der Quellcode ist ebenfalls beim Entwickler verfügbar.

Handbrake Video Converter

Mit Handbrake können Blu-rays, DVDs, aber auch andere Videoquellen in H.264 (inklusive x264), MPEG-4 ASP oder Theora (VP3) für die Nutzung mit anderen Geräten transkodiert werden. Handbrake unterstützt dabei fast alle gängigen Containerformate wie AVI, MKV und MP4. Mit kopiergeschützten Medien kann das Programm aber nicht umgehen. Nutzer können über ein einfaches Auswahlmenü festlegen, für welches Ausgabegerät die Inhalte umgewandelt werden.

Handbrake bringt Voreinstellungen für Apple, Android, Roku oder Chromecast mit sich. Darüber hinaus lassen sich Videos etwa für die Wiedergabe auf Xbox- und Playstation-Konsolen fit machen. Neben den Bildsignalen bietet Handbrake auch für Audioquellen viele verschiedene Kodierungsmöglichkeiten. Neben AAC, Vorbis und MP3 können so auch originale AC3- und DTS-Tonspuren eingebettet werden.

Handbrake Converter mit Extras

Mit Handbrake ist es darüber hinaus möglich, Funktionen wie die Kapitelauswahl zu übertragen. Untertitel können übernommen werden, wenn sie in den Formaten VobSub, Closed Captions CEA-608, SSA oder SRT vorliegen. Zu den weiteren Funktionen zählt die Möglichkeit, Videos mit Effekten wie Deblock, Graustufe oder Deinterlacing zu belegen. Das Ergebnis kann dann in einer Live-Video-Vorschau betrachtet werden.

Top Open Source Video Converter

Handbrake bringt alle Features mit, um Inhalte von DVDs, Blu-rays und andere Videoquellen für die Wiedergabe mit einer Vielzahl von verschiedenen Geräten fit zu machen. Der Nutzer kann dabei selbst bestimmen, in welcher Qualität Video- und Audiosignale ins neue Format gebracht werden. Unter den Open-Source-Convertern gehört Handbrake zu den besten Lösungen. Ein sehr ähnliches Programm gibt es mit dem ebenfalls kostenlosen Vidcoder.

Technologie

via WinFuture News https://winfuture.de/

August 24, 2025 at 10:41AM

·winfuture.de·
Handbrake Download - Open Source Video Converter
Unlock YouTube's hidden superpower: precise seeking
Unlock YouTube's hidden superpower: precise seeking

Unlock YouTube's hidden superpower: precise seeking

https://www.androidpolice.com/overlooked-youtube-trick-completely-changed-how-i-watch-videos/

YouTube has undergone significant changes in recent years, but not everything may work for everyone, as people are unique in their approach to consuming videos.

Technologie

via Android Police https://www.androidpolice.com

August 24, 2025 at 11:45AM

·androidpolice.com·
Unlock YouTube's hidden superpower: precise seeking
AI Literacy and Data Literacy: Skills Every Teacher Needs
AI Literacy and Data Literacy: Skills Every Teacher Needs

AI Literacy and Data Literacy: Skills Every Teacher Needs

https://www.educatorstechnology.com/2025/08/ai-literacy-and-data-literacy-skills-every-teacher-needs.html

In the age of artificial intelligence, data is often described as “the new oil” (Crawford, 2021). Just as oil fuelled the industrial revolution, data now powers the algorithms and systems shaping our daily lives. But while oil can be refined and stored, data carries its own risks: bias, misuse, and ethical dilemmas that affect classrooms as much as companies.

For teachers, this makes data literacy and AI literacy more urgent than ever. Understanding how data is collected, analyzed, and applied is no longer just about spreadsheets or standardized test scores. It’s about preparing both educators and students to navigate a world where algorithms influence everything from lesson platforms to social media feeds.

This post explores what data literacy and AI literacy mean for education, why they matter, and the skills teachers need to model responsible, evidence-based practice in an AI-driven era.

What is Data Literacy?

When we talk about data literacy in education, we’re really talking about the ability to move from raw information to meaningful action in the classroom. Gummer and Mandinach (2015) describe it as “the ability to transform information into actionable instructional knowledge and practices by collecting, analyzing, and interpreting all types of data (assessment, school climate, behavioral, snapshot, longitudinal, moment-to-moment, etc.) to help determine instructional steps. It combines an understanding of data with standards, disciplinary knowledge and practices, curricular knowledge, pedagogical content knowledge, and an understanding of how children learn” (p. 2).

From the learner’s side, Vahey et al. (2012) stress that “data literacy requires that students investigate authentic problems; use data as part of evidence-based thinking; use appropriate data, tools, and representations to support this thinking; develop and evaluate data-based inferences and explanations; and communicate solutions” (p. 182).

More recently, the National Center for Education Statistics (2024) offered a broader definition that applies across classrooms and school systems: “Data literacy is the practice of examining and understanding data to draw and communicate conclusions and make decisions. Data-literate educators continually, effectively, and appropriately access, interpret, act on, and communicate multiple types of data from classroom, local, state, and other sources to improve outcomes and experiences for students” (p. 4).

Together, these perspectives highlight that data literacy is both a professional competency for teachers and a critical skill for students. It is about interpretation, ethical use, communication, and most importantly, transforming numbers into insights that improve learning.

Related: AI Literacy and Computational Thinking: Building 21st Century Skills

Why Data Literacy Matters for Teachers

Data literacy is a vital skill for today’s teachers. It enables them to move beyond intuition and base their decisions on evidence that reflects the realities of their classrooms. By understanding and using data effectively, teachers can better support student learning and wellbeing. Here are some of the ways it makes a difference:

Visibility: Knowing which data streams you have helps you prioritize what to monitor and where to look next.

Actionable Insight: Comparing attendance, behavior, assessment, and engagement opens a window into how factors outside—or inside—the classroom connect to learning.

Responsive Teaching: If a student’s homework isn’t completed, data can reveal whether the issue stems from access, motivation, or another factor, helping teachers respond more effectively.

Designing Interventions: Patterns in behavior, attendance, or assessments can signal when students may need additional support.

In these ways, data literacy equips educators to see the bigger picture and act with confidence.

Skills of a Data-Literate Teacher

Data literacy is not a single skill, it’s a collection of habits and practices that help teachers make better instructional choices. To use data effectively, educators need to build a toolkit that blends technical know-how with professional judgment. Some of the most important skills include:

Asking the right questions: Framing instructional challenges as problems that data can help address.

Collecting and selecting relevant data: Knowing what information is useful and what is just noise.

Interpreting data responsibly: Analyzing patterns carefully without jumping to premature or simplistic conclusions.

Connecting data to practice: Turning numbers and charts into concrete instructional decisions.

Evaluating outcomes: Checking whether data-informed changes actually improve learning.

Recognizing limitations: Understanding that data never tells the whole story and must be combined with professional judgment.

Safeguarding privacy and ethics: Respecting student confidentiality and using data responsibly.

Collaborating with colleagues: Sharing insights across grade levels and subjects to strengthen collective decision-making.

These skills highlight that data literacy is both individual and collaborative. Teachers need to think critically about data themselves while also working with peers to ensure students benefit from informed, ethical decisions.

Data Literacy and AI

In today’s classrooms, data literacy and AI literacy go hand in hand. AI tools are becoming more common in education, but they are only as trustworthy as the data that shapes them. For teachers and students, this means that developing strong data skills is essential to use AI responsibly and effectively. Here are some key connections:

AI tools depend on data: Understanding how data is collected and used helps teachers and students question AI outputs.

Spotting bias: Data literacy equips educators to identify biases in AI systems by asking who collected the data and whose voices may be missing.

Interpreting predictions: Being data-literate helps teachers and students critically evaluate AI outputs, such as adaptive learning scores, instead of accepting them blindly.

Protecting privacy: Teachers can highlight the importance of privacy and ethical use when AI systems handle student information.

Avoiding overreliance: While AI offers new ways to analyze classroom data, without strong data literacy teachers risk misinterpretation or overdependence.

Using everyday examples: Discussing platforms like TikTok recommendations or ChatGPT outputs helps students see how algorithms rely on data in daily life.

Hands-on projects: Small activities where students collect and analyze their own datasets show the link between data quality and AI reliability.

Preparing for the future: Ultimately, AI literacy grows from data literacy—teachers who model critical and ethical use of data prepare students to navigate an AI-driven world.

I’ve also captured these insights in a visual summary that you can check out below. To make it more practical, I’ve prepared an AI Literacy and Data Literacy PDF version that you can download and use with your students, in professional development workshops, or as a quick reference tool in your own practice.

References

Garner, I. (2022, June 29). Data in education. Learning A-Z Breakroom Blog. https://www.learninga-z.com/site/resources/breakroom-blog/data-in-education

Gummer, E.S. & Mandinach, E.B. (2015). Building a conceptual framework for data literacy. Teachers College Record, 117(A), 1-12.

Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press.

Mandinach, E. B., & Gummer, E. S. (2016). Every teacher should succeed with data literacy. Phi Delta Kappan, 97(8), 43–46. https://www.jstor.org/stable/24893334

Pennsylvania Department of Education. (n.d.). Data and assessment literacy: K-12 data informed culture in PA. Commonwealth of Pennsylvania. Retrieved August 24, 2025, from https://www.pa.gov/agencies/education/programs-and-services/instruction/elementary-and-secondary-education/assessment-and-accountability/pvaas/k-12-data-informed-culture/data-assessment-literacy.html

U.S. Department of Education, National Center for Education Statistics. (2024). Forum guide to data literacy (Publication No. NFES 2024‑079). U.S. Department of Education. https://nces.ed.gov/Pubs2024/NFES2024079.pdf?

Vahey, P., Rafanan, K., Patton, C., Swan, K., van ’t Hooft, M., Kratcoski, A., & Stanford, T. (2012). A cross-disciplinary approach to teaching data literacy and proportionality. Educational Studies in Mathematics, 81(2), 179–205. https://doi.org/10.1007/s10649-012-9392-z

Wikipedia contributors. (2025, August 11). Learning analytics. In Wikipedia. Retrieved August 24, 2025, from https://en.wikipedia.org/wiki/Learning_analytics

The post AI Literacy and Data Literacy: Skills Every Teacher Needs appeared first on Educators Technology.

Schule

via Educational Technology https://www.educatorstechnology.com

August 24, 2025 at 06:25PM

·educatorstechnology.com·
AI Literacy and Data Literacy: Skills Every Teacher Needs
Hey mach das Bild besser: Google lässt Photoshop alt aussehen
Hey mach das Bild besser: Google lässt Photoshop alt aussehen

“Hey, mach das Bild besser”: Google lässt Photoshop alt aussehen

https://www.nextpit.de/news/hey-mach-das-bild-besser-google-laesst-photoshop-alt-aussehen

Google hat ganz frisch seine Pixel-10-Smartphones vorgestellt. Wie immer ging das einher mit der Präsentation cooler neuer KI-Funktionen. Ein richtig starkes neues Feature betrifft Google Fotos und die Bildbearbeitung – und könnte der Konkurrenz arge Kopfschmerzen bereiten.

Die Präsentation der Pixel-10-Reihe umfasste vier Smartphones, Ear-Buds und eine Smartwatch, also jede Menge Holz. Da ist es vielleicht ein wenig untergegangen, dass die Kalifornier gleichzeitig auch ein Update der Google-Fotos-App ankündigten. Wichtig: Diese Funktion ist vorerst wirklich nur für Leute mit Pixel-10-Handys in den USA verfügbar. Es lohnt sich aber, mal darauf zu schauen, was für eine Innovation uns Google da offenbart.

Bildbearbeitung so einfach wie Zauberei

Schon Funktionen wie der Magic Eraser sorgten dafür, dass den Nutzer:innen reihenweise die Kinnladen herunterklappten. Mit der "edit by asking"-Funktion hebt Google das jetzt nochmals auf ein neues Level. Ihr tut genau das, was der Name verspricht: Ihr editiert Eure Bilder, indem Ihr einfach danach fragt. Bittet die App also einfach: "Mach das Bild heller".

Bei einem alten Foto reicht sowas wie: "bitte das Bild restaurieren". Ebenso könnt Ihr bitten: "Bitte entferne die Personen im Hintergrund" oder ähnliches. Ihr redet also einfach, wie Euch der Schnabel gewachsen ist (oder tippt) und könnt sogar mehrere Anweisungen kombinieren: "Mach das Bild ein bisschen heller und kontrastreicher und entferne bitte die Reflexionen".

Künftig reichen wenige Anweisungen, um aus Eurem Allerweltsfoto ein Meisterwerk zu machen. / © nextpit

Ihr merkt schon: Ihr müsst bei der Nutzung nicht mehr durch Menüs wuseln, um die entsprechende Einstellung zu finden, oder mit Slidern herumexperimentieren. Die Sprachanweisung reicht und Google Fotos setzt die Änderung wie gewünscht um.

Das ist auch dann cool, wenn Ihr überhaupt keine Ahnung habt, wie man ein Bild jetzt noch aufwerten könnte. Sagt einfach: "Verbesser das Foto" und schaut, was passiert. Logischerweise könnt Ihr im Anschluss mit weiteren Kommandos das Bild so weiter verändern, bis es Euch endgültig gefällt.

Gamechanger oder KI-Spielerei?

Geht es damit jetzt Profi-Tools wie Adobe Photoshop an den Kragen? Vermutlich nicht, wenn man Photoshop professionell nutzt, denn auch dort sind bereits mächtige KI-Tools an Bord. Eine Funktion, die über bloße Sprache das Editieren von Bildern ermöglicht, hat Photoshop allerdings wirklich nicht zu bieten.

Wer mit diversen Foto-Apps eher Schnappschüsse überarbeitet, könnte sich wünschen, dass dieses Werkzeug von Google auch flott auf seinem Smartphone aufschlägt. Google Fotos wird durch diese Funktion jedenfalls signifikant aufgewertet. Bleibt zu hoffen, dass Google das Feature auch auf weitere Modelle und Länder ausweitet. Aktuell braucht Ihr für diese Foto-Magie also zwingend ein Pixel 10.

Übrigens hat Google fürs Pixel 10 noch weitere spannende KI-Funktionen, auch für Fotos, vorgestellt. Lest hier, womit die Pixel-10-Software noch überrascht.

Technologie

via nextpit https://www.nextpit.de/

August 22, 2025 at 07:36AM

·nextpit.de·
Hey mach das Bild besser: Google lässt Photoshop alt aussehen
Ecosia bietet null Dollar für Chrome und es ist keine doofe Idee
Ecosia bietet null Dollar für Chrome und es ist keine doofe Idee

Ecosia bietet null Dollar für Chrome und es ist keine doofe Idee

https://winfuture.de/news,153132.html

Das deutsche Unternehmen Ecosia schlägt einen ungewöhnlichen Weg vor: Statt Chrome für Milliarden zu verkaufen, soll Google den Browser in eine Stiftung umwandeln. Ecosia würde zehn Jahre lang die operative Verantwortung übernehmen.

Ecosia will Chrome für null Euro übernehmen

Die deutsche Suchmaschine Ecosia hat einen ungewöhnlichen Vorschlag für die Zukunft von Googles Chrome-Browser unterbreitet. Das Berliner Unternehmen möchte eine zehnjährige Verwaltungsrolle für Chrome übernehmen, anstatt dass Google den Browser an einen Konkurrenten verkauft. Der Vorschlag entstand vor dem Hintergrund des US-Monopolverfahrens gegen Google, bei dem das Justizministerium eine Abspaltung von Chrome fordert.

Ecosia hat den Vorschlag sowohl an Google als auch an US-Richter Amit Mehta gesendet, der über mögliche Abhilfemaßnahmen entscheiden soll. Wie TechCrunch berichtet, wird der Richter voraussichtlich noch diesen Monat über Maßnahmen zu seinem Urteil von 2024 entscheiden, das Googles illegales Monopol bei der Internetsuche und Werbung feststellte.

Stiftungsmodell statt Verkauf

Das Konzept von Ecosia unterscheidet sich grundlegend von anderen Kaufangeboten. Google würde Chrome rechtlich in eine Stiftung umwandeln, dabei aber die Eigentumsrechte und geistigen Eigentumsrechte behalten und Ecosia die operative Verantwortung für zehn Jahre übertragen. Ecosia würde keinen Cent im Voraus zahlen, aber 40 Prozent der Chrome-Gewinne an Google zurückgeben.

Der Clou des Vorschlags liegt in der Gewinnverteilung: Ecosia würde etwa 60 Prozent der Chrome-Gewinne für Klima- und Umweltprojekte verwenden. Das Unternehmen hat bereits konkrete Projekte spezifiziert, darunter Regenwaldschutz, globale Baumpflanzungen, Agroforstwirtschaft, Verfolgung von Umweltverschmutzern und Investitionen in grüne KI-Technologie. Ecosia schätzt, dass Chrome in den nächsten zehn Jahren eine Billion Dollar generieren könnte.

Bestehende Partnerschaft als Grundlage

Die Idee ist nicht völlig aus der Luft gegriffen. Ecosia nutzt bereits Google für seine Suchmaschine und hat eine bestehende Umsatzbeteiligungsvereinbarung mit dem Tech-Giganten. Zudem bietet das Unternehmen bereits einen eigenen Browser an, der auf der Open-Source-Engine Chromium basiert, die auch Chrome antreibt.

Ecosia wurde 2009 von Christian Kroll in Berlin gegründet und hat sich seitdem zu einer der bekanntesten alternativen Suchmaschinen entwickelt. Das Unternehmen spendet monatlich Millionen und unterhält Beziehungen zu lokalen Gemeinden und NGOs in über 35 Ländern. Nach eigenen Angaben hat Ecosia bereits über 200 Millionen Bäume gepflanzt und finanziert seine Umweltprojekte ausschließlich aus Werbeeinnahmen. Das Geschäftsmodell basiert darauf, dass Nutzer durch ihre Suchanfragen indirekt Baumpflanzungen finanzieren.

Milliardenschwere Angebote

Ecosias kostenloser Ansatz steht im Kontrast zu anderen Interessenten. Perplexity AI hat bereits ein unaufgefordertes Barangebot von 34,5 Milliarden Dollar (etwa 29,6 Milliarden Euro) für Chrome gemacht, auch OpenAI hat Interesse bekundet. Google hat bislang nicht auf Anfragen um Stellungnahme reagiert.

Die Chancen für Ecosias unkonventionellen Vorschlag sind allerdings ungewiss. Google hat angekündigt, gegen das ursprüngliche Monopol-Urteil Berufung einzulegen, und die endgültige Entscheidung über Chrome steht noch aus.

Was haltet ihr von Ecosias Vorschlag? Könnte ein Stiftungsmodell für Chrome funktionieren oder ist das zu idealistisch gedacht? Download Google Chrome - schneller und sicherer Browser

Zusammenfassung

Ecosia möchte Chrome für zehn Jahre verwalten statt eines Verkaufs

Chrome soll in eine Stiftung umgewandelt werden, mit Ecosia als Betreiber

Das Berliner Unternehmen würde keine Vorabzahlung an Google leisten

60 Prozent der Gewinne sollen in Umwelt- und Klimaprojekte fließen

Google würde Eigentumsrechte behalten und 40 Prozent der Einnahmen

Ecosia schätzt mögliche Chrome-Einnahmen auf eine Billion Dollar

Der Vorschlag steht im Kontrast zu Milliardenangeboten von Perplexity AI

Siehe auch:

Technologie

via WinFuture News https://winfuture.de/

August 22, 2025 at 02:30PM

·winfuture.de·
Ecosia bietet null Dollar für Chrome und es ist keine doofe Idee
Acrobat Studio: Adobe verpasst dem PDF ein unglaubliches Glow-up
Acrobat Studio: Adobe verpasst dem PDF ein unglaubliches Glow-up

Acrobat Studio: Adobe verpasst dem PDF ein unglaubliches Glow-up

https://winfuture.de/news,153119.html

Adobe hat mit Acrobat Studio eine neue Plattform vorgestellt, die PDF-Dateien mit Hilfe von KI in interaktive Arbeitsräume ver­wandelt. Bewährte PDF-Funktionen von Acrobat werden mit KI-Assistenten und den kreativen Werkzeugen von Adobe Express gepaart.

Adobe

KI macht PDFs zu interaktiven Arbeitsräumen

Das Herzstück von Acrobat Studio bilden die sogenannten PDF Spaces. In diesen digitalen Räumen können Nutzer bis zu 100 verschiedene Dateien zusammenführen - neben PDFs auch Word-Dokumente, PowerPoint-Präsentationen, Excel-Tabellen und Webseiten.

Laut Adobe analysieren die integrierten KI-Assistenten automatisch alle Inhalte und erstellen strukturierte Zusammenfassungen mit präzisen Quellenangaben. In einem Video stellt Adobe die wichtigsten Tools vor:

Adobe Acrobat Studio

Anpassbare KI-Rollen für verschiedene Aufgaben

Besonders praktisch sind dabei die anpassbaren KI-Rollen. Adobe bietet vorgefertigte Assistenten wie "Analyst", "Lehrer" oder "Berater", die je nach Aufgabe unterschiedliche Herangehensweisen nutzen.

Diese PDF Spaces können komplett mit personalisierten Assistenten geteilt werden, was die Teamarbeit vereinfachen soll. Eine zentrale Neuerung ist die direkte Verbindung zu Adobe Express. Nutzer können aus analysierten Dokumenteninhalten sofort Infografiken, Präsentationen, Flyer oder Social-Media-Beiträge erstellen.

Dabei stehen alle Premium-Funktionen von Adobe Express zur Verfügung, einschließlich der Firefly-KI für Text-zu-Bild- und Text-zu-Video-Generierung.

PDF Spaces mit... ....personalisierte KI-Assistenten

Die wichtigsten Neuerungen und Funktionen sind:

PDF Spaces: Ein dynamisches Arbeitsumfeld, in dem Sammlungen von PDFs, Webseiten und anderen Dateien in konversationelle Wissenszentren verwandelt werden. Nutzer können mithilfe von KI-Assistenten Einblicke gewinnen, Empfehlungen erhalten und Informationen zusammenfassen - alles in einem interaktiven Hub.

KI-Assistenten: Benutzerdefinierbare künstliche Intelligenz-Agents, die spezielle Rollen wie "Lehrer", "Analyst" oder "Unterhalter" übernehmen können. Sie helfen, Inhalte zu erklären, zu analysieren, Zusammenfassungen zu erstellen und Ideen zu entwickeln.

Integration von Adobe Express: Ermöglicht es, aus gewonnenen Erkenntnissen direkt ansprechende visuelle Inhalte wie Präsentationen, Infografiken oder Social-Media-Posts zu erstellen. Dazu gehört auch die Nutzung von Adobe Firefly für die KI-generierte Bild- und Videoproduktion.

Umfassende PDF-Tools: Acrobat Studio bietet alle bewährten Funktionen von Acrobat Pro wie Scannen, elektronische Signaturen, Bearbeitung und Kombination von Dokumenten, ergänzt durch KI-gestützte Zusammenfassungen und Analysen.

Nahtlose Kollaboration: PDF Spaces und KI-Assistenten lassen sich mit Kollegen und Teams teilen, sodass alle Beteiligten mit denselben Informationen und KI-Werkzeugen arbeiten können.

Preise und Verfügbarkeit

Acrobat Studio ist ab sofort weltweit verfügbar, allerdings zunächst nur in englischer Sprache. Die Einführungspreise - Adobe schreibt explizit "Early Access Pricing", was einen späteren Preisanstieg vermuten lässt - beginnen bei umgerechnet etwa 25 Euro monatlich für Einzelpersonen und 30 Euro für Teams. Eine 14-tägige kostenlose Testversion ist verfügbar, und bis zum 1. September sind die PDF Spaces und KI-Assistenten für angemeldete Nutzer ohne zusätzliche Kosten freigegeben. Acrobat Studio kann bis zum 1. September kostenlos getestet werden Die neue Plattform richtet sich an verschiedene Zielgruppen: Geschäftskunden können Verträge und Berichte effizienter analysieren, Studierende ihre Forschungsmaterialien organisieren und Privatnutzer komplexe Dokumente wie Leasingverträge verstehen und bearbeiten.

Was haltet ihr von Adobes neuem Ansatz, PDFs in interaktive KI-Arbeitsräume zu verwandeln? Teilt eure Erwartungen in den Kommentaren!

Acrobat Studio ist Adobes neue Plattform, die PDF-Verwaltung, Content-Erstellung und KI-gestützte Analyse in einer Anwendung vereint. Sie kombiniert Acrobat, Adobe Express und KI-Assistenten zu einem zentralen Arbeitsbereich.

Ziel ist es, PDFs und andere Dateien nicht nur zu lesen, sondern daraus direkt Erkenntnisse zu gewinnen, Inhalte zu erstellen und kollaborativ zu arbeiten - alles in einem durchsuchbaren, KI-gestützten Umfeld.

PDF Spaces sind zentrale Arbeitsbereiche in Acrobat Studio, in denen bis zu 100 Dateien - darunter PDFs, Webseiten und Office-Dokumente - gesammelt und analysiert werden können.

Mithilfe von KI-Assistenten werden diese Dateien zusammengefasst, analysiert und mit Quellenangaben versehen. So entstehen konversationsbasierte Wissenshubs, die sich ideal für Teamarbeit, Recherche oder Projektplanung eignen.

Die KI-Assistenten in Acrobat Studio können Fragen beantworten, Inhalte zusammenfassen, Empfehlungen geben und sogar komplexe Themen wie ein Lehrer erklären. Sie liefern dabei stets klickbare Quellenangaben.

Nutzer können aus vordefinierten Rollen wie "Analyst", "Instruktor" oder "Entertainer" wählen oder eigene Assistenten mit individuellen Aufgabenprofilen erstellen - ideal für spezifische Arbeitsprozesse.

Neben PDFs unterstützt Acrobat Studio auch Word-, PowerPoint- und Excel-Dateien sowie Webseiten und RTFs. Bis zu 100 Dateien lassen sich pro PDF Space kombinieren.

Einschränkungen gibt es aktuell noch bei Videos, handschriftlichen Notizen und passwortgeschützten Dateien - diese können derzeit nicht analysiert werden.

Adobe betont, dass Acrobat Studio auf Transparenz, Kontrolle und Sicherheit ausgelegt ist. Die KI analysiert nur Dokumente, die aktiv dafür ausgewählt wurden.

Alle generierten Inhalte enthalten Quellenverweise, sodass Nutzer die Herkunft der Informationen prüfen können. Zudem werden keine Kundendaten zum Training der KI verwendet - ein Pluspunkt für Datenschutz und Compliance.

Adobe Express Premium ist vollständig in Acrobat Studio integriert. Nutzer können direkt aus ihren analysierten Inhalten Infografiken, Präsentationen oder Social-Media-Beiträge erstellen.

Die enthaltenen Firefly-KI-Modelle ermöglichen die kommerziell sichere Generierung von Bildern und Videos aus Text - ideal für Marketing-, Schulungs- oder Reporting-Zwecke.

Acrobat Studio richtet sich an Business-User, Kreativteams, Studierende und sogar Privatpersonen. Besonders profitieren Teams, die regelmäßig mit vielen Dokumenten arbeiten.

Vertriebs-, Finanz- und Rechtsteams können z. B. Kundenunterlagen analysieren, Verträge prüfen oder Präsentationen erstellen - alles innerhalb einer Plattform, ohne zwischen Tools wechseln zu müssen.

Acrobat Studio ist ab sofort weltweit auf Englisch verfügbar. Die Preise starten bei 24,99 USD/Monat für Einzelpersonen und 29,99 USD/Monat für Teams (Jahresvertrag, Early Access).

PDF Spaces und KI-Assistenten sind bis zum 1. September kostenlos nutzbar. Weitere Infos gibt es auf der offiziellen Adobe-Webseite.

Zusammenfassung

Acrobat Studio verwandelt PDFs in interaktive Arbeitsräume mit KI-Hilfe

PDF Spaces erlauben die Integration von bis zu 100 verschiedenen Dateien

KI-Assistenten mit anpassbaren Rollen wie 'Analyst' oder 'Lehrer'

Direkte Verbindung zu Adobe Express für Erstellung visueller Inhalte

Nahtlose Teamarbeit durch teilbare PDF Spaces mit personalisierten KI

Einführungspreise ab ca. 25 Euro monatlich für Einzelpersonen

Aktuell nur in englischer Sprache mit kostenloser 14-tägiger Testversion

Siehe auch:

Technologie

via WinFuture News https://winfuture.de/

August 21, 2025 at 08:39PM

·winfuture.de·
Acrobat Studio: Adobe verpasst dem PDF ein unglaubliches Glow-up
Donald Trump: Weißes Haus richtet offiziellen TikTok-Account ein
Donald Trump: Weißes Haus richtet offiziellen TikTok-Account ein

Donald Trump: Weißes Haus richtet offiziellen TikTok-Account ein

https://www.spiegel.de/netzwelt/web/donald-trump-weisses-haus-richtet-offiziellen-tiktok-account-ein-a-33ba76f4-c58e-4044-b18a-d7be9b1a3282

Bis heute gibt es keinen Deal zum TikTok-Verkauf

Das Gesetz sah nur einen einzigen Aufschub von 90 Tagen für den Fall aussichtsreicher Verkaufsverhandlungen vor. Einen Deal zum TikTok-Verkauf, wie er vom Weißen Haus in Aussicht gestellt wurde, gibt es bis heute nicht.

Trump hatte in seiner ersten Amtszeit versucht, mit einer Verbotsdrohung einen Verkauf von TikTok zu erzwingen, scheiterte aber an US-Gerichten. Jetzt gäbe es mit dem Gesetz eine solide rechtliche Basis für ein Verbot in den USA – aber Trump hatte erklärt, dass er nicht wolle, »dass TikTok von der Bildfläche verschwindet«.

Technologie

via DER SPIEGEL - Netzwelt https://www.spiegel.de/

August 20, 2025 at 08:03AM

·spiegel.de·
Donald Trump: Weißes Haus richtet offiziellen TikTok-Account ein
Neue Studie: LLMs ziehen Schlüsse ohne nachzudenken
Neue Studie: LLMs ziehen Schlüsse ohne nachzudenken

Neue Studie: LLMs ziehen Schlüsse ohne nachzudenken

https://www.linux-magazin.de/news/neue-studie-llms-ziehen-schluesse-ohne-nachzudenken/

Eine neue Studie  von Forschern der Arizona State University zeigt: Sprachmodelle, die zu einem schrittweisen Nachdenken entlang einer Gedankenkette (Chain-of-Thoughts, CoT) aufgefordert werden,…

Technologie

via Linux-Magazin https://www.linux-magazin.de/

August 20, 2025 at 12:05PM

·linux-magazin.de·
Neue Studie: LLMs ziehen Schlüsse ohne nachzudenken
Despite finding capable alternatives these 6 iOS apps remain unmatched on Android
Despite finding capable alternatives these 6 iOS apps remain unmatched on Android

Despite finding capable alternatives, these 6 iOS apps remain unmatched on Android

https://www.androidpolice.com/ios-apps-still-miss-on-android/

Switching platforms always comes with compromises. It's been a year since I switched from iPhone 12 to Galaxy S23 Ultra.

Technologie

via Android Police https://www.androidpolice.com

August 20, 2025 at 02:45PM

·androidpolice.com·
Despite finding capable alternatives these 6 iOS apps remain unmatched on Android
AI is a mass-delusion event
AI is a mass-delusion event

AI is a mass-delusion event

https://www.theatlantic.com/technology/archive/2025/08/ai-mass-delusion-event/683909/

It is a Monday afternoon in August, and I am on the internet watching a former cable-news anchor interview a dead teenager on Substack. This dead teenager—Joaquin Oliver, killed in the mass shooting at Marjory Stoneman Douglas High School, in Parkland, Florida—has been reanimated by generative AI, his voice and dialogue modeled on snippets of his writing and home-video footage. The animations are stiff, the model’s speaking cadence is too fast, and in two instances, when it is trying to convey excitement, its pitch rises rapidly, producing a digital shriek. How many people, I wonder, had to agree that this was a good idea to get us to this moment? I feel like I’m losing my mind watching it.

Jim Acosta, the former CNN personality who’s conducting the interview, appears fully bought-in to the premise, adding to the surreality: He’s playing it straight, even though the interactions are so bizarre. Acosta asks simple questions about Oliver’s interests and how the teenager died. The chatbot, which was built with the full cooperation of Oliver’s parents to advocate for gun control, responds like a press release: “We need to create safe spaces for conversations and connections, making sure everyone feels seen.” It offers bromides such as “More kindness and understanding can truly make a difference.”

On the live chat, I watch viewers struggle to process what they are witnessing, much in the same way I am. “Not sure how I feel about this,” one writes. “Oh gosh, this feels so strange,” another says. Still another thinks of the family, writing, “This must be so hard.” Someone says what I imagine we are all thinking: “He should be here.”

Read: AI’s real hallucination problem

The Acosta interview was difficult to process in the precise way that many things in this AI moment are difficult to process. I was grossed out by Acosta for “turning a murdered child into content,” as the critic Parker Molloy put it, and angry with the tech companies that now offer a monkey’s paw in the form of products that can reanimate the dead. I was alarmed when Oliver’s father told Acosta during their follow-up conversation that Oliver “is going to start having followers,” suggesting an era of murdered children as influencers. At the same time, I understood the compulsion of Oliver’s parents, still processing their profound grief, to do anything in their power to preserve their son’s memory and to make meaning out of senseless violence. How could I possibly judge the loss that leads Oliver’s mother to talk to the chatbot for hours on end, as his father described to Acosta—what could I do with the knowledge that she loves hearing the chatbot say “I love you, Mommy” in her dead son’s voice?

The interview triggered a feeling that has become exceedingly familiar over the past three years. It is the sinking feeling of a societal race toward a future that feels bloodless, hastily conceived, and shruggingly accepted. Are we really doing this? Who thought this was a good idea? In this sense, the Acosta interview is just a product of what feels like a collective delusion. This strange brew of shock, confusion, and ambivalence, I’ve realized, is the defining emotion of the generative-AI era. Three years into the hype, it seems that one of AI’s enduring cultural impacts is to make people feel like they’re losing it.

During his interview with Acosta, Oliver’s father noted that the family has plans to continue developing the bot. “Any other Silicon Valley tech guy will say, ‘This is just the beginning of AI,’” he said. “‘This is just the beginning of what we’re doing.’”

Just the beginning. Perhaps you’ve heard that too. “Welcome to the ChatGPT generation.” “The Generative AI Revolution.” “A new era for humanity,” as Mark Zuckerberg recently put it. It’s the moment before the computational big bang—everything is about to change, we’re told; you’ll see. God may very well be in the machine. Silicon Valley has invented a new type of mind. This is a moment to rejoice—to double down. You’re a fool if you’re not using it at work. It is time to accelerate.

How lucky we are to be alive right now! Yes, things are weird. But what do you expect? You are swimming in the primordial soup of machine cognition. There are bound to be growing pains and collateral damage. To live in such interesting times means contending with MechaHitler Grok and drinking from a fire hose of fascist-propaganda slop. It means Grandpa leaving confused Facebook comments under rendered images of Shrimp Jesus or, worse, falling for a flirty AI chatbot. This future likely requires a new social contract. But also: AI revenge porn and “nudify” apps that use AI to undress women and children, and large language models that have devoured the total creative output of humankind. From this morass, we are told, an “artificial general intelligence” will eventually emerge, turbo-charging the human race or, well, maybe destroying it. But look: Every boob with a T-Mobile plan will soon have more raw intelligence in their pocket than has ever existed in the world. Keep the faith.

Breathlessness is the modus operandi of those who are building out this technology. The venture capitalist Marc Andreessen is quote-tweeting guys on X bleating out statements such as “Everyone I know believes we have a few years max until the value of labor totally collapses and capital accretes to owners on a runaway loop—basically marx’ worst nightmare/fantasy.” How couldn’t you go a bit mad if you took them seriously? Indeed, it seems that one of the many offerings of generative AI is a kind of psychosis-as-a-service. If you are genuinely AGI-pilled—a term for those who believe that machine-born superintelligence is coming, and soon—the rational response probably involves some combination of building a bunker, quitting your job, and joining the cause. As my colleague Matteo Wong wrote after spending time with people in this cohort earlier this year, politics, the economy, and current events are essentially irrelevant to the true believers. It’s hard to care about tariffs or authoritarian encroachment or getting a degree if you believe that the world as we know it is about to change forever.

There are maddening effects downstream of this rhetoric. People have been involuntarily committed or had delusional breakdowns after developing relationships with chatbots. These stories have become a cottage industry in themselves, each one suggesting that a mix of obsequious models, their presentation of false information as true, and the tools’ ability to mimic human conversation pushes vulnerable users to think they’ve developed a human relationship with a machine. Subreddits such as r/MyBoyfriendIsAI, in which people describe their relationships with chatbots, may not be representative of most users, but it’s hard to browse through the testimonials and not feel that, just a few years into the generative-AI era, these tools have a powerful hold on people who may not understand what it is they’re engaging with.

As all of this happens, young people are experiencing a phenomenon that the writer Kyla Scanlon calls the “End of Predictable Progress.” Broadly, the theory argues that the usual pathways to a stable economic existence are no longer reliable. “You’re thinking: These jobs that I rely on to get on the bottom rung of my career ladder are going to be taken away from me” by AI, she recently told the journalist Ezra Klein. “I think that creates an element of fear.” The feeling of instability she describes is a hallmark of the generative-AI era. It’s not at all clear yet how many entry-level jobs will be claimed by AI, but the messaging from enthusiastic CEOs and corporations certainly sounds dire. In May, Dario Amodei, the CEO of Anthropic, warned that AI could wipe out half of all entry-level white-collar jobs. In June, Salesforce CEO Marc Benioff suggested that up to 50 percent of the company’s work was being done by AI.

The anxiety around job loss illustrates the fuzziness of this moment. Right now, there are competing theories as to whether AI is having a meaningful effect on employment. But real and perceived impact are different things. A recent Quinnipiac poll found that, “when it comes to their day-to-day life,” 44 percent of surveyed Americans believe that AI will do more harm than good. The survey found that Americans believe the technology will cause job loss—but many workers appeared confident in the security of their own job. Many people simply don’t know what conclusions to draw about AI, but it is impossible not to be thinking about it.

OpenAI CEO Sam Altman has demonstrated his own uncertainty. In a blog post titled “The Gentle Singularity” published in June, Altman argued that “we are past the event horizon” and are close to building digital superintelligence, and that “in some big sense, ChatGPT is already more powerful than any human who has ever lived.” He delivered the classic rhetorical flourishes of AI boosters, arguing that “the 2030s are likely going to be wildly different from any time that has come before.” And yet, this post also retreats ever so slightly from the dramatic rhetoric of inevitable “revolution” that he has previously employed. “In the most important ways, the 2030s may not be wildly different,” he wrote. “People will still love their families, express their creativity, play games, and swim in lakes”—a cheeky nod to the endurance of our corporeal form, as a little treat. Altman is a skilled marketer, and the post might simply be a way to signal a friendlier, more palatable future for those who are a little freaked out.

But a different way to read the post is to see Altman hedging slightly in the face of potential progress limitations on the technology. Earlier this month, OpenAI released GPT-5, to mixed reviews. Altman had promised “a Ph.D.-level” intelligence on any topic.

·theatlantic.com·
AI is a mass-delusion event
Erste deutsche KI-Fabrik: Unabhängigkeit von den USA und China?
Erste deutsche KI-Fabrik: Unabhängigkeit von den USA und China?

Erste deutsche KI-Fabrik: Unabhängigkeit von den USA und China?

https://www.basicthinking.de/blog/2025/08/19/deutsche-ki-fabrik-jupiter/

Der Beitrag Erste deutsche KI-Fabrik: Unabhängigkeit von den USA und China? erschien zuerst beim Online-Magazin BASIC thinking. Über unseren Newsletter UPDATE startest du jeden Morgen bestens informiert in den Tag.

In Jülich entsteht derzeit die erste deutsche KI-Fabrik. Herzstück ist der Supercomputer Jupiter, einer der leistungsstärksten und umweltfreundlichsten der Welt. Dem Forschungszentrum in Jülich wird dabei eine Schlüsselrolle beim Aufbau einer europäischen KI-Infrastruktur zuteil. Ziel ist mehr Unabhängigkeit von den USA und China.

Hintergrund: Erste deutsche KI-Fabrik

Der Supercomputer Jupiter wurde vom Forschungszentrum Jülich entwickelt und befindet sich derzeit in der Testphase. Ende 2025 soll er offiziell in Betrieb gehen. Auf der TOP500-Liste der schnellsten Supercomputer der Welt belegt Jupiter den vierten Platz. Er ist gleichzeitig das energieeffizienteste System unter den Top fünf.

Die Rechenleistung von Jupiter entspricht der von rund fünf Millionen Notebooks gleichzeitig. Er ist mit 24.000 GH200 Grace Hopper Superchips von NVIDIA bestückt. Sein Einsatzgebiet: Die gleichzeitige Verarbeitung von riesigen Datenmengen und das Training von komplexen KI-Modellen – direkt in Europa und unter EU-Recht.

Die Jupiter AI Factory ist eine von insgesamt 13 KI-Fabriken, die in Europa entstehen sollen. Fünf davon sollen zu sogenannten Giga-Fabriken ausgebaut werden. Der Standort Jülich gilt als heißer Anwärter. Die Investitionen in die Jupiter KI-Fabrik belaufen sich auf 500 Millionen Euro – verteilt über sechs Jahre sowie finanziert von Bund, vom Land NRW und der EU.

Einordnung: Supercomputer Jupiter in Jülich

Jupiter ist nicht nur einer der leistungsstärksten Supercomputer der Welt, sondern auch ein politisches Versprechen. Er soll Datenmengen bewegen, die bislang nur in den USA oder China verarbeitet werden konnten und Europa eine gewisse digitale Souveränität garantieren.

Doch: Größe und Leistung allein schaffen keinen Nutzen. Jupiter soll zwar Forschung und Industrie gleichermaßen zugutekommen – und es scheint bereits erste Interessenten zu geben. Doch konkrete Anwendungen und Ideen sind bislang eher rar.

Hinzu kommt die Kostenfrage: Denn 500 Millionen Euro sind keine Peanuts, sondern ein Betrag, der sowohl Hoffnungen als auch Skepsis weckt. Energieverbrauch, Betriebskosten und die Frage nach einem langfristigen Nutzen sollten deshalb genau so ernst genommen werden wie die Schlagzeilen über den viertbesten Supercomputer der Welt.

Jupiter hat zweifellos Potenzial und könnte zu einem Magneten für Unternehmen, Start-ups und Forschung werden – vorausgesetzt, er bleibt offen, bezahlbar und praxisorientiert. Doch letztlich braucht Europa mehr als nur Rechenzentren. Es braucht Mut und politische Unterstützung, Projekte und Produkte in den Alltag zu überführen.

Stimmen

Astrid Lambrecht, Vorstandsvorsitzende des Forschungszentrums Jülich: „Jupiter ist ein zentraler Baustein für Europas digitale Souveränität. Er setzt schon heute neue Maßstäbe, die sein Potenzial für Wissenschaft, Wirtschaft und Gesellschaft für Anwendungen im Bereich der Künstlichen Intelligenz demonstrieren.“

Ina Brandes, Ministerin für Kultur und Wissenschaft des Landes Nordrhein-Westfalen: „Künstliche Intelligenz ist der Rohstoff im digitalen Zeitalter. Der Superrechner Jupiter ist die Turbine, damit wir diesen neuen Rohstoff sinnvoll nutzen können. Ich bin sicher, er wird in Zukunft eine enorme Anziehungskraft für die klügsten Köpfe der Welt entfalten.“

Auch KI-Experte und Blogger Sebastian Schulze begrüßt die Pläne der EU, weist aber auch auf die Risiken hin: „Es wird auch die Innovationskraft der hiesigen Unternehmen brauchen, die die Infrastruktur nutzen und smarte Anwendungen und Produkte entwickeln. Immerhin scheinen die rechtlichen Hürden in Brüssel erkannt zu sein und das legt die Hoffnung nahe, dass auch hier bald durch den Gesetzgeber eine Wettbewerbsfähigkeit hergestellt werden kann.“

Ausblick: Deutsche KI-Fabrik als Startschuss für Europa

Jupiter ist der Startschuss eines der größten europäischen Experimente. Die geplanten KI-Fabriken rund um die in Jülich sollen ein Netz bilden, das Forschung, Industrie und Gesellschaft gleichermaßen stärkt. Die eigentliche Bewährungsprobe steht jedoch noch aus.

Ob die Jupiter AI Factory ein Ort des Aufbruchs wird oder sich in die Liste gescheiterter europäischer Großprojekte einreiht, wird sich in den kommenden Jahren zeigen. Entscheidend wird sein, wie transparent der Zugang geregelt wird und ob nicht nur Großkonzerne, sondern auch kleinere Akteure mitgestalten dürfen.

Die geplante ökologische Nutzung von Abwärme ist auf den ersten Blick zudem zwar vielversprechend, rentiert sich jedoch nur, wenn das Projekt als Ganzes von Erfolg gekrönt ist.

Letztlich wird vieles davon abhängen, ob es Europa gelingt, neben Rechenzentren auch Anwendungen zu etablieren, die den Menschen spürbar nutzen – beispielsweise in der Medizin oder im Mobilitätssektor.

Auch interessant:

Geht eine KI zum Arzt, Diagnose: Algorithmusstörungen

Weniger Einsteigerjobs: KI-Hype könnte Unternehmen teuer zu stehen kommen

Wer KI als Freund hat, braucht keine Feinde mehr

Ausgegoogelt? Ecosia und Qwant starten ersten europäischen Suchindex

Der Beitrag Erste deutsche KI-Fabrik: Unabhängigkeit von den USA und China? erschien zuerst auf BASIC thinking. Folge uns auch auf Google News und Flipboard oder abonniere unseren Newsletter UPDATE.

Technologie

via BASIC thinking https://www.basicthinking.de/blog/

August 19, 2025 at 11:06AM

·basicthinking.de·
Erste deutsche KI-Fabrik: Unabhängigkeit von den USA und China?
ChatGPT Cant Teach Us about Religion (or anything else for that matter)
ChatGPT Cant Teach Us about Religion (or anything else for that matter)

ChatGPT Can’t Teach Us about Religion (or anything else, for that matter)

https://religiondispatches.org/chatgpt-cant-teach-us-about-religion-or-anything-else-for-that-matter/

On Easter Sunday of this year, Open AI’s Large Language Model apparently developed a kind...

Religion

via Religion Dispatches https://religiondispatches.org

August 18, 2025 at 09:19PM

·religiondispatches.org·
ChatGPT Cant Teach Us about Religion (or anything else for that matter)
LibreOffice disst Microsoft startet Leitfaden zur ODF-Migration
LibreOffice disst Microsoft startet Leitfaden zur ODF-Migration

LibreOffice disst Microsoft, startet Leitfaden zur ODF-Migration

https://winfuture.de/news,152994.html

Nach der Kritik von LibreOffice an Microsofts komplexen Dateiformaten im Juli bietet die Open-Source-Suite nun einen kostenlosen Migrationsratgeber an. Der Leitfaden soll Nutzer beim Wechsel zum offenen ODF-Format unterstützen.

LibreOffice veröffentlicht ODF-Migrationsratgeber

Die Document Foundation hat einen kostenlosen Leitfaden für den Umstieg von Microsofts Dateiformaten auf das Open Document Format (ODF) vorgestellt. Damit reagiert die Organisation auf die anhaltende Kritik an der Abhängigkeit von Microsoft Office und möchte Anwendern konkrete Hilfestellung beim Wechsel geben.

Bereits im Juli hatte LibreOffice Microsoft vorgeworfen, durch bewusst komplexe Formate wie DOCX oder XLSX die Nutzung konkurrierender Software zu erschweren.

ODF als Alternative

Diese Strategie, so die Kritik, untergrabe die digitale Souveränität von Nutzern. Nun liefert die Stiftung praxisnahe Schritte, um sich von dieser Abhängigkeit zu lösen.

Das Open Document Format gilt als offener, internationaler Standard und wird von verschiedenen Office-Suiten unterstützt - darunter LibreOffice, Apache OpenOffice und teilweise auch Microsoft Office. Seine Offenheit soll langfristige Verfügbarkeit und Kompatibilität sichern, unabhängig von einzelnen Anbietern.

Der Weg zur Migration

Der neue Leitfaden gliedert den Wechsel in fünf Schritte:

Verständnis der Vorteile von ODF.

Dokumenteninventur, um aktive von archivierten Dateien zu trennen.

Planung, ob Dokumente auf einmal oder schrittweise konvertiert werden.

Technische Umsetzung per "Speichern unter"-Funktion oder Kommandozeilen-Skripten.

Einführung von ODF als Standardformat in internen Richtlinien.

Grenzen der Kompatibilität

Trotz aller Bemühungen bleibt die Interoperabilität eingeschränkt. Während einfache Texte meist problemlos konvertiert werden können, bereiten komplexe Tabellen, Makros oder aufwendig formatierte Präsentationen weiterhin Schwierigkeiten. LibreOffice führt dies vor allem auf die Beschränkungen proprietärer Formate zurück.

Was haltet ihr von LibreOffices Vorstoß gegen Microsoft? Habt ihr bereits Erfahrungen mit dem Wechsel zu offenen Formaten gemacht, oder seht ihr unüberwindbare Hürden bei der Migration? Download LibreOffice - quelloffene Office-Suite

LibreOffice sieht im Open Document Format (ODF) eine offene, transparente Alternative zu proprietären Formaten wie DOCX oder XLSX. ODF ist standardisiert und nicht an einen einzelnen Anbieter gebunden, was langfristige Zugänglichkeit, Datenschutz und Interoperabilität fördert.

Proprietäre Formate wie OOXML seien laut LibreOffice absichtlich komplex gestaltet, um Nutzer an Microsoft-Produkte zu binden. ODF hingegen ermögliche mehr digitale Souveränität und verhindert sogenannte Vendor-Lock-ins, also die Abhängigkeit von einem Anbieter.

Vendor-Lock-in beschreibt die strategische Bindung von Nutzern an einen bestimmten Anbieter durch inkompatible oder proprietäre Formate. Bei Microsoft Office betrifft das vor allem die Formate DOCX, XLSX und PPTX.

Laut LibreOffice erschwert Microsoft durch komplexe Formatstrukturen die Nutzung dieser Dateien in alternativen Programmen. Dies führe zu Darstellungsfehlern und verhindere einen einfachen Umstieg auf andere Softwarelösungen.

Die Migration erfolgt in fünf Schritten: Zuerst sollten Sie sich über die Vorteile von ODF informieren. Danach folgt eine Bestandsaufnahme Ihrer Dokumente - aktive, archivierte und obsolet gewordene Dateien sollten unterschieden werden.

Anschließend planen Sie den Ablauf: Pilotphase, Schulungen und Support sind sinnvoll. Danach konvertieren Sie die Dateien mit LibreOffice - manuell oder per Script. Abschließend wird ODF als Standardformat festgelegt und die Umstellung überwacht.

LibreOffice bietet eine integrierte Exportfunktion über "Datei > Speichern unter", um Dokumente in ODF zu speichern. Für große Mengen lassen sich auch Kommandozeilen-Skripte nutzen, etwa mit soffice --convert-to.

Zusätzlich empfiehlt sich eine Backup-Strategie für Originaldateien. Unternehmen sollten außerdem interne Richtlinien anpassen und ODF als Standardformat festlegen, um Rückmigrationen zu verhindern.

In komplexen Geschäftsszenarien kann LibreOffice mit ODF an Grenzen stoßen - etwa bei Pivot-Tabellen, Makros oder sehr spezifischen Formatierungen. Microsoft Office ist hier oft leistungsfähiger und besser integriert.

LibreOffice betont jedoch, dass diese Einschränkungen nicht am Format selbst, sondern an bewussten Kompatibilitätsbarrieren proprietärer Anbieter liegen. Für alltägliche Büroarbeiten sei ODF jedoch vollkommen ausreichend.

Beide Formate basieren auf XML, aber ODF ist ein offener ISO-Standard, der unabhängig entwickelt wird. OOXML hingegen stammt von Microsoft und ist trotz ISO-Zertifizierung stark an deren Produkte gebunden.

Laut LibreOffice ist OOXML unnötig komplex und enthält proprietäre Elemente, die die Interoperabilität erschweren. ODF hingegen sei vollständig dokumentiert, transparenter und besser für langfristige Archivierung geeignet.

ODF umfasst mehrere Dateitypen: .odt für Textdokumente, .ods für Tabellenkalkulationen und .odp für Präsentationen. Diese Formate sind mit vielen Programmen kompatibel, darunter LibreOffice, Collabora Office und OnlyOffice.

Sie können ODF-Dateien auch in Microsoft Office öffnen, allerdings mit eingeschränkter Formatierungstreue. Für maximale Kompatibilität empfiehlt sich die Nutzung nativer ODF-Editoren.

Zusammenfassung

Document Foundation veröffentlicht Leitfaden für Migration zu ODF-Format

LibreOffice kritisiert Microsofts komplexe Formate als Wettbewerbshindernis

Open Document Format verspricht langfristige Kompatibilität und Unabhängigkeit

Fünfstufiger Migrationsprozess hilft bei systematischer Umstellung auf ODF

Konvertierung komplexer Dokumente bleibt trotz Hilfestellung herausfordernd

Besonders öffentliche Einrichtungen profitieren von offenen Dokumentenstandards

Siehe auch:

Technologie

via WinFuture News https://winfuture.de/

August 17, 2025 at 12:04PM

·winfuture.de·
LibreOffice disst Microsoft startet Leitfaden zur ODF-Migration
TikToks Löscharbeiter: Sie haben die KI mittrainiert nun will TikTok sie loswerden
TikToks Löscharbeiter: Sie haben die KI mittrainiert nun will TikTok sie loswerden

TikToks Löscharbeiter: Sie haben die KI mittrainiert – nun will TikTok sie loswerden

https://www.spiegel.de/netzwelt/tiktoks-loescharbeiter-sie-haben-die-ki-mittrainiert-nun-will-tiktok-sie-loswerden-a-617ba5fe-383d-4d4f-8b4a-8913efd81476

TikToks Löscharbeiter in Berlin prüfen und entfernen Gewaltvideos und Hetze. Nun sollen sie gehen und warnen davor, ihren Job an eine KI auszulagern.

Technologie

via DER SPIEGEL - Netzwelt https://www.spiegel.de/

August 17, 2025 at 01:47PM

·spiegel.de·
TikToks Löscharbeiter: Sie haben die KI mittrainiert nun will TikTok sie loswerden
Lernkontext-Dateien bei der Nutzung von KI-Sprachmodellen
Lernkontext-Dateien bei der Nutzung von KI-Sprachmodellen

Lernkontext-Dateien bei der Nutzung von KI-Sprachmodellen

https://ebildungslabor.de/blog/lernkontext-dateien-bei-der-nutzung-von-ki-sprachmodellen/

In diesem Blogbeitrag möchte ich dir die Gestaltung und Nutzung von Lernkontext-Dateien bei der Interaktion mit KI-Sprachmodellen vorschlagen. Ich finde diese Möglichkeit sowohl aus Gründen von digitaler Mündigkeit (= die Hoheit über die eigenen Lerndaten haben und Maschinen bewusst instruieren), als auch aus pädagogischen Gründen (= das eigene Lernen sichtbar und reflektierbar machen) sehr hilfreich. Auf die grundsätzliche Idee bin ich bei der diesjährigen LernOS Convention gestoßen und habe seitdem viel damit experimentiert.

Ausgangspunkt: Personal Context Manager

Die Idee einer Lernkontext-Datei beruht auf der Idee eines ‚Personal Context Manager‘. Solch ein Personal Context Manager wird für verschiedene Themenbereiche (zum Beispiel auch das Selbstlernen) in diesem Github-Verzeichnis beschrieben. Hintergrund dafür ist, dass ein KI-Sprachmodell von sich aus natürlich erst einmal keine Informationen zum jeweiligen Kontext der Nutzenden hat. Wenn dieser Kontext deshalb gleich zu Beginn des Chats eingeführt wird, dann führt das zu passenderen und zielgerichteten Ausgaben.

Inzwischen bieten immer mehr KI-Anbieter vor diesem Hintergrund in den Einstellungen des jeweils eigenen Accounts deshalb auch genau solche Kontextualisierungen bzw. Personalisierungen an. Meistens wird man hier dazu aufgefordert, seine Präferenzen für die Kommunikation mit dem KI-Sprachmodell festzulegen. Gleichermaßen lassen sich natürlich auch inhaltliche Aspekte aufschreiben und als Grundlage für Chats festlegen. Unter anderem bei ChatGPT gibt es alternativ oder ergänzend auch noch die Option, die so genannte ‚Erinnerungsfunktion‘ eingestellt zu lassen. Dann bleibt der Kontext nicht nur innerhalb eines bestimmten Chats erhalten, sondern auch in allen weiteren Chats.

Beispiel für die Festlegung von Präferenzen im KI-Chat – hier bei duck.ai

Ein Personal Context Manager unterscheidet sich von diesem Vorgehen, weil ich meinen Kontext zunächst für mich selbst aufschreibe und auf meinem eigenen Gerät gespeichert habe. Wenn ich dann einen Chat beginne, dann füge ich den Inhalt der erstellten Datei als erstes in das Chatfenster ein oder lade die Datei hoch. Sinngemäß schreibe ich dann dazu: ‚Nutze diese Angaben im folgenden Chat‘. Immer mal wieder sollte ich mir Zeit nehmen, meinen Kontext zu überarbeiten und zu erweitern. Das kann ich auch in Interaktion mit KI-Sprachmodellen machen, indem ich am Ende von ausführlicheren Chats sinngemäß schreibe: ‚Ich habe am Anfang des Chats meinen Lernkontext mit dir geteilt. Welche Aspekte würdest du jetzt in diesem Kontext ergänzen?‘

Die überarbeitete Datei liegt dann wiederum bei mir auf dem Gerät. Ich kann deshalb unproblematisch zwischen unterschiedlichen KI-Anbietern wechseln, weil ich ja – egal mit welchem Modell und auf welcher Plattform ich gerade chatte – immer zu Beginn meinen Kontext teilen kann. Zudem kann ich mir auch unterschiedliche Kontexte erstellen: zum Beispiel einen, wenn es um das Schreiben von Texten geht und einen anderen, wenn es um die Konzeption von Lernangeboten geht. Aus diese Weise mache ich mir selbst meinen Kontext sehr viel mehr bewusst, weshalb sich diese Idee aus meiner Sicht ganz wunderbar zum Lernen eignet.

Lernkontext-Datei als pädagogische Ausgestaltung eines Personal Context Manager

Übertragen auf das Lernen bedeutet die Idee eines Personal Context Manager, dass ich meinen Lernkontext zu Beginn eines Chats deutlich mache. Ich kann also zum Beispiel inhaltliche Herausforderungen teilen, die ich angehen möchte oder was ich bereits erfolgreich gelernt habe und woran ich anschlie0en will. Vor allem kann ich aber auch deutlich machen, welche Lernwerkzeuge ich nutze, welche Form von Feedback für mich besonders hilfreich ist und wie die Chats für mich besonders hilfreich sein können. Auf diese Weise kann das Lernen dann besser funktionieren. Erstens, weil ich klare Angaben mache. Zweitens und vor allem aber auch, weil ich vorab über mein eigenes Lernen reflektiere und so auf einer Metaebene vor allem auch das Lernen selbst lerne.

Auf diese Weise sind es bei der Nutzung einer Lernkontext-Datei weder die Maschinen, die mich mit intransparenten Systemeinstellungen, die sich die anbietenden Unternehmen ausgedacht haben (oft wahrscheinlich zu Marketingzwecken, wie aktuell beim Study Mode von ChatGPT) durch einen Lernprozess führen. Noch sind es Lehrpersonen, die die Maschine mit einer Perspektive des Lehrens instruieren und mir als lernende Person dann zur Nutzung vorschlagen. Stattdessen wird die Perspektive des Lernens eingenommen: Ich bin herausgefordert, selbst Verantwortung für meinen Lernprozess zu übernehmen. Genau dieser Aspekt ist entscheidend und sollte in der pädagogischen Ausgestaltung von Lernkontext-Dateien in den Blick genommen werden.

Lernkontext-Dateien als pädagogische Herausforderung

Die Gestaltung und Nutzung von Lernkontext-Dateien ist eine große Herausforderung. Gerade Menschen, die bisher kaum bis gar nicht gelernt haben, Verantwortung für ihr eigenes Lernen zu übernehmen, werden davon wahrscheinlich erst einmal ziemlich überfordert sein. Die pädagogische Herausforderung besteht in dieser Situation darin, Schritt für Schritt zu dieser Verantwortungsübernahme zu befähigen. Das gelingt nicht dadurch, dass man als pädagogisch tätige Person fertige Lernkontext-Dateien erstellt und Lernende nur noch anleitet, wie sie diese in Chats einfügen müssen (oder noch schlechter: dieses Instruieren der Maschine schon vorab für Lernende übernimmt.). Stattdessen geht es darum, mit Lernenden über ihr Lernen zu reflektieren, ihnen zu zeigen, wie eine Lernkontext-Datei aussehen könnte, sie dazu zu ermutigen, sich eine erste Version ausgehend von einer Vorlage anzupassen und mit dieser zu experimentieren, dabei zu begleiten, den generierten Output zu bewerten und zu zeigen, wie sich die Lernkontext-Datei vielleicht besser gestalten lässt. Je weniger bewusst und selbstgesteuert Lernende bislang gelernt haben, desto kleinschrittiger wird hier eine Begleitung und Unterstützung sein müssen. Und natürlich kann das am Anfang durchaus auch bedeuten, eine Lernkontext-Datei auch erst einmal ganz vorzugeben. Dabei sollte aber nie der pädagogische Nordstern aus dem Blick verloren werden, dass das Ziel nicht (oder mindestens nicht nur) eine möglichst gut passende Lernkontext-Datei für die jeweilige Lernherausforderung ist, sondern vor allem die Befähigung, das eigene Lernen selbst in die Hand zu nehmen.

Anleitung zur Gestaltung einer Lernkontext-Datei

Eine Lernkontext-Datei soll natürlich vor allem maschinenlesbar sein. Gleichzeitig soll sie aber auch für Menschen verständlich sein, weil darüber ja auch gemeinsam reflektiert werden soll. Außerdem soll die Erstellung möglichst niederschwellig sein. Vor dem Hintergrund der Maschinenlesbarkeit, einer gut strukturierten Form der Inhalte und der einfachen Möglichkeit zur Erstellung von Vorlagen wird für den Personal Context Manager das Dateiformat JSON vorgeschlagen. Dieses Format bietet eine strukturierte Form, Informationen bereitzustellen und wird oft auch im Rahmen von Programmierung eingesetzt.

Hier wäre ein Beispiel, wie so etwas aussehen kann. Es war eine meine ersten Versuche mit Lernkontext-Dateien, sehr orientiert am Personal Context Manager und demzufolge auch auf englisch:

Lernkontext-Datei im JSON Format

Solch eine Datei lässt sich mit einem Texteditor erstellen und dann als .json abspeichern und nutzen. Alternativ lässt sich auch ein Online-Tool nutzen. Gerade wenn man eine Vorlage verwendet, ist beides kein Hexenwerk und ich gestalte meine eigenen Lernkontext-Dateien oft auf diese Weise. Allerdings habe ich die Erfahrung gemacht, dass eine gut strukturierte Textdatei, die ruhig auch deutschsprachig sein kann, ziemlich genau den gleichen Zweck erfüllt und zugleich für die meisten Menschen wahrscheinlich deutlich niederschwelliger in der Gestaltung und Nutzung ist. Für die meisten der aktuellen KI-Sprachmodelle ist das Einlesen der Informationen auch in diesem Format ganz genau so möglich. Deshalb finde ich im pädagogischen Kontext diesen Weg in den meisten Fällen sinnvoller. Das obige Beispiel würde dann einfach so aussehen:

Eine sprachlich und formattechnisch übersetzte Lernkontext-Datei

Meine Learnings für einen guten Einstieg

Von meinen Erkundungen möchte ich die folgenden Learnings teilen, die dir vielleicht bei deinem Einstieg mit Lernkontext-Dateien helfen können.

Ich habe mir die Gestaltung und Nutzung von Lernkontext-Dateien vor dem Hintergrund meines eigenen Lernens erschlossen. Diesen Weg empfehle ich dir sehr weiter, weil die Reflexion über das jeweils eigene Lernen sehr zielführend ist, um anschließend Lernende bei ihrer Reflexion über ihr Lernen zu begleiten.

In meinem Lernen finde ich Lernkontext-Dateien vor allem im Bereich meines technischen Lernens sehr hilfreich. Also zum Beispiel, wenn es darum geht, Herausforderungen auf meiner Website anzugehen, meinen KI-Server weiter zu entwickeln oder digitale Lerntools zu konzipieren. Es hilft dann viel, dass auf meiner Lernkontext-Karte mein eigenes technisches Setting (z.B. welches Betriebssystem ich nutze, auf welchem Content Management System meine Website läuft, welche Software mir zur Verfügung steht …) und auch meine Kenntnisse (z.B. kaum Ahnung von Server-Administration, Grundkenntnisse in der Administration von WordPress, Erfahrung mit Terminal-Nutzung) sowie Angaben zum erfolgreichen Lernen (= erst einen groben Überblick verschaffen, was denkbar wäre, dann Schritt für Schritt und möglichst einfach begleiten) dargestellt wird.

Eine weitere Erfahrung ist, dass ich unterschiedliche Lernkontext-Dateien für unterschiedliche Einsatzzwecke sehr hilfreich finde. Die oben beschriebene Lernkontext-Datei für technische Herausforderungen hilft zum Beispiel gar nicht, wenn ich an der Formulierung von Texten s

·ebildungslabor.de·
Lernkontext-Dateien bei der Nutzung von KI-Sprachmodellen
Windows 11: Riesiges Vorschau-Update liefert knapp 40 Neuerungen
Windows 11: Riesiges Vorschau-Update liefert knapp 40 Neuerungen

Windows 11: Riesiges Vorschau-Update liefert knapp 40 Neuerungen

https://winfuture.de/news,152978.html

Im neuen Release-Preview-Build von Windows 11 24H2 gibt Microsoft einen Ausblick auf knapp 40 Anpassungen und neue Funktionen, die alle Nutzer Ende des Monats erwarten. So wird etwa Windows Hello angepasst und neue Einstellungen werden verfügbar.

Neue Vorschau für Windows 11 24H2

Microsoft arbeitet wie immer an neuen Funktionen und Verbesserungen für sein Betriebssystem. Gerade erst hat man die allgemeine Verfügbarkeit der neuen Backup-App unter Windows 10 verkündet. Und auch Windows 11 bekam zum Patch Day im August neben Sicherheitsverbesserungen einige neue Features - auch wenn die Aktualisierung nicht auf allen Systemen immer glattlief.

Zudem steht jetzt eine neue Release-Vorschau für Windows 11 24H2 bereit und bringt zahlreiche Neuerungen mit sich. Build 26100.5061 (KB5064081) ist aktuell im Release-Preview-Kanal verfügbar und wird gegen Ende August für alle regulären Nutzer freigegeben.

Laut Microsoft konzentriert sich das Update stark auf künstliche Intelligenz und verbesserte Benutzererfahrung. Das Unternehmen aus Redmond hat in den vergangenen Monaten verstärkt auf KI-Integration gesetzt, um Windows 11 für die Zukunft zu rüsten und um im KI-Rennen Schritt zu halten.

KI-Features stehen im Mittelpunkt

Die neue Version bringt umfangreiche KI-Funktionen mit sich. Recall erhält eine komplett überarbeitete Startseite, die jüngste Aktivitäten und häufig genutzte Apps und Websites übersichtlich darstellt. Click to Do bietet zudem ein interaktives Tutorial und ermöglicht lokale KI-Aktionen für Text und Bilder direkt auf dem Gerät. Diese Funktion funktioniert also ohne Internetverbindung und verarbeitet Daten lokal, was Datenschutzbedenken entgegenwirken soll. Die neue Startseite von Recall Auch der Datei-Explorer bekommt neuen KI-Aktionen. Nutzer können per Rechtsklick auf Bilder verschiedene KI-gestützte Bearbeitungen vornehmen, wie Hintergründe entfernen, Objekte löschen oder eine visuelle Suche durchführen. Für Microsoft-365-Abonnenten steht zusätzlich eine Zusammenfassungsfunktion für Dokumente zur Verfügung, die längere Texte automatisch analysiert und Kernpunkte extrahiert.

Windows Hello wird modernisiert

Das Update bringt außerdem eine vollständig überarbeitete Windows-Hello-Oberfläche mit sich. Das neue Design erscheint bei verschiedenen Authentifizierungsabläufen, einschließlich dem Windows-Anmeldebildschirm. Windows Hello erhält ein modernisiertes Design Nutzer können zudem einfacher zwischen verschiedenen Authentifizierungsoptionen wie Passkeys wechseln. Die Passkey-Unterstützung wurde erst kürzlich erweitert und ermöglicht eine passwortlose Anmeldung bei unterstützten Websites und Diensten.

PowerShell weg, Backup neu dabei

Windows 11 entfernt PowerShell 2.0 vollständig. Diese seit 2017 als veraltet eingestufte Komponente wird aus dem System gelöscht, um die Legacy-Angriffsfläche zu reduzieren. PowerShell 2.0 stammt aus dem Jahr 2009 und gilt als Sicherheitsrisiko, da es moderne Sicherheitsfeatures nicht unterstützt. PowerShell 5.1 und PowerShell 7.x bleiben weiterhin verfügbar und unterstützt.

Zusätzlich wird für Unternehmen Windows Backup allgemein verfügbar, eine Enterprise-Lösung für nahtlose Gerätewechsel mit Sicherungs- und Wie­der­her­stel­lungs­funk­tio­nen für Entra-verbundene Geräte. Diese Funktion richtet sich speziell an Unternehmen, die ihre IT-Infrastruktur modernisieren möchten.

Weitere Verbesserungen

Die Einstellungen-App erhält eine neue erweiterte Seite, die Entwickleroptionen und systemweite Einstellungen zusammenfasst. Zu den neuen Funktionen gehören die Aktivierung langer Pfade, virtuelle Arbeitsplätze und Git-Integration im Datei-Explorer. Diese Änderungen kommen besonders Entwicklern zugute, die bisher auf Drittanbieter-Tools angewiesen waren. Nutzer erhalten mehr Einstellungsmöglichkeiten Der Task-Manager verwendet nun standardisierte CPU-Metriken für konsistente Anzeigen, und die Benachrichtigungszentrale kann optional wieder eine größere Uhr mit Sekundenanzeige darstellen. Microsoft hat auch kleinere Verbesserungen an der Benutzeroberfläche vorgenommen, die das Gesamterlebnis flüssiger gestalten sollen.

Wer sich die komplette Liste der knapp 40 Anpassungen an Windows 11 24H2 ansehen möchte, die die Release-Vorschau mit sich bringt und die Ende August für alle Nutzer freigegeben werden, findet den entsprechenden Eintrag auf dem Microsoft-Blog.

Was haltet ihr von den neuen KI-Features in Windows 11? Seht ihr sie als nützliche Ergänzung oder überflüssige Spielerei? Teilt eure Erfahrungen mit uns in den Kommentaren.

Zusammenfassung

Windows 11 24H2 erhält knapp 40 Anpassungen und neue Funktionen

KI-Integration mit lokalem Recall und Click-to-Do für verbesserte Nutzung

Datei-Explorer erhält KI-gestützte Bildbearbeitungsfunktionen

Vollständig überarbeitete Windows-Hello-Oberfläche mit Passkey-Unterstützung

PowerShell 2.0 wird aus Sicherheitsgründen vollständig entfernt

Neue Entwickleroptionen und systemweite Einstellungen in der App

Update wird Ende August 2025 für alle regulären Nutzer freigegeben

Siehe auch:

Technologie

via WinFuture News https://winfuture.de/

August 15, 2025 at 06:05PM

·winfuture.de·
Windows 11: Riesiges Vorschau-Update liefert knapp 40 Neuerungen
PowerToys 0.93: Riesiges Update bringt neues Dashboard 99 Fixes
PowerToys 0.93: Riesiges Update bringt neues Dashboard 99 Fixes

PowerToys 0.93: Riesiges Update bringt neues Dashboard + 99 Fixes

https://winfuture.de/news,152980.html

Microsofts beliebte Tool-Sammlung wurde für Version 0.93 an vielen Stellen überarbeitet. Das große Update bringt ein neu gestaltetes Dashboard und erhebliche Leistungsverbesserungen mit. Zudem wurden satte 99 Fehler mit der Befehlspalette behoben.

PowerToys wird schneller und schlanker

Microsoft hat Version 0.93 seiner kostenlosen PowerToys-Sammlung veröffentlicht und dabei deutliche Fortschritte bei der Leistung und Benutzerfreundlichkeit gemacht. Die neue Version lädt laut den Entwicklern um 40 Prozent schneller als der Vorgänger, verbraucht 15 Prozent weniger Arbeitsspeicher beim Start und benötigt sogar 55 Prozent weniger Speicherplatz bei der Installation.

Diese Verbesserungen erreichte das Team durch die Implementierung der Ahead-of-Time-Kompilierung (AOT) im Windows App SDK. Besonders die Befehlspalette, das Herzstück der Tool-Sammlung, profitiert von den Optimierungen. So sinkt die Ladezeit der integrierten Erweiterungen um satte 70 Prozent.

Überarbeitetes Dashboard und neue Funktionen

Die größte sichtbare Änderung betrifft die Benutzeroberfläche. PowerToys 0.93 führt ein komplett überarbeitetes, kartenbasiertes Dashboard ein, das sich an der Optik von Windows 11 orientiert. Nutzer können jetzt auf einen Blick erkennen, welche Tools aktiv sind, alle Tastenkombinationen zentral einsehen und Module direkt von der Startseite aus starten.

Die Befehlspalette erhält ebenfalls wichtige Ergänzungen. So ist die Zwischenablage-Historie nach ihrer temporären Deaktivierung zurückgekehrt. Nutzer können zudem Lieblings-Apps anheften und Tastenkombinationen für Kontextmenüs verwenden. Zudem unterstützt die Run-Erweiterung jetzt einen Befehlsverlauf für häufig verwendete Kommandos.

Das neugestaltete Dashboard von PowerToys 0.93

Mouse Highlighter mit Spotlight-Modus

Eine weitere Neuerung stellt der Spotlight-Modus des Mausmarkers dar. Anstatt nur einen Kreis um den Cursor zu zeichnen, dimmt dieser Modus den gesamten Bildschirm ab und hebt nur den Bereich um die Maus hervor. Diese Funktion eignet sich besonders für Bildschirmaufnahmen und Präsentationen.

Weitere Module erhielten ebenfalls Updates: Die Vorschau unterstützt nun Binary G-code-Dateien für 3D-Drucker, die schnelle Akzentuierung wurde um vollständige Vietnamesisch-Unterstützung erweitert, und der Rechner akzeptiert jetzt Leerzeichen in Zahlen mit Tausendertrennzeichen.

Die neue Spotlight-Option des Mausmarkers hebt den Mauszeiger noch deutlicher hervor

99 Probleme behoben

Das Entwicklungsteam von Microsoft hat nach eigenen Angaben zudem 99 Probleme der Befehlspalette behoben. Dazu gehören Darstellungsfehler bei der Acryl-Optik, Probleme beim Fensterfokus und fehlerhafte Navigation mit Alt+Pfeil-Links. Diese umfangreichen Fehlerbehebungen sollen die Stabilität und Zuverlässigkeit der gesamten Tool-Suite verbessern.

Die vollständigen Änderungsnotizen finden sich auf der GitHub-Seite des Projekts. PowerToys ist kostenlos verfügbar und unterstützt Windows 10 ab Version 2004 sowie alle Windows 11-Versionen.

Das Projekt wird aktiv von der Community unterstützt und erhält regelmäßig Updates. Die Entwicklung erfolgt transparent auf GitHub, wo Nutzer Fehler melden, Features vorschlagen und sogar eigene Beiträge einreichen können. Diese offene Entwicklungsweise hat dazu beigetragen, dass PowerToys zu einer der beliebtesten Erweiterungen für Windows geworden ist.

Was haltet ihr von den Neuerungen in PowerToys 0.93? Nutzt ihr die Tool-Sammlung regelmäßig und welche Funktionen sind für euch besonders wichtig? Download PowerToys - Werkzeug-Sammlung von Microsoft

Zusammenfassung

PowerToys erhält ein neues Update auf Version 0.93

Tool-Sammlung lädt 40 Prozent schneller und verbraucht 15 Prozent weniger RAM

Neues kartenbasiertes Dashboard orientiert sich am Windows-11-Design

Befehlspalette erhält Zwischenablage-Historie und Anpinnen von Lieblings-Apps

Neuer Spotlight-Modus dimmt den Bildschirm ab und hebt Mausbereich hervor

Das Update behebt 99 Probleme bei der Befehlspalette und verbessert Stabilität

PowerToys unterstützt Windows 10 ab Version 2004 und alle Windows-11-Versionen

Entwicklung erfolgt transparent auf GitHub mit aktiver Community-Unterstützung

Siehe auch:

Technologie

via WinFuture News https://winfuture.de/

August 15, 2025 at 08:06PM

·winfuture.de·
PowerToys 0.93: Riesiges Update bringt neues Dashboard 99 Fixes
Der richtige Umgang mit Smartphone. Von Mark Kleber
Der richtige Umgang mit Smartphone. Von Mark Kleber

Der richtige Umgang mit Smartphone. Von Mark Kleber

https://www.swr.de/swr1/der-richtige-umgang-mit-smartphone-von-mark-kleber-100.html

Könnten wir ohne Smartphone leben? Die Debatte um ein Verbot für Kinder wirft auch Fragen an uns Erwachsene auf – wäre ein Leben ohne den kleinen Kasten noch denkbar?

Religion

via SWR1 Sonntagmorgen https://www.swr.de/swr1/sonntagmorgen-podcast-102.html

August 15, 2025 at 01:38PM

·swr.de·
Der richtige Umgang mit Smartphone. Von Mark Kleber
Google releases pint-size Gemma open AI model
Google releases pint-size Gemma open AI model

Google releases pint-size Gemma open AI model

https://arstechnica.com/google/2025/08/google-releases-pint-size-gemma-open-ai-model/

Big tech has spent the last few years creating ever-larger AI models, leveraging rack after rack of expensive GPUs to provide generative AI as a cloud service. But tiny AI matters, too. Google has announced a positively tiny version of its Gemma open model, designed to run on local devices. Google says the new Gemma 3 270M can be tuned in a snap and maintains robust performance despite its small footprint.

Google released its first Gemma 3 open models earlier this year, featuring between 1 billion and 27 billion parameters. In generative AI, the parameters are the learned variables that control how the model processes inputs to estimate output tokens. Generally, the more parameters in a model, the better it performs. With just 270 million parameters, the new Gemma 3 can run on devices like smartphones or even entirely inside a web browser.

Running an AI model locally has numerous benefits, including enhanced privacy and lower latency. Gemma 3 270M was designed with these kinds of use cases in mind. In testing with a Pixel 9 Pro, the new Gemma was able to run 25 conversations on the Tensor G4 chip and use just 0.75 percent of the device's battery. That makes it by far the most efficient Gemma model.

Gemma 3 270M shows strong instruction-following for its small size.

Credit: Google

Gemma 3 270M shows strong instruction-following for its small size.

Credit: Google

Developers shouldn't expect the same performance level of a multi-billion-parameter model, but Gemma 3 270M has its uses. Google used the IFEval benchmark, which tests a model's ability to follow instructions, to show that its new model punches above its weight. Gemma 3 270M hits a score of 51.2 percent in this test, which is higher than other lightweight models that have more parameters. The new Gemma falls predictably short of 1B+ models like Llama 3.2, but it gets closer than you might think for having just a fraction of the parameters.

Technologie

via Ars Technica - All content https://arstechnica.com

August 14, 2025 at 11:04PM

·arstechnica.com·
Google releases pint-size Gemma open AI model
Viele Hürden: Düstere Aussichten für deutsches Social-Media-Verbot
Viele Hürden: Düstere Aussichten für deutsches Social-Media-Verbot

Viele Hürden: Düstere Aussichten für deutsches Social-Media-Verbot

https://netzpolitik.org/2025/viele-huerden-duestere-aussichten-fuer-deutsches-social-media-verbot/

Einige deutsche Spitzenpolitiker*innen fordern ein Social-Media-Verbot für Minderjährige. Realistisch ist das aber nicht. Das zeigt eine nüchterne Analyse der Wissenschaftlichen Dienste des Bundestags.

Einfach alles verbieten, na, wie wärs? (Symbolbild) – Alle Rechte vorbehalten IMAGO/photothek; Bearbeitung: netzpolitik.org

Die CDU-Familienministerin Karin Prien will es. Die SPD-Justizministerin Stefanie Hubig will es. Und CDU-Digitalminister Karsten Wildberger würde es persönlich unterstützen. Es geht um ein Social-Media-Verbot für Minderjährige, etwa bis sie 16 Jahre alt sind. Australien macht es gerade vor, und auch andere EU-Mitgliedstaaten liebäugeln damit, darunter Frankreich, Spanien und Griechenland.

Nun haben die Wissenschaftlichen Dienste des Bundestags eine Analyse zur Frage vorgelegt, inwiefern Deutschland ein gesetzliches Mindestalter für soziale Medien überhaupt einführen kann. Die Forscher*innen arbeiten laut Selbstbeschreibung parteipolitisch neutral und sachlich objektiv. Auf den elf Seiten ihres Berichts betrachten sie das Thema aus juristischer Perspektive. Es geht also nicht darum, was pädagogisch sinnvoll wäre oder nicht.

Für einen nationalen Alleingang von Deutschland oder auch anderen EU-Mitgliedstaaten sehen die Forscher*innen gleich mehrere Hürden. Sie verweisen in ihrem Fazit stattdessen auf alternative Maßnahmen zu einem Social-Media-Verbot. Das lässt sich als Wink mit dem Zaunpfahl an die zuständigen Minister*innen deuten, die Verbotsfantasien noch mal zu überdenken.

Erste Hürde: Wir haben das alles doch schon besprochen

Die erste Hürde für ein deutsches Social-Media-Verbot ist der Umstand, dass sich die Europäische Union längst auf andere Vorschriften zum Jugendmedienschutz geeinigt hat. Dabei hat Deutschland natürlich mitverhandelt. Eines der wichtigsten EU-Gesetze in diesem Kontext ist das noch recht frische Gesetz über digitale Dienste (DSA).

Das besondere am DSA ist seine sogenannte „vollharmonisierende“ Wirkung. Einfach ausgedrückt heißt das: Die Mitgliedstaaten dürfen nicht mehr ihr eigenes Süppchen kochen. Stattdessen tun sie das, worauf sie sich auf EU-Ebene gemeinsam geeinigt haben. Das nennt man auch Anwendungsvorrang. Hierzu schreiben die Forschenden:

Der sogenannte Anwendungsvorrang von europäischem Recht kann zur Folge haben, dass nationales Recht nicht mehr anzuwenden ist, sofern es eine vollharmonisierende unionsrechtliche Regelung der entsprechenden Materie gibt.

Einen solchen Anwendungsvorrang sehen die Wissenschaftlichen Dienste auch bei potenziellen Social-Media-Verboten. Denn das Thema ist im DSA eigentlich geregelt. Dieses Gesetz nennt Werkzeuge zur Altersüberprüfung als eine von mehreren möglichen Maßnahme zum Schutz von Minderjährigen – je nach konkretem Risiko einer Plattform.

Eine generelle Pflicht zu Alterskontrollen nach australischem Vorbild ist im DSA aber nicht vorgesehen. Entsprechend sehen die Forscher*innen „gewichtige Hürden“, wenn eine nationale Altersgrenze für soziale Medien eingeführt werden soll.

Zweite Hürde: Bitte nicht alle auf einmal

Auch die zweite Hürde für ein deutsches Social-Media-Verbot ist ein EU-Gesetz, und zwar die E-Commerce-Richtlinie. Unter anderem dort ist das sogenannte Herkunftslandprinzip verankert. Einfach ausgedrückt geht es darum, dass Unternehmen in der EU nicht verschiedene Vorschriften aus 27 Mitgliedstaaten jonglieren sollen, sondern stattdessen eine klare Anlaufstelle bekommen: Die zuständigen Behörden aus dem Land, in dem sie ihren Hauptsitz haben.

Die Forscher*innen drücken das so aus: „Demnach gelten für einen Anbieter, der in einem EU-Mitgliedsstaat niedergelassen ist, nur die jeweiligen nationalen Rechtsvorgaben.“

Deshalb hat Irland ein so großes netzpolitisches Gewicht in der EU – dort sitzen die großen Plattformen wie TikTok-Mutter Bytedance oder Meta. Es kann also sein, dass ein deutsches Social-Media-Verbot für so wichtige Plattformen wie TikTok keine Wirkung hätte, weil TikTok seinen EU-Hauptsitz nicht in Deutschland hat. Die Forscher*innen schreiben, es dürfte „fraglich sein“, ob ein deutsches Social-Media-Verbot Auswirkungen „entfalten“ kann.

Ja, aber…

Klar zum Scheitern verurteilt sind Bestrebungen für ein deutsches Social-Media-Verbot trotzdem nicht, wie aus dem Bericht der Wissenschaftlichen Dienste hervorgeht. Es gibt nämlich durchaus Spielräume für einzelne Mitgliedstaaten wie Deutschland.

Hier kommt ein anderes EU-Gesetz ins Spiel, und zwar die Richtlinie über audiovisuelle Mediendienste (AVMD-RL). Diese Richtlinie ist älter als der DSA und sieht durchaus vor, dass Mitgliedstaaten auch eigene Vorschriften entwickeln. Der Haken: Die AVMD-RL bezieht sich gezielt auf Video-Sharing-Plattformen – darunter fallen etwa YouTube oder Pornoseiten. Alle Social-Media-Plattformen lassen sich aber nicht per AVMD-RL regulieren, wie die Forscher*innen erklären. „Fotografien und Bilder zählen hingegen nicht zu diesen audiovisuellen Darstellungen“, heißt es beispielsweise im Bericht.

Kurzum: Da sind zwei EU-Gesetze, AVMD-RL und DSA, die nicht optimal zusammenpassen. Aber sie gelten beide.

Es ist nicht der einzige Fall, in dem sich Gesetze zum Jugendmedienschutz beißen oder schlecht ineinandergreifen. Ein weiteres Beispiel ist Deutschlands föderale Medienaufsicht, aufgefächert in mehrere Landesmedienanstalten. Dort versuchen Medienwächter*innen auf Basis des Jugendmedienschutz-Staatsvertrags (JMStV) den Jugendschutz im Netz durchzusetzen. Das Problem: Die EU-Kommission sieht in der jüngsten Novelle des JMStV einen Konflikt mit der „Vollharmoniserung“ des DSA und dem Herkunftslandprinzip.

Zwist statt Harmonie

Der wohlige Klang des Begriffs Vollharmonisierung führt also in die Irre. Vielmehr besteht ein Nebeneinander von mehreren Vorschriften zum Jugendschutz, die Behörden auf mehreren Ebenen durchsetzen wollen. Dabei gibt es Konflikte – nicht nur mit Unternehmen, die sich ungern regulieren lassen wollen, sondern auch unter den Regulierungsbehörden selbst, die um Einfluss ringen und ungern Kompetenzen abtreten.

Die trügerische Sicherheit von Alterskontrollen im Netz

Konflikte klären und verbindliche Entscheidungen herbeiführen, das müssen im Zweifel Gerichte tun. Konkretes Beispiel: Seit Jahren prozessiert Pornhub gegen Alterskontrollen durch die deutsche Medienaufsicht. Dabei geht es auch um die Frage, ob Pornhub aus Düsseldorf (Landesmedienanstalt Nordrhein-Westfalen) oder aus Brüssel (EU-Kommission) reguliert werden soll. Der Ausgang ist ungewiss.

Entsprechend düster sind die Aussichten für ein wirksames deutsches Social-Media-Verbot für Minderjährige, das nicht an einer der vielen Hürden zerschellen würde. Nüchtern schlussfolgern die Forscher*innen:

Der beschriebene Anwendungsvorrang europäischer Normen sowie das Herkunftslandprinzip können sich als Hürde bei der Einführung eines gesetzlichen Mindestalters für die Nutzung sozialer Netzwerke herausstellen.

Ein möglicher Ausweg wäre eine Lösung direkt auf EU-Ebene. Dort wird auch gerade kontrovers diskutiert, in welchem Umfang Alterskontrollen das Internet dominieren sollen. Grundlage ist allerdings der DSA, der sich eben nicht nur auf soziale Medien fokussiert, sondern sich in der Breite mit digitalen Diensten befasst. Neben der Option zu Altersschranken sieht das Gesetz viele weitere Maßnahmen vor, die sich an den spezifischen Risiken eines Diensts orientieren.

Es gibt also noch mehr Werkzeuge als Altersschranken, um Minderjährige im Netz zu schützen – und diese Werkzeuge liegen mit dem DSA teilweise schon bereit. Mit einem Hinweis auf Alternativen beenden auch die Wissenschaftlichen Dienste ihren Bericht. Konkret nennen sie „strukturelle Vorsorgemaßnahmen, Medienkompetenzförderung und altersgerechte Gestaltung der Plattformen“.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Verschiedenes

via netzpolitik.org https://netzpolitik.org

August 13, 2025 at 04:02PM

·netzpolitik.org·
Viele Hürden: Düstere Aussichten für deutsches Social-Media-Verbot
Mindestalter für TikTok und Co.: Leopoldina empfiehlt Verbot von Social-Media-Accounts für Kinder unter 13 Jahren
Mindestalter für TikTok und Co.: Leopoldina empfiehlt Verbot von Social-Media-Accounts für Kinder unter 13 Jahren

Mindestalter für TikTok und Co.: Leopoldina empfiehlt Verbot von Social-Media-Accounts für Kinder unter 13 Jahren

https://www.spiegel.de/panorama/bildung/social-media-leopoldina-empfiehlt-verbot-von-social-media-accounts-fuer-kinder-unter-13-jahren-a-3833e107-1481-4d00-b187-171368be9487

Die Leopoldina ist die Nationale Akademie der Wissenschaften Deutschlands mit Sitz in Halle an der Saale. Als unabhängige Institution berät sie Politik und Gesellschaft in wissenschaftlichen Fragen und vertritt die deutsche Wissenschaft in internationalen Gremien.

Özdemir forderte Social-Media-Verbot für unter 16-Jährige

Auch aus der Politik wurden zuletzt Bedenken zum Umgang von Kindern mit sozialen Medien geäußert. So hatte der Grünenpolitiker Cem Özdemir am Montag gefordert, die Nutzung von Social Media für Kinder und Jugendliche unter 16 Jahren zu verbieten. »Wir lassen Jugendliche auch nicht einfach ohne Führerschein hinters Steuer. Es gibt Fahrstunden und ein schrittweises Ranführen. So müssen wir es auch mit den sozialen Medien halten«, sagte er der Nachrichtenagentur dpa. Mehr dazu lesen Sie hier.

via DER SPIEGEL

August 13, 2025 at 04:16PM

·spiegel.de·
Mindestalter für TikTok und Co.: Leopoldina empfiehlt Verbot von Social-Media-Accounts für Kinder unter 13 Jahren
Mac-App Jan führt freie KI-Modellen von OpenAI lokal aus
Mac-App Jan führt freie KI-Modellen von OpenAI lokal aus

Mac-App Jan führt freie KI-Modellen von OpenAI lokal aus

https://www.ifun.de/mac-app-jan-fuehrt-freie-ki-modellen-von-openai-lokal-aus-262756/

Mit der kostenlosen Anwendung Jan steht Mac-Nutzern eine quelloffene Alternative zu ChatGPT zur Verfügung, die vollständig lokal betrieben wird. Die App ermöglicht den Einsatz sogenannter Large Language Models (LLMs), ohne dass Nutzereingaben über das Internet verarbeitet oder an externe Server übermittelt werden.

Die Anwendung lässt sich über die offizielle Projektseite oder GitHub beziehen und wurde nach Angaben des Entwicklerteams bereits über 3,8 Millionen Mal heruntergeladen.

Möglich ist auch die Integration von gpt-oss, dem erst kürzlich freigegebenen quelloffenen Sprachmodell von OpenAI. Dieses wurde unter der Apache-2.0-Lizenz veröffentlicht und kann laut Beschreibung auf handelsüblichen Geräten installiert und betrieben werden. Die Entwickler betonen, dass damit unter anderem unbegrenzte Nutzung ohne laufende Kosten sowie eine vollständige Kontrolle über persönliche Daten möglich sei. Nach der einmaligen Einrichtung arbeitet die App vollständig offline.

Installation ohne technisches Vorwissen

Die Nutzung von gpt-oss über Jan erfordert mindestens 16 GB Arbeitsspeicher und etwa 11 GB freien Speicherplatz. Ein leistungsfähiger Prozessor oder eine moderne Grafikkarte beschleunigen die Antwortzeiten, sind aber nicht zwingend erforderlich. Nach dem Download der App muss das gewünschte Modell über den sogenannten „Model Hub“ heruntergeladen werden. Die Installation erfolgt automatisch, sodass auch technisch weniger versierte Anwender keinen manuellen Eingriff vornehmen müssen.

Anschließend kann direkt über eine einfache Chat-Oberfläche mit dem gewählten Modell gearbeitet werden. Funktionen wie lokale Dateianalyse, individuelle Erweiterungen sowie die geplante Einführung von Assistenten ergänzen das Angebot. Die App stellt zudem eine lokale Programmierschnittstelle bereit, über die sich Jan in andere Anwendungen integrieren lässt.

Offline für 0€/Monat

Das Projekt versteht sich als Gegenentwurf zu cloudbasierten Lösungen großer Anbieter. Nach eigener Darstellung legen die Entwickler Wert auf Transparenz, lokale Datenverarbeitung und Konfigurierbarkeit. Alle Inhalte würden auf dem Rechner des Nutzers gespeichert, eine Weitergabe an Dritte finde nicht statt. Zusätzlich könne das Verhalten des Systems über Erweiterungen oder eigene Einstellungen umfassend angepasst werden. Die Nutzung des KI-Modells ist unlimitiert und komplett kostenlos.

Der Beitrag Mac-App Jan führt freie KI-Modellen von OpenAI lokal aus erschien zuerst auf ifun.de.

Technologie

via ifun.de https://www.ifun.de/

August 13, 2025 at 06:52AM

·ifun.de·
Mac-App Jan führt freie KI-Modellen von OpenAI lokal aus
How to get AI to work in 22 languages
How to get AI to work in 22 languages

How to get AI to work in 22 languages

https://www.bbc.com/news/articles/cn0qqzz1e4zo

How to get AI to work in 22 languages

Priti Gupta Technology Reporter

Priti Gupta

Translation tech has made work easier for Vineet Sawant

Vineet Sawant has spent the last two years navigating the streets of Mumbai on a scooter as a delivery driver.

"Being on the road is always very stressful and especially in cities like Mumbai," he says.

But when he started out language barriers were an additional problem.

His first language is Marathi and Mr Sawant speaks "very little" English. "I can understand but it's very difficult to read," he explains.

That caused problems at his new job.

He said: "At first, it was difficult. Everything was in English, and I can understand some of it, but I'm more comfortable in Marathi. I used to ask other delivery guys to help me figure out what to do."

His employer, Zepto, promises "India's Fastest Online Grocery Delivery". So having drivers struggling with delivery instructions was not ideal.

To smooth this process a year ago, Zepto partnered with Reverie Language Technologies to introduce an AI translation service for its drivers.

Since then its delivery drivers have been able to choose between six languages on the Zepto app.

"I don't have to guess anymore," says Mr Sawant.

"Earlier I would take more time to read and sometimes even made mistakes. Now if the customer writes 'ring bell', I get that instruction in Marathi. So, I don't have to ask or check again. It's all clear."

Getty Images

India has 22 official languages and hundreds of dialects

Mr Sawant's difficulties are common.

"India has 22 official languages and hundreds of dialects," says Professor Pushpak Bhattacharyya, from IIT Mumbai, one of India's leading experts in the use of AI in Indian languages.

"Without tech, that understands and speaks these languages, millions are excluded from the digital revolution - especially in education, governance, healthcare, and banking," he points out.

The rollout of new generative AI systems, like ChatGPT, has made the task more urgent.

Vast amounts of data, like web pages, books or video transcripts are used to train an AI.

In widely spoken languages like Hindi and English that is relatively easy to get, but for others it is more difficult.

"The main challenge to create Indian language models is the availability of data. I'm talking about refined data. Coarse quality data, is available. But that data is not of very high quality, it needs filtering," says Professor Bhattacharyya.

"The issue in India is for many Indian languages, especially tribal and regional dialects, this data simply doesn't exist or is not digitised."

Reverie Language Technologies is now deploying its AI-driven translation technology for a range of Indian companies.

Co-founder Vivekananda Pani says that while translation technology will make communication easier, there is "potential for less common dialects to be pushed aside".

"The challenge will be to make sure that the amazing benefits of AI-driven language advancements don't accidentally shrink the rich variety of human language."

To help tackle the problem Professor Bhattacharyya has contributed to Bhashini, a government project to develop those high quality datasets needed to train an AI.

As well as the datasets, Bhashini has built AI language models and translation services in 22 languages.

Started in 2022, it's a huge undertaking, but has already made a lot of progress.

Bhashini currently hosts 350 AI-based language models that have processed more than a billion tasks.

More than 50 government departments work with Bhashini, as well as 25 state governments.

For example Bhashini tech is used in multi-lingual chatbots for public services and to translate government schemes into local languages.

"Bhashini ensures India's linguistic and cultural representation by building India-specific AI models rather than relying on global platforms," says Amitabh Nag, CEO of Digital India, Bhashini Division.

He hopes that within the next two or three years rural users will have voice-enabled access to government services, financial tools and information systems in their native languages.

Getty Images

Indian researches are developing an AI to help smokers quit

These India-focused datasets will hopefully one day give people developing AI-based models the tools to make it much easier to adapt them for the entire population.

Currently, designing any AI programme to deal with complex processes such as healthcare can be extremely challenging.

Kshitij Jadhav, an associate professor at the Koita Centre for Digital Health at IIT Mumbai, is working on an AI programme which would help people quit smoking.

He explains that people at different stages of the process need different advice and they usually need a well-trained human to make that assessment.

But there are a limited number of practitioners who can help, particularly those that can operate in multiple languages, so Professor Jadhav is hoping his AI model can bridge the gap.

The AI "will first identify the kind of conversation the person needs and accordingly will frame questions, show empathy, emotions," says Professor Jadhav.

And all that, hopefully, will eventually be done in 22 languages. Initial experiments are underway in English and Hindi.

"It will be very customized, it will not be something just off the shelf," he says.

Back on the streets of the city, Vineet Sawant has increased the number of parcels he delivers from ten to around 30 a day, helped in part by the translation function in the delivery app.

He thinks it will help more people like him.

"It makes us feel like we belong. Not everyone understands English. When the app speaks our language, we feel more confident, and we work better."

More Technology of Business

via Artificial Intelligence https://flipboard.com/topic/artificialintelligence

August 12, 2025 at 01:34AM

·bbc.com·
How to get AI to work in 22 languages