IA đź’€

Google's toying with nonsense AI-made headlines on articles like ours in the Discover feed, so please don't blame me for clickbait like 'BG3 players exploit children'
Google's toying with nonsense AI-made headlines on articles like ours in the Discover feed, so please don't blame me for clickbait like 'BG3 players exploit children'
Google Discover réécrit par IA les titres des articles mis en avant. Les titres par IA sont trompeurs et ne correspondent pas au contenu réel des articles. Google prétend que c'est une expérimentation.
·pcgamer.com·
Google's toying with nonsense AI-made headlines on articles like ours in the Discover feed, so please don't blame me for clickbait like 'BG3 players exploit children'
L’IA (générative) n’a pas supprimé les tâches subalternes dans les rédactions - Next
L’IA (générative) n’a pas supprimé les tâches subalternes dans les rédactions - Next
Les journalistes britanniques qui utilisent beaucoup l'IA sont aussi ceux qui se plaignent de faire trop de "tâches subalternes". On ne sait pas si c'est parce que l'IA génère de nouvelles tâches subalternes (nettoyage de données, prompt, etc.)... Ou si c'est parce que ces journalistes avaient déjà beaucoup de tâches subalternes (qui expliqueraient leur passion pour l'IA).
·next.ink·
L’IA (générative) n’a pas supprimé les tâches subalternes dans les rédactions - Next
South Korea’s Experiment in AI Textbooks Ends in Disaster
South Korea’s Experiment in AI Textbooks Ends in Disaster
Quatre mois après le lancement des manuels faits par IA, ils sont devenus facultatifs tellements ils etaient mauvais. La moitié des écoles affiliées à ce projet l'a quitté.
·futurism.com·
South Korea’s Experiment in AI Textbooks Ends in Disaster
Microsoft ne comprend pas le manque d’émerveillement face à l’IA
Microsoft ne comprend pas le manque d’émerveillement face à l’IA
Microsoft veut construire un produit qui n'a aucun rapport avec les besoins ou les attentes de ses clients et clientes, mais ses responsables ne comprennent pas le problème. Les gens veulent un OS qui se fasse oublier, performant et pour jouer. Windows 11 et l'obsession agentique ne répond à rien de tout ça, et les promesses marketing sont toutes déçues par l'expérience réelle.
·next.ink·
Microsoft ne comprend pas le manque d’émerveillement face à l’IA
The swimming pool on the Titanic isn't full of water
The swimming pool on the Titanic isn't full of water
Vidéo d'animation 3D d'une recherche Google "La piscine du Titanic est toujours pleine d'eau". Après la recherche, on voit les cables qui transmettent l'info depuis l'ordinateur de la personne à travers le monde, qui arrivent à un datacenter d'IA, qui fait des calculs complexes, puis qui renvoie l'info à travers des cables, des tours de communication, à travers le monde, pour finir par renvoyer une réponse à l'IA qui explique que sous la pression des profondeurs, la piscine du Titanic va casser et l'eau va s'en échapper donc elle ne sera pas pleine d'eau.
·framapiaf.org·
The swimming pool on the Titanic isn't full of water
End of Japanese community | SUMO community discussions | Forums | Mozilla Support
End of Japanese community | SUMO community discussions | Forums | Mozilla Support
La communauté de traducteurs bénévole de Mozilla démissionne suite à la mise en prod d'un outil IA qui a écrasé leur travail, n'as pas respecté les conventions de traduction, et a été lancé sans les consulter.
·support.mozilla.org·
End of Japanese community | SUMO community discussions | Forums | Mozilla Support
Quand les IA génératives se prennent pour des médecins… et que les utilisateurs y croient - Next
Quand les IA génératives se prennent pour des médecins… et que les utilisateurs y croient - Next

Présents avant 2025, les avertissements indiquant aux utilisateurices que le chatbot n'est pas un médecin ont disparu. Idem pour les clauses de non responsabilité médicale.

Une étude montre aussi que les utilisateurices sont incapables de distinguer une réponse IA de celle d'un⋅e médecin, mais qu'iels préfèrent la réponse IA.

La confiance envers l'IA révèle aussi la défiance envers le corps médical, qui peut juger, ne pas écouter, etc. et conduire les personnes à exagérer leurs troubles ou

·next.ink·
Quand les IA génératives se prennent pour des médecins… et que les utilisateurs y croient - Next
AI generated Sam Altman shoplifting video
AI generated Sam Altman shoplifting video
Les vidéos IA s'appuient sur leur faible résolution pour être convaicantes. Elles font donc d'excellentes fausses vidéos de surveillance, puisque ces caméras sont de mauvaise qualité.
·bsky.app·
AI generated Sam Altman shoplifting video
OpenAI Says It's Scanning Users' Conversations and Reporting Content to the Police
OpenAI Says It's Scanning Users' Conversations and Reporting Content to the Police
Entre les psychoses liées à l'IA qui finissent en bain de sang et les instructions pour se suicider, ChatGPT contribue à des violences bien réelles. OpenAI réagit en annonçant que les conversations qui parlent de faire du mal aux autres sont escaladées à une équipe de modération, voire à la police.
·futurism.com·
OpenAI Says It's Scanning Users' Conversations and Reporting Content to the Police
AI False Information Rate Nearly Doubles in One Year (2024-2025)
AI False Information Rate Nearly Doubles in One Year (2024-2025)

The 10 leading AI tools repeated false information on topics in the news more than one third of the time — 35 percent — in August 2025, up from 18 percent in August 2024

The increase reflects a structural tradeoff. As chatbots adopted real-time web searches, they moved away from declining to answer questions. Their non-response rates fell from 31 percent in August 2024 to 0 percent in August 2025.

Instead of citing data cutoffs or refusing to weigh in on sensitive topics, the LLMs now pull from a polluted online information ecosystem and treat unreliable sources as credible.

·newsguardtech.com·
AI False Information Rate Nearly Doubles in One Year (2024-2025)
AI Search Sends Users to 404 Pages Nearly 3X More Than Google
AI Search Sends Users to 404 Pages Nearly 3X More Than Google
Parce qu'elle s'appuie sur des données anciennes (liens morts) et qu'elle génère des réponses probables (hallucinations), les IA génératives envoient plus souvent vers des pages 404 que le reste des outils. Même si le volume d'erreur reste très faible (~2,3% au plus pour ChatGPT).
·searchenginejournal.com·
AI Search Sends Users to 404 Pages Nearly 3X More Than Google
Deloitte aurait rendu au gouvernement Australien un rapport avec des hallucinations d’IA
Deloitte aurait rendu au gouvernement Australien un rapport avec des hallucinations d’IA

Deloitte est suspectée d'avoir rendu un rapport au moins partiellement rédigé par IA et n'ayant pas été suffisamment relu. Il contient des citations d'articles scientifiques et une décision de justice qui n'existent pas.

Deloitte a refusé de répondre aux journaliste sur l'éventuelle utilisation d'une IA pour rédiger son rapport. Selon Next, c'est la 1re fois qu'une entreprise des Big Four est prise la main dans le sac pour une si grosse mission (le rapport bouclait une mission à 245K€)

·next.ink·
Deloitte aurait rendu au gouvernement Australien un rapport avec des hallucinations d’IA
Med-Gemini, l’IA médicale de Google, a halluciné des ganglions inexistants dans le cerveau
Med-Gemini, l’IA médicale de Google, a halluciné des ganglions inexistants dans le cerveau
Une équipe Google publie un préprint où elle démontre l'usage de son IA pour la médecine, mais l'article parle de "basilar ganglion", un terme qui n'existe pas. Alertée, elle corrige discrètement le terme dans sa communication, mais pas dans l'article scientifique, qui reste un préprint.
·next.ink·
Med-Gemini, l’IA médicale de Google, a halluciné des ganglions inexistants dans le cerveau
L'intelligence artificielle au cœur d'une guerre des sources : un administrateur Wikipédia des Pyrénées-Orientales témoigne
L'intelligence artificielle au cœur d'une guerre des sources : un administrateur Wikipédia des Pyrénées-Orientales témoigne
D'un coté, les contributions IA à Wikipédia sont de plus en plus nombreuses et difficiles à bloquer ("ChatGPT écris-moi ça dans le style de Wikipédia)" et fatiguent la communauté bénévole. De l'autre, la fréquentation baisse, risquant une baisse des dons et la mort du projet.
·madeinperpignan.com·
L'intelligence artificielle au cœur d'une guerre des sources : un administrateur Wikipédia des Pyrénées-Orientales témoigne
Est-ce une bonne idée de booster les outils d'imagerie médicale avec de l'IA ? - Next
Est-ce une bonne idée de booster les outils d'imagerie médicale avec de l'IA ? - Next
Les outils boostés à l'IA baissent significativement les capacités du personnel médical à détecter lui-même les signes de cancer. Après l'exposition à l'IA pendant une bonne période, le taux de détection fait avec des outils sans IA baisse significativement. Les personnels pourraient se reposer sur l'outil, être moins motivés, moins concentrés et moins responsables lorsqu'ils prennent des décisions cognitives sans l'aide de l'IA. Un problème, d'autant que l'outil fait beaucoup de faux positifs, provoquant des interventions inutiles.
·next.ink·
Est-ce une bonne idée de booster les outils d'imagerie médicale avec de l'IA ? - Next