IA TL;DR

42 bookmarks
Custom sorting
Devs say AI crawlers dominate traffic, forcing blocks on entire countries
Devs say AI crawlers dominate traffic, forcing blocks on entire countries
Les robots qui scrappent le web pour les IA ne respectent pas le code de conduite du web, et scrappent même les sites qui demandent à ne pas l'être. Le trafic généré par ces robots est tellement fort qu'il met en danger certains projets open source, dont les sites sont pilonnés par ces robots.
·arstechnica.com·
Devs say AI crawlers dominate traffic, forcing blocks on entire countries
[Enquête] Plus de 1 000 médias en français, générés par IA, polluent le web (et Google)
[Enquête] Plus de 1 000 médias en français, générés par IA, polluent le web (et Google)

Longue enquête en plusieurs épisodes sur la pollution du web par des sites genAI, qui peuvent plagier et publier en 20 minutes un contenu produit par un vrai journaliste. Ces sites produisent à la chaîne des dizaines de plagiats par jour.

Ils sont très bien repris par Google News, Discover et les moteurs de recherche (https://next.ink/154914/google-actualites-est-truffe-darticles-plagies-par-des-ia/) et plagient aussi la PQR (https://next.ink/158809/la-presse-regionale-est-elle-aussi-cannibalisee-par-des-sites-dinfos-generes-par-ia/)

L'utilisation de GenAI est prisée à l'extrême droite, où l'on a même le directeur pédagogique d'une école de journalisme qui assume (https://next.ink/162296/le-directeur-pedagogique-dune-ecole-de-journalisme-genere-ses-articles-par-ia/)

Next propose un guide pratique pour détecter ces sites (https://next.ink/165310/comment-reconnaitre-les-sites-dinfos-generes-par-des-ia/), une extension navigateur pour être alerté quand on arrive sur l'un deux, et un guide pour identifier les faux-positifs (https://next.ink/172262/faux-positifs-comment-reconnaitre-les-contenus-identifies-a-tort-comme-generes-par-ia/)

MÀJ : À l'opposé de tout ça, Google restreint sévèrement l'usage de l'AI pour faire des publicités en ligne... sa source principale de revenus (https://next.ink/171952/google-penalise-les-publicites-generees-par-ia-mais-pas-les-medias-generes-par-ia/).

·next.ink·
[Enquête] Plus de 1 000 médias en français, générés par IA, polluent le web (et Google)
Word frequency tool ‘wordfreq’ stops updates, overwhelmed by AI spam
Word frequency tool ‘wordfreq’ stops updates, overwhelmed by AI spam
L'outil WordFreq étudiait la fréquence d'usage des mots dans plusieurs langues, pour suivre l'évolution des langues. Les textes générés par IA ont tellement pollué ses sources que le projet a fermé. Il n'est plus possible d'étudier la langue telle qu'elle est écrite par des humains après 2021.
·pivot-to-ai.com·
Word frequency tool ‘wordfreq’ stops updates, overwhelmed by AI spam
AI can't stop making up software dependencies and sabotaging everything
AI can't stop making up software dependencies and sabotaging everything

Les IA génératives citent régulièrement des bibliothèques de code qui n'existent pas vraiment. Des pirates en profitent pour créer des malwares qui portent le nom de ces bibliothèques fictives.

C'est généralisable : l'IA hallucine une fausse information, et quelqu'un génère du contenu qui correspond à cette hallucination pour la légitimer a posteriori et donner l'impression qu'elle était vraie au départ

·theregister.com·
AI can't stop making up software dependencies and sabotaging everything
IA, Philosophie du Libre et Féminisme - Khrys - JdLL2025
IA, Philosophie du Libre et Féminisme - Khrys - JdLL2025

L'IA n'est pas un ensemble de techniques, même très diverses. Des technos qu'on considérait avant comme de l'IA ne sont plus classées comme telles aujourd'hui. L'IA est un projet idéologique de domination qui n'est pas résumable au capitalisme.

Il a une dimension patriarcale. Les représentations féminisme de l'IA prolongent des imaginaires de science-fiction sexistes. Il y a un fantasme est de créer des esclaves numériques conscients, mais dont paradoxalement on voudrait garder le contrôle. Ce projet est incompatible avec le libre.

La base technique qu'on appelle "IA" de façon courante, les SRAS (Système résultant d’apprentissage stochastique) ne peut pas non plus être libre. Le code public n'est rien sans les données d'entraînement publiques. Or ces données sont des boites noires qui ne sont pas partagées, ou pas partageables (car issues du vol et de la domination).

Diapo : https://khrys.eu.org/conferences/ia-libre-f%C3%A9minisme/

·videos-libr.es·
IA, Philosophie du Libre et Féminisme - Khrys - JdLL2025
Ce n'est pas l'IA que vous détestez, c'est le capitalisme ! - Pierre-Yves Gosset - JdLL2025
Ce n'est pas l'IA que vous détestez, c'est le capitalisme ! - Pierre-Yves Gosset - JdLL2025

Présentation large de ce qu'est l'IA (pas que les LLM), puis les raisons de ne pas aimer l'IA (à 00:52) et une explication de ses liens économiques et matériels avec les oligopoles du numérique (Google, Amazon, Microsoft, Meta). Résumé à 1h24, suivi de l'analyse politique de l'orateur sur l'IA (avis + stratégies de lutte). Note qu'il pense que le monde avec IA est inévitable, ce qui est contesté par d'autres.

PDF la présentation : https://asso.framasoft.org/nextcloud/public.php/dav/files/Cfob6MMcmxsZkGt/2025/2025-05-30-JDLL/IA%20et%20capitalisme_v4.pdf p. 11-31 = présentation de l'IA ; p. 32-61 = risques associés ; p. 62-105 = liens avec le système économique (résumés p. 103-104) ; p. 106-fin = analyse politique. La p. 70 sur "qui possède l'IA" et la p. 98 sur les biais liés à l'américano-centrisme des données sont marquantes.

·videos-libr.es·
Ce n'est pas l'IA que vous détestez, c'est le capitalisme ! - Pierre-Yves Gosset - JdLL2025
Exploitation, destruction et techno-fascisme : la face cachée de l'IA
Exploitation, destruction et techno-fascisme : la face cachée de l'IA

L'intelligence artificielle est faite à la main, sa promesse oblige à masquer sa matérialité dans l'exploitation du travail humain. Avant les logiciels s'appuyaient sur des règles, maintenant c'est sur des données, c'est ça l'IA.

Il n'y aura jamais d'automatisation complète, car la production et l’étiquetage des données se fait à la main par des personnes du Sud global, au profit des pays du Nord (colonialisme, racisme latent).

Les promoteurs de l'IA font non-stop des promesses que ça va s'améliorer, mais ça n'arrive jamais. En 2025, la collusion entre AI tech et fascistes est un fait.

En déportant les pauvres dans leurs "pays d'origine", les USA veulent quand même que les déportés continuent à travailler pour eux sur des données.

·video.blast-info.fr·
Exploitation, destruction et techno-fascisme : la face cachée de l'IA
Ali Alkhatib: Defining AI
Ali Alkhatib: Defining AI

Définir l'IA par rapport à son fonctionnement interne ou en la comparant aux résultats produits par des humains est inefficace. L'IA n'est pas une technologie, mais une constellation de technologies disparates (reconnaissance faciale, prédiction d’occurrence d'un fait).

La différence technique entre une arme létale et une arme non-létale masque qu'elles servent toutes les deux à faire la police de la même façon. Ce qui unit les technologies d'IA c'est leur projet politique : supprimer l'autonomie et réduire le pouvoir des individus, en transférant l'autorité vers des structures de pouvoir centralisées.

Cette définition permet de donner un sens à notre expérience de l'IA en général, au-delà des acteurs et des technologies différentes.

·ali-alkhatib.com·
Ali Alkhatib: Defining AI
IA un problème (PDF, 800ko)
IA un problème (PDF, 800ko)

Position des Designers éthiques sur l'IA, au terme de la 2e journée écoconception numérique (février 2025). Utiliser l'IA devrait rester exceptionnel en raison de ses impacts sociaux (cf. cartographie p.5) et écologiques négatifs. Le choix de l'utiliser devrait résulter d'un processus démocratique.

L'IA est à l'opposé de l'expertise, qui s'acquiert autrement. Elle produit par conception des résultats médiocres. C'est aussi une technologie politique, comme tout dans le numérique.

https://journee-ecoconception-numerique.fr/programme/conf/ia-un-probleme

·api.raindrop.io·
IA un problème (PDF, 800ko)
Numérique et éthique : l’impossible équation ? - Paris Web
Numérique et éthique : l’impossible équation ? - Paris Web

Un état des lieux complet des problèmes écologiques, sociaux, politiques et éthiques liées à l'industrie de la tech avant l'émergence de l'IA, en 50 min de vidéo.

Hors-sujet par rapport à la collection, mais pose le contexte initial avant 2022 et l'explosion de l'IA dans les préoccupations médiatiques.

·paris-web.fr·
Numérique et éthique : l’impossible équation ? - Paris Web
Pourquoi je n’utilise pas ChatGPT
Pourquoi je n’utilise pas ChatGPT

Enseignante-chercheuse en informatique, elle refuse d'utiliser ChatGPT car les impacts sociaux-environnementaux du numérique sont déjà préoccupants sans l'IA, et que l'IA vient d'acteurs économiques très concentrés, avec un projet politique qu'elle rejette.

Une IA alternative, éthique, souveraine, etc. ne l'intéresse pas plus : elle normaliserait les autres IAs, ne serait pas forcément privilégiée sur elle, et ne règle pas le fait qu'on a peut-être juste pas besoin des LLM dans l'absolu.

À supposer qu'il y ait des usages utiles, ils ne valent pas le coup. 1) Il n'y aura pas de gain de temps, juste une réallocation du temps à autre chose, pas forcément mieux : le numérique actuel nous le montre déjà. 2) L'usage comme démarreur de texte revient à plagier sans le vouloir, tout en donnant ses idées créatives (financées par le public) à ChatGPT.

Enfin 3) automatiser les tâches répétitives "peu intéressantes" change la structure des métiers. En remplaçant les juniors par des robots, on empêche l'apparition de professionnels seniors. L'évolution du métier de traducteur (où c'est déjà le cas) montre que ça rend le métier pénible, sans réel gain de temps.

·academia.hypotheses.org·
Pourquoi je n’utilise pas ChatGPT
AI Chatbots Discourage Error Checking
AI Chatbots Discourage Error Checking
Vérifier la fiabilité d'une réponse de chatbot est complexe, chronophage, et suppose des compétences que les utilisateurs n'ont pas. Avec un son très "sûr d'eux-mêmes", les chatbots actuels n'incitent pas à vérifier. Ces outils promettent d'augmenter l'efficience (= rapport effort / résultat), et leurs utilisateurs les adoptent pour cette efficience promise. Si on croit à cette promesse, on n'a aucune raison de vérifier s'il y a des erreurs.
·nngroup.com·
AI Chatbots Discourage Error Checking
Technology Myths and Urban Legends
Technology Myths and Urban Legends
Quand les utilisateurs ne comprennent pas clairement comment un système fonctionne, ils imaginent des théories bizarres (et souvent fausses) pour tenter d'expliquer ce qu'ils vivent. Un fonctionnement particulièrement vrai avec l'IA.
·nngroup.com·
Technology Myths and Urban Legends
LLMO : de l’optimisation de marque dans l’IA générative
LLMO : de l’optimisation de marque dans l’IA générative

À l'instard du SEO ou du SMO, l'optimisation pour les LLM (aka LLMO) promet d'apprendre à modifier la perception d'une marque dans les LLM.

Il n'y a aucune preuve que ça marche. Si ça marchait, ça ne serait pas durable : les LLM (et les techniques pour optimiser) évoluent en continu. D'autant que les LLM ont déjà es biais sur les marques.

Bref, ça promet d'être encore plus opaque que l'optimisation pour l'algo de Google

·danslesalgorithmes.net·
LLMO : de l’optimisation de marque dans l’IA générative
Portal Kombat : quand la désinformation russe "biberonne" ChatGPT et autres IA
Portal Kombat : quand la désinformation russe "biberonne" ChatGPT et autres IA

La Russie a fait du LLMO pour changer les sorties de ChatGPT, Perplexity, Claude, etc. sur certains sujets. Pour ça, ils ont utilisé des centaines de faux sites générant de la propagande automatiquement.

Conclusion : le LLMO peut marcher, si on a les moyens d'un État pour créer un réseau entier de faux contenus, et aucune considération éthique ou écologique

·france24.com·
Portal Kombat : quand la désinformation russe "biberonne" ChatGPT et autres IA
Intelligence artificielle : l’explicabilité, cette notion « chiante »
Intelligence artificielle : l’explicabilité, cette notion « chiante »

L’interprétabilité permet de comprendre ce que fait une IA. L’explicabilité consiste à savoir pourquoi elle a pris une décision spécifique.

Malgré des lois européennes censées garantir l'explicabilité des décisions de l'IA, le secteur est incapable d'expliquer ses résultats et s'en contrefiche

·next.ink·
Intelligence artificielle : l’explicabilité, cette notion « chiante »
Les mythes de l’IA
Les mythes de l’IA

Les discours autour de l'IA produisent des mythes qui obscurcissent notre compréhension de ce qu'elle est et servent les intérêts des promoteurs de l'IA.

Mythe du contrôle : fait croire que le système est plus fiable qu'il n'est, qu'il nous apporte de la productivité, et que nous le contrôlons (mythe du prompt).

Mythe de l'intelligence : fait croire que les systèmes sont intelligents, apprennent comme nous, et sont créatifs (confusion entre résultat créatif et processus créatif).

Mythe futuriste : fait croire que les problèmes constatés seront résolus à l'avenir, qu'il suffit de plus de données (passage à l'échelle) et que l'IA pourrait devenir une machine qui agit d'elle-même

·danslesalgorithmes.net·
Les mythes de l’IA
The AI Risk Repository
The AI Risk Repository
Base de données qui inventorie les risques liés à l'IA, les décrits, et permet de naviguer dedans selon plusieurs axes. À combiner avec AVID, la liste des vulnérabilités et des échecs connus de l'IA https://avidml.org/. Et avec la liste des incidents liés à l'IA https://incidentdatabase.ai/
·airisk.mit.edu·
The AI Risk Repository
Les IA génératives tournent mal quand elles sont entraînées sur leurs propres données
Les IA génératives tournent mal quand elles sont entraînées sur leurs propres données

Les IA génératives (genAI, LLM) ont besoin d'un matériau source généré par des humains. Entraîner les IA sur des données générées par des IA donne des résultats désastreux.

Problème : si tout le monde produit des données plus ou moins synthétiques, les données humaines vont se raréfier, et les modèles d'IA ne pourront plus être correctement entraînés Cf. https://next.ink/145131/lentrainement-sur-des-donnees-synthetiques-talon-dachille-de-lia-generative

·next.ink·
Les IA génératives tournent mal quand elles sont entraînées sur leurs propres données
Underage Workers Are Training AI
Underage Workers Are Training AI
Au milieu des travailleurs des pays pauvres qui étiquettent les données pour rendre possible l'IA : des adolescents de 15-17 ans, qui modèrent parfois des contenus violents, haineux ou sexuels.
·wired.com·
Underage Workers Are Training AI
When Should We Trust AI? Magic-8-Ball Thinking and AI Hallucinations
When Should We Trust AI? Magic-8-Ball Thinking and AI Hallucinations
Faire confiance aux IA (LLM) est facile et encouragé par ses promoteurs, mais les systèmes sont si faillibles qu'on ne devrait les utiliser que pour des choses vérifiables ou dont on connaît déjà la réponse. Ce qui limite l'intérêt.
·nngroup.com·
When Should We Trust AI? Magic-8-Ball Thinking and AI Hallucinations