IA TL;DR
Longue enquête en plusieurs épisodes sur la pollution du web par des sites genAI, qui peuvent plagier et publier en 20 minutes un contenu produit par un vrai journaliste. Ces sites produisent à la chaîne des dizaines de plagiats par jour.
Ils sont très bien repris par Google News, Discover et les moteurs de recherche (https://next.ink/154914/google-actualites-est-truffe-darticles-plagies-par-des-ia/) et plagient aussi la PQR (https://next.ink/158809/la-presse-regionale-est-elle-aussi-cannibalisee-par-des-sites-dinfos-generes-par-ia/)
L'utilisation de GenAI est prisée à l'extrême droite, où l'on a même le directeur pédagogique d'une école de journalisme qui assume (https://next.ink/162296/le-directeur-pedagogique-dune-ecole-de-journalisme-genere-ses-articles-par-ia/)
Next propose un guide pratique pour détecter ces sites (https://next.ink/165310/comment-reconnaitre-les-sites-dinfos-generes-par-des-ia/), une extension navigateur pour être alerté quand on arrive sur l'un deux, et un guide pour identifier les faux-positifs (https://next.ink/172262/faux-positifs-comment-reconnaitre-les-contenus-identifies-a-tort-comme-generes-par-ia/)
MÀJ : À l'opposé de tout ça, Google restreint sévèrement l'usage de l'AI pour faire des publicités en ligne... sa source principale de revenus (https://next.ink/171952/google-penalise-les-publicites-generees-par-ia-mais-pas-les-medias-generes-par-ia/).
Les IA génératives citent régulièrement des bibliothèques de code qui n'existent pas vraiment. Des pirates en profitent pour créer des malwares qui portent le nom de ces bibliothèques fictives.
C'est généralisable : l'IA hallucine une fausse information, et quelqu'un génère du contenu qui correspond à cette hallucination pour la légitimer a posteriori et donner l'impression qu'elle était vraie au départ
L'IA n'est pas un ensemble de techniques, même très diverses. Des technos qu'on considérait avant comme de l'IA ne sont plus classées comme telles aujourd'hui. L'IA est un projet idéologique de domination qui n'est pas résumable au capitalisme.
Il a une dimension patriarcale. Les représentations féminisme de l'IA prolongent des imaginaires de science-fiction sexistes. Il y a un fantasme est de créer des esclaves numériques conscients, mais dont paradoxalement on voudrait garder le contrôle. Ce projet est incompatible avec le libre.
La base technique qu'on appelle "IA" de façon courante, les SRAS (Système résultant d’apprentissage stochastique) ne peut pas non plus être libre. Le code public n'est rien sans les données d'entraînement publiques. Or ces données sont des boites noires qui ne sont pas partagées, ou pas partageables (car issues du vol et de la domination).
Diapo : https://khrys.eu.org/conferences/ia-libre-f%C3%A9minisme/
Présentation large de ce qu'est l'IA (pas que les LLM), puis les raisons de ne pas aimer l'IA (à 00:52) et une explication de ses liens économiques et matériels avec les oligopoles du numérique (Google, Amazon, Microsoft, Meta). Résumé à 1h24, suivi de l'analyse politique de l'orateur sur l'IA (avis + stratégies de lutte). Note qu'il pense que le monde avec IA est inévitable, ce qui est contesté par d'autres.
PDF la présentation : https://asso.framasoft.org/nextcloud/public.php/dav/files/Cfob6MMcmxsZkGt/2025/2025-05-30-JDLL/IA%20et%20capitalisme_v4.pdf p. 11-31 = présentation de l'IA ; p. 32-61 = risques associés ; p. 62-105 = liens avec le système économique (résumés p. 103-104) ; p. 106-fin = analyse politique. La p. 70 sur "qui possède l'IA" et la p. 98 sur les biais liés à l'américano-centrisme des données sont marquantes.
L'intelligence artificielle est faite à la main, sa promesse oblige à masquer sa matérialité dans l'exploitation du travail humain. Avant les logiciels s'appuyaient sur des règles, maintenant c'est sur des données, c'est ça l'IA.
Il n'y aura jamais d'automatisation complète, car la production et l’étiquetage des données se fait à la main par des personnes du Sud global, au profit des pays du Nord (colonialisme, racisme latent).
Les promoteurs de l'IA font non-stop des promesses que ça va s'améliorer, mais ça n'arrive jamais. En 2025, la collusion entre AI tech et fascistes est un fait.
En déportant les pauvres dans leurs "pays d'origine", les USA veulent quand même que les déportés continuent à travailler pour eux sur des données.
Définir l'IA par rapport à son fonctionnement interne ou en la comparant aux résultats produits par des humains est inefficace. L'IA n'est pas une technologie, mais une constellation de technologies disparates (reconnaissance faciale, prédiction d’occurrence d'un fait).
La différence technique entre une arme létale et une arme non-létale masque qu'elles servent toutes les deux à faire la police de la même façon. Ce qui unit les technologies d'IA c'est leur projet politique : supprimer l'autonomie et réduire le pouvoir des individus, en transférant l'autorité vers des structures de pouvoir centralisées.
Cette définition permet de donner un sens à notre expérience de l'IA en général, au-delà des acteurs et des technologies différentes.
Position des Designers éthiques sur l'IA, au terme de la 2e journée écoconception numérique (février 2025). Utiliser l'IA devrait rester exceptionnel en raison de ses impacts sociaux (cf. cartographie p.5) et écologiques négatifs. Le choix de l'utiliser devrait résulter d'un processus démocratique.
L'IA est à l'opposé de l'expertise, qui s'acquiert autrement. Elle produit par conception des résultats médiocres. C'est aussi une technologie politique, comme tout dans le numérique.
https://journee-ecoconception-numerique.fr/programme/conf/ia-un-probleme
Un état des lieux complet des problèmes écologiques, sociaux, politiques et éthiques liées à l'industrie de la tech avant l'émergence de l'IA, en 50 min de vidéo.
Hors-sujet par rapport à la collection, mais pose le contexte initial avant 2022 et l'explosion de l'IA dans les préoccupations médiatiques.
Enseignante-chercheuse en informatique, elle refuse d'utiliser ChatGPT car les impacts sociaux-environnementaux du numérique sont déjà préoccupants sans l'IA, et que l'IA vient d'acteurs économiques très concentrés, avec un projet politique qu'elle rejette.
Une IA alternative, éthique, souveraine, etc. ne l'intéresse pas plus : elle normaliserait les autres IAs, ne serait pas forcément privilégiée sur elle, et ne règle pas le fait qu'on a peut-être juste pas besoin des LLM dans l'absolu.
À supposer qu'il y ait des usages utiles, ils ne valent pas le coup. 1) Il n'y aura pas de gain de temps, juste une réallocation du temps à autre chose, pas forcément mieux : le numérique actuel nous le montre déjà. 2) L'usage comme démarreur de texte revient à plagier sans le vouloir, tout en donnant ses idées créatives (financées par le public) à ChatGPT.
Enfin 3) automatiser les tâches répétitives "peu intéressantes" change la structure des métiers. En remplaçant les juniors par des robots, on empêche l'apparition de professionnels seniors. L'évolution du métier de traducteur (où c'est déjà le cas) montre que ça rend le métier pénible, sans réel gain de temps.
À l'instard du SEO ou du SMO, l'optimisation pour les LLM (aka LLMO) promet d'apprendre à modifier la perception d'une marque dans les LLM.
Il n'y a aucune preuve que ça marche. Si ça marchait, ça ne serait pas durable : les LLM (et les techniques pour optimiser) évoluent en continu. D'autant que les LLM ont déjà es biais sur les marques.
Bref, ça promet d'être encore plus opaque que l'optimisation pour l'algo de Google
La Russie a fait du LLMO pour changer les sorties de ChatGPT, Perplexity, Claude, etc. sur certains sujets. Pour ça, ils ont utilisé des centaines de faux sites générant de la propagande automatiquement.
Conclusion : le LLMO peut marcher, si on a les moyens d'un État pour créer un réseau entier de faux contenus, et aucune considération éthique ou écologique
L’interprétabilité permet de comprendre ce que fait une IA. L’explicabilité consiste à savoir pourquoi elle a pris une décision spécifique.
Malgré des lois européennes censées garantir l'explicabilité des décisions de l'IA, le secteur est incapable d'expliquer ses résultats et s'en contrefiche
Les discours autour de l'IA produisent des mythes qui obscurcissent notre compréhension de ce qu'elle est et servent les intérêts des promoteurs de l'IA.
Mythe du contrôle : fait croire que le système est plus fiable qu'il n'est, qu'il nous apporte de la productivité, et que nous le contrôlons (mythe du prompt).
Mythe de l'intelligence : fait croire que les systèmes sont intelligents, apprennent comme nous, et sont créatifs (confusion entre résultat créatif et processus créatif).
Mythe futuriste : fait croire que les problèmes constatés seront résolus à l'avenir, qu'il suffit de plus de données (passage à l'échelle) et que l'IA pourrait devenir une machine qui agit d'elle-même
Les IA génératives (genAI, LLM) ont besoin d'un matériau source généré par des humains. Entraîner les IA sur des données générées par des IA donne des résultats désastreux.
Problème : si tout le monde produit des données plus ou moins synthétiques, les données humaines vont se raréfier, et les modèles d'IA ne pourront plus être correctement entraînés Cf. https://next.ink/145131/lentrainement-sur-des-donnees-synthetiques-talon-dachille-de-lia-generative