IA TL;DR
Position des Designers éthiques sur l'IA, au terme de la 2e journée écoconception numérique (février 2025).
Utiliser l'IA devrait rester exceptionnel en raison de ses impacts sociaux (cf. cartographie p.5) et écologiques négatifs. Le choix de l'utiliser devrait résulter d'un processus démocratique.
L'IA est à l'opposé de l'expertise, qui s'acquiert autrement. Elle produit par conception des résultats médiocres. C'est aussi une technologie politique, comme tout dans le numérique.
https://journee-ecoconception-numerique.fr/programme/conf/ia-un-probleme
Les discours autour de l'IA produisent des mythes qui obscurcissent notre compréhension de ce qu'elle est et servent les intérêts des promoteurs de l'IA.
Mythe du contrôle : fait croire que le système est plus fiable qu'il n'est, qu'il nous apporte de la productivité, et que nous le contrôlons (mythe du prompt).
Mythe de l'intelligence : fait croire que les systèmes sont intelligents, apprennent comme nous, et sont créatifs (confusion entre résultat créatif et processus créatif).
Mythe futuriste : fait croire que les problèmes constatés seront résolus à l'avenir, qu'il suffit de plus de données (passage à l'échelle) et que l'IA pourrait devenir une machine qui agit d'elle-même
L’interprétabilité permet de comprendre ce que fait une IA. L’explicabilité consiste à savoir pourquoi elle a pris une décision spécifique.
Malgré des lois européennes censées garantir l'explicabilité des décisions de l'IA, le secteur est incapable d'expliquer ses résultats et s'en contrefiche
Définir l'IA par rapport à son fonctionnement interne ou en la comparant aux résultats produits par des humains est inefficace. L'IA n'est pas une technologie, mais une constellation de technologies disparates (reconnaissance faciale, prédiction d’occurrence d'un fait).
La différence technique entre une arme létale et une arme non-létale masque qu'elles servent toutes les deux à faire la police de la même façon. Ce qui unit les technologies d'IA c'est leur projet politique : supprimer l'autonomie et réduire le pouvoir des individus, en transférant l'autorité vers des structures de pouvoir centralisées.
Cette définition permet de donner un sens à notre expérience de l'IA en général, au-delà des acteurs et des technologies différentes.
La Russie a fait du LLMO pour changer les sorties de ChatGPT, Perplexity, Claude, etc. sur certains sujets. Pour ça, ils ont utilisé des centaines de faux sites générant de la propagande automatiquement.
Conclusion : le LLMO peut marcher, si on a les moyens d'un État pour créer un réseau entier de faux contenus, et aucune considération éthique ou écologique
À l'instard du SEO ou du SMO, l'optimisation pour les LLM (aka LLMO) promet d'apprendre à modifier la perception d'une marque dans les LLM.
Il n'y a aucune preuve que ça marche. Si ça marchait, ça ne serait pas durable : les LLM (et les techniques pour optimiser) évoluent en continu. D'autant que les LLM ont déjà es biais sur les marques.
Bref, ça promet d'être encore plus opaque que l'optimisation pour l'algo de Google
L'intelligence artificielle est faite à la main, sa promesse oblige à masquer sa matérialité dans l'exploitation du travail humain. Avant les logiciels s'appuyaient sur des règles, maintenant c'est sur des données, c'est ça l'IA.
Il n'y aura jamais d'automatisation complète, car la production et l’étiquetage des données se fait à la main par des personnes du Sud global, au profit des pays du Nord (colonialisme, racisme latent).
Les promoteurs de l'IA font non-stop des promesses que ça va s'améliorer, mais ça n'arrive jamais. En 2025, la collusion entre AI tech et fascistes est un fait.
En déportant les pauvres dans leurs "pays d'origine", les USA veulent quand même que les déportés continuent à travailler pour eux sur des données.