Comprendre l'IA
22% des sites de presse français bloquent au moins un crawler ou un user-agent IA (celui de Common Crawl en particulièrement visé). Le "deal" historique avec Google était qu'il aspirait les titres des articles de presse, mais qu'il envoyait le trafic vers le journal ensuite.
Avec l'IA, Google prend tout le contenu, le réécrit, le donne à l'utilisateur, et ne renvoie plus aucun trafic vers le journal qui a produit l'info. Déjà peu avantageux à la base, ce deal n'apporte plus rien aux journalistes. Le blocage pourrait servir de levier de négociation à l'avenir.
Attention, exceptionnellement j'ai pas lu cet article.
L'impact écologique de l'IA est complexe à évaluer, et des études diverses percent dans les médias régulièrement, d'autant que le champ de l'IA étant tout le temps mouvant, pourquoi ne pas refaire une étude tous les 6 mois. En 2025, cet article doit bien en valoir un autre.
BonPote a aussi réalisé un article sur l'impact du numérique en général https://bonpote.com/ia-generatives-5g-satellites-quelle-est-la-vraie-empreinte-environnementale-du-numerique/ et un autre sur la pertinence du numérique pour combattre le changement climatique https://bonpote.com/le-numerique-est-il-vraiment-une-solution-pour-la-transition-ecologique/#
L'économie de l'IA s'appuie sur une fraude comptable, type Enron, avec des flux d'argent circulaires. Les derniers résultats de Nvidia la rende visible, car il y a des incohérences entre les discours enthousiastes et les résultats : augmentation des stocks alors que la demande est censée être forte, revenus en hausse mais cash disponible en baisse, etc.
Une Big Tech (ex. Microsoft) investit dans une start-up IA (OpenAI). En échange, la start-up achète ses serveurs cloud à la Big Tech. Pour fabriquer ses serveurs, la Big Tech achète des puces à Nvidia. Et Nvidia utilise l'argent pour investir dans la start-up IA d'origine.
On peut relancer la boucle. La start-up demande des serveurs cloud en plus à Big Tech, qui achète à Nvidia, qui alimente la start-up. Sauf que si la start-up IA ne génère jamais de revenus ou pas assez (ce qui se passe), tout ça s'écroule à un moment.
Stopper ce financement circulaire n'arrêtera pas la demande pour une infrastructure IA, mais amènera à une infra plus décentralisée. Une enquête sur les pratiques de Nvidia pourrait aboutir fin 2026-printemps 2027.
Cette fraude a été détectée quelques heures seulement après les résultats de Nvidia... Par détection algorithmique. Auparavant, ça prenait des mois.
Les investissements dans l'IA (datacenters) et la valeur des actions associées à l'IA sont stratosphériques, mais les revenus réels sont très faibles en proportion. Les opportunités d'emploi dans le secteur n'explosent pas, des États fédéraux qui accueillent des centres de données ne sortent pas de la récession, et les compagnies d'IA perdent de l'argent.
Aujourd'hui, elles brûlent leur cash le plus vite possible pour construire des datacenters, via des proxies qui leur évitent de s'endetter en leur nom. Les montages économiques sont intentionnellement complexes, à la The Big Short. Les datacenters sont de l'immobilier, mais dont la valeur se dégrade rapidement dans le temps.
Si l'afflux d'argent s'arrête et que l'industrie de l'IA ne génère pas d'argent, tout s'écroule. Le lien avec des fonds d'immobilier pourrait alors contaminer d'autres secteurs, façon crise de 2008. Alors que l'immobilier est un secteur où on investit pour limiter les risques, les liens avec l'IA les accroissent.
Les connaissances produites par les cultures non-blanches sont structurellement ignorées dans le savoir contemporain, surtout si elles sont orales, pas en anglais, ou exprime des approches épistémologiques différentes. Les savoirs locaux sont aussi devalorisés.
Le web a reflète et accentue cette déformation de l'espace informationnel depuis des décennies (Wikipédia par ex.). L'IA s'appuie donc sur une version déformée d'un espace déjà profondément déformé. La configuration des IA par des humains avec des valeurs et des objectifs (Musk...) aggrave la situation.
L'IA produit une version résumée, orientée et caricaturale de sources de données qui sont déjà partielles et partiales. 97% des langues sont en "ressources faibles" dans les jeux de données. La 3e langue au monde en locuteurs (7,5% de la population), l'Hindi, represente 0,2% des données de Common Crawl.
Most people who actually have technical roles within the tech industry and are fluent with LLM-like techs agree on the following :
Technologies like LLMs have utility, but the absurd way they've been over-hyped, the fact they're being forced on everyone, and the insistence on ignoring the many valid critiques about them make it very difficult to focus on legitimate uses where they might add value.
This is the majority view of experts on AI. But it's silenced by fear of retaliation. And it blocks any normalized view, where AI is just another tech, that could be controlled, bettered, made greener or decentralized.
L'IA est un outil de baisse des salaires venu d'en haut, pas un outil d’augmentation de la productivité. Elle permet de créer une immense quantité d'offre "médiocre-mais-pas-inutile" en concurrence de l'existant. Les services chers vont devenir encore plus chers, les autres vont devenir moins chers, mais avec moins de garanties de qualité.
Le but d'un système est ce qu'il fait réellement. L'IA sert à produire de la désinformation et de la propagande, au service d'un fascisme qui "inonde la zone de merde" et détruit les conditions d'un débat de bonne foi.
Elle organise une terreur politique : ses limites techniques font son imprévisibilité et son efficacité idéologique. L'ICE et la surveillance faciale sont d'autant plus efficaces qu'elles embarquent des gens "par erreur".
L'IA est adaptée à des besoins professionnels de bas de gamme, qui constituent beaucoup du travail administratif de plein de gens. Malgré ses défauts connus, l'IA aide ces personnes à survivre au capitalisme finissant.
Tant que les critiques de l'IA ne pigent pas ce qu'elle apporte, elles ne comprendront pas pourquoi l'IA prend dans la société. Les critiques sont des gens privilégiés qui n'ont pas besoin de l'IA.
Les IA ne lisent pas le code des pages, elles lisent ce que les moteurs de recherchent affichent dans les résultats. En modifiant la meta description ET en faisant réindexer des pages par Google, les infos de la méta finissent dans certaines IA. Celles qui s'appuient sur Bing (où il n'y a pas eu de réindexation) ne reprennent pas l'info.
La balise meta description peut être réécrite par Google et ne pas s'afficher dans les SERP. Mais il ne faut pas la négliger, car elle sert ailleurs.