Comprendre l'IA
Les traducteurs et traductrices sont spécialement touchés par l'IA, alors qu'elle n'apporte presque rien de plus que les technos précédentes (qui menaçaient déjà leur job). Mais la hype constante aide à couper leur salaire et à supporter les mauvaises traductions.
Des groupes s'organisent pour lutter contre ça, parce qu'on perd quelque chose si on ne traduit plus rien correctement. La suite de l'article est une série de témoignages de traducteurices.
On ne peut pas "mettre des humains" pour vérifier le travail d'un IA ou limiter ses erreurs. Soit on automatise tout, soit on fait tout à main. Évaluer un résultat suppose de comprendre ce qu'a fait la machine et pourquoi : l'humain doit repenser toute la tâche lui-même pour l'évaluer.
De plus, les LLM génèrent des résultats plausibles, qu'ils découragent de vérifier : ils rendent la tâche encore plus difficile, alors que les humains ne sont pas doués pour inspecter des erreurs (lire du code est plus dur que de l'écrire).
Les chatbots IA permettent de mieux s'en sortir quand on en connait pas les mots pour désigner ce qu'on cherche. Mais ils échouent à poser les bonnes questions pour orienter l'utilisateurice. À la place, ils génèrent un texte trop long et mal ciblé.
La nature opaque et nébuleuse de l'IA empêche les gens de découvrir tout ce qu'iels pourraient faire avec. Mais l'IA ne résout pas toutes les difficultés liées à la recherche d'information, surtout quand ses résultats sont faux.
L'IA n'a pas fait disparaitre le besoin de recherche classique, et des usages mixtes coexistent. L'IA permet d'aller plus vite pour définir l'info dont on a besoin, pour évaluer et choisir des sources, pour scanner une info très dense, comparer des points de vue et synthétiser des infos.
Mais les utilisateurices ne savent pas tous qu'ils peuvent utiliser les chatbots pour chercher de l'info, même quand iels les utilisent déjà par ailleurs. In fine, l'usage de l'IA ou pas (et de quelle IA) s'explique beaucoup par la familiarité et l'habitude : on ne change pas ce qui nous convient.
L'IA est une idéologie, pas une technologie. Une idéologie qui pense que l'intelligence est quantifiable, mesurable, et qu'elle fonde les inégalités sociales. Son objectif est de renforcer les inégalités. C'est une idéologie capitaliste, eugéniste et suprémaciste blanche dans une esthétique techbro. Effacer la distinction savoir / ignorance lui permet de faire de la vérité à la simple conséquence du pouvoir. Déqualifier les gens lui permet de mieux les dominer.
L'IA générative pourrait provoquer la fin du web ouvert, avec une concentration de l'attention dans les chatbots, des contenus soumis aux IA mais non publiés ailleurs, des pubs générées à la volées. La génération de contenu à la volée deviendrait la norme.
"L’idée finalement très partagée par tous les géants de l’IA, c’est bien d’annoncer le remplacement du web que l’on connaît par un autre. Une sous-couche générative qu’il maîtriseraient, capable de produire un web à leur profit, qu’ils auraient avalé et digéré."
Paddy est fatigué d'entendre parler d'IA et des arguments de ceux qui la défende. On lui promet la destruction de son job au profit d'un projet qui ne tient pas debout. Il est épuisé, triste et ne veut plus parler d'ordinateurs avec les gens. Un texte sincère qui fait du bien à lire, parce que pareil.
Mettre de l'IA partout n'est pas un business model pour un média. L'IA détruit le trafic des sites, plagie le travail, crée du slop, affecte la découvrabilité, et mine la confiance de public. Elle crée des objets qui ressemblent à de l'info et que les algorithmes confondent (voire préfèrent) avec des vraies infos.
L'IA est mal utilisée par les gens déjà mauvais, et à peine utilisée par ceux qui y sont bons. L'avenir des médias est de trouver un public qui s'intéresse à leurs contenus, et d'engager une relation sincère avec lui, et de faire de la qualité. Il n'y a pas de taches chronophages pour lesquelles l'IA va aider : les opérationnels savent déjà optimiser leur temps et leurs effort, y compris via des IA.
Mais pas produire du contenu.
Sums up https://www.baldurbjarnason.com/2025/trusting-your-own-judgement-on-ai/
1) It’s next to impossible for individuals to assess the benefit or harm of chatbots and agents through self-experimentation. 2) Tech, software, and productivity research is extremely poor and is mostly just marketing. 3) The sheer magnitude of the “AI” Bubble and the near totality of the institutional buy-in – universities, governments, institutions – means that everybody is biased.
4) When we only half-understand something, we close the loop from observation to belief by relying on the judgement of our peers and authority figures, but these groups in tech are currently almost certain to be wrong or substantially biased about generative models.
Un prof a forcé ses classes à utiliser l'IA de différentes façons pendant un semestre. Il a trouvé ça trop bien. Et de toute façon, l'IA est partout à l'école qu'on le veuille ou non (dit-il). Mais son expérience n'a pas de groupe de contrôle, ce qui mine toute la crédibilité de sa démarche. Au-delà du fait qu'il enseigne l'entreprenariat et innovation.