Found 24 bookmarks
Newest
Some signs of AI model collapse begin to reveal themselves
Some signs of AI model collapse begin to reveal themselves

La qualité des réponses des LLM commence à décliner, car les données synthétiques polluent leurs données d’entraînement (cf. autres marque-pages).

Pour mitiger le problème, on peut récupérer des données depuis des bases de données externes... Mais ça augmente les risques de fuite de données privées et produit des analyses encore plus biaisées.

Refaire fabriquer du nouveau contenu de qualité par des humains pour alimenter l'IA aiderait, mais ça n'arrivera pas. Personne ne veut le faire, ni payer pour.

·theregister.com·
Some signs of AI model collapse begin to reveal themselves
FYI: Most AI spending driven by FOMO, not ROI, CEOs tell IBM, LOL
FYI: Most AI spending driven by FOMO, not ROI, CEOs tell IBM, LOL
Selon un sondage IBM auprès de 2 000 PDG, les dépenses dans l'IA sont motivées par "la peur de passer à coté" du sujet. Les usages de l'IA en entreprise restent limités, ne sont pas rentables dans 75% des cas. Mais les directions pensent que leurs investissements paieront un jour.
·theregister.com·
FYI: Most AI spending driven by FOMO, not ROI, CEOs tell IBM, LOL
Generative AI: What You Need To Know
Generative AI: What You Need To Know

15 slides pour faire le tour de l'IA générative, sous forme d'affirmations courtes, suivie d'un paragraphe, et de sections Aller plus loin et Références. Fournit un glossaire de définitions (modèle de diffusion, réseau de neurones, etc.).

Exemple avec la slide "Charlatanisme" : l'IA a un passif de pseudo-science, de promesses non-tenues, de recherche de mauvaise qualité, et de fraude. Son respect des lois et discutable, et elle pose des problèmes de vie privée. C'est un happeau à procès.

Aborde beaucoup les risques juridiques liés à l'IA gen : plagiat, droit d'auteur, vie privée, fraude, etc.

·needtoknow.fyi·
Generative AI: What You Need To Know
AI can't stop making up software dependencies and sabotaging everything
AI can't stop making up software dependencies and sabotaging everything

Les IA génératives citent régulièrement des bibliothèques de code qui n'existent pas vraiment. Des pirates en profitent pour créer des malwares qui portent le nom de ces bibliothèques fictives.

C'est généralisable : l'IA hallucine une fausse information, et quelqu'un génère du contenu qui correspond à cette hallucination pour la légitimer a posteriori et donner l'impression qu'elle était vraie au départ

·theregister.com·
AI can't stop making up software dependencies and sabotaging everything
Word frequency tool ‘wordfreq’ stops updates, overwhelmed by AI spam
Word frequency tool ‘wordfreq’ stops updates, overwhelmed by AI spam
L'outil WordFreq étudiait la fréquence d'usage des mots dans plusieurs langues, pour suivre l'évolution des langues. Les textes générés par IA ont tellement pollué ses sources que le projet a fermé. Il n'est plus possible d'étudier la langue telle qu'elle est écrite par des humains après 2021.
·pivot-to-ai.com·
Word frequency tool ‘wordfreq’ stops updates, overwhelmed by AI spam
Pourquoi je n’utilise pas ChatGPT
Pourquoi je n’utilise pas ChatGPT

Enseignante-chercheuse en informatique, elle refuse d'utiliser ChatGPT car les impacts sociaux-environnementaux du numérique sont déjà préoccupants sans l'IA, et que l'IA vient d'acteurs économiques très concentrés, avec un projet politique qu'elle rejette.

Une IA alternative, éthique, souveraine, etc. ne l'intéresse pas plus : elle normaliserait les autres IAs, ne serait pas forcément privilégiée sur elle, et ne règle pas le fait qu'on a peut-être juste pas besoin des LLM dans l'absolu.

À supposer qu'il y ait des usages utiles, ils ne valent pas le coup. 1) Il n'y aura pas de gain de temps, juste une réallocation du temps à autre chose, pas forcément mieux : le numérique actuel nous le montre déjà. 2) L'usage comme démarreur de texte revient à plagier sans le vouloir, tout en donnant ses idées créatives (financées par le public) à ChatGPT.

Enfin 3) automatiser les tâches répétitives "peu intéressantes" change la structure des métiers. En remplaçant les juniors par des robots, on empêche l'apparition de professionnels seniors. L'évolution du métier de traducteur (où c'est déjà le cas) montre que ça rend le métier pénible, sans réel gain de temps.

·academia.hypotheses.org·
Pourquoi je n’utilise pas ChatGPT
[Enquête] Plus de 1 000 médias en français, générés par IA, polluent le web (et Google)
[Enquête] Plus de 1 000 médias en français, générés par IA, polluent le web (et Google)

Longue enquête en plusieurs épisodes sur la pollution du web par des sites genAI, qui peuvent plagier et publier en 20 minutes un contenu produit par un vrai journaliste. Ces sites produisent à la chaîne des dizaines de plagiats par jour.

Ils sont très bien repris par Google News, Discover et les moteurs de recherche (https://next.ink/154914/google-actualites-est-truffe-darticles-plagies-par-des-ia/) et plagient aussi la PQR (https://next.ink/158809/la-presse-regionale-est-elle-aussi-cannibalisee-par-des-sites-dinfos-generes-par-ia/)

L'utilisation de GenAI est prisée à l'extrême droite, où l'on a même le directeur pédagogique d'une école de journalisme qui assume (https://next.ink/162296/le-directeur-pedagogique-dune-ecole-de-journalisme-genere-ses-articles-par-ia/)

Next propose un guide pratique pour détecter ces sites (https://next.ink/165310/comment-reconnaitre-les-sites-dinfos-generes-par-des-ia/), une extension navigateur pour être alerté quand on arrive sur l'un deux, et un guide pour identifier les faux-positifs (https://next.ink/172262/faux-positifs-comment-reconnaitre-les-contenus-identifies-a-tort-comme-generes-par-ia/)

MÀJ : À l'opposé de tout ça, Google restreint sévèrement l'usage de l'AI pour faire des publicités en ligne... sa source principale de revenus (https://next.ink/171952/google-penalise-les-publicites-generees-par-ia-mais-pas-les-medias-generes-par-ia/).

·next.ink·
[Enquête] Plus de 1 000 médias en français, générés par IA, polluent le web (et Google)
Alerte sur les sites GenAI
Alerte sur les sites GenAI
·addons.mozilla.org·
Alerte sur les sites GenAI
Les outils de recherche en ligne basés sur l’IA générative sont nuls pour citer l’actu
Les outils de recherche en ligne basés sur l’IA générative sont nuls pour citer l’actu
Si on demande à un moteur de recherche AI de retrouver l'article source à partir d'une citation de cet article, il échoue plus de 60% du temps. Test effectué sur huit moteurs IA (dont Perplixity, Grok, et ChatGPT) avec des articles d'actu trouvés dans les 3 premiers liens Google.
·next.ink·
Les outils de recherche en ligne basés sur l’IA générative sont nuls pour citer l’actu
AI slop
AI slop
Le "slop" désigne les contenus de mauvaise qualité produits par IA, par analogie avec le spam. À la fois sans intérêt et facile à reconnaître, ces contenus produits sans effort sont mal vus, d'où le nom "slop", qui connote négativement.
·en.wikipedia.org·
AI slop
There Is No AI Revolution
There Is No AI Revolution

L'IA générative coûte plus cher à produire qu'elle ne rapporte. Elle n'a aucune des caractéristiques des produits qui ont du succès en économie. L'industrie de l'IA perd de l'argent et brûle du cash pour survivre. Même les utilisateurices payants d'OpenAI (ChatGPT) lui font perdre de l'argent.

En fait, il n'y pas vraiment d'industrie du LLM, qui vivrait de son produit. Les acteurs en place dépendent tous d'un financement extérieur (capital risque). Il n'y a pas de demande pour leur produit : tout cumulé, les différents LLM ont moins d'utilisateurs que Pokemon Go à son pic d'intérêt. Le marché est ridiculement petit.

L'omniprésence l'IA ne prouve pas que les gens l'utilisent. Ça prouve qu'il y a des intérêts économiques qui tiennent à en mettre partout. Alors que l'IA générative est censée être une révolution, Google et Amazon ne communiquent pas sur les revenus (et profits) associés. Pour l'auteur, la genAI est une bulle spéculative : il n'y a pas de chiffres, parce que l'IA ne produit pas vraiment d'argent.

·wheresyoured.at·
There Is No AI Revolution
Le forcing de l'IA | Limites numériques
Le forcing de l'IA | Limites numériques

Les interfaces veulent nous forcer à utiliser l'IA, qu'on le veuille ou non : mise en avant permanente, interruption du processus pour suggérer d'utiliser l'IA, désactivation complexe...

L'objectif est de justifier les investissements fait par les promoteurs de l'IA... et de lui trouver des usages, qui manquent cruellement.

·limitesnumeriques.fr·
Le forcing de l'IA | Limites numériques
AI Improves Employee Productivity by 66%
AI Improves Employee Productivity by 66%
L'IA (LLM) augmente la productivité des employés les plus nuls et les moins doués, en les rapprochant de la moyenne. Pour les gens compétents dans leur métier, l'intérêt est beaucoup plus limité. L'article s'appuie sur 3 études auprès de 3 types de métiers.
·nngroup.com·
AI Improves Employee Productivity by 66%
Pop Culture
Pop Culture
Pour Goldman Sachs les IA génératives coûtent trop cher et ne rapportent pas assez : c'est un mauvais investissement, à déconseiller. Ed Zitron (l'auteur du blog) complète : l'IA générative ne peut ni devenir moins chère, ni s'améliorer significativement. Elle n'est pas profitable, utilise beaucoup trop de ressources, et ne fait rien de vraiment neuf.
·wheresyoured.at·
Pop Culture
When Should We Trust AI? Magic-8-Ball Thinking and AI Hallucinations
When Should We Trust AI? Magic-8-Ball Thinking and AI Hallucinations
Faire confiance aux IA (LLM) est facile et encouragé par ses promoteurs, mais les systèmes sont si faillibles qu'on ne devrait les utiliser que pour des choses vérifiables ou dont on connaît déjà la réponse. Ce qui limite l'intérêt.
·nngroup.com·
When Should We Trust AI? Magic-8-Ball Thinking and AI Hallucinations
Les IA génératives tournent mal quand elles sont entraînées sur leurs propres données
Les IA génératives tournent mal quand elles sont entraînées sur leurs propres données

Les IA génératives (genAI, LLM) ont besoin d'un matériau source généré par des humains. Entraîner les IA sur des données générées par des IA donne des résultats désastreux.

Problème : si tout le monde produit des données plus ou moins synthétiques, les données humaines vont se raréfier, et les modèles d'IA ne pourront plus être correctement entraînés Cf. https://next.ink/145131/lentrainement-sur-des-donnees-synthetiques-talon-dachille-de-lia-generative

·next.ink·
Les IA génératives tournent mal quand elles sont entraînées sur leurs propres données
Portal Kombat : quand la désinformation russe "biberonne" ChatGPT et autres IA
Portal Kombat : quand la désinformation russe "biberonne" ChatGPT et autres IA

La Russie a fait du LLMO pour changer les sorties de ChatGPT, Perplexity, Claude, etc. sur certains sujets. Pour ça, ils ont utilisé des centaines de faux sites générant de la propagande automatiquement.

Conclusion : le LLMO peut marcher, si on a les moyens d'un État pour créer un réseau entier de faux contenus, et aucune considération éthique ou écologique

·france24.com·
Portal Kombat : quand la désinformation russe "biberonne" ChatGPT et autres IA
LLMO : de l’optimisation de marque dans l’IA générative
LLMO : de l’optimisation de marque dans l’IA générative

À l'instard du SEO ou du SMO, l'optimisation pour les LLM (aka LLMO) promet d'apprendre à modifier la perception d'une marque dans les LLM.

Il n'y a aucune preuve que ça marche. Si ça marchait, ça ne serait pas durable : les LLM (et les techniques pour optimiser) évoluent en continu. D'autant que les LLM ont déjà es biais sur les marques.

Bref, ça promet d'être encore plus opaque que l'optimisation pour l'algo de Google

·danslesalgorithmes.net·
LLMO : de l’optimisation de marque dans l’IA générative