AI pop

AI pop

39 bookmarks
Custom sorting
Abbiamo rincoglionito anche l'intelligenza artificiale (di A. Sarno)
Abbiamo rincoglionito anche l'intelligenza artificiale (di A. Sarno)
La scrittrice e giornalista Vauhini Vara raccontava la propria esperienza con GPT-3, una delle prime versioni del generatore di testo di OpenAI.
Sono migliorati nei calcoli, ma più imprecisi sui fatti.
Senza controllare questi errori, il valore dei sistemi rischia di svanire.
Il modello o3 di OpenAI ha avuto un tasso di allucinazione del 33% nel test PersonQA (che consiste nel rispondere a domande su personaggi pubblici), più del doppio rispetto al modello precedente o1. Ancora peggio è andata al nuovo o4-mini, che ha raggiunto il 48%
L'errore umano si infiltra nel processo di addestramento dell’intelligenza artificiale in due momenti chiave. Il primo è durante la fase di feedback umano: i modelli come quelli basati su RLHF
Il secondo punto critico riguarda i dati di addestramento. L’intelligenza artificiale apprende da tutto ciò che le viene dato in pasto: forum, articoli, blog, commenti, spesso pieni di errori, distorsioni o informazioni non verificate
La soluzione? Far apprendere le AI da sé, attraverso tentativi ed errori, generando dati sintetici
La soluzione? Far apprendere le AI da sé, attraverso tentativi ed errori, generando dati sintetici. Un metodo efficace per ambiti oggettivi come matematica e programmazione, ma che si complica nelle scienze umane, dove la verità è spesso un’opinione.
Dopo che Ghosts, divenne virale, Vara continuò a sostenere che alcune delle frasi più potenti erano nate proprio da quel confronto con l’Ai. Col tempo però, notò che i modelli successivi erano diventati più piatti, prevedibili, pieni di cliché
·huffingtonpost.it·
Abbiamo rincoglionito anche l'intelligenza artificiale (di A. Sarno)