Un recente studio mette in discussione la capacità dei Grandi Modelli Linguistici di acquisire nuove abilità autonomamente, sollevando dubbi sui rischi esistenziali. Tuttavia, la ricerca dimostra che i LLM sono prevedibili e controllabili.
Molte persone si preoccupano che la tecnologia dell’IA come ChatGPT possa sviluppare alla fine la capacità di ragionare in modi che ci minacciano, ma è davvero possibile? (cono0430/Shutterstock.com)
Un recente studio ha messo in discussione la capacità di ChatGPT e altri grandi modelli linguistici (LLM) di apprendere autonomamente o acquisire nuove abilità senza l’intervento umano, mettendo così in discussione la percezione che tali sistemi possano rappresentare rischi esistenziali per l’umanità.
I LLM sono versioni avanzate dei modelli linguistici preaddestrati (PLM), che vengono addestrati su enormi quantità di dati web. Questo accesso a una vasta mole di dati li rende in grado di comprendere e generare linguaggio naturale e altri contenuti utilizzabili per una varietà di compiti. Tuttavia, possono anche manifestare abilità emergenti, che sono essenzialmente risultati casuali per i quali non sono stati specificamente addestrati.
Un’abilità emergente potrebbe, ad esempio, consistere nella capacità di un
Leggi tutto: https://www.scienzenotizie.it/2024/08/20/il-futuro-dei-grandi-modelli-linguistici-rischi-e-limiti-0090903
LaCittaNews è un motore di ricerca di informazione in formato magazine, aggrega e rende fruibili, tramite le sue tecnologie di ricerca, in maniera automatica, gli articoli più interessanti presenti in Rete. LaCittaNews non si avvale di nessuna redazione editoriale. => DISCLAIMER

