
Il Futuro dei Grandi Modelli Linguistici: Rischi e Limiti
Un recente studio mette in discussione la capacità dei Grandi Modelli Linguistici di acquisire nuove abilità autonomamente, sollevando dubbi sui rischi esistenziali. Tuttavia, la ricerca dimostra che i LLM sono prevedibili e controllabili.
L'articolo Il Futuro dei Grandi Modelli Linguistici: Rischi e Limiti sembra essere il primo su Scienze Notizie.
Un recente studio mette in discussione la capacità dei Grandi Modelli Linguistici di acquisire nuove abilità autonomamente, sollevando dubbi sui rischi esistenziali. Tuttavia, la ricerca dimostra che i LLM sono prevedibili e controllabili.
Molte persone si preoccupano che la tecnologia dell’IA come ChatGPT possa sviluppare alla fine la capacità di ragionare in modi che ci minacciano, ma è davvero possibile? (cono0430/Shutterstock.com)
Un recente studio ha messo in discussione la capacità di ChatGPT e altri grandi modelli linguistici (LLM) di apprendere autonomamente o acquisire nuove abilità senza l’intervento umano, mettendo così in discussione la percezione che tali sistemi possano rappresentare rischi esistenziali per l’umanità.
I LLM sono versioni avanzate dei modelli linguistici preaddestrati (PLM), che vengono addestrati su enormi quantità di dati web. Questo accesso a una vasta mole di dati li rende in grado di comprendere e generare linguaggio naturale e altri contenuti utilizzabili per una varietà di compiti. Tuttavia, possono anche manifestare abilità emergenti, che sono essenzialmente risultati casuali per i quali non sono stati specificamente addestrati.
Un’abilità emergente potrebbe, ad esempio, consistere nella capacità di un
Leggi tutto: https://www.scienzenotizie.it/2024/08/20/il-futuro-dei-grandi-modelli-linguistici-rischi-e-limiti-0090903
LaCittaNews è un motore di ricerca di informazione in formato magazine, aggrega e rende fruibili, tramite le sue tecnologie di ricerca, in maniera automatica, gli articoli più interessanti presenti in Rete. LaCittaNews non si avvale di nessuna redazione editoriale. => DISCLAIMER