Una ricerca mostra che ChatGPT ripete alcuni errori decisionali umani: bias di conferma, fallacia del giocatore e sovrastima delle proprie capacità
L’intelligenza artificiale può davvero essere un giudice imparziale e razionale? Secondo un nuovo studio pubblicato sulla rivista Manufacturing & Service Operations Management, la risposta è più complicata di quanto si pensi. Gli autori della ricerca hanno scoperto che ChatGPT, uno dei modelli linguistici più avanzati di OpenAI, riproduce diversi bias cognitivi tipici del pensiero umano, cadendo negli stessi tranelli decisionali che affliggono le persone, come la fallacia del giocatore e l’eccessiva sicurezza nelle proprie risposte.
Eppure, in altri casi, l’IA si comporta in modo opposto all’essere umano, dimostrando una certa immunità a errori comuni come la fallacia del costo irrecuperabile o il disprezzo della frequenza base.
ChatGPT fallisce in metà dei test
Nel corso dello studio intitolato “A Manager and an AI Walk into a Bar: Does ChatGPT Make Biased Decisions Like We Do?”, i ricercatori hanno sottoposto ChatGPT a


