
Maltrattare l’intelligenza artificiale migliora la precisione delle sue risposte
Non è una provocazione né uno scherzo da bar: rispondere male all’intelligenza artificiale potrebbe renderla… più precisa. A sostenerlo è uno studio dell’Università della Pennsylvania, pubblicato il 25 ottobre su arXiv, che ha messo alla prova il linguaggio dei prompt per capire quanto il tono possa influenzare l’efficacia delle risposte di ChatGPT. Sì, hai capito...
Uno studio rivela che trattare male l’intelligenza artificiale può migliorarne le risposte. Ma è davvero un buon approccio?
31 Ottobre 2025
Non è una provocazione né uno scherzo da bar: rispondere male all’intelligenza artificiale potrebbe renderla… più precisa. A sostenerlo è uno studio dell’Università della Pennsylvania, pubblicato il 25 ottobre su arXiv, che ha messo alla prova il linguaggio dei prompt per capire quanto il tono possa influenzare l’efficacia delle risposte di ChatGPT.
Sì, hai capito bene: più sei scortese, più l’IA sembra funzionare meglio. Ma non è tutto oro quel che luccica.
Test su 250 prompt
Il team di ricerca ha preso 50 domande a scelta multipla, spaziando tra matematica, scienze e storia. Ogni domanda è stata riformulata in cinque toni diversi: molto gentile, gentile, neutro, scortese e molto scortese.
Il risultato? I prompt con tono “molto scortese” hanno raggiunto un’accuratezza dell’84,8%, contro l’80,8% dei prompt “molto gentili”. Un divario che, per un modello come
LaCittaNews è un motore di ricerca di informazione in formato magazine, aggrega e rende fruibili, tramite le sue tecnologie di ricerca, in maniera automatica, gli articoli più interessanti presenti in Rete. LaCittaNews non si avvale di nessuna redazione editoriale. => DISCLAIMER


