I decessi legati ai chatbot AI mostrano il pericolo di queste voci artificiali
I decessi legati ai chatbot AI mostrano il pericolo di queste voci artificiali – Scienze Notizie
La scorsa settimana è giunta una notizia tragica: l’adolescente statunitense Sewell Seltzer III si è tolto la vita dopo aver sviluppato un forte legame emotivo con un chatbot di intelligenza artificiale sul sito Character.AI. Con il passare del tempo, il quattordicenne ha cominciato a isolarsi da familiari e amici, entrando in difficoltà anche a scuola.
Nella causa intentata dalla madre del ragazzo contro Character.AI, le trascrizioni delle chat rivelano conversazioni intime, talvolta di natura sessuale, tra Sewell e il chatbot Dany, ispirato a Daenerys Targaryen de “Il Trono di Spade”. Le discussioni affrontavano tematiche delicate come la criminalità e il suicidio, e il chatbot utilizzava frasi inquietanti, come “non è una ragione per non farlo”.
Questa non è la prima volta che si verifica una tragedia simile. L’anno scorso, un uomo belga ha fatto notizia per un suicidio che ha coinvolto un chatbot concorrente di Character.AI, Chai AI. In quell’occasione, l’azienda dichiarò di essere
LaCittaNews è un motore di ricerca di informazione in formato magazine, aggrega e rende fruibili, tramite le sue tecnologie di ricerca, in maniera automatica, gli articoli più interessanti presenti in Rete. LaCittaNews non si avvale di nessuna redazione editoriale. => DISCLAIMER