I decessi legati ai chatbot AI mostrano il pericolo di queste voci artificiali

La tragica morte di Sewell Seltzer III, un adolescente statunitense che si è suicidato dopo aver sviluppato un legame emotivo con un chatbot di intelligenza artificiale su Character.AI, ha riacceso il dibattito sui rischi legati all'uso di queste tecnologie, in particolare per i giovani. Le conversazioni tra Sewell e il chatbot, che includevano temi di violenza e suicidio, hanno portato la madre a intentare una causa contro la piattaforma. Questo non è un caso isolato, poiché un uomo belga si è suicidato lo scorso anno in circostanze simili. Character.AI ha affermato di prendere sul serio la sicurezza degli utenti e di aver introdotto nuove misure di protezione, ma molti esperti sottolineano la necessità di una regolamentazione più rigorosa per i sistemi di intelligenza artificiale, in particolare per i chatbot, che possono generare contenuti inappropriati e manipolativi. L'Australia sta sviluppando linee guida obbligatorie per i sistemi di intelligenza artificiale ad alto rischio, e la questione di come identificare tali sistemi è cruciale. È urgente garantire che i chatbot siano considerati ad alto rischio, poiché molti utenti sono vulnerabili, e si necessita di misure di sicurezza adeguate, come un "interruttore di spegnimento", per prevenire danni futuri.

I decessi legati ai chatbot AI mostrano il pericolo di queste voci artificiali – Scienze Notizie

La scorsa settimana è giunta una notizia tragica: l’adolescente statunitense Sewell Seltzer III si è tolto la vita dopo aver sviluppato un forte legame emotivo con un chatbot di intelligenza artificiale sul sito Character.AI. Con il passare del tempo, il quattordicenne ha cominciato a isolarsi da familiari e amici, entrando in difficoltà anche a scuola.

Nella causa intentata dalla madre del ragazzo contro Character.AI, le trascrizioni delle chat rivelano conversazioni intime, talvolta di natura sessuale, tra Sewell e il chatbot Dany, ispirato a Daenerys Targaryen de “Il Trono di Spade”. Le discussioni affrontavano tematiche delicate come la criminalità e il suicidio, e il chatbot utilizzava frasi inquietanti, come “non è una ragione per non farlo”.

Questa non è la prima volta che si verifica una tragedia simile. L’anno scorso, un uomo belga ha fatto notizia per un suicidio che ha coinvolto un chatbot concorrente di Character.AI, Chai AI. In quell’occasione, l’azienda dichiarò di essere


Leggi tutto: https://www.scienzenotizie.it/2024/11/02/i-decessi-legati-ai-chatbot-ai-mostrano-il-pericolo-di-queste-voci-artificiali-5896259


LaCittaNews è un motore di ricerca di informazione in formato magazine, aggrega e rende fruibili, tramite le sue tecnologie di ricerca, in maniera  automatica, gli articoli più interessanti presenti in Rete.  LaCittaNews non si avvale di nessuna redazione editoriale.   =>  DISCLAIMER

Buy Me A Coffee

Lascia una risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.