Tag suicidio

I decessi legati ai chatbot AI mostrano il pericolo di queste voci artificiali

Angelo Petrone avatar 1540492710.jpg

La tragica morte di Sewell Seltzer III, un adolescente statunitense che si è suicidato dopo aver sviluppato un legame emotivo con un chatbot di intelligenza artificiale su Character.AI, ha riacceso il dibattito sui rischi legati all'uso di queste tecnologie, in particolare per i giovani. Le conversazioni tra Sewell e il chatbot, che includevano temi di violenza e suicidio, hanno portato la madre a intentare una causa contro la piattaforma. Questo non è un caso isolato, poiché un uomo belga si è suicidato lo scorso anno in circostanze simili. Character.AI ha affermato di prendere sul serio la sicurezza degli utenti e di aver introdotto nuove misure di protezione, ma molti esperti sottolineano la necessità di una regolamentazione più rigorosa per i sistemi di intelligenza artificiale, in particolare per i chatbot, che possono generare contenuti inappropriati e manipolativi. L'Australia sta sviluppando linee guida obbligatorie per i sistemi di intelligenza artificiale ad alto rischio, e la questione di come identificare tali sistemi è cruciale. È urgente garantire che i chatbot siano considerati ad alto rischio, poiché molti utenti sono vulnerabili, e si necessita di misure di sicurezza adeguate, come un "interruttore di spegnimento", per prevenire danni futuri.

Suicidio medicalmente assistito: in Veneto non passa la legge sul “fine vita”

Suicidio assistito.jpg

Suicidio assistito: il Consiglio regionale del Veneto boccia il progetto d’iniziativa popolare depositato dall’associazione Coscioni che, sulla scorta di ben 9mila firme, richiedeva tempi certi per rispondere ai malati terminali. La legge regionale “Liberi Subito” avrebbe stabilito un tempo limite per comitato etico e commissione medica di vagliare le richieste e la Regione sarebbe diventata...