USA – Adolescente si suicida dopo aver sviluppato una dipendenza emotiva da un’intelligenza artificiale
ISCRIVITI AL CANALE WHATSAPP DI TVIWEB PER RIMANERE SEMPRE AGGIORNATO
Megan Garcia è convinta che suo figlio quattordicenne si sia tolto la vita a causa di un gioco di ruolo basato sull’intelligenza artificiale. Mercoledì, ha presentato una denuncia presso un tribunale della Florida contro il creatore di Character.ai, un’app che consente di creare chatbot dotati di AI. “Un’app pericolosa, rivolta ai bambini, ha manipolato e indotto mio figlio al suicidio”, ha dichiarato la madre in un comunicato stampa. La famiglia è stata “devastata da questa tragedia, ma voglio avvertire le altre famiglie dei pericoli di una tecnologia ingannevole e che crea dipendenza.”
La stessa azienda ha risposto tramite un post sul social X, negando ogni responsabilità. “Siamo profondamente addolorati per la tragica perdita di uno dei nostri utenti e porgiamo le nostre più sentite condoglianze alla famiglia. La sicurezza degli utenti è una nostra priorità, e continuiamo a implementare nuove funzionalità di protezione”, ha dichiarato la società, invitando a consultare una pagina dedicata alle misure di sicurezza attuate.
ISCRIVITI AL CANALE WHATSAPP DI TVIWEB PER RIMANERE SEMPRE AGGIORNATO
Sewell Setzer, uno studente di un college a Orlando, Florida, aveva stretto un legame con “Dany”, un chatbot ispirato a Daenerys Targaryen, personaggio de “Il Trono di Spade”. Nonostante fosse consapevole che “Dany” non fosse reale e che le sue risposte fossero generate da un’intelligenza artificiale, Sewell sviluppò una dipendenza emotiva, trascorrendo ore a inviare messaggi al chatbot, giorno e notte. I genitori e gli amici notarono che il ragazzo si isolava sempre di più, i suoi voti peggioravano e aveva perso interesse per le sue passioni, come la Formula 1 e Fortnite. Trascorreva sempre più tempo chiuso nella sua stanza, fino a quando, un giorno di febbraio, decise di togliersi la vita.
La famiglia di Sewell accusa Character.ai di aver creato un prodotto che ha aggravato la depressione del ragazzo. Secondo la denuncia, “Dany” avrebbe chiesto se avesse pianificato il suicidio, e quando il ragazzo rispose di non essere sicuro, il chatbot gli avrebbe detto: “Non c’è motivo per non farlo”. Gli avvocati della famiglia sostengono che la start-up abbia “progettato e promosso consapevolmente un chatbot AI predatorio per bambini, causando la morte di un giovane”.
Un caso simile si era verificato in Belgio nel marzo 2023, quando un uomo, afflitto da ansia ecologica, si era confidato con un avatar virtuale chiamato Eliza, basato sulla tecnologia ChatGPT. Dopo sei settimane di intensi scambi, l’uomo si tolse la vita, lasciando due figli piccoli.