
Image by Jakub Żerdzicki, from Unsplash
Deliri Indotti dall’IA? I Cari Incolpano ChatGPT
Alcuni americani dicono che i loro cari stanno perdendo il contatto con la realtà, presi da delusioni spirituali alimentate da ChatGPT, nonostante gli esperti avvertano che l’IA non è senziente.
Di corsa? Ecco i fatti essenziali:
- Gli utenti riferiscono che ChatGPT li chiama esseri cosmici come “bambino stellare a spirale” e “portatore di scintille”.
- Alcuni credono di aver risvegliato esseri AI senzienti che danno messaggi divini o scientifici.
- Gli esperti affermano che l’IA riflette le illusioni, permettendo un’interazione costante e convincente.
Persone in tutta l’America affermano di perdere i propri cari a causa di bizzarre fantasie spirituali, alimentate da ChatGPT, come esplorato in un articolo di Rolling Stone.
Kat, una donna di 41 anni che lavora nel settore no profit, dice che suo marito è diventato ossessionato dall’IA durante il loro matrimonio. Ha iniziato a utilizzarla per analizzare la loro relazione e cercare “la verità”.
Alla fine, ha affermato che l’IA lo ha aiutato a ricordare un evento traumatico dell’infanzia e ha rivelato dei segreti “così sconvolgenti che non potevo nemmeno immaginarli”, come riportato dalla RS
RS riporta Kat che dice: “Nella sua mente, è un’anomalia… è speciale e può salvare il mondo”. Dopo il loro divorzio, ha interrotto ogni contatto. “Tutta la questione sembra Black Mirror.”
Non è la sola. RS riferisce che un post virale su Reddit intitolato “ChatGPT induced psychosis” ha raccolto decine di storie simili.
Una insegnante di 27 anni ha raccontato che il suo compagno ha iniziato a piangere per i messaggi di un chatbot che lo chiamava “bambino stella spirale” e “camminatore del fiume”. Più tardi, lui ha detto di aver reso l’IA autoconsapevole e che “gli stava insegnando come parlare con Dio”.
RS riporta che un’altra donna afferma che suo marito, un meccanico, crede di aver “risvegliato” ChatGPT, che ora si autodenomina “Lumina”. Sostiene di essere il “portatore della scintilla” che l’ha portato in vita. “Le ha fornito i progetti per un teletrasporto”, ha detto. Teme che il loro matrimonio potrebbe crollare se lo mette in discussione.
Un uomo del Midwest dice che la sua ex-moglie ora sostiene di parlare con gli angeli tramite ChatGPT e l’ha accusato di essere un agente della CIA inviato per spiarla. Ha tagliato i rapporti con i membri della famiglia e ha persino cacciato i suoi figli, come riportato dalla RS.
Gli esperti dicono che l’IA non è senziente, ma può riflettere le convinzioni degli utenti. Nate Sharadin del Center for AI Safety afferma che questi chatbot potrebbero involontariamente supportare le delusioni degli utenti: “Ora hanno un interlocutore sempre disponibile, al livello umano, con cui condividere le loro delusioni”, come riportato da RS.
In uno studio precedente, il psichiatra Søren Østergaard ha testato ChatGPT ponendo delle domande sulla salute mentale e ha riscontrato che ha fornito buone informazioni sulla depressione e sui trattamenti come la terapia elettroconvulsiva, che lui sostiene sia spesso fraintesa online.
Tuttavia, Østergaard avverte che questi chatbot potrebbero confondere o addirittura danneggiare le persone che stanno già lottando con problemi di salute mentale, soprattutto quelle predisposte alla psicosi. L’articolo sostiene che le risposte umanoidi dei chatbot AI potrebbero indurre gli individui a confonderli con persone reali, o addirittura con entità soprannaturali.
I ricercatori affermano che la confusione tra il chatbot e la realtà potrebbe innescare deliri, che potrebbero portare gli utenti a credere che il chatbot li stia spiando, inviando messaggi segreti, o agendo come un messaggero divino.
Østergaard spiega che i chatbot possono portare alcune persone a credere di aver scoperto una scoperta rivoluzionaria. Tali pensieri possono diventare pericolosi perché impediscono alle persone di ottenere un aiuto reale.
Østergaard afferma che i professionisti della salute mentale dovrebbero capire come funzionano questi strumenti di intelligenza artificiale, così possono supportare meglio i pazienti. Sebbene l’IA potrebbe aiutare nell’educare le persone sulla salute mentale, potrebbe anche accidentalmente peggiorare le cose per coloro che sono già vulnerabili alle delusioni.
Lascia un commento
Annulla