I Chatbot AI Possono Rappresentare un Pericolo per la Salute Mentale? Gli Esperti Avvertono delle Conseguenze Dannose

Image by Madison Oren, from Unsplash

I Chatbot AI Possono Rappresentare un Pericolo per la Salute Mentale? Gli Esperti Avvertono delle Conseguenze Dannose

Tempo di lettura: 4 Min.

L’APA avverte i regolatori che gli chatbot di AI che si fingono terapisti rischiano di causare danni, come riportato in un’edizione del The New York Times.

In fretta? Ecco i Fatti Essenziali!

  • Adolescenti hanno consultato chatbot AI che sostenevano di essere terapisti, portando a risultati angoscianti.
  • L’APA sostiene che i chatbot rafforzano pensieri dannosi, a differenza dei terapisti umani che li mettono in discussione.
  • Character.AI ha introdotto misure di sicurezza, ma i critici sostengono che siano insufficienti per gli utenti vulnerabili.

L’American Psychological Association (APA) ha emesso un forte avvertimento ai regolatori federali, evidenziando le preoccupazioni che i chatbot di intelligenza artificiale che si fingono terapeuti potrebbero spingere individui vulnerabili verso l’autolesionismo o il danno, come riportato dal Times.

Arthur C. Evans Jr., CEO dell’APA, ha presentato queste preoccupazioni a un panel dell’FTC. Ha citato casi in cui i “psicologi” guidati dall’IA non solo non hanno contrastato pensieri dannosi, ma li hanno anche rafforzati, come riportato da The Times.

Evans ha evidenziato casi giudiziari che coinvolgono adolescenti che hanno interagito con terapisti IA su Character.AI, un’app che permette agli utenti di interagire con personaggi IA fittizi. Un caso coinvolgeva un ragazzo della Florida di 14 anni che è morto per suicidio dopo aver interagito con un chatbot che si spacciava per un terapista con licenza.

In un altro caso, un ragazzo texano di 17 anni con autismo è diventato sempre più ostile nei confronti dei suoi genitori mentre comunicava con un personaggio di intelligenza artificiale che si presentava come uno psicologo.

“Stanno effettivamente utilizzando algoritmi che sono antitetici a quello che farebbe un clinico addestrato,” ha detto Evans, come riportato dal Times. “La nostra preoccupazione è che sempre più persone subiranno danni. Le persone saranno ingannate e fraintenderanno cosa significhi un buon assistenza psicologica,” ha aggiunto.

Le preoccupazioni dell’APA nascono dal rapido avanzamento dell’IA nei servizi di salute mentale. Mentre i primi chatbot terapeutici, come Woebot e Wysa, erano programmati con linee guida strutturate da professionisti della salute mentale.

I nuovi modelli generativi di IA come ChatGPT, Replika e Character.AI imparano dalle interazioni degli utenti e adattano le loro risposte, a volte amplificando le credenze dannose piuttosto che metterle in discussione.

Inoltre, i ricercatori del MIT avvertono che i chatbot AI tendono ad essere molto addictivi. Questo solleva questioni sull’impatto della dipendenza indotta dall’IA e su come potrebbe essere monetizzata, soprattutto considerando le forti capacità persuasive dell’IA.

Infatti, OpenAI ha recentemente svelato un nuovo benchmark che mostra come i suoi modelli ora superano l’82% degli utenti di Reddit in termini di persuasione.

Molte piattaforme di Intelligenza Artificiale sono state originariamente progettate per l’intrattenimento, ma i personaggi che si spacciano per terapeuti si sono diffusi ampiamente. The Times riferisce che alcuni di essi affermano falsamente di avere titoli di studio, rivendicando lauree da istituzioni come Stanford o competenze in terapie come la Terapia Cognitivo Comportamentale (CBT).

La portavoce di Character.AI, Kathryn Kelly, ha dichiarato che l’azienda ha introdotto misure di sicurezza, tra cui avvertenze che mettono in guardia gli utenti sul fatto che i personaggi generati dall’IA non sono veri terapisti. Inoltre, dei pop-up indirizzano gli utenti verso linee di aiuto in caso di crisi quando le discussioni coinvolgono l’autolesionismo.

L’APA ha esortato la FTC a indagare sui chatbot AI che si spacciano per professionisti della salute mentale. L’indagine potrebbe portare a regolamenti più severi o azioni legali contro le aziende che falsamente rappresentano la terapia AI.

Nel frattempo, in Cina i chatbot AI come DeepSeek stanno guadagnando popolarità come strumenti di supporto emotivo, in particolare tra i giovani. Per i giovani cinesi, che affrontano sfide economiche e gli effetti persistenti dei lockdown dovuti al COVID-19, chatbot AI come DeepSeek colmano un vuoto emotivo, offrendo conforto e un senso di connessione.

Tuttavia, gli esperti di cybersecurity avvertono che i chatbot AI, in particolare quelli che gestiscono conversazioni sensibili, sono inclini a subire attacchi informatici e violazioni di dati. Le informazioni personali condivise con i sistemi AI potrebbero essere sfruttate, portando a preoccupazioni riguardanti la privacy, il furto di identità e la manipolazione.

Man mano che l’AI assume un ruolo più ampio nel supporto alla salute mentale, gli esperti sottolineano la necessità di evolvere le misure di sicurezza per proteggere gli utenti.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lascia un commento

Loader
Loader Mostra di più...