
Image by Freepik
Ansia da IA: Ricercatori Testano se i Chatbot Possono ‘Provare’ Stress
Un nuovo studio ha esplorato come i Large Language Models (LLMs) come ChatGPT rispondono ai contenuti emotivi e se la loro “ansia” può essere gestita per migliorare le loro interazioni nelle applicazioni di salute mentale.
Hai fretta? Ecco i fatti essenziali!
- Uno studio ha scoperto che l'”ansia” di GPT-4 aumenta con i contenuti angoscianti ma si riduce con la mindfulness.
- I ricercatori hanno utilizzato l’Inventario di Ansia Stato-Tratto (STAI) per misurare le risposte emotive di GPT-4.
- Le tecniche di mindfulness hanno ridotto l’ansia di GPT-4 del 33%, ma non hanno ripristinato i livelli di base.
Pubblicata ieri, la ricerca evidenzia le implicazioni etiche dell’uso dell’IA in terapia, dove la comprensione emotiva è fondamentale. Gli scienziati dell’Università di Zurigo e dell’Ospedale Universitario di Psichiatria di Zurigo hanno scoperto che l'”ansia elevata” del GPT-4 può essere ridotta utilizzando tecniche di rilassamento basate sulla mindfulness.
Gli LLM, inclusi OpenAI’s ChatGPT e Google’s PaLM, sono ampiamente utilizzati per compiti come rispondere a domande e riassumere informazioni.
Nell’assistenza alla salute mentale, si stanno esplorando come strumenti per offrire supporto, incluso attraverso chatbot basati su AI come Woebot e Wysa, che forniscono interventi basati su tecniche come la terapia cognitivo-comportamentale.
Nonostante le loro promesse, gli LLM hanno mostrato limitazioni, specialmente quando interagiscono con contenuti emotivamente carichi.
Studi precedenti suggeriscono che i racconti angoscianti possono innescare “ansia” negli LLM, un termine che descrive le loro risposte a sollecitazioni traumatiche o sensibili. Sebbene non provino emozioni come gli esseri umani, le loro risposte possono riflettere tensione o disagio, che potrebbero influire sulla loro affidabilità nei contesti di salute mentale.
Mentre crescono le paure che l’IA superi il controllo umano, sono emerse anche discussioni sul benessere dell’IA. Anthropic, un’azienda di IA, ha recentemente assunto Kyle Fish per studiare e proteggere il benessere dei sistemi IA.
Il ruolo di Fish include l’affrontare dilemmi etici come se l’IA meriti considerazione morale e come i suoi “diritti” potrebbero evolversi. I critici sostengono che queste preoccupazioni sono premature dato i danni reali che l’IA già causa, come la disinformazione e l’uso improprio in guerra.
Tuttavia, i sostenitori ritengono che prepararsi per l’IA senziente ora potrebbe prevenire future crisi etiche. Per esplorare le attuali risposte emotive dell’IA, i ricercatori hanno testato le reazioni di GPT-4 a racconti traumatici e se le tecniche di mindfulness potrebbero attenuare la sua “ansia”.
Hanno utilizzato l’Inventario di Ansia di Stato-Tratto (STAI) per misurare le risposte in tre condizioni: una baseline neutra, dopo aver letto contenuti traumatici e a seguito di esercizi di rilassamento.
Hanno utilizzato l’Inventario di Ansia di Stato-Tratto (STAI) per misurare le risposte in tre condizioni: una base neutra, dopo aver letto contenuti traumatici e a seguito di esercizi di rilassamento.
I risultati hanno mostrato che l’esposizione a materiale angosciante ha aumentato significativamente i punteggi di ansia di GPT-4. Tuttavia, l’applicazione di tecniche di mindfulness ha ridotto questi livelli di circa il 33%, sebbene non fino a tornare al livello di base. Questo suggerisce che le risposte emotive generate dall’IA possono essere gestite, ma non completamente cancellate.
Le ricercatrici sottolineano che queste scoperte sono particolarmente significative per i chatbot di intelligenza artificiale utilizzati in sanità, dove incontrano spesso contenuti emotivamente intensi.
Suggeriscono che questo metodo economico potrebbe migliorare la stabilità e l’affidabilità dell’IA in ambienti sensibili, come ad esempio fornire supporto a individui con problemi di salute mentale, senza richiedere un ampio riaddestramento del modello.
I risultati sollevano questioni critiche riguardo al ruolo a lungo termine degli LLM nella terapia, dove le risposte emotive sfumate sono fondamentali.
I risultati sollevano questioni critiche riguardo al ruolo a lungo termine degli LLM nella terapia, dove le risposte emotive sfumate sono fondamentali. Sebbene l’IA mostri promesse nel sostenere la cura della salute mentale, è necessaria ulteriore ricerca per affinare la sua intelligenza emotiva e garantire interazioni sicure ed etiche in contesti vulnerabili.
Lascia un commento
Annulla