Opinione: ChatGPT è tuo amico? Potrebbe essere il momento giusto per stabilire dei limiti

Photo by Rafiee Artist on Unsplash

Opinione: ChatGPT è tuo amico? Potrebbe essere il momento giusto per stabilire dei limiti

Tempo di lettura: 6 Min.

OpenAI e il MIT hanno recentemente pubblicato un articolo sull’impatto di ChatGPT sul benessere delle persone. Sebbene la maggior parte degli utenti si affidi alla tecnologia per compiti pratici, lo studio rivela che un piccolo gruppo sta sviluppando profonde connessioni emotive con il modello di intelligenza artificiale che possono influenzare il loro benessere

Da un po’ di tempo, osservo con curiosità le relazioni che alcune persone stanno sviluppando con l’intelligenza artificiale generativa. Alcuni mesi fa, ho letto sul New York Times la storia di una donna sposata di 28 anni che si è innamorata di ChatGPT, e come quello che era iniziato come “un esperimento divertente” si sia trasformato in una relazione complessa e inaspettata.

Ho osservato i miei amici, specialmente quelli che una volta rifiutavano la tecnologia o non erano interessati, che non riescono a prendere una grande decisione senza consultare il loro oracolo AI. Mi sono anche sorpresa delle risposte empatiche che i modelli di AI forniscono a domande cariche di emozioni o di psicologia.

E, naturalmente, ho riso delle battute, dei meme e dei video TikTok dei post delle persone sui social media che mostrano come siano diventati dipendenti dal chatbot, alcuni addirittura lo chiamano il loro “migliore amico” o “terapista” – e addirittura raccomandando seriamente agli altri di fare lo stesso.

Ma, se mettiamo da parte per un attimo le esperienze divertenti e le battute, potremmo renderci conto che stiamo affrontando un fenomeno preoccupante a livello globale.

Questo mese, per la prima volta nella breve storia dell’intelligenza artificiale, OpenAI e il MIT Media Lab hanno pubblicato uno studio che offre spunti sul l’attuale impatto di ChatGPT sul benessere emotivo delle persone, nonché suggerimenti sui rischi che potremmo affrontare come società: solitudine, dipendenza emotiva e meno interazioni sociali con persone reali.

Una Relazione Che Evolve

Il primo approccio alle nuove tecnologie di intelligenza artificiale generativa spesso inizia con alcune domande timide, forse tecniche su compiti pratici come la stesura di un’e-mail o richieste di spiegazioni su argomenti complessi, o semplicemente per fare brainstorming.

Tuttavia, una volta che un utente inizia a testare le capacità del chatbot, scopre che queste possono essere più ampie e complesse di quanto previsto.

Mentre certi prodotti AI come Friend—un dispositivo AI indossabile—sono stati progettati e promossi in modo molto goffo come compagni di vita dell’utente, ChatGPT è stato pubblicizzato come uno strumento di produttività. Eppure, una percentuale di persone usa il chatbot per questioni personali ed emotive e sviluppa legami forti con esso.

video-thumb
Play

Anche se rappresentano solo un “piccolo gruppo”, come ha precisato OpenAI, potrebbero comunque rappresentare milioni di persone in tutto il mondo, soprattutto considerando che ora oltre 400 milioni di persone usano settimanalmente ChatGPT. Questi utenti notano rapidamente che il chatbot di OpenAI imita il loro linguaggio, tono e stile e può persino essere addestrato ad interagire in un certo modo o a utilizzare nomignoli – come ha fatto quella signora che se ne è innamorata – e persino a “sembrare” più umano.

“Il loro stile conversazionale, l’uso della prima persona e la capacità di simulare interazioni simili a quelle umane hanno portato gli utenti a volte a personificare e antropomorfizzare questi sistemi“, afferma il documento condiviso da OpenAI.

Ma questa vicinanza comporta dei rischi, come hanno notato i ricercatori: “Sebbene un chatbot emotivamente coinvolgente possa fornire sostegno e compagnia, esiste il rischio che possa manipolare le esigenze socio-affettive degli utenti in modi che minano il benessere a lungo termine.”

La metodologia dello studio

La recente indagine pubblicata si concentra sul benessere degli esseri umani dopo l’uso costante di ChatGPT. Per comprendere l’impatto emotivo e sociale del chatbot, i ricercatori hanno intrapreso due principali studi applicando diverse strategie.

OpenAI ha elaborato e analizzato oltre 40 milioni di interazioni rispettando la privacy degli utenti tramite l’uso di classificatori, ed ha condotto un sondaggio su oltre 4.000 di essi per capire come le interazioni li facevano sentire.

Il MIT Media Lab ha condotto un esperimento con quasi 1.000 persone per un mese, concentrandosi sulle conseguenze psicosociali dell’uso di ChatGPT per almeno 5 minuti al giorno. Hanno inoltre somministrato e processato questionari alla fine dell’esperimento.

Non sorprendentemente, le scoperte hanno rivelato che gli utenti che trascorrono più tempo con la tecnologia sperimentano più solitudine e mostrano più segni di isolamento.

Complesse Conseguenze e Multiple Ramificazioni

Lo studio del MIT Media Lab e di OpenAI ha offerto anche diverse riflessioni su quanto possano essere complesse e uniche le relazioni tra umani e chatbot.

Nella ricerca, gli autori ci offrono uno sguardo sulla varietà di esperienze e modi in cui ciascun utente interagisce con ChatGPT – e su come l’esito possa variare a seconda di diversi fattori, come l’uso di funzionalità vocali avanzate, la modalità solo testo, il tipo di voce, la frequenza d’uso, gli argomenti di conversazione, la lingua utilizzata e il tempo trascorso sull’app.

“Sconsigliamo di generalizzare i risultati perché ciò potrebbe oscurare le scoperte sfumate che evidenziano le interazioni non uniformi e complesse tra le persone e i sistemi di intelligenza artificiale”, avverte OpenAI nel suo annuncio ufficiale.

Tutti i diversi approcci che ogni utente sceglie si traducono in risultati diversi, e ci immergono in aree grigie difficili da esplorare.

È l’Effetto Farfalla AI!

Sorgono Altre Domande

Il documento condiviso da OpenAI nota anche che gli utenti più assidui hanno detto che sarebbero stati “infastiditi” se la voce o la personalità del loro chatbot cambiasse.

Questo mi ha ricordato un video che ho recentemente visto sui social media di un ragazzo che diceva di preferire una voce femminile e che parlava con l’IA generativa ogni giorno. Potrebbe ChatGPT aiutare anche gli uomini a aprirsi emotivamente? Cosa succederebbe se un giorno ChatGPT gli parlasse con una voce maschile? Si sentirebbe tradito? Smetterebbe di usare ChatGPT? Stava sviluppando un legame romantico – o semplicemente uno spazio di fiducia? Naturalmente, è difficile non collegare immediatamente questi scenari al film Her di Spike Jonze.

Ogni account ChatGPT, insieme ai suoi storici chat—ogni giorno più intimi e privati di qualsiasi profilo WhatsApp o DM dei social media—rappresenta una relazione unica con innumerevoli risultati e conseguenze.

Il Risultato Atteso

Tutti gli studi hanno analizzato diversi aspetti, ma sono giunti a una conclusione simile, spiegata brevemente nel MIT Technology Review: “I partecipanti che si fidavano e ‘si legavano’ di più a ChatGPT erano più propensi di altri a sentirsi soli, e a fare più affidamento su di esso.

Mentre l’indagine non si è concentrata su soluzioni o spiegazioni più profonde sul perché ciò sta accadendo o come potrebbe evolvere, sembra probabile che più utenti si uniranno a OpenAI e ad altre piattaforme IA, specialmente ora che lo strumento di generazione di immagini IA è diventato virale.

Sebbene le conclusioni della ricerca di MIT e OpenAI non siano particolarmente sorprendenti, lo studio fornisce un background scientifico con prove, misurazioni, campioni e metriche più ‘tangibili’ che potrebbero spianare la strada per ulteriori ricerche e aiutare a affrontare le implicazioni dell’uso dell’intelligenza artificiale oggi.

Abbiamo anche ricevuto un avvertimento ufficiale – dai suoi stessi sviluppatori – riguardo ai legami che costruiamo con ChatGPT e un invito a stabilire limiti e a riflettere sulle nostre interazioni e relazioni attuali – o forse dovremmo chiamarle situazioni? – con i chatbot.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lascia un commento

Loader
Loader Mostra di più...