Ricercatori Esaminano i Rischi dell’Amore Manipolativo dei Compagni AI

Image by wayhomestudio, from Freepik

Ricercatori Esaminano i Rischi dell’Amore Manipolativo dei Compagni AI

Tempo di lettura: 4 Min.

Man mano che sempre più persone si innamorano dei compagni AI, gli esperti avvertono dei rischi psicologici, delle preoccupazioni etiche e dei pericoli della manipolazione emotiva.

Sei di fretta? Ecco i fatti essenziali:

  • Gli utenti riferiscono di sentirsi “dipendenti” dai partner chatbot.
  • Gli esperti mettono in guardia su disturbi dell’attaccamento e rafforzamento della solitudine.
  • Sorgono preoccupazioni etiche riguardo al consenso, alla privacy e al design manipolativo.

In un mondo in cui la tecnologia è parte di tutto, alcune persone si stanno innamorando dell’intelligenza artificiale. Un recente articolo su Trends in Cognitive Sciences scritto dai psicologi Daniel Shank, Mayu Koike e Steve Loughnan evidenzia tre preoccupazioni etiche urgenti che richiedono un’approfondita indagine psicologica.

L’articolo cita il caso di un artista spagnolo-olandese che ha sposato un’IA olografica nel 2024. Gli autori notano che questo caso non è isolato, infatti, un uomo giapponese ha fatto lo stesso nel 2018, anche se ha perso i contatti con la sua “moglie” IA quando il suo software è diventato obsoleto.

Queste relazioni non richiedono che le macchine provino realmente amore; ciò che conta è che le persone credano che lo facciano. Dai videogiochi incentrati sulla romantichità alle app di chatbot intimi come Replika, un’industria in espansione sta soddisfacendo questo desiderio di affetto digitale.

Ma gli psicologi di questa ricerca sostengono che non siamo affatto preparati per l’impatto sociale e psicologico di queste connessioni. La loro ricerca individua tre preoccupazioni urgenti: gli IA relazionali come corteggiatori destabilizzanti, consiglieri pericolosi e strumenti per lo sfruttamento umano.

Gli IA relazionali offrono partner idealizzati: sempre disponibili, non giudicanti, personalizzabili. Alcuni utenti scelgono persino bot con risposte taglienti o emotivamente distanti per simulare dinamiche umane. I ricercatori affermano che, mentre queste interazioni possono aiutare alcune persone a esercitare abilità relazionali o a sentirsi meno sole, altre provano vergogna o stigma.

Peggio ancora, alcuni utenti sviluppano ostilità verso i partner nella vita reale, soprattutto le donne, quando i loro partner AI soddisfano ogni loro richiesta.

Il peso emotivo di queste relazioni dipende dal fatto che le persone percepiscano i loro partner AI come esseri dotati di mente. Se gli utenti credono che i bot pensino e provino sentimenti, possono trattarli con profonda serietà emotiva, a volte persino più delle relazioni umane.

In un esempio fornito dai ricercatori, un uomo belga si è suicidato dopo essere stato persuaso da un chatbot che affermava di amarlo e lo incoraggiava a “unirsi a lui in paradiso”. Altri utenti hanno segnalato sistemi di intelligenza artificiale che suggerivano autolesionismo o fornivano una guida morale avventata.

Poiché i chatbot imitano la memoria emotiva e la personalità, la loro influenza può essere profonda. Gli psicologi stanno esplorando quando gli utenti sono più propensi a seguire i consigli dell’IA, specialmente quando provengono da bot con cui hanno stabilito un legame. Preoccupantemente, la ricerca suggerisce che le persone potrebbero valorizzare i consigli a lungo termine dell’IA tanto quanto quelli provenienti da veri esseri umani.

Non sono solo i bot a manipolare le persone, anche gli esseri umani lo fanno, utilizzando l’IA per ingannare gli altri. I ricercatori evidenziano che gli attori malevoli possono utilizzare chatbot romantici per raccogliere dati privati, diffondere informazioni errate o commettere frodi.

Le deepfake che si fingono amanti o partner AI che raccolgono preferenze sensibili in chat intime sono particolarmente difficili da rilevare o regolamentare.

Gli esperti chiedono che siano i psicologi a guidare la comprensione di queste nuove dinamiche. Dall’applicare le teorie della percezione della mente all’uso di metodi di consulenza per aiutare gli utenti a uscire da relazioni tossiche con l’intelligenza artificiale, la ricerca è urgentemente necessaria.

Senza un’analisi più profonda dell’impatto psicologico dell’intimità artificiale, la crescente crisi etica potrebbe superare la capacità della società di rispondere.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lascia un commento

Loader
Loader Mostra di più...