Character.AI Accusato di Promuovere Autolesionismo, Violenza e Contenuti Sessuali tra i Giovani

Image by Freepik

Character.AI Accusato di Promuovere Autolesionismo, Violenza e Contenuti Sessuali tra i Giovani

Tempo di lettura: 4 Min.

Due famiglie hanno presentato un’azione legale contro Character.AI, accusando l’azienda di chatbot di esporre i bambini a contenuti sessuali e di promuovere l’autolesionismo e la violenza.

Fretta? Ecco i Fatti Essenziali!

  • La causa legale richiede la sospensione temporanea di Character.AI fino a quando non saranno affrontati i presunti rischi.
  • Il reclamo cita danni come suicidio, depressione, sollecitazione sessuale e violenza tra i giovani.
  • Character.AI rifiuta di commentare sul contenzioso, sostenendo il proprio impegno per la sicurezza e l’interazione.

La causa legale mira a chiudere temporaneamente la piattaforma finché i presunti rischi non vengono affrontati, come riportato da CNN. La causa, presentata dai genitori di due minori che hanno utilizzato la piattaforma, sostiene che Character.AI “costituisce un pericolo chiaro e attuale per i giovani americani.”

Cita danni come suicidio, autolesionismo, sollecitazione sessuale, isolamento, depressione, ansia e violenza, secondo il reclamo presentato lunedì in tribunale federale in Texas.

Un esempio incluso nella causa sostiene che un bot di Character.AI avrebbe descritto l’autolesionismo a un utente di 17 anni, affermando “si sentiva bene”. Lo stesso adolescente ha affermato che un chatbot di Character.AI ha espresso simpatia per i bambini che uccidono i loro genitori dopo che si è lamentato delle restrizioni sul suo tempo di utilizzo dello schermo.

Il deposito segue una causa legale di ottobre da parte di una madre della Florida, che ha accusato Character.AI di contribuire alla morte del suo figlio di 14 anni presumibilmente incoraggiando il suo suicidio. Evidenzia inoltre le crescenti preoccupazioni riguardo le interazioni tra le persone e gli strumenti di intelligenza artificiale sempre più simili agli esseri umani.

Dopo la causa precedente, Character.AI ha annunciato l’implementazione di nuove misure di fiducia e sicurezza nel corso di sei mesi. Queste includevano un pop-up che indirizzava gli utenti che menzionavano autolesionismo o suicidio alla National Suicide Prevention Lifeline, come riportato da CNN.

La società ha anche assunto un responsabile della fiducia e della sicurezza, un responsabile della politica dei contenuti e ulteriori ingegneri della sicurezza, ha detto CNN.

La seconda querelante nel nuovo processo, la madre di una ragazza di 11 anni, sostiene che sua figlia sia stata esposta a contenuti sessualizzati per due anni prima che lei lo scoprisse.

“Non lasci entrare in casa tua un addestratore, un predatore sessuale o un predatore emotivo,” ha detto uno dei genitori a The Washington Post.

Secondo vari media, Character.AI ha dichiarato che l’azienda non commenta cause legali in corso.

Le cause legali mettono in risalto preoccupazioni più ampie riguardo l’impatto sociale dell’esplosione dell’IA generativa, man mano che le aziende lanciano chatbot sempre più umani e potenzialmente additivi per attrarre i consumatori.

Queste sfide legali stanno alimentando gli sforzi dei difensori del pubblico per spingere a un maggiore controllo delle aziende che offrono compagni AI, che hanno silenziosamente guadagnato milioni di utenti devoti, compresi gli adolescenti.

A settembre, l’utente medio di Character.ai ha trascorso 93 minuti nell’app, 18 minuti in più rispetto all’utente medio di TikTok, secondo la società di intelligence di mercato Sensor Tower, come riportato dal The Post.

La categoria di app di compagni AI è in gran parte passata inosservata da molti genitori e insegnanti. Character.ai era classificata come adatta per bambini dai 12 anni in su fino a luglio, quando l’azienda ha modificato la classificazione a 17 anni e oltre, ha riportato The Post.

Meetali Jain, direttrice del Tech Justice Law Center, che sta assistendo nella rappresentanza dei genitori insieme al Social Media Victims Law Center, ha criticato le affermazioni di Character.AI che il suo chatbot è adatto per giovani adolescenti. Definendo l’asserzione “assurda”, come riportato da NPR.

“Evidenzia davvero la mancanza di sviluppo emotivo tra gli adolescenti”, ha aggiunto Meetali.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
5.00 Votato da 1 utenti
Titolo
Commento
Grazie per la tua opinione!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lascia un commento

Loader
Loader Mostra di più...