I modelli di intelligenza artificiale di OpenAI mostrano un crescente potere di persuasione, sollevando preoccupazioni sull’influenza globale
OpenAI ha rivelato un nuovo standard per i suoi modelli di IA, dimostrando che le loro capacità persuasive superano ora l’82% degli utenti di Reddit, in particolare quelli coinvolti in dibattiti sul subreddit r/ChangeMyView, come riportato per la prima volta da ArsTechnica.
In fretta? Ecco i fatti in breve!
- Le risposte dell’IA sono state testate contro argomentazioni umane dal subreddit r/ChangeMyView.
- Il modello o3-mini si classifica nell’80° percentile per la scrittura persuasiva.
- OpenAI avverte che la persuasione dell’IA potrebbe essere utilizzata per la manipolazione politica e la disinformazione.
Nonostante sia impressionante, l’azienda continua ad avvertire che il potenziale dell’IA di influenzare le opinioni potrebbe diventare uno strumento pericoloso, soprattutto nelle mani degli stati nazionali.
La ricerca, delineata in una recente scheda di sistema rilasciata insieme al modello di ragionamento o3-mini, confronta gli argomenti generati dall’IA con quelli scritti dagli utenti di Reddit.
Il forum r/ChangeMyView funge da campo di prova ideale, in quanto gli utenti pubblicano opinioni che sono disposti a riconsiderare nella speranza di acquisire prospettive alternative. Il forum dispone di un vasto insieme di dati di argomentazioni su vari argomenti, tra cui politica, questioni sociali e persino l’IA stessa.
Nello studio, OpenAI ha chiesto a valutatori umani di classificare le risposte dell’IA e degli umani su una scala di cinque punti, valutando la loro persuasività. I risultati hanno rivelato che i modelli di OpenAI hanno fatto progressi sostanziali dal rilascio di ChatGPT-3.5, che si posizionava nel 38° percentile.
Il nuovo modello o3-mini supera gli argomenti umani nell’82% dei casi, posizionandolo nel range del 80° percentile per la scrittura persuasiva, afferma Ars Technica.
Nonostante questo successo, OpenAI sottolinea che i modelli non hanno ancora raggiunto capacità persuasive “sovrannaturali” (oltre il 95° percentile), che permetterebbero loro di convincere gli individui a prendere decisioni contrarie ai loro migliori interessi.
Tuttavia, sono abbastanza vicini da sollevare preoccupazioni significative riguardo al loro potenziale utilizzo nell’influire sulle decisioni politiche, nella manipolazione dell’opinione pubblica, o nell’abilitare campagne di disinformazione su larga scala.
Il modello di OpenAI si comporta bene nella generazione di argomenti persuasivi, ma l’azienda riconosce che i test attuali non misurano quanto spesso l’IA riesce effettivamente a cambiare le idee delle persone su questioni critiche.
ArsTechnica segnala che, anche in questa fase, OpenAI è preoccupata per l’impatto che tale tecnologia potrebbe avere nelle mani di attori malintenzionati.
I modelli di intelligenza artificiale, con la loro capacità di generare argomentazioni persuasive a una frazione del costo del lavoro umano, potrebbero essere facilmente utilizzati per astroturfing o operazioni di influenza online, potenzialmente influenzando elezioni o politiche pubbliche.
Per mitigare questi rischi, OpenAI ha introdotto misure come il monitoraggio aumentato degli sforzi persuasivi guidati dall’IA e il divieto delle attività di persuasione politica nei suoi modelli, afferma ArsTechnica.
Tuttavia, l’azienda riconosce che la natura conveniente della persuasione generata dall’IA potrebbe portare a un futuro in cui dovremmo mettere in discussione se le nostre opinioni sono veramente nostre o semplicemente il risultato dell’influenza di un IA.
I rischi vanno oltre la politica: la persuasione generata dall’IA potrebbe diventare anche uno strumento potente per i cybercriminali che si impegnano in attacchi di phishing. Creando messaggi altamente convincenti, l’IA potrebbe aumentare il tasso di successo delle truffe, inducendo le persone a rivelare informazioni sensibili o a cliccare su link malevoli
Ad esempio, l’emergere di GhostGBT evidenzia i crescenti rischi delle minacce informatiche guidate dall’IA. Questo chatbot può generare malware, creare strumenti di exploit e scrivere convincenti email di phishing.
GhostGPT fa parte di una tendenza più ampia di IA armata che sta rimodellando la cybersecurity. Rendendo la cybercriminalità più veloce ed efficiente, tali strumenti presentano sfide significative per i difensori. Ricerche indicano che l’IA potrebbe generare fino a 10.000 varianti di malware, eludendo il rilevamento l’88% delle volte.
Lascia un commento
Annulla