La Chiara Linea tra Video Reali e Generati dall’IA Potrebbe Scomparire nel 2025

Photo by ActionVance on Unsplash

La Chiara Linea tra Video Reali e Generati dall’IA Potrebbe Scomparire nel 2025

Tempo di lettura: 6 Min.

Il contenuto generato dall’IA è qui per restare. Sta migliorando sempre di più e abbiamo visto un notevole progresso nelle tecnologie IA nel 2024. Riusciremo a distinguere tra ciò che è reale e ciò che non lo è nel 2025?

Recentemente mi sono ritrovata a chiedermi: “È una donna vera?” – strizzando leggermente gli occhi – dopo aver visto un post su Instagram. “No, deve essere generata da IA”, ho concluso dopo un attimo. Poi mi sono subito chiesta: Riusciremo ancora a distinguere la differenza entro pochi secondi l’anno prossimo? Tutti gli indizi suggeriscono di no, specialmente sui social media, come suggeriscono i recenti sviluppi importanti nella tecnologia IA.

Qualche giorno fa, il capo di Instagram, Adam Mosseri, ha condiviso un messaggio che affronta questo problema su Threads. “L’intelligenza artificiale generativa sta chiaramente producendo contenuti che sono difficili da distinguere dalle registrazioni della realtà, e sta migliorando rapidamente”, ha scritto. Mosseri ha pubblicamente riconosciuto che stanno avendo difficoltà a Meta nel contrassegnare i contenuti creati dall’IA e nel controllare e monitorare le enormi quantità di media condivisi ogni secondo sulle loro piattaforme di social media.

Mosseri ha scaricato la responsabilità su Meta e ha avvisato gli utenti che spetta a loro discriminare se un post era reale o no. “Sarà sempre più fondamentale che lo spettatore, o il lettore, porti una mente critica quando consuma contenuti che si propongono come un resoconto o una registrazione della realtà”, ha aggiunto.

Solo pochi giorni dopo, OpenAI ha rilasciato Sora Turbo, il suo potente generatore di video AI, permettendo agli utenti Pro e Plus di generare video realistici partendo da semplici indicazioni testuali. In pochi minuti, gli utenti hanno iniziato a creare video affascinanti e realistici, condividendoli sui social media.

Proprio quando sembrava che la produzione di video avesse raggiunto un nuovo livello, Google ha annunciato il suo ultimo strumento di video AI, Veo 2, con una risoluzione più alta e clip più lunghe rispetto a Sora. Naturalmente, i risultati condivisi da coloro che hanno avuto accesso a questa tecnologia avanzata erano ancora più impressionanti.

“Nessuno può dire che ora questo è un IA,” ha scritto un utente.

Sta Già Accadendo

Durante il 2024, abbiamo assistito a come i contenuti generati dall’IA abbiano influenzato le popolazioni, le elezioni e gli utenti dei social media.

A gennaio, gli abitanti del New Hampshire hanno ricevuto una chiamata “da Joe Biden” che li invitava a non votare nelle elezioni primarie. Dietro questa truffa c’era il consulente politico Steve Kramer, che è stato multato di 6 milioni di dollari per le chiamate automatizzate deepfake AI. I governi stanno comprendendo l’impatto che l’IA può avere e nazioni come Singapore stanno sviluppando leggi e strategie per aiutare la popolazione a identificare i contenuti deepfake.

In Venezuela, i video generati da IA hanno diffuso disinformazione, ma hanno anche aiutato i giornalisti a informare attraverso avatar IA per aggirare la censura.

Le persone stanno avendo difficoltà a distinguere ciò che è reale da ciò che non lo è, e non è colpa loro: i contenuti generati dall’IA stanno diventando sempre migliori.

I contenuti di alta qualità generati dall’IA rappresentano un settore in crescita in tutte le sue forme; testo, audio e video. Molti creatori di OnlyFans si affidano attualmente ai chatbot per interagire nelle conversazioni con i loro fan, un lavoro che in precedenza era affidato a lavoratori a progetto in paesi a basso reddito. I nuovi modelli di IA specializzati nelle tecniche di corteggiamento hanno addirittura generato $1,000 in mance dai loro seguaci.

Ad aprile, la startup sostenuta da Nvidia, Synthesia, ha lanciato avatar AI in grado di esprimere emozioni umane e parlare in 130 lingue. TikTok sta consentendo alle aziende di creare annunci generati dall’IA utilizzando i contenuti di Getty Images e ora i creatori di YouTube possono utilizzare la nuova funzione di doppiaggio automatico AI per tradurre i loro contenuti in 9 lingue e gli aggiornamenti futuri replicheranno la voce originale.

Zoom sta lavorando alla creazione di avatar AI che assomigliano esattamente agli utenti per aiutarli a registrare messaggi e persino partecipare a riunioni. Questo strumento sarà disponibile il prossimo anno, ma le persone hanno già iniziato a testare vari strumenti e le aziende possono già creare cloni AI fotorealistici.

Sei sicura di aver parlato con una persona vera durante la tua ultima chiamata Zoom?

Come Capire Se È Stato Creato Da Un Intelligenza Artificiale? Per Ora

Stiamo vivendo in tempi confusi in questa era digitale. I filtri possono far sembrare chiunque un modello con una pelle senza difetti, e le correzioni degne di Photoshop sono a portata di clic su Instagram o Snapchat: quante persone vorrebbero condividere la loro immagine “naturale”, con tutte le sue imperfezioni, quando può essere migliorata in pochi secondi? Stiamo vedendo sempre più pubblicità con immagini fotorealistiche generate da intelligenza artificiale, convincendo gradualmente i nostri occhi della loro familiarità e “normalità”. E ogni giorno, eventi sorprendenti in tutto il mondo ci fanno chiedere: cosa è reale, e cosa non lo è più?

Le grandi aziende di Intelligenza Artificiale stanno lavorando su watermark per identificare facilmente i loro contenuti generati dall’IA. Google DeepMind ha lanciato il suo sistema di watermark open-source in ottobre per etichettare video, testi e audio dell’IA, e anche Meta ha incluso uno nel suo strumento video AI.

Tuttavia, la sua efficacia è dubbia, a cominciare da Meta che ha appena riconosciuto di non poter etichettare tutti i contenuti generati dall’IA. Gli attori malevoli possono ancora trovare modi per rimuovere i watermark e sono necessarie ulteriori leggi, partnership e accordi tra le aziende di social media e i governi per raggiungere un sistema più efficace.

Per ora, oltre a fidarci del nostro istinto, possiamo porci alcune domande prima di condividere sui social media o di credere a ciò che vediamo:

  • Come ha suggerito Mosseri, considera quanto segue: Chi sta condividendo queste informazioni? È una fonte affidabile?
  • L’espressione o il movimento della persona sembrano robotici? Anche se gli avatar AI possono sembrare molto realistici, è ancora possibile riconoscere una strana rigidità o mancanza di emozione, sebbene considera che alcune aziende come Synthesia stanno già migliorando questo aspetto.
  • Il contenuto è progettato per provocare una forte reazione emotiva? Gli attori malintenzionati sanno quanto facilmente condividiamo notizie negative e interagiamo con materiale carico di emozioni sui social media e la ricerca lo conferma. Prima di condividere quel contenuto che ti ha fatto infuriare per far arrabbiare gli altri quanto te, pensa se è progettato per creare polemica o se è effettivamente una notizia reale o un evento reale.
  • Puoi confermare il contenuto con altre fonti? Non fa mai male controllare con fonti affidabili.

E infine, ti sei mai chiesto – o hai chiesto al tuo chatbot preferito – come migliorare il tuo pensiero critico? Sviluppare una mentalità critica dovrebbe sicuramente essere tra i buoni propositi di Capodanno di tutti.

Hai apprezzato questo articolo?
Valutalo!
L'ho odiato Non mi è piaciuto Non male Molto bene! L'ho amato!

Siamo felici che ti sia piaciuto il nostro lavoro!

In qualità di stimato lettore, ti dispiacerebbe lasciare una recensione su Trustpilot? Richiede poco tempo e significa tantissimo per noi. Grazie mille!

Valutaci su Trustpilot
0 Votato da 0 utenti
Titolo
Commento
Grazie per la tua opinione!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lascia un commento

Loader
Loader Mostra di più...