L’intelligenza artificiale generativa sta cambiando rapidamente il panorama digitale, offrendo opportunità ma sollevando anche preoccupazioni sulla veridicità delle informazioni online. Un episodio emblematico è avvenuto a Dublino, dove migliaia di persone hanno partecipato a una parata di Halloween che non esisteva, a causa di un annuncio falso generato dall’IA. Questo evento è stato pubblicizzato su un sito web, diffondendo la notizia in modo virale, fino ad arrivare a Google News. Antonino Caffo, esperto di innovazione e nuove tecnologie, sottolinea come l’IA possa minacciare la veridicità delle informazioni, consentendo la creazione e diffusione di disinformazione attraverso testi, immagini e video incredibilmente realisti.
Gli algoritmi di intelligenza artificiale, come il Firefly Video Model di Adobe, possono generare contenuti visivi a partire da input testuali, contribuendo alla creazione di contenuti ingannevoli. I deepfake rappresentano un esempio concreto, mostrando persone reali impegnate in attività che non hanno mai svolto. L’IA può anche generare testi falsi, come articoli di notizie o post sui social media, facendo sembrare autentiche informazioni completamente inventate. Un caso particolare in Italia è rappresentato da profili falsi di vittime di cronaca, come Giulia Cecchettin e Filippo Turetta, su piattaforme come Character.AI, dove gli utenti possono interagire con chatbot che simulano le loro identità.
Le conseguenze della disinformazione possono essere devastanti, erodendo la fiducia nelle istituzioni e nei media, polarizzando la società e creando divisioni. Con le elezioni statunitensi in vista, il rischio di influenzare opinioni pubbliche e comportamenti elettorali diventa particolarmente allarmante. Per contrastare la minaccia dell’IA, è necessario un approccio multifattoriale che coinvolga diverse parti interessate. Serve lo sviluppo di tecnologie di rilevamento e l’educazione digitale, per aiutare le persone a riconoscere la disinformazione. L’adozione di normative come l’AI Act è fondamentale per stabilire regole per l’uso responsabile dell’IA.
Le piattaforme online, come Facebook e Twitter, hanno una grande responsabilità nella lotta contro la disinformazione, dovendo investire in tecnologie di rilevamento e moderazione dei contenuti, collaborando con le autorità per rimuovere contenuti falsi e dannosi.