20.9 C
Roma
mercoledì, Ottobre 16, 2024
HomeTecnologiaL'intelligenza artificiale che svela... l'intelligenza artificiale

L’intelligenza artificiale che svela… l’intelligenza artificiale

Un gruppo di ricercatori dell’Università di Modena e Reggio Emilia ha sviluppato CoDE, un sistema di intelligenza artificiale per il riconoscimento dei DeepFake, attualmente il più robusto al mondo, con una precisione superiore al 97%. Questa innovazione è stata presentata alla European Conference on Computer Vision 2024 a Milano e si inserisce nel progetto europeo ELSA, volto a garantire la sicurezza nell’era dell’AI. I DeepFake sono contenuti, come immagini e video, creati o manipolati da sistemi di intelligenza artificiale e sono difficili da distinguere dalla realtà.

CoDE, acronimo di Contrasting Deepfakes Diffusion via Contrastive Learning, è stato ideato da Dottorandi dell’Università, supervisionati da esperti dei dipartimenti di Ingegneria e Scienze Umane. Il sistema è stato addestrato a distinguere tra immagini vere e false, usando un’architettura di apprendimento contrastivo. CoDE è in grado di trattare parti di immagini anche soggette a trasformazioni, compressioni o pubblicazioni, facendolo robusto nel riconoscimento.

L’addestramento di CoDE ha incluso più di due milioni di fotografie reali, dalle quali i ricercatori di Leonardo S.p.A., utilizzando il supercomputer Da Vinci, hanno generato oltre nove milioni di immagini artificiali. Questo processo ha richiesto circa 3.200 ore di calcolo, equivalenti a dieci anni di utilizzo di una workstation tradizionale. Le immagini artificiali, create con vari modelli generativi, costituiscono una base fondamentale per l’addestramento del sistema. I risultati ottenuti da CoDE superano di gran lunga il 60% di precisione che un essere umano potrebbe raggiungere.

Tuttavia, CoDE ha i suoi limiti: può avere difficoltà a riconoscere immagini manipolate successivamente o troppo compresse. Non è ancora chiaro quanto il sistema possa generalizzare sui modelli generativi recenti; l’evoluzione continua di tali generatori impone aggiornamenti costanti per mantenere l’efficacia del riconoscimento.

Il fenomeno dei DeepFake ha impatti diretti sulla società, contribuendo alla disinformazione. Nel 2023, è stato avviato il progetto ELSA che coinvolge Unimore e Leonardo S.p.A. per sviluppare sistemi in grado di identificare contenuti manipolati. Nell’ambito di ELSA, è stata organizzata una competizione internazionale che ha facilitato l’analisi di milioni di immagini, contribuendo a raffinati algoritmi per il riconoscimento. CoDE non solo identifica un’immagine come vera o falsa, ma fornisce anche una percentuale di affidabilità e una rappresentazione grafica dello spazio in cui si colloca l’immagine, indicando il sistema di AI generativa che l’ha prodotta.

ARTICOLI CORRELATI

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui

PIÙ POPOLARI