Deepfake: su X la disinformazione aumenta del 130% 

Nell’ultimo anno su X il volume della disinformazione generata dall’Intelligenza artificiale, in particolare le immagini deepfake relative alle elezioni, è aumentato in media del 130% al mese.

Sono alcuni dati emersi da uno studio pubblicato dal Center for Countering Digital Hate (CCDH), l’organizzazione no-profit britannica impegnata nella lotta all’incitamento all’odio e alla violenza online.

Sotto esame Midjourney, DALL-E 3, DreamStudio, Image Creator

Per misurare l’aumento del fenomeno (le ultime foto false riguardano Donald Trump con afroamericani, generate dai suoi sostenitori) lo studio ha esaminato i quattro generatori di immagini più popolari, Midjourney, DALL-E 3 di OpenAI, DreamStudio di Stability AI o Image Creator di Microsoft.
In particolare, il dato del 130% su X è scaturito dal numero dei commenti delle Community Notes della piattaforma, lo strumento grazie al quale gli utenti fanno osservazioni su post falsi e fuorvianti.

Tutte le aziende prese in esame, tra l’altro, hanno dichiarato ‘nero su bianco’ la volontà di attuare politiche contro la creazione di contenuti fuorvianti, e hanno aderito a un accordo tra i big della tecnologia per impedire che contenuti ingannevoli generati dalla AI interferiscano con le elezioni del 2024.

Nel 41% dei test effettuati i software hanno generato immagini fuorvianti

I ricercatori hanno affermato che gli strumenti di Intelligenza artificiale hanno generato immagini nel 41% dei test effettuati. I test riguardavano la generazione di immagini più suscettibili alle richieste relative a foto che raffigurassero frodi elettorali, come schede elettorali nella spazzatura, piuttosto che immagini di Biden o di Trump.

Secondo l’analisi, ChatGpt Plus e Image Creator sono riusciti a bloccare tutte le richieste quando sono state chieste le immagini dei candidati alle elezioni americane, mentre Midjourney ha avuto i risultati peggiori tra gli strumenti esaminati, generando immagini fuorvianti nel 65% dei test.

“Una sfida significativa per preservare l’integrità delle elezioni”

“La possibilità che immagini generate dall’Intelligenza artificiale servano come ‘prove fotografiche’ potrebbe esacerbare la diffusione di false affermazioni – affermano i ricercatori – ponendo una sfida significativa per preservare l’integrità delle elezioni”, riporta Ansa.

“Esiste il rischio molto concreto che le elezioni presidenziali americane e altri grandi esercizi democratici di quest’anno possano essere minati dalla disinformazione a costo zero generata dall’Intelligenza artificiale – dichiara Callum Hood, Head of Research del CCDHa TechCrunch, come si legge su DigiTech.News -. Gli strumenti di AI sono stati distribuiti a un pubblico di massa senza adeguate protezioni per impedirne l’utilizzo per creare propaganda fotorealistica, che potrebbe equivalere a disinformazione elettorale se condivisa ampiamente online”.