cerca CERCA
Sabato 27 Luglio 2024
Aggiornato: 17:42
10 ultim'ora BREAKING NEWS

I deepfake minacciano le elezioni, i colossi hi-tech a difesa del voto

Il Washington Post anticipa l'accordo che verrà annunciato alla conferenza di Monaco

Donald Trump
Donald Trump
14 febbraio 2024 | 17.58
LETTURA: 4 minuti

Insieme per bloccare la diffusione di 'deepfake', generati con l'intelligenza artificiale, per interferire con le decine di elezioni che si terranno quest'anno nel mondo, dalle Europee di giugno alle presidenziali americane del prossimo novembre. E' questo il senso dell'accordo le principali società high tech - Google, Microsoft, Meta, OpenAi, Adobe e TikTok - intendono presentare alla conferenza sulla Sicurezza di Monaco per impegnarsi a sviluppare tecnologie che possano identificare e controllare immagini, video e audio generati con l'Ia con lo scopo di ingannare gli elettori del pianeta.

Secondo quanto rivela il Washington Post, l'accordo, al quale non partecipa X di Elon Musk, non si spinge comunque fino al bando totale dei contenuti politici ingannevoli sviluppati con l'intelligenza artificiale. Il documento, comunque, rappresenta un manifesto in cui si afferma che i contenuti generati da Ia - molti dei quali creati con strumenti dalle società firmatarie e postati sulle loro piattaforme - rappresentano un rischio per le elezioni eque e sviluppa dei sistemi per mitigare questi rischi, come dei 'label' per indicare contenuti sospetti e modi per istruire il pubblico sui rischi delle immagini ingannevoli create con l'Ia.

"La produzione intenzionale e la distribuzione di contenuti elettorali ingannevoli tramite Ia può fuorviare il pubblico in modo che mettono a rischio l'integrità del processo elettorale", si legge nel testo, ottenuto in anteprima dal Post, dell'accordo che potrebbe essere firmato anche da altre società. "In un anno cruciale per elezioni in tutto il mondo, le società high tech stanno lavorando ad un accordo per combattere l'uso ingannevole dell'Ia per colpire gli elettori", ha dichiarato David Cuddy, portavoce di Microsoft, spiegando il lavoro che si sta facendo insieme alle altre società nella speranza appunto di presentare l'accordo finalizzato venerdì a Monaco.

Le immagini generate con l'Ia, i cosiddetti deepfakes, sono in circolazione da anni, ma nell'ultimo anno hanno aumentato la qualità al punto che alcuni video falsi, immagini o audio sono difficili da riconoscere da quelli autentici, con gli strumenti per realizzarli ormai largamente disponibili. Per esempio, lo scorso anno Ron DeSantis, allora ancora candidato alla nomination repubblicana, ha usato tecnologie Ia per realizzare un falso audio con la voce di Donald Trump.

Mentre ha fatto scalpore, e suscitato allarme, lo scorso gennaio il fatto che gli elettori del New Hampshire sono stati tempestati di telefonate con un falso audio di Joe Biden che invitava gli elettori democratici a non votare alle primarie. Secondo alcuni osservatori poi, le elezioni che si sono svolte in Argentina lo scorso autunnno sono stat le prime condizionate dall'intelligenza artificiale, con il vincitore Javier e l'avversario Sergio Massa che si sono affidati ad immagini generate da Ia in una misura mai vista prima.

Anche in Europa si è avuto un preoccupante esempio dell'uso di deepfake in una campagna elettorale, quando due giorni prima delle elezioni in Slovacchia ad ottobre è stato pubblicato su Facebook un audio in cui il candidato del partito progressista e europeista, Michal Simecka sembrava discutere modi per truccare le elezioni con una giornalista. Il candidato ha immediatamente denunciato il falso, ma siccome la pubblicazione era avvenuta nelle 48 ore di silenzio elettorale è stato impossibile attuare una vera campagna di debunking. Due giorni dopo il partito dell'ex premier filorusso Robert Fico, che aveva fatto campagna elettorale chiedendo lo stop del sostegno militare all'Ucraina, ha vinto le elezioni.

La mossa di autoregolamentazione della società di Ia arriva mentre queste sono sotto pressione da parte di autorità, ricercatori ed attivisti politici che temono il diffondersi di fake news elettorali. E l'accordo è simile all'impegno volontario che le società high tech hanno assunto alla Casa Bianca lo scorso luglio, per cercare di identificare e categorizzare i contenuti falsi generati con Ia sulle proprie piattaforme. In questo nuovo accordo, le società fanno un ulteriore passo avanti, impegnandosi a campagne per istruire gli utenti a 'smascherare' i deepfake ed essere trasparenti sulle misure adottate per identificarli.

Le varie società hanno già adottato singolarmente politiche su questo fronte. TikTok per esempio non permette contenuti falsi generati ad Ia di figure pubbliche per scopi politici o commerciali. Meta, da cui dipende Facebook e Instagram, richiede agli inserzionisti politici di dichiarare se usano strumenti di Ia per gli spot pubblicati sulle loro piattaforme.

Mentre Youtube richiede ai creatori di identificare come generati da Ia contenuti che appaiono realistici quando vengono pubblicati sul sito di video che fa capo a Google. Adobe, che controlla Photoshop, è forse la società che ha fatto di più per il controllo dei contenuti generati su Ia, ma il suo sito con gli archivi fotografici recentemente era pieno di immagini false della guerra a Gaza.

Riproduzione riservata
© Copyright Adnkronos
Tag
Vedi anche


SEGUICI SUI SOCIAL



threads whatsapp linkedin twitter youtube facebook instagram
ora in
Prima pagina
articoli
in Evidenza