Intelligence Digest
La Francia nel mirino della dinsinformazione • Gli Stati Uniti chiudono un hub contro le fake news • Gli Emirati Arabi useranno l'IA per legiferare
Buon pomeriggio. È mercoledì 23 aprile 2025.
L’Intelligence Digest si concentra sugli argomenti di cui si occupa l’Italian Digital Media Observatory, tra cui la sicurezza informatica, l’intelligenza artificiale, le interferenze straniere e la disinformazione.
Seguici su Twitter, Instagram, Facebook, LinkedIn, TikTok e Bluesky .
UE: Cina e Russia guidano la guerra dell’informazione globale
IDMO
Il terzo rapporto FIMI del Servizio europeo per l’azione esterna rivela un’escalation nelle operazioni di manipolazione informativa, che hanno colpito più di 90 Paesi. Russia e Cina sono i principali attori, operando con stili diversi ma obiettivi comuni: destabilizzare le democrazie, erodere la fiducia nelle istituzioni e indebolire l’UE e la NATO. Le campagne si servono di bot, deepfake, siti-clone e account falsi, con X identificata come piattaforma più usata. Il report evidenzia il ruolo crescente dell’AI e il fenomeno del “coordinated inauthentic behavior”.
Francia nel mirino della disinformazione: bufale generate con IA
IDMO
Un’operazione russa di disinformazione legata alla rete Storm-1516 ha colpito la Francia con cinque bufale virali tra dicembre 2024 e marzo 2025, sfruttando l’intelligenza artificiale per creare video e notizie false che hanno raggiunto oltre 55 milioni di visualizzazioni. Le narrazioni, diffuse da account e siti legati al Cremlino, includono accuse infondate contro Macron e la moglie Brigitte. Alcuni chatbot di IA generativa hanno rilanciato tali contenuti, evidenziando una nuova vulnerabilità nel sistema informativo
USA: chiuso l’ufficio anti-disinformazione del Dipartimento di Stato
Associated Press
Il segretario di Stato Marco Rubio ha annunciato la chiusura del Global Engagement Center, struttura incaricata di contrastare la disinformazione diffusa da Russia, Cina e Iran. Secondo Rubio, il centro avrebbe limitato la libertà di espressione, accusandolo di censurare cittadini americani invece di proteggerli. Il centro di controllo della disinformazione era stato spesso criticata dai conservatori per aver segnalato media e account statunitensi come diffusori di notizie false, specialmente sul conflitto in Ucraina. L’ex portavoce del Dipartimento di Stato Ned Price ha definito “fuorviante e poco seria” la narrazione sull’organo di monitoraggio.
Gli americani credono alla disinformazione russa in misura preoccupante
Forbes
Emma Woollacott
Un sondaggio nazionale condotto da YouGov per NewsGuard ha rivelato che il 78% degli americani ha creduto almeno a una tra dieci bufale ampiamente diffuse online, tre delle quali legate direttamente alla propaganda russa. Solo meno dell’1% ha identificato correttamente tutte come false. Tra le affermazioni più credute: che fino a metà degli aiuti USA all’Ucraina siano stati rubati e che Kiev abbia venduto armi ad Hamas. Inoltre, meno della metà del campione ritiene vere anche statistiche inventate sui decessi da vaccino Covid.
I Paesi europei più esposti alla disinformazione russa
Euronews
James Thomas e Talyta França
Secondo uno studio del Center for Information, Democracy, and Citizenship dell’università Americana in Bulgaria, la rete russa Pravda prende di mira principalmente ex stati sovietici e Paesi balcanici, che rappresentano il 52% delle 640.000 pubblicazioni analizzate tra dicembre 2024 e marzo 2025. Moldova, Lettonia ed Estonia risultano i più colpiti, seguiti da Serbia e Armenia. L'obiettivo è influenzare aree strategiche, soprattutto quelle con infrastrutture energetiche critiche.
Gli Emirati Arabi Uniti useranno l’IA per scrivere leggi: è la prima volta al mondo
Financial Times
Chloe Cornish
Gli Emirati Arabi Uniti lanceranno un sistema legislativo basato sull’intelligenza artificiale, con l’obiettivo di accelerare la produzione normativa del 70% e migliorare la precisione delle leggi. Il nuovo “Regulatory Intelligence Office” userà l’IA per analizzare dati legali e amministrativi e proporre modifiche legislative. Gli esperti definiscono l’iniziativa ambiziosa ma avvertono sui limiti dell’IA, come l’opacità, i bias e l’inaffidabilità. Il progetto riflette la strategia degli Emirati di puntare fortemente sulla digitalizzazione governativa.
La Russia sfrutta l’IA per manipolare i chatbot e diffondere disinformazione
The Washington Post
Joseph Menn
Mosca sta automatizzando la diffusione di disinformazione per influenzare i chatbot con contenuti falsi, sfruttando le debolezze dei modelli linguistici. Un terzo delle risposte dei principali chatbot ha replicato narrazioni russe smentite, come le armi biologiche in Ucraina. La rete Pravda produce migliaia di articoli al giorno mirati ai crawler per infiltrarsi nei dataset di addestramento. Chatbot come Copilot e Grok hanno riportato fake news, mentre ChatGPT ha dato risposte corrette. Il fenomeno si aggrava mentre gli USA smantellano gli organismi anti-disinformazione e le aziende tech accelerano senza adeguati controlli.
I film realizzati con l’AI potranno vincere gli Oscar
BBC
Liv McMahon
L’Academy of Motion Picture Arts and Sciences ha aggiornato il regolamento: i film realizzati con l’aiuto dell’intelligenza artificiale potranno concorrere agli Oscar, ma sarà comunque considerato determinante il contributo umano nella selezione dei vincitori. La decisione arriva dopo che film premiati nel 2024, come The Brutalist e Emilia Perez, hanno usato l’AI per migliorare voci e accenti. Tuttavia, l’uso dell’AI resta controverso: attori e sceneggiatori temono per i propri diritti e posti di lavoro, nonostante le garanzie inserite negli accordi post-sciopero.
Impennata di violazioni dei dati, raddoppiate le intrusioni di sistema
Ansa
Secondo il Data Breach Investigations Report di Verizon, le intrusioni di sistema nell’area EMEA (Europa, Medio Oriente, Africa) sono quasi raddoppiate (+53%) in un anno. Il 29% delle violazioni proviene dall’interno delle organizzazioni, contro l’1% in Asia-Pacifico e il 5% in Nord America. Errori involontari (19%), uso improprio dei dati (8%) e attacchi di ingegneria sociale come il phishing (19%) sono tra le cause principali. Cresce anche il rischio legato all’uso dell’AI generativa: il 15% dei dipendenti vi accede con dispositivi aziendali, spesso fuori dalle policy di sicurezza.
ASCOLTA RIOTTOSO - Il podcast di Gianni Riotta in collaborazione con La Repubblica e Luiss DataLab