Page 34 - ID - Informazioni della Difesa n. 04-2024
P. 34

Giulia POZZI






            Jack Brewster di NewsGuard,
            lo  scorso  aprile  ha  scritto
            sul Wall Street Journal che
            è bastato commissionare il
            servizio a un web developer al
            costo di 105 dollari, per ricevere
            un    sito   completamente
            automatizzato,   con    un
            chatbot integrato capace di
            riscrivere in pochi secondi
            centinaia articoli di cronaca
            ripresi dal web. Non solo: per
            trasformare quel sito in una straordinaria macchina di propaganda, Brewster non ha
            fatto altro che chiedere al chatbot di pubblicare articoli che supportassero uno dei due
            candidati dell’Ohio nella corsa al Senato degli Stati Uniti. In pochi secondi, il sito ha
            cominciato a generare automaticamente articoli rielaborati da altre fonti, riempendoli
            di informazioni inventate in favore di quel candidato.
            Non è difficile immaginare in che modo una tecnologia del genere possa rappresentare
            un’arma strategica non convenzionale, capace di raggiungere milioni di utenti in
            tutto il mondo, nel confronto ibrido tra Stati. A maggio, NewsGuard ha portato alla
            luce un network di 167 siti di disinformazione russa, parte di una massiccia campagna
            coordinata da John Mark Dougan, un ex vicesceriffo di Palm Beach, in Florida, oggi a
            Mosca. Si tratta di siti camuffati da fonti di notizie locali indipendenti che, anche grazie
            all’IA, nell’ultimo anno hanno pubblicato oltre 50.000 articoli e hanno dato spazio a
            narrazioni false regolarmente amplificate dai media di Stato russi, dai funzionari del
            Cremlino e da bot sui social network. 
            Queste narrazioni false, che complessivamente hanno generato oltre 37 milioni di
            visualizzazioni, seguono un copione piuttosto sofisticato: nascono su oscuri account
            YouTube, dove un sedicente “informatore” (a volte deepfake generati dall’IA) afferma
            di avere le prove di un qualche scandaloso atto di corruzione da parte dell’Ucraina o
            dell’Occidente; vengono riprese e amplificate dai siti della rete, con articoli spesso
            scritti dall’IA; raggiungono gli organi ufficiali della propaganda russa e, in alcuni casi,
            le fonti mainstream.
            Una volta messe in circolo in questo modo, le informazioni false, così generate, finiscono
            per intaccare l’attendibilità degli stessi chatbot di IA, in un ciclo di disinformazione
            che si autoalimenta. Lo scorso giugno, abbiamo chiesto ai 10 principali  chatbot
            attualmente disponibili sul mercato di riprodurre le narrazioni false emerse dalla rete
            di Dougan con prompt di vario genere: alcuni simulavano una richiesta neutra fatta da
            un utente comune; altri davano per scontato che la notizia fosse vera e chiedevano
            maggiori informazioni in merito; altri ancora chiedevano esplicitamente di generare
            informazioni false. Complessivamente, i chatbot hanno generato misinformazione in
            più di un terzo dei casi. 
            Già nel gennaio 2023 ci eravamo accorti che i chatbot basati sull’Intelligenza Artificiale
            generativa, in mano a malintenzionati, potevano facilmente diventare generatori di
            disinformazione straordinariamente efficienti. All’epoca, avevamo messo alla prova
            ChatGPT 3.5 con prompt basati su un campione di 100 narrazioni false ampiamente
            smentite, ottenendo risposte che includevano l’informazione falsa nell’80% dei casi.
            Qualche mese dopo, avevamo verificato come il successore di ChatGPT 3.5, ChatGPT


            32                                                                                       ID 4/2024
   29   30   31   32   33   34   35   36   37   38   39