Trump arrestato come temeva? No, si tratta solo di una serie di foto deepfake. Il problema è che sono generate dall’intelligenza artificiale.
In origine c’erano le fake news…
Fake news è un termine utilizzato per descrivere informazioni false o fuorvianti che vengono presentate come se fossero vere. Possono essere diffuse attraverso vari mezzi, come i social media, i media tradizionali, i siti web e le app di messaggistica.
Le fake news possono avere gravi conseguenze, in quanto possono fuorviare le persone, influenzare l’opinione pubblica e persino contribuire a disordini politici o sociali. Possono anche danneggiare la reputazione di individui od organizzazioni che vengono accusati ingiustamente o travisati nelle fake news.
Una delle sfide delle fake news è che possono essere difficili da distinguere dalle notizie vere, soprattutto perché diventano sempre più sofisticate e convincenti. Per questo motivo è importante essere critici nei confronti delle fonti, e verificare le informazioni prima di condividerle.
Sono in corso sforzi per combattere le fake news, tra cui lo sviluppo di algoritmi e tecnologie per individuare e segnalare le notizie false, nonché campagne di alfabetizzazione mediatica per educare le persone su come identificarle ed evitarle.
…poi sono arrivate le foto deepfake
Le foto deepfake sono immagini manipolate che sono state create utilizzando tecniche di intelligenza artificiale (IA) come l’apprendimento automatico e le reti neurali. Vengono create addestrando un programma informatico su un ampio set di immagini, e poi utilizzando quel programma per generare nuove immagini simili al set di dati originale.
Le foto deepfake possono essere utilizzate per creare immagini false di persone o oggetti che sembrano incredibilmente realistiche. Ad esempio, qualcuno potrebbe usare una foto deepfake per creare una falsa immagine di una celebrità, di un politico o di un amico.
Uno dei problemi delle foto deepfake è che possono essere utilizzate per diffondere informazioni false o per manipolare l’opinione pubblica. Ad esempio, una foto deepfake potrebbe essere utilizzata per far credere che un politico abbia fatto qualcosa di illegale o inappropriato, o per far sembrare che qualcuno si sia trovato a un evento o in un luogo che in realtà non ha mai visitato.
Si stanno compiendo sforzi per combattere le foto deepfake, tra cui lo sviluppo di algoritmi e tecnologie per rilevare e segnalare i deepfake, nonché campagne di alfabetizzazione mediatica, come per le fake news, per educare le persone su come identificarli ed evitarli. Tuttavia, man mano che la tecnologia deepfake diventa più sofisticata, potrebbe diventare sempre più difficile distinguere tra immagini reali e false.
Le differenze tra fake news e foto deepfake
Ci sono diverse differenze tra le fake news e le foto deepfake. Eccone cinque:
- Tipo di contenuto: Le fake news si riferiscono a informazioni false o fuorvianti presentate come se fossero vere, mentre le foto deepfake si riferiscono a immagini manipolate create con tecniche di intelligenza artificiale.
- Mezzo: Le fake news possono essere diffuse attraverso vari mezzi come i social media, i media tradizionali, i siti web e le app di messaggistica, mentre le foto deepfake si trovano tipicamente su piattaforme di condivisione di immagini, sui social media o in video manipolati.
- Metodo di creazione: Le fake news sono in genere create da individui che intenzionalmente travisano o falsificano le informazioni, mentre le foto deepfake sono create utilizzando tecniche avanzate di intelligenza artificiale per manipolare immagini o video.
- Livello di sofisticazione: Le foto deepfake sono in genere più sofisticate delle fake news, in quanto richiedono algoritmi avanzati di intelligenza artificiale per creare un’immagine falsa convincente, mentre le fake news possono spesso essere facilmente smascherate con il fact-checking.
- Impatto: Sia le fake news che le foto deepfake possono avere un impatto significativo su individui, organizzazioni e sulla società nel suo complesso. Tuttavia, le foto deepfake hanno il potenziale per essere più dannose, in quanto possono creare prove false che possono essere utilizzate per sostenere affermazioni o accuse false.
Altre differenze tra fake news e foto deepfake
Ci sono molte altre differenze tra le fake news e le foto deepfake. Eccone alcune:
- Individuazione: Individuare le fake news può essere a volte relativamente semplice, in quanto spesso si tratta di verificare le informazioni presentate. D’altra parte, l’individuazione delle foto deepfake può essere più impegnativa, in quanto può essere difficile distinguerle dalle immagini autentiche.
- Scopo: lo scopo della creazione di fake news è spesso quello di fuorviare o ingannare le persone a fini personali o politici. Lo scopo della creazione di foto deepfake può variare, dal divertimento innocuo all’intento malevolo.
- Tempo e impegno richiesti: La creazione di articoli di fake news può essere relativamente semplice e veloce, in quanto spesso comporta poco più che la digitazione di una storia falsa. Al contrario, la creazione di foto deepfake può essere un processo lungo e tecnicamente complesso che richiede conoscenze e software specializzati.
- Implicazioni legali: Sia le fake news che le foto deepfake possono avere implicazioni legali, ma la natura di queste implicazioni può essere diversa. Ad esempio, la diffusione di fake news può violare le leggi sulla diffamazione o sulla calunnia, mentre la creazione di foto deepfake può violare le leggi sulla privacy o sul copyright.
Nel complesso, se da un lato vi sono alcune somiglianze tra fake news e foto deepfake, dall’altro vi sono molte importanti differenze da considerare. Comprendere queste differenze è importante per sviluppare strategie efficaci per combattere entrambi i tipi di disinformazione.
Screditiamo quel politico, vai…
L’uso di foto deepfake per screditare gli avversari politici è, ovviamente, una pratica non etica e potenzialmente pericolosa, che può avere gravi conseguenze. Può contribuire all’erosione della fiducia nelle istituzioni politiche e minare il processo democratico.
E, in effetti, è proprio quello che sta succedendo. Basta vedere le percentuali in continua diminuzione di votanti, e non solo in Italia.
Le foto deepfake possono essere utilizzate per creare immagini false di avversari politici impegnati in comportamenti illegali o inappropriati, che possono danneggiare la loro reputazione e influenzare l’opinione pubblica. Ciò può essere particolarmente dannoso nel contesto delle elezioni o di altre campagne politiche, dove il discredito degli avversari può essere visto come una strategia chiave per conquistare il potere.
Inoltre, l’uso di foto deepfake a fini politici può avere conseguenze a lungo termine per la società nel suo complesso. Può contribuire alla diffusione della disinformazione e creare un clima di sfiducia difficile da superare.
Nel complesso, l’uso di foto deepfake per screditare gli avversari politici non è affatto etico, e dovrebbe essere fortemente scoraggiato e sanzionato. È importante dare priorità alla trasparenza, all’accuratezza e all’onestà del discorso politico per mantenere una democrazia sana e funzionante.
…e l’hanno fatto davvero
Il rilascio di Midjourney v5, in particolare, evidenzia i rischi delle immagini IA nei social media ed in quelli editoriali. I risultati dell’ultimo modello di immagine IA di Midjourney sono ancora più fotorealistici rispetto alle versioni precedenti. Anche il rendering spesso impreciso di mani e dita, precedentemente utilizzato per smascherare rapidamente le generazioni di IA, è stato notevolmente migliorato da Midjourney v5.
Lunedì 20 marzo 2023, un argomento è stato particolarmente presente sui social media: il possibile arresto dell’ex presidente degli Stati Uniti Donald Trump, (che con ogni probabilità avverrà martedì 4 aprile 2023). Eliot Higgins, fondatore dell’organizzazione investigativa olandese Bellingcat, ha passato il tempo a mostrare delle scene particolari, realizzate con Midjourney v5.
Come potete vedere, egli dice “Fare foto di Trump che viene arrestato in attesa dell’arresto di Trump“, ha commentato nel tweet sopra riportato, con due delle 50 immagini totali generate, che a quel punto erano state viste ben oltre cinque milioni di volte. I media hanno ripreso le immagini, dando loro una portata ancora più ampia.
I suoi commenti, insieme agli evidenti difetti delle immagini, come la strana rappresentazione delle gambe, dovrebbero essere sufficienti a dimostrare che le immagini non sono reali, ha detto Higgins. “Non avevo intenzione di fare una critica intelligente o qualcosa del genere. Ma poi ha preso vita da sola“.
Le immagini sono ancora disponibili su Twitter, ma Higgins sospetta di non avere più accesso a Midjourney in seguito a questo incidente. Un’indicazione è che la parola “arrestato” è stata aggiunta alla lista delle parole vietate. Qualcuno a Midjourney sembra aver notato e reagito all’accaduto.
Midjourney non vieta esplicitamente le immagini politiche di IA
Le linee guida della comunità di Midjourney, piuttosto vaghe, vietano solo immagini “intrinsecamente irrispettose, aggressive o altrimenti abusive” e “contenuti per adulti o gore”. I contenuti esplicitamente politici non sono menzionati.
Finora, Midjourney non ha commentato l’incidente, né ha detto se potrebbe prendere in considerazione un inasprimento delle regole per impedire la generazione di personaggi politici. Finora è stato possibile creare immagini con Putin, Trump, Merkel o Biden senza problemi, mentre “Xi Jinping” è stato bloccato.
Tuttavia, il divieto di singole parole è solo un ripensamento, perché con le immagini false di Trump che hanno già raggiunto una portata enorme, il danno potenziale sarebbe già stato fatto. Inoltre, frasi alternative come “Trump in manette” erano ancora possibili dopo il divieto di “arrestato”, e il divieto generale è stato criticato dalla comunità di Midjourney, perché il termine può essere usato in altri contesti legittimi per la generazione di immagini.
Con l’avanzare del fotorealismo dell’intelligenza artificiale, è probabile che le critiche a Midjourney e a generatori di immagini simili aumentino, anche se la diga delle immagini false potrebbe essersi comunque rotta.
Sembra che si stia avverando la previsione del 2017 di Ian Goodfellow, l’inventore della prima tecnologia di deepfake, le Reti Generative Adversariali (RGA): le persone non possono più fidarsi delle immagini e dei video sul web. Ora non resta che qualcuno che lo dica alla gente.