30 Aprile 2025 | Tempo lettura: 7 minuti

L’intelligenza artificiale che riscrive la realtà tra attivismo, propaganda e disinformazione

In un’epoca in cui l’intelligenza artificiale genera immagini perfette e condivisibili, distinguere la realtà dalla finzione è diventato un riflesso automatico. Ma a che prezzo?

Autore: Claudia Piras
HEADER intelligenza artificiale 1
L'articolo si trova in:

Quando la mattina mi sveglio controllo subito il telefono regalando ai social la prima scrollata della giornata e a me una piccola dose di dopamina. Da qualche tempo a questa parte il mio cervello ha dovuto attivare una skill aggiuntiva, ovvero la capacità di distinguere le immagini create con l’intelligenza artificiale (AI) da quelle prodotte da un’intelligenza umana. Ormai questa operazione richiede pochissimi secondi del mio tempo, si è velocizzata e automatizzata in poche settimane, anche se non sappiamo ad oggi che conseguenze ci farà pagare il nostro corpo, a cui chiediamo adattamenti continui e sempre più frequenti a una quotidianità che già da tempo sembra andare nella direzione del superamento della condizione umana.

Ad oggi comunque questa è la realtà con cui fare i conti: ogni giorno processiamo centinaia di immagini dovendo costantemente allenarci a distinguere tra una foto scattata nella realtà e un’immagine creata con l’AI, senza che si presentino apparenti complicazioni nell’immediato. Tuttavia sappiamo invece già molto bene che non è così, che le conseguenze negative e le complicazioni esistono.

L’intelligenza artificiale provoca danni consistenti all’ambiente, pone questioni etiche serie e complesse e sta mandando in tilt i legislatori di Oriente e Occidente per quanto riguarda il copyright. I costi individuali e collettivi che paghiamo per vedere un gatto stregone che vola sulla scopa sono quindi sicuramente ingenti, ma ancora non del tutto quantificabili.

HEADER intelligenza artificiale
Immagine di repertorio – Canva

Intelligenza artificiale e attivismo politico

La mia riflessione sul tema è però nata nel maggio del 2024 con l’ingresso dell’AI nel mondo dell’attivismo politico e della viralità: un’immagine generata dall’intelligenza artificiale raffigurante i campi per rifugiati palestinesi nella città di Rafah, nel sud della Striscia di Gaza, e accompagnata dallo slogan “All Eyes on Rafah” è stata condivisa da 47 milioni di account su Instagram.
La diffusione dell’immagine è avvenuta all’indomani di un attacco aereo israeliano che ha colpito il campo provocando un vasto incendio e, secondo quanto scoperto dalla BBC Arabic, è diventata virale dopo che un giovane in Malesia l’ha creata con l’intelligenza artificiale e pubblicata sul proprio profilo social.

Lo slogan utilizzato è attribuito invece a Richard Peeperkorn, rappresentante dell’Organizzazione Mondiale della Sanità nei Territori Palestinesi Occupati, che in un video diffuso nel febbraio dello stesso anno affermava: “Tutti gli occhi sono puntati su Rafah”, lanciando un chiaro avvertimento contro un possibile attacco delle forze israeliane sulla città. Nei mesi successivi alla prima dichiarazione, lo slogan “All Eyes on Rafah” ha cominciato poi a comparire in diverse manifestazioni in tutto il mondo e a circolare già ampiamente sui social media.

Utilizzato come messaggio di solidarietà verso la popolazione palestinese e come appello all’attenzione internazionale sulla crisi umanitaria a Rafah, lo slogan è rapidamente diventato un simbolo di mobilitazione globale. Ma ciò che lo avrebbe reso così virale sarebbe stata proprio l’immagine generata dall’intelligenza artificiale.

Trasformare una tragedia reale in un simbolo facilmente assimilabile, ma palesemente disconnesso dalla realtà

Narrazioni che non esistono

L’immagine, che raffigura un deserto a perdita d’occhio e un campo di tende con la scritta “All Eyes on Rafah” in grande evidenza, mostra un non luogo che non è la città di Rafah, ma ciò che colpisce è soprattutto quello che non fa vedere: nessun corpo, nessuna scena cruenta, nessun volto riconoscibile, nessun nome. L’assenza totale di elementi realistici l’ha resa più condivisibile, più adatta alla diffusione di massa sui social network, ma al contempo finta. L’estetica pulita e l’astrazione visiva hanno diluito la gravità assoluta della situazione, trasformando una tragedia reale in un simbolo facilmente assimilabile ma palesemente disconnesso dalla realtà.

L’utilizzo dell’AI nella comunicazione politica e istituzionale ha preso sempre più piede da quel momento in poi mettendo in luce una problematica importante: chiunque può generare immagini e video che supportino e diano vita a una narrazione che si vuole portare avanti. Si può creare un mondo che ancora non esiste e non solo raccontarlo, ma anche farlo vedere a chiunque abbia un account sui social media.

Con la vittoria di Donald Trump e il suo insediarsi alla Casa Bianca si è visto un utilizzo spregiudicato dell’intelligenza artificiale in ambito politico e istituzionale, il cui apice si potrebbe facilmente identificare nel video diffuso dallo stesso Presidente su Truth, in cui compare una Gaza ormai diventata un mega resort di cui lo stesso Trump e Netanyahu godono da una comoda sedia a sdraio. Quei pochi secondi che il cervello umano ormai impiega a distinguere tra intelligenza artificiale e realtà, in casi come quello possono diventare un problema mondiale. C’è una fonte identificabile, ritenuta attendibile, che mostra una situazione che non esiste come se invece fosse una realtà.

HEADER intelligenza artificiale 2
Frame dal video Trump Gaza creato con l’intelligenza artificiale

La potenza comunicativa di un contenuto simile non è paragonabile a una narrazione fatta a voce: è esponenzialmente più forte sia che causi disgusto e critiche, sia che il messaggio venga ritenuto condivisibile da chi lo riceve. In un’epoca in cui le guerre, i genocidi e le tragedie umane ci vedono testimoni oculari anche quando siamo fisicamente lontani migliaia di chilometri, essere sopraffatti da contenuti virali che invece ci raccontano una realtà che non esiste – o non esiste ancora – può contribuire in maniera massiva alla desensibilizzazione anche verso le immagini più crude e reali. Se vale tutto, niente vale, direbbero gli Afterhours.

La fatica – per quanto non sempre percepita – di doverci attivare moltissime volte al giorno nel processare immagini spesso di difficile gestione emotiva – insieme a quella di dover cercare di distinguere cosa sia reale e cosa no – potrebbe facilmente portarci a una forma di annebbiamento mentale e disconnessione dalla realtà. E l’intelligenza artificiale in questo ha un ruolo determinante. Che i social fossero un campo di battaglia è chiaro da tempo ma le armi utilizzate stanno cambiando e si stanno affinando.

L’abbecedario della creatività

L’illusione che la rete ci avrebbe reso liberi dalle costrizioni della società ha contribuito nei decenni alla nascita di alcune correnti di pensiero contrarie al diritto d’autore e al concetto di proprietà intellettuale, oltre che al proliferare di account social che vengono continuamente aggiornati con contenuti di cui non viene indicata l’origine o, in tempi recenti, popolati solo da prodotti generati con l’AI.

intelligenza artificiale ai ia
Intelligenza artificiale – Canva

In questa tendenza mondiale emerge come prima cosa il rischio della perdita di posti di lavoro e di professionalità legate alla creatività, ma a uno sguardo più approfondito la situazione ci mette davanti a un altro problema: la presa d’atto che anche la scelta dei prompt – ovvero i comandi – da dare all’AI rispecchia una visione delle cose che per sua natura è soggettiva. Un semplice albero verrebbe descritto in modo diverso da due esseri umani e quindi creato in due modi diversi dall’intelligenza artificiale. Questo aspetto è oggetto di analisi mentre ne scriviamo da parte dei legislatori in tutto il mondo, perché cambia non solo la risposta ma anche la domanda rispetto a cosa sia la creatività.

Quando però parliamo di immagini che devono appunto raccontare qualcosa o veicolare un messaggio che esuli dalla bellezza dell’opera, l’oggettività della realtà viene a mancare maggiormente, per ovvi motivi. Quindi, quali istruzioni diamo per creare un’immagine o un video con l’intelligenza artificiale diventa il vero punto su cui dibattere e questo si sta riverberando anche nelle riflessioni giuridiche globali sul tema, con un’Europa più orientata al preservare il diritto d’autore, Stati Uniti nella direzione opposta e la Cina che ha iniziato a fare scuola dal novembre 2023 con la “sentenza esemplare“.

L’illusione della libertà che la rete avrebbe dato all’essere umano si rivela sempre di più, appunto, un’utopia. Senza codici comunicativi condivisi, appresi e fatti propri non esiste una comunicazione e quando non c’è comunicazione facilmente si scivola nell’imposizione. 

Informazioni chiave

L’intelligenza artificiale sta modificando il nostro rapporto con la realtà

L’AI ha reso necessario un adattamento mentale rapido per distinguere immagini reali da immagini generate, ma questo processo, anche se ormai automatizzato, comporta conseguenze psicologiche e cognitive ancora poco comprese.

L’uso dell’AI nella comunicazione politica distorce la percezione collettiva

Immagini generate artificialmente, come quella di “All Eyes on Rafah”, possono veicolare narrazioni potentissime ma disconnesse dalla realtà, alimentando la viralità a scapito della veridicità e contribuendo alla desensibilizzazione emotiva.

L’AI solleva domande su creatività, originalità e proprietà intellettuale

La selezione stessa dei prompt con cui si guida l’AI riflette visioni soggettive, mettendo in discussione l’idea di creatività “oggettiva” e aprendo fronti di dibattito etico, culturale e legislativo a livello globale.