Intelligenza Artificiale
05 Marzo 2026
Un uomo in giacca blu guarda la telecamera e parla con calma. Annuncia misure economiche urgenti. Il volto è quello di una figura istituzionale che tutti conoscono, la voce è convincente, il tono autorevole. Il video compare su WhatsApp, poi su X, poi su Instagram. Nel giro di un’ora arriva anche nel gruppo dei genitori della scuola. Sembra tutto normale. Solo che quell’uomo non ha mai detto quelle parole.
Negli ultimi anni scene come questa sono diventate sempre più possibili. Non perché qualcuno abbia manipolato il video con tecniche sofisticate da cinema, ma perché oggi bastano un computer e pochi strumenti di intelligenza artificiale per generare immagini e voci estremamente realistiche. Tanto realistiche da mettere in difficoltà perfino chi lavora nell’informazione. Nel maggio 2024 la Banca d’Italia ha lanciato un avviso pubblico proprio su questo rischio: stanno circolando video che imitano l’aspetto e la voce di persone autorevoli per indurre gli utenti a credere a messaggi falsi. Il consiglio ufficiale era molto semplice: diffidare, non rispondere e non condividere. Il problema è che, nella vita reale, accorgersi di un inganno non è sempre così facile.
Nel mondo digitale esistono sistemi pensati proprio per certificare l’origine di immagini e video. L’idea è quella di inserire una sorta di “firma” invisibile nei file: dati che raccontano quando un contenuto è stato creato, con quale software e se è stato modificato. In teoria è un sistema efficace. Se quella firma digitale rimane intatta, chi riceve il file può verificarne la provenienza. Nella pratica però succede qualcosa di molto più banale. Quando carichiamo un video su un social network, il file viene compresso e riconvertito; durante questo processo molti di quei dati spariscono. La firma digitale che dovrebbe garantire autenticità spesso si perde proprio nel momento in cui il contenuto inizia a circolare.
Alcune piattaforme hanno introdotto etichette che segnalano quando un contenuto è stato creato o modificato con l’intelligenza artificiale, mentre altre utilizzano filigrane digitali invisibili per riconoscere i contenuti generati dai propri sistemi. Sono passi nella direzione giusta, ma hanno un limite evidente: funzionano soprattutto dentro l’ecosistema di una singola azienda. Quando un video esce da quella piattaforma, viene scaricato, ricompresso e ricaricato altrove, molte di queste informazioni scompaiono. Per questo motivo, almeno per ora, la tecnologia non basta a proteggerci completamente. Serve anche un po’ di attenzione umana.
I video generati con l’AI sono migliorati in modo impressionante negli ultimi anni, ma spesso lasciano piccoli errori, quasi impercettibili, che tradiscono la loro natura artificiale. Il primo posto dove guardare è il volto: le espressioni possono cambiare in modo leggermente innaturale tra un momento e l’altro, gli occhi a volte riflettono luci diverse oppure i denti sembrano troppo uniformi, come se fossero un blocco perfetto. Anche le mani restano uno dei punti più difficili da generare correttamente: dita deformate, contorni poco chiari o movimenti innaturali sono ancora abbastanza comuni.
Altri indizi arrivano dai dettagli. Oggetti piccoli come occhiali, orecchini o ciocche di capelli possono comportarsi in modo strano, fluttuando leggermente o cambiando posizione tra un fotogramma e l’altro. Anche lo sfondo merita attenzione: scritte su cartelli o magliette possono mutare forma, i loghi apparire confusi e le ombre risultare incoerenti con la direzione della luce. Sono dettagli minuscoli, ma quando li si cerca diventano sorprendentemente evidenti.
Non sempre, però, l’inganno si vede: a volte si sente. Le voci generate con l’intelligenza artificiale possono imitare timbro e accento con grande precisione, ma spesso manca qualcosa nel ritmo del parlato. Nei discorsi reali ci sono pause, piccoli respiri, variazioni nel tono. Le voci sintetiche tendono invece ad avere un andamento troppo regolare. Anche la sincronizzazione tra voce e labbra può tradire una manipolazione: alcuni suoni richiedono movimenti molto precisi della bocca e, se la sincronia non è perfetta, il sospetto è giustificato. A volte perfino l’ambiente sonoro non torna, con echi o rumori di fondo che non corrispondono al luogo mostrato nel video.
Quando qualcosa sembra sospetto, la verifica più efficace è spesso anche la più semplice: cercare il contenuto online. Una ricerca per immagini può rivelare se quella foto o quel fotogramma circolavano già mesi o anni prima con un’altra storia. Succede spesso che vecchi video vengano ripescati, modificati o ripubblicati con una nuova narrazione. Anche la fonte è un indizio importante: molti contenuti virali partono da account appena creati o poco affidabili, mentre le notizie reali vengono di solito riprese rapidamente da fonti ufficiali, giornali o canali istituzionali.
Alla fine, la difesa più efficace contro i deepfake non è un software sofisticato ma un’abitudine: fermarsi qualche secondo prima di premere “inoltra”. Guardare meglio, chiedersi da dove arriva quel video e perché qualcuno vuole che si diffonda così velocemente. L’intelligenza artificiale continuerà a migliorare e i falsi diventeranno sempre più convincenti. Proprio per questo la competenza più importante non sarà tecnologica ma culturale: imparare a dubitare con calma. Perché oggi, nell’era dei deepfake, vedere non significa più automaticamente credere. E a volte bastano due minuti di verifica per evitare che una bugia faccia il giro del mondo.