Ricerca

«Serve un approccio investigativo»

| Bettina Bichsel

Il video è autentico? Oppure è un falso? Il fatto che non sia sempre facile rispondere a questa domanda è dovuto tra l’altro alle applicazioni di intelligenza artificiale (IA), sempre più raffinate. E con esse si moltiplicano i casi di deepfake. Come smascherarli?

Tra gli esempi più noti e citati vi è quello di → Papa Francesco che compare con un piumino bianco alla moda. Ce n’è un altro in cui il presidente russo → Vladimir Putin s’inginocchia con riverenza davanti al presidente cinese Xi Jinping. O ancora quello di → Donald Trump che viene arrestato. Oppure il video in cui il presidente → Volodymyr Zelensky dichiara la resa in Ucraina.

Tutti questi esempi hanno un denominatore comune: sono stati creati con l’IA. Con l’aiuto di questa tecnologia è possibile ormai manipolare con facilità foto, video e registrazioni vocali. L’attore e regista statunitense Jordan Peele aveva pubblicato già nel 2018 un → video deepfake in cui l’allora presidente statunitense Barack Obama diceva cose che, nel pieno possesso della propria capacità d’intendere e di volere, non avrebbe mai detto in pubblico. Il video dimostra quanto possano sembrare autentiche queste manipolazioni. Senza contare che da allora lo sviluppo non si è arrestato. Gli strumenti di IA continuano a migliorare.

Finora abbiamo dato molta fiducia ai contenuti audiovisivi, perché combinano informazioni sul piano audio e su quello visivo, e per questo li abbiamo sempre ritenuti attendibili.

Patric Raemy, Università di Friburgo

E improvvisamente in rete compaiono foto di nudo che non esistono

Il termine «deepfake» deriva dal nome del sistema di apprendimento automatico alla base del funzionamento dell’IA, detto «apprendimento profondo» (in inglese «deep learning»), che permette di creare un «falso» (in inglese «fake»). Detto in parole povere, l’IA raccoglie materiale audio-visivo, per esempio di una persona, lo analizza e genera con l’aiuto di algoritmi contenuti completamente nuovi. Si tratta di una tecnica molto più avanzata del semplice fotomontaggio o del montaggio di tracce video o audio, tecniche che in opposizione a questa complessa tecnologia vengono dette «cheap fake» (che in italiano vorrebbe dire letteralmente «falsi a buon mercato»).

I deepfake che riguardano personaggi famosi sono molto diffusi perché per queste persone si possono trovare grandi quantità di foto, video e audio in rete: materiale a sufficienza dunque perché l’IA possa apprendere. Nell’era dei social e della condivisione in rete di tutto ciò che facciamo questo fenomeno non interessa però ormai più solo politici, influencer ed altri personaggi famosi. Lo scorso autunno è emerso il caso di una piccola cittadina spagnola nella quale le chat di gruppo di WhatsApp sono state improvvisamente sommerse da immagini di nudo di ragazze tra gli 11 e i 17 anni. Gli autori del fenomeno, compagni di scuola e conoscenti delle vittime, avevano utilizzato un’app di IA in grado di generare foto di nudo sulla base di immagini innocue. Persino una delle madri che ha portato all’attenzione del pubblico il caso ha dichiarato di aver dovuto studiare con attenzione la fotografia di sua figlia prima di riconoscere che si trattava di un falso.

I video vengono percepiti come attendibili

Anche Patric Raemy del dipartimento di scienze della comunicazione e ricerca mediale dell’Università di Friburgo è convinto che, considerato il costante sviluppo tecnologico, in futuro sarà ancora più difficile smascherare i deepfake (nel caso dei nudi detti anche «deepnude»). Sebbene la manipolazione sia vecchia quanto i media che la permettono, il sociologo ritiene che i deepfake rappresentino un fattore di peggioramento: «Al più tardi dall’avvento di Photoshop sappiamo quanto sia facile manipolare una fotografia. Ma finora abbiamo dato molta fiducia ai contenuti audiovisivi, più complessi perché combinano informazioni sul piano audio e su quello visivo, e per questo li abbiamo sempre ritenuti attendibili».

Riuscire a staccarsi da quest’idea non è così semplice: «Ci vuole un cambio di mentalità critico, e una specie di approccio investigativo, per smascherare i deepfake».
 

Indagare a fondo i punti deboli

Potete allenare l’approccio investigativo con i figli. Iniziate con il provare voi stessi gli strumenti di IA. Applicazioni per foto quali → Midjourney o → Stable Diffusion offrono per esempio un punto di partenza interessante. Date all’IA istruzioni scritte e lasciatevi sorprendere dalle foto da lei generate. Cosa permette di riconoscere che non si tratta di una foto reale?

Anche i deepfake fatti in modo professionale presentano dei punti deboli grazie ai quali (almeno allo stato attuale della tecnologia) è possibile rilevare indizi della loro manipolazione. Vediamone alcuni:

  • stacchi nel video;
  • mancanza di sincronizzazione delle labbra: il movimento delle labbra non corrisponde a quanto sta dicendo la persona;
  •  stranezze visive: per esempio nella foto in cui Putin è inginocchiato, le sue scarpe sono sproporzionate;
  • parti sfumate: sono spesso presenti nelle mani o nella parte tra il collo e la testa;
  • forma innaturale dei capelli;
  • ombre insensate;
  • stranezze nell’intonazione o nella pronuncia;
  • perfezione: visi troppo regolari o pelle liscissima.

I contenuti nei social media sono spesso messi in scena. Si tratta dunque della fonte che più di tutte va considerata con molta prudenza.

Patric Raemy

La verità sta nell’occhio di chi guarda

Alcuni ricercatori dell’Università di Buffalo hanno sviluppato uno strumento per la → misurazione del grado di deepfake di foto e video in cui compaiono dei volti. Il software funziona solo sui visi perché si concentra sugli occhi, o meglio su ciò che vi viene riflesso. In fotografie e filmati reali i due occhi riflettono chiaramente la stessa cosa, poiché lo sguardo è puntato sulla stessa cosa. Secondo gli informatici, nella maggior parte delle immagini generate mediante l’IA invece, gli occhi presentano un riflesso dal diverso motivo. Nei test eseguiti lo strumento ha avuto infatti ragione nel 94 per cento dei casi. E come ve la cavate voi?

In linea generale, per capire se si tratta di un deepfake è possibile anche fare un controllo delle fonti e dei fatti: il sito Internet (p. es. il sito di una testata giornalistica) su cui è stato pubblicato il materiale è attendibile? Oppure è stato diffuso (solo) sui social? «I contenuti nei social media sono spesso messi in scena» aggiunge Patric Raemy. «Si tratta dunque della fonte che più di tutte va considerata con molta prudenza. Infatti la loro intera architettura è impostata alla ricezione del maggior numero possibile di clic e di like».

La tecnica della ricerca inversa sulle fotografie, per esempio attraverso → TinEye o → GoogleImages, aiuta a scoprire tutti i luoghi dove un’immagine è già stata postata.

Per un controllo dei fatti si può fare capo non da ultimo al proprio buonsenso: le affermazioni che la persona fa nel video hanno davvero senso? Oppure risultano piuttosto illogiche?

Guardate assieme ai vostri figli qualche esempio di deepfake e notizia falsa per sviluppare una certa consapevolezza su ciò che richiede scetticismo.

Se i vostri figli sono vittime di deepfake, è importante salvare innanzitutto foto e video quale materiale di prova e realizzare degli screenshot. Una volta fatto ciò bisogna cancellare i contenuti deepfake, sebbene avrebbe senso che lo facesse il gestore della piattaforma coinvolta. Rivolgetevi alla polizia e chiedete aiuto presso un servizio cantonale di consulenza alle vittime oppure presso Prevenzione Svizzera della Criminalità, che fornisce una prima consulenza.

Al museo con Dalí

I deepfake non vanno però associati automaticamente a manovre criminali. Le tecnologie alla base di questi falsi offrono ben altre svariate possibilità. Qualche esempio:

Ritrovare la propria voce

SLA è la sigla della sclerosi laterale amiotrofica, una malattia neurodegenerativa che porta alla paralisi dei muscoli e così tra l’altro anche alla perdita della voce. L’organizzazione ALS Association ha lanciato con una start-up il progetto «Revoice», nel contesto del quale utilizza le tecnologie di IA per ridare alle vittime la voce persa.

Prendere il caffè con Dalí

Nel 2019, il Museo Dalí di St. Petersburg, in Florida, aveva fatto rivivere l’estroso artista grazie all’IA. Il programma aveva appreso molte informazioni su Dalì basandosi su interviste. Aveva così creato un personaggio a sua immagine e somiglianza che accoglieva i visitatori, raccontava loro aneddoti della sua vita e si prestava a posare per selfie.

L’outfit perfetto

A volte il continuo indossare e togliere abiti rende lo shopping piuttosto stancante. Alcuni progetti iniziali con l’IA puntano a semplificare radicalmente questo processo. In futuro saranno sufficienti un paio di clic sullo smartphone per avere già pronto l’outfit perfetto.

*

Il Consiglio federale sta cercando di → regolamentare le grandi piattaforme come YouTube, Facebook e X con un nuovo disegno di legge per richiedere maggiore trasparenza.

Bettina Bichsel è giornalista e redattrice. Tra le sue varie attività, scrive anche per il blog di Giovani e media.