2020: Facebook e i contenuti manipolati tra policy e deepfake

Contenuti manipolati, tencologie emergenti, social network e cheap fakes: inizio di una nuova decade

A meno di un mese dal suo 16° compleanno, il social network di Zuckerberg ha davanti sempre nuove sfide. La disinformazione (della quale ho parlato recentemente qui) e la tecnologia deepfake fanno sicuramente parte della lista. In un blog post dello scorso 6 gennaio Facebook ha annunciato di avere delineato, insieme a cinquanta esperti internazionali con vario background (tecnici, legali, accademici, media), alcuni criteri per la rimozione di contenuti manipolati. Questi, inseriti all’interno degli standard della community, dovranno rientrare nello specifico in due casistiche: sono contenuti modificati in modalità non comprensibile all’utente medio, che può effettivamente essere ingannato e portato a pensare che il soggetto di un video pronunci parole che in realtà non ha mai detto; sono il prodotto di intelligenza artificiale o dell’apprendimento automatico (machine learning) che uniscono, sostituiscono o sovrappongono contenuti a un video, facendolo sembrare autentico. Un simile discorso era stato intrapreso nel dicembre scorso anche per Instagram, social da tempo gemello di Facebook: ciò che è riscontrato falso sul primo sarà, se presente anche sul secondo, etichettato tale per entrambi.

Credit: www.thoughtcatalog.com 

Per quanto riguarda invece i video o i contenuti che non violano strettamente gli standard della community, Facebook opta per un approccio differente: non verranno rimossi bensì etichettati, ridotti nella loro importanza sul news feed e mantenuti sul social network proprio per lanciare un monito agli utenti e permettere un ragionamente critico sulla loro veridicità. In questo senso viene spiegato anche che in ogni caso quei contenuti sarebbero disponibili online su altri siti o social media, e quindi che sia più auspicabile contestualizzarli. Nella mattinata di mercoledì 8 gennaio il gigante dei social, in audizione presso la House Committee on Energy & Commerce, ha anche confermato di non voler sottoporre a fact-checking gli statement politici sponsorizzati. Come infatti riportato da Politico, la società permetterà agli utenti un livello di approfondimento maggiore sugli annunci legati alla politca ma non ha intenzione di limitare o controllare ciò che viene postato dai politici sulla piattaforma. Il portavoce di Facebook Tom Reynolds, nella stessa intervista, ha dichiarato che la posizione dell’azienda al momento non cambierà: “as of right now, this is what the policy is going to be” affermazione che, in vista delle presidenziali americane di novembre non è un buon auspicio.

Le policy servono davvero?

È lecito domandarsi fino a che punto siano efficaci le regolamentazioni interne delle piattaforme. Le ultime azioni intraprese sono sicuramente rilevanti, anche se sembra che si continui a ignorare quello che in psicologia viene chiamato confirmation bias o confirmatory bias, ovvero un tipo di bias cognitivo che porta le persone a ricercare, interpretare, favorire o ricordare informazioni che in qualche modo possano avallare le loro credenze o ipotesi sul mondo. Nel dominio digitale e nello specifico sui social media, questo errore di ragionamento viene amplificato per una serie di ragioni: facciamo tutti parte di una filter bubble (definito dall’attivista che ha coniato il termine, Eli Pariser, come personale ecosistema di informazioni che viene soddisfatto da alcuni algoritmi) determinata da algoritmi di profilazione del comportamento presenti quasi ovunque sul web e che ci sottopone contenuti condivisi da altri utenti con le nostre stesse convinzioni in merito a temi come la politica, lo sport, l’ambiente e così via.

How a filter bubble works

Inoltre, gli utenti sono maggiormente predisposti a ricadere in questo tipo di errore cognitivo quando le informazioni che gli vengono sottoposte sono contenuti emozionali, o che rispecchiano valori o convinzioni molto radicate nell’individuo. Per questi motivi il discorso dovrebbe essere esteso anche alle motivazioni per le quali un soggetto crede fortemente, ad esempio, che la sua vita valga molto di più di chi non è nato nella sua stessa nazione. Motivazioni che ricercheranno conferma nelle false dichiarazioni/informazioni che ritrova online, e successivamente lo porteranno a scegliere anche un certo orientamento politico. Oltre a ciò, negli anni ’80 è stato dimostrato come, anche se accuratamente screditate, informazioni o credenze false riuscissero in molti casi a rimanere radicate nell’individuo, anche rafforzandosi. Un tema molto complesso, controverso e impossibile da sottovalutare in vista (anche) dei prossimi appuntamenti politici, è stato in parte oggetto di una policy anche su Twitter proprio lo scorso anno. C’è chi esprime sfiducia nell’approccio che utilizzano i social network, soprattutto perchè le modalità di individuazione dei contenuti manipolati sono complesse, non necessariamente efficaci, e i tempi lunghi. Percui è possibile che i contenuti etichettati come falsi o comunque attenzionati possano circolare molto prima di essere effitivamente controllati e accertati dalle piattaforme.

La questione controversa delle policy sta nel cercare di normare qualcosa che si è riscontrato nel comportamento degli utenti: indubbiamente utile, ma non è possibile fare esclusivamente un ragionamento di tecnologia. Il contesto, come detto, è fondamentale. Proprio per questo motivo non sono da sottovalutare gli spazi che Facebook, ad esempio, riconosce giustamente alla satira e alla parodia: molto spesso sono escamotage utilizzati per veicolare disinformazione, come nel caso del sito parodia di Joe Biden per le presidenziali 2020 o il recente articolo postato su un sito di satira chiamato Babylon Bee in merito alla morte del Generale Soleimani, condiviso più di 700.000 volte sulla piattaforma.

Articolo pubblicato il giorno dopo la morte di Soleimani, in cui è riportato come alcuni Dem avrebbero richiesto di abbassare la bandiera a mezz’asta proprio in onore della morte del Generale.

Ricordate il momento in cui divenne virale il video manipolato che ritraeva la Dem Nancy Pelosi durante un discorso, facendola sembrare ubriaca? Sono passate 32 ore prima che Facebook decidesse di eliminare il contenuto dalla piattaforma, un tempo aspramente criticato dal New York Times (e non solo). Ciò perchè Zuckerberg esternalizza ai fact-checker l’analisi dei contenuti che vengono etichettati come falsi o alterati, e serve tempo per decidere se sia giusto rimuoverli o meno. In quel lasso di tempo cosa può succedere? Come riportato su Axios, le policy sono sicuramente un passo avanti per i social network, sia in termini di trasparenza verso gli utenti sia perchè mettono il legislatore nella posizione di interrogarsi sulle scelte editoriali delle piattaforme. L’altra faccia della medaglia nasconde però una mancanza di presa di posizione e di responsabilità da parte, in questo caso, di Facebook che, esternalizzando ad altri la moderazione dei contenuti, di fatto se ne lava le mani: “We aren’t in the news business. We are in the social media business” è quanto riferito in un’intervista da Monika Bickert, che per il social si occupa proprio delle policy.

Deepfakes vs Cheap Fakes

C’è anche chi palesa dubbi e preoccupazioni maggiori in merito a contenuti molto meno elaborati e che sfuggono alla violazione degli standard della comunità dei social network, e quindi potenzialmente alle sue policy. Stiamo parlando dei cheap fakes, così chiamati da Britt Paris (assistant professor in Library and Information Science alla Rutgers University) e Joan Donovan (director del Technology and Social Change Research Project all’Harvard Kennedy School) all’interno del report “Deepfakes and Cheap Fakes. The Manipulation of Audio and Visual Evidence” pubblicato dall’organizzazione statunitense Data&Society. Secondo le due ricercatrici la manipolazione ottenuta attraverso machine learning o tecniche avanzate è solo una parte di ciò che in realtà popola i contenuti alterati online. Altre tecniche più economiche (cheap) si basano infatti su software accessibili (immaginiamo il mondo open source) oppure su nessun software. Le ricercatrici hanno classificato la complessità del problema su una scala che va da “necessità di maggiore expertise e risorse tecniche” che equivale alla tecnologia deepfake, a “minore necessità di expertise e risorse tecniche” (cheap fakes).

Deepfakes and Cheap Fakes. The Manipulation of Audio and Visual Evidence – Data&Society, 2019

Tra i software economici ci sono Adobe After Effects e Premiere Pro (con i quali si possono realizzare discreti lavori di face swapping anche se non esperti), Sony Vegas Pro (per rallentare o velocizzare video), i filtri real time forniti gratuitamente da alcune applicazioni, effetti speciali della propria fotocamera (lookalikes), app che alterano la velocità dei video. Almeno la metà di questi sono in mano a qualsiasi ragazzo/a dagli 11 anni in su (o forse anche prima) poichè i nostri Play Store/App Store sono pieni di applicazioni come SnapChat, TikTok o anche la stessa Instagram, che possiamo utilizzare a questo scopo. E sicuramente sono al momento più accessibili, gratuite e meno complesse da utilizzare per ottenere un risultato abbastanza buono (al contrario, per creare un deepfake discreto, il reporter Timothy B. Lee di Ars Technica ha speso infatti 552$ e impiegato due settimane di lavoro). Un contenuto cheap fake è invece ciò che ha riportato BuzzFeed News: una semplice storia di Instagram che ritrae alcune persone ballare, successivamente e deliberatamente associata alla campagna per le presidenziali 2020 di Mike Bloomberg.

È quindi importante tenere in considerazione che il contenuto, una volta ricontestualizzato, tagliuzzato o velocizzato, non ha necessariamente bisogno di essere di alta qualità, almeno per quanto riguarda la politica. Infatti secondo il report 2019 di Deeptrace, azienda che si occupa di indagare il fenomeno deepfake, la quasi totalità dei contenuti video manipolati hanno come protagoniste donne ritratte in scene pornografiche. Anche se ancora non vi sono prove documentate di donne vittime di questa tecnologia in Europa, è chiaro come questi video siano per ora utilizzati maggiormente a sfondo sessuale e per molestare o screditare proprio loro. Anche Russell Brandom su The Verge mette in discussione la vera portata di questo fenomeno, forse ancora non arrivato al suo climax, ragionando sul fatto che la maggior parte delle persone ricade nel confirmation bias anche senza visionare un video manipolato con tecnologia deepfake. La più potente e accessibile forma di manipolazione audio video non è creata tecnicamente bensì appropriandosi del contesto: i tecnici forensi non troveranno un pixel fuori posto, ma solo storie false con ripercussioni reali.