Disposizioni in materia di contrasto ai deepfakes

  • Pubblicato il 27 Aprile 2020
  • da Liceo don Carlo La Mura, Angri (SA)
Disposizioni in materia di contrasto ai deepfakes

Onorevoli senatori! - il disegno di legge che Vi viene presentato, tratta di un fenomeno di strettissima attualità e dotato di un alto potenziale di pericolosità: si tratta dei deepfakes, neologismo inglese che incrocia la locuzione deep learning, letteralmente “apprendimento approfondito”, con il sostantivo fake “falso”. Siamo di fronte all’ultima frontiera delle fake news: si tratta di video manipolati in cui l’autore, dopo aver catturato in Internet immagini della vittima, senza il suo consenso, le rielabora attraverso un sofisticato algoritmo, sfruttando l'Intelligenza Artificiale, riuscendo ad inserire la vittima in un contesto che non le appartiene, a renderla protagonista di un video che non ha mai girato, riuscendo anche a farle dire cose che non ha detto e che non aveva nemmeno pensato di dire. Infatti, grazie al deep learning, i volti di due persone vengono sostituiti (face swapping) e i video vengono alterati al punto che, riproducendo artificialmente sia la mimica che la voce della vittima, sincronizzando il labiale, si riesce a far dire e a far compiere a chiunque tutto quello che si vuole. Il risultato di questa tecnica è un video completamente falso, ma così tanto realistico da trarre in inganno chiunque lo osservi e presentare come reali dei falsi creati artificialmente. Il nodo del problema risiede nella sempre più facile accessibilità a tale tecnologia e, quanto più semplice sarà creare un deepfake, tanto più, in futuro, ci sarà il rischio che questa tecnica venga utilizzata per gli scopi più svariati. Oltre al fatto che, consapevoli dell'esistenza di una tale tecnologia, in futuro ci porremo sempre il dilemma se poter credere a ciò che vediamo, se la persona riprodotta nel video sia effettivamente lei, se abbia realmente reso quelle dichiarazioni o compiuto quelle azioni, e questo, ovviamente non giova all'attendibilità e alla credibilità delle informazioni. Purtroppo, il numero di deepfakes negli ultimi anni è quasi raddoppiato: si è passati, in Italia, dai settemila video del 2018, agli oltre quattordicimila del 2019, dato ancor più in aumento già nei primi mesi del 2020. Va detto che, per lo più, i video falsati hanno come protagonisti personaggi del mondo dello spettacolo o della politica. Non sono mancati, infatti, sia in Italia che nel resto del mondo casi di video bufala in cui il personaggio politico del momento veniva mostrato in atteggiamenti sconvenienti, o mentre rilasciava dichiarazioni assolutamente inopportune e fuori luogo. È facile immaginare la portata deflagrante di un video del genere, una volta postato in rete e oggetto, dunque, di una inarrestabile diffusione: diventa una forma per pilotare l’opinione pubblica, per confonderla e per aumentare sempre più la sfiducia nelle istituzioni e nelle fonti di informazione. Tuttavia, non sono rari, purtroppo, anche deepfakes che abbiano per protagonisti persone comuni che vengono trasposte in video, senza il loro consenso o autorizzazione, al solo scopo di creare loro nocumento, violando quelli che sono i diritti fondamentali dell'individuo alla privacy, all'immagine, al decoro, alla reputazione. Si rileva inoltre che questo fenomeno, in piena emergenza sanitaria a causa della pandemia per Covid-19, preoccupa anche gli esperti dell'Organizzazione Mondiale della Sanità (OMS), che temono la diffusione di una “infodemia”, cioè una epidemia informativa, ossia una diffusione di notizie imprecise o appunto di deepfakes, che contribuiscono a creare psicosi nella popolazione. Dunque siamo di fronte ad un fenomeno tanto nuovo quanto potenzialmente lesivo, che necessita di attenzione e di intervento da parte del legislatore. Per tale motivo presentiamo codesto disegno di legge, attraverso la cui articolazione viene puntualizzata la definizione di deepfake e viene garantita alla persona offesa la giusta ed adeguata tutela.

Art. 1
(Ambito di applicazione)


1.    La presente legge si applica a video manipolati, detti “deepfakes”, che, realizzati, pubblicati e divulgati senza il consenso e l’autorizzazione della persona riportata nel video “fake”, violano i diritti alla privacy, all’onore, all’immagine, al decoro, alla reputazione ed ogni altro diritto della persona stessa.
2.    Ai fini della presente legge si intende per deepfake: qualsiasi immagine e/o video, in ogni modo realizzato, che combini e/o sovrapponga immagini e/o video di una persona su altre immagini e/o video di altra persona, al fine di generare un video realistico, ma finto o “fake”.


Art. 2
(Soggetti destinatari)


1.    Chiunque, senza il consenso della persona interessata, realizza ed invia ovvero consegna, cede, diffonde o pubblica, con qualsiasi mezzo, un deepfake di cui all’art. 1, salvo che il fatto costituisca più grave reato, è punito con la reclusione fino a 3 anni e la multa fino ad € 5.000.
2.    Salvo che il fatto costituisca più grave reato, alla stessa pena soggiace chiunque, avendo ricevuto, o in qualsiasi modo acquisito, un deepfake, a sua volta lo invia, consegna, cede, diffonde, inoltra o pubblica, con qualsiasi mezzo, senza il consenso della persona interessata.
3.    Le pene di cui ai commi 1 e 2 sono aumentate della metà se il fatto è commesso in danno di persona minore, di persona con limitazione psico-fisica, o di persona con disabilità come definita dalla legge 5 febbraio 1992, n. 104.


Art. 3
(Procedibilità)


1.    Il reato è perseguibile a querela di parte ad eccezione delle ipotesi di cui all’art. 2 comma 3.
2.    Il termine per la proposizione della querela è di sei mesi.


Art. 4
(Diritti della persona offesa)


1.    Nel caso in cui la fattispecie prevista dalla presente legge integri anche il reato di diffamazione, ovvero altro reato, la persona offesa può chiedere il risarcimento dei danni ai sensi dell’articolo 185 del codice penale, determinato in relazione alla gravità dell’offesa e alla diffusione del deepfake.
2.    La persona offesa può altresì chiedere la rimozione dalle piattaforme telematiche, dai social network, dai siti internet, dai motori di ricerca e da qualsiasi altro canale di diffusione, dei deepfake di cui all’art. 1 della presente legge.
3.    La persona interessata, in caso di rifiuto o di omessa cancellazione del video, ai sensi dell’articolo 14 del decreto legislativo 9 aprile 2003, n. 70, può chiedere al giudice di ordinarne la rimozione, dalle piattaforme telematiche, dai social network, dai siti internet, dai motori di ricerca e da qualsiasi altro canale di diffusione, ovvero di inibirne l’ulteriore diffusione.
4.    In caso di morte dell’interessato, le facoltà e i diritti di cui ai commi precedenti possono essere esercitati dagli eredi o dal convivente.

il 12/05/2020
C. C. - Angri
ha proposto il seguente emendamento:
All'articolo 3, al comma 1, aggiungere, in fine, il seguente periodo:"e quando è connesso ad altro reato perseguibile d'ufficio".
Approvato
  • Voti totali: 29
  • Favorevoli: 29
  • Contrari: 0
  • Astenuti: 0
il 12/05/2020
M. D. F. - Pagani
ha proposto il seguente emendamento:
All'articolo 3, dopo il comma 2, inserire il seguente comma 3: "Si procede d'ufficio nei casi di cui all'articolo 2, comma 3, nonché quando il fatto è connesso con altro delitto per il quale si deve procedere d'ufficio "
Approvato
  • Voti totali: 15
  • Favorevoli: 15
  • Contrari: 0
  • Astenuti: 0

Onorevoli senatori! - il disegno di legge che Vi viene presentato, tratta di un fenomeno di strettissima attualità e dotato di un alto potenziale di pericolosità: si tratta dei deepfakes, neologismo inglese che incrocia la locuzione deep learning, letteralmente “apprendimento approfondito”, con il sostantivo fake “falso”. Siamo di fronte all’ultima frontiera delle fake news: si tratta di video manipolati in cui l’autore, dopo aver catturato in Internet immagini della vittima, senza il suo consenso, le rielabora attraverso un sofisticato algoritmo, sfruttando l'Intelligenza Artificiale, riuscendo ad inserire la vittima in un contesto che non le appartiene, a renderla protagonista di un video che non ha mai girato, riuscendo anche a farle dire cose che non ha detto e che non aveva nemmeno pensato di dire. Infatti, grazie al deep learning, i volti di due persone vengono sostituiti (face swapping) e i video vengono alterati al punto che, riproducendo artificialmente sia la mimica che la voce della vittima, sincronizzando il labiale, si riesce a far dire e a far compiere a chiunque tutto quello che si vuole. Il risultato di questa tecnica è un video completamente falso, ma così tanto realistico da trarre in inganno chiunque lo osservi e presentare come reali dei falsi creati artificialmente. Il nodo del problema risiede nella sempre più facile accessibilità a tale tecnologia e, quanto più semplice sarà creare un deepfake, tanto più, in futuro, ci sarà il rischio che questa tecnica venga utilizzata per gli scopi più svariati. Oltre al fatto che, consapevoli dell'esistenza di una tale tecnologia, in futuro ci porremo sempre il dilemma se poter credere a ciò che vediamo, se la persona riprodotta nel video sia effettivamente lei, se abbia realmente reso quelle dichiarazioni o compiuto quelle azioni, e questo, ovviamente non giova all'attendibilità e alla credibilità delle informazioni. Purtroppo, il numero di deepfakes negli ultimi anni è quasi raddoppiato: si è passati, in Italia, dai settemila video del 2018, agli oltre quattordicimila del 2019, dato ancor più in aumento già nei primi mesi del 2020. Va detto che, per lo più, i video falsati hanno come protagonisti personaggi del mondo dello spettacolo o della politica. Non sono mancati, infatti, sia in Italia che nel resto del mondo casi di video bufala in cui il personaggio politico del momento veniva mostrato in atteggiamenti sconvenienti, o mentre rilasciava dichiarazioni assolutamente inopportune e fuori luogo. È facile immaginare la portata deflagrante di un video del genere, una volta postato in rete e oggetto, dunque, di una inarrestabile diffusione: diventa una forma per pilotare l’opinione pubblica, per confonderla e per aumentare sempre più la sfiducia nelle istituzioni e nelle fonti di informazione. Tuttavia, non sono rari, purtroppo, anche deepfakes che abbiano per protagonisti persone comuni che vengono trasposte in video, senza il loro consenso o autorizzazione, al solo scopo di creare loro nocumento, violando quelli che sono i diritti fondamentali dell'individuo alla privacy, all'immagine, al decoro, alla reputazione. Si rileva inoltre che questo fenomeno, in piena emergenza sanitaria a causa della pandemia per Covid-19, preoccupa anche gli esperti dell'Organizzazione Mondiale della Sanità (OMS), che temono la diffusione di una “infodemia”, cioè una epidemia informativa, ossia una diffusione di notizie imprecise o appunto di deepfakes, che contribuiscono a creare psicosi nella popolazione. Dunque siamo di fronte ad un fenomeno tanto nuovo quanto potenzialmente lesivo, che necessita di attenzione e di intervento da parte del legislatore. Per tale motivo presentiamo codesto disegno di legge, attraverso la cui articolazione viene puntualizzata la definizione di deepfake e viene garantita alla persona offesa la giusta ed adeguata tutela.

Art. 1
(Ambito di applicazione)


1.    La presente legge si applica a video manipolati, detti “deepfakes”, che, realizzati, pubblicati e divulgati senza il consenso e l’autorizzazione della persona riportata nel video “fake”, violano i diritti alla privacy, all’onore, all’immagine, al decoro, alla reputazione ed ogni altro diritto della persona stessa.
2.    Ai fini della presente legge si intende per deepfake: qualsiasi immagine e/o video, in ogni modo realizzato, che combini e/o sovrapponga immagini e/o video di una persona su altre immagini e/o video di altra persona, al fine di generare un video realistico, ma finto o “fake”.


Art. 2
(Soggetti destinatari)


1.    Chiunque, senza il consenso della persona interessata, realizza ed invia ovvero consegna, cede, diffonde o pubblica, con qualsiasi mezzo, un deepfake di cui all’art. 1, salvo che il fatto costituisca più grave reato, è punito con la reclusione fino a 3 anni e la multa fino ad € 5.000.
2.    Salvo che il fatto costituisca più grave reato, alla stessa pena soggiace chiunque, avendo ricevuto, o in qualsiasi modo acquisito, un deepfake, a sua volta lo invia, consegna, cede, diffonde, inoltra o pubblica, con qualsiasi mezzo, senza il consenso della persona interessata.
3.    Le pene di cui ai commi 1 e 2 sono aumentate della metà se il fatto è commesso in danno di persona minore, di persona con limitazione psico-fisica, o di persona con disabilità come definita dalla legge 5 febbraio 1992, n. 104.


Art. 3
(Procedibilità)


1.    Il reato è perseguibile a querela di parte ad eccezione delle ipotesi di cui all’art. 2 comma 3 e quando è connesso ad altro reato perseguibile d'ufficio.
2.    Il termine per la proposizione della querela è di sei mesi.
3.    Si procede d'ufficio nei casi di cui all'articolo 2, comma 3, nonché quando il fatto è connesso con altro delitto per il quale si deve procedere d'ufficio.


Art. 4
(Diritti della persona offesa)


1.    Nel caso in cui la fattispecie prevista dalla presente legge integri anche il reato di diffamazione, ovvero altro reato, la persona offesa può chiedere il risarcimento dei danni ai sensi dell’articolo 185 del codice penale, determinato in relazione alla gravità dell’offesa e alla diffusione del deepfake.
2.    La persona offesa può altresì chiedere la rimozione dalle piattaforme telematiche, dai social network, dai siti internet, dai motori di ricerca e da qualsiasi altro canale di diffusione, dei deepfake di cui all’art. 1 della presente legge.
3.    La persona interessata, in caso di rifiuto o di omessa cancellazione del video, ai sensi dell’articolo 14 del decreto legislativo 9 aprile 2003, n. 70, può chiedere al giudice di ordinarne la rimozione, dalle piattaforme telematiche, dai social network, dai siti internet, dai motori di ricerca e da qualsiasi altro canale di diffusione, ovvero di inibirne l’ulteriore diffusione.
4.    In caso di morte dell’interessato, le facoltà e i diritti di cui ai commi precedenti possono essere esercitati dagli eredi o dal convivente.

 

Approfondimento

Approfondimento normativo

Il fenomeno dei deepfakes è senz'altro un fenomeno di ultimissima generazione che necessita di una normativa ad hoc che riesca ad arginare le dannose potenzialità che reca con sé. Possiamo senz'altro definirlo come una evoluzione delle fake news intorno alle quali già si riscontra un terremoto normativo, che può, quindi, fungere da supporto per un intervento legislativo appositamente previsto per il fenomeno deepfake.
In realtà, se da un lato, si potrebbe obiettare che  un sistema normativo correttamente strutturato, ha già in se' la capacità di disciplinare anche per l’avvenire, e quindi dovrebbe ricomprendere la possibilità di ricondurre all'interno di una determinata fattispecie anche casi, inevitabilmente, dotati di elementi di novità rispetto agli eventi che hanno ispirato la disciplina originaria; d'altro canto, la portata così rilevante di un  tale fenomeno, com'è quello dei deepfakes, in continua espansione, e l'impatto, potenzialmente devastante, che lo stesso può avere sulle vite delle persone, richiama ad un'attenta riflessione e ad un organico intervento da parte del legislatore.
Ora, già nel febbraio del 2017 con il disegno di legge A.S.n. 2688, con lo scopo di fornire il nostro sistema legislativo di una più completa regolamentazione di atti tesi a manipolare l’informazione online, e di dare una sferzata contro le fake news, è stato presentato un disegno di legge avente ad oggetto “Disposizioni per prevenire la manipolazione dell’informazione online, garantire la trasparenza sul web e incentivare l’alfabetizzazione mediatica”.
Tale disegno di legge, seguendo gli indirizzi espressi nel gennaio dello stesso anno dall’Assemblea parlamentare del Consiglio d’Europa sul tema dei media online e del giornalismo, propone l’introduzione di una nuova contravvenzione nel codice penale, inserendo l’articolo 656-bis “Pubblicazione o diffusione di notizie false, esagerate o tendenziose, atte a turbare l’ordine pubblico, attraverso piattaforme informatiche”. Tale articolo viene collocato subito dopo l’art. 656 c.p. avente ad oggetto il reato di pubblicazione o diffusione di notizie false, esagerate o tendenziose atte a turbare l’ordine pubblico, di cui ricalca sostanzialmente la fattispecie, prevedendo il caso specifico dell’utilizzo delle piattaforme informatiche.
Sempre col medesimo disegno di legge, vengono introdotte anche due ulteriori fattispecie, mediante l’inserimento degli articoli 265-bis e 265-ter aventi ad oggetto rispettivamente la “Diffusione di notizie false che possono destare pubblico allarme o fuorviare settori dell’opinione pubblica” e la “Diffusione di campagne d’odio volte a minare il processo democratico” con i quali si cerca, fondamentalmente, di predisporre un sistema sanzionatorio ad hoc per i casi in cui la stessa diffusione di notizie false intacchi altri valori di maggior rilievo quali l’opinione pubblica, innescando forme di allarme pubblico, ed il processo democratico.
Lo stesso anno, 2017, vede a dicembre una ulteriore iniziativa parlamentare, A.S. n. 3001, avente ad oggetto Norme generali in materia di Social Network e per il contrasto della diffusione su internet di contenuti illeciti e delle fake news.
Quest’ultima iniziativa, più che regolamentare fattispecie rientranti nella nozione di fake news, ha come obiettivo quello di prevedere una regolamentazione del fenomeno come evento social, configurando una serie di responsabilità in capo ai fornitori di servizi del web.
Come specificato nella relazione “l’obiettivo del provvedimento è quello di limitare fortemente la pubblicazione e la circolazione di contenuti che configurino delitti contro la persona e alcune altre gravi fattispecie di reato che potremmo definire complessivamente come delitti contro la Repubblica. Questi ultimi vanno dall’istigazione a delinquere alla propaganda all’odio razziale, dai reati con finalità di terrorismo ai reati di frode e falsificazione di documenti e comunicazioni informatiche. L’obiettivo è quello di indurre i fornitori di servizi di social network a costruire sistemi, procedure ed organismi di autoregolamentazione e controllo dei contenuti veicolati dalle proprie piattaforme, capaci di contrastare la pubblicazione di contenuti illeciti e di diminuire sensibilmente l’entità e la diffusione dei danni provocati da tali crimini”.
A questi primi tentavi di regolamentazione della materia, segue, nel 2019, la prima proposta di legge, A.C. 2103, presentata in Parlamento che riguarda l'istituzione di una commissione parlamentare di inchiesta sulla «diffusione seriale e massiva di contenuti illeciti e di informazioni false attraverso la rete internet, le reti sociali telematiche e le altre piattaforme digitali».
Quest'ultima proposta parte dall’assunto che la pubblicazione e la diffusione di fake news è diventata in questi anni «un fenomeno dilagante», capace di «condizionare la politica e gli esiti di un’elezione, di distruggere la reputazione di figure pubbliche ma anche di privati cittadini». Il peso sempre più rilevante dei social network nella vita dei cittadini, impone al Parlamento «di dotare al più presto l’ordinamento giuridico di una specifica disciplina per contrastare la commissione di delitti attraverso le piattaforme sociali sulla rete internet».
L’obiettivo è di spingere i fornitori di social network a prevedere «sistemi, procedure e organismi di autoregolamentazione e di controllo dei contenuti veicolati dalle proprie piattaforme, capaci di contrastare la pubblicazione di contenuti illeciti». Di qui la necessità di istituire una commissione parlamentare di inchiesta che indaghi sui casi di «diffusione seriale e massiva di fake news attraverso i social network; proponga soluzioni di carattere legislativo e amministrativo al fine di realizzare la più adeguata prevenzione e il più adeguato contrasto della commissioni di delitti attraverso le piattaforme digitali sulla rete internet e verifichi l’adeguatezza delle pubbliche amministrazioni competenti a svolgere attività di prevenzione e repressione della diffusione sulle piattaforme digitali di fake news e contenuti illeciti».
Dunque, soprattutto negli ultimi anni, in forza del propagarsi del problema delle notizie false e tendenziose, che possono inquinare la credibilità di tutto il mondo dell'informazione, sono stati tanti e variegati i tentativi di porre un argine al dilagare del fenomeno.
Nello specifico però, ancora manca, nel panorama delle leggi italiane, un provvedimento che si occupi specificamente dei deepfakes e delle loro conseguenze.

Approfondimento tematico

Ormai, negli ultimi anni abbiamo familiarizzato con il termine “fake news”, notizie deliberatamente false, scritte e diffuse al solo scopo di creare disinformazione; ma, di recente, sta catturando la nostra attenzione un nuovo fenomeno che ben può definirsi una evoluzione delle fake news: i deepfakes (letteralmente dall’inglese “profondo falso”). Si tratta di un tipo di distorsione della realtà che sarà più difficile da smentire e smascherare e nella quale sarà più facile cadere: una nuova sfida per il mondo dell’informazione e per l’opinione pubblica. L’attenzione mediatica e di pubblico in Italia sul fenomeno deepfakes risale a quando, durante una puntata del popolare programma televisivo satirico di informazione, “Striscia la notizia”, fu mandato in onda un video realizzato attraverso una sofisticata tecnologia di manipolazione dei volti, appunto, un deepfake: la vittima, in quell’occasione, fu Matteo Renzi, noto uomo politico italiano, che nel video parlava e straparlava dei suoi avversari politici. Il giornalista e scrittore, Massimo Gramellini, sul Corriere della Sera, in quell’occasione scrisse: “Il Renzi vero ma finto mandato in onda da Striscia mentre fa le pernacchie a Mattarella non era ne’ un imitatore ne’ un sosia. Era l’ultima frontiera della mistificazione. Come spesso accade ci voleva un programma satirico per sbatterci addosso una questione serissima. Non solo la tecnologia è in grado di prendere la tua faccia e sovrapporla a quella di chissà chi altro, come cantava De Gregori, ma può catturare il timbro autentico della tua voce per rimodularlo con le parole che intende farti dire”.
Ma cerchiamo di fare chiarezza e capire cosa sono i deepfakes e in cosa si cela la loro potenziale pericolosità.
La tecnica utilizzata per realizzare deepfakes permette di arrivare a creare video che molti stentano a riconoscere come falsi. Si fa infatti ricorso a una tecnica di apprendimento automatico (machine learning), che sfrutta l'Intelligenza Artificiale per ricreare in maniera artificiosa il volto e la voce di una persona, così come se fosse ripresa da una telecamera. L’Intelligenza Artificiale è un ramo dell’informatica che si occupa della programmazione e della progettazione di sistemi, sia hardware che software. Essa, nota anche come “machine learning”, è essenzialmente un software in grado di pensare e imparare come un essere umano.
Sicuramente, l’Intelligenza Artificiale è una componente fondamentale del processo di digitalizzazione che sta totalmente cambiando la nostra società. Ciò che fino a qualche anno fa si pensava potesse essere possibile solamente in un film di fantascienza, ora è realtà, e le applicazioni di tali sistemi e il loro utilizzo sono molto più utilizzate di quanto si possa immaginare, entrando a far parte della vita quotidiana, anche se non ce ne rendiamo conto: pensiamo, ad esempio, ai vari strumenti di riconoscimento vocale che vengono regolarmente utilizzati, dagli smartphone ai sistemi di sicurezza, oppure pensiamo, nel settore automobilistico, ai veicoli in grado di muoversi nel traffico anche senza pilota, o ancora ai telefoni, che ci indicano il percorso più veloce per raggiungere la meta, e infine, pensiamo ai nostri orologi che sanno se abbiamo fatto abbastanza attività fisica. Purtroppo, però, bisogna considerare anche l’uso distorto che l’uomo può fare di questi strumenti tecnologici di ultima generazione. E questo ci porta al tema centrale del nostro disegno di legge: i deepfakes e la loro potenziale pericolosità. II fulcro della differenza rispetto alle consuete fake news, consiste nel fatto che, mentre in queste ci si limita a sostituire il volto originale con uno ritagliato da un’altra immagine, nel caso dei deepfakes si crea materiale del tutto nuovo. La tecnologia dei deepfakes si basa sull’elaborare, fotogramma per fotogramma, il volto di una persona “incollandola” sulla faccia dell’altra, imitando alla perfezione il movimento della bocca ed altri fattori, riuscendo anche a riprodurre il timbro della voce. Soltanto così anche le mimiche facciali possono ricalcare il volto originale, e questa tecnica così perfetta ed accurata nel sostituire il volto e la voce di un personaggio, rende quasi impossibile per l’utente finale, lo spettatore, cogliere la sottile differenza tra il vero e il falso, con la conseguenza che lo spettatore, l’opinione pubblica, sarà indotta a cadere in inganno, credendo reale un video falso. Modificare i contenuti originali e presentare come autentico qualcosa che in realtà non esiste, grazie a complessi software basati sulle nuove tecnologie, non è mai stato così semplice e alla portata di tanti. Tant’è vero che, partendo da qualsiasi contenuto disponibile liberamente su Internet, è possibile sintetizzare ogni immagine umana e inserirla nei contesti più disparati, Dunque, in parole molto semplici, chiunque di noi potrebbe trovarsi protagonista di un video in cui fa o dice cose che non ha mai, nemmeno lontanamente, pensato di dire o di fare. In realtà, in questo particolare momento storico che stiamo vivendo, costretti ad una doverosa seppur noiosa quarantena tra le quattro mura domestiche, a causa della pericolosa pandemia da Covid-19, sono tanti e svariati i deepfakes che spopolano sul web, allo scopo soprattutto di divertire: ad esempio, è stato creato un sarcastico ed irriverente deepfake in cui il nostro Presidente del Consiglio, Giuseppe Conte, visibilmente invecchiato, in una diretta televisiva ambientata nell’anno 2050, afferma che “bisogna tenere duro ancora per un altro po’, perché presto si tornerà alla normalità...”. Però, se da una parte i deepfakes rappresentano modi per potersi svagare e divertire, d'altro canto, è innegabile che essi rappresentano una grandissima problematica nella comunicazione di fake news e minacciano di minare la credibilità del mondo dell'informazione. Tant'è vero che la pericolosità di un deepfake può anche sconfinare dall’ambito personale e privato di ciascuno di noi per estendere i suoi tentacoli criminali al mondo della politica e della finanza. Uno degli esempi di deepfakes convincenti negli USA risale al 2018, quando in un discorso, un finto Barack Obama, insultava l'attuale Presidente degli Stati Uniti, Donald Trump.
Ora, è innegabile che il problema suscita forte interesse e riuscire ad identificare i deepfake rappresenta una sfida ardua. Tanti sono gli studi dedicati a questo fenomeno: uno dei primi, si è concentrato  sull'analisi del modo in cui il soggetto ripreso sbatte le palpebre; e, difatti, nei deepfakes, la persona sbatte gli occhi in modo innaturale, ed anche se il normale spettatore non è in grado di accorgersene, il difetto può essere smascherato attraverso un'analisi computerizzata; altri studi sono andati, invece, alla ricerca di espressioni facciali o movimenti della testa innaturali, per riuscire a smascherare i falsi video. Tuttavia, è altrettanto innegabile, che la repentina innovazione tecnologica renderà i sistemi di creazione di deepfakes sempre più sofisticati e vicini alla realtà. La preoccupazione per questo fenomeno, che può letteralmente sfuggire di mano, è emerso anche nel Convegno che si è realizzato a Roma, nell'ottobre del 2019, nell’ambito della rassegna Videocittà ideata da Francesco Rutelli. Al Convegno, intitolato “La minaccia del deepfake: non basta più vedere per credere”, il presidente di ANICA, F. Rutelli, ha sottolineato come nell’ambito del dibattito sia venuto fuori che “la manipolazione che si può fare con l’intelligenza artificiale del volto, del corpo, ma anche del pensiero e della parola di ciascuno di noi, può essere dirompente. Noi vediamo delle immagini credibili, ragionevolmente fedeli o addirittura perfette perché la tecnologia avanza rapidamente, e queste non corrispondono a nulla; anzi in qualche caso rappresentano il contrario del pensiero, della volontà e degli obiettivi della persona che parla, che sia un politico o un manager o una persona dello spettacolo. Quindi il tema è attualissimo perché ognuno di noi è protagonista e vittima di una realtà trasformativa che ha straordinarie opportunità anche positive ma che può diventare perniciosa perché ognuno di noi può farsi l’idea che in un film porno, la persona protagonista di quelle immagini sia magari il vicino o la vicina di casa, che invece è stata accuratamente costruita per essere distrutta, demolita, portata magari alla disperazione.”
Nunzia Ciardi, Dirigente Superiore della Polizia di Stato, Direttore del Servizio Polizia Postale e delle Comunicazioni, intervenendo al dibattito ha precisato che il deepfake, “può essere usato per tanti scopi criminali gravissimi, nel mondo politico ma anche finanziario”.
I dati parlano chiaro: in Italia, il fenomeno dei deepfakes è aumentato del 75% in un anno e la gravità della situazione è data dal fatto che l'Italia non possiede una normativa specifica per contrastare questo fenomeno e punirne gli autori.
Oltretutto, riconosciuto che una volta diffuso un deepfake, il danno si è già fondamentalmente e irreversibilmente prodotto, è necessario approntare rimedi di natura “preventiva” volti ad evitare che tali fenomeni possano verificarsi.
E, proprio in tal senso, i colossi del digitale (Facebook, Google, Microsoft etc.) giocano un ruolo fondamentale, dal momento che è principalmente sulle loro piattaforme che viene veicolato questo fenomeno. Occorre cioè che la piattaforma ospite sia in grado di riconoscere la falsità del video prima della sua pubblicazione, con conseguente blocco e segnalazione alle Autorità competenti. A questo scopo Facebook e Microsoft, in collaborazione con il MIT, University of Oxford ed altre istituzioni, hanno stanziato dei fondi per tentare di riconoscere la natura falsa dei video prima della loro pubblicazione. Si attende, pertanto, un rapido sviluppo di una tecnologia in grado di riconoscere preventivamente la falsità del video onde evitarne la pubblicazione.
Il punto, ha ribadito la Dirigente Ciardi, è che l’Italia non possiede una normativa specifica per il Deep Fake, dunque la tutela viene esercitata attraverso norme prese in prestito da materie “affini” che, di volta in volta, vengono “adattate” ai singoli casi. L’Italia dovrebbe prendere esempio dalla Cina, che dispone di una regolamentazione per i Deep Fake, che sono stati definiti come una minaccia che può sovvertire l’ordine sociale e di cui sono chiamati a rispondere non solo gli autori ma anche le piattaforme che le diffondono.
Tuttavia, anche la dott.ssa Ciardi, in conclusione, ha specificato che le norme da sole non bastano, è necessaria una cultura caratterizzata da spirito critico, indispensabile per poter districarsi in una realtà in cui non è più sufficiente “vedere per credere”.
ora, per lo scambio di volti o oggetti nei deepfake sono necessari degli algoritmi. Gli algoritmi alla base del deep learning necessitano di una grossa quantità di dati per funzionare bene: maggiore è il numero di immagini e video su una persona, migliore sarà il risultato. L’aspetto più oltraggioso dei deepfake riguarda il mondo della pornografia. infatti attorno al dicembre 2017 iniziarono a diffondersi filmati porno in cui le protagoniste femminili avevano il volto di alcune star di Hollywood. L’aspetto più preoccupante è che questi software non sono appannaggio di pochi scienziati, ma sono alla portata di tutti.
 Uno dei creatori di questi software, dichiarò ad un giornale americano: “Voglio che il mio programma diventi preciso al punto che gli utenti possano scegliere un video dal loro computer, scaricare un network neurale collegato a un determinato volto, sfruttando una libreria disponibile pubblicamente, e sostituire il viso del protagonista del video con un altro, semplicemente schiacciando un tasto”.
Dal mondo della èprnografia si è poi passati a quelli della politica con, ad esempio, un Barack Obama– indistinguibile da quello vero, con la sua voce e il labiale perfettamente sincronizzato – che apostrofa in odo colorito il suo antagonista Donald Trump.
E infine, come terza categoria di autori di fake news, ci siamo noi, gli utenti di Internet a cui piace condividere notizie e contenuti sui social media, convertendoci senza saperlo in un’enorme cassa di risonanza per le fake news. Sui social le notizie false, come quelle vere, si diffondono a macchia d’olio per vari motivi. Da un lato, sono i mezzi stessi a permetterci di condividere le notizie con un semplice clic.
Dall’altro, vi sono alcuni meccanismi psicologici per cui lo facciamo senza verificarle, tra cui il più importante è probabilmente il pregiudizio di conferma: abbiamo la tendenza ad accettare e condividere le informazioni che supportano le nostre credenze e respingere quelle contrarie. È un principio tristemente semplice che ha le sue ragioni di esistere, perché l’attività intellettiva è faticosa e l’essere umano è biologicamente programmato per risparmiare energie ed evitare emozioni negative come quelle derivanti dal conflitto tra la propria visione del mondo ed eventuali dati contrastanti. Il rischio maggiore che corriamo è radicalizzare sempre di più le nostre opinioni, lasciandoci manipolare invece di agire in modo razionale e libero.