Deepfake app

Deepfake app: cosa sono e quali rischi innescano?

Distinguere ciò che è vero da ciò che non lo è: è la sfida – dalle gravi implicazioni giuridiche – lanciata dalle deepfake app.

Deepfake: cos’è

Il deepfake consiste nella manipolazione di immagini e registrazioni audio e/o video tramite l’uso dell’intelligenza artificiale, disciplina che mira a simulare il funzionamento del cervello umano. La tecnica prevede la combinazione e sovrapposizione di elementi autentici con altri artefatti. I deepfake sono, per estensione, i prodotti di questa tecnica.

Il neologismo deriva dalla fusione di:

  • deep learning, sottoinsieme del machine learning (branca dell’AI) che si occupa dello sviluppo di algoritmi e modelli che consentono ai computer di apprendere dai dati input e output e migliorare la loro performance nel tempo;
  • fake, che in inglese significa falso.

Deepfake app: cosa sono

Le deepfake app, dunque, sono applicazioni – tipi specifici di software progettati per essere eseguiti su dispositivi come smartphone, tablet, smart TV, smartwatch ecc., e rese disponibili attraverso piattaforme di distribuzione come Google Play Store per Android e App Store per iOS – in grado di generare foto, video e voci fasulli ma realisticamente credibili.

In senso più ampio, sono deepfake software o deepfake AI quei programmi informatici che su un computer o su altri device elettronici creano, tramite apprendimento automatico, contenuti audiovisivi falsificati.

Deepfake app: i rischi

Il deepfake può avere implicazioni giuridiche significative. La creazione e propagazione di contenuti contraffatti può essere sfruttata come tecnica o strumento per la commissione di illeciti, primo tra tutti il furto d’identità. È un reato che consiste nell’appropriazione e alterazione abusiva dell’immagine e/o della voce altrui così da:

  1. farle apparire in contesti o condizioni compromettenti (ne sono un esempio i deepnude, i finti nudi);
  2. far loro compiere gesti o dichiarazioni equivoche o lesive.

Da qui discendono i casi di:

  • revenge porn, pratica criminale che implica la condivisione non consensuale di materiale sessualmente esplicito, d’origine fittizia ma potenzialmente convincente, che ha come protagonista una persona reale;
  • cyberbullismo, condotta che vede la divulgazione, tramite internet, di file artificialmente alterati allo scopo di denigrare e così causare danni emotivi e psicologici;
  • diffamazione, delitto finalizzato a compromettere la reputazione di persone, personaggi pubblici o organizzazioni tramite la diffusione di prodotti audiovisivi rimaneggiati;
  • estorsione, reato commesso da chi costringe la vittima, con la minaccia di diffondere file pregiudizievoli creati ad hoc, a fare qualcosa contro la sua volontà (come pagare una somma di denaro);
  • phishing, attacco informatico, a opera dei cyber criminali, che mira a ingannare le persone al fine di ottenere informazioni sensibili, come nomi utente, password, numeri di carte di credito o altre informazioni personali o finanziarie; normalmente viene messo in atto tramite finti messaggi di testo (sms, e-mail) ma il deepfake l’ha reso possibile utilizzando anche altri prodotti di comunicazione (audio, video e foto) anch’essi finti ma che sembrano provenire da una fonte affidabile e legittima.

Deepfake: come riconoscerli e tutelarsi

La Commissione Europea ha provveduto a realizzare una forma di tutela contro le fake news e il crescente utilizzo dei deepfake: si tratta del Digital Service Act (DSA), la legge sui servizi digitali approvata nel 2022.

Ad ogni modo, è l’alfabetizzazione digitale il primo strumento di difesa, perché rendersi informati e consapevoli offre la possibilità di affrontare i rischi.

Per identificare un deepfake, dunque, è importante:

  1. fare un’analisi visiva di foto e video sospetti, per individuare pixellature, illuminazioni contrastanti tra soggetti e luoghi, discrepanze nella forma o nei movimenti di labbra, pupille e palpebre, ecc.;
  2. fare un’analisi del suono della registrazione audio sospetta, alla ricerca di anomalie nella voce (intonazione, pronuncia), nei rumori di fondo che possano indicare manomissioni;
  3. verificare le fonti, ossia i mezzi di produzione e i canali di distribuzione dei contenuti, per appurarne l’affidabilità.

Per questi tre riscontri potrebbe essere utile ricorrere a esperti forensi per una perizia fonica o una video perizia.