Intelligenza artificiale, croce e delizia. Come ogni strumento, infatti, se ne può fare un uso corretto o sbagliato. I video deepfake, ad esempio, possono rappresentare un rischio sotto molto aspetti, se utilizzati con intento criminale o comunque per manipolare l’opinione pubblica, fare disinformazione, screditare qualcuno, ecc.
Video deepfake cosa sono?
I video deepfake sono una forma avanzata di manipolazione video. Utilizza l’intelligenza artificiale e il machine learning per realizzare clip che sembrano realistiche, ma in realtà sono false. Già adesso questi video spesso sono così ben realizzati che possono ingannare gli spettatori, facendo credere che ciò che vedono sia vero.
La creazione di un video deepfake di solito inizia con l’addestramento di un algoritmo di intelligenza artificiale su un vasto set di dati di volti umani. Questo processo è noto come apprendimento automatico e consente all’algoritmo di riconoscere e replicare i modelli del viso umano. Una volta addestrato, il software può essere applicato a un video esistente per sostituire il volto di una persona con un altro. Oltre ai lineamenti del viso, è possibile ricreare, in modo sempre più accurato, le caratteristiche e i movimenti dell’intero corpo e imitare fedelmente una determinata voce.
Il canale YouTube che posta video deepfake cosa rischia?
Va subito detto che per realizzare un deepfake convincente è necessario disporre di una grande quantità di dati/immagini della persona che si desidera replicare. Questi dati vengono poi inseriti nell’algoritmo AI, che analizza e apprende i tratti distintivi del viso, della voce e del corpo. Utilizzando questa conoscenza, l’algoritmo può generare nuove immagini che corrispondono alle espressioni e ai movimenti del viso/corpo/voce originale nel video.
Come potrai facilmente intuire, la tecnologia deepfake solleva importanti questioni etiche e legali. La capacità di creare video falsi ma realistici – già oggi disponibile su larga scala – può essere utilizzata per scopi nefasti. Ad esempio la diffamazione, la manipolazione di eventi importanti come elezioni, premiazioni, concorsi ed altro, o ancora la creazione di false prove.
È fondamentale essere consapevoli dei rischi associati ai video deepfake e sviluppare metodi accurati per rilevare e contrastare velocemente questa forma di manipolazione dei dati audio e video. Un canale YouTube che posta video deepfake, ad esempio, può affrontare diverse conseguenze legali e non solo.
YouTube contro i video deepfake
Basti pensare alla violazione della privacy. La creazione o l’uso di un deepfake può comportare una violazione della privacy, se vengono condivise informazioni con modalità non consensuali relative a una determinata persona. Se i contenuti diffusi via web denigrano o danneggiano la reputazione di un individuo, poi, entra in gioco il reato di diffamazione. Infine, se un soggetto viene rappresentato come un’altra persona in modalità video o audio, si può incorrere nel reato di furto di identità.
In considerazione di quanto appena detto, YouTube può rimuovere i contenuti o imporre altre sanzioni ai creator che non rispettano i Termini di utilizzo e le Norme della community della piattaforma. Inoltre, se un utente che ha caricato un filmato non indica la provenienza e l’eventuale uso – in tutto o in parte – dell’intelligenza artificiale, rischia di vedere il contenuto rimosso e, in molti casi, anche la sospensione dell’account YouTube.
È importante notare che queste sono solo alcune delle possibili conseguenze. Le leggi e le normative da applicare al caso di specie possono variare a seconda del Paese e della specifica situazione. Pertanto, è sempre consigliabile consultare un legale per ottenere consigli mirati. Sei un creator e usi l’AI per creare video deepfake divertenti o a scopo divulgativo? Ricorda di inserire parole chiave pertinenti nel titolo e/o nella descrizione del contenuto, meglio ancora se accompagnate da link per approfondimenti utili.
Etichetta segnalazione YouTube video deepfake
Il problema sta diventando rilevante sotto molti aspetti, non solo su YouTube. Negli ultimi anni i volti di molte celebrities – da Bill Gates a Tom Cruise – sono stati clonati e usati – proprio attraverso i video deepfake – per porre in essere truffe, fake news, spot pubblicitari senza il necessario consenso, ecc. Ecco perché le big tech stanno adottando in massa uno standard per l’etichettatura dei contenuti media. Si tratta dello standard C2pa, uno strumento in grado di descrivere chi ha creato un’immagine o un video, quando e come è stato realizzato e la credibilità della sua fonte.
A questa sperimentazione hanno aderito da qualche mese Google (e YouTube, lo ricordiamo, è di proprietà di Google), Microsoft (proprietaria di LinkedIn), Adobe, OpenAi e Meta (parent company di Facebook, Instagram e WhatsApp). C2pa sta per Coalition for Content Provenance and Authenticity. Lo standard C2pa aiuterà ad individuare il modo più adatto per certificare la provenienza dei contenuti presenti online. Dunque da dove provengono e come sono stati creati. Quindi un’etichetta contenente quelle informazioni chiave che consentono di distinguere il vero dal falso.
Rimozione video deepfake da YouTube
Se ti senti offeso o turbato da un contenuto deepfake su YouTube che ti riguarda personalmente, potrai tutelare la tua immagine inviando un reclamo per violazione della privacy. La scelta di YouTube circa la rimozione del video in questione prenderà in considerazione diversi fattori. Ad esempio se si tratta di una parodia o di satira, se il protagonista può essere identificato in modo univoco o se si tratta di un personaggio pubblico. Inoltre YouTube permetterà a cantanti e artisti di tutelare la propria voce e la propria arte, richiedendo la rimozione di un contenuto che la imita attraverso l’intelligenza artificiale.
Anche se il video deepfake che hai appena visto non ti riguarda personalmente, potrai sottoporre un reclamo se pensi che si tratti di fake news, tentativi di truffa, contenuti disturbanti, ecc. Altre novità importanti arriveranno nei prossimi mesi, con l’avvicinarsi di due appuntamenti molto importanti in programma nel 2024. Si tratta delle elezioni per il rinnovo del Parlamento europeo (giugno) e le elezioni presidenziali americane (novembre).
Già nelle scorse settimane, infatti, La Commissione europea ha inviato richieste formali, ai sensi del Digital Service Act a Bing, Google, Facebook, Instagram, Snapchat, TikTok, YouTube e X/Twitter. Si tratta, più nello specifico, di richieste di informazioni circa le misure di attenuazione dei rischi legati all’AI generativa. Tra i rischi legati all’AI generativa ci sono ad esempio le cosiddette allucinazioni, attraverso le quali l’AI fornisce informazioni false, la diffusione virale dei video deepfake e le manipolazioni automatizzate che possono ingannare gli elettori.