Gli attori britannici e Equity stanno combattendo la diffusione dei mod deepfake guidati dall’IA

British actors and Equity are fighting against the spread of AI-driven deepfake mods.

“La mia voce è presente nella comunità di modding e cambiamento della voce? Sì. Ho il controllo su come la mia voce può essere utilizzata? Al momento no.”

David Menkin ha recitato di recente in Final Fantasy 16 come Barnabas Tharmr, dopo aver lavorato in Lego Star Wars, Valorant, Assassin’s Creed e altro ancora. E come molti altri doppiatori nell’industria dei videogiochi, è preoccupato per l’uso sempre più frequente dell’intelligenza artificiale.

“L’intelligenza artificiale è uno strumento e, come ogni strumento, richiede regolamentazione”, dice Menkin. “Vogliamo semplicemente sapere per cosa verranno utilizzate le nostre voci e poter concedere o revocare il consenso se quell’uso va oltre il contratto originale. E se il nostro lavoro fa guadagnare soldi al vostro strumento di intelligenza artificiale, vogliamo essere equamente remunerati.”

Sicuramente sembra una richiesta equa. Ma molti credono che le regolamentazioni sull’intelligenza artificiale siano molto indietro rispetto alla velocità con cui la tecnologia sta progredendo, e l’associazione degli attori britannici Equity sta cercando di cambiare questa situazione.

Newscast: L’acquisizione di Microsoft di Activision Blizzard è ormai cosa fatta? Guarda su YouTube

L’uso dell’intelligenza artificiale nello sviluppo dei videogiochi è già un argomento enorme, come ha riferito Chris Tapsell di Eurogamer dal GDC, specialmente nei settori artistici e della scrittura delle sceneggiature. Per i doppiatori, presenta una serie di problemi, tra cui la preoccupante tendenza ad utilizzare le voci degli attori in deepfake senza il loro consenso.

Un tweet pubblicato all’inizio di questo mese dal modder di Skyrim Robbie92_ ha evidenziato il problema degli attori che vedono le loro voci utilizzate dalle comunità di modding per contenuti pornografici. “Come membro della scena del modding di Skyrim, sono profondamente preoccupato dalla pratica di utilizzare la clonazione vocale con intelligenza artificiale per creare e distribuire contenuti pornografici deepfake non consensuali”, scrivevano, includendo un elenco di interpreti interessati.

“Le loro performance sono state maliziosamente riutilizzate, alimentando strumenti di clonazione con intelligenza artificiale e utilizzate per creare clip vocali deepfake di questi interpreti che recitano dialoghi espliciti di natura pornografica. Credo che la creazione e la distribuzione di pornografia deepfake sia senza scrupoli e che noi, come comunità, abbiamo la responsabilità di agire.”

Alcuni di questi doppiatori hanno risposto increduli al tweet, senza apparentemente sapere che le loro voci erano state utilizzate. “Che cazzo?!” ha risposto l’attore di Mortal Kombat Richard Epcar.

Il tweet menziona specificamente ElevenLabs, uno strumento di clonazione con intelligenza artificiale che – secondo i suoi termini di servizio – specifica che gli utenti devono essere i creatori e proprietari dei file utilizzati o avere il consenso scritto di ogni individuo identificabile nei file. ElevenLabs non ha risposto alla richiesta di commento di Eurogamer.

Chiaramente, il consenso non viene sempre dato.

Dopo essere stati creati, i mod con voci clonate con intelligenza artificiale vengono ospitati sul popolare sito di mod Nexus Mods. Quando Eurogamer ha contattato Nexus Mods, siamo stati indirizzati a un articolo di aprile che descrive la posizione del sito riguardo ai contenuti generati con intelligenza artificiale nel modding.

“Se tu, come creatore di contenuti, decidi di includere contenuti generati con intelligenza artificiale nei tuoi progetti di modding, ciò non viola alcuna delle nostre regole comunitarie”, si legge. “Tuttavia, se riceviamo un reclamo credibile da una parte che ritiene che il tuo lavoro le stia danneggiando, che si tratti dell’attore doppiatore o dell’ente che possiede i diritti del personaggio/asset, rimuoveremo il contenuto se appropriato.

“Per evitare problemi con le tue mod, ti incoraggiamo a evitare di utilizzare questi strumenti a meno che tu non abbia il permesso esplicito di utilizzare tutti gli asset. Questo vale in particolare per la recitazione con voce generata dall’intelligenza artificiale, ma copre anche immagini, modelli, codice e qualsiasi altra cosa tu possa creare con questa tecnologia.”

Ma questo lascia la responsabilità agli stessi attori di contestare l’uso delle loro voci in mod di gioco non autorizzate, anziché – al momento – ad una regolamentazione più ampia.

Qui entra in gioco Equity UK. Il mese scorso, Equity ha pubblicato il suo “rivoluzionario toolkit sull’intelligenza artificiale per proteggere gli artisti da un’impennata di tecnologie non regolamentate”.

Questo toolkit è stato creato in collaborazione con l’esperta di proprietà intellettuale Dr Mathilde Pavis e stabilisce un “uso etico dell’intelligenza artificiale” e fornisce modelli per far rispettare i diritti legali degli artisti.

Inoltre, Equity ha chiesto un’azione urgente da parte del governo contro ciò che definisce “clonazione delle performance”, definita come: “il processo di creazione di una performance sintetica registrando, utilizzando o riproducendo la performance, la voce o l’immagine di un artista tramite sistemi di apprendimento automatico e tecnologie equivalenti”.

“Equity sta agendo e sta fornendo ai nostri membri gli strumenti necessari per tutelare i loro diritti legali.”

“Con l’aumento dell’uso dell’Intelligenza Artificiale nelle industrie dell’intrattenimento, Equity sta agendo e fornendo ai nostri membri gli strumenti necessari per tutelare i loro diritti legali”, ha dichiarato Liam Budd, rappresentante industriale di Equity per i nuovi media.

“Siamo orgogliosi di essere in prima linea producendo un contratto basato su un modello innovativo di Intelligenza Artificiale e stabilendo nuovi standard dell’industria. Mentre Equity continuerà ad interagire con i produttori delle industrie dell’intrattenimento, il governo deve intervenire con misure robuste per regolamentare adeguatamente l’uso crescente dell’Intelligenza Artificiale”.

Nel marzo 2023, l’Ufficio per la Proprietà Intellettuale si è impegnato a produrre un codice di pratica per l’Intelligenza Artificiale generativa entro questa estate. Il governo sta anche consultando un approccio pro-innovazione alla regolamentazione dell’IA, come descritto in un recente libro bianco.

Per Equity, la Dichiarazione di Visione nel suo kit strumenti stabilisce nuovi standard dell’industria, affermando che gli artisti hanno il diritto di:

  1. consentire (o non consentire) per performance passate, presenti e future
  2. concedere in licenza la loro performance o somiglianza su base personale, non esclusiva e a tempo limitato
  3. essere identificati ed opporsi a trattamenti denigratori della loro performance e del loro lavoro
  4. informazioni trasparenti
  5. consultazione significativa
  6. compensazione equa e proporzionata
  7. accesso e trattamento equo
  8. essere impegnati in un accordo contrattuale collettivamente negoziato

Menkin fa parte di un team di attori che lavora con Equity per sensibilizzare su questo tema.

“L’anno scorso, ci siamo rivolti a UKIE con chiari esempi su perché abbiamo bisogno di una regolamentazione dell’industria a livello nazionale, di leggi sul copyright aggiornate, di un quadro di proprietà intellettuale più chiaro e di codici di pratica, ma purtroppo la risposta è stata insufficiente”, afferma.

Da allora, sono state presentate mozioni per dare maggiore attenzione ai giochi e all’IA alla conferenza di Equity di quest’anno e sono state approvate con la maggioranza dei voti.

“Il lavoro è in corso, ma la legislazione richiede tempo”, dice Menkin. “Nel frattempo, dobbiamo informarci ed è per questo che Equity ha pubblicato il kit strumenti sull’IA, con guide per comprendere il panorama dell’IA e i nostri diritti, oltre a modelli di contratti quando il linguaggio dei nostri clienti e datori di lavoro non è abbastanza chiaro”.

In tutto il mondo stanno nascendo iniziative simili, inclusa l’America con SAG-AFTRA e The National Association of Voice Actors (NAVA).

Menkin è deciso ad aumentare la regolamentazione dell’uso dell’IA nei giochi.

“Ci viene detto, più spesso che no, che non abbiamo altra opzione se non quella di rinunciare a tutti i nostri diritti senza avere un’idea chiara di come verrà utilizzato il nostro lavoro.”

“I giochi e l’IA credono nella regolamentazione autonoma”, afferma. “Le aziende parlano spesso di iniziative per la diversità e di codici di pratica, ma la regolamentazione autonoma raramente beneficia coloro che si trovano nei gradini più bassi della scala, specialmente i subappaltatori come attori, scrittori, compositori, ecc. Spesso ci viene detto, più spesso che no, che non abbiamo altra opzione se non quella di rinunciare a tutti i nostri diritti senza avere un’idea chiara di come verrà utilizzato il nostro lavoro.

Non possiamo più accettare queste condizioni, nell’era dell’IA”.

Jane Perry, premiata con il BAFTA come doppiatrice, famosa per il suo lavoro in Returnal e Hitman, ritiene anche lei necessaria un’organizzazione che sovrintenda all’uso dell’IA.

“Sono a conoscenza del supporto offerto da Equity. Penso che stiano facendo il meglio che possono, all’interno del quadro legislativo esistente qui nel Regno Unito. Non possiamo indire azioni industriali, come fanno i nostri colleghi americani”, afferma.

“Ritengo che mentre ci vengono fornite direttive su cosa guardare attentamente nei contratti che firmiamo e ci viene offerta una certa guida sulle leggi sul copyright, ciò che manca, ed è cruciale, è una sorta di organizzazione che possa sovrintendere efficacemente all’uso dell’IA e monitorarne l’utilizzo”.

Aggiunge: “L’uso dell’IA si è sviluppato più velocemente della nostra capacità di creare confini intorno ad esso. Date le scarse risorse di British Equity, non possono agire come organo di controllo. Sarebbe fantastico se il nostro governo agisse velocemente e fornisse assistenza in questo senso”.

Perry è preoccupata per il futuro dell’IA e ciò che significherà per i doppiatori. La sua esperienza nel settore dei giochi comprende l’interazione con la comunità appassionata del settore, ma tutto ciò diventerebbe obsoleto se il doppiaggio tramite IA prendesse piede.

“Come attrice, è un piacere rispondere a queste domande e affrontare quello che sembra essere un interesse molto accattivante per ciò che succede dietro le quinte”, conclude.

“Il suono di una voce ha una biografia in sé, di cui l’ascoltatore può o non può essere consapevole. Eppure, non sarò io.”

“Mi chiedo spesso, quando arriverà il momento in cui i ‘miei’ personaggi avranno una voce generata da intelligenza artificiale, chi risponderà a queste domande? Le scelte dei personaggi e l’espressione delle speranze, delle paure e dei desideri non saranno basate sulla mia esperienza vissuta. Non avrò l’opportunità di cercare nel mio cuore e nell’anima come interpretare una scena, o come impostare e rispondere alle relazioni stabilite nella narrazione del gioco.

Non avrò apparentemente alcun input nella creazione dei personaggi. Eppure, sarà la mia voce, il suono di cui risuona e suona in relazione a tutto ciò che mi è successo nel corso della mia intera vita. Il suono di una voce ha una biografia in sé, di cui l’ascoltatore può o non può essere consapevole. Eppure, non sarò io.”

Aggiunge che l’intelligenza artificiale non è “tutta negativa” e si adatta a determinati altri lavori e settori. “Ma dobbiamo mettere in discussione questo desiderio di mangiare la nostra coda”, dice.

“Capisco che sia divertente ed emozionante giocare con l’intelligenza artificiale e vedere fino a che punto possiamo arrivare nel manipolare le voci e i volti delle persone. Ma cerchiamo di essere presenti al fatto che togliere lavoro agli esseri umani causerà ogni sorta di problemi: problemi finanziari sono solo uno di essi, e avere un senso di scopo è un altro. Stiamo già vedendo questo. Nel frattempo, i margini di profitto aumentano per le già gonfie società.”

Ci sono ancora molte cose da fare, quindi. Ma Equity – e altri sindacati – stanno iniziando a comprendere il vero pericolo che l’intelligenza artificiale rappresenta per gli attori. Tuttavia, fino a quando non verranno applicate regolamentazioni adeguate, la responsabilità purtroppo ricade sugli attori stessi per proteggersi.