Cosa determina l’autenticità di un video? I creator che caricano video su YouTube per monetizzare devono pubblicare materiale autentico e originale, ma tra voiceover sintetici e AI generative qual è il confine? Ogni giorno YouTube come ogni piattaforma si ritrova sommersa di video deepfake e di disinformazione prodotti con l’AI ed è sempre più difficile distinguere realtà e creazione artificiale. Il fenomeno ha preso il nome di “AI slop”, una macro-definizione per riferirsi a tutto ciò che è artefatto e spesso riciclato. Emblematici sono i video fake sul processo a P. Diddy che hanno ottenuto milioni di visualizzazioni.
Ecco perché il 15 luglio entrerà in vigore l’aggiornamento delle norme di monetizzazione dei video dello YouTube Partner Program (YPP); come ribadito da TechCrunch non si tratta di nuove restrizioni ma di un adeguamento mirato delle policy già esistenti, specie per quanto riguarda i contenuti dal format eccessivamente ripetitivo o generato in massa. Non saranno difatti colpiti format come le reaction o le rielaborazioni, eventualità che aveva inizialmente preoccupato i creators.
Il responsabile dei rapporti con i creators di YouTube, Rene Ritchie, ha sottolineato come da tale aggiornamento colpirà solo i video considerati spam, categoria già esclusa dal sistema di monetizzazione. The Verge ha commentato che “l’aggiornamento non modifica le regole, ma mira a migliorare il modo in cui YouTube le applica”. Le interpretazioni di questa mossa di YouTube sono molteplici, da giusto e necessario intervento ad azione di difesa preventiva. C’è anche chi l’ha interpretata come un’azione mirata a danneggiare specificatamente i creators che caricano i video AI generati.
È certo però che il 15 luglio avrà inizio una nuova era per la piattaforma di streaming e ancora non possiamo immaginare le ripercussioni su tutto il mondo digitale e del content creation.