È tornata l’**Adpocalypse**, **l’Apocalisse dell’Advertising** che prende di mira, principalmente, il portale di contenuti per eccellenza: YouTube. Per chi si fosse perso, mesi fa, lo “strano” fenomeno della AdPocalypse (crasi tra Advertising, pubblicità, e Apocalypse) la storia inizia a Maggio scorso, quando molti grandi inserzionisti pubblicitari che avevano allocato sostanziosi budget per pubblicizzare le proprie campagne su YouTube **avevano ritirato i loro investimenti** perché avevano scoperto che venivano associati a **video con contenuti violenti, xenofobi e/o omofobi**, provocando un ritorno d’immagine estremamente negativo per la piattaforma e, di contro, per il mercato stesso, accusato di lucrare (senza controllo e senza protezione per gli inserzionisti) su contenuti quantomeno discutibili..
S’era cercato di risolvere il problema, e ancora si tenta con alterne fortune, grazie all’**ausilio dell’Intelligenza Artificiale**, con la conseguenza non irrilevante che così facendo i contenuti che vengono demonetizzati (leggasi: “a cui viene rimossa la pubblicità, non facendo guadagnare né la piattaforma né chi il contenuto lo ha creato”) sono non solamente quelli veramente illeciti o violenti, ma **anche quelli che raccontano solamente di tali avvenimenti**, come i telegiornali o i Vlog d’informazione, i commentatori, che nulla hanno a che vedere con la violenza ma che sono “rei” di usare le stesse parole e gli stessi linguaggi”. Una Intelligenza (poca) Artificiale (molto) proposta come la panacea di tutti i mali, e che evidentemente non solo non è ancora pronta per il “prime time” ma anche e soprattutto pare avere lasciato scoperta una ampia fetta di contenuti che sulla piattaforma non dovevano essere monetizzati.
Il problema è infatti riemerso, e prepotentemente, negli scorsi giorni, non soltanto per quanto riguarda la liceità o l’illiceità del contenuto dei video *(un discorso molto più complesso che va a toccare ciò che è da considerarsi legittimo o illegittimo, legale o illegale e che varia a seconda della giurisdizione in cui ci troviamo…)*, ma piuttosto sul tipo di messaggio a cui un inserzionista, una Marca, un Prodotto o una Persona vuole o non vuole (*o non è palesemente opportuno che sia*) essere associata. Essere ricordati per quella pubblicità che appare appena prima a **contenuti che ledono i minori, che mostrano stupri o feci, che sessualizzano i pre-pubescienti** non è infatti, probabilmente, la strategia di promozione che le aziende vogliono utilizzare…
Due i tipi di problemi rilevati, l’uno più grave ed incredibile dell’altro.
Il primo ha a che vedere con **YouTube Kids**, una versione particolare della piattaforma pensata **appositamente per i bambini** dove vengono genericamente diffusi contenuti “Family Friendly”, sicuramente compatibili con la visione di minori senza supervisione di un adulto. All’interno della selezione dei contenuti disponibili su questa piattaforma sono stati rinvenuti account che proponevano video in cui venivano mostrate **scene di violenza fisica, rapimenti, scene di sesso, feci, urine**…. Ovviamente, anche su questi video non mancavano le (copiose) **pubblicazioni pubblicitarie**, peraltro tra le più “redditizie” della piattaforma, poiché raramente i bambini si preoccupano di “saltare” le pubblicità. Una condizione sicuramente non ottimale per nessun inserzionista quella di trovarsi a sponsorizzare questo tipo di contenuti.
Il secondo ordine di problemi riguarda, invece, miliardi di visualizzazioni rilevate sulla piattaforma in corrispondenza di **video di minorenni “sessualizzati”, soggetti ad abusi** (simulati o reali non è spesso dato di sapere) e/o con “close-up” di parti anatomiche che, normalmente, non dovrebbero divenire oggetto di sessualizzazione. Il tutto con contorno di svariati (le ricerche ne mostrano a bizzeffe) commenti palesemente pedofili, che narrano con dovizia di particolari come “userebbero” i ragazzini inquadrati… Molti grandi marchi, come Mars ed HP, notando quanto stava succedendo, hanno ovviamente rimosso immediatamente la totalità dei loro investimenti pubblicitari chiedendo informazioni, spiegazioni e l’assicurazione che il fenomeno non si sarebbe ripresentato.
Perché è accaduto di nuovo? Il problema di YouTube risiede nella metodologia utilizzata, in quanto il colosso ha fatto la scelta di mantenere un inventario di contenuti molto ampio ed oneroso da controllare, adottando la politica che solamente al momento della ricezione del report di un contenuto illecito da parte degli utenti l’avrebbe valutato ed, eventualmente, rimosso la monetizzazione (o il contenuto stesso). Ma nel frattempo, la pubblicità sarebbe stata comunque messa su tutti i contenuti video senza discriminazioni di sorta, miliardi di visualizzazioni (e relativi introiti) incamerati sulla scorta di una sorta di “silenzio assenso”. Fino ad un certo punto questo sistema può funzionare ed essere efficiente, anche se per valori molto ampi d’efficienza, ma ad un certo punto il sistema è (palesemente) crollato.
**Quale il comportamento corretto da adottare?** Difficile dirsi, ma non è così complesso pensare se molte giurisdizioni (fortunatamente non tutte) tendono a dare ampi margini di libertà sul controllo che è necessario per OSPITARE o NON OSPITARE alcuni contenuti e sui controlli necessari o facoltativi, **non è difficile ammettere che sia interesse (o forse obbligo?) della piattaforma che vuole monetizzare tali contenuti accertarsi che questi siano monetizzabili prima di venderli**. E’ indubbio che gli introiti pubblicitari correlati alla “vendita” di un inventario siano da accaparrarsi solo per quei contenuti che si è ragionevolmente sicuri non arrecheranno danno all’investitore, uno scenario questo ben differente da quello attuale.
Che sia necessario un controllo manuale prima d’inserire la pubblicità e non solo, eventualmente, dopo una segnalazione? La soluzione è sicuramente complessa, ma quello che traspare sicuramente dalle migliaia di segnalazioni degli ultimi giorni è che YouTube ha sicuramente sottovalutato (per non dire omesso di considerare) anche le più basilari categorie di controlli macroscopici di grandi macro-aree (contenuti per bambini, contenuti violenti, sessualizzazione) anche legate a categorie sociali o situazioni particolarmente sensibili come minorenni, violenza ed intolleranza. Un comportamento che se (forse) dobbiamo ad oggi per ora concedere relativamente alla possibilità di PRESENZA sulla piattaforma, non possiamo in nessun modo tollerare quando si discute, invece, dal monetizzare questi contenuti e trarne un vantaggio monetiario immediato.
Fattibile? Difficile a dirsi, ma la risposta prospettata, sempre legata all’Intelligenza Artificiale, è un film che conosciamo e che, almeno per ora, sappiamo per certo come fallibile, con enormi (insormontabili?) problemi a riconoscere e discriminare nel modo corretto, ad esempio, un nudo pornografico da un nudo artistico.
Riuscirebbe ad ora un IA a discriminare fra un saggio di ginnastica artistica di una bambina postato dal padre e lo stesso video ripreso con close-up di parti intime e sfruttato da un pedofilo, con commenti “a tema”? Discorso complesso e solo osservando quello che succederà nei prossimi mesi vedremo cosa ne uscirà.
Se volete saperne di più, eccovi un paio d’articoli d’approfondimento:
* [YouTube goes after child-exploiting channels and videos](https://www.engadget.com/2017/11/22/youtube-child-exploiting-channels-videos/)
* [Companies pull ads from YouTube over comments in child videos](https://www.engadget.com/2017/11/25/companies-pull-ads-from-youtube-over-video-comments/)
* [Something is Terribly Wrong With Many “Kids” Videos on YouTube](https://vigilantcitizen.com/moviesandtv/something-is-terribly-wrong-with-many-kids-videos-on-youtube/)
* [Brands pull YouTube ads over images of children](https://www.reuters.com/article/us-youtube-videos/brands-pull-youtube-ads-over-images-of-children-idUSKBN1DO1KF)