Convegno Corecom Lombardia
LA NUOVA RIFORMA EUROPEA SUL DIGITALE
Milano, 13 maggio 2021
Intervento di Carmelo Fontana
Il tema della regolamentazione, quello del così detto “Level Playing Field”, e della protezione dei consumatori (specialmente di alcune gruppi di essi) è un tema che sta molto a cuore alle piattaforme.
Esistono da tempo, da prima ancora che fossero estesi alle “video sharing platforms” dei formali obblighi regolamentari, tutta una serie di strumenti, di politiche, di sistemi di controllo, di richieste di rimozione di determinati contenuti – strumenti, politiche e sistemi che sono state utilizzati in migliaia di casi, sia per iniziativa delle piattaforme stesse che su segnalazione degli utenti.
Nella propria attività di autoregolamentazione, Google ha individuato una serie di priorità – che incidentalmente si trovano assolutamente in linea con le norme della AVMS. Tali priorità ovviamente vanno nella direzione di rendere le nostre piattaforme un luogo sicuro, un luogo in cui i consumatori, i minori e il pubblico in generale non sia esposto a dei contenuti che possono essere pericolosi.
Il primo esempio che vorrei riportare è quello relativo alle norme sui così detti HFSS – cioè gli alimenti con alto contenuto di sale, zucchero e grassi (foods with high fat, salt, sugar). Una recente modifica alle nostre policy sulla pubblicità[1], ha introdotto delle limitazioni alla possibilità di promuovere tali alimenti potenzialmente dannosi per la salute già da ottobre dell’anno scorso, prima ancora che l’Italia implementasse la Direttiva e quando in alcuni altri Paesi europei si cominciavano appena ad avere delle linee guida o delle norme che riguardassero questo argomento. Google ha avvertito la necessità di individuare dei nuovi requisiti per razionalizzare quella che è la pubblicità su questo tipo di alimenti (ad esempio le bevande gassate, merendine, succhi di frutta, biscotti, si veda la lista indicata nella policy…) e si è avvertita la necessità di intervenire e armonizzare quello che era l’approccio, quantomeno in Europa, alla pubblicità di questi prodotti.
L’iniziativa ha previsto che gli inserzionisti – e per coloro che intendono acquistare degli spazi pubblicitari visibili verso gli utenti delle nostre piattaforme – dovessero presentare un’autodichiarazione per indicare che le proprie attività pubblicitarie all’interno del proprio account erano in linea con i requisiti di queste policy e si erano dotati già di alcuni strumenti per, appunto, fornire informazioni nutrizionali e operare nei confronti di un pubblico di minori in maniera consapevole.
Questo è un esempio di tutta una serie di iniziative di controllo e limitazione dell’attività pubblicitaria che impedisce che il pubblico sia esposto a contenuti che riguardano per esempio sigarette, tabacco e altre sostanze pericolose.
Un’altra iniziativa della quale mi fa piacere parlare è quella sulla rimozione di contenuti violenti, legati a attività di gruppi radicali, video di natura estremista, di incitamento all’odio o riconducibili a organizzazioni violente[2].
Nell’ambito di queste policy, quello che succede è che si utilizzano dei sistemi di machine learning per individuare in maniera automatizzata i contenuti e si attinge anche a tutta una serie di valutazioni umane, sia da parte dei dipendenti di Google che da parte di esperti della materia; si sono stabilite delle partnership con degli operatori internazionali, come il Global Internet Forum contro il terrorismo[3].
In questo caso, l’impegno è proprio quello di evitare che messaggi pericolosi per il pubblico possano essere diffusi, provvedendo a una rimozione tempestiva, riducendo al massimo il numero di utenti esposti. Tali contenuti sono da considerarsi pericolosi sia per la potenzialità di veicolare propaganda terrorista, ovvero per la natura intrinsecamente violenta dei contenuti – es., registrazione di esecuzioni capitali.
A supporto di queste iniziative – come dicevo – viente utilizzata non soltanto la tecnologia ma anche una componente umana, grazie alla partecipazione di esperti che possano essere coinvolti su base permanente e con assiduità – proprio perché ci rendiamo conto che il limite tra una attività di documentazione di un evento che è “newsworthy”, meritevole di essere notizia – e che può essere quindi legittimamente riportato – e l’attività di promozione di terrorismo, di estremismo, di contenuti violenti, può essere talvolta particolarmente labile. E questo è il motivo per cui da una parte troviamo l’esigenza di intervenire in maniera precisa e tempestiva, dall’altra quella di contemperare queste rimozioni con il diritto all’informazione.
Nello stesso solco anche tutte le rimozioni per “hate speech”, ovvero incitamento all’odio[4].
Particolarmente interessanti in proposito i numeri relativi alle rimozioni, e messi a disposizione da Google nel “transparency report”[5]: numero dei canali che sono stati rimossi nell’ultimo trimestre dell’anno scorso, il 2020, supera i due milioni.
E questi canali sono stati rimossi per tutta una serie di violazioni che riguardano varie norme, quali: contenuti ingannevoli, spam – quindi anche disinformazione – contenuti che incitano all’odio, molestie, cyberbullismo, tutta una serie di violazioni delle nostre policy, che hanno giustificato una reazione da parte della piattaforma.
Google collabora con la Commissione Europea, insieme ad altre piattaforme come Facebook, Microsoft, Twitter, per l’implementazione del Codice di condotta alla lotta all’ “hate speech”[6], alle forme illegali di incitamento all’odio, e negli anni abbiamo non soltanto costruito tutta una serie di strumenti tecnologici per andare ad intervenire su questi contenuti ma abbiamo anche ideato delle metriche per consentire maggiore trasparenza e per consentire a tutti, all’audience, inclusi quindi i regolatori, di comprendere la complessità di questo fenomeno.
Tra le più recenti soluzioni che abbiamo proposto vi è una nuova metrica che cerca proprio di misurare l’efficacia delle nostre soluzioni tecnologiche e delle nostre policy, misurando, appunto, qual è il tasso di visualizzazioni di contenuti che violano le policy e che vengono rimossi di lì a poco[7].
In altre parole, tale metrica misura quanto le attività della piattaforma sono efficaci a prevenire che il pubblico venga effettivamente esposto a questi contenuti nel tempo che passa tra quando vengono caricati e il momento in cui vengono finalmente rimossi, o su iniziativa della community che li segnala o su iniziativa delle persone che sono addette a questa funzione o per effetto dell’utilizzo delle tecnologie.
Nel report che abbiamo pubblicato, si riscontra che la segnalazione automatica consente di arrivare addirittura a rimuovere il 94% di questi contenuti; attraverso la misurazione delle visualizzazioni inappropriate in rapporto ai contenuti abusivi (il così detto VVR, Violative Video Rate), il tasso di visualizzazioni inappropriate, è soltanto tra lo 0,16 e lo 0,18% dei contenuti abusivi. In altre parole, solo una manciata di video che viola i contenuti diventa effettivamente visibile, e in misura ridottissima: ogni diecimila visualizzazioni di video caricati su YouTube, soltanto 16-18 visualizzazioni provengono da contenuti violenti o da contenuti illegali.
E peraltro, si può osservare come l’efficacia e l’incisività dei nostri sistemi di protezione sia cresciuta nel tempo. Il VVR, questo report di visualizzazione, ad oggi è diminuito del 70% rispetto al 2017. E’ come dire nel 2017 c’erano il 70% in più di visualizzazioni di contenuti abusivi, adesso il tasso di visualizzazione è diminuito ed è arrivato a delle soglie che lasciano ampiamente soddisfatti.
Un’ultima, un’ultima osservazione riguarda invece gli aspetti della disinformazione. E, possiamo prendere come esempio quello dell’informazione che riguarda la pandemia: quindi i vaccini, il Covid e quant’altro. Noi riteniamo che, quando ci si confronta con un messaggio informativo diretto ad un utente, la piattaforma abbia il compito di aiutare l’utente ad ottenere delle informazioni che siano accurate e affidabili.
Quindi, nella dialettica, con questa “mission”, YouTube ha la possibilità di intervenire per rimuovere le informazioni errate (se non intenzionalmente ingannevoli) e promuovere quelle che realizzino invece la funzione di garantire una maggiore informazione al pubblico e ricompensare gli operatori – in termini proprio di visibilità e di ritorno economico – che contribuiscono positivamente a questo ecosistema.
Ad ognuno di questi aspetti abbiamo dedicato, appunto, delle funzionalità, dei sistemi.
Quando vengono cercati dei contenuti che sono potenzialmente divisivi o controversi, spesso oggetto di teorie complottiste – facciamo un esempio: lo sbarco sulla luna – in questi anni si sono diffuse delle teorie che sostengono che il viaggio sulla luna non è mai avvenuto ed è stato filmato sulla terra. Ecco, in casi come questo – Google mette in evidenza delle fonti autorevoli che possano aiutare l’utente meno avveduto ad avere visibilità su un contesto scientifico, storico, tramite accesso a informazioni più affidabili, così da non poter cadere nella trappola della disinformazione[8].
[1] https://support.google.com/adspolicy/answer/9919030?hl=it#
[2] https://support.google.com/youtube/answer/9229472?hl=it
[3] https://gifct.org/transparency/ e si veda anche: https://www.techagainstterrorism.org/
[4] https://support.google.com/youtube/answer/2801939?hl=it&ref_topic=9282436#zippy=%2Caltri-tipi-di-contenuti-che-violano-queste-norme
[5] https://transparencyreport.google.com/youtube-policy/removals?hl=it
[6] https://ec.europa.eu/commission/presscorner/detail/en/qanda_20_1135
[7] https://italia.googleblog.com/2021/04/maggior-trasparenza-e-responsabilita.html
[8] https://support.google.com/youtube/answer/9004474?hl=it