Il contrasto ai socialbot tramite lo Strengthened Code of Practice on Disinformation 2022

0
  1. Il ruolo dei social media nei dibattiti pubblici e nelle votazioni

La recente diffusione dell’utilizzo dei social media come strumenti di comunicazione e di divulgazione delle proprie opinioni ha portato a dei veri e propri sconvolgimenti nei modi e nei tempi di propagazione del pensiero. Negli ultimi anni essi sono diventati anche un terreno fertile per la propaganda politica ed il proselitismo ideologico di tutti coloro che ne hanno compreso le potenzialità e hanno un minimo di cognizione del loro funzionamento[1].

Soprattutto durante la campagna referendaria sulla permanenza del Regno Unito di Gran Bretagna e Irlanda del Nord nell’Unione europea il ruolo che queste piattaforme hanno avuto come catalizzatori e come motori del dibattito all’interno della società civile è risultato particolarmente evidente[2]. L’evento referendario d’oltremanica ha anche messo in luce come soggetti esterni al corpo elettorale di una nazione possano inserirsi surrettiziamente ed efficacemente all’interno del dibattito pubblico online: oltre 150.000 account localizzati all’interno della Federazione Russa hanno pubblicato su Twitter contenuti inerenti alla Brexit, diffondendo tra gli elettori britannici informazioni non veritiere e polarizzanti e dissimulandone la provenienza[3].

  1. La gestione di profili social da parte di software autonomi

Quella che a prima vista può apparire come una schiera di fedelissimi seguaci profondamente convinti della validità di determinate posizioni politiche o delle opinioni espresse online da soggetti pubblici può, però, non essere effettivamente composta da esseri umani assiduamente presenti sulle piattaforme di social networking. Può trattarsi, invece, dei cosiddetti “socialbot”, dei programmi software autonomi progettati per agire su di un social medium che, dissimulando la propria natura ed identità, si infiltrano nelle comunità online di utenti umani per diffondere contenuti (spesso mistificatori ed ingannevoli)[4].

L’utilizzo dei socialbot come strumenti di potenziamento delle attività di propaganda sui social network è stato espressamente indicato nel 2020 dalla Commissione europea come un «rischio sistemico» per la tenuta delle istituzioni dell’Unione e dei suoi Stati membri. Questo perché essi possono essere impiegati per «la manipolazione intenzionale e spesso coordinata del servizio della piattaforma [social], con effetti prevedibili sulla salute pubblica, sul dibattito civico, sui processi elettorali, sulla sicurezza pubblica e sulla tutela dei minori»[5].

  1. L’inammissibilità dell’impiego di socialbot secondo il Strengthened Code of Practice on Disinformation 2022

Alle considerazioni della Commissione sulla pericolosità dell’impiego di agenti software per sviare il discorso pubblico online dal suo naturale percorso di formazione è seguita l’inclusione di alcune disposizioni di contrasto ad essi all’interno dello Strengthened Code of Practice on Disinformation 2022. L’Impegno 14 del Codice comprende espressamente tra «comportamenti e pratiche manipolativi inammissibili» l’impiego di «bot» per amplificare artificialmente la diffusione o la percezione del sostegno pubblico a contenuti disinformativi.

Al fine di dare attuazione all’impegno di porre un limite ad attività propagandistiche e disinformative attraverso i servizi di social networking, il Codice comprende alcune Misure – che a loro volta includono diversi Elementi di Rendicontazione Qualitativa – che devono essere adottate dai suoi sottoscrittori. Esse consistono sostanzialmente nell’obbligo di istituire in autonomia delle politiche «in merito a comportamenti e pratiche manipolatori non consentiti tramite i propri servizi», di comunicarle sia al pubblico che alle autorità coinvolte e di spiegarle (Misura 14.1), di sviluppare metriche per stimare la penetrazione e l’impatto degli account falsi sugli utenti “autentici” e di renderle pubbliche (Misura 14.2), di coordinarsi per redigere un resoconto esaustivo delle «tattiche, tecniche e procedure» (TTPs) impiegate per manipolare gli utenti delle piattaforme online e, infine, di collaborare tra loro per sviluppare elementi di base, obiettivi e parametri di riferimento comuni per le politiche e le misure messe in atto per contrastare tali comportamenti e pratiche manipolative (Misura 14.3).

La sottoscrizione di questo Codice da parte di alcune delle più grandi imprese ed organizzazioni operanti su internet[6] è un primo passo nell’evitare che i cittadini europei siano esposti ad attività di disinformazione su larga scala, fenomeno che è stato riconosciuto essere «una delle principali sfide per l’Europa»[7]. Tuttavia, per come è strutturata questa regolamentazione, l’adesione dei principali Social Network Providers (SNP) ben potrebbe non essere risolutiva del cosiddetto “problema bot”.

Il primo e più importante nodo deriva dalla libertà lasciata ai SNP di aderire o meno ad esso. Di fronte alla possibilità che questi fornitori di servizi della società dell’informazione continuino ad operare secondo i modelli finora adottati, invece di applicarne di nuovi e più onerosi sia da un punto di vista organizzativo che economico, c’è da interrogarsi su quanti di loro sottoscriveranno di propria iniziativa il Codice e con quale dedizione modificheranno il loro modo di fare impresa. Infatti, non si può dimenticare come l’ammontare dei loro guadagni dipenda dalla diffusione di contenuti sulle loro piattaforme e dalla quantità di interazioni che avvengono su di esse[8] e come già in passato alcuni dei principali gestori siano stati accusati di aver anteposto la possibilità di ottenere grandi profitti al benessere dei loro utenti[9]. Permane, quindi, ben presente il timore che alcuni dei gestori di piattaforme social preferiscano non aderire allo Strengthened Code of Practice on Disinformation 2022 o, comunque, non impegnarsi strenuamente in un’attuazione rigorosa degli Impegni e delle Misure del Codice ed evitare ulteriori spese e diminuzioni dei loro profitti. Dopotutto, un engagement mantenuto artificialmente alto permette una maggiore raccolta di dati sugli utenti attivi ed una loro più accurata profilazione, che a sua volta consente l’adozione di un modello di vendita degli spazi pubblicitari sottoposti alla loro attenzione più remunerativo.

Secondo nodo relativo al Codice riguarda l’impegno che effettivamente i SNP che lo hanno sottoscritto metteranno nel dare attuazione alle disposizioni. Già la recente valutazione del Codice, effettuata dalla Commissione nel 2020[10], ha rilevato delle criticità significative, tra le quali un’applicazione incoerente e incompleta della sua disciplina tra le diverse piattaforme e gli Stati membri, delle limitazioni intrinseche alla sua natura di strumento di autoregolamentazione e diverse lacune negli ambiti interessati dagli impegni previsti. Sebbene non si possa mettere in dubbio la volontà dei sottoscrittori di adempiere agli impegni assunti e si sia visto come essi abbiano implementato (in modo, però, lacunoso) le previsioni della prima versione del Codice di autoregolamentazione[11], non si può ignorare come la loro organizzazione interna risponda a logiche di efficienza e di profitto e come l’adozione di modelli di organizzazione e controllo che siano in grado di limitare «comportamenti e pratiche manipolativi inammissibili»[12] sia economicamente onerosa. La necessità di trovare un equilibrio tra istanze di efficacia delle proprie azioni e di sostenibilità finanziaria rischia fortemente di far propendere i SNP per soluzioni insoddisfacenti rispetto all’obiettivo di tutela di dibattito pubblico online.

Infine, per quanto riguarda lo specifico problema legato all’utilizzo di bot non si può ignorare il fatto che, come già ben messo in evidenza dalla più recente letteratura scientifica[13], i socialbot sono attivi già da molto tempo sulle piattaforme social ed hanno subito – e continuano a subire – un affinamento ininterrotto delle loro routine interne di mimica dei comportamenti degli utenti umani[14]. La grave criticità che ne consegue è che l’efficacia degli strumenti di rilevazione attualmente disponibili dipende in gran parte dal grado di sofisticatezza dei socialbot analizzati: quelli maggiormente capaci di imitare le azioni compiute mediamente dagli umani riescono a passare il vaglio di questi mezzi di controllo[15].

Vi è, di contro, da considerare come gli strumenti di rilevazione dei socialbot più diffusi siano stati sviluppati da ricercatori esterni agli organigrammi dei SNP e basandosi su dati parziali rispetto a quelli in possesso di questi ultimi[16]. Quindi, un sistema di controlli creato dal gestore di una piattaforma social beneficerebbe di una quantità e di una qualità di dati superiori con i quali rilevare con maggiore facilità «comportamenti manipolativi inammissibili».

  1. Dubbi sull’efficacia del Strengthened Code of Practice on Disinformation 2022

Sicuramente lo Strengthened Code of Practice on Disinformation 2022 costituisce un passo avanti importante nella regolamentazione di aspetti del mondo informatico che possono essere indebitamente utilizzati per deviare l’attenzione dell’opinione pubblica e possiede una flessibilità che dovrebbe permettergli di mantenere rilevanza nello sforzo di arginare l’impiego malevolo dei socialbot. Tuttavia, pur ribadendo la convinzione sulla reale volontà dei suoi sottoscrittori di adempiere agli impegni assunti, non si può ignorare come il loro impegno nell’implementare il precedente Codice di autoregolamentazione sia stato ritenuto lacunoso ed insoddisfacente dalla Commissione europea.

In ultima analisi, sebbene lo Strengthened Code of Practice on Disinformation 2022 costituisca una ponderata evoluzione del suo predecessore, la sua reale efficacia e la sua effettiva capacità di superare le criticità di applicazione dei modelli di organizzazione e gestione ereditati sono ancora da dimostrare. Per di più non si può ignorare come questi auspicati caratteri di adeguatezza del nuovo Codice di autoregolamentazione dipendano principalmente dall’impegno di soggetti ed enti privati che fino ad adesso hanno tratto ingenti profitti da attività che esso cerca di limitare e che non si sono dimostrati eccessivamente zelanti nel perseguire gli obiettivi di tutela dei loro utenti.

_______________________________________

© Photo by Timothy Hales Bennett on Unsplash

[1] Si vedano, ex multis, S. Stieglitz – L. Dang-Xuan, Social media and political communication: a social media analytics framework, in Social Network Analysis and Mining, 3-4, 2013, 1277-1291; G.S. Enli, Twitter as arena for the authentic outsider: exploring the social media campaigns of Trump and Clinton in the 2016 US presidential election, in European Journal of Communication, 32-1, 2017, 50-61; B. Mclaughlin – T. Macafee, Becoming a Presidential Candidate: Social Media Following and Politician Identification, in Mass Communication and Society, 22-5, 2019, 584-603.

[2] Si vedano, ex multis, M. Hänska – S. Bauchowitz, Tweeting for Brexit: how social media influenced the referendum, in J. Mair – T. Clark – N. Fowler – R. Snoddy – R. Tait (a cura di), Brexit, Trump and the Media, Bury St Edmunds (UK), 2017, 31-35; W. Hall – R. Tinati – W. Jennings, From Brexit to Trump: Social Media’s Role in Democracy, in Computer, 51-1, 2018, 18-27; Y. Gorodnichenko – T. Pham – O. Talavera, Social Media, Sentiment and Public Opinions: Evidence from #Brexit and #Uselection, in European Economic Review, 136, 2021, 103772.

[3] C. François, Actors, Behaviours, Content: A Disinformation ABC, in Algorithms, 2020; D. Wolchover – A. Robinson, Is Brexit a Russia-backed Coup?, in New Law Journal, 2020; J. Horder, On-line Free Speech and the Suppression of False Political Claims, in ILSA Journal of International and Comparative Law, 2021.

[4] Y. Boshmaf – I. Muslukhov – K. Beznosov – M. Ripeanu, The Socialbot Network: When Bots Socialize for Fame and Money, in Proceedings of the 27th Annual Computer Security Applications Conference (ACSAC ‘11), 2011, 93-102; L. Alvisi – A. Clement – A. Epasto – S. Lattanzi – A. Panconesi, Sok: The evolution of sybil defense via social networks, in 2013 IEEE symposium on security and privacy, 2013, 382-396; O. Varol – E. Ferrara – C. Davis – F. Menczer – A. Flammini, On-line human-bot interactions: Detection, estimation, and characterization, in Proceedings of the international AAAI conference on web and social media, 11-1, 2017, 280-289.

[5] Considerando 57 della COM(2020) 825 final, Proposta di regolamento del Parlamento europeo e del Consiglio relativo a un mercato unico dei servizi digitali (legge sui servizi digitali).

[6] L’elenco completo dei sottoscrittori dello Strengthened Code of Practice on Disinformation 2022 è disponibile al seguente indirizzo https://digital-strategy.ec.europa.eu/en/library/signatories-2022-strengthened-code-practice-disinformation

[7] COM(2018) 236 final, comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle Regioni, Contrastare la disinformazione online: un approccio europeo, in particolare al punto 1, ripreso anche all’interno dello Strengthened Code of Practice on Disinformation 2022.

[8] C.R. Sunstein, Voci, gossip e false dicerie, Milano, 2010; S. Stolzoff, The Problem with Social Media Has Never Been about Bots. It’s Always Been about Business Models, in Quartz, 16 novembre 2018, disponibile al seguente indirizzo https://qz.com/1449402/how-to-solve-social-medias-bot-problem/; K. Stricklin – M.K. Mcbride, Social Media Bots: Laws, Regulations, and Platform Policies, in CNA Information Memorandum, 2020, in particolare a p. 13.

[9] Si veda ad esempio la dichiarazione di F. Haugen, ex Product Manager nel dipartimento di integrità civica di Facebook, rilasciata innanzi alla Commissione del Senato degli Stati Uniti d’America su Commercio, Scienza e Trasporti. In essa la Haugen ha affermato che «i vertici dell’azienda conoscono i modi per rendere Facebook e Instagram più sicuri e non vogliono apportare le modifiche necessarie perché hanno anteposto i loro immensi profitti alle persone», di aver visto che «Facebook ha ripetutamente incontrato conflitti tra i propri profitti e la nostra sicurezza. Facebook ha costantemente risolto quei conflitti a favore dei propri profitti. Il risultato è stato un sistema che amplifica la divisione, l’estremismo e la polarizzazione e mina le società di tutto il mondo» e di aver fornito documenti che «dimostrano che Facebook ci ha ripetutamente fuorviato su ciò che la sua stessa ricerca rivela sulla sicurezza dei bambini, sul suo ruolo nella diffusione di messaggi d’odio e polarizzanti e molto altro ancora». La trascrizione della dichiarazione è disponibile sul sito della Commissione del Senato degli Stati Uniti al seguente indirizzo https://www.commerce.senate.gov/services/files/FC8A558E-824E-4914-BEDB-3A7B1190BD49

[10] SWD(2020) 180 final, Assessment of the Code of Practice on Disinformation – Achievements and areas for further improvement, in particolare al paragrafo 3.2.

[11] Ivi.

[12] Impegno 14 dello Strengthened Code of Practice on Disinformation 2022.

[13] L. Alvisi – A. Clement – A. Epasto – S. Lattanzi – A. Panconesi, op. cit.; S. Cresci – R. Di Pietro – M. Petrocchi – A. Spognardi – M. Tesconi, The paradigm-shift of social spambots, in Proceedings of the 26th international conference on world wide web companion, 2017, 963-972; S. Cresci – R. Di Pietro – M. Petrocchi – A. Spognardi – M. Tesconi, Social Fingerprinting: detection of spambot groups through DNA-inspired behavioural modelling, in IEEE Transactions on Dependable and Secure Computing,15-4, 2017, 561-576; L. Luceri – A. Deb – S. Giordano – E. Ferrara, Evolution of bot and human behavior during elections, in firstmonday.org, 2019.

[14] C. Yang – R. Harkreader – G. Gu, Empirical evaluation and new design for fighting evolving twitter spammers, in IEEE Transactions on Information Forensics and Security, 8-8, 2013, 1280-1293; K.C. Yang – O. Varol – C. Davis – E. Ferrara – A. Flammini – F. Menczer, Arming the public with artificial intelligence to counter social bots, in Human Behavior and Emerging Technologies, 1-1, 2019, 48-61; S. Cresci, A decade of social bot detection, in Communications of the ACM, 63-10, 2020, 72-83.

[15] Si vedano, ad esempio, le conclusioni raggiunte in S. Cresci – R. Di Pietro – M. Petrocchi – A. Spognardi – M. Tesconi, The paradigm-shift of social spambots, cit.

[16] Si veda ad esempio R. Coluccini, Tutti i dati che TikTok ha su di me — anche se non ho mai creato un account, in Motherboard, 13 gennaio 2021, disponibile al seguente indirizzo https://www.vice.com/it/article/jgqbmk/come-funziona-tik-tok-raccolta-dati, in cui l’autore illustra come il gestore della piattaforma social TikTok, la società cinese ByteDance, raccolga dati e registri interazioni dei suoi utenti. L’autore ha potuto visualizzare informazioni sulle sue attività che non vengono mostrate ad altri utenti perché è il titolare dei dati trattati (e perché il GDPR lo impone ai gestori delle piattaforme). Risultati simili sono stati riportati anche in R. Coluccini, Tutti i dati che Amazon ha su di me, in Motherboard, 03 ottobre 2018, disponibile al seguente indirizzo https://www.vice.com/it/article/yw4n4v/dati-amazon-raccolta-sorveglianza

Share this article!
Share.

About Author

Leave A Reply