Arianna Muti
in foto: Arianna Muti

Sui social trova spazio tanta informazione, tanto intrattenimento sano, ma a correre veloce è anche l'odio. Da Facebook a Instagram a Twitter, è all'ordine del giorno leggere contenuti che incitano alla violenza, che veicolano idee malsane e sbagliate intorno a concetti che andrebbero affrontati con maggiore tatto e delicatezza. Basti pensare al body shaming: i commenti sull'aspetto fisico altrui sono i più gettonati, quando si vuole ferire qualcuno, perché si fa leva su insicurezze che la nostra società continuamente accentua, con la sua ossessione per la perfezione e la demonizzazione dei difetti. Le donne sono le più chiamate in causa in questo senso. Nei loro confronti si genera troppo spesso una forte carica di aggressività, che sui social è difficile da tenere a bada. Ma un controllo su questi contenuti così offensivi, denigratori e umilianti in realtà è possibile e la dimostrazione arriva da quanto messo a punto da un team dell’Alma Mater di Bologna nell’ambito dell’ultima edizione di EVALITA, iniziativa interamente dedicata allo sviluppo di sistemi NLP (Natural Language Processing, ovvero di elaborazione del linguaggio naturale) per la lingua italiana. Il loro sistema automatico ha ottenuto la migliore performance nella sezione “Automatic Misogyny Identification”. Nello specifico, si tratta di un sistema automatico capace di identificare tweet con contenuti misogini. Ne ha spiegato il funzionamento a Fanpage.it la sua creatrice.

Su Twitter dilaga la misoginia

Arianna Muti ha 26 anni ed ha appena conseguito una laurea magistrale in Language, Society and Communication presso l’Alma Mater di Bologna. Si deve a lei l'algoritmo in grado di identificare tweet con contenuti aggressivi e misogini. Attualmente la politica di Twitter in materia non prevede controlli a monte: «Si affida principalmente alle segnalazioni degli utenti, quindi non lavora in modo automatico. Gli utenti segnalano e poi i revisori decidono se rimuovere o meno un post» ha spiegato a Fanpage.it Arianna. La sua idea nasce da un'attenta osservazione dei contenuti social. Troppo spesso si tratta di post offensivi rivolte alle donne (spesso proprio da altre donne). Il suo algoritmo è capace di identificarli e classificarli in tre categorie dalla gravità crescente: non misogino, misogino e non aggressivo, misogino e aggressivo. Analizzando questi contenuti Arianna si è fatta un'idea precisa: «Tanti commenti a sfondo sessuale come punizione per opinioni espresse e tanto body shaming. Ho notato che vengono attaccate di più le donne che si espongono, per il solo fatto di farlo, non perché dicono qualcosa contro gli uomini». A lei il tema sta molto a cuore e nel suo piccolo ha voluto dare un contributo, dare un segnale, far capire che vigilare è possibile: «Mi è sempre piaciuto portare alla luce e far notare la pericolosità di questi post».

Come funziona l'algoritmo

Il sistema di Arianna è, per essere precisi, un classificatore: «Riceve in input un tweet, non lo va a cercare. Qualcuno glielo deve fornire e lui decide se è misogino e/o aggressivo». L'architettura interna del modello è strutturata su un limite di 200 caratteri, dunque è appositamente studiata per Twitter, ma potrebbe trovare applicazione anche su altri social, cambiando questo aspetto. Certo, di base dovrebbe esserci la volontà di usare un sistema di questo tipo, una volontà che a suo dire al momento non c'è: «Penso che sia una questione di protezione della libertà d'espressione, con la quale non sono d'accordo. Non credo che insultare gratuitamente le donne sia una forma di libertà d'espressione da proteggere». L'algoritmo è stato addestrato per 5000 tweet: di questi la metà presa in esame era costituita da post misogini e c'è stata una precisione del 77% nel rilevarli. Questo valore è alto, se si considera la difficoltà di leggere tra le pieghe di un post scritto, capire l'ironia, cogliere le sfumature delle parole. Lei stessa ha detto: «A volte la misoginia è interiorizzata, è subdola: la gente e le donne stesse nemmeno la riconoscono». Bisogna dunque prestare attenzione a ciò che scriviamo e a ciò che leggiamo in rete, vigilare e controllare sui contenuti social, affinché non ci sia più una narrazione gratuitamente violenta verso le donne, che è quella che attualmente dilaga.