Autorizzazione

 
  •  Morto il famoso astronomo ucraino, Klim Churyumov 
  •  Nella galassia c'è anche il "terzo incomodo" 
  •  Pubblicato il progetto del comunicato finale del vertice del G20 
  •  A Kiev, stanziati 40 milioni di dollari per l'installazione dei contatori di calore nei condomini 

Odio online, i filtri automatici? Un disastro: basta una lettera per ingannarli

BASTA una lettera per ingannare l'algoritmo. Una R al posto della S, ed ecco che i filtri automatici sviluppati per contrastare l'odio online vanno in tilt. Lo dimostra uno studio condotto da un team di ricercatori dell'Università di Aalto, in Finlandia, e dell'ateneo di Padova. Un'analisi che ha testato i più importanti strumenti hi-tech al momento disponibili su piazza: ben sette tra cui Perspective, programma messo a punto da una sussidiaria di Google, Jigsaw. Un sistema che Big G ha iniziato a sfruttare sulle proprie piattaforme per "affrontare troll" e "tattiche nefaste" che "danno alle voci ostili una grandezza spropositata". Anche se l'efficacia di questi strumenti è sempre stata dubbia.
LEGGI La prima mappa del 'lato oscuro' del web. ''Così odio, insulti e fake news viaggiano online''
"Il problema principale è che il linguaggio umano è molto complesso, anche quando semina odio", ha spiegato Giovanni Ziccardi, professore d'informatica giuridica dell'Università di Milano, e autore del libro L'odio online. Violenza verbale e ossessioni in Rete. "Per i sistemi automatizzati è praticamente impossibile rilevare l’odio subdolo, con frasi apparentemente innocue. E anche in presenza di termini espliciti, c'è il rischio che il sistema blocchi espressioni che in realtà non sono di odio, basti pensare a una parola volgare utilizzata in maniera amichevole".

rep


[url=http://]
Approfondimento


Un algoritmo contro l'odio in rete? Israele ce l'ha: “Cos? la diplomazia diventa digitale”[/url]


dal nostro inviato JAIME D'ALESSANDRO
Una teoria a cui ora si affianca una prova empirica. La ricerca ha evidenziato che i sistemi danno buoni risultati solo se vengono valutati sulla stessa banca dati con cui sono stati allenati. Basta qualche leggera variazione perché l'efficacia si riduca in maniera sensibile. Ma soprattutto ha messo nero su bianco che confonderli è un gioco da ragazzi, come conferma Mauro Conti, docente del dipartimento di matematica dell'università di Padova e uno degli autori dello studio pubblicato su arXiv, il database dove vengono presentate le bozze degli articoli scientifici. Gli scienziati li hanno, infatti, gabbati uno dopo l'altro usando tecniche tutt'altro che complesse: chiunque può sfruttarle.
"Il primo approccio è stato quello di cambiare le parole - prosegue Conti -, inserendo dei piccoli errori". Come digitare "bafta" al posto di "basta". In secondo luogo, hanno aggiunto o rimosso degli spazi tra le lettere. Poi le hanno sostituite con dei numeri: ad esempio, R3pubblica invece di Repubblica. Infine, hanno interrotto il messaggio d'odio con delle parole d'amore random: "Meriti di morire, tanto amore". Da qui anche il titolo, ironico, della ricerca che rimanda alla celebre canzone dei Beatles: "All you need is love", "Tutto quello di cui hai bisogno è amore". Anche se c'è da scrivere un messaggio d'odio.
Metodi semplici, insomma, che hanno funzionato. Un risultato che dà ulteriori motivi per mettere in dubbio l'impiego dei filtri automatici nella battaglia al cosiddetto hate speech. "I sistemi sono perfettibili, certo, ma al momento non esistono buone soluzioni che siano in grado di svolgere questi compiti. E lo stesso vale nell'ambito delle notizie false, come abbiamo dimostrato in una ricerca precedente". Uno studio che si proponeva di creare un sistema in grado di identificare una fake news attraverso la sua diffusione, senza entrare nel merito del contenuto: quanti e come la propagano, condividono e commentano. Ma non ha raggiunto i risultati sperati, "segno che è impossibile pensare, ad ora, ad un impiego automatico sui social network", conclude Conti.
La possibile conseguenza negativa, oltre all'incapacità di bloccare effettivamente i messaggi d'odio, è di censurare contenuti assolutamente inoffensivi. Ipotizziamo, per esempio, uno dei migliori scenari possibili: un software capace di rilevare l'hate speech con il 99.995 percento di accuratezza. Considerato che ogni giorno su YouTube vengono caricati sei milioni di video, questa percentuale si tradurrebbe in centinaia di filmati rimossi per sbaglio quotidianamente. Altro che rete libera.
lascia un commento
Video del giorno
Notizie
  • Ultimo
  • Leggere
  • Commentate
Calendario Materiali
«    Ноябрь 2018    »
ПнВтСрЧтПтСбВс
 1234
567891011
12131415161718
19202122232425
2627282930