L'IA potrebbe rendere i troll di Internet una cosa del passato?

Pubblicato il:

aggiornato:

L'età del troll di Internet potrebbe presto finire, come hanno fatto i ricercatori di Caltech e Stanford gettato le basi per un efficace strumento di intelligenza artificiale che le reti di social media potrebbero eventualmente utilizzare per contrassegnare l'odio e le molestie online.   

Questo è particolarmente importante oggi, come molti credono che abbia avuto un aumento della retorica odiosa online stanza fatta per frequenti sparatorie di massa e crimini violenti. 

Sebbene molti siti di social media si siano già rivolti all'intelligenza artificiale per monitorare i discorsi di odio e le molestie sulle loro piattaforme, i metodi esistenti sono tutt'altro che impeccabili.

In un recente studio, i ricercatori dell'Università di Washington hanno scoperto che uno dei principali strumenti di intelligenza artificiale progettato per raccogliere discorsi di odio aveva una propensione razziale contro gli afroamericani. Hanno scoperto che i tweet avevano una probabilità e mezzo più probabilità di essere etichettati come "offensivi" quando venivano scritti da persone di colore. Ed erano circa due volte più probabilità di essere etichettati come "offensivi" quando scritti in quello che i ricercatori chiamavano "inglese americano africano". 

Un separato studio condotto da ricercatori Cornell ha rivelato risultati simili. 

In primo luogo, ciò è dovuto al fatto che molti strumenti di intelligenza artificiale esistenti si basano su parole chiave e non sono efficaci nella misurazione del contesto. La "n-parola", ad esempio, può essere odiosa o accattivante a seconda della fascia demografica da cui è usata. Quindi segnalare qualcosa fuori dal contesto, rigorosamente basato sulle parole usate, non è una soluzione efficace. 

"Questi sistemi sono stati sviluppati per identificare il linguaggio utilizzato per indirizzare le popolazioni emarginate online", ha affermato Thomas Davidson, dottorando in sociologia e autore principale dello studio Cornell comunicato stampa. "È estremamente preoccupante se gli stessi sistemi stessi discriminano la popolazione per la quale sono progettati per proteggere".

Per integrare gli strumenti di intelligenza artificiale esistenti, molti siti di social media dipendono anche dai loro utenti per segnalare discorsi offensivi e odiosi. Tuttavia, non è chiaramente una soluzione efficace a lungo termine.  

"Non è scalabile che gli esseri umani provino a fare questo lavoro a mano e quegli esseri umani sono potenzialmente di parte", ha detto Maya Srikanth, una giovane del Caltech e coautrice dello studio Caltech / Stanford, in un comunicato stampa. "D'altra parte, la ricerca per parole chiave risente della velocità con cui si evolvono le conversazioni online. Nuovi termini spuntano e vecchi termini cambiano significato, quindi una parola chiave che è stata usata sinceramente un giorno potrebbe essere intesa in modo sarcastico il giorno successivo. "

Quindi, invece, il suo team ha utilizzato un modello GloVe (Global Vectors for Word Representation) per scoprire parole chiave nuove e pertinenti. 

GloVe è un modello che include parole. A partire da una parola, può essere utilizzato per trovare gruppi di termini che sono linguisticamente e semanticamente correlati alla parola originale. Ad esempio, quando i ricercatori hanno utilizzato il modello GloVe per cercare su Twitter gli usi di "MeToo", sono comparsi gruppi di hashtag correlati, tra cui "SupportSurvivors", "Not Silent" e "I'm With Her". Questo modello offre ai ricercatori capacità di tracciare parole chiave e frasi mentre si evolvono nel tempo e permette loro di trovarne di nuove man mano che emergono. 

GloVe considera anche il contesto, mostrando in che misura le parole chiave specifiche sono correlate e dando input al modo in cui le parole vengono utilizzate. Ad esempio, in un forum Reddit online utilizzato da un gruppo di attivisti per i diritti degli uomini anti-femministi, il modello ha determinato che il termine "femmina" veniva usato più comunemente con parole come "rapporto", "negativo" e "sessuale". Ma in Twitter post sul movimento "MeToo", il termine "femmina" era più comunemente vicino a parole come "aziende", "desiderio" e "capitalista".

Attualmente, lo studio fornisce una prova del concetto, dimostrando che esiste un modo più potente ed efficace per individuare le molestie online. Dopo ulteriori test, tuttavia, il team spera che le sue scoperte possano essere utilizzate per liberare Internet dai troll, rendendo i siti di social media posti per conversazioni di supporto e produttive piuttosto che abusive. 

Anima Anandkumar, coautrice dello studio e Bren Professor of Computing and Mathematical Sciences al Caltech, ha spiegato che nel 2018 si è trovata vittima di molestie online. "È stata un'esperienza illuminante su quanto possa essere brutto il trolling", ha detto in un comunicato stampa. "Si spera che gli strumenti che stiamo sviluppando ora aiuteranno a combattere tutti i tipi di molestie in futuro."

Prova GRATUITA di 6 mesi

Quindi, goditi Amazon Prime a metà prezzo - 50% di sconto!

TUN AI – Il tuo assistente educativo

TUNAI

Sono qui per aiutarti con borse di studio, ricerca universitaria, lezioni online, aiuti finanziari, scelta delle specializzazioni, ammissione all'università e consigli di studio!

La Rete Università