Il nuovo "Filtro privacy" protegge le informazioni personali online

Pubblicato il:

aggiornato:

Ogni volta che tu, la tua famiglia o i tuoi amici caricate una foto o un video su una piattaforma di social media, gli algoritmi di riconoscimento facciale imparano di più su chi siete, chi conoscete e dove siete.

Per tenere conto delle preoccupazioni sulla privacy delle persone, i ricercatori dell'Università di Toronto (U of T) hanno sviluppato un algoritmo che può interrompere i sistemi di riconoscimento facciale e vietare ai sistemi di apprendere di più su di te.

Lo studio completo, che spiega l'algoritmo, è disponibile qui.

"Siamo in grado di ingannare una classe di algoritmi all'avanguardia per il rilevamento dei volti attaccandoli negativamente", ha detto Avishek Bose, uno studente laureato nel Dipartimento di elettrica e
Computer Engineering presso U of T e coautore dello studio.

"La privacy personale è un vero problema in quanto il riconoscimento facciale diventa sempre meglio", Parham Aarabi, professore associato presso il Dipartimento di Ingegneria Elettrica e Informatica presso la U of T e coautore dello studio, ha dichiarato in una nota. "Questo è un modo in cui i sistemi di riconoscimento anti-facciale utili possono combattere tale abilità."

La tecnica

La soluzione del team consiste nel far competere due algoritmi di intelligenza artificiale, un rilevatore di volti e un generatore di contraddittorio, ha spiegato Bose.

Il rilevatore di volti lavora per identificare i volti e il generatore di contraddittorio lavora interamente per interrompere il rilevatore di volti.

"Il rilevatore di volti non ha alcuna conoscenza dell'esistenza del generatore contraddittorio, mentre il generatore impara nel tempo come ingannare con successo il rilevatore", ha affermato Bose. "Inizialmente il generatore è molto cattivo nel farlo, ma impara osservando i suoi errori, come determinato dall'uscita del rilevatore di volti."

Il generatore di contraddittorio alla fine arriva a un punto in cui è in grado di ingannare il rilevatore di volti quasi lo 99 percento delle volte.

In sostanza, i ricercatori hanno creato un filtro simile a Instagram che può essere applicato alle foto per proteggere la privacy personale.

Il nuovo algoritmo apporta lievi modifiche ai pixel in un'immagine che sono impercettibili per l'uomo, ma in grado di ingannare un rivelatore di volti all'avanguardia.

"L'IA dirompente può" attaccare "ciò che la rete neurale per il rilevamento del volto sta cercando", ha affermato Bose in una nota. “Se l'IA di rilevazione sta cercando l'angolo degli occhi, ad esempio, regola l'angolo degli occhi in modo che siano meno evidenti. Crea disturbi molto sottili nella foto, ma per il rivelatore sono abbastanza significativi da ingannare il sistema. "

I ricercatori hanno testato il loro sistema su un pool di facce 600, tra cui diverse etnie, ambienti e condizioni di illuminazione diverse.

Il sistema ha effettivamente ridotto la quantità di dispositivi di riconoscimento dei volti che erano originariamente in grado di rilevare da quasi il 100 percento al solo 0.5 percento.

Inoltre, la tecnologia può interrompere la ricerca basata sull'immagine, la stima dell'etnia, l'identificazione delle caratteristiche, l'emozione e qualsiasi altro attributo basato sul volto che può essere estratto automaticamente.

Motivazione

Questo studio è stato suscitato dall'interesse di Aarabi e Bose nella ricerca delle modalità di fallimento dei moderni algoritmi di rilevamento e riconoscimento del volto basati sull'apprendimento profondo.

"Inizialmente abbiamo iniziato testando questi algoritmi in condizioni estreme come sfocatura, luminosità e oscurità", ha affermato Bose.

Dai loro esperimenti, i ricercatori hanno notato che anche le immagini in condizioni decenti possono occasionalmente causare guasti ai dispositivi, che si collegano bene con una parte della nuova letteratura sugli attacchi contraddittori, ha spiegato Bose.

"Essenzialmente un attacco avversario provoca piccoli e spesso impercettibili cambiamenti nell'immagine di input, che fa fallire catastroficamente i modelli di apprendimento automatico", ha affermato Bose.

"Questo è un fenomeno noto in molti modelli di apprendimento profondo ma non è mai stato studiato nel contesto dei sistemi di rilevamento / riconoscimento facciale".

Qual è il prossimo passo?

Aarabi e Bose desiderano estendere questo stile di attacco ad altre classi di rivelatori. Sebbene ciò possa essere difficile o impossibile in alcuni casi, l'obiettivo principale è comprendere e caratterizzare il concetto.

Una volta che i ricercatori sono riusciti a svolgere questo compito contro più classi di rivelatori, è possibile creare uno strumento, ma sono ancora lontani da questo, ha affermato Bose.

"In futuro puoi immaginare un'app che applica questo filtro per la privacy alle tue foto prima di caricarlo su Internet", ha spiegato.

Ma al momento, molte ricerche devono ancora essere fatte.

"Il nostro documento è solo il punto di partenza piuttosto che qualcosa di simile all'obiettivo finale", ha affermato Bose.

Bose vorrebbe notare che mentre i ricercatori erano in grado di ingannare un algoritmo di rilevamento del viso all'avanguardia, non affermano ancora di essere in grado di attaccare ogni singolo dispositivo di rilevamento del viso.

"Questo è un piccolo passo verso un obiettivo più ampio in cui autorizziamo l'utente a proteggere la propria privacy se lo desidera", ha affermato Bose.

Prova GRATUITA di 6 mesi

Quindi, goditi Amazon Prime a metà prezzo - 50% di sconto!

TUN AI – Il tuo assistente educativo

TUNAI

Sono qui per aiutarti con borse di studio, ricerca universitaria, lezioni online, aiuti finanziari, scelta delle specializzazioni, ammissione all'università e consigli di studio!

La Rete Università