Una nuova metodologia di intelligenza artificiale dell'Università di Navarra mira a eliminare i pregiudizi in aree decisionali critiche come salute, istruzione e reclutamento. Questo nuovo approccio migliora l'equità e l'accuratezza, aprendo la strada a applicazioni di intelligenza artificiale più etiche.
Un team di ricercatori del Data Science and Artificial Intelligence Institute (DATAI) presso l'Università di Navarra ha sviluppato una nuova metodologia per migliorare l'equità e l'affidabilità nei modelli di intelligenza artificiale utilizzati per il processo decisionale critico. Queste decisioni hanno un impatto significativo sulla vita degli individui e sulle operazioni delle organizzazioni, in particolare in settori quali sanità, istruzione, giustizia e risorse umane.
Il framework, creato da Alberto García Galindo, Marcos López De Castro e Rubén Armañanzas Arnedillo, si concentra sull'ottimizzazione dei parametri dei modelli di apprendimento automatico per migliorare la trasparenza e garantire l'affidabilità delle loro previsioni.
Affrontando e riducendo le disuguaglianze legate ad attributi sensibili come razza, genere o status socioeconomico, la nuova metodologia di intelligenza artificiale promette di fornire risultati più equi senza sacrificare la precisione.
"L'uso diffuso dell'intelligenza artificiale in ambiti sensibili ha sollevato preoccupazioni etiche a causa di possibili discriminazioni algoritmiche", ha affermato Armañanzas Arnedillo, ricercatore principale presso il DATAI dell'Università di Navarra, in un comunicato stampa. “Il nostro approccio consente alle aziende e ai decisori politici pubblici di scegliere modelli che bilanciano efficienza ed equità in base alle loro esigenze, rispondendo alle normative emergenti. Questa svolta fa parte dell'impegno dell'Università di Navarra nel promuovere la Filosofia del manager AI, promuovendo l'uso etico e trasparente di questa tecnologia”.
Nel loro studio, pubblicato sulla rinomata rivista Machine Learning, il team ha combinato tecniche di previsione all'avanguardia note come previsione conforme con algoritmi di apprendimento evolutivo ispirati ai processi naturali.
Questa combinazione dà vita ad algoritmi che forniscono rigorosi livelli di affidabilità, garantendo al contempo un trattamento equo tra i diversi gruppi sociali e demografici.
La metodologia è stata rigorosamente testata su quattro set di dati di riferimento provenienti da diversi domini del mondo reale, tra cui reddito economico, recidiva criminale, riammissione in ospedale e domande di iscrizione scolastiche.
I risultati sono stati promettenti e hanno mostrato una significativa riduzione delle distorsioni senza compromettere l'accuratezza predittiva.
"Nella nostra analisi abbiamo trovato, ad esempio, evidenti distorsioni nella previsione delle ammissioni scolastiche, che mostrano una significativa mancanza di equità basata sullo stato finanziario della famiglia", ha aggiunto il primo autore García Galindo, un ricercatore predottorale DATAI. "A loro volta, questi esperimenti hanno dimostrato che, in molti casi, la nostra metodologia riesce a ridurre tali distorsioni senza compromettere la capacità predittiva del modello. In particolare, con il nostro modello abbiamo trovato soluzioni in cui la discriminazione è stata praticamente completamente ridotta, mantenendo l'accuratezza delle previsioni".
Questa metodologia introduce anche un "fronte di Pareto" di algoritmi ottimali, consentendo alle parti interessate di visualizzare le migliori opzioni disponibili in base alle loro priorità e di comprendere meglio la relazione tra correttezza e accuratezza algoritmica.
I ricercatori ritengono che il potenziale impatto di questa innovazione sia enorme, soprattutto nei settori in cui l'intelligenza artificiale deve supportare in modo affidabile ed etico i processi decisionali critici.
García Galindo ha aggiunto che la loro “metodologia non solo contribuisce all’equità, ma consente anche una comprensione più approfondita di come la configurazione dei modelli influenza i risultati, il che potrebbe guidare la ricerca futura nella regolamentazione degli algoritmi di intelligenza artificiale”.
Per promuovere ulteriori ricerche e la trasparenza in questo campo in continua evoluzione, i ricercatori hanno reso pubblici il codice e i dati del loro studio.