Il bias dell’algoritmo

Il bias dell’algoritmo

Siamo abituati a pensare agli algoritmi come dei meccanismi oggettivi e non influenzabili, ma è veramente così? Scopriamolo insieme.

22/12/2020 , tempo di lettura 6 minuti

 

Un’idea diffusa – e forse un po’ “magica” – riguardo alla potenza della tecnologia, alle capacità dell’intelligenza artificiale e degli algoritmi, vuole che le scelte e le indicazioni provenienti dalle macchine siano asettiche, neutrali e basate esclusivamente su un calcolo oggettivo delle informazioni a disposizione.  


Quanto l’uomo influenza l’algoritmo?

 

Facciamo qualche esempio: nel 2016 ProPublica, testata Usa che si occupa di giornalismo investigativo, pubblicò un’inchiesta su COMPAS, acronimo di Correctional Offender Management Profiling for Alternative Sanctions, un software utilizzato per valutare il rischio di recidiva violenta e non, da parte di persone detenute per aver commesso diversi tipi di reati. L’analisi mostrò come il sistema tendesse, ad esempio, ad assegnare un rischio maggiore a condannati afro-americani rispetto ai bianchi. Questi ultimi, al contrario, risultavano avere un punteggio più basso rispetto al tasso di recidiva reale.  

 

Ma essere afro-americani comporta degli svantaggi anche nell’ambito della sharing economy: uno studio condotto da tre studiosi della Harvard Business School, Benjamin Edelman, Michael Luca e Dan Svirsky, afferma infatti che un cittadino afro-americano ha il 16% in meno di possibilità di essere accettato come ospite di un alloggio affittato tramite Airbnb. 

 

O ancora è interessante anche osservare come alcuni prodotti, forse i più noti, basati sull’intelligenza artificiale come gli assistenti vocali abbiano prevalentemente caratteristiche femminili – esattamente come nella realtà, tutt’oggi, i ruoli di segretaria e assistente siano quasi sistematicamente gestiti da donne.  

E queste caratterizzazioni, come nota Ella Marciello, non solo ricalcano l’idea della donna come dispensatrice di cure, ma anche quella di soggetto remissivo e incline alla tolleranza, programmato per assecondare persino battute o domande allusive. 

 

Apprendimento del pregiudizio

 

Come se non bastasse, la situazione si aggrava se pensiamo che il machine learning consente ai software di apprendere dalle interazioni e di evolversi di conseguenza: questo significa che una distorsione “installata” in fase di programmazione nel tempo rischia di essere rinforzata o peggiorata, continuando a perpetrare discriminazioni già presenti nella nostra società. 

 

Tutto questo accade perché software e algoritmi sono vincolati da ciò che c’è a monte: come raccontavamo la scorsa settimana parlando di “Invisibili” [link al pezzo], una carenza di dati a monte influenza il risultato di una valutazione e delle conseguenti scelte. Questo vale per i decisori umani come per quelli artificiali. 

Come dimostrano gli esempi sopra, i pregiudizi sul genere, la razza, l’orientamento sessuale, la religione, le convinzioni politiche o l'origine geografica finiscono, magari inconsapevolmente, nell’impostazione del sistema e influenzano a loro volta ciò che dipende da essi. 

 

Smontato il mito dell’imparzialità, la risposta non è che semplicemente di segno opposto – ossia, diciamo addio all’intelligenza artificiale perché “pericolosa” – ma ci pone invece una sfida di livello più elevato: acquisire consapevolezza personale e professionale per evitare di trasferire al software le nostre distorsioni cognitive.  

Cosa abbiamo in Evidenza per te