L'intelligenza artificiale tra prospettive di integrazione e implicazioni etiche. Intervista a Diletta Huyskes

L'intelligenza artificiale tra prospettive di integrazione e implicazioni etiche. Intervista a Diletta Huyskes

L'integrazione dell'intelligenza artificiale nei processi produttivi e nell'ambito della formazione ha grandi potenzialità, ma ci invita a profonde valutazioni di carattere etico e sociale. Uno sviluppo consapevole e responsabile è essenziale per garantire il rispetto dei diritti e promuovere un progresso davvero condiviso. Ne abbiamo parlato con Diletta Huyskes, ricercatrice nell'ambito dell'etica delle tecnologie e dell'intelligenza artificiale.

16/06/2023 , tempo di lettura 6 minuti

Quella che le intelligenze artificiali ci lanciano è davvero una sfida innanzitutto alla nostra, di intelligenza. Un’intelligenza tutta umana, chiamata a calcolare e prevedere le complesse implicazioni etiche, sociali e culturali dell’integrazione di tecnologie ad alto potenziale trasformativo che spesso, nella polarizzazione emotiva tra la posizione apocalittica e quella integrata, non vengono analizzate con sufficiente cognizione e pensiero critico. Del resto, in questo ambito lo sviluppo tecnologico e la sua integrazione stanno correndo più veloci della nostra capacità di progettare percorsi ad hoc per formare nuove professionalità in grado di effettuare valutazioni sul loro impatto sulla società, e certamente più veloci del processo di alfabetizzazione delle persone e dell’opinione pubblica su potenzialità e criticità delle intelligenze artificiali. 

Eppure l’attualità ci suggerisce l’urgenza di una nuova e diffusa presa di consapevolezza, al fine di confermare l’umano - i suoi diritti, i suoi bisogni, il suo pieno sviluppo - come protagonista del progresso tecnologico. Lo suggeriscono non soltanto la cronaca recente sul caso ChatGPT - la generative IA prodotta da OpenAI al centro della disputa con il Garante per la protezione dei dati personali - ma anche le cifre, per esempio, del settore EdTech, e più in generale Education, uno dei fronti di integrazione dell’IA che presenta maggiori potenzialità ma anche criticità da saper valutare. Basti pensare che il mercato dell’EdTech vale già $340 miliardi e che la formazione aziendale (che per McKinsie è per il 75% digital) è un fronte caldo sul quale si stanno concentrando sempre più fondi ed energie. Sono 350 milioni in tutto il mondo lə lavoratorə che, a causa dello skills gap, in particolare rispetto alle competenze digitali, non sono adeguatamente formatə per svolgere il proprio lavoro. Con ricadute importanti non solo sul piano economico, ma anche su quello culturale, sociale, etico. 

Per questo, quello dell’integrazione delle intelligenze artificiali è un tema che Feltrinelli Education già da tempo presidia con entusiasmo e grande attenzione: vi si intersecano indissolubilmente cultura e sviluppo, responsabilità, creatività, crescita, comunità. Per approfondire e cercare di immaginare le possibili implicazioni dell’integrazione dell’IA nella nostra società, abbiamo intervistato Diletta Huyskes, ricercatrice in Sociologia presso l’Università degli Studi di Milano e Universiteit Utrecht

Nella sua attività di ricerca e divulgazione, Diletta Huyskes si occupa dell'impatto sociale e dell'etica delle tecnologie, e in particolare di intelligenza artificiale, AI bias, fenomeni discriminatori. È la responsabile Advocacy & Policy di Privacy Network, associazione italiana che opera nel campo dei diritti digitali, dove coordina attività di sensibilizzazione per i cittadini e le istituzioni. Ha co-fondato ed è co-CEO di Immanence, società benefit che valuta le tecnologie digitali e offre soluzioni per renderle etiche e responsabili. Ha lavorato alla Fondazione Bruno Kessler come eticista dei dati.


L’intelligenza artificiale offre, a tuo avviso, opportunità interessanti nell’ambito della formazione e dell’educazione? Penso, per esempio, alla costruzione di percorsi formativi su misura di ciascunə discente, che tengano conto della sua storia, dei suoi incontri, dei suoi interessi. In questo caso, come dovrebbe essere progettata la formazione dellə insegnanti per affrontare l'integrazione dell'intelligenza artificiale nell'ambiente educativo, e quali competenze e conoscenze specifiche dovrebbero acquisire per massimizzarne i benefici e minimizzarne i rischi?

Questo campo di applicazione è certamente tra i più interessanti, sia per le sue implicazioni culturali, sia perché quello dell’edu-tech è uno dei settori in maggiore crescita. Una delle applicazioni più innovative dell’IA nella formazione è certamente la possibilità di costruire percorsi di formazione personalizzati per lə studenti, in base alle loro esigenze, il loro percorso, le loro aspirazioni. Si tratta di una prospettiva stimolante e rivoluzionaria e l’obiettivo sarebbe quello di avere gli strumenti per valutare lə studenti in modo più personalizzato e attento. Ci sono però delle problematicità e dei rischi, e noi dobbiamo sempre fare lo sforzo di immaginare i possibili risvolti deteriori dell’applicazione delle IA. Il fatto di personalizzare e analizzare l’apprendimento e i suoi risultati in modo così verticale è rischioso perché implica una categorizzazione netta e profonda dell’individuo. Riporto il caso, su cui ho lavorato personalmente, di una regione italiana che, durante la pandemia, voleva creare curricula scolastici automatici per lə studenti per consigliarlə circa le loro scelte future; ma è dimostrato che queste applicazioni, se non adeguatamente sorvegliate, trasformano lə studenti meno performanti in target, in soggetti da attenzionare continuamente come elementi fragili, e immaginiamo quanto questa attenzione possa diventare pesante e discriminatoria se per caso lə studente presenta caratteristiche che possono far supporre il rischio di abbandono scolastico precoce. Lə studente viene bollato e classificato, questo non è d’aiuto ed è discriminatorio perché gli elementi presi in considerazione dalla macchina si riferiscono spesso al suo background, con tutte le implicazioni che possiamo immaginare. Un altro problema poi, di carattere tecnico, è che questi strumenti andrebbero programmati tenendo conto delle specificità delle località alle quali sono destinati, ma ciò non avviene. Oggi, molti di questi applicativi sono sviluppati soprattutto negli USA, da programmatorə americanə che conoscono il contesto americano, per essere poi utilizzati anche da noi, che abbiamo però una storia e delle esigenze differenti. Del resto, è anche difficile immaginare di utilizzare lo stesso strumento tra regioni italiane differenti: il contesto socio culturale di ciascuna comunità modifica completamente le esigenze e i percorsi dellə discenti. Il rischio di utilizzare per tuttə gli stessi strumenti è di lasciare indietro moltə di loro, e di allargare i divari. Il problema di fondo, insomma, è un paradosso. Vorremmo utilizzare le macchine per analizzare e valorizzare varietà e specificità, ma le macchine funzionano esattamente al contrario: generalizzano e creano raggruppamenti il più possibile coerenti. Per questo è sempre indispensabile la discrezionalità umana. 

Lo stop a ChatGPT imposto in un primo momento dal Garante, poi revocato in seguito all’adeguamento del servizio agli standard di privacy compliance richiesti dall’organo di sorveglianza, ha suscitato reazioni anche opposte, ma da più parti si è detto che possa indicare la strada a una via europea alla regolamentazione delle intelligenze artificiali. Qual è il tuo punto di vista e, più in generale, qual è lo stato dell’arte - in Italia e in Europa - delle regolamentazioni dell’utilizzo delle intelligenze artificiali rispetto alla tutela della privacy?

Proprio nel periodo in cui si è consumato quello scontro tra OpenAI, produttore di ChatGPT, e il Garante italiano io mi trovavo qui in Olanda per lavoro. Lì ho percepito grande interesse ed entusiasmo per l’intervento del nostro Garante. Su questa vicenda l’opinione pubblica italiana invece si è divisa e frequentemente ho sentito lamentare la dimensione politica della risoluzione del garante, secondo questa tendenza diffusa a credere che rispetto alla gestione delle tecnologie sia sbagliato operare scelte politiche. In realtà, a mio modo di vedere, l’intervento politico va rivendicato: la tecnologia non può autodeterminarsi, viceversa va regolamentata attraverso scelte umane e nell’interesse collettivo, dunque attraverso scelte politiche. Sono quindi stata favorevole a questo intervento, anche perché le generative AI si diffonderanno sempre di più ed è importante porre le basi ora di una loro corretta regolamentazione. Il Garante ci ha ricordato che la tecnologia non è superiore all’azione umana che la plasma e che dunque questa azione ha delle responsabilità. Ci ha dimostrato, anche, che non c’è alcun autodeterminismo tecnologico e che non è vero che lə stessə sviluppatorə non possono controllare pienamente le operazioni di queste macchine. Sono statə perfettamente in grado di rispondere alle richieste del garante, dimostrando di essere in controllo della macchina. Infine, differentemente da quanto raccontano i media, non è certo il caso ChatGPT ad aver posto le basi per le regolamentazioni future: questo percorso è iniziato almeno due anni fa e porterà a una legge europea, l’AI Act. 

Intelligenze artificiali con pregiudizi tutti umani. Sappiamo che gli algoritmi assimilano e sviluppano i cosiddetti AI bias, perpetrando i medesimi criteri discriminatori che la nostra cultura fatica a superare. Ci puoi spiegare come questo accada e quali sono le implicazioni di questo fenomeno in relazione a possibili applicazioni delle IA?

Come dici, i pregiudizi sono tutti umani. Innanzitutto perché siamo noi a programmare e controllare le macchine, seppure alcune tecnologie siano così complesse da rendersi difficilmente scrutinabili. Rimane però indubbio che l’input iniziale all’addestramento degli algoritmi viene dato dagli esseri umani. Ciò comporta, evidentemente, che la macchina apprenda e si sviluppi a partire dalle nostre opinioni e dalle nostre credenze, spesso intrisi di pregiudizi e bias, replicandoli.

Proviamo a riflettere su un possibile campo di applicazione dell’intelligenza artificiale di cui qui in Olanda sono pionierə a livello mondiale: il welfare pubblico e, in particolare, la valutazione di possibili profili di frode nell’assegnazione dei sussidi. Da tempo la Pubblica Amministrazione dei Paesi Bassi utilizza l’intelligenza artificiale per identificare lə cittadinə sospetti di ricevere servizi di welfare in modo fraudolento, cioè non essendone legittimə assegnatariə. Questi casi possono rivelare chiaramente come il pensiero discriminatorio si rifletta sugli algoritmi, perché come dimostra lquesto caso replicano il pregiudizio comune su donne, persone con doppia nazionalità e background migratorio, giovani. Un altro elemento di principale sospetto è la scarsa conoscenza dell’olandese, che fa supporre alla macchina che la domanda per i sussidi possa essere stata fraintesa e compilata erroneamente. Capiamo però quanto questo sia rischioso: la categorizzazione sommaria delle macchine trasforma tutte le persone che non parlano bene olandese in probabili truffatorə. Il funzionamento dell’algoritmo è viziato da almeno due fattori alla base. 

Il primo è la composizione stessa dei team di sviluppatorə. Diversi studi dimostrano che le persone che li compongono nutrono notevoli pregiudizi razzisti e sessisti, cioè più in generale i medesimi unconscious bias dell’opinione pubblica. Trovandosi, però, in una posizione di responsabilità che non comprendono fino in fondo: si tratta per lo più di data scientists non formatə adeguatamente per identificare e prevenire l’impatto sociale del loro lavoro, e ciò li porta a programmare le intelligenze artificiali senza porsi troppe domande, senza problematizzare il loro sistema di credenze. 

Il secondo problema è invece legato a quello che io definisco “paradosso dell’innovazione”. È il paradosso per cui pensiamo di produrre innovazione addestrando le macchine con dati storici che fotografano il passato e non il presente, attualizzando vecchie discriminazioni e condizioni di svantaggio. Un caso scuola è quello di una donna single con due figli a carico e background migratorio: secondo la categorizzazione delle macchine verrà valutata come un soggetto ad alto rischio di essere, per esempio, una cattiva debitrice e, con ogni probabilità, non riceverà un prestito che per lei sarebbe stato indispensabile. Interessante infine notare come le discriminazioni si stratifichino: ciascuna (donna, giovane, migrante) aggiunge un fattore di rischio, secondo la ratio dell’algoritmo, accrescendo per rapporto diretto l’emarginazione della soggettività in questione. 

Quale ruolo gioca l’educazione - e quali approcci educativi reputi necessari - nell'affrontare le questioni etiche correlate all'intelligenza artificiale, e quali competenze etiche dovrebbero essere incorporate nei programmi di formazione dellə sviluppatorə e dellə utenti di tecnologie IA?

La formazione nel settore della valutazione dell’impatto sociale delle IA è molto indietro: io stessa, che mi occupo di questi argomenti proprio dal lato della sensibilizzazione,  e della valutazione ho dovuto crearmi un percorso nuovo, in modo originale. Non c’è dunque un percorso formativo pensato per una figura simile, non esiste un curriculum per formare chi dovrebbe formare.

Intervenire sullə sviluppatorə è invece più semplice, perché si possono preparare lezioni e workshop, percorsi formativi ritagliati su misura del team che si ha davanti. Ed è importante sottolineare proprio questo: un’azione formativa efficace non può limitarsi allə solə programmatorə e data scientists; deve invece rivolgersi a tutto il team, a tutte le figure e lə stakeholders. L’approccio deve essere pratico e contestuale: si parte da casi specifici, da problemi reali che ciascunə professionista potrebbe incontrare nella propria vita professionale, per cercare di analizzare ogni implicazione e possibile conseguenza delle proprie scelte. I percorsi che vedo in giro, invece, vanno un po’ in direzione opposta: iniziano anche a esserci interessanti corsi di etica in alcune facoltà tecniche, ma tendenzialmente si occupano di princìpi astratti (trasparenza, responsabilità, spiegabilità) più che di pratiche. E infatti il termine stesso, “etica”, è a mio modo di vedere fuorviante. Parlerei piuttosto di responsabilità, proprio perché si parla di casi specifici, di problemi, di pratiche. Per me bisogna inoltre sottolineare che non è possibile affidare tutta questa responsabilità allə tecnichə, seppure è importante che anche loro posseggano delle conoscenze di base. Il lavoro tecnico non è autonomo e automatico, ma va affiancato da professionistə formatə per la valutazione e il controllo degli impatti sociali della tecnologia: si tratta di un vero e proprio altro lavoro per il quale serve una formazione specifica. 

Per quanto riguarda la formazione dellə utenti, il discorso è più complicato perché interseca questioni culturali, mediatiche, politiche. Molti paesi stanno iniziando a organizzare corsi, seminari e occasioni educative per le comunità. In Italia siamo molto indietro e i media, purtroppo, stanno facendo male. Si tratta di agire culturalmente sulla consapevolezza collettiva della centralità della discrezionalità umana nell’utilizzo delle IA. 


Registrati alla newsletter

Segui Arianna, la newsletter di Feltrinelli Education per
non perdersi nel cambiamento: gratis, settimanale, per te!
Segui Arianna