Skip to main content
ChatGPT Articoli

L’intelligenza artificiale è in crisi di diversità

Le disuguaglianze e i pregiudizi nel settore dell’Ia e quattro iniziative per contrastarli

Maria Frega

Giornalista

By Giugno 2023Nessun commento
fotografia del reportage di Claudio Colotti durante l'alluvione in Emilia Romagna
Fotografia di Claudio Colotti

Un’auto a guida autonoma testata sui viali della Silicon Valley saprebbe affrontare le infrastrutture dissestate del Ghana? Il prossimo robot avrà le capacità per comunicare con una persona non vedente? Si può fare ricerca medica quando mancano i dati di ogni singolo Paese del mondo? Un sistema penale del futuro, basato su algoritmi, sarà in grado di superare i pregiudizi applicati in passato? La risposta è no. Per il momento.

Mai come in questi primi mesi del 2023 stiamo assistendo all’evoluzione rapidissima dell’intelligenza artificiale (Ia). E le discussioni e i moniti sulle derive delle sue applicazioni non sono mai apparse così realistiche. I timori non riguardano solo la minaccia alla privacy, la perdita di posti di lavoro. Ci sono rischi di natura culturale, persino emotiva, che potrebbero coinvolgere gruppi sociali molto ampi. Il tema è la rappresentazione delle diversità, il riconoscimento e la capacità di far emergere le competenze di lavoratrici e lavoratori appartenenti a minoranze. Una missione comune guida l’impegno delle comunità che aggregano persone oggi scarsamente rappresentate: abbattere i pregiudizi già innestati nella tecnologia del machine learning, nell’accesso alla ricerca e nella trasmissione della conoscenza. Il timone della rivoluzione tecnologia è senza dubbio in mano a chi già dispone di poteri decisionali ed economici. Saranno proprio coloro che celebriamo come innovatori i più ostinati conservatori?

Un “disperato bisogno” di partecipazione

Il settore delle tecnologie innovative ha “un disperato bisogno” di persone provenienti da gruppi sottorappresentati per garantire disponibilità e vantaggi universali. Con questa premessa, la giornalista statunitense Rachel Crowell ha pubblicato su Nature un articolo dal titolo “Perché la crisi della diversità dell’Ia è importante e come affrontarla” [1], presentando quattro testimonianze di altrettanti ricercatori di machine learning che lottano contro la diversity crisis, per un ecosistema Ia più attento a non replicare pregiudizi.

Solo il 18 per cento dei relatori nelle conferenze più importanti sull’intelligenza artificiale e solo il 20 per cento di docenti della stessa disciplina è donna. Sul fronte aziendale non va meglio: il personale femminile nei reparti di Ia di Facebook non supera il 15 per cento; in Google le ricercatrici rappresentano un residuo 10 per cento. Sono i dati emersi dal rapporto del 2019 dell’Ai Now institute [2] della New York university, ente di ricerca indipendente, nato su ispirazione di Barack Obama, che analizza la concentrazione di potere nel settore tecnologico.

Saranno proprio coloro che celebriamo come innovatori i più ostinati conservatori?

Secondo gli ultimi dati dell’Unesco [3], nel mondo le donne sono meno del 30 per cento dei ricercatori. E, sebbene le studentesse di discipline stem (science, technology, engineering, mathematics) aumentino di anno in anno, nel campo dell’informatica l’appianamento del divario di genere tende a essere più lento. Vale sia per il mondo della ricerca nelle Ia sia per il settore privato correlato. Un esempio, tra molti, ha interessato l’azienda a più alto tasso di automazione. Nel 2018 un’inchiesta della Reuters [4] raccontò del sistema sperimentale sviluppato da Amazon per vagliare i curricula: l’algoritmo declassava inesorabilmente le candidate provenienti da college femminili. Dichiarando fallito l’esperimento, l’azienda ha ammesso l’incapacità di quel sistema di essere neutrale: aveva appreso e fatto proprio il pregiudizio consolidato negli umani. In particolare in quella parte di umanità tradizionalmente al potere: maschi bianchi, etero, benestanti, non giovani.

Il pregiudizio, si sa, non è intrinseco all’algoritmo: deriva dai dati e dai processi di addestramento, è concentrato – spesso inconsapevolmente – nelle decisioni degli sviluppatori. Il percorso verso un ecosistema inclusivo, giusto, non sarà rapido; un punto di partenza praticabile è però già stato individuato: accrescere la diversità nei team di sviluppo delle Ia. Su questo obiettivo convergono le testimonianze raccolte per Nature.

Partire dal linguaggio per trasformare il futuro dell’Africa. “La maggior parte degli algoritmi e dei sistemi che utilizziamo oggi sono stati creati da persone al di fuori dell’Africa. Manca la prospettiva dell’Africa e, di conseguenza, i pregiudizi influenzano l’Africa”, afferma Delali Agbenyegah, che lavora come senior data science manager dell’ecommerce Shopify di Atlanta (Georgia). A settembre 2023 presiederà la conferenza Deep Learning Indaba. La sede del meeting, una sorta di TED Conference periodica, sarà quest’anno in Ghana, dove la popolazione parla circa quaranta lingue indigene diverse, oltre alle nove ufficiali. Con un’iniziativa open source per favorire la creazione di algoritmi per la traduzione in inglese (Ghana NLP – www.ghananlp.org) si punta a migliorare i sistemi di intelligenza artificiale correlata alle immagini, indispensabile nei motori di ricerca nel web come nella diagnosi delle malattie. Attualmente, però, i dati relativi all’Africa compongono meno dell’un per cento dei set di dati che contribuiscono all’apprendimento automatico dei sistemi di Ia.

Il diritto alla tecnologia in America Latina. Crede nella partecipazione dal basso la direttrice di AccelAI e LantinX AI, due organizzazioni/community di persone di origine latinoamericana impegnate nell’Ia. Laura Montoya, ingegnere informatico e data scientist, è una colombiana cresciuta negli Stati Uniti. Si definisce “alternative thinker”, pensatrice alternativa, e dedica la sua attività ad aprire percorsi controcorrente per “altri come lei, per una piccola parte della popolazione”. Fuga dei cervelli, supporto agli studenti da parte di mentori, incubazione di progetti informatici sono parte delle missioni delle non profit che presiede Montoya. Per farlo, mobilita big corporation, come la statunitense Nvidia, a sostegno di un programma di supercomputer, perché “la potenza di calcolo è gravemente carente in gran parte dell’America Latina”. E promette la disponibilità di hardware alla comunità più ampia possibile di ricercatori locali “per risolvere grandi problemi e utilizzare la tecnologia per sempre”.

Barriere architettoniche alleate di un algoritmo. App di sintesi vocale consentono alle persone con disabilità motorie o visive l’interazione in un ambiente non adeguato, permettono la guida di un veicolo o l’accesso allo studio; le protesi non sono più soltanto accessori ma, grazie alla robotica, sono collegate al sistema nervoso per aumentare l’autonomia di persone con disabilità. Maria Skoularidou è una dottoranda di Cambridge in biostatistica e nel 2018 ha fondato {Dis}Ability in Ai (https://elesa.github.io/ability_in_AI/) per migliorare accessibilità e inclusione. Nel tempo ha registrato numerose denunce anche da parte di ricercatori con disabilità: “Alcuni hanno affermato che non si sentirebbero al sicuro nel condividere dettagli sulla loro malattia cronica, perché se lo facessero potrebbero non essere promossi o ricevere lo stesso stipendio”. Ottenere ambienti di ricerca scientifica equi e paritari giova a tutti: “Se un vedente chiude gli occhi, questo non gli fa capire cosa deve affrontare un cieco. Le persone provenienti da gruppi emarginati devono far parte di tutte le fasi del processo di intelligenza artificiale”.

Il percorso verso un ecosistema inclusivo, giusto, non sarà rapido. Un punto di partenza praticabile è accrescere la diversità nei team di sviluppo delle intelligenze artificiali.

Più parità di genere e inclusione. Il machine learning è essenzialmente un lavoro di categorizzazione di cose e persone al fine di elaborare previsioni su dati raccolti in precedenza. Come conciliare tali processi con le identità fluide? Il rischio è la censura delle persone queer, secondo William Agnew, computer scientist all’University of Washington (Seattle) e Sabine Weber, consulente tedesca. Insieme si occupano di queer in Ai (www.queerinai.com), la cui missione è aumentare la consapevolezza sul tema negli ambiti dell’intelligenza artificiale e del machine learning. L’elenco degli ostacoli che intendono respingere deriva dalla convinzione che “il campo dell’Ia non prende sul serio la diversità e l’inclusione. Gli sforzi sono sottofinanziati e sottovalutati” e non godono del sostegno dei lavoratori senior. Uno degli obiettivi dell’organizzazione è mutuare dal mondo femminile il movimentismo che ha fatto emergere le personalità nello stem, per offrire un punto di riferimento nelle università e non temere la selezione sessista nelle aziende.

Il punto in comune fra i quattro interventi sta fra la consapevolezza dei divari esistenti e la necessità di affrontarli. Un piano che funzionerà solo se sarà divulgato e quindi supportato anche da coloro che a quelle minoranze non appartengono. Il dibattito è immaturo anche in Europa, sebbene sia rara la definizione di “crisi” in riferimento alla diversity. E rischia di emergere troppo tardi, travolto da una rivoluzione tecnologica che si rivela, giorno dopo giorno, più rapida di ogni premura etica.

Fonte dati: Ai Now institute, New York university, 2019.
Bibliografia
[1] Crowell R. Why Ai’s diversity crisis matters, and how to tackle it. Nature, 19 maggio 2023.
[2] Myers West S. Discriminating systems: gender, race, and power in Ai – Report. Ai Now Institute, 1 aprile 2019.
[3] Unesco. Women in science. https://uis.unesco.org/en/topic/women-science
[4] AI recruiting tool that showed bias against women. Reuters, 11 ottobre 2018.