Aldo Agostinelli

Dopo il licenziamento della direttrice del team di etica dell’intelligenza artificiale di  Google, l’AI torna al centro delle polemiche. E la domanda più ricorrente è: i sistemi di intelligenza artificiale sono discriminatori? Il punto per capire i motivi della questione e anche la risposta.

L’AI è discriminatoria, sessista e razzista? Sì e no. Per capire le ragioni di una tale risposta, occorre fare un passo indietro e guardare al quadro generale da cui scaturisce.

Chi critica l’AI viene bruciato

Tutti avrete letto del licenziamento – o accettazione di dimissioni mai presentate! – che recentemente ha visto protagonista una delle più stimate e note ricercatrici nell’ambito dell’AI, Timnit Gebru (La storia della ricercatrice che accusa Google di censura).

Giovane, donna e di colore, fino a poco tempo Gebru era la leader del team di etica dell’intelligenza artificiale, voluto fortemente dalla company di Mountain View, per placare le polemiche (e le proteste) che hanno popolato la cronaca degli ultimi anni, circa il razzismo e il sessismo dentro i dipartimenti dell’azienda e all’interno dei modelli su cui si basa lo sviluppo dell’intelligenza artificiale.

I casi dello scontro tra Google e le “minoranze”

Ecco un piccolo assaggio: nel 2017 sessanta dipendenti di Google intentano una class action per rivendicare il pay gap e la cultura ostile alle donne dell’ambiente di lavoro in cui operano (More than 60 women consider suing Google, claiming sexism and a pay gap). Nello stesso anno un ex dipendente transgender e disabile, che aveva espresso sulla chat interna la sua denuncia contro il razzismo e l’omofobia diffusi in azienda, intenta causa a BigG e lo accusa di aver fallito nel proteggere le minoranze, la comunità LGBTQ e le donne (“Google mi ha licenziato per le mie idee liberali”: un ex dipendente fa causa al gigante per discriminazione).

Nel 2018 è la volta di 20mila dipendenti di Google: scioperano per protestare contro le molestie, le discriminazioni e l’ambiente di lavoro ostile. Causa scatenante è l’inchiesta del New York Times sulla buonuscita da 90 milioni di dollari, elargita dalla company ad Andy Rubin, co-fondatore di Android, affinché lasci la società, dopo che la stessa ha appreso dell’accusa di violenza sessuale che lo vede protagonista (Over 20,000 Google employees participated in yesterday’s mass walkout).

LEGGI ANCHE: Digital Marketing, tutto quello che c’è da sapere

Le note interne contro le discriminazioni in Google

Nel 2019, con una nota interna diventata virale e letta da oltre 10mila lavoratori, una manager dipendente di Google denuncia la discriminazione contro le donne incinte
(Google Employee Alleges Discrimination Against Pregnant Women in Viral Memo).

E ancora: un dipendente di Google in uscita dall’azienda lascia un memo interno dal titolo “The Weight of Silence”. Nella nota denuncia “l’onere dell’essere nero” e i comportamenti razzisti dei colleghi negli uffici del gigante della tecnologia (Google Employee Writes Memo About ‘The Burden of Being Black at Google’).

Un gruppo di ex dipendenti di Google di diversi ambiti dell’azienda, incluso quello dell’AI, pubblica un lungo articolo online, informando di essere stati licenziati per essersi organizzati in sindacato ed essersi opposti alle decisioni non etiche dell’azienda, tra cui: collocare il leader di un think tank anti-LGBTQ e anti-immigrati nel consiglio etico della AI della company, e perpetuare molestie e discriminazioni (Google fired us for organizing. We’re fighting back).

Infine Meredith Whittaker, nota studiosa dell’etica dell’intelligenza artificiale, lascia Google dopo essere stata duramente contrastata all’interno dell’azienda per aver organizzato proteste contro le discriminazioni sessuali (Google employee who helped lead protests leaves company).

Il caso di Timnit Gebru

Arriviamo al 2020 e al caso Timnit Gebru. Senza entrare nelle pieghe della contorta vicenda, la scienziata sostiene di essere stata liquidata a causa del suo studio «On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?». Lo scritto critica l’utilizzo dei grandi modelli di elaborazione del linguaggio che sono impiegati da molte aziende che si occupano di AI, tra cui Google. In pratica, questi modelli sono intelligenze artificiali che vengono addestrate a riconoscere e a manipolare il linguaggio naturale, usando come base per l’addestramento un’enorme quantità di materiale testuale, solitamente preso su internet. Questa modalità di addestramento permette all’AI di assorbire testi discriminatori, razzisti e violenti impossibili da vagliare e bloccare per tempo (Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day).

In seguito oltre 1.200 dipendenti di Google e più di 1.500 ricercatori accademici si sono schierati a fianco di Timnit Gebru (More than 1,200 Google workers condemn firing of AI scientist Timnit Gebru).

I modelli di sviluppo dell’AI ripropongono stereotipi

Ma cosa c’entra la discriminazione sul lavoro con lo sviluppo dell’intelligenza artificiale? Moltissimo. Lo sviluppo dei prodotti e dei sistemi basati sull’AI, continua ad adottare metodi che poggiano le loro basi su modelli storicamente discriminatori. Tali modelli sono selezionati da quanti lavorano in big tech e laboratori universitari. Cioè in prevalenza maschi, bianchi e ricchi.

Il risultato è che la stessa AI, fondandosi su ipotesi stereotipate, finisce per rafforzare il pregiudizio e la discriminazione nelle sue applicazioni.

Basti pensare che, secondo il Global AI Talent Report 2019 redatto da Element AI, ancora a fine 2018 solo il 18% degli autori alle principali conferenze sull’IA erano donne, che costituivano solo il 15% del personale di ricerca sull’IA all’interno di Facebook e il 10% di Google. Ai lavoratori neri va anche peggio: Facebook e Microsoft detengono ciascuna una esigua quota di forza lavoro di colore del 4% e Google addirittura del 2,5%. Per altre minoranze di genere a razza non sono stati diffusi dati.

L’AI è quindi razzista? No, di per sé una tecnologia non è mai razzista. Ma se quanti ci lavorano sono rappresentativi solo di una parte dell’umanità – bianca e maschile – escludendo qualunque tipo di diversità, e i modelli di sviluppo sono selezionati da tale gruppo secondo la loro personale visione di ciò che è “normale”, è probabile che lo divenga.

Eliminare la discriminazione nel reale, significa quindi azzerarla anche nel virtuale. Con buon profitto per tutti, in tutto il mondo.

Lo sviluppo dell’AI vi preoccupa? Ditemi come la pensate tweettando i vostri commenti a @agostinellialdo

LEGGI IL MIO NUOVO LIBRO: “Bling, il lusso del futuro parla Instagram, indossa sneaker e usa l’AI

Se ti è piaciuto questo post, leggi anche Un mondo senza app? Per alcuni è possibile?

Aldo Agostinelli