L’intelligenza artificiale? È sessista e razzista come noi

algoritmo determina orientamento da foto
Un algoritmo "legge" l'orientamento dalle foto del viso

Secondo uno studio dell’Università di Stanford, realizzato da Michal Kosinski e Yilun Wang e pubblicato dal Journal of Personality and Social Psychology [Open Science Framework], un algoritmo è stato in grado di identificare l’orientamento sessuale di uomini e donne a partire da una semplice fotografia del volto, con un grado di esattezza che ha raggiunto addirittura il 91%. La notizia, riportata da centinaia di media di tutto il mondo, dai grandi giornali ai portali gay, è sorprendente, ma merita qualche riflessione in più.

Per fortuna già molti altri attivisti e giornalisti hanno rilevato come questa nuova tecnologia sarebbe potenzialmente molto pericolosa in mano ai regimi che perseguitano le persone omosessuali – e il fatto che l’algoritmo non offra risposte indiscutibili è poco rilevante, tenendo conto che oggi sono largamente utilizzati gli ancor più inaffidabili test anali [Il Grande Colibrì]. In realtà questo problema è stato manifestato dagli stessi autori dello studio, che lo hanno giustificato come allerta lanciata all’opinione pubblica contro possibili abusi da parte di alcuni governi (con un “ragionamento” simile a chi diffonde istruzioni su come costruirsi una bomba in cantina per lanciare l’allarme su quanto sia facile farlo).

Molta meno attenzione hanno ricevuto alcune debolezze metodologiche o gli interrogativi sulla serietà di due esperti di big data e psicometria che finiscono per disquisire di ormoni, oltre ai due problemi su cui ci concentreremo nelle righe qui sotto.

Test anali: l’omosessualità impressa nel buco del culo?

“Sbiancamento”

La prima questione, rilevata sommariamente da alcuni articoli anglofoni e ignorata quasi totalmente in quelli italiani, è che lo studio si basa unicamente su fotografie di donne e uomini bianchi: tutte le altre etnie sono state deliberatamente e dichiaratamente escluse, perché “non siamo riusciti a trovare un numero sufficiente di partecipanti gay non bianchi”. Anche senza sollevare perplessità sulla motivazione, siamo di fronte a un ennesimo caso di “universalizzazione del bianco” sia da parte degli studiosi (che ritengono le proprie conclusioni applicabili a qualsiasi gruppo etnico) sia da parte dei media, che hanno presentato una ricerca sulla popolazione bianca come valida per tutti. È difficile immaginare che avrebbero fatto lo stesso per uno studio sugli han o sui sud-asiatici, due gruppi che pure sono ben più numerosi dei bianchi.

Se questo primo aspetto racconta i pregiudizi dei ricercatori e dei media, un secondo elemento mostra come questi preconcetti possano riversarsi nell’intelligenza artificiale. Le macchine possono superare enormemente le capacità umane come, nonostante i suoi limiti, ha dimostrato questo esperimento, ma partono dagli schemi interpretativi (e dalle idee errate) di chi le progetta.

Eteronormatività

Per esempio, dal momento che i ricercatori hanno eliminato in partenza tutti i partecipanti che si erano dichiarati bisessuali e hanno chiesto all’algoritmo di collocare le persone in due categorie rigidamente distinte (omosessuali o eterosessuali), la macchina ha imparato e ha riprodotto un modello di orientamento sessuale estremamente binario. A peggiorare le cose, l’esperimento ha escluso anche le persone che, secondo una valutazione arbitraria e sommaria dei ricercatori, non sembravano “conformi” al genere dichiarato.

Bisessualità: quando l’amore non vuole scegliere

Ma il modello adottato e riprodotto pecca anche di altre forme di iper-semplificazione: l’orientamento sessuale non solo è ridotto a una distinzione tra un’opzione A e un’opzione B, senza alcuna possibilità di immaginare realtà intermedie, anticonvenzionali o mutevoli, ma è appiattito a semplice etichetta priva di possibili sfumature, discordanze o tensioni tra desideri, comportamenti, istinti, modelli comportamentali e schemi identitari. Insomma, l’intelligenza artificiale finisce per riprodurre schematismi poco intelligenti e, di conseguenza, una visione della realtà sterilmente normativa all’interno della quale i gender studies sembrano semplici follie.

Irrazionalità

Non sarebbe così grave se si trattasse di un semplice divertissement, ma l’intelligenza artificiale è una presenza sempre più forte nelle nostre vite, sempre più capace di determinare le nostre scelte e anche di fare scelte autonomamente. Le macchine, però, sono comunque figlie degli esseri umani e finiscono per inglobare i pregiudizi di chi le crea e di chi produce i dati su cui “imparano a imparare”: abbiamo già visto algoritmi che sbiancano la pelle delle persone di colore per “migliorare” le foto, che associano i neri ai gorilla, che pubblicano tweet nazisti o che riproducono gli stereotipi sessisti.

Per questo è così importante evitare di considerare il lavoro delle macchine come inevitabilmente logico e razionale e tenere conto invece del problema del pregiudizio nello sviluppo dell’intelligenza artificiale, che altrimenti rischia di riprodurre la stupidaggine per ora tutta umana dell’odio.

 

Pier
©2017 Il Grande Colibrì

 

More from Pier Cesare Notaro

La crociata anti-gay delle scuole cristiane negli USA

“In poche parole mi ha detto che dovevo nascondermi, cioè che dovevo...
Leggi di più

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *