Skip to main content

Secondo uno studio dell’Università di Stanford, realizzato da Michal Kosinski e Yilun Wang e pubblicato dal Journal of Personality and Social Psychology [Open Science Framework], un algoritmo è stato in grado di identificare l’orientamento sessuale di uomini e donne a partire da una semplice fotografia del volto, con un grado di esattezza che ha raggiunto addirittura il 91%. La notizia, riportata da centinaia di media di tutto il mondo, dai grandi giornali ai portali gay, è sorprendente, ma merita qualche riflessione in più.

Per fortuna già molti altri attivisti e giornalisti hanno rilevato come questa nuova tecnologia sarebbe potenzialmente molto pericolosa in mano ai regimi che perseguitano le persone omosessuali – e il fatto che l’algoritmo non offra risposte indiscutibili è poco rilevante, tenendo conto che oggi sono largamente utilizzati gli ancor più inaffidabili test anali [Il Grande Colibrì]. In realtà questo problema è stato manifestato dagli stessi autori dello studio, che lo hanno giustificato come allerta lanciata all’opinione pubblica contro possibili abusi da parte di alcuni governi (con un “ragionamento” simile a chi diffonde istruzioni su come costruirsi una bomba in cantina per lanciare l’allarme su quanto sia facile farlo).

Molta meno attenzione hanno ricevuto alcune debolezze metodologiche o gli interrogativi sulla serietà di due esperti di big data e psicometria che finiscono per disquisire di ormoni, oltre ai due problemi su cui ci concentreremo nelle righe qui sotto.

Test anali: l’omosessualità impressa nel buco del culo?

“Sbiancamento”

La prima questione, rilevata sommariamente da alcuni articoli anglofoni e ignorata quasi totalmente in quelli italiani, è che lo studio si basa unicamente su fotografie di donne e uomini bianchi: tutte le altre etnie sono state deliberatamente e dichiaratamente escluse, perché “non siamo riusciti a trovare un numero sufficiente di partecipanti gay non bianchi”. Anche senza sollevare perplessità sulla motivazione, siamo di fronte a un ennesimo caso di “universalizzazione del bianco” sia da parte degli studiosi (che ritengono le proprie conclusioni applicabili a qualsiasi gruppo etnico) sia da parte dei media, che hanno presentato una ricerca sulla popolazione bianca come valida per tutti. È difficile immaginare che avrebbero fatto lo stesso per uno studio sugli han o sui sud-asiatici, due gruppi che pure sono ben più numerosi dei bianchi.

Se questo primo aspetto racconta i pregiudizi dei ricercatori e dei media, un secondo elemento mostra come questi preconcetti possano riversarsi nell’intelligenza artificiale. Le macchine possono superare enormemente le capacità umane come, nonostante i suoi limiti, ha dimostrato questo esperimento, ma partono dagli schemi interpretativi (e dalle idee errate) di chi le progetta.

Eteronormatività

Per esempio, dal momento che i ricercatori hanno eliminato in partenza tutti i partecipanti che si erano dichiarati bisessuali e hanno chiesto all’algoritmo di collocare le persone in due categorie rigidamente distinte (omosessuali o eterosessuali), la macchina ha imparato e ha riprodotto un modello di orientamento sessuale estremamente binario. A peggiorare le cose, l’esperimento ha escluso anche le persone che, secondo una valutazione arbitraria e sommaria dei ricercatori, non sembravano “conformi” al genere dichiarato.

Bisessualità: quando l’amore non vuole scegliere

Ma il modello adottato e riprodotto pecca anche di altre forme di iper-semplificazione: l’orientamento sessuale non solo è ridotto a una distinzione tra un’opzione A e un’opzione B, senza alcuna possibilità di immaginare realtà intermedie, anticonvenzionali o mutevoli, ma è appiattito a semplice etichetta priva di possibili sfumature, discordanze o tensioni tra desideri, comportamenti, istinti, modelli comportamentali e schemi identitari. Insomma, l’intelligenza artificiale finisce per riprodurre schematismi poco intelligenti e, di conseguenza, una visione della realtà sterilmente normativa all’interno della quale i gender studies sembrano semplici follie.

Irrazionalità

Non sarebbe così grave se si trattasse di un semplice divertissement, ma l’intelligenza artificiale è una presenza sempre più forte nelle nostre vite, sempre più capace di determinare le nostre scelte e anche di fare scelte autonomamente. Le macchine, però, sono comunque figlie degli esseri umani e finiscono per inglobare i pregiudizi di chi le crea e di chi produce i dati su cui “imparano a imparare”: abbiamo già visto algoritmi che sbiancano la pelle delle persone di colore per “migliorare” le foto, che associano i neri ai gorilla, che pubblicano tweet nazisti o che riproducono gli stereotipi sessisti.

Per questo è così importante evitare di considerare il lavoro delle macchine come inevitabilmente logico e razionale e tenere conto invece del problema del pregiudizio nello sviluppo dell’intelligenza artificiale, che altrimenti rischia di riprodurre la stupidaggine per ora tutta umana dell’odio.

 

Pier
©2017 Il Grande Colibrì

 

Leave a Reply