Questo è solo uno dei moltissimi esempi di pregiudizio di genere che gli algoritmi non farebbero altro che perpetuare, moltiplicare, far sedimentare. Cathy O’Neil, invitata continuamente a tenere conferenze in giro per il mondo, può produrne molti altri: dai sistemi di riconoscimento artificiale che danno per scontato che la persona ritratta in cucina debba con ogni probabilità essere una donna, ai software di traduzione automatica dal turco (dove i pronomi personali non hanno genere) che presuppongono sempre che il pronome giusto per “baby-sitter” sia “lei” e per “medico” sia “lui”.
I modelli sbagliano, ma del resto i modelli sono un prodotto umano e come tale non sono infallibili. In tutto ciò che facciamo ci sono degli errori e non stiamo a scriverci libri, si potrebbe obiettare. Gli errori dei modelli basati sui big data però nascondono una trappola più sottile e pericolosa: i danni possono passare inosservati e accadere senza che nessuno possa rimediare. Non si tratta solo di donne penalizzate nella loro carriera, ma di intere fasce della popolazione alle quali un mutuo può essere negato o una condanna prolungata sulla base di probabilità calcolate su sistemi già viziati. Ma mentre le decisioni di un giudice parziale in carne e ossa possono essere individuate, criticate, sfiduciate, un algoritmo è circondato di un’aura (illusoria) di infallibilità: “è matematica, non può sbagliare”. Un modello non è “verità”: è solo un modo di rendere formale un’opinione, sostiene O’Neil. Ma l’equivoco è duro a morire e le grandi aziende della finanza per le quali lavorava all’inizio della sua carriera ne approfittano a piene mani, nascondendo la costruzione dei loro algoritmi e accampando con le loro vittime giustificazioni che si riducono a “è matematica, non capiresti”.
Se oggi l’idea che gli algoritmi non siano così imparziali è abbastanza acquisita, soprattutto tra gli addetti ai lavori, cinque anni fa non lo era affatto. Al punto che il libro di O’Neil le è valso l’Euler Book Prize e una menzione nella longlist per la saggistica del National Book Award. Quando, nel 2007, lascia la sua carriera nella ricerca in geometria algebrica, O’Neil sceglie di lavorare a New York per D.E. Shaw, un fondo di investimento speculativo che gestisce capitali privati. In quella fase è una quant, ovvero un’analista quantitativa, e ama il mondo della finanza. È ancora così: l’economia, la statistica e anche la possibilità di creare un modello matematico che risponda a una domanda pratica per lei rimangono tutte cose interessanti. I primi dubbi sulle applicazioni dei big data per lei arrivano quando si ritrova a lavorare su modelli che, nel bel mezzo della crisi economica, decidono la sorte delle persone. Pur non volendo, fa un lavoro che in concreto “divide le persone tra vincenti e perdenti”.