IMG_5335

COMPLESSITA’ E BIAS DELL’INTELLIGENZA ARTIFICIALE

di Massimo Airoldi, Sociologo alla Statale di Milano, autore di “Machine Habitus: Toward a Sociology of Algorithms” (Polity, 2021)

 

Era l’ottobre 2017 quando i giornalisti di Channel 4 scoprirono che l’algoritmo di raccomandazione di Amazon suggeriva agli utenti di comprare insieme gli ingredienti necessari a costruire una bomba artigianale. Un anno prima fece scandalo il chatbot Tay di Microsoft: rilasciato allo scopo di imparare a twittare interagendo con altri utenti Twitter, sono bastate poche ore sulla piattaforma per trasformarlo in un fervente trumpiano, sessista e razzista. Episodi simili hanno coinvolto Google, Apple, pubbliche amministrazioni, grandi e piccole imprese ovunque nel mondo. Come può accadere che un sistema automatico si comporti improvvisamente da aspirante terrorista o estremista di destra? La ragione è quasi sempre la stessa: i dati. I sistemi di machine learning (o, com’è di moda chiamarli, di intelligenza artificiale) si autoprogrammano a partire da regolarità statistiche nei dati di training, spesso imparando in modo continuo e ricorsivo dai feedback impliciti o espliciti offerti dall’ambiente in cui sono inseriti. È in questo modo che le mail di spam vengono filtrate in modo automatico, che riceviamo pubblicità micro-targettizzate, che i contenuti selezionati per noi sui social media e i prodotti raccomandati da app e piattaforme riflettono i nostri gusti e interessi sempre più “dataficati”. Tramite i dati, la cultura umana e i suoi “bias” – le distorsioni e discriminazioni legate a specifici punti di vista sul mondo – entrano nel codice apparentemente neutrale degli algoritmi a cui ormai deleghiamo quotidianamente scelte di consumo e decisioni professionali. 

La sociologia ci insegna che nessuna tecnologia è mai stata neutrale: il design di un artefatto fisico o digitale – una porta come un sito web – veicola valori e idee di parte e prescrive il comportamento degli utilizzatori. Nel caso del machine learning la questione è ancora più complessa: non sarà soltanto il punto di vista culturale del designer a plasmare la tecnologia, ma anche quello dei suoi (spesso ignari) addestratori. Se sbatto la testa per venti volte contro una porta, la porta rimarrà dov’è; se “skippo” per venti volte video di gattini su TikTok, l’algoritmo della piattaforma smetterà di propormeli. La logica induttiva e adattiva alla base dell’apprendimento automatico è la chiave del suo successo straordinario: miliardi di modelli di intelligenza artificiale, ognuno “educato” in modo leggermente diverso, classificano e organizzano cultura, realtà e linguaggio in modo autonomo. Il mondo della comunicazione è sempre più dominato da piattaforme, chatbot, traduttori automatici, generatori vocali, language models avanzatissimi in grado di riprodurre fedelmente stili di scrittura umani. È facile dimenticarsi dei rischi che il machine learning può comportare in assenza di un controllo adeguato sui dati usati per il training.

Un’intelligenza artificiale non può capire la complessità semantica e simbolica della cultura umana. Per un algoritmo, una parola è solo una stringa di caratteri separata da due spazi bianchi, più o meno correlata con altre parole-vettori matematici in uno spazio multidimensionale. Utilizzare un sistema di machine learning molto efficiente non azzera il rischio di “errori” morali e culturali, intraducibili in linguaggio macchina. Questi possono essere soltanto ridotti tramite interventi ex post volti a correggere il comportamento dell’IA – intuibili, ad esempio, quando cerchiamo la parola chiave CEO su Google Images e vediamo restituiti risultati molto più inclusivi per genere ed etnia di quanto non sia (purtroppo) la realtà.

Per evitare che vengano consigliati automaticamente gli ingredienti di un ordigno esplosivo, o che un chatbot si comporti in modo politicamente scorretto, bisogna fare molta attenzione ai dati con cui si addestrano gli algoritmi. Quando questi vengono raccolti indiscriminatamente da un Internet sempre più polarizzato e aggressivo, o ottenuti pagando qualche clickworker una miseria per annotare immagini attraverso servizi come Amazon Mechanical Turk, non ci dobbiamo stupire se il risultato sarà, come si dice in gergo, biased. Il bias e i suoi molteplici rischi si possono solo ridurre, non eliminare, e il modo per farlo è prendersi cura dell’“educazione” dell’intelligenza artificiale, come già si fa coi bambini. Non ricercare una neutralità illusoria, ma supervisionare il training delle macchine, diffidando dai cattivi maestri da cui potrebbero imparare senza che ce ne accorgiamo.

 

Share on facebook
Share on twitter
Share on linkedin