Amici del canale, l’apprendimento automatico, una delle tecniche fondamentali nel campo dell’Intelligenza Artificiale (AI), implica che si definiscano regole di insegnamento a sistemi automatizzati, alimentandoli con una serie di dati sull’argomento.
Però una delle maggiori paure è che i “pregiudizi” e consuetudini inseriti in quei dati verranno rafforzati se automaticamente applicati in sistemi AI. A tal proposito, Amazon sembrerebbe aver fornito un eccellente esempio di questo potenziale fenomeno distorsivo. Secondo un rapporto Reuters, Amazon avrebbe infatti sviluppato un sistema in grado di automatizzare una buona parte del processo di recruiting. L’idea era che questo sistema basato su AI potesse essere in grado di analizzare un insieme di curricula e quindi identificare in “totale autonomia” i migliori candidati. Per raggiungere questo obiettivo, Amazon avrebbe alimentato il sistema caricando i CV dell’ultimo decennio, i quali provenivano da persone che avevano richiesto (e poi ottenuto) un posto di lavoro in Amazon. L’industria tecnologica è però (purtroppo?) notoriamente dominata dagli uomini e, di conseguenza, la maggior parte di questi curricula proveniva da uomini. Quindi, addestrato sulla base di questa selezione di informazioni, il sistema di reclutamento cominciò inesorabilmente a favorire gli uomini rispetto alle donne. Secondo Reuters, il sistema imparò a tenere in minore considerazione i curricula che includevano parole di taglio femminile e ad assegnare punteggi più bassi ai laureati provenienti da facoltà a prevalenza femminile. Nel frattempo, l’algoritmo aveva concluso che parole come “executed” e “captured” (che, a quanto pare, sono presenti con più frequenza nei curricula di uomini) aiutano a classificare più in alto nel ranking il candidato.
Una volta capito che qualcosa stava andando storto, ovvero che le distorsioni apparivano significative, il team di sviluppo avrebbe cercato di impedire che il sistema prendesse in considerazione tali fattori, ma alla fine Amazon avrebbe deciso che era impossibile impedirgli di trovare nuovi modi per non discriminare le candidate. Apparentemente c’erano anche problemi con i dati sottostanti che avrebbero portato il sistema a proporre raccomandazioni non sempre centrate. E così, Amazon, pur smentendo di aver in uso tale sistema (probabilmente si trattava di un progetto sperimentale), avrebbe sospeso le attività al riguardo.
Amazon non sarebbe stata però l’unica azienda attenta al problema della distorsione algoritmica, Recentemente, ad esempio, Facebook ha affermato che stava testando uno strumento chiamato “Fairness Flow”, per individuare pregiudizi razziali, di genere o di età negli algoritmi di apprendimento automatico. E qual è stato il primo obiettivo per i test di Facebook del nuovo strumento? Proprio il suo algoritmo per l’abbinamento di persone in cerca di lavoro con posizioni pubblicitarie aziendali.
Cosa fa l’intelligenza artificiale
Il concetto fondamentale alla base dell’AI è che il software può essere addestrato a riconoscere modelli (“pattern”) all’interno di serie di dati di grandi dimensioni e poi a fare previsioni (o prendere decisioni) basate su quelli. E questo vale potenzialmente per qualsiasi apparato: un’auto senza conducente, una macchina fotografica, uno spazzolino da denti (vedi le iniziative di Colgate), un’assistente vocale come Apple Siri, un robot per gestire gli ordini di magazzino (ancora una volta in Amazon, di sicuro una delle aziende che più investono in AI) o un sistema per valutare i curricula.
I pattern aiutano a identificare gli “input” e, associati a particolari interpretazioni, portano a loro volta a specifici “output” come, ad esempio, una risposta a una domanda o un’azione da eseguire. Ma non c’è nulla di intrinsecamente intelligente in tutto ciò. Il prodotto AI più avanzato manca dell’intelligenza di un bambino di 4 anni. L’algoritmo, almeno oggi, non può contraddire giudizi sbagliati, né formarsi una propria opinione. Le tecnologie AI non possono ragionare e non riescono oggi in autonomia a capire che, ad esempio, il vapore si forma riscaldando l’acqua.
In cosa eccelle quindi l’AI? Nell’imparare dai dati e nel riconoscere pattern troppo complicati da intravedere per un essere umano. I pattern rappresentano regole che possono essere applicate per rilevare modelli simili in set di dati. Ma è qui che i limiti dell’intelligenza artificiale vincolano ciò che si può fare. Un prodotto può scoprire regole dai dati ma non può oggi sviluppare nuove regole da solo. Il sistema IBM che sconfigge i migliori giocatori di scacchi non può, da solo, imparare a vincere a Monopoli o Candy Crush. Un prodotto di intelligenza artificiale può applicare le regole apprese in modo più efficiente o in combinazioni non utilizzate dagli esseri umani, ma non ha modo di dire se l’esito è desiderabile o meno, e di conseguenza non può cercarne uno migliore. Essenzialmente, non c’è un “io” nell’intelligenza artificiale.
La prima risposta: il giusto addestramento
Ad oggi, un sistema AI non può crescere oltre i limiti dei dati e algoritmi utilizzati per addestrarlo. Analizzando una grande quantità di curricula etichettati come rappresentativi di un risultato o performance, un sistema di reclutamento può imparare a riconoscere quali curricula sono associati a quali risultati. Il sistema di reclutamento di Amazon è stato probabilmente addestrato su curricula contrassegnati con etichette che contenevano informazioni sul successo di un candidato nel lavoro e sulla sua carriera all’interno della società. Questo è apparentemente l’approccio giusto, ma sembra che il set di dati comprendesse principalmente curricula relativi a lavori tecnologici, in cui la maggior parte dei dipendenti è di sesso maschile, e di conseguenza la maggior parte dei curricula erano di candidati maschili. Dal momento che l’AI era alla ricerca di modelli nei dati, ne trovò alcuni che, nella sostanza, mostravano che gli uomini hanno mediamente prestazioni più elevate rispetto alle donne, quando la verità è che, semplicemente, più uomini si candidavano per questi lavori. Di conseguenza, il modello, propagandosi in automatico, portava a iterare questa presunta verità.
I risultati distorti prodotti dal sistema si sarebbero potuti correggere utilizzando un set di dati bilanciato, che utilizzava percentuali uguali di CV di candidati maschili e femminili. Inoltre, i candidati maschili e femminili avrebbero dovuto avere eguali proporzioni di persone di successo in azienda. A seguito di questa correzione, il fattore “genere” non sarebbe probabilmente risultato rilevante nella valutazione di un curriculum. Ma, se Amazon ha interrotto l’esperimento, questo era probabilmente più difficile a dirsi che a farsi. Probabilmente il numero e qualità delle distorsioni era troppo elevato. Magari non era solo il genere, ma anche la razza, l’età, gli studi.
Ottenere i giusti risultati da un sistema AI dipende quindi da come è stato progettato il prodotto. Cioè, tramite quali modelli è stato addestrato a cercare e che tipo di output o previsione dovrebbe produrre. I prodotti che valutano i CV sono spesso progettati per classificare un CV in base alla sua rilevanza per una posizione. Si cerca quindi di determinare se gli skill che appaiono in un curriculum corrispondono a quanto richiesto nell’annuncio. Un approccio migliore (ma non facile da realizzare) dovrebbe invece stimare se un candidato (analizzato tramite il suo CV) ha le potenzialità per avere successo in quello specifico job, analizzandone capacità, responsabilità, potenzialità.
La ricerca della perfezione
Amici del canale, l’obiettivo finale dello sviluppo dell’AI è quello di creare della vera “intelligenza artificiale”, ovvero la capacità di prendere decisioni autonome, senza contesto. Probabilmente questo è un qualcosa troppo lontano e poco pratico per noi, ma sicuramente c’è molto da guadagnare dall’implementazione in azienda di sistemi AI che gestiscano compiti che gli umani trovano noiosi o dove noi siamo semplicemente inefficienti.
La valutazione dei CV è uno, ma ce ne possono essere tanti altri. Possiamo quindi pensare di portare l’AI in azienda, nostra o dei nostri clienti. Ne vogliamo parlare?
[per sfogliare l’articolo clicca QUI]