L’intelligenza artificiale siamo noi.

Le vie dell’intelligenza artificiale sono infinite, le sue implicazioni innumerevoli.

Chi si aspettava robot per le strade e macchine volanti per adesso dovrà rassegnarsi, ma ciò non significa che le intelligenze artificiali appartengano soltanto ai film di fantascienza. Le AI vivono tra noi, e anzi tendenzialmente ci fanno vivere un po’ meglio: basti pensare alle implicazioni nella medicina, alle automobili senza pilota di Google e Tesla, fino ai labirintici suggerimenti di Spotify e Netflix e alle chiacchierate con l’Assistente Vocale di Google e Siri (a proposito, gli avete mai chiesto cosa pensano l’uno dell’altra?).

Sebbene di intelligenze artificiali si parli ormai da qualche anno, è soltanto nel recente passato che sono entrate de facto nelle nostre vite. Parte di questa “rivoluzione” è dovuta al machine learning e di che cosa si tratta, è presto detto.
Facciamo finta di voler creare un programma che distingua un cane da un gatto. Un compito piuttosto semplice, se sei un essere umano: persino un bambino molto piccolo capirebbe che l’animale che fa miao è un gatto e quello che fa bau è un cane. Ma per un computer? Basarsi soltanto sul verso non sarebbe sufficiente – un gatto sa essere timido, quando vuole, e potrebbe rifiutarsi di miagolare. Anche buttarsi sulle caratteristiche fisiche potrebbe non bastare: la taglia di un piccolo cane è simile a quella di un gatto. I colori possono essere identici. E poi, hanno entrambi quattro zampe, due occhi e una coda.
Insomma, scrivere un programma che riesca a discernere le (quasi) infinite possibilità del reale sarebbe difficilissimo, oltre che sfiancante.
Ed è qui che entra in gioco il machine learning.

A un certo punto si è capito che le macchine potevano imparare esattamente come noi (do per scontato che chi mi legge sia un essere umano: mi perdonino i crawler).

Certo, nel Novecento l’analogia mente-computer è stata sviscerata dai filosofi di mezzo mondo: l’idea che le menti possano funzionare come le macchine – e viceversa, se vogliamo applicare la proprietà transitiva – non è nuova.
Le macchine, proprio come noi, imparano attraverso l’esperienza. E, mantenendo l’analogia mente-computer ancora un momento, cosa sono le esperienze se non dati?
Per farla breve, i creatori delle AI hanno rimpinzato le macchine con una tale quantità di dati che alla fine persino il computer ultimo della classe è riuscito a capire che cos’è un gatto e che cos’è un cane.
Ma che cosa succederebbe se, per errore, per caso, per sfortuna, in mezzo a tutti i sample di fusa e miagolii e ai trilioni di foto di gattini, ci dimenticassimo dei certosini? L’Intelligenza Artificiale riuscirebbe a capire che anche quello è un gatto? E riuscirebbe a capirlo con la stessa velocità ed efficienza con cui individua i persiani e gli sphynx?
A un certo punto, per fortuna, qualcuno questa domanda se l’è posta. Perché le AI hanno iniziato a commettere degli errori. E non sui gatti.
Sulle persone.

Nel 2018 Jacky Alciné, un ingegnere di Brooklyn, stava inserendo alcune foto nel suo account di Google Photos. Com’è noto, questo software riconosce i tratti in comune tra le fotografie, capisce chi o che cosa raffigurano e automaticamente smista i nostri ricordi in cartelle. Una cartella potrebbe includere le foto di nostra nonna, un’altra tutte quelle del nostro gatto Merlino.
Nel caricare le sue foto, però, Jacky Alciné ha notato un grossolano errore: ben ottanta foto di un suo amico – un ragazzo di colore con cui aveva trascorso una serata – erano state inserite in una cartella sotto l’etichetta “gorilla”. Com’è stato possibile?

Mentre il 2020 si avvicinava (finalmente) alla sua conclusione, la ricercatrice Timnit Gebru, una delle figure di spicco nel Ethical Artificial Intelligence Team di Google, firmava con alcuni colleghi un articolo dal titolo “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”.
Qualche mese dopo la pubblicazione è stata licenziata da Google (la notizia ha giustamente creato un polverone, ed è stata ripresa anche in Italia). La giovane ricercatrice, che da anni lavora allo sviluppo di algoritmi per il riconoscimento facciale, sottolinea come e perché le AI siano arrivate ad ereditare i pregiudizi sulle donne e le minoranze che imperversano nella nostra società.

Size Doesn’t Guarantee Diversity

Così recita uno dei titoli. Vediamo perché.

Una prima distorsione l’abbiamo nei casi in cui le macchine vengono nutrite da dati recuperati in rete: com’è noto, l’accesso a Internet non è distribuito in maniera equa nel mondo. Questa discrepanza porterebbe a sovrarappresentare persone dei paesi più sviluppati che però, soprattutto nel caso della nostra Europa, hanno popolazioni numericamente inferiori rispetto ad alcuni giganti come Cina e India o paesi africani molto popolosi come Congo o Nigeria.
E non è tutto: parte dei dati su cui ha “studiato” GPT-2 (una AI in grado di tradurre, riassumere e molto altro) sono ottenuti analizzando link pubblici provenienti da Reddit. Ma il 67% dei Redditors degli Stati Uniti sono uomini, e il 64% ha tra i 18 e i 29 anni.
Questa disparità ha delle conseguenze reali, e man mano che le intelligenze artificiali si diffondono, anche i pregiudizi e i bias sociali che hanno imparato vengono propagati.
Ad esempio, il fatto che alcuni termini siano tradizionalmente associati più spesso all’universo maschile rispetto a quello femminile (un classico esempio è “uomo-dottore” e “donna-infermiera”) può avere delle conseguenze spiacevoli, se lo screening dei curricula di un’azienda sanitaria alla ricerca di un nuovo dipendente è in mano a un software. L’AI potrebbe associare alcuni interessi più diffusi tra gli uomini (“giocare ai videogiochi”) alla posizione che si sta cercando (“dottore”) soltanto perché la distanza tra queste due caratteristiche è ritenuta minore.

Un altro campo di applicazione che potrebbe riservare delle brutte sorprese è quello del riconoscimento facciale, soprattutto se in ambito legale.

Diversi test hanno dimostrato come alcuni software di riconoscimento facciale commettano errori in quantità molto diverse quando si tratta di uomini bianchi, donne bianche o donne di colore.
La percentuale di errori da parte del software di Windows sale dall’1.7% per le donne bianche fino al 25% per le donne di colore. Col software di IBM la percentuale è ancora più alta (dal 5.1% al 46.8%).
In questo caso, le conseguenze che potrebbero emergere sono ben più intuitive: una condanna basata sul riconoscimento facciale potrebbe risultare errata con una probabilità fino a quasi dieci volte superiore in base al colore della pelle e al sesso dell’imputato. Il problema è talmente controverso e dibattuto che persino un colosso come Amazon è tornato sui suoi passi annunciando che non avrebbe permesso alla polizia di utilizzare la sua tecnologia di riconoscimento facciale per almeno un anno, in modo da dare tempo al congresso di creare regole per un uso etico della tecnologia.

Insomma, se è vero che le AI sono ormai una realtà quotidiana, e se è vero che stanno portando vantaggi innegabili nei campi più disparati, sta emergendo anche un movimento per sottolineare come anche in un campo squisitamente tech e innovativo non ci si possa esimere dal porsi l’eterna domanda del che cosa è giusto e che cosa è sbagliato.
Fuori dalle aule universitarie e dai laboratori di ricerca, c’è un mondo fatto di uomini e di donne, ognuno con le sue specificità e le sue caratteristiche – ed è a questo mondo che le AI devono imparare a parlare.

Autore:

Matteo Candeliere