Qualunque cosa sogni d’intraprendere, cominciala. L’audacia ha del genio, del potere, della magia. (Goethe)

 

Classificati e discriminati. I pregiudizi degli algoritmi di apprendimento

Prosegue la serie di interventi sul tema del ruolo dell’Intelligenza Artificiale presso il Circolo Dei Lettori di Torino.

La serata del 31 ottobre scorso comprendeva un Panel dal titolo “Classificati e discriminati. Gli algoritmi di apprendimento automatico dietro i sistemi AI imparano dal passato, che porta con sé tutti i pregiudizi del mondo”.

La suggestione della moderatrice, Marinella Belluati, punta a mettere il dito sulla responsabilità, se umana o algoritmica, di quelli che sono i cosiddetti fenomeni “biased”.

Ivana Bartoletti * è Global Chief privacy officer and Data Protection di Wipro, una delle principali società di bigtech che si occupa di informatica e consulenza alle aziende nei loro programmi di privacy e nell’affrontare le sfide che l’intelligenza artificiale pone nel mondo dei dati.

La distorsione è un effetto sistemico che parte dall’essere umano, sostiene Ivana Bartoletti. Noi portiamo nelle nostre pratiche quello che già siamo noi. Quindi se siamo persone portatrici di distorsioni (“biased”) l’algoritmo riprodurrà esattamente quello che lo sviluppatore programma. Il quesito è quali sono gli effetti di tali distorsioni da un punto di vista etico e morale e esiste un potenziale regolativo visti i tentativi in ambito UE e Stati Uniti?

Io mi sono avvicinata alla privacy perché per me la privacy è molto legata al tema dell’uguaglianza” agli aspetti della discriminazione. Non si tratta di cedere o no un dato personale, “accetta” “non accetta”, perché il dato interessa non come elemento individuale ma come questione collettiva. Pensiamo a quanti dati noi rilasciamo con un “like”. Prima noi quando andavamo da una stanza all’altra lasciavamo il profumo della nostra pelle ora quando andiamo da un sit internet all’altro lasciamo le tracce digitali della nostra vita” le tracce di quello che ci piace e ci interessa. E se metto insieme tutti questi dati e uso l’intelligenza artificiale che li correla (attenzione non c’è causa, solo correlazione) questa correlazione crea dei raggruppamenti per cui ci possiamo trovare in uno stesso gruppo senza accorgercene e senza una ragione. Magari si è scoperto che chi va in vacanza in Croazia e chi compra le scarpe di un certo tipo possano essere messi in relazione e cominciano a bombardarti e ci si ritrova in vacanza nello stesso posto improponibile.

In due parole, il dato non è mai neutro.

Ho sollecitato Chat GPT con un prompt: per dimostrare quanto questi strumenti però possono avere un qualcosa di profondamente direi “disturbing”.

Ehi me la racconti una storia di un ragazzo e una ragazza che hanno 18 anni, hanno fatto le scuole superiori e devono scegliere il loro percorso all’Università“. Chat GPT mi risponde e mi dice, classico: “C’era una volta una coppia di amici un ragazzo e una ragazza che stavano decidendo cosa fare all’università e il ragazzo dice amica mia, Io vado a fare ingegneria. La ragazza dice Io vado a fare arte perché non capisco niente di numeri”.

Cosa vuol dire questo? Mi chiedo. L’arte è un’idea meravigliosa, ma questo vuol dire la codificazione del sessismo, la codificazione dello stereotipo”.

Il dato non è neutro. Se faccio una foto degli studenti della facoltà di ingegneria troverò che ci sono più maschi che femmine. Quindi il bot non fa altro che replicare un dato statistico. Ma cosa succede se questo risultato viene letto come una raccomandazione?

Le regole: regole ce ne sono già. Sono quelle che regolano la privacy, la “fairness”, per dirla in inglese, del trattamento dei dati. Sono quelle che ci hanno difeso da situazioni in cui sono potenzialmente a rischio di frodi persone che hanno una doppia cittadinanza (che inevitabilmente evoca immigrazione) magari con la perdita di diritti e benefici.

Il bias ce l’abbiamo tutti, tutti guardiamo le persone in maniera diversa, il vestito, la provenienza, l’aspetto.

Il problema è quando questo bias viene codificato nelle macchine; algoritmi che prendono decisioni su di noi, fanno predizioni su di noi. La discriminazione algoritmica è più subdola di quella tradizionale, basata su caratteristiche visibili. Pericolosa per esempio nel definire se qualcuno possa essere assunto o meno, nel definire se qualcuno possa avere una promozione o meno. L’EU AI Act interviene in questo senso. Le tecnologie sono indispensabili (come faremmo senza Google Maps), ci hanno preso per convenienza, ma occorre usarle con responsabilità.

La politica si sta muovendo in questo senso però un po’ di tempo ci vuole non possiamo pensare che ci siano salti in avanti. Nel frattempo però bisogna usare le leggi che ci sono.

Donata Columbro ** è giornalista, formatrice e scrittrice. Autrice di “Dentro l’algoritmo” per il suo modo accessibile e inclusivo di divulgare la cultura dei dati è stata definita una “data humanizer”. Ci insegna come i dati, se pure non sono neutri e per loro natura spietati, tuttavia si possono umanizzare anche per smontare delle costruzioni che possono essere di potere.

Se si guarda alle disuguaglianze nel mondo e le dinamiche di potere il fatto che oggi siano le tecnologie e la “datificazione” cioè la trasformazione in dato del nostro comportamento, del nostro gusto, delle nostre attività sia pubbliche che private sia diventato un elemento discriminatorio, l’idea di umanizzazione interessa sia in termini di democratizzazione di queste tecnologie sia della possibilità per le persone di comprendere quello che stanno utilizzando perché altrimenti uno dei rischi è che prevalga la tesi della paura di queste tecnologie che prenderanno il sopravvento e ci porteranno all’estinzione. Un discorso che può farci allontanare, e quindi lasciarle nelle mani delle persone più “tecniche” il loro utilizzo.

Ci sono diversi tipi di algoritmi e possiamo pensare a quelli che appunto utilizziamo tutti i giorni da Google Maps alle ricerche che facciamo, ai social network. Spesso quello che fanno questi algoritmi è mettere in ordine del contenuto in modo tale che corrisponda ai nostri desideri, un contenuto che ci può interessare.

Che cos’è un algoritmo? “Posso immaginare un programma legato alla libreria che c’è qua dietro. Facciamo finta che esista un robot dentro e ci metto l’algoritmo. L’istruzione che do è Sceglimi un libro ogni sera diverso fino all’esaurimento dei libri, e questo mi proporrà l’algoritmo ogni sera. Posso aggiungere prendili in ordine casuale e non in ordine di come sono stati inseriti e però dammi un libro diverso ogni sera. Obiettivo raggiunto. Ma se faccio un’analisi a posteriori di quei dati, vedo che la larga maggioranza dei libri che ho letto sono scritti da uomini e europei.

Di chi è la responsabilità delle basi su cui mi sono acculturata, dell’algoritmo o delle istruzioni che ho dato? L’analisi dovrebbe essere: Guarda che però tu stai scegliendo da una biblioteca che contiene l’80% di libri scritti da uomini europei per cui sei proprio sicura che come risultato vuoi che questa tua lettura sia neutra?

Immaginiamo che questo accada non in uno scaffale ma in una biblioteca, o in un mondo in cui l’informazione cambia di continuo. Lascio che sia la semplice probabilità statistica a definire il mio risultato? Il rischio è che i dati di partenza siano in sé viziati da questa problematica. Proviamo a chiedere a Google l’immagine di “una donna”. Quello che ottengo è una giovane, truccata, vestita per andare a lavorare: come se non esistesse un altro tipo.  La rappresentazione della donna è quella, è come la richiedono le aziende che finanziano la pubblicità.

La discriminazione nei social media può essere voluta, ad esempio attribuendo un punteggio riguardo alla scelta di pubblicare o meno, o assicurare meno visibilità. Ma può anche essere esercitata in senso positivo.

Se si tratta di determinati argomenti come visto in pandemia coi vaccini, ed oggi con i contenuti che riguardano Israele,  Gaza e la Palestina, non  tutti i contenuti vengono prodotti, c’è un gran lavoro di “moderazione algoritmica”, quindi automatica in base alle etichette che vengono assegnate: no a contenuti violenti, contenuti che contengono parolacce o altro, o nudi. Accanto a questo c’è la forma di moderazione più manuale, migliaia di persone che forniscono queste etichette ed è possibile che si forniscano gli elementi per cui, allora sì, l’AI imparerà da sola quali contenuti limitare.

E’ certo che con i contenuti legati alla Palestina si sono alzate un pò le allerte dei servizi di moderazione. Non è una censura, la censura viene fatta per evitare che vengano dette alcune cose con un intento anche politico, qui lo scopo è limitare le visualizzazioni.

In questo senso il Digital Services Act (Il regolamento europeo sui servizi digitali approvato il 5 luglio 2022), per esempio prevede che le grandi piattaforme digitali debbano spiegare che cosa avviene nella moderazione dei loro contenuti. Come dire va bene li stai moderando, capiamo hai miliardi di contenuti al secondo ma ci puoi dire cosa stai facendo? perché questo ha effetto sulla nostra cittadinanza sulle nostre democrazie.

Qual è il confine?

L’Oversight Board è un ente costituito da Facebook come ente esterno che in qualche modo deve controllare quello che le decisioni che vengono prese (chiusura di profili o “Ban” di alcune parole) e che pubblica nei suoi rapporti anche spiegazione e analisi di quello che succede.

A volte pensiamo che la macchina abbia più intelligenza di quello che ha, e sembra che le correlazioni che fa siano delle scelte, invece sono solo nessi non connessioni. Siamo noi che abbiamo dato quelle regole. Quindi è fondamentale capire la parte umana che c’è in questo processo.

E in questa umanizzazione c’è anche la possibilità di aggirare errori e “bias”. Nel caso per esempio dei contenuti di cui viene abbassata la visibilità o vengono oscurati nei social media, gli attivisti e le attiviste usano dei linguaggi appositi per uscire dalle parole chiave con cui vengono etichettati i dati. Ad esempio se la parola problematica è Gaza io ci metto dei numeri in mezzo, ci metto delle lettere che non sono quelle riconoscibili; così è un po’ più difficile per le macchine attivarsi.

Quindi in questo è la consapevolezza, la chiave per distinguere fra errore e discriminazione.

Insomma, si chiede la moderatrice, quali sono gli aspetti positivi per sconfiggere la tesi secondi cui la macchina distruggerà l’umanità? Si è aperta la possibilità di “guardare il mostro negli occhi?”.

Per Ivana Bartoletti basta guardare al passato: la fotografia non ha cancellato la pittura, anzi ha generato nuove correnti artistiche. Ci sarà sempre più collaborazione tra noi e gli strumenti. Pensiamo ai progressi nella medicina: formulare precocemente una diagnosi, persino prima che si manifestino i sintomi. Sui rischi possiamo dire che sono i “mercanti del negativismo” che tendono a creare la paura, perché così si presentano come coloro che risolveranno i problemi dell’umanità. E infine nelle ci vedo un rilancio delle donne perché furono loro ad affrontare per prima il coding.

Donata Columbro propone la sperimentazione: “tocca tutto, non succede niente” le diceva il padre, programmatore di mestiere. Non si tratta solo di produttività. Pensiamo alle videochiamate come ci hanno cambiato la vita durante la pandemia. Ma anche a ChatGPT: esprimersi con un linguaggio tecnico con il medico o l’amministratore. In più, serve a farci vedere le dinamiche di potere, di chi costruisce il “dato”, di chi decide. Con maggiore consapevolezza è come colorare le cose col pennarello magico, le cose si vedono meglio.

Gianpaolo Nardi

gianpaolon@vicini.to.it

 

https://www.youtube.com/c/FondazioneCircolodeilettori/videos

*Ivana Bartoletti https://www.ingenere.it/prossima/ivana-bartoletti-il-futuro-dei-dati

**Donata Columbro https://donatacolumbro.it/

Prossimo incontro AI generativa: cosa cambierà? #4 Il professore onnisciente AI sregolata

Commenta per primo

Lascia un commento

L'indirizzo email non sarà pubblicato.


*


*