discriminazioni

algoritmo bias discriminazione

Come prevenire la discriminazione degli algoritmi

Condividi: La continua ibridazione fra uomo e macchina evidenzia sempre più il pregiudizio e la discriminazione umana. Molte volte sono reconditi ed inconsapevoli nelle nostre coscienze, ma palesi e dannosi nel digitale.Caso eclatante di discriminazione è stato l’accusa di sessismo rivolto alla Apple Card: secondo alcuni imprenditori alle donne sarebbero stati assegnati plafond di spesa inferiori agli uomini. O ancora, lo studio di Science #6464: un sistema informatico sanitario ampiamente usato negli USA discriminava i pazienti di colore negando loro l’accesso a determinati protocolli di cura privilegiando i bianchi.Discriminazione, non razzismo.Gli algoritmi non sono razzisti in sé, cioè non sviluppano autonomamente un sentimento di avversione verso qualche tipologia sociale umana. Eppure la logica risolutiva che l’uomo usa per definire l’algoritmo contiene l’origine di un comportamento discriminatorio. Non significa accusare di razzismo.Un caso illuminante è rappresentato da Joy Buolamwini, fondatrice dell’Algorithmic Justice League. La Buolamwini ha portato all’attenzione il fallimento dei bias del riconoscimento facciale delle donne di colore. Nel suo caso la riconoscono solo indossando una maschera bianca, lei originaria del Ghana. In Italia, ad esempio, dove la presenza di personale di colore nell’informatica è molto basso, il test di questo algoritmo sarebbe avvenuto su soli bianchi e non avrebbe evidenziato alcun problema. Inconsciamente, si sarebbe ritenuto capace di riconoscere ogni tipologia umana. Per questo motivo è preferibile parlare di discriminazione e non di razzismo.Correzioni.I produttori stanno rivedendo il proprio software, anche se questo pone un dubbio: la discriminazione, nata in un contesto sociale, può essere corretta senza emendare il contesto stesso?Alle società produttrici è chiesto di assumere delle policies tali da includere un’etica dei dati evitando, così, discriminazioni. Possiamo delegare le scelte etiche a Google o ad Apple? Possono aziende di profitti diventare esempi di etica sociale?Qualcuno suggerisce l’intervento dei Governi. Credo che sia utile solo nel caso ci sia una policy globalmente condivisa. Infatti, le linee guida dettate da Trump non avrebbero la garanzia necessaria di giustizia ed imparzialità, essendo dichiaratamente discriminatorie.Ancora una volta il problema è riconoscere un’etica superiore agli interessi personali e locali, globalmente condivisa ed accettata.L’etica è la declinazione di un valore assoluto.Continuiamo ad affermare la necessità di trovare valori comuni e condivisi, cioè assoluti. Neppure la Chiesa riesce più ad esprimere una posizione unitaria.La digitalizzazione ci costringe a ripensare seriamente al nostro modo di vivere insieme, a riscoprire i principi fondativi e a darne nuovi significati, a stabilire un nuovo contratto sociale. In definitiva a pensare ad una nuova cittadinanza dove uomini e macchine collaborino insieme. È necessario riportare il baricentro dell’attenzione all’etica della tecnologia, a dare forma a tutte le Carte dei Diritti che sono state scritte e dimenticate, ad una nuova alleanza capace di dare cittadinanza a tutti gli uomini, capace di svincolare il concetto di sopravvivenza dal concetto di profitto, a riscoprire il bene comune cominciando dalla Terra dove viviamo. Condividi: