IBM

IBM Riconoscimento Facciale

IBM abbandona il riconoscimento facciale

Condividi: La Algorithmic Justice League elogia la decisione di IBM di interrompere la fornitura di tecnologie di riconoscimento facciale di massa ed invita ai passi successivi: il cambiamento sistematico richiede risorse. IBM dovrebbe essere il capostipite del settore e ogni azienda dovrebbe impegnarsi a fornire almeno un milione di dollari per sostenere la giustizia razziale nella tecnologia. Ieri (8 giugno, NdT) IBM, coerentemente ai principi sottoscritti, ha annunciato la decisione di interrompere la fornitura di tecnologia di analisi e riconoscimento facciale di massa. Nell’annuncio, il CEO di IBM Arvind Krishna ha dichiarato:“IBM si oppone con fermezza e non ammetterà l’uso di alcuna tecnologia, inclusa la tecnologia di riconoscimento facciale offerta da altri fornitori, per la sorveglianza di massa, la profilazione razziale, le violazioni dei diritti umani e delle libertà fondamentali o qualsiasi altro scopo che non sia coerente con i nostri valori.“L’Algorithmic Justice League elogia questa decisione come primo passo in avanti verso la responsabilità aziendale per promuovere un’AI equa e responsabile. Si tratta di un gradito riconoscimento del fatto che la tecnologia di riconoscimento facciale, in particolare quella implementata dalla polizia, è stata utilizzata per minare i diritti umani e danneggiare specificamente i neri, nonché i Nativi (Indigenous People, NdT) e altre Persone di Colore (BIPOC).La decisione di IBM si basa sul lavoro della fondatrice di AJL, Joy Buolamwini, che con il Dr. Timnit Gebru ha pubblicato nel 2018 ricerche pionieristiche intitolate Gender Shades. Questo lavoro ha dimostrato che le tecnologie commerciali di riconoscimento facciale erano distorte sulla base del genere e del tipo di pelle, configurando una discriminazione razziale. A seguito del lavoro chiamato Actionable Audit guidato da Inioluwa Deborah Raji e pubblicato con Joy nel 2019, si è anche mostrata l’importanza della differenza di precisione nel riconoscimento facciale di massa. In particolare, i sistemi esaminati in questi studi – inclusi quelli di IBM, Microsoft e Amazon – hanno ottenuti risultati peggiori sui volti più scuri rispetto ai volti più chiari in generale, e peggiori sui volti femminili rispetto ai volti maschili, e pessimi sui volti femminili più scuri, evidenziando le implicazioni spesso invisibili ma critiche dell’intersezionalità.A differenza dei loro colleghi del settore, IBM ha risposto entro ventiquattro ore dalla ricezione dei risultati della ricerca e ha rilasciato una dichiarazione impegnandosi ad affrontare il bias dell’AI. Nell’annuncio di ieri, IBM ha fatto ancora una volta una mossa coraggiosa nella giusta direzione e incoraggiamo altre società tecnologiche a seguire l’esempio.Sappiamo anche che è necessario molto di più.Per sostenere le affermazioni pubbliche come Black Lives Matter, le aziende devono impegnare risorse per trasformare tale affermazione in realtà. Affinché le organizzazioni come la nostra continuino a svolgere il difficile lavoro di analisi tecnica e comunicazione pubblica su pregiudizi e conseguenze dei sistemi algoritmici, a sensibilizzare e sostenere l’interesse pubblico, le società tecnologiche devono contribuire a finanziare la capacità di azioni pubbliche.A tal fine, chiediamo alle aziende tecnologiche che traggono sostanziale profitto dall’intelligenza artificiale – a partire da IBM – di impegnare almeno 1 milione di dollari ciascuna per promuovere la giustizia razziale nel settore tecnologico. I soldi dovrebbero andare direttamente come offerte incondizionate per sostenere organizzazioni come la nostra che guidano questo lavoro da anni, così come Black in AI e Data for Black Lives.Chiediamo inoltre alle aziende che continuano a sviluppare una gamma di tecnologie di riconoscimento facciale di sottoscrivere il Safe Face Pledge, un meccanismo che abbiamo sviluppato per le organizzazioni affinché assumano impegni pubblici per mitigare l’abuso del riconoscimento facciale e della tecnologia di analisi. L’impegno proibisce l’uso letale della tecnologia, l’uso illegale nella polizia e richiede trasparenza in qualsiasi uso del governo.La giustizia razziale richiede giustizia algoritmica. Prendi posizione e sostienila con l’azione.L’Alhorithmic Justice League è un’organizzazione che unisce arte e ricerca per illuminare le implicazioni sociali ed i pericoli dell’intelligenza artificiale. La nostra missione è di aumentare la consapevolezza dell’impatto dell’AI, dotare il progetto di ricerche empiriche per sostenere campagne di sensibilizzazione, dare voce alle comunità più colpite e stimolare i ricercatori, politici ed industrie a ridurre i pericoli e gli errori dell’AI. Maggior informazioni su https:/ajlunited.orgTraduzione dell’articolo IBM Leads, More Should Follow: Racial Justice Requires Algorithmic Justice di Joy Buolamwini, Aaina Agarwal e Sasha Costanza-Chock pubblicato il 9 giugno 2020 su medium.com.Abbiamo richiesto alla Algorithmic Justice League il permesso di pubblicare, nella nostra traduzione, il commento alla recente decisione di IBM di ritirare il software di riconoscimento facciale. La AJL è impegnata a combattere i pregiudizi razziali presenti nell’AI. Condividi: