Post a Comment Print Share on Facebook

reads.

I ricercatori dicono che Amazon faccia tecnologia di rilevamento mostra bias

Viso, tecnologia di rilevamento che Amazon è il marketing per l'applicazione della legge spesso confonde le donne, in particolare quelli con la pelle scura, secondo i ricercatori del MIT e dell'Università di Toronto.

Privacy e i diritti civili, gli avvocati hanno chiamato su Amazon per interrompere la commercializzazione e la Rekognition servizio a causa di preoccupazioni circa la discriminazione contro le minoranze. Alcune Amazon investitori hanno anche chiesto all'azienda di interrompere, per paura che si rende Amazon vulnerabili ad azioni legali.

I ricercatori hanno detto che nei loro test, Amazon tecnologia etichettato dalla pelle scura donne come gli uomini e il 31 per cento del tempo. Più leggeri dalla pelle le donne sono state erroneamente 7 per cento del tempo. Gli uomini dalla pelle scura era un 1% di tasso di errore, mentre più leggeri di pelle di uomini, non aveva nessuno.

intelligenza Artificiale in grado di simulare i pregiudizi dei loro creatori umani che fanno la loro strada nella vita di tutti i giorni. Il nuovo studio, pubblicato in ritardo giovedi, avverte il potenziale di abuso e rischi per la privacy e le libertà civili dal viso, tecnologia di rilevamento.

Matt Wood, direttore generale di intelligenza artificiale con Amazon cloud computing unità, ha detto lo studio si avvale di un "viso di analisi" e non "riconoscimento facciale" della tecnologia. Legno detto facciale analisi del grado di individuare i volti nei video o immagini e assegnare attributi generici, come ad esempio indossare gli occhiali; il riconoscimento è una tecnica diversa per il quale un individuo faccia è abbinato a volti in video e immagini."

In un post venerdì sul Medio sito web, MIT Media Lab ricercatore Gioia Buolamwini risposto che le aziende dovrebbero controllare tutti i sistemi che analizzano i volti umani per il bias.

"Se si vende un sistema che ha dimostrato di avere pregiudizi sul volto degli uomini, non è certo il tuo viso a base di prodotti sono inoltre completamente bias libero", ha scritto.

Amazon reazione dimostra che non è "veramente gravi preoccupazioni rivelato da questo studio serio", ha detto Jacob Neve, un avvocato con la American Civil Liberties Union.

Buolamwini e Inioluwa Deborah Raji dell'Università di Toronto ha detto che hanno studiato di Amazon, la tecnologia, perché l'azienda ha commercializzato per l'applicazione della legge. Raji su LinkedIn account dice che lei è attualmente una ricerca allievo intelligenza artificiale a Google, che è in competizione con Amazon in offerta e i servizi del cloud computing.

Buolamwini e Raji dire Microsoft e IBM hanno migliorato il loro riconoscimento facciale tecnologia dal momento che i ricercatori hanno scoperto problemi simili in Maggio 2017 studio. Il loro secondo studio, tra cui Amazon, è stato fatto nel mese di agosto 2018. La loro carta sarà presentato lunedì a un'intelligenza artificiale conferenza a Honolulu.

Legno detto Amazon ha aggiornato la sua tecnologia poiché lo studio e fare la propria analisi con "zero falsi positivi partite."

Amazon sito crediti Rekognition per aiutare Washington County Sheriff Office in Oregon accelerare quanto tempo è stato impiegato per identificare i sospetti da centinaia di migliaia di foto di record.

Avatar
Your Name
Post a Comment
Characters Left:
Your comment has been forwarded to the administrator for approval.×
Warning! Will constitute a criminal offense, illegal, threatening, offensive, insulting and swearing, derogatory, defamatory, vulgar, pornographic, indecent, personality rights, damaging or similar nature in the nature of all kinds of financial content, legal, criminal and administrative responsibility for the content of the sender member / members are belong.