Post a Comment Print Share on Facebook

reads.

Facebook per allenarsi AI sistemi che utilizzano il video della polizia

Facebook funziona con le organizzazioni di polizia per formare i propri sistemi di intelligenza artificiale per riconoscere i video di episodi di violenza come parte di un più ampio sforzo per reprimere l'estremismo.

Facebook AI sistemi erano in grado di rilevare in streaming video di una fucilazione di massa a una moschea a Christchurch, in Nuova Zelanda.

La fatica si farà uso del corpo-cam filmati di armi da fuoco di formazione erogate da stati UNITI e regno UNITO il governo e le forze dell'ordine. L'obiettivo è quello di sviluppare sistemi in grado di rilevare automaticamente in prima persona i fatti violenti senza contrassegno di simili immagini da film o video-giochi.

È anche espandendo la propria definizione di terrorismo per includere non solo gli atti di violenza che hanno partecipato al raggiungimento di un politico o ideologico obiettivo, ma anche tentativi di violenza, in particolare quelli orientati verso i civili, con l'intento di costringere e intimidire.

Facebook ha lavorato per limitare la diffusione di materiali estremisti sul suo servizio, finora con successo misti . In Marzo, ha ampliato la sua definizione di contenuti vietati per includere U.S. bianco nazionalista e separatista bianco materiale nonché da gruppi di terroristi internazionali. Si dice che ha vietato 200 supremazia bianca, organizzazioni e 26 milioni di pezzi di contenuti relativi a global gruppi terroristici come ISIS e di al Qaeda.

Estremista video sono solo un elemento di una lunga lista di disturbi Facebook facce. E ' stato multato di $5 miliardi di multa dal legislatore AMERICANO sopra la sua privacy. Un gruppo di procuratori generali ha lanciato la sua propria ricerca antitrust in Facebook. Ed è anche parte di un più ampio indagini "big tech" da parte del Congresso e il Dipartimento di Giustizia degli USA.

aumentare la regolamentazione potrebbe essere necessario per affrontare il problema dei materiali estremisti, ha detto Dipayan Ghosh, un ex Facebook dipendente White House e tech consigliere di politica che è attualmente Harvard compagni.

"Contenuto takedown saranno sempre molto controversa a causa delle piattaforme core modello di business per massimizzare l'impegno," ha detto. "E se le aziende diventano troppo aggressivi nei takedown, poi l'altro lato — compresi i propagatori di odio — grido."

Avatar
Your Name
Post a Comment
Characters Left:
Your comment has been forwarded to the administrator for approval.×
Warning! Will constitute a criminal offense, illegal, threatening, offensive, insulting and swearing, derogatory, defamatory, vulgar, pornographic, indecent, personality rights, damaging or similar nature in the nature of all kinds of financial content, legal, criminal and administrative responsibility for the content of the sender member / members are belong.