
Разширена кройка
В специално разширено интервю чуйте как Руха Бенджамин и Дебора Раджи обсъждат практически стъпки за разработване на технологии за изкуствен интелект по начин, който води до повече равнопоставеност и равна справедливост – независимо дали технологичните компании са готови да забавят темпото си или правителствените стандарти, които приемат расова справедливост под внимание.
По-рано този месец, три големи технологични компании публично се дистанцираха от инструментите за лицево разпознаване, използвани от полицията: IBM казаха, че ще спрат всички подобни изследвания, докато Amazon и Microsoft казаха, че ще отложат пауза на всякакви планове за предоставяне на технология за лицево разпознаване на вътрешните правоприлагащи органи.
Главният изпълнителен директор на IBM Арвинд Кришна обясни, че този ход е заради използването на лицево разпознаване в расово профилиране и масово наблюдение . Установено е, че алгоритмите за лицево разпознаване, създадени от компании като Amazon погрешно идентифициране на цветнокожите , особено цветнокожите жени, на по-високи ставки — което означава, че когато полицията използва лицево разпознаване, за да идентифицира заподозрени, които не са бели, е по-вероятно да арестуват грешния човек.
Въпреки това компаниите предлагат тази технология на правителството. Само тази седмица Американският съюз за граждански свободи (ACLU) разкри документи, показващи, че Microsoft е била опитвайки се да продам разпознаване на лица на Администрацията за борба с наркотиците на федералното правителство поне от 2017 г., поставяйки под въпрос как точно да се дефинира „полиция“. Освен разпознаването на лица, технологията на Amazon вече помага за захранването на базите данни на правителствени агенции като ICE които са отговорни за неотдавнашните репресии срещу имиграцията.
Главните изпълнителни директори призовават националните закони да управляват тази технология или програмни решения за премахване на расовите пристрастия и други несправедливости от техния код. Но има и други, които искат да го забранят изцяло - и напълно да преосмислят как AI се разработва и използва в общностите.
Продуцентът на MolecularConceptor Кристи Тейлър разговаря с Облечи Бенджамин , социолог и изследовател на AI Дебора Раджи за връзката между AI и расовата несправедливост и техните визии за по-бавни, по-ориентирани към общността процеси за технологии и наука за данни.
Допълнителна информация
- Вземете a потопете се по-дълбоко в тази тема и научете за противоречивата програма за наблюдение на Детройт .
- Научете повече за Алгоритмичната лига на справедливостта .
- Научете повече за Технологичен проект на общността в Детройт .
- Научете повече за Данни за черни животи .
- Научете повече за Спрете шпионската коалиция на LAPD .
- Научете повече за Design Justice Network .
- Гледам Сегментът на Джон Оливър върху лицевото разпознаване.