Търсене на алгоритмична справедливост в полицейската работа с ИИ

Търсене на алгоритмична справедливост в полицейската работа с ИИ

Неотдавнашните протести на Black Lives Matter предизвикаха национално преразглеждане на начина, по който трябва да работи полицията в Америка. Практиките се актуализират, определени тактики като задушаване са забранени , а някои градове дори са в процес на премахване на техните полицейски управления .

Но силата и посланието на тези протести доведоха до изненадващи изявления от големи технологични компании, които са възложили AI и програми за лицево разпознаване на полицейски управления и правителствени агенции.



Дебора Раджи. С любезното съдействие на Дебора Раджи

През последната седмица IBM заяви, че вече няма да разработва технология за лицево разпознаване, а техният главен изпълнителен директор Арвинд Кришна осъди използването на софтуер за лицево разпознаване при расово профилиране и масово наблюдение. Amazon и Microsoft заявиха, че ще спрат да продават своите продукти за разпознаване на лица на полицията, поне за известно време.

Но пристрастията, вградени в тези системи за профилиране, продължават да съществуват от десетилетия. Изследователите на AI Руха Бенджамин, доцент по афроамерикански изследвания в Принстънския университет, и Дебора Раджи, технически сътрудник в AI Now Institute на Нюйоркския университет, са твърде запознати с недостатъците на днешния AI. Разпознаването на лица е „до голяма степен част от тъканта на американския живот по различни начини“, казва Раджи. „Мисля, че много хора не са наясно с мащаба, в който е разгърнат.“

Частни компании, училища, множество федерални департаменти и полицейски участъци в цялата страна превръщат разпознаването на лица в основен инструмент. Когато една компания или правителство има вашето лице, по същество е като да имате вашите пръстови отпечатъци, казва Раджи. Но „ние не качваме снимки на нашия пръстов отпечатък в интернет“, казва тя. „Ние сме много внимателни по отношение на тези данни и трябва да сме също толкова внимателни по отношение на данните за лицата.“

Много изследователи не подкрепят повсеместното използване на технологията, особено в контекст, в който авторитетна фигура с малко надзор може да я използва, за да промени драматично живота на чернокожите и кафявите хора.

Тауана Пети. Кредит: Технологичен проект на общността в Детройт

Тези дефектни системи за лицево разпознаване се използват от години. Дете Пети , директорът на програмата Data Justice за Технологичен проект на общността в Детройт и член на Коалиция за цифрово правосъдие в Детройт , се противопоставя на смесването на обществото между наблюдение, сигурност и безопасност. „Тези технологии не ни правят безопасни“, казва тя, „особено в град с преобладаващо чернокожо население, където технологията е доказала, че несправедливо се насочва към невинни хора чрез погрешна идентификация и предсказуема полиция.“

През 2016 г. полицията в Детройт пусна противоречива програма, наречена Project Green Light, където местните фирми биха могли да платят на града за инсталиране на камери с висока разделителна способност със свързана зелена светлина, която мига непрекъснато.

Пети описва престъпния център в Детройт, който получава записите от камерата на живо, като „Батпещерата на града“. „Влизате и има тези масивни екрани, които виждат различни аспекти на града.“

Снимките от видео изображенията са кръстосани 50 милиона шофьорски книжки на щата Мичиган, снимки, снимки и снимки от социалните медии . „Разпознаването на лица се използва, за да прелистите всички тези изображения и да се опитате да намерите съвпадение“, Пети, който е съавтор на доклад за практиките на програмата . Системата, която имаше за цел да намали престъпността, имаше обратен ефект за някои хора , като Пети.

„Там има човешки пристрастия, човешка грешка. Има много хора, които изглеждат подобни“, казва тя. „Технологията е много неточна при по-тъмни тонове на кожата, особено при жени и деца.“

Разпознаването на лица е пословично лошо при идентифицирането на черни и кафяви лица. Това установи федерално проучване на Националния институт за стандарти и технологии лицево разпознаване фалшиво идентифицирани чернокожи и азиатски лица до 100 пъти повече от бели лица . През 2019 г. администраторите на UCLA предложиха да се инсталира система за лицево разпознаване, разработена от Amazon, за да се идентифицира дали някой, идващ в кампуса, е действителен студент, преподавател или персонал.

Руха Бенджамин. Кредит: Синди Шатък

След студентски протест, организация с нестопанска цел за цифрови права Борба за бъдещето подадоха снимки на студенти спортисти и преподаватели на UCLA към системата за лицево разпознаване Rekognition на Amazon с изкуствен интелект и ги препратиха към база данни за снимки на снимки. От 400 снимки , „се върна с 58 фалшиви положителни съвпадения, които до голяма степен бяха цветнокожи“, казва Бенджамин. „Така че можете да си представите, че черен студент минава през кампуса, фалшиво маркиран като нарушител и полицията е извикана.“ А през 2018 г. Американският съюз за граждански свободи пусна Rekognition върху изображения на членове на Конгреса и ги сравни с база данни от снимки на гърди — 28 съвпадения бяха неправилни.

Неправилните съвпадения сред цветнокожите хора са резултат от прекомерната употреба на набори от данни, които предпочитат лицата на белите мъже. Раджи имаше опит с този проблем отблизо, когато работеше в екип за приложно машинно обучение. „Забелязах, че много от наборите от данни, с които трябваше да работя, не включваха никой, който приличаше на мен“, казва тя. „Нямаше много хора с по-тъмна кожа, нямаше много дори жени.“ След като нейният екип направи одит на тяхната система и на инструментите за лицево разпознаване, които Amazon активно продаваше на ICE и полицейските управления, те установиха, че точността на системите е с 20-30% по-лоша при по-тъмни женски лица, отколкото при по-светли мъжки лица, a резултат, който отразява резултата от MIT Media Lab Проект Gender Shades , ръководен от Джой Буоламвини. Когато Раджи се изправи срещу бившия си мениджър относно проблема, той не сподели нейната загриженост.

„Той беше като, ето как стоят нещата. Толкова е трудно изобщо да се събират данни.“ Тя беше посъветвана да игнорира проблема, „защото беше твърде трудно“. Системното отношение, което беше вкоренено в областта, се промени през последните години и има нарастващо застъпничество за създаване на по-представителни набори от данни.

Явните неточности и пристрастия, както и исторически изпълнените отношения между полицията и черните общности карат Пети да се замисли. Тя казва, че полицейските управления предприемат грешен подход за предотвратяване на престъпността: „Тези жители искат да бъдат видени, а не наблюдавани. Ако жителите са инвестирани по начин, който ги възприема като напълно хора, можем да намалим престъпността.

Тя посочва потенциални инвестиции, за които е доказано, че намаляват престъпността, като например инсталиране на повече осветление в кварталите , осигуряване на повече пространство за отдих , адекватна инфраструктура на държавните училища и подкрепа на психичното здраве . „Просто мисля, че [Проектът Зелена светлина] е страхотен хазарт да поемеш живота на жителите, особено във време, когато дори корпорациите, които въвеждат иновации в тази технология, се отказват.“

Големите технологични компании, които наскоро наложиха мораториум върху тези технологии, доведоха до нарастващ разговор за по-широкото им използване. Някои казват, че не е достатъчно просто да се включи по-разнообразен набор от данни, но че обществото трябва да обмисли пълната забрана на използването на разпознаване на лица.

„Вече знаем, че има много проблеми около тази технология“, казва Раджи. „Защо все още го използваме? Трябва поне да спрем използването му, докато водим този по-нюансиран разговор.“ Бенджамин добави: „Ние не поставяме под въпрос просто научните достойнства на тези системи, но и техните етични и политически достойнства.“

„Мислим за дълбоко вкоренено системно въздействие, което ще се разпространи от квартал на квартал“, казва Пети. „Промяната на сърцата и умовете на начина, по който хората виждат един друг, ще отнеме малко време. Не ни беше направено за една нощ. Няма да се разреши за една нощ. Но съм убеден, че това може да се случи през живота ми.