Полиция арестовала мужчину по указанию ИИ, хотя тот не имел сходства с настоящим преступником
- Полиция Нью-Йорка ошибочно арестовала мужчину, полагаясь на систему распознавания лиц, несмотря на значительные расхождения во внешности и наличие алиби.
- Этот случай подчеркнул риски использования искусственного интеллекта в правоохранительной деятельности.
Полиция Нью-Йорка ошибочно арестовала мужчину, доверившись данным системы распознавания лиц. Несмотря на значительные расхождения во внешности и наличие алиби, невиновный человек провел более двух дней за решеткой. Этот случай в очередной раз поднял вопрос о надежности и этичности использования искусственного интеллекта в правоохранительной деятельности и рисках, которые он несет для граждан.
Как технологии могут разрушать жизнь?
История Трэвиса Уильямса – яркий пример того, как чрезмерное доверие к технологиям может привести к фатальным ошибкам. В апреле его арестовали по обвинению в "публичном разврате", совершенном двумя месяцами ранее. Единственным основанием для подозрения стало то, что система распознавания лиц, проанализировав нечеткое видео с камеры наблюдения, выдала его фото среди шести "вероятных совпадений", пишет 24 Канал со ссылкой на New York Times.
Смотрите также Новый ИИ смоделировали по образцу человеческого мозга, и он превзошел все, что мы до сих пор имели
Результаты работы ИИ не является достаточным основанием для ареста. Даже следователь отметил, что любое лицо, идентифицировано таким образом, является лишь потенциальным подозреваемым. Однако когда алгоритм предложил шесть афроамериканцев с похожими чертами, в частности дредами и бородой, детективы добавили фотографию Уильямса к набору снимков, которые затем собирались показать жертве для опознания.
Этот метод также считается ненадежным из-за того, что человеческая память может быть неточной и создавать фальшивые воспоминания. Судя по всему, что-то похожее произошло и на этот раз, поскольку жертва, перед которой неизвестный мужчина ранее публично обнажился, уверенно указала именно на Уильямса. Теперь полиция получила повод для его задержания.
Мужчину обнаружили полицейские в бруклинском метро и доставили на допрос. Правоохранителей не смутило то, что подозреваемый не был визуально похож на лицо с видео, а на момент совершения преступления находился почти в 20 километрах от места происшествия. Кроме того, он был на 20 сантиметров выше и примерно на 32 килограмма тяжелее, чем настоящий преступник.
Трэвис Уильямс провел в тюрьме более двух суток. Впоследствии обвинения против него были сняты, а расследование дела о публичном обнажении вообще закрыли.
Риски современных технологий
Эта история демонстрирует, насколько опасным может быть использование современных технологий правоохранителями для быстрого раскрытия дел. Этот случай – не единичный. Из-за использования систем распознавания лиц постоянно задерживают не тех людей. Учитывая это, правозащитники настаивают на введении строгих правил, регулирующих применение подобного программного обеспечения, однако больших успехов в этом они пока не имеют.
Использование современных технологий, в частности искусственного интеллекта и систем распознавания лиц, действительно открывает новые возможности для борьбы с преступностью. Однако эти инструменты несут значительные риски, связанные с техническими недостатками, предвзятостью и возможностью злоупотреблений.
Одной из главных проблем является то, что системы ИИ могут воспроизводить и даже усиливать имеющиеся в обществе предубеждения. Если данные, на которых обучается алгоритм, содержат диспропорции (например, больше данных о преступлениях в районах с преимущественно этническими меньшинствами), ИИ может начать ассоциировать определенные группы людей с преступностью. Это приводит к чрезмерному вниманию полиции к этим сообществам, что создает замкнутый круг: больше патрулирования ведет к большему количеству арестов, что, в свою очередь, "подтверждает" для алгоритма правильность его предвзятых прогнозов.
Технология распознавания лиц не является безупречной и может давать сбои из-за ряда факторов:
- Низкое качество изображения. Плохое освещение, низкое разрешение или неудачный ракурс камеры значительно снижают точность распознавания.
- Частичное закрытие лица. Такие элементы, как очки, маски, шарфы или даже борода, могут стать препятствием для корректной идентификации.
- Изменения во внешности. Алгоритмы могут не узнать человека, если его внешность изменилась со временем.
Так называемые ложно-положительные результаты, когда система может ошибочно идентифицировать невиновного человека как подозреваемого, широко освещаются в СМИ.
- Например, в The New York Times можно найти историю о трех арестованных лицах, которые оказались за решеткой после неудачных совпадений распознавания лиц. Полиция искала похитителей часов в январе 2020 года в Детройте. Система сопоставила нечеткое изображение с камеры наблюдения с фотографиями невинных людей. Из-за этого один из мужчин провел под стражей 30 часов. Этот случай считается первым задокументированным ошибочным арестом из-за технологии распознавания лиц.
- В ноябре 2022 года мужчину из Джорджии был арестован по обвинению в краже дорогих сумок в Луизиане, где он никогда не был. Единственным доказательством против него был результат работы системы распознавания лиц. Рид провел в тюрьме шесть дней, прежде чем ордер на арест отменили. Позже он получил компенсацию в размере 200 000 долларов.
- Среди других случаев можно вспомнить арест беременной женщины, Порши Вудрафф, которую обвинили в угоне автомобиля.
- Сейчас только в США известно как минимум о семи подтвержденных случаях ложной идентификации. Сколько таких по всему миру, неизвестно.