Министерство юстиции Великобритании совместно с полицией и другими ведомствами работает над проектом, имеющим амбициозную и одновременно противоречивую задачу – с помощью алгоритмов определять лиц, которые в будущем могут стать убийцами. Проект, который не рекламировался публично, стал известен благодаря документам, полученным правозащитной организацией Statewatch.
Используя алгоритмы искусственного интеллекта, полиция пытается "предвидеть" преступления до того, как они произойдут. В центре внимания – системы predictive policing, которые анализируют большие массивы данных, в частности историю правонарушений, социальные связи и географию рисков.
Такой подход обещает революцию в борьбе с преступностью, однако одновременно порождает много вопросов – от эффективности до этичности. Способны ли алгоритмы действительно сделать общество более безопасным? И не рискуем ли мы при этом превратить превенцию в предубеждение?
24 Канал рассказывает, как в Великобритании работают технологии прогнозирования преступлений, почему они вызывают споры и что об этом думают правозащитники.
Как это работает: алгоритм "риска убийства"
Проект называется Homicide Prediction Project. Он предусматривает использование больших объемов данных, в частности, из полицейской национальной компьютерной системы (Police National Computer), баз министерства юстиции и местной полиции Большого Манчестера.
По соглашению об обмене данными между полицией Манчестера и министерством юстиции, в рамках разработки системы была передана информация об от 100 до 500 тысяч человек. Это данные не только о подозреваемых, но и о жертвах, свидетелях, пропавших без вести, людях с историей психических заболеваний или социально уязвимых групп. В документе прямо указано, что данные о психическом здоровье, зависимости, самоповреждениях и инвалидности считаются "перспективными факторами".
Читайте также Тотальное видеонаблюдение МВД: как это работает в Китае, России и какие камеры уже установили в Киеве
Интересно! В прошлые годы британская полиция уже пыталась внедрить аналогичные системы. В феврале 2019 BBC сообщила, что по меньшей мере 14 полицейских управлений Великобритании использовали или планировали внедрить программное обеспечение для прогнозирования преступности. Эти системы, которые включают "прогнозирование карт преступности" и "индивидуальную оценку риска", анализируют исторические данные для определения потенциальных "горячих точек" преступности или лиц, которые могут совершить преступление или стать жертвами.
Правозащитная организация Liberty выразила обеспокоенность относительно предвзятости таких систем, отмечая, что они могут усиливать существующие неравенства и дискриминацию, особенно в отношении этнических меньшинств и малообеспеченных общин. Liberty также подчеркнула отсутствие прозрачности во внедрении этих технологий.
Некоторые полицейские управления, в частности в Эйвоне и Сомерсете, заявили, что их системы не учитывают данные об этнической принадлежности, поле или адресе, чтобы избежать предвзятости. Однако Liberty настаивает, что использование исторических данных, которые уже могут содержать предубеждения, может привести к несправедливому профилированию.
Среди компаний, которые разрабатывают подобное программное обеспечение, упоминались IBM, Microsoft, Predpol и Palantir.
Алгоритм разрабатывается внутренней командой Data Science Hub при министерстве юстиции. Задача – найти в имеющихся массивах мощные факторы риска совершения убийства. Сам проект описан как имеющий потенциал для будущего внедрения в оперативную практику.
По словам Софии Лайол, исследовательницы из Statewatch, этот проект вызывает серьезное беспокойство с точки зрения прав человека и системной дискриминации.
Министерство юстиции пытается построить систему, которая предсказывает убийства – это еще один пугающий и дистопичный пример правительственных попыток создать алгоритмы предсказания преступлений,
– говорит Лайол.
Она подчеркивает, что практика алгоритмического прогнозирования уже не раз проявляла свою необъективность:
Исследования снова и снова показывают: системы, которые якобы предсказывают преступления, имеют существенные недостатки. Тем не менее правительство продвигает ИИ-системы, которые начинают профилировать людей как преступников еще до того, как они что-то совершили.
Особое беспокойство вызывает использование чувствительных данных об уязвимости и психическом здоровье: создание автоматизированного инструмента, обозначающего людей как потенциально опасных, основываясь на данных о психическом здоровье, зависимости и инвалидности, – это крайне назойливое и тревожное вмешательство.
Не первый алгоритм – и не без проблем
Это не первая попытка британской юстиции внедрить системы оценки рисков с помощью данных. В уголовно-правовой системе уже функционирует инструмент OASys (Offender Assessment System), который прогнозирует повторное совершение преступления. Его оценки влияют на решения судей, категоризацию заключенных и сроки условного освобождения.
Впрочем, даже министерство юстиции признает, что точность этих моделей отличается в зависимости от расовой принадлежности человека. В одном из исследований говорится о том, что модель лучше прогнозирует поведение правонарушителей европейского происхождения, чем лиц азиатского, африканского или смешанного этнического происхождения. Особенно слабо модель работает для чернокожих правонарушителей.
К теме Безопасность или тотальный контроль: как Украина наращивает видеонаблюдение во время войны – анализ
Что в Украине с вопросом видеонаблюдения
После начала полномасштабной войны в Украине стремительно возросло количество камер наблюдения. В начале 2025 года их уже около 69 тысяч. Они помогают раскрывать преступления, отслеживать подозреваемых и даже фиксировать передвижение вражеской техники. В частности, благодаря им удалось расследовать убийство Ирины Фарион и установить личности российских военных, причастных к преступлениям на Киевщине.Впрочем, развитие этой системы сталкивается с проблемами. Законодательство пока не регулирует ни порядок установки камер, ни объем данных, которые они могут собирать. В 2024 году МВД подало соответствующий законопроект, но его до сих пор не приняли. Общество волнуется относительно потенциального злоупотребления, утечек персональных данных и киберугроз.
Еще одна проблема – технические риски. Часть камер ранее могла передавать данные на китайские или даже российские серверы. МВД уверяет, что в пределах своей ответственности минимизировало эти риски, однако ситуация с частными и региональными камерами остается неопределенной.
С 2022 года государство потратило на закупку камер почти 4 миллиарда гривен, преимущественно в тыловых регионах. В то же время 93% тендеров проходили без конкуренции.
Социальные факторы и статистика
В 2023 году министерство юстиции королевства провело статистический анализ, который изучал связь между предыдущими правонарушениями и вероятностью совершения убийства. Такие исследования, согласно документам министерства, используются как основа для совершенствования инструментов оценки риска.
В этих данных отмечалось, что более 20% лиц, совершивших несексуальные убийства, были чернокожими.
Также отмечено, что жертвы и подозреваемые чаще происходят из социально неблагополучных районов. По статистике Министерства внутренних дел, в 2018 году риск стать жертвой убийства у чернокожих британцев был более чем в 4,7 раза выше по сравнению с белыми. Вероятность быть подозреваемым в убийстве – в 8 раз выше для чернокожих лиц.
Интересно! В США эксперименты полиции с прогнозированием преступлений тоже не завершились удачно. В городе Плейнфилд в Нью-Джерси алгоритм предсказания преступлений, разработанный компанией Geolitica (ранее PredPol), почти не совпал с реальными преступлениями. Из более 23 тысяч прогнозов в 2018 году менее 0,5% соответствовали зарегистрированным инцидентам. Самый низкий показатель был в категории краж с проникновением – всего 0,1%.
Полицейские сами признавали, что почти не пользовались этим инструментом. Некоторые руководители даже ставили под сомнение целесообразность расходов на программное обеспечение – более 35 тысяч долларов за два года.
Несмотря на обещания технологий, эффективность таких систем оставалась сомнительной. Исследователи и правозащитники предупреждают: ложные предсказания не только тратят ресурсы, но и могут углублять предвзятость в полицейских практиках – особенно в отношении расовых и социально уязвимых групп.
Контроверсионная перспектива: как реагируют правозащитники
На фоне этих тенденций многие правозащитники обеспокоены тем, как подобные модели могут воспроизводить или даже усиливать существующее структурное неравенство. Алгоритмы, которые основываются на исторических данных полиции и социальных служб, неизбежно содержат в себе те же искажения и предубеждения.
Как указывает София Лайол:
Этот алгоритм, который использует данные от полиции, имеющей историю институционального расизма, только усиливать предвзятость, которая уже заложена в систему. Это – кодированный предвзятый подход к расовым и малообеспеченным общинам.
Правозащитники из организации Amnesty International также критикуют британскую технологию по предсказанию правонарушений. "Можно ли предсказать будущее? В британской полиции считают, что да. И делают это, профилируя целые сообщества – преимущественно по расовым и социальным признакам", – говорится в заявлении организации.
Сегодня около трех четвертей полицейских управлений в Великобритании используют технологии, которые должны помочь предсказать преступность. Это происходит на фоне глубокого недоверия к институтам, которые сами признают, что имеют проблемы с институциональным расизмом. И когда к этому добавляют еще и алгоритмы – имеем дело уже с автоматизированными формами дискриминации.
Идея "предсказуемой полиции" предусматривает, что система анализирует данные и на их основе определяет, кто может совершить преступление в будущем. Проблема в том, что алгоритмы обучаются на данных, которые уже содержат предвзятость: они закрепляют и воспроизводят расовое и социальное неравенство.
В итоге – целые районы и общины воспринимаются как потенциальная угроза просто потому, что они бедные или "не те".
В феврале 2025 года Amnesty International UK обнародовала отчет Automated Racism, в котором говорится о том, что практика автоматизированного предсказания преступности противоречит внутреннему и международному законодательству о правах человека.
Говорится о нарушении таких прав:
- Право на недискриминацию. Алгоритмы нацеливаются на людей из расовых меньшинств и лиц из малообеспеченных общин – прямо или косвенно. Это фактически закрепляет расовое профилирование на институциональном уровне.
- Право на справедливый суд и презумпцию невиновности. Людей обозначают как потенциальных преступников до того, как они что-то совершили. Это ставит под угрозу презумпцию невиновности и принцип справедливого судебного разбирательства.
- Право на приватность. Речь идет о массовой, недифференцированной слежке. Подобное вмешательство не может считаться пропорциональным или оправданным.
- Свобода ассоциаций и мирных собраний. Когда районы, в которых ты живешь или проводишь время, под наблюдением, это создает эффект сдерживания. Люди просто избегают этих мест, опасаясь лишнего внимания со стороны полиции.
Читайте также Уничтожение человечества к 2030-му? Превзойдет ли суперинтеллект по масштабу промышленную революцию
Эти инструменты не делают общество более безопасным. Они просто расширяют поле для дискриминации, распространяя восприятие целых сообществ как угрозы. Это лишь усиливает недоверие к полиции, делая правозащитную ситуацию еще более хрупкой. И хотя такие системы часто позиционируют как нейтральные технологические решения, по сути они являются продолжением предвзятых практик, просто в цифровой форме.