Искусственный интеллект помогает преследовать не только собственных граждан, но и представителей других национальностей, в которых власти страны видят угрозу. Все зашло настолько далеко, что полиция теперь не только реагирует на уже возникшие угрозы, но и пытается спрогнозировать будущие преступления и протесты – все, как в кино. Обеспечивает работу алгоритмов широкая сеть камер наблюдения, развернутая по всей стране.
Кто под подозрением
Согласно отчету New York Times, сегодня под пристальным наблюдением коммунистической партии Китая находится более 1,4 миллиарда человек. Они "фиксируются полицейскими камерами, которые установлены везде от углов улиц и потолков метро до вестибюлей гостиниц и многоквартирных домов. Даже их телефоны отслеживаются, их покупки отслеживаются, а их онлайн-чаты подвергаются цензуре.
Сейчас даже их будущее находится под наблюдением,
– отмечает издание.
Однако наибольшее опасение журналистов-расследователей вызвало то, что власть, известна своими нарушениями прав человека, особое внимание обращает на уязвимые группы, такие как этнические меньшинства, трудовые мигранты, люди с психическими заболеваниями и диагнозом ВИЧ.
- Началось все это два года назад, когда Китай использовал ИИ и распознавание попавших на видеокамеры лиц для отслеживания граждан, инфицированных коронавирусом.
- В то время общественность выразила обеспокоенность по поводу посягательств на конфиденциальность и согласие.
- Однако это мало интересует правительство, поэтому оно, по данным New York Times, начало закупать "технологию, использующую обширные данные наблюдения для прогнозирования преступлений и протестов до того, как они состоятся".
- Технология способна предупредить полицию, если человек, уличенный в потреблении наркотиков, делает слишком много звонков на один и тот же номер, или сигнализировать офицерам всякий раз, когда человек с историей психических заболеваний приближается к школе.
Пока неясно, применяют ли к возможным "нарушителям" какие-либо меры, если нарушение фактически не произошло, а есть лишь предположения искусственного интеллекта. Издание отмечает, что такой подход к обеспечению правопорядка может "автоматизировать системную дискриминацию и политические репрессии".