Работники Apple взволнованы количеством ложных реакций новой технологии "защиты детей"

14 августа 2021, 18:03
Читати новину українською

Источник:

9to5Mac

Несколько работников Apple высказались против новой технологии, которая, по словам руководства компании, призвана защищать детей от жестокого обращения, насилия и порнографии, сканируя частные хранилища фотографий и переписки пользователей. Они обеспокоены количеством ложных срабатываний системы.

О запуске этой неоднозначной технологии отслеживания мы уже писали ранее. Ее критикуют не только обычные пользователи, но и целые компании и специалисты по информационной безопасности. Как стало известно, сомнения относительно нового алгоритма есть и у работников компании Apple.

Интересно ТОП-7 украинских YouTube-каналов о технологиях: интересно и полезно

Недостатки технологии

О том, что несколько разработчиков выразили опасения по поводу новых функций защиты несовершеннолетних (CSAM) рассказали анонимные источники из самой компании.

Согласно информации, одни соглашаются с точкой зрения ИБ-специалистов, технология рано или поздно попадет в руки авторитарного правительства, другие же недовольны количеством ложных срабатываний – всего за неделю поступило более 800 сообщений.

Чем это грозит? Судя по всему, после того как искусственный интеллект обнаруживает вероятную цель, в дело вступает живой человек, который повторно анализирует контент. Соответственно, если реакция алгоритма была ошибочной, то работник компании получает доступ к личному контенту пользователей, который не является незаконным. Более того: таким образом, вероятно, можно просматривать что угодно, ссылаясь на то, что это система дала сигнал, а работник лишь выполнял повторную проверку.

Информация стала известна благодаря утечке из внутренних каналов Apple в Slack – корпоративного инструмента для общения, которую компания начала активно применять с началом пандемии, чтобы наладить удаленное общение работников. Там работники создали отдельную ветку для обсуждения CSAM.