Работники Apple взволнованы количеством ложных реакций новой технологии "защиты детей"
Источник:
9to5MacНесколько работников Apple высказались против новой технологии, которая, по словам руководства компании, призвана защищать детей от жестокого обращения, насилия и порнографии, сканируя частные хранилища фотографий и переписки пользователей. Они обеспокоены количеством ложных срабатываний системы.
О запуске этой неоднозначной технологии отслеживания мы уже писали ранее. Ее критикуют не только обычные пользователи, но и целые компании и специалисты по информационной безопасности. Как стало известно, сомнения относительно нового алгоритма есть и у работников компании Apple.
Интересно ТОП-7 украинских YouTube-каналов о технологиях: интересно и полезно
Недостатки технологии
О том, что несколько разработчиков выразили опасения по поводу новых функций защиты несовершеннолетних (CSAM) рассказали анонимные источники из самой компании.
Согласно информации, одни соглашаются с точкой зрения ИБ-специалистов, технология рано или поздно попадет в руки авторитарного правительства, другие же недовольны количеством ложных срабатываний – всего за неделю поступило более 800 сообщений.
Чем это грозит? Судя по всему, после того как искусственный интеллект обнаруживает вероятную цель, в дело вступает живой человек, который повторно анализирует контент. Соответственно, если реакция алгоритма была ошибочной, то работник компании получает доступ к личному контенту пользователей, который не является незаконным. Более того: таким образом, вероятно, можно просматривать что угодно, ссылаясь на то, что это система дала сигнал, а работник лишь выполнял повторную проверку.Информация стала известна благодаря утечке из внутренних каналов Apple в Slack – корпоративного инструмента для общения, которую компания начала активно применять с началом пандемии, чтобы наладить удаленное общение работников. Там работники создали отдельную ветку для обсуждения CSAM.