Дослідник заявив, що алгоритм пошуку дитячої порнографії легко обманути: Apple відповіла

19 серпня 2021, 20:04
Читать новость на русском

Джерело:

Reddit

Користувач знайшов алгоритм Apple CSAM у коді iOS 14.3. Він вивчив його, провів кілька тестів і опублікував звіт, згідно з яким технологію можна легко обманути. Компанія не згодна і вже відповіла на звинувачення.

Механізм компанії називається NeuralHash. Ми вже писали про те, яку реакцію у суспільстві викликали повідомлення про його розробку. Нова порція критики надійшла від користувача форуму Reddit з ніком AsuharietYgvar.

Цікаво ТОП-7 українських YouTube-каналів про технології: цікаво та корисно

Вразливий алгоритм

У процесі аналізу код вдалося виокремити й створити робочу модель. Її можна тестувати як окрему програму, завантажуючи в неї зображення. У результаті весь код опинився на GitHub, де з ним може ознайомитись кожен охочий.

Як заявив AsuharietYgvar, у результаті тестування стало ясно: алгоритм можна легко обманути. Для цього достатнього всього лиш повернути зображення або обрізати його. Зміна розміру і стиснення не ефективні.

Користувачі GitHub вже придумали способи обману з використанням NeuralHash. Наприклад, якщо якимось чином дізнатися хеш-коди зображень, які містяться в базі даних Apple (база, з якою будуть порівнюватися фотографії користувачів у процесі пошуку збігів), можна створити зображення з аналогічним хешем. Таким чином алгоритм зреагує на нього.

Однак у такого підходу є мінуси:

  • Компанія у своїх поясненнях роботи алгоритму заявила, що система налаштована так, щоб подавати сигнал лише після 30 і більше збігів.
  • Також для уникнення помилок звіти NeuralHash будуть перевіряти живі люди.
  • Невідомо, де знаходиться база даних з фотографіями. Компанія розповіла, що її надано низкою міжнародних організацій, котрі займаються питаннями насилля над дітьми. Вони цю базу контролюють і продовжують наповнювати. Проте що це за організації – не уточнюється. Відомо лише, що серед них є Національний центр зниклих дітей (NCMEC).

Відповідь Apple

Компанія швидко зреагувала на повідомлення і заявила, що це лише одна з частин коду і далеко не фінальна його версія. Остаточну ж версію обдурити не вийде, оскільки механізм NeuralHash є лише частиною значно складнішої технології. 

Відомо, що пошук незаконних зображень буде здійснюватись виключно на пристроях користувачів. На сервери компанії при цьому будуть передаватися лише звіти з хеш-даними виявлених збігів. 

Apple стверджує, що ймовірність того, що обліковий запис iCloud буде випадково позначено системою – один на трильйон. Компанія також оприлюднила інструкції для того, щоб спеціалісти з інформаційної безпеки переконалися, що алгоритм працює як слід.

До критики приєднуються держави

Тим часом світ продовжує реагувати на анонс технології. Влада Німеччини відправила Тіму Куку, генеральному директору компанії, офіційного листа з вимогою припинити розробку системи CSAM. 

Лист особисто написав голова комітету Німеччини з цифрового порядку Мануель Хоферлін. Він назвав алгоритм "найбільшим інструментом спостереження в історії", який знищує безпечне і конфіденційне спілкування.

Наостанок пан Хоферлін попередив, що дії Apple можуть призвести до того, що деякі держави просто заборонять діяльність компанії на своїй території і таким чином вона втратить ринок.

Цікавий факт: перша серійна клавіатура з українською розкладкою була реалізована саме в ноутбуках ASUS. Тут ви зможете підібрати ідеальний пристрій для дому, роботи, творчості, навчання чи ігор.