Працівники Apple схвильовані кількістю помилкових реакцій нової технології "захисту дітей"

14 серпня 2021, 18:03
Читать новость на русском

Джерело:

9to5Mac

Кілька працівників Apple висловилися проти нової технології, яка, за словами керівництва компанії, покликана захищати дітей від жорстокого ставлення, насилля та порнографії, скануючи приватні сховища фотографій та листування користувачів. Вони стурбовані кількістю помилкових спрацювань системи.

Про запуск цієї неоднозначної технології відстеження ми вже писали раніше. Її критикують не лише звичайні користувачі, а й цілі компанії та спеціалісти з інформаційної безпеки. Як стало відомо, сумніви щодо нового алгоритму є й у працівників компанії Apple.

Цікаво ТОП-7 українських YouTube-каналів про технології: цікаво та корисно

Недоліки технології

Про те, що кілька розробників висловили побоювання з приводу нових функцій захисту неповнолітніх (CSAM) розповіли анонімні джерела з самої компанії.

Згідно з інформацією, одні погоджуються з точкою зору ІБ-спеціалістів, що технологія рано чи пізно потрапить у руки авторитарного уряду, інші ж незадоволені кількістю помилкових спрацьовувань – лише за тиждень надійшло понад 800 повідомлень.

Чим це загрожує? Судячи з усього, після того як штучний інтелект виявляє ймовірну ціль, до справи береться жива людина, яка повторно аналізує контент. Відповідно, якщо реакція алгоритму була помилковою, то працівник компанії отримує доступ до особистого контенту користувачів, який не є незаконним. Ба більше: таким чином, ймовірно, можна переглядати що завгодно, посилаючись на те, що це система дала сигнал, а працівник лише виконував повторну перевірку.

Інформація стала відома завдяки витоку з внутрішніх каналів Apple у Slack – корпоративного інструменту для спілкування, яку компанія почала активно застосовувати з початком пандемії, щоб налагодити віддалене спілкування працівників. Саме там працівники створили окрему гілку для обговорення CSAM.