Apple передумала й не буде сканувати приватні фото користувачів

9 грудня 2022, 20:01
Читать новость на русском

Джерело:

The Verge

Численні скандали довкола намірів Apple сканувати вміст галерей користувачів у пошуках насилля над дітьми призвели до того, що компанія скасувала плани щодо впровадження технології. Тепер вона зосередиться на інших способах захисту неповнолітніх.

Apple припинила розробку технології, призначеної для виявлення матеріалів сексуального насильства над дітьми (CSAM) на пристроях користувачів. Цей план був оприлюднений восени минулого року й анонсував його впровадження в iOS 15. Детально про це ми писали в окремому матеріалі.

Цікаво Дві жінки подали до суду на Apple через переслідування колишніх партнерів за допомогою AirTag

Що відомо

Негативна реакція експертів з шифрування та конфіденційності не забарилася. Вони звинуватили компанію в розробці системи стеження, яка, потрапивши не в ті руки (наприклад, у розпорядження недемократичних урядів), стане інструментом шпигунства, дозволяючи націлюватись буквально на будь-що: фото з протестів, карикатури, незаконні (для місцевих правил) зображення тощо.

Компанія згодом оголосила про паузу в планах впровадження, намагаючись знайти спосіб покращити технологію та домовитися з експертами. Однак, судячи з нової заяви віцепрезидента Apple з програмного забезпечення Крейга Федерігі, тепер розробка й зовсім зупинена.

Сексуальному насиллю над дітьми можна запобігти, перш ніж воно сталося. Саме на це ми спрямовуємо нашу енергію насамперед,
– сказав Федерігі. 

Зараз компанія розширює використання наскрізного шифрування, застосовуючи його до резервного копіювання телефона, та додаючи інші нові функції, спрямовані на збереження конфіденційності та безпеки під час використання iMessage і для даних, що зберігаються в iCloud.

Варто зазначити, що Apple все ж впровадила частину цієї технології, а саме функцію, яка отримала назву "Безпека зв’язку в iMessage". Вона підключена до налаштувань Family Sharing і сканує вхідні та вихідні зображення на предмет "відверто сексуального" матеріалу в облікових записах дітей. Так, виявивши надіслане дитині фото порнографічного характеру, штучний інтелект автоматично розмиє його та запропонує допомогу в блокуванні співрозмовника. Початковий план передбачав також автоматичне сповіщення батьків про факт виявлення таких зображень, однак після релізу ця функція стала лише можливою опцією, яку можна ввімкнути за бажанням.