Apple передумала и не будет сканировать приватные фото пользователей
Источник:
The VergeМногочисленные скандалы вокруг намерений Apple сканировать содержимое галерей пользователей в поисках насилия над детьми привели к тому, что компания отменила планы по внедрению технологии. Теперь она сосредоточится на других способах защиты несовершеннолетних.
Apple прекратила разработку технологии, предназначенной для обнаружения материалов сексуального насилия над детьми (CSAM) на устройствах пользователей. Этот план был обнародован осенью прошлого года и анонсировал его внедрение в iOS 15. Подробно об этом мы писали в отдельном материале.
Две женщины подали в суд на Apple из-за преследования бывших партнеров с помощью AirTag
Что известно
Негативная реакция экспертов по шифрованию и конфиденциальности не заставила себя ждать. Они обвинили компанию в разработке системы слежки, которая, попав не в те руки (например, в распоряжение недемократических правительств), станет инструментом шпионажа, позволяя нацеливаться буквально на что-либо: фото с протестов, карикатуры, незаконные (для местных правил) изображения и прочее.
Впоследствии компания объявила о паузе в планах внедрения, пытаясь найти способ улучшить технологию и договориться с экспертами. Однако, судя по новому заявлению вице-президента Apple по программному обеспечению Крейга Федериги, теперь разработка и вовсе остановлена.
Сексуальное насилие над детьми можно предотвратить, прежде чем оно произошло. Именно на это мы направляем нашу энергию в первую очередь,
– сказал Федериги.
Сейчас компания расширяет использование сквозного шифрования, применяя его к резервному копированию телефона и добавляя другие новые функции, направленные на сохранение конфиденциальности и безопасности при использовании iMessage и данных, хранящихся в iCloud.
Стоит отметить, что Apple все же внедрила часть этой технологии, а именно функцию, которая получила название "Безопасность связи в iMessage". Она подключена к настройкам Family Sharing и сканирует входящие и исходящие изображения на предмет "откровенно сексуального" материала в аккаунтах детей. Так, обнаружив отправленное ребенку фото порнографического характера, искусственный интеллект автоматически размоет его и предложит помощь в блокировании собеседника. Первоначальный план предусматривал также автоматическое оповещение родителей о факте обнаружения таких изображений, однако после релиза эта функция стала лишь возможной опцией, которую можно включить по желанию.