Apple будет сканировать фото в iCloud: причина
Корпорация Apple начала проверять фото, которые загружают на облачный сервис iCloud. Снимки будут проверять относительно содержания сексуального насилия над детьми. Сканирование происходит автоматически, а если нарушение будет замечено, то пользователя заблокируют.
Об этом сказала директор по приватности Apple Джейн Хорват во время выставки CES 2020, передает telegraph.co.uk.
Важно: YouTube вводит новые правила для детей-зрителей: что изменится
Она подчеркнула, что Apple вынуждена прибегнуть к подобным технологиям, чтобы выявлять и бороться с сексуальным насилием над детьми.
Как это работает
Для защиты детей компания использует технологию сопоставления изображений. Система сравнивает электронные сигнатуры фотографий с уже имеющимися в базе, чтобы найти подозрительные снимки. Каждое совпадение изучают индивидуально и далее принимают решение, блокировать пользователя или нет.
Как известно, в 2019 Apple внесла изменения в политику приватности, добавив пункт о возможном сканировании изображений на предмет детского насилия.
CES 2020 стала первой выставкой, в которой Apple приняла участие за 27 лет. Но стенда или презентации новинок не было – присутствие ограничилось топ-менеджером по приватности.
Больше новостей, касающихся событий из мира технологий, гаджетов, искусственного интеллекта, а также космоса читайте в разделе Техно