Система сканирования фотографий пользователей для поиска сцен насилия над детьми должна была заработать с выходом iOS 15, то есть уже этой осенью. Но теперь планы изменились.
Интересно Ноутбук или стационарный компьютер: что выбрать
Что теперь
Как заявляет компания, она прислушалась к мнению пользователей, правозащитных организаций, исследователей по вопросам информационной безопасности и других заинтересованных лиц и решила не спешить с запуском технологии.
В ближайшее время Apple будет собирать отзывы и мнения, чтобы лучше понять ситуацию. После этого технологию доработают. В нее внесут необходимые изменения, чтобы не осталось сомнений в том, что она будет использоваться только с благой целью.
Соответственно, речь не идет об отказе от технологии, а лишь о ее временном переносе.
Объяснения не успокоили недовольных пользователей. Они видят в этом угрозу, ведь рано или поздно технология может превратиться в средство цензуры со стороны авторитарных государств и их правительств – алгоритм можно легко перенастроить на поиск контента, который считается запрещенным в конкретной стране. Пострадать могут активисты, журналисты, правозащитники, политические оппоненты.
Компания ничего не сказала о сканировании электронной почты. Две недели назад руководитель информационной службы Эрик Фридман признался, что Apple включила технологию сканирования данных iCloud Mail на предмет детской порнографии не 6 августа, а три года назад. Так же ничего не сообщили и о возможном переносе сканирования сообщений несовершеннолетних в iMessage – эта технология будет сообщать родителям, что их ребенок посмотрел или отправил порнографические изображения на своем смартфоне или планшете.