В чем проблема? Анонимный источник отметил, что в некоторых случаях Siri записывает пользовательский язык после ложных активаций, передает Arstechnica.
Читайте также: Какую музыку украинцы чаще всего искали в Shazam: интересная статистика
Пробуждает виртуального помощника фраза "Hey, Siri", но анонимный источник сообщил о том, что запись может быть активирована похожими по звучанию словами или даже шумом грома.
Также сообщается, что в смарт-часах Apple Watch автоматическая активация Siri происходит тогда, когда устройство слышит язык.
Было собрано множество записей в ходе частных бесед с врачами, при проведении коммерческих сделок и прочее. Эти записи сопровождались пользовательскими данными, раскрывающими местоположение и контактную информацию,
– отметил анонимный источник.
Реакция компании Apple. Представители Apple заявили о том, что компания делает шаги, которые позволяют защитить пользователей от связи с записями, которые передаются подрядчикам.
Они отметили, что аудиозаписи не связаны с Apple ID, а разработчиками проверяется менее 1% ежедневных активаций Siri.
Больше новостей, касающихся событий из мира технологий, гаджетов, искусственного интеллекта, а также космоса читайте в разделе Техно