Это решение стало ответом на стремительное распространение контента, созданного искусственным интеллектом, и новые законодательные требования США по прозрачности технологий, объясняет MIT Tecnology Review.

Смотрите также Google выпускает Gemini 31 Pro с лучшими возможностями, чем когда-либо

Как именно Microsoft планирует защитить нас от цифровых подделок?

Предложенная схема верификации подобна подтверждению подлинности произведений искусства, например, картин Рембрандта. Можно отследить полную историю происхождения объекта или создать уникальную математическую подпись-метку на основе цифрового анализа, напоминающую отпечаток пальца. Это позволит любому пользователю проверить, является ли изображение или видео оригинальным.

Исследователи Microsoft протестировали 60 различных комбинаций методов проверки – от простого удаления метаданных до серьезных манипуляций с содержимым. Было выявлено, какие сочетания дают стабильно надежный результат, а какие только запутывают аудиторию. Важно, что эти инструменты не определяют "правдивость" самой информации, а лишь фиксируют факт вмешательства или изменений в материале.

Почему Microsoft взялась за это?

Потребность в таких стандартах обусловлена новыми законами, в частности калифорнийским "Законом о прозрачности ИИ", который начнет действовать в августе. Однако Microsoft пока не подтвердила, будет ли внедрять эти рекомендации в своих сервисах, например Copilot, Azure или LinkedIn.

Хотя компания еще в 2021 году предлагала стандарт C2PA, а Google с 2023 года маркирует ИИ-контент водяными знаками, инициатива может столкнуться с сопротивлением, если другие игроки рынка увидят в ней угрозу своим бизнес-моделям.

Почему проверка ИИ контента является проблемой?

Сейчас существующие системы маркировки работают несовершенно: исследование показало, что только 30% тестовых публикаций в популярных соцсетях (TikTok, YouTube, Instagram) получили корректные отметки о создании искусственным интеллектом.

В недавнем исследовании пророссийских видеороликов о войне в Украине, опубликованном на портале Open Minds, созданных с помощью искусственного интеллекта, комментарии, в которых указывалось, что эти видеоролики были созданы с помощью ИИ, получили гораздо меньше внимания, чем комментарии, в которых их рассматривали как настоящие.

Простая реакция алгоритмов на минимальное редактирование как на полную ИИ-генерацию подрывает доверие людей. Комплексный подход Microsoft призван уменьшить количество таких ошибок и сделать манипуляцию общественным мнением значительно сложнее.