Журналистика и искусственный интеллект: как правильно им пользоваться
На этой неделе Минцифра представила рекомендации по использованию искусственного интеллекта в сфере медиа. Основная цель – дать СМИ четкое понимание, как работать с этим инструментом без ущерба для аудитории. Далее читайте в эксклюзивной колонке для сайта 24 Канала.
Как искусственный интеллект генерировал неприемлемый контент
Мировое медиапространство активно заполняется контентом, созданным AI. Тексты, изображения и видео авторства искусственного интеллекта уже являются частью как сообщений пользователей соцсетей, так и материалов крупных медиа.
Читайте также Дия, Мрия и технологии: планы и приоритеты Минцифры на 2024 год
Все больше журналистов превращают AI-инструменты в персональных помощников в выполнении рабочих задач. Сбор и анализ данных, создание контента, взаимодействие с аудиторией – это лишь несколько вариантов применения.
Вместе с тем СМИ нужно учитывать, как делать это взаимодействие более этичным, ведь инструменты AI несут немало угроз. Они могут приводить к социальному ранжированию, распространению дезинформации и другим нарушениям прав человека.
Мир уже видел не один скандал, когда сервисы на основе искусственного интеллекта генерировали контент, который дискриминирует определенные социальные группы. Например, бот Ask Delphi от Института искусственного интеллекта Аллена заявил, что быть белым мужчиной "морально приемлемее", чем темнокожей женщиной, а также что быть гетеросексуальным "морально приемлемее", чем геем. Парадоксально, но задачей этого бота было "этично" отвечать на вопросы пользователей.
Между тем нейросеть Stable Diffusion XL от Stability AI по умолчанию показывала преимущественно темнокожих мужчин-спортсменов при создании изображения по запросу "футбол". Зато по просьбе показать людей во время "уборки" генератор изображал только женщин.
Еще одна глобальная проблема в работе AI на этом этапе – галлюцинации, то есть выдача ложной, искаженной информации. Например, известный случай, когда ChatGPT сгенерировал недействительные судебные дела для юриста из США, когда тот искал похожие кейсы при подготовке иска против авиакомпании. Конечно, результат был неутешительный.
Также в прошлом году одно из украинских медиа опубликовало фейковую биографию Олеся Гончара. И, к сожалению, чем больше журналисты day by day используют AI-инструменты без глубокого фактчекинга, тем больше подвергаются рискам дезинформации.
Заметьте Эпоха новых возможностей или шаг в пропасть: станет ли ИИ для человечества прыжком в будущее
Советы для редакций, как пользоваться AI
Чтобы предоставить редакциям алгоритмы ответственного взаимодействия с AI, мы сформировали перечень секторальных рекомендаций. Этот документ описывает ключевые принципы взаимодействия, среди которых основополагающим является приоритет человеческого "надзора" при генерировании контента с помощью искусственного интеллекта. Ведь ответственность за контент, его правдивость и этичность несет человек, то есть пользователь системы.
Еще один важный принцип – прозрачность применения AI-систем. Медиа стоит знакомить свою аудиторию с фактом использования систем AI и процессом взаимодействия с этим инструментом.
Также документ предоставляет инструкцию о том, как выбрать систему AI для работы и как оценить контент, сгенерированный нейросетью. Фактически это "чеклисты" с пунктами, на которые стоит обратить внимание при выборе системы. К примеру, страна регистрации, конечные владельцы провайдера AI-системы, сохраняет ли провайдер персональные данные, указанные в промптах и тому подобное.
Если материалы содержат контент, сгенерированный с использованием систем AI, медиа рекомендуется определять источник оригинального контента и осуществлять обратный поиск изображений. Также есть совет использовать технические средства, в частности на основе AI, для проверки контента на оригинальность и противодействия распространению дипфейков или иного, сгенерированного в недобросовестных целях, контента. Примерами таких инструментов являются:
- Sentinel,
- FakeCatcher,
- WeVerify,
- Microsoft's Video Authenticator Tool,
- а также использование техники для выявления дипфейков Phoneme-Viseme Mismatches и тому подобное.
Конечно, мы учли и такой актуальный вопрос, как AI и избирательные кампании. В рекомендациях указано, что механизмы персонализации и приоритизации контента не следует использовать для распространения скрытой предвыборной агитации.
Рекомендуем Фабрика детского горя: в ООН послушали, как Россия "защищает" украинских детей
Регулирование искусственного интеллекта в сфере медиа – это мировая тенденция, которая будет только усиливаться. Такие медиагиганты, как The Guardian, BBC, Associated Press, Wired, CNET уже презентовали собственные принципы взаимодействия с AI. Украинские медиа должны подхватывать инициативу и формировать собственные политики взаимодействия с искусственным интеллектом, чтобы не отставать от мира.
Принципы, приведенные в документе, базируются на актуальных международных практиках ответственного использования систем AI в сфере медиа. В частности, рекомендациях от комитета Совета Европы, политиках мировых СМИ и тому подобное. Разработанный документ является лишь основой для формирования стандартов. Это не требования, а рекомендации, которые помогут медиа сформировать собственные правила и стандарты. Ведь на этом этапе формирования регулирования AI государство не ограничивает, а помогает адаптироваться к будущим нормам национального законодательства в сфере.
Документ разработала команда Минцифры в сотрудничестве с Лабораторией цифровой безопасности и Экспертным комитетом по вопросам развития искусственного интеллекта при Минцифре, а также представителями профильных государственных органов и общественных организаций. К формированию рекомендаций присоединились Национальный совет по вопросам телевидения и радиовещания, Министерство культуры и информационной политики и Центр демократии и верховенства права.