Журналістика та штучний інтелект: як правильно ним користуватися
Цього тижня Мінцифра презентувала рекомендації з використання штучного інтелекту у сфері медіа. Основна мета – дати ЗМІ чітке розуміння, як працювати з цим інструментом без шкоди для аудиторії. Далі читайте в ексклюзивній колонці для сайту 24 Каналу.
Як штучний інтелект генерував неприйнятний контент
Світовий медіапростір активно заповнюється контентом, створеним AI. Тексти, зображення та відео авторства штучного інтелекту вже є частиною як дописів користувачів соцмереж, так і матеріалів великих медіа.
Читайте також Дія, Мрія і технології: плани та пріоритети Мінцифри на 2024 рік
Дедалі більше журналістів перетворюють AI-інструменти на персональних помічників у виконанні робочих завдань. Збір та аналіз даних, створення контенту, взаємодія з аудиторією – це лише кілька варіантів застосування.
Разом з тим ЗМІ потрібно зважати, як робити цю взаємодію більш етичною, адже інструменти AI несуть чимало загроз. Вони можуть призводити до соціального ранжування, розповсюдження дезінформації та інших порушень прав людини.
Світ вже бачив не один скандал, коли сервіси на основі штучного інтелекту генерували контент, який дискримінує певні соціальні групи. Наприклад, бот Ask Delphi від Інституту штучного інтелекту Аллена заявив, що бути білим чоловіком "морально прийнятніше", ніж темношкірою жінкою, а також що бути гетеросексуальним "морально прийнятніше", ніж геєм. Парадоксально, але завданням цього бота було "етично" відповідати на запитання користувачів.
Тим часом нейромережа Stable Diffusion XL від Stability AI за замовчуванням показувала переважно темношкірих чоловіків-спортсменів при створенні зображення за запитом "футбол". Натомість на прохання показати людей під час "прибирання" генератор зображував лише жінок.
Ще одна глобальна проблема в роботі AI на цьому етапі – галюцинації, тобто видача неправдивої, перекрученої інформації. Наприклад, відомий випадок, коли ChatGPT згенерував недійсні судові справи для юриста із США, коли той шукав схожі кейси при підготовці позову проти авіакомпанії. Звісно, результат був невтішний.
Також минулого року одне з українських медіа опублікувало фейкову біографію Олеся Гончара. І, на жаль, чим більше журналісти day by day використовують AI-інструменти без глибокого фактчекінгу, тим більше наражаються на ризики дезінформації.
Зауважте Епоха нових можливостей чи крок у прірву: чи стане ШІ для людства стрибком у майбутнє
Поради для редакцій, як користуватися AI
Щоб надати редакціям алгоритми відповідальної взаємодії з AI, ми сформували перелік секторальних рекомендацій. Цей документ описує ключові принципи взаємодії, серед яких основоположним є пріоритет людського "нагляду" під час генерування контенту за допомогою штучного інтелекту. Адже відповідальність за контент, його правдивість та етичність несе людина, тобто користувач системи.
Ще один важливий принцип – прозорість застосування AI-систем. Медіа варто знайомити свою аудиторію з фактом використання систем AI та процесом взаємодії з цим інструментом.
Також документ надає інструкцію щодо того, як вибрати систему AI для роботи та як оцінити контент, згенерований нейромережею. Фактично це "чеклисти" з пунктами, на які варто звернути увагу при виборі системи. До прикладу, країна реєстрації, кінцеві власники провайдера AI-системи, чи зберігає провайдер персональні дані, зазначені в промптах тощо.
Якщо матеріали містять контент, згенерований з використанням систем AI, медіа рекомендується визначати джерело оригінального контенту та здійснювати зворотний пошук зображень. Також є порада використовувати технічні засоби, зокрема на основі AI, для перевірки контенту на оригінальність та протидії поширенню діпфейків чи іншого, згенерованого в недобросовісних цілях, контенту. Прикладами таких інструментів є:
- Sentinel,
- FakeCatcher,
- WeVerify,
- Microsoft's Video Authenticator Tool,
- а також використання техніки для виявлення діпфейків Phoneme-Viseme Mismatches тощо.
Звісно, ми врахували і таке актуальне питання, як AI та виборчі кампанії. У рекомендаціях зазначено, що механізми персоналізації та пріоритизації контенту не слід використовувати для поширення прихованої передвиборчої агітації.
Рекомендуємо Фабрика дитячого горя: в ООН послухали, як Росія "захищає" українських дітей
Регулювання штучного інтелекту у сфері медіа – це світова тенденція, яка буде тільки посилюватися. Такі медіагіганти, як The Guardian, BBC, Associated Press, Wired, CNET уже презентували власні принципи взаємодії з AI. Українські медіа повинні підхоплювати ініціативу та формувати власні політики взаємодії зі штучним інтелектом, щоб не відставати від світу.
Принципи, наведені в документі, базуються на актуальних міжнародних практиках відповідального використання систем AI у сфері медіа. Зокрема, рекомендаціях від комітету Ради Європи, політиках світових ЗМІ тощо. Розроблений документ є лише основою для формування стандартів. Це не вимоги, а рекомендації, які допоможуть медіа сформувати власні правила та стандарти. Адже на цьому етапі формування регулювання AI держава не обмежує, а допомагає адаптуватися до майбутніх норм національного законодавства у сфері.
Документ розробила команда Мінцифри у співпраці з Лабораторією цифрової безпеки та Експертним комітетом з питань розвитку штучного інтелекту при Мінцифрі, а також представниками профільних державних органів та громадських організацій. До формування рекомендацій долучилися Національна рада з питань телебачення та радіомовлення, Міністерство культури та інформаційної політики та Центр демократії та верховенства права.