Нам здається, що сервіси на основі ШІ спрощують життя, впорядковують роботу, допомагають у започаткуванні власних проєктів. Адже коли в нас бракує грошей на потрібного фахівця – можна використати нейромережу, яка допоможе з перекладом тексту, написанням сюжету, створенням картинки чи ілюстрації, відео, озвученням тощо. Усе це чудово звучить, але сьогодні 24 Канал розповість вам про дещо іншу реальність.
Читайте на сайті ШІ-клони колишніх: новий тренд чи небезпечна пастка?
Очевидні загрози
Проблема ШІ набагато серйозніша, ніж заведено вважати. У той час, як фахівці роздумують про автоматизацію та ймовірну втрату робочих місць людьми в далекому, або не дуже далекому майбутньому, ШІ вже сьогодні забирає роботу мільйонів людей. А популярність його щоденно зростає…
Крім цього ми вже стикаємося з новим видом шахраїв, які можуть становити небезпеку навіть для цілих держав. І, звісно ж ШІ може використовуватися як зброя, наприклад, пропаганда. Це можуть бути не тільки фейк, пов'язані із конкретною особою, а й спотворення думки суспільства або групи людей. Варіантів безліч, від неправдивих висловлювань до діпфейків здатних поставити під загрозу репутацію, або важливе політичне рішення.
Що таке ШІ та як його розпізнати
Перед тим як знайомиться з новими технологіями, потрібно дізнатися чим же насправді вони є, на що здатні і як працюють.
Нейромережа – це тип машинного навчання, за якого комп'ютерна програма імітує роботу людського мозку. Це штучний інтелект (ШІ) в основі якого алгоритм, який глибоко вивчає певну тему і здатен навчатися на певній вибірці даних.
Нейромережі – спрощені копії людського мозку / Фото Unsplash
Вони здатні шукати закономірності в неструктурованих даних і вирішувати певні завдання. Тобто вивчає отриманий матеріал (праці людини, ідеї, стиль та інше), після чого створюють щось подібне на основі оригіналу. Вивчає, навчається і, копіюючи оригінал, створює новий продукт.
Дивіться також ChatGPT зможе генерувати відео, це вже викликало занепокоєння з приводу розповсюдження фейків
Розпізнати роботу нейромереж сьогодні, досить просто. Якщо це зображення людини, потрібно уважно дивитися на обличчя, волосся, руки й очі. Обличчя може мати помітні відмінності від реальної людини, волосся може мати дивний вигляд, руки – неправильну анатомію, а очі можуть здаватися не живими.
А якщо цього недостатньо, то можна звернути увагу на інші речі. Наприклад, написи. Вони або безглузді, або не читається, або розташовані у дивних місцях. ШІ також може помилитися зі шрифтом та вкрай нереалістично розташовувати об'єкти.
Фото дівчини згенероване ШІ / Ілюстративне фото
Це також може бути дивний фон, знайомі предмети, що незвично виглядають, тварини незвичайного кольору та інше. Ще однією проблемою ШІ є ідеальне світло. На такій картинці завжди дуже добре видно головні об'єкти. Це не тільки чіткість самого зображення, а й освітлення, яке має такий вигляд, наче це фрагмент із фільму.
В інших ситуаціях світло може в одному фрагменті світлини відрізнятися від іншого. Або ж просто може виглядати неприродно. Також на зображеннях, згенерованих нейромережами, можуть з'являтися помітні шви, різкі переходи, об'єкти, які зливаються в одну форму.
Не пропустіть Компанія втратила 25 мільйонів доларів через обман з використанням діпфейка
Загроза для людей та робочих місць
Говорячи про нові технології, не варто забувати і про ризики для людей, а точніше для професій. Адже всі ми пам'ятаємо появу станків, заводів та подальше скорочення працівників, які залишилися без своєї роботи. Це призвело до серйозних змін, однак нинішня ситуація сильно відрізняється.
Почнемо з того, що промислова революція мала негативні наслідки лише для людей, які виконували не дуже складні завдання. Де не потрібно було надто багато думати чи втілювати в життя творчі ідеї. Зникнення таких професій не мало особливого негативного ефекту для суспільства. Бо товар ставав лише доступнішим, швидшим, з'явилася зручність використання звичних речей. З теперішньою ситуацією все інакше. Ризик зникнення нависає над дуже великою кількістю професій – ефект на собі відчує практично кожен житель планети.
Чи зможе ШІ замінити людину, лише питання часу / Фото Unsplash
Компанія OpenAI, яка створила чат-бота ChatGPT, провела дослідження, які професії у зоні ризику. Ось перелік зайнятостей, що опинився під прямою загрозою вже в найближчі роки:
- Математики,
- Фахівці з розрахунку податків,
- Фінансові аналітики,
- Письменники та автори,
- Веб-дизайнери та дизайнери цифрових інтерфейсів,
- Перекладачі,
- Репортери та журналісти,
- Інженери.
І це ще не весь перелік. І не варто забувати про той факт, що технології розвиваються без зупинки. У майбутньому повноцінний штучний інтелект зможе замінити людину практично в будь-якій справі. Адже він швидше "мислить" та навчається в найрізноманітніших сферах і все це в дуже короткий проміжок часу. Крім того, він дуже швидко підвищує якість і може працювати без перерви. Це робить людину неконкурентоспроможною.
Вам буде цікаво 10 сфер нашого життя, які штучний інтелект змінить уже в найближчі п'ять років
Небезпека для держав
Говорячи про небезпеку "нових інструментів", не можна забувати і про загрозу держав зокрема й України сьогодні. Шахрайство завжди використовували не тільки проти звичайних громадян, а й проти держав. Раніше для того, щоб когось обдурити, потрібно було придумати правдоподібну історію, в яку можна було повірити, а потім якось її поширити. Сьогодні для цього є чимало різних програм, нейромереж та Інтернет. Усе це може допомогти злочинцеві здійснити задумане.
Якщо говорити саме про пропаганду, то це може бути створення голосових повідомлень, фото, відео та інших фейків. Різноманітність та якість матеріалу, який можна створити за допомогою ШІ вже сьогодні, вражає. Авжеж все це може допомогти в повсякденній роботі, однак слід пам'ятати, що доступ до таких інструментів практично повсюдний і вони гарантовано будуть задіяні проти нас самих.
Крім того, доступність ШІ інструментів дозволяє практично кожному створити та розповсюдити пропаганду у соціальних мережах, як це було з відео, де екс-головнокомандувач ЗСУ Валерій Залужний нібито закликав до активних дії проти уряду. Якість такого контенту в багатьох викличе сумніви, але завжди знайдеться той, хто повірить та поширить пропаганду далі.
ШІ дозволяє створювати дуже правдоподібні фейки / Фото Unsplash
Звичайно, цю спробу спрямовану проти нашої держави було не складно розпізнати. Однак, це не фінал розвитку подібних технологій та їх можливостей. Вони далі розвиватимуться й удосконалюватимуться, і настане час, коли фейк буде візуально не відрізнятися від правди. Але завжди є варіанти перевірки подібного матеріалу. Наприклад, уважно вивчити побачене, перевірити джерело, знайти офіційне підтвердження. Це стосується будь-якого фейку.
До теми Генеральний директор OpenAI Сем Альтман шукає 7 трильйонів доларів, щоб змінити світ
І звісно ж це далеко не фінал розвитку подібних технологій та їх можливостей. Вони ставатимуть дедалі якіснішими та універсальнішими – удосконалюватимуться, і настане час, коли фейк буде візуально не відрізнятися від правди.