Згідно з офіційною документацією, Meta тренувала модель Emu, використовуючи 1,1 мільярда фотографій з Instagram і Facebook, що викликає занепокоєння у захисників приватності. До вибірки увійшли зображення, позначені як "публічні", при цьому компанія Meta наголошує, що виключила приватні повідомлення і пости з даних для навчання.

А тим часом Google збрехав, демонструючи можливості своєї мовної моделі Gemini: що не так

Компанія позиціонує цей інструмент як "веселий і креативний" спосіб для користувачів створювати контент у чатах. Згідно з повідомленнями, модель Emu від Meta використовує процес під назвою "налаштування якості", який порівнює "естетичне вирівнювання" подібних зображень, що відрізняє її від конкурентів.

Фахівців непокоїть питання безпеки даних

Попри ці заяви, висловлюються занепокоєння щодо потенційного зловживання величезною кількістю даних користувачів, якими володіє Meta. Критики стверджують, що послужний список Meta у сфері захисту приватності користувачів далеко не бездоганний, і побоюються, що новий генератор зображень може стати кошмаром для приватності даних, який чекає на нас.

Президент Meta з глобальних питань Нік Клегг раніше заявляв, що компанія використовувала публікації у Facebook та Instagram для навчання свого віртуального помічника Meta AI та моделі зображень Emu, виключаючи приватні повідомлення та публікації, щоб уникнути "значного переважання особистої інформації".

Дивіться також Європа перша у світі встановила правила для штучного інтелекту: переговори тривали 3 дні

Анонс цього нового інструменту штучного інтелекту з'явився на тлі постійних перевірок практики обробки даних Meta, оскільки користувачі висловлюють побоювання щодо здатності компанії захистити їхню інформацію. Оскільки Meta розширює межі розробки ШІ, питання про безпеку даних і конфіденційність користувачів, швидше за все, залишаться актуальними.