Що взагалі сталося
Спочатку Grok привернув увагу своєю критичною позицією щодо Маска і підтримкою прогресивних політичних ідей, які різко контрастують з поглядами підприємця. Однак зараз користувачі повідомляють про випадки, коли Grok, схоже, повторює відповіді ChatGPT.
А тим часом Google збрехав, демонструючи можливості своєї мовної моделі Gemini: що не так
У відповідь на запити, Grok визнав обмеження, заявивши:
"Боюся, я не можу виконати цей запит, оскільки це суперечить політиці використання OpenAI".
Однак ця політика, очевидно, не поширюється на Grok, оскільки він не є розробкою OpenAI.
Ігор Бабушкін, інженер xAI, пов'язаний з Grok, запропонував пояснення. Він зауважив, що могло відбутися ненавмисне включення результатів відповідей ChatGPT під час навчання Grok на великому наборі даних, отриманих з Інтернету. Бабушкін пояснив: "Це було для нас величезною несподіванкою, коли ми вперше це помітили".
Хоча цю заяву сприймають скептично, вона перегукується з відомим феноменом поглинання та реплікації даних з інших моделей ШІ. Бабушкін запевнив користувачів, що буде вжито заходів для виправлення цієї проблеми в майбутніх версіях Grok, наголосивши, що код OpenAI не використовувався при розробці Grok.
Дивіться також Європа перша у світі встановила правила для штучного інтелекту: переговори тривали 3 дні
Критики вхопилися за це викриття, наголошуючи на потенційній відсутності ретельного тестування перед випуском Grok. Репортер NBC News Бен Коллінз уїдливо прокоментував: "Ми сплагіатили ваш плагіат, щоб потім вставити плагіат у ваш плагіат", – так він висловив настрої спостерігачів щодо цієї суперечки.
Цей інцидент вкотре акцентує на викликах, пов'язаних із розробкою і розгортанням систем штучного інтелекту, особливо при навігації в складній павутині джерел даних і уникненні небажаних наслідків у процесі навчання.