Что вообще произошло
Первоначально Grok привлек внимание своей критической позицией по поводу Маска и поддержкой прогрессивных политических идей, резко контрастирующих со взглядами предпринимателя. Однако сейчас пользователи сообщают о случаях, когда Grok, похоже, повторяет ответы ChatGPT.
А между тем Google соврал, демонстрируя возможности своей языковой модели Gemini: что не так
В ответ на запросы, Grok признал ограничения, заявив:
"Боюсь, я не могу выполнить этот запрос, поскольку это противоречит политике использования OpenAI".
Однако эта политика, по всей видимости, не распространяется на Grok, поскольку он не является разработкой OpenAI.
Игорь Бабушкин, инженер xAI, связанный с Grok, предложил пояснение. Он отметил, что могло произойти непреднамеренное включение результатов ответов ChatGPT при обучении Grok на большом наборе данных, полученных из Интернета. Бабушкин объяснил: "Это было для нас огромной неожиданностью, когда мы впервые заметили это".
Хотя это заявление воспринимают скептически, оно перекликается с известным феноменом поглощения и репликации данных из других моделей ИИ. Бабушкин заверил пользователей, что будут приняты меры по устранению этой проблемы в будущих версиях Grok, подчеркнув, что код OpenAI не использовался при разработке Grok.
Смотрите также Европа первая в мире установила правила для искусственного интеллекта: переговоры продолжались 3 дня
Критики ухватились за это разоблачение, отмечая потенциальное отсутствие тщательного тестирования перед выпуском Grok. Репортер NBC News Бен Коллинз язвительно прокомментировал: "Мы сплагиатили ваш плагиат, чтобы потом вставить плагиат в ваш плагиат", – так выразил настроения наблюдателей по этому спору.
Этот инцидент в очередной раз акцентирует внимание на вызовах, связанных с разработкой и развертыванием систем искусственного интеллекта, особенно при навигации в сложной паутине источников данных и избегании нежелательных последствий в процессе обучения.