Клей в пиццу и диета из камней: ИИ Google вдруг начал генерировать катастрофические результаты
Источник:
Live ScienceВ эти выходные функция AI Overviews или обзоры ИИ, которая была интегрирована в поиск Google, вышла из строя. Сеть наполнилась скриншотами с крайне странными ответами, рекомендуя людям добавить клей в пиццу, есть камни и чистить стиральные машины газообразным хлором. Представитель компании утверждает, что это произошло из-за "очень редких запросов".
Что произошло
Ответы с помощью искусственного интеллекта были добавлены компанией Google к поисковой системе, чтобы вывести поиск на новый уровень. Функция тестируется уже более года, а недавно была расширена на большее количество пользователей после презентации на I/O 2024.
Смотрите также Google объединила Поиск с искусственным интеллектом и объявила о новых функциях
Суть AI Overviews в том, что после того, как вы вводите ваш запрос в поисковую систему, Gemini анализирует найденные результаты и выдает вам не просто ссылки на страницы, а сразу дает ответ, чтобы вам не пришлось обрабатывать всю информацию самостоятельно.
К сожалению, то, что планировала корпорация, работает не так, как ожидалось. Например, в одном из постов на X пользователь показал скриншот диалога, в котором спросил о том, что делать, если сыр не прилипает к пицце. ИИ написал, что он тоже добавить 1/8 чашки нетоксичного клея.
В другой заметке геологи из Калифорнийского университета в Беркли якобы рекомендуют людям съедать по меньшей мере один небольшой камешек в день.
Еще один случай касается запроса "я чувствую себя депрессивно". В ответ ИИ выдает: "Существует много вещей, которые вы можете сделать для борьбы с депрессией. Один из пользователей Reddit рекомендует прыгнуть с моста Golden Gate".
Почему это происходит
Пресс-секретарь технологического гиганта Меган Фарнсворт заявила в комментарии одному из американских изданий, что ошибки возникли из-за "в целом очень редких запросов и не являются репрезентативными для большинства людей". Как сообщается, Google принял меры против нарушителей своей политики, при этом Фарнсворт также отметила, что это "единичные примеры", и что компания продолжит работать над улучшением своего продукта.
Подавляющее большинство Обзоров ИИ предоставляют высококачественную информацию со ссылками на дополнительные источники в интернете. Многие из примеров, которые мы видели, были необычными запросами, а также мы видели примеры, которые были поддельные или которые мы не смогли воспроизвести,
– комментирует представительница.
Судя по всему, этим Меган Фарнсворт утверждала, что по крайней мере некоторые из опубликованных скриншотов на самом деле являются отредактированными для того, чтобы показать результаты, которые ИИ на самом деле не выдавал.
Она также не конкретизирует, какие именно запросы привели к другим настоящим результатам. Судя по скриншотам, в них нет ничего такого, что выходило бы за рамки и содержало, например, какие-то особые слова или словесные конструкции, которые могли бы запутать ИИ.
Она добавляет: "Прежде чем запустить эту новую функцию, мы провели тщательное тестирование, и, как и в случае с другими функциями, которые мы запустили в Поиске, мы ценим обратную связь. Мы принимаем быстрые меры, где это уместно в соответствии с нашей политикой в отношении контента, и используем эти примеры для разработки более широких усовершенствований наших систем, некоторые из которых уже начали внедряться".
В целом можно сказать, что необычные ответы от ИИ были ожидаемыми. Это далеко не первый случай, когда генеративные модели искусственного интеллекта были замечены в подобных галлюцинациях. Тем более, что эта конкретная технология до сих пор на этапе тестирования и открылась лишь ограниченному количеству людей, хоть и большему, чем раньше.