Немного о генеративных технологиях искусственного интеллекта

Генеративный ИИ совершенствуется бешеными темпами. Становится все сложнее определить, когда что-то, что вы видите в интернете, является реальным, а когда — сфабрикованным. И это касается не только статических изображений. Видео, созданные искусственным интеллектом, также улучшаются, а с появлением инструмента для преобразования текста в видео Sora от OpenAI, отличить факт от выдумки, созданной искусственным интеллектом, вскоре может стать сложнее, чем когда-либо.

Смотрите также 4 причины использовать Microsoft Copilot вместо ChatGPT

Так как же выявлять видео, созданные Sora и другими искусственными интеллектами? К сожалению, пока вам придется полагаться на собственную наблюдательность и внимательность. Чтобы помочь вам отточить свои навыки и узнать, на что следует обращать внимание, мы собрали несколько самых распространенных и заметных признаков подделки.

Вызов законам физики

Мы живем в мире, которым управляют устойчивые законы физики. Но часто этот факт игнорируется искусственным интеллектом. В своей статье OpenAI говорит об ограничениях Sora как симулятора: "Например, он неточно моделирует физику многих базовых взаимодействий, таких как разбитие стекла".

Вот видео, демонстрирующее подобный сценарий. Стакан подпрыгивает в воздухе без видимой причины, и жидкость проходит сквозь твердое стекло, которое само растворяется, когда падает на стол.

Пример "сломанных" законов физики в ИИ Sora: видео

Этот пример является, конечно же, чрезвычайно очевидным и заметным. Но иногда это могут быть какие-то мелочи. Пытаясь определить, было ли видео создано искусственным интеллектом, следует внимательно наблюдать за всеми явлениями в нем, независимо от того, ли это основное действие, или что-то, происходящее на заднем плане.

Кроме того, оценивайте свои ощущения во время просмотра. Когда вещи ведут себя не так, как должны, нам, людям, часто бывает некомфортно – это явление известное под названием "жуткая долина". Поэтому доверяйте своей интуиции. Если вам кажется, что что-то не так - даже если вы не можете точно определить, что именно, — воспринимайте это как возможный признак того, что видео заслуживает дополнительной проверки.

Нереальность последствий

Если вы откусите кусочек яблока, это означает что он отсоединится от него и исчезнет в вашем рту. Однако в случае ИИ это не всегда так. OpenAI отмечает, что "взаимодействие, как и употребление пищи, не всегда приводит к правильному изменению состояния объекта". То есть определенные действия в фейковых видео часто не имеют никаких последствий или выдают нереалистичные последствия.

Поэтому не менее важно отслеживать реакции, особенно действия, направленные на твердые объекты. Это может быть, например, отсутствие следов на снегу.

Последовательность бессмыслиц

Внимательно посмотрите на следующее видео и попробуйте указать, что с ним не так.

На первый взгляд, все очень реалистично. Мы видим статичный и весьма реалистичный кадр с рисунком акварелью и человеческую руку, которая рисует кистью. Однако, если присмотреться, можно увидеть, что человек рисует непрерывно, не макая кисть в новые цвета красок, тогда как мазки под ним постоянно разных цветов.

Аналогично с этим мы видели много случаев, когда в кадре человеческое тело буквально вело себя как пластилин или вода, перетекая из одного в другое, поглощая предметы или порождая их из себя. Это может происходить на фоне, размыто, и вы не обратите внимания, однако это явный указатель искусственности видео.

Смотрите также NVIDIA хочет заменить медсестер искусственным интеллектом за 9 долларов в час

Ищите знакомое

Технический директор OpenAI Мира Мурати неоднократно отказывалась сказать, на чем именно учили Sora, кроме как на "общедоступных и лицензированных данных". Если оставить в стороне этические и потенциальные юридические последствия этого, то это означает, что вы можете попробовать провести реверс-инжиниринг видео, чтобы увидеть, является ли оно настоящим или нет.

Ник Сен-Пьер, креативный директор и поклонник ИИ Midjourney, высказал одно интересное предположение и, похоже, подтвердил его. Он сформулировал подсказки, которые подходили к видео, созданных "Сорой", а затем пропустил их через Midjourney, чтобы сгенерировать неподвижные изображения. Он нашел более десятка примеров, где видео Sora – это не более, чем изображение Midjourney в движении.

Если вы хотите задействовать больше, чем ваши органы чувств, оценивая видео, придумайте подсказку, которая, по вашему мнению, была использована при его создании, и пропустите ее через один-два генератора текстов и изображений. Посмотрите, насколько они похожи. Также превратите подсказку в поиск в Google, чтобы найти источники, которые могли быть использованы для видео.

И наконец, будьте бдительны

Искусственный интеллект, превращающий текст в видео, все еще находится в зачаточном состоянии, и поскольку технология постоянно развивается, лучший способ избежать обмана — развиваться вместе с ней.

По мере того, как ИИ развивается и генерирует все более реалистичные видеоматериалы, нам нужно будет внедрять новые инструменты и методы, чтобы эффективно их выявлять. Так что не спешите расслабляться! Следите за новыми инструментами обнаружения и системами проверки подлинности.