Детали

Стриминговый сервис использовал фотографии, чтобы проиллюстрировать ее "жизнерадостную, счастливую, уверенную и очень искреннюю" личность, как описал девушку школьный друг Нам Нгуен. Изображения, которые появляются примерно на 28-й минуте фильма "Что сделала Дженнифер" от Netflix, имеют все признаки снимков, сгенерированных искусственным интеллектом: деформированные руки, нереалистичные части лица и зубов, искривленные объекты на фоне и прочее.

Смотрите также Не дайте себя обмануть: 5 простых советов, как распознать видео, созданное ИИ

На одном из фейковых снимков можно заметить, что пальцы на обеих руках женщины будто слились друг с другом, плечо странно искривленное доверху, волосы смешались со шкафом и образовали что-то похожее на уши или рога, а фотографии, якобы наклеенные на шкаф, вообще является полной ерундой.

Поддельное фото
Одна из поддельных фотографий / Фото Futurism

Другой снимок показывает ту же девушку, у которой можно увидеть слишком длинный передний зуб, хотя первая фотография ничего такого не имела.

Поддельное фото
Поддельный снимок / Фото Futurism

Использование генеративного ИИ для описания реального человека в документальном фильме о настоящем преступлении вызвало недовольство зрителей. Они считают, что придумывание нарратива ради развлечения – это "вмешательство в саму ткань реальности с целью манипулирования правдивой историей, которая на самом деле произошла". Возможно, компания пошла на такой шаг из-за того, что не получила разрешения на использование реальных снимков.

К этому можно добавить и общую тенденцию к критике искусственного интеллекта. Существует определенное количество людей, которые выступают не только против использования ИИ в кинематографе (вспомним забастовки, которые охватили всю индустрию в прошлом году), но и вообще против существования ИИ в том виде, в котором он разработан сегодня. Дело в том, что для обучения алгоритмов часто используются нелицензионные материалы. Компании буквально "скармливают" нейросети терабайты снимков, не волнуясь о праве собственности. В результате ИИ выдает изображения, сгенерированные из частей незаконно использованных снимков.

Netflix пока что не комментировал ситуацию.