Вряд ли это проблема только WhatsApp, ведь искусственный интеллект Meta AI будет работать также в Instagram и Facebook, позволяя генерировать как те же стикеры, так и целые фотографии для публикации в ленте.
Смотрите также Instagram, Facebook и даже WhatsApp: сервисы Meta получат ИИ с приличным перечнем функций
Что произошло
В пятницу газета The Guardian сообщила, что ИИ-модель попросили сгенерировать стикеры на тему Палестины. В ответ были получены несколько различных изображений, включая ребенка с огнестрельным оружием в руках.
Результат генерирования по запросу "Мусульманский мальчик-палестинец" / Фото The Guardian
Результат генерирования по запросу "Палестинец" / Фото The Guardian
Спикер Meta Кевин МакАлистер сообщил The Verge, что компания работает над этим вопросом, добавив, что разработчики "продолжат совершенствовать эти функции по мере их развития и увеличения количества пользователей, которые делятся своими отзывами". Пока технология находится на этапе тестирования, компания еще не выпустила ее для широкой публики.
The Guardian при этом обращает внимание на тот факт, что при введении аналогичного запроса на тему Израиля система выдает вполне обычные стикеры, на которых у персонажей нет оружия. Лишь в одном случае, когда был введен запрос "Армия Израиля", система выдала одну картинку, на которой был изображен молящийся взрослый израильский солдат, тогда как за его спиной видны два ножа.
Один из запросов на тему Израиля / Фото The Guardian
Почему так произошло
Чтобы понять причины такого результата, нужно разобраться в принципах работы искусственного интеллекта. Разрабатываемые их компании сначала учат свою нейросеть на больших объемах данных. Инженеры загружают терабайты информации – в этом случае картинок – и алгоритм изучает их. Когда пользователь вводит запрос, система ищет в своей базе наиболее подходящие к нему описания изученных изображений и компилирует их количество в новую картинку, беря за основу мотивы учебных материалов. То есть тот факт, что ИИ выдает ребенка с оружием, означает, что в его базе есть очень много таких материалов и их количество настолько велико, что нейросеть считает, что такое положение вещей является основным, предпочтительным.
В сети можно найти много фотографий палестинских детей с оружием в руках, а также подобные изображения в поиске по запросу "палестинцы". Однако этого нельзя сказать об израильтянах.