Нам кажется, что сервисы на основе ИИ упрощают жизнь, упорядочивают работу, помогают в создании собственных проектов. Ведь когда у нас не хватает денег на нужного специалиста – можно использовать нейросеть, которая поможет с переводом текста, написанием сюжета, созданием картинки или иллюстрации, видео, озвучиванием и тому подобное. Все это прекрасно звучит, но сегодня 24 Канал расскажет вам о несколько иной реальности.

Читайте на сайте ИИ-клоны бывших: новый тренд или опасная ловушка?

Очевидные угрозы

Проблема ИИ гораздо серьезнее, чем принято считать. В то время как специалисты размышляют об автоматизации и вероятной потере рабочих мест людьми в далеком, или не очень далеком будущем, ИИ уже сегодня забирает работу миллионов людей. А популярность его ежедневно растет.

Кроме этого мы уже сталкиваемся с новым видом мошенников, которые могут представлять опасность даже для целых государств. И, конечно же ИИ может использоваться как оружие, например, пропаганда. Это могут быть не только фейки, связанные с конкретным лицом, но и искажение мнения общества или группы людей. Вариантов множество, от ложных высказываний до дипфейков способных поставить под угрозу репутацию, или важное политическое решение.

Что такое ИИ и как его распознать

Перед тем как знакомится с новыми технологиями, нужно узнать чем же на самом деле они являются, на что способны и как работают.

Нейросеть – это тип машинного обучения, при котором компьютерная программа имитирует работу человеческого мозга. Это искусственный интеллект (ИИ) в основе которого алгоритм, который глубоко изучает определенную тему и способен обучаться на определенной выборке данных.

Нейросеть
Нейросети – упрощенные копии человеческого мозга / Фото Unsplash

Они способны искать закономерности в неструктурированных данных и решать определенные задачи. То есть изучает полученный материал (труды человека, идеи, стиль и прочее), после чего создают нечто подобное на основе оригинала. Изучает, учится и, копируя оригинал, создает новый продукт.

Смотрите также ChatGPT сможет генерировать видео, это уже вызвало беспокойство по поводу распространения фейков

Распознать работу нейросетей сегодня, довольно просто. Если это изображение человека, нужно внимательно смотреть на лицо, волосы, руки и глаза. Лицо может иметь заметные отличия от реального человека, волосы могут иметь странный вид, руки – неправильную анатомию, а глаза могут казаться не живыми.

А если этого недостаточно, то можно обратить внимание на другие вещи. Например, надписи. Они или бессмысленные, или не читаются, или расположены в странных местах. ИИ также может ошибиться со шрифтом и крайне нереалистично располагать объекты.

Фото девушки сгенерировано ИИ
Фото девушки сгенерированное ИИ / Иллюстративное фото

Это также может быть странный фон, знакомые предметы, необычно выглядящие, животные необычного цвета и прочее. Еще одной проблемой ИИ является идеальный свет. На такой картинке всегда очень хорошо видны главные объекты. Это не только четкость самого изображения, но и освещение, которое имеет такой вид, как будто это фрагмент из фильма.

В других ситуациях свет может в одном фрагменте фотографии отличаться от другого. Или же просто может выглядеть неестественно. Также на изображениях, сгенерированных нейросетью, могут появляться заметные швы, резкие переходы, объекты, которые сливаются в одну форму.

Не пропустите Компания потеряла 25 миллионов долларов из-за обмана с использованием дипфейка

Угроза для людей и рабочих мест

Говоря о новых технологиях, не стоит забывать и о рисках для людей, а точнее для профессий. Ведь все мы помним появление станков, заводов и дальнейшее сокращение работников, которые остались без своей работы. Это привело к серьезным изменениям, однако нынешняя ситуация сильно отличается.

Начнем с того, что промышленная революция имела негативные последствия только для людей, которые выполняли не очень сложные задачи. Где не нужно было слишком много думать или воплощать в жизнь творческие идеи. Исчезновение таких профессий не имело особого негативного эффекта для общества. Потому что товар становился только доступнее, быстрее, появилось удобство использования привычных вещей. С нынешней ситуацией все иначе. Риск исчезновения нависает над очень большим количеством профессий – эффект на себе ощутит практически каждый житель планеты.

Робот
Сможет ли ИИ заменить человека, лишь вопрос времени / Фото Unsplash

Компания OpenAI, которая создала чат-бота ChatGPT, провела исследование, какие профессии в зоне риска. Вот перечень занятостей, что оказался под прямой угрозой уже в ближайшие годы:

  • Математики,
  • Специалисты по расчету налогов,
  • Финансовые аналитики,
  • Писатели и авторы,
  • Веб-дизайнеры и дизайнеры цифровых интерфейсов,
  • Переводчики,
  • Репортеры и журналисты,
  • Инженеры.

И это еще не весь перечень. И не стоит забывать о том факте, что технологии развиваются без остановки. В будущем полноценный искусственный интеллект сможет заменить человека практически в любом деле. Ведь он быстрее "мыслит" и обучается в самых разных сферах и все это в очень короткий промежуток времени. Кроме того, он очень быстро повышает качество и может работать без перерыва. Это делает человека неконкурентоспособным.

Вам будет интересно 10 сфер нашей жизни, которые искусственный интеллект изменит уже в ближайшие пять лет

Опасность для государств

Говоря об опасности "новых инструментов", нельзя забывать и об угрозе государств в частности и Украины сегодня. Мошенничество всегда использовали не только против обычных граждан, но и против государств. Раньше для того, чтобы кого-то обмануть, нужно было придумать правдоподобную историю, в которую можно было поверить, а потом как-то ее распространить. Сегодня для этого есть немало различных программ, нейросетей и Интернет. Все это может помочь преступнику осуществить задуманное.

Если говорить именно о пропаганде, то это может быть создание голосовых сообщений, фото, видео и других фейков. Разнообразие и качество материала, который можно создать с помощью ИИ уже сегодня, поражает. Конечно, все это может помочь в повседневной работе, однако следует помнить, что доступ к таким инструментам практически повсеместный и они гарантированно будут задействованы против нас самих.

Кроме того, доступность ИИ инструментов позволяет практически каждому создать и распространить пропаганду в социальных сетях, как это было с видео, где экс-главнокомандующий ВСУ Валерий Залужный якобы призвал к активным действиям против правительства. Качество такого контента у многих вызовет сомнения, но всегда найдется тот, кто поверит и распространит пропаганду дальше.

Фейк
ИИ позволяет создавать очень правдоподобные фейки / Фото Unsplash

Конечно, эту попытку направленную против нашего государства было несложно распознать. Однако это не финал развития подобных технологий и их возможностей. Они дальше будут развиваться и совершенствоваться, и наступит время, когда фейк будет визуально не отличаться от правды. Но всегда есть варианты проверки подобного материала. Например, внимательно изучить увиденное, проверить источник, найти официальное подтверждение. Это касается любого фейка.

К теме Генеральный директор OpenAI Сэм Альтман ищет 7 триллионов долларов, чтобы изменить мир

И конечно же это далеко не финал развития подобных технологий и их возможностей. Они будут становиться все более качественными и универсальными – совершенствоваться, и наступит время, когда фейк будет визуально не отличаться от правды.