Сегодня говорить об этом еще очень рано. Системы ИИ, даже самые передовые, часто выдают искривленную информацию, лгут, манипулируют и даже прибегают к грубости. Поэтому им предстоит пройти долгий путь обучения и исправлений, чтобы получить право оказывать медицинские услуги.
Как это будет
Сэм Альтман на днях был особенно активен в твиттере, публикуя собственные размышления о будущем его технологии ChatGPT и вообще искусственного интеллекта. Одним из его прогнозов стало использование нейросетей для обучения и медицинского обслуживания.
Эти инструменты помогут нам быть более продуктивными (не могу дождаться, когда мы будем тратить меньше времени на электронную почту), более здоровыми (медицинские ИИ-консультанты для людей, которые не могут позволить себе лечение), умнее (студенты, которые используют ChatGPT для обучения) и веселее (ИИ-мемы, лол),
– написал Альтман.
Но в этом кроются и определенные опасности. Дело в том, что сам ИИ не имеет ни собственного мнения, ни способности что-то действительно понимать и различать правду и ложь. Он только компилирует информацию из разных источников, выдавая информацию по запросу пользователя. Если, например, он обратится к нескольким источникам, в которых написано, что Земля действительно плоская, то и в результатах его ответа будет повторяться то же самое. Вся суть в том, на каких именно данных обучать алгоритм. Если "скормить" ему обычный интернет, где можно найти огромное количество дезинформации, то и результат будет соответствующим.
Таким образом, мы не можем доверять искусственному интеллекту в том, что он предоставит надежные советы по здоровью и медицинской информации. Известны случаи, когда ИИ предоставлял ложную информацию, которая могла бы привести к смерти пациента.
- В одном из них ChatGPT сдавал экзамен для получения медицинской лицензии, но успеха не добился. Экзаменаторы отмечают, что ИИ "придумал" несколько несуществующих клинически важных открытий и исследований для аргументированного ответа на некоторые вопросы. В некоторых случаях решения ChatGPT были не только заведомо неправильными, но и могли бы привести к трагическим последствиям.
- Во втором случае журнал Men's Journal с помощью ИИ создал и даже опубликовал статью "Что все мужчины должны знать о низком уровне тестостерона", в которой дал советы по питанию и образу жизни и даже предложил конкретное лечение. Однако медики Вашингтонского университета раскритиковали материал, заявив, что он содержит кучу ошибок и неправильных утверждений.
Сэм Альтман считает, что мир достаточно быстро адаптируется к глубокой интеграции с инструментами ИИ, ведь у нее "слишком много плюсов". Однако до полезного ИИ нам еще очень далеко.