Это уже сделали такие организации как Bank of America, Citigroup, Deutsche Bank, Goldman Sachs Group, Wells Fargo и JPMorgan Chase. Причем это касается даже простых рабочих задач.
Интересно У известного научно-фантастического журнала проблемы из-за ChatGPT
Причины запретов
Причиной стал тот факт, что ChatGPT и подобные ему системы часто выдают неактуальную или ошибочную информацию, что критично для финансового рынка. Среди проблем ChatGPT также отмечают безопасность. Ведь это фактически стороннее ПО, которое используется на корпоративных ПК.
В банках уже заявили, что технологии чат-ботов на базе ИИ необходимо проверить перед их использованием в деловой и финансовой сфере. Пока оценок такого рода не было сделано.
Когда SEC [Комиссия по ценным бумагам и биржам США, – 24 канал] постучится в вашу дверь и спросит, почему вы выполнили эту транзакцию, у вас должен быть лучший ответ, чем "ну, это машина сказала мне",
– говорит один из финансовых аналитиков.
Источник отмечает, что случаи использования нейросетей для рабочих целей – поиска и анализа данных – уже зафиксированы. Это получалось быстрее, чем искать информацию в интернете самому. Однако в ряде случаев данные были устаревшими, что требовало их повторной проверки и актуализации, то есть дополнительной траты времени.
Главный недостаток искусственного интеллекта
- ШИ не имеет ни собственного мнения, ни способности что-то действительно понимать и различать правду и ложь.
- Он только компилирует информацию из разных источников, выдавая результат по запросу пользователя.
- Если, например, он обратится к нескольким источникам, в которых написано, что Земля на самом деле плоская, то и в результатах его ответа будет повторяться то же самое.
- Вся суть в том, на каких именно данных обучать алгоритм. Если "скормить" ему обычный интернет, где можно найти огромное количество дезинформации, то и результат будет соответствующим.
- Таким образом, мы не можем доверять искусственному интеллекту в том, что он предоставит надежные советы о финансах, медицине, образовании или других вопросах.