Согласно отчету MIT Technology Review, многие модели ИИ являются “черными ящиками”, то есть их внутренняя работа непонятна и непредсказуема. Это создает вызов для исследователей, которые хотят объяснить, усовершенствовать и контролировать свои системы искусственного интеллекта.
Читайте на сайте "Бесится, что не его" – OpenAI ответила на дерзкий иск Маска
Некоторые эксперты объясняют недостаток понимания тем, что эта отрасль находится на стадии становления, утверждая, что зарождение ИИ означает, что иногда исследователям приходится работать, отталкиваясь от экспериментальных результатов и выводов.
Однако некоторые исследователи предупреждают, что такой подход является рискованным, особенно по мере того, как ИИ становится все более интегрированным в жизнь человека и общества. Они утверждают, что гарантии важны для обеспечения безопасности, надежности и этичности применения ИИ.
Если вы можете делать удивительные вещи, но не можете их контролировать, то это не так уж и удивительно. Это как ехать на авто на скорости 300 миль в час с шатким рулем,
– сказал Михаил Белкин, компьютерный ученый из Калифорнийского университета в Сан-Диего.
Ученые сходятся во мнении, что индустрия искусственного интеллекта должна разработать более строгие теоретические рамки и методы для понимания и проверки своих моделей.
А тем временем Британское правительство заменит часть госслужащих на искусственный интеллект
Ученые также призывают коллег к более тесному сотрудничеству и коммуникации друг с другом ИИ из разных дисциплин и с разным опытом.
"Это захватывающие времена. Многие люди в этой области часто сравнивают ее с физикой в начале 20-го века. У нас есть много экспериментальных результатов, которые мы не до конца понимаем, и часто, когда вы делаете эксперимент, он вас удивляет", – сказал Боаз Барак, компьютерный ученый из Гарвардского университета.