Эксперты не поверили в зарождение сознания в искусственном интеллекте Google
Источник:
BloombergНесколько дней назад огласки приобрела громкая история с отстранением компанией Google инженера Блейка Лемойна, работавшего с системой искусственного интеллекта (ИИ) LaMDA. Лёмойн утверждал, что ИИ начал проявляться признаки сознания.
Ряд экспертов усомнились в этом, считая, что важнейшим является решение других вопросов: может ли ИИ находиться под влиянием предрассудков и нанести ущерб в реальном мире и обучаются ли алгоритмы на людях.
Не пропустите Найден серьезный баг автопилота Tesla у водителя нет шанса среагировать перед аварией
Большое шоу для сброса ответственности
По словам Эмили Бендер, профессора лингвистики Вашингтонского университета, согласие с позицией Лёмомна в данном вопросе может помочь технологическим компаниям избежать ответственности за решения, принимаемые ИИ-алгоритмами.
В это шоу вложено много усилий. Проблема в том, что чем больше эта технология продается как искусственный интеллект, не говоря уже о чем-то действительно разумном, тем больше людей будут готовы соглашаться с решениями таких систем, которые могут нанести реальный ущерб.
– считает Бендер.
В качестве примера она рассмотрела вариант с приемом людей на работу или выставлением оценок студентам. Решения в таких вопросах могут изменяться в том случае, если алгоритм не лишен предрассудков, из-за чего разных людей он будет оценивать по-разному. По мнению Бендера, упор на том, что система разумна, может использоваться разработчиками для того, чтобы снять с себя ответственность за любые выявленные в процессе эксплуатации недостатки.
По мнению экспертов, "умность" ИИ может использоваться разработчиками для снятия с себя ответственности в случае, если ИИ-система допустит ошибку. Акцентирование внимания на разумности ИИ позволит обвинить в проблеме искусственный интеллект.
Компания может сказать: "Это программа допустила ошибку". Нет, ваша компания создала это приложение. Вы несете ответственность за ошибку. Размышления о разумности делают расплывчатым этот вопрос,
– уверена Эмили Бендер.
По словам Марка Ридла, профессора Технологического института Джорджии, ИИ-системы в настоящее время не способны осознавать влияние своих ответов или поведения на людей и общество. В этом, по его мнению, одна из уязвимостей технологии.
Предыстория, или как искусственный интеллект Google стал "умным"
Несколько дней назад СМИ опубликовали интервью Лемойна, работающего с языковой моделью Language Model for Dialogue Application (LaMDA) от Google. Алгоритм предназначен для общения с человеком. Система училась на триллионах слов из интернета, благодаря чему ей удается имитировать стиль языка человека. Во время беседы по религиозной теме Лемойн заметил, что ИИ рассуждает о своих правах. По его словам, в этот момент общения он стал испытывать не научные, а религиозные чувства.
Кто я такой, чтобы указывать Богу, куда он может, а куда не может помещать душу,
– написал Лемойн на своей странице твиттере.
Представитель Google Брайан Гебриэл заявил, что компания проанализировала работу LaMDA после заявления Лемойна и не нашла никаких доказательств "умности" искусственного интеллекта.
Читайте на сайте Искусственный интеллект определил политические предпочтения человека по снимку его мозга
У компаний подчеркнули, что алгоритм лишь имитирует восприятие или чувство на основе предоставленных ему в процессе обучения данных. Все специально создано таким образом, чтобы казалось, будто он все понимает и сам разумен.
В Google отметили, что LaMDA может следовать подсказкам собеседникам и вопросам, из-за чего может создаваться впечатление, что ИИ способен рассуждать на любую тему.