Реакция компании на инцидент
Facebook уже инициировал служебное расследование по данному инциденту и принес извинения, подчеркнув, что это "недопустимая ошибка". Компания пообещала разобраться и сделать все возможное, чтобы в будущем избежать подобных ситуаций.
К теме Это не шутка, а новая реальность: Facebook запустил сервис молитв онлайн и вызвал возмущение
Представители компании предварительно приостановили механизм, который дает рекомендации ИИ-алгоритму по маркировке видео.
Как мы уже отмечали, несмотря на то, что мы работаем над улучшением искусственного интеллекта, мы знаем, что он несовершенен и нам еще предстоит много работы. Мы приносим свои извинения всем, кто мог увидеть эти оскорбительные рекомендации,
– прокомментировала ситуацию пресс-секретарь Facebook Дени Левер.
О каком видео идет речь
Летом 27 июня на странице в профиле The Daily Mail появилось видео, в котором демонстрируются потасовки темнокожих мужчин с гражданскими лицами и полицейскими. Видео не имело никакого отношения к приматам.
Скриншот видео с ошибкой ИИ-алгоритма Facebook / 24 канал
Аналогичные ситуации с алгоритмами на базе искусственного интеллекта
Ранее неоднократно были зафиксированы случаи расизма со стороны искусственного интеллекта.
- Так, в 2015 году сервис Google Фото обозначил несколько снимков с темнокожими людьми как изображение "гориллы", за что Google пришлось приносить извинения. Тогда же было объявлено, что компания будет работать над немедленным устранением проблемы.
- Более чем через два года было установлено, что Google решила вопрос путем цензуры слова "горилла" в поисковых запросах, а также частичной блокировки слов "шимпанзе" и "обезьяна".
Стоит отметить, что техногиганты Google, Amazon и другие компании уже много лет находятся под пристальным наблюдением из-за предвзятости своих алгоритмов, особенно в расовых вопросах.