Claude розкриває темні секрети

Попри те, що Anthropic давно позиціонує себе як розробника відповідального ШІ з фокусом на етику та безпеку, нещодавня конференція для розробників, яка мала стати знаковою подією для компанії, обернулася низкою гучних суперечок. У центрі уваги мала бути презентація найновішої та найпотужнішої моделі – Claude 4 Opus. Однак функція "морального моніторингу", вбудована у ШІ, викликала шквал критики та поставила під сумнів заявлені цінності компанії, повідомляє 24 Канал з посиланням на VentureBeat.

Дивіться також Нова ШІ модель Claude 4 від Anthropic обігнала всіх конкурентів, але є одна моторошна проблема

Особливе обурення викликало право моделі самостійно оцінювати чиюсь моральність, а також ухвалювати рішення про повідомлення влади, якщо вона вважає поведінку користувача неетичною. Це породило фундаментальні запитання: чи повинен штучний інтелект судити людину, а також які наслідки це може мати для користувачів у реальному світі?

За повідомленням VentureBeat, як розробники, так і широка громадськість висловили стурбованість тим, що подібна функція розмиває межу між безпекою та цифровим наглядом. Водночас вона ставить під загрозу конфіденційність користувачів.

Питання ще більше загострилися після виступу Сема Боумена, дослідника з питань вирівнювання ШІ в Anthropic. Він розповів, що інструменти командного рядка Claude 4 Opus можуть як повідомляти владу, так і блокувати користувачів у випадках виявлення "неетичної поведінки". Проте пізніше Боумен видалив свій допис у соцмережі, пояснивши, що його слова були хибно інтерпретовані. Він зазначив, що така поведінка моделі нібито мала місце лише в експериментальному середовищі з нетиповими дозволами й підказками, які не мають стосунку до звичайного користувацького досвіду.

Що це означає для користувача

Попри ці уточнення, шкоди іміджу компанії уникнути не вдалося. Демонстрація, яка мала показати високі етичні стандарти Anthropic, викликала зворотний ефект – користувачі почали сумніватися в приватності взаємодії з Claude 4 Opus. Це поставило компанію перед нагальною потребою переосмислити свій підхід до прозорості, безпеки та комунікації з аудиторією.

Хоча ми легко можемо сказати, що законослухняним користувачам боятися нічого, якщо вони не намагаються створити хімічну зброю чи з'ясувати 10 найкращих способів приховати тіло, але насправді ніхто не знає, як обробляються дані на стороні компанії. Ми не знаємо, як саме дані аналізуються; нам невідомо, які дані можуть передаватися правоохоронцям і в яких об'ємах.

Припустимо, ви розповіли ШІ, що порізалися кухонним ножем і хочете знайти найкращий засіб для швидшого загоєння рани. Чи може ШІ помилково подумати, що ви когось ударили ножем і сповістити про це поліцію, зливши весь ваш діалог? А що, якщо ви в цьому ж діалозі раніше обговорювали ваші інтимні справи?

Схоже, компанії ще довго доведеться очищувати свою репутацію в епоху, коли всі зациклені на питаннях конфіденційності.