З моменту запуску GPT-3.5 на початку цього року зростає попит з боку розробників і підприємств на можливість кастомізації моделі. Ця функціональність дозволяє їм більш ефективно задовольняти специфічні потреби споживачів.

Дивіться також Позов New York Times проти OpenAI може змусити компанію стерти ChatGPT й почати все з початку

Наприклад, тепер компанії можуть створювати окремих чат-ботів, які вміють спілкуватися з клієнтами певними мовами або стилями. Важливо зазначити, що раніше ця функція кастомізації була доступна лише в моделях GPT-3, таких як davinci-002 або babbage-002.

Чому це справді крута ідея

Переваги можливості кастомізації дуже різноманітні. Вона забезпечує кращий контроль над поведінкою моделі, що призводить до кращого дотримання наданих інструкцій. Крім того, налаштовані моделі пропонують покращене форматування вихідних даних, що дозволяє генерувати відповіді у заздалегідь визначених макетах.

Можливість налаштувати тон моделі, включаючи імітацію голосу бренду для цілей реклами або внутрішньої комунікації, також є помітною перевагою. Для технологічних підприємств модель GPT-3.5 представляє потенціал для автоматизації створення рутинного коду або навіть уточнення та доопрацювання фрагментів коду.

Важливою технічною особливістю сімейства GPT-3.5 є можливість одночасної обробки до 4 000 токенів, що вдвічі перевищує продуктивність попередників. Експерименти з точного налаштування продемонстрували значне підвищення ефективності: час обробки запитів скоротився на 90% після точного налаштування.

Наскільки це дорого

З точки зору ціноутворення, структура витрат на GPT-3 залишається незмінною. Навчання коштує 0,008 долара за 1000 токенів, тоді як використання – як вхідні, так і вихідні дані – коштують 0,012 доларів за 1000 токенів оброблених даних.

Однак цей крок у розвитку штучного інтелекту не позбавлений проблем. Нещодавно OpenAI визнала, що використовує ботів для збору даних з численних веб-сайтів для навчання своєї нейронної мережі. Ця практика викликала занепокоєння серед творців контенту, які сприйняли її як привласнення контенту, оскільки боти OpenAI не реагують на трафік веб-сайтів, як звичайні пошукові боти.

Читайте на сайті Тепер навіть Paint отримає власний штучний інтелект

Ця розбіжність призвела до дебатів щодо етичних наслідків і потенційних правових наслідків. Можливість судових позовів проти OpenAI і необхідність дотримання правил індексації, викладених у файлі robots.txt, викликають занепокоєння.