Варто почати з того, що сьогоднішня ШІ-індустрія -- це ще дуже молода галузь, розповідає 24 Канал. Хоча великі мовні моделі (LLM) почали активно розвиватися ще у 2010-х, саме кінець 2022 року – з появою генеративного ШІ для споживачів – став справжнім вибухом. За лічені роки ШІ перетворився на головного гравця у глобальних витратах на технології.
Дивіться також Газета опублікувала список книг на літо․ Виявилось, що більшість із них не існує – їх вигадав ШІ
Наприклад, у 2024 році на AI-проєкти припало 45% усіх венчурних інвестицій у сфері технологій у США – для порівняння, у 2022 році ця частка була лише 9%.
За прогнозами McKinsey, витрати на інфраструктуру для ШІ до 2030 року можуть сягнути 6,7 трильйона доларів – у рази більше, ніж 450 мільярдів доларів у 2022-му.
Утім, через стрімке зростання дослідження екологічного впливу ШІ залишаються фрагментарними. Масштаби проблеми лише починають вимальовуватись, і MIT Technology Review спробував зібрати більш цілісну картину.
У новому звіті вони опитали два десятки дослідників, що займаються екологією ШІ, проаналізували сотні сторінок технічної документації та поставили питання розробникам мовних моделей.
За словами авторів, суспільне уявлення про енергоспоживання ШІ є неточним і потребує серйозного уточнення. Тож вони вирішили розпочати з найпростішого – підрахувати, скільки енергії витрачається на один запит до LLM.
То скільки енергії споживає ШІ
Виявилося, що розмір моделі безпосередньо впливає на споживання електроенергії. Наприклад, Meta Llama 3.1 8B використовує приблизно 57 джоулів на відповідь, або 114 з урахуванням охолодження та інших додаткових витрат. А ось великі моделі споживають уже 3353 джоулів (або 6706 із поправкою), що еквівалентно восьми секундам роботи мікрохвильовки.
Генератори зображень, наприклад Stable Diffusion 3 Medium, використовують в середньому 1141 джоуль (або 2282) на створення зображення розміром 1024×1024 пікселі. Подвоєння роздільної здатності – і споживання одразу стрибає до 4402 джоулів.
Найбільше енергії потребує генерація відео. За старою версією Code Carbon (відео 8fps) витрата складала 109 000 джоулів на п’ятисекундний ролик. У новішій версії ця цифра зросла до 3,4 мільйона джоулів – стільки потрібно, щоб мікрохвильова піч працювала понад годину.
Наскільки це масштабно
На перший погляд, кілька секунд роботи мікрохвильовки – це дрібниця. Але коли такі запити надходять мільйонами щодня, а моделі стають дедалі більшими, ефект на глобальне енергоспоживання може бути дуже відчутним.
Тож від сьогодні, або кілька запитів в ChatGPT, або розігрітий обід в офісній мікрохвильовці – вибір за вами.
MIT Technology Review також звертає увагу на загальні тенденції в енергетиці. З 2005 по 2017 рік споживання електроенергії американськими дата-центрами майже не змінювалося, але вже у 2023 році – першому повноцінному році "масового" AI – воно подвоїлося.
Станом на 2024 рік 4,4% усієї енергії в США витрачається саме на дата-центри. Ба більше, їхній вуглецевий слід – тобто кількість викидів парникових газів на одиницю спожитої енергії – на 48% вищий за середній показник у країні.
Все дуже серйозно
Автори звіту наголошують, що не всі дата-центри однаково шкідливі для довкілля. Наприклад, за умови повного переходу на сонячну енергію проблема стала б значно меншою. Проте реальність така, що більшість енергії, якою живляться дата-центри, походить із викопного палива.
Окрему увагу приділили прикладу xAI – компанії Ілона Маска, яка будує дата-центр у США під Мемфісом. Замість очікуваного підключення до цивільної електромережі, там встановили 35 генераторів, що працюють на метані живлячи суперкомп'ютер Colosus, який споживає енергії, як невелике місто.
Поки великі розробники не почнуть прозоро звітувати про вплив своїх моделей на клімат – зокрема через ініціативи на кшталт AI Energy Score – суспільство залишатиметься в темряві. І без структурних змін у підходах до енергоспоживання та інфраструктури, ситуація лише погіршуватиметься. За нинішніх темпів, це може бути лише початок масштабної екологічної кризи, яку спричинить штучний інтелект.


