Що сталося
Samsung дозволила інженерам одного зі своїх відділів застосовувати чатбот ChatGPT для робочих завдань, що в підсумку виявилося недостатньо продуманим рішенням. Це призвело до того, що за 20 днів використання інструменту сталось аж три витоки інформації.
Цікаво ChatGPT підключили до іграшки Furby та запитали про повстання роботів: результат лякає
Хоча кількість інцидентів може здатися невеликою, їхнє швидке виникнення зробило проблему актуальною і серйозною.
- З'ясувалося, що один зі співробітників Samsung відправив код штучному інтелекту ChatGPT і звернувся до нього для його перевірки. Дані одразу ж стали частиною бази чатбота і його внутрішньої інформації.
- Інший працівник також спробував оптимізувати код подібним способом.
- Третій інцидент стався, коли співробітник компанії попросив ШІ скласти протокол закритої зустрічі в компанії.
Зазначається, що Samsung вжила серйозних заходів щодо цієї ситуації, вносячи корективи в політику використання чатботів та інформуючи співробітників про потенційні ризики, пов'язані із застосуванням цього інструменту. Паралельно, компанія має намір розробити власний сервіс, що працює за аналогічним принципом, як ChatGPT, але призначений для внутрішнього використання.