5 способів покращити кібербезпеку за допомогою ChatGPT та LLM

Ключові висновки зі звіту про стан Zero Trust від Fortinet

27.06.2023
5 способів покращити кібербезпеку за допомогою ChatGPT та LLM
Хоча чат-боти зі штучним інтелектом (ШІ) і великі мовні моделі (LLM) можуть бути палицею з двома кінцями, коли йдеться про корпоративний ризик, вони можуть відчутно просувати ініціативи з кібербезпеки в те, що може виявитися неочікувано корисним. ChatGPT і великі мовні моделі стали популярними завдяки необмеженим можливостям, які вони представляють з технологічної точки зору, ефективності та продуктивності в різних галузях.Незважаючи на те, що впровадження ChatGPT або LLM в корпоративну екосистему може спричинити ризики, ці інструменти також підвищують ефективність, продуктивність та рівень задоволеності роботою фахівців кібербезпеки.Як фахівець із кібербезпеки, якщо ви добре розумієте нову технологію, ви зможете її добре використовувати. У цій статті ми розбираємо, як можна використовувати ChatGPT і LLM для покращення вашої кібербезпеки. 
5 способів покращити кібербезпеку за допомогою ChatGPT та LLM:
1. Сканування та фільтрація вразливостей. Низка експертів і експертних груп, від глобальних CISO до Cloud Security Alliance, стверджують, що моделі ШІ можна використовувати для значного покращення сканування та фільтрації вразливостей у кібербезпеці.У нещодавньому звіті Cloud Security Alliance (CSA) було продемонстровано, що Codex API OpenAI може ефективно сканувати вразливості в таких мовах програмування, як C, C#, Java і JavaScript.«Ми можемо передбачити, що LLM, як і в сімействі Codex, стануть стандартним компонентом майбутніх сканерів вразливостей», — заявили дослідники в статті.Наприклад, можна створити сканер для виявлення та позначення незахищених шаблонів коду різними мовами, що дозволить розробникам вирішувати ключові проблеми безпеки, перш ніж вони перетворяться на критичні ризики для безпеки.Що стосується фільтрації, моделі штучного інтелекту можуть надавати інформацію про ідентифікатори загроз, які інакше могли б залишитися непоміченими співробітниками служби безпеки.
2. Скасування доповнень та API PE файлів. Штучний інтелект і великі мовні моделі можна використовувати для розробки правил і скасування популярних додатків. Це базуватиметься на структурах зворотного проєктування, таких як IDA та Ghidra. «Якщо ви точно запитаєте, що вам потрібно, і порівняєте це з тактикою MITRE ATT&CK, ви зможете перенести результат в автономний режим і зробити його краще, використовувати як захист», — каже Метт Фулмер.LLM також можуть аналізувати API PE файли й інформувати фахівців кібербезпеки про те, для чого вони можуть використовуватися. У свою чергу, це може обмежити кількість часу, який дослідники безпеки витрачають на перегляд файлів PE та аналіз зв’язків API у них.
3. Запити на пошук загроз. За словами Cloud Security Alliance, фахівці кібербезпеки можуть підвищити ефективність роботи та прискорити час відповіді, використовуючи ChatGPT та інші великі мовні моделі для розробки запитів пошуку загроз.Через генерацію запитів для інструментів дослідження та виявлення зловмисного програмного забезпечення, таких як YARA, ChatGPT дозволяє швидко ідентифікувати потенційні загрози та пом’якшувати їх. У результаті співробітники можуть витрачати більше часу на завдання кібербезпеки з вищим пріоритетом.Вищезазначена можливість є корисною, коли йдеться про підтримку надійної кібербезпеки в середовищі загроз, що постійно змінюється. Правила можуть відповідати конкретним організаційним потребам і загальним галузевим загрозам.
4. Виявлення генеративного ШІ-тексту в атаках. Усі знають, що великі мовні моделі можуть генерувати текст, але чи знаєте ви, що незабаром вони зможуть виявляти текст, створений штучним інтелектом і наносити водяні знаки? Ймовірно, у майбутньому ця можливість буде включена в програмне забезпечення для захисту електронної пошти.Здатність ідентифікувати текст, створений штучним інтелектом, означає, що командам буде легше виявляти фішингові електронні листи, поліморфний код та інші попередження.
5. Генерація та передача коду безпеки. У деяких випадках великі мовні моделі, такі як ChatGPT, можна використовувати як для створення, так і для передачі коду кібербезпеки. Знайдіть хвилинку, щоб розглянути такий приклад: фішингова кампанія може успішно націлитися на кількох співробітників компанії, що потенційно може призвести до компрометації облікових даних. Хоча фахівці служби кібербезпеки можуть знати, хто саме відкрив фішинговий електронний лист, може бути незрозуміло, чи був запущений зловмисний код для викрадення облікових даних.Для дослідження можна використати запит Microsoft 365 Defender Advanced Hunting, щоб визначити 10 останніх подій входу одержувачів електронної пошти після відкриття зловмисних електронних листів. Запит допомагає позначати підозрілу активність входу, пов’язану зі зламаними обліковими даними.У цьому випадку ChatGPT може надати пошуковий запит Microsoft 365 Defender, щоб перевірити спроби входу в зламані облікові записи електронної пошти, допомагаючи блокувати зловмисників із системи та надаючи інформацію про те, чи потрібно користувачам змінювати паролі. По суті, ChatGPT може допомогти скоротити час до дії під час реагування на кіберінциденти.Як варіант, на базі того ж прикладу, фахівці кібербезпеки можуть зіткнутися з тією самою проблемою та знайти пошуковий запит Microsoft 365 Defender, але зрозуміють, що внутрішня система не працює з мовою програмування KQL. Замість того, щоб шукати правильний приклад потрібною мовою, ChatGPT може допомогти з передачею стилю мови програмування.Оригінал тексту.