Check Point купує Lakera. Новий етап на ринку у безпеці АІ. 

Майстер-клас: секрети випікання найсмачніших млинців!

11.03.2026

На перший погляд може здатися, що оголошення та завершення угоди між Check Point і Lakera — це чергове поглинання однієї компанії іншою в індустрії. Проте насправді цей крок став чітким сигналом: AI-безпека переходить із категорії «перспективний напрям» у статус обов’язкового елементу сучасної кіберстратегії.
Саме це колись відбулося із хмарною безпекою: спочатку з’явилися точкові інструменти, потім платформи, а далі хвиля M&A для швидкого закриття технологічних прогалин. У 2025 році ми спостерігали аналогічну ситуацію в сегменті AI.

Check Point оголосила про угоду 16 вересня 2025 року, позиціонуючи її як крок до створення повноцінного end-to-end AI security stack, а у звіті за 2025 рік підтвердила завершення угоди в четвертому кварталі. Для компаній, що працюють із рішеннями CheckPoint Україна, це означає розширення портфеля захисту з фокусом на AI-додатках і агентних системах.

Що саме додається до портфеля Check Point завдяки купівлі Lakera?

Ключова цінність Lakera — AI-native runtime protection для LLM, GenAI та agentic-сценаріїв. Йдеться про захист на рівні вхідних промптів, вихідних відповідей моделі та контексту включно з RAG-архітектурами та MCP-конекторами.
Фокус — на загрозах типу prompt injection, витоках даних, маніпуляції моделлю та зловживанні tool-викликами. Важливо, що захист працює в режимі реального часу з мінімальною затримкою та постійним донавчанням на основі атак.

Іншими словами, Lakera закриває саме runtime-рівень — той, де AI-системи приймають рішення й можуть стати точкою входу для атак. Для компаній, які вже розглядають можливість купити CheckPoint як платформу комплексної безпеки, це означає доступ до спеціалізованого контролю саме для AI-додатків та агентних систем.

Чому повноцінний стек AI-безпеки — це стратегічно важливо?

Для реального захисту від AI-ризиків компаніям потрібно щонайменше три рівні безпеки:
1. Discovery та visibility — розуміння, де саме в компанії використовується GenAI, включно з shadow AI.
2. Governance та політики — які дані можна передавати в моделі, які інтеграції дозволені, як працює контроль витоків.
3. Runtime enforcement — блокування ін’єкцій, небезпечних інструкцій, витягів конфіденційної інформації та зловживання агентами в реальному часі.

Check Point уже активно розвиває напрям GenAI-security. Придбання Lakera логічно посилює саме третій рівень — runtime-захист AI-додатків і агентів.

Які ризики створює впровадження AI для бізнесу?

AI-системи відкривають новий клас вразливостей. Якщо говорити мовою ризиків, йдеться про:
● prompt injection (прямі та непрямі через документи чи вебконтент);● небезпечну обробку вихідних даних, коли відповідь моделі стає командою для систем;● витоки конфіденційної інформації через контекст або пам’ять;● компрометацію агентів із надмірними повноваженнями;● supply chain-ризики через плагіни, моделі та конектори;● зловживання токенами й секретами;● атаки на RAG-сховища.
Особливо небезпечними стають agentic-сценарії, де AI має доступ до CRM, репозиторіїв коду, електронної пошти або адміністративних панелей. Помилка або маніпуляція в такій системі може масштабуватися автоматично.

Чим AI-native захист відрізняється від класичних фаєрволів?

Традиційний WAF або мережевий фаєрвол аналізує сигнатури, HTTP-патерни, URL і аномалії трафіку. А GenAI-атаки виглядають як легальний текст.
Зовні це звичайний запит. Усередині — інструкції для обходу політик, витягу секретів або маніпуляції контекстом.

AI-native runtime-захист розуміє структуру взаємодії «prompt → контекст → відповідь → tool-виклик», застосовує політики для даних і контенту, працює inline з низькою затримкою та аналізує логіку запитів.

Як угода змінює позицію Check Point на ринку?

Багато вендорів адаптують наявні WAF/DLP-інструменти під AI-сценарії. Придбання Lakera демонструє інший підхід — інвестування в спеціалізовану AI-безпеку.
Це дозволяє Check Point більш переконливо позиціонувати себе як постачальника повного AI-стека безпеки. На фоні активності гравців типу Palo Alto Networks, Microsoft і CrowdStrike це підсилює конкурентну позицію компанії в сегменті AI-application security.

Після інтеграції Lakera в Infinity-архітектуру клієнти компанії теоретично отримають єдину платформу управління AI-контролями, швидший time-to-secure для GenAI-ініціатив, готовий runtime-контроль без необхідності створювати самописні проксі чи фільтри. Це також сприятиме зниженню ризику витоків у RAG-сценаріях.

Яким буде ринок безпеки AI у найближчі 2–3 роки?

Наразі можна виокремити кілька практичних трендів. Передусім агентні системи з доступом до корпоративних ресурсів стануть нормою, а кількість конекторів й інтеграцій зростатиме швидше, ніж зрілість контролів.
Теоретично runtime guardrails стануть таким же стандартом, як WAF для вебдодатків, а AI red-teaming стане частиною DevSecOps. AI-безпека рухається до формалізації — так само, як це колись відбулося з хмарною та мережевою безпекою.

Як підготуватися до нової епохи AI-інцидентів вже сьогодні?

Щоб бути готовими до нових ризиків, ІТ-команди мають діяти системно. Перший крок — повна інвентаризація використання GenAI. Другий — чіткі правила класифікації даних: що дозволено передавати в моделі, що має блокуватися або маскуватися. Третій — контроль повноважень агентів за принципом least privilege. Далі — впровадження runtime-захисту від prompt injection, витоків і небезпечних інструкцій, а також інтеграція AI-телеметрії в SOC-контур.
IT Specialist працює у цьому напрямі як security-інтегратор. Ми допомагаємо:

● оцінити поточний рівень захисту та знайти прогалини;● підібрати оптимальну комбінацію технологій під конкретну архітектуру;● інтегрувати AI-контролі з IAM, DLP, EDR/XDR, мережею та SOC;● розробити практичні політики використання GenAI;● впроваджувати рішення Check Point поетапно, без зупинки бізнес-ініціатив.

IT Specialist — безпечна інтеграція в майбутнє!

Автор: Владислав Дубов (Керівник архітектурних рішень)