Готовність країн ЦСЄ до імплементації EU AI Act

“Українська призма” за підтримки Міжнародного фонду “Відродження” розглядає виклики та перспективи імпелементації AI Act у країнах ЦСЄ.

Підписатись на новини "Української призми"

У квітні 2021 року Європейський союз опублікував пропозицію першого у світі всебічного закону щодо регулювання штучного інтелекту (EU AI Act), метою якого є усунення потенційних ризиків штучного інтелекту для здоров’я, безпеки та фундаментальних прав громадян. У новому тексті із серії Ad Fontes, Ad Europa Nova – “Українська призма” за підтримки Міжнародного фонду “Відродження” розглядає виклики та перспективи імплементації AI Act у країнах ЦСЄ.

Закон ґрунтується на оцінці ризиків, розмежовуючи системи AI на чотири категорії залежно від потенційної шкоди:

  1. Мінімальний ризик: більшість систем ШІ, такі як ігри та фільтри соцмереж, які не регулюються жодними обмеженнями.
  2. Обмежений ризик: до таких систем (наприклад, чат‑боти) застосовуються вимоги щодо розкриття інформації. Творці систем в цій категорії повинні чітко інформувати користувачів про те, що вони взаємодіють з машиною та відповідно позначати контент, створений штучним інтелектом.
  3. Високий ризик: стосується ШІ-систем, що можуть зашкодити безпеці або фундаментальним правам громадян, зокрема у критичній інфраструктурі, освіті, працевлаштуванні, фінансових послугах тощо. Для таких систем обов’язковим є попереднє оцінювання, постійний моніторинг, вимоги до якості даних, людський нагляд та прозорість.
  4. Неприпустимий ризик: наприклад, соціальне рейтингове оцінювання, біометричне розпізнавання в реальному часі, емоційний аналіз у школах та на роботі. Такі системи є повністю заборонені, за винятком суворо визначених обставин, таких як терористичні загрози та лише після судового дозволу .

Закон також заохочує інновації, зокрема запровадження sandbox-платформ, де дослідники можуть тестувати ШІ без ризику впливу на основну систему.

Акт було схвалено 13 березня 2024 року, а набув чинності він 1 серпня 2024 року. Окремі вимоги до компаній, що розробляють чи використовують ШІ вводяться поетапно. До прикладу, з 2 лютого 2025 року, були впроваджені заборони на ШІ з категорії неприпустимого ризику. З 2 серпня 2025 року набувають чинності положення AI Act щодо моделей загального призначення ШІ (GPAI), управління, конфіденційності та більшості штрафів – вони стосуються як систем високого ризику, так і моделей поза шкалою ризику.

 

Поточний стан впровадження штучного інтелекту в країнах ЦСЄ

Між 2021 і 2024 роками загальний рівень впровадження ШІ в підприємствах країн ЄС майже подвоївся – з 8% до 13%, проте ця динаміка є нерівномірною. Країни ЦСЄ продовжують демонструвати значно нижчі темпи впровадження ШІ ніж держави Західної та Північної Європи. Наприклад, у 2024 році лише 3.1% підприємств у Румунії, 5.9% у Польщі та 6.5% у Болгарії використовували ШІ-технології, тоді як аналогічні показники в Данії, Бельгії та Нідерландах перевищували 20%.

Країнам ЦСЄ також притаманний нижчий рівень різноманітності сфер застосування ШІ-технологій. Підприємства в ЦСЄ зосереджуються на використанні ШІ в маркетингу та базових адміністративних процесах, тоді як організації з Північно-Західної Європи починають активно впроваджувати ШІ в управлінні фінансами, R&D, кібербезпеку та виробництво. Проте, регіон не є монолітними: окремі країни ЦСЄ відрізняються швидшими темпами розвитку ШІ, зокрема у певних нішах. Яскравим прикладом є Словенія, яка здійснила помітний прорив між 2023 і 2024 роками, перейшовши з групи країн із найнижчим рівнем застосування ШІ до групи лідерів в ЄС, почавши спеціалізуватись на застосуванні ШІ в логістиці та ІКТ-безпеці. Іншою країною в регіоні, яка збільшила показник впровадження ШІ більш ніж вдвічі є Естонія. До того, Естонія стала однією з перших країн ЄС, що оголосила про масштабну інтеграцію ШІ в освіту на національному рівні в рамках програми AI Leap.

 

Основні бар’єри для імплементації EU AI Act у країнах ЦСЄ

Низький рівень інтеграції ШІ в країнах ЦСЄ пояснюється структурними, інституційними та ринковими бар’єрами, як загальноєвропейськими, так і притаманними регіону. Саме ці бар’єри можуть завадити вчасній та успішній імплементації EU AI Act.

Загальноєвропейські бар’єри

Перш за все, країни ЄС загалом та регіон ЦСЄ зокрема є залежними від зовнішніх постачальників ШІ-технологій. Понад 80% підприємств у ЦСЄ використовують готове комерційне або відкрите програмне забезпечення, рідко модифікуючи його та ще рідше розробляючи власні системи. Як наслідок, країни втрачають технічний суверенітет у сфері ШІ, що є критичним в умовах регуляції, передбаченої AI Act.

Така залежність зумовлена низкою системних бар’єрів, одним з яких є нестача кваліфікованих кадрів, що є частиною ширшої проблеми кадрового голоду в ІТ-сфері. У 2024 році 57 % підприємств у ЄС мали проблеми з наймом IT-фахівців. В сегменті ШІ ця проблема набуває ще гостріших форм. Згідно з Tech Skills Index (2025), попит на AI-проєкти в Європі зріс на 230 %, тоді як кількість фрилансерів із відповідними навичками лише на 31 %. Хоча ці дані стосуються насамперед ринку незалежних спеціалістів, вони яскраво ілюструють глибокий дисбаланс між попитом і пропозицією на ринку праці у сфері ШІ.

Регулювання, запропоноване в EU AI Act також створює додаткові фінансові та адміністративні бар’єри для розробників і постачальників ШІ-систем в ЄС. Моделі, які мають статус “високого ризику” повинні відповідати складним технічним та етичним вимогам, що змушує підприємства вкладати більше коштів для ведення нової документації, аудиту ризиків, а також забезпечення людського контролю та прозорості. Таке додаткове навантаження призводить до ситуації, в якій великі корпорації можуть дозволити собі відповідати вимогам EU AI Act, тоді як малий і середній бізнес стикається з непропорційними витратами.

Фінансовий тиск та недостатньо чітке регулювання зумовили занепокоєння серед європейських підприємств. У липні 2025 року 44 компанії звернулись до президентки Єврокомісії Урсули фон дер Ляєн з відкритим листом, у якому закликали відтермінувати впровадження AI Act на два роки та назвали його “бомбою уповільненої дії”. Основною критикою регулювання стали нечіткі та надмірно складні норми, які загрожують розвитку інновацій в сфері ШІ та ставлять європейські бізнеси у невигідне становище порівняно з американськими компаніями.

 

Бар’єри специфічні для регіону

Основним бар’єром для успішної імплементації AI Act, притаманним саме країнам ЦСЄ, є інституційна слабкість та правова невизначеність. У регіоні часто відсутні національні органи, відповідальні за аудит та сертифікацію ШІ-систем. Наприклад, Угорщина досі не призначила інституцію, відповідальну за контроль над дотриманням основних прав у контексті застосування ШІ, як цього вимагає стаття 77 AI Act. До того ж, у більшості країн ЦСЄ не були призначені компетентні органи для нагляду та сертифікації ШІ-систем зі статусом “високого ризику”, хоча відповідно до статті 113 AI Act це має бути зроблено до 2 серпня 2025 року.

Крім цього, через слабку координацію між країнами-членами, національні органи можуть впроваджувати різне трактування того, які AI-системи вважаються “неприпустимими” або ж мають статус “високого ризику”. Наприклад, у вересні 2024 року Чеський уряд прийняв законопроєкт від Міністерства Оборони, який дозволяє активне використання автоматизованого розпізнавання облич в аеропортах. Хоча згідно EU AI Act імплементація такої технології є допустимою в умовах загрози національній безпеці та за попереднім дозволом суду, чеський законопроєкт дозволяє суду погоджувати не лише окремі випадки, а широкі категорії осіб, що ставить під сумнів його відповідність EU AI Act.

Країни ЦСЄ також стикаються з нестачею інфраструктурних та процедурних механізмів для тестування та контрольованого впровадження ШІ-систем. Зокрема, регіон відзначається відсутністю або ж уповільненою реалізацією sandbox-платформ (безпечного, ізольованого середовища, де програмне забезпечення, код або файли можна тестувати без впливу на основну систему чи інші програми). Згідно з AI Act кожна країна повинна запровадити хоча б одну sandbox-платформу для тестування AI до 2 серпня 2026 року, проте низка держав ЦСЄ (зокрема Болгарія, Латвія, Чехія) ще навіть не визначили механізм її функціонування та імплементації в законодавство. Крім цього, країни ЦСЄ демонструють обмежений рівень перевірки упередженості (bias checking) у використанні ШІ-систем, на відміну від країн, що вже досягли високого рівня впровадження ШІ, як, наприклад, Данія та Бельгія.

Таким чином, хоча рівень впровадження ШІ у країнах ЦСЄ продовжує зростати, а окремі країни навіть наближаються до статусу цифрових лідерів, успішна імплементація EU AI Act у регіоні може ускладнитись інституційною слабкістю, кадровим дефіцитом у сфері цифрових технологій, високою залежністю від зовнішніх рішень та мінімальним використанням інструментів bias checking. Ці фактори свідчать про недостатню готовність до успішної та вчасної імплементації EU AI Act.

 

 

Матеріал підготовлено за підтримки Міжнародного фонду «Відродження». Матеріал представляє позицію авторів і не обов’язково відображає позицію Міжнародного фонду «Відродження».