Еволюція регулювання у сфері штучного інтелекту

Штучний інтелект (“ШІ”) перебуває на передовій глобального технологічного прогресу, і країни в усьому світі намагаються вирішити проблему регулювання його розвитку та впровадження. У той час як деякі юрисдикції надають пріоритет інноваціям та економічному зростанню, інші наголошують на зменшенні ризиків та етичних аспектах.

Результатом цього є фрагментарний регуляторний ландшафт, в якому бізнесу доводиться орієнтуватися в варіативному правовому регулюванні.

Зрушення в бік дерегуляції в США

Останні п’ять років у США спостерігалася тенденція до зростання кількості нормативного регулювання у сфері ШІ. Зокрема у 2023 році було ухвалено 25 нормативних актів, пов’язаних із ШІ, тоді як у 2016 році був лише один. 

Не дивлячись на вказані обмеження, Сполучені Штати випереджають Китай, ЄС та Велику Британію як провідний постачальник найкращих моделей штучного інтелекту. Як зазначено в AI Index Report (2023), лише у 2023 році 61 модель ШІ походить саме зі Сполучених Штатів, у той час як 21 модель з ЄС та 15 моделей представлено Китаєм.  

На противагу вже усталеному політичному вектору, Дональд Трамп своїм Розпорядженням “Про первинне скасування шкідливих розпоряджень та дій виконавчої влади” від 20 січня 2025 року скасував Розпорядження 14110 від 30 жовтня 2023 року, підписане президентом Джо Байденом. 

Виконавчий указ 14110, виданий Байденом, мав на меті забезпечити “безпечну, надійну та відповідальну розробку й використання штучного інтелекту”. Він вимагав від розробників ШІ, що працюють над системами високого ризику,  особливо тими, що впливають на національну безпеку, економіку, охорону здоров’я та громадську безпеку — надавати результати тестувань федеральному уряду.

Крім того, розпорядження зобов’язувало федеральні агентства встановлювати стандарти безпеки для мінімізації ризиків, пов’язаних із ШІ, включно з кібербезпекою, біобезпекою та ядерною безпекою. Ця регуляторна база була запроваджена в умовах відсутності всеосяжного законодавства про ШІ від Конгресу, що відображало зростаюче занепокоєння щодо потенційних загроз, які несе штучний інтелект.

Незабаром Дональд Трамп підписав Розпорядження “Про Усунення перешкод для американського лідерства в штучному інтелекті” від 23 січня 2025 року. 

Адміністрація Трампа стверджує, що лідерська позиція США може бути забезпечена лише в умовах, вільних від ідеологічної упередженості чи спроектованих соціальних планів.

З метою усунення таких бюрократичних бар’єрів та відкриття можливостей для рішучих дій з боку США,  вказане розпорядження скасувало ще низку нормативних, які “перешкоджають” американським інноваціям. 

Ключові зміни та їхній вплив:

  • Компанії, які розробляють системи ШІ з високим ступенем ризику, більше не зобов’язані повідомляти уряду про результати тестування безпеки.  Це зменшує тягар дотримання нормативних вимог, але викликає занепокоєння щодо прозорості цих процесів, відповідності вимогам захисту даних, кіберпезпеці і т.д. .
  • Протягом 180 днів зобов’язано уповноважених осіб розробити та подати Президенту план дій. 
  • Білий дім доручив федеральним відомствам переглянути усі політики, директиви, регламенти, накази та інші дії, вжиті відповідно до скасованого виконавчого наказу 14110 від 30 жовтня 2023 року. 

Суворий регуляторний підхід в Європейському Союзі та Раді Європи 

У той час як Сполучені Штати зайняли дерегуляційну позицію щодо ШІ, Європейський Союз і Рада Європи рухаються в протилежному напрямку, впроваджуючи жорсткі правові рамки, щоб забезпечити відповідність розвитку ШІ основним правам і демократичним цінностям. 

Рада Європи

У травні 2024 року Комітет міністрів Ради Європи ухвалив Рамкову конвенцію про штучний інтелект і права людини, демократію та верховенство права (“Рамкова конвенція”) — перший міжнародний юридично обов’язковий договір, що регулює питання ШІ. Рамкова конвенція, відкрита для всіх держав світу, встановлює принципи, які гарантують, що технології штучного інтелекту розробляються та впроваджуються відповідально та у повній відповідності до захисту прав людини. 

Рамкова конвенція встановлює зобов’язання щодо управління ризиками та впливом для розробників і впроваджувачів ШІ, включаючи вимогу (Council of Europe, 2024):

  • Проводити постійну оцінку ризиків і впливу для визначення потенційних загроз для прав людини, демократії та верховенства права;
  • Впроваджувати превентивні та пом’якшувальні заходи на основі результатів оцінки;
  • Дозволити органам влади накладати заборону або мораторій на певні застосування ШІ з високим ступенем ризику (так звані “червоні лінії”).

Відповідно до статті 3, Рамкова конвенція застосовується до діяльності у сфері ШІ протягом усього її життєвого циклу, охоплюючи як державні органи, так і приватні організації, що діють від їхнього імені. Крім того, вона зобов’язує держави реагувати на пов’язані зі штучним інтелектом ризики з боку приватних суб’єктів, які можуть вплинути на права людини, демократію або верховенство права (Council of Europe, 2024).

Кожна держава-підписант повинна вказати, як вона має намір виконувати це зобов’язання – шляхом прямого застосування принципів договору до приватних суб’єктів або шляхом прийняття еквівалентних заходів на національному рівні. Важливо, що жоден підхід до імплементації не може відступати від існуючих міжнародних зобов’язань щодо прав людини, демократії та верховенства права.

Запроваджуючи обов’язкові стандарти управління ШІ, Рамкова угода є важливою віхою в глобальному регулюванні ШІ, зміцнюючи підхід до розробки та впровадження ШІ, орієнтований на людину.

Закон ЄС про штучний інтелект: Комплексна система, що базується на оцінці ризиків

Регламент (ЄС) 2024/1689 (“AI Act”), ухвалений Європейським парламентом і Радою 13 червня 2024 року, є першою у світі всеосяжною нормативно-правовою базою, що регулює сферу штучного інтелекту. Він встановлює гармонізовані правила для сприяння розвитку надійного штучного інтелекту та захисту фундаментальних прав, одночасно підтримуючи інновації. Регулювання дотримується ризик-орієнтованого підходу, класифікуючи системи ШІ на чотири категорії: неприйнятний, високий, прозорий, мінімальний або без ризику.

AI Act набув чинності 1 серпня 2024 року, а його повне застосування заплановане на 2 серпня 2026 року. Однак окремі положення набувають чинності раніше:

  • 2 лютого 2025 року – заборона на застосування ШІ з високим ступенем ризику та зобов’язання щодо ШІ-грамотності.
  • 2 серпня 2025 року – правила для моделей ШІ загального призначення.
  • 2 серпня 2027 року – подовження термінів дотримання вимог для систем ШІ, інтегрованих у регульовані продукти.

Європейська комісія створила новий регуляторний орган на рівні ЄС – Європейський офіс зі ШІ. Він здійснюватиме моніторинг, нагляд і забезпечення дотримання вимог щодо моделей ШІ і систем ШІ загального призначення у 27 країнах-членах ЄС. Для прийняття обґрунтованих рішень Європейський офіс зі ШІ співпрацює з державами-членами та широкою експертною спільнотою в рамках спеціальних форумів та експертних груп.

Сполучене Королівство

На нещодавньому Глобальному саміті зі ШІ в Парижі понад 70 країн, зокрема Франція, Китай та Індія, підписали міжнародну угоду з питань штучного інтелекту, спрямовану на встановлення спільних принципів управління штучним інтелектом. Однак США та Велика Британія відмовилися підписувати документ, посилаючись на відмінності в регуляторних підходах і на те, що вони віддають перевагу розробці власних національних стратегій у сфері АІ.

Королівство Саудівська Аравія

Королівство Саудівська Аравія стрімко розвиває свій сектор ШІ в рамках програми Vision 2030, прагнучи стати світовим технологічним лідером (Middle East Briefing, 2024). Саудівське управління з питань даних та штучного інтелекту (“SDAIA”), створене у 2019 році, контролює політику та стратегію розвитку у сфері ШІ. Хоча в Саудівській Аравії відсутнє спеціальне законодавство у згаданій сфері, SDAIA керується запровадженими Принципами етики ШІ.  

Як повідомляє Middle East Briefing, у 2024 році Королівство залучило великі інвестиції в центри обробки даних, хмарну інфраструктуру та стартапи в галузі ШІ, а партнерські відносини з Microsoft (US$2.1 міліардів), Oracle (US$1.5 міліардів), and Huawei (US$400 мільйонів) сприяють інноваціям. Розвиток талантів у галузі ШІ також є пріоритетом: ініціативи з підготовки 20 000 фахівців до 2030 року та освітні програми, що інтегрують ШІ в університетські навчальні програми (SDAIA, 2023).

Регуляторний підхід Саудівської Аравії залишається гнучким і спирається на існуючі закони, такі як Закон про захист персональних даних  (“PDPL”), для вирішення проблем, пов’язаних зі штучним інтелектом. Нова нормативно-правова база має на меті збалансувати інновації з етичними стандартами, сприяючи створенню інвестиційно привабливої екосистеми ШІ.

Балансуюча Азія

Китай

Китай розглядає розвиток ШІ як стратегічний пріоритет, а державна політика заохочує швидкі інновації та інвестиції в дослідження ШІ. Китайські технологічні компанії активно працюють над досягненням технологічного паритету зі США, і запуск моделі ШІ R1 є важливим кроком у зміцненні китайської конкурентоспроможності в галузі ШІ. Вплив китайських досягнень у галузі ШІ вже відчувається – випуск моделі ШІ від DeepSeek призвів до падіння акцій Nvidia на 17%, що свідчить про зростаючу конкуренцію в розробці ШІ. 

Дональд Трамп заявив, що випуск китайською компанією моделі штучного інтелекту DeepSeek має стати «тривожним дзвінком» для американських технологій.

Японія

Як згадується в статті на сайті CSIS, дві ключові публікації першої половини 2024 року переконливо свідчать про те, що Японія рухається до нового законодавства, яке більш комплексно регулюватиме технологію штучного інтелекту. У лютому правляча Ліберально-демократична партія випустила концептуальний документ, а в травні команда зі стратегії в галузі ШІ при Кабінеті міністрів Японії опублікувала білу книгу. Обидва документи рекомендували запровадити нові правила для великомасштабних фундаментальних моделей. Ці події свідчать про те, що Японія приєднується до своїх міжнародних союзників у зміцненні нормативно-правової бази для ШІ.

3 березня 2025 року уряд Японії представив законопроєкт, спрямований на збалансування інновацій у сфері ШІ зі зниженням ризиків, зокрема на запобігання злочинам, опосередкованим ШІ. Законопроект має на меті досягти балансу між стимулюванням інновацій та зменшенням ризиків, таких як злочини, скоєні за допомогою ШІ. Хоча Японія залишається відданою справі розвитку ШІ, вона узгоджує свій регуляторний підхід з ключовими міжнародними партнерами.

Наслідки фрагментарного регулювання ШІ

ПАРИЖ, 11 лютого  (Reuters) – Віце-президент США Джей Ді Венс попередив європейців, що їхні “масштабні” правила щодо штучного інтелекту можуть придушити технологічний розвиток, назвавши модерацію контенту “авторитарною цензурою”.

“Ми твердо переконані, що ШІ повинен залишатися вільним від ідеологічних упереджень і що американський ШІ не буде кооптований в інструмент авторитарної цензури”, – заявив Венс.

Він розкритикував всеосяжні нормативні акти ЄС, такі як Закон про цифрові послуги та Загальний регламент про захист даних  (“GDPR”), які, на його думку, покладають на невеликі компанії надмірні витрати на дотримання правових норм.

“Звичайно, ми хочемо, щоб інтернет був безпечним місцем, але є велика різниця між тим, щоб не дати хижаку полювати на дитину в інтернеті, і тим, щоб не дати дорослому отримати доступ до думки, яку уряд вважає дезінформацією”, – сказав він.

Сполучені Штати переходять до більш м’якого підходу до регулювання ШІ, надаючи компаніям більше свободи для інновацій та швидкого впровадження рішень на основі ШІ. Європейський Союз, навпаки, посилює контроль. 21 травня 2024 року Європарламент схвалив Закон про АІ, який вимагає сертифікації продуктів з високим ступенем ризику, алгоритмічної прозорості та підзвітності для розробників.

Якщо США та Китай продовжуватимуть розвивати ШІ без жорсткого регулювання, ЄС ризикує відстати у глобальній гонці ШІ. Деякі європейські компанії можуть перенести свої розробки ШІ до США, щоб уникнути регуляторного тягаря. Зрештою, ЄС може бути змушений пом’якшити свої правила у сфері ШІ, щоб зберегти конкурентоспроможність.

Це може призвести до фрагментації ринку АІ, на якому одні й ті ж продукти АІ працюватимуть по-різному в різних юрисдикціях. Як наслідок, компаніям доведеться розробляти продукти штучного інтелекту в рамках декількох нормативно-правових систем: менш регульованих у США, Великобританії та Китаї, а також з високим рівнем контролю в ЄС. Недотримання вимог законодавства тієї чи іншої країни є ризикованим і може призвести до серйозних юридичних наслідків. Оскільки регулювання у сфері ШІ продовжує розвиватися, бізнесу доведеться орієнтуватися в складному і фрагментованому правовому полі, балансуючи між необхідністю дотримання вимог і бажанням впроваджувати інновації.

Фрагментарне регулювання створює значні ризики як для бізнесу, так і для користувачів. Надмірне регулювання, зокрема, часто сприймається негативно, і цю думку поділяє віце-президент США Джей-Ді Венс. Результати голосування на глобальному саміті показують, що він не самотній у цій думці. Бізнес повинен пристосовуватися до регуляторних вимог кожної юрисдикції, щоб уникнути несприятливих правових наслідків у майбутньому. Тим часом, США та інші країни з більш ліберальними підходами стають все більш привабливими для стартапів.

Висновок

Регулювання ШІ  широко варіюється між країнами. США і Великобританія віддають перевагу менш обмежувальному, галузево орієнтованому підходу до стимулювання інновацій. 

Європейський Союз запроваджує сувору нормативну базу, надаючи пріоритет безпеці ШІ, етичним міркуванням і фундаментальним правам людини. 

Китай дотримується гібридної моделі, поєднуючи державний контроль з активним заохоченням інновацій у сфері ШІ, забезпечуючи як технологічний прогрес, так і регуляторний нагляд.

Японія рухається в бік посилення регулювання, особливо для фундаментальних моделей штучного інтелекту, тоді як Саудівська Аравія дотримується гнучкого, сприятливого для інвестицій підходу, зосереджуючись на економічному зростанні, керованому штучним інтелектом.

Такий фрагментований ландшафт створює проблеми з дотриманням вимог для компаній, що працюють у різних юрисдикціях. Хоча дерегуляція може прискорити прогрес ШІ, суворіші правила спрямовані на зменшення ризиків. У майбутньому міжнародне співробітництво матиме важливе значення для забезпечення балансу між інноваціями, безпекою та етичним розгортанням штучного інтелекту.

Контактна інформація

Якщо ви хочете стати нашим клієнтом або партнером ви можете зв’язатися з нами через електронну пошту: support@manimama.eu.

Чи надіслати повідомлення в Telegram: @ManimamaBot.

Запрошуємо на наш сайт: https://manimama.eu/.Також доєднуйтесь до нашого Telegram-каналу: Manimama Legal Channel


Manimama Law Firm надає можливість компаніям, що працюють як провайдери віртуальних гаманців та бірж, вийти на ринки на законних підставах. Ми готові запропонувати відповідну підтримку в отриманні ліцензії з меншими установчими та операційними витратами. Ми пропонуємо запуск KYC/AML, підтримку в оцінці ризиків, юридичні послуги, юридичні висновки, консультації щодо загальних положень про захист даних, контракти та всі необхідні юридичні та бізнес-інструменти для початку діяльності провайдера послуг з обміну віртуальних активів.


Зміст цієї статті має на меті надати загальне уявлення про предмет, а не розглядатися як юридична консультація.