Штучний інтелект: правове регулювання
Про правове регулювання штучного інтелекту розповів адвокат, власник Barbashyn Law Firm. Президент міжнародної асоціації зі штучного інтелекту та бізнесу (AIEI), член міжнародних організацій АIPPI, AIJA, NAPA,INTA, заступник голови комітету з Інтелектуальної власності НААУ, член Робочої групи з правового регулювання штучного інтелекту НААУ, член Робочої групи з питань прозорості та правил Європейського офісу штучного інтелекту Сергій Барбашин під час заходу з підвищення професійного рівня адвокатів, що відбувся у Вищій школі адвокатури НААУ.
Матеріали заходів
11.07.2025

Лектор докладно проаналізував разом з учасниками правове регулювання штучного інтелекту, а саме:

  • 1. Підходи регулювання за прикладами України, ЄС, США та Англії.
  • 2. Декларативні принципи та як вони працюють.
  • 3. АІ комплаєнс та юридична роль.
  • 4. Виклики в юридичній сфері щодо ШІ.

У рамках характеристики штучного інтелекту акцентовано на наступному:

1. Підходи регулювання за прикладами України, ЄС, США та Англії

Регулювання в Україні:

  • Sui generis;
  • Дорожня карта – AI;
  • Sand box:

Простір для безпечного розвитку інноваційних стартапів у сфері ШІ та блокчейну.

  • Біла книга;
  • Добровільний кодекс поведінки:

Ухвалений у грудні 2024 року. Скеровує компанії на впровадження етичних принципів у внутрішні процеси. Передбачає оцінку ризиків і адаптивне впровадження заходів. Передбачено створення саморегуляторного органу для підтримки та обміну досвідом.

Регулювання в США:

  • Скасовано наказ Байдену щодо ШІ;
  • Відмовились підписати Paris AI Declaration 2025;
  • Профільні регулювання;
  • Універсальні принципи для ШІ.

Регулювання у Великій Британії:

  • Відмовились підписати Paris AI Declaration 2025;
  • Національна бібліотека даних;
  • Зони зростання ШІ;
  • Перемовини з розробниками.

Регулювання у Японії:

  • Закон «Про належну розробку і використання ШІ»;
  • Підхід – Поєднання обов’язкових вимог і добровільних стандартів;
  • Орієнтація на етичні принципи, а не заборони.

Регулювання у Європейському Союзі:

  • AI act;
  • Кодекс практики для провайдерів GPAI;
  • «Європейський» підхід до ШІ;
  • AI Continent Action Plan;
  • AI act Service Desk.

2. Декларативні принципи та як вони працюють

01.08.2024 набув чинності AI ACT – перший у світі закон, який комплексно регулює ШІ:

  • 2 лютого 2025 р. – заборона на неприйнятні системи штучного інтелекту (наприклад, біометрична категоризація, розпізнавання обличчя).
  • 2 серпня 2025 р. – правила GPAI (щодо систем ШІ загального призначення).
  • 2 серпня 2026 р. – положення про системи ШІ з категорії «високого ризику» (додаток ІІІ).
  • 2 серпня 2027 р. – положення про окремі продукти ШІ з категорії «високого ризику» (додаток I).

AI ACT діє по всьому ЄС:

  • ЄС компанії;
  • Іноземні компанії, що взаємодіють з громадянами чи працюють по ЄС.

АІ ACT поширюється:

  1. Розробники ШІ.
  2. Постачальники систем ШІ.
  3. Користувачі ШІ.

АІ АКТ розрізняє 4 рівні ризиків ШІ систем:

  1. Неприйнятного – порушує основні права людини:
  • Збирають зображень обличчя;
  • Змінюють поведінку людини;
  • Підштовхують до небезпечних дій;
  • Здійснюють категоризацію людей;
  • Оцінюють людей на основі поведінки або покупок.
  1. Високого – вплив на безпеку, права людини або суспільство;
  • Критична інфраструктура;
  • Освіта та ринок праці;
  • Компоненти безпеки;
  • Публічні і приватні послуги;
  • Правоохоронні органи.
  1. Обмеженого – відсутність прозорості в роботі чи алгоритмах:
  • Чат-боти;
  • Системи аналізу тексту;
  • Системи моніторингу здоров’я.
  1. Мінімального – не створюють загроз для безпеки або основних прав:
  • Відеоігри з підтримкою ШІ;
  • Фільтри спаму;
  • Алгоритми, які надають рекомендації.

Відповідальність:

  • Заборонені AI практики – до 35 млн EUR або до 7 % від світового обороту.
  • Порушення обов’язків операторів – до 15 млн EUR або до 3 % від світового обороту.
  • Надання оманливих відомостей – до 7.5 млн EUR або до 1 % від світового обороту.

3. АІ комплаєнс та юридична роль

AI-комплаєнс починається не з перевірки закону, а з аналізу самої системи.

Базові напрямки для юридичного аналізу ШІ:

  • Ролі та сторони;
  • Критичні функції;
  • Призначення та сфера застосування;
  • Географія використання;
  • Прозорість і взаємодія з користувачем;
  • Коментарі та винятки.

Відповіді на ці питання основа для: визначення рівня ризику, встановлення юридичної ролі, розробки політик, оцінки відповідності.

Після аналізу системи:

  1. Визначаємо рівень ризику.
  2. Фіксуємо юридичну роль.
  3. Формуємо вимоги до комплаєнсу.
  4. Встановлюємо зони відповідальності.

HIGH-RISK AI – система оцінки надійності контрагентів для автоматичного KYC-рішення.

Клієнт – B2B‐платформа, яка використовує ШІ для автоматизованого KYC скорингу контрагентів (перед тим як укласти угоду).

Алгоритм виводить «рівень ризику» на основі:

  • відкритих реєстрів;
  • медіа‐аналізу;
  • зв’язків з іншими юрособами;
  • ключових слів у документах (статутах, договорах, судових рішеннях тощо).

Важливо, що ШІ самостійно приймає рішення (пропустити чи заблокувати контрагента).

MINIMAL-RISK AI ШІ – допоміжний інструмент для аналізу договорів під час due diligence.

Клієнт – юридичний відділ IT-компанії, який використовує ШІ для попереднього перегляду великої кількості договорів у M&A-процесі.

Алгоритм: підсвічує потенційно чутливі пункти (штрафи, зміна контролю, арбітраж тощо), групує за типами ризиків, не приймає рішень, не генерує фінальні висновки.

У цьому випадку ШІ не впливає на юридичну оцінку. Усі дії перевіряє юрист.

4. Виклики в юридичній сфері щодо ШІ

Топ викликів для юристів при використанні ШІ:

  1. Конфіденційність і достовірність:
  • Фейкові джерела, підміна правових систем;
  • Витік даних через “невинні” prompt;
  • Передача даних стороннім сервісам без згоди клієнта;
  • Відсутність контролю над тим, що модель запам’ятовує чи відтворює;
  • Ілюзія точності – коли ШІ «впевнено помиляється».
  1. Відповідальність:

Питання полягає у тому, хто відповідає у разі шкоди?

  • Юрист, який скористався ШІ?
  • Розробник чи постачальник системи?
  • Клієнт, який її замовив і застосував?
  1. Необхідність ліцензування або стандартів:
  • Формальних дозволів немає;
  • Відповідальність – на юристі;
  • Деякі країни вводять етичні вимоги.
  1. Білінг:
  • Включення часу на ШІ в білінг – на розсуд юриста;
  • Все, що зроблено за допомогою ШІ – повинно бути позначено;
  • Важлива прозорість;
  • Потрібно інформувати клієнта про використання ШІ.

Першоджерело - https://tinyurl.com/2w49rkfk