
Лектор докладно проаналізував разом з учасниками правове регулювання штучного інтелекту, а саме:
- 1. Підходи регулювання за прикладами України, ЄС, США та Англії.
- 2. Декларативні принципи та як вони працюють.
- 3. АІ комплаєнс та юридична роль.
- 4. Виклики в юридичній сфері щодо ШІ.
У рамках характеристики штучного інтелекту акцентовано на наступному:
1. Підходи регулювання за прикладами України, ЄС, США та Англії
Регулювання в Україні:
- Sui generis;
- Дорожня карта – AI;
- Sand box:
Простір для безпечного розвитку інноваційних стартапів у сфері ШІ та блокчейну.
- Біла книга;
- Добровільний кодекс поведінки:
Ухвалений у грудні 2024 року. Скеровує компанії на впровадження етичних принципів у внутрішні процеси. Передбачає оцінку ризиків і адаптивне впровадження заходів. Передбачено створення саморегуляторного органу для підтримки та обміну досвідом.
Регулювання в США:
- Скасовано наказ Байдену щодо ШІ;
- Відмовились підписати Paris AI Declaration 2025;
- Профільні регулювання;
- Універсальні принципи для ШІ.
Регулювання у Великій Британії:
- Відмовились підписати Paris AI Declaration 2025;
- Національна бібліотека даних;
- Зони зростання ШІ;
- Перемовини з розробниками.
Регулювання у Японії:
- Закон «Про належну розробку і використання ШІ»;
- Підхід – Поєднання обов’язкових вимог і добровільних стандартів;
- Орієнтація на етичні принципи, а не заборони.
Регулювання у Європейському Союзі:
- AI act;
- Кодекс практики для провайдерів GPAI;
- «Європейський» підхід до ШІ;
- AI Continent Action Plan;
- AI act Service Desk.
2. Декларативні принципи та як вони працюють
01.08.2024 набув чинності AI ACT – перший у світі закон, який комплексно регулює ШІ:
- 2 лютого 2025 р. – заборона на неприйнятні системи штучного інтелекту (наприклад, біометрична категоризація, розпізнавання обличчя).
- 2 серпня 2025 р. – правила GPAI (щодо систем ШІ загального призначення).
- 2 серпня 2026 р. – положення про системи ШІ з категорії «високого ризику» (додаток ІІІ).
- 2 серпня 2027 р. – положення про окремі продукти ШІ з категорії «високого ризику» (додаток I).
AI ACT діє по всьому ЄС:
- ЄС компанії;
- Іноземні компанії, що взаємодіють з громадянами чи працюють по ЄС.
АІ ACT поширюється:
- Розробники ШІ.
- Постачальники систем ШІ.
- Користувачі ШІ.
АІ АКТ розрізняє 4 рівні ризиків ШІ систем:
- Неприйнятного – порушує основні права людини:
- Збирають зображень обличчя;
- Змінюють поведінку людини;
- Підштовхують до небезпечних дій;
- Здійснюють категоризацію людей;
- Оцінюють людей на основі поведінки або покупок.
- Високого – вплив на безпеку, права людини або суспільство;
- Критична інфраструктура;
- Освіта та ринок праці;
- Компоненти безпеки;
- Публічні і приватні послуги;
- Правоохоронні органи.
- Обмеженого – відсутність прозорості в роботі чи алгоритмах:
- Чат-боти;
- Системи аналізу тексту;
- Системи моніторингу здоров’я.
- Мінімального – не створюють загроз для безпеки або основних прав:
- Відеоігри з підтримкою ШІ;
- Фільтри спаму;
- Алгоритми, які надають рекомендації.
Відповідальність:
- Заборонені AI практики – до 35 млн EUR або до 7 % від світового обороту.
- Порушення обов’язків операторів – до 15 млн EUR або до 3 % від світового обороту.
- Надання оманливих відомостей – до 7.5 млн EUR або до 1 % від світового обороту.
3. АІ комплаєнс та юридична роль
AI-комплаєнс починається не з перевірки закону, а з аналізу самої системи.
Базові напрямки для юридичного аналізу ШІ:
- Ролі та сторони;
- Критичні функції;
- Призначення та сфера застосування;
- Географія використання;
- Прозорість і взаємодія з користувачем;
- Коментарі та винятки.
Відповіді на ці питання основа для: визначення рівня ризику, встановлення юридичної ролі, розробки політик, оцінки відповідності.
Після аналізу системи:
- Визначаємо рівень ризику.
- Фіксуємо юридичну роль.
- Формуємо вимоги до комплаєнсу.
- Встановлюємо зони відповідальності.
HIGH-RISK AI – система оцінки надійності контрагентів для автоматичного KYC-рішення.
Клієнт – B2B‐платформа, яка використовує ШІ для автоматизованого KYC скорингу контрагентів (перед тим як укласти угоду).
Алгоритм виводить «рівень ризику» на основі:
- відкритих реєстрів;
- медіа‐аналізу;
- зв’язків з іншими юрособами;
- ключових слів у документах (статутах, договорах, судових рішеннях тощо).
Важливо, що ШІ самостійно приймає рішення (пропустити чи заблокувати контрагента).
MINIMAL-RISK AI ШІ – допоміжний інструмент для аналізу договорів під час due diligence.
Клієнт – юридичний відділ IT-компанії, який використовує ШІ для попереднього перегляду великої кількості договорів у M&A-процесі.
Алгоритм: підсвічує потенційно чутливі пункти (штрафи, зміна контролю, арбітраж тощо), групує за типами ризиків, не приймає рішень, не генерує фінальні висновки.
У цьому випадку ШІ не впливає на юридичну оцінку. Усі дії перевіряє юрист.
4. Виклики в юридичній сфері щодо ШІ
Топ викликів для юристів при використанні ШІ:
- Конфіденційність і достовірність:
- Фейкові джерела, підміна правових систем;
- Витік даних через “невинні” prompt;
- Передача даних стороннім сервісам без згоди клієнта;
- Відсутність контролю над тим, що модель запам’ятовує чи відтворює;
- Ілюзія точності – коли ШІ «впевнено помиляється».
- Відповідальність:
Питання полягає у тому, хто відповідає у разі шкоди?
- Юрист, який скористався ШІ?
- Розробник чи постачальник системи?
- Клієнт, який її замовив і застосував?
- Необхідність ліцензування або стандартів:
- Формальних дозволів немає;
- Відповідальність – на юристі;
- Деякі країни вводять етичні вимоги.
- Білінг:
- Включення часу на ШІ в білінг – на розсуд юриста;
- Все, що зроблено за допомогою ШІ – повинно бути позначено;
- Важлива прозорість;
- Потрібно інформувати клієнта про використання ШІ.
Першоджерело - https://tinyurl.com/2w49rkfk