Штучний інтелект на допомогу правосуддю: дотримання прав людини
В Україні впровадження штучного інтелекту в правосуддя залишається проблемним питанням. Першим базовим кроком до цього є запуск електронного суду, який також до цього часу не знайшов свого ефективного способу запровадження. Саме електронний суд дасть можливість зменшити час на оброблення даних та аналіз судової практики.
Новини та події
02.12.2020

Питаннями штучного інтелекту людство активно займається, починаючи з з 50-х років минулого сторіччя. А перше визначення цього поняття було сформовано Джоном Маккарті у 1956 році на конференції в Дартмунському університеті.

Так, штучний інтелект – це сукупність наук і методів, здатних опрацьовувати дані для розроблення надскладних комп’ютерних завдань. Із теоретичного погляду штучний інтелект імітує роботу людського мозку за допомогою біологічної системи нейронних мереж, що дає змогу надавати дієву допомогу людині у вирішенні великого масиву й легких, і важких проблемних завдань. Однак, штучний інтелект поки не може повністю замінити людину, зважаючи на наявність у ньому емоційних характеристик, які не піддаються автоматичному імітуванню (наприклад, важко передати таку людську якість як співпереживання). Крім того, штучний інтелект як неорганічний механізм має велику кількість підтверджених помилок та збоїв у роботі. Найважливішою умовою застосування штучного інтелекту у сфері правосуддя є наявність великого масиву відкритих даних та безперешкодний доступ до них.

Головними користувачами штучного інтелекту в системі правосуддя, зокрема в цивільних та кримінальних справах, стали Сполучені Штати Америки. Дослідники зі Стенфордського університету розробили алгоритм, який виконує функції асистента судді під час обрання запобіжного заходу підсудному. Ця програма дає змогу справедливо оцінити ризики й тримати під вартою значно меншу кількість осіб, зберігаючи при цьому баланс громадської безпеки. Продуктом комерційної компанії «Northpointe» (США) є програмне забезпечення COMPAS (Correctional Offender Managment Profiling for Alternative Sanctions), що оцінює ризик повторного скоєння злочину особою, щодо якої суддя повинен ухвалити вирок. Програма COMPAS базується на обробленні даних, що їх отримують на відповіді анкетних питань підсуднім, а в разі відмови підсудного від такої процедури програма опирається на відомості його досьє. Дані поділяються на динамічні, що мають мінливий характер та можуть змінюватися (наприклад наркозалежність, професійний статус, схилення до злочинної групи), і на статичні, які не можуть змінюватися (стать, вік, статус злочинця, кримінальне минуле). Як правило, суддя ухвалює вирок, ґрунтуючись на оцінці ризику за висновками програми.

Однак варто зауважити, що при застосуванні програми COMPAS має місце порушення етичних норм, що підтверджують і висновки досліджень Американської неурядової організації «ProPublica». Яскравим прикладом відповідних порушень є судова справа «Держава проти Ломіс», яку розглядали у Верховному Суді Вісконсина у 2016 році. Відповідно до матеріалів справи, Ломіс був засуджений судом округу за допомогою визначення ризиків програмою COMPAS, а апеляційний суд підтвердив конкретне питання про те, чи використання оцінки ризику COMPAS при винесенні вироку порушує право відповідача на належний процес, або тому, що власницький характер COMPAS заважає відповідачам оскаржувати наукову обґрунтованість оцінки COMPAS, або тому, що CОMPAS оцінки враховують стать особи. Ломіс у скарзі зазначив, що розгляд судом оцінки ризику COMPAS при винесенні вироку порушує право відповідача на належний процес. Це призвело до помилкового застосування судом на свій розсуд припущень про те, що фактичні підстави для звинувачення були повторені (наявні ризики оцінки COMPAS). За результатом розгляду Ломіс справу програв.

Ще один промовистий приклад.

Пол Зіллі, темношкірій американець, у 2013 році був засуджений за крадіжку газонокосарки й деяких інструментів. Його адвокат пішов із прокурором на угоду, відповідно до якої Пол визнав свою вину, за це йому передбачалося провести один рік у в’язниці і ще рік під подальшим адміністративним наглядом. Програма COMPAS оцінила Зіллі як особу з високим ризиком скоєння подальших злочинів, і саме після цього суддя змінив своє рішення, скасувавши угоду і призначивши Зіллі два роки в державній в’язниці та три роки адміністративного нагляду.

Вищенаведені приклади підкреслюють той факт, що програми, які використовують штучний інтелект, здатні розкрити не весь процес судового аналізу, а лише його результат. Така ситуація не дає можливість ні підсудному, ні судді, ні громадськості побачити, на якому процесові прийняття рішення ґрунтується прогноз судового рішення (хоча кожне судове рішення повинно бути обґрунтованим).

За якими критеріями розробники програми COMPAS визначили алгоритм роботи і встановлення оцінок ризиків є незрозумілим, а тому це питання зараховують до інтелектуальної таємниці.

У європейських системах правосуддя використання алгоритмів штучного інтелекту залишається переважно ініціативою приватного сектору й не сприймається належним чином державою. Більш того, окремі питання застосування штучного інтелекту піддаються кримінальному переслідуванню. Так, у Франції передбачена кримінальна відповідальність за аналіз судової практики, яка дає змогу спрогнозувати, яке рішення у справі може винести конкретний суддя. Така відповідальність була прийнята під тиском суддівського корпусу, аргументуючи це тим, що судові рішення використовують для аналізу моделі поведінки конкретного судді, що порушує його особисті права.

В Україні впровадження штучного інтелекту в правосуддя залишається проблемним питанням. Першим базовим кроком до цього є запуск електронного суду, який також до цього часу не знайшов свого ефективного способу запровадження. Саме електронний суд дасть можливість зменшити час на оброблення даних та аналіз судової практики.

Питання впровадження штучного інтелекту в правосудді залишається дискусійним для кожної країни світу. Національне законодавство не передбачає можливість заміни судді програмним алгоритмом, однак деякі юристи-практики обговорюють відповідне залучення штучного інтелекту в цю сферу. Так, у статті 6 Європейської конвенції про захист прав людини та основоположних свобод закріплене право розгляду справ незалежним і безстороннім судом. Проте в статті 6 цієї Конвенції немає прямої заборони використовувати штучний інтелект та не зазначено, що правосуддя має здійснювати лише суддя-людина. Залучення штучного інтелекту в правосуддя порушує низьку етичних питань, у зв’язку з чим у 2018 році Європейська комісія з ефективності правосуддя Ради Європи прийняла міжнародний акт – Етичну хартію з використання штучного інтелекту у судовій системі та її середовищі. Основною метою Хартії є підвищення ефективності та якості здійснення правосуддя шляхом опрацювання алгоритмами судових рішень і даних при дотриманні основних прав і свобод, які гарантуються законодавством про захист персональних даних.

Етична хартія закріплює п’ять принципів щодо використання штучного інтелекту під час здійснення правосуддя, а саме:

принцип дотримання основних прав людини при використанні штучного інтелекту;

принцип недискримінації, а саме запобігання розвитку будь-якої дискримінації між окремими особами чи групами осіб;

принцип якості та безпеки, який стосується оброблення судових рішень і даних у безпечному технологічному середовищі;

принцип «під контролем користувача»;

  • принцип прозорості, неупередженості та справедливості.

Отже, питання застосування штучного інтелекту в правосудді залишається актуальним у системі розвитку цифрових трансформацій суспільства.

Голова секції захисту людини

у системі правосуддя Комітету

захисту прав людини НААУ, адвокат

Вадим Володимирович Риков