
-
Поняття «галюцинацій» штучного інтелекту
З огляду на те, що штучний інтелект, як і будь-яка комп’ютерна система, може допускати помилки та збої в своїй роботі, часто такі неправильні результати, які генерує штучний інтелект, називають «галюцинаціями».
Термін «AI hallucinations» наведений в Керівництві для судових посадовців щодо використання штучного інтелекту (ШІ) від 14 квітня 2025 року (Artificial Intelligence (AI) Guidance for Judicial Office Holders, dated April 14, 2025)1, яке було опубліковане на сайті судової влади Великої Британії (далі – Керівництво).
В розділі «Терміни», які використовуються в Керівництві, наводиться визначення «галюцинацій штучного інтелекту». Це - неправильні або оманливі результати, які генерують моделі ШІ. Вказані помилки можуть бути спричинені різними факторами, включаючи недостатню кількість даних, статистичну природу моделі, неправильні припущення, зроблені моделлю, або упередження в даних, що використовуються для навчання (тренування) моделі.
Також категорія «галюцинації» згадується у документі, який був опублікований Управлінням регулювання діяльності соліситорів (Solicitors Regulation Authority), під назвою «Звіт про перспективи ризиків: використання штучного інтелекту на юридичному ринку, 20 листопада 2023 року» (“Risk Outlook report: the use of artificial intelligence in the legal market, 20 November 2023”). Аналізуючи причини та наслідки помилок, які генеруються штучним інтелектом, в Звіті вказується наступне:
«Усі комп’ютери можуть помилятися. Однак мовні моделі штучного інтелекту, такі як ChatGPT, можуть бути більш схильними до цього. Це пояснюється тим, що вони працюють, передбачаючи текст, який має відображатися після введених даних, але не мають поняття «реальності». Результат відомий як «галюцинація» має місце тоді, коли система видає дуже правдоподібні, але неправильні результати».
-
Наслідки використання помилкових результатів, згенерованих штучним інтелектом, в судових справах
2.1. Перше згадування про «галюцинації» штучного інтелекту в контексті використання неправдивих та помилкових результатів, які були ним згенеровані, при розгляді судових справ має місце в нещодавній справі Ayinde, R v The London Borough of Haringey [2025], яка розглядалася Судовою палатою Королівської лави Високого суду Англії та Уельсу. Суддя Ritchie був шокований, виявивши, що адвокат позивача надав письмові пояснення, які місять посиланнями на вигадані справи. Ще більш шокуючим був той факт, що адвокат позивача пояснив, що посилання на справи, які не існують, були лише «косметичними помилками», допущеними при укладанні процесуальних документів, та які можна «легко пояснити».
Суддя наголосив на тому, що таке використання штучного інтелекту «є відповідальністю юридичної команди, включаючи адвокатів, оскільки вони зобов’язані стежити за тим, щоб виклад фактів та підстав звернення до суду був правильним», та що посилання на п’ять судових прецедентів, які не існують, «цілком чітко кваліфікується як професійний проступок». Суд ухвалив зменшити витрати на професійну допомогу на 7000 фунтів стерлінгів через непрофесійні дії юридичної команди позивача, та, навіть, зобов’язав відповідача надіслати стенограму слухання до Ради з питань стандартів діяльності баристерів (Bar Standards Board) та Управління регулювання діяльності соліситорів (Solicitors Regulation Authority).
-
Одночасно із справою Ayinde, R v The London Borough of Haringey [2025], суд розглядав справу Hamad Al-Haroun v Qatar National Bank QPSC & Anor [2025], в якій позивач вимагав відшкодування збитків у розмірі 89,4 мільйона фунтів стерлінгів за ймовірне шахрайство. Суддю дуже турбував той факт, що під час листування з судом та наданні показів свідками, учасники процесу посилалися на численні джерела, які або виявилися фіктивними, або, навіть якщо й існували, то не містили уривків, на які посилалися сторони. В цій справі цитувалися 45 справ, з яких як мінімум 18 не існували. Враховуючи те, що вказані фіктивні справи були результатом, згенерованим штучним інтелектом, який використовували сторони судового процесу, то мало місце посилання на «галюцинації штучного інтелекту». Пошук справ провів клієнт, а потім на результати цього пошуку посилалися його адвокати, що суд назвав «надзвичайним», особливо враховуючи те, що одне з фальшивих джерел, на яке посилалися сторони в суді, було фіктивне «рішенням», яке приписується судді, що розглядав справу Hamad Al-Haroun v Qatar National Bank QPSC & Anor [2025].
За результатами розгляду цих справ, суд не застосував до правників заходи відповідальності, однак наголосив, що в професійній діяльності використання правниками штучного інтелекту, як інструменту, має бути розумним. А «правники, які не виконують свої професійні обов’язки належним чином, несуть ризик стати суб’єктами, щодо яких можуть бути застосовані суворі санкції».
1 Artificial Intelligence (AI) Guidance for Judicial Office Holders, dated April 14, 2025 [Електронний ресурс]. – Режим доступу: https://www.judiciary.uk/guidance-and-resources/artificial-intelligence-ai-judicial-guidance-2/