В епоху цифрової трансформації технології штучного інтелекту (ШІ) мають все більший вплив на різні сфери життя: від медицини до урядової політики. Але як зробити так, щоб ці технології використовувались етично і не порушували права людини? Щоб дати відповіді на ці питання Комітет з штучного інтелекту (CAI) Ради Європи розробляє методологію HUDERIA (Human Rights, Democracy, and the Rule of Law Impact Assessment).
Її мета – створити єдиний підхід для виявлення, аналізу, оцінки ризиків та впливу систем штучного інтелекту на права людини, демократію та верховенство права.
16-17 травня 2023 року в Рейк’явіку відбувся четвертий саміт глав держав та урядів Ради Європи, на якому вирішили посилити діяльність Ради Європи стосовно прав людини, демократії та верховенства права. Це стосувалось і розробки інструментів щодо вирішення нових викликів в цифрову епоху у сфері технологій. Про них ідеться в Рейк’явівській декларації, опублікованій за результатами саміту. Вже на 6 засіданні CAI в Страсбурзі Голові та Секретаріату доручили зробити свій внесок в обговорення технічного завдання. Зокрема, щодо кількості та тривалості засідань, необхідних у 2024 році для того, щоб завершити роботу над проєктом Рамкової конвенції та Методологією HUDERIA.
Для чого потрібна Методологія HUDERIA?
- Щоб зрозуміти, які системи ШІ є безпечними і не порушують права людини.
- Щоб визначити, які дії потрібно вжити для покращення системи ШІ, якщо вона виявляється ризикованою.
HUDERIA має складатися з таких етапів:
- ідентифікація ризику системи ШІ: визначення того, чи становить система ШІ певний ризик;
- оцінка впливу: залучення стейкхолдерів для покращення якості (точності) оцінки рівня ризику і впливу системи ШІ на вищезазначені права та безпосередньо сама оцінка;
- оцінка управління: відповіді на соціотехнічні питання та питання, що стосуються прав людини, демократії та верховенства права;
- пом’якшення негативного впливу та оцінка системи ШІ: визначення відповідних заходів з пом’якшення впливу системи ШІ та забезпечення постійної оцінки.
Основні етапи методології HUDERIA
- Контекстно-орієнтований аналіз ризиків (a context-based risk analysis, COBRA). Це початковий етап, мета якого визначення, який вплив з точки зору розгортання або потенційного використання системи ШІ вона має стосовно:
- дотримання прав людини;
- функціонування демократії;
- забезпечення верховенства права.
Ця частина буде слугувати пороговим тестом і складатиметься з набору питань, які базуватимуться на відповідному прецедентному праві Європейського Суду з прав людини та спеціальних дослідженнях щодо демократії та верховенства права (їх проведе команда експертів). Відповіді на них мають дати чітке розуміння: чи варто здійснювати наступні кроки визначені в методології. Системи ШІ, ідентифіковані як такі, що не підпадають під порушення прав зазначених вище, не будуть піддаватись подальшій оцінці.
- Залучення стейкхолдерів для того, щоб покращити якість оцінки ризиків та впливу системи ШІ на права та інтереси таких суб’єктів. Якщо систему штучного інтелекту буде визначено як таку, що становить значні ризики для реалізації прав людини, функціонування демократії та дотримання верховенства права, тоді до цього процесу мають бути залучені стейкхолдери. До них потенційно можуть належати особи, права яких можуть бути порушені або порушуються внаслідок функціонуванням системи ШІ, носії обов’язків щодо функціонування системи ШІ (як от ті, хто керує проєктом системи ШІ, постачальники, підрядники, ділові партнери, органи влади), а також інші сторони, наприклад ООН, правозахисні організації, ОГС. Їхнє завдання на цьому етапі – покращити якість оцінки ризику та впливу системи ШІ на права людини, демократію та верховенство права. А також визначення перспектив того, чиї права та інтереси можуть опинитись під загрозою.
У випадку, якщо система ШІ буде використовуватись з іншою метою, в інших контекстах або в систему будуть вноситись суттєві зміни, щодо такої системи ШІ мають провести нову оцінку з використанням HUDERIA. Протягом всього процесу оцінки впливу системи ШІ мають бути залучені зацікавлені сторони.
- Основою методології буде власне оцінка впливу на права людини, демократію та верховенство права, яка складатиметься з зобов’язання розглянути:
(a) певну кількість конкретних соціотехнічних питань, що стосуються системи штучного інтелекту, що знаходиться під розглядом в процесі HUDERIA;
(b) питання, що стосуються прав людини, демократії та верховенства права спираючись на стандарти Ради Європи.
Зараз набори цих питань розробляють експерти Ради Європи. Цей процес може допомогти підтвердити ризики потенційної шкоди системи ШІ та дати спільну оцінку тому, наскільки серйозним є потенційний негативний вплив системи ШІ, яку розглядають. Також відповіді на конкретні питання мають допомогти виробити план пом’якшення впливу системи ШІ на права людини, демократію та верховенство права і створити протоколи для моніторингу та можливої переоцінки впливу.
- Зменшення впливу та засоби правового захисту для тих, хто може зазнати певного впливу від розгортання системи штучного інтелекту. Останні етапи вимагають складання плану зменшення негативного впливу системи ШІ на вищезазначені права та, за потреби, механізмів доступу суб’єктів, права яких зачіпає функціонування системи ШІ, до правового захисту.
Сама методологія розроблена так, щоб її можна було регулярно застосовувати повторно протягом життєвого циклу системи штучного інтелекту.
Пропонується, щоб методологія і зазначені вимоги не були юридично обов’язковими. Це може дозволити державам-членам змінювати або вносити зміни відповідно до їхньої конкретної ситуації. Методологія не передбачатиме конкретної моделі для такої оцінки, натомість встановлюватиме її етапи. Таким чином усі країни матимуть єдиний підхід до оцінки, і водночас у них залишиться простір, аби адаптувати її до власних реалій. Адже методологія HUDERIA зможе бути заснована спираючись на особливості кожної країни.
В контексті України варто розуміти, що Методологія HUDERIA є пілотним проектом. Після її запуску Україна може її запозичити або адаптувати, що і передбачено самою методологією. Зараз погоджена участь представників України в пілотному проекті HUDERIA. Аби ефективно впроваджувати Методологію HUDERIA в Україні, державі варто проводити якісну комунікаційну роботу з розробниками систем ШІ, яким вона потенційно може бути потрібна. Наприклад, розповідати про неї в медіа, публікувати звітність щодо впровадження методології та поширювати найкращі практики її застосування, коли робота з нею розпочнеться.
Розробники систем штучного інтелекту мають з уважністю та зацікавленістю ставитись до методології, оскільки саме вона може посприяти тому, щоб їхні розробки у сфері ШІ не порушували права людини, дотримувались демократичних принципів та верховенства права. Ця методологія може стати елементом саморегуляції розробників систем ШІ.
Такі кроки до розвитку саморегуляції дадуть можливість розробникам систем ШІ брати активну участь у формуванні стандартів і принципів роботи, замість того, щоб бути пасивними учасниками правової регуляції.
З іншого боку, вона демонструватиме відповідальність і дотримання професіоналізму, що важливо і для самого суспільства, а не лише бізнесу. Та, як показує досвід, може суттєво пришвидшити інноваційний процес, оскільки розробники будуть мати більше гнучкості та розуміння потреб ринку, не очікуючи зовнішнього регулювання – своєю чергою, це зменшить надмірну зарегульованість сфери з боку держави.