Кіберпанк для юристів: що потрібно знати про штучний інтелект

Якби Оксфордський словник оголошував термін 2019-го року в Україні, ним би сміливо міг стати вираз “цифрова трансформація”. Дійcно, поява профільного міністерства, окремий Комітет в парламенті та купа питань, що віднесені до компетенції обох суб’єктів, абсолютно однаково торкатимуться як повсякденної діяльності користувача Інтернету, так і більш глобальних питань. Більше того, у світі активно починають застосовувати штучний інтелект для рекрутингу працівників, чи залучення роботів для модерації коментарів у соцмережах, а також – дослідження контенту, що містить мову ворожнечі.  Проте, окрім переваг, які надає e-демократія, з’являється логічне питання: як створюються та працюють інструменти, які, власне, цю демократію і будуть забезпечувати. А саме – як застосовуватиметься штучний інтелект (ШІ) та чи варто (і якщо так – як) це урегульовувати. Питання, що виникають в процесі використання штучного інтелекту, однаково стосуються державних і приватних інституцій: це отримання та застосування інформації, а також її захист. Концептуально, їх можна розділити на питання, що виникають в процесі “навчання” штучного інтелекту і створення коду та питання, пов’язані з наслідками використання технологій.

Трохи історії

Розвиток штучного інтелекту бере початок з середини ХХ століття – його пов’язують з тестом Алана Тюрінга, метою якого полягало зрозуміти, чи може машина мислити як людина. При цьому, термін, який ми звикли застосовувати до згаданого явища, у 1956 вперше вжив американський інформатик Джон Маккарті [1]. Нині, ця тема має досить багато розгалужень, серед яких обробка природної мови (Natural Language Processing, NLP), пошук та отримання інформації (Information Retrieval and Extraction, IR, IE), машинне навчання (Machine Learning, ML) і т.д. По суті, вони працюють з інформацією, намагаючись вивчити та раціоналізувати людську поведінку, щоби штучний інтелект міг досконало її відтворювати. У серцевині вивчення ШІ полягають знання. Водночас, їх “видобуток” та обробка для подальшого комплексного вирішення поставлених завдань є чи не найголовнішою проблемою в цій галузі, що має метафоричну назву “knowledge acquisition bottleneck” [2].

Визначити – означає обмежити?

Штучний інтелект давно стає чимось більшим, ніж антиутопічна фантазія у стилі кіберпанк, він вже є об’єктивною реальністю, яка почала набувати правових форм. Перш за все, це стосується розуміння поняття. Якщо звернутись до наявних правових визначень, насамперед в Євросоюзі, то штучний інтелект описують як високорозвинені системи, що аналізують встановлені умови і приймають до певної міри автономні рішення задля досягнення визначених цілей. Організація економічного співробітництва та розвитку (ОЕСР) у своїх принципах, схвалених у травні 2019 року, вказує, що ШІ – “це машинна система, яка може робити прогнози, рекомендації або рішення, впливаючи на реальне або віртуальне середовище на основі заданого людиною набору цілей. Причому такі системи можуть бути розроблені для роботи з різним рівнем автономії” [3]. Утім, визначення може варіюватись у залежності від країни, де воно застосовується. До прикладу, в Естонії штучному інтелекту надана метафорична назва “Kratt”, а увага закцентована на способі втілення штучного інтелекту та процесу його навчання. Зокрема, ШІ означає “практичне рішення, що виконує певну функцію, використовуючи, власне, штучний інтелект”.

Тут варто зауважити, що класичне програмне рішення – це створений код, що виконує завдання, встановлене програмістом, тоді як алгоритми ШІ не мають заздалегідь встановленої логіки програми і “Kratt” повинен прийти до правильного висновку шляхом машинного навчання” [4]. По суті, наведені вище визначення корелюються між собою, проте основне питання полягає у формуванні акцентів на властивостях штучного інтелекту і, відповідно, розробці принципів його застосування та рівня відповідальності.

Згадана естонська концепція полягає у формуванні регулювання штучного інтелекту в країні, де, окрім, стратегічних цілей розвитку також враховується аспект “відповідальності за алгоритм” (algorithmic accountability). Більше того, розглядаючи Естонію, необхідно брати до уваги її розмір, високий рівень технологічного розвитку, а також політико-економічні та соціокультурні особливості (до прикладу, мовне питання), що відобразились як в поставлених цілях, так і способах їх втілення, про що буде згодом.

А що з правами людини?

Якщо говорити про вектори розвитку національних законодавств, то тут знову ж таки варто звернути увагу на Рекомендації Організації економічного співробітництва та розвитку щодо штучного інтелекту та прийняті у червні 2019 року нею ж Загальні людиноцентричні принципи G20 [5], а також Координаційний план та Етичні рекомендації щодо надійності ШІ [6], напрацьовані Європейською комісією. Рекомендації ОЕСР структурно мають дві великі складові: а) принципи відповідального управління надійного ШІ, б) національні політики та міжнародна співпраця. Зокрема, документ встановлює п’ять взаємопов’язаних принципів: зростання, сталий розвиток та добробут; людиноцентричні цінності та справедливість; прозорість та зрозумілість; надійність, захист та безпека; відповідальність. Натомість, Координаційний план [7] Єврокомісії, окрім підвищення технологічного та промислового потенціалу, передбачає забезпечення правового та етичного підґрунтя, що відповідатиме цінностям Європейського Союзу та Європейській Хартії з прав людини. Що важливо, згадані документи, які відображають сучасну тенденцію щодо обробки персональних даних, роблять  акцент на етичності та захисті прав людини. При цьому, основними питаннями стають свобода, гідність, автономність, приватність, недискримінація, рівність, соціальна справедливість та трудові права.

Для прикладу, у 2018 році компанію Amazon.com, Inс. звинуватили у створенні дискримінаційного ШІ. Компанія розробила програму з рекрутингу працівників, яка відкидала резюме жінок під час розгляду анкет на прийом на роботу в компанію. Це ставалося з логічних причин, оскільки штучний інтелект “навчався”, досліджуючи резюме прийнятих працівників за 10 років. А серед них домінували чоловіки, з огляду на загальну тенденцію більшої їх кількості у технологічній індустрії. Відтак, зі спробами врегулювати подібні проблеми існують проекти [8], що встановлюють “відповідальність за упередження алгоритму”, який спрямований на оцінку автоматизованого прийняття рішення на предмет дискримінації чи упередженості алгоритму.

Ще одним прикладом є питання приватності та явища “порнопомсти” (публікація інтимних фото/відео без згоди зображених на них осіб), яке гостро постало літом 2019 року. Група розробників використовуючи штучний інтелект, розробила додаток DeepNude, що цифрово “роздягав” жінок в одязі на фото, допасовуючи несправжнє оголене тіло  (deep fake images). При цьому, додаток “оголював” лише жінок, що викликало гостру критику. Зрештою, через занадто високу популярність та довіру до зроблених неправдивих зображень, розробники додатку прийняли рішення його видалити. Наведені моменти яскраво свідчать про необхідність забезпечення якомога вищого рівня захисту прав людини у процесі використання штучного інтелекту. Варто зауважити що подібні помилки досить часто виявляються саме в процесі використання машинного інтелекту. А, відповідно, регулювання має передбачати можливість швидко визначити та усунути технологічну проблему. Естонія, як варіант подолання цієї проблеми у державному секторі, пропонує створити “пісочницю” (sandbox) для тестування технологічних рішень тих чи інших питань.

Data? What data?

Ключовими сферами, де є проблеми і ризики штучного інтелекту є інформація у формі даних, мова та персональні дані.

Дані дійсно є одночасно найбільшим здобутком та найбільшою проблемою у сфері розвитку штучного інтелекту. Зокрема, існують фундаментальні проблеми щодо якості інформації, аспектів її створення, поширення, оновлення та мовного бар’єру. Через згадані аспекти штучний інтелект досі не може повністю освоїти процеси отримання та пошуку інформації, а також її продукування.

Зокрема, це стосується розуміння програмою запиту користувача, пошуку сенсів у словесних конструкціях та відповідно розподілу на смислові кортежі (tuple), яке дозволить повністю зрозуміти аспекти формулювання фраз та їх природне використання. Хоча здобутки у цій галузі є достатньо вагомими. Для прикладу, австралійський The Guardian на початку року опублікував статтю, створену штучним інтелектом Reportermate. Аналогічно сайт Bloomberg, за інформацією The New York Times, третину своїх статей продукує, використовуючи машинні системи. Ба більше, дедалі частіше превалює думка, що використання штучного інтелекту в процесі модерації коментарів онлайн значно покращує той чи інший дискурс, очищуючи його від емоцій та дискримінації. Як приклад, можна навести програму, що вчиться вимірювати рівень ненависті та агресії у дописах користувачів у соцмережі Twitter.

Друге, мовне питання – також одна з ключових проблем використання штучного інтелекту. Для прикладу, Естонія, яка неодноразово згадана вище, однією зі своїх цілей у стратегії щодо штучного інтелекту визначила обробку природної мови – естонської, задля її сталого розвитку та збереження культури. Для української мови така перспектива теж актуальна. Найбільш наочно це помітно у ситуаціях, коли на платформах, що поширюють відео, відсутня опція автоматичного створення україномовних субтитрів.

Насамкінець – персональні дані. Важлива складова інформаційної приватності кожної особи. Знову ж, питання виникають як у процесі збору та обробки, так і в питаннях належного захисту. Особливо це стосується випадків, коли інформація відкрита, і в процесі колекціонування даних значно полегшується їх пошук. Цей аспект, а саме – у публікації такої інформації журналістами, розкрив Європейський суд з прав людини у рішенні Satakunnan Markkinapörssi Oy and Satamedia Oy v. Finland [GC] [9]. Так, суд дійшов висновку, що публікація відкритих персональних даних є законною, окрім випадків, коли такі дії не мають внеску в суспільну дискусію та спрямовані лише на задоволення цікавості читачів (§198). Окрім цього, недостатньо обґрунтований збір та обробка персональних даних осіб, поширення їх третім особам та відмова органів правопорядку надавати ці дані безпосереднім власникам також не відповідає стандартам, напрацьованим Загальним регламентом захисту даних (GDPR) та практикою Європейського суду з прав людини у справі Big Brother Watch v. The United Kingdom (§220). Водночас, як зазначає американський винахідник Джарон Ланьє: “Дані – це нова нафта”. Саме тому, на перший план виходить можливість захисту своєї приватності, що полягає у повазі до захисту персональних даних (data dignity), зокрема. Крім того, користувачі мають право використовувати власні дані як економічний ресурс (до прикладу, продавати їх компаніям, що займаються таргетингом), чим роками займаються приватні компанії.

Три крапки у випадку з Україною

Штучний інтелект – це не альтернатива, а необхідність. Україна наразі на тому етапі, коли ще немає готових рішень на всі поставлені питання. Проте, важливо усвідомлювати, що право не настільки динамічне, щоби повністю встигати за технологічним розвитком. Водночас, способи вирішення дискусійних питань у цій сфері можуть мати універсальну відповідь, а відтак застосування протестованих рішень може стати виходом із цієї проблеми. Україна є ідеальною локацією для інновацій та має достатні шанси стати унікальним місцем для розумних рішень у сфері штучного інтелекту та належного його функціонування у правовому полі. А відтак, це – можливість ризикнути та зробити великий стрибок у не лише у процесах розвитку технологій, а й у належному регулюванні надійного ШІ.

[1] The History of Artificial Intelligence. – URL: https://courses.cs.washington.edu/courses/csep590/06au/projects/history-ai.pdf.

[2] E. Hovy, R. Navigli, S.P. Ponzetto. Collaboratively built semi-structured content and Artificial Intelligence: The Story So Far. – 2012. – URL: https://www.sciencedirect.com/science/article/pii/S0004370212001245.

[3]Recommendation of the Council on Artificial Intelligence. – URL: https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449.

[4] Estonia accelerates artificial intelligence development. – URL: https://e-estonia.com/estonia-accelerates-artificial-intelligence/.

[5] G20 Ministerial Statement on Trade and Digital Economy. – URL: https://www.mofa.go.jp/files/000486596.pdf.

[6]ETHICS GUIDELINES FOR TRUSTWORTHY AI. – URL: https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60419.

[7] Coordinated Plan on Artificial Intelligence (COM(2018) 795 final). – URL: https://ec.europa.eu/knowledge4policy/publication/coordinated-plan-artificial-intelligence-com2018-795-final_en

[8] Algorithmic Accountability Act of 2019 (Bill). – URL: https://www.wyden.senate.gov/imo/media/doc/Algorithmic%20Accountability%20Act%20of%202019%20Bill%20Text.pdf.

[9] Огляд рішення Satakunnan Markkinaporssi Oy and Satamedia Oy проти Фінляндії українською мовою. – URL: https://cedem.org.ua/library/satakunnan-markkinaporssi-oy-and-satamedia-oy-proty-finlyandiyi-satakunnan-markkinaporssi-oy-and-satamedia-oy-v-finland/.

Ми надаємо безоплатні консультації із юридичних питань у сфері інформаційного та медійного права. Будемо раді поділитися з вами своїм досвідом.

Листи з інших питань не розглядаються.

Докладніше про консультації

 

Для того, щоб отримати інформацію, яка вас цікавить, зверніться до нас за допомогою гарячої лінії: