Регулювання штучного інтелекту: досвід США

June 14, 2023

Штучний інтелект нікого не залишає байдужим. Хтось бачить в ньому загрозу, хтось – можливості. Часто можна почути, що розвиток штучного інтелекту призведе до зростання безробіття, порушень приватності, і навіть “повстання машин”. Натомість прибічники штучного інтелекту запевняють, що він буде досить ефективним у різних сферах: медицинівійськовій справі, промисловості

З матеріалів Центру демократії та верховенства права ви можете дізнатися про те, що таке штучний інтелект, чи може він порушувати авторські права та як застосовується в правосудді

Одне з питань, яке активно обговорюють сьогодні – регулювання штучного інтелекту. Адже він впливає на всі сфери нашого життя – від національної безпеки до освіти, від сфери оборони до медицини. За регулювання штучного інтелекту взялися США, Китай та ЄС. Про заходи ЄС щодо регулювання систем штучного інтелекту можна почитати в аналітиці ЦЕДЕМ. 

А у цій аналітиці поговоримо про те, як в США здійснюється регулювання штучного інтелекту, котрий зі штатів вже почав впроваджувати ініціативи та які саме.

Чому раптом заговорили про регулювання штучного інтелекту? 

Генеральний директор OpenAI Сем Альтман 16 травня закликав Конгрес США до регулювання штучного інтелекту (далі – ШІ), адже це є “критично необхідним кроком”. Засідання розпочалося з обговорення можливостей ШІ. Втім, увага була більше сконцентрована не на позитивному впливі ШІ, а на загрозах, які він несе. Сенатор Джош Хоулі визначив, що небезпека ШІ може полягати в:

  • Масових втратах робочих місць;
  • Порушенні прав на недоторканність приватного життя; 
  • Маніпуляції поведінкою людей і, як наслідок, демократичними виборами. 

Коли ж самого Альтмана запитали про його страхи щодо ШІ, він підсумував:

«Ми, технологічна індустрія, завдаємо суттєвої шкоди світу. Це може проявлятися дуже по-різному, але якщо ШІ піде неправильним шляхом, це буде дуже неправильний шлях. Ми хочемо співпрацювати з урядом і запобігти цьому».

Що запропонував Альтман? 

  • Створити окремий федеральний орган для регулювання ШІ і з повноваженнями видавати ліцензії розробникам ШІ; 
  • Встановити стандарти безпеки використання ШІ;
  • Впровадити систему незалежного аудиту для оцінки моделей ШІ.

Цей заклик мали б зустріти оплесками, але сталося навпаки. Альтман наразився на критику і отримав звинувачення у маніпуляції сенаторами та намаганні зацементувати лідерські позиції OpenAI (коли його корпорація отримає всі потрібні ліцензії, не лишивши шансів компаніям-конкурентам). 

Втім, аналізувати наміри Сема Альтмана у цій аналітиці ми не будемо, а зосередимося на  регулюванні ШІ в США.

Обговорювати необхідність регулювання ШІ стали й тому, що його вплив на життя кожної людини та держави зростає з неймовірними темпами. Справа не лише у чат-ботах на кшталт ChatGPT, роботах-пилососах та технології “розумний будинок”. Сьогодні ШІ здатен порушити право на приватність, маніпулювати настроями людей, призводити до дискримінації та зростання безробіття, поширювати дезінформацію та пропаганду. Наприклад, читайте в матеріалі ЦЕДЕМ, як ChatGPT сприяє поширенню російської пропаганди та як цьому завадити. 

Тож, щоб впевнитися, що ШІ є законним, безпечним та етичним інструментом, уряди держав, у тому числі і США, почали говорити про необхідність регулювати ШІ.

Умовно, виділяють 3 моделі регулювання ШІ:

  • Перша – європейська – регулювати не тільки поведінку держав та їхніх зобов’язань в контексті ШІ, а й поведінку приватних гравців. 
  • Друга – китайська – користувачів просять підтвердити свої імена перед використанням додатків з ШІ; законодавство забороняє генерувати та поширювати фейкові новини, створені ШІ; держава повністю бере у свої руки регулювання ШІ. 
  • Третя – до неї можна віднести США, Японію чи Південну Корею – тут немає жорсткого регулювання, але разом з цим, немає і зворотного підходу, коли держава монополізує штучний інтелект, як це відбувається в Китаї.

Регулювати ШІ чи ні – вибір кожного, але з часом виникають обставини, які змушують це робити. Наприклад, ЄС готується до запровадження спеціального акту, який регулюватиме використання ШІ на його території. 

Акт про ШІ в ЄС класифікуватиме інструменти штучного інтелекту відповідно до їхнього рівня ризику: від мінімального до обмеженого, високого та забороненого. Ризики можуть включати в себе біометричне спостереження, поширення дезінформації або дискримінаційні висловлювання.

Системи штучного інтелекту з неприйнятним рівнем ризику для безпеки людей будуть суворо заборонені. Заборонять і системи, які застосовують підсвідомі або цілеспрямовані маніпулятивні методи, використовують вразливі місця людей або слугують для соціального оцінювання: зокрема, класифікації людей на основі їхньої поведінки, соціально-економічного статусу, особистих характеристик. Детальніше про класифікацію – за посиланням.

Наприклад, до категорії ШІ з високим рівнем ризику додали системи штучного інтелекту для впливу на виборців у політичних кампаніях і системи рекомендацій, які використовують платформи соціальних мереж з понад 45 мільйонами користувачів. Також у цій категорії опинилися ШІ-системи, які можуть зашкодити здоров’ю людей, безпеці, основним правам людини або навколишньому середовищу. 

У свою чергу, США належать до держав, де жорсткого регулювання ШІ немає, але законодавець, безумовно, виносить питання ШІ на порядок денний. У 2021 році розроблена Національна стратегія США зі штучного інтелекту, в якій йшлося про:

  • Необхідність підтримки освітніх програми з питань ШІ та навчання робочої сили;
  • Необхідність підтримки міждисциплінарних досліджень ШІ;
  • Планування федеральних міжвідомчих заходів щодо ШІ;
  • Залучення інвестиції до розвитку ШІ;
  • Підтримку міжнародної співпраці зі стратегічними союзниками щодо досліджень і розробок систем ШІ.

Національна стратегія США зі штучного інтелекту не має зобов’язального характеру. У той же час, стрімкий розвиток ШІ викликає дедалі більше занепокоєння, а необхідність його регулювання зростає. За це восени минулого року і взявся Білий Дім. 

Білий Дім про принципи штучного інтелекту

У жовтні 2022 року Управління наукової та технологічної політики Білого дому опублікувало проєкт Білля про права у сфері штучного інтелекту (Blueprint for an AI Bill of Rights). Передбачалося, що Білль має стати своєрідною “дорожньою картою щодо відповідального використання штучного інтелекту”. Він визначив 5 основних принципів, якими слід керуватися при розробці та впровадженні автоматизованих систем ШІ. 

Людина має бути захищена від небезпечних або неефективних технологій. Під час роботи над розробкою ШІ треба проводити консультації з різними спільнотами, зацікавленими сторонами та експертами у відповідній галузі. Такий “брейнштормінг” дозволить виявити проблеми, ризики та потенційні наслідки запровадження технології. 

Після обговорення системи повинні проходити тестування. Коли ж система почне функціонувати, то вона буде постійно піддаватися оцінці та звітуванню, які мають підтвердити, що система є безпечною або ні. 

Автоматизовані системи повинні проєктуватися таким чином, щоб забезпечити можливість незалежного оцінювання. Незалежні експерти (дослідники, журналісти, комісії з питань етики та сторонні аудитори) для проведення оцінки повинні мати доступ до системи у спосіб, що не суперечить принципам конфіденційності, безпеки, законодавству або нормативним актам.

Принцип 2: Алгоритмічний захист від дискримінації

Програми з використанням ШІ не повинні бути дискримінаційними. Розробники автоматизованих систем під час навчання ШІ мають враховувати, що вихідні дані, на яких навчається ШІ, повинні представляти максимальну кількість груп та спільнот. 

З такою проблемою зіткнувся Amazon, який намагався використовувати автоматизовану систему для перегляду резюме претендентів на роботу. Інструмент для найму на роботу застосовував ШІ, щоб надавати кандидатам оцінки від однієї до п’яти зірок. Втім система не змогла оцінювати кандидатів гендерно нейтральним способом. Особливо це стосувалося розробників програмного забезпечення та інших технічних посад. Сталося це тому, що програма навчалася на резюме, які надсилали компанії протягом 10 років. Більшість з них були від чоловіків, а тому резюме, які містили слово “жінка”, “жіночий” далі просто не потрапляли на розгляд. Програма не пройшла тестування і поки що не використовується. 

Тож перш ніж використовувати програму, її необхідно протестувати. Під час тестування потрібно максимально охопити групи за такими ознаками, як раса, колір шкіри, етнічна приналежність, стать (включно з вагітністю, пологами і пов’язаними з ними медичними станами), гендерна ідентичність, релігія, вік, національне походження, інвалідність, статус ветерана тощо.

Під час використання програми з ШІ людина має бути впевнена, що її персональні дані захищені і вона може контролювати їх використання. Тому розробники мають запропонувати інструмент, за допомогою якого можна буде отримати дозвіл від користувача на збір, використання, доступ, передачу та видалення його даних. Запити на отримання згоди мають бути короткими, зрозумілими, викладеними простою мовою.

У штаті Нью-Йорк була встановлена тимчасова заборона на використання системи розпізнавання облич у школах. Причиною цьому стала подія у місті Локпорт, де прийняли рішення про використання програми для стеження за учнями державних шкіл за допомогою технології розпізнавання облич. Це зробили без попереднього обговорення, без участі громадськості, без згоди дітей та батьків. Тепер закон вимагає, щоб перед використанням технологій біометричної ідентифікації в школах штату Нью-Йорк готувався звіт про наслідки використання таких технологій для приватного життя, громадянських прав і свобод. 

Кожного разу, коли мова йде про використання програми з ШІ, людина має знати про це. Крім того, необхідно дати інформацію про те, чому використовується ШІ, для досягнення якого результату, як це потенційно може вплинути на користувача.

Розробники повинні повідомити про те, що такі системи використовуються, надати загальнодоступну документацію простою мовою, що включає чіткий опис того, як програма функціонує, яку роль відіграє в ній ШІ, інформацію про особу чи організацію, відповідальну за систему, та пояснити результати, які необхідно досягти, використовуючи ШІ. 

Для тих людей, які не хочуть використовувати програму з ШІ, має існувати можливість відмовитися від автоматизованих систем на користь людської альтернативи. Якщо частина процесів автоматизована, наприклад отримання певних соціальних послуг, то все одно має бути альтернативний варіант? за допомогою якого людина зможе реалізувати свої права. 

Принцип говорить про те, що “американська громадськість заслуговує на людську резервну систему на випадок, якщо автоматизована система вийде з ладу або завдасть шкоди”.

Наприклад, пацієнтці з Мічигану було помилково відмовлено в доступі до знеболювального, коли програмне забезпечення лікарні переплутало її історію прийому ліків з історією прийому ліків її собаки. У таких випадках мати запасний варіант у вигляді лікарів, які виписують знеболювальне, не буде зайвим.

Білль містить пояснення того, як запровадити ці принципи у практику та взагалі орієнтуватися в ситуації, коли вплив програм з ШІ невпинно зростає та існує ризик порушення прав суспільства. 

До кого застосовуються принципи? До автоматизованих систем, які мають потенціал значного впливу на права, можливості або доступ американської громадськості до критично важливих ресурсів чи послуг. Це можуть бути алгоритми розпізнавання обличчя чи зчитування номерних знаків машин, алгоритми контролю доступу до банківських послуг чи системи “розумний дім” тощо

Критерій “потенціалу значного впливу”, хоч і може тлумачитися достатньо широко, втім змушує задуматися про те, що сьогодні ШІ дійсно має чималий вплив, як позитивний, так і негативний. В той час, коли одна програма з ШІ спрощує доступ до інформації та допомагає виявляти шахрайство, інша – збирає персональні дані та дискримінує окрему групу.

До речі, цей критерій нагадує ще про одну особливість застосування Біллю – його правила обов’язкові лише для державних автоматизованих систем, які використовують штучний інтелект. Вони апріорі мають потенціал значного впливу, адже стосуються кожного користувача, який хоче сплатити штраф, зареєструвати шлюб, оформити страхування тощо. Для приватних компаній він є рекомендаційним. 

Питання для суспільства: кому має бути підзвітний ШІ? 

Цієї весни Адміністрація Байдена повернулася до активного обговорення можливостей і ризиків ШІ. 4 квітня Байден заявив, що “ШІ може допомогти впоратися з деякими дуже складними проблемами, такими як хвороби і зміна клімату, але також треба враховувати потенційні ризики для суспільства, економіки і національної безпеки”

Вже 11 квітня Національне управління телекомунікацій та інформації США (далі – NTIA) почало вивчати заходи, які необхідно вжити, аби гарантувати ефективне, безпечне та законне використання систем ШІ.

Для цього NTIA створили спеціальну форму-запит “Щодо політики підзвітності у сфері ШІ”. В ньому NTIA просить суспільство надати коментарі щодо того, як підвищити довіру до ШІ і яке регулювання потрібно, щоб оцінити та сертифікувати програму. 

NTIA винесло на обговорення такі питання:

  • Які дані потрібні для того, щоб проводити аудит та оцінку програм, що використовують ШІ? 
  • Як заохотити та підтримати розробників систем ШІ, аби ті забезпечували надійність та безпечність систем?
  • Які специфічні підходи до оцінки можуть знадобитися в різних галузях, наприклад, у сфері зайнятості або охорони здоров’я?

Коментарі збирали до 12 червня 2023 року, а після їх аналізу NTIA підготує звіт про те, які дії треба здійснити, щоб ШІ функціонував не на шкоду, а на користь користувачам та державі. 

Коли інформація буде зібрана, Адміністрація Президента буде працювати над створенням узгодженого підходу до ризиків і можливостей, пов’язаних зі ШІ. Можливо, буде запропоновано прийняти окреме регулювання. А поки такого регулювання на федеральному рівні немає, деякі штати беруть ініціативу в свої руки. 

Каліфорнія хоче пальму першості

Каліфорнійські законодавці прагнуть першими врегулювати ШІ та ініціюють зміни в законодавстві одну за одною. 

У лютому 2023 року був представлений законопроєкт Сенату штату №721 про створення Каліфорнійської міжвідомчої робочої групи зі штучного інтелекту. Він передбачає створення робочої групи, яка має до 1 січня 2030 року представити звіт законодавчому органу Каліфорнії щодо штучного інтелекту. Група складатиметься з 10 членів, серед яких двох призначатиме губернатор, двох – тимчасовий виконувач обов’язків голови Сенату, двох – спікер Асамблеї, двох – генеральний прокурор, одного – Каліфорнійське агентство із захисту приватного життя і одного – Департамент технологій. 

Робоча група повинна буде:

  • Приймати пропозиції від наукової спільноти, груп захисту прав споживачів, малих, середніх і великих підприємств, на які впливає політика у сфері штучного інтелекту;
  • Розробити загальне визначення штучного інтелекту для використання в законодавстві;
  • Вивчити наслідки використання штучного інтелекту для збору даних для інформування про тестування та оцінку, верифікацію та валідацію штучного інтелекту;
  • Визначити проактивні кроки для запобігання кампаніям дезінформації за допомогою штучного інтелекту та потенційно шкідливого впливу штучного інтелекту на дітей;
  • Визначити відповідні агенції для розробки та нагляду за політикою штучного інтелекту та впровадженням цієї політики.

У березні 2023 року Законодавчі збори штату Каліфорнія представили законопроєкт № 331, який пропонує внести зміни до Business and Professions Code та покликаний реалізувати принципи, закріплені в Біллі про права на штучний інтелект. Законопроєкт має інструменти, які допоможуть контролювати те, як у різних галузях використовують автоматизовані системи. Адже сфера застосування ШІ широка: від алгоритмів, що оцінюють резюме, до програм, які виявляють академічне шахрайство. 

Ось що передбачає законопроєкт:

  • Прописати порядок того, як розробники і користувачі перевірятимуть системи ШІ. Замість того, щоб покладатися на незалежний аудит третьої сторони, розробники програми повинні будуть щорічно до 2025 року подавати оцінку впливу до Департаменту громадянських прав Каліфорнії. Звіт має містити відомості про те, як використовується автоматизована система, які дані збирає, які існують запобіжні заходи та які потенційні негативні наслідки можуть виникнути;
  • Розробник повинен створити інструмент, який повідомлятиме людину, щодо якої ухвалюють рішення у певному процесі, якщо його ухвалюють із застосуванням ШІ;
  • Людина має бути повідомлена про мету інструменту автоматизованого прийняття рішень, знати контактну інформацію розпорядника, опис інструменту;
  • Розробники повинні забезпечити альтернативний варіант ухвалення рішення;
  • За порушення вимог закону передбачений штраф (не більше 10 тисяч доларів США).

Ще одну ініціативу висунула Каліфорнійська рада з громадянських прав (далі – CRC), яка внесла зміни до трудового законодавства щодо систем автоматизованого прийняття рішень:

Вона запровадила визначення:

  • “штучного інтелекту” – “система машинного навчання, яка може для певного набору цілей, визначених людиною, давати прогнози, рекомендації або рішення”;
  • “негативного впливу” – яке включає “використання зовні нібито нейтральної процедури, яка насправді негативно обмежує, відсіює, має тенденцію до обмеження або відсіювання, класифікує або надає пріоритет певним заявникам або працівникам”;
  • “машинного навчання” – яке означає “здатність комп’ютера використовувати і навчатися на основі власного аналізу даних або досвіду і автоматично застосовувати це навчання в майбутніх розрахунках або завданнях”;

Дала більш повний перелік:

  • прикладів завдань, які можуть виконуватися з використанням програм ШІ. Серед таких завдань, наприклад, розсилання оголошень про роботу цільовим групам, перевірка резюме на наявність певних термінів або шаблонів, аналіз виразу обличчя, вибору слів і голосу під час онлайн-інтерв’ю тощо.

Тож що відбувається з регулюванням штучного інтелекту в США? 

Регулювання штучного інтелекту – галузь нова і ми фактично слідкуємо за її становленням. Довго уряди країн не розуміли, чи треба регулювати цю сферу. Вагалися доти, поки не усвідомили – ШІ має величезний вплив та може призвести до наслідків – як позитивних, так і негативних. 

Чому ж США досі не має загальнофедерального нормативного регулювання? Ми маємо деякі міркування з цього приводу:

По-перше, відсутнє єдине визначення ШІ. Технології розвиваються настільки швидко, що консервативний законодавець не має можливості підлаштувати положення закону під технічні характеристики ШІ. Реальність така: законодавство повільніше, аніж технологічний прогрес.

По-друге, сфера використання ШІ безмежна та різноманітна – металургія, освіта, соціальні мережі, медицина тощо. Всі ці галузі мають свою специфіку та потреби. Тому і застосування ШІ в них буде проявлятися по-різному. Тож зашити регулювання ШІ в єдиний акт, який буде застосовуватися у десятках сфер, дуже складно. 

По-третє, специфіка державного устрою США, які є федеративною республікою. Штати мають право регулювати окремі питання самостійно, мають власні пріоритети та погляди на законотворчість. Тож, прийняти загальнофедеративне регулювання щодо ШІ видається надзвичайним завданням.

Регулювання ШІ залишається питанням дискусійним. Хтось стверджує, що потрібно запровадити суворі правила, аби запобігти потенційним негативним наслідкам ШІ. Інші вважають, що регулювання може обмежити інновації і розвиток галузі. Втім, сумніватись в тому, що рано чи пізно ШІ буде врегульований на законодавчому рівні, не варто. Зважаючи на вплив ШІ на всі сфери життя та ризики цього впливу, законодавець просто не зможе залишитись осторонь. 

Україна ж може запозичити американські тенденції щодо регулювання ШІ, а саме:

  1. Не ігнорувати регулювання ШІ та визнавати його потенційні ризики. Зважаючи на тенденцію до регулювання ШІ в США та ЄС, Україна теж має оцінити перспективу розвитку ШІ. Це необхідно для того, щоб передбачити, які заходи-запобіжники треба вжити ще перед тим, як ШІ зашкодить правам людини та інтересам держави. 
  2. Розробити ідеї щодо створення окремого незалежного органа для вивчення ШІ, який би регулярно готував звіт про рівень розвитку ШІ в Україні та рекомендації, оцінював ризики його використання. Такий орган може складатися з представників галузі розробки програм ШІ, громадських організацій, наукової спільноти, груп захисту прав споживачів, малих, середніх і великих підприємств, на які впливає політика у сфері штучного інтелекту тощо. 
  3. Оцінити, які сфери життя держави найбільше потребують залучення ШІ (медицина, освіта, військова сфера тощо) та розробити відповідний рекомендаційний акт з “правилами” використання ШІ. 

Продовжувати розробку Національної стратегії України зі штучного інтелекту та окрему увагу в ній приділити необхідності освітніх програми з питань ШІ, міждисциплінарних досліджень ШІ, проведення міжвідомчих заходів щодо ШІ, залучення інвестиції до розвитку та підтримку міжнародної співпраці.