Штучний інтелект створює брехню, але здатен і захищати від неї, – експертка ЦЕДЕМ розповіла про роль ШІ

October 20, 2023

“Презумпція брехні”, – так Ольга Петрів, юристка Центру демократії та верховенства права, членкиня Комітету Мінцифри з питань розвитку штучного інтелекту, називає ситуацію в інформаційній сфері, яку здатен створити ШІ.

Алгоритми штучного інтелекту здатні масово генерувати дезінформацію та пропагандистські матеріали, які потім заповнюватимуть інтернет-мережу. Втім, так само штучний інтелект можна навчити розпізнавати фейки. Про це, а також стратегію України щодо ШІ, експертка розповіла у етері Українського радіо.

Ольга Петрів звернула увагу на один із небезпечних форматів застосування штучного інтелекту. Він вміє масово генерувати контент, “замовлений” за певним шаблоном – значно швидше, ніж люди. Для зловмисників це серйозний інструмент, аби випускати дезінформацію. Далі вони поширюватимуть її у різноманітних пабліках та соцмережах, а саме там люди шукають новини.

“Однією із найбільших загроз є дезінформація і масове поширення пропаганди, які генеруються за допомогою технології штучного інтелекту. Те, що може відбуватися із нашим суспільством і про що каже багато людей, які займаються розвитком систем штучного інтелекту, – у нас зараз буде презумпція брехні порівняно зі споживанням інформації раніше”, – зазначила вона. 

Тобто люди за замовчуванням не довірятимуть інформації, а вважатимуть її правдивою лише після перевірки.

Додаткова загроза в тому, що ШІ відкриває шлях до нового формату маніпуляцій: коли дезінформація чи пропаганда – вже не в форматі анонімних дописів у соцмережах, а замаскована під медіа.

“Дуже показовим випадком є історія, коли за 400 доларів впродовж двох місяців створили сайт, де все було згенеровано чатом GPT: коменти, статті, картинки. І цей сайт не відрізняється від будь-якого іншого. Він повністю згенерований ШІ. Він був створений анонімним розробником, щоби продемонструвати, як зараз може поширюватися дезінформація для суспільства. А що буде, коли це будуть робити масово?”, – вказала експертка.

Втім, штучний інтелект може бути не лише деструктивною силою. Зараз дослідники розробляють новий тип програм: віртуальних асистентів, які аналізуватимуть контент в інтернеті, і зможуть відрізняти правдиву інформацію від фейків.

Також Ольга Петрів розповіла про регулювання штучного інтелекту в Україні. Так, Міністерство цифрової трансформації презентувало дорожню карту регулювання штучного інтелекту в Україні. Водночас, нам слід вважати і на Artificial Intelligence Act, котрий ЄС може ухвалити до кінця 2024 року.

“Україна бере участь в запуску пілотного проєкту, який розробляється Радою Європи. Це методологія, за допомогою якої визначається, як система ШІ впливає на права людини, верховенство права і демократію, як вона потенційно впливатиме на це. І чи порушуватимуться ці права. Відбувається обговорення щодо регуляції – це те, що було викладено в дорожній карті. Це контрольоване середовище, де стартапи або компанії від початку створення і в процесі їхнього розвитку можуть перебувати в контрольованому середовищі, в межах якого вони спроможні найкраще розвивати свої системи, щоби вони відповідали вимогам акту. Того акту, який буде у ЄС, в дорожній карті. Це також і секторальні рекомендації”, – зазначила експертка.

Вона звернула увагу на ідеї етики ШІ, тобто відповідального використання, аби уникнути порушень прав людини.

“Таке порушення може відбуватися, коли система ШІ навчалася на великих масивах даних, які містили упереджену інформацію. Як результат, вже згенерований результат такої системи буде містити певні упереджені наративи і порушувати права певних соціальних груп”, – розповіла Ольга Петрів. Іншим прикладом порушення вона називає застосування систем штучного інтелекту в Китаї для утиску та переслідування уйгурів. 

Докладніший аналіз Artificial Intelligence Act та його значення для України читайте за посиланням.