За останні місяці штучний інтелект перетворився зі знаряддя аналітиків та вчених на автора, котрого вже називають конкурентом людей. Програми навчаються на творах митців і створюють власні: пишуть музику, генерують кліпи і тексти, малюють зображення.
А це ставить перед нами питання, які нещодавно були темами наукової фантастики. Як от: чи може штучний інтелект замінити людину чи загрожувати їй? Як захистити свої авторські права від ШІ та чи потрібні правила для користувачів?
Юристка Центру демократії та верховенства права Ольга Петрів у матеріалі для Суспільного розповіла, що каже українське законодавство про твори штучного інтелекту, чому вони все ж не стануть рівноцінними людським та назвала головну загрозу, яку ШІ несе нам вже сьогодні.
Як пояснює експертка, небезпека полягає у потенційному ризику збільшення кількості творів, що порушують авторське право інших осіб. ChatGPT, Midjorney та багато інших програм, що працюють використовуючи технології штучного інтелекту, навчаються на творах людей.
Під час генерації тексту, фото чи відео штучний інтелект може видати результат, який включатиме в себе ті об’єкти, які захищаються авторським правом іншої особи. Безумовно, згенерувати новий твір за допомогою технологій штучного інтелекту набагато швидше і легше, але ризики порушення прав інтелектуальної власності є дуже високими.
Іншим ризиком є збільшення кількості дезінформації на просторах Інтернету.
Якщо раніше для генерування проросійських текстів необхідно було залучити людину, то з таким видом завдання може впоратись штучний інтелект.
За словами Ольги Петрів, компанії-розробники мають різні способи, аби обмежити створення такого контенту – але вони діють не завжди. Такі “бар’єри” досить легко обходити, тому ризик дезінформації лишається.
Ба більше, що певні режими використовують технології штучного інтелекту для здійснення репресій. Найяскравішим прикладом цього може бути застосування технологій штучного інтелекту для так званого “перевиховання” мусульманських меншин – уйгурів. Така система допомагає обрати категорію жителів автономного району Сіньцзян для здійснення арешту. Також за допомогою технологій ШІ в Китаї відслідковують людей, яких серед натовпу система ідентифікує як уйгурів і відправляє до табору для так званого “перевиховання”.
Експертка вказує, що технології штучного інтелекту, безумовно, сприяють швидкому розвитку людства та автоматизації безлічі процесів, проте мають багато ризиків, які варто враховувати. Особливо на такі ризики систем ШІ варто зважати в час, коли вони розвиваються з неймовірними темпами.
Повний текст інтерв’ю читайте за посиланням.