22 вересня у Києві відбулася конференція “Штучний інтелект і дезінформація: викриття цифрової пропаганди”. Під час дискусії обговорювалась роль соціальних мереж та інтернету в поширенні дезінформації. Також ішлося про про правові та етичні аспекти дезінформації за допомогою штучного інтелекту та заходи, вжиті українським урядом для вирішення питань етики ШІ.
Захід містив дві дискусійні панелі, а також нетворкінг-сесію, яка дала можливість для відвідувачів, як офлайн, так і онлайн, взаємодіяти, обговорювати та спілкуватися з експертами та іншими учасниками. Участь у них взяли Ігор Розкладай, заступник директорки, головний експерт з медійного права та модерації контенту в соціальних мережах та Ольга Петрів, юристка у сфері штучного інтелекту напряму “Незалежні медіа”.
У контексті модерації дезінформації в соціальних мережах Ігор Розкладай наголосив, що натепер системи модерації не розпізнають контекст дописів.
Як приклад, він назвав пост журналіста, який закликав не використовувати зображення інших трагедій для ілюстрації наслідків підриву Каховської ГЕС. А оскільки він вжив приклади таких порушень, фейсбук позначив його пост як недостовірний. Це вдалося оскаржити, але такі звернення є буквально ручною роботою.
Спікер відзначив, що соціальні мережі є бізнесом, і технологічні компанії-власниці діють передовсім на власну користь. Тож треба дивитися: як стимулювати компанії до політики модерації і які вигоди вони від цього матимуть (навіть якщо це цинічно звучить).
Ігор Розкладай також звернув увагу на роль саморегуляції. Так, після ухвалення закону “Про медіа” українське Суспільне мовлення змінює свій статут. І серед іншого, додає положення, що увесь контент (крім архівного), згенерований штучним інтелектом, має бути маркований. Це – варіант того, як давати раду штучному інтелекту.
Коли йдеться про боротьбу з дезінформацією, спікер радить, побачивши допис, спитати: хто це поширив? Чому це поширено? Чи не згенеровано фото або відео штучним інтелектом? Чи не взяти звідкись? Це – універсальне правило проти дезінформації, шахрайства та інших загроз. Адже головними ворогами тут є втома, емоція, неуважність людей.
Ольга Петрів розповіла про роботу Комітету Мінцифри з питань штучного інтелекту. Натепер його мета – запобігти діпфейкам, дезінформації чи іншим шкідливим проявам штучного інтелекту. Для цього Комітет провів стратегічну сесію з великими технологічними компаніями. На ній йшлося про потенційне регулювання: бізнес озвучив свої побоювання, комітет розповів про пропозиції.
Експертка вважає, що варто переходити до позазаконодавчих заходів. Вони можуть допомогти компаніям у використанні інструментів, запроваджених у ЄС, аби зупиняти поширення дезінформації на всіх етапах “життя” ШІ.
До таких методів можна віднести методологію HUDERIA, за якою визначають, чи порушує штучний інтелект права людини. Іншим інструментом є sandbox, “регуляторна пісочниця”, де розробникам від першого кроку допомагають, аби їхні системи узгоджувалася із правовими вимогами. Тоді компанії розуміють, як розвивати власний продукт.
Держава може зробити свій крок, видавши “білу книгу”, яка дозволить бізнесу та громадському сектору розуміти, куди рухається держава.
Ольга Петрів наголосила, що з точки зору публічно-приватної взаємодії важливо, аби відбувалося саморегулювання. За такого сценарію бізнес самостійно напрацьовує кращі практики, а інші компанії підтягуються. Бо вигідніше зробити це самостійно, аби відповідати вимогам – а не чекати, доки це зарегулюють. Тобто держава має взаємодіяти з бізнесом і показувати, що провідні компанії діють відповідно, зокрема, впроваджують маркування і не лише.
Конференцію було організовано Інститутом інноваційного врядування за підтримки Посольства Великої Британії в Україні, а також у партнерстві із Національним проектом з медіаграмотності “Фільтр”, The University of Edinburgh, DCN Global, Forum Apulum.
За матеріалами Кабінету Міністрів України та Інституту інноваційного врядування