Європарламент став на крок ближчим до остаточного ухвалення Artificial Intelligence Act. Цей акт регулює діяльність розробників штучного інтелекту (ШІ), аби створити безпечне середовище його використання та розвитку.
Комітет внутрішнього ринку та Комітет громадянських свобод ухвалили поправки до пропозиції Комісії. Цими поправками євродепутати прагнуть зробити функціонування штучного інтелекту більш прозорим, безпечним, недискримінаційним та забезпечити контроль людей над ним.
Artificial Intelligence Act має ризик-орієнтований підхід. Його положення встановлюють зобов’язання постачальників і користувачів залежно від рівня ризику, який може створити ШІ.
Суворо забороненими вважаються системи штучного інтелекту, які мають неприйнятний рівень ризику для безпеки людей. До них належать і ті системи, які застосовують підсвідомі або цілеспрямовані маніпулятивні методи, використовують вразливі місця людей або застосовуються для соціального оцінювання (наприклад, класифікація людей залежно від їхньої соціальної поведінки, соціально-економічного статусу, певних особистих характеристик). Депутати Європарламенту значно розширили список заборонених систем штучного інтелекту, додавши до них:
- Системи дистанційної біометричної ідентифікації “в режимі реального часу” у загальнодоступних місцях;
- “Поштові” системи дистанційної біометричної ідентифікації, за винятком потреб правоохоронних органів для переслідування серйозних злочинів, і лише після судового дозволу;
- Системи біометричної категоризації з використанням чутливих характеристик (наприклад, стать, раса, етнічна приналежність, статус громадянства, релігія, політична орієнтація);
- Прогнозні поліцейські системи (на основі профілювання, місцезнаходження або минулої злочинної поведінки);
- Системи розпізнавання емоцій у правоохоронних органах, прикордонному управлінні, на робочому місці та в навчальних закладах;
- Невибіркове збирання біометричних даних із соціальних мереж або записів із камер відеоспостереження для створення баз даних розпізнавання облич (порушення прав людини та права на приватне життя).
Окрім цього, депутати додали до групи ШІ високого ризику штучний інтелект, що використовується для впливу на виборців у політичних кампаніях і системи рекомендацій, які застосовують платформи соціальних мереж (відповідно до Закону про цифрові послуги, йдеться про мережі з понад 45 мільйонами користувачів).
Моделі генеративної бази, такі як ChatGPT, повинні відповідати додатковим вимогам щодо прозорості. Наприклад розкривати інформацію про те, що контент був створений штучним інтелектом, запобігати створенню незаконного вмісту та публікувати список захищених авторським правом даних, які використовуються для навчання.
Депутати Європарламенту хочуть розширити право громадян подавати скарги на системи штучного інтелекту та отримувати пояснення рішень, заснованих на системах високого ризику штучного інтелекту, які суттєво впливають на їхні права. Депутати Європарламенту також реформували роль Управління ЄС з питань штучного інтелекту та доручити йому контроль виконання правил щодо штучного інтелекту.
Депутат Європарламенту Брандо Беніфей заявив: “Ми стоїмо на порозі прийняття знакового законодавства, яке має протистояти виклику часу. Вкрай важливо зміцнити довіру громадян до розвитку штучного інтелекту, визначити європейський шлях боротьби з надзвичайними змінами, які вже відбуваються, а також скерувати політичні дебати щодо штучного інтелекту на глобальному рівні. Ми впевнені, що в нашому тексті збалансовано захист фундаментальних прав із необхідністю забезпечити юридичну визначеність бізнесу та стимулювати інновації в Європі”.
Наступним кроком має стати пленарне засідання 12-15 червня 2023 року, під час якого має відбутись голосування щодо проєкту мандату.