Право на інформацію і захист персональних даних: як роботи-автовідповідачі впливають на нас

October 12, 2021

Щоразу коли ми дзвонимо до онлайн-магазину, сервісного центру, банку чи оператора мобільного зв’язку, є немалий шанс зіштовхнутися з автовідповідачем. Він пропонує обирати питання, які цікавлять людину: так оператори економлять час, а клієнт може отримати допомогу без втручання “живого” фахівця. 

Напевне чимало користувачів потрапляли у ситуації, коли інформації від автовідповідача, недостатньо, меню занадто складне, а варіанту зв’язатися з оператором одразу немає. А останнім часом організації застосовують і  штучний інтелект, який може замінити оператора у певних функціях 

Тож чи впливає робота автовідповідачів на наше законне право на інформацію? І чи вирішує штучний інтелект проблему?  

Що таке робот-автовідповідач і де там штучний інтелект

Автовідповідачі, якими користуються організації, у професійному середовищі називають інтерактивною голосовою відповіддю (або відповідачем). Англійською – Interactive Voice Response (IVR). Найпоширенішим класичним варіантом автовідповідача є заздалегідь записані фрази і відповіді, які чує клієнт. А, за допомогою клавіш телефону він може обирати потрібні запити. 

Проте зараз організації переходять на новий рівень IVR, застосовуючи в ньому штучний інтелект. Він уміє розпізнавати слова клієнта, аналізувати їх, підбирати необхідну відповідь чи послугу, йти за певним сценарієм розмови. Така програма не замінить людину-фахівця на 100%, але певні його функції виконувати може. 

Наприклад, оператори зв’язку впроваджують цю систему, щоб обслуговувати більшу кількість клієнтів і задовольняти їхні потреби. Також на сайті одного з операторів йдеться про те, що автовідповідач не представляється роботом, а говорить як “живий” оператор. Для масового використання штучного інтелекту в IVR комп’ютер вивчає діалекти, особливості мовлення, голоси.

Фактично, клієнт може спілкуватися з роботом-автовідповідачем так само, як із реальним оператором.

Регулювання роботів-автовідповідачів   

У Резолюції Європарламенту 2015/2103 (INL) з рекомендаціями щодо цивільно-правового регулювання робототехніки містяться роздуми про те, який статус повинен мати робот (штучний інтелект), хто повинен нести відповідальність за його дії тощо. 

З Резолюції вбачається, що сам робот не може нести відповідальності, вона повинна лежати на розробникові та/або операторі, користувачеві, власникові. Тож коли йдеться про регулювання, можна передбачити, що в майбутньому поставатиме питання щодо відповідальності або організації-користувача роботів, або розробника (залежно від природи порушення).

Також у Європейському Союзі готується регулювання, яке повинне гармонізувати правила використання штучного інтелекту. Автори пропонують поділити системи зі штучним інтелектом за рівнем впливу на права людини:

  • заборонені практики зі штучним інтелектом; 
  • системи з високим ризиком, 
  • системи з низьким або мінімальним ризиком.

Серед більш точкових ініціатив, можна навести як приклад Кодекс США. У розділі, який стосується телекомунікацій, є кілька вимог до автовідповідача: на початку повідомлення він повинен назвати організацію, яка ініціює дзвінок, і спосіб зв’язку з нею; така голосова система повинна протягом 5 секунд звільнити лінію, аби не перешкоджати іншим вхідним дзвінкам клієнта (щоб під час розмови з автовідповідачем людині могли паралельно телефонувати). Також Закон про американців з інвалідністю зобов’язує державні організації, які застосовують автовідповідачі, використовувати пристосування для людей з інвалідністю. 

Точкове регулювання з’явилося і в Європейському Союзі. Так, Європейська комісія роз’яснила, що виконання грошових транзакцій із застосуванням автовідповідачів (клієнт надає їм банківські дані) варто прирівнювати до звичайної транзакції під час дзвінка телефоном, який не потребує жорсткої аутентифікації (зокрема, багатофакторної). Водночас, якщо автовідповідач використовують для транзакції через електронні системи (Інтернет), то аутентифікація повинна бути жорсткою.  

В Україні не існує прямого регулювання штучного інтелекту. Окремі законодавчі акти стосуються питання автоматизації процесів (наприклад, обробки персональних даних автоматизованими системами чи надання послуг з використанням таких систем). 

Загальні норми українського законодавства не регулюють конкретно діяльність автовідповідачів, проте можуть застосовуватися, наприклад, у ситуації коли автовідповідач порушив правила обробки персональних даних. Так само, теоретично, дії автовідповідача можуть бути предметом оскарження, якщо його застосовували під час надання публічних послуг.  

Поки що про будь-яке інше регулювання регулювання у цій сфері говорити  зарано. Ініціативи з цієї теми поки не оформилися у ідеї, які можна було б втілити у нормативно-правових актах.

Вплив на права користувачів

Право на інформацію. Почнемо з того, що, згідно із Законом “Про інформацію”, кожен має право на інформацію, тобто можливість вільного одержання, використання, поширення, зберігання та захисту інформації. Зокрема, це стосується й інформації про товар або послугу (яку клієнт часто отримує від автовідповідачів).

Детальніше стосунки клієнта з організацією, яка застосовує роботи-автовідповідачі, регулює Цивільний кодекс України і Закон “Про захист прав споживачів”. Згідно з останнім Законом, споживач має право “на  необхідну, доступну, достовірну та своєчасну інформацію державною мовою про продукцію, її кількість, якість, асортимент, її виробника (виконавця, продавця)”. 

Згадаймо автовідповідачі, інтерфейс яких занадто складний і розгалужений: “натиснути 1 для першої опції”, “2 – для переходу в інше меню”, потім ще і ще. Такий формат може бути незручним для клієнта, заплутати його, а відповіді на запитання так і не дати. Для людини, котра недостатньо добре володіє технікою, спілкування з таким автовідповідачем буде ще складнішим. 

ПРИКЛАД АЛГОРИТМУ АВТОВІДПОВІДАЧА”.  Зображення: ConceptDraw® DIAGRAM на Pinterest

Схожа ситуація і з доступом для осіб з інвалідністю до таких послуг. Як Конвенція з прав осіб з інвалідністю, так і українське законодавство передбачає право на безбар’єрний доступ до фізичної інфраструктури, засобів зв’язку, інформації та інформаційно-комунікаційних технологій. Тож якщо організація користується автовідповідачем, її працівники мають або завчасно знати про клієнтів, які можуть мати труднощі з цією технологією, або уміти її застосовувати. Наприклад, якщо людина не може натиснути на клавішу, то у неї має бути варіант поговорити зі штучним інтелектом. Якщо хтось не може говорити – потрібна можливість спілкуватися, натискаючи кнопки.

Пам’ятайте, що коли подібні технології застосовані невдало, вони можуть впливати на доступність і своєчасність отримання інформації. 

З іншого боку, автовідповідачі із системами штучного інтелекту здатні вирішити цю проблему, адже вони вислуховують клієнта і намагаються допомогти. А якщо між клієнтом і роботом-автовідповідачем виникає непорозуміння, останній може одразу з’єднати співрозмовника з людиною-оператором. 

Право на захист персональних даних. Робота-автовідповідача можуть використати для збирання та обробки персональних даних. До прикладу, якщо організація, щоб заощадити час, збиратиме імена, адреси та інші дані про клієнтів за допомогою автовідповідача. 

Закон України “Про захист персональних даних” передбачає, що будь-які дії з такими даними потребують згоди. Самі дані повинні бути точними, достовірними, оновлюватися в міру потреби, а їхній перелік має бути відповідним, адекватним та ненадмірним

Не можна гарантувати, що робот-автовідповідач збере на 100% точні і достовірні дані, не помилиться у інтерпретації цифр (наприклад, “не розчує” і внесе неправильну дату народження) тощо. Це може призвести до помилкової обробки даних. Тож компанії, яка надає автовідповідачам такі функції, варто детально обдумати процес і зважити “за” і “проти”, аби не стати порушником законодавства про персональні дані. 

Організаціям, які застосовують роботи-автовідповідачі для обробки персональних даних, варто брати до уваги й положення Загального регламенту захисту персональних даних (акт Європейського Союзу, більш відомий як GDPR). Особливо це стосується тих, хто працює і в межах ЄС (оператори зв’язку, міжнародні компанії). 

Висновки

Якщо підсумувати викладене, доходимо висновку, що роботи-автовідповідачі мають приховані та явні загрози. До них можна віднести такі: 

  • Автовідповідачі можуть брати участь у збиранні та обробці персональних даних (банківська інформація, інформація щодо особи замовника послуг, покупця, статистична інформація, занесення даних до реєстрів організацій тощо). У цьому випадку існує загроза недостовірності зібраної інформації, потрапляння її у руки шахраїв чи використання не за призначенням; 
  • Автовідповідачі можуть мати недосконалий інтерфейс, який ускладнює комунікацію з ними і не дає користувачеві доступу до повної інформації про товар чи послугу. Тож людина не може належним чином вирішити проблему, отримати якісний сервіс;
  • Непристосовані автовідповідачі можуть ускладнити доступ до послуг для людей з інвалідністю;
  • У майбутньому автовідповідачі зі штучним інтелектом зможуть вводити в оману людей: якщо автовідповідач не представлятиметься роботом, дехто вважатиме, що говорить з людиною – це може викликати незручності. 

Аби запобігти цим загрозам, перш за все варто запровадити юридичне регулювання. Не обов’язково ухвалювати окремий закон чи підзаконний акт, можна просто торкнутися теми автовідповідачів або ж узагальнених інтерактивних систем у вже наявному законодавстві щодо прав споживачів, цивільному кодексі, регулюванні публічних послуг. Як ми бачимо, така практика є у законодавстві США. 

Також доречно буде створити і опублікувати роз’яснення та рекомендації: як для секторів, котрі застосовують автовідповідачі, так і для користувачів. Подібне зробила, наприклад, Європейська комісія щодо транзакцій (описано вище). 

Врешті, організації, до яких звертаються користувачі, повинні відчувати власну відповідальність перед клієнтами. Усі автовідповідачі повинні давати можливість одразу звернутися до людини-оператора, не ускладнюючи доступ розгалуженим інтерфейсом.

Також автовідповідачі повинні одразу вказувати найменування організації і питання, які він допомагає вирішити. Якщо ж задіяний штучний інтелект – вказати це потрібно одразу (автовідповідач має представитися як робот).

Ця консультація була розроблена ЦЕДЕМ в рамках Technical Assistance Support в Україні, що здійснюється European Center for Not-for-Profit Law Stichting (ECNL). Проект став можливим завдяки підтримці International Center for Not-for-Profit Law (ICNL) через Civic Space Initiative.

Ця публікація повністю фінансується урядом Швеції. Уряд Швеції не обов’язково поділяє викладені тут думки. Автор несе виключну відповідальність за зміст.