Будинки Думки Чому ай повинен розкрити, що це ай

Чому ай повинен розкрити, що це ай

Зміст:

Відео: Dame Tu cosita ñ (Вересень 2024)

Відео: Dame Tu cosita ñ (Вересень 2024)
Anonim

Нещодавно Google повторно відредагував Duplex, щоб явно виявити господарям ресторану та працівникам салону, що вони спілкуються з Google Assistant та записуються на них.

Google опустив цю невелику, але важливу деталь, коли вперше представив Duplex на конференції розробників вводу-виводу в травні. Виникла медіа-реакція, і критики відновили старі побоювання щодо наслідків розв'язання збудників ШІ, які можуть уособлювати поведінку людей нерозрізненими способами.

Налаштовуючи Duplex, Google вгамує частину цієї критики. Але чому так важливо, щоб компанії були прозорими щодо особи своїх ІР-агентів?

Чи можуть помічники ШІ слугувати злим цілям?

"Зростає сподівання, що, обмінюючись бізнесом, ви можете спілкуватися з чатом-роботою з інтелектуальним інтелекту. Але, коли ви насправді чуєте розмову людини, ви, як правило, очікуєте, що це справжня людина", - говорить Джошуа Марч, генеральний директор прикриттясоціальних.

Березень говорить про те, що ми починаємо з того, що люди регулярно підтримують значну взаємодію з ШІ, а прогрес у цій галузі створив побоювання, що хакери можуть використовувати агенти ШІ зловмисних цілей.

"У найкращому випадку сценарії болів AI зі злісними намірами можуть образити людей", - каже Марсіо Авіллз, SVP з мереж при Кюйо. Але Марсіо додає, що ми можемо зіткнутися з більш гострими загрозами. Наприклад, AI може вивчити конкретні мовні зразки, полегшивши адаптувати технологію для маніпулювання людьми, видавати себе за жертви, а також здійснювати нападки (голосовий фішинг) атак та подібні дії.

Багато експертів погоджуються з тим, що загроза реальна. У колонці для CIO Стівен Брікман виклав різні способи використання такої технології, як "Дуплекс": "Принаймні, у людей, які називають людей, все ще є обмежуючий фактор - людина може робити лише стільки дзвінків за годину, в день. Люди повинні платити, робити перерви і т. Д. Але чат-інтелект може буквально здійснювати необмежену кількість дзвінків необмеженій кількості людей необмеженою кількістю способів! "

На цьому етапі більшість того, що ми чуємо, - це спекуляція; ми все ще не знаємо ступеня та серйозності загроз, які можуть виникнути з появою голосових помічників. Але багато потенційних атак, пов’язаних з голосовими помічниками, можна знешкодити, якщо компанія, що надає технологію, чітко повідомляє користувачам під час взаємодії з агентом AI.

Проблеми конфіденційності

Ще одна проблема, пов’язана з використанням таких технологій, як Duplex, - це потенційний ризик для конфіденційності. Системам, що працюють на AI, потрібні дані користувачів для навчання та вдосконалення їх алгоритмів, і Duplex не є винятком. Як це буде зберігати, захищати та використовувати ці дані, дуже важливо.

З'являються нові правила, які вимагають від компаній отримання явної згоди користувачів, коли вони хочуть збирати свою інформацію, але вони в основному були розроблені для покриття технологій, коли користувачі навмисно ініціюють взаємодію. Це має сенс для таких помічників AI, як Siri та Alexa, які активуються користувачем. Але незрозуміло, як нові правила поширюватимуться на помічників AI, які охоплюють користувачів, не викликаючи їх.

У своїй статті Брікман наголошує на необхідності встановлення регуляторних гарантій, таких як закони, які вимагають від компаній заявляти про наявність агента інтелектуальної власності, або закон, який, коли ви запитуєте чат-бота, чи це чат-бот, потрібно сказати: "Так, Я чат ». Такі заходи дають людині співрозмовнику можливість відключитися або принаймні вирішити, чи хочуть вони взаємодіяти із системою ШІ, яка записує їхній голос.

Навіть при таких законах проблеми конфіденційності не зникнуть. "Найбільший ризик, який я передбачаю в теперішньому втіленні технології, полягає в тому, що він дасть Google ще більше даних про наше приватне життя, якого у нього ще не було. До цього моменту вони знали лише про наші інтернет-комунікації; тепер вони отримають реальне уявлення про наші розмови в реальному світі ", - каже Віан Чіннер, засновник і генеральний директор компанії Xineoh.

Нещодавні скандали щодо конфіденційності, пов’язані з великими технологічними компаніями, в яких вони використовували дані користувачів сумнівними способами для власних здобутків, створили почуття недовіри щодо надання їм більше вікон у наше життя. "Люди взагалі відчувають, що великі компанії з Кремнієвої долини розглядають їх як товарний запас замість клієнтів і мають велику ступінь недовіри до майже всього, що вони роблять, незалежно від того, наскільки революційними та життєвими ситуаціями це буде в кінцевому підсумку", - говорить Чіннер.

Функціональні збої

Незважаючи на те, що він має природний голос і тон і використовує звуки, схожі на людину, такі як "mmhm" і "ummm", Duplex нічим не відрізняється від інших сучасних технологій AI і зазнає тих же обмежень.

Незалежно від того, чи використовується голос або текст як інтерфейс, агенти AI добре вирішують конкретні проблеми. Ось чому ми називаємо їх "вузьким ШІ" (на відміну від "загального ШІ" - типу штучного інтелекту, який може займатися загальним вирішенням проблем, як це робить людський розум). Хоча вузький AI може бути надзвичайно хорошим у виконанні завдань, запрограмованих для нього, він може вийти з ладу, коли йому надається сценарій, що відхиляється від його проблемної області.

"Якщо споживач думає, що вони розмовляють з людиною, він, швидше за все, запитає щось, що знаходиться поза нормальним сценарієм AI, і тоді отримає розчаровуючу відповідь, коли бот не розуміє", - йдеться у коментарі Conversocial.

На відміну від цього, коли людина знає, що розмовляє з AI, який був навчений резервувати столи в ресторані, він намагатиметься уникати використання мови, яка заплутає AI і змусить її поводитись несподівано, особливо якщо це приносить їм замовник.

"Співробітники, які отримують дзвінки з Дуплексу, також повинні отримувати прямо вступ, що це не реальна людина. Це допоможе комунікації між персоналом та AI бути більш консервативним та зрозумілим", - каже Авілз.

З цієї причини, поки (і якщо) ми не розробимо інтелектуальний інтелект, який може працювати нарівні з людським інтелектом, в інтересах самих компаній бути прозорим щодо їх використання ШІ.

Зрештою, частина страху перед голосовими асистентами, як Duplex, викликана тим, що вони нові, і ми все ще звикаємо зустрічатися з ними в нових налаштуваннях та випадках використання. "Принаймні деяким людям здається дуже незручною ідея розмови з роботом, не знаючи цього, тому наразі це, мабуть, повинно бути розкрито контрагентам у розмові", - каже Чіннер.

  • AI є (також) сила для добра AI є (також) сила для добра
  • Коли AI розмиває лінію між реальністю та вигадкою, коли AI розмиває лінію між реальністю та вигадкою
  • Штучний інтелект має проблему зміщення, і це наша помилка Штучний інтелект має проблему зміщення, і це наша вина

Але з часом ми звикнемо взаємодіяти з агентами ШІ, які розумніші та більш здатні виконувати завдання, які раніше вважалися виключною сферою діяльності людських операторів.

"Наступне покоління не буде байдуже, чи спілкуються вони з AI чи людиною, коли вони зв'язуються з бізнесом. Вони просто захочуть швидко і легко отримати відповідь, і вони виростуть, розмовляючи з Alexa. Чекаючи на Якщо говорити з людиною, це буде набагато більш засмучуючим, ніж просто взаємодіяти з ботом ", - йдеться в коментарі конверсоціалів.

Чому ай повинен розкрити, що це ай