Зміст:
Відео: HUGE EGGS Surprise Toys Challenge with Inflatable water slide (Листопад 2024)
Нещодавно пристрій Amazon Echo записав приватну розмову користувача та надіслав її до одного зі своїх контактів без їх відома та згоди. Це (знову ж таки) викликає занепокоєння щодо безпеки та конфіденційності розумних динаміків. Як пізніше стало очевидним, однак, дивна поведінка Алекси не була частиною зловісного сюжету про шпигунство, швидше, це було викликано низкою пов'язаних невдач, пов’язаних із тим, як працює розумний динамік.
Згідно з обліковим записом Amazon: "Ехо прокинувся через слово у фоновій розмові, яке звучить як" Alexa ". Потім наступна розмова була почута як запит "надіслати повідомлення". У цей момент Алекса вголос сказав: "Кому?" У цей момент фонову розмову інтерпретували як ім'я у списку контактів замовника. Але Олександра тоді голосно запитала: "Так?" Тоді Алекс трактував фонову розмову як "правильну". Як неправдоподібно ця низка подій, ми оцінюємо варіанти, щоб зробити цю справу ще менш ймовірною ".
Сценарій - це кращий випадок, такий випадок, який трапляється дуже рідко. Але це також цікаве дослідження в межах технології штучного інтелекту, яка забезпечує повноваження Echo та інших так званих "розумних" пристроїв.
Занадто багато хмарної залежності
Щоб зрозуміти голосові команди, розумні динаміки, такі як Echo та Google Home, покладаються на алгоритми глибокого навчання, які потребують великих обчислювальних можливостей. Оскільки у них немає обчислювальних ресурсів для виконання завдання локально, вони повинні надсилати дані на хмарні сервери виробника, де алгоритми AI перетворюють мовленнєві дані в текст та обробляють команди.
Але розумні динаміки не можуть надсилати все, що вони чують, на свої хмарні сервери, оскільки це вимагатиме від виробника зберігати надмірну кількість даних на своїх серверах - більшість з яких буде марною. Випадкове записування та зберігання приватних розмов, що відбуваються в будинках користувачів, також представлятиме проблему конфіденційності та може спричинити проблеми з виробниками, особливо з новими правилами конфіденційності даних, які встановлюють суворі обмеження щодо того, як технологічні компанії зберігають та використовують дані.
Ось чому розумні динаміки розроблені так, щоб спрацьовувати після того, як користувач вимовить неспокійне слово, наприклад "Alexa" або "Hey Google". Лише почувши слово пробудження, вони починають надсилати аудіовхід своїх мікрофонів у хмару для аналізу та обробки.
Незважаючи на те, що ця функція покращує конфіденційність, вона представляє власні проблеми, про що свідчить недавній інцидент Alexa.
"Якщо слово - або щось таке, схоже на нього - надсилається на півдорозі розмови, у Алекса не буде жодного попереднього контексту", - каже Джошуа Марч, генеральний директор Conversocial. "У цей момент слухати будь-які команди, пов'язані з набутими навичками (як їх додаток для обміну повідомленнями), надзвичайно важко. Здебільшого конфіденційність значно покращується, обмежуючи контекст, на який Alexa звертає увагу (як це не запис чи прослуховування будь-якої з ваших звичайних розмов), хоча в цьому випадку це піддається голові ".
Успіх в галузі обчислень може допомогти полегшити цю проблему. Оскільки AI та глибоке навчання знаходять все більше пристроїв та додатків, деякі виробники обладнання створили процесори, спеціалізовані для виконання завдань AI, не надто покладаючись на хмарні ресурси. Процесори Edge AI можуть допомогти таким пристроям, як Echo, краще розуміти та обробляти розмови, не порушуючи конфіденційність користувачів, надсилаючи всі дані в хмару.
Контекст і наміри
Окрім отримання розрізнених та фрагментованих фрагментів аудіо, AI Amazon бореться з розумінням нюансів людської розмови.
"Хоча за останні кілька років було досягнуто величезного прогресу в глибокому навчанні, що дозволяє програмному забезпеченню краще розуміти мовлення та образи, ніж будь-коли раніше, існує ще багато обмежень", - говорить Март. "Хоча голосові помічники можуть розпізнавати слова, які ви говорите, вони не обов'язково мають будь-яке реальне розуміння сенсу чи наміру, що стоїть за ним. Світ - це складне місце, але будь-яка система AI сьогодні може впоратися лише дуже конкретні, вузькі випадки використання ".
Наприклад, у нас, людей, існує багато способів визначити, чи спрямоване речення до нас, наприклад, тон голосу чи слідування візуальним підсказкам - скажімо, у якому напрямку дивиться диктор.
На відміну від цього, Алекс припускає, що це одержувач будь-якого речення, яке містить слово "А". Ось чому користувачі часто викликають це випадково.
Частина проблеми полягає в тому, що ми перебільшуємо можливості сучасних програм AI, часто ставлячи їх нарівні з людським розумом або вище і надаючи їм занадто велику довіру. Ось чому ми дивуємося, коли вони вражають невдачі.
"Частина питання полягає в тому, що термін" AI "був настільки агресивно проданий, що споживачі вклали незаслужену віру в продукти, пов'язані з цим терміном", - говорить Паскаль Кауфман, неврознавець і засновник Starmind. "Ця історія ілюструє, що Alexa має багато можливостей і відносно обмежене розуміння того, як і коли їх слід застосовувати належним чином".
Алгоритми глибокого навчання схильні до виходу з ладу, коли стикаються з налаштуваннями, що відхиляються від даних та сценаріїв, для яких вони підготовлені. "Однією з визначальних особливостей ШІ на рівні людини буде самодостатня компетентність та справжнє розуміння змісту", - говорить Кауфман. "Це найважливіша частина, по-справжньому вважаючи інтелектуальний інтелект" життєво важливим "для його розвитку. Створення самосвідомих цифрових помічників, які приносять із собою повне розуміння людської природи, означать їх перетворення від цікавої новинки до справді корисний інструмент ".
Але створити ШІ на рівні людини, який також називають загальним ШІ, простіше сказати, ніж зробити. Протягом багатьох десятиліть ми думали, що це просто за рогом, аби злякатися, коли технологічний прогрес показав, наскільки складний людський розум. Багато експертів вважають, що переслідувати загальний ШІ є марним.
Тим часом вузький ШІ (як описано сучасні технології штучного інтелекту) все ще пропонує багато можливостей і його можна виправити, щоб уникнути повторення помилок. Зрозуміло, глибоке навчання та машинне навчання все ще зароджуються, і такі компанії, як Amazon, постійно оновлюють свої алгоритми AI для вирішення кращих випадків кожного разу, коли вони трапляються.
Що нам потрібно зробити
"Це молода сфера, що розвивається. Розуміння природних мов особливо в зародковому стані, тому тут ми можемо зробити багато чого", - каже Ерік Моллер, представник CAT Atomic X.
Моллер вважає, що алгоритми голосового аналізу AI можуть бути налаштовані для кращого розуміння інтонації та флексії. "Використання слова" Alexa "в більш широкому реченні звучить інакше, ніж виклик чи команда. Alexa не повинен прокидатися, тому що ви сказали це ім'я мимохідь", - каже Моллер. При достатньому навчанні AI повинен мати можливість розрізнити, які конкретні тони спрямовані на розумний динамік.
Технологічні компанії також можуть навчити свій ІС, щоб він міг розрізняти, коли він отримує фоновий шум, на відміну від прямого спілкування. "Фоновий балаканина має унікальний слуховий" підпис "про те, що люди дуже добре підбираються та вибірково налаштовуються. Немає причини, щоб ми не могли навчити AI-моделі робити те саме", - каже Моллер.
В якості запобіжних заходів, помічники ШІ повинні оцінювати вплив рішень, які вони приймають, і включати людські рішення в тих випадках, коли вони хочуть зробити щось потенційно чутливе. Виробники повинні використовувати більше гарантій у своїх технологіях, щоб запобігти передачі конфіденційної інформації без явної та чіткої згоди користувача.
"Хоча Amazon повідомляв, що Alexa намагалася підтвердити дію, яку вона тлумачила, деякі дії потрібно ретельніше керувати і дотримуватися більш високого рівня підтвердження наміру користувача", - говорить Сагі Еліяхі, генеральний директор компанії Tonkean. "Люди мають однакові проблеми розпізнавання мовлення, періодично неправильні запити. Однак, на відміну від Alexa, людина, швидше за все, підтверджує, що розуміє незрозумілий запит, і, що ще важливіше, оцінює ймовірність запиту порівняно з попередніми запитами".
Тим часом…
Хоча технічні компанії ремонтують свої програми AI, щоб зменшити помилки, користувачам доведеться приймати остаточне рішення щодо того, наскільки вони хочуть зазнати можливих помилок, які можуть зробити їхні пристрої, що працюють на AI.
"Ці історії демонструють конфлікт із кількістю даних, якими люди готові поділитися проти обіцянки нових технологій ШІ", - каже Дуг Роуз, експерт з наукових даних та автор декількох книг про AI та програмне забезпечення. "Ви можете дражнити Сірі за те, що вона повільна. Але найкращий спосіб досягти її більшого інтелекту - це вторгнення в наші приватні розмови. Отже, ключовим питанням протягом наступного десятиліття є те, наскільки ми дозволимо цим агентам ШІ зазирнути у нашу поведінку" ? "
"Яка родина помістила б помічника людини у вітальні і нехай ця людина весь час слухає будь-яку розмову?" каже Кауфман, нейрознавець зі Зоряного світу. "Ми повинні принаймні застосовувати ті самі стандарти до так званих" ШІ "пристроїв (якщо не вище), які ми застосовуємо і до розумних людських істот, якщо мова йде про конфіденційність, секретність або надійність".