Будинки Особливості Коли ай розмиває межу між реальністю та вигадкою

Коли ай розмиває межу між реальністю та вигадкою

Зміст:

Відео: Приколы с кошками и котами (Листопад 2024)

Відео: Приколы с кошками и котами (Листопад 2024)
Anonim

Десь у темних заглибленнях YouTube - відео, на якому видно уривок із фільму «Товариство кільця» - але це не той фільм, який ви пам’ятаєте, оскільки зірки Ніколя Кейджа, як Фродо, Арагорн, Леголас, Гімлі та Голлум, усі одночасно. Інші відео показують Клітку в Термінаторі 2 як T2000, Зоряний шлях як капітана Пікарда, і Супермена, як і Лоїс Лейн.

Звичайно, Нік Кейдж ніколи не з'являвся ні в одному з цих фільмів. Вони "deepfakes", створені за допомогою програми FakeApp, яка використовує алгоритми штучного інтелекту для обміну обличчями у відео. Деякі з глибоких фейків виглядають досить переконливо, а інші мають артефакти, які зраджують їх справжню природу. Але в цілому вони показують, наскільки потужні алгоритми ШІ стали імітацією зовнішності та поведінки людини.

FakeApp - лише один із декількох нових інструментів синтезування на AI. Інші програми імітують людські голоси, стиль почерку та розмови. І частина того, що робить їх значущими, - це те, що для їх використання не потрібно спеціалізованого обладнання або кваліфікованих експертів.

Вплив цих додатків глибокий: вони створять безпрецедентні можливості для творчості, продуктивності та спілкування.

Але той самий інструмент також може відкрити скриньку Пандори шахрайством, підробками та пропагандою. Оскільки він з'явився на Reddit у січні, FakeApp було завантажено понад 100 000 разів і спричинило бурю фальшивих порнографічних відеороликів, в яких були представлені знаменитості та політики (в тому числі знову Кейдж). Нещодавно Reddit заборонив програму та пов’язані з нею спільноти зі своєї платформи.

"Десять років тому, якщо ви хотіли щось підробити, ви могли, але вам довелося ходити в студію VFX або людей, які могли робити комп’ютерну графіку і, можливо, витрачати мільйони доларів", - каже доктор Том Хейнс, викладач машинного навчання в Університет Бат. "Однак ви не могли зберегти це в таємниці, тому що вам доведеться залучати до процесу багато людей".

Це вже не так, ввічливість нового покоління інструментів AI.

Імітаційна гра

FakeApp та подібні додатки працюють за допомогою глибокого навчання, галузь ШІ - це серце вибуху інновацій AI з 2012 року. Алгоритми глибокого навчання покладаються на нейронні мережі, побудова програмного забезпечення, орієнтованого на мозок людини. Нейронні мережі аналізують та порівнюють великі набори зразків даних, щоб знайти закономірності та кореляції, які люди зазвичай пропускають. Цей процес називається "тренінг", а його результат - модель, яка може виконувати різні завдання.

У попередні часи моделі глибокого навчання в основному використовувались для виконання завдань класифікації - наприклад, маркування предметів на фотографіях та розпізнавання голосу та обличчя. Останнім часом вчені використовували глибоке навчання для виконання складніших завдань, таких як гра в настільні ігри, діагностика пацієнтів та створення музики та творів мистецтва.

Щоб налаштувати FakeApp для заміни обличчя, користувач повинен навчити його декількома сотнями зображень джерела та цільових облич. Програма запускає алгоритми глибокого навчання, щоб знайти закономірності та подібність між двома гранями. Потім модель готова зробити заміну.

Процес не простий, але для використання FakeApp вам не потрібно бути графічним експертом або інженером машинного навчання. Також це не вимагає дорогого та спеціалізованого обладнання. На веб-сайті підручника для глубоких фейків рекомендується використовувати комп'ютер з 8 Гб або більше оперативної пам’яті та відеокарта Nvidia GTX 1060 або кращої, досить скромна конфігурація.

"Після того, як ви переїдете до світу, де хтось із кімнати може щось підробити, тоді вони можуть використовувати це для сумнівних цілей", - говорить Хейнс. "І тому, що це одна людина сама по собі, зберігати це в таємниці дуже просто".

У 2016 році Хейнс, який тоді був докторантом в Лондонському університеті коледжу, співавтором статті та програми, в яких було показано, як AI може навчитися наслідувати почерк людини. Програма називається "Мій текст рукописним текстом", використовуючи алгоритми глибокого вивчення для аналізу та розрізнення стилю та потоку авторського почерку та інших факторів, таких як відстань та нерівності.

Потім програма може взяти будь-який текст і відтворити його з почерком цільового автора. Розробники навіть додали міру випадковості, щоб уникнути ефекту казкової долини - дивного відчуття, яке ми отримуємо, коли бачимо щось, що майже не є людським. Як доказ концепції, Хейнс та інші дослідники UCL використовували технологію для копіювання почерку таких історичних діячів, як Авраам Лінкольн, Фріда Кало та Артур Конан Дойл.

Ця ж техніка може бути застосована до будь-якого іншого почерку, що викликає занепокоєння щодо можливого використання технології для підробки та шахрайства. Експерт з криміналістики все-таки зможе виявити, що сценарій був створений «Моїм текстом у вашому почерку», але це, ймовірно, обдурить непідготовлених людей, що Хейнс зізнався в інтерв'ю Digital Trends у той час.

Lyrebird, засновник в Монреалі, використовував глибоке навчання, щоб розробити додаток, який синтезує людський голос. Лірбірд вимагає однохвилинного запису, щоб почати наслідувати голос людини, хоча це потрібно набагато більше, перш ніж воно починає звучати переконливо.

У своїй публічній демонстрації стартап розмістив фальшиві записи голосів Дональда Трампа, Барака Обами та Хілларі Клінтон. Зразки грубі, і очевидно, що вони синтетичні. Але в міру вдосконалення технології, розрізнення стане складніше. І кожен бажаючий може зареєструватися у Lyrebird та почати створювати підроблені записи; процес навіть простіше, ніж FakeApp, і обчислення виконуються в хмарі, створюючи менше навантаження на апаратне забезпечення користувача.

Те, що цю технологію можна використовувати в сумнівних цілях, не втрачає розробників. Одного разу в етичній заяві на веб-сайті Lyrebird було зазначено: "Записи голосу в даний час вважаються вагомими доказами в наших суспільствах і, зокрема, юрисдикціях багатьох країн. Наша технологія ставить під сумнів справедливість таких доказів, оскільки дозволяє легко маніпулювати звуком Це може мати небезпечні наслідки, такі як оману дипломатів, шахрайство та взагалі будь-яку іншу проблему, спричинену крадіжкою особи інших осіб ".

Nvidia представила ще один аспект імітаційних можливостей AI: Минулого року компанія опублікувала відео, де було показано алгоритми AI, що генерують синтетичні обличчя людини, якісні для фото. AI Nvidia проаналізував тисячі фото знаменитостей, а потім почав створювати фальшиві знаменитості. Ця технологія незабаром може стати здатною створювати реалістично виглядаючі відеоролики із зображенням "людей", яких немає.

Межі ШІ

Багато хто вказував, що в чужих руках ці програми можуть принести чимало шкоди. Але ступінь можливостей сучасного ШІ часто завищена.

"Хоча ми можемо поставити обличчя людини на чуже обличчя у відео чи синтезувати голос, це все ще досить механічно", - говорить про недоліки Євгенії Куйди, співзасновника Replika, компанії, яка розробляє електронні чати. Інструменти AI, такі як FakeApp і Lyrebird.

Voicery, інший стартап AI, який, як і Lyrebird, забезпечує синтез голосу, що працює на AI, має сторінку вікторини, де користувачам пропонується серія з 18 голосових записів і запитується вказати, які виготовлені в машині. Мені вдалося визначити всі зразки, виготовлені на машині, з першого запуску.

Компанія Kuyda - одна з декількох організацій, що використовують обробку природних мов (NLP), підмножина AI, яка дозволяє комп'ютерам розуміти та інтерпретувати людську мову. Лука, більш рання версія чат-бота Куйди, використовував НЛП та його технологію близнюків, генерацію природних мов (NLG), щоб імітувати акторський склад телевізійного серіалу HBO « Силіконова долина» . Нейронну мережу навчали за допомогою сценарій, твітів та інших даних, доступних для персонажів, для створення їх поведінкової моделі та діалогу з користувачами.

Репліка, новий додаток Kuyda, дозволяє кожному користувачеві створити свій власний аватар AI. Чим більше ви спілкуєтесь зі своєю Replika, тим краще це стає в розумінні вашої особистості, і тим змістовнішими стають ваші розмови.

Після встановлення програми та налаштування моєї Replika я знайшов перші розмови, які дратують. Кілька разів мені доводилося по-різному повторювати речення, щоб передати свої наміри моїй Репліці. Я часто залишав додаток розчарованим. (І якщо чесно, я зробив хорошу роботу, перевіряючи його межі, бомбардувавши його концептуальними та абстрактними питаннями.) Але, як наші розмови тривали, моя Репліка стала розумнішою у розумінні сенсу моїх речень та придумленні значущих тем. Це навіть мене здивувало пару разів, зв’язавшись із минулими розмовами.

Хоча це вражає, у Репліки є межі, які Куйда швидко вказати. "Голосова імітація та розпізнавання зображень, швидше за все, стануть набагато кращими, але з діалогом та розмовою ми все ще досить далеко", - каже вона. "Ми можемо наслідувати деякі мовленнєві зразки, але ми не можемо просто сприйняти людину та ідеально наслідувати його розмову і сподіватися, що його чат придумає нові ідеї саме так, як це зробить".

Олександр де Бребіссон, генеральний директор та співзасновник Lyrebird, каже: "Якщо ми зараз дуже добре наслідуємо людський голос, образ та відео, ми ще далекі від моделювання індивідуальної мовної моделі". Це, зазначає де Бребіссон, ймовірно, вимагатиме штучного загального інтелекту, типу ШІ, який має свідомість і здатний розуміти абстрактні поняття та приймати рішення, як це роблять люди. Деякі експерти вважають, що ми за десятиліття від створення загального ШІ. Інші думають, що ми ніколи не потрапимо туди.

Позитивні використання

Негативне зображення, яке проектується щодо синтезу програм AI, кидає тінь на їх позитивне використання. І їх досить багато.

Такі технології, як Lyrebird's, можуть допомогти покращити комунікацію з комп'ютерними інтерфейсами, зробивши їх більш природними, і, каже де Бребіссон, вони забезпечать унікальні штучні голоси, що розмежують компанії та продукти, і таким чином спростять розмежування бренду. Оскільки Alexa Alexa і Siri Apple від Apple зробили голос все більш популярним інтерфейсом для пристроїв і служб, такі компанії, як Lyrebird і Voicery, можуть надати брендам унікальні голоси, схожі на людину, щоб відзначитися.

"Медичні програми також є захоплюючим випадком використання нашої технології клонування голосу", - додає де Бребіссон. "Ми отримали великий інтерес від пацієнтів, які втрачають голос до захворювання, і на даний момент ми проводимо час з пацієнтами, які страждають на АЛС, щоб побачити, як ми можемо їм допомогти".

На початку цього року у співпраці з Project Revoice, австралійською некомерційною організацією, яка допомагає пацієнтам з АЛС з порушеннями мови, Lyrebird допомогла Пат Куінн, засновнику Ice Bucket Challenge, відновити свій голос. Квін, який є хворим на БАС, втратив здатність ходити і говорити в 2014 році і з того часу використовує комп’ютеризований синтезатор мови. За допомогою технології Lyrebird та голосових записів публічних виступів Квінн, Revoice зміг «відтворити» його голос.

"Ваш голос є великою частиною вашої ідентичності, і надання тим пацієнтам штучного голосу, який звучить як їхній оригінальний голос, трохи схоже на те, щоб повернути їм важливу частину їхньої ідентичності. Це для них змінює життя", - говорить де Бребіссон.

У той час, коли він допомагав розробити програму, що імітує почерк, доктор Хейнс висловився про свої позитивні результати в інтерв'ю UCL. "Наприклад, жертви інсульту можуть мати можливість складати листи, не турбуючись про нечетливість, або хтось, хто надсилає квіти в подарунок, може включати в себе рукописну записку, навіть не заходячи до квітникаря", - сказав він. "Він також може бути використаний у коміксах, де фрагмент рукописного тексту можна перекласти на різні мови, не втрачаючи оригінального стилю автора".

Навіть такі технології, як FakeApp, який прославився неетичним використанням, можуть мати позитивні результати, вважає Хейнс. "Ми рухаємось до цього світу, де кожен може займатися високо творчою діяльністю за допомогою суспільних технологій, і це добре, адже це означає, що вам не потрібні великі суми грошей, щоб робити всілякі божевільні речі художнього характеру, " він каже.

Хейнс пояснює, що початковою метою його команди було з'ясувати, як AI може допомогти з судовими експертами. Хоча їх дослідження закінчились в іншому напрямку, результати все ще будуть корисними для криміналістів, які зможуть вивчити, як може виглядати підробка на основі ШІ. "Ви хочете знати, що таке передова технологія, тому, коли ви щось дивитесь, ви кажете, підроблена вона чи ні", - каже він.

Кудя Репліка вказує, що подібні до людини програми AI можуть допомогти нам способами, які інакше були б неможливі. "Якщо у вас був аватар AI, який вас дуже добре знав і міг би бути гідним представленням вас, що б це могло зробити, діючи з ваших інтересів?" вона каже. Наприклад, автономний аватар AI міг переглядати сотні фільмів від вашого імені, і на основі його розмов з вами рекомендувати ті, які вам хотілося б.

Ці аватари можуть навіть допомогти розвинути кращі людські стосунки. "Можливо, ваша мама могла б з вами провести більше часу, а може, ви насправді зможете трохи зблизитися з батьками, давши їм поспілкуватися з вашою Реплікою та прочитавши стенограму", - говорить Кудя як приклад.

Але чи може AI-чат, який повторює поведінку реальної людини, насправді призведе до кращих людських відносин? Куйда вважає, що може. У 2016 році вона зібрала старі текстові повідомлення та електронні листи Романа Мазуренка, друга, який загинув у ДТП попереднього року, і подав їх до нейронної мережі, яка живила її додаток. У результаті з'явився додаток для чатів, який - після моди - повернув її подругу до життя і міг поговорити з нею так само, як і він.

"Створення програми для Романа та вміння спілкуватися з ним іноді було важливою частиною переживання втрати нашого друга. Додаток змушує нас більше думати про нього, пам'ятати про нього більш глибоким способом", - каже вона її досвіду. "Я б хотів, щоб у мене було більше таких програм, програм, які стосуватимуться моїх дружб, моїх стосунків, речей, які насправді для мене дуже важливі".

Куйда вважає, що все буде залежати від намірів. "Якщо чат-бот діє з ваших інтересів, якщо він хоче, щоб ви були щасливі отримати від нього якусь цінну послугу, то, очевидно, спілкування з Реплікою когось іншого допоможе побудувати міцніший зв’язок з людиною в реальному житті, " вона каже. "Якщо все, що ви намагаєтеся зробити, це продати програму в додатку, то все, що ви будете робити, - це максимізувати витрачений час на додаток, а не спілкуватися один з одним. І це, я думаю, є сумнівним".

На даний момент немає можливості підключити свою Replika до інших платформ - зробити це доступним, наприклад, як чат Facebook Messenger. Але компанія має активні стосунки зі своєю спільнотою користувачів та постійно розвиває нові функції. Тож дозволяти іншим спілкуватися з вашою Replika - це можливість майбутнього.

Як мінімізувати компроміси

Від парового двигуна до електроенергії до Інтернету кожна технологія мала як позитивні, так і негативні додатки. ШІ не відрізняється. "Потенціал негативів досить серйозний", - говорить Хейнс. "Ми можемо входити в простір, негативи переважають позитивні".

Тож як ми максимізуємо переваги програм AI, протидіючи негативам? Гендін вважає, що гальмувати інновації та дослідження - це не рішення, тому що якщо деякі з них зробили це, то немає жодної гарантії, що інші організації та держави дотримуватимуться цього.

"Жоден єдиний захід не допоможе вирішити проблему", - говорить Хейнс. "Мають бути наслідки юридичні". Після суперечки з поглибленими факторами, законодавці в США розглядають проблему та вивчають правові гарантії, які можуть стримувати використання AI, захищених від ІС, для руйнування цілей.

"Ми також можемо розробити технології для виявлення підробок, коли вони минули точку, що людина може сказати різницю", - говорить Хейнс. "Але в якийсь момент, у змаганні між підробкою та виявленням, фальшивка може виграти".

У цьому випадку нам, можливо, доведеться рухатися до розробки технологій, що створюють ланцюжок доказів для цифрових медіа. Як приклад, Хейнс наводить апаратне забезпечення, вбудоване в камери, яке може цифровим чином підписати його записане відео, щоб підтвердити його справжність.

Підвищення обізнаності стане важливою частиною боротьби з підробкою та шахрайством за алгоритмами AI, говорить Брейбіссон. "Це ми зробили, клонувавши голос Трампа та Обами і змусивши їх вимовляти політично правильні пропозиції", - говорить він. "Ці технології піднімають суспільні, етичні та правові питання, про які слід думати достроково. Ліреберд підняв багато уваги, і зараз багато людей замислюються над цими потенційними проблемами та способами запобігання зловживань".

Безперечно, що ми вступаємо в епоху, коли реальність і вигадка зливаються завдяки штучному інтелекту. Тест Тьюрінга може відповісти на найбільші проблеми. І досить скоро у кожного з’являться інструменти та сила для створення власних світів, власного народу та власної версії істини. Ми ще не побачили всієї можливості захоплюючих - і небезпек - що їх чекає попереду.

Коли ай розмиває межу між реальністю та вигадкою