Будинки Бізнес Ай та машинне навчання експлуатують, глибокі фейки, тепер їх важче виявити

Ай та машинне навчання експлуатують, глибокі фейки, тепер їх важче виявити

Зміст:

Відео: Another Top 10 Deepfake Videos (Вересень 2024)

Відео: Another Top 10 Deepfake Videos (Вересень 2024)
Anonim

Коли ми вирушимо до наступного сезону президентських виборів, ви захочете остерігатися потенційних небезпек, які приносять підроблені онлайн-відео завдяки використанню штучного інтелекту (AI) та машинного навчання (ML). Використовуючи програмне забезпечення AI, люди можуть створювати поглиблені файли (скорочення для "глибокого навчання та підробки"), в яких алгоритми ML використовуються для здійснення заміни обличчя, щоб створити ілюзію, що хтось або сказав щось, чого вони не сказали, або хтось хтось такий " повторно ні. Відео Deepfake демонструються на різних аренах, від розваг до політики до корпоративного світу. Мало того, що глубокі відео можуть несправедливо впливати на вибори помилковими повідомленнями, але вони можуть принести особисте збентеження або викликати оманливі повідомлення про бренд, якщо, скажімо, вони показують керівнику, що оголошує про запуск продукту або придбання, яке насправді не відбулося.

Deepfakes є частиною категорії AI під назвою "Генеративні змагальні мережі" або GAN, в якій дві нейронні мережі змагаються за створення фотографій чи відео, які здаються справжніми. GAN складаються з генератора, який створює новий набір даних, як підроблене відео, і дискримінатора, який використовує алгоритм ML для синтезу та порівняння даних із реального відео. Генератор продовжує намагатися синтезувати підроблене відео зі старим, поки дискримінатор не зможе сказати, що дані нові.

Як зазначив Стів Гробман, старший віце-президент McAfee та головний директор з технологій (CTO) на конференції RSA 2019 у березні в Сан-Франциско, фальшиві фотографії існували з часу винаходу фотографії. За його словами, зміна фотографій була простим завданням, яке ви можете виконати в додатку, такому як Adobe Photoshop. Але зараз ці типи розширених можливостей редагування переходять і у відео, і вони роблять це за допомогою високомобільних та легко доступних програмних засобів.

Як створюються Deepfakes

Хоча розуміння понять AI є корисним, не потрібно бути науковцем даних, щоб будувати відео з глубоких фейків. За словами Grobman, це лише дотримуватися деяких інструкцій в Інтернеті. На конференції RSA 2019 (дивіться відео вище) він оприлюднив відео з глубоких фейків разом із доктором Селесте Фралік, головним науковцем даних та старшим головним інженером McAfee. Відео з глибокого фейку ілюструвало загрозу, яку ця технологія представляє. Гробман і Фралік показали, як державний чиновник у відео, який говорить щось небезпечне, може ввести в оману громадськість, щоб вважати повідомлення справжнім.

Щоб створити своє відео, Grobman та Fralick завантажили програмне забезпечення deepfake. Потім вони зняли відео про Гробмана, що свідчить перед Сенатом США в 2017 році, і наклали рот Фраліка на Гробмана.

"Я використовував вільнодоступні публічні коментарі, щоб створити та тренувати модель ML; це дозволило мені розробити глибоке відео з моїми словами, що виходять з вуст", - сказав Фралік перед аудиторією RSA зі сцени. Фралік продовжував говорити, що глибокі відео можуть використовуватися для соціальної експлуатації та інформаційної війни.

Щоб зробити своє глибоке відео, Grobman і Fralick використовували інструмент, створений користувачем Reddit під назвою FakeApp, який використовує алгоритми та фотографії ML для обміну обличчями на відео. Під час своєї презентації RSA Гробман пояснив наступні кроки. "Ми розділили відео на нерухомі зображення, ми витягли обличчя, і ми їх очистили, сортуючи їх та очистивши в Instagram".

Сценарії Python дозволили команді McAfee побудувати рухи, щоб мова про Фраліка відповідала устам Гробмана. Тоді їм потрібно було написати кілька спеціальних сценаріїв. Проблема у створенні переконливого глубокого факелу полягає в тому, коли такі характеристики, як стать, вік та тон шкіри, не співпадають, зазначив Гробман.

Потім він і Фралік застосували остаточний алгоритм AI, щоб відповідати образам Гробмана, що свідчать перед сенатом, з промовою Фраліка. Гробман додав, що на підготовку цих алгоритмів МЛ знадобилося 12 годин.

McAfee окреслив кроки, зроблені для створення відеоролика, показаного на конференції RSA 2019. Він використовував програмне забезпечення deepfake під назвою FakeApp і навчання моделей ML, щоб змінити відео Grobman з мовою Fralick. (Кредитна графіка: McAfee).

Наслідки глибоких фейків

Створені хакером відеоролики можуть створити багато проблем - від урядових чиновників, які поширюють неправдиву дезінформацію, щоб знаменитості збентежились від того, що вони потрапляють у відеоролики, яких вони насправді не входили до компаній, що завдають шкоди позицій конкурентів. Усвідомлюючи ці проблеми, законотворці у вересні надіслали листа Даніелю Коутсу, директору національної розвідки США, з проханням переглянути перегляд загрози, яку становлять глибокі факи. У листі застережено, що такі країни, як Росія, можуть використовувати глубокі фейки в соціальних мережах для поширення неправдивої інформації. У грудні законодавці ввели Закон про заборонену глибоку підробку 2018 року, щоб заборонити шахрайство у зв’язку з "аудіовізуальними записами", які посилаються на глубокі фейки. Залишається побачити, чи законопроект буде прийнятий.

Як уже згадувалося, знаменитості можуть зазнати збентеження від відео, в якому їх обличчя накладаються на обличчя порнозірок, як це було у випадку з Гал Гадот. Або уявіть, що генеральний директор нібито оголошує новини про продукцію та занурює акції компанії. Фахівці з безпеки можуть використовувати ML для виявлення таких типів атак, але якщо вони не будуть виявлені вчасно, вони можуть завдати непотрібної шкоди країні або бренду.

"З глубокими фейками, якщо ви знаєте, що ви робите, і ви знаєте, на кого націлитись, ви дійсно можете створити переконливе відео, яке завдасть великої шкоди бренду", - сказав д-р Чейз Каннінгем, головний аналітик Forrester Research . Він додав, що, якщо ви поширите ці повідомлення на LinkedIn або Twitter або скористаєтеся формою бота, "ви можете розчавити акції компанії на основі загального фальшивого відео без певних зусиль".

Завдяки поглибленим відео, споживачі можуть бути надуманими вважати, що продукт може зробити те, чого він не може. Каннінгем зазначив, що якщо генеральний директор головного виробника автомобілів заявив у химерному відео, що компанія більше не випускатиме транспортні засоби з газовим газом, а потім поширюватиме це повідомлення у Twitter або LinkedIn у цьому відео, то ця дія може легко пошкодити бренд.

"Цікаво, що в моєму дослідженні люди приймають рішення на основі заголовків та відеозаписів за 37 секунд", - сказав Каннінгем. - Отже, ви можете собі уявити, чи зможете ви отримати відео, яке триває довше 37 секунд, і ви можете змусити людей приймати рішення на основі фактичні чи ні. І це жахливо ".

Оскільки соціальні медіа є вразливим місцем, де відео з глубоких фейків можуть набувати вірусного характеру, сайти соціальних медіа активно працюють над боротьбою із загрозою глубоких фейків. Наприклад, Facebook використовує інженерні команди, які можуть помітити підроблені фотографії, аудіо та відео. Окрім використання програмного забезпечення, Facebook (та інші соціальні компанії) наймають людей, щоб вручну шукати глибокі фейки.

"Ми розширили наші постійні зусилля по боротьбі з маніпульованими ЗМІ, щоб включити боротьбу з глубокими факелами", - заявив представник Facebook у своїй заяві. "Ми знаємо, що подальше поява всіх форм маніпульованих засобів масової інформації представляє реальні виклики для суспільства. Ось чому ми інвестуємо в нові технічні рішення, вчимося в академічних дослідженнях і працюємо з іншими в галузі для розуміння глубоких фейків та інших форм маніпульованих ЗМІ . "

Не всі Deepfakes погані

Як ми бачили з навчальним відео про глубокі фейки від McAfee та комедійними відео на глибинних фейках на телевізорі пізньої ночі, деякі відео з глибоких фейків не обов'язково погані. Насправді, хоча політика може наражати реальні небезпеки на глубокі фейк-відео, індустрія розваг часто просто показує легку сторону відеофайлів.

Наприклад, в нещодавньому епізоді "Пізнього шоу зі Стівеном Колбертом" було показано кумедне відео з глубоких фейків, в якому обличчя актора Стіва Буссемі накладалося на тіло актриси Дженніфер Лоуренс. В іншому випадку комік Джордан Пілер замінив відео, на якому колишній президент Барак Обама виступав власним голосом. Такі жартівливі поглиблені відеоролики також з’явилися в Інтернеті, в яких обличчя президента Трампа накладається на обличчя канцлера Німеччини Ангели Меркель, коли людина говорить.

Знову ж таки, якщо відео з глубоких фейків використовуються для сатиричних або жартівливих цілей або просто як розваги, то платформи соціальних медіа та навіть будинки з виробництва кіно дозволяють або використовують їх. Наприклад, Facebook допускає такий тип контенту на своїй платформі, а Lucasfilm використовував тип цифрового відпочинку, щоб зобразити молоду Керрі Фішер на тілі актриси Інґвілд Дейла у "Rogue One: Story Wars Story".

Грабман МакАфі зауважив, що деякі технології, що стоять за глуш-фейками, добре використовуються з трюковими подвійними манекенщиками, щоб захистити акторів. "Контекст - це все. Якщо це для комедійних цілей і очевидно, що це не реально, це те, що є законним використанням технології", - сказав Гробман. "Ключовим є визнання, що його можна використовувати для різного роду різних цілей."

(Кредитна графіка: Statista)

Як виявити відео Deepfake

McAfee - не єдина охоронна фірма, яка експериментує з тим, як виявити підроблені відео. У своєму документі, викладеному на Black Hat 2018 під назвою "AI Gone Rogue: винищення глибоких фактів, перш ніж вони спричинили загрозу", два експерти з безпеки Symantec, керівник реагування на безпеку Vijay Thaware та інженер з розробки програмного забезпечення Ніранджан Агніхотрі, пишуть, що вони створили інструмент для пошуку підроблені відео на базі Google FaceNet. Google FaceNet - це нейронна мережева архітектура, яку розробили дослідники Google, щоб допомогти у перевірці та розпізнаванні облич. Користувачі навчають модель FaceNet на певному зображенні, а потім можуть підтвердити свою особу під час тестів.

Щоб спробувати зупинити розповсюдження відео з глубоких фейків, AI Foundation, неприбуткова організація, орієнтована на взаємодію між людьми та AI, пропонує програмне забезпечення під назвою "Захист реальності" для пошуку підробленого контенту. Він може сканувати зображення та відео, щоб побачити, чи були вони змінені за допомогою AI. Якщо вони є, вони отримають "Чесний AI водяний знак".

  • Бізнес-посібник з машинного навчання Бізнес-посібник з машинного навчання
  • PornHub, Twitter Заборона AI-модифікована AI-модифікація PornHub, Twitter Заборона AI-модифікована порно
  • Найновіший Deepfake Tech ви будете танцювати, як Бруно Марс Останній Deepfake Tech буде вам танцювати, як Бруно Марс

Ще одна стратегія - пам’ятати про концепцію Zero Trust, яка означає «ніколи не довіряй, завжди перевіряй» - девіз кібербезпеки, що означає, що ІТ-фахівці повинні підтвердити, що всі користувачі є законними перед наданням привілеїв доступу. Залишається скептично скерованою до обгрунтованості відеоконтенту. Вам також потрібно програмне забезпечення з можливостями цифрової аналітики для виявлення фальшивого вмісту.

Дивлячись на Deepfakes

Ідучи вперед, нам потрібно бути обережнішими з відеоконтентом і пам’ятати про небезпеки, які вони можуть представляти суспільству при неправильному використанні. Як зазначив Гробман, "найближчим часом люди повинні бути більш скептично ставляться до побаченого та визнавати, що відео та аудіо можуть бути виготовлені".


Тож слідкуйте скептично за політичними відео, які ви переглядаєте, коли ми прямуємо до наступного виборчого сезону, і не довіряйте всім відео, на яких представлені корпоративні лідери. Тому що те, що ти чуєш, може бути не таким, що було сказано насправді, а оманливі відео з глуздими помилками можуть пошкодити наше суспільство.

Ай та машинне навчання експлуатують, глибокі фейки, тепер їх важче виявити