Зміст:
Відео: whatsaper ru ÐедеÑÑкие анекдоÑÑ Ð¿Ñо ÐовоÑÐºÑ (Листопад 2024)
Наприкінці 2017 року материнська плата повідомила про технологію AI, яка може міняти обличчя у відео. У той час технологія - згодом її називали глибокими фейками - давала грубі, зернисті результати і в основному використовувалася для створення фальшивих порно-роликів із зображенням знаменитостей та політиків.
Через два роки технологія надзвичайно просунулася і її важче виявити неозброєним оком. Поряд з фальшивими новинами, підроблені відео стали проблемою національної безпеки, особливо в міру наближення президентських виборів 2020 року.
З часу появи глибоких фейків декілька організацій та компаній розробили технології для виявлення підроблених відеороликів. Але є побоювання, що одного дня технологію глубоких фейків виявити неможливо.
Дослідники з університету Суррей розробили рішення, яке може вирішити проблему: замість того, щоб виявити те, що неправдиво, воно доведе, що є правдою. Планується представити на наступній конференції з комп’ютерного бачення та розпізнавання образів (CVPR), технологія під назвою Archangel використовує AI та blockchain для створення та реєстрації цифрового відбитка, захищеного від несанкціонованих дій, для автентичних відео. Відбиток пальців може бути використаний як орієнтир для перевірки дійсності засобів масової інформації, які розповсюджуються в Інтернеті або транслюються по телебаченню.
Використання AI для підписання відео
Класичний спосіб довести справжність двійкового документа - використовувати цифровий підпис. Видавці управляють своїм документом за допомогою криптографічного алгоритму, такого як SHA256, MD5 або Blowfish, який створює "хеш", короткий рядок байтів, який представляє вміст цього файлу і стає його цифровим підписом. Запуск того ж файлу через алгоритм хешування в будь-який час створить той самий хеш, якщо його вміст не змінився.
Хеші чутливі до змін у бінарній структурі вихідного файлу. Коли ви модифікуєте один байт у хешованому файлі та запускаєте його знову через алгоритм, він дає абсолютно інший результат.
Але, хоча хеші добре працюють з текстовими файлами та програмами, вони представляють виклики для відео, які можна зберігати в різних форматах, за словами Джона Колломосса, професора комп'ютерного зору в Університеті Суррей та керівника проекту для Архангела.
"Ми хотіли, щоб підпис був однаковим, незалежно від кодеку, з яким стискається відео", - говорить Колломос. "Якщо я візьму своє відео і конвертую його, скажімо, з MPEG-2 в MPEG-4, то цей файл буде абсолютно різної довжини, і біти повністю зміниться, що дасть інший хеш. Що нам потрібно був алгоритмом хешування з вмістом ".
Щоб вирішити цю проблему, Колломос та його колеги розробили глибоку нейронну мережу, чутливу до вмісту, що міститься у відео. Глибокі нейронні мережі - це тип побудови ШІ, який розвиває свою поведінку за допомогою аналізу величезної кількості прикладів. Цікаво, що нейромережі - це також технологія в основі глибоких фейків.
Створюючи глибокі фейки, розробник подає мережу зображеннями обличчя суб'єкта. Нейронна мережа вивчає риси обличчя і, достатньо навчившись, стає здатною знаходити та змінювати обличчя в інших відео з обличчям суб'єкта.
Нейронна мережа Архангела тренується на відео, на якому воно відбито пальцями. "Мережа розглядає вміст відео, а не його основні біти та байти", - говорить Колломос.
Після тренування, коли ви запускаєте нове відео через мережу, він перевірятиме його, коли він містить той самий вміст, що і вихідне відео, незалежно від його формату, і відхилятиме його, коли це інше відео чи підробляється чи редагується.
За словами Collomosse, технологія може виявити як просторове, так і часове підроблення. Просторові підробки - це зміни, внесені в окремі кадри, такі як зміни обличчя, що виконуються в глубоких фейках.
Але флеш-фейки - не єдиний спосіб підробити відео. Менш обговорювані, але не менш небезпечні - це навмисні зміни, внесені до послідовності кадрів та швидкості та тривалості відео. Нещодавно широко розповсюджене підроблене відео спікера будинку Ненсі Пелосі не використовувало глубоких фейків, але було створене завдяки ретельному використанню простих методів редагування, які змусили її заплутатися.
"Однією з форм підробки, яку ми можемо виявити, є видалення коротких сегментів відео. Це тимчасові підробки. І ми можемо виявити до трьох секунд підробки. Отже, якщо відео триває кілька годин, а ви просто видаліть три секунди цього відео, ми можемо це виявити ", - говорить Колломос, додаючи, що Архангел також виявить зміни, внесені до швидкості оригінального відео, як це було зроблено у відео" Пелосі ".
Реєстрація відбитків пальців на блокчейн
Другий компонент проекту «Архангел» - це блокчейн, база даних, захищена від несанкціонованого захисту, де нова інформація може зберігатися, але не змінюватися - ідеально підходить для відеоархівів, які не вносять змін у відео після їх реєстрації.
Blockchain технологія лежить в основі цифрових валют, таких як Bitcoin та Ether. Це цифрова книга, що ведеться кількома незалежними сторонами. Більшість сторін повинні погодитися на зміни, внесені в блокчейн, що унеможливлює можливість жодної окремої сторони в односторонньому порядку втручатися в головну книгу.
Технічно можливо атакувати та змінювати вміст блокчейна, якщо понад 50 відсотків його учасників домовляються. Але на практиці це надзвичайно важко, особливо коли блокчейн підтримується багатьма незалежними сторонами з різними цілями та інтересами.
Блокчейн Архангела дещо відрізняється від загальнодоступного блокчейна. По-перше, він не виробляє криптовалюту і зберігає лише ідентифікатор, відбиток відомостей про вміст і бінарний хеш нейронної мережі верифікатора для кожного відео в архіві (blockchains не підходить для зберігання великої кількості даних, саме тому саме відео та нейронна мережа зберігаються поза ланцюгом).
Також це дозволений або "приватний" блокчейн. Це означає, що на відміну від блокчейна Bitcoin, де кожен може записувати нові транзакції, лише дозволені сторони можуть зберігати нові записи на блок-ланцюзі Архангела.
В даний час Архангел випробовується мережею національних урядових архівів з Великобританії, Естонії, Норвегії, Австралії та США: Щоб зберігати нову інформацію, кожна країна, що займається цим рішенням, повинна підтвердити додаток. Але хоча лише національні архіви країн-учасниць мають право додавати записи, усі інші читали доступ до блокчейн і можуть використовувати його для перевірки інших відеозаписів щодо архіву.
- AI та машинне навчання Exploit, Deepfakes, тепер важче виявити AI та машинне навчання Exploit, Deepfakes, тепер важче виявити
- Відео Deepfake тут, і ми ще не готові. Відео Deepfake тут, і ми не готові
- Новий інтелект AI виявляє фотошопні обличчя Adobe New AI виявляє фотошопні обличчя
"Це застосування blockchain для загального блага", - говорить Колломос. "На мій погляд, єдине розумне використання блокчейна - це те, коли у вас є незалежні організації, які не обов'язково довіряють одна одній, але в них є цей інтерес до цієї колективної мети взаємної довіри. І те, що ми прагнемо зробити, це забезпечити національні архіви уряду у всьому світі, щоб ми могли гарантувати їх цілісність за допомогою цієї технології ".
Оскільки створення підроблених відеозаписів стає простішим, швидшим та доступнішим, всім знадобиться вся допомога, яку вони можуть отримати для забезпечення цілісності своїх відеоархівів, особливо урядів.
"Я думаю, що глубокі фейки майже схожі на гонку озброєнь", - говорить Колломос. "Через те, що люди створюють все більш переконливі глибокі фейки, і колись їх виявити неможливо. Тому найкраще, що ти можеш зробити, - це спробувати довести генерування відео".