Будинки Думки Як попередження фальшивих новин openai викликало фактичні фейкові новини

Як попередження фальшивих новин openai викликало фактичні фейкові новини

Зміст:

Відео: РС DONI ft Ð¢Ð¸Ð¼Ð°Ñ Ð¸ Ð Ð¾Ñ Ð¾Ð´Ð° Ð Ñ ÐµÐ¼Ñ ÐµÑ Ð° клипа, 2014 (Листопад 2024)

Відео: РС DONI ft Ð¢Ð¸Ð¼Ð°Ñ Ð¸ Ð Ð¾Ñ Ð¾Ð´Ð° Ð Ñ ÐµÐ¼Ñ ÐµÑ Ð° клипа, 2014 (Листопад 2024)
Anonim

Некомерційна дослідницька лабораторія AI OpenAI викликала хвилю паніки апокаліпсису ШІ минулого місяця, коли вона представила найсучасніший ШІ, що генерує текст, під назвою GPT-2. Але хоча він відзначав досягнення GPT-2, OpenAI заявив, що не випустить свою модель AI перед громадськістю, побоюючись, що в інших руках GPT-2 може бути використаний для зловмисних цілей, таких як генерування оманливих новин, видання себе за інших та автоматизація створення підробленого контенту в соціальних мережах.

Передбачувано, що оголошення OpenAI призвело до потоку сенсаційних новин, але, хоча будь-яка передова технологія може бути озброєна, AI все ще має далеко зайти, перш ніж освоїти текст. Навіть тоді для створення кризи з фальшивими новинами знадобиться більше, ніж текст, що створює текст. У цьому світлі попередження OpenAI були перекриті.

ШІ та людська мова

Комп’ютери історично боролися з людською мовою. У письмовому тексті так багато складностей і нюансів, що перетворити їх усіх на класичні правила програмного забезпечення практично неможливо. Але останні досягнення в галузі глибокого навчання та нейронних мереж проклали шлях до іншого підходу до створення програмного забезпечення, яке може вирішувати мовні завдання.

Глибоке навчання принесло великі вдосконалення в таких сферах, як машинний переклад, узагальнення тексту, відповіді на питання та створення природних мов. Це дозволяє інженерам програмного забезпечення створювати алгоритми, які розробляють власну поведінку, аналізуючи багато прикладів. Для виконання завдань, пов'язаних з мовою, інженери подають нейронні мережі з оцифрованим вмістом, таким як новини новин, сторінки Вікіпедії та публікації в соціальних мережах. Нейронні мережі ретельно порівнюють дані та беруть до уваги, як певні слова слідують за іншими в повторюваних послідовностях. Потім вони перетворюють ці зразки в складні математичні рівняння, які допомагають їм вирішувати мовні завдання, такі як передбачення пропущених слів у текстовій послідовності. Загалом, чим більше якісних даних про навчання ви надаєте для моделі глибокого навчання, тим краще вона стає при виконанні своїх завдань.

За даними OpenAI, GPT-2 пройшов навчання на 8 мільйонах веб-сторінок і мільярдах слів, що набагато більше, ніж інші подібні моделі. Він також використовує вдосконалені моделі AI для кращого застосування тексту. Вибірка з GPT-2 показує, що моделі вдається підтримувати узгодженість у більш довгих послідовностях тексту, ніж попередники.

Але хоча GPT-2 - це крок вперед у галузі природничого покоління, це не технологічний прорив до створення AI, здатного зрозуміти значення та контекст написаного тексту. GPT-2 все ще використовує алгоритми для створення послідовностей слів, які статистично схожі на мільярди текстових уривків, які він раніше бачив - він абсолютно не розуміє, що він створює.

У поглибленому аналізі Тірнан-Рей ZDNet вказує на кілька випадків, коли вихідні зразки GPT-2 видають свою штучну природу відомими артефактами, такими як дублювання термінів та відсутність логіки та послідовності фактів. "Коли GPT-2 переходить до писемності, яка потребує більшого розвитку ідей та логіки, тріщини відкриваються досить широко", - зазначає Рей.

Статистичне навчання може допомогти комп'ютерам генерувати граматично правильний текст, але для збереження логічної та фактичної послідовності потрібно більш глибоке концептуальне розуміння. На жаль, це все ще виклик, який нинішні суміші ШІ не подолали. Ось чому GPT-2 може генерувати приємні абзаци тексту, але, ймовірно, буде важко натиснути, щоб створити справжню статтю з довгими формами або видати себе за переконливий спосіб упродовж тривалого часу.

Чому паніка підроблених новин AI перекрита

Ще одна проблема міркувань OpenAI: передбачається, що AI може створити кризу підроблених новин.

У 2016 році група македонських підлітків поширила підроблені новини про вибори президента США на мільйони людей. За іронією долі, вони навіть не володіли належними знаннями англійської мови; вони знаходили свої історії в Інтернеті і зшивали разом різний зміст. Вони мали успіх, оскільки створили веб-сайти, які виглядали достатньо автентичними, щоб переконати відвідувачів довіряти їм як надійним джерелам новин. Сенсаційні заголовки, недбалі користувачі соціальних медіа та алгоритми тенденцій зробили все інше.

Потім у 2017 році злісні суб'єкти викликали дипломатичну кризу в регіоні Перської затоки, взломивши катарські веб-сайти новин та державні акаунти соціальних медіа та опублікувавши підроблені зауваження від імені еміра Катару Шейха Таміма біна Хамада Аль Тані.

Як показують ці історії, успіх кампаній підроблених новин залежить від встановлення (і зради) довіри, а не від створення великої кількості цілісного англійського тексту.

Однак попередження OpenAI про автоматизацію створення підробленого вмісту для публікації в соціальних медіа є більш обґрунтованими, оскільки масштаби та обсяг відіграють важливішу роль у соціальних мережах, ніж у традиційних ЗМІ. Припущення полягає в тому, що AI, такий як GPT-2, зможе затопити соціальні медіа мільйонами унікальних публікацій на певну тему, впливаючи на тенденції алгоритмів та публічні дискусії.

Але все-таки попередження не відповідають дійсності. В останні кілька років компанії з соціальних медіа постійно розвивали можливості виявлення та блокування автоматизованої поведінки. Тож зловмисному акторові, озброєному текстовим інтелектуальним інструментом, доведеться подолати ряд викликів, крім створення унікального контенту.

Наприклад, їм знадобляться тисячі підроблених облікових записів соціальних медіа, в яких можна розміщувати вміст, створений AI. Ще жорсткіше, щоб переконатися, що немає можливості підключити підроблені акаунти, їм знадобиться унікальний пристрій та IP-адреса для кожного облікового запису.

Це стає гірше: рахунки повинні бути створені в різний час, можливо, протягом року або довше, щоб зменшити подібність. Минулого року розслідування New York Times показало, що лише дати створення облікових записів можуть допомогти виявити ботові акаунти. Тоді для подальшого приховування їх автоматизованого характеру від інших користувачів та алгоритмів поліцейських функцій, облікові записи повинні мати участь у поведінці, подібній людині, такі як взаємодія з іншими користувачами та встановлення неповторного тону у своїх публікаціях.

Жоден із цих викликів неможливо подолати, але вони показують, що вміст - це лише одна частина зусиль, необхідних для проведення в соціальній мережі фейкових новин. І знову довіра відіграє важливу роль. Кілька довірених впливових соціальних мереж, які розміщують кілька фальшивих публікацій новин, матимуть більший вплив, ніж купа невідомих облікових записів, що генерують велику кількість контенту.

На захист попереджень OpenAI

Перебільшені попередження OpenAI викликали цикл медіа-шуму та паніки, які, як не дивно, межують з фальшивими новинами, викликаючи критику відомих експертів у галузі інтелектуальної власності.

Вони запросили людей із ЗМІ отримати швидкий доступ до результатів із ембарго для преси, щоб все було оприлюднено в той же день. Жоден дослідник, якого я знаю, не мав бачити великої моделі, але журналісти це зробили. Так, вони навмисно підірвали це.

- Метт Гарднер (@nlpmattg) 19 лютого 2019 року

Кожен новий чоловік потенційно може бути використаний для генерування фальшивих новин, поширення теорій змови та впливу на людей.

Чи варто тоді перестати робити дітей?

- Yann LeCun (@ylecun) 19 лютого 2019 року

Просто хотіли роздати всі голови, наша лабораторія знайшла дивовижний прорив у розумінні мови. але ми також переживаємо, що може потрапити в неправильні руки. тож ми вирішили його зняти і замість цього опублікувати лише звичайні речі * ACL. Велика повага колективу за їх велику роботу.

- (((? () (? () 'Yoav)))) (@yoavgo) 15 лютого 2019

Закарі Ліптон, дослідник AI та редактор "Приблизно коректного", вказав на історію OpenAI "використання свого блогу та привернення уваги до того, щоб катапультирувати незрозумілу роботу на публічному погляді, і часто розігруючи аспекти безпеки людини в роботі, яка ще не має інтелектуальної роботи ноги стояти ».

Незважаючи на те, що OpenAI заслуговує на всю критику та спеку, яку він отримав після своїх оманливих зауважень, також правильно по-справжньому турбуватися про можливе зловмисне використання його технологій, навіть якщо компанія використовувала безвідповідальний спосіб навчання громадськості про неї.

  • Рік етичного зарахування індустрії AI - Рік етичного зарахування індустрії AI
  • Нечесна перевага: Не чекайте, що AI гратиме як людина Несправедлива перевага: Не чекайте, що AI гратиме, як людина
  • Цей ШІ прогнозує Інтернет-тролінг, перш ніж це відбудеться. Цей ШІ прогнозує Інтернет-тролінг, перш ніж це станеться

У минулі роки ми бачили, як AI-технології, оприлюднені без роздумів та роздумів, можуть бути озброєні для зловмисних намірів. Один із прикладів - FakeApp, програма AI, яка може міняти обличчя у відео. Незабаром після виходу FakeApp він був використаний для створення фальшивих порнографічних відеороликів, в яких були представлені знаменитості та політики, викликаючи занепокоєння через загрозу підробки, що працює на AI.

Рішення OpenAI показує, що нам потрібно зробити паузу та подумати про можливі наслідки технологій публічного випуску. І нам потрібно активніше обговорювати ризики AI-технологій.

"Одна організація, яка зупиняє один конкретний проект, насправді не змінює нічого довгострокового. Але OpenAI отримує багато уваги за все, що вони роблять … і я думаю, що їм слід аплодувати за те, що вони звернули увагу на це питання", - сказав Девід Бау розповів науковий співробітник лабораторії інформатики та штучного інтелекту MIT (CSAIL).

Як попередження фальшивих новин openai викликало фактичні фейкові новини