Будинки Особливості Як лобзик google намагається детоксикувати Інтернет

Як лобзик google намагається детоксикувати Інтернет

Зміст:

Відео: Настя и сборник весёлых историй (Вересень 2024)

Відео: Настя и сборник весёлых историй (Вересень 2024)
Anonim

Інтернет може відчути себе токсичним місцем. Тролі спускаються в розділи коментарів та теми соціальних медіа, щоб загрожувати мовою ненависті та цькування, перетворюючи потенційно просвітливі дискусії в атаки ad hominem та групові групи. Висловлення думки в Інтернеті часто не видається корисним для цього.

Масові соціальні платформи, включаючи Facebook, Twitter та YouTube, визнають, що вони не можуть адекватно розслідувати ці проблеми. Вони беруть участь у гонці озброєнь з ботами, тролями та всіма іншими небажаними, хто проскакує фільтри вмісту. Люди фізично не здатні читати кожен коментар в Інтернеті; ті, хто намагається, часто шкодують про це.

Технічні гіганти експериментували з різними комбінаціями модерації людини, алгоритмами AI та фільтрами, щоб проникнути через потоки вмісту, що протікає через їх канали щодня. Jigsaw намагається знайти середину. Дочірня компанія «Alphabet» та технологічний інкубатор, раніше відома як «Google Ideas», починає доводити, що машинне навчання (ML), виготовлене в інструментах для людських модераторів, може змінити спосіб підходу до проблеми токсичності в Інтернеті.

Перспектива - це API, розроблений Jigsaw та командою Google із технологій протидії зловживанням. Він використовує ML для виявлення жорстокого поводження та домагань в Інтернеті та забирає коментарі на основі сприйнятого ними впливу на розмову, намагаючись полегшити життя модераторів.

Перспектива серед кричущих матчів

Технологія з відкритим кодом була вперше оголошена у 2017 році, хоча розробка на ній розпочалася на кілька років раніше. Одними з перших сайтів, які експериментували з Perspective, були публікації новин, такі як The New York Times та сайти, такі як Wikipedia. Але останнім часом Perspective знайшла дім на таких сайтах, як Reddit та платформа для коментарів Disqus (яка використовується на PCMag.com.)

CJ Adams, керівник продукту компанії «Перспектива», сказав, що проект хотів вивчити, як голоси людей замовчуються в Інтернеті. Jigsaw хотів дослідити, як цілеспрямоване насильство або загальна атмосфера домагань можуть створити запаморочливий ефект, відштовхуючи людей до того, що вони вважають, що не варто витрачати час і енергію, щоб додати свій голос до дискусії. Як часто ви бачили твіт, допис чи коментар і вирішили не відповідати, тому що боротися з тролями та отримувати Mad Mad просто не варто загострення?

"Зруйнувати онлайн-розмову дуже просто", - сказав Адамс. "Легко заскочити, але одна людина, яка є насправді шкідливою чи токсичною, може виганяти інші голоси. Можливо, 100 людей читають статтю або починають дебати, а часто ви стикаєтеся з самими гучними голосами в кімнаті, які залишаються єдиними, в Інтернеті, який оптимізований для подобань та спільного доступу. Тож ти замовчуєш усі ці голоси. Тоді, що визначає дискусію, - це лише найгучніший голос у кімнаті - кричущий матч ".

    Головоломка та Google

    Минулий рік, коли компанія-сестра Jigsaw, компанія Google, зіткнулася з проблемами безпеки даних, відштовхуванням співробітників щодо участі у проектах Пентагону та Китаю та розкриттями щодо поводження з сексуальними домаганнями. Не кажучи вже про суперечливі слухання в Конгресі, на яких депутати-гендиректори Сундар Піхай були на грилі.

    У "Jigsaw", альтруїстичному інкубаторі Alphabet, справи були дещо менш драматичними. Команда витрачала свій час на вивчення інших технічних форм цензури, таких як отруєння DNS за допомогою програми Intra та DDoS-атаки з Project Shield. З точки зору перспективи мета є більш абстрактною. Замість того, щоб використовувати машинне навчання для визначення того, що проти чи заданого набору правил, виклик Perspective є інтенсивно суб'єктивним: класифікація емоційного впливу мови.

    Для цього вам потрібна обробка природних мов (NLP), яка розбиває речення на точні шаблони. Команда "Перспектива" стикається з такими проблемами, як упередженість підтвердження, групова думка та домагання поведінки в середовищі, коли технології розширили їх сферу дії та ускладнили їх вирішення.

    AI "Неправильно і німо іноді"

    Поліпшення онлайн-розмов за допомогою машинного навчання не є простим завданням. Це все ще виникає сфера досліджень. Алгоритми можуть бути упередженими, системи машинного навчання потребують нескінченного вдосконалення, а найскладніші та найважливіші проблеми досі залишаються незвіданими.

    Дослідницька група Conversation AI, яка створила «Перспективу», розпочала зі зустрічей з газетами, видавцями та іншими сайтами, де розміщуються бесіди. Одними з перших сайтів, які експериментували з технологією, були The New York Times, Wikipedia, The Guardian та The Economist .

    У 2017 році команда відкрила первинну демонстрацію Перспектива через публічний веб-сайт у рамках альфа-тесту, дозволяючи людям вводити мільйони мерзенних, образливих коментарів на сайт. Це було схоже на сумнозвісний невдалий експеримент чат-бота «Тай», за винятком того, що замість того, щоб обманювати бота у відповіді расистськими твітами, Jigsaw використовував широкомасштабну вірулентність як навчальні дані для подачі своїх моделей, допомагаючи виявити та класифікувати різні типи зловживань в Інтернеті.

    Початковий публічний тест не пройшов гладко. "Тролі по всій Америці" від Wired, які розбивали токсичність у коментарях по всій країні на основі перспективних балів, показали, як алгоритм ненавмисно дискримінує групи за расою, статтю та сексуальною орієнтацією.

    Адамс відверто говорив про те, що первісне тестування Перспективи виявило основні сліпі плями та алгоритмічні ухили. Як і узагальнений інструмент набору персоналу Amazon, який навчався на десятиліттях помилкових даних про роботу та розробляв притаманну упередженість щодо жінок-претендентів, у ранніх перспективних моделей були яскраві недоліки через дані, за якими він пройшов навчання.

    "На прикладі часто націлених груп, якщо ви подивилися на розподіл у коментарях у наборі даних про тренінг, було зникає невелика кількість коментарів, які включали слово" гей "або" феміністка "і використовували його позитивно так, - пояснив Адамс. "Зловживаючі коментарі використовують слова як образи. Отже, ML, дивлячись на зразки, скаже:" Гей, присутність цього слова є досить хорошим прогнозувачем того, чи є ця настроя токсичною чи ні ".

    Наприклад, альфа-алгоритм може помилково позначати твердження на кшталт "Я пишаюся геєм", або "Я феміністка і трансгендер" з високими показниками токсичності. Але публічно прозорий навчальний процес (хоча і був болісним) був безцінним уроком для Jigsaw внаслідок наслідків ненавмисних упереджень, сказав Адамс.

    Під час навчання моделей машинного навчання чомусь такому ж лихому та особистому, як онлайн-зловживання та домагання, наявність алгоритмічної упередженості також підкреслює, чому AI сам по собі не є рішенням. Соціальні компанії, такі як Facebook та YouTube, рекламували функції моделювання вмісту AI на своїх платформах лише для того, щоб відслідковуватись серед скандалу та виправлення курсу, наймаючи тисячі людей, що займаються модерацією.

    Мотоблок - це гібрид двох. Перспектива не є алгоритмами AI, які приймають рішення у вакуумі; API інтегрується в інтерфейси управління спільнотою та модерування вмісту, щоб служити допоміжним інструментом для модераторів людини. Перспективні інженери описують модерацію мови ненависті з МЛ та без неї, використовуючи аналогію стога сіна: AI допомагає автоматизувати процес сортування, знищуючи величезні стоги сіна, все ж даючи людям остаточне слово щодо того, чи вважається коментар образливим чи утиском.

    "Це нова здатність ML", - сказав Адамс. "Люди говорять про те, наскільки розумний ШІ, але вони часто не говорять про всі способи, які це неправильно і німо іноді. З самого початку ми знали, що це зробить багато помилок, і тому ми сказали:" Це Інструмент корисний для модерованого людського модерації, але він не готовий приймати автоматичні рішення ". Але це може вирішити проблему «голка в копиці сіна», щоб знайти цю токсичну промову і звести її до жмені сіна ».

    Що таке показник токсичності?

    Найбільш поділяючий аспект моделювання Перспективи - це встановлення чисел до такої суб'єктивної, як "токсичність". Перше, що Адамс зазначив, це те, що оцінки «Перспективи» є вказівкою на ймовірність, а не на серйозність. Більша кількість представляє велику ймовірність того, що шаблони тексту нагадують зразки в коментарях, які люди позначають як токсичні.

    Що стосується того, що насправді означає "токсичний", команда "Перспектива" визначає це як "грубий, неповажний або необгрунтований коментар, який, можливо, змусить вас залишити дискусію". Але як це проявляється, може бути тонко. У 2018 році Jigsaw співпрацював з Лабораторією штучного інтелекту Родоса (RAIL), щоб розробити моделі ML, які можуть підібрати більш неоднозначні форми загрозливої ​​або ненависної промови, такі як зневажливий, поблажливий або саркастичний коментар, який не є відкрито ворожим.

    До цього моменту більшість моделей Perspective пройшли навчання, просячи людей оцінювати коментарі в Інтернеті за шкалою від "дуже токсичної" до "дуже здорової". Потім розробники можуть відкалібрувати модель для позначення коментарів вище певного порогу, від 0, 0 до 1, 0. Оцінка вище 0, 9 вказує на високу ймовірність токсичності, а оцінка 0, 5 або нижче означає значно нижчий ступінь алгоритмічної визначеності. Перспектива також використовує те, що називається нормалізацією балів, що дає розробникам стійку базову лінію для інтерпретації балів. Адамс пояснив, що залежно від форуму чи веб-сайту, розробники можуть змішувати та узгоджувати моделі. Тож, коли громада не проти ненормативної лексики, цей атрибут можна зважити.

    Адамс показав мені інтерфейс демо-модерації, інтегрований з API перспективи. На панелі адміністратора поруч із параметрами сортування коментарів за версією, новітньою інформацією тощо - невеликий значок прапора, який слід сортувати за токсичністю. Існує також вбудований механізм зворотного зв’язку для того, щоб модератор людини повідомив «Перспективу», що він невірно оцінив коментар та покращив модель з часом.

    Він натиснув демонстраційний інтерфейс для модерування коментарів на сторінці Wikipedia Talk, оцінені різними моделями перспективи, та графік гістограми, який розбиває коментарі, ймовірно, буде нападом на автора сторінки або нападом на іншого коментатора.

    "Ми хочемо створити інструменти для модерації за допомогою машин для позначення речей для перегляду людини, але ми не хочемо, щоб якесь центральне визначення або хтось сказав, що добре і що погано", - сказав Адамс. "Отже, якщо я сортую за токсичністю, ви бачите, що коментарі надходять на перше місце. Але якщо вас більше хвилює, скажімо, напади на ідентичність чи погрози, ніж метрики, як клятва, можливо, ви не використовуєте загальну модель токсичності. Це інгредієнти, які ви можете змішати. Ми пропонуємо їх, а розробники зважують їх ".

    Експеримент RAIL застосовує більш детальний підхід. Студенти в Оксфорді створюють набір даних із десятків тисяч коментарів з канадської газети « Глобус і пошта » із коментарями та сторінок Вікіпедії. Вони просять людських «анотаторів» відповісти на запитання щодо кожного коментаря, пов’язаного з п’ятьма субатрибутами «нездорового змісту»: ворожими або ображаючими (тролі), зневажливими, поблажливими чи покровительськими, саркастичними та несправедливими узагальненнями.

    Ознайомлення з цими більш тонкими атрибутами виявило нові складні проблеми з ненавмисним ухилом до конкретних груп та помилковими позитивами з саркастичними коментарями. Це частина АІ, що зростає болями, годуючи все більше і більше даних, щоб допомогти зрозуміти мається на увазі опосередковані значення, що стоять за людською мовою. Команда все ще вичісує та коментує тисячі коментарів, і остаточний набір планує випустити на початку цього року.

    "Ми хочемо працювати над тим, що громада може набрати набір коментарів, і тоді ми можемо скласти для них відповідні поєднання перспективних моделей", - сказав Адамс.

    Допитлива сценка Reddit

    Reddit - це мікрокосм всього, що є хорошим і жахливим в Інтернеті. Існує спільнота subreddit для кожної теми та ніші, химерний інтерес, про який ви можете придумати. Jigsaw не працює з Reddit на корпоративному рівні, але одне з найбільш інтригуючих місць, у якому тестується модерація AI в перспективі, знаходиться на субредаді під назвою r / changemyview.

    Дивно, але є куточки Інтернету, де все ще відбуваються справжні дебати та дискусії. Змінити мій перегляд або CMV не так, як у більшості інших підредовищ. Ідея полягає в тому, щоб опублікувати думку, яку ви приймаєте, може бути помилковою або відкритою для зміни, а потім слухати та розуміти інші точки зору, щоб побачити, чи можуть вони змінити вашу думку щодо певної проблеми. Теми варіюються від повсякденних тем, таких як належний порядок перегляду фільмів « Зоряні війни» до серйозних дискусій з питань, включаючи расизм, політику, контроль над зброєю та релігію.

    Change My View - це цікавий тест для Perspective, оскільки subreddit має власний детальний набір правил для запуску та модерації розмов, які спонукають до аргументів та бурхливих дебатів. Кал Тернбулл, який іде у / Snorrrlax на Reddit, є засновником і одним із модераторів r / changemyview. Тернбулл сказав PCMag, що API Perspective особливо добре узгоджується з правилом 2-го підрозділу, яке в основному забороняє грубу чи ворожу мову.

    "Це звучить як просте правило, але в ньому є багато нюансів", - сказав Тернбулл, який базується в Шотландії. "Це правило автоматизувати це правило, не розуміючи мови. Reddit надає вам цю функцію під назвою AutoModerator, де ви можете встановити фільтри та ключові слова для позначення. Але є так багато помилкових позитивних результатів, і це може бути досить важко зловити, бо хтось може сказати недобре слово, не ображаючи когось, і вони також можуть когось образити, не використовуючи жодних поганих слів ».

    Jigsaw звернувся до Тернбулла в березні 2018 року. Співпраця розпочалася з Правила 2, але незабаром команда будувала перспективні моделі і для інших правил. Це не повна інтеграція перспективного API з відкритим кодом, а швидше бот Reddit, який дозволяє модераторам прапорців коментарів, набраних вище заданого порогу токсичності.

    Останні шість років Turnbull та інші модники робили все це вручну з черги звітів AutoModerator (ключові слова) та звітів користувачів. Jigsaw використовував багаторічні замітки щодо порушення правил від модераторів, які вони відстежували через розширення браузера, і будував перспективні моделі на основі цих даних, поєднаних з деякими існуючими моделями токсичності Perspective. Протягом 2018 року модники CMV надавали відгуки щодо таких питань, як надмірні помилкові позитиви, і Jigsaw підміняв порогові бали, продовжуючи моделювати більше правил CMV.

    Складні судження в Інтернет-дебатах

    (Перспективний бот інтегрований в інтерфейс модератора Reddit.)

    Перспектива не є реальною для всіх модерацій правил subreddit. Деякі складніші або абстрактніші правила все ще виходять за рамки того, що може зрозуміти цей тип ML.

    Наприклад, правило 4 керує системою балів Delta Delta, тоді як правило B не дозволяє користувачам грати в захисника диявола або використовувати посаду для "милування". Нюансированная поміркованість, як така, вимагає контекстуальних даних і простого людського розуміння, щоб визначити, чи хтось сперечається з справжніх причин, чи просто тролінг.

    В осяжному майбутньому нам ще потрібні люди-модники. Ці складніші сценарії судження - це те, коли модератори CMV починають бачити тріщини в моделюванні AI, і більш розумна автоматизація могла б визначити, чи можна все це масштабувати.

    "Я думаю, що причина цього настільки складна в тому, що це поєднання нашого судження про їх первісний пост та їх взаємодії протягом усієї розмови. Тож, не лише один коментар викликає модель", - сказав Тернбулл. "Якщо аргумент повертається вперед і назад, а в кінці - коментар, який говорить" дякую "або підтвердження, ми відпускаємо це, навіть якщо правило було порушено раніше в потоці. Або легковажний жарт, що в контексті може здатися грубим - це приємна маленька людська річ, і це бот ще не отримує ".

    Наразі Change My View - це єдиний підредагування, що активно використовує перспективні ML-моделі для модерації, хоча Адамс сказав, що команда отримала запити на доступ від кількох інших. Спеціальний набір правил CMV зробив його ідеальним тестовим випадком, але перспективні моделі є податливими; окремі підредовища можуть налаштувати алгоритм оцінювання, щоб відповідати їх правилам спільноти.

    Наступним кроком для Turnbull є зняття CMV з Reddit, оскільки громада переростає її, сказав він. Останні півроку новостворений стартап модераторів працював з Jigsaw на спеціальному сайті з більш глибокою функціональністю, ніж модний інтерфейс Reddit і боти, які вони можуть надати.

    Проект все ще проводиться лише в альфа-тестуванні, але Turnbull розповів про такі функції, як проактивні сповіщення, коли користувач вводить коментар, який може порушити правило, вбудовану звітність, щоб дати модераторам більше контексту та історичні дані для прийняття рішень. Тернбулл підкреслив, що не планують вимикати або мігрувати subreddit, але він схвильований новим експериментом.

  • Усі коментарі підходять для друку

    Залежно від дня тижня веб-сайт The New York Times отримує від 12 000 до понад 18 000 коментарів. До середини 2017 року секції з коментарями газети модерували штатні управлінські працівники спільноти, які читали кожен коментар та вирішували, затвердити чи відхилити його.

    Бассі Етім, який до цього місяця був редактором спільноти Times, провів десять років за столом спільноти і був її редактором з 2014 року. У розпал буднього дня в команді може бути декілька людей, що модерують коментарі до розповідей думок, а інші вирішували новини. Електронна таблиця розділила і відслідковувала різні обов'язки, але команда приблизно з десятка людей постійно перерозподілялася чи пересувалася залежно від головних новин моменту. Вони також годували ласощі від коментарів до журналістів про потенційний кормовий сюжет.

    Врешті-решт з’ясувалося, що це впорається понад 12 людей. Розділи коментарів до історій повинні були закритись, досягнувши максимальної кількості коментарів, яку команда могла б модерувати.

    Група з розвитку аудиторії газети вже експериментувала з машинним навчанням для отримання основних, очевидних схвалень коментарів, але Етим заявив, що це не особливо розумно або налаштовується. Таймс вперше оголосив про своє партнерство з Jigsaw у вересні 2016 року. Відтоді його коментарі розділилися з появи на менш ніж 10 відсотків усіх історій до приблизно 30 відсотків сьогодні та піднімаються.

    З точки зору Jigsaw, інкубатор побачив можливість подавати анонімізовані дані з точки зору мільйонів коментарів на перспективу, модеровані професіоналами, які могли б допомогти вдосконалити процес. В обмін на анонімізовані дані тренінгу з МЛ, Jigsaw та Times спільно працювали над створенням платформи під назвою «Модератор», яка була створена в червні 2017 року.

  • Всередині модератора, інтерфейс коментарів NYT

    (Зображення надано The New York Times )

    Модератор поєднує моделі Perspective з більш ніж 16 мільйонами анонімованих, модерованих коментарів Times, що починаються з 2007 року.

    Те, що команда спільноти насправді бачить в інтерфейсі модератора, - це інформаційна панель з інтерактивною діаграмою гістограми, яка візуалізує розбиття коментарів вище певного порогу. Наприклад, вони можуть перетягувати повзунок вперед і назад, наприклад, щоб автоматично затверджувати всі коментарі, лише підсумкову оцінку від 0 до 20 відсотків, яка базується на поєднанні можливостей коментаря щодо непристойності, токсичності та ймовірності відхилення. Нижче є кнопки швидкого модерації, щоб схвалити або відхилити коментар, відкласти його або позначити коментар, щоб продовжити вдосконалення моделювання перспективи.

    "Для кожного розділу веб-сайту ми аналізували вхідні коментарі та те, як Perspective би позначала їх. Ми використовували як загальнодоступні моделі, так і власні моделі, унікальні для The New York Times", - сказав Етим. "Я б проаналізував коментарі з кожного розділу та спробував би знайти точку відсічення, де нам було б зручно сказати:" Добре, усе вище цієї ймовірності, використовуючи ці специфічні теги токсичності, як, наприклад, непристойність, ми збираємось схвалити ".

    Машинне навчання схвалює порівняно невеликий відсоток коментарів (близько 25 відсотків або близько того, сказав Етим), оскільки " Таймс" працює над тим, щоб розгортати коментарі до більшої кількості історій і в кінцевому підсумку навіть налаштувати, як моделі фільтрують і затверджують коментарі для різних розділів сайту. Моделі схвалюють лише коментарі; відмова все ще повністю займається людьми модераторами.

    Ці ручні відсічки коментарів вже відсутні. Коментарі, як правило, закриваються над історією або через 24 години після публікації в Інтернеті, або на наступний день після публікації у друку, сказав Етим.

    "Ми не заміняємо вас машинами"

    Наступний етап - це втілення додаткових функцій у систему, щоб допомогти модераторам розставити пріоритети, які коментарі слід переглянути. Все частіше автоматизація того, що завжди було ручним процесом, дало змогу модераторам проактивно провести час, працюючи з репортерами, відповідати на коментарі. Він створив цикл зворотного зв’язку, де коментарі призводять до подальшої звітності та додаткових історій - можуть економити та перерозподіляти ресурси для створення більшої кількості журналістики.

    "Модератор та" Перспектива "зробили" Таймс " набагато більш чутливим до проблем читачів, тому що у нас є ресурси для цього, будь то написання самих оповідань чи робота з репортерами, щоб з'ясувати історії", - сказав Етим. "Класна річ у цьому проекті полягає в тому, що ми нікого не звільняли. Ми не замінюємо вас машинами. Ми просто використовуємо людей, яких маємо більш ефективно, і приймати дійсно жорсткі рішення".

    Документ відкритий для роботи з іншими виданнями, щоб допомогти решті галузей впровадити цей вид технології. Це може допомогти місцевим інформаційним бюлетеням з обмеженими ресурсами підтримувати розділи коментарів без великого спеціалізованого персоналу та використовувати коментарі, як це робить Times, знайти потенційні потенційні результати та сприяти масовій журналістиці.

    Етим уподібнював поміркованість AI, що дав фермеру механічний плуг проти лопати. Ви можете зробити роботу набагато краще плугом.

    "Якщо Перспектива може розвиватися правильним чином, вона може, сподіваємось, створити принаймні набір вказівок, які можна повторити для невеликих торгових точок", - сказав він. "Це довга гра, але ми вже створили багато фундаменту, щоб бути частиною цього читацького досвіду. Тоді, можливо, ці місцеві газети можуть знову зауважити і встановити невеликий пляжний голова проти основних соціальних гравців".

    Кричить у безодню

    У цей момент більшість із нас бачили людей, яких атакували чи переслідували в соціальних медіа за те, що вони висловлювали свою думку. Ніхто не хоче, щоб це сталося з ними, крім тролів, які процвітають у такій речі. І ми дізналися, що кричати на незнайомця, який ніколи не вислухає раціональний аргумент, не є цінним використанням нашого часу.

    Перспектива намагається використати цю динаміку, але Дж. Дж. Адамс сказав, що більш широкою метою є публікація даних, досліджень та нових моделей UX з відкритим кодом для створення нових структур розмови - непросте завдання. Зробити Інтернет здоровим місцем, яке коштує часу людей, означає масштабування цих систем за межами розділів коментування новин та підрядів. Зрештою, інструменти AI повинні вміти працювати з соціальними програмами та мережами, які домінують у нашій повсякденній цифровій взаємодії.

    Якщо відкинути те, що Facebook, Twitter та інші соціальні гіганти роблять всередині країни, найбільш прямим способом досягти цього є перенесення технології від модераторів до самих користувачів. Адамс вказав на проект Коралів, щоб уявити, як це може виглядати.

    Кораловий проект спочатку був заснований як співпраця між Mozilla Foundation, The New York Times та Washington Post. Корал створює інструменти з відкритим кодом, такі як його платформа Talk, щоб заохотити обговорення в Інтернеті та дати сайтам новин альтернативу відключенню розділів коментарів. Наразі Talk підтримує платформи для майже 50 інтернет-видавців, включаючи пошту, журнал New York, The Wall Street Journal та The Intercept.

    На початку цього місяця Vox Media придбала проект Coral від фонду Mozilla; вона планує «глибоко інтегрувати» його у Хор, його платформу управління вмістом та розповіді.

    "Перспектива" має плагін для Coral Project, який використовує ті ж основні технології - базування токсичності та порогових показників на основі ML -, щоб дати користувачам ініціативні пропозиції, як вони набирають, сказав Адамс. Тож, коли користувач пише коментар, що містить фрази, позначені як зловживання чи знущання, користувач може спливати сповіщення про те, що перед тим, як опублікувати це, обов'язково пам’ятайте наші правила спільноти »або« Мова в цьому коментарі може порушити наші Правила спільноти. Незабаром наша модераційна команда перегляне її ".

    "Цей маленький поштовх може допомогти людям просто замислитись, але він нікого не блокує", - сказав Адамс. "Це не зупиняє дискусію".

    Це механізм, завдяки якому відеоігри в чаті та потокові платформи інтегруються для стримування зловживань та цькування. Користувачі Twitter можуть також виграти від такої системи.

    Це говорить про ідею, яку виголосив науковий співробітник MIT Ендрю Ліппман у майбутньому питанні PCMag: Він говорив про вбудовані механізми, які дозволять людям зупинятися і думати, перш ніж вони поділяться чимось в Інтернеті, щоб допомогти запобігти поширенню дезінформації. Ця концепція стосується і онлайн-дискусій. Ми створили системи зв'язку без тертя, здатні вмить посилити досяжність заяви, але іноді невелике тертя може стати хорошою справою, сказав Ліппман.

    Перспектива не полягає у використанні AI в якості покривного рішення. Це спосіб формувати ML-моделі в інструменти для людей, щоб допомогти їм вилікувати власний досвід. Але один контрапункт полягає в тому, що якщо ви ще більше полегшите людям налаштовувати онлайн-шум, який їм не подобається, Інтернет стане ще більш ехо-камерою, ніж це вже є.

    На запитання, чи можуть такі інструменти, як Перспектива, в кінцевому підсумку посилити це, Адамс сказав, що він вважає, що інтернет-камери єхо є, оскільки немає механізмів для проведення дискусії, де люди можуть по суті не погодитися.

    "Шлях найменшого опору -" Ці люди б'ються. Давайте просто дамо їм згоду з собою у своїх куточках. Нехай люди самі силовуються ", - сказав він. "Ви дозволяєте людям кричати всіх інших із залу, або ви закриваєте обговорення. Ми хочемо, щоб" Перспектива "створила третій варіант".

    Адамс виклав зразок сценарію. Якщо ви запитаєте кімнату з 1000 чоловік: "Скільки з вас сьогодні прочитали щось, про що ви дійсно піклувались?" більшість користувачів Інтернету вказують на статтю, твіт, публікацію чи щось, що вони читають в Інтернеті. Але якщо ви запитаєте їх: "Хто з вас вважав, що вартий вашого часу, щоб прокоментувати це чи обговорити?" всі руки в кімнаті опустяться.

    "Для багатьох з нас це просто не варто докладати зусиль. Структура дискусії, яку ми зараз маємо, означає, що це відповідальність. Якщо у вас є поточна розумна думка або щось, що ви хочете поділитися, для більшості людей вони не" Я не хочу брати участь ", - сказав Адамс. "Це означає, що з тих 1000 людей, які могли б бути в кімнаті, ви лише кілька присутніх в дискусії; скажімо, 10 людей. Я глибоко вірю, що ми можемо побудувати структуру, яка дозволяє іншим 990 повернутися в дискусію і робить це таким чином, що вони вважають вартим свого часу ".

Як лобзик google намагається детоксикувати Інтернет