Будинки Думки Рік етичного врахування галузі промисловості

Рік етичного врахування галузі промисловості

Зміст:

Відео: Маша и Медведь (Masha and The Bear) - Подкидыш (23 Серия) (Вересень 2024)

Відео: Маша и Медведь (Masha and The Bear) - Подкидыш (23 Серия) (Вересень 2024)
Anonim

З тих пір, як глибокі нейронні мережі виграли найважливіший у світі конкурс на розпізнавання образів, всі були в захваті від того, що може розкрити штучний інтелект. Але в гонці з розробки нових методик та застосувань AI можливі негативні наслідки заднім сидінням.

Зараз ми спостерігаємо перехід до більшої обізнаності про етику ІС. У 2018 році розробники AI стали більше усвідомлювати можливі наслідки своїх творінь. Багато інженерів, дослідників та розробників дали зрозуміти, що вони не будуватимуть технології, які шкодять чи завдають шкоди життю невинних людей, і вони тримали свої компанії.

Розпізнавання обличчя у правоохоронній діяльності

У минулому створення програм для розпізнавання облич було важким, ресурсоємним та схильним до помилок. Але з прогресом у комп’ютерному зорі - підмножині AI, що дозволяє комп’ютерам розпізнавати вміст зображень та відео - створювати програми для розпізнавання обличчя стало набагато простішим та доступним для всіх.

Великі технологічні компанії, такі як Microsoft, Amazon та IBM, почали надавати хмарні послуги, що дозволило будь-якому розробнику інтегрувати технології розпізнавання обличчя у своє програмне забезпечення. Це розблокувало багато нових випадків використання та застосувань у різних областях, таких як захист особи та автентифікація, безпека розумного будинку та роздріб. Але активісти за захист конфіденційності висловили стурбованість можливістю зловживань.

У травні 2018 року Американський союз громадянських свобод виявив, що Amazon продає правоохоронні органи та урядові установи Rekogservation - технологію відеоаналітики в реальному часі. За даними ACLU, поліція щонайменше у трьох штатах використовувала Rekogication для розпізнавання обличчя на відеофінах спостереження.

"Завдяки Rekognance, уряд тепер може створити систему для автоматизації ідентифікації та відстеження будь-кого. Якби, наприклад, камери поліцейських були обладнані для розпізнавання обличчя, пристрої, призначені для прозорості та підзвітності офіцерів, далі б перетворилися на машини спостереження, спрямовані на громадськість ", - попередив АСЛУ. "Автоматизуючи масове спостереження, системи розпізнавання обличчя, такі як Рекомістрація, загрожують цій свободі, створюючи особливу загрозу для громад, які вже несправедливо орієнтовані в нинішньому політичному кліматі. Після того, як такі потужні системи спостереження будуть побудовані та розгорнуті, шкоду буде надзвичайно важко скасувати. . "

Занепокоєння ACLU відлунило співробітників Amazon, які в червні написали листа Джефу Безосу, генеральному директору компанії, і вимагають припинити продаж Rekogservation правоохоронним органам. "Наша компанія не повинна займатися спостереженням; ми не повинні займатися поліцейською справою; ми не повинні підтримувати тих, хто контролює та пригнічує маргіналізоване населення", - йдеться у листі.

У жовтні анонімний співробітник Amazon повідомив, що щонайменше 450 співробітників підписали ще один лист, в якому закликали Безос та інших керівників припинити продаж Rekognance в поліцію. "Ми не можемо отримувати прибуток від сукупності потужних клієнтів за рахунок наших громад; ми не можемо відвернути погляд від людської вартості нашого бізнесу. Ми не будемо мовчки будувати технології для пригнічення та вбивства людей, як у нашій країні, так і в інших, "сказано.

Випадок військового проекту AI Google

Поки Amazon мав справу з цим внутрішнім зворотним зв'язком, Google переживав подібну боротьбу за контракт на розробку ШІ для американських військових, що отримав назву Project Maven.

Як повідомляється, Google допомагає Міністерству оборони розробляти технологію комп'ютерного зору, яка б обробляла відеозаписи безпілотників. Кількість відеозаписів, які щодня записували безпілотники, було занадто великим, щоб людські аналітики переглянули, і Пентагон хотів автоматизувати частину процесу.

Визнаючи суперечливий характер завдання, прес-секретар Google заявив, що він надає лише API для TensorFlow, його платформи машинного навчання, для виявлення об'єктів у відеоканалах. Google також підкреслив, що розробляє політику та гарантії для вирішення етичних аспектів своєї технології.

Але Project Maven не сидів із співробітниками Google - 3 тисячі з яких, у тому числі десятки інженерів, незабаром підписали відкритий лист генеральному директору Сундар Пікі, який закликав припинити програму.

"Ми вважаємо, що Google не повинен вести справи у війні", - йдеться у листі. Він попросив компанію "розробити, оприлюднити та застосувати чітку політику, вказуючи, що ні Google, ні її підрядники ніколи не будуватимуть технологію ведення бойових дій".

Співробітники Google також попередили, що їх роботодавець ставить під загрозу її репутацію та здатність змагатися за таланти в майбутньому. "Ми не можемо передавати моральну відповідальність наших технологій третім сторонам", - наголосили Googlers.

Невдовзі петиція, підписана 90 науковцями та дослідниками, закликала топ-менеджерів Google припинити роботу над військовими технологіями. Підписанти попередили, що робота Google створить підґрунтя для "автоматизованого розпізнавання цілей та автономних озброєних систем". Вони також попередили, що в міру розвитку технології вони стоятимуть "на відстані кроку від дозволу автономних безпілотників вбивати автоматично, без людського нагляду або осмисленого людського контролю".

Коли напруга зростала, кілька працівників Google подали у відставку в знак протесту.

Як реагували технічні лідери

Під тиском Google заявив у червні, що не поновлює контракт з Міністерством оборони на Project Maven після його закінчення у 2019 році.

У своєму дописі в блозі генеральний директор Сундар Піхай (на фотографії нижче) заявив про набір етичних принципів, які керуватимуть розвитком та продажем компанії AI-технології. За словами Пічая, компанія відтепер буде розглядати проекти, які корисні для суспільства в цілому, і уникати розвитку ШІ, що посилить існуючі несправедливі упередження або підірве суспільну безпеку.

Пічай також прямо заявив, що його компанія не буде працювати над технологіями, які порушують норми прав людини.

Безос Амазонки був менш ошелешений від обурення над Рекогізацією. "Ми продовжуватимемо підтримувати DoD, і я думаю, що ми повинні", - сказав Безос на технічній конференції в Сан-Франциско в жовтні. "Одне з завдань вищого керівництва - прийняти правильне рішення, навіть коли це непопулярно".

Безос також підкреслив необхідність технічної спільноти для підтримки військових. "Якщо великі компанії з технологією збираються повернути спину до DoD, ця країна буде в біді", - сказав він.

Президент Microsoft Бред Сміт, компанія якого зіткнулася з критикою за свою роботу з ICE, опублікувала в липні публікацію в блозі, в якій закликала до зваженого підходу у продажу чутливої ​​технології урядовим установам. Поки Сміт не виключав продажу послуг з розпізнавання обличчя правоохоронним органам та військовим, він наголосив на необхідності кращого регулювання та прозорості в секторі технологій.

  • MIT витратить 1 мільярд доларів на програму вивчення AI етики MIT витратить 1 мільярд доларів на програму для вивчення AI етики
  • Чи справді AI говорить нашою мовою? Чи справді AI говорить нашою мовою?
  • Порушення в Китаї невпинної фабрики AI в Китаї Поломка в Китаї безперебійного заводу AI

"Ми обрали представників у Конгресі інструменти, необхідні для оцінки цієї нової технології з усіма її наслідками. Ми виграємо від перевірок і противаг Конституції, яка бачила нас від доби свічок до епохи штучного інтелекту". так багато разів у минулому нам потрібно забезпечити, щоб нові винаходи слугували нашим демократичним свободам відповідно до верховенства права ", - написав Сміт.

У 2018 році далекі загрози роботів-вбивць та масове безробіття поступилися місцем занепокоєнню щодо більш безпосереднього етичного та соціального впливу ШІ. Багато в чому ці розробки вказують на те, що галузь дозріває, оскільки алгоритми AI стають більш помітними у вирішальних завданнях. Але як алгоритми та автоматизація стають все більш вкоріненими у нашому щоденному житті, то більше дискусій виникне.

Рік етичного врахування галузі промисловості