Будинки Особливості 10 Збійний алгоритм виходить з ладу

10 Збійний алгоритм виходить з ладу

Зміст:

Відео: Время и Стекло Так выпала Карта HD VKlipe Net (Листопад 2024)

Відео: Время и Стекло Так выпала Карта HD VKlipe Net (Листопад 2024)
Anonim

Технологія не тільки для вундеркіндів, це для всіх, і це дуже багато людей. Маючи лише кілька компаній, які контролюють більшість апаратних та програмних засобів - від Apple і Amazon до Facebook, Microsoft та Google - вони можуть зробити стільки, щоб контролювати ваш гаманець і очні яблука. Що робити бідній гігантській корпорації? Для прийняття деяких важливих рішень покладайтеся на алгоритми.

Оксфорд Живі словники визначають алгоритм як "процес або набір правил, яких слід дотримуватися при розрахунках або інших операціях з вирішення проблем, особливо за допомогою комп'ютера". Прекрасним прикладом є новина Facebook. Ніхто не знає, як це працює, якщо деякі ваші дописи відображаються в новинних стрічках людей чи ні, але Facebook це робить. Або як щодо Amazon, що показує вам споріднені книги? Пов’язані пошукові запити в Google? Все це - чітко захищені секрети, які роблять багато роботи для компанії і можуть мати великий вплив на ваше життя.

Але алгоритми не є ідеальними. Вони провалюються, а деякі невдало виходять з ладу. Додайте відблиски соціальних медіа, і невеликий глюк може швидко перетворитися в кошмар PR. Це рідко є шкідливим; Це, як правило, те, що New York Times називає «Моменти Франкенштейна», де істота, яку створив хтось, перетворюється на монстра. Але це трапляється, і ми зібрали кілька найяскравіших останніх прикладів нижче. Повідомте нам своїх улюблених у коментарях нижче.

    1 Сумнівна реклама в Instagram

    Як повідомляв The Guardian, Facebook любить розміщувати рекламу для свого сервісу Instagram із публікаціями власних користувачів. Але алгоритм вибрав неправильну "фотографію", щоб надіслати друзям Олівію Солон, сама репортер "Гардіану", вибравши скріншот, який вона зробила із загрозливого електронного листа.

    2 Цільова расистська реклама

    Минулого тижня ProPublica повідомляв, що Facebook дозволив рекламодавцям націлювати такі образливі категорії людей, як "ненависники євреїв". Сайт заплатив 30 доларів за рекламу (вище), націлену на аудиторію, яка позитивно реагуватиме на такі речі, як "чому євреї руйнують світ" та "Гітлер не зробив нічого поганого". Це було затверджено протягом 15 хвилин.

    Шифер виявив подібні образливі категорії, і це стало ще одним у довгому рядку пунктів, Facebook повинен був не лише вибачитися за нього, але й пообіцяти виправити з деяким людським наглядом. Ви знаєте, як, коли він розмістив передвиборчі оголошення на суму $ 100 000 для Росії.

    У своєму дописі у Facebook керівник COO Шерил Сандберг заявила, що "огидна і розчарована цими словами" і оголосила про зміни в своїх інструментах реклами.

    BuzzFeed перевірив, як Google поводиться з подібними речами, і виявив, що було легко також встановити цільову рекламу, яку бачать расисти та фанатики. Daily Beast перевірив це у Twitter і виявив мільйони оголошень, використовуючи такі терміни, як "нацистський", "зворотний" та N слово.

    3 Годи в огляді Facebook у Facebook

    Якщо ви перебуваєте у Facebook, ви, без сумніву, бачили відео, створене алгоритмом, на кінець року, із яскравими моментами за останні 12 місяців. Або для деяких, слабких ліхтарів. У 2014 році один батько побачив фотографію своєї покійної дочки, а інший побачив знімки свого будинку у вогні. Інші приклади включають людей, які бачать своїх пізніх домашніх улюбленців, урни з попелом батьків та померлих друзів. До 2015 року Facebook пообіцяв відфільтрувати сумні спогади.

  • 4 Аварія автопілота Tesla

    Більшість алгоритмічних снафів далеко не фатальні, але світ автомобілів, що керують самостійно, принесе абсолютно новий рівень небезпеки. Це вже хоч раз траплялося. Власник Tesla на шосе Флориди застосував напівавтономний режим (Автопілот) і врізався у трактор-причіп, який його відрізав. Tesla швидко випустив оновлення, але чи справді це був помилка режиму автопілота? Національне управління безпеки дорожнього руху стверджує, що це може бути не так, оскільки система вимагає від водія бути в курсі проблем, як ви бачите на відео вище. Тепер Tesla заважає Автопілоту навіть займатися, якщо водій спочатку не реагує на візуальні підказки.

  • 5 Скажіть про расистський AI Microsoft

    Пару років тому чат-боти повинні були зайняти світ штурмом, замінивши представників служби обслуговування клієнтів і зробивши інтернет-світ балакучим місцем для отримання інформації. Майкрософт відповів у березні 2016 року, висунувши AI на ім’я Тей, що люди, зокрема, віком від 18 до 24 років, можуть спілкуватись у Twitter. Ті, в свою чергу, зробили б публічні твіти для широких мас. Але менше ніж за 24 години, навчившись з бездушних мас, Тей став повноцінним расистом. Microsoft моментально потягнула Тея вниз; вона повернулася як новий ШІ на ім’я Зо в грудні 2016 року, "встановивши чіткі стрибки та противаги, щоб захистити її від експлуатації".

    6 привітань до вашої (неіснуючої) дитини!

    Повне розкриття: Коли я пишу це, моя дружина насправді вагітна. Ми обидва отримали цей електронний лист від Amazon, в якому сказано, що хтось придбав щось для нас у нашому реєстрі немовлят. Ми ще не оприлюднили, але це було не так шокуюче. Тим часом, кілька мільйонів інших клієнтів Amazon також отримали ту саму записку, в тому числі деякі без реєстру … або немовля в дорозі. Це могло бути частиною фішинг-схеми, але це не було. Амазонка виявила помилку і надіслала електронний лист із подальшими вибаченнями. На той час багато хто скаржився, що це недоречно чи нечутливо. Це був менш алгоритм, ніж глючний сервер електронної пошти, але він показує вам, що це завжди легко образити.

    7 Amazon "Рекомендує" матеріали про бомби

    Усі стрибали на цьому після того, як про це повідомили британські Новини каналу 4, від Fox News до The New York Times . Нібито було встановлено, що функція "часто купуваних разом" Amazon покаже людям, що їм потрібно для створення бомби, якщо вони розпочнуть з одного з інгредієнтів, який сайт не назвав (це калійна селітра).

    Алгоритм Amazon насправді полягав у тому, щоб показати покупцям інгредієнти для виготовлення чорного порошку в невеликих кількостях, що є абсолютно законним для Сполученого Королівства і використовується для будь-яких речей, як феєрверків, як це було швидко зазначено в неймовірно продуманій справі- публікація в блозі на Idle Words. Натомість усі звіти виходять про те, як Амазонка розбирається в цьому, адже саме вони мають сказати, що роблять у світі, який боїться тероризму та логіки.

    8 Карт Google отримує расистські дії

    У 2015 році Google довелося вибачитися, коли Google Maps шукає "n ***** king" та "n *** a house", ведуть до Білого дому, який тоді ще займав Барак Обама. Це було результатом "Googlebomb", де термін, що використовується знову і знову, отримує пошукова система і позначається як "популярний", тому результати переходять у верхню частину пошуку. Саме так слово «Санторум» отримало своє нове визначення.

    9 Google Мітки Люди як горили

    Google Photos - це дивовижне додаток / послуга, що зберігає всі ваші фотографії та багато іншого. Однією з таких речей є автоматичне позначення людей та речей на фотографіях. Він використовує розпізнавання обличчя для людей, щоб звузити їх аж до потрібної людини. У мене навіть є папка всіх моїх собак, і я нікого з них не позначив. Окрім того, як це працює, це було жахливим, коли в 2015 році Google довелося вибачитися перед програмістом з комп’ютера Джекі Алсіне, коли він і друг - обидва вони чорні - ідентифікувалися службою як горили. "Ми здивовані і щиро шкодуємо, що це сталося", - сказали Google у PCMag.

    10 роботів захищає хіти дитини, вбиває себе

    Knightscope виготовляє автономних роботів із безпеки під назвою K5 для патрулювання шкіл, торгових центрів та мікрорайонів. 5-футові високі шини Dalek-esque на колесах, які, на їхню думку, все ще перебувають у бета-тестуванні, - як правило, повідомляють не про зірване злочинність, а за глюки.

    Наприклад, у липні 2016 року K5 ​​в торговому центрі Стенфорда в Пало-Альто перебіг підніжжя 16-місячного віку, і Knightscope повинен був офіційно вибачитися. Це ж місце розташування - можливо той самий дроїд - мав розмову на стоянці з п'яним, але, принаймні, це не вина К5. Присяжні досі перебувають на підрозділі K5 у Джорджтаунській набережній, офісному / торговому комплексі у Вашингтоні…, який нібито зіштовхнувся з деяких сходів у фонтан води лише через тиждень роботи. Це не дуже добре для армії Skynet.

10 Збійний алгоритм виходить з ладу