Відео: Щенячий патруль НОВЫЕ СЕРИИ игра мультик для детей про щенков Paw Patrol Детский летсплей #ММ (Листопад 2024)
Одне з найбільш цікавих - і несподіваних - оголошень, зроблених Google на конференції розробників вводу-виводу на минулому тижні, - це те, що він розробив та впровадив власні чіпи для машинного навчання. Під час свого виступу генеральний директор Google Сундар Піхай представив те, що він назвав процесорами Tensor Processing Units (TPU), заявивши, що компанія використовувала їх у своїх машинах AlphaGo, які перемогли чемпіона Go Go Лі Седола.
"TPU - це на порядок вища продуктивність на ватт, ніж комерційні FPGA та GPU", - сказав Піхай. Хоча він не розповів багато деталей, видатний інженер апаратури Google Норм Джоппі пояснив у своєму записі в блозі, що TPU є власною ASIC (додатковою інтегральною схемою). Іншими словами, це мікросхема, спеціально розроблена для роботи в машинному навчанні, і спеціально розроблена під TensorFlow, систему машинного навчання Google.
Зображення
На посаді Джоппі заявив, що він "більш толерантний" до зниженої обчислювальної точності, а значить, вимагає менше транзисторів на одну операцію. Це дозволяє Google отримувати більше операцій в секунду, дозволяючи користувачам швидше отримувати результати. За його словами, плата з TPU вписується в гніздо жорсткого диска в стійках центру обробки даних і показала зображення серверних стійок, заповнених TPU, які, за його словами, використовуються в машинах AlphaGo компанії.
Крім того, Джоупі заявив, що ТПУ вже працюють над низкою додатків у Google, включаючи RankBrain, які використовуються для поліпшення релевантності результатів пошуку та Street View, для підвищення точності та якості карт та навігації.
На прес-конференції віце-прем'єр-міністр Google з технічної інфраструктури Urs Hölzle підтвердив, що TPU працює з використанням 8-бітової цілочисельної математики замість більш точної математики з плаваючою комою, для якої розроблені більшість сучасних процесорів і графічних процесорів. Більшість алгоритмів машинного навчання можуть отримати найкращі дані з меншою роздільною здатністю, а це означає, що чіп може обробляти більше операцій у певній області та ефективно вирішувати складніші моделі. Це не нова ідея; модуль Nvidia Drive PX 2, оголошений на початку цього року на CES, здатний здійснити 8 терафлопсів при 32-бітовій точності з плаваючою комою, але досягає 24 глибоко навчальних "тераопів" (термін компанії для 8 -бітова математика)
Хоча Хьолзле відмовився вдаватися до конкретики, у звітах йдеться, що він підтвердив, що Google сьогодні використовує як TPU, так і GPU. Він сказав, що це триватиме деякий час, але припустив, що Google розглядає графічні процесори як надто загальні, вважаючи за краще чіп, більш оптимізований для машинного навчання. За його словами, компанія пізніше випустить документ, що описує переваги мікросхеми, але чітко пояснив, що вони призначені лише для внутрішнього використання, а не для продажу іншим компаніям. Ще однією програмою, яку він описав, було використання мікросхем для обробки частини обчислень, що стоять за механізмом розпізнавання голосу, який використовується на телефоні Android.
Вибір використання ASIC - це цікава ставка від Google. Найбільшим досягненням машинного навчання за останні роки - технологією, що стоїть за великим поштовхом для глибоких нейронних мереж - стало прийняття графічних процесорів, зокрема лінії Nvidia Tesla, для підготовки цих моделей. Зовсім недавно Intel придбала Altera, провідного виробника FPGA (програмованих на місцях масивів воріт), які десь посередині; вони не такі загальні, як GPU, або як спеціально розроблені для TensorFlow, як чіп Google, але можуть бути запрограмовані на виконання різноманітних завдань. Майкрософт експериментує з FPGA Altera для глибокого вивчення. IBM розробляє свій нейросинаптичний чіп TrueNorth, розроблений спеціально для нейронних мереж, який останнім часом почав використовуватися в різних програмах. Cadence (Tensilica), Freescale і Synopsys підштовхують свої DSP (цифрові сигнальні процесори) для запуску цих моделей; Нещодавно Mobileye та NXP анонсували мікросхеми, розроблені спеціально для ADAS та автомобілів, що керують самостійно; та кілька менших компаній, включаючи Movidius та Nervana, оголосили про плани для чіпів, розроблених спеціально для AI.
Занадто рано знати, який підхід буде найкращим у довгостроковій перспективі, але наявність дуже різних варіантів означає, що ми, швидше за все, побачимо цікаву конкуренцію в найближчі кілька років.