MLPerf оприлюднив перші результати від показника AI Inferencing

MLPerf оприлюднив перші результати від показника AI Inferencing

AI є скрізь у ці дні. Продавці SoC перепадають над собою, щоб використати ці можливості у своїх продуктах. Від Intel та Nvidia на вершині ринку до Qualcomm, Google та Tesla, всі говорять про створення нових мікросхем для обробки різних навантажень, пов'язаних із штучним інтелектом та машинним навчанням.

Хоча ці компанії демонстрували власну продукцію, набираючи вражаючі результати в різних тестах, є потреба в інструментах, якими незалежні треті сторони можуть використовувати для порівняння та оцінки фішок. MLPerf - це спільна робота між десятками розробників, науковців та зацікавлених осіб з ряду компаній та організацій, що займаються різними аспектами AI / DL. Мета проекту - створити тестову основу, яка може бути використана для оцінки величезного спектру потенційних продуктів та випадків використання.

У цьому випадку ми обговорюємо питання про переродження, а не про навчання. Інтерференція - це застосування моделі до завдання. Тренінг стосується створення моделі в першу чергу. Моделі, як правило, навчаються на комп'ютерах високого класу, серверах або еквіваленті кластера HPC, в той час як посилення навантаження може працювати на будь-якому мобільному телефоні до висококласного сервера.

MLPerf оприлюднив перші результати від показника AI Inferencing

За словами Девіда Кантера, який співголовує над розробкою орієнтиру висновку, команда дизайнерів MLPerf вирішила чотири ключові сценарії, які вони оцінюють. Крайові пристрої, як і мобільні телефони, фокусуються на читанні даних з одного потоку за раз. Ці пристрої підкреслюють низьку затримку і порівняно з цими критеріями. Наступний клас продуктів читає відразу декілька потоків даних, як Tesla з вісьмома окремими камерами. У цих випадках важлива здатність системи обробляти всі поточні потоки даних у межах прийнятних затримок.

На вихідному етапі виникає питання, чи може сервер підтримувати адекватну кількість запитів за секунду в межах визначеного конверта відповідей, тоді як тест "Offline" призначений для таких завдань, як сортування фотографій, які не мають часового виміру прикріплені до них. Ці чотири завдання концептуально закріплюють сфери, де очікується використання зараження.

MLPerf дозволить користувачам подавати результати порівняння як у закритому, так і у відкритому підрозділі. Закритий підрозділ матиме більш суворі правила щодо своїх заявок та тестів, тоді як відкритий поділ дозволить зробити більше експериментів та налаштування. Однією з невеликих особливостей, які мені особливо подобаються, є те, як класифікуються результати MLPerf. Існує три категорії: Доступний, Попередній перегляд та RDO (Дослідження, Розробка, Інше). Доступні засоби, ви можете придбати обладнання сьогодні, Preview означає, що він буде доступний протягом 180 днів або до наступного випуску MLPerf, а RDO призначений для прототипів і систем, не призначених для загального виробництва. Цей тип розрізнення дозволить користувачам зрозуміти, з якими апаратними платформами слід порівнювати.

MLPerf оприлюднив перші результати від показника AI Inferencing
MLPerf оприлюднив перші результати від показника AI Inferencing

Діапазон продуктивності різних рішень у закритому підрозділі продуктивності. Те, що ці результати до 10 000x різні, було досить складним завданням. Кантер сказав нам, що це зробило орієнтовний показник особливо складним - MLPerf потрібно було розробити тести, які могли б мати масштаб більше чотирьох порядків. Мій колега Девід Кардинал згадував про деякі конкретні порівняння Nvidia, але я хотів висвітлити більш широкий випуск набору інформації.

Щоб дати вам уявлення, як це важко: Коли Maxon випустив нову версію Cinebench, вони зробили це частково, тому що для виведення старої сцени Cinebench потрібно було так мало часу, що це вже не було значущим тестом на процесор. Новий тест CB20 потребує більше часу, ніж для CB15. Але це дуже дратує запуск одноядерної версії тесту, який зараз займає значно більше часу. Ця більша затримка дратує при запуску тесту з, скажімо, 1-16 ядер. Спроба створити орієнтир, який може завершитись за прийнятну кількість часу на чіпах із значно більшим пробілом, є складною перспективою.

Я дуже радий бачити такі продукти, як MLPerf, що розробляються, і я з нетерпінням чекаю співпраці з проектом, коли він буде готовий до публічного релізу. MLPerf має велику команду розвитку з усього світу та поєднання академічної та комерційної підтримки. Це не зусилля, контрольовані будь-якою окремою компанією, і воно не було розроблене для того, щоб надавати перевагу продукції жодної компанії. Оскільки апаратні фільтри з підтримкою AI та ML виходять на ринок, нам знадобляться тести, які можуть оцінити його можливості. Поки MLPerf виглядає як один з найкращих.

Читати далі

Результати порівняльних показників показують, що Apple M1 перемагає кожен MacBook Pro на базі Intel
Результати порівняльних показників показують, що Apple M1 перемагає кожен MacBook Pro на базі Intel

Новий SoC від M1 від Apple може перемогти кожну окрему систему Intel, яку він продає, принаймні за один ранній результат. Ми копаємось у цифрах та ймовірній конкурентній ситуації.

Core i7-11700K перемагає Ryzen 7 5800X у результатах Leaked Geekbench 5
Core i7-11700K перемагає Ryzen 7 5800X у результатах Leaked Geekbench 5

Нові результати тесту для Rocket Lake показують, що нове сімейство процесорів перевершує новітні процесори Zen 3 від AMD порівняно ядро-для-ядра.

«Мілан» AMD приносить Zen 3 до Epyc із переважно позитивними результатами
«Мілан» AMD приносить Zen 3 до Epyc із переважно позитивними результатами

Новий процесор AMD у Мілані вийшов для Epyc третього покоління. Це здебільшого позитивна новина для виробника, оскільки помірне підвищення продуктивності порівняно з Zen 2.

AMD повідомляє Відмінний Q2 2021 результати, дохід до 99 відсотків
AMD повідомляє Відмінний Q2 2021 результати, дохід до 99 відсотків

Інший квартал, ще один відмінний набір результатів для і. Фірма розмістила 99 відсотків доходів, збільшуючи рік-на рік.