Nvidia представила платформу Rubin — нову систему для тренування та виконання моделей штучного інтелекту, яка зменшує потребу в обчислювальних ресурсах під час навчання та роботи моделей. Платформа інтегрує шість чіпів у єдину систему, яку компанія називає «щільно пов’язаним AI-суперкомп’ютером».
Повідомляє AstroNotus посилаючись на Calcalistech.
У центрі платформи розташований новий AI-процесор Rubin, який відповідає за обчислення штучного інтелекту. Підтримку йому надає центральний процесор Vera, блок обробки даних (DPU) та три комунікаційні чіпи, що забезпечують високу швидкість передачі даних між компонентами системи.
Ключові елементи платформи були розроблені в дослідницькому центрі Nvidia в Ізраїлі або за активної участі ізраїльських інженерів. Компанія наголошує на важливості ізраїльської команди для створення мережевих та обчислювальних компонентів Rubin.
За словами Nvidia, нова архітектура дозволяє значно скоротити час навчання моделей AI і зменшити витрати енергії. Rubin здатен ефективно працювати як на великих дата-центрах, так і у середовищах із обмеженими ресурсами, пропонуючи гнучкість для різних сценаріїв застосування.
Представники Nvidia підкреслюють, що Rubin стане частиною стратегії компанії зі створення власних AI-суперкомп’ютерів, які поєднують потужні обчислювальні можливості з високошвидкісною передачею даних, оптимізуючи роботу сучасних моделей машинного навчання та генеративного AI.
Також дізнайтесь про те, чому Windows 11 поступилася всім попередникам за швидкістю: що показують тести.