Компанія Nvidia, яка вже домінує на ринку чипів для навчання моделей штучного інтелекту, тепер зосереджується на доведенні своєї переваги у сфері обслуговування (використання) цих моделей мільйонами кінцевих користувачів. 

📈 Десятикратне прискорення

Nvidia оголосила, що її найновіший AI-сервер продемонстрував значне покращення продуктивності:

  • Технологія: Сервер об’єднує 72 провідних чипи в одному корпусі зі швидкісними з’єднаннями між ними.

  • Результат: Сервер у 10 разів покращив продуктивність моделі Kimi K2 Thinking від китайської компанії Moonshot AI, а також показав аналогічний приріст ефективності з моделями DeepSeek.

Nvidia пояснює цей стрибок продуктивності саме великою кількістю інтегрованих чипів та унікальними швидкими зв’язками між ними, де компанія зберігає технологічну перевагу над конкурентами.

🧠 Фокус на “Суміші Експертів”

Nvidia зосередила свої дані на моделях, які використовують техніку “суміш експертів” (MoE). Цей підхід підвищує ефективність, розбиваючи запити на частини, які обробляються різними “експертами” всередині моделі.

  • Популярність MoE: Технологія набула популярності після того, як китайська DeepSeek представила високопродуктивну модель, що потребувала менше навчання на чипах Nvidia.

  • Лідери ринку: Підхід MoE вже прийнятий основними гравцями, включно з OpenAI (виробник ChatGPT), французькою Mistral та китайськими компаніями.

У той час як конкуренти, такі як Advanced Micro Devices (AMD) та Cerebras, посилюють свою присутність у сфері обслуговування ШІ, Nvidia намагається довести, що її апаратне забезпечення є незамінним для найефективнішої роботи передових моделей. AMD планує випустити подібний багаточиповий сервер наступного року.

Раніше повідомлялося, що Nvidia стала першою компанією у світі з ринковою капіталізацією понад $5 трлн.

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.

Поделиться
Категорії:Наука та IT