Компанія Nvidia, яка вже домінує на ринку чипів для навчання моделей штучного інтелекту, тепер зосереджується на доведенні своєї переваги у сфері обслуговування (використання) цих моделей мільйонами кінцевих користувачів.
📈 Десятикратне прискорення
Nvidia оголосила, що її найновіший AI-сервер продемонстрував значне покращення продуктивності:
Технологія: Сервер об’єднує 72 провідних чипи в одному корпусі зі швидкісними з’єднаннями між ними.
Результат: Сервер у 10 разів покращив продуктивність моделі Kimi K2 Thinking від китайської компанії Moonshot AI, а також показав аналогічний приріст ефективності з моделями DeepSeek.
Nvidia пояснює цей стрибок продуктивності саме великою кількістю інтегрованих чипів та унікальними швидкими зв’язками між ними, де компанія зберігає технологічну перевагу над конкурентами.
🧠 Фокус на “Суміші Експертів”
Nvidia зосередила свої дані на моделях, які використовують техніку “суміш експертів” (MoE). Цей підхід підвищує ефективність, розбиваючи запити на частини, які обробляються різними “експертами” всередині моделі.
Популярність MoE: Технологія набула популярності після того, як китайська DeepSeek представила високопродуктивну модель, що потребувала менше навчання на чипах Nvidia.
Лідери ринку: Підхід MoE вже прийнятий основними гравцями, включно з OpenAI (виробник ChatGPT), французькою Mistral та китайськими компаніями.
У той час як конкуренти, такі як Advanced Micro Devices (AMD) та Cerebras, посилюють свою присутність у сфері обслуговування ШІ, Nvidia намагається довести, що її апаратне забезпечення є незамінним для найефективнішої роботи передових моделей. AMD планує випустити подібний багаточиповий сервер наступного року.
Раніше повідомлялося, що Nvidia стала першою компанією у світі з ринковою капіталізацією понад $5 трлн.





