10 лучших компаний по производству аппаратного обеспечения ИИ и чипов в 2024 году
В связи с быстрым развитием аппаратного обеспечения ИИ компании ежегодно выпускают передовые продукты, чтобы не отстать от конкурентов. Новым конкурентоспособным продуктом на рынке является чип искусственного интеллекта.
С ростом популярности и развития аппаратное обеспечение ИИ стало конкурентным рынком. Компании, занимающиеся разработкой аппаратных средств искусственного интеллекта, должны быстро обновлять свои продукты, чтобы иметь самые новые и эффективные продукты на рынке.
Хотя эти 10 компаний, производящих аппаратное обеспечение ИИ, специализируются на процессорах и технологиях для центров обработки данных, их специализация постепенно расширяется по мере развития рынка. Теперь эти компании соревнуются в создании самого мощного и эффективного чипа ИИ на рынке.
10 ведущих компаний на рынке аппаратного обеспечения ИИ
Ниже перечислены в алфавитном порядке компании, производящие аппаратное обеспечение ИИ и чипы.
Alphabet
Alphabet, материнская компания Google, выпускает различные продукты для мобильных устройств, хранения данных и облачной инфраструктуры. Облачный процессор TPU v5p предназначен для обучения больших языковых моделей и генеративного ИИ. Каждая капсула TPU v5p состоит из 8 960 чипов, а пропускная способность каждого чипа составляет 4 800 Гбит/с.
Alphabet сосредоточилась на производстве мощных чипов ИИ, чтобы удовлетворить спрос на масштабные проекты. Она также представила Multislice, технологию масштабирования производительности. Хотя аппаратные ограничения обычно ограничивают масштабирование программного обеспечения, испытания показали почти 60-процентное использование модельных операций с плавающей запятой в секунду для моделей с несколькими миллиардами параметров на TPU v4.
AMD
AMD создала новое поколение процессоров Epyc и Ryzen. Свой последний продукт, процессорную микроархитектуру Zen 5, компания выпустила в 2024 году.
AMD выпустила чипы MI300A и MI300X AI в декабре 2023 года. MI300A оснащен GPU с 228 вычислительными блоками и 24 ядрами CPU, а чип MI300X представляет собой модель GPU с 304 вычислительными блоками. MI300X и H100 от Nvidia конкурируют по объему памяти и пропускной способности.
Apple
Apple Neural Engine, специализированные ядра на базе чипов Apple, способствовали развитию аппаратных средств ИИ компании и повышению их производительности. Благодаря Neural Engine был создан чип M1 для MacBook. По сравнению с предыдущим поколением, MacBook с чипом M1 в 3,5 раза быстрее по общей производительности и в пять раз — по графической.
После успеха чипа M1 Apple объявила о выпуске следующих поколений. По состоянию на 2024 год Apple выпустила чип M4, но он доступен только в iPad Pro. Чип M4 оснащен нейронным движком, который в три раза быстрее чипа M1 и в 1,5 раза быстрее процессора M2.
AWS
AWS переключила свое внимание с облачной инфраструктуры на чипы. Ее экземпляры Elastic Compute Cloud Trn1 предназначены для глубокого обучения и крупномасштабных генеративных моделей. Для их работы используются чипы AWS Trainium, ускорители ИИ.
Экземпляр trn1.2xlarge был первой итерацией. Он имел только один ускоритель Trainium, 32 ГБ памяти и пропускную способность сети 12,5 Гбит/с. Теперь у Amazon есть экземпляр trn1.32xlarge, который имеет 16 ускорителей, 512 ГБ памяти и пропускную способность 1 600 Гбит/с.
AWS Inferentia — это чип машинного обучения, который генерирует высокопроизводительные прогнозы вывода по низкой цене. Ускорители Trainium обучают модели, а ускорители Inferentia развертывают модели.
Cerebras Systems
Компания Cerebras заявила о себе после выпуска своего движка третьего поколения для масштабирования пластин WSE-3. WSE-3 считается самым быстрым процессором на Земле: 900 000 ядер искусственного интеллекта на одном устройстве, каждое ядро имеет доступ к 21 петабайту в секунду пропускной способности памяти.
По сравнению с чипом H100 от Nvidia, WSE-3 имеет в 7000 раз большую пропускную способность, в 880 раз больше встроенной памяти и в 52 раза больше ядер. Площадь чипа WSE-3 также в 57 раз больше, поэтому для его размещения в сервере требуется больше места.
IBM
После успеха своего первого специализированного ИИ-чипа Telum компания IBM приступила к разработке мощного преемника, способного составить конкуренцию своим конкурентам.
В 2022 году IBM создала подразделение искусственного интеллекта. Чип искусственного интеллекта специально разработан и работает лучше, чем средний процессор общего назначения. В нем более 23 миллиардов транзисторов и 32 вычислительных ядра. Он занимает гораздо меньше памяти и более эффективен, чем предыдущие поколения.
IBM работает над чипом NorthPole AI, дата выхода которого пока не определена. NorthPole отличается от чипа TrueNorth компании IBM. Архитектура NorthPole построена таким образом, чтобы улучшить энергопотребление, уменьшить занимаемое чипом пространство и снизить задержки. Чип NorthPole должен ознаменовать новую эру энергоэффективных чипов.
Intel
Intel сделала себе имя на рынке процессоров благодаря своим продуктам для искусственного интеллекта.
Процессоры Xeon 6 были выпущены в 2024 году и уже поставляются в центры обработки данных. Эти процессоры предлагают до 288 ядер на сокет, обеспечивая более высокую скорость обработки данных и расширяя возможности выполнения нескольких задач одновременно.
Intel выпустила GPU-чип Gaudi 3, конкурирующий с GPU-чипом H100 от Nvidia. Чип Gaudi 3 обучает модели в 1,5 раза быстрее, выдает результаты в 1,5 раза быстрее и потребляет меньше энергии, чем чип H100 от Nvidia.
Nvidia
Nvidia стала сильным конкурентом на рынке аппаратного обеспечения ИИ, когда в начале 2023 года ее стоимость превысила 1 триллион долларов. В настоящее время компания работает над чипом A100 и графическим процессором Volta для центров обработки данных. Оба продукта являются критически важными технологиями для ресурсоемких моделей. Nvidia также предлагает оборудование с искусственным интеллектом для игрового сектора.
В августе 2023 года Nvidia объявила о своем последнем технологическом прорыве — первом в мире процессоре HBM3e. Она представила платформу Grace Hopper — суперчип с в три раза большей пропускной способностью и более чем в три раза большим объемом памяти по сравнению с технологиями текущего поколения. Ее дизайн ориентирован на повышенную масштабируемость и производительность в эпоху ускоренного ИИ.
Разработанная компанией технология NVLink позволяет подключать суперчип Grace Hopper к другим суперчипам. NVLink позволяет нескольким графическим процессорам обмениваться данными через высокоскоростное межсоединение.
Выпуск микроархитектуры GPU Blackwell B200 AI был отложен и должен состояться в конце 2024 года, а B200A запланирован на 2025 год. Nvidia также планирует запустить новый ускоритель Rubin в 2026 году.
Qualcomm
Хотя компания Qualcomm относительно недавно появилась на рынке аппаратного обеспечения ИИ по сравнению со своими коллегами, ее опыт работы в телекоммуникационном и мобильном секторах делает ее многообещающим конкурентом.
Чип Cloud AI 100 от Qualcomm обошел Nvidia H100 в ряде тестов. Один из тестов заключался в определении количества запросов к серверу центра обработки данных, которые каждый чип может выполнить на один ватт. Чип Cloud AI 100 от Qualcomm выполнил 227 серверных запросов на ватт, а Nvidia H100 — 108. Чип Cloud AI 100 также смог выполнить 3,8 запросов на ватт по сравнению с 2,4 запросами Nvidia H100 при обнаружении объектов.
В 2024 году компания выпустила Snapdragon 8s Gen 3, чип для мобильных устройств. Этот чип поддерживает 30 моделей ИИ и обладает функциями генеративного ИИ, такими как генерация изображений и голосовые помощники.
Qualcomm также выпустила Snapdragon X Plus, процессор для ноутбуков с возможностями ИИ. Этот процессор конкурирует с конкурирующими устройствами благодаря меньшему энергопотреблению и более высокой производительности процессора.
Tenstorrent
Компания Tenstorrent создает компьютеры для искусственного интеллекта, а возглавляет ее тот же человек, который разработал архитектуру чипов Zen от AMD, Джим Келлер. Tenstorrent выпускает множество аппаратных продуктов, включая процессоры Wormhole и серверы Galaxy, на базе которых создается Galaxy Wormhole Server.
Wormhole n150 и n300 — это масштабируемые графические процессоры Tenstorrent. Модель n300 почти вдвое превосходит все характеристики n150. Эти чипы предназначены для сетевого ИИ и устанавливаются в модули и серверы Galaxy. Каждый сервер вмещает до 32 процессоров Wormhole, 2 560 ядер и 384 ГБ памяти GDDR6.
10 лучших компаний по производству аппаратного обеспечения ИИ и чипов в 2024 году
В связи с быстрым развитием аппаратного обеспечения ИИ компании ежегодно выпускают передовые продукты, чтобы не отстать от конкурентов. Новым конкурентоспособным продуктом на рынке является чип искусственного интеллекта.
С ростом популярности и развития аппаратное обеспечение ИИ стало конкурентным рынком. Компании, занимающиеся разработкой аппаратных средств искусственного интеллекта, должны быстро обновлять свои продукты, чтобы иметь самые новые и эффективные продукты на рынке.
Хотя эти 10 компаний, производящих аппаратное обеспечение ИИ, специализируются на процессорах и технологиях для центров обработки данных, их специализация постепенно расширяется по мере развития рынка. Теперь эти компании соревнуются в создании самого мощного и эффективного чипа ИИ на рынке.
10 ведущих компаний на рынке аппаратного обеспечения ИИ
Ниже перечислены в алфавитном порядке компании, производящие аппаратное обеспечение ИИ и чипы.
Alphabet
Alphabet, материнская компания Google, выпускает различные продукты для мобильных устройств, хранения данных и облачной инфраструктуры. Облачный процессор TPU v5p предназначен для обучения больших языковых моделей и генеративного ИИ. Каждая капсула TPU v5p состоит из 8 960 чипов, а пропускная способность каждого чипа составляет 4 800 Гбит/с.
Alphabet сосредоточилась на производстве мощных чипов ИИ, чтобы удовлетворить спрос на масштабные проекты. Она также представила Multislice, технологию масштабирования производительности. Хотя аппаратные ограничения обычно ограничивают масштабирование программного обеспечения, испытания показали почти 60-процентное использование модельных операций с плавающей запятой в секунду для моделей с несколькими миллиардами параметров на TPU v4.
AMD
AMD создала новое поколение процессоров Epyc и Ryzen. Свой последний продукт, процессорную микроархитектуру Zen 5, компания выпустила в 2024 году.
AMD выпустила чипы MI300A и MI300X AI в декабре 2023 года. MI300A оснащен GPU с 228 вычислительными блоками и 24 ядрами CPU, а чип MI300X представляет собой модель GPU с 304 вычислительными блоками. MI300X и H100 от Nvidia конкурируют по объему памяти и пропускной способности.
Apple
Apple Neural Engine, специализированные ядра на базе чипов Apple, способствовали развитию аппаратных средств ИИ компании и повышению их производительности. Благодаря Neural Engine был создан чип M1 для MacBook. По сравнению с предыдущим поколением, MacBook с чипом M1 в 3,5 раза быстрее по общей производительности и в пять раз — по графической.
После успеха чипа M1 Apple объявила о выпуске следующих поколений. По состоянию на 2024 год Apple выпустила чип M4, но он доступен только в iPad Pro. Чип M4 оснащен нейронным движком, который в три раза быстрее чипа M1 и в 1,5 раза быстрее процессора M2.
AWS
AWS переключила свое внимание с облачной инфраструктуры на чипы. Ее экземпляры Elastic Compute Cloud Trn1 предназначены для глубокого обучения и крупномасштабных генеративных моделей. Для их работы используются чипы AWS Trainium, ускорители ИИ.
Экземпляр trn1.2xlarge был первой итерацией. Он имел только один ускоритель Trainium, 32 ГБ памяти и пропускную способность сети 12,5 Гбит/с. Теперь у Amazon есть экземпляр trn1.32xlarge, который имеет 16 ускорителей, 512 ГБ памяти и пропускную способность 1 600 Гбит/с.
AWS Inferentia — это чип машинного обучения, который генерирует высокопроизводительные прогнозы вывода по низкой цене. Ускорители Trainium обучают модели, а ускорители Inferentia развертывают модели.
Cerebras Systems
Компания Cerebras заявила о себе после выпуска своего движка третьего поколения для масштабирования пластин WSE-3. WSE-3 считается самым быстрым процессором на Земле: 900 000 ядер искусственного интеллекта на одном устройстве, каждое ядро имеет доступ к 21 петабайту в секунду пропускной способности памяти.
По сравнению с чипом H100 от Nvidia, WSE-3 имеет в 7000 раз большую пропускную способность, в 880 раз больше встроенной памяти и в 52 раза больше ядер. Площадь чипа WSE-3 также в 57 раз больше, поэтому для его размещения в сервере требуется больше места.
IBM
После успеха своего первого специализированного ИИ-чипа Telum компания IBM приступила к разработке мощного преемника, способного составить конкуренцию своим конкурентам.
В 2022 году IBM создала подразделение искусственного интеллекта. Чип искусственного интеллекта специально разработан и работает лучше, чем средний процессор общего назначения. В нем более 23 миллиардов транзисторов и 32 вычислительных ядра. Он занимает гораздо меньше памяти и более эффективен, чем предыдущие поколения.
IBM работает над чипом NorthPole AI, дата выхода которого пока не определена. NorthPole отличается от чипа TrueNorth компании IBM. Архитектура NorthPole построена таким образом, чтобы улучшить энергопотребление, уменьшить занимаемое чипом пространство и снизить задержки. Чип NorthPole должен ознаменовать новую эру энергоэффективных чипов.
Intel
Intel сделала себе имя на рынке процессоров благодаря своим продуктам для искусственного интеллекта.
Процессоры Xeon 6 были выпущены в 2024 году и уже поставляются в центры обработки данных. Эти процессоры предлагают до 288 ядер на сокет, обеспечивая более высокую скорость обработки данных и расширяя возможности выполнения нескольких задач одновременно.
Intel выпустила GPU-чип Gaudi 3, конкурирующий с GPU-чипом H100 от Nvidia. Чип Gaudi 3 обучает модели в 1,5 раза быстрее, выдает результаты в 1,5 раза быстрее и потребляет меньше энергии, чем чип H100 от Nvidia.
Nvidia
Nvidia стала сильным конкурентом на рынке аппаратного обеспечения ИИ, когда в начале 2023 года ее стоимость превысила 1 триллион долларов. В настоящее время компания работает над чипом A100 и графическим процессором Volta для центров обработки данных. Оба продукта являются критически важными технологиями для ресурсоемких моделей. Nvidia также предлагает оборудование с искусственным интеллектом для игрового сектора.
В августе 2023 года Nvidia объявила о своем последнем технологическом прорыве — первом в мире процессоре HBM3e. Она представила платформу Grace Hopper — суперчип с в три раза большей пропускной способностью и более чем в три раза большим объемом памяти по сравнению с технологиями текущего поколения. Ее дизайн ориентирован на повышенную масштабируемость и производительность в эпоху ускоренного ИИ.
Разработанная компанией технология NVLink позволяет подключать суперчип Grace Hopper к другим суперчипам. NVLink позволяет нескольким графическим процессорам обмениваться данными через высокоскоростное межсоединение.
Выпуск микроархитектуры GPU Blackwell B200 AI был отложен и должен состояться в конце 2024 года, а B200A запланирован на 2025 год. Nvidia также планирует запустить новый ускоритель Rubin в 2026 году.
Qualcomm
Хотя компания Qualcomm относительно недавно появилась на рынке аппаратного обеспечения ИИ по сравнению со своими коллегами, ее опыт работы в телекоммуникационном и мобильном секторах делает ее многообещающим конкурентом.
Чип Cloud AI 100 от Qualcomm обошел Nvidia H100 в ряде тестов. Один из тестов заключался в определении количества запросов к серверу центра обработки данных, которые каждый чип может выполнить на один ватт. Чип Cloud AI 100 от Qualcomm выполнил 227 серверных запросов на ватт, а Nvidia H100 — 108. Чип Cloud AI 100 также смог выполнить 3,8 запросов на ватт по сравнению с 2,4 запросами Nvidia H100 при обнаружении объектов.
В 2024 году компания выпустила Snapdragon 8s Gen 3, чип для мобильных устройств. Этот чип поддерживает 30 моделей ИИ и обладает функциями генеративного ИИ, такими как генерация изображений и голосовые помощники.
Qualcomm также выпустила Snapdragon X Plus, процессор для ноутбуков с возможностями ИИ. Этот процессор конкурирует с конкурирующими устройствами благодаря меньшему энергопотреблению и более высокой производительности процессора.
Tenstorrent
Компания Tenstorrent создает компьютеры для искусственного интеллекта, а возглавляет ее тот же человек, который разработал архитектуру чипов Zen от AMD, Джим Келлер. Tenstorrent выпускает множество аппаратных продуктов, включая процессоры Wormhole и серверы Galaxy, на базе которых создается Galaxy Wormhole Server.
Wormhole n150 и n300 — это масштабируемые графические процессоры Tenstorrent. Модель n300 почти вдвое превосходит все характеристики n150. Эти чипы предназначены для сетевого ИИ и устанавливаются в модули и серверы Galaxy. Каждый сервер вмещает до 32 процессоров Wormhole, 2 560 ядер и 384 ГБ памяти GDDR6.