Notebookcheck Logo

Samsung поставляет самую дорогую ИИ-память, которую когда-либо заказывала Nvidia, поскольку HBM4 превосходит ключевые характеристики

Samsung начинает поставки памяти HBM4.
ⓘ Samsung
Samsung начинает поставки памяти HBM4.
Стеки HBM4 нового поколения превосходят спецификации JEDEC и Nvidia, обеспечивая скорость до 13 Гбит/с и пропускную способность 3,3 ТБ/с, а также более высокую энергоэффективность, улучшенные тепловые характеристики и емкость до 36 ГБ на 12-слойный стек. Однако это самая дорогая память, которую Nvidia когда-либо заказывала для карт для центров обработки данных AI.

Компания Samsung объявила о первых коммерческих поставках памяти нового поколения HBM4 для таких приложений, как графические процессоры Nvidia и соответствующие центры обработки данных искусственного интеллекта.

Сообщается, что Nvidia и другие клиенты платят samsung около 500 долларов за штуку, что вдвое больше, чем они платили за предыдущее поколение памяти с высокой пропускной способностью HBM3E. Как следствие, акции компании Samsung достигли исторического максимума, а ее руководство ожидает еще один год блокбастеров, опираясь на общий дефицит памяти дефицита.

Технические характеристики памяти Samsung HBM4

В то время как производители памяти в настоящее время берут деньги за любую произведенную единицу, компания Samsung утверждает, что ее новая память HBM4 AI смогла превзойти как стандарт Объединенного совета по разработке электронных устройств (JEDEC), так и требования компании Nvidia.

Рабочая скорость HBM4 может достигать внушительных 13 Гбит/с, что на 46% выше требований JEDEC, а общая пропускная способность памяти достигает 3,3 ТБ/с на стек, что значительно превышает требования таких клиентов, как Nvidia, в 3 ТБ/с.

Компания Samsung добилась такой высокой пропускной способности благодаря преимущественному применению 10-нм техпроцесса 6-го поколения 1c DRAM с базовой матрицей, изготовленной по 4-нм технологии, в отличие от 14-нм 1a DRAM, который использовался для предшественника HBM3. Это дает поколению памяти HBM4 AI много возможностей для улучшения технологического процесса и производительности. Чтобы справиться с выделением тепла, Samsung разработала базовую матрицу и передачу данных с использованием технологий низкого энергопотребления и низкого напряжения, что позволило на 30% улучшить теплоотвод и на 40% повысить энергоэффективность по сравнению с памятью поколения HBM3, которую Nvidia сейчас использует в своих AI видеокартах серии Blackwell.

На данный момент Samsung может поставлять покупателям максимум 36 Гб памяти HBM4 в 12-слойном стеке, но она также может использовать 16-слойное стекирование для общего объема 48 Гб, когда Nvidia будет готова к соответствующему дизайну GPU и покупательной способности. Samsung обещает достаточное количество дорогих чипов HBM4, заявляя, что"продолжит обеспечивать стабильные поставки для удовлетворения растущего средне- и долгосрочного спроса, особенно со стороны искусственного интеллекта и центров обработки данных", когда начнутся продажи памяти следующего поколения HBM4E во второй половине 2026 года.

Приобретите комплект памяти 64GB Crucial DDR5 для ноутбуков на Amazon

Чип памяти Samsung HBM4 AI.
ⓘ Samsung
Чип памяти Samsung HBM4 AI.

Источник(и)

Этот важный материал точно понравится твоим друзьям в социальных сетях!
Mail Logo
'
> Обзоры Ноутбуков, Смартфонов, Планшетов. Тесты и Новости > Новости > Архив новостей > Архив новостей за 2026 год, 02 месяц > Samsung поставляет самую дорогую ИИ-память, которую когда-либо заказывала Nvidia, поскольку HBM4 превосходит ключевые характеристики
Daniel Zlatev, 2026-02-12 (Update: 2026-02-13)