Публикации
UCIe – открытый протокол для взаимосвязи чиплетов и построения дезагрегированных инфраструктур, статья
Dell Validated Design for Analytics — Data Lakehouse: интегрированное хранилище данных, статья
OCP Global Summit: решения для Computational Storage и компонуемых масштабируемых архитектур, статья
Samsung CXL MemoryySemantic SSD: 20M IOPs, статья
Omni-Path Express – открытый интерконнект для экзафлопных HPC/AI-систем, статья
От хранилищ данных и “озер данных” к open data lakehouse и фабрике данных, статья
GigaIO: CDI_решение на базе AMD для высшего образования, статья
End-to-end 64G FC NAFA, статья
Computational Storage, статья
Технология KIOXIA Software-Enabled Flash™, статья
Pavilion: 200 млн IOPS на стойку, статья
CXL 2.0: инновации в операциях Load/Store вводаавывода, статья
LightOS™ 2.2 – программно-определяемое составное блочное NVMe/TCP хранилище, статья
Тестирование референсной архитектуры Weka AI на базе NVIDIA DGX A100, статья
SmartNIC – новый уровень инфраструктурной обработки, статья
Ethernet SSD, JBOF, EBOF и дезагрегированные хранилища, статья
Compute, Memory и Storage, статья
Fujitsu ETERNUS CS8000 – единая масштабируемая платформа для резервного копирования и архивирования, статья
Lenovo: CXL – будущее серверов с многоуровневой памятью , статья
Liqid: компонуемые дезагрегированные инфраструктуры для HPC и AI, статья
Intel® Agilex™ FPGA, статья
Fujitsu ETERNUS DSP - разработано для будущего, статья
Технологии охлаждения для следующего поколения HPC-решений, статья
Что такое современный HBA?, статья
Fugaku– самый быстрый суперкомпьютер в мире, статья
НРС – эпоха революционных изменений, статья
Weka для AI-трансформации, статья
Cloudera Data Platform – “лучшее из двух миров”, статья
Excelero NVEdge для HA IoT-эры, статья
Адаптивные HPC/AI-архитектуры для экзаскейл-эры, статья
Новое поколение СХД Fujitsu ETERNUS, статья
Зональное хранение данных, статья
За пределами суперкомпьютеров, статья
Применение Intel® Optane™ DC и Intel® FPGA PAC, статья
DAOS: СХД для HPC/BigData/AI приложений в эру экзаскейл_вычислений, статья
IPsec в пост-квантовую эру, статья
Дезагрегированные компонуемые среды для высокопроизводительных задач, статья
HPE Primera: интеллектуальная СХД HPE 3PAR, статья
HPE Elastic Platform for Big Data and Analytics, статья
LiCO: оркестрация гибридныхНРС/AI/BigData_инфраструктур, статья
 
Обзоры
Все обзоры в Storage News
 
Тематические публикации
Flash-память
Облачные вычисления/сервисы
Специализ. СХД для BI-хранилищ, аналитика "больших данных", интеграция данных
Современные СХД
Информационная безопасность (ИБ), борьба с мошенничеством
Рынки
Итоги Dell Technologies World 2022: Liqid продемонстрировала компонуемую память

17, май 2022  — 

https :// www . liqid . com / blog / dell - technologies - world -2022- recap - liqid - demonstrated - composable - memory

На Dell Technologies World 2022 Liqid объявила, что компания является первым поставщиком CDI, который продемонстрировал компонуемую память с помощью нового протокола Compute Express Link™ (CXL™) 2.0 в сотрудничестве с Samsung и Tanzanite Silicon Solutions.

Последним элементом для компонуемости, который остался, является DRAM. Используя физический уровень PCIe Gen 5.0, CXL отделяет DRAM от CPU, впервые обеспечивая высокоскоростное соединение CPU с памятью. Благодаря встроенной поддержке CXL компонуемое программное обеспечение Liqid Matrix™ может компоновать память вместе с хранилищем и ускорителями, такими как GPU. Это очень важно для организаций, которые хотят устранить узкие места в памяти и улучшить использование этих дорогостоящих ресурсов.

 Бен Боллес (Ben Bolles), лидер по продуктам Liqid, сформулировал преимущества компонуемой памяти с помощью CDI. «Благодаря революционной производительности, обеспечиваемой CXL, отрасль будет лучше подготовлена ??к поддержке и осмыслению массивной волны инноваций в области искусственного интеллекта, которая прогнозируется в ближайшие несколько лет».

Мы рады сотрудничать с Samsung и Tanzanite, чтобы продемонстрировать мощь этого нового протокола», — сказал Бен. «Как показывает наша демонстрация, отделяя DRAM от CPU, CXL позволяет нам достичь этих важных результатов в производительности, гибкости инфраструктуры и более устойчивой эффективности использования ресурсов, подготавливая организации к решению архитектурных задач, с которыми сталкиваются отрасли по мере того, как ИИ развивается со скоростью данных».

Итак, насколько важны эти прорывы для постоянно растущего использования ИИ? Ну, Gartner предоставил некоторые интересные сведения.

За последние два года использование ИИ практически утроилось, и к 2025 году ИИ станет основным фактором принятия решений в области инфраструктуры по мере взросления рынка. Это создаст еще большую нагрузку на центры обработки данных, что приведет к 10-кратному увеличению требований к вычислительным ресурсам за тот же период.  (1)

Учитывая возросшую нагрузку, внедрение технологии CXL станет огромным подспорьем, предоставляя достаточную помощь в связи с растущим спросом на экспансивную вычислительную производительность, эффективность и устойчивость, которые невозможны с традиционными архитектурами. Это позволяет совместно использовать ранее статические ресурсы DRAM для экспоненциально более высокой производительности, снижения сложности программного стека и снижения общей стоимости системы.

Кроме того, стоит отметить, что Liqid является членом   консорциума Compute Express Link™ Consortium  .

В дополнение к хорошо принятой демонстрации компания Liqid также эксклюзивно продемонстрировала Liqid ThinkTank, первую полностью интегрированную систему CDI для самых сложных в мире рабочих нагрузок, ориентированных на GPU. Тем, кому необходимо упростить внедрение в своих организациях AI/ML, высокопроизводительных вычислений, периферийных вычислений и других приложений, требующих мегапроизводительности, решение, ориентированное на GPU, предлагает простоту «под ключ», лучшую в отрасли производительность, впечатляющую экономию совокупной стоимости владения и значительное сокращение выбросы углерода.

Люк Квик (Luke Quick), вице-президент по OEM-продажам компании Liqid, обсудил с присутствующими, почему Liqid ThinkTank является правильным решением для этих новых рабочих нагрузок. «Поскольку организации стремятся внедрить AI+ML в свою общую цифровую стратегию и внедрять ее изо дня в день, ИТ-отделы быстро осознали, что традиционные инфраструктуры часто не обладают достаточной гибкостью для последовательной поддержки развертываний для проверки концепции, во многом меньше масштаба, чтобы соответствовать видению организации в отношении ИИ на предприятии», — сказал Люк.

«К счастью, организации, которые хотят ускорить окупаемость своих программ AI+ML, теперь могут приступить к работе с Liqid ThinkTank. Наше новейшее адаптивное решение CDI создано для вычислений с интенсивным использованием графического процессора, чтобы значительно ускорить окупаемость бизнес-решений на основе ИИ, а также служить мощной основой в более крупной экосистеме ИИ, которая имеет хорошие возможности для органической адаптации к задачам завтрашнего дня. ”

Кроме того, благодаря 2-3-кратному повышению коэффициента использования центра обработки данных по сравнению с традиционными статическими архитектурами, Liqid ThinkTank и другие решения на основе программного обеспечения Liqid Matrix CDI могут быть включены в качестве фундаментального элемента более устойчивой экосистемы центра обработки данных с потенциалом значительного снижения энергопотребления. потребление и сэкономить миллионы галлонов воды и тонн глобальных выбросов CO2 в год.

[1]   Источник: Gartner,   Predicts 2021: Operational AI and Enabling AIOrchestration Platforms  , декабрь 2020 г.

Публикации по теме
Центры обработки данных
 
Новости Liqid

© "Storage News" journal, Russia&CIS
Редакция: 115516, Москва, а/я 88; тел./факс - (495) 233-4935;
www.storagenews.ru; info@storagenews.ru.