Облачное хранилище iSyb - Cloud "CoolIT"
Системы "CoolIT" с прямым жидкостным охлаждением
Традиционно серверные помещения в ЦОД используют воздушную схему охлаждения: в серверах имеются свои вентиляторы, а между стойками организуются «горячие» и «холодные» коридоры. Но мощности растут, вместе с ними растёт тепловыделение процессоров и ускорителей. Именно поэтому, в свете появления новых серверных процессоров Intel и AMD, а также ускорителей NVIDIA A100 и AMD MI100, владельцы крупных ЦОД стали активнее присматриваться к более прогрессивным методам охлаждения — жидкостным.
Проблема не является надуманной: воздушные системы охлаждения в ЦОД с традиционной компоновкой уже работают на пределе своих возможностей, а новые поколения чипов обещают дальнейший рост тепловыделения. Так, процессоры Intel Ice Lake, которые сменят поколение Cooper Lake, будут иметь теплопакет в районе 250-300 ватт против прежних 150-250 ватт.
Третье поколение серверных процессоров AMD EPYC под кодовым названием Milan обещает прирост производительности около 15-20%, но следует ожидать и роста тепловыделения. Уже сейчас EPYC 7763 может выделять до 280 ватт. А ускоритель NVIDIA A100 легко выдаст и все 400 ватт. И именно поэтому крупные ЦОД смотрят в сторону альтернативных способов охлаждения.
Проблемы охлаждения для облака и высокопроизводительных вычислений
Поскольку тенденция к облачным вычислениям стремительно растет, а спрос на продукты и услуги, основанные на искусственном интеллекте (ИИ), высокопроизводительных вычислениях (HPC) и Интернете вещей (IoT), растет, количество крупных централизованных центров обработки данных во всем мире также увеличивается.
Спрос на большую вычислительную мощность, обеспечиваемую этими центрами обработки данных, также растет, используя все более мощные новые чипы от Intel, AMD и NVIDIA, которые выделяют больше тепла, и серверные системы, которые объединяют несколько таких чипов в одном шасси. Дорогостоящая недвижимость также заставляет центры обработки данных увеличивать плотность вычислений на квадратный метр, что создает дополнительные проблемы с охлаждением, поскольку оборудование теснее расположено друг к другу, и остается меньше места для воздушного потока. Более того, охлаждающие вентиляторы также вызывают вибрацию, которая может привести к повреждению других компонентов сервера и создать опасный уровень шума для обслуживающего персонала.
Подсчитано, что сегодня центры обработки данных потребляют более 2% мировой электроэнергии: около 272 млрд кВтч. И большая часть этого энергопотребления тратится не на питание самого компьютерного оборудования, а на затраты на оборудование — в основном на кондиционирование воздуха. Традиционное воздушное охлаждение в центрах обработки данных довольно неэффективно: ежегодно теряется более 400 триллионов БТЕ тепла, что приводит к огромному углеродному следу.
Теплое жидкостное охлаждение — гораздо более эффективный способ отвода тепла от электрических компонентов, чем воздушное, требующее гораздо меньше энергии для охлаждения. Кроме того, поскольку оборудование воздушного охлаждения внутри сервера, такое как большие вентиляторы и радиаторы, не требуется, системы жидкостного охлаждения могут поддерживать гораздо большую плотность компонентов ЦП и ГП в каждом пространстве, обеспечивая более высокую вычислительную производительность на квадратный фут.
Популяризация и стандартизация технологии жидкостного охлаждения означает, что теперь она является приемлемым выбором для центров обработки данных среднего и малого размера, а также для развертывания небольших кластеров высокопроизводительных вычислений.
Оборудование наших DATA центров iSyb
Технологию "CoolIT" использует центр обработки данных Немецкой аэрокосмической компании. тут
Тарифы