Жидкостное охлаждение в 2026 году: когда для высокомощных GPU‑кластеров это уже не опция, а единственный рабочий вариант
В 2026 году стойки с мощностью 80–120 кВт и узлы с 4–8 высокопотребляющими GPU перестали быть экзотикой и становятся нормой для серьёзных AI‑кластеров. На таких плотностях охлаждение перестаёт быть вопросом «какой кондиционер поставить» и превращается в инженерную задачу на грани физики.
Честный ответ на вопрос «является ли жидкостное охлаждение единственным вариантом» такой: для стоек от 50 кВт и выше, особенно в диапазоне 80–120 кВт, да — воздух физически не справляется и жидкостное охлаждение становится практически безальтернативным. Для низкой плотности и малых кластеров качественное воздушное охлаждение всё ещё жизнеспособно.
1. Почему воздух перестаёт работать при стойках 50 кВт+
Чтобы понять, где заканчиваются возможности воздуха, стоит посмотреть на реальные цифры по плотности мощности в стойке, характеристикам современных GPU‑платформ и базовым законам теплообмена.
1.1. Как изменилась плотность мощности GPU‑стоек
- В среднем по индустрии за 2022–2024 годы плотность мощности в стойках выросла примерно на треть, а для AI‑узлов уже сейчас типичны диапазоны 50–100 кВт и выше на стойку — в том числе в проектах мировых провайдеров облаков и colocation.
- NVIDIA Blackwell (GB200 NVL72) уже сегодня предлагает эталонные стойки мощностью около 120 кВт с прямым жидкостным охлаждением, а следующие поколения и масштабируемые конфигурации на 100–200 кВт/стойку активно обсуждаются в отрасли.
- Отдельные GPU уже приближаются к 1,2 кВт тепловой мощности, что при десятках GPU в одной стойке выводит тепловые нагрузки далеко за пределы традиционных 10–20 кВт, на которые были рассчитаны старые ЦОД.
1.2. Физический предел воздушного охлаждения
Большинство legacy‑ЦОД проектировались под 5–10 кВт на стойку; при максимальной оптимизации горячих/холодных коридоров и эффективности систем кондиционирования многие площадки с трудом вытягивают 30–40 кВт на стойку.
- При попытке выйти за 50 кВт/стойку воздух сталкивается с геометрией: требуемый объемный расход воздуха (CFM) растёт линейно с тепловой нагрузкой, а мощность, потребляемая вентиляторами, растёт примерно как куб скорости — это быстро превращает стойку в «аэродинамическую трубу» с недопустимым уровнем шума и энергопотребления.
- Исследования показывают, что при 50–100 кВт на стойку удерживать температурный режим ASHRAE H1 (18–22 °C) с помощью только воздуха практически нереально без экстремально низких температур подачи и чудовищной скорости воздушных потоков, что приводит к скачку PUE и падению надёжности.
- Практический вывод: свыше 40–50 кВт на стойку даже самые продвинутые схемы воздушного охлаждения становятся экономически и технически сомнительными, а для 80–120 кВт речь уже идёт о физической невозможности обеспечить стабильную работу без перехода на жидкость.
Для стойки 50–100 кВт воздух упирается в фундаментальные ограничения: требуемые CFM и мощность вентиляторов делают систему слишком дорогой, шумной и нестабильной, тогда как жидкостное охлаждение позволяет штатно работать при 100 кВт+ на стойку.
2. Что даёт жидкостное охлаждение: не только «держать температуру», но и выигрывать в производительности и PUE
Жидкостное охлаждение воспринимают как способ «просто охладить то, что воздух уже не тянет», но на практике оно даёт дополнительный выигрыш в энергоэффективности, стабильности частот и ресурсе оборудования.
2.1. Практические эффекты: температура, производительность, энергопотребление
- В ряде кейсов, которые используют производители GPU и интеграторы, переход от воздушного охлаждения к прямому жидкостному (cold plate) позволял снизить температуру GPU в нагрузке с ~55–70 °C до ~45–55 °C, что уменьшало термальные троттлинги и давало прирост пропускной способности до 10–17 % в реальных задачах обучения.
- Одновременно снижение температуры и отказ от части/всех вентиляторов снижали энергопотребление узла примерно на 10–16 %, а переход на жидкостное охлаждение в масштабе ЦОД экономил 10–21 % энергии и до 40 % затрат на охлаждение.
- Для фабрик с тысячами GPU это переводится в сотни тысяч или миллионы долларов экономии в год на электроэнергии и обслуживании, а также в более равномерный тепловой режим, потенциально увеличивающий срок службы компонентов.
2.2. Архитектурный запас по плотности и отказ от «холодных» ЦОД
- Теплоёмкость и теплопроводность воды на порядки выше, чем у воздуха: это позволяет сделать стойки на 100 кВт+ «новой нормой», а не исключением для витринных проектов. Современные промышленные решения прямого жидкостного охлаждения способны отводить до 120 кВт со стойки в стандартном форм‑факторе.
- Жидкостные системы позволяют работать с более высокими температурами теплоносителя (например, 40–60 °C), что увеличивает долю «свободного» охлаждения, снижает зависимость от чиллеров и опускает частичный PUE до 1.02–1.03 в оптимизированных инсталляциях.
- Для вас как для команды, проектирующей высокомощные GPU‑решения, это означает, что без жидкостного охлаждения планировать Blackwell‑/Vera Rubin‑уровень кластеров просто бессмысленно: стойки останутся запертыми в коридоре 20–40 кВт.
3. Не только immersion: три основные ветки жидкостного охлаждения и их зоны применения
Под «жидкостным охлаждением» обычно подразумевают immersion‑ванны, но в реальных проектах 2026 года доминирует более «эволюционный» подход: прямое охлаждение холодными пластинами в стандартных стойках, а погружные решения актуальны для экстремальных кейсов.
3.1. Прямое кристальное охлаждение (Direct‑to‑chip, cold plate)
- Холодные пластины монтируются непосредственно на GPU и CPU, а теплоноситель по замкнутому контуру забирает большую часть тепла, оставляя вентиляторы и воздух для менее горячих компонентов (память, VRM, накопители).
- Такой подход хорошо интегрируется в стандартные 19‑дюймовые стойки и серверы, требует модернизации инфраструктуры (распределение теплоносителя, коллекторы в стойках), но не переворачивает весь форм‑фактор ЦОД.
- На практике direct‑to‑chip жидкостное охлаждение с долей отвода тепла жидкостью 70–75 % позволяет уверенно работать в диапазоне 50–200 кВт на стойку и является рекомендованным вариантом для современных Blackwell/GB200‑кластеров.
3.2. Однофазное погружное охлаждение (single‑phase immersion)
- Вся серверная платформа погружается в диэлектрическую жидкость; тепло отводится через внешние теплообменники, а конвекция внутри ванны выравнивает температурный профиль компонентов.
- Преимущества: очень высокая эффективность теплообмена (100–140 кВт/стойку без экстремальных режимов), низкий уровень шума, отсутствие сложной локальной разводки холодных пластин.
- Недостатки: нужны специально подготовленные серверы и механика, инфраструктура и процессы обслуживания сильно отличаются от «обычных» стоек, переучивание персонала и управление запасами становятся отдельным проектом.
3.3. Двухфазное погружное охлаждение (two‑phase immersion)
- Используются жидкости с низкой температурой кипения: на чипах происходит кипение, фазовый переход забирает тепло, затем пар конденсируется и стекает обратно, образуя замкнутый цикл.
- Потенциал по плотности максимальный — 100–200 кВт и выше на стойку с очень компактной инфраструктурой, что делает технологию привлекательной для «AI‑фабрик» и пространственно ограниченных площадок.
- Но стоимость, сложность эксплуатации и требовательность к инженерной культуре пока ограничивают применение такими сценариями, где ради максимальной плотности готовы принять повышенные риски и затраты.
| Подход | Диапазон мощности на стойку | Типичные сценарии |
|---|---|---|
| Direct‑to‑chip (cold plate) | 50–200 кВт | Стандартные 19″ стойки с высокоплотными GPU‑серверами, основные AI‑кластеры |
| Однофазное immersion | 100–150 кВт | Плотные AI‑стенды, новые ЦОД с ориентацией на immersion |
| Двухфазное immersion | 150–200+ кВт | Экстремальные «AI‑фабрики», сильно ограниченные по площади площадки |
4. Где воздушное охлаждение по‑прежнему уместно
Несмотря на то, что для 50+ кВт/стойку воздух фактически исчерпал себя, есть целый ряд сценариев, где грамотное воздушное охлаждение остаётся рациональным выбором в 2026 году.
4.1. Низкая плотность и небольшие кластеры
- Конфигурации с 1–2 GPU на сервер и 1–2 сервера на стойку, где суммарная мощность стойки удерживается в диапазоне 10–20 кВт, попрежнему хорошо работают с продуманными горячими/холодными коридорами и современными прецизионными кондиционерами.
- Для таких установок переход на жидкость чаще всего экономически не оправдан: окупаемость инфраструктуры растягивается, а гибкость развёртывания и переезда узлов выше у классических воздушных решений.
4.2. Dev/PoC, лаборатории и edge‑узлы
- Тестовые стенды, среды разработки, локальные PoC‑кластеры и edge‑инференс для филиалов или производственных площадок часто включают считанные GPU и ограниченный набор серверов — там гибкость и скорость развертывания важнее предельной плотности.
- В этих случаях воздушное охлаждение в сочетании с умеренной плотностью и хорошей организацией потоков воздуха остаётся оптимальным выбором по CAPEX и OPEX.
4.3. Ограниченные возможности модернизации существующих ЦОД
- В старых зданиях, где нельзя добавить распределение теплоносителя, усилить перекрытия или радикально перестроить машинные залы, единственный разумный шаг — ограничить плотность (например, 20–30 кВт/стойку) и увеличивать число стоек, а не мощность каждой.
- Для таких площадок логичная стратегия — отделить «жидкостный сегмент» под высокомощные AI‑задачи (новые стойки/зал) и сохранить воздушный сегмент для традиционных серверов, постепенно перемещая ресурсы по мере модернизации.
Практически: если ваши стойки стабильно ниже 20–30 кВт, а GPU‑нагрузка эпизодическая, разумно оставаться на воздухе и параллельно проектировать отдельный жидкостный контур под будущие высокоплотные AI‑стенды.
5. Как сформулировать позицию: «жидкостное охлаждение — единственный вариант» с правильными оговорками
Чтобы корректно донести мысль до технического директора или инвесткомитета, важно не впадать в крайности. Ниже — формула, которая отражает реальное положение дел в 2026 году.
Когда плотность мощности в стойке растёт с классических 10–20 кВт до 80–120 кВт и выше, речь уже не идёт о «сложном проектировании воздуха» — воздух упирается в физические ограничения. Для настоящих высокомощных GPU‑кластеров 2026 года (50+ кВт/стойку) direct‑to‑chip и погружное жидкостное охлаждение перестают быть «опцией» и становятся единственной реалистичной инфраструктурой, позволяющей этим кластерам вообще заработать, работать стабильно и прожить свой срок.
Одновременно важно подчеркнуть, что для малых и средних по плотности решений воздушное охлаждение никуда не исчезает: оно остаётся рациональным выбором при разумных нагрузках и может сосуществовать с жидкостным сегментом в одном ЦОД.
Планируете высокомощный GPU‑кластер и думаете о жидкостном охлаждении?
Опишите вашу целевую мощность на стойку, количество GPU и ограничения по зданию/ЦОД — по этим вводным можно предложить 1–2 реалистичных варианта архитектуры (air only, direct‑to‑chip, immersion), оценить CAPEX/OPEX и по шагам расписать переходный план от классического воздуха к жидкостному контуру.
Заполнить форму и получить вариант архитектуры



