В наличии: материнские платы Supermicro X12DPi‑N6 / X12DPi‑NT6 для 3‑го поколения Intel Xeon Scalable — склад Elishtech

Купить материнские платы Supermicro X12DPi‑N6 / X12DPi‑NT6 под двухсокетные серверы на базе 3‑го поколения Intel Xeon Scalable (Ice Lake‑SP). Поддержка до 4 ТБ DDR4‑3200 ECC и до 18 DIMM‑слотов, 6 слотов PCIe 4.0, до 14 SATA и NVMe через SlimSAS. Поставки со склада в Гонконге и через партнёров в России, помощь с подбором совместимых CPU, памяти и шасси, гарантия и техническая поддержка от Elishtech.

RTX 5090 и H200: какой GPU выбрать для AI‑рабочей станции в компании малого и среднего бизнеса

Сравниваем RTX 5090 и датацентровый NVIDIA H200 с точки зрения компаний малого и среднего бизнеса: объём и тип памяти, пропускная способность, архитектура для ИИ, типовые сценарии (внутренние эксперименты, офисные AI‑сервисы, коммерческий LLM‑SaaS) и даём практическую матрицу выбора, в каких случаях достаточно рабочей станции на RTX 5090, а когда действительно есть смысл инвестировать в H200‑класс и отдельную инфраструктуру.

После ухода HPE: как через Elishtech получать Dell PowerEdge и Supermicro с поддержкой уровня вендора

HPE и HP ушли из России и Беларуси, оставив клиентов без прямого вендорского сервиса. Разбираем, почему новые проекты смещаются к Dell PowerEdge и Supermicro, как Elishtech выстраивает прозрачную глобальную цепочку поставок в условиях санкций и параллельного импорта, и какие уровни поддержки — от базового до максимально приближенного к вендорскому — можно получить под эти платформы, включая гарантию, RMA, запас комплектующих и SLA по восстановлению.

Supermicro H13SSL‑NT: одиночный EPYC 9004/9005 на DDR5 для высокоплотной виртуализации и хранения в 2026 году

Разбираем, чем отличается материнская плата Supermicro H13SSL‑NT на базе AMD EPYC 9004/9005 от предыдущего поколения: поддержка до 3 ТБ DDR5 ECC, слоты PCIe 5.0, встроенные 10GbE‑порты и SlimSAS для NVMe, а также типичные сценарии использования — высокоплотная виртуализация, Ceph/SDS‑хранилища и edge‑AI‑узлы, где переход на DDR5 и новую платформу действительно даёт ощутимую выгоду.

Почему Supermicro H12SSL‑I остаётся актуальной в 2026 году: одиночный EPYC для виртуализации, хранилища и бюджетного AI‑инференса

Разбираем, чем хороша материнская плата Supermicro H12SSL‑I на базе AMD EPYC 7002/7003 в 2026 году: поддержка до 2 ТБ DDR4 ECC, несколько слотов PCIe 4.0 для HBA и сетевых карт, варианты подключения SATA/NVMe через SlimSAS и типичные сценарии — виртуализация, серверы хранения, backup‑узлы и бюджетный AI‑инференс, а также отличие H12SSL‑I от H12SSL‑C/CT/NT.

поставка и тестирование DDR5 ECC Registered памяти SK hynix для расширения ЦОД облачного провайдера в Центральной Азии

Как мы подготовили и поставили партию серверной DDR5 ECC Registered памяти SK hynix для расширения ЦОД облачного провайдера в Центральной Азии: причины перехода на DDR5, выгоды для виртуализации и будущих AI‑нагрузок, тесты совместимости с Lenovo/Dell/HPE и проверка стабильности партии перед вводом в продакшн.

инфраструктура ИИ‑инференса и виртуализации на Dell PowerEdge R760 для проекта в Джакарте

Как мы использовали серверы Dell PowerEdge R760 с процессорами Intel Xeon Scalable, DDR5 ECC и NVMe для построения универсальной инфраструктуры ИИ‑инференса и виртуализации в Джакарте: конфигурация, предварительная подготовка (BIOS, iDRAC, тесты памяти) и выводы для проектов в России и Юго‑Восточной Азии.

Почему DDR5 дорожает в 2025–2026 годах и как тут замешан ИИ

В 2025–2026 годах цены на DDR5 выросли в разы. Разбираем, как взрывной спрос со стороны ИИ‑дата‑центров и серверов, сокращение и перераспределение производства DRAM, болезненный переход с DDR4 на DDR5, приоритет серверных поставок и спекуляции с дефицитными модулями приводят к росту цен, и даём практический чек‑лист, который поможет решить, покупать память сейчас или ждать.

Оптимальная комбинация вычислений для обучения LLM в 2026 году: как выбирать между арендой A100 и H100

В 2026 году при обучении LLM важно считать не цену часа, а стоимость за 10M токенов и общее время тренировки. В статье сравниваем A100 и H100 по цене аренды (A100 ≈ 1.5–3.5 USD/час, H100 ≈ 2.5–3.5+ USD/час), объясняем, почему H100 при 2–3× более высокой пропускной способности часто даёт до 3× лучшую экономию на обучение, разбираем типичные сценарии по размерам моделей (от 7B до 70B+ параметров) и показываем, как комбинировать A100 и H100 в одном проекте, чтобы минимизировать стоимость за токен при соблюдении сроков.