Банковская инфраструктура: работа на опережение
Развитие банковского бизнеса сегодня сопровождается значительным увеличением объемов обрабатываемой информации. Центр обработки данных (ЦОД) – один из важнейших компонентов инфраструктуры банка, поэтому строительству и подбору поставщиков оборудования для него уделяется особое внимание. В числе таких поставщиков оборудования для серверных и ЦОД компания HTS, которую знают по бренду STULZ. Прецизионные кондиционеры и холодильные машины STULZ – это надежность, энергоэффективность, широкий типоразмерный ряд, все это позволяет решить задачу охлаждения в помещениях любого размера.
Банковская инфраструктура: работа на опережение
Развитие банковского бизнеса сегодня сопровождается значительным увеличением объемов обрабатываемой информации. Центр обработки данных (ЦОД) – один из важнейших компонентов инфраструктуры банка, поэтому строительству и подбору поставщиков оборудования для него уделяется особое внимание. В числе таких поставщиков оборудования для серверных и ЦОД компания HTS, которую знают по бренду STULZ. Прецизионные кондиционеры и холодильные машины STULZ – это надежность, энергоэффективность, широкий типоразмерный ряд, все это позволяет решить задачу охлаждения в помещениях любого размера.
STULZ – частый выбор представителей банковского сектора. Среди успешных примеров использования нашего оборудования можно выделить ЦОД банка ВТБ.
В настоящее время ВТБ имеет девять основных площадок для размещения серверного оборудования. Одна из самых инновационных – это ЦОД № 4, расположенный в сервисном центре рядом со станцией метро «Южная».
ЦОД № 4 объединил ряд передовых технологий, позволяющих повысить отказоустойчивость и снизить затраты на электроэнергию. По словам Алексея Таракина, начальника отдела эксплуатации ЦОД в Москве Управления эксплуатации Управления делами ВТБ, в проект заложены технические решения, которые позволят в дальнейшем без особых усилий подключать любой новый сервер, стойку, любое оборудование: «Для банка было важно построить универсальный ЦОД, который был бы готов принять любое IT-оборудование, в том числе и то, которое сейчас еще не существует, но с большой долей вероятности появится на рынке через несколько лет».
Помимо новой площадки в том же здании размещены еще три дата-центра, запущенные в 2007, 2009 и 2011 годах. Дата-центр № 4 начал работу в 2015 году. Общая его площадь составляет около 400 м2 (без учета гидромодуля), включая дополнительные помещения. Он занимает несколько помещений на первом этаже офисного здания. Так как здание изначально не проектировалось с учетом размещения ЦОД, возникла необходимость выполнить строительную подготовку площадки, в том числе усилить перекрытия до уровня 1,5 т/м2. Кроме того, для прокладки коммуникаций и размещения вентиляторной группы был смонтирован фальшпол высотой 1 м.
Подведенная мощность ЦОД – 1,6 МВт, из которых полезная мощность, которая как раз и приходится на обеспечение нужд IT-оборудования, составляет примерно 800 кВт. ЦОД № 4 рассчитан на установку 92 серверных шкафов, но при необходимости может быть уплотнен до 100 стоек. Уже к сентябрю 2016 года дата-центр был заполнен на 50 %. Проектная емкость кросса – около 18 тыс. портов. При этом среднегодовой коэффициент энергоэффективности дата-центра составляет 1,41.
«Как известно, основная статья расходов на содержание ЦОД – это счета на оплату электроэнергии. Больше всего электроэнергии уходит на утилизацию теплоты от стоек с помощью системы холодоснабжения. Поэтому данному аспекту на этапе проектирования и выбора оборудования было уделено особое внимание, – объясняет Алексей Таракин. – Имелся и ряд технологических особенностей конструкции здания, которые надо было учесть при выборе системы холодоснабжения, такие как ограниченность свободной площади под установку наружных чиллерных блоков и ограничения по шуму из-за расположения офисов на втором этаже здания».
При проектировании климатической системы были использованы кондиционеры STULZ как наиболее оптимальный вариант по соотношению удельной производительности к занимаемой площади.
«При разработке проектного решения мы рассматривали различных производителей кондиционеров. В первую очередь сравнивали такие характеристики, как энергоэффективность, габариты и вес, а также внимательно изучали опции, упрощающие процесс эксплуатации, – рассказывает Всеволод Воробьев, руководитель направления ЦОД Центра сетевых решений компании «Инфосистемы Джет». – Практически по всем параметрам лучшими были чиллеры STULZ новейшей на тот момент линейки CyberCool 2. Благодаря инновационной конструкции теплообменника и рамы на одинаковой площади мы получили бoльшую холодопроизводительность по сравнению с конкурентами. В условиях ограниченной площади внешней территории заказчика этот фактор был одним из решающих».
ВЕБИНАР АВОК 09 октября 2018 года |
«Мы постарались учесть пожелания всех участников проекта: служб заказчика и системного интегратора, которым совместно предстояло реализовывать данный ЦОД. Для службы эксплуатации заказчика были важны: эксплуатационные характеристики оборудования, надежность предложенной системы, удобство, скорость и простота ее обслуживания, минимальное энергопотребление системы. Также предъявлялись требования к уровню шума холодильных машин наружной установки, так как они должны были быть установлены в трех метрах от офисного здания банка, – пояснил Алексей Колоколов, менеджер проекта от компании HTS. – Для IT-службы заказчика была важна универсальность решения, чтобы можно было стойки с оборудованием со средними теплоизбытками (до 7 кВт) разместить в любой зоне машинного зала, а высоконагруженные стойки (до 16 кВт) – в специальных выделенных двух гермозонах, которые обеспечивают такой теплосъем. Интегратору же необходимо было получить лучшую энергоэффективность системы, минимальные габариты как внутренних блоков – кондиционеров, так и наружных блоков – чиллеров. Особенно сильно было ограничено место для установки холодильных машин».
В результате в ЦОД были установлены чиллеры CyberCool 2 по 943 кВт с пониженным выделением шума, минимальным потреблением электроэнергии и немедленным запуском после сбоя питания, причем 100 %-ная мощность достигается в течение всего 2 минут.
Вентиляторные группы внутренних блоков прецизионных кондиционеров STULZ ASD1350CWU и большая часть коммуникаций были перенесены в фальшпол, а гидромодуль системы охлаждения размещен в отдельном строении вне дата-центра. В совокупности это позволило сэкономить до 20 % полезного серверного пространства. Как рассказал Всеволод Воробьев, все трассы хладоснабжения были проложены не в пространстве фальшпола первого этажа, как это часто бывает, а в подвальном помещении, что позволило эффективнее использовать фальшпол как воздуховод, а также существенно упростило обслуживание трубопроводов. Чтобы не занимать полезное место, для оборудования хладоцентрали соорудили пристройку к зданию, включающую все дополнительные подсистемы, такие как освещение, системы пожаротушения, СКУД и т. д.
«Шкафные кондиционеры с вынесенной вентиляционной группой под фальшпол позволили увеличить высоту установки, но сократить ее длину, что в данной конфигурации здания было преимуществом, так как не было ограничений по высоте, но были ограничения по периметру машинного зала, – добавляет Алексей Колоколов. – Расположение вентгруппы в фальшпольном пространстве позволило сократить уровень шума (56,3 дБ на расстоянии 2 м) и энергопотребление установки (2,7 кВт) при холодопроизводительности 91 кВт. У заказчика по проекту предусмотрен фальшпол высотой 1 м и фальшпотолок высотой 1 м, что делает оптимальными воздушные потоки и не дает возможности перемешиваться горячему и холодному воздуху внутри машинного зала».
В серверном помещении выделены две изолированные гермозоны с использованием межрядных кондиционеров STULZ CRS560 CW, рассчитанные на более высокие удельные мощности, где размещаются высоконагруженные стойки (до 16 кВт). Рядные кондиционеры с фронтальной раздачей воздуха показали максимальную холодопроизводительность 46,8 кВт при минимальном потреблении 2,8 кВт и минимальной занимаемой площади. Технология изолированных холодных коридоров позволяет поддерживать в них необходимый микроклимат и температурный режим без риска локальных перегревов в ЦОД. При этом каждый из чиллеров в штатном режиме загружен на 50 %. Кондиционеры внутри помещений зарезервированы по схеме N + 2.
«После трех лет эксплуатации дата-центра мы с полной уверенностью можем сказать, что нам удалось выполнить все поставленные задачи. Система холодоснабжения полностью удовлетворяет наши потребности как по экономичности, так и по отказоустойчивости, – подводит итоги проекта Алексей Таракин. – Сейчас первая очередь ЦОД № 4 загружена на 100 %, и мы приступили к реализации второй очереди проекта. Все оборудование было подобрано на этапе проектирования первой очереди, и, поскольку банк считает свои затраты на каждом этапе, экономически выгодна оказалась модель реализации проекта в две стадии. На первом этапе полностью были выполнены общестроительные работы, установлено порядка 80 % инженерных систем, позволяющих разместить до 47 стойко-мест».
Для реализации следующего этапа уже заключен контракт с одним из ведущих системных интеграторов России на строительство инженерной инфраструктуры второй очереди ЦОД. Остается только привезти оборудование и подключить его. Срок ввода в эксплуатацию – первый квартал 2019 года.
www.h-ts.ru
Статья опубликована в журнале “АВОК” за №7'2018
pdf версияСтатьи по теме
- Применение поверхностных воздухоохладителей и установок искусственного охлаждения для ЦОД
АВОК №7'2020 - Холод из глубины
АВОК №7'2020 - Три кита IMBAT: эффективность, инновации, оригинальный дизайн
АВОК №6'2023 - Видеоконференция АВОК «Инженерная инфраструктура центров обработки данных»
АВОК №7'2020 - Водоэффективность в контексте ЦОД
Сантехника №5'2020 - Назад в будущее: современные системы охлаждения ЦОД
АВОК №4'2021 - Снижение энергоемкости систем технологического кондиционирования воздуха ЦОД и их декарбонизация
АВОК №7'2021 - Цифровые валюты и ЦОД
АВОК №7'2021 - Применение прямого freecooling (freshcooling) на базе прецизионного кондиционирования STULZ
АВОК №7'2021 - CFD-моделирование для построения эффективных систем охлаждения дата-центров
АВОК №7'2018
Подписка на журналы