В мире тысячи сервисов, все из которых ежесекундно контактируют с дата-центрами, расположенными в различных уголках планеты. На их строительство тратятся колоссальные суммы денег, причем обслуживание обходится даже в большие суммы денег, чем само его возведение. Платить постоянно приходится за электричество, аренду земли, а также за многие другие вещи. Компания Microsoft нашла выход из этой ситуации, совершив революцию в мире, которая гарантированно изменит человечество.
Дата-центр проекта Natick компании Microsoft осуществил успешное погружение на морское дно около Оркнейских островов (Шотландия) в Северном море. На глубине 35,7 метра он будет работать пять лет, передавая данные по оптоволоконному каналу на берег, если ничего не сломается.
Основная идея подводных дата-центров — экономия на охлаждении и аренде земли. Главным образом, на охлаждении. Дата-центры потребляют огромное количество электричества (420 тераватт, то есть почти 3,5% мирового энергопотребления приходится на дата-центры), а 15−20% этой энергии уходит на охлаждение компьютеров.
Теоретически, в холодных водах Северного моря можно значительно сэкономить. Эксперименты показали, что тепло эффективно передаётся на корпус дата-центра и рассеивается в океане.
Дополнительное преимущество — отсутствие человеческого персонала в дата-центрах. Воздух с водяными парами и вредным кислородом в серверных заменяют осушенным азотом. За счёт этого существенно снижается коррозия и износ металлических деталей — известная проблема в дата-центрах.
Конечно, в таких условиях невозможно заменить вышедшее из строя оборудование, но инициаторы проекта надеются, что сами условия эксплуатации способствуют снижению количества сбоев и отказов оборудования.
Инженеры устанавливают стойки серверов Microsoft и инфраструктуру системы охлаждения в дата-центре Northern Isles проекта Natick на объекте Naval Group в Бресте (Франция). Дата-центр примерно соответствует размеру корабельного контейнера ISO длиной 12 м.
Погруженная под воду капсула — лишь крошечная копия настоящего дата-центра. В 12-метровом контейнере всего 12 стоек, 864 сервера и система охлаждения. Но нужно понимать, что это модульный дата-центр. На морском дне относительно несложно сцеплять между собой контейнеры, как космические модули на МКС. В результате образуются длинные «сосиски» с практически неограниченной масштабируемостью.
Первый подводный эксперимент с дата-центром Microsoft провела в 2015 году: тогда контейнер под названием Leona Philpot затопили на 5 месяцев. Если нынешний эксперимент Project Natick докажет свою успешность, то на следующем этапе Microsoft планирует топить группы по пять модулей. Одновременно будет проверена возможность разворачивать в море дата-центры в течение 90 суток.
Данный эксперимент проведён в сотрудничестве с несколькими компаниями. Французская Naval Group соорудила и оборудовала герметичные контейнеры. После проверки всех систем дата-центр погрузили на грузовик и перевезли из Франции в Шотландию, где его прикрепили к заполненной балластом треугольной базе для развёртывания на морском дне. Другой партнёр European Marine Energy Centre (EMEC) помог проложить кабели и подключить дата-центр к береговым узлам. Компания EMEC имеет опыт в подобных работах: она специализируется на прокладке подводных кабелей для подключения морских ветряных энергетических установок и других объектов…
Потребление электричества дата-центрами растёт уже десяток лет. Сейчас оно приближается к 3,5% мирового энергопотребления, а некоторые эксперты прогнозируют, что оно может вырасти до 20% или даже больше в ближайшие десятилетия. Но специалисты надеются, что закон Мура здесь сыграет нам на руку в том смысле, что энергопотребление процессоров из расчёта на один транзистор продолжит снижаться.
Microsoft считает, что размещение дата-центров на морском дне предпочтительно и с точки зрения логистики, ведь более 50% мирового населения живёт у морского побережья (ближе 200 км).
Впрочем, насчёт логистики можно поспорить, ведь 90% европейских дата-центров и сейчас располагаются около или внутри крупных городов: в Лондоне, Франкфурте и других крупнейших мировых точках обмена трафиком. Так что вряд ли логистика сильно улучшится от переноса серверов в море.
Некоторые экологи выражают беспокойство, что подводное размещение дата-центров приведёт к повышению температуры Мирового океана. Но приблизительные расчёты в уме говорят, что температура воды на глубине несколько метров повысится не более чем на тысячные доли градуса.
Очевидно, что проект Natick совершит революцию в мире. Если все будет хорошо, то американской корпорации Microsoft удастся совершить самую настоящую революцию на рынке, потому как вслед за ней размещать свои дата-центры под водой начнут сотни других компаний, в том числе Apple, Google и прочие. Ранее компания Microsoft официально объявила о покупке сервиса GitHub.
А как вообще охлаждают серверы?
В определенный момент некоторые предприятия дорастают до того состояния, когда их внутренние информационные системы перестают умещаться в одном серверном шкафу. Тогда руководителю IT-департамента предстоит взвесить все «за» и «против» и решить, строить или не строить серверную. Вариантов может быть несколько: от полного избавления от собственных мощностей и увода их в облака или колокейшн в большом ЦОДе, до строительства собственного мини- (или не очень мини) ЦОДа с блэкджеком.
Процесс расчетов, планирования и постройки серверной весьма ответственный и дорогостоящий. Вложится придется еще на стадии проекта, тут, кстати, можно сэкономить если все процедуры в серверной, от проектирования до строительства, будет производить один подрядчик. Естественное желание руководителя предприятия в такой ситуации — уложиться в минимально возможную сумму. И в штыки воспринимается любое удорожание проекта. В таких перепалках часто забывается, что, помимо строительства объекта, последует его содержание, которое при неправильном проектировании может оскуднить бюджет предприятия на еще одну несуществующую серверную по прошествии двух-трех лет.
Второй по величине потребитель ресурсов (в данном случае это электричество и расходники) в серверной — это система охлаждения. Ни для кого не новость, что “мощность” системы охлаждения серверной должна минимум совпадать, а в лучшем случае превышать на пару десятков процентов пиковую мощность всего оборудования установленного в серверной. О том, какие системы охлаждения бывают и как сэкономить на эксплуатации таких систем мы и поговорим в этой статье.
Классификация систем охлаждения помещений
Наиболее привычными для эксплуатации и понимания являются компрессорные кондиционеры. В них хладагент (в подавляющем большинстве случаев — фреон) переносит тепло от радиатора внутреннего блока во внешний, где рассеивает энергию в окружающую среду. Подробнее о принципе действия кондиционера можно прочитать тут. Затем идут жидкостные и комбинированные системы, в качестве основного хладагента используют воду или этиленгликоль, и выбор теплоносителя зависит не только от условий эксплуатации, а также от способа охлаждения. И самым эффективным решением, в определённых условиях, конечно, являются системы фрикулинга. Это исключительно прецизионные устройства, разрабатывающиеся почти с нуля в каждом конкретном случае.
Также стоит обратить внимание на классификацию по «формфактору». Тут условно можно разделить системы на два типа. Бытовые системы к которым мы все уже привыкли, обычно устанавливаются в офисах и квартирах, подвешиваясь на стены или потолок, но вполне могут служить системами охлаждения специализированных помещений. И прецизионные системы, куда можно отнести специализированные системы кондиционирования, и, конечно же, все фрикулинговые и жидкостные системы.
Внутри прецизионных систем есть систематизация по принципу действия и по способу доставки «холода» до «потребителей». И если с принципиальными отличиями все более менее ясно, то способов охладить непосредственно девайсы великое множество.
Среди классических общепринятых случаев можно выделить холодную комнату с установленными стойками, тут подойдут и бытовые кондиционеры. Классические варианты прецизионных решений- это устройства с рядными воздуховодами, с холодными и горячими коридорами, где стойки стоят рядами таким образом, чтобы забирать холодный воздух поступающий, например, из-под фальшпола. Они отдают нагретый воздух в коридоры, откуда он принудительно отводится. Также есть варианты с воздуховодами до каждой стойки, где воздух подается в каждую отдельно взятую стойку сверху или снизу и потом так же активно отбирается.
Неклассических решений чуть больше чем много. Надо ли говорить что все они прецизионные. Большинство решений это комбинации вышеназванных систем для повышения эффективности и сокращения затрат. Разброс тут — от индивидуальных кондиционеров на каждый серверный шкаф до жидкостного охлаждения каждого отдельного сервера или даже процессора. А так же стоит особо отметить системы с прямым контактом потребителя с жидкостью. В этом случае сервера полностью погружены в специальное масло. Масло это без запаха и абсолютно не проводит электричество. Жидкость постоянно циркулирует внутри бассейнов с оборудованием, и проходит через радиаторы охлаждения.
Стратегия
Не один раз стоит подумать о необходимости строить серверную. Существует мнение, что для мощностей меньше 5кВт выделенная серверная комната не нужна. Обычно все оборудование вполне себе «упихнется» в 42-47-юнитовую стойку-шкаф, и максимум что еще понадобится — это отдельная однорамочная стойка под кросс. Всё это можно отгородить от «админской» или какого нибудь другого помещения (главное не от бухгалтерии) стеклянной или гипсокартонной перегородкой с герметичной дверью, поставить спаренный бытовой кондиционер и идти пить пиво.
Но мы строим серверную. Прежде всего нам необходимо решить, какую систему охлаждения мы будем использовать, и дело тут не только в цене. Выбор способа охлаждения зависит от множества факторов: мощность оборудования, место расположения серверной комнаты в здании, географическое расположение самого здания и даже от предвзятого отношения к определённым типам охлаждающих устройств и недальновидности начальства.
Распространено мнение, что системам до 10кВт вполне хватит бытового кондиционера. Оно и понятно, ведь бытовые сплит-системы большей мощности, во-первых, достаточно проблематично купить, во-вторых, их стоимость приближается, а то превышает стоимость аналогичных по мощности прецизионных кондиционеров.
От местоположения серверной комнаты в здании сильно зависит возможность установки той или иной системы охлаждения, возможности подвести коммуникации, воздуховоды для специализированных систем, устроить фальшпол или установить турбины. При недостаточной высоте потолков невозможно устроить фальшпол нужной глубины, для установки туда воздуховодов обдува и забора воздуха прецизионной системы. Положение в середине здания создаст проблемы при прокладке воздуховодов, одного из вариантов фрикулинговой системы, а соседство с экономическим отделом вообще поставит крест на строительстве серверной из за «намжешумит».
Географический фактор играет одну из первостепенных ролей и часто ставит крест на возможности фрикулинга, если вы находитесь, например, в тропическом поясе. Именно поэтому ЦОДо строители так любят северные районы нашей планеты, ведь там можно вообще не использовать кондиционеры.
Вдобавок ко всему некоторые технические специалисты имеют своё собственное очень твёрдое убеждение в применимости одной системы и абсолютной неприемлемости других вариантов охлаждения. Они будут спокойно и уверено доказывать свою правоту, находя аргументы «за» и выискивая недостатки других предложений, от реальных до мифических.
В итоге, отталкиваясь от выбранной стратегии, мы и будем проектировать устройство самой серверной.
Стратегия охлаждения бытовыми кондиционерами
Вы обладатель небольшого парка серверов, 2-3 стойки с которыми будут стоять в отдельной комнате. У вас не намечается перспективы плавного роста мощностей и вы, либо не хотите заморачиваться, либо (что наиболее вероятно) не имеете бюджета на более энергоэффективные и экологичные решения.
Прежде всего решите, как в вашей серверной будут располагаться стойки с оборудованием относительно кондиционеров. Лучшим из вариантов в вашем случае будет установка внутренних модулей сплит-системы напротив ряда стоек один над одним, направленные на «лицевую» сторону открытой стойки или шкафа с сетчатой дверью. Оборудование внутри стойки имеет смысл устанавливать той стороной, с которой оно забирает воздух для охлаждения внутренних компонентов. Некоторые устройства, устанавливающиеся в стойки, могут быть перестроены или даже выпускаться в исполнении, когда они либо забирают либо выбрасывают воздух с лицевой стороны, или в одну из боковых стенок. Подумайте об этом при покупке.
Даже если роста суммарной мощности не предвидится, кондиционеры стоит взять с запасом по мощности, например, взяв за максимум пиковое потребление-рассеивание самой «горячей» стойки и помножив на их, стоек, количество.
Минимум отказоустойчивости в этой стратегии — N+1. На практике это выглядит как два и больше кондиционеров одинаковой мощности, где «N» кондиционеров способный поддерживать рабочую температуру в серверной пока "+1" ремнтируется или обслуживается. Чаще всего в небольших серверных используется два агрегата. Для продления ресурса обоих кондиционеров необходимо использовать устройство ротации кондиционеров. Устройство в определённые периоды времени переключает работу с одного кондиционера на другой, отслеживает их запуски и контролирует производительность. При выходе из строя одного из кондиционеров оно должно автоматически подключить «спящий» и оповестить ответственного о проблеме. Стоит отметить, что эту функцию поддерживают далеко не все модели бытовых кондиционеров.
Все серверные сплит-системы, установленные в широтах нашей страны, должны иметь так называемый «зимний комплект». Он представляет собой блок правления, некоторое усовершенствование радиатора внешнего блока кондиционера и систему подогрева картера насоса. Работает автоматически.
Прецизионные системы охлаждения помещений
Прецизионный (высокоточный) кондиционер (или другой охладитель) — создан в точности так, чтобы максимально эффективно работать в инфраструктуре с заданными конечными параметрами. Иными словами, когда мы говорим «прецизионный кондиционер», мы подразумеваем, что и помещение, и оборудование серверной, и сама «холодильная установка» разработаны в проекте, как совокупность технологий, позволяющих наилучшим образом обеспечить работоспособность, сохранность и долговечность дорогостоящего оборудования.
Надо ли говорить, что устройства индивидуального дизайна — удовольствие дорогое. Священные войны идут между приверженцами разных лагерей. Одни утверждают, что для обычной серверной комнаты достаточно спареного индустриального варианта бытового кондиционера, такие есть, например, у Daikin (серии FT и FAQ) или Mitsubishi (серии Heavy). При выборе такого варианта важно принимать во внимание такие минусы, как локальные застои горячего воздуха в углах или в юнитах стоек, которые не заняты активным оборудованием. Не менее опасный фактор — низкая влажность, ведь, как известно, кондиционер, осушает воздух. Сухой воздух способствует накоплению статического электричества, наличие статического потенциала на тонкой электронике негативно сказывается на работе чипов, и повышает риск их уничтожения разрядом. Конечно, большая часть факторов устранима, но в большинстве случаев это костылепроизводство. Дополнительные вентиляторы, увлажнители воздуха, это все множащиеся точки отказа, затраты на электроэнергию и обслуживание. Обслуживание, кстати, того же увлажнителя, дело не столько затратное по средствам, сколько по времени. Нужна регулярная чистка и ежедневный долив воды.
У прецизионников тоже не все гладко. Прежде всего они весьма габаритны: фреоновые кондиционеры имеют габариты двух-трех полноразмерных стоек. Так как контроль влажности — одна из основных функций специализированного кондиционера, то к внутренним блокам требуется подвести воду, что для некоторых IT-шников совершенно неприемлемо. Холодный воздух от таких агрегатов подводится к стойкам по воздуховодам, которые проводятся или под фальшполом, самый частый и самый дорогой вариант, или под потолком, что подразумевает высокие потолки и накладывает дополнительные ограничения на прокладку кабельных коммуникаций. Конденсаторы-охладители таких кондиционеров имеют порядочные размеры, и сразу возникает вопрос с их размещением и подводкой системы труб от внутреннего блока.
С минусами покончили, перейдем к плюсам. Сюда можно отнести: высокую производительность, резервируемость только активных компонентов кондиционера (например воздуховоды, я думаю, -резервировать смысла нет), четкий контроль за температурой и влажностью, возможность детального мониторинга. Плюсы следующие отсюда- это относительная экономия, гарантированая доставка холодного воздуха до потребителя, поддержка высокой плотности потребителей на стойку (это скорее правило, если стойка будет пустовать, она будет работать неэффективно и влиять на всю «экосистему»). Между увеличением затрат на кондиционер и последующей энергоэффективностью прослеживается вполне объяснимая взаимосвязь.
Как я уже говорил, самым распространенным явлением прецизионного кондиционирования является коридорная система, где стойки расположены рядами и установлены так, чтобы забирать воздух из холодных коридоров (куда воздух подается кондиционером) и отдавать в горячие (откуда воздух отбирается системой вентиляции). Воздуховодом такой системы чаще всего служит фальшпол. Панели самого пола в основном сплошные, вся кабельная коммуникация по возможности из-под фальшпола переносится под потолок, перед рядами стоек в полу устраиваются решетчатые панели откуда охлажденный воздух поступает на лицевую сторону стойки. Двери серверных шкафов при таком устройстве делают сетчатыми с обоих торцов, или же или же совсем не делают. Затем нагретый серверами воздух выдувается в горячий коридор откуда высасывается системой принудительной вентиляции. В идеале, следуя принципам термодинамики, вытяжку стоит располагать вверху горячего коридора, но часто это делают в фальшполу для экономии пространства над стойками для прокладки кабельных коммуникаций. С относительно недавних пор, холодные и горячие коридоры стали делать герметичными от общего помещения серверной. Этим удалось добиться существенной экономии на рассеивание ценного холода. В свободные юнитовые пространства шкафов обязательно требуется устанавливать заглушки, потому что горячий воздух так и норовит смешаться с охлажденным. Этим можно повысить эффективность охлаждения в полтора-два раза.
Intel, например, преследуя идею максимально просто и эффективно охлаждать оборудование, пошли дальше и даже запатентовали стойку с вытяжкой. Стойка представляет собой обычный 19" шкаф, но глубже аналогов и имеет в верхней крышке воздуховод, открывающийся в пространство фальшпотолка, откуда горячий воздух высасывается кондиционерами. Вся система, кроме кондиционеров, абсолютно пассивна. Но при этом, по утверждению Intel, способна охлаждать 32 кВт оборудования на стойку.
Принимая во внимание климат нашей страны, у прецизионных кондиционеров есть еще один большой плюс: их схему можно достаточно безболезненно доработать, добавив полный или частичный жидкостный контур. Используя в качестве хладагента этиленгликоль, параллельно контуру кондиционера строят еще один контур с жидкостным охлаждением, тем самым сокращая затраты на электричество, обслуживание кондиционера и увеличивая срок службы оных. Эффективность гликолевого контура начинается уже при температуре ниже +20 С, что даже летом по ночам в России совсем не редкость.
Дополнительный жидкостный контур дублирует таковой фреоновый, и в принципе может работать круглосуточно, в дневное «жаркое» время охлаждая компрессор кондиционера и конденсатор, а при падении уличной температуры переходя на частичное и полное охлаждение внутреннего теплообменника.
Лидерами среди производителей прецизионных систем охлаждения являются Schneider Electric, STULZ, Emerson Network Power, RC Group. Среди их решений есть и готовые комбинированные системы.
Жидкостные системы
Принципиальная разница жидкостного охлаждения и фреонового лишь в том, что в контуре жидкость чаще всего не меняет фазового состояния, отчего при равной мощности системы водяные и гликолевые системы проиграют фреоновым в эффективности. Однако у жидкостных систем есть неоспоримые преимущества, такие как емкость и универсальность. В системах с жидкостным охлаждением охладителем может быть как фанкоил на крыше или во дворе здания, так и система отопления самого здания. Жидкость может охлаждать воздух в серверной, а может использоваться как хладагент для отдельно взятого процессора. Неоспоримое преимущество жидкостного кондиционирования — это практически неограниченная протяженность трас, за счет низкой цены на хладагент, для самой же системы это только плюс. Самое опасное в данной ситуации — это протечка токопроводящего агента, но, судя по всему, это никого уже не пугает. IBM в этой ситуации отличился строительством SuperMUC, где добился 40% экономии энергии за счет отсутствия в системе охлаждения чиллеров. А Google в большинстве своих ЦОДов и вовсе используют систему собственной разработки, где используется система холодных и горячих коридоров.
Еще одна система с жидкостью подразумевает погружение сервера в специальное минеральное масло. Масло — диэлектрик, так что замыкания не будет. Что касается энергоэффективности, то, по утверждениям специалистов того же Intel, на систему охлаждения в таком случае затрачивается на 90% меньше энергии, а также снижается энергопотребление самих серверов. Стойки для погружного жидкостного охлаждения уже выпускаются, например, компанией СarnotJet. Стойки пригодны для размещения любых серверов, только предварительно требуется вытащить из них все вентиляторы.
Еще одним фактором универсальности является огромное количество способов охлаждения хладагента. Для примера можно привести технологию SeaWater Air Conditioning (SWAC), по этой технологии построен ЦОД Google в Финляндии. Из названия понятно, что для охлаждения воды, поступающей в ЦОД, используется теплообменник на холодной воде, забираемой с морских глубин.
Классическая же система жидкостного охлаждения выступает посредником между относительно высокой температурой внутри помещения серверной и охладителем, чаще сухой градирней и чиллером, снаружи.
Сухая градирня представляет собой закрытый контур охлаждения, где жидкость поступает в радиатор, который принудительно обдувается воздухом. Есть еще мокрые градирни, в них вода разбрызгивается и одновременно продувается. В грядирнях, или фанкоилах, жидкий хладагент обычно только подготавливается, охлаждаясь до температуры воздуха, само же охлаждение происходит теплообменнике чиллера.
Чиллер — это холодильник, он действует на фреоне, охлаждая проходящую через его охладитель жидкость до требуемой температуры.
Для классического жидкостного кондиционирования верны все те же правила, что и для систем на фреоне. Охлажденный в испарителе воздух проходит через потребителей и отбирается из серверной самой системой охлаждения. Несмотря на то, что жидкостные системы более универсальны и в целом дешевле в эксплуатации, чем фреоновые, эффективность их ниже за счет большего числа посредников воздух-чиллер-жидкость-воздух. Согласитесь, не самая удачная схема.
Убираем посредников
Прямой фрикулинг — самый энергоэффективный способ охлаждения серверных. Конечно, его эффективность целиком зависит от температуры воздуха «за бортом», но некоторые изменения в стандартизации и различные зеленые технологии постепенно двигают системы охлаждения серверных именно в этом направлении.
Начнем с того, что крупнейший стандартизатор инженерных систем, а в частности систем охлаждения и отопления, ASHRAE (англ. American Society of Heating, Refrigerating and Air-Conditioning Engineers) — Американское общество инженеров по отоплению, охлаждению и кондиционированию воздуха, с 2004 г. два раза повышало рекомендуемую температуру воздуха для охлаждения серверных с +22 до +27 градусов С. А в 2011 году были внесены поправки в стандарт, стратифицирующие два новых класса оборудования для серверных A3 и A4, где температурный диапазон увеличен до +40 и +45 градусов. Производители серверов уже выпускают такие модели. Хотя они еще не получили широкого распространения, все больше ЦОДо строителей склоняются к использованию зеленых технологий в охлаждении.
Для серверных в наших широтах фрикулинг может стать если не полной заменой классической модели охлаждения, то серьёзным подспорьем в охлаждении в холодное время года, а также позволит снизить и мощность кондиционеров.
Самой большой проблемой прямого фрикулинга является общая загрязненность воздуха в городах. Может случится так, что количество, расход фильтров и мощность вентиляторов для их продува может свести на нет всю экономию по электроэнергии и мощности. Это проблема решается разделением контуров и введения между ними теплообменника на основе роторного рекуператора. В данном случае фильтры тоже понадобятся, но более дешевые и с минимальным сопротивлением воздуху.
Другой большой проблемой является то, что, при вспомогательной функции нашего фрикулера, он будет плохо сочетаться с бытовыми системами и лучше всего с прецизионными.
Из плюсов: при прямом фрикулинге нет риска пересушить воздух в помещении серверной, т.к. идет постоянный обмен воздухом с внешней средой. С другой стороны, влажность воздуха на улице может категорически не соответствовать принятым стандартам влажности для серверных комнат, и тут на помощь приходит один из главных козырей систем фрикулинга — адиабатическое охлаждение.
Давно замечено что влажный воздух у водоемов всегда прохладнее чем на равнинах в удаленни от них, вспомнить хотя бы морской бриз. Для адиабатического охлаждения воздуха не нужно ни систем резервирования ни сложных технических решений. Устроены они по принципу мокрых градирен, в нагретый внешний воздух в камерах форсунками разбрызгивается вода, которая испаряясь охлаждает и увлажняет воздух. Данная система не только эффективно понижает температуру внешнего воздуха, но так же и создает необходимую влажность воздуха. Правда в таких системах появляется новый расходный материал — вода. По этому, на равне с PUE (Power usage effectiveness) ASHRAE ввела новый термин WUE (Water usage effectiveness (PDF)). За что отвечают данные параметры я думаю понятно всем.
В качестве ярких примеров внедрения таких систем можно упомянуть ЦОД eBay “Меркурий” в Фениксе (США) и Facebook в Прайнвилле (США).
Вместо заключения
«Так как же, все таки охлаждать небольшие серверные на пару десятков кВа?» — спросите вы.
Ответ неоднозначен. Большинству читателей подойдет решение из двух нормальных бытовых кондиционеров. Те же, кто сможет убедить собственное руководство в необходимости экономии и введения экологичных инноваций, получат море головной боли и потом бесконечное наслаждение конечным результатом.
Как я уже говорил, конкретное решение сильно зависит от климатических условий конкретного региона. Для восприятия климатической картины лучше всего взять историческую справку по максимумам и минимумам температуры и влажности за всю историю инструментальных наблюдений в вашем регионе или городе, а также проанализировать подробные данные по самым жарким температурам за последние лет 10-20. Этого с лихвой хватит на то, чтобы выработать четкую стратегию.
Несмотря на все плюсы фрикулинга, в условиях средней полосы, в 80 случаях из 100 обойтись без компрессорного или жидкостного кондиционера скорее всего не получится. В связи с этим, общая идея построения “большой” энергоэффективной серверной такова:
Это помещение с прецизионной системой охлаждения. В помещении устроены фальшполы для подвода холодного воздуха, с разделением на холодные и горячие корридоры, изолированные от общего помещения серверной для обеспечения более четкого теплообмена.
Большую часть времени, система работает на прямом фрикулинге, при повышении температуры внешнего воздуха подключается система адиабатического охлаждения. При превышении допустимых норм по температуре влажности, подключается система компрессорного или жидкостного охлаждения, т.е. кондиционер.
Столь интересная с технической и практической точки зрения адиабатика здесь не рассматривается ввиду своей специфичности, она требует более тонкого подхода к реализации. Что касается рассматриваемого варианта, то очевидно, что энергоэффективность в будущем потребует больших вложений на стадии строительства.
Стоит обратить внимание на то, что такая система не сможет работать без адекватного и подробного мониторинга состояния внутренней среды. Мониторинг температуры в холодном и горячем коридорах, влажность воздуха внутри и снаружи, наличие воды в системе адиабатики, контроль протечек. Для этого существуют устройства мониторинга, способные публиковать данные с различных датчиков через Ethernet или Wifi. Представлены они в виде плат, корпусных изделий и изделий для установки в стандартные 19" стойки. К примеру, netping уже оснащаются встроенным GSM модемом с SMS-модулем, способным оповестить о существенных изменениях параметров или срабатывании датчика не только ответственные узлы системы охлаждения, но и вас лично.
К тому же все эти данные не только можно, но и нужно вводить в систему глобального мониторинга, например, Zabbix, где по графикам и выборкам можно анализировать карту температур серверной, коррелировать изменения внутри серверной и снаружи. Автоматизировать создание инцидентов, основаных на совокупности показателей, а не на каком-то одном.
Все это позволит отстроить систему охлаждения на максимальную эффективность и предупредить её поломки.
К сожалению, в одной небольшой статье невозможно досконально проработать тему охлаждения серверной. С одной стороны, может показаться, что фрикулинг — это выход для всех, но на самом деле, это достаточно рискованное предприятие. История знает порядочно количество эпичных ситуаций, когда из строя выводились целые ЦОДы из-за ошибок в проектировании и недостаточном внимании к деталям. Наилучшим, хоть и более дорогим, является решение, которое подразумевает дублирование штатных систем охлаждения альтернативными. Больших вам ЦОДов, и непрестанного шума в серверных.
Источники:
https://habr.com/post/241581/
« Ноябрь 2024 » | ||||||
---|---|---|---|---|---|---|
Пн | Вт | Ср | Чт | Пт | Сб | Вс |
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 |