Энергосбережения псто

За осень и зиму я тут сделал тотальный апгрейд компьютеров своих:

  1. Сервер №1: был SandyBridge, стал Skylake-T, работает 24x7
  2. Сервер №2: был SandyBridge, стал Skylake-T, работал 24x7, сейчас ~10 минут в день (запускается по IPMI, на него выливается бэкап через zfs send/recv, выключается).
  3. Рабочая станция:
    • Был Haswell, стал Kabu Lake
    • Заработал нормально sleep, поэтому из 24x7 стал где-то 17x7
    • Монитор с подсветкой лампами пропит, теперь светодиодный.

Результат, надо сказать, впечатляет: минус треть по счетам за электричество, на ~220-250 квтч в месяц меньше (результат за три месяца усредненный). Дело не в деньгах, естественно, а в том, что похоже основной то потребитель в доме - компьютеры, а не чайники-стиралки (кондея нет, обогревателя тоже нет, плита - газовая).

Comments

А я, вот, распродал десктоп (кроме монитора) и вложился по-полной в ноут (с док-станцией для максимальной замены десктопных возможностей). Забыл про кнопку Sleep напрочь, теперь фигачит 24\7. Комп шуршал кулерами и винтами, спать не давал, поэтому работал ~16\7, при этом хавая заметно больше. Пока статистики мало по электричеству, но и так всё ясно.

как только в ноутах будет 10G (или, хотя бы, 5) - я подумаю об этом.

Так я и не предлагаю такой вариант как замену ваших серваков, просто мысли вслух.

У меня было два момента, когда носимое устройство по ощущениями было как-то реактивнее десктопа ну или "не сильно хуже"
- макбук - за счет PCIe SSD (и на некоторых наборах файлов FRV на макбуке работал примерно как на десктопе)
- MS Surface на скайлейке - опять же SpeedShift дает кисть при рваной нагрузке.

Но стоило тем же технологиям появиться на десктопе, так сразу морок проходил. Все-таки полноценный 95-вт процессор - это полноценный.

> как только в ноутах будет 10G (или, хотя бы, 5) - я подумаю об этом.

а thunderbolt <-> 10GbE адаптер некошерно разве ?

N/A

Ну в принципе, да, кошерно

Всё мобильное оборудование, включая топовые ноуты, затачивается под максимальный КПД по питанию.
В результате огромное количество микропауз (на инициализацию, пробуждение, повышение частот и пр. и пр.) создают ощутимые тормоза UI. Даже суперноуты сравниваются со стационарными компами только в каких-нибудь линпаках, но не в реальной работе пользователя.
Я читал только про один модельный рян "нормальных" ноутов. Но у них внутри серверная мамка , минимум 1 четырёхядерный честный Ксеон и весит это ОТ 4.5 кг. Цена, почему-то, тоже ОТ 4.5к$.
Целевая группа - (чтение лекций) демонстрация серверного ПО на выезде. :-D

Была. Не слежу.

речь исключительно про то что используя notebook у вас есть возможность иметь 10GbE... через thunderbolt порт + адаптер... громоздко, да

N/A

... мобильные "микросхемы" имеют временной лаг.
10G на сервере честнее, чем 10G на десктопе, который честнее 10G ноута. Независимо от "интерфейса".
Тем более, что Тандерболт - кривая (потребительская) реализация (в лучшем случае!) SCSI.
Условные 10G на всю цепочку устройств.
...

Какая связь между thunderbolt и scsi?

Один шнурок, на котором до хрена устройств.
Сами Apple говорили о преемственности.
У Тандерболт всё хорошо пока на одном хВосте не более 3 устройств, и только одно из которых является прожорливым!
Иначе начинаются "ноутбучные" проблемы с очередью и задержками. А то и вовсе чудеса, когда "крайний/последний" девайс перестаёт корректно работать (или нарушает корректную работу остальных устройств).

Помните сети на коаксиале, "тройники" и терминаторы?
Классический скази тоже требовал терминатора.
thunderbolt я не изучал, даже поверхностно (как всё остальное), но аналогия прямая и про проблемы читал.
ИМХО, thunderbolt - третья реинкарнация древней сетевой концепции мамонта.

Там где-то ещё болтается 2 версии ФайрВайр, родные Эппловские... как там - я вообще не знаю. :-(

Аналогии опасны
В частности, вот "на коаксиале" там CSMA/CD. А у TBolt?

Вообще, вредно смешивать гипотезы, аналогии и точное знание, да еще и если пропорция неизвестна.

Но про "точное знание" у Вас в блоге МНОГО написано. ;-)
Однако,:
"Один порт Thunderbolt поддерживает до шести устройств Thunderbolt, подключаемых через концентраторы (хабы) или цепочкой (daisy chain)." - АРХИТЕКТУРНО ничего не напоминает? ;-)

И, да, я могу ошибаться.
Но проблемы есть.
И никто не отменяет проблем "более одного девайса на 1 интерфейс".
Почитав форумы, я перестал сучить ногами, что у меня этого нет.
Да, оно быстрее, чем отмирающая классика. И удобнее.
Но до определённого "стечения обстоятельств" (а я помню давнишний "кейс" - в компе прерываний не хватало!).
И, как любил Эппл, а теперь и остальные подтянулись: главное, чтобы ПЛАВНО. А когда "красоты" поотключаешь - даже МакОС подтормаживает!

ИМХО!

Скорость - говно: пока ты ещё пальцы раскорячишь!...

И, говорят, геймеры со мной согласны.

А когда бухгалтеру становится также не_комфортно, как "геймеру в Топе", поневоле начинаешь задумываться!
(про гигабайтные базы 1С я упоминал...)

Много чего напоминает. Вот например USB. Толку то.

ТБолт это внешний интерфейс для PCIe прежде всего. Напрямую мапится.

Я не представляю весь проект, объём данных, т.п., но, подозреваю, что Вы оценивали вариант "переехать в облако". Включать только по необходимости, разные хранилища (быстрое-медленное), т.п., т.д. Как оно по сравнению со "своим железом" и затратам на содержание?

n.b.: у нас на работе есть некая софтина, который зело много ресурсов надо (террабайтные бд, вычислительные ядра, т.п.). Но это всё надо весьма неравномерно в году, есть эдакие пики использования. Сейчас как раз тестируем облако, что-как. Потому и спрашиваю.

Нет, конечно, не оценивал.

Вот представим мне понадобился архив фоточек за 2011-й год. И что, ждать полсуток пока приедет?

А, это только домашнее? Я думал это для libraw и frw, для разработки-тестирования, т.п.

Ну этот то набор файлов в любом случае не в облаке, там то он зачем?

20 последних лет из 30 лет стажа работы с компами мне постоянно кажется, что "нас где-то/в чём-то наёбывают".
Сначала были модными сервера (свои, в локалке) - появились гигабайтные базы 1С (например), которые даже гигабитная сеть пережёвывала минутами.
Потом появились кластеры и прочее - стало упираться ещё и в стоимость оборудования.
Колокейшн даёт супернадёжность, плюсы которой пожирает внешняя сеть.
Теперь модны облака - это вообще звиздец!!! - тормоза локальной сети + тормоза внешних каналов + неочевидные затыки сетевого оборудования "где-то по пути прохождения пакетов".

Выводы (ЛИЧНЫЕ!) :
- самое быстрое и дешёвое, как и раньше - локальный комп (для тяжёлых задач - воркстейшн);
- серверы, кластеры - только внутри локалки (но это в 2-5раз дороже);
- облака - только приватные (читай "внутри локалки") - это ещё дороже.

Алексей лукавит, говоря что не пробовал. ;-)
Ему вообще не подошло. Ни для файлового хранилища ни даже для бэкапов.

Для вашей задачи совет, обычно очень дорогой , но для Вас бесплатно:
если критично время исполнения "в пике" - либо локально либо сервер/кластер В ТЕРМИНАЛЬНОМ РЕЖИМЕ.

Строго ИМХО.

Я не соглашусь вот в каком разрезе.
Локальный комп не всегда тупо хватает для некоторых задач. (Да-да, задачи разные и всё такое). Дальше встаёт вопрос, "если не у себя под столом", то где в конторе и каковы требования конторы по business continuity, безопасности, как апгрейдить раз в полтора-два года? Вот тут становится интересна виртуализация ресурсов (привет Алексу как раз). Ибо, к примеру "добавить пяток вычислительных ядер", "аллоцировать пару террабайтов под бд", т.п. на лету, с учётом (см. выше) становится проблематичнее. К тому же некоторые задачи строго "сезонные" (недельно-месячно-в году) по ресурсам. Ну, тупо, отчёт какой месячный -- он раз в месяц, т.п. Поэтому многие-многие ресурсы могу тупо проставивать. Что делать? Опять же виртуализация. А там, где виртуализация, встаёт вопрос чего-как. PaaS, SaaS, IaaS, т.п.

По-моему вы смешиваете "виртуализацию" и "краткосрочную/долгосрочную аренду мощностей на стороне", а это не одно и то же.

Виртуализация (иногда/часто/... требуемых ресурсов: крато-/долго-) ресурсов (в разном виде IaaS как "железо" до SaaS/PaaS) ведёт к мысле о выносе (части) инфраструктуры в облачного провайдера. Это не для всех задач, прочая-прочая-прочая. Как-что реализовано в облаке (виртуальное, или настоящее железо) -- это совсем-совсем другой вопрос.
Ещё раз -- я понял, что это не для задачи разработки, а для домашнего. Это совсем другой коленкор. Дома -- домовое.

Еще раз: я не вижу связи между виртуализацией и арендой.

Ок, в контексте того, что это не для Вашей задачи.

Для некоторых проектов/задач аренда виртуализированных ресурсов удобнее (мой аргумент на "почему" -- см. выше).

(Наверное, даже так я бы сказал, слова "аренда" и "вирчуал ресурс" -- не связаны. Во втором случае потребитель покупает услугу, а не арендует оборудование. Наверное так даже корректнее.)

Еще раз, теплое и мягкое:
- аренда это финансовый (хозяйственный, если хотите) механизм, приобретение (кусочка) ресурса, который дорого строить самому. Ресурс может быть самый разный (избыточная мощность CPU, каналы связи, географическое присутствие, много их).
- виртуализация - это технологический механизм (изоляция, консолидация, миграция по физическому железу).

Они вот реально ортогонально. Кто мешает заниматься виртуализацией в собственном ДЦ в кладовке?

Ok, я понял Вашу мыслю, да.

Потратить 100к+, чтобы экономить 1200 в месяц? Вроде как лет за 7 окупится? :)

Никогда не окупится. Но и не было цели окупить, сайд-эффекты

А какие ещё плюсы вылезли от апгрейда, кроме стало тише? Ты где-то в процессоры упирался?
Вот у меня ящик с дисками на i7-870 есть, и как-то смысла что-либо там менять я не вижу вообще. Но греется :)

Если говорить только про сервера то стало тише, прохладнее (при том что дисков стало больше), появилось ECC на памяти, появились M.2 разъемы под кэш (работает только один пока, впечатления смешанные), самой памяти стало больше и есть еще резерв для удвоения (вроде не надо, но вот я это написал - и зачесалось из 2x32 сделать 64+8 или 16). Появился резерв по портам SATA.
Вместе с ECC - появился IPMI, что и позволило сделать включаемый на 10 минут в день второй ящик (ну наверное через WOL можно было бы)

А какие матери были/стали, если не секрет?

Были какие-то гигабайты на Z68 и Z77, если не путаю.

Стали супермикры.

> и как-то смысла что-либо там менять я не вижу вообще

i7-870 - 5406 попугаев по пассмарку
i3-6100 - 5480
Вроде как общая производительность такая же, но
i7-870 Single Thread Rating: 1300
i3-6100 Single Thread Rating: 2106

Новый i3 будет меньше жрать/греться и при этом гораздо отзывчевее.
Ну и дискам в ящике будет лучше от отсутствия сильно горячего соседа.
Если i3 дорог, то можно найти скайлейк пентиум - будет не сильно медленнее.

Вы про мать не забыли? 4-х слотовые не дешёвые, а три слота нормальных заняты и ещё один хотелось-бы.
Ящик один фиг по дискам ограничен, смысл процедуры?

Ну вот если тебя устраивает все - зачем спрашиваешь?

Выигрыш от новых поколений понятный же
- тупо быстрее (через 6 поколений будет весьма заметно)
- тупо реактивнее на рваной нагрузке (новые версии SpeedStep, затем SpeedShift)
- сильно больше memory bw, если это важно
- и при этом меньше жрут, сильно меньше.

Если все это неинтересно даже в комплексе - о чем вообще разговор? Уговаривать тебя вроде как незачем.

Мне было интересно, есть-ли разница снаружи для ящика с дисками. Кроме тише ака холоднее. Экономить бабло через экономию электричества - тоже так себе план получается, нужен все-таки не домашний масштаб. Потому и спрашивал, ты же зачем-то апгрейдился, может я чего не понимаю, кроме очевидного. А мне тут про core i3 рассказывают, забыв про платформу в целом.

И вот этот прогресс на ядро +5-10% за поколение - печалит (между первым и шестым - всего 60% в попугаях, причём шестое ещё и почти на гигагерц быстрее, а это само по себе 30%).

Я апгрейдился ради тишины и прохлады. Задачи экономить электричество не было. У меня получилось.

Что касается попугаев, то пересаживаясь с Haswell на i7-920 (на даче) я чудовищно страдал, все очень медленно. Хотя делал все то же самое, девелопил программы под визуальной студией. Попугаи не отражают той же скорости подъема с низкой частоты на большую, например.

Вот читал некий текст про новые пни, которые с HT. Idle power системы - 30 ватт, загруженной - 60.
Вспомнил про эту беседу и нашел график про i7-870, раз уж про него речь зашла. Ну вот 90/180 по анандтеху.

И проблема не в ваттах, а в их рассеянии по квартире.

А для чего 4х-слотовые с учётом того, что у скайлейка неплохая встроенная графика и для коробки с дисками её хватит с головой. Т.е. 1 слот освобождается за счёт этого.

sas + sas expander (у меня в этот ящик можно 26 2.5 дисков сунуть, и ещё в принципе есть место, чтобы штук 12 добавить, мда) + mellanox infiniband (а это 20G за копейки) - вот три слота и кончились. И периодически возникает желание в четвёртый слот тоже что-нибудь сунуть.

понятно, что колхоз, и что по пацански это не так делается, но пацанские железки совсем других денег стоят

Херасе!
26 дисков!
У меня в маленьком корпусе сейчас 5 х 3Тб винтов (2.5) + ссд для системы.
9Тб (raid 6) уже довольно хорошо для дома/для семьи.
А с 26ю дисками совсем маньячно.

Несмотря на это, разница в потреблении i7-870 супротив i3-6100T будет видна и на фоне 26 дисков.

Да там дело ещё не только в потреблении самой системы.
Ещё тепло, которое зимой только в плюс, а летом - это кондиционер дольше гонять.

Кстати, я сам для коробки с дисками купил вот такое: https://www.newegg.com/Product/Product.aspx?Item=N82E16813157729
Для крэшплана и домашнего owncloud хватает с головой. Всё остальное процессора особо не требует.
Правда, пришлось добавить pci-e сата контроллер т.к. дисков у меня 6.

Я оставил запас по слотам. SAS, 10G, может еще что захочется

Гигабайты фиг с ними, а вот супермикры можно поточнее?

Одна X11SSH-LN4F (потому что портов было надо).
Вторая - чуть попроще, там кажется 2 гигабита, модель не очень помню, но та же серия X11...

Меня ещё видимокарты впечатлили. Я как-то давно не интересовался, а тут понадобилось заставить компьютер играть в Doom, который новый. И оказалось, что 1050 Ti выдает 60 fps в FHD, что не удивляет. Удивило то, что оно не требует дополнительного питания, довольствуется БП в 300 ватт, существует в low profile варианте и тупо холодное по всем отзывам. Я как-то привык к этим безумным хвостам от БП к видеокартам, которых год от года было всё больше и они были всё толще - а теперь оно всё оказывается не нужно

это при каких настройках? а то 60 в ultra low и даже банальном high это две очень большие разницы

Ну тесты же доступны. Это всё при high или ultra

Ну так их процессорные видяхи подпирают снизу. То есть для всего "кроме игр" (ну и тяжелой инженерной графики и всего такого) - они уже вполне. Соответственно младшие дискретные - уже вполне достойные, выпустить просто затычку в слот - не канает.

Меня больше именно питалово порадовало. И то, что 500вт БП это не теперь не low-end, а больше, чем нужно здоровому человеку. В маленький корпус с TFX блоком спокойно можно запихать такую видяху, i7 на Kabu Lake и радоваться жизни

В 500Вт (если они настоящиее 500) можно и GTX 1070 вписать, imho.

NVidia тоже считает, что получится

Nvidia и про 1080 так считает. Теоретически - да и даже с запасом.

А я забыл похвастаться!

И это теперь ещё живёт в Supermicro'вском корпусе с 5 + 8 hot-swap SATA/SAS, так что все проводочки уложены идеально, всё чисто, красиво и хотсвапно.

Интеловый китай?

Настоящие X520-DA2 из США (подарок), SFP+ модули с е-бея по $8.5 штука (с этикеткой Intel, но мы понимаем, что китай, но опознались без проблем).

Проблем с перегревом нет?

У меня (но RJ45) пришлось мелкие вентиляторы ставить на обдув непосредственно карт, иначе при работе двух портов - жопа.

У меня один порт и, в общем, SAS-адаптер греется больше.
Интересно, температуру самой карты можно как-то посмотреть? Но датчики в корпусе ни один не показывает больше 45 градусов.

Температуру я не умею узнать у них.

Но они начинают орать про оверхит в некоторый момент и выключаются до перезагрузки.

Такого пока не было. Посмотрим, что будет, если придёт лето.

У меня даже зимой - если дать на оба порта нормальную нагрузку, гигабит в 5 хотя бы

Ну видишь, у тебя два порта.

А ещё у тебя медь? Судя по тому, что SFP+ модули в медь бывают но по отзывам почти нигде не работают из-за недостатка питания (!), медь может и на один порт жрать больше, чем оптика простая, не многосоткилометровая.

О, так они еще и не работают. Как хорошо что я с ними не связался.

Да, медь, выше написано

Ну, я почитал, что у HP, например, с ними совместимо 10% свитчей только.
Отызвы я гуглил и они были противречивые. У кого-то заводится, у кого-то нет, у кого-то через один.

Но я и дешёвых не нашёл, они все стоили какие-то безумные сотни нефти.

А, впрочем
Я бы если бы брал медь, то не RJ-45, а нуль-модем тамошний, который на несколько метров.

DAC, да, вроде везде работает. Мне бы его даже по длине хватило, но стены, плинтуса, кабель-каналы, а там разъёмы огромные.

А, вот, про SFP+ можно спросить точно:

plugged: SFP/SFP+/SFP28 10G Base-SR (LC)
vendor: Intel Corp PN: FTLX8571D3BCV-I3 SN: ALG0QL5 DATE: 2011-10-20
module temperature: 44.63 C Voltage: 3.31 Volts
RX: 0.56 mW (-2.48 dBm) TX: 0.66 mW (-1.77 dBm)

А про чип в sysctl'ях ничего не видно

Add new comment