Свежие комментарии

Title Comment
Upd.

Тут что-то про него написано:
https://www.pugetsystems.com/labs/articles/Adobe-Photoshop-CC-Multi-Core...

4.0 basic пойдёт?

Ссылка:
http://freesoft.ru/heaven_benchmark_basic_edition/download/Unigine_Heave...
Сам скачал, но НЕ ПРОВЕРЯЛ (инсталляшка запускается).

ХЗ

ХЗ

а вот С236 чипсет, он с

а вот С236 чипсет, он с новыми камнями дружит?
смотрю вот на ASUS P10S WS

Есть крайне мало задач на

Есть крайне мало задач на десктопе, которые смогут утилизировать 2x22 ядра. То есть у меня самая тяжелая программа - фотошоп. Он - нет, не может.
Память - да, но мне на 32Gb тесно очень редко, думаю что 64 на ближайшие годы хватит.

Можно посмотреть в сторону

Можно посмотреть в сторону приличных рабочих станций типа hp z640/x840 или lenovo p710/p910. По 2 процессора вплоть до 22-ядерных типа E5 2699A v4 (55м кэша, стоят они, конечно, как самолёт, каждый, около 5к usd), у P910 есть карта расширения отдельная, или raid, или 2 m.2 слота (4XH0G78729). Заодно и с охлаждением проблем не будет, там всё продувается насквозь. В Z840 можно до 2тб памяти модулями по 128гб насовать.

Поиграюсь при случае на

Поиграюсь при случае на втором ящике.

На основном - у меня теперь полугиговый L2ARC, работает, мне нравится, но вот каждая перезагрузка - как серпом.

очень похожи на правду

Я не про правду, а про интерпретацию :-). Простой эксперимент. Создать большой файл (чтобы не обращать внимания на начальную статистику). Перегрузиться, сразу zfs-stats -ER. Прочитать большой файл и опять zfs-stats -ER. С одной стороны факт, что файл один раз физически прочитан с дисков, с другой стороны цифры статистики. Вглядишься, вдумаешься и вправду не врут :-). Но затем перестаёт мучить вопрос: как же так могло получиться, что при ежедневном физическом чтении 350 гигабайт с дисков (файлы каждый день процентов на 80 другие) и памяти в сервере всего 16 гиг - за три мясяца работы Cache Hit Ratio под 80% ;-).

"ну так других то ведь нет".

"ну так других то ведь нет".

Для нормальных датасетов, с *cache=all - zfs-mon кажет цифры, которые очень похожи на правду.
Ну там если нагрузить большим потоком, то отношение read с блинов/read с l2arc очень похоже на L2ARC hits.

А другой статистики-мониторинга все едино не видать.

Когда у меня были только

Когда у меня были только гигабитные линки , я кэширование данных не включал. Всё равно всё упиралось в 115MB/s, а установка =all имеет не только исключительно положительные свойства :-). Но тебя это похоже не касается.

"Она же показывает ARC hits на уровне 30%, чего я тоже не понимаю."
Вчера на это не обратил внимание. С тем, что показывает hits в ARC без поллитры не разберёшься :-), а если разберёшься, то поймёшь, что практическая польза от неё стремится к нулю. Я на эту статистику внимания не обращаю и тебе не советую :-).

Я наткнулся на это когда

Я наткнулся на это когда сравнивал размер читаемого файла с реальным объёмом чтения с дисков. Мне этого было достаточно, поэтому как можно ещё даже и не пытался узнать. Создаёшь тестовый файл, чтобы легче анализировать, загоняшь метадату в ARC (простое чтение, заодно можно проверить, что при каждом чтении с дисков считывается ровно размер файла), затем читаешь по сети и смотришь сколько реально прочиталось с дисков.

Ну да, =metadata на этом пуле

Ну да, =metadata на этом пуле задумывалось именно ради этого.

Насколько оно эффективно - это хороший вопрос, надо полноценный мониторинг zfs прикрутить бы, графики смотреть.

Ну как бы с датой уже

Ну как бы с датой уже разобрались, что она туда не попадает :-).

The default is 0 for Windows

The default is 0 for Windows 8 only. In Windows 8, the SMB redirector transfers payloads as large as 1 MB per request,

Т.е. на 8-ке large mtu включено с раздачи.

Как посмотреть размер запроса

Как посмотреть размер запроса (который прилетает)?

про метадату вопросов нет,

про метадату вопросов нет, конечно влезет.
Но если primarycache=all, то там даты будет полный ARC.

У меня windows 7, когда

У меня windows 7, когда раньше разбирался нашёл:
https://technet.microsoft.com/en-us/library/ff625695(v=ws.10).aspx
Смотри про Large MTU support. На recordsize=1M не проверял, но на 128k точно работает.

Вся метадата от 100+ гигов

Вся метадата от 100+ гигов данных точно залезет в ARC. Какой у неё будет размер не знаю. Наверняка при записи около 10% (vfs.zfs.dirty_data_max) тоже будет вытолкано из ARC-а. Может ещё что-то.

>> Поэтому нужно определиться

>> Поэтому нужно определиться, что ты подразумеваешь под размыванием ARC и для чего тебе это нужно.

Я подразумеваю следующее:
- пришел бэкап-клиент
- записал свои 100+ гигов
- верифицировал их (то есть прочитал)

Что после этого будет в ARC (который 30Gb) если никакой другой нагрузки в это время нет?
И второй вопрос - а зачем оно там, если шансов читать это в ближайшие сутки - ~0, да и вообще ~0

>> "Соотношение disk/network

>> "Соотношение disk/network должно было быть 16:1"

Мегабайт (записи) прочли, 64к отдали самбе, остальное - выкинули?

Как посмотреть "о чем договорились windows/samba" - не знаю, но размеры чтений-записей в smb4.conf выставлены именно в 64к (потому что больше, вроде бы, не бывает?)

"Соотношение disk/network

"Соотношение disk/network должно было быть 16:1"
Теперь я не понимаю. Почему? Не складывается у меня картинка в голове ни при каких раскладах :-).

"То как стало - хоть оно и медленнее - меня устраивает"
Думаю, есть большие шансы получить близко к тому, как было при primarycache=all. Совет был - уравнять размеры. Но ты так и не сказал о каком размере smb блока договорились твой windows и самба сервер. Также никто не заставлял уравнивать со стороны recordsize :-). Тем более, заранее было известно, что raidz чувствителен к размеру recordsize.

"Но ТОЛЬКО если при этом не происходит размывания ARC."
Интересное требование ;-). Наверно это уже ближе к теме - какая настройка для ARC была бы оптимальна для самба сервера, выполняющего какие-то конкретные задачи. Поэтому нужно определиться, что ты подразумеваешь под размыванием ARC и для чего тебе это нужно.

Вот если сходить на бета-сайт

Вот если сходить на бета-сайт, то там найдется версия 1.3.9 (бета) в которой это сделано.

От бутерброда я избавился,

От бутерброда я избавился, все по плану.
Единственное было мелкое неудобство -- у grub-x86_64.efi где то внутри референс на дефолтный раздел с его "кишками" и конфигами (и там был старый том на lvm). Пришлось сплясать и собрать ему grub rescue на ноутбуке.

Видимо efi не позволяет такое держать прямо на efi разделе (или позволяет, но требует какого-то нестандартного подхода -- стандарт: либо все на efi включая ядра и initrd, либо все на руте, а в efi только образ груба). Мне же хочется неизменную часть (груб с кишками и большей частью конфига) держать на efi, а список ядер и сами ядра/initrd держать на руте (в /nix/store) и никуда не копировать, чтобы GC было легче их убирать когда они не нужны.

А про софт-локапы я писал в рассылку, там говорят не пользуйся консумерскими sata, они в принципе не умеют нормально в рейде жить. И что скорее всего один из пары наедается потихоньку. С log sdc1 cache sdc2 (8 и 56г соотвественно) оно как-то нивелировалось до терпимого, но все равно буду менять диски при первой же возможности.
Подробности тут -- может еще что напишут, сейчас выходные таки (подвесил ссылку на тред в архиве -- вдруг кому полезно будет)

Опять же, отзывы

Опять же, отзывы противоречивые :)
Думаю взять на е-бее помеченные как-бы-интелом по $27. Может, конечно, переклеенный китай, но там хоть можно будет клейм выставить продавцу, если не заведутся.

если не заведётся --

если не заведётся -- перепрошивальщиков SFP/SFP+ NVRAM никто не отменял ;-P

не, я брал RJ45-е. Что,

не, я брал RJ45-е. Что, наверное, было глобально - ошибкой, но так проще.

Так. Вы будете смеятся, но у

Так. Вы будете смеятся, но у меня есть две карты Intel (в США пока, но почта-то работает). Но что-то много разговоров про то, какие они капризные к моудлям, что китай по 30 баксов не едят, и всё такое.
У тебя нет советиковЪ на эту тему, с твоим опытом?

Анонсирована в 2000-м году,

Анонсирована в 2000-м году, там "имевшейся техники" - D30 да D1 из сколько-нибудь вменяемых в смысле цены.
Надо понимать что за два года до был выпущен "and the 6-megapixel DCS 560, which initially had a suggested retail price of $28,500"
А у этой была цена, вроде бы, $7k и матрица от цифрожопы (потому и 25-400, там поди реальная была 25) т.е. на фоне D30 она смотрелась вполне ОК

То что N Digital реально вышла в 2002-м (и за те же примерно деньги - был уже совсем другой мегапиксель) - другая история (погубила ли контакс именно она - ну хз)

я насколько помню - она там

я насколько помню - она там именно среди имевшейся техники очень сильно "выделялась", на что и диапазон 25-400 намекает. как на зло не могу найти ссылку с примерами, где я всего этого насмотрелся.

Да ладно "адовейшей", год

Да ладно "адовейшей", год какой был? Проблема их в том, что между анонсом и реальным выпуском - прошло два года и как раз вышел 1Ds (тоже не подарок по матрице, но хотя бы вышел)

Pages

Subscribe to comments_recent_new