Свежие комментарии

Title Comment
А как было бы nfs по сравнению с samba?

А как было бы nfs по сравнению с samba?

Ну, казалось бы, самба примерно одинаковая на FreeBSD/Linux?

Ну, казалось бы, самба примерно одинаковая на FreeBSD/Linux?

А если запустить tcpdump и посмотреть? Samba случайно не 4K

А если запустить tcpdump и посмотреть? Samba случайно не 4K блоками читает?

SAS с SATA мешать таки не стоит. Random r/w должен быть быстрее на SAS only array.

i5-2400 у меня потому что просто был под рукой. Я при очеред

i5-2400 у меня потому что просто был под рукой. Я при очередном развинчивании этого ящика попробую туда сунуть какой-то целерон за $35, сдается мне что с задачей пересылки HBA-HCA он справится (я, впрочем, не пробовал - и еще на CPU load посмотрю прежде чем).

А "удобство ZFS" - в моем случае идет после скорости. Хотя я вот уже призадумался, не нужно ли второй ящик (который "универсальный сервер на весь дом", а не просто вынесенные из WS диски) поапргейдить RAID-контроллером.

Да, за hba дерут по чёрному, но всё равно разница будет долл

Да, за hba дерут по чёрному, но всё равно разница будет долларов в 350. В быстрых дельта сохранится. Ну и i5-2400 тоже денег стоит. Т.е. в итоге "сколько стоит удобство zfs?" :)

То, что спецпроцессор чексуммы быстро считать умеет -- это понятно и скорее всего это близко к пределу. Просто дорого слишком за него просят, в интерированном варианте ещё куда не шло, а в отдельной плате цены корпоративные.

Вообще-то было бы интересно сравнить на этой задаче i5-3570 и i7-3770.

Ну не дешевый, но и не очень новый, сейчас вроде и побыстрее

Ну не дешевый, но и не очень новый, сейчас вроде и побыстрее есть.

Но и просто SAS HBA на 8 портов тоже денег стоит, разница между HBA и RAID будет как раз примерно как 3770 стоит (без кулера и памяти :)

Ну то есть вот лично я был почти уверен, что ZFS будет быстрее "просто RAID", а оно вона как оказалось. В практическом смысле это означает, что на простые файлеры можно ставить совсем слабые и маложручие CPU, но с RAID. Это и по питанию/охлаждению может быть выгоднее и вообще.

Ну ASR-5805 -- предмет недешёвый, его можно и с i7-3770 с шу

Ну ASR-5805 -- предмет недешёвый, его можно и с i7-3770 с шустрой памятью сравнить.

Ну так столько и есть. 8Tb сырого стораджа (в raid6/z2 - 6Tb

Ну так столько и есть. 8Tb сырого стораджа (в raid6/z2 - 6Tb), 8Gb памяти.

памяти маловато zfs-guru говорят об 1Гб на 1Тб

памяти маловато
zfs-guru говорят об 1Гб на 1Тб

У производителя написано: Solaris 10: InfiniHost III adapte

У производителя написано:
Solaris 10: InfiniHost III adapters with memory, ConnectX Family
http://mellanox.com/content/pages.php?pg=osv_support_ib&menu_section=34

А с mem-free Infinihost (которые по 23 бакса за штучку :) - да, облом.

щито? ересь.

щито?
ересь.

SUJ же асинк сам включает.

SUJ же асинк сам включает.

Нет, native http://zfsonlinux.org/

Нет, native
http://zfsonlinux.org/

Ну правильно, zfs fuse же?

Ну правильно, zfs fuse же?

и, кажется, они вовсе с солярисом не дружат, увы. по крайне

и, кажется, они вовсе с солярисом не дружат, увы. по крайней мере quick googling меня приводит именно к таким печальным выводам.

Ну была надежда, что линуксячий ZFS окажется быстрым (быстре

Ну была надежда, что линуксячий ZFS окажется быстрым (быстрее RAID6 аппаратного).

Авотхер: 302Mb/sec file IO, 165Mb/sec - запись в zfs volume (как устройство).

В общем, при наличии на линуксе SRP, разбирательства с zfs и

В общем, при наличии на линуксе SRP, разбирательства с zfs имеют лишь академический интерес.

Для длинной записи ZIL на одном SSD - не спасет.

Для длинной записи ZIL на одном SSD - не спасет.

ZIL не пробовал вынести на SSD? И L2ARC, до кучи.

ZIL не пробовал вынести на SSD? И L2ARC, до кучи.

IB там не завелся. А без IB жизни нет.

IB там не завелся. А без IB жизни нет.

зфс во вре всегда было помедленнее и отставало в развитии.

зфс во вре всегда было помедленнее и отставало в развитии.

Нексента и производные так и не завелись?

Интересно, линуксовый md

Интересно, линуксовый md raid6 сильно проигрывает zfs?

И, да, 900Mbit/s мне не очень

И, да, 900Mbit/s мне не очень интересны. Мне интересно больше 5200Mbit/s :)

Ну да, я настройки взял с

Ну да, я настройки взял с соседнего (почти такого же) бокса.

Судя по всему, тормозит именно чексумминг или что-то в этом роде, во всяком случае влияние процессора на ZFS несомненно: http://blog.lexa.ru/2012/04/14/opyat_snova_o_proizvoditelnosti_zfs.html

запускаешь процесс. паралельно pmcstat -S CPU_CLK_UNHALTED_

запускаешь процесс. паралельно

pmcstat -S CPU_CLK_UNHALTED_CORE -O sample.out (ну или что конкретно у тебя похожее по pmccontrol -L имеется)
через некоторое время давишь control-c
pmcstat -R sample.out -G out.txt
less out.txt

да, кроме UFS+async хотелось бы для порядку тупо dd туда и zfs поверх RAID6. последнее конечно смысла для тебя имеет мало, но для статистики и теории было бы интересно.

Мне кажется, что

Мне кажется, что конфигурирование vfs.zfs.arc_max в /boot/loader.conf - это неотъемлемая часть ZFS. Например, у нас сервера с 64G RAM имеют vfs.zfs.arc_max=58G и являются частью CDN сети. I/O с этих серверов идет в 900 Mbit/s, тогда как диски почти не крутяться, все частотрогающиеся данные берутся из ARC.

Еще могу вспомнить, что при random чтении (а это всегда) - лучше vfs.zfs.prefetch_disable=1 делать всегда и
vfs.zfs.vdev.max_pending = N

где N, 10x кол-во дисков. Не помню где вычиталось. По моему опыту, только ZFS имеет такое количество различных высунутых наружу настроек по тюнингу, что нельзя игнорировать ;)

Ну так естественно NTFS. Там по любому был бы NTFS, вопрос ч

Ну так естественно NTFS.
Там по любому был бы NTFS, вопрос что экспортить (по iSCSI) - ZFS-ные тома или адаптековский том.

Я не знаю на чем тормозит zfs, может на чексуммах, может еще

Я не знаю на чем тормозит zfs, может на чексуммах, может еще на чем. У меня запасного (более быстрого) процессора для нее под рукой нет.

Так может тогда нтфс?

Так может тогда нтфс?

UFS2+async для комплекта замеряй, пока не поздно и на чем z

UFS2+async для комплекта замеряй, пока не поздно

и на чем zfs тормозит?

Pages

Subscribe to comments_recent_new