Свежие комментарии
| Title | Comment |
|---|---|
| Вот запустил бэкап (стадия |
Вот запустил бэкап (стадия записи). Понятно откуда плохая (общая) статистика по Zfetch |
| Меня два месяца (с небольшим |
Меня два месяца (с небольшим перерывом) не было дома, не помню ничего по памяти. |
| Это понятно и период |
Это понятно и период небольшой, но экперименты иногда дают для понимания больше информации. А сколько по памяти приблизительно был процент попадания в ARC за длительный период с использованием L2ARC. |
| Вот запустил верификацию |
Вот запустил верификацию бэкапа. Вижу такое: ZFS real-time cache activity monitor
Seconds elapsed: 197
Cache hits and misses:
1s 10s 60s tot
ARC hits: 398 332 368 264
ARC misses: 336 292 323 232
ARC demand data hits: 335 286 314 224
ARC demand data misses: 0 0 0 1
ARC demand metadata hits: 2 2 2 2
ARC demand metadata misses: 0 0 0 0
ARC prefetch data hits: 61 43 50 38
ARC prefetch data misses: 336 292 323 231
ARC prefetch metadata hits: 0 2 2 1
ARC prefetch metadata misses: 0 0 0 0
L2ARC hits: 0 0 0 0
L2ARC misses: 336 292 323 232
ZFETCH hits: 1458 1361 1525 1085
ZFETCH misses: 2662 2473 2617 1792
VDEV prefetch hits: 0 0 0 0
VDEV prefetch misses: 0 0 0 0
Cache efficiency percentage:
10s 60s tot
ARC: 53.21 53.26 53.23
ARC demand data: 100.00 100.00 99.56
ARC demand metadata: 100.00 100.00 100.00
ARC prefetch data: 12.84 13.40 14.13
ARC prefetch metadata: 100.00 100.00 100.00
L2ARC: 0.00 0.00 0.00
ZFETCH: 35.50 36.82 37.71
VDEV prefetch: 0.00 0.00 0.00
Это, конечно, повод еще раз подумать про размер записи на бэкапном томе.... Но доля бэкапов-верификаци в общем ZFS-трафике у меня очень велика. Собственно вот: zpool iostat
capacity operations bandwidth
pool alloc free read write read write
---------- ----- ----- ----- ----- ----- -----
zbackup 3,05T 1,48T 12 6 10,9M 1,89M
zdata 16,8T 21,2T 2 2 2,03M 291K
---------- ----- ----- ----- ----- ----- -----
90% В записи и 80 в чтении. |
| А в ситуации, когда я смотрю |
А в ситуации, когда я смотрю на живую (zfs-mon) и понятную (*) статистику - там эффективность префетча сильно выше. (*) имеется в виду, что в это время на сервере нету, к примеру, большого бэкапа и/или верификации бэкапа. |
| Я почти уверен, что |
Я почти уверен, что статистика сильно испорчена моими экспериментами. |
| Статистика для меня несколько |
Статистика для меня несколько непривычная. Пока говорить что-то рано, но бросается в глаза большое количество промахов по префетчу данных. На каждую правильно предсказанную рекордсайз в нагрузку прочитано ещё две ненужных (с вытекающими последствиями). Также для меня необычно, что новые (или модифицированные данные), которые ещё не аллоцированны в пуле - сразу читаются и это почти треть от всех попаданий к кеш. Если не против, можно будет ещё через некоторое время глянуть. |
| Вдогонку - то что прилетело |
Вдогонку - то что прилетело письмом, там неправильная статистика пула (ada0 - это загрузочный, а надо ada1), на сайте - верно. |
| Пулlexa@home-gw:~/LibRaw# |
Пул SSD: (но есть второй пул, на других дисках - и статистика ZFS, понятно, суммарная) |
| Если можно, ещё iostat -Ix |
Если можно, ещё iostat -Ix одного hdd из пула и ssd (L2ARC). А я за причинённые хлопоты, постараюсь, что-то подсказать. Может и пригодится :-). |
| Да, вот по опыту. |
Да, вот по опыту. Реальный аптайм (не летом) - ну вот с сентября по июнь. |
| ARC Size: |
ARC Size: 55.76% 16.17 GiB L2: сейчас занято 258G из 500 возможных. |
| поэтому цифры выше реальных |
Спасибо. Всё равно интересно. А какой объём ARC и L2ARC на этой машине? |
| ZFS-stats у меня не |
ZFS-stats у меня не показателен совсем т.к. L2 разрешен только на некоторых датасетах. А скажем там где кино и подобное - нет, соответственно цифры заниженные. Реальная эффективность кэша при работе именно с равчиками - процентов 70-90 получается в зависимости от интенсивности работы с каталогом. Это по zfs-mon. Сейчас zfs-stats показывает вот такое, но FreeBSD 11.1-RELEASE-p1 #1 r322394: Fri Aug 11 12:55:37 MSK 2017 lexa
11:57AM up 3 days, 22:58, 1 users, load averages: 0,10 0,18 0,16
------------------------------------------------------------------------
ARC Efficiency: 18.33m
Cache Hit Ratio: 62.16% 11.39m
Cache Miss Ratio: 37.84% 6.94m
Actual Hit Ratio: 39.41% 7.22m
Data Demand Efficiency: 88.11% 6.67m
Data Prefetch Efficiency: 32.53% 8.21m
CACHE HITS BY CACHE LIST:
Anonymously Used: 29.74% 3.39m
Most Recently Used: 37.30% 4.25m
Most Frequently Used: 26.11% 2.97m
Most Recently Used Ghost: 1.35% 154.11k
Most Frequently Used Ghost: 5.50% 626.04k
CACHE HITS BY DATA TYPE:
Demand Data: 51.59% 5.88m
Prefetch Data: 23.45% 2.67m
Demand Metadata: 6.07% 691.54k
Prefetch Metadata: 18.88% 2.15m
CACHE MISSES BY DATA TYPE:
Demand Data: 11.44% 793.43k
Prefetch Data: 79.90% 5.54m
Demand Metadata: 8.28% 574.23k
Prefetch Metadata: 0.39% 26.77k
------------------------------------------------------------------------
|
| чтение метаданных в каталоге с 5000 равчиками |
А ведь получается, что это почти идеальный патерн для работы L2ARC. В связи с планами перехода на 11.1 начал присматриваться и к кешированию на ссд. Можешь показать zfs-stats -IE? |
| Никогда не задумывался что |
Никогда не задумывался что там у акрониса внутри. Но исходя из общих соображений То есть это не 'dd', а, в юниксных терминах, dump |
| Пофайловые копии, да. Когда |
Пофайловые копии, да. Когда сделают APFS то может можно будет FS-снапшотами пользоваться для версионирования. А как Акронис делает историю для образов разделов? |
| Ну вот тем не менее - мне |
Ну вот тем не менее - мне кажется, что это место тоже стало быстрее. Сам по себе листинг 5к файлов - вменяемо быстрый и так. |
| А есть какой-то аналог |
А есть какой-то аналог гимпового плагина dcraw/ufraw на базе libraw? |
| "десяток килобайт" |
Под просмотром большого каталога я понимал получение только информации о файлах данного каталога, а здесь немного другая задача. Для hdd в raidz и recordsize=1m оно как бы по определению не может быть быстро. По сути определяющим будет время случайного доступа большими блоками, а у zfs в данной конфигурации с этим проблемы. |
| Вообще, конечно от формата |
Вообще, конечно от формата зависит. Может быть вовсе ноль, но это редкий случай (дамп сенсора) |
| Да, из тела. |
Да, из тела. |
| чтение метаданных в каталоге с 5000 равчиками |
Возник вопрос: эти метаданные читаются из "тела" каждого файла? и если да, то каков средний их размер? |
| Мне кстати вот кажется, что |
Мне кстати вот кажется, что Стали работать предсказуемее, чем раньше. Нет впечатления, что что-то выкидывают из кэша вникуда (место записи в L2) |
| Плохо дело. |
Плохо дело. Сжатие включать не буду. |
| Так ты же уже обновился :-). |
Так ты же уже обновился :-). |
| Вот думаю тогда стоит |
Вот думаю тогда стоит подождать годик, пусть сначала на кошках |
| Кстати, автор сжатия в арке и |
Кстати, автор сжатия в арке и той "твоей проблемы" - одно лицо :-))). |
| https://drive.google.com/file |
https://drive.google.com/file/d/0B5hUzsxe4cdmbEh2eEZDbjY3LXM/view |
| У меня большие блоки, на их |
У меня большие блоки, на их фоне это все незаметно. |