Свежие комментарии
Title | Comment |
---|---|
Вот запустил бэкап (стадия |
Вот запустил бэкап (стадия записи). Понятно откуда плохая (общая) статистика по Zfetch |
Меня два месяца (с небольшим |
Меня два месяца (с небольшим перерывом) не было дома, не помню ничего по памяти. |
Это понятно и период |
Это понятно и период небольшой, но экперименты иногда дают для понимания больше информации. А сколько по памяти приблизительно был процент попадания в ARC за длительный период с использованием L2ARC. |
Вот запустил верификацию |
Вот запустил верификацию бэкапа. Вижу такое: ZFS real-time cache activity monitor Seconds elapsed: 197 Cache hits and misses: 1s 10s 60s tot ARC hits: 398 332 368 264 ARC misses: 336 292 323 232 ARC demand data hits: 335 286 314 224 ARC demand data misses: 0 0 0 1 ARC demand metadata hits: 2 2 2 2 ARC demand metadata misses: 0 0 0 0 ARC prefetch data hits: 61 43 50 38 ARC prefetch data misses: 336 292 323 231 ARC prefetch metadata hits: 0 2 2 1 ARC prefetch metadata misses: 0 0 0 0 L2ARC hits: 0 0 0 0 L2ARC misses: 336 292 323 232 ZFETCH hits: 1458 1361 1525 1085 ZFETCH misses: 2662 2473 2617 1792 VDEV prefetch hits: 0 0 0 0 VDEV prefetch misses: 0 0 0 0 Cache efficiency percentage: 10s 60s tot ARC: 53.21 53.26 53.23 ARC demand data: 100.00 100.00 99.56 ARC demand metadata: 100.00 100.00 100.00 ARC prefetch data: 12.84 13.40 14.13 ARC prefetch metadata: 100.00 100.00 100.00 L2ARC: 0.00 0.00 0.00 ZFETCH: 35.50 36.82 37.71 VDEV prefetch: 0.00 0.00 0.00 Это, конечно, повод еще раз подумать про размер записи на бэкапном томе.... Но доля бэкапов-верификаци в общем ZFS-трафике у меня очень велика. Собственно вот: zpool iostat capacity operations bandwidth pool alloc free read write read write ---------- ----- ----- ----- ----- ----- ----- zbackup 3,05T 1,48T 12 6 10,9M 1,89M zdata 16,8T 21,2T 2 2 2,03M 291K ---------- ----- ----- ----- ----- ----- ----- 90% В записи и 80 в чтении. |
А в ситуации, когда я смотрю |
А в ситуации, когда я смотрю на живую (zfs-mon) и понятную (*) статистику - там эффективность префетча сильно выше. (*) имеется в виду, что в это время на сервере нету, к примеру, большого бэкапа и/или верификации бэкапа. |
Я почти уверен, что |
Я почти уверен, что статистика сильно испорчена моими экспериментами. |
Статистика для меня несколько |
Статистика для меня несколько непривычная. Пока говорить что-то рано, но бросается в глаза большое количество промахов по префетчу данных. На каждую правильно предсказанную рекордсайз в нагрузку прочитано ещё две ненужных (с вытекающими последствиями). Также для меня необычно, что новые (или модифицированные данные), которые ещё не аллоцированны в пуле - сразу читаются и это почти треть от всех попаданий к кеш. Если не против, можно будет ещё через некоторое время глянуть. |
Вдогонку - то что прилетело |
Вдогонку - то что прилетело письмом, там неправильная статистика пула (ada0 - это загрузочный, а надо ada1), на сайте - верно. |
Пулlexa@home-gw:~/LibRaw# |
Пул SSD: (но есть второй пул, на других дисках - и статистика ZFS, понятно, суммарная) |
Если можно, ещё iostat -Ix |
Если можно, ещё iostat -Ix одного hdd из пула и ssd (L2ARC). А я за причинённые хлопоты, постараюсь, что-то подсказать. Может и пригодится :-). |
Да, вот по опыту. |
Да, вот по опыту. Реальный аптайм (не летом) - ну вот с сентября по июнь. |
ARC Size: |
ARC Size: 55.76% 16.17 GiB L2: сейчас занято 258G из 500 возможных. |
поэтому цифры выше реальных |
Спасибо. Всё равно интересно. А какой объём ARC и L2ARC на этой машине? |
ZFS-stats у меня не |
ZFS-stats у меня не показателен совсем т.к. L2 разрешен только на некоторых датасетах. А скажем там где кино и подобное - нет, соответственно цифры заниженные. Реальная эффективность кэша при работе именно с равчиками - процентов 70-90 получается в зависимости от интенсивности работы с каталогом. Это по zfs-mon. Сейчас zfs-stats показывает вот такое, но FreeBSD 11.1-RELEASE-p1 #1 r322394: Fri Aug 11 12:55:37 MSK 2017 lexa 11:57AM up 3 days, 22:58, 1 users, load averages: 0,10 0,18 0,16 ------------------------------------------------------------------------ ARC Efficiency: 18.33m Cache Hit Ratio: 62.16% 11.39m Cache Miss Ratio: 37.84% 6.94m Actual Hit Ratio: 39.41% 7.22m Data Demand Efficiency: 88.11% 6.67m Data Prefetch Efficiency: 32.53% 8.21m CACHE HITS BY CACHE LIST: Anonymously Used: 29.74% 3.39m Most Recently Used: 37.30% 4.25m Most Frequently Used: 26.11% 2.97m Most Recently Used Ghost: 1.35% 154.11k Most Frequently Used Ghost: 5.50% 626.04k CACHE HITS BY DATA TYPE: Demand Data: 51.59% 5.88m Prefetch Data: 23.45% 2.67m Demand Metadata: 6.07% 691.54k Prefetch Metadata: 18.88% 2.15m CACHE MISSES BY DATA TYPE: Demand Data: 11.44% 793.43k Prefetch Data: 79.90% 5.54m Demand Metadata: 8.28% 574.23k Prefetch Metadata: 0.39% 26.77k ------------------------------------------------------------------------ |
чтение метаданных в каталоге с 5000 равчиками |
А ведь получается, что это почти идеальный патерн для работы L2ARC. В связи с планами перехода на 11.1 начал присматриваться и к кешированию на ссд. Можешь показать zfs-stats -IE? |
Никогда не задумывался что |
Никогда не задумывался что там у акрониса внутри. Но исходя из общих соображений То есть это не 'dd', а, в юниксных терминах, dump |
Пофайловые копии, да. Когда |
Пофайловые копии, да. Когда сделают APFS то может можно будет FS-снапшотами пользоваться для версионирования. А как Акронис делает историю для образов разделов? |
Ну вот тем не менее - мне |
Ну вот тем не менее - мне кажется, что это место тоже стало быстрее. Сам по себе листинг 5к файлов - вменяемо быстрый и так. |
А есть какой-то аналог |
А есть какой-то аналог гимпового плагина dcraw/ufraw на базе libraw? |
"десяток килобайт" |
Под просмотром большого каталога я понимал получение только информации о файлах данного каталога, а здесь немного другая задача. Для hdd в raidz и recordsize=1m оно как бы по определению не может быть быстро. По сути определяющим будет время случайного доступа большими блоками, а у zfs в данной конфигурации с этим проблемы. |
Вообще, конечно от формата |
Вообще, конечно от формата зависит. Может быть вовсе ноль, но это редкий случай (дамп сенсора) |
Да, из тела. |
Да, из тела. |
чтение метаданных в каталоге с 5000 равчиками |
Возник вопрос: эти метаданные читаются из "тела" каждого файла? и если да, то каков средний их размер? |
Мне кстати вот кажется, что |
Мне кстати вот кажется, что Стали работать предсказуемее, чем раньше. Нет впечатления, что что-то выкидывают из кэша вникуда (место записи в L2) |
Плохо дело. |
Плохо дело. Сжатие включать не буду. |
Так ты же уже обновился :-). |
Так ты же уже обновился :-). |
Вот думаю тогда стоит |
Вот думаю тогда стоит подождать годик, пусть сначала на кошках |
Кстати, автор сжатия в арке и |
Кстати, автор сжатия в арке и той "твоей проблемы" - одно лицо :-))). |
https://drive.google.com/file |
https://drive.google.com/file/d/0B5hUzsxe4cdmbEh2eEZDbjY3LXM/view |
У меня большие блоки, на их |
У меня большие блоки, на их фоне это все незаметно. |