Свежие комментарии

Title Comment
надо еще помнить что у DxO

надо еще помнить что у DxO графики по Ssat ISO, a у клаффа по номинальному... и он упорно отказывается уравнятъ... так что сравнивая разных производителей у клаффа (да и мб разные модели одного и того же в некоторых случаях) надо помнить что по горизонтали там не одно и тоже...

Кадрирование гуляет конечно

Кадрирование гуляет конечно от кадра к кадру, но реально проблем не создает. Чисто визуально, на уровне исходников, больше напрягает изменения масштаба на разных дистанциях фокусировки, а заодно и экспозиция скачет (ближние кадры в серии темнее). Наличие макрорельс спасло бы, но в принципе и так обхожусь. Но при сращивании всё это правится программой и так на автомате, пользуюсь Zerene Stacker, там несколько алгоритмов сшивки, один прям хорош и без ручной ретуши. Сшивка в фотошопе в этом плане очень примитивна, косяк на косяке, существует для галочки наверно. Сам фоткаю для стоков (единичные объекты типоразмера фруктов-ягод), полноразмеры вполне неплохо выглядят.

По моему вот опыту, сбить при

По моему вот опыту, сбить при этом ("на пиксель-другой") даже с жесткого штатива - ну совсем легко.

Я вот приспособился по шкале у Batis - там DOF динамически пересчитывается от диафрагмы, но сбивается временами.

А я всё по старинке снимаю на

А я всё по старинке снимаю на 5dm2 крутя фокус на глаз через лайввью, в общем не жалуюсь)

Ну таки да. С одной стороны.

Ну таки да. С одной стороны.
С другой стороны - список этот конечен. И с точки зрения т.н. "маркетинга" разумно растянуть его лет на 15.

Вообще это какой-то рак мозга

Вообще это какой-то рак мозга производителей.
В смысле, что как только камеры стали цифровыми, ну кучу фич можно было бы сделать за месяц силами 2-3 программистов — интервальная съёмка, любой брэкетинг любой длины по любому параметру (включая фокус, да), и прочие такие штуки. Но нет, сколько лет уже у нас цифровые камеры, и отдельные производители добавляют это всё в час по чайной ложке. Pentax никогда не жидился, но даже он добавляет куда меньше, чем можно было бы.

Вот по первой ссылке пишут:

Вот по первой ссылке пишут: We added linker checks, so that mismatching VS 2010+ major versions will trigger hard errors at link time,

Вот что я могу сказать: v120_xp + v100 (смешаны именно "библиотеки", т.е. .obj) - полет нормальный.

Рантайм определяется списком

Рантайм определяется списком библиотек, с которыми мы линкуемся (а они, в свою очередь, определяются ключами командной строки, использованными при компиляции: /MT или /MD). Если линковаться с msvcrt.lib/msvcprt.lib, то результат потребует того рантайма, который прописан в этих библиотеках. Если линковаться с libcmt.lib/libcpmt.lib, то рантайм вообще не потребуется. В обоих случаях успешность линковки и работоспособность результата не гарантированы, особенно если используется C++ (см. https://www.reddit.com/r/cpp/comments/13zex3/can_vs2010_c_libsdlls_be_li...). Да, в MSVC2015 названия библиотек изменились, а 2017 вроде бы совместим по ABI с 2015.

Что касается clang'а - см. https://clang.llvm.org/docs/MSVCCompatibility.html: "First, Clang attempts to be ABI-compatible, meaning that Clang-compiled code should be able to link against MSVC-compiled code successfully. However, ...".

Но и с чисто сишным

Но и с чисто сишным интерфейсом снаружи (но ++ внутри) вот я бы боялся, что clang-овский тулсет захочет clang-овского же рантайма для всех этих std:: (и аналогично v120_xp не совместим в этом месте v100)

Плюсовый интерфейс. Включая

Плюсовый интерфейс. Включая std::*stream, то есть в ваших терминах "STL"

А интерфейс у библиотек при

А интерфейс у библиотек при этом - C++ с использованием STL, или чистый C? Во втором случае - чего бы ему не работать? А вот в первом - вроде бы не должно быть совместимости.

А не знаю.

А не знаю.
Но сделать должно быть несложно.

autoconf, пожалуй, еще похуже

autoconf, пожалуй, еще похуже будет.

Я использую qmake как мета-описатель процесса сборки, но
а) тоже не подарок
б) это никоим образом не замена cmake/autoconf, автоконфигурации там вовсе нет (но мне и не надо, наоборот!)

cmake сотоваришчи

"а про то мы не знаем // и не жаждем узнать" (c)

на самом деле, очень понимаю, и как и что выбирать нонеча для кросс-компиляции в не самых прямолинейных случаях -- вот аааще непонятно, ОБА ХУЖЕ!!!

Ну решили что оверхед меньше

Ну решили что оверхед меньше 50% - не оверхед :)

А если primarycache=all, то

А если primarycache=all, то тогда точно нет никакого смысла в recordsize=64k (особенно для бекапов). Кстати, недавно узнал, что если размер файла меньше recordsize, то размер записи добивается до ближайшего кратного ashift. А вот если больше recordsize, то последняя recordsize уже не обрезается. Для меня пока не понятна сия логика :-).

Спасибо. Я пока оставил в

Спасибо. Я пока оставил в претендентах 950-960 самсунг и M8PeY :-) (правда ещё соблазняет по сходной цене почти новый Intel 750). После чтения обзоров беспокоит нагрев и возможный троттлинг, особенно у M8PeY. У меня пока главные критерии выбора - скорость записи на уже заполненном ssd и производительность при смешанной нагрузке. Хочу ещё посмотреть как, L2ARC освобождает место под новые записи после полного заполнения. Заметил у тебя пишет и читает в среднем почти по 128kB, значит пишет в основном данные. А у меня слабое место промахи метадаты. Вот и родилась идея загнать всю её L2ARC :-). Получается если будет сжатие, то средний размер записи может быть сильно меньше.

Я сейчас и не вспомню почему

Я сейчас и не вспомню почему поменял, но кажется совсем уж без кэша получается совсем уж медленно (не столько акронисом, там ок, сколько тайм-машинами маковскими, хотя они ходят всего-то по гигабиту)

Не было проблем. Но эта штука

Не было проблем. Но эта штука покупалась ровно под L2ARC, никаких других файловых систем там нет и не планировалось. Загрузка тоже не с нее.

"на что обратить внимание" я, честно говоря, не знаю, потому что у меня это вот единственный nvme под FreeBSD, он сразу завелся и стало хорошо.
Я выбирал из следующих соображений
- скорость чтения (!) - особо высокая не нужна, я все едино по 10G туда хожу, т.е. гигабайт с копейками - более чем. Скорость записи - ну тем более.
- "гарантированный объем записи" - с учетом того, что в реальности он много больше, чем заявляет производитель - особо на этот параметр не смотрел.
- и с учетом первого момента - выбрался Patriot Hellfire. Он сильно медленнее других моих NVME-шек (числом два: 950-й самсунг "под систему" и плекстор M8Pe "под локальные файлы), но и сильно дешевле, раза в полтора.
Смотрел еще на Intel 600p (еще дешевле), но он еще медленнее и уже медленее 10G.

Эксплуатация - ну скажем месяца три активных (минус лето, когда на эти тома никто не писал), за это время записано - 10Tb (т.е. 20 раз перезаписан). Заявленный ресурс - кажется 400Tb, то есть даже формального ресурса хватит, при таком же использовании, на ~10 лет.

Разумно :-).

Разумно :-).
Ещё спрошу - NVMe ssd в FreeBSD не было проблем? И вот ещё - после опыта эксплуатации при выборе NVMe ssd на что обратить внимание?

Новые файлы.

Новые файлы.

Вот надо таки прочитать исходники zfs-mon, тогда будет понятно какие переменные оно так обзывает

primarycache=all

Сегодня обратил внимание. Ты же вроде боролся с вымыванием кеша? И ещё - если затем следует верификация, то часть данных может быть прочитана из кеша. Тогда какой смысл в верификации?

Если честно, то я не совсем

Если честно, то я не совсем понимаю что такое ZFETCH (только догадываюсь :-)). miss может быть только у чтения. А запись новых файлов или поверх старых?

Меня вот больше интересует,

Меня вот больше интересует, что такое ZFETCH miss при записи.
Ну то есть следует принять как данность, что при записи там все (примерно) miss, ну и успокоиться.

Неправильная интерпретация

Сегодня на свежую голову ещё раз глянул и понял, что моя интерпретация статистики префетча была неверна. Для понимания прочитал файл в 262144 рекордсайз (файл точно читался первый раз) и вычленил статистику:
CACHE HITS BY DATA TYPE:
Demand Data: 197533
Prefetch Data: 2

CACHE MISSES BY DATA TYPE:
Demand Data: 170
Prefetch Data: 261974

Получается CACHE MISSES чесно показал, что данных в кеше не было (170 + 261974=262144) и префетч послал 99,9% запросов. А вот с CACHE HITS поинтереснее :-). Получается, если запрос от приложения пришёл в ARC, когда ещё выполнялся запрос префетча, то хит не начисляется, а если рекордсайз уже была к этому времени прочитана, то начисляется. Prefetch Data: 2 - списываю на то, что на пуле в это время был ещё один не очень активный пользователь. В итоге получается, что первое чтение файла дало в статистику (только по данным) 100% MISSES и 75% HITS от размера файла :-). По метаданным понятно, что хитов было значительно больше. И кстати, у меня Data Prefetch Efficiency ещё меньше, чем у тебя :-), что теперь тоже вполне объяснимо.

Тогда всё попадает в ARC и до

Тогда всё попадает в ARC и до выталкивания просто не используется. Нет, наверно нужно всё таки проверить, по какому алгоритму работают счётчики предвыборки.

У меня тоже есть датасет

У меня тоже есть датасет /backup c primarycache=metadata. На машине только ARC ограниченный 14GB. Файловая упреждающая выборка включена (правда я туда только каждый час сбрасываю), но подобной картинки не наблюдаю.

ZFS Subsystem Report Tue Aug 15 17:03:09 2017
------------------------------------------------------------------------
FreeBSD 11.0-RELEASE-p3 #14: Sun Nov 13 13:40:47 EET 2016 admin
5:03PM up 81 days, 8:32, 1 users, load averages: 0.16, 0.08, 0.05

------------------------------------------------------------------------

ARC Efficiency: 232.33m
Cache Hit Ratio: 80.84% 187.83m
Cache Miss Ratio: 19.16% 44.50m
Actual Hit Ratio: 80.70% 187.48m

Data Demand Efficiency: 97.05% 28.92m
Data Prefetch Efficiency: 25.65% 1.16m

CACHE HITS BY CACHE LIST:
Anonymously Used: 0.11% 214.08k
Most Recently Used: 2.64% 4.95m
Most Frequently Used: 97.18% 182.53m
Most Recently Used Ghost: 0.04% 67.39k
Most Frequently Used Ghost: 0.03% 63.87k

CACHE HITS BY DATA TYPE:
Demand Data: 14.95% 28.07m
Prefetch Data: 0.16% 296.35k
Demand Metadata: 84.87% 159.41m
Prefetch Metadata: 0.03% 50.44k

CACHE MISSES BY DATA TYPE:
Demand Data: 1.92% 853.44k
Prefetch Data: 1.93% 858.99k
Demand Metadata: 96.09% 42.77m
Prefetch Metadata: 0.06% 26.43k

(лучше конечно моноширинным)

primarycache=all

primarycache=all
secondarycache = metadata

ZFETCH hits: 0 0 0 0

Я не пользуюсь zfs-mon и сразу не соображу, что это значит. Нужно будет посмотреть. Но если при primarycache=metadata происходит файловая упреждающая выборка (интересно куда и зачем?), а затем её результат сразу выбрасывается, то это похоже на баг :-). Вечером постараюсь проверить.

А вот верификация для бэкапа,

А вот верификация для бэкапа, который сделали на recordsize=64k (отчего скорость верификации упала и верну я обратно 1m):

ZFS real-time cache activity monitor
Seconds elapsed: 155

Cache hits and misses:
                                  1s    10s    60s    tot
                     ARC hits:  2491   2696   2772   2706
                   ARC misses:  2283   2595   2643   2573
         ARC demand data hits:  2224   2549   2613   2542
       ARC demand data misses:    21     19     19     19
     ARC demand metadata hits:    17     18     17     16
   ARC demand metadata misses:     0      0      0      0
       ARC prefetch data hits:   246    125    138    145
     ARC prefetch data misses:  2262   2576   2623   2554
   ARC prefetch metadata hits:     4      4      4      4
 ARC prefetch metadata misses:     0      0      0      0
                   L2ARC hits:     0      0      0      0
                 L2ARC misses:  2283   2595   2643   2573
                  ZFETCH hits:  1295   1536   1561   1524
                ZFETCH misses:  1190   1313   1348   1314
           VDEV prefetch hits:     0      0      0      0
         VDEV prefetch misses:     0      0      0      0

Cache efficiency percentage:
                          10s    60s    tot
                  ARC:  50.95  51.19  51.26
      ARC demand data:  99.26  99.28  99.26
  ARC demand metadata: 100.00 100.00 100.00
    ARC prefetch data:   4.63   5.00   5.37
ARC prefetch metadata: 100.00 100.00 100.00
                L2ARC:   0.00   0.00   0.00
               ZFETCH:  53.91  53.66  53.70
        VDEV prefetch:   0.00   0.00   0.00

на этом разделе - secondarycache=metadata.

Pages

Subscribe to comments_recent_new