Свежие комментарии

Title Comment
А править - ну мне маски/слои

А править - ну мне маски/слои удобнее, потому что можно лишнее выключить.

У меня Canon 100 macro не-L,

У меня Canon 100 macro не-L, в принципе проблема масштаба/яркости только на самых мелких объектах в полный рост встает, то есть на минимальных дистанциях фокусировки объектива. Если бы пришлось снимать объектив, как в этом посте, то уже незаметен был бы этот эффект, можно пренебречь. А с такими экстремальными фокусными перспектива наверно неприятная получится, плоскотня)
Content Aware как алгоритм хоть и гениально начал работать в последних версиях (бывает обращаюсь к нему когда нужно где-то целостность плавного градиента восстановить, руками такое дорисовать, с учетом естественного шума на фото - замучатся можно) но там, где детали и так есть свои, пусть фш будет добр доставать по-честному. Без выравнивания яркости вообще не знаю что бы делал (у меня мощность вспышек гуляет сильнее, чем от самого объектива, при проявке хоть на глаз подгоняю, но идеально не сделать), зебра получалась бы наверно если Zerene не правила сама

Я пробовал на сильно

Я пробовал на сильно многоплановых пейзажных снимках (с близким передним планом) - фотошоп был не хуже по стартовому результату

Что в фотошопе править легче

Что в фотошопе править легче очень сомневаюсь, не знаю как сейчас, но если в процесс ретуши, как раньше, представляет из себя переключение слоёв и редактирование готовых масок, то это крайне неловко. В zerene процесс ретуши очень удобен, одна рука на мышке - рисует кистью, которая проявляет детали, другая рука на клаве - выбирает слой, с которого берётся детализация, клавишами вверх/вниз. В хеликоне думаю тоже как-то по-умному должно быть, специализированный софт всё-таки обязан давать фору. А судя по результату сшивки в этом посте, фотошоп не айс до сих пор. Я уже привык к тому, что можно получать склейку, которая вообще не требует доработки, никаких заблюров, и это на полном автомате, нажатие одной кнопки у меня получается в Zerene, с настройками Хеликона в своё время не разобрался, поленился и быстро сдался, наверняка и там можно хорошо делать.

А масштаб (и яркость) -

А масштаб (и яркость) - длинный фокус должен спасать. Я бы снял на 210 (ЭФР 420), но штатив так высоко не поднимался :)

2-я галка в фотошопе -

2-я галка в фотошопе - 'Content aware fill', она как раз про придумывание деталей, а seamless - про выравнивание яркостей.

Обе глючат

Я сравнивал на одних и тех же

Я сравнивал на одних и тех же наборах файлов Zerene, Helicon, Фотошоп. В частности, этой весной.
Фотошоп глючил примерно в тех же количествах, что и первые два (все в разных местах), но в фотошопе править гораздо проще.
Секретов тут два
а) в фотошопе нужно выключать обе галочки (одна про Seamless что-то там, короче про выдумывание деталей, вторая - не помню)
б) в фотошопе за последние пару лет оно стало работать сильно лучше, поэтому если сравнивали давно, то пора повторить.

надо еще помнить что у DxO

надо еще помнить что у DxO графики по Ssat ISO, a у клаффа по номинальному... и он упорно отказывается уравнятъ... так что сравнивая разных производителей у клаффа (да и мб разные модели одного и того же в некоторых случаях) надо помнить что по горизонтали там не одно и тоже...

Кадрирование гуляет конечно

Кадрирование гуляет конечно от кадра к кадру, но реально проблем не создает. Чисто визуально, на уровне исходников, больше напрягает изменения масштаба на разных дистанциях фокусировки, а заодно и экспозиция скачет (ближние кадры в серии темнее). Наличие макрорельс спасло бы, но в принципе и так обхожусь. Но при сращивании всё это правится программой и так на автомате, пользуюсь Zerene Stacker, там несколько алгоритмов сшивки, один прям хорош и без ручной ретуши. Сшивка в фотошопе в этом плане очень примитивна, косяк на косяке, существует для галочки наверно. Сам фоткаю для стоков (единичные объекты типоразмера фруктов-ягод), полноразмеры вполне неплохо выглядят.

По моему вот опыту, сбить при

По моему вот опыту, сбить при этом ("на пиксель-другой") даже с жесткого штатива - ну совсем легко.

Я вот приспособился по шкале у Batis - там DOF динамически пересчитывается от диафрагмы, но сбивается временами.

А я всё по старинке снимаю на

А я всё по старинке снимаю на 5dm2 крутя фокус на глаз через лайввью, в общем не жалуюсь)

Ну таки да. С одной стороны.

Ну таки да. С одной стороны.
С другой стороны - список этот конечен. И с точки зрения т.н. "маркетинга" разумно растянуть его лет на 15.

Вообще это какой-то рак мозга

Вообще это какой-то рак мозга производителей.
В смысле, что как только камеры стали цифровыми, ну кучу фич можно было бы сделать за месяц силами 2-3 программистов — интервальная съёмка, любой брэкетинг любой длины по любому параметру (включая фокус, да), и прочие такие штуки. Но нет, сколько лет уже у нас цифровые камеры, и отдельные производители добавляют это всё в час по чайной ложке. Pentax никогда не жидился, но даже он добавляет куда меньше, чем можно было бы.

Вот по первой ссылке пишут:

Вот по первой ссылке пишут: We added linker checks, so that mismatching VS 2010+ major versions will trigger hard errors at link time,

Вот что я могу сказать: v120_xp + v100 (смешаны именно "библиотеки", т.е. .obj) - полет нормальный.

Рантайм определяется списком

Рантайм определяется списком библиотек, с которыми мы линкуемся (а они, в свою очередь, определяются ключами командной строки, использованными при компиляции: /MT или /MD). Если линковаться с msvcrt.lib/msvcprt.lib, то результат потребует того рантайма, который прописан в этих библиотеках. Если линковаться с libcmt.lib/libcpmt.lib, то рантайм вообще не потребуется. В обоих случаях успешность линковки и работоспособность результата не гарантированы, особенно если используется C++ (см. https://www.reddit.com/r/cpp/comments/13zex3/can_vs2010_c_libsdlls_be_li...). Да, в MSVC2015 названия библиотек изменились, а 2017 вроде бы совместим по ABI с 2015.

Что касается clang'а - см. https://clang.llvm.org/docs/MSVCCompatibility.html: "First, Clang attempts to be ABI-compatible, meaning that Clang-compiled code should be able to link against MSVC-compiled code successfully. However, ...".

Но и с чисто сишным

Но и с чисто сишным интерфейсом снаружи (но ++ внутри) вот я бы боялся, что clang-овский тулсет захочет clang-овского же рантайма для всех этих std:: (и аналогично v120_xp не совместим в этом месте v100)

Плюсовый интерфейс. Включая

Плюсовый интерфейс. Включая std::*stream, то есть в ваших терминах "STL"

А интерфейс у библиотек при

А интерфейс у библиотек при этом - C++ с использованием STL, или чистый C? Во втором случае - чего бы ему не работать? А вот в первом - вроде бы не должно быть совместимости.

А не знаю.

А не знаю.
Но сделать должно быть несложно.

autoconf, пожалуй, еще похуже

autoconf, пожалуй, еще похуже будет.

Я использую qmake как мета-описатель процесса сборки, но
а) тоже не подарок
б) это никоим образом не замена cmake/autoconf, автоконфигурации там вовсе нет (но мне и не надо, наоборот!)

cmake сотоваришчи

"а про то мы не знаем // и не жаждем узнать" (c)

на самом деле, очень понимаю, и как и что выбирать нонеча для кросс-компиляции в не самых прямолинейных случаях -- вот аааще непонятно, ОБА ХУЖЕ!!!

Ну решили что оверхед меньше

Ну решили что оверхед меньше 50% - не оверхед :)

А если primarycache=all, то

А если primarycache=all, то тогда точно нет никакого смысла в recordsize=64k (особенно для бекапов). Кстати, недавно узнал, что если размер файла меньше recordsize, то размер записи добивается до ближайшего кратного ashift. А вот если больше recordsize, то последняя recordsize уже не обрезается. Для меня пока не понятна сия логика :-).

Спасибо. Я пока оставил в

Спасибо. Я пока оставил в претендентах 950-960 самсунг и M8PeY :-) (правда ещё соблазняет по сходной цене почти новый Intel 750). После чтения обзоров беспокоит нагрев и возможный троттлинг, особенно у M8PeY. У меня пока главные критерии выбора - скорость записи на уже заполненном ssd и производительность при смешанной нагрузке. Хочу ещё посмотреть как, L2ARC освобождает место под новые записи после полного заполнения. Заметил у тебя пишет и читает в среднем почти по 128kB, значит пишет в основном данные. А у меня слабое место промахи метадаты. Вот и родилась идея загнать всю её L2ARC :-). Получается если будет сжатие, то средний размер записи может быть сильно меньше.

Я сейчас и не вспомню почему

Я сейчас и не вспомню почему поменял, но кажется совсем уж без кэша получается совсем уж медленно (не столько акронисом, там ок, сколько тайм-машинами маковскими, хотя они ходят всего-то по гигабиту)

Не было проблем. Но эта штука

Не было проблем. Но эта штука покупалась ровно под L2ARC, никаких других файловых систем там нет и не планировалось. Загрузка тоже не с нее.

"на что обратить внимание" я, честно говоря, не знаю, потому что у меня это вот единственный nvme под FreeBSD, он сразу завелся и стало хорошо.
Я выбирал из следующих соображений
- скорость чтения (!) - особо высокая не нужна, я все едино по 10G туда хожу, т.е. гигабайт с копейками - более чем. Скорость записи - ну тем более.
- "гарантированный объем записи" - с учетом того, что в реальности он много больше, чем заявляет производитель - особо на этот параметр не смотрел.
- и с учетом первого момента - выбрался Patriot Hellfire. Он сильно медленнее других моих NVME-шек (числом два: 950-й самсунг "под систему" и плекстор M8Pe "под локальные файлы), но и сильно дешевле, раза в полтора.
Смотрел еще на Intel 600p (еще дешевле), но он еще медленнее и уже медленее 10G.

Эксплуатация - ну скажем месяца три активных (минус лето, когда на эти тома никто не писал), за это время записано - 10Tb (т.е. 20 раз перезаписан). Заявленный ресурс - кажется 400Tb, то есть даже формального ресурса хватит, при таком же использовании, на ~10 лет.

Разумно :-).

Разумно :-).
Ещё спрошу - NVMe ssd в FreeBSD не было проблем? И вот ещё - после опыта эксплуатации при выборе NVMe ssd на что обратить внимание?

Новые файлы.

Новые файлы.

Вот надо таки прочитать исходники zfs-mon, тогда будет понятно какие переменные оно так обзывает

primarycache=all

Сегодня обратил внимание. Ты же вроде боролся с вымыванием кеша? И ещё - если затем следует верификация, то часть данных может быть прочитана из кеша. Тогда какой смысл в верификации?

Если честно, то я не совсем

Если честно, то я не совсем понимаю что такое ZFETCH (только догадываюсь :-)). miss может быть только у чтения. А запись новых файлов или поверх старых?

Pages

Subscribe to comments_recent_new