О цифровом среднем формате и экранных превьюшках

Разбирался вчера с вопросом "а поддерживает ли RawDigger файлы с новых Leaf/PhaseOne" (это которые IQ180, Leaf Credo 80 и т.п.).

В процессе - набрел на совершенно феноменальный эффект, который мое отношение к цифровому MF заметно изменил.

А именно (манипуляции - долгие т.к. автор тестовых снимков запретил их републикацию):

  • Берем Вот этот вот обзор Leaf Credo 80
  • Скачиваем файлики из из любезно предоставленной автором ссылки на Dropbox.
  • Нам нужен вот этот вот файл Mamiya Leaf Credo and Cambo Wide AE.iiq, на нем эффект проявляется лучше всего.
  • Напрямую - он ничем (кроме Capture One) не открывается, но на самом деле это ZIP-файл (сделанный этой самой Capture One), содержащий 0.IIQ (собственно RAW-файл) и несколько файликов с настройками Capture One.

    Распаковываем его: unzip "Mamiya Leaf Credo and Cambo Wide AE.iiq" или еще как и открываем получившийся 0.IIQ RawDigger-ом

  • Выбираем RGB Render и автоматический WB (с другим ББ лично мне эффект виден хуже).

    Внимание: если у вас 32-битная версия RawDigger, то RGB-render будет недоступен при настройках по-умолчанию. Preferences-Display Options-Disable RGB Rendering for files larger... и поставьте туда эдак 90. Но с большой вероятностью - поможет не сильно, а просто начнет падать. 80-Mpix файлы требуют реально много памяти: 160M на байер, 640M на рендер, 320M на экранную копию, а их нужно две т.к. double buffering - и с учетом фрагментации не влезть в 2Gb даваемые 32-битным программам очень даже легко. А при показе второго кадра - он сначала рендерится, а потом из памяти выносится старый, т.е. расход памяти почти удваивается (лечение: Misc Options - Unload opened file before loading new one).

  • Смотрим. Видим эффект (кадр резко отличается от всего с "узкой цифры"). Или не видим.
Кадр является некоторым аналогом "кирпичной стенки" в том смысле, что мелкие детали там именно каменной кладкой и образуются.

Так как перепубликация картинок - запрещена их автором, попробую объяснить словами что именно я там вижу:

А вижу я там - очень резкий микроконтраст. Снимок производит даже впечатление "HDR" с его задранным локальным контрастом, но без недостатков в виде гало и подобного.

При этом, окошко у меня - 1200x800, т.е. каждый пиксель образовался из примерно 8x8 пикселей исходника.

Казалось бы, с многомегапиксельных узких (FF и APS) камер в окошке 1200x800 тоже будет оверсамплинг, ну пусть не в 8x8 раз, а в 4-6x4-6. Но ТАКОГО эффекта локального контраста на необработанных снимках - я, пожалуй, никогда не видел. А всяких чужих необработанных фото я смотрю много.

После того, как эффект вербализован - его стало видно и на других кадрах, где не все поле кадра резкое, а только часть. Вот, скажем, кадр PhaseOne IQ180 Lizard Far.iiq (который не требует упражнений с unzip т.к. это чистый RAW с камеры, а не архив, включающий настройки Capture One) - ящерица на нем выглядит особенно, но я это заметил только после предыдушего кадра, с резкостью на все поле, поняв что именно надо искать.

В-общем, не пожалейте 5-10 минут, эффект крайне поучительный и научиться его видеть - наверное полезно.

P.S. В окошке ACR и в файлах открытых затем в фотошопе - эффект виден хуже. Судя по всему, по той причине, что RawDigger никогда ничего не сглаживает, ни при увеличении, ни при уменьшении, а у адобовских тулзов имеется сглаживание/подавление артефактов при уменьшении. Но "кирпичная стенка", открытая ACR-ом в фотошоп тоже смотрится необычно, хотя и менее необычно, чем в RD.

Comments

У меня почему-то неактивен для обоих файлов режим RGB render, только RAW composite.

Preferences - Display Options - Disable RGB rendering for files larger....

Но с 32-битной версией счастья может не быть, 80Mpix туда очень туго лезут, да.

P.S. Сейчас допишу, про это, да.

Дописал. Если смотреть больше одного кадра, то Misc Options - Unload opened file before loading new one - тоже очень полезна.

No joy на 32, факт. Завтра посмотрю на 64.

Увы, RD имеет слишком много копий данных разных видов, на 80M влезть в 2Gb на процесс (ограничение 32-битной винды) можно только чудом. В-принципе, у меня получалось посмотреть файлы с Aptus II 12 (тоже 80Mp) 32-битной версией, но конкретно фазаны требуют еще одного временного буфера размером со все RAW-данные и это может не влезать.

А поставь в заголовке равдиггера что он 3Gb ready, и опиши в ридмишки как 3Gb для процессов включить. Может поможет...

1) Во-первых, я не умею (боюсь что для 3Gb надо как-то специально еще и компилировать). Я подумаю, конечно.

2) Во-вторых, я вот смотрю грустно на 6GB памяти (3x2GB) которые мне просто некуда засунуть в этом доме (это на 5 компьютеров), слоты кончились (осталось два свободных слота в дискбоксе, который SCSI в Infiniband транслирует и память ему вовсе не нужна).

И думаю я, что в 2013-м году 32-бита как-то уже неактуальны. Даже в хакинтош сунул 18Gb, блин, хотя ему совсем не надо.

1) У вижуалки ключик тупо где-то был. Компилировать специально не надо -- это чисто защита от очень старых программ, которые старший бит указателей для своих нужд использовали.

2) Ноутбуки? :)

2) ну да, да и то я везде напихал возможный максимум, сколько влезло.

И имея 4Gb надо конечно ставить x64, чтобы таки иметь эти 4, а не 2.7 как бывает.....

Да, оказалось просто.

Теперь 32-битная версия (правда на 64-битной винде) умеет показать 80-Mpix. Успех!

У тебя в ссылке на дропбокс кавычка зря справа прилипла.

thnx

А по-моему это просто отсутствие AA-фильтра и бо льшая резкость как таковая из-за бо льшего разрешения.

Да, все так.
Но картинка уменьшена в ~80 раз (по площади). Казалось бы, уменьшения, к примеру, в 20 или 36 раз должно бы быть уже достаточно, несмотря на все АА-фильтры.

Что то читал-читал и так и не понял что именно Вас удивило.
Работа вашей программы с лифовскими файлами? Или характер изображения получаемого со среднего формата?

Именно характер картинки.

Даже в "вебовском" формате (~мегапиксель) картинка выглядит совершенно иначе, чем с узкой цифры. Хотя, казалось бы, уменьшение в 80 раз....

Ну да
так оно и не только у 80мпикс бэков такое
а вообще у цифрового среднего формата.

Я помню как несколько лет назад покупал для знакомого фотографа из провинции бэк фазы на 16 мпикс квадратный и контаксовские цейсы. После кропа в прямоугольник там оставалось всего 12 мпикс рабочих. Так вот через год я с ним пообщался снова и по его словам его ретушеры первые месяцы просто вешались после 5Дмрка2 обрабатывая кожу. Так как мегапикселов с бэка в два раза меньше, а детализация в разы выше.

Так вот. Я лично собственно ради этого "микроконтраста" всегда и стремился перейти на бэк.
И причин такого характера изображения как минимум две. Во первых более резкая оптика принципиально иначе работающая чем кэноновская. Фазовские шнайдеры - это просто песня по резкости. А во вторых - отсутсвие АА фильтра который этот микроконтраст и жрет в полный рост.

Результат этого "правильного" микроконтраста на реальных фотоснимках с СФ прекрасно виден на передаче фактур. Сейчас у меня именно 80 мп бэк и шнайдеры. Правда к сожалению у меня не кредо - денег не хватило :)

То что разница есть - при крупной печати или там при рассматривании "на 50% размера" (и, тем более, крупнее) - это ясно и прекрасно видно. И при достаточно крупной печати, скажем А3 и крупнее - видно и на печати, вопросов нет. Разница есть, она прекрасно видна, кто бы сомневался.

Мое удивление в том, что это видно на мониторе в открыточном формате (померял линейкой - размер окошка 18x24 см), значит будет видно и в открыточном формате на отпечатке (наверное даже 10x15, dpi же выше чем на мониторе). Понятно, что если подшарпить кадр с узкой цифры, то на вебовском формате будет достаточно близко к тому, что видно без шарпа на кадре со среднего.

а шарпинг иначе работает.
Он конечно задирает контраст, но при этом еще сильнее гробит фактуры. В результате визуально резкость как бы есть, а фактуры разваливаются на кашеобразный набор пикселов.

А так похоже что то что вас так удивило я вижу постоянно даже просто просматривая кадры на мониторе в просмотрщике. И эффект тут по моему заключается в правильной неискаженной передаче микроконстраста у деталей, и картинка даже на мониторе выглядит "объемной"

PS. я как то много много лет назад распечататал качественный 80мпикс черно белый скан с хассельблада на эпсоновской матовой фотобумаге примерно в 20*20см без интерполяции и ресайза. DPI самой печати там получилось где то под 1400. ОТпечаток на бумаге получился удивительно мягким и при этом объемным. Характер изображения был схож с тем что мы раньше видели в бабушкиных фотоальбомах - потрясающая детализация и объемность.
Результат для себя вывел как то что хотя мы непосредственно глазом не различаем такую детализацию, но психологически мы чувствуем микрофактуры которые и создают "объемность" картинки. А шаопинг и алиасинг как раз и нарушают "естественную" передачу микроконтраста.

Шарпинг, как мне видится, должен быть действительно "аккуратным").
Т.е. можно же померять (пусть примерно) что-то вроде "функции размытия" АА-фильтра и оптики и отшарпить ровно обратным convolution kernel.
Тут очень богатое поле для экспериментов, на самом деле, но математический аппарат есть же готовый.
Я обязательно всем этим займусь всерьез, но не раньше осени.

P.S. По моим экспериментам, в текущих эпсоновских драйверах ресайз делает сам драйвер, причем плохо. я делал эксперименты, хотя они больше качественные, чем количественные.
Но прикол тут в том, что ресайз там - что-то вроде nearest neighbour, т.е. при оверсамплинге (точек в исходнике больше, чем может напечатать принтер) оно даст вот ровно тот же эффект, что дает на экране RawDigger (там тоже nearest neighbour при уменьшении) - необыкновенной резкости, хотя, казалось бы, откуда. Попытки интерполяции при уменьшении, фотошопные (к примеру) - подавляют всякий мелкий шум, но и эту резкость - тоже.
Если в старых эпсоновских драйверах ресамплинг был такой же (что скорее всего так - процессор у более старых принтеров явно не быстрее, чем у текущих, а NN - самый экономный алгоритм по CPU), то часть эффекта становится понятной.

>> т.е. при оверсамплинге (точек в исходнике больше, чем может напечатать принтер) оно даст вот ровно тот же эффект,

почему больше, я как раз и приводил размер области печати к тому чтобы было 1:1 с железячным разрешением головки эпсона без лишних интерполяций. Я могу что то путать и точных цифр не помню (раскапывал в интернете тогда) но по моему у эпсона где то около 360-720-1440 дпи. Делал я это как раз для минимизации софтварных искажений микроконтраста от изображения на фотопленке.

У эпсонов текущих - 360dpi обычно и 720 при 'finest detail' включенных в драйвере. До 3800/3880 - не исследовал, может там и другое было.

А вот если вы туда загоните 1440 (по результатам чтения интернета - а там можно всякие советы вычитать, я и 288 видел и 300, из которых получается катастрофа) - то драйвер просто выкинет каждую вторую точку. И это еще ничего, если загнать 300, то будет ужас.

>> Я обязательно всем этим займусь всерьез, но не раньше осени. <<
А может лучше начать с качественного поканального (до демозаика) шумоподава ?
Сдаётся мне, что это более разумное приложение усилий, да и микроконтрасту может заметно полегчать.

>> Т.е. можно же померять (пусть примерно) что-то вроде "функции размытия" АА-фильтра и оптики и отшарпить ровно обратным convolution kernel.

А как?
Я совсем не специалист в этих фильтрах, но думаю что пиксел размазывается по соседним. как и соседние по этому. То есть знание величины падения контраста между двумя изолированными соседними пикселами вам все равно не даст возможности точно восстановить исходное для шарпа любого участка.
Или такой шарпинг будет сложнее дебаеризации.

я не специалист в столь сложном программировании ) но алгоритмирование мне всегда давалось легко )

В первом приближении - функция падения контраста известна и размазанное можно собрать обратно в точку.
Во втором приближении - вы конечно правы, мы можем наделать лишних деталей там где их нет.

Реально, конечно, надо работать с многокадровыми сериями, что сильно снижает применимость. Но предметка или пейзаж с неподвижным передним планом - отчего нет.

Да, но, кажется, шарпать надо до (!) демозаика. Интересно, так кто-нибудь делает?
И можно ли из говна и палок собрать стенд для снятия ядра свёртки экспериментального?

>> Да, но, кажется, шарпать надо до (!) демозаика. <<
????
откуда такие идеи ? :-)

Не вижу в этой идее ничего априори неразумного.

"шарпинг" делается посредством внесения артефактов, создающих "иллюзию" повышения резкоcти... _зачем_ вносить артефакты на самой начальной стадии обработки ? чтобы они потом (неконтролируемым) образом усиливались, разваливая "иллюзию" ?
более того, я не уверен, что такое действие облегчит демозаику

соотв. вопрос: а чего в этой затее (априори) разумного ? :-)

Как откуда? АА-фильтр то действует невзирая на цветной. По хорошему, если мы убираем его действие математически (оптимальное ядро по измеренным impulse response фильтра, действие которого мы хотим отменить и свёртка с ним), а не "на глазок" (unsharp mask всякие тщательно подобранные), то и действовать мы должны ровно в том же пространстве, что и он -- т.е. на исходных данных, до демозаика. Не надо шарпить "придуманные" данные -- интерполированные в процесс демозаика цвета.
Грубо говоря, перевести всё без демозаика в grayscale полного разрешения (домножив всё на коэффициенты баланса белого и сделав какую-то поправку, подобную получению L в Lab из RGB, тут точнее думать надо), отшарпать как серую картинку (обратив действие АА-фильтра), а потом уже заниматься демозаиком и прочими фантазиями и интерполяциями.

Где я не прав?

> домножив всё на коэффициенты баланса белого
Не только. Грубо, еще на диагональ матрицы преобразования из "цвета" камеры в Y.

Я там пишу про L из Lab. Да, вам, с вашим опытом и всем остальным, разумеется, гораздо лучше понятно, что делать с компонентами тут -- я всё же совсем по верхам нахватался, так что мои рассуждения очень прикидочные и грубые.

Цель - получить качественный монохром с минимумом шумов. И часто демозаика по зеленому каналу это делает лучше, так как синий и красный каналы вносят много шума, усиливаясь сперва за счет баланса белого, а затем - выделения и уравнивания яркостной компоненты.

Но можно ведь задачу и не так поставить. Есть четыре монохромных изображения, подшарпим каждон по отдельности, да и с разными установками.

Да, о перераспределении шумов я тут ночью уже тоже подумал, засыпая... С другой стороны -- в синим и красном шумы почистятся за счёт зелёного, по идее. Т.е. будет именно перераспределение.

Проблема в том, что моя идея не в абстрактном "пошарпим" и отсюда -- разные настройки -- а в математическом обращении свёртки исходного сигнала с ядром, который образуется из-за наличия АА-фильтра (как минимум) и нерезкости оптики (как максимум). Это конкретная задача, имеющая конкретное математическое решение (после нахождения импульсных характеристик АА-фильтра и конкретного объектива) -- там нет по сути "установок" и она просто из физической модели не может работать по-разному для разных цветовых компонент.

Можно, конечно, поочерёдно "закрывать глаза" на отдельные компоненты, но это будет очень приближённое решение, так как в каждой точке часть сигнала из-за свёртки с фильтром ушла и в пиксели других компонентов (и его надо оттуда вернуть), а, так же, в каждую точку подмешался сигнал и из соседних компонентов (и его надо вычесть). Не факт, что такая обработка будет чем-то лучше аккуратно настроенного но, по сути, совершенно шаманского (в смысле, что не отвечающего физической модели происходящего) аншарп маска или просто дегаусса, параметры которого подобраны на глазок а не рассчитаны из реальных характеристик системы.

Боюсь, Вы не совсем меня поняли. Отклонение при расщеплении соответствует шагу пикселов и чаще всего равно ему или несколько меньше. Расщепление таково, что образуется ровно 4 квадратика. Максимальное значение - шаг пикселов на корень из 2. Обычно для определения этой величины используют маску PSF, и она оказывается разной для разных каналов, так как отделить эффект AA-фильтра от других эффектов на сенсоре, также приводящих как к алиасингу, так и к антиалиасингу, невозможно.

Аааа, оно там вот так, хитрее, чем я думал. Спасибо за пояснения.

Т.е., кажется, правильный путь -- это приводить 4 раза остальные каналы к выбранному, ориентируясь на спектр излучения (он же баланс белого), получая 4 разных по светлоте серых картинки, и по ним фигачаить восстанавливающим фильтром, а не пытаться это делать на одной серой картинке. Но делать это надо точно без пространственной интерполяции и без half-интерполяции.
Т.е. сделать картинку "что бы мы увидели если бы всё было как G1" (пиксели G1 не поменялись, R, G2 и B поменялись), отфильтровать, поместить нужную часть результатов в G1. Потом тоже самое для G1, R и B. И потом уже демозаик, баланс белого, вот это вот всё классическое.

Вот тут я слегка запутался. :-)

Некоторое время назад я игрался с чем то роде этого. Проверял вот такие варианты:
1) demosaic, deconvolution
2) demosaic, deconvolution, demosaic

Везде deconvolution поканальный, demosaic разный (ahd, amaze, dcb, vcd). Результаты варианта 1 показались, как бы это сказать то корректнее, визуально лучше.
Psf брал гауссову.

Поканальный до демозаика -- это ведь совсем не правильно, потому что там же каналы явно друг на друга влияют.

И я сиииильно не уверен, что гаусс -- хорошая модель, особенно учитывая что от влияния объектива мы избавиться не можем.

>Поканальный до демозаика -- это ведь совсем не правильно, потому что там же каналы явно друг на друга влияют.

Дак вроде вы это и предложили вроде, поэтому и ответил. Или я неправильно понял?

>И я сиииильно не уверен, что гаусс -- хорошая модель, особенно учитывая что от влияния объектива мы избавиться не можем.

Мне показалось что для антиалиас фильтра должно бы подойти (не про D800). Да и для зажатия диафрагмы до некоторой степени тоже. Но в любом случае я пробовал и airy psf (сильное зажатие дырки). Ну а в общем случае - конечно. О spatial invarian psf (во какие слова знаю) в общем случае говорить не совсем корректно, хотя сейчас используют в основном именно такие(IMHO, но видел и другие статьи).

В дополнение. То что получалось (визуально) с airy за один проход, c гауссом просто за допустим 5 deconvolution итераций.

Комментарии становятся всё уже!

Я предложил сделать 4 разных полноразмерных картинки, под каждый канал. Т.е. не 4 картинки с half-интерполяцией из 1 канала. Т.е. в каждом канале учитываются все остальные, просто для красного делается одно домножение на коэффициенты, для зелёных -- на другое, и так далее (сам же обрабатываемый сейчас канал не трогается). А демозаик не делается вообще.

Блин. Рисовать надо :)

Я вот пока теоретически всё рассуждаю и не знаю, как там фильры устроены -- я думал вот они просто контролируемо матовые, а там, оказывается, расщепление, ещё какие-то хитрости...

Да, и, по идее, нужен не spatial invariant, так как у всех обхективов центр и углы различаются заметно. Но это уже высший какой-то пилотаж.

>Я предложил сделать 4 разных полноразмерных картинки, под каждый канал. Т.е. не 4 картинки с half-интерполяцией из 1 канала. Т.е. в каждом канале учитываются все остальные, просто для красного делается одно домножение на коэффициенты, для зелёных -- на другое, и так далее (сам же обрабатываемый сейчас канал не трогается)

Ну а я о чем? Demosaic. Не half. Какие пробовал - написал. Восстановил RGB камеры. А как без демозаика восстановить?
Импульсную характеристику байера нарисовать? Как? Там еще больше проблем наберется.
Переходить каким то способом от интегральных сигналов к полному спектру?
Дальше каждый канал деконволюшн. Получили новые значения RGB камеры. И по новым значениям демозаик.

Делать по Y каналу 1) поленился, 2) дополнительные ошибки.
Делал еще demosaic -> Lab -> L channel deconvolution, но в лоб не сравнивал.

Демозаик не делать! Сделать 4 картинки "Как будто все фильтры были красные," "как будто все фильтры были синие," "как будто все фильтры были зелёные-1" и "как будтов се фильтры были зелёные-2". Без интерполяции, который нужен для любого демозаика. Чисто локально, попиксельно. Ну, исходя из того, что мы знаем о спектре освещения (он же -- баланс белого) и характеристиках фильтров (которые нам всё равно нужны для восстановления цвета, так что какой-то профиль у нас обязан быть).

Переходить каким то способом от интегральных сигналов к полному спектру?
Да. Поканально. Каждый канал потом обработать деконволюшеном PSF (и вот там нам выше старшие товарищи пишут что у каждого канала PSF будет свой), сложить только нужные точки обратно в RAW (из первой картинки в списке выше взять только красные точки, из второй синие и так далее) и напустить обычный дебаер с интерполяцией, как будто ничего и не было.

>Демозаик не делать! Сделать 4 картинки "Как будто все фильтры были красные," "как будто все фильтры были синие,"

Как?

>Переходить каким то способом от интегральных сигналов к полному спектру?
>Да.

Разные спектры могут дать одинаковые интегральные значения.

> Поканально. Каждый канал потом обработать деконволюшеном PSF
Ну а я о чем писал?

>сложить только нужные точки обратно в RAW
Ну так ровно это и получается

>напустить обычный дебаер с интерполяцией, как будто ничего и не было.

Так а я о чем? 2) demosaic, deconvolution, demosaic

> Разные спектры могут дать одинаковые интегральные значения.
Да. Это так. Но в этом вообще проблема и с обычной обработкой -- вся наша работа с цветом начинается с того, что мы предполагаем, что знаем свет в сцене (тот самый баланс белого), который описываем всего двумя параметрами, чего явно недостаточно для всех возможных спектров. Но мы с самого начала согласились на некоторую модель и используем её. Вот так и тут. Ровно та же модель.

> Ну а я о чем писал?
Возможно, мы запутались в терминах. Для меня demosaic -- это всегда интерполяция между точками, уже смешение. Которого, по идее, для деконовлюшена, допускать нельзя.

>Ровно та же модель.
Я не понимаю. Можете объяснить как зная только интегральные значения RGB камеры перейти к полному спектру сигнала. Не - там есть всякие предположения о спектральном составе излучения, разные модели и т.д. Но мы уйдем далеко. Ну и на каких длинах волн или диапазонах длин будем работать? Сколько времени это потребует?

> Для меня demosaic -- это всегда интерполяция между точками, уже смешение. Которого, по идее, для деконовлюшена, допускать нельзя.

Вот давайте на этом остановимся, потом пойдем дальше. Как зная только значения 1(одного) канала в каждом конкретном пикселе без демозаика мы узнаем недостающие 2 или 3 в зависимости от камеры? Можете рассказать? Типа делай раз, делай два и т.д...

Либо понятнее для солдата и матроса то с чего началось:
"Т.е., кажется, правильный путь..."

Хм. Да, кажется, я что-то недодумал тут. Буду сейчас считать уже, а не в голове придумывать.

Демозаика по яркости, деконволюция, демозаика по цвету.

Я бы очень, на самом деле, хотел услышать вашу оценку этой идеи. Потому что вы -- профессионал, а я-то так, погулять вышел, начитавшись всякого по верхам.
Спасибо.

Кстати, меня там наверху, кажется, убедили, что демозаика по яркости тоже невозможна без пространственной интерполяции. Или таки возможна?
Я вот уже запутался :)

>> Где я не прав? <<
Может и "прав". Мне интересно было каким образом был сделан такой вывод.

По-видимому здесь термин "аншарп" был использован в ином, ...мнэээ-мнэээ... нетрадиционном значении :-)
Дело в том, что "аншарп" - техника внесения _артефактов_, с целю вызвать некоторый "психо-физический" эффект (в ..мнэ-мнэ.. "глазах наблюдателя" ,-))

в остальном - дядька Маргулис потратил некоторое кол-во усилий, объясняя почему "шарпить лучше в LAB по каналу L". Надо признать, у него это всё звучит убедительно (хотя бывают и исключения, конечно же).

если же цель - обратить (от слова cancel) эффект low pass фильтра, то, боюсь, затея безнадёжная - не уверен, что "теорему Котельникова" удастся обойти. ,-)

Вывод был сделан чисто из понимания, чего мы хотим достичь с точки зрения обработки сигнала в вакууме. Известны (давно) математически доказанные и доказанно оптимальные методы обратить влияние любой свёртки у которой, если я правильно помню, детерминант не нуль (т.е. матрица обратима). В реальной жизни проблема не применением этого метода самого по себе, а построение того самого ядра -- все презентации Адоба про подавление шевелёнки, например, показывали новые чудо-алгоритмы именно автоматического определения траектории шевелёнки (и построения ядра по этой траектории), а не чудо восстановления. В случае же борьбы с влиянием AA-фильтра мы находимся в очень приличном положении -- фильтр у нас всегда один и, если придумать способ один раз померять его для конкретной камеры (ну или, возможно, сочетания камеры и объектива, не знаю тут как получится), то восстановление уже не будет представлять труда. Да, если добавить нерезкость оптики, то оно будет ещё меняться по полю изображения (углы менее резкие, чем центр), но опять же, это измеримо и модель не должна быть очень сложной (гаусс в первом приближении, в реальности, думаю, не совсем он).

Да, я нигде не использовал термин аншарп. Только шарп. Но даже он, конечно не совсем правильный.

Теорему Котельникова обходить не пытаемся, а пытаемся отменить антиалиасинг, возможно, нарвавшись на муар возникающий по той самой теореме. Ну как он иногда возникает у камер со смытыми фильтами или без фильтров изначально (лейки всякие и прочие MF-задники). Т.е. пытаемся не обмануть Котельникова а отказаться от решения производителя защитить нас, глупых, от муара ценой потери попиксельной резкости.

Тогда нужно определиться чего же мы желаем.
1. Улучшить микроконтраст (исходная тема топика)
2. "Откатить" действие low pass фильтра.

Первая задача косвенно связана с повышением "разрешения" - никаких новых деталей никто не добывает, а просто делает видимыми уже существующие "микроструктуры" (текстуры & etc)
Вторая задача - попыптка поднять пространственное разрешение, "срезаное" LPF.

Если разумность и осуществимость первой задачи не вызывает особых сомнений, то разумность и выполнимость второй задачи не столь очевидна.
Для начала было бы не дурно понять, что такое этот самый LPF есть и как он работает. По идее этот тот самый "фильтр из теоремы Котельникова", который срезает высокие частоты. Если он справляется со своей задачей, то любые попытки "борьбы с влиянием AA-фильтра" суть шаманство, причём вредное (с точки зрения результата) - по сути это пресловутые "поиски чёрной кошки в тёмной комнате".

Иными словами, прежде чем искать способы борьбы с влиянием АА-фильтра, нужно убедиться (доказать), что его действие суть "свёртка у которой детерминант не нуль (т.е. матрица обратима)".

lyrics: предположим, что нам удалось обратить действие LPF, тогда мы получим паразитные высокачстотные шумы, для подавления которых и используется входной низкачастотный фильтр... кому нукжно такое счастье я не знаю. ,-)

А вот врут, что АА-фильтр делает из одной точки - четыре (а не одно большое пятно)

В таком случае никон Д800Е - вообще гониво голимое (ибо объявленной техникой действие АА-фильтра не обратимо) :-Ъ

А разве есть какая-то принципиальная разница сколько там будет пятен. Одно большое или много маленьких?
И кстати ходють слухи, что при deconvolution происходит усиление шумов, если не делать специальных телодвижений. :-)

Действительно, разве есть какая-то (а тем более принципиальная) разница между гладкой непрерывной функцией и конечной суммой дельта-функций ? :-))

А как дельта функцию реализовать физически (в этом вот фильтре)? А дальше вопрос размера кернела и как быстро оно затухнет до практически применимых величин.

Дык двойное лучепреломление же.
в первом приближении (абстрагируемся от неидеальности материала) никакого рассеивания/"размытия" нет.

Можно мерят IR AA-фильтра после демозаика, но мы упрёмся в то, что он будет очень сильно зависить от того самого демозаика, который вообще вряд ли будет счастлив от данных такого типа (см. демозаики всяких экстремальных мир -- это всё же нетипичные для фотографии сцены и алгоритмы демозаика на них затачивать не стоит). Система получится сильносвязанная (начинай всё сначала подправив или заменив демозаик)и из-за этого очень хрупкая.
Ну, мне так кажется. Я вовсе не специалист в DSP и могу где-то ошибаться в своих рассуждениях, конечно.

> Интересно, так кто-нибудь делает?
Как минимум Nikon Capture.

Что-то у меня с утра мысли возникают фрагментарно, а за редактирование комментариев в ЖЖ я не заплатил.

Так вот.
Шарпить надо, естественно, сильно по-разному под разное выходное разрешение. Я говорю исключительно о том, что (как мне кажется) с узких 20Mpix вполне реально получить такую-же "микроконтрастную" превьюшку в 1 мегапиксель, как с широкого получается вообще без усилий.
Если выводной формат больше - то чуда не случится.

нынче редактирование своих каментов в жж бесплатно

Как включить?

я никак не включал
подводишь мышку на свой камент, видишь появляются икнонки.
с карандашом -- нужная тебе

Я пришел - тебя нема.
Удалить дают, редактировать - нет.

Edited: ага, дают, редактировать но недолго?

пока никто не зашкварил ответил на камент.
что логично.

Да, точно, 3-дневные на которые нет ответа - тоже можно.

Ну и прекрасно (с той поправкой, что мой импортирующий варез берет камент один раз)

>> А шаопинг и алиасинг как раз и нарушают "естественную" передачу микроконтраста. <<

Ну, если учесть, что кружок нерезкости обычно шире "радиуса" low pass фильтра, то и хрен бы с ним, последним.

Народ убирал LPF и делал снимки - никакого выигрыша по микроконтрасту никто не наблюдал. Были какие-то "стендовые" выигрыши по "разрешению", обременённые артефактами разной степени тяжести.
Так что лично я склонен полагать, что всё дело в оптике.

>> Ну, если учесть, что кружок нерезкости
У вас наверное 5D? :)))
Мне хорошо знакома подобная безапелляционность )

>> Народ убирал LPF и делал снимки - никакого выигрыша по микроконтрасту никто не наблюдал

криворукий "нарот"?
А вот никон например специально выпустил модель без АА-фильтра - D800E параллельно с D800.
И народ прется и утверждает что аппарат действительно нечто.
это раз
и двас - вы например на своем кэноне можете найти однопиксельные (толщиной) детали и фактуры?
Уверен что нет.
А для меня на Leaf-12 такое в порядке вещей, хотя там крайне мелкий пиксел кторый далеко не всякая оптика разрешает. На PhaseOne P20 и P30 бывшими у меня ранее однопиксельность была вообще заурядным явлением.

>> Так что лично я склонен полагать, что всё дело в оптике.
Лично я уже много много лет эгоу уже имел переходники с моей хасселевской оптики на 1DsM2и снимал этим бутербродом предметку когда не было в доступе бэка.
Резкость дейтсвительно повыше с уникальным по оптическим свойствам Carl Zeiss Planar 3.5/100, но ничего похожего на картинку с менее мегапиксельным PhaseOne даже с более простой оптикой не наблюдается и в помине.

Основная разница между вами и мной заключается в том что вы полагаете и фантазируете о том с чем я ежедневно и годами просто работаю.

Однопиксельные детали, к сожалению, несколько убиваются дебайером.

Кстати, D800E - хороший пример убирания АА-фильтра другим фильтром. Аппаратным и в аналоге, но суть та же - имеющийся АА фильтр скомпенсирован другим (а не убран исходный)

>> >> У вас наверное 5D? :)))
> Мне хорошо знакома подобная безапелляционность )<

Вынужден сообщить Вам пренеприятнейшее известие - законы физики не зависят от марки камеры и ширины распальцовки :-).

>> >> Народ убирал LPF и делал снимки - никакого выигрыша по микроконтрасту никто не наблюдал

> криворукий "нарот"?
<
Астрофотографы, супротив которых Вы все равно, что плотник супротив столяра... ,-)

>> > А вот никон например специально выпустил модель без АА-фильтра - D800E параллельно с D800.
> И народ прется и утверждает что аппарат действительно нечто.
<

Вы, по-видимому, чрезвычайно наслышаны, но совершенно не информированы.
Народ "прётся" с Никона Д800 в целом, а не конкретно с Д800Е. Это раз.
Во-вторых - на "стендовых стрельбах" Д800Е показал _некоторый_ прирост разрешения за счёт
артефактов (цветные гало и тому подобный, по сути, муар)
В-третьих - на реальных сценах разницы в разрешении между Д800 и Д800Е не
наблюдается вовсе.

>> > это раз
> и двас - вы например на своем кэноне можете найти однопиксельные (толщиной) детали и фактуры?
> Уверен что нет.
<

Без труда - светлые волосы (особенно на тёмном фоне).
Вообще странно слышать такие вопросы от (якобы) "человека в теме"... а уж от уверенность Вашей и вовсе ламерством разит за версту.

>> > Основная разница между вами и мной заключается в том что вы полагаете и фантазируете о том с чем я ежедневно и годами просто работаю.<
Ошибаетесь.
Основная разница между нами заключается в том, что Вы априори полагаете собеседника глупее себя,
что изобличает особу недалёкую и, очевидно, страдающую комплексом неполноценности. :-)

а можно подробнее на пальцах? :)
а то я этим аппаратом не интеерсовался вообще, но от фотграфов наслышан.
Там шарпинг производится еще в раве до дебаеризации?

Нет, там кроме обычного АА-фильтра добавлено еще что-то такое (тоже стеклянное), которое действие этого АА-фильтра убирает (наверное, частично, не полностью). Если АА-фильтр "рассеивает", то эта хрень, наверное, "собирает обратно".

Была какая-то никоновская White Paper про это, но за минуту не смог найти.

да и ладно
спасибо

Вам ответили в моем бложике, а сюда это не транслируется: http://blog.lexa.ru/2013/01/27/o_tsifrovom_srednem_formate_i_ekrannykh_p...

на пальцах это так - первый слой birefringent материала двоит луч ( en точка wikipedia точка org/wiki/Birefringence ), в нормальном случае за ним идет следующий слой где ориентация ортогональна и получается еще одно двоение в другой плоскости (отсюда иногда заметная разница в vertical/horizontal resolution при тестах)... a Nikon за первым слоем поставил слой который просто ориентирован в другом направлении и почти собирает лучи обратно в один (ну по крайней мере с точность достаточной для того чтобы говорить что AA фильтра как бы нет)... ну вот как-то так... зачем надо ? а затем чтобы длина optical path была одна и та же (типа) и не надо было делать никаких изменений при сборке/настройке камеры, только разные сборки birefringent материала брать

>> а затем чтобы длина optical path была одна и та же (типа) <<
Это оч.странный способ сохранить "длинну оптической оси". Когда убирают ИК фильтр, сталкиваются ровно с той же проблемой и решают её вставкой "простого" стёклышка (подходящей толщины).

...наверное причины именно такого технического решения всё же в другом... но, честно говоря, из опубликованной схемы фильтров неясно в чём же именно :-)

> Когда убирают ИК фильтр, сталкиваются ровно с той же проблемой и решают её вставкой "простого" стёклышка (подходящей толщины).

есть вариант что простое стеклышко для birefringent материала это сам birefringent материал (это не стекло).

>> Вынужден сообщить Вам пренеприятнейшее известие - законы физики не зависят от марки камеры и ширины распальцовки :-).

а законы психологии - зависят.
По моему профессиональному опыту некогда самые всезнающие и всеумеющие фотографы работали на Canon 300D, затем на "пятерочке".
С колоссальным всезнанием такого фотографа купившего вожделенный фотоаппарат на с трудом скопленные деньги не сранится никто.
Не беда что смотреть нечего. Зато знаний хоть отбавляй.

>> Вы, по-видимому, чрезвычайно наслышаны, но совершенно не информированы.
>> Народ "прётся" с Никона Д800 в целом, а не конкретно с Д800Е.

У меня информация от "народа" из официального представительства Nikon в РФ. ФИО не проблема.
Сам я этими аппаратами не интересовался. Мне они неинтеерсны в принципе по причине бессмысленности такого инструментария для моих съемок.

>>Без труда - светлые волосы (особенно на тёмном фоне).
Работая в свое время в фотослужбе РЖД я за 8 лет ежедневно отсматривал более 600 000 кадров с множества штатных 1Ds/1DM2/1DsM2/1DsM3/1D4/1DX
Надеюсь вы предоставите такие кадры вместо т ого чтобы молоть языком.

>>что Вы априори полагаете собеседника глупее себя,
Полагаю что вы особа априори далекая.

>> >>> Вынужден сообщить Вам пренеприятнейшее известие - законы физики не зависят от марки камеры и ширины распальцовки :-).

> а законы психологии - зависят. <<
Ошибаетесь.
Законы психологии никак не зависят, но "психологическое самочувствие" некоторых индивидуев (в особенности незрелых и/или ушербных) вполне подвержено тлетворному влиянию
но это так - "реплика в сторону".

>> > У меня информация от "народа" из официального представительства Nikon в РФ. ФИО не
проблема. <<

Зачем мне ФИО какого-то функционера да ещё из такого ...гм-гм... скомпроментированного источника как Вы ?

После вот этого откровения - "PS. я как то много много лет назад распечататал качественный 80мпикс черно белый скан с хассельблада на эпсоновской матовой фотобумаге примерно в 20*20см без интерполяции и ресайза. DPI самой печати там получилось где то под 1400." - воспринимать Вас всерьёз просто невозможно.
Уровень Ваших рассуждений об оптике тоже обескураживает: похоже Вы действительно не осознаёте простого факта - при прочих рваных, на среднем формате используется объектив с бОльшим ФР.

>> > Сам я этими аппаратами не интересовался. Мне они неинтеерсны в принципе...
<<

хм, а как же "если я в чем то не уверен на 100% - я помолчу." ?
Вы как-то оч. громко "молчите". Не удивительно, что Вам никак не удаётся "за умного сойти". ,-)

>>После вот этого откровения - "PS. я как то много много лет назад распечататал качественный 80мпикс черно белый скан с хассельблада на эпсоновской

не пошли бы вы после этого нахуй
честно
просто нахуй
как уебишьное мудило преклонающееся перед "хасселем"
Я лично хасселем работал и зарабатывал с 2004г
и только что в конце 2012 продал "тот",
но у меня остался еще один, и это далеко не самый функциональный или современный или многомегапиксельный мой фотоаппарат.
На каждый термин - у меня есть один. топовый аппарат. Используемый годами. Сейчас их 4.

>>хм, а как же "если я в чем то не уверен на 100% - я помолчу." ?
а так. идиот.
с моей точки работы - Д800 хлам
хотя для свадебщиков и интернет-дрочеров типа ТЕБЯ, бот-фотодрочер - сойдет.

>>После вот этого откровения - "PS. я как то много много лет назад распечататал качественный 80мпикс черно белый скан с хассельблада на эпсоновской

Так это фраза-детектор же!
Можно годами зарабатывать деньги с помощью техники, имея довольно смутное представление о том, как эта техника работает.

берете кадр с д800, ресайзите до 9 мегапикселей, применяете к нему байеровский фильтр, делаете повторно демозаик и радуетесь детализации и микроконтрасту, которые прямо таки попрут
ретушеры у вас сначала повесятся, а потом застрелятся, так, для надежности

Реально здесь сработало (надо полагать) три фактора:
*: "немножко" другая оптика (оч. существенно для микроконтраста)
*: скорее всего сьёмка со штатива (а "узкий формат", как правило, таки с рук юзают :-))
*: отстутсвие low pass фильтра.

что именно оказалось ключевым (if any) трудно сказать без "сайд бай сад" сравнения.
Т.е. даже на кропе ручная наводка на резкость + штатив + MLU дают "совершенно другой" результат..

Я оценивал (плюс-минус лапоть, конечно) "мегапиксельность" при съемке с рук и с АФ. Получал, грубо говоря, 8-12 этих самых мегапикселей (по числу объектов, которые можно было бы уверенно разрешить), на разных камерах. Зависит от точности АФ и от того, насколько оно трясется от зеркала.

Но тут - речь идет о мегапиксельной превьюшке. Четверть экрана примерно.

>> Но тут - речь идет о мегапиксельной превьюшке <<
я это понял (и даже попрактиковался с бубном чтобы увидеть этот "загадочный эффект" ,-))

"Дело в следующем, батя" (с) - лично я был совершенно уверен, что при даунсемплинге снимка до "размера под веб", все эти "ухищрения" с ручной настройкой резкости, штативом и фиксацией зеркала - совершенно бессмысленные телодвижения... Пока не проверил на практике :-)

Алексей, вот у меня на 32-битной всё отлично рендерится, только Overexposure показывает, что засвечено 100% кадра (при этом гистограмма далека до насыщения). Пробовал и 0,1% от насыщения в настройках ставить - всё равно считает кадр засвеченым полностью. Это нормально для фазовских файлов?

Да, это ошибка в определении OE в том случае, когда используется полный 16-битный диапазон

В следующей версии вылечу.

я сильно извиняюсь, но с некоторых годов по 10 раз думаю прежде чем писать вам в блог.
если я в чем то не уверен на 100% - я помолчу.
никаких обид - просто стандартная осторожность.

Я не очень понял в каком это вы контексте, но с самой идеей писать только то, в чем уверен - категорически согласен.

Если вы про мой "форвард" про AA-фильтры у D800E, то оно не требовало никакого ответа - я просто уведомил, что вот вам ответили, может быть интересно.

Визуально напомнило работу вот этой штуки при уменьшении (особенно при сильном). Не про 645 во всех его видах вообще, но к слову пришлось (про фактуру, микроконтраст, детализацию). Напрочь снимает проблему аккуратного резайза под веб.
http://bigwww.epfl.ch/algorithms/ijplugins/resize/index.html
Уже год ем, нахваливаю.
P.S. Вот человек даже инструкцию написал
http://tsykhra.livejournal.com/2669.html

Ага, я даже эту статью читал - и отложил в букмарки (в голове и где-то еще запомнил).
Надо будет посмотреть вживую, после чего - можно и плагинчик к фотошопу написать (со временем), освоить это занятие.
Мне по чтению статьи казалось, что оно вычислительно очень сурово, но можно на видеокарте....

В данном случае (который в посте обсуждается) механизм возникновения резкости совсем другой, но эффект (который заключается в отсутствии ненужного сглаживания) - да, скорее всего будет похож.

Оно довольно быстро отрабатывает на самом деле, меньше секунды.

На каком размере?

До 20 мпикс (8bit) - точно меньше секунды. Больше - зачастую больше но иногда нет. Точную закономерность не понял.
P.S. Восьмибитные приходится использовать потому, что сама imagej (довольно архаичное чудище на java) 16bit корректно не воспринимает.

Плагинчик к фотошопу -- это АДЪ. Я пытался. Там нельзя ни-че-го что можно фотошопу. Очень кривой SDK, увы.

Пора уже наконец собраться и написать редактор для фотографов (посложнее лайтрума, попроще фотошопа) и что бы плагины были недеструктивные и весь процесс, включая кисти-маски вот это вот всё, и плагины тоже.

Adobe постепенно много что переносит в слои, но 3rd party плагинам туда хода нет.

Да что там говорить -- 3rd party плагины даже превью вынуждены сами все рисовать, нет общего мктода в API!

Оно в общем случае - ад, а в частном, когда это просто ресайз - должно быть несложно же.

Ну да, без превью, с нестандартным диалогом ресайза (фиг тебе свой метод дадут в стандартный добавить)...

Ну это ж всяко лучше чем перескакивать в другую программу. Тем более что сейчас фотошоп картинки уменьшает просто отвратительно, и CS6 (с его bicubic automatic) только хуже стал в этом отношении. Это как со smart sharpen - "резкость теперь умная, успокойтесь уже, не смотрите что лучше не стало".
Пусть уж лучше нестандартный диалог.

А у тебя есть доступ к статье самой? В IEEE Transactions on Image Processing?
У меня давно бродят мысли делать демозаик на сплайнах...

Есть, конечно. Я этому IEEE 100 баксов в год плачу или около того - вот ровно за это.

Могу расшарить тебе через дропбокс, или там на почту прислать. Почта - как в профиле?

Да, как в профиле! Буду благодарен. И тогда бы ещё и вторую по той же теме:

http://bigwww.epfl.ch/publications/munoz0101.html
http://bigwww.epfl.ch/publications/lee9801.html

Аааа! Хочется ещё десяток по ссылкам из этих :)
Заплатить, что ли, $100 в год? Какая там вообще процедура?

Да какая-то простая процедура - регистрируешься и платишь.
Странам третьего мира и студентам - скидка. Поэтому я там прикинулся аспирантом до 2016-го года и мне не стыдно. И это не $100, посмотрел в лог карточки - я заплатил $58 в ноябре. Раньше было как-то больше, по-моему до 150 доходило (а может я с ACM путаю)

Там разводка - это IEEE Digital Library. Она стоит каких-то недетских денег и дают ограниченное количество скачать (25 в месяц или 10, не помню).

При этом - мемберам соответcвующих Society дают бесплатно качать статьи из журналов от их Society. Оттого я вступил в Signal Processing Society, имею доступ к IEEE Transactions on Image Processing и кучке других журналов, ну и журналку Signal Processing приносят прямо домой.

Ну и вторую сотку имеет смысл в ACM отдать. Там тоже скидка для стран третьего мира, оттого получается сотка, 60 за членство и 40 за digital library (или наоборот), digital library там хорошая.

Algarnak, спасибо огромное за информацию про ImageJ - алгоритм просто офигенный! Раньше с ним не сталкивался, к сожалению.

а тем временем = http://club.foto.ru/forum/6/678601

Что такое "микроконтраст"? Его можно измерить приборами, или только с помощью плацебо?

Это как с порнографией - увидишь и сразу поймешь. И я не шучу - описанный в данном посте (к которому мы тут пишем комментарии) эксперимент я очень рекомендую проделать.

Приборами: MTF на высоких пространственных частотах. Хотя вот тоже не панацея, вот смотришь на resolution chart, камера вроде разрешает (т.е. transfer function отлична от нуля), а число полосочек показываемых - меняется.

Кожа младенца (свежевымытого маленького ребёнка).
Портрет не крупнее "погрудного".
Поры кожи видите? - есть микроконтраст.
Не видите? - что-то его схавало. Обычно, шевелёнка. Даже если на снимке притворяется сусликом!

Бритва Оккама:
1. СФ камеру обычно дают в руки хорошим фотографам, а они хорошо подбирают сюжет и свет.
2. Фап на ценник и размер матрицы
без слепых парных этот взгляд не имеет смысла абсолютно никакого

>несколько файликов с настройками Capture One.
так там еще и профиль шарпинга?

>Приборами: MTF на высоких пространственных частотах.
На высоких? Вы высокие частоты выкинули ресайзом, как они могут влиять?

А вы возьмите и посмотрите. Это лучше, чем тут суходрочкой заниматься в комментах.

Эти снимки действительно настолько резко отличаются от *всего*, что я не поленился пост написать. Особенно хорошо оно видно на архитектурном снимке ("кирпичная стенка"), но и на остальных - тоже.

Софт, которым я это предлагаю сделать (RawDigger) ничего не шарпит, настройки C1 из архива не берет и т.п. Я это знаю т.к. его сам писал, а вам предлагаю поверить мне на слово.

На веб-размере виден алиасинг. Так это он вам так нравится?
И что, все-таки, такое микроконтраст?

Микроконтраст - способность различать мелкие детали с близкими тональными значениями.

Мне так непонятно.
Можно говорить об отношении сигнал/шум на определенной пространственной частоте, вы об этом?
Почему разговор идет о мелких деталях, когда речь идет о вебразмере?

> Можно говорить об отношении сигнал/шум на определенной пространственной частоте, вы об этом?

Нет, конечно.

Тогда я вас совсем не понимаю.
Я вбил "microcontrast" в Google Scholar - 136 хитов. То есть в серьезных публикациях этот термин не используется.

По оптике работы ищут на немецком, и они не новые. Вряд ли они есть в Школьнике. Термин Mikro-Kontrast.

Достал "немецко-русский словарь по оптике", Москва, "Русский язык", 1975 год.
Mikrokontrast нет (оно в немецком пишется таки без дефиса, судя по гуглу).
За Mikrokinematogaphie идет Mikrokristall и Mikroleuchte.

Nasse:
Die Eigenschaften der obigen Bilder werden auch durch ihre Histogramme verdeutlicht: beim Bild von dem Objektiv mit schlechtem Mikro-Kontrast (Mitte) ist insbesondere der rechte Gipfel nach links zu niedrigeren Grauwerten verbreitert, weil das Wei an den berstrahlten Kanten die eigentlich schwarzen Fl chen aufhellt. Der Abstand der beiden Gipfel auf der Grauskala ist aber gleich gro wie beim guten Bild links.

Aber was hei t denn eigentlich Kontrastwiedergabe ? Wir d rfen nicht vergessen, dass wir hier immer ber Mikro-Kontrast sprechen, wenn wir einfach Kontrast sagen, also ber Strukturen, die wir z.B. in einem Dia gerade noch oder gerade nicht mehr mit blo em Auge sehen k nnen. Wenn wir aber z.B. ein Schachbrett formatf llend fotografieren, dann hat der Kontrast zwischen den schwarzen und wei en Feldern damit gar nichts zu tun

ну допустим. маркетологический материал от цайса. а где определение-то?

Вы уж не решайте, чем руководствовался Nasse, когда писал. А определение я Вам дал.

оопс, промахнулся с комментом

я плохо знаю немецкий язык. В определении должно быть "Der Mikrokontrast ist", разве нет?

Я на русском дал. На немецком оно начинается в данном случае с "also".

Я на русском дал. На немецком оно начинается в данном случае с "also".

Ну допустим
"Микроконтраст - способность различать мелкие детали с близкими тональными значениями."
но обсуждается изображение в 1 Мп, набор цветных пикселей. Какие у него могут быть способности?
Почему разговор о МЕЛКИХ деталях на снимке уменьшенного до вебразмера?
ну там 1000 точек по длинной примерно. Это соответствует ЧКХ на 9.3 пар линий/мм для кадра с IQ 180 и 13.8 пар линий/мм для 135 формата. Не, ну я могу представить, чтобы ЧКХ там различались (скажем, 94% против 90%), могу представить даже что есть люди с натренированным зрением, которые это различают. Но судя по тексту, ничего кроме ЧСВ за этим не стоит. И уж точно АА фильтр не причём :)))

Если вы перечитаете пост (возможно, придется сделать несколько раз), то вы поймете, что никаких выводов я не делаю. Я предлагаю проделать эксперимент над собой и или увидеть разницу (по мне, так оно просто бросается в глаза), или не увидеть. Увидев - сразу заметите.

Выкладки я эти тоже понимаю. Ну да, для 25 см по длинной стороне на экране (1000 пикселов) это будет увеличение в 4.5 раза для цифрожопы, 7 раз для 135-го, ~10 раз для кропа. Но крупный пиксель (экранный).

Для отпечатка такая разница в увеличениях - принципиальна, видна всеми и вопросов нет, отпечаток A4 с узкой пленки и с 6x7 (диагональ вдвое больше) вы отличите мгновенно и даже после пары стаканов.
Но на отпечатке разница в мелких деталях. Отчего такая разница на крупных деталях (размером, после увеличения, вот примерно с DOF для узкой пленки) - я тоже удивляюсь. И потому - никаких выводов не дела.
Вот разница - я ее ясно вижу. Ее не должно бы быть, как мне кажется. Но она - есть.

С третьей стороны - а вот где берут графики MTF для системы объектив-сенсор-конвертор? То что я видел у Нормана Корена (давно давно), для 10D с пикселем в 7.5 микрон давало (начинающийся) резкий спад уже начиная с 7-10 lp/mm. Умножаем на увеличение - и задумываемся.

что-то таки вы там увидели и назвали "микроконтрастом", причем выделив это слово жирным. что-то из разряда "ДД оптики" или "цветового охвата матрицы"

при таких уменьшениях уже важнее алгоритм ресайза, чем то что ему запихнули на вход. ну а алиасинг вроде может восприниматься как увеличение резкости

>Ну да, для 25 см по длинной стороне на экране (1000 пикселов) это будет увеличение в 4.5 раза для цифрожопы, 7 раз для 135-го, ~10 раз для кропа. Но крупный пиксель (экранный).
Это-то тут причем? Если смотреть на смартфоне в те же 1000 точек по длинной, эффект другой будет?

>С третьей стороны - а вот где берут графики MTF для системы объектив-сенсор-конвертор? То что я видел у Нормана Корена (давно давно), для 10D с пикселем в 7.5 микрон давало (начинающийся) резкий спад
*FACEPALM*
График МТФ (в осях контраст - лп/мм) любого объектива как раз таки имеет резкий спад, начинающийся из точки (0,1). Если он начинается откуда-то из другого места, криво измерен значит.
А народ их как раз для системы и измеряет, потому что по другому не может (больше нечем).

Это хороший, годный вопрос - что там происходит при другой плотности пикселов.
На телефоне мне RD не запустить, подожду макбука с ретиной.

*испуганно*
а если скриншот с равдиггера, работаещего на десктопе, перетащить на телефон, эффект пропадает??

Это все слишком сложно для меня.

Я не знаю, как и чем вы смотрели.

Если вы смотрели по описанной мной процедуре (а не брали превьюшки с сайта) и не видите принципиальной разницы этой картинки/этих картинок (на экранном размере 1-2 мегапикселя, это побольше чем "вебовский") от типовых "картинок с кропнутой цифры", то обсуждать с вами особенности фотографической оптики мне кажется бессмысленной тратой времени. Ну не видите, бывает. Я вам в наставники не записывался.

смотрел, разве что при попытке применить ББ rawdigger стал показывать черноту.
1 мегапиксель это вполне себе вебразмер.
Вы про чайник Рассела читали?

Как вы совершенно верно написали, на случайном кадре совершенно невозможно что-либо доказать без сравнения. Был бы снят какой-то объект с известными свойствами - можно было бы измерить, но в данном случае и этого нельзя.

Сухой остаток: если эффект не бросается в глаза, то предмета для обсуждения нет. Не видите - ну и не видите, вам же только лучше от этого.

Впрочем, я не вижу и задачи кому-то что-то доказывать.

Дело не в этом. Дело хуже, дело в сознательном использовании терминологии, выводящей предмет обсуждения за область науки (наукой, в это посте и не пахло даже)

Вы ж говорите, что термина такого - нет?

Значит пост не о науке, а о фотографии. Вам - не понять.

C научной же точки зрения "отношение сигнал/шум на определенной пространственной частоте" меня тоже позабавило вчера.

я плохо знаю немецкий язык. В определении должно быть "Der Mikrokontrast ist", разве нет?

А оригиналов у Вас не осталось?
Или похожих файликов с тем же эффектом?

Автор запретил пере-раздачу явно.

Я это прочитал.
Но это странно, и у Вас и у него в стать есть (переставшая работать) прямая ссылка на Дропбокс.
Т.е. Это мог скачать кто угодно переслать саму ссылку кому угодно.
Сам скачивал по вашей, только всё тоже давно похерилось. :-(
Этот пост, и то нашёл случайно. :-)

Мог.
Но я волю автора уважаю - и раздавать не могу.

Add new comment