Свежие комментарии

Title Comment
Собственно, возвращаясь с исходному комментарию. "Единствен

Собственно, возвращаясь с исходному комментарию.

"Единственно правильной экспозиции" - на мой взгляд, тоже не существует.

А вот "осмысленная" экспозиция т.е. знание, где (в каких "плотностях" окажется какой объект на снимке) - существует.
Соответственно, знание, куда рендерится замер экспонометра - важное.

Скажите пожалуйста по какой

Скажите пожалуйста по какой причине flash анимация вставленная через IMCE воспроизводится корректно только в браузере Chrome?
Извините если не по теме.

>Э, ну матрица тоже "с учетом адапатации" имеет изрядный диа

>Э, ну матрица тоже "с учетом адапатации" имеет изрядный диапазон.
да но глаз даже и без адаптации видит все равно изрядно больше чем матрица без адаптации.
например глаз ясно видит текстуру на луне и одновременно видит окружающие луну звезды.

ну да вопросы HDR какбе за рамками проблемы ISO-маркировки, выбора "правильной" экспозиции, экспонометрии и проч. там например сразу возникают грабли с "ДД объектива".

Э, ну матрица тоже "с учетом адапатации" имеет изрядный диап

Э, ну матрица тоже "с учетом адапатации" имеет изрядный диапазон.

>А в чем невозможность? > Любая видимая длина волны произво

>А в чем невозможность?

> Любая видимая длина волны производит сигнал

этот твой пост не про цвет а про яркость, у тебя там это слово даже жирным шрифтом выделено :) так что динамический диапазон и невозможность его фиксации - это про яркость.
глаз видит 20 стопов (с учетом адаптации конечно), матрица (с учетом "ДД объектива") фиксирует 8-9. ну вот выбор какие 8-9 стопов из 20-ти фиксировать -- дело вкуса, замысла фотографа и т.п.

А в чем невозможность? Любая видимая длина волны производит

А в чем невозможность?

Любая видимая длина волны производит сигнал

>Но есть мнение, что профиль надо строить под освещение и по

>Но есть мнение, что профиль надо строить под освещение и под конкретную оптику (с учетом светорассеяния), а значит Адобой счастлив не будешь.

Мне в этом смысле очень нравится подход Datacolor-а в SpyderCheckr - там для лайтрума строятся "профили" (которые сохраняются в лдайтрумовские User preset-ы), суть которых состоит в двигании лайтрумоскких цветовых движков в панели HSL. Соответственно пресетов можно понаделать на всякие случаи жизни (т.е. всякие освещения\объективы).

Но сам я не пробовал пока за неимением датаколоровских плашек и софта.

я делаю такой вывод. в связи с невозможностью фиксации матре

я делаю такой вывод.
в связи с невозможностью фиксации матрецей всего видимого глазом динамического диапазона, экспозиция, как и цвет, дело вкуса. то есть "правильной" экспозиции, как и "правильного" цвета - не бывает и зависит от вкусовых предпочтений фотографа.
знание запасов по светам для своей камеры конечно штука полезная. но примнение её ограничено ибо применимо только при точечном замере или съемке серых карт.

а тут нет никакой аналогии. вот у нас в глазу три колбочки,

а тут нет никакой аналогии.

вот у нас в глазу три колбочки, но "охват" (ака локус) на треугольник похож очень и очень отдаленно.

>сдается мне, что если через цветоделительные фильтры снять,

>сдается мне, что если через цветоделительные фильтры снять, а потом через них же воспроизвести проекторами, то получится довольно неплохо.

нет, получится плохо. хорошо получится только если фильтры через которые фотают есть линейная комбинация колбочковых чувствительностей, a primaries проектора достаточно широко расставлены.

вот смотри. допустим у нас есть фильтры соответствующие колбочковым чувствительностям. тогда мы колориметрически точно зафиксируем (измерим) цвет (ессно с учетом цвета источника).
но воспроизвести этот цвет, подавая белый свет через эти наши "колбочковые" фильтры, мы не сможем ибо очевидно же, что у такого проектора будет весьма и весьма ограниченный охват.

для измерения любого цвета достаточно трёх сенсоров, надо только чтобы их чувствительности удовлетворили критерию лютера-айвса.
для воспроизведения любого цвета, с какой-то разумной погрешностью, нужно от пяти и более источников света, с цветами расположенными по периметру (близко к периметру) локуса.

>при этом ситуаций, когда реальный сигнал выпадает за охват - может и не быть на практике,
всякие разговоры о том, что за пределами локуса есть цвет - ересь.
можно фотать в рентеновском диапазоне, при этом результатом будет все что угодно, но не цвет.

Да, конечно. Это просто название для "углов треугольника", п

Да, конечно. Это просто название для "углов треугольника", по аналогии.

Алексей Я прошу прощения, но слово "primaries" к устройства

Алексей

Я прошу прощения, но слово "primaries" к устройствам ввода вообще плохо применимо.

По второму пункту. Физично или нефизично, но а) охват каме

По второму пункту.

Физично или нефизично, но
а) охват камеры (для матричного профиля) - это то что поместилось в треугольник между primaries
б) если в этот треугольник помещаются "все видимые цвета", то primaries должны быть за границей человечьего охвата
в) при этом ситуаций, когда реальный сигнал выпадает за охват - может и не быть на практике, не бывает сигнала в котором только 'R'. Правда интерполяторы (демозаики) и тут нагадят, конечно.

О чем я и толкую - современные CMM на ситуацию "охват камеры - весь видимый свет и еще немножко" не рассчитаны. Во всяком случае, в спецификациях такого нет, на что мне и указывали, когда я троллил цветовых ученых (ремесленников) вышепомянутым постом.

По первому пункту: сдается мне, что если через цветоделительные фильтры снять, а потом через них же воспроизвести проекторами, то получится довольно неплохо. Хотя я и не пробовал.

Ну, это, казалось бы, не

Ну, это, казалось бы, не имеет большого значения. Главное раздражить колбочки в правильной пропорции, с каковой задачей мониторы более-менее справляются.

ну были же вообще CMY матрицы у Canon когда-то, и ничего, цв

ну были же вообще CMY матрицы у Canon когда-то, и ничего, цвета восстанавливали :)

это все от того, что RGB в raw это не те RGB, что в jpeg. н

это все от того, что RGB в raw это не те RGB, что в jpeg.

народ по наивности думает, что запись и воспроизведение взаимно обратимы, как например в случае со звуком.

>Не учтено то, что спектры фильтров и спектры пикселей на мониторе - разные.
допустим, они были бы одинаковы. это вообще никак бы не поменяло ситуацию. первый пункт мимо.

>primaries камеры (в матричном профиле) - вне видимого глазом охвата, но кто сказал что так нельзя?
ну это же как-то... нефизично. вне видимого глазом охвата ничего нет. это как мнимая единица. абстракция.

Еще кину большой камень в

Еще кину большой камень в лампы мониторов. Всё это CCFL-безобразие с фирменными смесями люминофоров тоже дает неизвестно что, а не белый свет, потом фильтры монитора пытаются еще довершить процесс лепки конфет из непонятно чего.
LED-подсветка новомодная - не меньшее дерьмо, потому что если там не RGB-диоды, то это голубые диоды, которые намазаны смесью желтого и "розового" люминофоров. Которые со временем по-разному деградируют.

Ну да, естественно, радуга и призма - это качественный экспе

Ну да, естественно, радуга и призма - это качественный эксперимент. Но показательный.

Что же касается количественного, то в колориметрической практике ширина отсчета в 5нм считается вполне приемлемой, что на весь диапазон в ~400нм дает 80 отсчетов на весь спектр.

Разрешение низкое. А подцепив фотоаппарат к монохроматору мо

Разрешение низкое. А подцепив фотоаппарат к монохроматору можно легко получить и 10 тысяч точек развёртки. После чего есть что анализировать.

Мерси. Во всяком случае, проблемные места, вроде, стали видн

Мерси. Во всяком случае, проблемные места, вроде, стали видны яснее.

Можно просто честно снять радугу в пейзаже. У меня от резуль

Можно просто честно снять радугу в пейзаже. У меня от результата - попаболь.

Можно, кстати, на призму посветить солнцем через дырку в занавеске, чтобы на одном кадре было. Тоже забавно получается.

Не-не, это очень проблемная задача. 1) Оборудование (камера

Не-не, это очень проблемная задача.

1) Оборудование (камера) путает цвета. Два разных (с точки зрения человека) цвета дают один отклик, два одинаковых (с точки зрения глаза) - разный отклик. Невидимый (ИК, УФ) - тоже дает отклик.

2) Цветовая наука в ее распространенном виде (готовые color engines) не готова работать с этими данными.
Она даже с контекстным gamut mapping не готова работать промышленно (не все пространство во все пространство, а с учетом охвата реального изображения)

3) Спектральные данные не спасают. Все что может предложить цветовая наука (в распространенном ее виде) - это проинтегрировать по спектру, получить смоделированные отклики (триплеты или квадруплеты) и дальше с ними работать.

Ну и пункт 7, точный цвет интересен только для репродукции.

Ну а Adobe что. Adobe честно делает профили. И просто матричные, которые в DNG зашивает и существенно более сложные DCP. У них какое-то качество, пипл хавает.
Но есть мнение, что профиль надо строить под освещение и под конкретную оптику (с учетом светорассеяния), а значит Адобой счастлив не будешь.

Попробуйте математически сформулировать эту задачу, и вам мн

Попробуйте математически сформулировать эту задачу, и вам многое станет понятно.

Ок, да, первый пункт принимаем конечно, характеристики фил

Ок, да, первый пункт принимаем конечно, характеристики фильтров на матрице не обязаны соответствовать каким-то rgb-шным стандартам. Тогда у нас возникает задача приведения цветового охвата этих фильтров к диапазону файла. Задача, видимо, не совсем линейная (как там, в фотошопе при смене профиля relative colorimetric, absolute colorimetric, perceptual и т. д.). С другой стороны, эта задача должна быть уже исследована вдоль и поперёк и должно быть или устраивающее всех решение или какой-то минимальный набор решений. Ну то есть не должно быть ситуации, когда каждый конвертер решает её заново.

Откуда берутся профили это вопрос, конечно. Но, блин, даже если мерить честно, по спектрально чистым цветам, это не должно быть какой-то сверхсложной задачей. Ну да, нужно некое хорошее оборудование, но это задача масштаба одной оптической лаборатории, а не целого НИИ. Встречающиеся иногда рассуждения о секретных профилях мне не очень понятны. Оптика линейна. Тупо прогнать по спектру, отнормировать на такую же матрицу без фильтров и у тебя в руках кривая, которая полностью описывает твой фильтр в любой световой ситуации. Уж какой-нибудь Адоб точно может это сделать.

Кстати хорошая мысль снять радугу. В смысле сделать серию с

Кстати хорошая мысль снять радугу.

В смысле сделать серию снимков щели спектрографа (с серым общим фоном чтобы баланс не плавал) от белого источника прогнав по видимому спектру.

Ибо никаких RGB нет, это выдумка и обман зрения.

Пункт 1 со слайдом никого не смущал.

Пункт 1 со слайдом никого не смущал.

Ну, э. 1. Спектры чувствительности колбочек глаза L(w), M(w

Ну, э.

1. Спектры чувствительности колбочек глаза L(w), M(w) S(w) не являются линейной комбинацией спектров фильтров R(w), G(w) и B(w), где w - длина волны. Эта задача линейного решения не имеет (имеет линейное приближение). С монитором всё как раз лучше, ибо задача цветокоррекции для устройств вывода решается линейно.

2. У монитора и у жизненного объекта разный диапазон контраста и яркости. А значит, воспринимаем мы эти цвета по разному просто психологически.

3. Собственно, пока действительно есть проблема шума. Человеческий глаз способен смотреть на диапазон яркости больший, чем способна дать камера.

Ничего нового я там не написал (ну чуть-чуть), но там это не

Ничего нового я там не написал (ну чуть-чуть), но там это не оффтопик
ЖЖ: http://alextutubalin.livejournal.com/285529.html
Блог: http://blog.lexa.ru/2012/02/20/o_tsvetoperedache.html

Не, я прямо из этого текста, но просто как место для дискусс

Не, я прямо из этого текста, но просто как место для дискуссий.

Сейчас, в течение часа-двух....

Пост был бы интересен, спасибо!

Пост был бы интересен, спасибо!

Pages

Subscribe to comments_recent_new