Про профили камер и про линейность

Вот этот вот комментарий, как мне кажется, заслужил отдельного обсуждения.

В самом деле, имеет место некий фенОмен (который виден, например, по dE т.е. инструментально):

  • C одной стороны, цифровые камеры в светах (но до начала блюминга) - высоколинейны. Т.е. отпрофилировав их в среднем тоне мы вправе ожидать приличных цветов и в светах.
  • C другой стороны, практика это опровергает, если снять цветовую шкалу +2 (без всяких вылетов) и наложить профиль камеры, то цвет уползет достаточно сильно (по меньшей мере, dE вырастет в разы)

Я тут вижу несколько соображений:

  • Во-первых, блюминг. И, наоборот, всякие антиблюминговые решения, которые должны характеристическую кривую загибать.
  • Во-вторых, всякие игры RAW-конвертеров (которые тоже характеристическую кривую загибают).
  • В-третьих, следующий интересный эффект:
    1. Давайте представим себе профилировочную таблицу, вроде ColorChecker SG. Вот на ней есть зеленый патч E9, который на 1.5-2 стопа (на глазок) ниже среднесерого.
    2. Уровень красного в этом зеленом будет еще на пару стопов ниже (красного в нем мало), потом у красного канала чувствительность на стоп-полтора хуже т.е. красным мы попадем куда-то в -5 от среднего тона (или -8 от самых светов).
      Это, на минуточку, вообще на пределе какого-то сигнала в красном.
    3. Но красный канал нужен, чтобы отличить сине-зеленый от зелено-синего т.е. в этом месте профиля красный будет с очень большим весом (т.к. сам сигнал - маленький).
    4. Но красный - зашумлен, в рассматриваемом месте он уже сильно нелинеен (по причине шума)
  • Собственно, вот: профиль для таких "предельных" цветов будет как-то компенсировать нелинейность слабых каналов, а если мы переедем на 3 стопа вверх - то перекомпенсировать (ибо на три стопа вверх в красном канале уже все отлично).

Такие дела.

Comments

А есть ли вообще смысл в профилях? Ведь условия съемки всегда разные, ну кроме студии конечно. Соответственно и и точка белого будет всегда разная. Может я чего-то недопонимаю?

Формально, переход к другой точке белого (т.е. смена адаптации) - это очень простая операция.

Неформально, оно конечно зависит от света, с линейчатыми спектрами плохо, с непрерывными - проще гораздо.

Либо перед каждым кадром или серией кадров снимать мишень ....

спасиб, просвещаешь нас.

в действительности с цветом все еще хуже,
я сейчас не готов подробно обсуждать, но если вы меня пнете позже - в дневное время суток пофильтрую информацию по моделям цвета И снятию его в цифру, некогда озвученным одним педантом цветоколористики - Александром Щадриным.
Сейчас считать мое сообщение чисто для галочки, типа отметился (и ничуть не удивился)

С цветом все действительно довольно отвратительно, особенно со сложными случаями, вроде ярких красителей с полосатыми спектрами (синтетика) и освещения с полосатым же спектром (вспышка).

Кроме того, с теорией-практикой именно захвата цвета все обстоит довольно странно (в отличии от воспроизведения, где все более-менее прилично и сменить бумагу/чернила в принтере не теряя результата), это я аккуратно выражаюсь...
Вот что умеет наука захвата - это как-то автоматически посканировать слайд при фиксированном освещении (лампы сканера) и фиксированом красителе (а для разных типов пленки - уже разные профилировочные мишени ровно на этой пленке).

Но я о совершенно простом и банальном эффекте, которого по первому впечатлению просто не должно быть - уходе цвета при экспокоррекции в плюс на +2, когда мы вроде в линейной области и никакого насыщения нет.

да, я был неправ вчера, просто поймал ассоциацию подобной "неоднозначности".
но там речь велась о физиологии зрения в том ключе что один цвет(для глаза) может вызвать неоднозначный (неопределенное количество совершенно разных комбинаций) сигнала (спектра).
А здесь на первый вид все проще: сигнал-сигнал.
но если как следует подумать... (пойду ка я еще подумаю)

Кстати не напомните причину того что по зеленому каналу чувствительность(как iso)выше чем в R/B, кажется это уже озвучивалось, но я ухватил только следствие как данность, а не (физическую) причину.

"вызвать" правильнее заменить на "вызывать"

Физической причины нет. Т.е. падение чувствительности в синем связано (как мне тут пояснили в комментах с месяц назад) с тем, что поглощение синего происходит выше собственно фоторецептора (в верхнем слое кремния), а вся остальная фильтрация сделана намеренно:
* ИК - ну с ним все понятно, если совсем не фильтровать, то цвета уедут сильно ("лиловый черный" все видели, если не у себя, так у других)
* Режут красный (относительно зеленого), насколько я понимаю, исходя из возможности съемки при лампах накаливания (и свечах) - если не резать, то реальный сигнал на красном будет сильно выше (или в зеленом-синем - сильно ниже), что цветовоспроизведение тех же тонов кожи еще более убъет (для прорисовки лица важны дополнительные цвета). А при том что есть сейчас, при свете обычной лампы накаливания зеленый и красный практически сбалансированы (а синий - порядка -2 от них)

Кроме того, зеленый - это практически яркостный канал (особенно в свежих камерах, где спектры зеленых фильтров здорово расширены)

>>Физической причины нет.
почему ж нет, вот как раз вы сами и сказали что есть - синий фильтр-краситель более плотный чем R/G

Вобщем, винегрет полный насколько я вижу, и сбалансировать его по всей кривой да еще для разных спектров - задача просто аховая.

Ну да, можно и так сказать, синий задавлен по естественным причинам, а красный - по желанию изготовителя.

А сбалансировать сам сенсор под разные спектры - физически невозможно, можно только под какой-то один свет. Ну, плюс-минус фильтры конечно, иметь камеру под галогенку и фильтры для добалансирование под стробы, солнце и пасмурно - отличная идея (но не думаю, что ее кто-то реализует)

"Но я о совершенно простом и банальном эффекте, которого по первому впечатлению просто не должно быть - уходе цвета при экспокоррекции в плюс на +2, когда мы вроде в линейной области и никакого насыщения нет."

Слушай, а ты умеешь строить RAW? Интересно, как поведет себя уплывание цвета, если экспокоррекцию сделать за пределами конвертора :)

Тут был я

Сгенерировать DNG (или сделать в нем экспокоррекцию) можно адобовским SDK.

чей-то мне подсказывает, что узнать, как именно он делает экспокоррекцию, мы не сможем.

Ладно, это была просто мысль походу.

В смысле?
Я про то, что ты берешь DNG, делаешь в нем экспокоррекцию сам, затем записываешь новые значения в тот же DNG (сохраняя т.е. не меняя метаданные)

Для камер, которые черный вычитают сами (т.е. не Canon) все будет настолько прозрачно, насколько оно вообще возможно....

Кроме того, можно взять камеры с нежатыми RAW (если хочется сделать малой кровью) - их довольно много. И, соответственно, развлекаться с ними.

Я подозреваю, что дело не в разном метамеризме камеры по диапазону, а именно в фокусах и кривостях конверторов. До выхода camera profiles для LR/ACR голубые тени и прочая хрень была нормой. С новыми профилями жизнь стала прекрасной, и голубые свалили из тех карточек, где они мозолили глаз.

Описанный мной в том комментарии тест (эхх, как бы отучить блог забывать авторизацию и превращать невнимательных типов вроде меня в анонимусов) замечательно демонстрирует искажение цвета при использовании профиля Adobe standard. Поэтому для получения близких цветов у кадров, снятых с разной экспозицией, и приведенных к общему знаменателю в конверторе, мне пришлось поставить разный ББ, смещая температуру на 50 градусов на каждый стоп изменения эспозиции. Однако с профилем Camera standard все 3 кадра стали идентичными с одним ББ.

При этом само по себе отклонение цвета не так и страшно, все равно колометрически точный цвет мне лично не нужен (тут должно было стоять "да вообще мало кому нужен") :), а с уезжанием цвета в зависимости от яркости помогли боротся профили. Интересен именно вопрос о разном метамеризме. Чтобы не оказывалось, что в разных частях диапазона мы потеряем цветовые оттенки там, где их видит человек, и увидим их там, где человек не видит.

Фокусы и кривости - отдельная статья, и не о ней речь. Я смотрю данные в raw, линейные - именно по ним составляется colour transform, по ним и рассчитывал расхождение метамеризмов.

Что происходит, если мы сначала снимем +1, а потом в конверторе сделаем коррекцию -1?

Несколько мыслей:

1. Расхождение метамеризмов камеры и глаза есть, и это очевидно. Но Как ты измерял это расхожденение? Во всей дискуссии я так и не увидел ответа на вопрос, в какой точке метамеризм камеры ближе к человеческому - вся дискуссия видется о совсем другом, о том, что камера выдает разный цвет в разных условиях.

2. Ниже ты озвучил следующую идею:
"Метамеризм нелинеен по яркости"

вполне возможно (не знаю почему, но почему бы и не поверить), что яркость влияет на спектральные характеристики фильтров и спектральной чувствительности матрицы, но мы-то говорили о влиянии ЭКСПОЗИЦИИ на цветопередачу, а не яркости объекта съемки. Для удобства давай считать, что экспозиция меняется только выдержкой (что соответствует 95% случаев моей съемки в реале). Я не вижу, откуда тут взяться нелинейности, если матрица линейна.

Успел поймать багу с авторизацией:

коммент писался под надписью "Вы авторизованы как Anatoly Skoblov", однако в соседнем окошке, открытом позже, уже предлагали авторизироваться. На 100% уверен, что в окне с написанным комментарием однозначно были приметы успешной авторизации. А ушло анонимусом.

Еще раз, механизм:
сине-зеленая плашка, чувствительность красного примерно в 10 раз (3.5 стопа) ниже, чем зеленого (и синего).
Снимаем ее с вилкой -2,-1,0,1: красный нифига не будет линеен, траст ми.

Да про тень-то я все понимаю. Писал про это до того. Меня света интересуют.

Но у тебя то профиль строится по этой самой сине-зеленой плашке, экспонированной "нормально" (как есть в мишени, что-то +1, что-то 0, что-то -1, ну может разброс не 2 стопа, а три).

А средства линеаризации, которые содержатся в мишенях - недостаточны.

Ну я не знаю, как строятся профили у Adobe :) То, что я вижу своими глазами - повление camera profiles заметно повлияло на проблему съемки "передержи мна стоп и выстаим кореркцию -1 в конверторе". В цифрах не измерял, но раньше проблема была видна глазом, а с новыми профилями - не видна.

Да, у адоба острота проблемы не очень большая,но в конкретной задаче ("классификация типов вегетации") все-таки видимая (и в пользу экспозиции в 5-ю зону).
При этом недодержка на стоп в смысле устойчивости цвета оказалась куда лучше (в полутонах)

Цвета при этом мне не нравятся, хотя и гораздо лучше чем с Adobe Standard.

Метамеризм нелинеен по яркости, и нелинеен по-разному у камеры и у человека. Профиль как-то способен сделать разницу приемлемой в определённом диапазоне значений raw - то есть, с точки зрения фотографа - в определённом диапазоне экспозиций (своего рода широта) и для определённого диапазона ISO (что в сумме и даёт диапазон значений raw).

> если снять цветовую шкалу +2 (без всяких вылетов) и наложить профиль камеры, то цвет уползет достаточно сильно.

Профиль профилю рознь. В общем случае профиль RAW->RGB в наших конвертерах есть нелинейное 3D преобразование. Универсально ли такое решение?

Колориметрия говорит однозначно нет, не универсально (и избыточно). Есть универсальное (и достаточное) - матричное 3x3 (Грассмановское). У матричного есть одно требование линейная (energy) шкала. Выполните линеаризацию, затем матричное вуаля. Но настоящие герои не ищут простых путей. Мы объединим обе стадии в одну в вышеупомянутое нелинейное 3D преобразование. Останется ли корректна линеаризация "если снять цветовую шкалу +2"?

Собственно, в исходном тексте про линеаризацию и написано (хотя и завуалировано несколько).

Но вот вопрос к вашему 3D-преобразованию (допустим, оно в XYZ): если мы снимаем цветную шкалу с нормальной экспозицией (скажем, по ее серому патчу) и с +2, то для тех патчей, на которых нет клиппинга - сохранятся ли цветовые координаты (получаемые после наложения профиля).

Т.е. мы очевидно такого сохранения _хотим_, а вот есть ли оно на практике? А если его на практике нет, то что делать с ETTR?

Допустим, снята некая цветная плашка и в raw получены (r,g,b). Далее, та же плашка снята с удвоенной экспозицией. Получены значения (R,G,B). Проблема возникает, когда не соблюдается (R,G,B) = 2*(r,g,b).

> Как именно выполнять линеаризацию в условиях метамеризма?

Я не очень понимаю смысл, который Вы вкладываете в понятие "метамеризм". Метамеризм камеры (т.е. нарушение Luther-Ives condition)?

В колориметрии принято метамеризмом считать интегрирование по CMFs (color matching function). Согласно второго закона Грассмана, пропорциональность там выполняется всегда (для linear-energy domain). Верно и обратное, если "не соблюдается (R,G,B) = 2*(r,g,b)", то это не linear-energy, здесь нужна предварительная линеаризация.

Предварительная линеаризация, о которой Вы говорите, зависит от особенностей спектра источника света и (иногда) от особенностей красителя.

> Предварительная линеаризация, о которой Вы говорите, зависит от

Линеаризация есть приведение ответов некоторого измерителя-детектора к линейной шкале (в нашем случае любая linear-energy, пусть Ватты, кд/м2, футламберты и пр.). Т.е. это есть внутреннее свойство самого измерителя (а не его окружения). Да, в природе не бывает идеала, и ответ того же детектора будет зависеть и от соседей, и от температуры среды, и от гравитационных полей :-). Но мы позволим себе некоторое упрощение (здесь точность особо не упадет).

У нас детектор устроен посложней, он состоит из 3 широкополосных, причём каждый из 3 имеет полосу переменной ширины, зависящую от яркости даже при монохроматическом свете. Так что шутки о гравитации и влиянии лунного света на рост телеграфных столбов - в сторону.

> У нас детектор устроен посложней,
Детектор интегрирует. Какую именно функцию он интегрирует, "посложнее" или "попроще" не суть. Суть в интегрировании. Причем интегрирование это линейное. Этот процесс мы и называем метамеризмом.

> имеет полосу переменной ширины
Человек, который сделает простую технологию (изобретет нелинейную оптику в наших низких энергиях) изменять динамически спектральную характеристику твердого тела гарантированно получит Нобелевку.

PS. Предлагаю закруглить...

Вы ничего не сказали - так что и закруглять нечего.

Ну вот насколько я вижу из эксперимента, в области где-то от -2 и до насыщения (т.е. стопов эдак 5-6), линейность очень хорошая (если правильно вычли черную точку). Т.е. с серыми плашками проблем не должно быть.

С другой стороны, если одна из плашек - это тот самый темно-зеленый, то по красному каналу линейности не будет и близко т.к. при стандартной съемке этой мишени красный (как и написано в исходном тексте) улетает в район -5 по среднему тону, а там уже шум вполне сравним с сигналом.

> с серыми плашками проблем не должно быть.
Я сталкивался с подобной проблемой, зависимость "серых плашек" от условий съемки, причем профиль "не держал" серую шкалу на краях даже в "тепличных" условиях студии. Частично проблему удавалось решить применением ИК-фильтров. Но наилучшее результаты дало простейшее "научное" решение отказ от CLUT, что предлагали всевозможные "улучшайзеры", и переход к простому matix-преобразованию.

> шум вполне сравним с сигналом.
Для линеаризации шум не так уж и опасен. Любой профилировщик умеет усреднять/сглаживать свои TRC даже в автоматическом режиме, а уж "фирменные" профили здесь выглажены вручную очень хорошо. Повторю свое imho основная ошибка возникает из-за некорректной линеаризации, нарушения принципа linear-energy.

Как именно выполнять линеаризацию в условиях метамеризма?

> сохранятся ли цветовые координаты

Нужно сперва назвать тип профиля. Затем еще оговорить наличие/параметры встроенных в профиль механизмов "гламуризации".

Для простоты предположим ситуацию (нереальную :), когда "гламуризация" не применялась. Тогда задачу линеаризации выполняет тег TRC (tone reproduction curve). TRC в общем виде табличная функция, для цифрофото она линейная с небольшими "особенностями" на краях. А что после TRC-линеаризации? Если профиль matrix-based, то движок CMM выполнит Грассмана. Вроде всё "по-науке".

Что будет в этом варианте для случая "шкалу +2"? Зависит от корректности TRC. Точнее от того, корректно ли будут отмасштабированы (energy) данные для стадии TRC-линеаризации. Здесь лишь одно уверенно скажу, если движок CMM внешний не дойдут туда linear-energy. Если же преобразования идут внутри некоторого RAW-конвертера зависит от квалификации автора.

> а вот есть ли оно на практике?

А на практике вместо matrix-based+TRC мы имеем полноценный CLUT, с "наивысшей точностью" типо Multi-function lookup table, resolution: 33 precision: 16 bits, 1024 point A-curves, B-curves (естественно S-образными) и прочими "гламуризаторами". Такое 3D-преобразование и один f-стоп сдвига energy не выдержит, развалится.

и один f-стоп сдвига energy не выдержит, развалится

У меня уже который месяц чешутся руки - взять какую-то симулированную сцену у которой я контролирую контраст (на экране монитора), снять ее -2,0,+2, отдать два крайних RAW-файла HDR-щикам и попросить воспроизвести кадр, который снят посередине.
Победителя вычислять по dE.

> У меня уже который месяц чешутся руки
Года три назад мы исследовали этот вопрос с одним из "HDR-щиков" (повезло, он оказался компетентным физиком). Немного паблика было [url=http://forum.rudtp.ru/showpost.php?p=245148&postcount=115]здесь[/url]. Без особых проблем несколько испытанных color transforms держали нейтраль colorchecker'a +/- 2 стопа. А парочка других color transforms (парочка популярных гламурных RAW-converters) не держала. Откуда и был сделал вывод: "нечего на Грассмана пенять, коли руки ...".

А то же самое, но не видя оригинала?

Но вообще да, то что делает UCT - гораздо более убедительно, чем все остальное.

> А то же самое, но не видя оригинала?

В смысле является ли фотоаппарат измерительным прибором? И можно ли положиться на его автоматику? Судите сами:

Контролируемые условия съемки, помещение normlight, 4850°K, верифицированный colorchecker (dE +/- 0.4), рассеянный свет, внешний спот-экспонометр (по n4-у полю, L=50). Автомат WB принял решение 4400°K tint -4, имеем четвертое поле 87:86:90 (sRGB) идеальная нейтраль при "проявке" 4550°K. Итак, ошибка аппарата 4850-4550=300 или 6%. Ошибка автомата WB 4550-4400=150 или 3%. Неплохо imho для "полупрофессиональной" техники, можно работать и "не видя оригинала".

В обычных (неконтролируемых) съемочных условиях ошибки естественно увеличатся. Но разве это проблемы аппарата? Поставьте наилучший наиточнейший измеритель в неконтролируемые условия, результат будет аналогичен.

> гораздо более убедительно

Они делают простейшую вещь следят за физикой. И работают не с безразмерными (относительными) величинами типа "отсчеты матрицы" или "проценты". И сразу исчезают проблемы типа "переедем со слабым сигналом на 3 стопа вверх".

Я, конечно же, про "обычные съемочные условия".

Ведь вопрос то по сути очень простой, "как экспонировать" (фотографу). Допустим, не слишком контрастный сюжет, выше среднего тона скажем полтора стопа, нужно ли их класть "как можно правее" по гистограмме или не выпендриваться и экспонировать "нормально". Сдвигаясь вправо мы выигрываем по шуму, а вот по чему проигрываем?

Касаемо UCT: они замахнулись на фотографов, даже LibRaw у нас лицензировали, ничего кроме "отсчетов с матрицы" у них уже нет :)

> Ведь вопрос то по сути очень простой, "как экспонировать" (фотографу).
Imho, с появлением цифры ничего особенного в экспонометрии не изменилось. Лишь чуть жестче стали проблемы на краях (химия там сглаживала). Поэтому ничего к Эвансу и Адамсу добавить не рискну :).

> ничего кроме "отсчетов с матрицы" у них уже нет
Я не буду комментировать решения UCT, они сами способны. Но подскажу - зная лишь пару чисел из EXIF, несложно из "отсчетов с матрицы" вернуться обратно к физическим величинам.

Изменилось, все очень сильно изменилось. Даже на слайде можно было легко отклониться по экспозиции на стоп (и не так легко - на 2) и скомпенсировать это проявкой. Т.е. после проявки мы на слайде имели 5-6 стопов "линейных" плюс плечи-стопа, но с учетом возможностей проявки это было 5-6+-2 т.е. почти 9-10.

Что касается EXIF, то все не так просто. Вот в EXIF написано "чувствительность 200", а это на самом деле 100 (и Highlight priority). Или написано 50, а это опять 100. Кроме того, у одной камеры 100 - это 2.7 стопа до насыщения, а у другой - 3.7 при дневном свете и более 4 при лампах накаливания (все примеры кроме 2.7 до насыщения - это про одну камеру). Т.е. все приходит к тому, что нужно взять все 332 поддерживаемых (LibRaw) камеры и всерьез изучить.

> Даже на слайде можно было легко отклониться
Я не фотограф. Но много сотрудничал (и сотрудничаю) с профи, посему рискну imho слайд не так уж легко прощал ошибки, все равно нужна была внимательная работа со светом. Этим, собственно, профслайд и отличался :).

Пуш и пулл были рутинными операциями, делала любая хорошая лаборатория. Ну ладно, пулл не любая.
Проявка в разбавленном проявителе (понижение контраста) - да, приходилось самому делать.

А если про Адамса вспоминать - то там же изрядная часть технологии - это именно управление контрастом и широтой материала.

На цифровых камерах вариации проявки тоже возможны, но диапазон гораздо уже, его считай и нету.

Да, пожалуй тут нужна оговорка. Ошибки - не прощал, но вариации (предусмотренные еще на стадии съемки) допускал в довольно широких пределах (не говоря о приеме форматчиков, которые снимали вместо вилки два дубля и проявку второго правили по результатам проявки первого)

> вариации (предусмотренные еще на стадии съемки) допускал
Я немного в курсе химфотопроцесса. И ограничения этих "фокусов" знаю, и знаю, какие трудности это вызывало в последующей обработке/цветокоррекции (а за пуш хитрецы могли и поплатиться). Я не стану здесь спорить, химфото "мягкое" на краях, там артефакты "человечнее". Да и энергетически СФ выгоднее какой "кропнутой 35 мм", здесь и предмета для спора не возникает.

> Как именно выполнять линеаризацию в условиях метамеризма?

Я не очень понимаю смысл, который Вы вкладываете в понятие "метамеризм". Метамеризм камеры (т.е. нарушение Luther-Ives condition)?

В колориметрии принято метамеризмом считать интегрирование по CMFs (color matching function). Согласно второго закона Грассмана, пропорциональность там выполняется всегда (для linear-energy domain). Верно и обратное, если "не соблюдается (R,G,B) = 2*(r,g,b)", то это не linear-energy, здесь нужна предварительная линеаризация.

> Вы ничего не сказали
Я и вправду ничего нового здесь сказать не смогу. Лишь в очередной раз повторить всё по-Грассману. Вся колориметрия, все сканеры, фотоаппараты, мониторы, покраска стен и автомобилей, печатные станки и струйные принтеры. Просто прошу внимательно смотреть на простой принцип следите за "физичностью" своих чисел. Все мифы, все "городские сказки", все "полосы переменной ширины" идут отсюда.

С полосами переменной ширины - оно не выглядит так смешно, как хочет выглядеть.

Если мы даже _совсем_грубо_ представим себе, что у нас есть сигнал, который сначала есть, а потом утонул в шуме... то для той самой темно-зеленой плашки мы красную составляющую почти совсем уже утопили.

При этом, мы ведь и линеаризацию по мишени оценить можем плохо: вот даже если у нас в ней есть серая шкала, то она в лучшем случае простирается от нейтрального вниз на два-три стопа т.е. красный будет -4 от нейтрального уровня, а не -5.

Получается, что если профилировщик камеры работает по одному кадру, а не по вилке из тройки кадров, то хорошего от него ожидать не следует....

Я понял, что недописал (и хотя и могу поправить коментарий через админку, но лучше допишу как все)

... почти совсем утопили. Т.е. к свело-зеленой плашке красный канал "чувствителен", а к тому же спектральному составу, но в несколько раз темнее - нечувствителен (сигнал прячется под шум)

> а потом утонул в шуме...

Мне тяжело понять такой взгляд. Не усложняйте, рассматривайте сигнал и шум взаимнонезависимыми, тогда они аддитивны. Нелинейности в тенях имеют место, здесь не спорю. Но более правдоподобны нелинейности усилителя + АЦП, влияние шумодава. Оптику же предлагаю оставить линейной, в т.ч. и спектральные. Если мы планируем оставаться в рамках науки.

> красный канал "чувствителен",

Из вышеизложенного следует, что красный канал лишь масштабируется. Даже если он спрятался в тенях он не исчез. Он аддитивно с шумами сложился. И можно себе представить весь букет проблем вида "распознать сигнал в шумах" (потери контраста, деталировки и т.п.). Но не системные, устойчивые сдвиги цвета, "полосы переменной ширины" ну никак отсюда не вывести.

> Получается, что если профилировщик камеры работает по одному кадру

Согласен, у профилировщиков здесь всегда была большая проблема экстраполяция. Невозможно создать мишень (доступную), описывающую оболочку HVS (с предельно насыщенными для всех уровней яркости). Мишень "берет" меньше 30% объема тела. Вилка чуть поможет уточнить верх и низ фигуры, но кардинального повышения точности я бы не ждал.

Полоса самого фильтра конечно более-менее постоянна, но мы то оперируем тем что сенсор зарегистрировал и тут у нас очень жесткие рамки на точность. Пусть наш пиксел может держать до 32000 электронов, теперь берем точку в кадре у которой яркость на 5 стопов ниже предельной, т.е. для нее 1000 электронов это предел если она приходится на зону 100%-го пропускания фильтра. А теперь представим что будет с точкой которая приходится на зону 10% пропускания - от 1000 остается 100 и это уже шум. Т.е. по сути для всей системы регистрируемая полоса пропускания меняется потому что просто точности не хватает и все усугубляется тем что линия отсечки не четкая а в виде черного тумана который внизу вообще непроходим и постепенно размывается к верху.

> А теперь представим что будет с точкой которая приходится на зону 10% пропускания.
Очень тяжело в рамках кратких сообщений пояснить суть понятия интегрирования. Попытаюсь введение, две важные понятийные вещи:

1. "Фильтр", "спектральная характеристика". На своих студентах я вижу, что им становится понятнее, когда спектральную поясняешь, как вероятность. Вероятность фотоответа, вероятность того, что фотон с определенной длиной волны породит электрон.

2. Не нужно рассматривать фотоаппарат (и глаз), как спектрофотометр. Это не спектрофотометр, он не предназначен для регистрации (измерения) длин волн. Ближайший аналог фото частотный дискриминатор. И подходить к фотоаппарату, к его ошибкам и ограничениям советую именно с этой точки зрения, так многие вещи становятся понятнее.

> от 1000 остается 100 и это уже шум.
100 - это не шум. Это полезный фотоответ. Он "тонет" в шумах, факт, но шумом при этом он не становится. Как утопающий не становится водой :).

Это Вы к словам придираетесь. Суть все равно понятна - на одной яркости одна и та же длина волны проинтегрируется четко, а на яркости в 5 стопов ниже уже утонет в шуме, а значит и цвета будут другими и метамеризм будет другой. Т.е. если смотреть на интеграл то по сути это "колокол" пропускания фильтра который подрезается снизу по оси Х с падением яркости и фактически мы имеем другую функцию для каждого значения яркости.

Это не "придираться". Это лишь попытка пояснить суть законов, суть математики. Попытка пояснить, что 1000+10=1010. Рассчитываясь в гастрономе за колбасу, мы можем "потерять" 10руб. Но изучая колориметрию (как и любую другую отрасль в науке), уже нельзя "10руб" игнорировать, нельзя непринужденно "терять" даже 0.0001 лишь по причине того, что "это уже шум".

Поэтому я и питаюсь вам показать, как говорят о метамеризме физики. Они говорят в терминах "физичных". А там есть понятие энергии (или мощности). И мы говорим - если сигнал имеет интенсивность 1 кд, мы сможем его зарегистрировать. А если 0.001 кд - то нет. Видите - как просто всё объяснить, и при этом без "метамеризма" :).

Я Вам признателен, но хочется по существу. Как в том анекдоте про физиков со сферическими конями - летают в вакууме замечательно пока в сенсор не врежутся :) А на практике мы имеем то что имеем и я честно говоря не представляю как такую систему можно отрабатывать не имея точных функций ответа для каждого фильтра и даже имея их мы все равно можем наткнуться на дыру между соседними фильтрами когда начиная с какой-то яркости появится видимый диапазон волн который вообще не попадает под интеграцию и он к тому же еще и будет расти с падением яркости.

У нас пара "фильтр-рецептор". У этой пары ширина полосы сигнала (над шумом) сильно зависит от яркости и спектрального состава.

Давайте еще раз. Могу ли я говорить: "Спектральная есть вероятность фотоответа, вероятность того, что фотон с определенной длиной волны породит электрон"?

А шум есть вероятность того, что электрон породится без всякого фотона....

Или была флуктуация по цепям питания. Или влетела космическая частица. Или гамма-квант от соседней гранитной плиты... Не нужно одновременно думать о двадцати семи вещах, давайте сконцентрируемся на одной.

Вы хотите чтоб мы перешли на корректные термины? Почитал все еще раз - действительно беспорядок и попытки выразить конкретные идеи неконкретными понятиями. С вероятностью все давно ясно - когда я говорю о 10% ответе это разумеется означает вероятность фотоответа для данной волны 10%.
Теперь метамеризм - тоже согласен, мы видимо имеем ввиду observer metameric failure (как это по-русски?). Т.е. я вижу два разных цвета а камера мне выдает одинаковое сочетание RGB для обоих.
Если объясните как корректно назвать эффект зависимости интегрированного ответа от яркости буду признателен. Еще что-то?

> это разумеется означает вероятность фотоответа для данной волны 10%.
О, про одну важную вещь договорились.

Теперь давайте сделаем умозрительный эксперимент, серию облучений-измерений на нашем детекторе. В облучении меняем лишь количество фотонов в секунду, при прочих равных, в т.ч. все фотоны с одной длиной волны, с одного направления и т.д. Сперва будем облучать детектор серией 100 раз по 1000 фотонов в секунду. Потом серией 1000 раз по 100 фотонов в секунду. Усредним данные первой и второй серии и сравним. Будет ли разница?

Нет. Лучше если Вы сами будете отвечать на такие односложные вопросы, а то мы так до пенсии будем разбираться :)

Если это "видео" из 100 кадров от яркого источника и 1000 кадров от источника в 10 раз слабее, то понятно что средний кадр из каждой серии будет разным.

> Нет.
Спасибо. Первый вариант был верным. Вы интуитивно чувствуете один из фундаментальных физических законов закон сохранения энергии. Количество электронов, порожденных фотоответом в обеих сериях, должно быть строго одинаковым (падающая энергия = ответу). Верно?

>что средний кадр из каждой серии будет разным
И здесь хорошо мыслите. Конечно, сперва нужно уточнить, что именно мы считаем. Чем отличается суммарный ответ детектора, накопленный в течении серии от "среднего кадра". В первом случае мы считаем энергию, во втором уже удельную величину (ту же энергию, но во времени). Верно?

В первом случае мы накапливаем электроны от всей серии, во втором снимаем после каждого импульса. Если сложить результаты из второго вместе будет тоже самое что и в первом, подразумевая что наш детектор идеален. И что дальше?

> И что дальше?
Мы ищем ответ на "Будет ли разница?". Ваш вариант ответа разницы не будет. Или, другими словами вероятность фотоответа не зависит от количества фотонов, упавших на детектор. Не зависит даже от удельного их количества (вот здесь придется ввести допусловие, что потенциальное количество электронов много больше падающих фотонов).

Отлично. Пиксел D3 например может вместить ~65000 электронов, 5 стопов вниз это уже ~2000 и это как раз участок который для нас очень критичен. Что-то мне подсказывает что если при 65000 электронов все возможно и будет сходиться к нашей вероятности, то при 2000 все уже будет совсем подругому. И мы еще не учли еще один источник вероятности - квантовую эффективность. Для наших сенсоров это 30-40%. Как мне видится наша интеграция начнет быстро размываться с падением яркости просто из-за вероятностей и плюc еще темный шум который просто колышется внизу - не знаю уже сколько это электронов, но даже если 200 то это уже 10% для наших 2000.

Если мы рассматриваем результат сложения (ведь не усреднения же?) 10 кадров при экспозиции 10 и 100 кадров при экспозиции 1, то необходимо учесть реальное поведение шума. В реальных моделях (шума) приходится рассматривать следующие параметры
- есть "постоянная" составляющая, "одинаковая" (в статистическом смысле, по дисперсии или по более конкретным описаниям распределения) для каждого кадра (при данной чувствительности)
- есть "пропорциональная сигналу"
- есть пропорциональная времени
- есть дробовой "шум"
- есть температурная составляющая (ну допустим, эту мы зафиксировали)

И в случае рассмотрения "1 по 100 или 100 по 1" сумма по кадрам будет одинаковой только в случае, когда в шуме есть только составляющая, пропорциональная времени выдержки.

> ведь не усреднения же?
Да, вы правы, суммирование (усреднение также можно, но к падающей энергии, тогда будет "полезное действие", или, как сейчас модно, "квантовая эффективность").

Итак, вроде два читателя согласились с тем, что (в идеальном детекторе) вероятность фотоответа не зависит от мощности облучения (количества фотонов). Теперь давайте усложним наш умозрительный эксперимент:

Ответы в наших сериях записывают два лаборанта. Один аккуратен, второй нет. Второй болеет, плохо себя чувствует, невнимателен, пропускает ~ 5% событий. Очевидно, что суммы у первого лаборанта и второго не совпадут. Можно ли говорить, что вероятность фотоответа зависит от здоровья лаборанта?

> то необходимо учесть реальное поведение шума.
Ох, как вас тянет к шуму. Тогда я требую немедленного учета естественной радиации. Как можно изучать фотоответ, не учитывая естественную радиацию :).

Если всерьез, было ли в моем умозрительном эксперименте введено понятие шумов? Я просил абстрагирования, просил модельный эксперимент. Пусть с абстрагированием не сложилось. Ок, давайте охладим детектор на 200°. Будет ли разница?

Господа третий раз прошу, простые ответы на простые вопросы. Нельзя заниматься синтезом, не овладев анализом. Сей простой принцип основа научного метода познания (в очередной раз скажем спасибо Декарту). Я готов комментировать только научные выводы, научные термины, научные модели.

Меня тянет к шуму по той тривиальной причине что при даже вроде бы нормальной экспозиции и вроде бы даже на очень хорошей камере - мы в эту шумовую область слабым каналом легко попадаем.

Т.е. в реальной жизни нас как-то спасает только отсутствие необходимости работать с узкополосными сигналами, иначе была бы совсем катасторофа

> Меня тянет к шуму
Я так внимательно разжевывал вопрос с детектором для того, чтобы показать, сколько разных понятий мы пропускаем (не анализируем) из-за неловкого обобщения "шум". Я вижу, что под "шумом" здесь понимается практически всё, что не есть полезным сигналом. На реальном примере: одно из принципиальных ограничителей точности наших детекторов наличие рассеянного света (в просторечии "туман"). Такой свет не несет никакой полезной информации, он "забивает" детектор, причем часто это явление на порядок-два повыше вашего "страшного" теплового шума.

> мы в эту шумовую область слабым каналом легко попадаем.
У нас ведь не одноканальная камера. То, что вы называете "слабым" рядом , в соседнем, будет "сильный". Вспомните принцип частотной дискриминации сравнение на склонах спектральной (на первой производной). После такого вычисления сигнал будет немалым, лишь бы общая энергия (яркость) была выше помех.

> отсутствие необходимости работать с узкополосными сигналами
При необходимости работать с узкополосными сигналами мы берем частотный дискриминатор с более крутыми склонами (более высокой добротности). Если задана еще и рабочая полоса добавим фильтров (каналов). Или иначе, инженерный метод добротность фильтров определяется из задачи. У нашего Главного Конструктора подход аналогичен выживание особи обеспечивается при заданной добротности и количестве фильтров.

Ну я вот брал реальные кривые чувствительности сенсора (из кодаковского даташита) и смотрел, как бы я разделял гипотетический монохроматический сигнал в 400 и 450 нанометров (либо их смесь, либо два визуально разных достаточно широкополосных сигнала в этой же области) - это очень разные цвета.
Сильными каналами в этом диапазоне много не наделишь, будет очень много метамерных цветов с одинаковым отношением синий-красный (я смотрел на KAF-39000, он же Хассель H3D)

Но синяя область - не единственная такая. Сегодня я вот решал задачу разделения березы-клена-каштана-тополя. Визуально (глазомерно) - очень разные, а на снимке - каша (а на стоп недодержал - размазня). И это опять проблемы слабых каналов, с сильным зеленым никакой проблемы нет.

> Сильными каналами в этом диапазоне много не наделишь
Не смотрите на "силу", смотрите на первую производную. Вычисления на ней.

Если рассказ про спектральные был хоть чем-то полезен, я готов повторить нашу "лекцию" и в отношении принципов частотной дискриминации. Но в рамках блога неудобно. Может какой форумный движок?

Рассказ про спектральные характеристики в вакууме конечно был полезен - всегда интересно узнать в каких терминах рассуждают люди.
Вместе с тем, площадки с другим форматом у меня нет, на libraw.su тоже будет threaded-дерево. Там разве что форматирование чуть пошире и картинки можно цеплять.

Что же касается производной, то мы тут давеча выяснили, что сенсор - интегрирует (по длине волны и по времени), наверное вы имели в виду первообразную (ибо кривые спектральной чувствительности - это аккурат первая производная данной первообразной по длине волны)?

> про спектральные характеристики в вакууме
Да, я в курсе, самое "слабое" место у науки все рассуждения, все законы требуют абстрагирования (в быту - очень непривычный прием). Да, мы ограниченные люди, пишем лишь простые формулы, лишь простые вещи, лишь "в вакууме". И всё время прославляем человека, который нас научил этому. Сперва анализ, потом синтез. Человечеству понадобилось почти 2000 лет после закладывания основ логики (грубо после Аристотеля), чтобы прийти к этому простому принципу, к Ren Descartes, Discourse on the Method, 1637. Это и было рождение метода научного. Этим методом потом не только в вакууме коней гоняли, этим методом и электричество изобрели, и бомбу, и тот самый компьютер, на котором я сейчас пишу этот пост. Он непривычен, этот метод, я знаю. Увы, ничего лучше у меня нет. Остальными же методами не владею и не интересуюсь.

> Что же касается производной
Здесь http://forum.ixbt.com/topic.cgi?id=20:25524-36#870 я пытался одну такую публичную лекцию начать. Может там и продолжим?

Я в этом мега-треде уже был. Как-то он растекся мыслею по спектральным характеристикам.

Все-таки интересна более приземленная задача: работать с теми спектральными кривыми, которые имеются в камере. Я охотно допускаю, что ценой другого компромисса производитель мог сделать их лучше, но выбора производитель мне практически не предоставил.

> Как-то он растекся мыслею по спектральным характеристикам
Т.е. там не произошло "готовенького" "простенького" ответа? Согласен, не произошло. Даже из четырех вопросов о принципах выделения ЧМ-сигнала смогли ответить лишь на первый. Кто мешает ответить на второй?
> Все-таки интересна более приземленная задача
Я готов помогать, но готовый ответ не дам, шевелить мозгами - вам... Уж простите мои принципы.

Какая-то у вас удивительная приставка сверху в двух последних сообщениях.

Ну, гордитесь собой.

А как эту "приставку" увидеть? Хочу погордиться :)

Я готов помогать, но готовый ответ не дам, шевелить мозгами - вам... Уж простите мои принципы.

Ну так посмотрите тогда в Яндексе про "приставку сверху". Или в учебнике.

Посмотрел в яндексе про "приставку сверху". 625 тыс. страниц. На какую именно смотреть? Впрочем, намек понятен, sorry, спасибо всем за внимание.

См. соборное послание святого апостола Иакова, особенно 3:1 ;)

О да, будет, еще какая. Далеко не все камеры способны сделать снимок звездного неба.

Боюсь я не понял вопроса тогда.

> Лучше если Вы сами будете отвечать на такие односложные вопросы,
Уж простите меня за такое разжевывание. Но у меня дилемма с одной стороны вы не готовы принять "на веру" опыт 300 лет оптики ("как в том анекдоте про физиков со сферическими конями"), с другой стороны я здесь вас поддерживаю, сам ничего "на веру" не принимаю. Делаю попытку сжать опыт 300 лет оптики и подвести вас к самостоятельному умозаключению.

> Боюсь я не понял вопроса тогда.
Похоже ув. Alex Tutubalin не согласился с моим предложением сконцентрироваться на вопросе, и пытается заодно эффект Шварцшильда обсудить параллельно с Грассманом.

Это не шварцшильд. Просто те камеры, которые "не могут" имеют уровень шума (много) выше, чем сигнал от неподвижных звезд.

Яркость источника различается в 10 раз (или ты прикрыл диафрагму на 3.5 стопа), увеличиваем выдержку в 10 же раз, будут ли результаты эквивалентны?

Ответ: в каком-то диапазоне уровня сигнала все будет хорошо, а в каком-то все сожрет шум.

>Далеко не все камеры способны сделать снимок звездного неба.
Пару раз делал такой снимок (из баловства). Получалось неплохо (и без Hubble :). Хотя готов предположить, что это мне "везло" с камерами. Не суть. Абстрагируем - бывают ли реальные (чтобы избежать комментариев со сферическими конями) детекторы (матрицы, экспонометры, куски кремния), что смогут сделать "снимок звездного неба"? Если провести наш умозрительный эксперимент на таких детекторах, будет ли разница?

Да, а некоторые камеры - делают. И разница между двумя типами - количественная.

> разница между двумя типами - количественная.
Sorry, здесь не понимаю. Типами чего, кремния?

Может кремния (присадки там, то-се), может фильтров, может усилителя, может АЦП.

Ну вот две полнокадровых камеры (с разницей выхода лет в 6), на одной ISO1600 совсем рабочее (а 3200 - почти совсем), а на другой - выше базового ISO160 лучше бы не подниматься без нужды.

> Ну вот две полнокадровых камеры
Рискну подытожить. Да, мы согласились с тем, что наша спектральная не зависит от яркости источника. Но ответ детектора зависит не только от его спектральной. Он зависит еще от нескольких десятков параметров (даже от лаборанта, записывающего ответы детектора).

Проще, Вы согласились с тем, что профилируемый объект - не изолированные фильтры перед сенсором. Соотыетственно, будем ожидать Вашего согласия с тем, что обобщение "всё по-Грассману. Вся колориметрия, все сканеры, фотоаппараты, мониторы, покраска стен и автомобилей, печатные станки и струйные принтеры" - неконструктивно. У фотоаппарата цифрового есть сенсор, он имеет перед собой 3, 4, а иногда и более разных фильтров. Сами фильтры не всегда удовлетворяют условию Лютера-Ивса (и, между прочим, у тех камер, где они не удлвлетворяют ему - наблюдателями цвет признаётся лучшим), а вкупе с эффектами на самом фотоприёмнике соблюдение этого условия для набора спектров и яркостей крайне проблематично. Снимите спектральные характеристики объекта на разных яркостях - эффект очевиден. Кривые спектрального отклика вырождаются и сужаются по мере снижения интенсивности сигнала.

> обобщение "всё по-Грассману"
Это не обобщение. Это такой закон. Как закон Ома. Как и все законы в физике - он суть модель. Работоспособная.

Я лишь пытался показать, что не нужно торопиться опровергать этот закон. Тем более, опровергать исходя из того, что "лаборант болеет" и данные записаны неаккуратно.

> Кривые спектрального отклика вырождаются и сужаются по мере снижения интенсивности сигнала.
Очередной раз не понимаю, о чём речь. Видимо такая же путаница, как и со спектральной. Могу лишь гадать характер описанного явления похож на закон Бира-Ламберта.

> > обобщение "всё по-Грассману"
> Это не обобщение. Это такой закон.

Применимость законов мы, конечно, не анализируем, так оно удобней. "Если неясен будет тебе закон..." На всякий случай - ещё раз. Мы изучаем поведение системы, а не фильтров. Именно поведение всей системы определяет требуемое цветовое преобразование. Я пару лет назад сдуру попытался получить профиль, сделав соскоб фильтров со сломанного Canon 350D, растворив их и сняв спектры, после чего помножил на "известное" поведение кремния. После примерно 2 месяцев возни результат был всё ещё абсолютно непригоден к использованию. Дело, конечно, не в том, что суперпозиция не работает - а в том, что я задался неверной моделью. Модель мне неясна и по сей день.

PS. C историей философии Вы не в ладах. Не надо о грубых датировках, законы логики зафиксированы письменно как минимум в 14-13 веках до н.э.; да и об Аристотеле с Декартом не надо, пожалуйста. Декарт на самом деле - прямой противник Вашего метода рассмотрения объектов и явлений.

> Применимость законов мы, конечно, не анализируем, так
Применимость это уже элемент синтеза. Нам туда (в синтез) пока рано. Мы пока учим азы анализа. Учим причинно-следственные связи. На примере может ли быть невнимательный лаборант называться причиной изменения вероятности фотоответа от количества падающих фотонов. Учим понятие функции зависимость одной сущности от второй.

> C историей философии Вы не в ладах.
Пусть так. Я ведь был "не в ладах" и со спектральной. И спорить не стану. Мне достаточно того, что я "в ладах" с простым правилом проведения дискуссий. Хотя бы на уровне "Выделить основные аргументы оппонента (такие, без которых утверждение/концепция рассыпается). Опровергнуть эти аргументы. Показать, что логика оппонента не работает, а из приведенной информации следует сделать совершенно иные выводы, дающие в итоге иную картину". Этакий элементарный набор "натурфилософа" , здесь даже Декартов принцип знать не нужно :).

Актуальный парафраз Вашего "Нам туда (в синтез) пока рано" -- Вам туда - в синтез - пока рано. Вы даже эксперимент со съёмом спектральных характеристик камеры при разных уровнях освещённости пока не провели. Голословно получается.

Если Вам, как Вы выразились, достаточно быть в ладах с правилами ведения дискуссий, то мне важен результат этих дискуссий. Практический результат.

Хотя и с утверждением о Ваших "ладах" с формальными правилами ведения дискуссий Вы опять же поторопились, неверно выделив основное. Знания спектральных свойств фильтров недостаточно для составления матрицы, добавление свойств кремния, описанных при одной фиксированной освещённости и источнике с непрерывным спектром ни к чему доброму не привело, а поведение системы в целом *заметно* отклоняется от описываемого матрицами из-за тех же свойств кремния и, возможно, аналоговой части вкупе с йифровой пост-обработкой перед записью raw. Решение, понятно, напрашивается - линеаризация кремния и повторение экспериментов. Но именно с линеаризацией кремния и есть засада. А кроме того - не все фильтры сами по себе отвечают условию Лютера-Ивса.

Сами фильтры не всегда удовлетворяют условию Лютера-Ивса (и, между прочим, у тех камер, где они не удлвлетворяют ему - наблюдателями цвет признаётся лучшим)

А как в свете замечания в скобках выглядит изначальная тема нашей дискуссии (что я должен опасаться излишних сдвигов экспозиции, поскольку лишь в узкой зоне метамеризм камеры близок человеческому)

В таких камерах почти нет пересечений между полосами фильтров (в практическом диапазоне яркостей), разделение цветов более строгое, ближе к плёночному. Результат - они терпимей к сдвигам экспозиции.

С трудом себе представляю камеру без пересечения полос у фильтров. Там же при съемке радуги дырки будут, не у радуги - тоже :)

> Т.е. я вижу два разных цвета а камера мне выдает одинаковое сочетание RGB для обоих
Этот вопрос я увидел, но отвечу с вашего разрешения чуть позже. Сперва пройдем азы. Ok?

Сконцентрироваться на одной вещи бессмысленно, если вещь недоопределена.

Вы снимите спектральные характеристики сенсора при разных яркостях, и всё станет ясно.

Если звёзды зажигают...
не работают у меня реплеи из http://blog.lexa.ru/, поэтому отвечу тут, в сторонке ("тихо сам с собою").
<font color=#c0c0b8>угу, "жЫла-бЫла девочка... сама виновата" [tm] ,-)</font>

цЫтата:
<b>Alex Tutubalin</b> >> Далеко не все камеры способны сделать снимок звездного неба.

<b>кАммент</b>:
я так понимаю, что "мыльницы" мы "с негодованием отвергаем" и толкуем _только_ о DSLR. Это справедливое допущение ?
Если да, то какие _именно_ DSLR "не способны сделать снимок звёздного неба" ? - "имя, сестра! имя!" (с)

...пока что поделюсь двумя (и даже тремя) вещами:
1.hint: "астрофотографы" с большим успехом юзают _даже_ кэноновский 350Д (в ряду DSLR это "мыльницы", да-с).

2.демонстрационный материал: http://www.youtube.com/watch?v=0Z3cVQcfb-w
и "исходник" - http://www.wlcastleman.com/astro/tsp09/index.htm

3.bonus track: http://www.astrosurf.com/buil/us/iris/iris.htm - это, пожалуй, единственный тул "любительского астро-фото".

"bonus track" замечательным образом иллюстрирует ту мысль, которую безуспешно, для данного "ареала обитания", пытался донести сэр Sabos.
..."ареал обитания", как видим, оказался невосприимчив (т.е. не подпадает даже под определение декана Свифта - "Человек - животное, восприимчивое к разуму".)

Re: Если звёзды зажигают...
Да, чтобы не обвинили в голословности и дабы пресечь тренды типа "дык то ди-файв, а то - 350Д", привожу другой "сэмпл" - http://www.youtube.com/watch?v=6phfpLPYpIA&NR=1 (найден простым тыком по "рилейтед видеоУс")

и ещё: мы, надеюсь, понимаем разницу между "звёздочками" и млечным путём, равно как между "фишаем" и телескопом/телевиком да ?

Re: Если звёзды зажигают...
Kodak SLR/c (SLR/n, я думаю, тоже). Ну, по меньшей мере с входным зрачком миллиметров в 20.

Re: Если звёзды зажигают...
<b>>> Kodak SLR/c (SLR/n, я думаю, тоже). Ну, по меньшей мере с входным зрачком миллиметров в 20. <<</b>

Лёша, опомнись! - ты выдвинул утверждение относительно свойств _камеры_, при чём тут "входной зрачок" ?!! <font color=#c0c0b8>(не говоря уже о том, что "20мм" без указания ФР вообще ни о чём не говорят... - не стыдно такими цЫферями бросаться ?)</font>

Далее: в попытках понять об чём ты там намекаешь, наткнулся на следующее (цЫтата) - "Kodak has discontinued production of the KODAK PROFESSIONAL DCS Pro SLR/n and DCS Pro SLR/c Digital Camera models. Camera sales will continue until current stocks are exhausted. ...//... Kodak will continue to supply service support and honor warranties for the DCS Pro SLR Digital Cameras <b>until December 31, 2008</b>" (с) NOTICE OF DISCONTINUANCE May 31, <b>2005</b>
об чём вообще речь ? "какое, милые, у вас тысячелетие на дворе?" (с)

...единственное, с чем могу согласиться, так это с утверждением что камеры, снятые с производства и поддержки, действительно "далеко не все камеры" :-))

PS: реально мне непонятны ещё две твои фразы:
*: "и наложить профиль камеры" - что это значит ? их там (профилей этих) у тех же кэнонов как минимум пять, начиная с "landscape" и кончая "faithful"
*: "цвет уползет достаточно сильно (по меньшей мере, dE вырастет в разы)" - что такое "dE" и как оно рассчитывалось ?

Re: Если звёзды зажигают...
А чего мне стыдиться, если это просто иллюстрация того факта, что уровень шума у разных камер - разный? А снимок звездного неба - простейший случай в этом убедиться.

Диаметр зрачка, кстати, вполне однозначно определяет уровень сигнала от отдельной звезды и без указания ФР.

Re: Если звёзды зажигают...
<b>>> А чего мне стыдиться, если это просто иллюстрация того факта, что уровень шума у разных камер - разный? А снимок звездного неба - простейший случай в этом убедиться. <<</b>
Безграмотности своей постыдился бы, вот чего.

На ИСО вплоть до 400 включительно, уровень шумов Kodak SLR/c не выше чем у того же кэнона 300Д. Последний давно и с успехом используется астрофотографами...
Так что не удалось тебе "убедиться" ,-)

<b>>> Диаметр зрачка, кстати, вполне однозначно определяет уровень сигнала от отдельной звезды и без указания ФР. <<</b>
Знаешь, "мне больно об этом говорить"[tm], но в вопросах астросъёмки и съёмки "звёздного неба" ты вполне достоин медали "свинья и апельсин".

почитай уже что-нибудь по темам "дифракция" и "световое загрязнение"... а то блещешь тут некомпетентностью, совершая дикие прЫжки и ужЫмки, даже не подозревая, какой урон наносишь собственной карме ,-)

Re: Если звёзды зажигают...
А кто говорит об астрофотографии? Я говорю?

Я о другом говорю, о том, что поставив камеру на штатив где-то в хорошем месте со звездным небом и привинтив к ней что-то в духе 30/1.4, я для одних камер получу пейзаж со звездами (дуги, да), а для других - что-то совершенно иное.

Вот такой вот обычный бытовой подход.

Re: Если звёзды зажигают...
<b>>> А кто говорит об астрофотографии? Я говорю?<<</b>
Угу, говоришь.
Съёмка звёздного неба относится к (любительскому) астрофото.

<b>>> Я о другом говорю, о том, что поставив камеру на штатив где-то в хорошем месте со звездным небом и привинтив к ней что-то в духе 30/1.4, я для одних камер получу пейзаж со звездами (дуги, да), а для других - что-то совершенно иное. <<</b>
Ерунда какая.
Ты говорил _буквально_ следующее - "Далеко не все камеры способны сделать снимок звездного неба ...//... например Kodak SLR/c".
Т.е. сказал, что эти камеры не способны снять "звёзды" в принципе.

Теперь давай вернёмся к Kodak SLR/c и "20мм"
Вот сэмпл - http://dima-chatrov.livejournal.com/282334.html
вот условия - Nikon D700, 14-24/2.8 (ISO 800, f/2.8, 13 секунд)

с объективом 30/1.4 тот же мотив на SLR/c можно снимать на ISO400/4sec
По шумам D700+ISO800 ~= SLR/c+ISO400, т.е. получишь ровно такую же картинку и без всяких "дуг".

<b>>> Вот такой вот обычный бытовой подход.<<</b>
Странный у тебя "обычный бытовой подход".
Обычный бытовой подход гласит, что если что-то можно сделать хотя бы одной "мыльницей", значит то же самое можно сделать _любым_ DSLR
Известны "мыльницы" _способные_ "сделать снимок звездного неба" (даже режим такой есть), ergo _любой_ DSLR "способен сделать снимок звездного неба".
Вот это - "обычный бытовой подход". А то, чем ты занимаешься, называется "пытается сделать хорошую мину при плохой игре"... впрочем, получается это у тебя неубедительно ,-)

Re: Если звёзды зажигают...
Я могу только повторить, что ряд камер могут снять звездное небо (вот D700 - может), а ряд камер - нет (вот SLR/c - не может).

Можно не принимать на веру, а просто попробовать, взять камеру, выбрать место без избыточной засветки.

Для справки: SLR/c у меня есть и я знаю о чем говорю

"Хороший хирург поможет плохому танцору" [tm]
<b>>> Для справки: SLR/c у меня есть и я знаю о чем говорю <<</b>
Я в курсе, что SLR/c у тебя как минимум был.
Но из этого вовсе не следует, что ты знаешь об чём говоришь (причём факты свидетельствуют об обратном).

Смотрим:
в своё время для люмикса FZ5 я посчитал и проверил, что на "длинном конце" сдвиг на пиксель происходит за ~0.43 секунды (если в зенит пялиться). Из этого следует, что на ФР 30мм такой же "пиксельный" сдвиг произойдёт за ~6.16 секунд (sin(x) == x на таких углах).
Угловая плотность пикселей для SLR/c примерно в 1.6 раз выше. Следовательно на SLR/c при ФР 30мм сдвиг на пиксель займёт ~3.85, т.е. почти 4 секунды.
Далее:
звёзды на снимках _никогда_ не бывают в один пиксель - свойство атмосферы, сударь. Поэтому для звёзд этот временной интервал можно смело удвоить (как минимум). Получаем - 8 сек. Т.е. только через восемь секунд мы отметим, что "звёзды стали овальными".

..но это всё "расчёты" (хотя и проверенные мною "натурными испЫтаниями").
Теперь вернёмся к _практике_: тебе был предъявлен снимок по заказанным критериям ("пейзаж со звездами") и _никаких_ "дуг", про которые ты "со знанием дела" толковал, _нет_ и быть не может.

Так что твоя некомпетентность в данном вопросе предъявима.
...увы тебе, Лёша, увы.

Re: "Хороший хирург поможет плохому танцору" [tm]
Э... особенности мышления оппонента периодически меня удивляют.

Мне предъявлен уменьшенный снимок другой камерой, другим ФР и другим входным зрачком. Вполне возможно, что дуг там нет, на уменьшенном снимке не видно.

Но чтобы меня "опровергнуть" надо ведь предъявить снимок именно обсуждаемой камерой (ну и оптикой с указанным входным зрачком), а не рассчитывать нечто

Re: "Хороший хирург поможет плохому танцору" [tm]
Не понимаю твоих затруднений.
Мои утверждения базируются на опыте и имеют под собой предъявимую _и_ доказательную _и_ иллюстративную базу.
Твоё же заявление абсолютно бездоказательное и безосновательное. В кач-ве "оправдания" ты прибегаешь к лозунгу "у меня есть SLR/c! - Люди, верьте мне!" (очень астроумно, оччень ,-))

что касается "другой ФР, другой камер", то от человека, заявляющего - "зрачок 20мм just enough to estimate", такое выслушивать даже смешно.
Предъявленный сэмпл снимался в заведомо (и сурово) _худших_ условиях - диаметр "зрачка" _максимум_ 8.6мм (а то и вовсе 5мм), "телесный угол" (ergo - уровень "светового загрязнения") выше... и всё равно всё получилось, несмотря на сопоставимые шумы камер (для выбранных режимов).

как-то ты быстро "забываешь" свои тезисы, Лёша.
Отдельного приза зрительских симпатий заслуживает твоя прогрессирующая "невосприимчивость" к расчётам, что для "научного специалиста" весьма и весьма показательно ,-)

-+-
И самое смешное, что всякий раз, когда ты садишься в лужу, то срочно начинаешь "периодически удивляться особенностям мышления оппонента" :-)

Re: "Хороший хирург поможет плохому танцору" [tm]
Привет, зеленошкурый!

Ты ведь опровергаешь тезис "на SLR/c нельзя снять пейзаж со звездами"? Ну так и опровергни - предъяви снимок.

Ну или давай по другому тезису пройдемся (из которого выродился вышеописанный) "у разных камер - очень разные шумы".

А то уже появилось "если в зенит пялиться".... а если у меня Полярная в зените, то куда пялиться?

Re: "Хороший хирург поможет плохому танцору" [tm]
<b>>> Ты ведь опровергаешь тезис "на SLR/c нельзя снять пейзаж со звездами"? Ну так и опровергни - предъяви снимок.<<</b>
А я уже опроверг и предъявил - результат леХко экстраполируется.

<b>>> Ну или давай по другому тезису пройдемся (из которого выродился вышеописанный) "у разных камер - очень разные шумы". <<</b>
Вот и пройдись.
Что ж ты топчешься-то на месте, аки пленный партизан - "ни пяди родной земли..." ? :-))

<b>>> А то уже появилось "если в зенит пялиться".... а если у меня Полярная в зените, то куда пялиться?<<</b>
Тогда пялься на горизонт и белых медведей, дурашка ,-)

Re: "Хороший хирург поможет плохому танцору" [tm]
Отчего же экстраполяция уважаемого теоретика так расходится с практикой?

Re: "Хороший хирург поможет плохому танцору" [tm]
см. subj

-+-
PS: извини, я на пати сматываюсь... не скучай тут без меня ,-)

Re: "Хороший хирург поможет плохому танцору" [tm]
Таки что, если тебе на пати прислать хирурга, то мы увидим искомые фото?

Ну у тебя и выдержка ...

Мне хватило где-то трех серий, правда поинтенсивнее