Снова про архивный формат DNG

Вот возьмем, к примеру, камеры Sony.

У них есть "шифрованый" (см sony_decrypt() в dcraw) блок данных SR2, устроенный, если в двух словах, так:

  • TIFF/EXIF like IFD с небольшим количеством записей в которых лежит
    • смещение до блока данных
    • размер блока данных
    • ключ для расшифровки
    • ну и еще что-то, науке неизвестное, всего вот в A7RM3 - 9 записей (т.е. 9x12 + 2 байта в начале = 110 байт)
  • небольшой паддинг (в A7RM3 - 4 байта нулей)
  • Ну и сам блок данных.

Adobe DNG Converter про этот блок знает и пишет его в DNG Private data отдельной секцией 'SR2 '.

Помещая в нее ну вот ровно все то же, что написано выше: IFD, padding, блок данных.

Но.

Общая длина этой секции равна "размеру блока данных" (см. выше), то что в него (размер) не входит сама IFD и паддинг - не учитывается.

То есть SR2 section попадает в DNG обрезанной на сотню с небольшим байт (зависит, вероятно, от камеры).

А там много всего хорошего (и куча всего непонятого), может и в обрезанном хвостике что есть....

 

Comments

Ну вы же знаете, конечно, почему такие CFA не применяются в реальных камерах (инженерные, за отдельные деньги и с другими требованиями - другой разговор)?

Более того, даже в этом блоге это обсуждалось, осталось поискать :)

У нас нет данных, достаточных для того, чтобы построить даже модель идеальной камеры. Лучший из наборов наблюдений, положенный в основу наблюдателя-2006 (http://cvrl.ioo.ucl.ac.uk/cvrlfunctions8dp.htm) основан на измерениях 1959 года (http://cvrl.ioo.ucl.ac.uk/stilesburch10_ind.htm) Наблюдения проводились в группе из 49 человек, этнически однородной, с малым разнообразием диеты и возраста (http://www.cvrl.org/database/data/sb_individual/SB10_individual_CMFs_all...). Наблюдатель же 1931 года имеет отчетливые проблемы с синим, к примеру.

> Наблюдатель же 1931 года имеет отчетливые проблемы с синим, к примеру.

Ну еще бы. В таком возрасте уже есть изменения в цветовом зрении

Удивительно, что никто не сделал новое исследование. Неужели ни у кого нет сотни тысяч долларов на это?
Никому не надо на самом деле? Даже никому НЕ ЛЮБОПЫТНО?

А если оттуда полезут БЕЗДНЫ??

Ну там выяснится, что наблюдатели все разные и сильно. Цветовую науку закрывать?

Так это же самое интересное!
Мне кажется, сейчас достаточно шальных денег, что кто-то должен попробовать просто из любопытства и хулиганства.
Фундаментальная наука — она такая.

>>> кто-то должен попробовать просто из любопытства и хулиганства.

забанят же ...

Z / V

Антропологов, например? Или нейрофизиологов? Кто? Адоба или Кэнон? или тот же Икс-Райт? Это смешно.
Скорее не заметят демонстративно — вот это может быть.

>>> Это смешно.

а тем не менее никто не рыпается...

Z / V

Мне кажется, руки не дошли. Нейрфоизиология и нейропсихология двигаются огромными шагами в последние несколько лет, зрением наверняка вот-вот тоже заинтересуются.

Может вот прямо сейчас кто-то занимается в какой-нибудь лаборатории, просто не опубликовался ещё.

Другое дело, что это будут люди, которые далеки от индустрии и которым на sRGB и прочие камеры наплевать. Но тут нужен (и он будет, я уверен) второй шаг — стартап, который что-нибудь уже ощутимое и рыночное сделает, взяв эти результаты исследований.

ну вот допустим выяснят что престарелые негры вегетарианцы в джунглях Конго имеют отличные кривые от девочек племени саами в лапландии которые любят покушать венисон на завтрак, обед и ужин... и что дальше-то ?

Z / V

Делаем более точного усреднённого наблюдателя. Или ничего не делаем!

> Делаем более точного усреднённого наблюдателя.

ну вот еще - я лично ближе к людям из 1931 чем к ...

Z / V

И вообще, уже везде хватит мощности конвертировать в RGB из Lab или какого прямо XYZ локально! Нефиг хранить и передавать картинки в девайсо-зависимом формате! Никто их на на воьсмибитном процессоре смотреть не будет!

Это, как мне кажется, управление цветом сильно упростит.

Хм, ну между Lab, XYZ и RGB в данном контексте нет разницы особой. Если модель годная - можно конвертировать, если нужно. А если нет?

Если у нас уже sRGB а у человека wide-gamut выводное устройство или устройство с поддержкой 10 бит — ну, зря он его покупал.
А если у нас что-то независимое от девайса — то всем хорошо.
Ну и лишний раз пересчитывать RGB→Transfer→RGB — ну почему бы не избавиться от одного шага?

"зря покупал" - если охват резали. Если не резали - то не зря.

Но вообще, вот Дима Зверев писал, что он специально портит (поднимал) тени на своих снимках, потому что смотрят на телефонах и там все иначе.

А тут - "пересчет на лету из ...."

Откуда в картинке, сделанной под sRGB, возьмётся лишний охват?

Ну так вот путсь телефон и портит тени. А человек с полиграфическим млонитором видит лучшую картинку.

Я ж ровно про обратное, если лезло в sRGB, значит лезло.

Что касается всяких пожеланий лучшей жизни - вы посмотрите какие профили люди сами себе строят, своими вот руками, делая сами себе сильно хуже. Не надо это место трогать, хуже сделать несложно, а лучше - не в пересчете на лету дело.

Ну так все впихивают в sRGB, потому что все ждут sRGB. На экспорте так сказать.

Сами строят себе. Пусть сами и страдают. Я только за!

Если мы для них делаем рекламу - полезно учитывать.

> Ну там выяснится, что наблюдатели все разные и сильно. Цветовую науку закрывать?

ну вот Х-Rite купил GmB и придумал XRGA... чтобы никто не спрашивал кто таки был ближе к истине в начале :-) ... и ничего - все пережили

Z / V

Бездны полезут, и первыми жертвами будут всякие традиционные Adobe RGB etc - они рассчитаны на cie1931. После чего немедленно наступит кавардак с обычным colour management. Желающие могут почитать свежий iccMAX http://color.org/iccmax/ICC.2-2017.pdf вместе с https://github.com/InternationalColorConsortium/RefIccMAX и оценить, насколько оно готово к использованию; а также оценить, что надо добавить в DCP для поддержки этого стандарта.

> и первыми жертвами будут всякие традиционные Adobe RGB

отчего же ? их просто оставят быть как есть

Z / V

Вы знаете, сколько сейчас разных версий sRGB в ходу? Не менее 9. Большая часть народа до сих пор не знает разницы между assign и convert. Надо прибавить путаницы?

Ну, с новым форматом путаницы будет меньше, так как не будет legacy.

Но шансов на новый формат, конечно, ноль.

Я о том, что первые N лет большинство имплементаций будет с кривизной, а документация - сырой. Кроме того, объяснить пользователю, в каком случае какие выборы из многообразия лучше - да и вообще workflow - дело небыстрое, что путаницы добавит.

Слабости стандарта:
- стандарт практически определяет только формат, то есть профиль соответствует стандарту, как только формат стандартный
- нет правил расчета ошибки
- не привелены допустимые величины ошибки
- не учитывает неколоритмические device colour spaces - так что камеры остались за бортом
- практически не рассчитан на multi-spectral imaging.

> Надо прибавить путаницы?

вот именно - просто оставить как есть и все... не надо сооружать новый Adobe RGB с тем же названием и другой версией ... и все будут счастливы...

Z / V

О недофинансировании colour science можно рассказывать долгими зимними вечерами. Тут не сотней тысяч пахнет. Нормальное исследование, "по странам и континентам", это несколько лет и значительная сумма. Однако дело, конечно, не только в деньгах. Дело в решимости запустить шредер.

Интересно, можно ли спроектировать эксперимент, не требующий ничего, кроме смартфона (разумеется, с чучётом неизвестности характеристик эркана этого смартфона — в том-то, как мне кажется, и сложность)?
Потому что если можно — то ездить никуда не надо, надо просто запустить флеш-моб «потестируй сво1 световое зрение за 20 минут с помощью бесплатной приложеньки и заодно поомги науке».

Это тоже, мне кажется, возможное направление. Сколько людей просто из любви к исскуству ищут иноплаентные радиосигналы, складывают белки и считают прочую ненужную лично им научную «фигню» на своей технике? Да дофига.

И в психологии это сейчас вполне валидный и признанный уже способ исследования — опросники, заполняемые добровольцами, с распространением ссылки через социальные сети. Да, такие эксперименты надо планировать и проектировать с учётом такого их применения, и там есть отличия от экспериментов классических, когда в каком-нибудь кампусе студентов лично в лаборатории тестируют/опрашивают, но в психологии, кажется, это уже мейнстрим.

Т.е. я не готов оценить (не обладаю нужными знаниями и опытом), можно ли придумать эксперимент, который позволит «усреднить» неизвестные характеристики экранов пользовательских устройств и отсеять этот шум, но если это технически возможно — почему бы нет?

На смартфоне, на первый взгляд, кроме JND (что с неизвестным экраном имеет мало смысла) особо и нечего изучать.

А даже вот простейший вариант с уравниванием спектрального цвета двумя другими (Гилд и Райт) - это все-таки нормальное оборудование (монохроматор(ы))