Снова про архивный формат DNG
lexa - 19/Янв/2018 23:26
Вот возьмем, к примеру, камеры Sony.
У них есть "шифрованый" (см sony_decrypt() в dcraw) блок данных SR2, устроенный, если в двух словах, так:
- TIFF/EXIF like IFD с небольшим количеством записей в которых лежит
- смещение до блока данных
- размер блока данных
- ключ для расшифровки
- ну и еще что-то, науке неизвестное, всего вот в A7RM3 - 9 записей (т.е. 9x12 + 2 байта в начале = 110 байт)
- небольшой паддинг (в A7RM3 - 4 байта нулей)
- Ну и сам блок данных.
Adobe DNG Converter про этот блок знает и пишет его в DNG Private data отдельной секцией 'SR2 '.
Помещая в нее ну вот ровно все то же, что написано выше: IFD, padding, блок данных.
Но.
Общая длина этой секции равна "размеру блока данных" (см. выше), то что в него (размер) не входит сама IFD и паддинг - не учитывается.
То есть SR2 section попадает в DNG обрезанной на сотню с небольшим байт (зависит, вероятно, от камеры).
А там много всего хорошего (и куча всего непонятого), может и в обрезанном хвостике что есть....
Comments
http://www.strollswithmydog
http://www.strollswithmydog.com/perfect-color-filter-array/
Ну вы же знаете, конечно,
Ну вы же знаете, конечно, почему такие CFA не применяются в реальных камерах (инженерные, за отдельные деньги и с другими требованиями - другой разговор)?
Более того, даже в этом блоге это обсуждалось, осталось поискать :)
У нас нет данных, достаточных
У нас нет данных, достаточных для того, чтобы построить даже модель идеальной камеры. Лучший из наборов наблюдений, положенный в основу наблюдателя-2006 (http://cvrl.ioo.ucl.ac.uk/cvrlfunctions8dp.htm) основан на измерениях 1959 года (http://cvrl.ioo.ucl.ac.uk/stilesburch10_ind.htm) Наблюдения проводились в группе из 49 человек, этнически однородной, с малым разнообразием диеты и возраста (http://www.cvrl.org/database/data/sb_individual/SB10_individual_CMFs_all...). Наблюдатель же 1931 года имеет отчетливые проблемы с синим, к примеру.
> Наблюдатель же 1931 года
> Наблюдатель же 1931 года имеет отчетливые проблемы с синим, к примеру.
Ну еще бы. В таком возрасте уже есть изменения в цветовом зрении
Удивительно, что никто не
Удивительно, что никто не сделал новое исследование. Неужели ни у кого нет сотни тысяч долларов на это?
Никому не надо на самом деле? Даже никому НЕ ЛЮБОПЫТНО?
А если оттуда полезут БЕЗДНЫ?
А если оттуда полезут БЕЗДНЫ??
Ну там выяснится, что наблюдатели все разные и сильно. Цветовую науку закрывать?
Так это же самое интересное!
Так это же самое интересное!
Мне кажется, сейчас достаточно шальных денег, что кто-то должен попробовать просто из любопытства и хулиганства.
Фундаментальная наука — она такая.
>>> кто-то должен попробовать
>>> кто-то должен попробовать просто из любопытства и хулиганства.
забанят же ...
Z / V
Антропологов, например? Или
Антропологов, например? Или нейрофизиологов? Кто? Адоба или Кэнон? или тот же Икс-Райт? Это смешно.
Скорее не заметят демонстративно — вот это может быть.
>>> Это смешно.
>>> Это смешно.
а тем не менее никто не рыпается...
Z / V
Мне кажется, руки не дошли.
Мне кажется, руки не дошли. Нейрфоизиология и нейропсихология двигаются огромными шагами в последние несколько лет, зрением наверняка вот-вот тоже заинтересуются.
Может вот прямо сейчас кто-то занимается в какой-нибудь лаборатории, просто не опубликовался ещё.
Другое дело, что это будут люди, которые далеки от индустрии и которым на sRGB и прочие камеры наплевать. Но тут нужен (и он будет, я уверен) второй шаг — стартап, который что-нибудь уже ощутимое и рыночное сделает, взяв эти результаты исследований.
ну вот допустим выяснят что
ну вот допустим выяснят что престарелые негры вегетарианцы в джунглях Конго имеют отличные кривые от девочек племени саами в лапландии которые любят покушать венисон на завтрак, обед и ужин... и что дальше-то ?
Z / V
Делаем более точного
Делаем более точного усреднённого наблюдателя. Или ничего не делаем!
> Делаем более точного
> Делаем более точного усреднённого наблюдателя.
ну вот еще - я лично ближе к людям из 1931 чем к ...
Z / V
И вообще, уже везде хватит
И вообще, уже везде хватит мощности конвертировать в RGB из Lab или какого прямо XYZ локально! Нефиг хранить и передавать картинки в девайсо-зависимом формате! Никто их на на воьсмибитном процессоре смотреть не будет!
Это, как мне кажется, управление цветом сильно упростит.
Хм, ну между Lab, XYZ и RGB в
Хм, ну между Lab, XYZ и RGB в данном контексте нет разницы особой. Если модель годная - можно конвертировать, если нужно. А если нет?
Если у нас уже sRGB а у
Если у нас уже sRGB а у человека wide-gamut выводное устройство или устройство с поддержкой 10 бит — ну, зря он его покупал.
А если у нас что-то независимое от девайса — то всем хорошо.
Ну и лишний раз пересчитывать RGB→Transfer→RGB — ну почему бы не избавиться от одного шага?
"зря покупал" - если охват
"зря покупал" - если охват резали. Если не резали - то не зря.
Но вообще, вот Дима Зверев писал, что он специально портит (поднимал) тени на своих снимках, потому что смотрят на телефонах и там все иначе.
А тут - "пересчет на лету из ...."
Откуда в картинке, сделанной
Откуда в картинке, сделанной под sRGB, возьмётся лишний охват?
Ну так вот путсь телефон и портит тени. А человек с полиграфическим млонитором видит лучшую картинку.
Я ж ровно про обратное, если
Я ж ровно про обратное, если лезло в sRGB, значит лезло.
Что касается всяких пожеланий лучшей жизни - вы посмотрите какие профили люди сами себе строят, своими вот руками, делая сами себе сильно хуже. Не надо это место трогать, хуже сделать несложно, а лучше - не в пересчете на лету дело.
Ну так все впихивают в sRGB,
Ну так все впихивают в sRGB, потому что все ждут sRGB. На экспорте так сказать.
Сами строят себе. Пусть сами и страдают. Я только за!
Если мы для них делаем
Если мы для них делаем рекламу - полезно учитывать.
> Ну там выяснится, что
> Ну там выяснится, что наблюдатели все разные и сильно. Цветовую науку закрывать?
ну вот Х-Rite купил GmB и придумал XRGA... чтобы никто не спрашивал кто таки был ближе к истине в начале :-) ... и ничего - все пережили
Z / V
Бездны полезут, и первыми
Бездны полезут, и первыми жертвами будут всякие традиционные Adobe RGB etc - они рассчитаны на cie1931. После чего немедленно наступит кавардак с обычным colour management. Желающие могут почитать свежий iccMAX http://color.org/iccmax/ICC.2-2017.pdf вместе с https://github.com/InternationalColorConsortium/RefIccMAX и оценить, насколько оно готово к использованию; а также оценить, что надо добавить в DCP для поддержки этого стандарта.
> и первыми жертвами будут
> и первыми жертвами будут всякие традиционные Adobe RGB
отчего же ? их просто оставят быть как есть
Z / V
Вы знаете, сколько сейчас
Вы знаете, сколько сейчас разных версий sRGB в ходу? Не менее 9. Большая часть народа до сих пор не знает разницы между assign и convert. Надо прибавить путаницы?
Ну, с новым форматом путаницы
Ну, с новым форматом путаницы будет меньше, так как не будет legacy.
Но шансов на новый формат, конечно, ноль.
Я о том, что первые N лет
Я о том, что первые N лет большинство имплементаций будет с кривизной, а документация - сырой. Кроме того, объяснить пользователю, в каком случае какие выборы из многообразия лучше - да и вообще workflow - дело небыстрое, что путаницы добавит.
Слабости стандарта:
- стандарт практически определяет только формат, то есть профиль соответствует стандарту, как только формат стандартный
- нет правил расчета ошибки
- не привелены допустимые величины ошибки
- не учитывает неколоритмические device colour spaces - так что камеры остались за бортом
- практически не рассчитан на multi-spectral imaging.
> Надо прибавить путаницы?
> Надо прибавить путаницы?
вот именно - просто оставить как есть и все... не надо сооружать новый Adobe RGB с тем же названием и другой версией ... и все будут счастливы...
Z / V
О недофинансировании colour
О недофинансировании colour science можно рассказывать долгими зимними вечерами. Тут не сотней тысяч пахнет. Нормальное исследование, "по странам и континентам", это несколько лет и значительная сумма. Однако дело, конечно, не только в деньгах. Дело в решимости запустить шредер.
Интересно, можно ли
Интересно, можно ли спроектировать эксперимент, не требующий ничего, кроме смартфона (разумеется, с чучётом неизвестности характеристик эркана этого смартфона — в том-то, как мне кажется, и сложность)?
Потому что если можно — то ездить никуда не надо, надо просто запустить флеш-моб «потестируй сво1 световое зрение за 20 минут с помощью бесплатной приложеньки и заодно поомги науке».
Это тоже, мне кажется, возможное направление. Сколько людей просто из любви к исскуству ищут иноплаентные радиосигналы, складывают белки и считают прочую ненужную лично им научную «фигню» на своей технике? Да дофига.
И в психологии это сейчас вполне валидный и признанный уже способ исследования — опросники, заполняемые добровольцами, с распространением ссылки через социальные сети. Да, такие эксперименты надо планировать и проектировать с учётом такого их применения, и там есть отличия от экспериментов классических, когда в каком-нибудь кампусе студентов лично в лаборатории тестируют/опрашивают, но в психологии, кажется, это уже мейнстрим.
Т.е. я не готов оценить (не обладаю нужными знаниями и опытом), можно ли придумать эксперимент, который позволит «усреднить» неизвестные характеристики экранов пользовательских устройств и отсеять этот шум, но если это технически возможно — почему бы нет?
На смартфоне, на первый
На смартфоне, на первый взгляд, кроме JND (что с неизвестным экраном имеет мало смысла) особо и нечего изучать.
А даже вот простейший вариант с уравниванием спектрального цвета двумя другими (Гилд и Райт) - это все-таки нормальное оборудование (монохроматор(ы))