Свежие комментарии

Title Comment
Изначально не понимаю

Изначально не понимаю проблемы.

Адекватные люди делают отбор в несколько проходов, это в разы экономит время.
Типичная стратегия
- Первичный отбор на слитых фото: фотомеханик, метку получают все кадры, хоть как-то заслуживающие внимания, дубли и пр. игнорируются, точнее, отмечаются все скопом. Потом инверсия и удаление оставшегося чистого брака. Уже 20-50% в мусорке в зависимости от уровня и стиля съемки. Ключевая особенность - отбор делается на автомате, не задумываясь, что обеспечивает дикую скорость.
- Вторичный отбор: уже прореженные (и нормально именованные DDmonYY - ###, а также забекапленные) файлы закидываются в LR (кепчюр по-вкусу)*, и, внимание, с накатанным общим преcетом и рендером превьюх 1:1 (оч важно для последующего быстрого просмотра резкости). Все это дело работает в фоне, пока мы развлекаемся в интернетиках или другими делами. Да хоть на ночь оставить.
- И вот тут уже идет отбор из дублей и поиск крутых кадров на raw файлах со своим цветокорром, пусть и общим.
- На самом деле, этот пункт можно еще разбить на пару этапов - выбор всех цепляющих (3) и расстрел дублей (4), если фотографий много, а выжимка нужна сильная.
Никакого цвета, звездочек с инкрементами и пр. Только метки на + и инверсии/реджект.

А теперь, внимание, вопрос - зачем замедлять первичный отбор raw-просмотром? Все равно обскакать механик по скорости не выйдет. А сделать вторичный в фаст ро вью не выйдет, т.к. сюжетную обработку (контраст, света, цвета) в просмоторщике тоже не сделаешь, а это, как вы сами замечаете в статье, решает. Смешивать же два этапа в один чревато той же скоростью, усталостью и путаницей. Ну, если вы со съемки приносите больше 50-70 кадров, разумеется.

* да, цвет и пр. Но это единственные две программы, заточенные для работы с массивами файлов.

ЗЫ. Более того, многие знают прикол со съемкой в ч/б с поднятым контрастом, для лучшего восприятия объемов, откидывая цвет. Это тоже ускоряет отбор, а контраст лучше проявляет проблемы. JPG тут выгодней серенького raw-а.

Ну и ориентация. В SuperCCD

Ну и ориентация. В SuperCCD не было параллакса.

Нет - потому что пиксели

Нет - потому что пиксели сходу объединяются, в камере. И судя по шуму (на рамке он одинаковый в двух фреймах) - как-то хитро объединяются до АЦП, получается что мелкий полупиксель цифруется два раза, в составе пикселя и отдельно.

Но нужны темновые кадры, чтобы более достоверно понять.

в общем тот же SuperCCD, вид

в общем тот же SuperCCD, вид сбоку?

Данных больше вдвое, fps

Данных больше вдвое, fps меньше (в инструкции написано насколько), буфер - вероятно тоже меньше.

Сплошные огорчения, короче.

"И плевать, что это небо

"И плевать, что это небо (которое не в резкости) капельку сдвинуто по (пространственной) фазе." там на пиксель разница получается с полным кадром?
Теперь дождаться чтоб штатные конверторы это автоматом вытягивали.... =))
И интересно на сколько тяжелее этот dual pixel, и разумно-ли будет всегда так снимать... особенно репортажку, где это наиболее полезно было бы

Я вот приветствую то, что

Я вот приветствую то, что камера (примитивными алгоритмами) дает нам
- сырые данные одного набора пикселей
- и почти их (за вычетом выбитых областей) - для другого

Остальное можно сделать на быстром CPU при обработке.

Понятно.

Понятно.
Значит, НЕ примитивные алгоритмы опять отодвинули в будущее...

С учетом того, что в

С учетом того, что в "основном" кадре уровень сигнала (примерно, с поправкой на то что картинки таки разные) на стоп (т.е. вдвое) выше - нигде не нормируется, в основном кадре просто сумма.

?

Уровень отсчётов в RAW же одинаковый (~16800) а площадь "пикселов" различается в 2 раза, на каком этапе это нормируется?

Я опять не понял вопроса.

Я опять не понял вопроса.
Два кадра, полный и половинка - они разные. Были бы одинаковые - какой был бы в них смысл?

3)...

И когда в в разных картинках в FINE.CR2 отсчёты становятся "одинаковыми"?

Про принцип работы ФАФ я в курсе. Оно ведь не поменялось?

Первая - полная (сумма с двух

Первая - полная (сумма с двух), вторая - с одной половинки

Давайте вот с основ.

Давайте вот с основ.
Полупиксели смотрят "направо" и "налево" т.е. там между ними какая-то стенка, которая не дает видеть левую и правую стороны объектива.
В результате объектив начинает работать "как дальномер" и с нерезких (несфокусированных) объектов прилетает разная картинка. Со сфокусированных - одинаковая.
Далее
1) Для работы АФ их и не надо уравнивать, наоборот разница в (пространственной) фазе и дает понять насколько и в какую сторону промахнулся фокус.
2) Я не понял вопроса
3) Ну как и всегда, есть какой-то "усилитель с КУ меньше единицы" который приводит полный сигнал в диапазон рабочих напряжений (токов?) АЦП

Или в файле _FINE.CR2 обе

Или в файле _FINE.CR2 обе картинки полупиксельные?

"Я не тооормоооззз!"

Извините мне мою дремучесть.
1. Если сигналы в полупикселах разные, в каком месте и как их уравнивают (для работы АФ и пр.)?
2. Если есть полные пикселы и полупикселы, на каком этапе их сигналы оказываются ~ равными (в RAW)?
3. Когда из овер 40'000 электронов получаются 15872 отсчёта?

4. Adobe уже анонсировал работу с полупиксельными RAW:
http://www.canonrumors.com/adobe-to-support-dual-pixel-raw-in-future-ver...

Вот я и говорю - не узнать

Вот я и говорю - не узнать

Дык как складывать. Там еще и

Дык как складывать. Там еще и нормализация может быть, не ровно ж 1 стоп разница.

В 3-м знаке разница по

В 3-м знаке разница по дисперсии на рамке (BL=0), на 2-м кадре устойчиво больше на несколько сотых.

А вот нет ли на 1-м кадре шумодава - вопрос.

О, рамка, точно!

О, рамка, точно!

как там называется компания

как там называется компания которая разбирает чипы под электронным микроскопом ? ChipWorks... разве они не разбирали подобные сенсоры уже ?

Ну да, по шумам - на рамке и

Ну да, по шумам - на рамке и в темных кадрах.

Там возможны разные решения,

Там возможны разные решения, в том числе и без сложения напрямую. Надо больше кадров, и анализировать шумы.

По-моему, "где складывается"

По-моему, "где складывается" - не выяснить. Ну разве только по шумам в темновых кадрах?

а какой смысл складывать до

а какой смысл складывать до ADC ? выигрыш только за счет "аналогового усиления" за счет сложения на стоп перед ADC , но проигрыш в лишней схемотехнике в кремнии и для PDAF / DPRaw все равно надо вычитывать без сложения

Да. Но пока не факт, что

Да. Но пока не факт, что сложение после ADC. Мало примеров.

> Ну да. Но растут шумы

> Ну да. Но растут шумы чтения (читаем два раза, то есть в корень из двух, если они независимы)

а чем меньше емкость тем говорят (аптина -> новые сенсоры сони где часть емкости специально отключают) и шумы меньше ?

точно, это я с утра не

точно, это я с утра не подумал сначала... мораль - пить кофей надо.

Скорее какая-то из мыльниц

Скорее какая-то из мыльниц EXR-серии, где можно было для двух полупикселей одинаковое усиление поставить.

Вообще, магичный фонарь бы сюда с их DualISO

Ну да. Но растут шумы чтения

Ну да. Но растут шумы чтения (читаем два раза, то есть в корень из двух, если они независимы)

Pages

Subscribe to comments_recent_new