Свежие комментарии

Title Comment
Я вот тоже не смог найти, но, может, я не в тех местах ищу

Я вот тоже не смог найти, но, может, я не в тех местах ищу

Все сенсоры, используемые Никоном в dSLR, заказные. Ни один

Все сенсоры, используемые Никоном в dSLR, заказные. Ни один из них по характеристикам не совпадает с сенсорами, устанавливаемыми в камерах других производителей. Для всех сенсоров, используемых Никоном, wafer делается Sony. Для всех, кроме скесоров D2H, D2Hs, D3 - дизайн электроники сенсора тоже выполнен Sony по спецификациям Никона с учётом требоваий Никона к архитектуре.

не-а. В том смысле, что тогда это было общим местом, но 7 л

не-а.

В том смысле, что тогда это было общим местом, но 7 лет прошло и каких-то разумных источников информации я за две минуты не нашел. Поищу еще.

Эээ.. Что ж с того, что на одной плате... Короче, я попытаюс

Эээ.. Что ж с того, что на одной плате... Короче, я попытаюсь повторить этот эксперимент с наводками, благо "радио-грязное" помещение имеется...

Языком почесать - можешь, в этом я не сомневался. Давай поч

Языком почесать - можешь, в этом я не сомневался.

Давай почешем. Какой перформанс ты планируешь получить на размере данных порядка гигабайта? Ну там типа 2D, 8192x8192, complex
Какая себестоимость будет у платки? Интерфейс какой?

А то тут одни выпускали акселератор для N-body задач, тоже наверное чувствовали себя крутыми, чморили С.

А можно ссылку на информацию о контаксовом сенсоре?

А можно ссылку на информацию о контаксовом сенсоре?

> Но вот как добиться контролируемости от Java и ее конте

> Но вот как добиться контролируемости от Java и ее контейнеров?
> Я абсолютно не представляю и не представляю где бы мы взяли людей,
> которые бы это знали.

Могу дать reference ;)
Делается почти также, как в Це - выделяется большой массив и в этом массиве всё живёт.
Причём они данные в этом массиве даже паковали дефлэйтом (т.к. данных было слишком дофига) - всё равно получалось лучше, чем много миллионов объектов в работе у мусоросборщика.

Ах. (Стреляется.) Было б нехрен делать - предложил бы спор

Ах. (Стреляется.)

Было б нехрен делать - предложил бы спор на 2x цены FFT IP core (подходящие к моим любимым FPGA FFT тут: http://www.dilloneng.com/fft_ip ). Залить недолго, но его ещё клеить к интерфейсу надо, а это гемор.

Ой, ты не ушел? Радость какая! Первый вариант не описан дос

Ой, ты не ушел? Радость какая!

Первый вариант не описан достаточно, чтобы его можно было всерьез обсуждать.

Ты так упорно держишься за рандомизированный потому, что пер

Ты так упорно держишься за рандомизированный потому, что первый совсем никак нельзя упрекнуть, или есть другая причина?

Это вы льстите себе, увы. В приличном обществе нельзя услыша

Это вы льстите себе, увы. В приличном обществе нельзя услышать фразу "я повозил его об".

Тебе ответили тут: http://blog.lexa.ru/2009/02/14/200_djatlo

Тебе ответили тут: http://blog.lexa.ru/2009/02/14/200_djatlov_skleennix_vstik_predstavljaju...

А комментарии копируются только в одну сторону

Конкретно в SMB дело скорее в каких-то таймаутах, сколько не

Конкретно в SMB дело скорее в каких-то таймаутах, сколько не копируй память-память, так медленно сделать трудно (и я не вижу даже 50% CPU на двухгоршковой машине, а должно быть в таком случае).

Но общий вектор, конечно, верный.

Ты вот в соседнем посте обсуждал как раз где bottleneck у SM

Ты вот в соседнем посте обсуждал как раз где bottleneck у SMB. Ну вот как раз пример, сколько об алгоритмах не думай, а количество копирований память-память на производительность все равно влияет сильнее

Все же очень просто (в этом приближении - уровень серого):

Все же очень просто (в этом приближении - уровень серого):
- берем объект (для простоты дальнейшего изложения - нейтральный и при дневном свете).
- меряем по нему экспозицию (о счастье, внешний и встроенный экспонометры показывают одно и то же)

Если мы по этому замеру снимем, то объект отрендерится туда, куда мы намеряли собственно снимая серую (белую) карту.
Если мы дадим экспопоправку в +3.2 стопа (пусть мы намеряли, что реальный серый отклик - 10.2% от максимума, как в моем эксперименте с 450D), то объект отрендерится в самый максимум, какой может быть без клиппинга в зеленом канале.

Теперь, допустим мы замеряли не основной объект, а самые света, где мы хотим получить следы фактуры (про highlight recovery забыли пока). В предыдущем абзаце ответ - дадим поправку +3.2 (относительно замера светов) и света окажутся ровно там, где мы хотим. Это, собственно, замер "как слайд снимали".

Headroom по двум другим каналам (при дневном свете) - больше.

Что будет с цветными объектами при дневном свете:
- зеленые в насыщение попадают раньше
- красные и синие - позже (при большей передержке относительно замера)

Что будет с другим освещением
- при переходе в теплую область разбаланс чувствительности каналов (эффективный) уменьшается, headroom увеличивается.

Что со вспышкой:
- т.к. светим мы на объект, а ярких светов обычно нет, то правильно дать вспышке коррекцию в плюс. Примерно +1. Но у современных камер много лишнего интеллекта, рекомендуют вспышечную коррекцию задавать на вспышке, а не на камере.

а я без негатива совершенно. то, что сони покупает у никона

а я без негатива совершенно. то, что сони покупает у никона литографическое оборудование -- это известно и "норма" без "почти". вопрос только -- единственный ли поставщик этого оборудования (для производства матриц) для сони -- никон.
я даже думаю, что сони в конце концов так или иначе скооперируется с никоном (или никон с сони) против кенона. по крайней мере не очень "уклюжая" попытка не дать никону матрицу под D3x немного провалилась...

хм... теперь осталось посмотреть на A900, ибо в D3x типа не

хм... теперь осталось посмотреть на A900, ибо в D3x типа не её exmor напрямую, а с другой "обвязкой" прибавляющей в том числе два бита к файлам. например если на A900 этого нет, значит источник -- в никоновской "обвязке".

>Конечно, если заставить программиста выражаться параллел

>Конечно, если заставить программиста выражаться параллельно, то параллелить будет проще.

именно. это ключевая идея. пусть оптимальный код это никогда не даст, но зато даст надежный, масштабируемый код и позволит сконцетрироваться на алгоритмах.

новый суперкомпьютер-кластер IBM будет иметь около миллиона CPU. для него задача балансировки нагрузки намного важнее, чем выжать всё из отдельного CPU.

P.S. про Intel i7. вроде 3 SSE юнита есть начиная с P4 (add/mul/IO). насколько я знаю, существенных изменений в SSE юнитах у i7 относительно Core 2 нет (кроме поддержки SSE4.2).

Насколько я понимаю, Nikon - один из крупнейших производител

Насколько я понимаю, Nikon - один из крупнейших производителей железа для фотолитографии, т.е. то, что Sony покупает у него - почти норма.

В D3X та же фигня, см выше мой ответ Isoft'у

Вот из чата с Ильей: <i>на D3X эффект половинок виден

Вот из чата с Ильей:
<i>на D3X эффект половинок виден при очень сильной недодержке, минус 5 стопов от замера. на пересвете - не ловится</i>

1) просто забыл константу :-) 3) пусть получил я некое эффек

1) просто забыл константу :-)
3) пусть получил я некое эффективное ISO или запас, что с ним делать дальше? просто как FYI или всё же делать сдвиг при съемке?

&gt;лично я считаю, что единственный способ писать быстро, н

>лично я считаю, что единственный способ писать быстро, надежно и при этом получать эффективный код - использовать некий абстрактный язык, достаточно высокоуровневый и позволяющий выражать внутренний параллелизм алгоритма. далее есть компилятор в любую архитектуру.

Если говорить именно про вычисления - да, есть интересные надежды на OpenCL, хотя довольно очевидно, что навеян он существующим железом, а если OpenCL пойдет, то затем железо будут делать под OpenCL.

Конечно, если заставить программиста выражаться параллельно, то параллелить будет проще.

У меня нету сейчас средней линейки под рукой. Но очень же л

У меня нету сейчас средней линейки под рукой.

Но очень же легко сделать самому, для конкретного значения ISO это дело минут эдак трех
- снимаем лист бумаги с офигенной передержкой, так определим диапазон значени
- снимаем тот же лист бумаги (равномерно освещенный, расфокусированной оптикой) по камерному экспонометру. Например, в RAW+JPEG

- офигачиваем полученные RAW-файлы программой 4channels из <a href=http://www.libraw.su/download#beta>LibRaw 0.7</a>, получаем линейные TIFF-ы, по одному на канал (4 на кадр)
- смотрим на файл .G.tiff (или .G2.tiff, они в большинстве случаев почти одинаковые), например фотошопом (в линейной гамме, grayscale). Для пересвеченного кадра видим там диапазон, для остальных - значения серого тона. Оно в линейной шкале, отчего отношение значений и будет запасом по экспозиции _в_разах_ (чтобы в стопы перейти - логарифмируем по основанию 2)
- смотрим на JPEG-и из камеры, там для перехода в линейную шкалу нужно дельту в степень 2.2 возводить.

1) Первый вопрос меня ввел в ступор. sRGB - это gamma 2.2 (э

1) Первый вопрос меня ввел в ступор. sRGB - это gamma 2.2 (это для simplified, для настоящего там чуть сложнее). Средний тон в RGB с gamma 2.2 должен иметь значения R-G-B равные 119.

2) ACR стандартно делает push около стопа. Это некая стандартная величина, на самом деле она у разных камер - разная. Вопрос нуждается в изучении, которое запланировано, но еще не проведено.

3) Практический ответ, на мой взгляд, выглядит так (точнее, первая его часть)
- нужно поснимать серую карту при разных параметрах камеры (о подробностях - см. сегодняшний постинг). Кроме этого нужно снять кадры с большим пересветом, чтобы выяснить полный диапазон значений (он может быть разным при разных ISO)
- нужно посмотреть на RAW-данные серой шкалы (для чего очень удобна программка 4channels из поставки LibRaw) и пересчитать их в запас по экспозиции "от серого до насыщения", в eV или там в процентах, что удобнее.
- если есть привычка к какому-то стандартному материалу, вроде слайда, можно на основании данных из предыдущего пункта посчитать "эффективную чувствительность"
- надо понимать, что запас "от серого до насыщения" зависит от света (скажем, для ламп накаливания чувствительности каналов практически выровняны)

Как-то так. Надеюсь, окончательно запутал.

три вопроса. 1) 18% в sRGB в гамма 1.8 это вроде не 18% в RA

три вопроса.
1) 18% в sRGB в гамма 1.8 это вроде не 18% в RAW. может быть нужно пересчитать % по гамме?
2) практический вопрос. получается, что ACR тоже делает для камер Canon пуш +2/3?
3) практический вопрос. правильно ли я понял, что рекомендуется всегда делать коррекцию экспозиции +2/3 при съемке и потом -2/3 в конвертере? смысл получается в том, что будет меньше шума и выше ДД.

Вдогонку. Если можно - воздержись от мата, тут приличное об

Вдогонку.

Если можно - воздержись от мата, тут приличное общество.

вы правы в том, что стоимость разработки, время и надежность

вы правы в том, что стоимость разработки, время и надежность это тоже важные параметры, не менее важные, чем производительность. но нужно разделять общий код и hot spot код, который вызывают часто и его время 90% программы, такой код обычно идёт в библиотеки. так вот, я считаю, что такой код нужно писать по-уму, и если нужно даже на ассемблере.

всё что мы сейчас имеем в современном софте работает более-менее быстро именно благодаря этому подходу. если его нарушить, то новый софт будет работать медленнее старого и самое главное, с какого-то момента он не будет масштабироваться по производительности на новом железе.

нужно искать баланс и адекватные инструменты для своих задач, раз Java, С и asm существуют, значит это кому-то нужно. здесь я с вами снова соглашусь.

А ты действительно не понимаешь, почему рандомизированный ал

А ты действительно не понимаешь, почему рандомизированный аллокатор не подойдет к обсуждавшейся задаче?

&gt;Я могу взять FPGA и сделать FFT в железе, и чморить си.

>Я могу взять FPGA и сделать FFT в железе, и чморить си.

Не можешь.

вечная тема... :-) на самом деле сложный это вопрос. для от

вечная тема... :-) на самом деле сложный это вопрос.

для относительно простых (алгоритмически) вычислительных задач вроде умножения матриц Java и C# будут медленнее, т.к. реально вручную написать оптимальный код на ассемблере (хотя для этого нужно время и высокая квалификация).

с другой стороны, очевидно, что ассемблер ограничен сложностью программы, написать на нём ОС уже очень и очень трудно из-за кол-ва человекочасов, и главное, из-за сложности (трудно писать надежный код, нет механизмов защиты, сложно тестировать и тд). поэтому он применяется локально для hot spot, а итоговая программа лишь вызывает такие kernel. с этим подходом возникают следующие проблемы:
1) не всегда имеющиеся kernelы подходят для нашей задачи. пример - надо умножить вещественную матрицу на комплексную - во многих библиотеках такой функции нет.
2) нет нужной гибкости. хороший пример - ленивое программирование, пусть нужно провести некую последовательность вычислений, суть в том, что зная всю последовательность заранее можно применить некие формулы и упростить выражение, тем самым избежав лишних вычислений. при этом может быть важен какой-то нестандартный доступ к данным, который не реализуется через имеющиеся kernel.
3) самое главное - с выходом каждого нового процессора нужно переписывать весь код (огромная работа), а пока код не переписан выигрыша от новых SIMD и пр. нет.

лично я считаю, что единственный способ писать быстро, надежно и при этом получать эффективный код - использовать некий абстрактный язык, достаточно высокоуровневый и позволяющий выражать внутренний параллелизм алгоритма. далее есть компилятор в любую архитектуру. переписывать такой код нужно только при переходе на новый алгоритм (относительно редко). к сожалению, на данный момент такого языка нет. наиболее близкое из имеющегося - Sh, Сt.

Pages

Subscribe to comments_recent_new