Свежие комментарии

Title Comment
Ну я понимаю когда открытым текстом говорят что вот есть точ

Ну я понимаю когда открытым текстом говорят что вот есть точная реализация (но медленная), а вот вам приблизительная, но в N раз быстрее. Но тут оказалось что аппаратное ускорение это тяп-ляп со значением числа пи до четырёх :)

Я-то думал что при аппаратном ускорении стараются отоптимизировать под честный алгоритм (скажем, при распаковке JPG изображения с аппаратным ускорением я ожидаю, что оно совпадёт с программным, но будет быстрее благодаря спец-операциям, а не потому что там смухлевали и закидали всё примерными таблицами из ПЗУ)...
А тут оказывается что с использованием quick sync не только быстрее, но при этом ещё и точнее. Интрига :)

Конечно ха-ха. Во-первых, есть быстрые (но не очень точные)

Конечно ха-ха. Во-первых, есть быстрые (но не очень точные) реализации sin/cos/log/exp, которые на разных архитектурах тем более будут разные.

Во-вторых, там запросто полезут всякие проблемы out of gamut (для ярких точек, скажем) c которыми кто-то разбирается, кто-то нет. Там же внутре небось YCC или что-то подобное (я не в курсе видео, но должно быть так), а выдать надо RGB.

Ага, я хочу попробовать. Особенно после <a href="http://www.

Ага, я хочу попробовать. Особенно после некоторых результатов декодирования граф-картой :)
До сих пор наивно думал что операции декодирования/кодирования -- однозначны вне зависимости от того через что декодируют. Оказалось ха-ха два раза :)

Я тоже по привычке. В том смысле, что отдельных видеокарт у

Я тоже по привычке. В том смысле, что отдельных видеокарт у них не будет - если с ними все так мучаются.

Что касается граф-ядра в процессоре, то лично я его попробовать не могу, чипсет не умеет (P67), но вроде декодирование видео там с какой-то феноменальной скоростью работает. Которое Quick Sync.

В смысле? AMD уже перестала использовать марку ATI, это я по

В смысле? AMD уже перестала использовать марку ATI, это я по привычке их так зову :)

Для полного вымирания должна издохнуть вся AMD, или планы по скрещиванию ужа с ежом (в смысле встраивания GPU в процессор, что и Интел и АМД теперь делают) дожны стать ну супер как популярны убив идею отдельной карты, о чём ты как-раз написал :)

Свежие версии у Интела в принципе уже достаточно шустрые для "обычных" задач, вот только задачи всё растут. Скажем, ранние версии не тянули декодинг 1080p, или не было версии flash с хорошим ускорением, так что ютюб всякий исходил рваными кадрами со 100% загрузкой.

При таком подходе, если он станет массовым, через 10 лет не

При таком подходе, если он станет массовым, через 10 лет не будет никакого ATI.

Кстати я вот думаю, что для большинства обычных применений (не супер-игры и не супер-вычисления) через пару лет мы все перейдем на графику, встроенную в CPU. Нормальному юзеру нужен быстрый видеодекодер + чуть-чуть акселерации 2D/3D и все.

Я имел в виду свежее железо от ATI. С NVidia у меня под лин

Я имел в виду свежее железо от ATI.

С NVidia у меня под линуксами ещё ни разу проблем не было (тьфу тьфу тьфу).
Максимум -- пересоберёт себя само, без дополнительных выкрутасов.

В общем NVidia на следующие лет 10, после чего я снова попробую AMD-шную карту, и если оно снова начнёт брыкаться, то снова будет послано на три буквы :)

Насколько я понимаю они просто меняют периодически достаточн

Насколько я понимаю они просто меняют периодически достаточно всего, после чего полгода линуксовый отдел пытается с этим всем новым взлететь, в то время как виндусятники как-то умудряются от версии к версии жить без особых ужасных крахов.
Хотя я может просто не видел сценария, когда родной ATIшный драйвер под винду внезапно теряет 2D ускорение :)

Не, ну честно не распознали новый горшок, сгенерировали нечт

Не, ну честно не распознали новый горшок, сгенерировали нечто под generic x86_x64, имеют право в первом приближении.

Я думаю, от задачи зависит. Мне нетрудно любой из AMD-шных

Я думаю, от задачи зависит.

Мне нетрудно любой из AMD-шных примеров с матрицами запустить таким же образом, собственно. Но я не уверен в их качестве, скажем нвидиевский пример умножения матриц из SDK (именно пример, не sgemm/dgemm из библиотеки cublas) - плохой.

Почему не надо брать свежее видеожелезо? Linux для NVidia -

Почему не надо брать свежее видеожелезо?

Linux для NVidia - ключевая платформа (для вычислений), драйвера выходят достаточно быстро. Насколько они хороши именно как видео - я не в курсе, впрочем.
Но этот самый 270.61 (релизный с CUDA 4.0) и для Linux тоже доступен.

Проблема в том, что если взять сколь-нибудь свежую ATI/AMD к

Проблема в том, что если взять сколь-нибудь свежую ATI/AMD карту, то начинается полная ж-а.
Ясно, что если 100% линукс то не надо брать свежее видео-железо :) Но у меня на той машине и винда и линукс, и хочется чтобы и шашечки и ехать :)
В общем это отдельная тема для беседы, не буду гадить в этот тред :))

Ну у меня тоже НВИДЯШНЫЕ под Xubuntu(9.04, 9.10, 10.10 и 10.

Ну у меня тоже НВИДЯШНЫЕ под Xubuntu(9.04, 9.10, 10.10 и 10.04 на ура ставились и сносились).

Под редхатом 5й энтерпрайзом с полпинка встали драйвера на HD3500 или из подобной серии. Только вот я под линух не люблю не "фирменные драйвера" - уж либо весовские, либо проприоритетные...

> Однако, при мелких деталях,

> Однако, при мелких деталях, типа хвои в лесу на среднем или заднем плане

Самый прикол, что есть именно такие детали. И именно из-за них был применён RPP, который давал очень заметную разницу с LR. Да, если смотреть с 20см, то есть к чему придраться, но в коридор я вешаю 20х30 именно по этим причинам.

С точки зрения енд-юзера в прошлом релизе было совсем всё пл

С точки зрения енд-юзера в прошлом релизе было совсем всё плохо.
То бишь свежая ATI/AMD карта Sapphire Radeon HD5830 толком опенсорсным драйвером не поддерживалась (2D ускорение вообще не работало, окошки отрисовывались так медленно, что было видно последовательность операций), и потому я решил скачать "фирменный" драйвер. На результат я уже сильно ругался по-английски -- то не работает, то весит объяву что "не нашла я поддерживаемую карту", но при этом всё ускоряется. Ужас, в общем :)

В результате продал ту карту и купил nVidia на замену. Всё работает :)

А как обстоят дела с атишными драйверами под бубунтой?

А как обстоят дела с атишными драйверами под бубунтой?

Для меня новость, что ай7 понимает опенЦЭЭЛ. Но сортировка

Для меня новость, что ай7 понимает опенЦЭЭЛ.
Но сортировка - это не совсем тривиальная задача.

Как быть с рассчётом очень большого числа матриц?

Забавно, что в очередной раз подтверждает мои дилетанские пр

Забавно, что в очередной раз подтверждает мои дилетанские представления о полной ж-е с софтом в ATI/AMD (я не могу им простить линуксовские драйвера под убунту)

Ты о какой-то "не родной" реализации? Эмулятор они покранти

Ты о какой-то "не родной" реализации?

Эмулятор они покрантили не помню когда (в 4.0 точно нет, но в 3.2 тоже вроде уже не было). Но главное - без перекомпиляции уж точно не работает....

CUDA на CPU тоже работает, кстати.

CUDA на CPU тоже работает, кстати.

да все работает нормально,ты

да все работает нормально,ты просто че-то не то делаешь

Re: offtopic

К сожалению, я готовых рекомендаций по масштабу для растра - не нашел, придется как-то самому доходить до нужного. Еще поищу, конечно.

Штука в том, что для растрового слоя задается масштаб (в непонятных пока попугаях) и каждый из слоев виден только при некоторых уровнях зуммирования и все.

Совсем по хорошему - нужно делать набор растровых карт (от ~5-километровки и крупнее, докуда есть), а дальше - снимок, чтобы при зуммировании подлезал сразу нужный масштаб. Можно - с разными group ID, чтобы иметь возможность выключить-выключить нужный слой.

Короче, там все по уму, но (как всегда) немножко через жопу.

Re: offtopic

В смысле ssd :)

Re: offtopic

Класс!

Re: offtopic

Если ты нормально их подготовил (с разными group id и названиями), то две кнопки - и ты в списке карт. А дальше - enable/disable каждую (группу - для JNX) отдельно

Никто не мешает, кстати, иметь снимок, а сверху - вектор одновременно.

Re: offtopic

Ну ноут на коленях штурмана или уж на крайний случай водителя, если один. Ну где маршрутных точек не хватает и карта нужна. Можно диск sdd поставить, хотя я по тряским дорогам и бездорожю Тверской области катаюсь пока с обычным травелстаром. А подвеску крепления надо большо хитрую городить, и тогда уж точно sdd.

Re: offtopic

Ну плусы понятны, бекап бумаги и удобная функциональность вроде без особых минусов. А насколько удобно оперативно переключаться с карты на карту, ну скажем с растра на вектор? Скажем в целях игры на зуме?

На мой взгляд первый этаж менее тошнотный. Причем, причина,

На мой взгляд первый этаж менее тошнотный. Причем, причина, как мне показалось, не в технологии, а в подготовке файлов к печати. "нижние" просто меньше мучали аншарпом и пр. Раздел, кажется, "архитектура", так вообще нормально напечатан, даже цвет. Совпадение или нет, но все понравившиеся работы напечатаны на струйнике, без всяких заморочек.

PS: опc, возможно я о другой выставке. Я про винзаводовскую best of russia

Мне почему-то кажется, что

Мне почему-то кажется, что прошлая была напечатана лучше. Но проверить - непонятно как.

6 мпикс для 50х75... это

6 мпикс для 50х75... это печать в примерно 100dpi... Ну наверное неплохо, если лошадка главный объект. Однако, при мелких деталях, типа хвои в лесу на среднем или заднем плане, смотреть вероятно лучше с дистанции диагонали-полутора... То есть в коридоре стараться не вешать :)

Кстати, о критериях.
Прошлая выставка "мир глазами россеян" была напечатана с ужасным качеством, по мнению авторов фотографий (инфо от Кирилла Крылова). Однако, девственно чистая сердцем организатор наоборот, посчитала, что все вполне замечательно было напечатано: "....Латексная печать, опробовали на МГР. Добавляет структуры, фотографии в большом размере хорошо смотрятся. Тут участники выставки помочь не смогут, но в наших интересах сделать так, чтобы напечатали хорошо. Рудаков на этом собаку съел, так что не волнуйтесь....". Интересно, текущую выставку они тоже на латексном принтере выводили? Надо все-таки сходить посмотреть.

Pages

Subscribe to comments_recent_new