Свежие комментарии

Title Comment
На некоторых сайтах pr вырос с 3 до 4 =)

На некоторых сайтах pr вырос с 3 до 4 =)

Низкоконтрастные детали гораздо интереснее.

Низкоконтрастные детали гораздо интереснее.

Версия 4.5 меня совершенно не вдохновляет, но я наверное сде

Версия 4.5 меня совершенно не вдохновляет, но я наверное сделаю. Пятерки пока нет.

да, иногда разница между конверторами может быть большой. к

да, иногда разница между конверторами может быть большой.

кому интересно положение дел по Canon читаем http://www.dpreview.com/reviews/canoneos40d/page17.asp

Еще бы на DxO посмотреть на том же кадре. Особенно свежую на

Еще бы на DxO посмотреть на том же кадре. Особенно свежую навернутую версию, которую они обещают вот-вот выкатить :)

Да, получил сегодня еще одно письмо от 1-го ноября.... 10 д

Да, получил сегодня еще одно письмо от 1-го ноября....
10 дней задержки - совсем хорошо.

Это центр кадра, практически. корректируемых XA нет. Собстве

Это центр кадра, практически. корректируемых XA нет. Собственно, на кодаке XA вообще слабее.

А про настройки конвертора - раскрой тему. На представление деталей влияет sharpen, влияет естественно коррекция XA.

Но на сами детали они не влияют, в случае ACR/Lightroom деталей <b>просто нет</b>

резкость мелкодеталей помимо всего зависит от параметров исп

резкость мелкодеталей помимо всего зависит от параметров исправления/подавления ХА, хотя навреное ты это и так знаешь.

По моим наблюдениями, оптимальная передача фактуры волос и передача фактуры ткани требует как минимум разных настроек конвертора.

А если я не жду, а (срочное) письмо приходит ?

А если я не жду, а (срочное) письмо приходит ?

Да вот я тоже удивляюсь. Сегодня пришло письмо за 2-е ноябр

Да вот я тоже удивляюсь.

Сегодня пришло письмо за 2-е ноября.

Нет, я все умею, я если жду письма - я пойду в веб-интерфейс и там почитаю. Но я не все жду.

У меня такое же случается периодически. Привык уже - когда ж

У меня такое же случается периодически. Привык уже - когда жду письмо на почту Яндекса, открываю их вебмейл и читаю там.

У CUDA есть разделяемая (внутри мультипроцессора) память, от

У CUDA есть разделяемая (внутри мультипроцессора) память, отчего всякие вещи ее требующие можно программировать куда человечнее.

Туда, например, можно писать и сразу читать (в отличие от текстур).

Книги таможатся довольно быстро. Я же говорю - за 4 дня дошл

Книги таможатся довольно быстро. Я же говорю - за 4 дня дошла посылка.

Остальные дошли одновременно, получилось 3 недели для самой медленной доставки и 2 для 2-й по цене (priority mail).

Это 11 гигафлопсов на ядро или на процессор ?

Это 11 гигафлопсов на ядро или на процессор ?

Уже заказал на сайте EVGA 2 GT из серии КО, разогнанные до 6

Уже заказал на сайте EVGA 2 GT из серии КО, разогнанные до 675/1950.
Выбрал потому, что по тестам видно что GT 700/2000 была на уровне GTX-а, а что если их 2? :)
Ктомуже цена, однослотовость сделала своё дело :)
И в SLI режиме, 1Гб, я думаю будет достаточно... или нет?

Материться не хочется, но надо просто взрывать им мозг :) Кт

Материться не хочется, но надо просто взрывать им мозг :) Ктомуже как они часто отвечают, основные задержки из-за работы нашей, Российской таможни

А можно попросить ваших коментарием относительно чнловечност

А можно попросить ваших коментарием относительно чнловечности Cudы? :)

Их бессмысленно сравнивать впрямую. ATI - это Stream computi

Их бессмысленно сравнивать впрямую. ATI - это Stream computing в чистом виде (ну, multiple rendering target позволяет чуть-чуть улучшить). Т.е. все локальные переменные в регистрах или в текстурах (а текстуры RO).

CUDA - это все-таки полноценный процессор с read-write. Да, там не без тараканов (конфликты на банках shared memory, а из глобальной надо читать-писать дофига, иначе на два порядка медленее чем можно), но парадигма гораздо человечнее. А тараканы - крайне аккуратно документированы (хотя и странные).

Конечно, это имеет значение, только если самому там программировать. Если есть, скажем BLAS или FFT, а программа пользуется стандартным интерфейсом, то жизнь проще. Но BLAS для ATI по-моему нету...

В результате, кстати, RapidMind-овская реализация уже достигла предела т.к. там блок 4x4, а CuBLAS, как мне кажется, еще можно дальше оптимизировать.
Реализации, которые >~140GFlops на sgemm получают уже есть.

Да, одна. Хотя надо, конечно, какую-нибудь GF6xxx поставить

Да, одна. Хотя надо, конечно, какую-нибудь GF6xxx поставить на мониторный вывод.

5 секунд лимит, для тех задач, которые мне интересны (а это около-реалтайма т.е. время реакции - десятки миллисекунд) - вполне достаточно.
Это фича не CUDA, а виндов, имеющих watchdog на видеодрайвер.

>>Для Xeon 3.4 GHz (т.е. это старый и уверенно можно сказать

>>Для Xeon 3.4 GHz (т.е. это старый и уверенно можно сказать, что SSE2) - примерно так же.

Это совсем другие корнеплоды... К сожалению там сейчас вовсю идет подготовка к SC'07 и поэтому поубирали все сколь-нибудь новые сабмишны.
Для вудкреста пик 12Гфлопс, реально бывает проскакивает 11, в среднем 10.5Гфлопс в однопоточном режиме и 9.5 в многопточном.

После 12 ноября все вернется на свои места - можно будет проверить мое высказывание.

теперь вопрос по существу. когда вы считали через CUDA, у ва

теперь вопрос по существу. когда вы считали через CUDA, у вас видеокарта была одна? т.е. монитор был подключен к той видеокарте, которая работала? в readme по CUDA пишут, что в этом случае через 2 сек вычисления прерывается (то-ли баг, то-ли фича).

Простейшая задача кластеризации небольшого количества неболь

Простейшая задача кластеризации небольшого количества небольших текстов - сведется именно к попарному перемножению векторов (результат будет симметричным т.к. по сути умножаем матрицу на себя же транспонированную).

Понятно, что чем больше текстов, тем оно разреженнее, но до некоторого предела выгоднее будет перемножать как dense.

На самом деле, как только оно стало всерьез разреженным, нужно вырезать плотные куски и перемножать их.

Мне в прошлой жизни приходилось равновесие химическое считать, там матрицы размером от полусотни до нескольких сотен (зато этих систем были сотни тысяч).

у меня среди знакомых таких заядлых гамеров нет. в принципе,

у меня среди знакомых таких заядлых гамеров нет. в принципе, просто было интересно сравнить GPU вычисления на Nvidia и ATI.

я и не спорю, для умножения плотных матриц GPU эффективнее.

я и не спорю, для умножения плотных матриц GPU эффективнее.
Conroe в x64 возможно дойдёт до 6-6.5 sFLOP/c, Penryn за счёт оптимизированного Shuffle до 7.
к сожалению, перемножение больших квадратных матриц очень тупая задача и используется, в основном, лишь в бенчмарках. в реальных приложениях, если и есть перемножение матриц, то относительно маленьких (8x8, 16x16) или же матрицы очень неквадратные.

Можно же найти знакомого с такой картой, там же для теста ос

Можно же найти знакомого с такой картой, там же для теста
особо ничего не нужно, годятся стандартные драйвера, можно
по email-ftp-http тест выдать.

где бы ещё взять 2900XT бесплатно :-)

где бы ещё взять 2900XT бесплатно :-)

Чуть - это именно повышение эффективности с 5.21 операций на

Чуть - это именно повышение эффективности с 5.21 операций на такт (которые я намерял полгода назад) чуть ближе к теоретическим восьми ?

Это не поможет, NVidia успела выпустить 8800GT, которая несколько хуже по
bandwidth, практически такая же по гигафлопсам (чуть меньше горшков, большая
частота) и вдвое дешевле.

У меня нету. Но RapidMind-овский девелоперский кит можно б

У меня нету.

Но RapidMind-овский девелоперский кит можно брать у них с сайта совершенно
бесплатно и там же брать тест для sgemm.

С неделю вроде как. Удивляются, что оно еще не работает...

С неделю вроде как. Удивляются, что оно еще не работает...

Одна из идей в том, что N в знаменателе стала больше.

Одна из идей в том, что N в знаменателе стала больше.

Pages

Subscribe to comments_recent_new