Свежие комментарии
Title | Comment |
---|---|
На некоторых сайтах pr вырос с 3 до 4 =) |
На некоторых сайтах pr вырос с 3 до 4 =) |
Низкоконтрастные детали гораздо интереснее. |
Низкоконтрастные детали гораздо интереснее. |
Версия 4.5 меня совершенно не вдохновляет, но я наверное сде |
Версия 4.5 меня совершенно не вдохновляет, но я наверное сделаю. Пятерки пока нет. |
да, иногда разница между конверторами может быть большой. к |
да, иногда разница между конверторами может быть большой. кому интересно положение дел по Canon читаем http://www.dpreview.com/reviews/canoneos40d/page17.asp |
Еще бы на DxO посмотреть на том же кадре. Особенно свежую на |
Еще бы на DxO посмотреть на том же кадре. Особенно свежую навернутую версию, которую они обещают вот-вот выкатить :) |
Да, получил сегодня еще одно письмо от 1-го ноября.... 10 д |
Да, получил сегодня еще одно письмо от 1-го ноября.... |
Это центр кадра, практически. корректируемых XA нет. Собстве |
Это центр кадра, практически. корректируемых XA нет. Собственно, на кодаке XA вообще слабее. А про настройки конвертора - раскрой тему. На представление деталей влияет sharpen, влияет естественно коррекция XA. Но на сами детали они не влияют, в случае ACR/Lightroom деталей <b>просто нет</b> |
резкость мелкодеталей помимо всего зависит от параметров исп |
резкость мелкодеталей помимо всего зависит от параметров исправления/подавления ХА, хотя навреное ты это и так знаешь. По моим наблюдениями, оптимальная передача фактуры волос и передача фактуры ткани требует как минимум разных настроек конвертора. |
А если я не жду, а (срочное) письмо приходит ? |
А если я не жду, а (срочное) письмо приходит ? |
Да вот я тоже удивляюсь. Сегодня пришло письмо за 2-е ноябр |
Да вот я тоже удивляюсь. Сегодня пришло письмо за 2-е ноября. Нет, я все умею, я если жду письма - я пойду в веб-интерфейс и там почитаю. Но я не все жду. |
У меня такое же случается периодически. Привык уже - когда ж |
У меня такое же случается периодически. Привык уже - когда жду письмо на почту Яндекса, открываю их вебмейл и читаю там. |
У CUDA есть разделяемая (внутри мультипроцессора) память, от |
У CUDA есть разделяемая (внутри мультипроцессора) память, отчего всякие вещи ее требующие можно программировать куда человечнее. Туда, например, можно писать и сразу читать (в отличие от текстур). |
Книги таможатся довольно быстро. Я же говорю - за 4 дня дошл |
Книги таможатся довольно быстро. Я же говорю - за 4 дня дошла посылка. Остальные дошли одновременно, получилось 3 недели для самой медленной доставки и 2 для 2-й по цене (priority mail). |
Это 11 гигафлопсов на ядро или на процессор ? |
Это 11 гигафлопсов на ядро или на процессор ? |
Уже заказал на сайте EVGA 2 GT из серии КО, разогнанные до 6 |
Уже заказал на сайте EVGA 2 GT из серии КО, разогнанные до 675/1950. |
Материться не хочется, но надо просто взрывать им мозг :) Кт |
Материться не хочется, но надо просто взрывать им мозг :) Ктомуже как они часто отвечают, основные задержки из-за работы нашей, Российской таможни |
А можно попросить ваших коментарием относительно чнловечност |
А можно попросить ваших коментарием относительно чнловечности Cudы? :) |
Их бессмысленно сравнивать впрямую. ATI - это Stream computi |
Их бессмысленно сравнивать впрямую. ATI - это Stream computing в чистом виде (ну, multiple rendering target позволяет чуть-чуть улучшить). Т.е. все локальные переменные в регистрах или в текстурах (а текстуры RO). CUDA - это все-таки полноценный процессор с read-write. Да, там не без тараканов (конфликты на банках shared memory, а из глобальной надо читать-писать дофига, иначе на два порядка медленее чем можно), но парадигма гораздо человечнее. А тараканы - крайне аккуратно документированы (хотя и странные). Конечно, это имеет значение, только если самому там программировать. Если есть, скажем BLAS или FFT, а программа пользуется стандартным интерфейсом, то жизнь проще. Но BLAS для ATI по-моему нету... В результате, кстати, RapidMind-овская реализация уже достигла предела т.к. там блок 4x4, а CuBLAS, как мне кажется, еще можно дальше оптимизировать. |
Да, одна. Хотя надо, конечно, какую-нибудь GF6xxx поставить |
Да, одна. Хотя надо, конечно, какую-нибудь GF6xxx поставить на мониторный вывод. 5 секунд лимит, для тех задач, которые мне интересны (а это около-реалтайма т.е. время реакции - десятки миллисекунд) - вполне достаточно. |
>>Для Xeon 3.4 GHz (т.е. это старый и уверенно можно сказать |
>>Для Xeon 3.4 GHz (т.е. это старый и уверенно можно сказать, что SSE2) - примерно так же. Это совсем другие корнеплоды... К сожалению там сейчас вовсю идет подготовка к SC'07 и поэтому поубирали все сколь-нибудь новые сабмишны. После 12 ноября все вернется на свои места - можно будет проверить мое высказывание. |
теперь вопрос по существу. когда вы считали через CUDA, у ва |
теперь вопрос по существу. когда вы считали через CUDA, у вас видеокарта была одна? т.е. монитор был подключен к той видеокарте, которая работала? в readme по CUDA пишут, что в этом случае через 2 сек вычисления прерывается (то-ли баг, то-ли фича). |
Простейшая задача кластеризации небольшого количества неболь |
Простейшая задача кластеризации небольшого количества небольших текстов - сведется именно к попарному перемножению векторов (результат будет симметричным т.к. по сути умножаем матрицу на себя же транспонированную). Понятно, что чем больше текстов, тем оно разреженнее, но до некоторого предела выгоднее будет перемножать как dense. На самом деле, как только оно стало всерьез разреженным, нужно вырезать плотные куски и перемножать их. Мне в прошлой жизни приходилось равновесие химическое считать, там матрицы размером от полусотни до нескольких сотен (зато этих систем были сотни тысяч). |
у меня среди знакомых таких заядлых гамеров нет. в принципе, |
у меня среди знакомых таких заядлых гамеров нет. в принципе, просто было интересно сравнить GPU вычисления на Nvidia и ATI. |
я и не спорю, для умножения плотных матриц GPU эффективнее. |
я и не спорю, для умножения плотных матриц GPU эффективнее. |
Можно же найти знакомого с такой картой, там же для теста ос |
Можно же найти знакомого с такой картой, там же для теста |
где бы ещё взять 2900XT бесплатно :-) |
где бы ещё взять 2900XT бесплатно :-) |
Чуть - это именно повышение эффективности с 5.21 операций на |
Чуть - это именно повышение эффективности с 5.21 операций на такт (которые я намерял полгода назад) чуть ближе к теоретическим восьми ? Это не поможет, NVidia успела выпустить 8800GT, которая несколько хуже по |
У меня нету. Но RapidMind-овский девелоперский кит можно б |
У меня нету. Но RapidMind-овский девелоперский кит можно брать у них с сайта совершенно |
С неделю вроде как. Удивляются, что оно еще не работает... |
С неделю вроде как. Удивляются, что оно еще не работает... |
Одна из идей в том, что N в знаменателе стала больше. |
Одна из идей в том, что N в знаменателе стала больше. |
Pages
