Свежие комментарии

Title Comment
<b>&gt; Угу, проверил на Firefox3/FreeBSD - галка есть</b><b

> Угу, проверил на Firefox3/FreeBSD - галка есть
У меня Linux, и толк без галки не возникает. :-)

Известно кто в теме Safari (вроде виндовая - тоже) Firefox

Известно кто в теме
Safari (вроде виндовая - тоже)
Firefox3

Больше и нету (Opera не проверял, но откуда там алмазы...)

<b>Re: &gt; А юниксовый - собирать с lcms</b><br/> Угу, пров

Re: > А юниксовый - собирать с lcms
Угу, проверил на Firefox3/FreeBSD - галка есть, а толку с нее, естественно, никакого нет (ибо в данной конкретной системе никакого color management code отродясь не было)

<b>Re: &gt; А юниксовый - собирать с lcms</b><br/> В чудеса

Re: > А юниксовый - собирать с lcms
В чудеса мы не верим - вот у меня в системе нету lcms никакого - и чем оно будет делать оный management?

<b>&gt; А юниксовый - собирать с lcms</b><br/> about:config

> А юниксовый - собирать с lcms
about:config -- gfx.color_management.enabled := true

Firefox 2 не в теме

Firefox 2 не в теме

Иногда оно не включено в Firefox 3, тогда поможет это дополн

Иногда оно не включено в Firefox 3, тогда поможет это дополнение:
https://addons.mozilla.org/ru/firefox/addon/6891

Это не вполне то, потому что паттерн немножко другой, но смы

Это не вполне то, потому что паттерн немножко другой, но смысл тот же.
В рамках нашей дискуссии можно смотреть на Database

http://techreport.com/articles.x/15931/9

Но тройное дублирование на дешевых SATA - оно дешевле мега-S

Но тройное дублирование на дешевых SATA - оно дешевле мега-SAN-ов. Даже с учетом рабочих рук, которые должны быть квалифицированными, конечно. Ну и начиная с каких-то объемов, если нужно всего 10 терабайт, то ситуация может быть другой.

Вообще, забавный разговор. Году в 2001-м ответить на фразу "терабайтное хранилище" было только "уууу!", а у меня сейчас 2 терабайта под столом, еще три над столом и пара терабайт офлайн в шкафу лежит.

Если получится по пожалуйста прогони на нем iometer с размер

Если получится по пожалуйста прогони на нем iometer с размерами 1, 2, 4, 8, 16, 64, 128, & 1024kb, seq/random при queue depth от 2-х до 32-х.

Очень интересно было бы посмотреть на результаты.

Времена доступа порядка 0.1ms - они реально существуют. И то

Времена доступа порядка 0.1ms - они реально существуют. И тому же интелу я не вижу оснований не верить. Если X25-E на рождественских распродажах подешевеют разумно - возьму на пробу (пока жду Micron P200)

Гугл может тройное дублирование себе позволить, но это не зн

Гугл может тройное дублирование себе позволить, но это не значит что многие могут позволить для себя то-же самое.

Что происходит у гугла в датацентрах я знаю не понаслышке, у меня двое друзей в их storage division работают. У них датацентры в среднем раз в 9 месяцев сгорают. В букавальном смысле. Для FEC и восстановления данных у них альгоритмы (адаптированные для них turbo codecs) встроены на уровне application, и data redundancy на уровне storage controllers не используется. Т.е. у них дисковая подсисема построена на уновне JBOD (в основном используется HP DL180/185/320s) чтобы запаковать как можно больше ТБ (они используют 7.2К 1TB SATA) в 1U.

Это только в том случае если принять что у SSD 4K IOPS _дейс

Это только в том случае если принять что у SSD 4K IOPS _действительно_ существует в природе. Пока-что то что _сейчас_ есть, даже для single layer SSD write performance на уровне SATA дисков.

Опять-же, если за последный месяц что-то кардинально поменялось во вселенной, я не знаю.

тогда 2q на желтые штаны :)

тогда 2q на желтые штаны :)

BER кстати упал. Я помню цифры в районе 10^-13, а сейчас 10^

BER кстати упал. Я помню цифры в районе 10^-13, а сейчас 10^-15.

И надежность, по ощущениям, выросла. В 2000-2001-м годах в Рамблере падеж дисков был в районе 1% в месяц, сейчас у нас - много меньше.

Что касается массивов - читали про гугловую петабайтную сортировку на 48 тысячах дисков? Ну типа да, за время теста диски отваливаются, тройное дублирование спасает.

Следите за руками. 15k-rpm диск вращается со скоростью 4 мил

Следите за руками.
15k-rpm диск вращается со скоростью 4 миллисекунды на оборот. Т.е. даже без seek средняя дисковая транзакция будет 2 ms просто запись и 6ms с read-after-write. C random - хуже, нужно еще seek time добавить (еще 3-4ms для лучших дисков).
Итого, в лучшем из лучших случаев мы будем иметь 500 Write IOPS, а скорее чуть меньше (в тестах намеривают под 400).

Для разумного SSD из текущей линейки - Intel X25-E (быстрый, относительно дорогой но без наворотов вроде DRAM с батарейкой) - интел врет про 3300 4-килобайтных random write в секунду, причем random и stream отличаются, понятно, очень мало (для stream - 4k с хвостом получается).

У предыдушего поколения (MTRON-ов всяких) несколько хуже, но все еще много лучше чем у дисков.

Понятно, что на SLC flash не так много дисков делается, ибо дорого, но в ряде узких мест они окупаются.

Ну да, обьемы выросли на порядки, цены понизились, стали кла

Ну да, обьемы выросли на порядки, цены понизились, стали класть диски в массивы, а вот bit error rate для диска осталься тем-же самым.

В результате тот, который строет 10-ти терабайтный RAID 5 массив из 1ТБ consumer SATA дисков (предлагают-же блин) или идиот или неуч....
http://en.wikipedia.org/wiki/RAID_5#RAID_5_disk_failure_rate

А с RAM - те же микросхемы, может только ножек побольше :) С

А с RAM - те же микросхемы, может только ножек побольше :)
С дисками мы прошли GMR, перпендикулярную запись и прочие страшные слова - и это только за последние лет 10, раньше я не следил или уже забыл

А эффект близкий - рост bandwidth (мне за 20 лет сложно оценить, могу за 15 - у дисков примерно на 2 порядка, у памяти - тоже), падение latency (у памяти раз в 6 за те же 15 лет, у дисков - раза в 4 минимум).
Я же помню эти серверные диски 93-го года - 700 мегабайт, 5 дюймов, полная высота, мегабайт 6-10 в секунду на чтение в хорошую погоду, десятки миллисекунд avg seek, когда много seek-s - корпус big tower трясется как уазик на ухабах.

Ну и с ценой - пик цены 92-93 года на память - 30 доларов за мегабайт, помню как я 16Mb за $600 покупал. SCSI-диск в 92-м - доллар за мегабайт.

С RAM ситуация другая. Если с дисками ничего за последные 20

С RAM ситуация другая. Если с дисками ничего за последные 20 лет не менялось - те же блины которые крутятся, то с RAM-ом мы проходили FP-RAM, EDO, SDRAM, DDRAM, FB-RAM и вот DDR3 на подходе. Причем каждый раз новый вид памяти стоет 2-3 дороже по сравнению с предыдущим поколением.

Насчет обьема - 64GB FB-RAM (8x8GB) сейчас стоет как хорошая used car...

Интересно было бы послушать обоснование про падение стоимост

Интересно было бы послушать обоснование про падение стоимости хранилища если класть transaction log на SSD. Если ничего в мире баз данных и storage за последный месяц не случилось, то transaction log - это всегда sequential writes of data. Т.е. хренилище для TL должно быть оптимизировано для _записи_, а не для чтения.

Все учебники советуют класть TL на RAID10 или по крайней мере на RAID1. Не забываем что write time у SSD диска _ниже_ чем у SATA 7.2k диска. Поэтому при условиях держания TL на SSD производительность дисковой подсистемы (и в результате - баз данных) должно падать.

Полностью согласен с тем, что хорошо оптимизированная база должна строится под storage performance and type а не наобарот. Это я время от времени пытаютсь довести до клиентов. Не все понимают с первого раза. Подай им 10000 транзакции (IOPS) в секуду и когда они слышат во столько это обойдется....

Да, у обычных HDD seek time потихоньку падает, transfer дово

Да, у обычных HDD seek time потихоньку падает, transfer довольно быстро растет за счет увеличения плотности. Но не на порядки, конечно.

С RAM та же фигня - объемы растут быстро, bandwidth - медленно, latency - вообще почти не растет. И в отличие от дисков, прорывных технологий вовсе не видно.

Многие (например, Петя Зайцев) говорят, что если transaction

Многие (например, Петя Зайцев) говорят, что если transaction log класть на SSD, то общая стоимость дискового хранилища при тех же транзакциях в секунду - падает.

И это при сохранении старой парадигмы, а вообще под SSD нужно иначе программировать.

Чтобы прогресса в скорости было нужно что-то кардинально мен

Чтобы прогресса в скорости было нужно что-то кардинально менять в консерватории (технологии). А сегодняшные технологии ничего нового не предлагают - количество оборотов на дисках остаеться тот-же самым 7.2К, 10К, 15К. Растет только обьем данных на площади. В результате этого поднимается seek time что тоже не способствует тому чтобы скорость поднялось.

Хотя если заменить диск на SSD то можно поднять скорость _чтения_ раз в десять и больше, при этом обсолютно не важно где хрянятся данные, т.е. понятия sequential/random read осувствуют. Ну и быть готовых выложить 30 раз больше за гигабайт.

Правильная организация tired storage - буфер/кеш в памяти tier1, SSD для хранения индексов - tier2, SAN FC 15K Disk - tier3 с базами/логами и так далее с целю чтобы как можно больше запросов обслуживались как можно быстрым выдом памяти. Естественно это не дешего.

18М записей - это в тесте. В жизни будет на порядок больше.

18М записей - это в тесте. В жизни будет на порядок больше.
А 32 бита - требование, причем в него можно вписаться.

Ну это довольно очевидно - исходя из внутреннего устройства.

Ну это довольно очевидно - исходя из внутреннего устройства. Но опыт показывает, что без вышеописанных экспериментов - медленно доходит.

Там на закрытии fsync() делается - т.е. все будет на диске.

Там на закрытии fsync() делается - т.е. все будет на диске.

А время я считаю вместе с close()

Зато честно. :-) Ты на reset нажми сразу после &quot;записи&

Зато честно. :-) Ты на reset нажми сразу после "записи" в Berkeley DB и посмотри сколько записей на диске останется. :-)

Алекс, а где в Spectraview II выставляется (и выставляется л

Алекс, а где в Spectraview II выставляется (и выставляется ли вообще) под какую точку черного мы калибруем - Native Black или цветокорректированную?

А то привыкнув к Spectraview Profiler, где без ответа на этот вопрос процедуру калибровки просто не пройдешь, я получил какой-то не сильно хороший уровень черного 0.45 в Spectraview II вместо привычного 0.2-0.3 в Profiler :-)

8 mb/sec - позорно для мегадорогого SAN :)

8 mb/sec - позорно для мегадорогого SAN :)

вообще если я правильно помню, прямо в доке по BDB было сказ

вообще если я правильно помню, прямо в доке по BDB было сказано, что заливать btree оптимальнее всего предсортированными записями, оно так изначально заточено

Pages

Subscribe to comments_recent_new