Свежие комментарии

Title Comment
Как-то это не айс. Уже второй

Как-то это не айс. Уже второй раз запускаю, и все никак дальше не прохожу

Полузагрузился. Увидел яблоко

Полузагрузился. Увидел яблоко на светло-сером фоне. Теперь втжу темно-серый фон ивращающийся круг вместо курсора. На этом все

За мануал огро-о-омное

За мануал огро-о-омное спасибо!))

Скажите, пожалуйста, а как запустить-то эту машину после установки? Пишет "System not found" и все тут. Все мое счастье закончилось на том, что я выключил виртуалку после появления окошка о необходимости перезагрузки

Очень зависит от программы,

Очень зависит от программы, как вы понимаете.

AMD - векторный (4-компонентные векторы), NVidia - cкалярный. Если получится векторность задействовать (без ветвлений и простоев), то AMD будет заметно быстрее. Кроме того, для настоящей эффективности для AMD все еще надо использовать тамошний ассемблер (CAL/IL), а OpenCL наивысшей эффективности не дает.

Много-чиповость (5970 и так далее) для брутфорса не помеха, как я понимаю, ну поделите задачу на две.

NVIDIA vs AMD

Вопрос такой... есть к примеру Nvidia GTX580 с 512PS (aka CUDA cores) и AMD 5780 c 1600PS (а ещё есть 5970 с 3200PS). Так вот... в некоторых тестах люди пишут, что арифметика сильнее у AMD. Это так? Просто я думаю, что лучше для брутфорса хешей.

Да вот говорят MS-овский

Да вот говорят MS-овский iscsi умеет Multipath. Я пока не пробовал.

А чем хорош... скорее всего ничем не хорош, samba удобнее и все такое. Но интересно попробовать.

Ну, вообще L2TP работает

Ну, вообще L2TP работает поверх TCP/UDP -- должен. Кстати, опция эта в винде означает, что можно использовать full MTU мне вот подсказывают...

Нет, около года назад я свернул всю FIDO'шность, когда меня погнали с очередной телефонной линиии. В IP-only ноде не вижу смысла ([jтя несколько последних лет не было телефонных звонков вообще, но это ведь не важно, правда?).

Хм. Перегрузил сервер,

Хм.
Перегрузил сервер, выключив весь тюнинг zfs и vmem, убрал все посторонние программы и задачи. Итог - скорость записи и чтения увеличилась, но всё равно не дотягивает до UFS: запись стала порядка 30 Мбайт/сек, чтение порядка 70 Мбайт/сек.
Интересно, что при записи диск стал загружен на 100%, раз в ~4-5 секунд busy (и скорость) сбрасывается практически до нуля и одновременно подскакивает system load до 17-20%.


last pid: 3569; load averages: 0.01, 0.24, 0.18 up 0+00:06:12 00:16:59
244 processes: 3 running, 222 sleeping, 19 waiting
CPU 0: 0.0% user, 0.0% nice, 6.0% system, 1.1% interrupt, 92.9% idle
CPU 1: 0.0% user, 0.0% nice, 11.3% system, 0.4% interrupt, 88.3% idle
Mem: 48M Active, 3620K Inact, 543M Wired, 272K Cache, 1348M Free
Swap:

PID USERNAME PRI NICE SIZE RES STATE C TIME CPU COMMAND
10 root 171 ki31 0K 32K CPU0 0 5:58 100.00% {idle: cpu0}
10 root 171 ki31 0K 32K RUN 1 5:59 97.75% {idle: cpu1}
3557 root 47 0 14020K 4996K tx->tx 0 0:01 4.05% dd if=/dev/zero of=/mnt/benchmark/zero.4G bs=4M count=1000
0 root -16 0 0K 2128K - 0 0:00 0.98% {zio_write_issue}

Это при какой технологии

Это при какой технологии bonding'a?

Кстати, чем так хорош iSCSI в реальной жизни?

1. Вроде VMWare после

1. Вроде VMWare после снапшота создаёт новые файлы дисков, в которые пишет только delta (думаю так далжны делать и другие VM)
2. Также можно делить диски (VMWare может делить по 2gb)

top -aSCHIP в момент

top -aSCHIP в момент записи

last pid: 6953; load averages: 0.15, 0.26, 0.20 up 5+04:28:56 00:07:44
300 processes: 3 running, 276 sleeping, 2 stopped, 19 waiting
CPU 0: 0.0% user, 0.0% nice, 2.3% system, 0.0% interrupt, 97.7% idle
CPU 1: 0.0% user, 0.0% nice, 1.5% system, 0.0% interrupt, 98.5% idle
Mem: 125M Active, 1136M Inact, 557M Wired, 16M Cache, 210M Buf, 108M Free
Swap:

PID USERNAME PRI NICE SIZE RES STATE C TIME CPU COMMAND
10 root 171 ki31 0K 32K RUN 1 116.7H 94.38% {idle: cpu1}
10 root 171 ki31 0K 32K CPU0 0 115.6H 94.09% {idle: cpu0}
5565 root 45 0 14020K 5036K tx->tx 1 0:04 1.56% dd if=/dev/zero of=/mnt/benchmark/zero.4G bs=4M count=1000

Вообще - интересно. Две

Вообще - интересно.
Две длинных записи (по 10gb при 2-гиговом arc_max) дали 90Mb/sec в каждом из потоков, сумма сохранилась.
Т.е. по двум интерфейсам вполне можно ходить к двум самбам и даже throughput будет не стыдный.

Но сначала - iscsi

Порядка 5-10%     2 users  

Порядка 5-10%

2 users Load 0,12 0,16 0,16 8 ноя 00:00

Mem:KB REAL VIRTUAL VN PAGER SWAP PAGER
Tot Share Tot Share Free in out in out
Act 77448 7448 901288 11876 96980 count
All 278568 10728 1074738k 38128 pages
Proc: Interrupts
r p d s w Csw Trp Sys Int Sof Flt cow 4406 total
92 4589 5 482 404 380 zfod uart0 irq4
ozfod 159 em0 uhci0
5,2%Sys 0,4%Intr 0,0%User 0,0%Nice 94,4%Idle %ozfod uhci2 ehci
| | | | | | | | | | | daefr uhci3 ehci
=== prcfr 2001 cpu0: time
dtbuf 4019 totfr hdac0 257
Namei Name-cache Dir-cache 100000 desvn react 245 ahci0 259
Calls hits % hits % 34469 numvn pdwak 2001 cpu1: time
24991 frevn pdpgs
intrn
Disks ada0 ada1 ada2 ada3 ada4 ada5 pass0 567264 wire
KB/t 124 0,00 0,00 128 0,00 83,88 0,00 131628 act
tps 31 0 0 32 0 181 0 1192664 inact
MB/s 3,75 0,00 0,00 3,98 0,00 14,84 0,00 16780 cache
%busy 5 0 0 4 0 9 0 80200 free

ada5 - как раз тестируемый диск в момент тестирования на запись (тест 2.0).

Или в виде вывода "time" после теста (запись - чтение пятикратно):

4194304000 bytes transferred in 198.051275 secs (21177869 bytes/sec)
198,50 real 0,00 user 6,20 sys
--
4194304000 bytes transferred in 74.119052 secs (56588743 bytes/sec)
74,12 real 3,16 user 36,41 sys
--
4194304000 bytes transferred in 192.018093 secs (21843275 bytes/sec)
192,44 real 0,00 user 5,84 sys
--
4194304000 bytes transferred in 69.386375 secs (60448524 bytes/sec)
69,39 real 2,90 user 35,17 sys
--
4194304000 bytes transferred in 172.790038 secs (24273992 bytes/sec)
175,21 real 0,00 user 5,67 sys
--
4194304000 bytes transferred in 69.845113 secs (60051503 bytes/sec)
69,84 real 3,26 user 34,76 sys
--
4194304000 bytes transferred in 164.499585 secs (25497353 bytes/sec)
166,38 real 0,00 user 5,65 sys
--
4194304000 bytes transferred in 68.432740 secs (61290897 bytes/sec)
68,44 real 3,15 user 34,71 sys
--
4194304000 bytes transferred in 166.231105 secs (25231764 bytes/sec)
166,50 real 0,00 user 5,66 sys
--
4194304000 bytes transferred in 68.704074 secs (61048840 bytes/sec)
68,70 real 2,79 user 35,00 sys

system time то какой? Я свои

system time то какой?

Я свои эксперименты начал, увидев на system 50% ровно. И хотя видал с тех пор и выше, продолжаю думать что упирание в процессор/память или что-то еще из этой области - вполне возможно.

С C2D на 3+ - упираюсь явно в диски, и по iostat это вижу и по systat.

Памяти - 8 гигов, arc_max-ом рулил в диапазоне 2-5 гигов, но такой уж большой разницы не увидел, у меня или working set совсем маленький (вроде buildworld) или уже много-много гигабайтов, промежуток редко бывает.

>Я не понимаю вот чего - выше

>Я не понимаю вот чего - выше вы пишете, что скорость чтения - 80Mb/sec, а в тестах получается ~55?

Где я это писал? Вы не спутали с вот этим?

1. Использование GPT с выровненными разделами и GNOP с любым размером блока ведёт к увеличению скорости записи на 12%

Так это для UFS имелось в виду, посмотрите сами - 103 против 118 Мбайт/сек.

>C gnop я не стал связываться, не понимаю как с него будет грузиться.
Не задумывался об этом. :)

>Не может у вас такого быть, что упираетесь вы в процессор?
После вашего тестирования задумался об этом, но визуальных оснований так полагать нет: LA 0.5, "top -aSHP" и "systat -v 1" не показывают никаких больших нагрузок.
Удивительно, что по systat диск находится в состоянии busy всего на 20-30%. Не понимаю просто, что происходит.
Попробую завтра воткнуть Core2Quad и проверить.

Можно извратиться и поставить

Можно извратиться и поставить в виртуальную машину freebsd. Вот только я не знаю какая у них скорость обмена с хостом (по-идее большая, но вот что на практике).

UPD: Нечто похожее: http://www.dslreports.com/forum/r21725250-Singlelink-MLPPP-on-Windows-wi...

Ну сетевух у меня на десктопе

Ну сетевух у меня на десктопе стало уже три (ввинтил туда ненужный intel PRO/1000), т.е. могу лить на сервер и три потока по гигабиту (там портов для этого можно расчистить). Правда он столько не прожует.

Но нет, если один поток в 100-110M - то уже небольшое дополнительное шевеление дисками (вроде buildworld в один поток) уже все сильно портит.

Т.е. я буду развлекаться с iscsi, меня для бэкапов это не устроит, понятное дело, а для других задач - вполне, там вроде можно мультилинк.

А PPTP/L2TP кстати, умеют

А PPTP/L2TP кстати, умеют пакетироваться в jumbo-frame'ы, а не только в стандартные 1500?

Offtopic. Удивительно всё же, до какой степени тесен мир и интернет в частности. :) Привет, Лев, ещё раз. 2:5030/661 ещё жива? ;)

А, да, судя по тому что я

А, да, судя по тому что я вижу - в последних билдах акрониса это самое "едет весь backup set" починили, едет только свежий.

Тогда не знаю :( >Притом,

Тогда не знаю :(

>Притом, если я сделаю несколько потоков, то я ничего не ускорю, а только хуже сделаю - медленные SATA-диски линейно пишут неплохо, а рандомно - ужасно.
Несколько это два потока (две сетевухи), полагаю. В таком случае (раз уж скидываться тем более это будет на RAID/ZFS), диски вполне должны выжить. Особенно с ada-драйвером (мы же о FreeBSD говорим?) винтов, поддерживающим NCQ.

Да не будет раз в сто. Самый

Да не будет раз в сто.

Самый большой бэкап у тома с виртуальными машинами. А там чуть машиной попользовался и никакой инкрементальности.... Понятно что не всеми машинами я пользуюсь каждый день, но довольно близко к тому.

Да и кстати, если задача

Да и кстати, если задача ускорить только samba с конкретной машиной, можно извратится следующим образом:

На win машине запустить VM с чем-нибудь консольным и лёгким.
Эта VM будет эмулировать samba сервер путём небольшого скрипта.
На стороне NAS'а тоже будет такой скрипт, но он уже будет эмулировать клиента.
Эти скрипты должны уметь общаться по нескольким портам/ip - multilink (нужно разделять на пакеты, и нумеровать их). Соответственно эти скрипты и будут гнать весь трафик по сети.
Вот только надо посмотреть сколько портов нужно для win smb чтобы передать файлы, может придётся скрывать оригинальный samba и т.п.

Тот ещё костыль, но по-идее пишется не так долго и можно оптимизировать конкретно под samba.

+1

Купил уже два R528, только DA03, прекрасный выбор за свои деньги.

Я одно время делал multiboot

Я одно время делал multiboot с Frenzy в первом разделе, туда входит заметно больше полезностей.

Меня интересует, грубо

Меня интересует, грубо говоря, бэкап ускорить, то есть строго один поток

Политика

Я всё равно не пойму, почему нельзя делать обычный(не dual destination) incremental в локальное хранилище, а потом копировать новые файлы скриптом из локального в сетевое хранилище? Ускорение будет раз в сто.

PS:Задания Acronis'а вроде можно и из командной строки запускать

Ну, если уж вписываться в

Ну, если уж вписываться в холивар, то не могу не заметить, что а) MySQL под Linux'ом всё же живёт быстрее, чем под FreeBSD и б) несмотря на количество NAT'ов во FreeBSD, линуксовый всё равно лучше на больших обьёмах и количествах сессий (гигабит в лёгкую).
Хоть я линукс тоже очень-очень не люблю. Раздолбайская она какая-то :)

Я вот совершенно не слежу за

Я вот совершенно не слежу за темой, поэтому спрошу.

Ключевые разработчики получали зарплату в Sun или были сторонними?

А толку то (для моей

А толку то (для моей задачи)
, although a single connection will not span multiple slaves.

Меня интересует, грубо говоря, бэкап ускорить, то есть строго один поток.

Притом, если я сделаю несколько потоков, то я ничего не ускорю, а только хуже сделаю - медленные SATA-диски линейно пишут неплохо, а рандомно - ужасно.

Ну-ну

Напомните, на какой версии OpenSolaris остановилась в развитии? Куда Oracle послали разработчики, полагаю, напоминать не надо?

А, знакомая проблема. Сам

А, знакомая проблема. Сам озадачивался, но так и не доделал пока.
Если смотреть теорию, то да, LACP в чистом виде не умеет такого.
К счастью, чисто LACP уже пожалуй давно никто не делает. Как минимум Dlink и Mikrotik умеют распределять на основе src/dst портов.
Скажем, мой "роутерный" Mikrotik (рекомендую, кстати), умеет следующие режимы Bonding'a:

Selects the transmit hash policy to use for slave selection in balance-xor and 802.3ad modes
...
layer-3-and-4 - This policy uses upper layer protocol information, when available, to generate the hash. This allows for traffic to a particular network peer to span multiple slaves, although a single connection will not span multiple slaves. For fragmented TCP or UDP packets and all other IP protocol traffic, the source and destination port information is omitted. For non-IP traffic, the formula is the same as for the layer2 transmit hash policy. This algorithm is not fully 802.3ad compliant.

Pages

Subscribe to comments_recent_new