Свежие комментарии

Title Comment
Ну блин, там усложнили кодинг

Ну блин, там усложнили кодинг, расширили каналы, увеличили агрегацию, да, но место в эфире оно занимает всё то же. И 5Ghz всё так же отлично экранируется, а 2.4Ghz всё так же засран. Это же фундаментальные проблемы, они усложнением модуляции и увеличением ширины спектра (в рамках того же диапазона) плохо решаются уже. Чуть-чуть решаются, более хитрая модуляция + более хитрый канальный кодер (и, главное, декодер, кодер-то не фокус) может вытащить сколько-то там децибел ещё, конечно, но это всё очень конечный ресурс.

Вот, кстати, вполне. Адаптеры

Вот, кстати, вполне. Адаптеры, которые ethernet через электросеть пропихивают, давали уверенные 150мбит (при рекламе в 1Gbit, естесственно...), сейчас, может, уже и больше, давно не слежу. Чем не вариант :)

300 - это "n". Уже давно "ac"

300 - это "n". Уже давно "ac" используется, там скорости намного веселее. И на 5Ghz, 2.4 у меня тоже так себе, хотя дом всего пять этажей.

Вместо люстры на потолок и

Вместо люстры на потолок и 60Ghz!

SSD/SATA - это уже революция

SSD/SATA - это уже революция (относительно типичных 10ms access на HDD).

И, подозреваю, во многих местах она уже случилась, только об этом не кричат, считая ключевым технологическим преимуществом.

Я именно AP на проводе и имел

Я именно AP на проводе и имел в виду, забыл просто как называется :))

Т.е. 2.4Ghz работает good

Т.е. 2.4Ghz работает good enough что бы на диване с ноута ютьюб посмотреть (если не 1080p, а попроще), но вот рассматривать его в роли замены даже гигабитной сети до десктопа я не готов совершенно, это несопоставимые скорости. Хотя формально, 300 мегабит, 2x150, да.

Я как бы из собственного

Я как бы из собственного опыта говорю.

Квартира, 78 квадратов, 3 комнаты и кухня, монолитно-пенобетонный дом (внутренние стены — монолит, внешние — пенобетонные блоки, так что вся арматура внутри, а не снаружи), 7 этаж из 10. 2.4Ghz из угла коридора (где естественней всего делать "серверную" по плванировке вартиры) с антеннами на 10dBi уверенно накрывают всю квартиру, но на каждый из трёх реально существующих каналов видно больше 10 сетей. 5Ghz с теми же антеннами (отдельно антенн на 5Ghz я, кстати, не нашёл, они есть, но стоят каждая больше, чем мой рутер, потому что во внешнем исполнении и вообще профессиональные) не добивает до кухни.
Привет.

А на 2.4Ghz рутер в отладочном режиме вообще ругается регулярно, что даже бикон отправить не может, столько конкурентов, что тишины в эфире нет достаточной.

Репитеры, очевидно, ситуацию не улучшат, потому что они только увеличат загруженность эфира. Нужны именно что точки доступа на проводе в каждое помещение. А уж если тащить везде провода, то можно сразу их в компы воткнуть :-)

В пределах одной квартиры

В пределах одной квартиры вполне нормально. А в пределах комнаты - так вообще без проблем. Избавление от кабелей, которые на виду - первая цель WiFi. Так сказать, последний метр (по аналогиии с "последней милей") :)

Революцию очень должен

Революцию очень должен толкнуть 3D XPoint. Который быстрее флэша во сколько там раз? 10? 100? Ну, обещают.

Да не, ставили сеть, если

Да не, ставили сеть, если нужно было. По 10мбит сетке в 98-м, кажется, резались в Quake шесть на шесть на квартире в Питере. В 96-м кинули с соседом по подвалу кабель, он мне интернет расшаривал.

Не было просто массовой необходимости - про NAS юзеры ешё не знали, умных телевизоров не было, интернет по модему... Бэкап помещался на CD и дублировался на второй, записанный на болванку другой фирмы и на другом резаке. Самый крутой бэкап назывался Quantum Fireball, лежащий на полочке на видном месте :)

В SSD/NVMe самое интересное - технологичность и объём (физический). Клепать микросхемы IMHO проще, чем балансировать диски. И потенциал параллельности не ограничен физическими размерами. Срок жизни со временем решится сам собой, или избыточностью, или новыми технологиями. Да и не нужно срок вытягивать до бесконечности, моральное устаревание приходит намного раньше.

Причём на пятки гигабиту уже

Причём на пятки гигабиту уже начинает наступать WiFi.
Только в сельской местности. В многоквартирниках там и близко ничего подобного нет. И откуда быть, если стены с арматурой внутри (что убивает 5+Ghz), а видно 20+ сетей разом (что делает 2.4Ghz даже не 54 мегабита, а хорошо если 10, что уж там по 300 вспоминать)?

А 20 лет назад у "конечного

А 20 лет назад у "конечного пользователя дома" скорость была 0.
А на кафедре у нас (130 сотрудников вроде) был наверное десяток компьютеров - и только три в сети.

В 2001-м году в рамблере на серверах (!) была сотка, а гигабит - только между свитчами и то не везде, а кое где агрегация была.
А процесоры уже были - гигагерц тогда.

С тех пор - на серверах 100 раз по сети, а "100 раз по процессору" наберется только если 30-ядерные Xeon которые только на выставках бывают - учесть.

Что касается SSD/NVMe - революция еще только грядет.
Сейчас нужно выкинуть все алгоритмы оптимизации общения с диском (вроде кэширования r/o данных в памяти) и заменить новыми. Пока еще не.

Не соглашусь по поводу 1000

Не соглашусь по поводу 1000 раз, всё таки 10G для конечного пользователя с десктопом - это пока очень редко. В настоящий момент правильнее будет сравнивать 10мбит и 1гбит, т.е. в 100 раз. Причём на пятки гигабиту уже начинает наступать WiFi. Такими темпами переход десктопов на проводной 10G может и не наступить :)

А с NVMe да, интересно. Раньше ж как - "мы создали SSD со скоростью 200Mb/s... а мы 250! ... а мы 400! (хор "ууууу!!!"). Т.е. постепенно так подбирались к 500. И тут выходит консьюмерский NVMe и нна сразу - "2Gb на запись, 1G на чтение". Я вот при таких раскладах следующий свой комп планирую на NVMe и вообще без HDD. Соответственно буду искать и корпус, в котором всего этого нет, потому что нафик не надо.

Не на то жалуетесь!

Не на то жалуетесь!

В 95-м году я сидел в университете за Sun SparcStation 20 с 50-мегагерцовым процессором а дома - за 486/DX50 (могу путать +-год).
А сеть была 10-мегабитная и дома (дома, впрочем, ее не было ибо было не надо, была бы - была бы десятка) и в МГУ.

Сейчас 10-гигабитная сеть и 60-мбит интернет - более доступны, чем в 1000 раз более медленные тогда (10Mbit, заметим, была shared на всех, не switched).

За это время (20 лет) CPU не стали в 1000 раз быстрее. То есть формально - может и стали, по факту - все-таки нет, потому что память не стала в 1000 раз быстрее (а все уперто в нее).

А диски стали быстрее может быть в 20 раз, даже не в 100. Поэтому получился огромный разбаланс.

Сейчас, да, SSD (NVMe) более-менее вроде бы возвращают ситуацию к балансу 20-летней давности. То есть можно возвращать "те" алгоритмы работы с диском (которые были простые "не париться").

Я к тому, что жаловаться надо, на самом деле, на диски. Затем - на память, затем - на процессоры. А сети - развиваются быстрее всего.

Ну так технологии не стоят на

Ну так технологии не стоят на месте. Процессор помощнее, новые инструкции - и начнёт справляться. Если бы скорости передачи по сети росли с такой скоростью, как процессоры, то мы бы уже давно пользовались беспроводным 10G WiFi с добитием на 10км :)

600Mb/sec мой варез не жует.

600Mb/sec мой варез не жует. Скорее вот 300-350
5fps/Sony A7R2 uncompressed - это ~400

Ну то есть можно, понятно, программу написать, но не хочется.

Как это некуда? А изображение

Как это некуда? А изображение прочесть с NAS и показать на десктопе? Его же не надо локально сохранять.

Мда, на скорости 600+ это еще

Мда, на скорости 600+ это еще и принять некуда, одиночные SSD не могуть.

Очереди поувеличивать на интерфейсе - да, полезно оказалось.

Никакого, но от отключает ATR

Никакого, но от отключает ATR. У меня так быстрее, выигрываю почти 100mb/s. Возможно, заморочки виртуального линукса...

А какой смысл в ntuple в

А какой смысл в ntuple в данном случае? Квадрупляй (2IP, 2порта) вроде одинаковый для одной сессии, все пойдет все равно в одну очередь?

У меня самба раскочегарилась

У меня самба раскочегарилась на чтение до 600 примерно, но дальше тоже не идёт.
Но для этого пришлось делать для интерфейса
ethertool -K eth2 ntuple on
ethertool -G eth2 rx 2048 tx 2048
(по умолчанию 512 было, если поставить больше 2048, то тест ATTO начинает какие-то чудеса показывать)

Клиент - Win10.

У меня консистентные

У меня консистентные результаты получались с L2ARC кэширующим при записи.

То есть я делал zfs send | zfs recv (с одного пула на другой) с разным размером записи.
И этот процесс - заполнял L2arc на все данные.

При этом l2arc_write_* - большие
l2arc_noprefetch=0 - подействовал сразу, без импорта-экспорта, на скаку (теперь я знаю что не должен был :)
l2arc_norw=0

И результаты такие (send | recv, а потом последовательные чтения tar cf /dev/null):
- чем больше recordsize
- тем меньше l2arc hits по zfs-mon (~100% для 128k и меньше, 50-70% для 1M)
- но тем больше скорость исполнения tar cf, с мегабайтным блоком получается больше 700Mb/sec

При этом таких скоростей по самбе на чтение нету. Есть ~400, независимо от l2arc

На этой фазе я опечалился, мне прислали багу в rawdigger - и я переключился на нее.

Не зная всех ньюансов мне

Не зная всех ньюансов мне сложно интерпретировать твои результаты :-). Поэтому решил провести простейший тест на определение производительности L2ARC при последовательном чтении. L2ARC до этого теста не использовал, поэтому повторил настройки из поста. Памяти 16 гигабайт, поэтому выбрал чтение двух 32 гигабайтных файлов. При первом чтении кэшируется 990MB, при втором 152MB, при третьем 15MB... :-). Нашел, что vfs.zfs.l2arc_noprefetch должен быть установлен до имрорта пула. Поменял значения vfs.zfs.l2arc_write_boost и vfs.zfs.l2arc_write_max на 268435456 (256MB). Экспортнул/импортнул пул. При первом чтении закэшировалось 2050MB, при втором 883MB, при третьем 20MB... :-).
У тебя получилось найти параметры при которых L2ARC начинает кэшировать при последовательном чтении?

aio нету, с ним медленнее (у

aio нету, с ним медленнее (у меня).

Но самба может делать readahead, это да (вроде нужно включить, не разбирался пока). И это будет влиять.

Может на это влияют

Может на это влияют "ускорялки" от самбы? aio, raw и т.п.?

Оно какое-то адаптивное.

Оно какое-то адаптивное.
То есть "читаю один и тот же набор данных" (70G файлов на одном dataset):
- по сети (скорость ограничивает Samba?) - много чтений с HDD
- локально, на сервере, tar cf /dev/null . - (практически) все читается из кэша

Нахожусь в недоумении.

Кэширование на ssd патерна

Кэширование на ssd патерна "последовательный доступ" довольно проблемная задача. Многие системы кэширования справляются с ней не очень (вплоть до ухудшения производительности). Хотя L2ARC использует самый простой(лёгкий) метод кэширования на ssd, я всё же предполагаю, что у него тоже всё не очень хорошо. Косвенно это подтверждают настройки по умолчанию, пытающие исключить кэширование последовательного доступа. Хотя это можно проверить :-).

Ну вот recordsize сильно

Ну вот recordsize сильно влияет.

Сейчас я методику стабилизировал вроде - к вечеру расскажу.

В тред призывается Слава

В тред призывается Слава Ольховченков!

Pages

Subscribe to comments_recent_new