Свежие комментарии

Title Comment
Кажется, текст в мануале

Кажется, текст в мануале совершенно однозначный — снимаем раз, потом применяем цифровую магию.
Ну и да, так как на CCD вычитывание деструктивно, то если shutter был released один раз, то тут можно понять, что происходит некоторый обман.

> А вот между прочим похоже

> А вот между прочим похоже что помогло.

Та это вам только кажится, говорит М$ !

https://blogs.technet.microsoft.com/askds/2009/06/26/debunking-the-vista...

А, ну конечно, да.

А, ну конечно, да.

Был (бывал) перегрев. X540, если перегревается, то выключается и пишет гадости в syslog (и вернуть в чувство можно только перезагрузкой, во всяком случае она сама так пишет).

Это вылечилось
а)установкой кулеров, дующих на тамошние радиаторы
б) в новом серверном ящике, да и в новом workstation ящике - гораздо более мягкий тепловой режим в районе материнки, чем был в старых, спасибо отдельному отсеку с материнкой в сервере и водянке в workstation (ну и корпус у WS больше по объему раза в три чем старый).

То есть это был не какой-то тайный сбой, а именно самовыключение сетевой карты с понятной диагностикой.

Такое было, да (но это не

Такое было, да (но это не сброс скорости 10-1, а именно отвал сети), насколько я помню - это было на Myricom.

Во всяком случае, direct connect интелов - до обзаведения свитчом - таких проблем давно не доставлял.

Значит спутал. Помнится мне,

Значит спутал. Помнится мне, кто-то описывал про пропадание прямого соединения 10G и автоматический переход трафика на параллельную сеть 1G при выполнении ночного бекапа. Не могу вспомнить где это было, но как вариант, карты тоже могут затыкаться. Лет десять назад у меня на ESXi горели интеловские 1G карты. Штук пять сгорело от предположительно нагрузки/перегрева. Причём вели они себя после этого очень интересно. При старте системы они работали и через некоторое время затыкались. К чипу карты прикоснуться было нельзя. Выключив/включив систему они опять работали.

Не, у меня 1G переходил в

Не, у меня 1G переходил в 100Mbit, по причине плохого кабеля.

Я пока наблюдаю асусий свитч, не могу сказать что прямо бесит он

Пока вина свича не доказана - это только одна из возможных версий и спешить что то менять нет смысла. Кстати, а не ты ли раньше писал про пропадание линка 10G и переход трафика на 1G? Если да, то может там участвовала та же сетевая карта?

Нету.

Нету.
Switch (именно чип, точнее IP block) умеет и фильтрацию и хренацию и прочие egres-ingres ACL - без всех этих наворотов оно нафиг никому не сдалось, т.е. - не продашь.
Если тебе рассказывают про такое в 21 веке - знай, производитель такого чудо-железа жлоб, который или не смог купить программиста разбирающегося в vendor sdk, либо сильно сэкономил. Впрочем, что ты и наблюдаешь на собственном примере с своим asus'ом.
Да и иметь свитч, с которого нельзя снять счетчики ошибок - придумывать себе затейливый геморрой.

JFYI

JFYI
Зато для "дома" IB нынче есть совсем за смешные деньги. Вот текущее на ебее про свитчи:
IS5022 - $70, это 8 портов QDR, QSFP+
SX6005 - $90, это 12 портов FDR, QSFP+
орут, правда, как потерпевшие (громко!), надо кулеры менять. Но за такие деньги...

PS: почему-то мне кажется, что 10G по меди - пока ещё или дорого, или сырое.

не-а. ты в это уже играл, это

не-а. ты в это уже играл, это IB и FC (уже почти сошёл с рынка)

А вот просто десятка портов

А вот просто десятка портов медных 1/10G и тупо L2 без фильтрации-хренации - нету?

Вопрос не в том, гиг там, два

Вопрос не в том, гиг там, два-и-пять или десять. Вопрос в mtu, который с одной стороны - свойство сетевой карты, а с другой - настройка сетевого стека, разом влияющая на всё ходящее через этот стек и карту.
А стек заточен под mtu 1500 и 99% софта и программистов - веруют в буфера по 1500 байт и гарантированную доставку с жесткой очередностью.

А про линки и позор - делай скидку, там "одмины сильные мышкой", а микротик хоть и затачивается под таких, но имеет кучу возможностей отстрелить себе ноги. Иногда на ровном месте. Хорошо знающим *nix - прямо противопоказан (кроме как повесить wifi точку в будку для собак).

Есть еще edgeswitch-16-xg (ES-16-XG) брат близнец которого US-16-XG - но ценник опять в 40 штук. У этих огораживание правда пошло еще дальше, для US-16-XG контроллер надо на жабе ставить, и по SNMP нефига обычно не видно, но хоть честно пишут - Total Non‑Blocking Throughput: 160 Gbps, Switching Capacity: 320 Gbps.
Но в нем стоит bcm5341x SoC уже с поддержкой 1G/2.5G/5G/10G скоростей. Жаль только, что убиковскую прошивку оттудова выкинуть нельзя.

Линки почитал, это какой-то

Линки почитал, это какой-то позор. 400Mbit - это вообще ниочем же

Ну вот проблема в том, что у

Ну вот проблема в том, что у меня больше одного линка 10G, а в основном хранилище - только два интерфейса (и оба 10G)
И будет еще больше, вот облизываюсь на 10G внешний для мака.

Т.е. я могу один линк кинуть, хранилище - WS, соплей. Но все остальное - будет ходить по второму 10G-интерфейсу хранилища.
Можно, конечно, завести две отдельные сети дома, физически отдельные, 10 и 1, но блин 21-й век на дворе.

Сходи сюда https://forum.nag

Сходи сюда https://forum.nag.ru/index.php?/topic/144541-crs-326-perepolnenie-bufera... и почитай. Вот тут тоже https://forum.mikrotik.com/viewtopic.php?t=127323 интересные вопросы без ответов.

Вангую те-же системные проблемы из-за применяемых самых дешевых чипов без большого количества буферной памяти (да и вообще, во всех их железе присутствует "экономия" на спичках и специфические хардварные хаки) - может оказаться как у rb260gs - один порт переключился на 100Mbps - и ага, полетели коммутируемые пакеты за шину.
А у тебя уже конфигурация - mix 1/10G. Я бы сделал отдельный хвост от компа до хранилища с 10G и mtu 9k, а всё остальное оставил на 1G/mtu 1.5k. И карты проще покупать и всяких граблей из-за jumbo/mtu и кривых/ломанных pmtud любителями резать icmp - меньше.

Я пока наблюдаю асусий свитч,

Я пока наблюдаю асусий свитч, не могу сказать что прямо бесит он, по ряду вторичных причин менять топологию сети не хочется.

Наблюдая за работой 10Gbit на

Наблюдая за работой 10Gbit на core 2 duo, мне на данный момент кажется, что всё упирается в скорость обработки пакетов и она слабо зависит от длины самого пакета. Загрузку 2 ядер видел максимум на 75%. При 4072 пропускная способность было чуть ниже, чем на 9000. Провал начинался где-то с 2500. Всё это происходило на прямом соединении. Решил не выбрасывать своего старичка (hp ML110G4) и приспособить его для бэкапа по требованию. Уже заказал за 9$ чуть более быстрый xeon, посмотрим удастся ли полностью утилизировать на нём 10Gbit.
Свичи и большой MTU это отдельная история и не только в плане стабильности. На нормальном оборудовании, если на маршруте следования пакета будет несколько свичей, то по сравнению с малыми пакетами возрастает latency и в итоге можно проиграть ещё и в пропускной способности. Поэтому практикую 9000 на прямых соединениях - где хочется выжать всё по максимуму, а на всём остальном 1500.

Это оно! Спасибо!

Это оно! Спасибо!

Я сильно подозреваю что asic

Я сильно подозреваю что asic там унутре ровно такой-же как в CRS317-1G-16S+
40G (2*10 на приём + 2*10 на передачу) я через эту железку получал. Не в том смысле что больше не получалось, а втом что мне больше не надо.

И еще вдогонку: в моем Far

И еще вдогонку: в моем Far уже была включена UseSystemCopy. Если выключить, то ~120Mb/sec с файлсервера, а не 970+

Ну я подумал, что мне

Ну я подумал, что мне откатиться то обратно - 10 минут если вдруг че.

MTU 9000 - гигабайт/сек
MTU 4072 - полгигабайта/сек

Через асусий свитч.

А вот между прочим, после

А вот между прочим, после совета который там внизу - у Far стало 972Mb/sec по его градуснику. Это медленнее Explorer, но на единицы процентов.

А вот между прочим похоже что

А вот между прочим похоже что помогло.
Ну то есть я после апгрейда сервера (на FreeBSD12) не смотрел как там Far копирует. Раньше - было сильно медленнее, чем Explorer.
Выключил эту штуку и стало вот так:

Ориентировочно

Установка и удаление программ,
... И компоненты Виндоус,
Найти галочку внизу списка.

Не, я так не могу :-). На

Не, я так не могу :-). На основных рабочих машинах ещё не скоро обновлюсь. Но обрадовали с уменьшением сетевых издержек. Для медленных машин самое то.

Не выдержал, обновил боевой

Не выдержал, обновил боевой ящик. 980MB/sec при копировании эксплорером с самбы. Было 800. Это, понятно, файл из одной большой дырки, диск не участвует.

Отлично!

А можно пальцем показать?

А можно пальцем показать?

Попробуйте отключить

Попробуйте отключить
Удалённое разностное сжатие
в компонентах Windows.

Интересно, да, спасибо.

Интересно, да, спасибо.
Наверное обновлюсь тоже, начну с чего-нибудь ненужного (холодный ящик).

Обнаружилось, что 12.0 <->11

Обнаружилось, что 12.0 <->11.1 резко добавляет производительности в связке дисковая подсистема-сеть по сравнению с 11.1<->11.1, если версию менять на медленной машине. У меня наблюдается стабильный прирост 15-16% для одиночного hdd отданного по iscsi и 42% для страйпа из двух hdd отданных по iscsi на 10Gbit/s. С iperf3 похожая картина. Проверил несколько раз. Наверно буду не спеша переходить. Неожиданно :-).

Pages

Subscribe to comments_recent_new