Q: unlimited online backup

Вопрос дня: CrashPlan+ или Backblaze или еще что-то?

Че-то я созрел, задолбался ротейтить HDD-шки offsite

Comments

а вот вопрос. у них конечно написанно unlimited.
но я тут прикинул на пальцах, 180ГБ по 50Мбит каналу будут гнаться 8 часов.

как быть? или на самом деле данных-то меньше?

Ну у меня сейчас Crashplan (решил его попробовать) фигачит, по 50-Mbit каналу, где-то 10Mbit.
Т.е. ~4 гига в час, 100 в сутки.
Поэтому, понятно, начальный бэкап займет несколько дней или даже там недель (я собираюсь постепенно добавлять в). Ну и что?
Инкрементальный то - вот те самые несколько гигов в день изменяемых данных в лучшем случае (если не бэкапить туда бэкапы).

А быстрый restore, на случай собственно крэша, мне нужен опять же для нескольких гигов данных.

Про Crashplan в Radio-T говорили что при увеличении объема существенно падает скорость и в какой-то момент кому-то там даже не удалось завершить backup - несколько дней уже тянется закачка.

Посмотрим.
Я соблазнился их 30-day free без показа кредитки, если за эти 30 дней выльется терабайт-другой ( :) ), значит годные.

рассказывали, что человек заплатил. Вдруг они очень хитрые, и пока не заплатишь - не режут скорость, заманивают? :)

меня пока CrashPlan держит фичей backup to friend, и наличием бинарников под линукс. По идее, можно на каком-нибудь (каких-нибудь?) хостингах с приемлемой ценой места и трафика поставить "учетку друга" и лить туда.
Проверить руки так и не доходят ;(

В-принципе, оно разумно конечно, терабайтчики невыгодны.
Ну значит начну с того, что буду month-to-month им платить

А потом бац! граждане терабайтные, уплатиле ещё раз, с коэфф. 3 8=-)

Ну это всегда риск.

На самом деле я не в бешеном восторге пока, оно даже 10mbit/s туда не едет.

Ну вот у меня очередное:

I 09/14/13 08:50PM [Default] Completed backup to CrashPlan Central in 6 minutes: 422 files (10.70GB) backed up, 37.60MB encrypted and sent @ 1.1Mbps (Effective rate: 289.1Mbps)
I 09/15/13 02:48AM [Default] Completed backup to CrashPlan Central in 2 minutes: 1,363 files (43.20MB) backed up, 31MB encrypted and sent @ 6Mbps

И вот быстрее я не видел.

Ну вот да, у меня тоже 3-6Mbit/s (когда только начал было 10-15).
Сдается мне, тем у кого много - они скорость подрезают.

У меня вот вообще 1 мегабит лилось... Эффектив рейт за счёт дедупа, конечно, впечатляющий, но это же враньё :)

Несколько дней! Лохи! У меня 20 дней заняло.

Пользовался Crashplan
купил на месяц
попытался залить бэкап фоток 600gb - получилось за 3 дня
потом их софтина (под мак) глюканула и начала по новой заливать эти же файлы

спустя неделю пошло в третий раз заливать, плюнул на такую надежную систему и не продлевал план.

А на бесплатном триале - не глючило? Или бесплатный не пробовал?

Сразу купил план, бесплатным тестам не доверяю.

У меня CP+ Family. Тормозная ява и непрозрачность процесса, конечно, но в целом устраивает.

А у тебя какие, я извиняюсь, операционные системы? Винда и Линукс?

UPD. Да, и главный вопрос. Восстанавливать пробовали? Работает? А всякие спрятанные штуки, вроде истории скайповского чата?

Хе. Линуксов у меня в дому, как ты понимаешь, нету -- не из религиозных соображений, а так ;)

CP+ в рабочем режиме сейчас только на виндах, потому как серверное фрёвое бэкапится внутренними палковерёвочными средствами. При том что дополнительно например вот: http://worrbase.com/2012/03/31/Crashplan.html

восстанавливать пробовал, восстанавливается. спрятанных штук не пробовал, наверное.

Подтверждаю -- в линуксоляторе на FreeBSD работает. Без live filesystem monitoring, но, в остальном, Ok.

А, ну ещё линуксовая джава видна как ~50 отдельных процессов в ps -ax и top, это очень бесит, но увы.

У меня крэшплан. Небыстрый, но работает вроде.

Blackblaze очень медленный

Я пользуюсь крэшпланом. Наблюдения:

(1) 1.8 терабайта 20 дней бэкапилось изначально на канале в 40 мегабит (т.е. упиралось дааалеко не в канал).
(2) Всё упиралось в процессор (оно жрало 100% 1 ядра E4400, видимо, шифровалось). У кого не упирается в процессор по наблюдениям изначально бэкапит всего где-то вдвое быстрее.
(3) Нужен ~512MiB памяти на терабайт бэкапа в будущем или оно будет падать по Out Of Memory, надо править опции в конфиге, там даётся всего 256 метров
(4) На FreeBSD работает в линуксоляторе и теряет живое слежение за FS из-за неподдерживаемого сисколла. Но работает.

Да, дедуп работает явно, я "проявил" 4 гигабайта фоток -- поменялись все DNG, туда прописались параметры ACR, он сбэкапил что-то типа 100 метров по логу, а не все 4 гига.

Да, я ещё храню анлимитед-историю, но вот это пока не пробовал. Удалённые локально файлы доставать пробовал -- сработало.

> Да, дедуп работает явно, я "проявил" 4 гигабайта фоток -- поменялись все DNG, туда прописались параметры ACR, он сбэкапил что-то типа 100 метров по логу, а не все 4 гига.

то есть он достал старые DNG (закачал обратно), сравнил их с новыми (на локальном HDD), нашел разницу и вкачал ее обратно...

Нет, он явно хранит нехилую базу хэшей блоков локально. Иначе какой смысл?
Вот когда я убил эту базу, тогда он сутки восстанавливал эту базу с сервера.
Сейчас вот эта база занимает 500 мегабайт тут локально на 1.8 терабайта бэкап-данных.

А кстати, где он ее хранит? Я ее не вижу в ~/ (на винде)

В винде -- понятия не имею, не ставил его на винду (ну, кроме GUI).
А в "линуксе" -- /usr/local/crashplan/cache
У меня когда он начал каждые 5 минут падать по OOM и перезапускаться, он таки в очередное падение порушил эту базу и мне пришлось её удалять.

Я в винде, кстати, не нашел и настройки про память. Буду теперь мучаться, потому что терабайта 2-3 туда залить - в планах....

Дык настройка не в гуе а в скриптах запуска:

"C:\Program Files\CrashPlan\CrashPlanService.ini"

Virtual Machine Parameters=-Xrs -Xms15M -Xmx512M -Dsun.net.inetaddr.ttl=300 -Dnetworkaddress.cache.ttl=300 -Dsun.net.inetaddr.negative.ttl=0 -Dnetworkaddress.cache.negative.ttl=0 -Dfile.encoding=UTF-8 -DappBaseName=CrashPlan -Djava.net.preferIPv4Stack=true

Вот параметры -Xms (начальный размер хипа) и -Xmx (максимальный).

А если Xms/Xmx нету - то какие лимиты (я погуглю, но вдруг ты знаешь быстрее гугла)?

У меня x64 - и лимитов в ini не установлено.

Погуглил. То ли полгига, то ли полтора, хрен поймешь (default - 512, default/windows - 1536)

У меня тоже x64... Но версия не последняя, я на десктопе не апдейчу, так как только GUI пользуюсь...

Кстати, ты точно смотрел CrashPlanService.ini а не CrashPlanDesktop.ini? У меня в последнем тоже лимитов нет. Но бэкапит-то он всегда через сервис, даже локально.

Да, я лох, смотрел десктопный.

Ну и кэш

C:\ProgramData\CrashPlan\cache

У меня как-то не видно, чтобы оно жрало процессор. Ну и bandwidth берет ~10Mbit/s в среднем (на глазок). Ну и вообще не очень быстро.

Но и хрен с ней, как раз скорость особо не напрягает.

Ну вот у меня всё время java (один процесс, т.е. поток) жрал 100%.
Я сейчас заменил E4400 на E8400 -- посмотрю, что будет, когда что-нибудь будет бэкапится

А может Bittorent Sync?

Куда? Там же места не дают, это протокол, а не сервис. Или я что-то путаю?

да хоть если и есть куда, синхронизация - это же не бекап. От бекапа нужна история, и грамотная работа с этой самой историей, в первую очередь.

> Куда?

к родственникам в другом городе Ё-)...

Ну так можно и rsync'ом. Только я среди своих один такой псих.

PC and Mac, Ага :(

Data Protector
:^)

Data Protector + B2D
:^)

Это же софт?
А меня волнует, грубо говоря, сторадж. За полтинник в год

А как же злобные ЦРУ/КГБ, которые получат доступ ко всем твоим данным?

К этим - не жалко. А чувствительные я туда не вылью.

Я понимаю, что это косвенные признаки, но у меня вот я в CrashPlan сам ввёл 448 бит ключа, лично на аппаратном ДСЧ полученные. Конечно, может быть, он кладёт на это с прибором и поле ввода у него только для виду... Но, думаю, учитывая, что оно на Java (т.е. прекрасно декомпилируется), это быстро бы всплыло.

пользовался CrashPlan, анлимитед который. Плюнул, завершил его мучать.
При том, что у меня канал симметричный в 100мбит, бэкапилось все нереально долго. Полагаю, восстановление будет также идти несколько месяцев. Больше в дешевые облака не верю.
Тогда уж Глетчер, как метод последнего шанса.

Бэкап с рабочих компьютеров у меня сливается на NAS Synology с историей изменений файлов. Собираюсь ставить второй в другом городе (для катастрофоустойчивости).

Глетчер всё восстанавливать будет ещё дольше. Или в тысячи (!) раз дороже. У них же такой тариф там, что или ты достаёшь бесплатно 1 документ из документооборота за 25 лет или ты платишь адские деньги именно за "достать".

CrashPlan Family. Полтора года. Пару раз даже пригодился.

Вот за полтора дня вылил туда ~100Gb. А надо в 20 раз больше, если там же архив музыки и книжек держать. И как, блин, жить с такой скоростью?

Терпение. Только терпение. Через месяц бекап будет.

Так может быть комбинировать - раз в полгода относить диск в банковскую ячейку, а новое копировать в облако.

Еще можно почту России использовать - посылать на не существующий адрес во Владивосток. Через пару месяцев посылка вернется - дозаписать и еще раз послать ...

Ну наверное да, это выглядит самым разумным, в облако только то, чего нету offsite.
Но
а) обидно ж, облако то unlimited
б) требует регулярной ручной работы на тему "что же я не забэкапил"

Это, скорее, вопрос своей структуры организации данных.
Можно поделить на "текущая работа" - это в облако и непрерывно.
И "библиотека (музыка, видео, софт, сканированное... и т.п.) и разные архивы" - это оффсайт, с нечастым обновлением. У меня так сделано, вроде удобно. Под "текущую работу" просто выделен логический диск. Бэкап с него - в режиме непрерывного отслеживания изменений в файлах.

Ну ничего в этом мире не бывает unlimited.
Они или поимеют извращенно-финансово когда нужно будет скачивать обратно.
Или потеряют твои данные или просто разорятся/закроются в любой момент.

Ну если у них основной контингент бэкапит по ~100Gb (а больше - не осиливают, потому что медленно или еще почему), то длинный хвост терпеть можно. Понятно, от него убытки, но если его обрубить то репутационные убытки будут хуже. Т.е. я надеюсь на лучшее.

С другой стороны, да, собственным офф-сайтом я сам управляю, а не непонятно кто.

UPD через 5 минут: получается, что надо и того и другого, просто если свежее выливать, то свой офф-сайт можно делать несколько реже.

> Ну ничего в этом мире не бывает unlimited.

их финансирует NSA :)

> И как, блин, жить с такой скоростью?

а куда собственно торопиться-то... ведь жили же без него, с обычными бэкапами... ну будет оно месяц бекапиться себе и пусть

Оно, конечно, не для всякого бэкапа: фоточки похранить-расшарить, иначе дорого будет.

Беда в том, что начальная заливка - ровно с твоей же скоростью. Медленно.

так чем всё закончилось? залило или нет ? :)
Сам смотрю в их сторону тоже с надеждой

Льет, примерно 500kb/sec, и будет еще долго. У меня реально много.

В Crashplan-е удобно, что можно иметь несколько разных бэкапных заданий, с разным расписанием и прочим, поэтому рабочие файлы уже там, а архив - процентов на 10 отсилы.

да рабочие файлы у меня в дропбокс даже влазят :) (у меня их всего гигов 40, замечательно синхронизирует)
А вот фотоархив на 500гигов - это меня больше волнует

Ну вот на моем МГТС/GPON получается 500kb/sec (и МГТС вроде полосу не режет, торренты отдаются на все 50 мегабит, сейчас торренты естественно выключены).
2 гига в час, 500 гигов - 250 часов. Как-то так.

Надо собраться с духом и настроить (вторую) бэкапилку с файлсервера (и тогда скорость будет по барабану), но в бесплатном тесте такого не дают, это только Family Plan