Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Я хочу получать рассылки с лучшими постами за неделю
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
Создавая аккаунт, я соглашаюсь с правилами Пикабу и даю согласие на обработку персональных данных.
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр
Игра «История одной фермы» - увлекательное и бросающее вызов вашим серым клеточкам приключение, от которого невозможно оторваться!

История одной фермы - маджонг

Маджонг, Казуальные, Приключения

Играть

Топ прошлой недели

  • AlexKud AlexKud 38 постов
  • SergeyKorsun SergeyKorsun 12 постов
  • SupportHuaport SupportHuaport 5 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая кнопку «Подписаться на рассылку», я соглашаюсь с Правилами Пикабу и даю согласие на обработку персональных данных.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня

Резервное копирование

С этим тегом используют

IT Windows Linux Компьютер IT юмор Сервер Данные Все
289 постов сначала свежее
36
imctobitch
imctobitch
Норм автор
Серия I'm CTO, bitch
7 месяцев назад

Настоящий аналитик⁠⁠

Настоящий аналитик I`m CTO bitch, IT юмор, Юмор, Разработка, Найм, Аналитика, База данных, Данные, Память, Аналитик, Анализ данных, Восстановление данных, Резервное копирование, Вакансии, Рехаб, Скриншот

🤬👉️ Телеграм-канал

[моё] I`m CTO bitch IT юмор Юмор Разработка Найм Аналитика База данных Данные Память Аналитик Анализ данных Восстановление данных Резервное копирование Вакансии Рехаб Скриншот
3
paranoikussr
paranoikussr
7 месяцев назад
Сообщество фантастов

Резервная копия⁠⁠

В генеральной ассамблеи есть резервная копия человечества, а также других входящих в Всеобщую Ассоциацию существ.

Она одержит регулярно обновляемые цифровые копии нескольких миллиардов человек, что заметно меньше общего числа людей. Так что туда попадают только «выдающиеся».

Кроме того там содержится в сверх сжатом виде множество ключевых произведений искусства и других ключевых данных.

Так что если по каким то причинам человечество вдруг исчезнет, то оно будет восстановлено.

Как ни странно там есть Джана Ро. Правда вовсе не потому, что признана ВА достойной. Просто для некоторых мужчин из этого списка достойных, она была важна.

Вообще эта данные хранятся на особых носителях работающих на гиперматерии. Уничтожит которые довольно сложно, к тому же хранятся они много где. Так что если Всеобщая Ассоциация не будет полностью уничтожена, большая часть видов входящих в нее будет восстановлено после любой катастрофы.

https://vk.com/club106216977

[моё] Лор вселенной Цивилизация ВКонтакте (ссылка) Инопланетяне Резервное копирование Текст
0
4
findr
7 месяцев назад

Как владельцам IPhone не потерять свои данные⁠⁠

Уже не секрет, что сейчас наши данные принадлежат не нам. Компании могут полностью закрыть доступ к своим сервисам в любой момент и и по любой причине.

Пошаговая инструкция, как в пару кликов автоматически скачать ВСЕ фото, заметки, контакты и файлы с серверов Apple:

1.Переходим на официальный сайт для запроса данных, вводим логин пароль от Apple ID

2.Нажимаем запросить данные

Как владельцам IPhone не потерять свои данные iPhone, Apple, Персональные данные, Резервное копирование, Санкции

3.Отмечаем что именно хотим скачать

Как владельцам IPhone не потерять свои данные iPhone, Apple, Персональные данные, Резервное копирование, Санкции

Какие данные можно скачать

4.Через 5-7 дней отрываем почту (на iCloud), открываем письмо и сохраняем данные по ссылке

Хранить всё желательно на жёстком диске, не в облаке. Теперь можно спать спокойно и быть уверенным, что важные файлы останутся с нами, даже если айфон завтра превратится в кирпич.

Показать полностью 1
iPhone Apple Персональные данные Резервное копирование Санкции
3
6
Аноним
Аноним
7 месяцев назад

Ответ на пост «Интернету отшибло память: что происходит с Archive.org и Google Cache?»⁠⁠1

Интернет хорошо помнит только хайп. Сегодня - самое подходящее время задуматься о хранении критических данных.

  • перенести данные с флешек, карт памяти, старых болванок на жесткие диски

  • распечатать фотки, как минимум с основными семейными событиями

  • имеющиеся фотографии - отсканировать, VHS - оцифровать

  • весь важный контент - записать на DVD/BD и магнитные жесткие диски

  • все архивы - продублировать хотя бы раз на разных физические носители

  • взять за правило периодически делать бэкап текущих данных

  • часть дубликатов отвозить родственникам/друзьям/на дачу с некоторой периодичностью

  • в чужие облака загружать дубликат чувствительной инфорамции - хорошая идея, но перед отправкой информацию нужно шифровать (чем-то вроде VeraCrypt).

IT Архив Текст Хранение данных Резервное копирование Ответ на пост
3
8
AlexeyPerfilev
AlexeyPerfilev
8 месяцев назад
Серия Очумительные истории

Как одна мама с младенцем спасла студию Pixar от банкротства, или почему удаленка - это не зло⁠⁠

Привет, Пикабу! Сегодня расскажу вам АБСОЛЮТНО ОФИГЕННУЮ историю о том, как один тупой баг, один младенец и одна заботливая мама случайно спасли "Историю игрушек 2" и целую студию Pixar!

Спойлер: из-за этой истории все современные мультики теперь делают с тройным бэкапом. А началось всё с полного п...

День, когда Базз Лайтер почти умер

Представьте ситуацию: январь 1998 года, офис Pixar, разработчик потягивает свой утренний кофе и случайно вводит команду rm * в корневой директории проекта.

"Подумаешь, команда удаления, сейчас восстановим из бэкапа" - подумали наивные админы.

НАИВНЫЕ АДМИНЫ, КАРЛ! 😱

Выяснилось, что:

  1. 90% файлов мультика удалено

  2. Бэкапы не работали месяц

  3. Стоимость потерянной работы - $100.000.000

  4. Джобс уже точит топор для увольнений

Знаете, что самое смешное? Систему бэкапов настраивали лучшие специалисты Кремниевой долины. А спасла студию молодая мама, сидевшая в декрете!

Как удаленка спасла Pixar (и при чем тут младенец)

Гейлин Сасмен, технический директор Pixar, недавно родила. И (о ужас для современных эйчаров!) работала на удаленке с домашнего компьютера. В 1998 году это считалось моветоном и страшным злом.

Но именно это "зло" спасло фильм!

На её домашнем компьютере оказалась копия проекта. Двухнедельной давности. Рабочая. Единственная во всем мире копия "Истории игрушек 2"!

Спасение рядового Вуди

Дальше началась операция по спасению как из боевика:

  1. За компьютером примчались на спецтранспорте

  2. Упаковали в антиударный кейс как бомбу

  3. Везли со скоростью 5 км/ч, чтобы не повредить жесткий диск

  4. Молились всем богам анимации

Спойлер: получилось! Студия потеряла всего две недели работы вместо года.

Мораль истории

  1. Удаленка - это не зло, а иногда единственное спасение

  2. Регулярно делайте бэкапы, люди! РЕГУЛЯРНО, КАРЛ!

  3. Материнство и карьера совместимы

  4. Всегда найдется программист, который случайно снесет продакшен

P.S.

А вы знали, что из-за этого случая Pixar потратила миллионы на новую систему бэкапов? Теперь все их проекты хранятся в трех копиях, на разных континентах!

P.P.S.

Да-да, я знаю, что сейчас такое невозможно. Гит, облака и все такое. Но признайтесь, кто хоть раз терял важные файлы без бэкапа?

Делитесь в комментариях своими историями файловых потерь! У меня есть подозрение, что некоторые истории переплюнут даже эту...

Показать полностью
Pixar IT Удаленная работа Программист Резервное копирование Fail Текст
8
33
neverlene
neverlene
9 месяцев назад
Лига Сисадминов

Резервное копирование в Linux: 6 инструментов и стратегия 3-2-1⁠⁠

Всем привет, буду рада если пригодится — в этой статье постоянный автор ispmanager Алексей Крячко собрал 6 инструментов полного резервного копирования Linux.

А подписчики на Хабре дополнили список — он тоже в посте. Ну и немного теории =)

Чек-лист резервного копирования здорового человека

Полнота. Бэкапы должны включать все критически важные компоненты проекта: базы данных, файлы сайта, конфигурационные файлы и мультимедийный контент.

Регулярность — чтобы минимизировать потери данных. Частота создания бэкапов зависит от динамики изменений на сайте. Как правило — варьируется от ежедневного до еженедельного.

Надежное хранение. Резервные копии не хранят на основных серверах. Желательно использовать облачные хранилища или отдельные физические носители.

Шифрование. Данные должны быть зашифрованы — это защита конфиденциальных данных от несанкционированного доступа. Критически важно! Обязательно заучиваем пароль шифрования. Проверьте — все хорошо только, если вас разбудили ночью и вы сразу и правильно его вспомнили.

Автоматизация. Автоматизация процессов снижает риск человеческой ошибки.

Тестирование восстановления— чтобы убедиться в работоспособности бэкапов.

Версионность. Хранение нескольких версий бэкапов полезно, если пригодится восстановление данных на определенный момент времени.

Прежде чем рассказывать об инструментах резервного копирования, расскажу о базовой, но чрезвычайно эффективной стратегии — основе любого плана защиты данных. Это концепция 3-2-1.

Концепция 3-2-1 

Золотой стандарт резервного копирования — концепция 3–2–1. Она называется так из‑за ее структуры. Если следовать концепции 3–2–1, потерять данные почти невозможно.

Разберем ее последовательно.

3 копии данных. Основная копия — это ваша рабочая система, которая используется ежедневно.

Две дополнительные резервные копии позволяют восстановить систему в случае повреждения или потери основной копии.

Что дает:

✓ Устойчивость к сбоям и потерям данных.

✓ Возможность выбора актуальной копии при восстановлении.

✓ Защита от ошибок в процессе резервирования — например, если одна из копий окажется поврежденной.

2 разных типа носителей. Использование различных типов носителей хранения минимизирует риск одновременного выхода из строя всех резервных копий.

Комбинация носителей может включать:

Локальные жесткие диски. Удобны из-за быстрого доступа и восстановления данных.

Сетевые хранилища (NAS). Удобны из-за централизованного управления и доступности в локальной сети.

Съемные носители (внешние HDD/SSD, оптические диски). Обеспечивают физическую изоляцию и мобильность.

Облачные хранилища. Плюсы — высокая доступность и масштабируемость, защита от локальных катастроф.

Что дает:

✓ Снижение риска потери данных из-за специфических проблем конкретного носителя.

✓ Повышенная гибкость и доступность резервных копий в различных сценариях восстановления.

1 копия вне офиса (оффсайт). Хранение одной резервной копии в удаленном месте обеспечивает защиту от локальных катастрофических событий, таких как пожары, наводнения, кражи или другие происшествия, способные уничтожить все локальные копии данных.

Варианты оффсайт-хранения:

Облачные сервисы. Например, Amazon S3, Google Cloud Storage, Backblaze B2 и др.

Удаленные физические локации — дата-центры, филиалы компании, банковские сейфы.

Ленточные хранилища вне офиса. Используют организации с высокими требованиями к долговременному хранению архивных данных.

Что дает:

✓ Высокий уровень безопасности и надежности хранения.

✓ Доступность данных даже при полной потере локальной инфраструктуры.

✓ Возможность географического распределения данных для глобальных компаний.

Инструменты для полного резервного копирования Linux-систем

В инструментах для полного резервирования Linux-системы для меня важно:

  • Способность создавать полные образы системы, включая все файлы, настройки, загрузочный сектор и так далее.

  • Надежность и проверенная репутация инструмента.

  • Простота использования и документация.

  • Поддержка различных носителей хранения.

  • Возможности автоматизации и планирования резервного копирования.

  • Шифрование и защита данных.

Время восстановления системы с использованием различных инструментов зависит от выбранных настроек восстановления, размера данных, скорости сети или хранилища.

Вот какие инструменты для полного резервирования Linux-систем соответствуют моим требованиям:

Bacula — это мощная система резервного копирования с открытым исходным кодом, которая позволяет управлять резервным копированием, восстановлением и проверкой данных в крупных сетях. Она предназначена для полного резервного копирования данных с возможностью гибкой настройки и управления процессом.

Время восстановления: среднее. Bacula хороша для восстановления отдельных файлов или частей системы, но для полного восстановления может потребоваться больше времени. Bacula ориентирована на корпоративное использование и часто применяется для сложных инфраструктур. Процесс восстановления может занять значительное время, особенно если нужно восстановить данные из распределенной системы хранения или ленты.

Cyber Backup — это коммерческое решение для резервного копирования данных, которое обеспечивает полную защиту от потери информации. Программа позволяет создавать копии как отдельных файлов, так и всего содержимого системы, включая операционную систему, программы и настройки. Инструмент поддерживает автоматическое резервное копирование и хранение данных на локальных устройствах и в облачных хранилищах.

Cyber Backup предлагает гибкие опции восстановления, позволяя пользователям восстанавливать как отдельные файлы, так и целые системы. Решение также интегрируется с функциями кибербезопасности, защищая данные от вирусов и атак.

Время восстановления: среднее. Cyber Backup предлагает сбалансированное решение для большинства сценариев — позволяет быстро восстановить как отдельные файлы, так и полные образы системы, поддерживая автоматизацию и гибкость в процессе восстановления. Время восстановления зависит от конфигурации хранилища и объема данных.

Amanda (Advanced Maryland Automatic Network Disk Archiver) — это еще одно решение с открытым исходным кодом, ориентированное на резервное копирование и архивирование данных. Amanda позволяет централизованно управлять процессом резервного копирования в сети, поддерживает различные типы данных и обеспечивает надежное восстановление.

Время восстановления: среднее. Как и Bacula, Amanda предназначена для сетевого резервирования и восстановления. Процесс восстановления с Amanda может быть более сложным, особенно в больших сетевых средах. Время восстановления зависит от размера данных и конфигурации сети.

Veeam Backup & Replication — это коммерческое решение, которое обеспечивает комплексное резервное копирование и репликацию данных, включая виртуализированные и физические среды. Veeam широко используется для защиты корпоративных данных, включая полное резервное копирование операционных систем, виртуальных машин и баз данных.

Время восстановления: быстрое. Veeam предлагает функции моментального восстановления, которые позволяют запустить восстановленную систему практически мгновенно. Veeam известен своей способностью быстро восстанавливать виртуальные машины и физические системы, особенно в виртуализированных средах.

Acronis Cyber Protect — это коммерческое решение, которое сочетает функции резервного копирования с антивирусом и защитой от угроз. Полное резервирование системы здесь подразумевает создание образа всей системы, включая операционную систему, программы и настройки.

Время восстановления: быстрое. Acronis сочетает резервное копирование с киберзащитой, что позволяет быстро восстановить систему, включая возможность мгновенного запуска резервной копии как виртуальной машины. Время восстановления зависит от конфигурации системы и объема данных, но обычно Acronis обеспечивает быстрое восстановление благодаря оптимизированным процессам.

Clonezilla — это свободное программное обеспечение для создания и восстановления образов дисков и разделов. Оно позволяет клонировать целые жесткие диски или отдельные разделы, что полезно для резервного копирования данных, развертывания операционных систем или переноса данных на новые устройства. Clonezilla поддерживает различные файловые системы и может работать с неструктурированными данными, копируя сектор за сектором. Инструмент также способен сжимать данные для экономии места и поддерживает создание и восстановление образов через сеть.

Время восстановления: быстрое. Clonezilla хорошо подходит для восстановления полного образа системы, но не столь эффективна для восстановления отдельных файлов. Инструмент быстр при небольших объемах данных, но может быть медленным для крупных систем. Clonezilla делает прямое клонирование, поэтому восстановление зависит от размера данных и скорости носителя.

Для быстрого восстановления в корпоративных или виртуализированных средах лучше всего подойдут:

  • Veeam Backup & Replication,

  • Cyber Backup

  • Acronis Cyber Protect.

Clonezilla подойдет для быстрого восстановления отдельных систем или разделов, особенно в небольших сетях или на персональных компьютерах. Bacula и Amanda могут потребовать больше времени на восстановление, особенно в сложных и крупных инфраструктурах.

Хабр дополняет:

  • Bup

  • dd

  • Restic

  • kopia (класс)

  • rsync

  • elkarbackup

  • borgmatic

  • bareos

Если нужно инкрементально бэкапировать систему на NAS:

  • urbackup,

  • Cream agent windows.


Первоначально статья опубликована в блоге ispmanager

Показать полностью
Linux Резервное копирование Длиннопост Текст
15
134
aikrr
aikrr
9 месяцев назад
Лига Сисадминов

Мой сервер бэкапов⁠⁠

Дошли наконец-то руки сделать персональный сервер бэкапов, который будет стоять не у меня дома. С этой мыслью я уже несколько лет хожу, делал несколько подходов, но вот наконец-то звёзды сошлись — у меня и железка под него образовалась, и дисков в достаточном количестве, и ОС наконец-то более-менее подобрал.

В качестве железа выбрал старенький HP Microserver Gen7. Продавать большого смысла не видел, куда-то в продакшн ставить тоже — он почти на любой чих под 100% загружается, если какие-то сервисы вешать или просто в несколько потоков файлы по гигабитной сети копировать. А вот с простым хранением файлов он ещё справится.

Мой сервер бэкапов Nas, Резервное копирование, Linux, Сервер, Длиннопост

Коробочка сверху по производительности - как два десятка gen7

Это не пошаговая инструкция, это небольшой отчёт на тему «как можно сделать», может кто для себя идеи почерпнёт.

Если же закрыть глаза на процессор, то в остальном из микросервера получается вполне достойный NAS — четыре-пять слотов под 3.5″ диски, плюс можно внутри корпуса кинуть SSD, благо имеется пять SATA-портов и внешний e-SATA, который я завёл внутрь.

Мой сервер бэкапов Nas, Резервное копирование, Linux, Сервер, Длиннопост

SSD просто валяется сзади, но это не страшно, ничего ему от этого не будет

Первый раз я более-менее серьёзно пытался подойти к задаче в начале года, поставил было на него TrueNAS Scale. Но по дискам у меня тогда была сборная солянка от 3 до 6 терабайт, да ещё самые большие диски были SMR. А TrueNAS — это zfs. А zfs — это враг черепичных дисков (ну или черепичные диски — враг SMR). Плюс, даже если считать, что диски все CMR, собирать массивы на zfs из разных дисков нерационально. Либо большие потери, либо придётся кроить и попадать на потерю ёмкости или головную боль при возможной замене дисков.

Потому TrueNAS снёс, сервер отложил. В начале лета снова вернулся, решив поставить на него Open Media Vault 7.

Мой сервер бэкапов Nas, Резервное копирование, Linux, Сервер, Длиннопост

Объединил диски при помощи mergerfs, а избыточность захотел получить при помощи snapraid. Некоторое время поигрался со всем этим и понял, что сегодняшний OMV мне нравится ещё меньше, чем TrueNAS. От системы плагинов уже почти ушли, а к нормальной поддержке докера всё ещё не пришли. Да и веб-интерфейс его мне никогда особо не нравился. Хотя чего у OMV не отнять — это того, что он на любой табуретке запускается, к ресурсам совершенно не требователен. Но, в остальном, у меня создаётся ощущение, что разработчики сами пока не знают, что хотят получить в итоге. Потому для меня OMV — это дистрибутив для простейшей файлопомойки на слабом железе для тех случаев, когда хочется иметь хоть какой-то веб-интерфейс и не хочется использовать zfs. Если же железо позволяет — лучше смотреть на другие варианты.

Но тут у меня наконец-то образовалась пачка одинаковых по объёму дисков, да ещё и не черепичных. Потому решил дать TrueNAS второй шанс. Тем более, что в свежей бете (Electric Eel) они наконец-то прикрутили более-менее нормальную поддержку докера, переходя на него c kubrnetes.
Что совпало со смертью каталога приложений TrueCharts, который до этого был основным источником контейнеров для TrueNAS Scale.

Для меня, как человека, который и с докером-то пару-тройку лет назад только общаться начал, а про kubernetes слышал только что «это какие-то контейнеры для энтерпрайза», такое стечение обстоятельство только на пользу.

Железо у меня в итоге получилось такое:

HP Microserver Gen7, с процессором AMD Turion(tm) II Neo N40L — 1,5GHz, 2 ядра (по производительности это примерно Rasperry Pi4).
16 GB оперативной памяти (обычной, не ECC)
4 диска по 6TB, один диск на 4TB и SSD на 500GB.
Дополнительно поставил USB-контроллер и вторую сетевую карту (пока гигабит, потом на 2.5 заменю).

ОС — TrueNAS SCALE 24.10

Мой сервер бэкапов Nas, Резервное копирование, Linux, Сервер, Длиннопост

Обязательно должен быть dashboard, можно даже два

Про установку писать не буду, там всё несложно — загрузился с CD, поставил ОС, зашел через веб-интерфейс — пользуешься. Разве что по мелочи:

  1. Загрузочным диском я выбрал USB-флэшку Sandisk Extreme на 32 гигабайта. Вообще, это не особо приветствуется, как я понял. Но Sandisk Extreme — очень выносливые флэшки, в отличие от всяких там Ultra. А флэшку на 32 гигабайта мне использовать особо некуда было, объём маловат. Так что пригодилась. Благо у сервера есть внутренний USB-разъём и снаружи ничего не торчит.

  2. Когда установщик спрашивал про EFI, я решил было, что у меня система старая и пусть лучше Legacy-загрузчик сделает. Как выяснилось, это было ошибкой — установка прерывалась с сообщением «не могу найти sda3». Некоторое время повозился с конфигами (ошибка не особо редкая, рекомендовали вставить в скрипт установки sleep 20), но в итоге всё решилось просто ответом «Да» на вопрос про EFI.

  3. Изначально я ставил стабильную версию, 24.04. После установки как раз и узнал про то, что каталог приложений TrueCharts помер, а сам TrueNAS Scale движется в сторону докера. Потому просто обновил систему через встроенный апдейтер до 24.10, даже переустанавливать не пришлось.

Диски

Четыре шеститерабайтника я собрал в массив raidz2, решил, что это будет надёжней, чем подобие raid10, пусть и менее производительно. Правда, после первой же перезагрузки я получил разваленный массив.

Не знаю, что тут конкретно виновато — я не туда нажимал или бета‑версия нахимичила. По ощущениям, Truenas собрал массив из четырёх дисков «виртуально» — после сборки массива он писал «доступно пять дисков вне пула». При этом один диск он в массив таки включил и что‑то на него писал и читал. Но только до перезагрузки. После перезагрузки же в массиве остался только один диск, справка писала «изя всё» и предлагала только восстановление из бэкапа. Потому, когда собрал новый массив, несколько раз перезагрузился для проверки. Новый массив больше не разваливался.

SSD используется для установки приложений.

А оставшийся диск на 4ТБ — под что-то типа архива и бэкапов бэкапов. Да, он будет работать без резервирования, но даже если помрёт, то на нём будут только копии копий находиться и вообще не особо важные данные вида «не хочется потерять, но не настолько важные, чтобы пихать их на основной массив».

Задачи сервера

Основная задача — оффсайтовый бэкап для домашнего сервера. Не всего подряд, само собой — дома у меня занято 30 терабайт, но того, что действительно жалко потерять, там порядка 3–4 терабайт. Пока эти бэкапы делаются в вандрайв (с шифрованием), но там подписка через год заканчивается и особого желания её продлять у меня нет — терабайтных облачных хранилищ у меня и так достаточно, офис 2010 или 2013, на которые у меня есть лицензии, для моих нужд ничем не хуже, чем офис365.

Вторичная — резервный сервер для некоторых сервисов, которые крутятся на домашнем сервере. К примеру, бывает полезно иметь второй инстанс сервиса, если к основному нет доступа. Пусть даже и БД этого инстанса не очень актуальна. Примеры — RSS-читалка (freshrss), vaultwarden (менеджер паролей), мониторинг аптайма (uptime kuma) и прочие мелочи, которые не требуют много процессорной мощности.

Установка приложений

Поскольку версия truenas пока ещё в бете, библиотека приложений тут достаточно ограничена, хотя и пополняется потихоньку — несколько дней назад было 96 приложений в каталоге, сейчас уже 102. А свои приложения так сразу непонятно, как добавлять. Раньше была кнопка «добавить контейнер», сегодня же её не видно. Конечно, можно зайти в консоль и оттуда вводить команды докера, но не затем я уходил с OMV, чтобы с консолью возиться.

Мой сервер бэкапов Nas, Резервное копирование, Linux, Сервер, Длиннопост

В репозитории имеются portainer и dockge. Portainer лично мне кажется слишком уж замороченным для простой задачи «поставить контейнер». Он слишком много умеет и глаза от этого разбегаются. Потому я его максимум ставил для того, чтобы мониторить работу контейнеров. А конфиги писал и ставил всё из консоли.

А вот dockge прост и лаконичен, если речь идёт просто об запуске контейнера. Вставляешь в поле текст yml-файла, запускаешь. Либо скармливаешь ему команду вида docker run — он её преобразует в конфиг, читаешь — редактируешь по потребности — запускаешь.

Мой сервер бэкапов Nas, Резервное копирование, Linux, Сервер, Длиннопост

Запуск librespeed

Та же командная строка, просто в браузере. На страничке можно контейнер остановить, запустить, обновить, в шелл контейнера зайти, логи почитать…

При этом dockge видит «чужие» контейнеры (которые truenas ставил), но рулит только своими. Это мне кажется удобным компромиссом — что можно ставишь из админки truenas, что нельзя — через dockge. Когда это что-то добавится в truenas — ну или когда там вернут полноценную работу с контейнерами — можно будет аккуратно мигрировать.

Доступ к серверу «из мира»

Я не стал выставлять сервер в мир, он смотрит только в провайдерскую сеть и имеет приватный IP, что в данном случае меня вполне устраивает — дома есть подключение к тому же провайдеру, потому можно не задумываться о пробросах портов и т.п.

С другой стороны — к некоторым сервисам хочется иметь доступ извне, если уж делать тут резервный инстанс. Можно было бы сделать проброс портов с моего vps, допустим, но в данном случае мне проще было воспользоваться туннелями Cloudflare (cloudflared). Да, это опять привязка к третьей стороне, от которой я как бы ухожу, но, в данном случае, она не критичная. Если вдруг cloudflare отвалится, никто не мешает вернуться к вариантам с VPN, пробросом портов или просто купить реальный IP.

Технически это всё выглядит следующим способом:

В админке Cloudflare в разделе Zero Tier создаёте туннель, он вам говорит ID туннеля.

На своём сервере (или вообще на любом компьютере) ставите демон cloudflared и в настройках ему указываете ID туннеля. И дальше со стороны Cloudflare указываете поддомен, через который хотите обращаться к сервису и локальный IP:порт этого сервиса.
Единственное ограничение — доменом должен рулить cloudflare. Не обязательно его там покупать (хотя я купил специально под это дело отдельный домен), но DNS должен быть прописан тамошний.

Тут два туннеля — на админку и на контейнер с librespeed.

Мой сервер бэкапов Nas, Резервное копирование, Linux, Сервер, Длиннопост

Скорость, по ощущениям, режется втрое, но тут мне сложно сказать, кто виноват — туннель такой медленный или микросервер не тянет. Впрочем, на меня одного для доступам к мелким сервисами типа пинговалки или vaultwarden’a такого туннеля вполне хватит.

Если измерять скорость через вышеупомянутый librespeed, то при прямом подключении внутри провайдерской сети — практически заявленные 100 мегабит.

Мой сервер бэкапов Nas, Резервное копирование, Linux, Сервер, Длиннопост

А вот через туннель 40 мегабит — это максимум, который удалось получить. Чаще же в районе 25-30 болтается. Впрочем, это для меня вполне терпимо, если не качать большие объёмы данных. А их я пока что качаю через локальную сеть провайдера.

Мой сервер бэкапов Nas, Резервное копирование, Linux, Сервер, Длиннопост

Если cloudflare сломают или захочется большей скорости — тогда уже и буду решать вопрос, благо способов много, этот просто был самый простой.

Бэкап как таковой

Можно пользоваться чем нравится, я пока что остановился на двух методах.

Самое большое и важное, что мне надо сохранять — это фотографии за много лет, которых уже порядка двух с половиной терабайт. Раньше они у меня через syncthing копировались на домашний сервер, а оттуда при помощи duplicati заливались в onedrive. Так что просто добавить ещё один инстанс syncthing’a смотрелось вполне логично. Ну и дальнейшую работу, наверное, большей частью буду в рамках syncthing’a организовывать. Хотя можно и любые другие протоколы использовать при необходимости.

Syncthing есть в каталоге приложений, ставится без вопросов. Само собой, надо в контейнер папку подмонтировать, куда бэкапы складывать. Сперва я посмотрел, как оно работает через глобальное обнаружение и посредников — вышло не очень. Максимум видел порядка 50 мегабит скорость, а так вообще колебалась в районе 10-20 мегабит. Два-три терабайта так качать совсем не хотелось.

Мой сервер бэкапов Nas, Резервное копирование, Linux, Сервер, Длиннопост

Потому настроил прямое соединение с домашним компьютером, выставив наружу порт syncthing’a на домашнем роутере. Так добился полной скорости — 100 мегабит, больше провайдер не предоставляет. Загрузка процессора при синхронизации колеблется в районе 50–70%, но особых лагов в админке не ощущается.

Второй способ — копирование данных с линуксовых серверов через rsync. Тут всё просто, был бы доступ к серверу по ssh. В настройках TrueNAS есть rsync tasks, просто добавляешь туда что, откуда и куда копировать, настраиваешь расписание — и вперёд.

Мой сервер бэкапов Nas, Резервное копирование, Linux, Сервер, Длиннопост

Версионность — через снапшоты zfs. На каждую папку с бэкапами я создаю отдельный датасет, потому могу снапшоты настраивать достаточно гибко, где каждый час, а где — каждую неделю.

Планы на будущее

Из аппаратного:
Постараюсь заменить память на ECC. Раньше я к этом относился "хорошо, но не обязательно, а вот после приколов с домашним сервером стал относиться более серьёзно. Но новую память по 7000 за модуль брать жаба не даёт, а али завалено регистровой памятью, которую микросервер не понимает. Так что придётся искать ECC UDIMM на барахолках, что дело не быстрое.

Заменю гигабитную сетевушку на 2.5 гигабита. Это для «внутренней» связи — на работе кроме микросервера у меня стоит небольшой вебсервер, который я перепрофилирую в ноду proxmox — с него тоже надо будет делать бэкапы, так что пусть они делаются на большей скорости. Ну и свой рабочий компьютер тоже добавлю сетевушку на 2.5 и воткну в тот же свитч.

Может быть, сниму контроллер usb-3 и поставлю вместо него переходник на nvme-диск — под кэш для массива.

По самому микросерверу — я не могу его рекомендовать, если вы собираете сервер совсем с нуля. В gen7 из полезного — только корпус на 4-5 дисков. Но нормально он себя ведёт только в связке с родной материнкой, если же её захочется обновить — то усилий по допиливанию корпуса под mini-ITX будет затрачено довольно много. По мне так проще потратиться на какой-нибудь китайский корпус и там уже собрать систему на нормальном железе. Или взять готовый NAS на x86 и поставить на него интересную вас ОС. Я микросервером воспользовался только по той причине, что он у меня имелся и по производительности более-менее устраивал. Иначе бы взял Jonsbo N2, очень симпатичный корпус, хоть и не очень бюджетный. Или N1.

Из программного:

Дождусь релиза TrueNAS 24.10. Прикручу бэкапы со своих облаков, которыми пока пользуюсь (вандрайв, мэйл, яндекс). Настрою бэкап почты с тех же gmail’ов и яндексов. Ну и настрою обратный бэкап на домашний сервер. Бэкапов много не бывает.

В остальном я не вижу каких-то серьёзных путей для развития. Основное всё сделано, а дальше уже только использование по назначению остаётся. Все эксперименты и тяжелые задачи пойдут на второй сервер (который с proxmox’ом). Но это отдельная история, отдельной статьи не заслуживающая. Материалов на тему «как я поставил proxmox» в сети навалом в любых видах.

Показать полностью 11
[моё] Nas Резервное копирование Linux Сервер Длиннопост
60
1
Вопрос из ленты «Эксперты»
TyuleshPelmesh
9 месяцев назад

Подскажите, а кто как делает бэкапы?⁠⁠

Наконец-то исполнил детскую мечту: я купил себе китайский ксеон, несколько hdd и поднял небольшой сервачок на Unraid ( по сути Слака с красивыми плюшками ). И хочется настроить бекапы данных с рабочего компа, а заодно с папулькиного архива фотографий. Чтоб можно было поставить на винду и оно само изменения скидывало на сервер, причем хотелось бы не просто синхронизацию, а прям бэкап, чтоб можно было восстановить состояние папки "на позавчера".

Подскажите пожалуйста, кто чем пользуется и как это правильно организовывает?
В гугле не забанили, но как говорил В.И. Ленин "Не всем статьям в интернете можно доверять", а вот личный опыт - это всегда полезно.

[моё] Вопрос Спроси Пикабу Нужен совет IT Сервер Файловый сервер Текст Резервное копирование
16
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии