Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Я хочу получать рассылки с лучшими постами за неделю
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
Создавая аккаунт, я соглашаюсь с правилами Пикабу и даю согласие на обработку персональных данных.
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр
Поднимайтесь как можно выше по дереву, собирайте цветы и дарите их близким.
Вас ждут уникальные награды и 22 выгодных промокода!

Пикаджамп

Аркады, Казуальные, На ловкость

Играть

Топ прошлой недели

  • AlexKud AlexKud 38 постов
  • SergeyKorsun SergeyKorsun 12 постов
  • SupportHuaport SupportHuaport 5 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая кнопку «Подписаться на рассылку», я соглашаюсь с Правилами Пикабу и даю согласие на обработку персональных данных.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня

IT + Резервное копирование

С этим тегом используют

Программирование IT юмор Программист Юмор Работа Картинка с текстом Разработка Windows Linux Компьютер Сервер Данные Все
39 постов сначала свежее
474
Gul0Gul0
Gul0Gul0
6 лет назад
IT-юмор

Картинка смешная, а ситуация страшная⁠⁠

Картинка смешная, а ситуация страшная
Картинка с текстом IT юмор IT Сисадмин Резервное копирование
43
26
vadikrnd
vadikrnd
7 лет назад

Резервное копирование сервера⁠⁠

Было решено сделать резервное копирование (именуемое в дальнейшем "BACKUP") очень старого сервера (именуемый в дальнейшем "ZALP" ). Общий объем BACKUP'а 600Gb. Создал задание, которое ночью по сети передаст BACKUP на сервер резервных копий (именуемый в дальнейшем "ZORG" ). Вроде проще не куда, все проверил и пошел с чистой совестью до дому, до хаты.

Утром ехал на работу, звонят филиалы, которые из-за разницы во времени пришли (относительно меня) очень рано работу. Разговор был коротким:"Ни х..ра не работает, комп 15 раз перезагружал........(короткие гудки)". И примерно всё те же слова от других филиалов.

Добрался до работы и в первую очередь перезагрузил ZALP, т.к. он был не в сети, но при этом операционная система работала штатно. После перезагрузки все заработало. Стало интересно, создался ли BACKUP? Зашел на ZORG, а там BACKUP весит всего 112Gb. На ZALP в логах указано "BACKUP выполнен на 21%", копаюсь далее и узнаю, что из-за сильной нагрузки сетевой адаптер не выдержал и решил отдохнуть до следующей перезагрузки, пропав из устройств.

По сети значит не вариант. Жесткий диск на горячую не подключить, т.к. древняя материнская плата, а отключать сервер нельзя. Немного подумав, стал изобретать флешку на 1TB (1 Терабайт).


И вот кто получился

Резервное копирование сервера Резервное копирование, IT, Длиннопост
Резервное копирование сервера Резервное копирование, IT, Длиннопост

А вот небольшое описание его анатомии

Резервное копирование сервера Резервное копирование, IT, Длиннопост

Подключил его, изменил немного задание и ушел домой. Утром ни кто не звонил. Думаю наверное все хорошо. Приехал на работу, и что я вижу??? И правда все хорошо, а BACKUP создался на 100%

Резервное копирование сервера Резервное копирование, IT, Длиннопост

СПАСИБО ЗА ВНИМАНИЕ!!!

Показать полностью 4
[моё] Резервное копирование IT Длиннопост
44
10
RoMZeS1k
7 лет назад

Вытягиваем данные с не загружающегося MacBook pro.⁠⁠

Нашел у себя свою заметку в телефоне, решил поделиться. Речь пойдет о ситуации когда вы включаете свой MacBook, а дальше яблочка загрузка не идет. Вариант когда он не включается в принципе в данном посте не рассматривается, так как нам необходим раздел восстановления.

Итак имеем MacBook Pro. Фото с интернета:

Вытягиваем данные с не загружающегося MacBook pro. IT, Macbook, Mac Os, Резервное копирование, Длиннопост

Предположим у нас есть на нем очень важные файлы, а возможно и те которые не хотелось бы показывать людям из сервисного центра.

Пункт первый. Заходим в режим восстановления, для этого при включении зажимаем cmd+R. и ждем пока загрузится. Получим примерно вот такое окно, к сожалению нету под рукой Mac так что картинка с интернета.

Вытягиваем данные с не загружающегося MacBook pro. IT, Macbook, Mac Os, Резервное копирование, Длиннопост

Пункт второй. Так как на новых маках раздел обычно шифрованный, нам необходимо его примонтировать введя пароль. Насколько я помню, достаточно было дважды на него кликнуть и он запросить пароль. Выглядит примерно так.

Вытягиваем данные с не загружающегося MacBook pro. IT, Macbook, Mac Os, Резервное копирование, Длиннопост

После того как ввели пароль, выходим из дисковой утилиты, только сделать это нужно не через крестик, а через меню программы наверху.

Пункт третий, через меню программы выбираем утилиты- терминал, на второй картинке видно где это. Теперь нам необходимо подготовить место куда мы будет копировать файлы. Дальше мы будем работать с консолью, если вы обычный обыватель который ни разу ей не пользовался, я бы советовал вам обратиться к хорошему знакомому который хоть чуть понимает что и как, дабы избежать полного уничтожения ваших данных. Нашей задачей будет отформатировать накопитель для того, что бы система его увидела.

В консоль пишем

diskutil list

получим что то похожее на это:

$ diskutil list
/dev/disk0  #: TYPE NAME  SIZE  IDENTIFIER
0: GUID_partition_scheme  *250.1 GB  disk0
1: EFI 209.7 MB disk0s1
2: Apple_HFS Macintosh HD  249.7 GB  disk0s2
/dev/disk3 #: TYPE NAME  SIZE  IDENTIFIER
0: FDisk_partition_scheme  *4.0 GB  disk3
1: DOS_FAT_32 THUMBDRIVE  4.0 GB  disk3s1

Далее подключаем наш накопитель и снова выполняем команду:

diskutil list

Нас интересует новый появившийся диск, предположим /dev/disk3

Теперь форматируем носитель выполняем команду

diskutil eraseDisk JHFS+ /dev/disk3 backup

После выполнения форматирования, наш накопитель примонтируется как backup.


Пункт четвертый. Непосредственно копирование файлов. Для того что бы увидеть примонтированные диски, необходимо последовательно выполнить две команды

cd /volumes
ls

CD это перейти в директорию, ls посмотреть, что в ней лежит. Нас интересуют Macintosh HD и backup. Используя CD заходим в Macintosh HD

cd Macintosh HD

После используя ls смотрим файлы в директории и начинаем искать нужные нам папки. Для возвращения в предыдущую директорию используйте

cd ..

Найдя интересующие нас папки, копируем их на наш носитель, обратите внимание нас интересует полный путь к папке, пусть это /volumes/Macintosh HD/user/Desktop, точный путь не вспомню.

выполняем команды

cd /volumes/backup
mkdir Desktop

Это мы создали на нашем резервном носителе папку Desktop. Теперь выполняем непосредственно копирование

cp /volumes/Macintosh HD/user/Desktop /volumes/backup/desktop

По аналогии делаем оставшиеся папки.


Для удаления папок используйте rmdir, файлов  rm. Пример

cd /volumes/backup
rmdir Desktop

Это мы удалили папку desktop с носителя для нашей копии.


Вроде бы все расписал, старался разжевать как мог, но в любом случае советую обратиться к знакомому специалисту. После выполнения данных действий можно уже выполнять восстановление системы из резервной копии Time Machine, восстановление заводских настроек. В моем случае не помогло, человек сдавал бук по гарантии. Заранее извиняюсь за ошибки.

Данный пост носит информативный характер, всю ответственность за выполнение действий несет сам пользователь.

Показать полностью 3
[моё] IT Macbook Mac Os Резервное копирование Длиннопост
8
6341
Ofelia
Ofelia
7 лет назад

Когда розетки в дефиците⁠⁠

Когда розетки в дефиците Фотография, Объявление, IT, Компьютер, Работа, Пользователи, Резервное копирование
Показать полностью 1
[моё] Фотография Объявление IT Компьютер Работа Пользователи Резервное копирование
287
72
SunXE
SunXE
7 лет назад
GNU/Linux

Что для тебя важно, если ты Linux администратор.⁠⁠

Что для тебя важно, если ты Linux администратор. Linux, Мониторинг, Резервное копирование, Оркестровка, IT, It-технологии, Администрирование

У меня появилось 5 подписчиков и вы наверное хотите почитать что-то про DevOps? Но начать я решил с более общей темы.
Я не претендую на то что эти вещи являются какими то универсальными, а хочу обобщить то к чему пришёл на своём опыте.
И так, если я прихожу в новый проект в котором уже есть какая-то инфраструктура, то первоочередными для меня являются 3 вещи.


Самая первая вещь по значимости - это мониторинг. С помощью хорошо настроенного мониторинга можно предотвратить 70% проблем и оперативно среагировать на оставшиеся 30%. Основные вещи, такие как состояние дисков, файловых систем, доступность ресурсов и сервисов, замониторить достаточно быстро, но допиливать проверки по разным тонким параметрам можно бесконечно. Есть у мониторинга начало, нет у мониторинга конца).

Вторая, не менее важная вещь, это резервное копирование. Сюда я отношу такие банальные вещи как бэкапирование файлов, виртуалок, дампы баз данных, так и создания реплекации данных и во втором приближении, сюда же можно отнести построение конфигураций высокой доступности. Эта тема тоже довольно обширна и всегда зависит от конкретной инфраструктуры.

И последняя по важности, но первая по порядку - это система оркестровки конфигурациями. Это то, что помогает в развертывании двух первых пунктов и в целом упрощает и ускоряет управление серверами и сервисами, помогает держать их в актуальном состоянии и контролировать единообразие конфигурационных файлов там, где это требуется.
В данном контексте у нас 2 большие задачи. Разовое распараллеленное внесение изменений сразу на нескольких серверах. Например развертывание различных кластеров, управление пользователями и прочими настройками. И выполнение задач систематически. Например периодическое обновление пакетов влияющих на безопасность, синхронизация конфигурационных файлов, чистка временных файлов или контейнеров и т. д.

Выполнив эти, обязательные для меня, пункты можно дальше жить и постепенно переходить к прочим изменениям связанным и не связанным с DevOps.

Написал я конечно очень общо и во многом скапитанил, но с чего-то же нужно начинать :)
В дальнейшем планирую пройтись по инструментарию и подходу DevOps и тому что сейчас модно использовать в it стартапах.

P. S. Я специально не указал продукты которые я использую для этих трёх пунктов, так как это тема для отдельного холивара.

Показать полностью
[моё] Linux Мониторинг Резервное копирование Оркестровка IT It-технологии Администрирование
31
12
Shinokama
Shinokama
8 лет назад

Что-то у меня появилось непреодолимое желание забэкапиться.⁠⁠

Когда ты в душе художник, а в жизни жесткий диск.

Что-то у меня появилось непреодолимое желание забэкапиться. IT, Жесткий диск, Резервное копирование

Товарищи, следите за здоровьем своего железа и делайте резервные копии! И отличных выходных! =)

[моё] IT Жесткий диск Резервное копирование
6
Steeply
Steeply
8 лет назад

Инцидент с базой данных GitLab.com от 31/01/2017⁠⁠

Инцидент с базой данных GitLab.com от 31/01/2017 Gitlab, Резервное копирование, Перевод, События, Происшествие, IT, Длиннопост

31 января 2017 года произошло важное для мира OpenSource событие: один из админов GitLab.com, пытаясь починить репликацию, перепутал консоли и удалил основную базу PostgreSQL, в результате чего было потеряно большое количество пользовательских данных, и сам сервис ушел в офф-лайн. При этом все 5 различных способов бэкапа/репликации оказались нерабочими. Восстановились же с LVM-снимка, случайно сделанного за 6 часов до удаления базы.


Понесенные потери


Потеряны данные за примерно 6 часов.

Потеряно 4613 обычных проектов, 74 форка и 350 импортов (грубо); всего 5037. Поскольку Git-репозитории НЕ потеряны, мы сможем воссоздать те проекты, пользователи/группы которых существовали до потери данных, но мы не сможем восстановить задачи (issues) этих проектов.

Потеряно около 4979 (можно сказать, около 5000) комментариев.

Потенциально потеряно 707 пользователей (сложно сказать точнее по логам Kibana).

Веб-хуки, созданные до 31 января 17:20, восстановлены, созданные после — потеряны.



Хронология (время указано в UTC)


2017/01/31 16:00/17:00 — 21:00

- YP работает над настройкой pgpool и репликацией в staging, создает LVM-снимок, чтобы загрузить боевые данные в staging, а также в надежде на то, что сможет использовать эти данные для ускорения загрузки базы на другие реплики. Это происходит примерно за 6 часов до потери данных.

- Настройка репликации оказывается проблематичной и очень долгой (оценочно ~20 часов только на начальную синхронизацию pg_basebackup). LVM-снимок YP использовать не смог. Работа на этом этапе была прервана (так как YP была нужна помощь другого коллеги, который в тот день не работал), а также из-за спама/высокой нагрузки на GitLab.com.


2017/01/31 21:00 — Всплеск нагрузки на сайт из-за спамеров

- Блокирование пользователей по их IP-адресам

- Удаление пользователя за использование репозитория в качестве CDN, в результате чего 47 000 айпишников залогинились под тем же аккаунтом (вызвав высокую нагрузку на БД). Информация была передана командам технической поддержки и инфраструктуры.

- Удаление пользователей за спам (с помощью создания сниппетов)

- Нагрузка на БД вернулась к норме, было запущено несколько ручных вакуумов PostgreSQL, чтобы почистить большое количество оставшихся пустых строк.


2017/01/31 22:00 — Получено предупреждение об отставании репликации

- Попытки починить db2, отставание на этом этапе 4 GB.

- db2.cluster отказывается реплицироваться, каталог /var/opt/gitlab/postgresql/data вычищен, чтобы обеспечить чистую репликацию.

- db2.cluster отказывается подключаться к db1, ругаясь на слишком низкое значение max_wal_senders. Эта настройка используется для ограничения количества клиентов WAL (репликации).

- YP увеличивает max_wal_senders до 32 на db1, перезапускает PostgreSQL.

- PostgreSQL ругается на то, что открыто слишком много семафоров, и не стартует

- YP уменьшает max_connections с 8000 до 2000, PostgreSQL стартует (при том, что он нормально работал с 8000 почти целый год).

- db2.cluster все еще отказывается реплицироваться, но на соединения больше не жалуется, а вместо это просто висит и ничего не делает.

- В этот время YP начинает чувствовать безысходность. Раньше в этот день он сообщил, что собирается заканчивать работу, так как становилось уже поздно (около 23:00 по местному времени), но он остался на месте по причине неожиданно возникших проблем с репликацией.


2017/01/31 около 23:00

- YP думает, что, возможно, pg_basebackup чересчур педантичен по поводу чистоты директории для данных и решает ее удалить. Спустя пару секунд он замечает, что запустил команду на db1.cluster.gitlab.com вместо db2.cluster.gitlab.com.

- 2017/01/31 23:27: YP отменяет удаление, но уже слишком поздно. Из примерно 310 Гб осталось только 4.5



Восстановление — 2017/01/31 23:00 (бэкап от ~17:20 UTC)


Предложенные способы восстановления:

1. Смигрировать db1.staging.gitlab.com на GitLab.com (отставание около 6 часов)

- CW: Проблема с веб-хуками, которые были удалены во время синхронизации.

2. Восстановить LVM-снимок (отстает на 6 часов).

3. Sid: попробовать восстановить файлы?

- CW: Невозможно! rm -Rvf Sid: OK.

- JEJ: Наверное, уже слишком поздно, но может ли помочь, если достаточно быстро перевести диск в режим read-only? Также нельзя ли получить дескриптор файла, если он используется работающим процессом (согласно http://unix.stackexchange.com/a/101247/213510).

- YP: PostgreSQL не держит все свои файлы постоянно открытыми, так что это не сработает. Также, похоже, что Azure очень быстро удаляет данные, а вот пересылает их на другие реплики уже не так шустро. Другими словами, данные с самого диска восстановить не получится.

- SH: Похоже, что на db1 staging-сервере отдельный PostgreSQL-процесс льет поток production-данных с db2 в каталог gitlab_replicator. Согласно отставанию репликации, db2 был погашен в 2016-01-31 05:53, что привело к остановке gitlab_replicator. Хорошие новости заключаются в том, что данные вплоть до этого момента выглядят нетронутыми, поэтому мы, возможно, сможем восстановить веб-хуки.


Предпринятые действия:

2017/02/01 23:00 — 00:00: Принято решение восстанавливать данные с db1.staging.gitlab.com на db1.cluster.gitlab.com (production). Несмотря на то, что они отстают на 6 часов и не содержат веб-хуков, это единственный доступный снимок. YP говорит, что ему сегодня лучше больше не запускать никаких команд, начинающихся с sudo, и передает управление JN.

2017/02/01 00:36 — JN: Делаю бэкап данных db1.staging.gitlab.com.


2017/02/01 00:55 — JN: Монтирую db1.staging.gitlab.com на db1.cluster.gitlab.com.

Копирую данные со staging /var/opt/gitlab/postgresql/data/ в production /var/opt/gitlab/postgresql/data/.


2017/02/01 01:05 — JN: nfs-share01 сервер выделен в качестве временного хранилища в /var/opt/gitlab/db-meltdown.


2017/02/01 01:18 — JN: Копирую оставшиеся production-данные, включая запакованный pg_xlog: ‘20170131-db-meltodwn-backup.tar.gz’.


2017/02/01 01:58 — JN: Начинаю синхронизацию из stage в production.


2017/02/01 02:00 — CW: Для объяснения ситуации обновлена страничка развертывания (deploy page). Link.


2017/02/01 03:00 — AR: rsync выполнился примерно на 50% (по количеству файлов).


2017/02/01 04:00 — JN: rsync выполнился примерно на 56.4% (по количеству файлов). Передача данных идет медленно по следующим причинам: пропускная способность сети между us-east и us-east-2, а также ограничение производительности диска на staging-сервере (60 Mb/s).


2017/02/01 07:00 — JN: Нашел копию нетронутых данных на db1 staging в /var/opt/gitlab_replicator/postgresql. Запустил виртуальную машину db-crutch VM на us-east, чтобы сделать бэкап этих данных на другую машину. К сожалению, она ограничена 120 GB RAM и не потянет рабочую нагрузку. Эта копия будет использована для проверки состояния базы данных и выгрузки данных веб-хуков.


2017/02/01 08:07 — JN: Передача данных идет медленно: по объему данных передано 42%.


2017/02/02 16:28 — JN: Передача данных закончилась.


Процедура восстановления

[x] — Сделать снимок сервер DB1 — или 2 или 3 — сделано в 16:36 UTC.

[x] — Обновить db1.cluster.gitlab.com до PostgreSQL 9.6.1, на нем по-прежнему 9.6.0, а staging использует 9.6.1 (в противном случае PostgreSQL может не запуститься).

Установить 8.16.3-EE.1.

Переместить chef-noop в chef-client (было отключено вручную).

Запустить chef-client на хосте (сделано в 16:45).

[x] — Запустить DB — 16:53 UTC

Мониторить запуск и убедиться, что все прошло нормально.

Сделать бэкап.

[x] — Обновить Sentry DSN, чтобы ошибки не попали в staging.

[x] — Увеличить идентификаторы во всех таблицах на 10k, чтобы избежать проблем при создании новых проектов/замечаний. Выполнено с помощью https://gist.github.com/anonymous/23e3c0d41e2beac018c4099d45..., который читает текстовый файл, содержащий все последовательности (по одной на строку).

[x] — Очистить кеш Rails/Redis.

[x] — Попытаться по возможности восстановить веб-хуки

[x] Запустить staging, используя снимок, сделанный до удаления веб-хуков.

[x] Убедиться, что веб-хуки на месте.

[x] Создать SQL-дамп (только данные) таблицы “web_hooks” (если там есть данные).

[x] Скопировать SQL-дамп на production-сервер.

[x] Импортировать SQL-дамп в рабочую базу.

[x] — Проверить через Rails Console, могут ли подключаться рабочие процессы (workers).

[x] — Постепенно запустить рабочие процессы.

[x] — Отключить страницу развертывания.

[x] — Затвитить с @gitlabstatus.



Возникшие проблемы

1. LVM-снимки по умолчанию делаются лишь один раз в 24 часа. По счастливой случайности YP за 6 часов до сбоя сделал один вручную.


2. Регулярные бэкапы, похоже, также делались только раз в сутки, хотя YP еще не выяснил, где они хранятся. Согласно JN они не работают: создаются файлы размером в несколько байт.

SH: Похоже, что pg_dump работает неправильно, поскольку выполняются бинарники от PostgreSQL 9.2 вместо 9.6. Это происходит из-за того, что omnibus использует только Pg 9.6, если data/PG_VERSION установлено в 9.6, но на рабочих узлах этого файла нет. В результате по умолчанию запускается 9.2 и тихо завершается, ничего не сделав. В итоге SQL-дампы не создаются. Fog-гем, возможно, вычистил старые бэкапы.


3. Снимки дисков в Azure включены для NFS-сервера, для серверов баз данных — нет.


4. Процесс синхронизации удаляет веб-хуки после того, как он синхронизировал данные на staging. Если мы не сможем вытащить их из обычного бэкапа, сделанного в течение 24 часов, они будут потеряны.


5. Процедура репликации оказалось очень хрупкой, склонной к ошибкам, зависящей от случайных shell-скриптов и плохо документированной.

SH: Мы позже выяснили, что обновление базы данных staging работает путем создания снимка директории gitlab_replicator, удаления конфигурации репликации и запуска отдельного PostgreSQL-сервера.


6. Наши S3-бэкапы также не работают: папка пуста.


7. У нас нет надежной системы оповещений о неудачных попытках создания бэкапов, мы теперь видим такие же проблемы и на dev-хосте.


Другими словами, из 5 используемых способов бэкапа/репликации ни один не работает. => сейчас мы восстанавливаем рабочий бэкап, сделанный 6 часов назад.

Инцидент с базой данных GitLab.com от 31/01/2017 Gitlab, Резервное копирование, Перевод, События, Происшествие, IT, Длиннопост

Заключение


Что показательно, ребята из GitLab сумели превратить свою грубейшую ошибку в поучительную историю, и, думаю, не только не потерять, но и завоевать уважение многих айтишников. Также за счет открытости, написав о проблеме в Twitter и выложив лог в Google Docs, они очень быстро получили квалифицированную помощь со стороны, причем, похоже, совершенно безвозмездно.


Как всегда, радуют люди с хорошим чувством юмора: главный виновник инцидента теперь называет себя "Database (removal) specialist" (Специалист по [удалению] баз данных), какие-то шутники предложили 1 февраля сделать днем проверки бэкапов http://checkyourbackups.work/



Оригинал https://docs.google.com/document/d/1GCK53YDcBWQveod9kfzW-VCx...

Показать полностью 2
Gitlab Резервное копирование Перевод События Происшествие IT Длиннопост
13
582
morloz
morloz
8 лет назад

Делайте бекапы, не ленитесь⁠⁠

Небольшое частное предприятие по производству кое-каких механизмов. 60 АРМов. АРМ - это автоматизированное рабочее место, т.е. стол, табурет, системный блок, монитор, клавиатура, мышь, и еще че нибудь. Есть сайт с доменом зарегистрированным на одно из наших ООО аж в 2005 году. Работающая почта на этом домене. Есть корпоративный антивирус и сервер с центром управления и мониторинга куда сходятся данные с АРМов о вирусной активности.


Одним погожим днём на ящики пользователей особо засветившихся в интернете (info, и как пример ivanov.i, и sverkunova.a) начинают сыпаться письма с темами "Срочно акты подписать", "Срочно договор утвердить", Срочно судебные приставы", "Срочно межгалактические монстры", "Срочно распакуй и запусти файл start.exe" и прочая лабуда с вложением в виде архива и файликом внутри.


Рука начинает тянуться к телефону оповестить и выдать инструкцию как вести себя с подобными письмами, и в это время продажники (info), снабженец (ivanov.i), и еще одна особа (sverkunova.a) начинают звонить и даже вставать в очередь на дозвон ко мне. Объяснил каждому, что это трояны, что это попытка подловить и получить доступ к коммерческой тайне, и что вполне вероятно что зашифруют всё всё всё, абсолютно всё, и что всем им придется продать квартиры, автомобили, а у кого этого нет - продать почку (если осталась хоть одна). Все сказали "да, я так подумал, хотел только тебя оповестить". Окей, оповещены - вооружены.


На следующий день в мониторе активности вирусов 2 срабатывания, два пользовательских диска с зашифрованными файликами и в каждом свежий readme.txt. В ридми поздравления, координаты для связи, озвучивается сумма, и привет от джокера.


Из бекапа разделы за час восстановили, с теми двумя продажниками просветительская беседа проведена, продажи возобновлены.


Делайте бекапы, часто и регулярно. Вручную. Записал на портативный HDD, вынес с адреса на другой конец города. Сдал в огнеупорный взрывозащищенный сейф. Хорошо, спокойно на душе. Это пролог.


9 лет назад мне почти оторвали яйца, но я долго и успешно прятался бегая от СБ бандитов т.к. пенетратор похерил все документы в одной фирме. В том числе бекапы расположенные на соседнем винте. Вынес урок.


4 года назад контора одной артели долго полыхала от прямого двойного попадания молнии. Полыхала вместе с компами, дисками, сейфами, документами, архивами, картами царских времен, и лентами с бекапами. Тогда спасло то, что две кассеты стриммера на хранение были отправлены в МСК и одна кассета в Иркутск. Меня в те времена очень журили за расточительство, что стриммер мой стоил полляма, когда сервак конторы стоил всего 120 тысяч российских рублей, что кассета одна стоила 2000 рублей и я записывал по одной кассете каждые две недели и по нескольку копий. Потом, конечно же, в маковку не поцеловали, но данные восстановили моментально, пепелище (а сгорел барак 50-х годов) сгребли бульдозером, а рядом поставили новомодные модули.


Делайте бекапы, братья!

Показать полностью
[моё] IT Длиннопост Наставление Резервное копирование Текст
112
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии