Backup – najlepsze praktyki

24 maja 2023

Czy warto robić kopię zapasową?

Dziś już rzadko zadawane jest pytanie, czy kopię zapasową trzeba wykonywać. Świadomość potrzeby wykonywania backupu jest już na tyle duża wśród użytkowników i administratorów IT w firmach, że ważniejszym zagadnieniem staje się dokładne określenie, jak wykonać wartościową kopię zapasową.

Wartościowa kopia zapasowa to taka, z której będzie można odzyskiwać dane.

Dobre praktyki backupowe

W dalszej części wpisu postaramy się przybliżyć kilka wybranych dobrych praktyk backupowych do stosowania w firmie, wynikających z doświadczenia oraz zaleceń producentów rozwiązań, których stosowanie pozwoli zwiększyć bezpieczeństwo danych.

Backup powinien być wykonywany regularnie

Kopie bezpieczeństwa powinny być wykonywane regularnie, czyli w możliwie najmniejszych odstępach czasu. Ze względu na częstotliwość wykonywania backupu, powinniśmy w jak największym stopniu wdrożyć automatyzację kopii zapasowych.

Korzystanie z rozwiązań pozwalających na wprowadzenie pełnej automatyzacji pozwala na minimalizację błędów generowanych przez czynnik ludzki.

Zwykle to człowiek jest czynnikiem powodującym największą liczbę błędów. Eliminacja najsłabszego ogniwa w kontekście procesów związanych z backupem jest możliwa dzięki automatyzacji. Uzyskujemy wówczas gwarancję regularności wykonywania backupu.

Backup powinien być wykonywany regularnie

Zasada 3-2-1

Powinniśmy mieć przygotowywane przynajmniej trzy kopie zapasowe, na dwóch różnych nośnikach, z których jeden nośnik to lokalizacja off-site (czyli poza serwerownią lub poza siedzibą firmy).

Lokalizacją off-site dla kopii zapasowej może być również chmura.

Testowanie backupu

Możliwość odzyskania danych z kopii bezpieczeństwa

Bardzo wiele rozwiązań do backupu charakteryzowane jest określeniem, że służy do wykonania kopii zapasowej. Z perspektywy administratora IT ważne jest jednak nie tylko samo wykonanie kopii zapasowej, ale funkcjonalność związana z możliwością odzyskania danych z kopii bezpieczeństwa.

Backupy trzeba testować, co jest w pewnym zakresie wymuszane na administratorach IT przez regulacje prawne. Innymi słowy, to co jest dobrą praktyką w zakresie backupu, stało się również regulacją prawną (np. ISO 27001, ustawa RODO).

Automatyczne testowanie kopii zapasowych

Z tego względu warto wziąć pod uwagę rozwiązania, które pozwalają w sposób automatyczny testować kopie zapasowe.

Oprogramowanie testuje wówczas automatycznie, czy jest możliwość przywrócenia maszyny wirtualnej z kopii bezpieczeństwa, uruchomienia aplikacji, odzyskania wybranych plików. Jest to o tyle ważne, że w przypadku awarii zwykle nie ma czasu na przeprowadzanie testów.

W środowisku administratorów IT funkcjonuje powiedzenie w konwencji żartu, że każda firma testuje backup dopiero wtedy, kiedy jest zmuszona odzyskać dane. Jest to oczywiście obraz sytuacji niepoprawnej, ponieważ moment odzyskiwania danych podczas awarii nie jest właściwy do testowania czy informacje są możliwe do odzyskania z backupu.

Odpowiedzialność ciążąca na administratorze

Trzeba mieć świadomość odpowiedzialności, która ciąży na administratorze rozwiązań backupowych. W przypadku konieczności odzyskania ważnych danych z backupu, zdarza się często, że możliwość realizacji pracy przez kluczowe działy w firmie zależy od szybkiego przywrócenia danych.

Testowanie backupu

Plan odzyskiwania danych

Zaleca się, by w dziale IT przygotowany był plan dotyczący odzyskiwania danych. Przygotowana procedura pozwoli znacznie sprawniej działać w sytuacji awaryjnej.

W procedurze określamy lokalizację danych, osoby odpowiedzialne za przywrócenie, sekwencje odtwarzania danych oraz kolejność uruchamiania usług zależnie od poziomu istotności dla infrastruktury IT.

Regularna aktualizacja oprogramowania

W zarządzaniu infrastrukturą IT ważna jest regularna aktualizacja rozwiązań do backupu. Zalecenie dotyczy oprogramowania, urządzeń, systemów, na których jest wykonywana praca.

Aktualizacje pozwalają na zabezpieczenie systemów i urządzeń, co zwiększa gwarancję odzyskania danych w sytuacji krytycznej oraz minimalizuje ryzyko utraty danych.

Reliability

W zakresie backupu architektury w chmurze, stworzony został zestaw najlepszych praktyk przez dostawców usług chmurowych. Jednym z filarów najlepszych praktyk w zakresie backupu w chmurze jest reliability.

Reliability dotyczy zdolności systemu do odzyskiwania danych po awarii infrastruktury lub usług oraz zdolności do dynamicznego pozyskiwania zasobów obliczeniowych w celu zaspokojenia zapotrzebowania oraz łagodzenia zakłóceń takich, jak błędna konfiguracja lub przejściowe problemy z siecią komputerową.

VPC (Virtual Private Cloud)

Szybka gotowość do działania

VPC oferowany przez AWS pozwala na organizację środowiska informatycznego firmy w chmurze w taki sposób, by w przypadku konieczności odtworzenia danych lub realizacji scenariusza disaster recovery, wszystko było jak najszybciej gotowe do działania.

Autoskalowalność i georedundancja

Autoskalowalność rozwiązania oraz możliwość realizacji scenariuszy w różnych DC (centrach przetwarzania danych – georedundancja) pozwala na uzyskanie wyższego poziomu SLA, czyli gwarancji od strony dostawcy chmury, że środowisko będzie dostępne i będzie działać.

S3 jako backup off-site dla firmy

S3 jako backup off-site dla firmy

Simple Storage Service

W kontekście kwestii związanych z przechowywaniem danych w chmurze (storage) oraz w zakresie planu dotyczącego zapewnienia trwałości dla przechowywanych danych, firmy korzystają z Simple Storage Service (tzw. S3, obiektowy storage).

S3 to miejsce przechowywania kopii zapasowych.

Gwarancja trwałości danych w chmurze

Amazon S3 daje gwarancję dotyczącą trwałości danych – jest to minimalnie “jedenaście dziewiątek”, czyli 99,999999999% trwałości danych w skali roku. Wspomniany poziom gwarancji oznacza, że jeżeli firma posiada 10 milionów plików i przechowywałaby je przez 10 tysięcy lat, wówczas jest szansa, że z tylko z jednym z tych plików wystąpi jakiś problem.

Trwałość danych jest zatem ogromna, nawet na podstawowym poziomie oferty. Jeśli chodzi o dostępność, gwarancja wynosi 99,99%, co oznacza, że miejsce, w którym przechowywany jest backup firmowy może być niedostępne w ciągu roku przez 53 minuty (co nie zmienia gwarancji, że dane są trwałe i nieuszkodzone).

Wykorzystanie S3 jest przypadkiem, w którym firma potrzebuje zewnętrznej lokalizacji do przechowywania backupu, który może być realizowany za pomocą własnych środków (jedynka z zasady “3-2-1”). Alternatywnie firma może skorzystać z gotowych usług dostępnych w Amazon.

AWS Elastic Disaster Recovery

AWS Backup to centralny system do zarządzania backupem firmy. AWS Elastic Disaster Recovery pozwala przygotowywać plany odtworzenia danych oraz planować testy w zakresie realizacji scenariuszy disaster recovery (np. failover do chmury).

Usługi wspierają rozwiązania on-premise, co pozwala na zabezpieczenie lokalnego Data Center firmy. Bez względu, czy infrastruktura znajduje się lokalnie w firmie, czy w chmurze, możemy wykorzystać mechanizmy oferowane przez AWS do odtworzenia środowiska w odpowiednim miejscu.

Usługi wspierają również backupowanie bardziej skomplikowanych zasobów (bazy danych Oracle lub SAP). Należy również zwrócić uwagę na parametry RPO oraz RTO, ponieważ trzeba ustalić z jakiego najbliższego momentu możemy odtworzyć kopie zapasową (kiedy dane nie są uszkodzone) oraz w jakim czasie jest możliwość odtworzenia danych w celu przywrócenia biznesu do działania.

Gwarancja trwałości danych w chmurze

Backup vs disaster recovery

Pojęcia “backup” oraz “disaster recovery” oznaczają zupełnie coś innego, mimo, że zdarza się, że w firmach używane są zamiennie. Tymczasem pojęcia wymagają innych polityk oraz innego przygotowania.

Najłatwiej różnicę między tymi dwoma pojęciami przedstawić w następujący sposób: backup dotyczy danych, a disaster recovery będzie dotyczyło systemów i będzie pozwalało na otworzenie całego systemu i całej infrastruktury.

Bezpieczeństwo chmury oraz bezpieczeństwo w chmurze

Współdzielony model odpowiedzialności

W kontekście chmury warto również przybliżyć pojęcie tzw. współdzielonego modelu odpowiedzialności. Firma umieszczając dane w chmurze nie może z automatu uznać, że dane są całkowicie bezpieczne.

Dostawca (np. AWS) jest odpowiedzialny za bezpieczeństwo chmury, firma natomiast jest odpowiedzialna za bezpieczeństwo w chmurze.

Firma dba o bezpieczeństwo w chmurze

Firma musi zwrócić uwagę na sposób przydzielania uprawnień dotyczących korzystania ze środowiska oraz w jaki sposób wykorzystywane są wszystkie mechanizmy.

Dostawca chmurowy zapewnia zatem zaplecze infrastruktury (sprzęt, globalna infrastruktura, zapewnienie mocy obliczeniowej, storage, aktualizacje systemu) oraz dba o bezpieczeństwo samej chmury.

Klient musi dbać o bezpieczeństwo w chmurze – zależnie od usług, które uruchamia.

Dwa słowa o taśmach magnetycznych

W tym miejscu warto zwrócić uwagę na popularne rozwiązanie wśród większych firm polegające na wykorzystywaniu taśm magnetycznych (LTO) do przechowywania danych na dłuższy okres czasu w wyznaczonym miejscu.

Co ważne, takie nośniki danych muszą być przechowywane w bezpiecznym pomieszczeniu w odpowiedni sposób, z zapewnieniem optymalnych warunków środowiskowych (np. temperatura, wilgotność, itp.), w celu zapewnienia trwałości kopii zapasowej w razie przypadku, kiedy trzeba do niej sięgnąć.

Innymi słowy takie rozwiązanie wymaga planowania z uwzględnieniem choćby takich szczegółów, jak np. wykorzystywane generacje taśm (dopasowane do streamerów taśmowych mogących zazwyczaj obsługiwać taśmy do dwóch generacji wstecz).

Bezpieczeństwo chmury oraz bezpieczeństwo w chmurze

.