Wykresy, grafy i ikony, czyli co nam daje wizualizacja infrastruktury sieciowej
Nie od dziś wiadomo, że jeden obraz może powiedzieć więcej niż tysiąc słów. Ta reguła idealnie wpisuje się w temat dotyczący monitorowania firmowych sieci. Nie wystarczy bowiem tylko w czasie rzeczywistym monitorować działających w niej systemów i aplikacji, ważne jest, żeby te dane rozumieć i dobrze je interpretować.
Odpowiednia, przekrojowa wizualizacja infrastruktury sieciowej, czyli pulpit z różnokolorowymi słupkami, wykresami, widgetami, grafami nie powinien więc służyć tylko temu, żeby zaimponować szefowi (wszystko świeci się na zielono, więc to znaczy że wszystko w firmie działa dobrze) lub uzasadniać potrzebę zakupu nowych monitorów 4K do firmy, ale przede wszystkim powinna służyć porównywaniu zebranych przez system danych i wyciągania z nich odpowiednich wniosków.
Uważnie oglądać
Zdecydowanie łatwiej to robić, kiedy na małej powierzchni wyświetla się wiele informacji, podanych w przystępny sposób. Mowa tu o jednym, graficznym pulpicie zbiorczym przedstawiającym dane o sieci w różnych przekrojach i widokach, często na wielu ekranach równocześnie, ze zmieniającymi się mapami i wykresami, który pozwala na całościowy wgląd we wszystkie elementy składowe sieci zebrane przez system monitorujący. Należy pamiętać również, że infrastruktura IT to nie tylko komputery, ale również dodatkowe urządzenia takie jak klimatyzatory, centrale telefoniczne, kamery, systemy alarmowe, urządzenia pomiarowe, urządzenia automatyki. Co więcej niektóre dane istotne dla pełnego obrazu kondycji firmy mogą pochodzić z jeszcze bardziej nietypowych źródeł – z pliku, strony webowej, bazy danych lub prostego skryptu.
Wszystkie te elementy mogą być zwizualizowane w różny sposób i na wielu ekranach jednocześnie, można wyświetlić widoki całej sieci lub jej fragmentów, co więcej mogą być również pokazane na tle mapy geograficznej lub planu budynku z podziałem na pomieszczenia. Doświadczenie pokazuje też, że bardzo przydają się widoki z listą urządzeń z najgorszą wydajnością określonego parametru - np. widok serwerów z najmniejszą ilością wolnego miejsca na dysku. Działają od razu na wyobraźnię administratorów, którzy natychmiast podejmują działania naprawcze.
Prioryteryzować
Ilość danych zbieranych o pracy sieci to codziennie tysiące parametrów wydajnościowych, zdarzeń, powiadomień, zmian stanów, nowych rodzajów i źródeł danych. Żaden administrator nie ma dziś czasu na to, żeby skrupulatnie przeglądać tabelki i żmudnie analizować wykresy. Normalne jest to, że oczekuje od programu monitorującego, że to właśnie on za niego automatycznie porówna ostatnie metryki do oczekiwanych i w razie rozbieżności powiadomi określoną osobę albo nawet samodzielnie wykona określoną akcje naprawczą (restart serwisu czy uruchomienie skryptu). Rolą administratora jest "rzucenie okiem" na przekaz graficzny na pulpicie (z zastosowanymi kolorami, na które człowiek szybciej reaguje - czerwony znaczy "stop, uwaga", zielony "jest ok"), wyciągnięcie odpowiednich wniosków i prioryteryzacja zaplanowanych działań na konkretny dzień. Najważniejsze oczywiście zawsze powinny być wyświetlane informacje o trwających alarmach - na nich administrator powinien skupić się od razu po przyjściu do pracy, żeby zminimalizować ryzyko awarii.
Przewidywać
Program do monitorowania sieci służyć też powinien do wykrywanie anomalii i trendów. Te bowiem pozwalają wychwycić niepokojące symptomy i dają możliwość odpowiedniej reakcji, zanim nastąpi awaria (kończąca się pamięć, coraz bardziej przeciążony przełącznik lub zapchane łącze internetowe). Jak to zrobić? System do monitorowania sieci poprzez zbiorcze porównanie pokazuje nietypowe odchylenia lub przeciążenia dla jakiegoś urządzenia. Nie jest to jeszcze alert, jednak warto to przeanalizować - takie kwestie mogą zwiastować nadchodzące problemy sprzętowe lub też być symptomem zagrożenia a nawet ataku hakerskiego. Aby móc analizować trendy, warto monitorować urządzenia tego samego typu w ten sam sposób, czyli w oparciu o te same reguły. Porównujemy w ten sposób kluczowe wskaźniki wydajnościowe tych urządzeń (key performance indicators) lub udostępnianych na nich usług. Działanie takie, ale w dłuższym odstępie czasu pozwala również na określenie trendu zmienności (pamięć, pasmo, obciążenie urządzenia, itp) i podjęcie odpowiednich decyzji budżetowych lub też optymalizacji wykorzystania istniejącej infrastruktury. Co więcej, długotrwałe przechowywanie danych o określonych zdarzeniach (np. danych o wszystkich logowaniach osób mających dostęp do sprzętu na którym znajdują sie dane wrażliwe) jest częścią audytu lub wymogiem polityki bezpieczeństwa organizacji.
Wraz z rozwojem i pojawianiem się nowych technologii sieciowych, monitorowanie sieci obejmuje coraz szersze i bardziej zróżnicowane jej aspekty. Wraz ze spadkiem ceny pamięci, firmy chętnie ulegają pokusie monitorowania wszystkiego, co się da i przechowywania zebranych danych jak najdłużej. Trzeba pamiętać, że bez odpowiedniej prezentacji wszystkie te dane jednak są przytłaczające i tym samym bezużyteczne. Dopiero odpowiednia ich wizualizacja sprawia, że stają się użytecznym i często niezbędnym narzędziem w podejmowaniu codziennych, ale również długofalowych decyzji biznesowych.
Artykuł został również opublikowany w październikowym wydaniu magazynu ITWIZ.