Bezpieczeństwo danych w laboratorium. Część 4: Ochrona przed malware
W środowisku GxP, gdzie integralność i dostępność danych mają ogromne znaczenie, złośliwe oprogramowanie może nie tylko zatrzymać pracę laboratorium, ale również skutkować trwałą utratą lub kradzieżą danych. W kolejnej części cyklu wpisów współtworzonych z Data Must Flow dotyczących bezpieczeństwa i ochrony danych w laboratorium, zajmiemy się tematem:
🟦 Ochrona przed malware
Tradycyjny antywirus już nie wystarczy. Obecnie wymagane jest zastosowanie systemów NGAV (Next-Generation Antivirus) i EDR (Endpoint Detection and Response), które wykorzystują analizę behawioralną, uczenie maszynowe i sandboxing. Taki “zestaw” jest bardziej zorientowany na prewencję niż na reakcję i umożliwia wykrywanie nieznanych jeszcze zagrożeń. Warto wdrażać tego typu rozwiązania nie tylko na komputerach biurowych, ale jeśli to możliwe także na stacjach sterujących aparaturą. Nieodłącznym elementem bezpieczeństwa jest także zarządzanie podatnościami, czyli ciągły proces identyfikacji, oceny, priorytetyzacji i eliminacji luk w zabezpieczeniach systemów, sieci i aplikacji. Każde wdrożenie zmian w GxP musi być poprzedzone oceną ryzyka i walidacją, dlatego niezbędny jest kontrolowany proces zarządzania zmianą.
W przypadku laboratoriów, które są na stałe podłączone do internetu, e-maile to nadal jeden z najczęstszych wektorów ataku. Dobre systemy zabezpieczające pocztę powinny nie tylko analizować załączniki, ale również weryfikować linki i chronić przed podszywaniem (protokoły DMARC, DKIM, SPF). Ponieważ coraz więcej aplikacji laboratoryjnych działa w przeglądarce, przydatna może być izolacja tej aplikacji i wykorzystanie systemów WAF (Web Application Firewall), które filtrują, monitorują i blokują ruch HTTP, zwłaszcza wykonywanie skryptów. Przydatne są również systemy IDS/IPS (wykrywanie i zapobieganie włamaniom) oraz narzędzi NTA (Network Traffic Analysis), które rozpoznają anomalie w ruchu sieciowym.
Nieco innym problemem jest fakt, że zwykle z powodów kompatybilności z aparaturą wykorzystywane są przestarzałe systemy operacyjne (np. Windows 98/XP), które są praktycznie bezbronne wobec współczesnych zagrożeń. Jeśli ich aktualizacja nie jest możliwa, jedynym rozwiązaniem pozostaje ich ścisła kontrola w dedykowanym segmencie sieci, a najlepiej izolacja. Przenoszenie danych pomiędzy takimi stacjami powinno być uwzględnione w polityce bezpieczeństwa – korzystanie tylko z dedykowanych nośników lub z osobnej stacji buforującej do kopiowania i konwersji danych.
Dla rozwiązań chmurowych warto pamiętać, że odpowiedzialność za bezpieczeństwo danych leży po stronie użytkownika dlatego warto skorzystać z narzędzi CSPM (Cloud Security Posture Management), aby uniknąć błędów konfiguracyjnych, które stanowią furtkę dla malware oraz zagrożenie dla poufności danych.
ℹ️ Jeśli potrzebujesz wsparcia w skutecznym wdrożeniu tych rozwiązań – napisz do nas. Edukujemy i pomagamy zadbać o bezpieczeństwo danych w laboratorium.