





















jeśli pracujesz w rmie z branży IT, możesz bezpłatnie zaprenumerować magazyn CRN Polska?
Załóż konto na stronie
crn.pl/rejestracja
Najlepiej poinformowany magazyn w branży IT!
dla resellerów, VAR-ów i integratorów
WALKA W CHMURACH:
ALTERNATYWA DLA BIG TECHÓW
ROZMOWA Z…
6 Henrym Baltazarem, dyrektorem ds. badań rynku pamięci masowych w 451 Research
25 FortiDLP: od ochrony reaktywnej do prewencyjnej (Fortinet)
26 Ochrona sferyczna SphereCyberX: nowy wymiar cyberbezpieczeństwa (Xopero Software)
SERWERY, PAMIĘCI
MASOWE I INFRASTRUKTURA
KONWERGENTNA
Chmura kusi skalowalnością i elastycznością, ale firmy dostrzegają ukryte koszty związane z korzystaniem z niej.
SZTUCZNA INTELIGENCJA
W ZARZĄDZANIU DANYMI
10 AI otwiera nowy rozdział w centrach danych
13 Czego brakuje pamięciom masowym?
ROZWIĄZANIA DO BACKUPU
I ARCHIWIZACJI DANYCH
14 Konsolidacje, chmura i cyberataki: backup pod presją zmian
17 ActiveProtect: backup bez kompromisów (Synology)
18 Bezpieczna i długoterminowa archiwizacja z taśmami Fujifilm
28 Fujitsu Private GPT: bezpieczny asystent AI
SZYFROWANIE DANYCH I ROZWIĄZAŃ KOMUNIKACYJNYCH
30 Szyfrowanie przygotowane na „kwantową apokalipsę”
ZARZĄDZANIE DANYMI W CHMURZE
32 Walka w chmurach: alternatywa dla Big Techów
35 Większość użytkowników chmury chce wracać na ziemię
ZARZĄDZANIE DANYMI
OCHRONA INFORMACJI PRZED WYCIEKAMI
Spektrum wykorzystania rozwiązań AI do wspomagania procesu zarządzania danymi jest bardzo szerokie.
AI TO NIE TYLKO
WSPARCIE – TO TEŻ LUKA
W STRATEGII
20 AI to nie tylko wsparcie – to też luka w strategii bezpieczeństwa
24 Największym zagrożeniem jest… pracownik
36 Sztuczna inteligencja w zarządzaniu danymi
ZARZĄDZANIE CYFROWYMI DOKUMENTAMI
39 Od digitalizacji nie ma ucieczki
42 Indeks firm
BEZPIECZEŃSTWA
Wraz z postępem wdrożeń AI pojawiają się nowe wyzwania dotyczące integralności i bezpieczeństwa danych. 20
SZYFROWANIE
PRZYGOTOWANE
NA „KWANTOWĄ APOKALIPSĘ”
Komputery kwantowe stanowią poważne zagrożenie dla tradycyjnych metod szyfrowania.
Krzysztof Jakubik redaktor prowadzący
Wpołowie lat 90., gdy w mniejszych miejscowościach niewiele osób miało komputer, a przyzwoitą drukarkę jeszcze mniej (królowała wtedy Star LC-20 – ciekawe kto ją jeszcze pamięta?), hobbystycznie parałem się przepisywaniem prac magisterskich i podobnego typu drobną cyfrową poligrafią. Kilka miesięcy temu odkryłem, że w swoim archiwum – starannie kopiowanym z każdego starego komputera na nowszy i zbackupowanym chyba w sześciu miejscach – nadal posiadam wszystkie stworzone wówczas pliki. Dzielnie spakowane ARJ-em (taki przedpotopowy ZIP, który zresztą już wtedy istniał, ale był mniej popularny), bo przecież na dysku o zawrotnej pojemności 210 MB każdy kilobajt był na wagę złota. I… niemożliwe do odczytania (przynajmniej w prosty sposób), bo nowsze wersje używanego 30 lat temu oprogramowania odmawiają współpracy. A wziąć i wcisnąć F8 (kto wie, ten wie) jakoś nie mam odwagi…
Pojęcie cyfrowego chomikowania danych, zwane po angielsku „digital hoarding”, znane jest już od kilkunastu lat. Powstało na styku psychologii, informatyki i zarządzania danymi – jako odpowiedź na rosnący problem gromadzenia ogromnych ilości informacji cyfrowych bez jasnego celu, potrzeby ani kontroli. Termin ten zaczął pojawiać się w publikacjach naukowych i mediach branżowych jako analogia do znanego z psychologii klinicznej zjawiska „compulsive hoarding”, czyli kompulsywnego zbieractwa w świecie fizycznym.
Niech pierwszy rzuci kamieniem ten, kto nigdy nie zostawił na później jakiegoś zdjęcia, wiadomości e-mail czy dokumentu bez jakiejkolwiek selekcji, obróbki, czy nawet otwierania – tak „na wszelki wypadek”. Psychologowie twierdzą, że główną motywacją w takiej sytuacji jest lęk przed utratą informacji, niechęć do podejmo-
wania ważnych decyzji, a także złudne poczucie „cyfrowego bezpieczeństwa”. Oczywiście, problem ten nie dotyczy tylko indywidualnych osób. Firmy w tej kwestii też mają wiele za uszami, a problem narasta między innymi z tego powodu, że zjawisko to – dla odmiany w korporacyjnym języku nazywane „data hoarding” – nie tylko generuje koszty i ryzyko, ale także utrudnia podejmowanie decyzji, obciąża systemy IT i zwiększa powierzchnię ataku dla cyberprzestępców.
Według TJC Group, aż 50 proc. danych przechowywanych przez przedsiębiorstwa to tzw. „dark data” – informacje, które są zbierane, ale nigdy nie są analizowane ani wykorzystywane. Tymczasem ich przechowywanie nie jest przecież darmowe. Szacuje się, że w skali globalnej centra danych zużywają około 3,5 proc. energii elektrycznej, a do 2040 r. współczynnik ten może wzrosnąć nawet do 40 proc. Dodatkowo, przechowywanie jednego petabajta niekrytycznych danych może kosztować ponad pół miliona dolarów rocznie, nie wspominając już o aspektach ekologicznych. No i RODO (plus inne regulacje) – życzę powodzenia w analizowaniu przepastnych archiwów pod kątem poszukiwania w nich danych osobowych oraz wdrażania technik anonimizacji. Co więcej, z powodu nadmiaru danych w oczywisty sposób cierpi nie tylko infrastruktura. Także pracownicy przyznają, że często czują się przytłoczeni dużą ilością informacji, co prowadzi do stresu, zmęczenia decyzyjnego i spadku produktywności. Dodatkowo, trudności w odnalezieniu potrzebnych danych mogą mieć wpływ na opóźnianie procesów decyzyjnych i operacyjnych. Dlatego warto, aby firmy zajmujące się szeroko pojętą obsługą informatyczną w ramach świadczonych usług nauczyły się doradzać swoim klientom w zakresie audytu danych, tworzenia polityki ich retencji, automatyzacji zarządzania, a także pomogły w szkoleniu pracowników. Zamiast gromadzić cyfrowe dane bez opamiętania, warto skupić się na ich jakości, przydatności i bezpieczeństwie. Tylko wtedy – zamiast stanowić cyfrowy pył – staną się po prostu cyfrowym złotem.
Jakich wyzwań doświadczają firmy w związku z zarządzaniem danymi?
Koszty
Niewystarczająca efektywność narzędzi do zarządzania danymi
Słaba jakość danych
Zrozumienie danych i stosowanie w praktyce
Braki kompetencyjne
Brak zdolności do efektywnego wykorzystania danych
NBrak wsparcia ze strony zarządu
Brak wsparcia organizacyjnego 27%
W jaki sposób firma planuje wykorzystać AI do działalności biznesowej?
Analiza danych
Obsługa i wsparcie klientów
Tworzenie treści
Inteligentne asystenty
Segmentacja klientów i personalizacja
Wykrywanie oszustw i zagrożeń
Programowanie
Nie korzystamy z AI lub nie planujemy korzystać
Jaki jest poziom przygotowania firmy do projektów AI?
Zgodność z regułami polityki prawnej, prywatności i bezpieczeństwa
Zgodność ze strategią biznesową
Kultura organizacyjna i wsparcie
Zasoby finansowe
Zapewniona jakość danych i ich dostępność
Umiejętności pracowników i program szkoleniowy
Dobrze przygotowana Częściowo przygotowana Nieprzygotowana
aukowcy z należącej do Drexel University jednostki LeBow College of Business przeprowadzili szeroko zakrojone badanie, w którym przeanalizowali rosnący wpływ znaczenia sztucznej inteligencji na skuteczne zarządzanie. Z opublikowanego przez nich raportu wynika, że 76 proc. osób odpowiedzialnych za analizę danych za główny cel działań uznaje podejmowanie decyzji na bazie informacji, ale aż 67 proc. z nich nie ufa w pełni danym, którymi dysponują. Tylko 12 proc. podmiotów deklaruje, że ich dane są gotowe do wykorzystania w AI, a główną przeszkodą pozostaje jakość danych oraz brak spójnych ram zarządzania. Aż 64 proc. wskazuje jakość danych jako największe wyzwanie, a 62 proc. jako główną barierę dla wdrażania AI wymienia zarządzanie nimi w niedostateczny sposób.
Obecnie aż 71 proc. firm inwestuje w specjalne działania przygotowywania danych do bardziej efektywnego wykorzystania. Coraz większego znaczenia nabierają także wzbogacanie danych i analityka przestrzenna (w ciągu roku zyskały na znaczeniu ponad 60 proc.). Wyzwaniem pozostaje jednak nie tylko technologia – 42 proc. przedsiębiorstw zmaga się z brakiem kompetencji i zasobów ludzkich niezbędnych do realizacji zaawansowanych projektów związanych z danymi.
wersja raportu
„Pamięć trwała będzie wykorzystywana jako rozszerzenie pamięci cache oraz uzupełnienie dla pamięci kart GPU, co pomoże rozwiązać problem niedoboru pamięci przy intensywnych obliczeniach AI i tworzących się w ten sposób wąskich gardeł” – mówi Henry Baltazar, dyrektor
ds. badań rynku pamięci masowych w 451 Research.
n Przez kilka ostatnich dekad byliśmy świadkami zapowiedzi wielu przełomowych technologii na rynku pamięci masowych, które miały zrewolucjonizować przechowywanie danych – zapewniać ogromne pojemności, wybitnie krótki czasu zapisu i odczytu, a także gwarantować niemal wieczystą trwałość. Niektórzy producenci pokazywali wręcz prototypy swoich rozwiązań, ale praktycznie żadne z nich nie weszło do użytku. Czemu tak się dzieje?
Informatycy odpowiedzialni za przechowywanie danych w przedsiębiorstwach są jednymi z najbardziej konserwatywnych i ostrożnych w branży IT. Wynika to z faktu, że pamięci masowe to ostatnia linia obrony w przypadku poważnych problemów, więc ich stabilność i niezawodność są priorytetowe. Warto też pamiętać, że przechowywanie danych nie jest celem
samym w sobie, bowiem stanowią one „paliwo” do uruchamiania zadań obliczeniowych oraz są wynikiem tej pracy. Dlatego obszar ten, mimo że jest niezbędnym elementem infrastruktury IT, raczej nie jest postrzegany jako przestrzeń do wprowadzania częstych innowacji. Owszem, naukowcy co pewien czas ogłaszają przełom w zakresie technik przechowywania danych, ale ze względu na zbyt duże ryzyko utraty informacji lub dostępu do nich klienci nie planują szybkiego wprowadzania zmian, aby być na bieżąco z innowacjami.
Jakie czynniki powinny zostać spełnione, aby rynek zaakceptował takie innowacyjne rozwiązania?
Nawet jeśli nowa technologia przechowywania danych zostanie wynaleziona i jest teoretycznie gotowa do użytku, pojawiają się pytania o możliwość jej masowej produkcji i dostarczenia na rynek w globalnej
skali. Trzeba zapewnić jej ekosystem w postaci standardów, dzięki którym rozwiązania tworzone przez różnych producentów będą ze sobą zgodne. Ważna jest też odpowiednia infrastruktura łączności z innymi systemami IT oraz możliwość produkowania danego nośnika na dużą skalę. Z tych względów, chociaż innowacje są ekscytujące, trzeba podchodzić do nich z rezerwą. Nowe rozwiązania muszą przejść długi proces testowania i akceptacji, zanim staną się rynkowym standardem. Bardzo dobrym przykładem są tu pamięci flash, które wynaleziono w latach 80., a pierwsze macierze dyskowe all-flash były dostępne już ponad 15 lat temu. Mimo to do dzisiaj wiele firm stoi przed dylematem, czy przejść w pełni na półprzewodnikową technologię przechowywania danych, czy też nadal korzystać z mechanicznych dysków, których koncepcja działania powstała 70 lat temu…
Organizacja SNIA rozpoczęła kilka miesięcy temu oficjalne prace nad ustandaryzowaniem przechowywania danych w strukturach DNA. Czy ten fakt można uznać za początek nowego przełomu?
To się dopiero okaże. Z pewnością technologia DNA wciąż znajduje się na etapie eksperymentalnym i nie jest gotowa do praktycznego wdrażania. Nadal wymaga intensywnych badań i optymalizacji.
Fot. Adobe Stock, archiwum
Główną przeszkodą jest ekstremalnie niska prędkość zapisu, nawet milion razy wolniejsza niż na taśmie, a to poważne ograniczenie. Natomiast zaletą nie do przecenienia jest wysoka gęstość przechowywania, która jest kluczowa dla przyszłych potrzeb w zakresie składowania ogromnych ilości danych. Poza tym, jednym z głównych problemów jest zapewnienie trwałości danych przez długi czas, której na obecnym etapie prac nie da się zasymulować. Dlatego konieczne będzie przeprowadzenie ogromnej ilości praktycznych testów, które pokażą rzeczywiste możliwości tej technologii, jej ograniczenia i konieczne do przyjęcia kompromisy. Jeśli nie będzie ona w stanie zaoferować odpowiedniej wydajności, jej zastosowania zostaną ograniczone do niszowych obszarów, a wówczas znacznie wzrośnie ryzyko, że z powodu braku odpowiedniej skali w ogóle się nie przyjmie.
Czy zatem próby rozwijania przez producentów ich portfolio pamięci masowych z góry należy uznać za skazane na porażkę lub objęte dużym ryzykiem? Wspomniana już organizacja SNIA od paru lat promuje też koncepcję „computational storage”, która zakłada przeniesienie części zasobów obliczeniowych bliżej pamięci masowych. Czy ten pomysł też może nie wypalić?
Firmy zajmujące się pamięciami masowymi i zabezpieczaniem danych oczywiście muszą się rozwijać, aby uczynić swoje produkty bardziej wartościowymi. Dlatego podejmują wiele prób, część dość intrygujących, takich jak wprowadzanie mechanizmów analityki danych czy bezpośrednia integracja macierzy z konkretnymi aplikacjami lub środowiskami chmurowymi. Jednym ze sposobów na wzrost jest wejście na rynki pokrewne, jak bezpieczeństwo IT czy zarządzanie danymi. Naturalnie, istnieją takie sytuacje, w których użytkownik może chcieć jak najszybciej przetworzyć pewną ilość danych bezpośrednio w macierzy dyskowej, bo przesyłanie ich przez sieć do serwera wprowadziłoby opóźnienia – w takiej sytuacji zastosowanie koncepcji „computational storage” będzie miało sens. Trudno jednak na razie ocenić jak będzie wyglądał ten segment rynku, gdy dojrzeje, bo z pewnością świadome możliwości takiego rozproszonego przetwarzania danych będą musiały być aplikacje. Finalnie jednak jest
Działy IT przestawiają się z zarządzania fizyczną infrastrukturą na zarządzanie cyklem życia danych i ich dostępnością.
to dobry sygnał, bo dzięki takim działaniom branża pamięci masowych nie będzie stała w miejscu i będzie można liczyć na jej ewolucyjny rozwój.
Jeśli już mówimy o ewolucji, kolejnym interesującym przykładem podnoszonym przez producentów infrastruktury pamięci masowych jest rosnąca popularność protokołu NVMe over Fabric i perspektywa wycofania z użycia znanego ze swojej niezawodności protokołu Fibre Channel. Jak szybko ta zmiana może się wydarzyć?
Chociaż Fibre Channel nie jest już technologią, która rozwija się w znacznym stopniu, nie oznacza to, że całkowicie zniknie z rynku w najbliższym czasie. Wiele istniejących systemów pamięci masowych nadal z niej korzysta i będą one działać przez długie lata, ponieważ migracja do nowych technologii często jest kosztowna i skomplikowana, co oznacza, że zgodna z FC infrastruktura wciąż będzie potrzebna. Tym bardziej, że nowoczesne macierze all-flash mają długą żywotność, często przekraczającą 10 lat. Skoro zaś wiele z nich jest już połączonych przez Fibre Channel, prawdopodobnie protokół ten pozostanie w użyciu przez cały cykl ich życia. Natomiast faktem jest, że firmy inwestujące w macierze z nośnikami NVMe skłaniają się ku transmisji danych zgodnej z protokołem NVMe over Fabric, zwłaszcza w sieci Ethernet, ale ten proces zmian potrwa, zanim dokona się rynkowa zmiana.
Niewątpliwie największym sukcesem ostatnich lat jest spopularyzowanie wykorzystania właśnie pamięci NVMe do przechowywania danych. Jakie w tym obszarze będą kolejne nowości? Z dużym prawdopodobieństwem powszechne zastosowanie znajdzie pamięć trwała (persistent memory), stanowiąca warstwę pomiędzy pamięcią operacyjną a tradycyjnymi systemami przechowywania danych, wobec których zapewnia większą wydajność i elastyczność. Szacuje się, że będzie ona wykorzystywana jako rozszerzenie pamięci cache oraz uzupełnienie dla pamięci kart graficznych z procesorami GPU, co pomoże rozwiązać problem niedoboru pamięci przy intensywnych obliczeniach AI oraz tworzących się tym sposobem wąskich gardeł.
Czy rosnąca popularność przesyłania w niezawodny sposób danych poprzez sieć Ethernet i internet może przyczynić się do rozwoju rynku rozwiązań przetwarzania brzegowego, czyli edge computingu?
W dużym stopniu tak, ale trzeba pamiętać, że edge może oznaczać zupełnie różne środowiska – od zdalnych lokalizacji, czasami bardzo odległych geograficznie, po rozproszone, ale jednocześnie w pewnym sensie skoncentrowane miejskie systemy IoT. Każdy z tych scenariuszy wymaga innego podejścia do przechowywania i przetwarzania danych. W odległych i trudno dostępnych miejscach, gdzie konserwacja systemów jest problematyczna, kluczowe jest ich fizyczne wzmocnienie oraz zapewnienie odporności na trudne warunki, aby zminimalizować konieczność interwencji serwisowej. Poza tym, firmy muszą zdecydować, czy w ramach przetwarzania brzegowego będą tylko zbierać dane i przesyłać je do centrali, czy też przetwarzać je lokalnie i przesyłać jedynie wyniki. Tak różne strategie mogą mieć znaczący wpływ na oczekiwaną przepustowość i wydajność, a to z kolei przekłada się na wymagania wobec sprzętu i infrastruktury sieciowej. Zresztą wyzwań jest znacznie więcej, bo rozwiązania te zazwyczaj działają w środowiskach, które chronione są w niewystarczającym stopniu, co oznacza potencjalne problemy związane z bezpieczeństwem i zapewnieniem zgodności z regulacjami. Dlatego konieczna będzie koncentracja nie tylko na optymalizacji działania systemów przechowywania danych i ich przesyłania, ale także inteligentnego zarządzania nimi oraz automatyzowania migracji.
Między innymi po to, aby zapewnić poprawne działanie środowisk edge computing, przedsiębiorstwom zalecane jest opracowanie strategii, która umożliwi działanie usług chmurowych w modelu hybrydowym. Firmy coraz częściej ją rozważają, ale napo-
Cały czas rośnie rynek usług backupu online.
tykają trudności zarówno w zakresie zarządzania, jak i wsparcia ze strony dostawców. Jak radzić sobie z tymi wyzwaniami?
Optymistycznym zjawiskiem jest to, że wiodący dostawcy pamięci masowej tworzą chmurowe wersje swoich rozwiązań, aby ułatwić zarządzanie nimi i zapewnić płynną replikację pomiędzy własnymi środowiskami a chmurą. Zalecałbym przede wszystkim rozważenie wdrożenia scenariusza, w którym klient integruje swoje rozwiązania z usługami od ich dostawcy. Takie podejście zdecydowanie ułatwi tworzenie kopii danych, a także takie ich zabezpieczanie, aby niemożliwe było ich zaszyfrowanie w efekcie ataku ransomware. W tym obszarze wiele jest jeszcze do zrobienia – z naszych badań wynika, że 24 procent firm wciąż polega wyłącznie na lokalnych kopiach zapasowych. Z kolei 46 procent podmiotów korzysta z modelu hybrydowego, w którym backup wykonywany jest lokalne, a chmura służy jako środowisko do długoterminowego przechowywania danych. Tylko 30 procent firm przeszło całkowicie na model backupu w chmurze. Zaletą takiego podejścia jest też to, że posiadanie kopii zapasowych w chmurze umożliwia uruchamianie na jej zasobach swoich systemów w razie potrzeby, chociażby gdy zabraknie lokalnej pojemności lub mocy obliczeniowej. Można też wykorzystać chmurę jako laboratorium testowe do analizy dużych zbiorów danych lub ćwiczenia algorytmów AI.
W kontekście chmury hybrydowej oraz usług związanych z pamięciami masowymi obserwujemy przesunięcie akcentu z zarządzania nimi na zarządzanie danymi. Jakie wyzwania wiążą się z tą zmianą dla zespołów IT
Coraz więcej firm, partnerów i klientów zwraca
uwagę na
zagadnienia związane z ESG, dzięki którym można uzyskać przewagę konkurencyjną.
i jak muszą one dostosować swoje podejście?
To już jest globalny trend, że działy IT przestawiają się z zarządzania fizyczną infrastrukturą na zarządzanie cyklem życia danych oraz ich dostępnością. W tym celu wprowadzają mechanizmy automatycznej klasyfikacji, optymalizacji przechowywania oraz wykrywania wartościowych informacji. W przeciwieństwie do tradycyjnego zarządzania pamięciami masowymi, zarządzanie danymi dotyczy także kwestii zgodności z regulacjami, bezpieczeństwa, ochrony prywatności i analityki. W związku z tym o te aspekty zespoły IT powinny rozszerzać swoje umiejętności, a także nawiązywać współpracę z innymi departamentami odpowiedzialnymi za te obszary.
Niektórzy dostawcy systemów pamięci masowej sugerują, że wbudowane w ich macierze technologie ochrony danych, takie jak migawki i inne mechanizmy, mogą zastąpić tradycyjne tworzenie kopii zapasowych w firmach. Czy rzeczywiście?
Nie wierzę, że tak się stanie. Faktycznie, migawki oferują pewien poziom ochrony danych, nie zapewniają jednak pełnej niezawodności w przypadku poważnych awarii. Nadal istnieje potrzeba posiadania alternatywnej kopii danych, szczególnie w przypadku katastrofy lub całkowitej awarii systemu. Między innymi dlatego cały czas rośnie rynek usług backupu online, oferowanego przez zewnętrznych dostawców – firmy są nim zainteresowane, ponieważ zależy im na niezawodności i elastyczności całego systemu ochrony.
Jak na rynek systemów przechowywania danych wpłynie szeroko pojęta sztuczna inteligencja?
AI nadal znajduje się w początkowej fazie upowszechniania. Obecnie większy nacisk kładziony jest na rozwój tej technologii oraz kreowanie sposobów jej użycia. W tym stadium rozwoju korzyści czerpią głównie dostawcy mocy obliczeniowej, tacy jak Nvidia. Jednak w miarę, jak sztuczna inteligencja stanie się bardziej powszechna, rozwiną się również takie zastosowania, które będą generować znacznie większą ilość danych. To zaś z ko- Fot. Adobe Stock, archiwum
lei spowoduje wzrost zapotrzebowania na przestrzeń do ich przechowywania. Oczywiście AI pojawia się już od kilku lat także w samych systemach pamięci masowych i jest wykorzystywana do proaktywnego zarządzania nimi oraz przewidywania awarii, dzięki czemu powstają samonaprawiające się rozwiązania. Mechanizmy te ułatwiają również efektywne wdrażanie poprawek bezpieczeństwa i reagowanie na potencjalne luki. Obecnie ta technologia wciąż ewoluuje, ale z biegiem czasu stanie się standardem we większości systemów przechowywania danych, co pozwoli na bardziej zautomatyzowane zarządzanie nimi.
Macierze dyskowe przeznaczone do pracy w środowiskach sztucznej inteligencji będą musiały zapewniać oczekiwany przez nie, zazwyczaj bardzo duży poziom wydajności. Tymczasem już kilka lat temu zrezygnowano z publikowania tradycyjnych wskaźników SPC-1 i SPC-2, ponieważ nie uwzględniały one zmiennych czynników konfiguracyjnych i innych mechanizmów, które mogą wpłynąć na wyniki w rzeczywistych warunkach operacyjnych. W jaki zatem wiarygodny sposób obecnie testować wydajność systemów pamięci masowych?
Każde środowisko i każda aplikacja generują inne rodzaje obciążenia systemu pamięci masowych. Do prowadzenia takich testów wydajnościowych, jakimi były SPC, wykorzystywane są wstępnie określone zestawy danych, które mogą nie odwzorowywać rzeczywistych warunków pracy w przedsiębiorstwie. Dlatego najlepszą metodą porównania wydajności dwóch rozwiązań jest przeprowadzenie testów w rzeczywistym środowisku, z użyciem własnych danych. Nie widzę innego wiarygodnego sposobu, jak wypożyczenie na krótki czas danego systemu od jego dostawcy i obciążenie go własnymi, a więc nie wygenerowanymi syntetycznie danymi, a następnie praca z nimi. Ważne jest też, aby wydajność rozwiązań testować pod kątem różnych obciążeń, takich jak przechowywanie danych strukturalnych, wysokowydajne operacje zapisu/odczytu czy praca z dużymi zbiorami danych, ponieważ każde z nich ma różny wpływ
na system. Ważnym elementem testów jest też ocena ich skalowalności w miarę wzrostu ilości danych – zarówno pod kątem możliwości rozbudowy pojemności, jak też zdolności kontrolera macierzowego do pracy z dodatkowym obciążeniem. Należy również testować jak te systemy współpracują z innymi rozwiązaniami, na przykład backupowymi czy do zarządzania danymi.
Producenci systemów pamięci masowych coraz częściej promują je w kontekście aspektów ESG, czyli środowiskowych, społecznych i związanych z ładem korporacyjnym. Jednak w przeprowadzonym ostatnio badaniu zauważyliście spadek zainteresowania klientów tymi kwestiami. Z czego on wynika? Największy spadek znaczenia ESG w decyzjach zakupowych odnotowaliśmy w aspekcie środowiskowym oraz społecznym – w ciągu ostatnich dwóch lat odpowiednio z 43 do 24 procent oraz z 29 do 17 procent. Aspekty związane z ładem korporacyjnym wciąż pozostają stosunkowo ważne, ale również ich wpływ spadł z 41 do 33 procent, co jednoznacznie wskazuje na spadek ogólnego zainteresowania tematyką ESG. Wiele firm nie przywiązuje dużej wagi do tego zagadnienia, ponieważ przepisy dotyczące tego obszaru nie są
Henry Baltazar
jest dyrektorem ds. badań rynku pamięci masowych w firmie 451 Research, działającej w strukturach S&P Global Market Intelligence. Odpowiada za analizy trendów rynkowych związanych z wyzwaniami środowiskowymi, społecznymi i ładem korporacyjnym (ESG), modernizacją infrastruktury i odpornością na zagrożenia. Publikuje raporty na temat trendów w zakresie przechowywania danych, przywracania środowisk IT po awarii oraz chmury hybrydowej.
jednolite na całym świecie. W wielu przypadkach brak jest standaryzacji w przepisach dotyczących emisji CO2, recyklingu sprzętu czy innych aspektów, co prowadzi do zamieszania i utrudnia podejmowanie decyzji na podstawie tych kryteriów.
Czy pomimo spadku znaczenia tematyki ESG przedsiębiorstwa nadal będą musiały wdrażać rozwiązania zrównoważonego rozwoju w przyszłości? Tak, szczególnie w zakresie zużycia energii i przestrzeni w szafach rack, a kluczowym elementem w ocenie ESG będzie efektywność energetyczna. Nie do przecenienia są też aspekty związane z możliwością uzyskania przewagi konkurencyjnej przedsiębiorstw dzięki odpowiednio komunikowanemu podejściu do zagadnień związanych z ESG, gdyż zwraca na nie uwagę coraz więcej firm, partnerów biznesowych i klientów. Firmy powinny też edukować swoich pracowników na temat zalet wdrażania zasad ESG, by zwiększyć świadomość i poprawić wyniki w tym obszarze, nawet jeśli bezpośrednia motywacja może być mniejsza.
Rozmawiał Krzysztof Jakubik
Do przeszłości
IT przechodzi głęboką metamorfozę.
lat rozwiązania, a także standardowe podejście do projektowania oraz skalowania infrastruktury.
l Wojciech Urbanek
Rynek serwerów wchodzi w nową erę napędzaną sztuczną inteligencją, przetwarzaniem równoległym oraz coraz bardziej wyspecjalizowaną architekturą. Jeszcze dekadę temu serwery x86 sprzedawano średnio za około 4 tys. dol. Dziś pojedynczy system AI bazujący na GPU potrafi kosztować… niemal milion razy więcej. Przesada? Niekoniecznie. Flagowe rozwiązanie DGX GB200 NVL72 od Nvidii to konstrukcja wyceniana na 3,4 mln dol. Co ciekawe, i tak ustawiają się za nią długie kolejki. Według IDC, w czwartym kwartale 2024 r. globalne przychody ze sprzedaży serwerów sięgnęły rekordowych 77,32 mld dol. – to aż 91 proc. więcej niż rok wcześniej. Liderem zestawienia był Dell z udziałem 7,2 proc., tuż za nim uplasowały się Supermicro (6,5 proc.), HPE (5,5 proc.), IEIT Systems (5 proc.) oraz Lenovo (4,9 proc.). Niespodzianką jest obecność w tym gronie chińskiego gracza (IEIT Systems), który wykorzystuje lokalne procesory, GPU i akceleratory AI. Jak na razie ta strategia przynosi efekty, bowiem firma płynie na fali boomu na sztuczną inteligencję. W ciągu roku jej przychody ze sprzedaży wzrosły o 66 proc., a – dla porównania – lider rynku, czyli Dell, odnotował skok o 20,6 proc.
Producenci sprzętu muszą liczyć się ze spadkiem zysków.
Na uwagę zasługuje również fakt, iż 47,3 proc. rynku kontrolują dostawcy ODM (Original Design Manufacturer), którzy projektują i produkują serwery na podstawie specyfikacji przedstawionej przez zamawiającego. Ich sprzedaż w ujęciu rocznym zwiększyła się aż o 155 proc. Grupa tych producentów ODM, którzy dostarczają sprzęt dla hiperskalerów oraz firm oferujących usługi chmurowe, należała do dużych beneficjentów zarówno pierwszej fali sztucznej inteligencji, jak i drugiej – GenAI. Czy to oznacza, że klienci zaczną odwracać się od znanych marek? W taki scenariusz nie wierzy Mikołaj Wiśniak, wiceprezes w IT Solution Factor.
– Serwery czołowych producentów wyróżniają się szeregiem zalet, takich jak optymalna konstrukcja pod kątem efektywności energetycznej i chłodzenia, rygorystyczne procesy weryfikacji jakości, czy certyfikacja od producentów podzespołów. Dobrym przykładem są przyznawane przez Nvidia certyfikaty dla architektury referencyjnej. Znani vendorzy oferują rozbudowane wsparcie techniczne oraz kompleksowe warunki gwarancyjne – tłumaczy Mikołaj Wiśniak.
W ubiegłym roku rosła zarówno sprzedaż klasycznych jednostek z procesorami x86, jak i bardziej zaawansowanych urządzeń, naszpikowanych GPU oraz autorskimi układami ARM. I to właśnie one zmieniają zasady gry w centrum danych. Według IDC, serwery bazujące na architekturze x86 wygenerowały w czwartym kwartale 2024 r. sprzedaż o wartości
54,8 miliarda dol., co oznacza imponujący wzrost o 59,9 proc. rok do roku. Wynika on głównie z szeroko zakrojonej modernizacji infrastruktury centrów danych, gdzie procesory x86 znajdują swoje miejsce zwykle w mniej skalowalnych maszynach z układami GPU od Nvidii. Z kolei serwery inne niż x86, czyli głównie te z układami Nvidia Grace, procesorami ARM wykorzystywanymi przez hiperskalerów i dostawców chmury, a także z systemami IBM mainframe i Power oraz jednostkami Ampere Computing, zanotowały spektakularny wzrost. Wartość ich sprzedaży wzrosła z 6,21 mld dol. w czwartym kwartale 2023 r. do 22,52 mld dol. w analogicznym okresie 2024 r. (co oznacza wzrost o 262 proc.).
AI napędza rynek i… zabiera zyski
Niemal każdy liczący się dostawca infrastruktury teleinformatycznej chlubi się dziś partnerstwem z Nvidią. Jednym słowem – dobrze być Michaelem Dellem, ale jeszcze lepiej Jen-Hsun Huangiem. Dla producentów serwerów nie ma obecnie innego wyjścia niż pielęgnowanie relacji z dominującym graczem na rynku GPU.
Z danych Bloomberg Intelligence wynika, że w 2025 r. przychody ze sprzedaży serwerów obsługujących mechanizmy AI osiągną poziom 162,8 mld dol., a w 2026 r. wzrosną do 217,8 mld dol. Wzrost ten napędza budowa gigantycznych klastrów serwerowych, nierzadko zbliżających się do 200 tys. GPU.
Dla porównania, sprzedaż tradycyjnych serwerów przyniesie w tym roku 89 mld dol., a w przyszłym – 90,8 mld. Jak widać, siła napędowa sztucznej inteligencji całkowicie przyćmiewa skromny, trzyprocentowy wzrost w segmencie klasycznych urządzeń. Tak wyraźne przesunięcie w stronę AI stanowi spore wyzwanie dla vendorów. Reguły gry na tym rynku ustala Nvidia – głównie dlatego, że znaczną część kosztów serwerów AI stanowią właśnie układy GPU, których ceny sięgają kilkudziesięciu tysięcy dolarów za sztukę. Co istotne, producent nie tylko kontroluje ceny, ale i dostępność. Przykładem jest tu architektura HGX – dostępna tylko dla wybranych partnerów platforma zaprojektowana z myślą o centrach danych i aplikacjach AI oraz HPC. To wszystko sprawia, że producenci serwerów mają mocno ograniczone pole manewru i za-
rabiają głównie na konfiguracji, integracji oraz logistyce. Wraz z przemieszczaniem się budżetów w stronę serwerów AI, vendorzy powinni dostosować się do bardziej kosztownego, mniej dochodowego segmentu, co oznacza konieczność przemodelowania strategii, inwestycji w badania i rozwój, a także wsparcia dla niestandardowych konfiguracji oraz zoptymalizowanych rozwiązań pod kątem AI.
Producenci sprzętu muszą się też liczyć ze spadkiem zysków. Szacuje się, że średnia marża brutto ze sprzedaży serwerów AI wynosi około 5 proc., podczas gdy w przypadku serwerów tradycyjnych sięga 15 proc.
– Obniżenie marżowości przy sprzedaży serwerów przeznaczonych do obsługi AI wynika głównie ze skali tych projektów. Często są to bardzo duże inwestycje, takie jak nowe centra danych czy kompletne szafy rackowe dla środowisk AI. W takim przypadku, by sprostać konkurencji, producenci i integratorzy stosują bardziej agresywną politykę cenową – zauważa Mikołaj Wiśniak.
Drugim czynnikiem wpływającym na marże jest już wspomniana dominacja Nvidii, która ma ponad 80 proc. udziału w rynku GPU. Karty graficzne często odpowiadają za 60–80 proc. wartości całej inwestycji, a większa część marży trafia do producentów układów, nie zaś do producentów serwerów. Dodatkowym wyzwaniem dla takich firm jak Dell, HPE czy Lenovo jest rosnąca popularność produkcji własnych serwerów. Coraz więcej firm, w tym startupów AI, decyduje się na zlecanie produkcji bezpośrednio ODM-om z Azji. Jednocześnie hiperskalerzy, tacy jak Amazon, Google i Microsoft, inwestują we własne układy – Trainium, TPU i inne – co w dłuższej perspektywie czasu może uszczuplić potencjalne zyski tradycyjnych dostawców.
Firmy pływają w morzu danych i coraz bardziej zasadne staje się pytanie co zrobić, aby w nim nie utonąć? Tymczasem kolejne fale napływają z wielu stron. Ogólny wzrost ilości danych nieustrukturyzowanych to trend utrzymujący się od lat. Jednak jego dynamika wyraźnie
wiceprezes, IT Solution Factor ZDANIEM
Mikołaj
Z naszych obserwacji wynika, że zapotrzebowanie na infrastrukturę serwerową wciąż rośnie. Ma to związek przede wszystkim z przyspieszoną cyfryzacją przedsiębiorstw, które generują zapotrzebowanie na dodatkową moc obliczeniową. Sprzedaż serwerów klientom publicznym i komercyjnym wzrasta w mniejszym, jednocyfrowym tempie rok do roku, niżby wskazywały na to ogólne dane IDC, które zawierają w sobie wzrost generowany przez budowę dużych ośrodków obliczeniowych, powstających głównie w odpowiedzi na rosnące wymagania w zakresie rozwiązań AI.
IT Solution Factor otrzymał tytuł CRN IT Master 2025
przyspiesza. Główne przyczyny to generowanie danych przez sensory, coraz wyższa rozdzielczość zdjęć i filmów, a także regulacje prawne, które zmuszają przedsiębiorstwa do długotrwałego przechowywania cyfrowych zasobów.
Do tego dochodzi sztuczna inteligencja i związane z nią projekty, które pochłaniają ogromne ilości danych i znacząco wydłużają ich retencję. Co więcej, zmienia się przy tym sposób postrzegania danych przez decydentów. Wcześniej uznawane głównie za kosztowny zasób, dziś coraz częściej traktowane są jako strategiczne aktywo – wspierające innowacje, rozwój produktów czy personalizację usług. Aby jednak dane mogły rzeczywiście napędzać wartość biznesową, konieczna jest elastyczna, skalowalna i wydajna infrastruktura pamięci masowej.
Według szacunków IDC, przedsiębiorstwa mogą oczekiwać, że pojemność wykorzystywanych przez nie zasobów pamięci masowej będzie rosła średnio o 30 proc. rocznie. Z kolei badanie przeprowadzone przez Recon Analytics na zlecenie Seagate’a pokazuje, że aż 95 proc. firm korzystających z AI lub planujących jej wdrożenie już obecnie podejmuje działania dostosowawcze. Najwięcej z nich (61 proc.) planuje inwestycje w pamięć masową o większej skalo-
walności, 56 proc. w oprogramowanie do zarządzania danymi, a 49 proc. wdraża techniki kompresji.
W tym kontekście oczywistym jest, że o ile ilość danych będzie rosnąć niemal w nieskończoność, o tyle budżety IT już nie. Dlatego przedsiębiorstwa muszą działać zgodnie z zasadą „więcej za mniej”. Stąd wysoki odsetek podmiotów, które poszukują narzędzi i rozwiązań umożliwiających optymalizację i „odchudzanie” repozytoriów danych.
Morze informacji stanowi poważne wyzwanie również dla dostawców systemów pamięci masowej – zwłaszcza w kontekście rosnących wymagań generatywnej AI. Wielu ekspertów uważa, że to właśnie pamięć masowa staje się dziś wąskim gardłem w procesie trenowania i uruchamiania dużych modeli językowych. Liderzy rynku modernizują swoje rozwiązania, by sprostać tym wyzwaniom. Kluczowa staje się nie tylko pojemność, ale i wydajność infrastruktury oraz zdolność do pracy z rozproszonymi źródłami danych.
– Dane potrzebne do pracy z modelami AI znajdują się często w oddzielnych silosach, aplikacjach bądź systemach. To stawia nowe wymagania przed środowiskiem sieciowym, które musi zapewnić odpowiednią przepustowość dla danych współużytkowanych przez wiele serwerów GPU. Współczesne systemy pamięci masowej wyposażone są już w wielokontrolerowe interfejsy sieciowe, takie jak 100+ Gb/s, pozwalające obsłużyć najbardziej wymagające środowiska GenAI – tłumaczy Radosław Piedziuk, Storage Platforms & Solutions Sales Leader w Dell Technologies.
Obok rynkowych gigantów, takich jak Dell, HPE, IBM czy NetApp, pojawiają się także nowi gracze z innowacyjnymi koncepcjami, a wśród nich WEKA, Hammerspace czy VAST Data. Ich celem jest zmiana wieloletniego paradygmatu zakładającego kompromis między ilością przechowywanych danych a szybkością
Pamięć masowa staje się dziś wąskim gardłem w procesie trenowania AI.
ich przetwarzania. Nowe rozwiązania coraz częściej próbują pogodzić ze sobą oba te aspekty.
Technologia infrastruktury hiperkonwergentnej (HCI) przeszła długą drogę od swojego debiutu ponad dekadę temu. Pozwala ona na abstrakcję zasobów sprzętowych, umożliwiając ich przydzielanie w sposób zbliżony do tego, jak robią to dostawcy usług chmurowych. I chociaż to ogromna zaleta, HCI nie jest wolne od wad. Jedną z największych jest uzależnienie się od konkretnego dostawcy, co doskonale obrazuje przykład VMware’a. Przejęcie tego producenta przez Broadcom wywołało istotne zamieszanie na rynku HCI, mocno powiązanym z rozwiązaniem vSAN – kluczowym komponentem platformy VMware. Odejście od licencji wieczystych oraz odcięcie od oferty znacznej liczby mniejszych klientów i partnerów sprawiły, że wiele firm zaczęło rozglądać się za alternatywami. Zyskali na tym tacy producenci jak: Nutanix, Microsoft, Red Hat, Proxmox czy StorMagic. – Rynek HCI ewoluuje, a przejęcie VMware’a przez Broadcom wpłynęło na decyzje wielu klientów poszukujących większej przewidywalności i elastyczności. W odpowiedzi na te zmiany niektórzy producenci wprowadzają własne rozwiązania oferujące przejrzysty model licencjonowania i rozliczania za gniazdo procesora – mówi Katarzyna Jedlińska, Storage & Data Services Category Manager w HPE. Mimo tych turbulencji, przyszłość HCI rysuje się w jasnych barwach. Duże nadzieje wiązane są z rozwojem przetwarzania na brzegu sieci. HCI idealnie wpisuje się w te potrzeby – jest blisko użytkownika końcowego, a jednocześnie zapewnia wystarczającą moc obliczeniową i zasoby do przechowywania danych. – Centrum danych nie musi być już takim obiektem jak dotychczas. Ono znajduje się na brzegu sieci, gdzie obecnie wytwarza się 75 proc. danych, a 40 proc. z nich jest tam również przechowywanych – podkreśla Bruce Kornfeld, Chief Product Officer w StorMagic.
Dodatkowo, infrastruktura hiperkonwergentna eliminuje silosy, które narastały w serwerowniach przez długie lata.
Przemysław
Country Sales Manager Poland, Synology
W przypadku klientów korporacyjnych zauważyliśmy wzrost w sprzedaży systemów all-flash i tutaj popytem, wbrew pozorom, cieszą się głównie duże rozwiązania z dyskami o pojemności 7 TB. Dość często w przypadku dużych firm klient wybiera opcję klastra wysokiej dostępności, który pozwala na zapewnienie ciągłości pracy oraz izolację dwóch urządzeń – czy to w osobnych strefach budynku, czy fizycznie w innych budynkach. Zauważyliśmy, że nasze serwery są czasami wykorzystywane do testowania małych modeli AI, natomiast w przypadku dużych produkcyjnych modeli potrzebne są trochę inne rozwiązania.
Dla bardziej skalowalnych środowisk przygotowujemy już rozwiązanie, którego testy obecnie trwają.
Synology otrzymało certyfikat CRN Channel Master 2025
Trendy na polskim rynku nie odbiegają od trendów globalnych. Analitycy przewidują wzrosty zarówno w przypadku serwerów dla środowisk AI, jak również dla tych obsługujących tradycyjne zadania obliczeniowe. W porównaniu z innymi rynkami, w szczególności Europy Zachodniej czy USA, trend zakupowy dotyczący serwerów AI jest opóźniony. Obecnie w Polsce widzimy wczesny etap prototypowania małych środowisk lokalnych, podczas gdy na bardziej zaawansowanych rynkach pojawiają się już w większej mierze rozwiązania produkcyjne.
Dell otrzymał certyfikat CRN Channel Master 2025
W czasach, gdy przedsiębiorstwa borykają się z rosnącymi kosztami operacyjnymi i naruszeniami bezpieczeństwa IT, uproszczenie infrastruktury staje się naturalnym kierunkiem, który jest wybierany przez coraz większą liczbę firm. n
Opublikowany przez firmę
DataCore raport „The State of Data Storage 2024” ukazuje skalę wyzwań, z jakimi mierzą się przedsiębiorstwa w zarządzaniu rosnącym wolumenem danych. Aż 88 proc. specjalistów ds. pamięci masowych przyznaje, że ich obecna infrastruktura nie zapewnia kluczowych funkcji, co przekłada się na potrzebę uproszczenia architektury i większej elastyczności zakupowej. Coraz większą rolę w zarządzaniu pamięcią odgrywa sztuczna inteligencja – 70 proc. firm już wdrożyło lub planuje wdrożyć sztuczną inteligencję w tym obszarze. Mimo to jedynie 41 proc. czuje się przygotowanymi na skutki rosnącego wpływu AI, a aż 93 proc. zgłasza obawy związane z bezpieczeństwem, prywatnością i integralnością danych. Większość firm nadal preferuje przechowywanie danych lokalnie (w centrach danych lub rozproszonych strukturach), chociaż chmura i partnerzy zewnętrzni zyskują na znaczeniu. Wnioski płynące z badania wskazują, że strategia przechowywania danych musi dziś uwzględniać nie tylko wydajność i koszty, lecz także skalowalność pod kątem zadań AI, a także nowych modeli zarządzania.
Pełna wersja raportu
Główne cechy, których brakuje w posiadanym środowisku pamięci masowych
Wysoka dostępność (brak ryzyka przestoju)
Wystarczająca wydajność
Ochrona przed modyfikacją danych
Możliwość rozszerzenia pojemności/rozbudowy sprzętu bez przerw w pracy
Inteligentne zarządzanie systemem z wykorzystaniem AI
Kontrolowany, ale łatwy dostęp do danych z dowolnego miejsca
Łatwe i nieograniczone skalowanie pojemności
Optymalizacja pojemności (mniejsze zapotrzebowanie na przestrzeń na dane)
Możliwość stworzenia (prywatnej) chmury
Ochrona przed skutkami katastrofy (zapasowa lokalizacja/chmura)
Natywne środowisko kontenerowe
Wsparcie standardu NVMe-oF
Brak (środowisko spełnia wszystkie wymogi)
Uproszczone zarządzanie różnymi rodzajami pamięci masowych
Obniżenie kosztów poprzez wdrażanie rozwiązań od różnych dostawców
Zapewnianie wyższej wydajności pamięci masowych
Przygotowanie infrastruktury pamięci masowych na przyszłość
Automatyzacja powtarzalnych i skomplikowanych operacji administracyjnych
Wydłużenie okresu użytkowania posiadanych pamięci masowych
Lepsza widzialność środowiska pamięci masowych
Unikanie wymiany całych rozwiązań oraz uzależnienia od jednego dostawcy
Zaawansowane usługi zarządzania dla zdalnych biur i środowisk brzegowych
Po latach umiarkowanej stagnacji rynek rozwiązań do ochrony danych obecnie tętni życiem. Konsolidacje, wzrost liczby ataków ransomware oraz ekspansja SaaS redefiniują podejście firm do backupu i odzyskiwania danych.
l Wojciech Urbanek
Rynek rozwiązań do ochrony danych konsoliduje się. Dla klientów oznacza to zarówno korzyści, jak i nowe wyzwania. Z jednej strony ograniczenie liczby dostawców może zmniejszyć konkurencję i wpłynąć na wzrost cen, ale z drugiej – zintegrowane platformy zapewniają większą spójność środowiska backupu, łatwiejsze zarządzanie nim i uproszczone utrzymanie.
Zdaniem analityków, fuzje i przejęcia zrealizowane w 2024 r. już wkrótce przyniosą nowe, zaawansowane rozwiązania techniczne. Jednym z najgłośniejszych wydarzeń na rynku było przejęcie firmy Cohesity przez Veritas. Transakcja została sfinalizowana 10 grudnia ub.r., a wartość połączonych firm, które obsługują łącznie ponad 12 tys. klientów, szacowana jest na 7 mld dol.
Ostatnio aktywnością wyróżniał się również Commvault, który przeprowadził dwie strategiczne akwizycje. Najpierw za 47 mln dol. przejął Clumio – firmę specjalizującą się w backupie środowisk AWS. Następnie nabył Appranix, dostawcę skupiającego się na automatycznym odzyskiwaniu aplikacji
chmurowych po awariach i cyfrowych incydentach.
Ofertę rozszerzył także Veeam, włączając do niej usługi reagowania na ataki ransomware, co było możliwie dzięki przejęciu firmy Coverware. Zmiany te nie dotyczą wyłącznie graczy backupowych – także giganci IT zaczynają mocniej interesować się tym segmentem. W lutym 2025 r. jednym z inwestorów Veeam został Microsoft, zapowiadając strategiczne partnerstwo, którego celem jest tworzenie innowacyjnych rozwiązań bazujących na sztucznej inteligencji. Dynamiczne zmiany zaszły również w segmencie usług SaaS. We wrześniu Salesforce za 1,9 mld dol. przejął firmę Own Company – dostawcę rozwiązań do backupu danych w środowiskach SaaS. Wcześniej Own było już jednym z podmiotów w portfelu inwestycyjnym Salesforce’a. Równocześnie Microsoft, za pośrednictwem platformy Azure, wprowadził usługi backupu dla środowisk Microsoft 365.
Konsolidacje wpłynęły istotnie na układ sił w branży ochrony danych. Zgodnie z danymi IDC, liderem stała się
grupa Cohesity-Veritas, na drugim miejscu uplasował się Veeam, na trzecim Dell. W analizowanym okresie 2019–2024 najszybciej rozwijającym się dostawcą był Veeam, podczas gdy Dell i IBM systematycznie traciły udziały rynkowe.
Jak podkreśla Christophe Bertrand, analityk theCUBE Research, klasyczne podejście do backupu i odtwarzania danych nie wystarcza już, by wyróżnić się na rynku. Coraz więcej dostawców przyjmuje nową rolę – brokera danych dla aplikacji bazujących na generatywnej AI. Celem jest zapewnienie uporządkowanego, bezpiecznego dostępu do historycznych zbiorów danych. Obserwujemy również wzrost znaczenia współpracy pomiędzy firmami z dziedziny ochrony danych i cyberbezpieczeństwa. Działania takich gigantów jak Microsoft czy Salesforce zwiastują intensyfikację ostrej konkurencji między nimi a niezależnymi dostawcami backupu dla środowisk SaaS.
Ransomware wybudził rynek backupu ze snu
Do niedawna dość senny rynek ochrony danych wyszedł z marazmu. Chociaż
analitycy Gartnera już kilka lat temu zapowiadali rewolucję w tym segmencie, prawdziwe przyspieszenie nastąpiło dopiero niedawno. Kluczowym katalizatorem tej zmiany okazał się strach klientów wywołany przez lawinowy wzrost ataków ransomware. Z danych opublikowanych przez firmę Chainalysis, specjalizującą się w śledzeniu przepływów kryptowalut, wynika, że w 2024 r. ofiary ransomware zapłaciły łącznie 814 mln dolarów okupu. Choć to nadal ogromna kwota, stanowi spadek o 35 proc. w porównaniu z rokiem poprzednim. Forbes donosi, że jedna z nieujawnionych ofiar zapłaciła gangowi Dark Angels aż 75 mln dol. Poważne problemy dotknęły także Snowflake’a. W wyniku ataku ransomware doszło do naruszenia danych 64 tys. klientów tej firmy, a powrót do normalnego funkcjonowania zajął jej kilka miesięcy.
Mniej optymistyczne informacje zawiera raport firmy ubezpieczeniowej Travelers Companies. W czwartym kwartale 2024 r. odnotowano aż 1663 ataki ransomware – to najwyższy wynik w historii. Powiązane jest to z pojawieniem się 55 nowych grup przestępczych, co oznacza wzrost aż o 67 proc. względem 2023 r. Eksperci wskazują na rosnącą popularność modelu Ransomware-as-a-Service (RaaS), który umożliwia prowadzenie cyberataków nawet mniej doświadczonym przestępcom.
Nowicjusze koncentrują swoje działania głównie na małych i średnich firmach, które są bardziej skłonne do zapłaty, choć okup bywa niższy niż w przypadku dużych korporacji. To może tłumaczyć spadek całkowitych przychodów gangów ransomware w 2024 r. Dla wielu przedsiębiorców kopie zapasowe są ostatnią deską ratunku. Jednak samo ich posiadanie nie gwarantuje bezpieczeństwa – w rzeczywistości systemy backupowe coraz częściej stają się jednym z pierwszych celów atakujących. Z danych firmy IDC wynika, że ponad połowa ataków ransomware obejmuje próby naruszenia kopii zapasowych, z czego aż 60 proc. kończy się powodzeniem. Skutki są poważne – nie tylko z punktu widzenia żądanych kwot, ale także zakłóceń operacyjnych. Firmy, których backupy zostaną zaszyfrowane, muszą liczyć się z dużo wyższymi kosztami.
Jak wynika z danych Sophos, mediana żądań okupu w takich przypadkach wynosi 2,3 mln dol., wobec 1 mln dol., gdy kopie pozostają nienaruszone.
– Ransomware zmienił podejście do ochrony danych zarówno dostawców rozwiązań, jak i użytkowników. W pierwszej kolejności wprowadzono w oprogramowaniu takie funkcje jak niezmienność kopii zapasowych, szyfrowanie oraz mechanizmy wykrywania anomalii, które mogą wskazywać na atak ransomware. Pojawiły się też rozwiązania sprzętowe oferujące izolowane środowiska do przechowywania kopii zapasowych, chroniące przed złośliwym kodem – mówi Paweł Mączka, CTO Storware’a.
Co istotne, firmy częściej niż do tej pory aktualizują swoje procedury bezpieczeństwa, kładąc większy nacisk na regularne testowanie planów DR i edukowanie pracowników w zakresie rozpoznawania zagrożeń. Poza tym rośnie grupa użytkowników zainteresowanych archiwizacją danych na nośnikach taśmowych. I nie chodzi tutaj tylko o koszty, ale również zabezpieczenie przed atakami ransomware.
Chociaż ransomware znacząco pobudził segment rozwiązań do backupu i odzyskiwania po awarii (DR), nie jest to jedyny trend kształtujący ten rynek. Istotny wpływ na ofertę dostawców ma rosnąca popularność usług SaaS. Z opracowanego przez BetterCloud dokumentu „The State of SaaSOps 2024” wynika, że przeciętna firma korzysta średnio ze 112 różnych narzędzi SaaS. Co ciekawe, w porównaniu z 2015 r. nastąpił aż 1300-procentowy wzrost. Do tak spektakularnego skoku w niemałym stopniu przyczyniły się lockdowny, przyspieszając wdrażanie rozwiązań do pracy grupowej, takich jak Microsoft 365, Google Workspace czy Salesforce. Jak łatwo się domyślić, zarządzanie danymi obsługiwanymi przez różnorodne aplikacje, często znajdującymi się u wielu dostawców, a także ich ochrona, stanowi poważne wyzwanie dla użytkowników. Niemal połowa specjalistów IT uczestniczących w badaniu BetterCloud przyznaje, że ma problemy z zabezpieczeniem działań pracowników w aplikacjach SaaS. Zrozumiałe jest, że działy IT zmagają się
przede wszystkim z odpowiednim zabezpieczeniem danych. Co gorsza, wielu usługodawców nadal niejasno przedstawia te kwestie w zapisanych drobnym druczkiem regulaminach.
– Wiele firm błędnie zakłada, że dostawca SaaS automatycznie zapewnia ochronę danych, a to błąd. Dane są własnością użytkownika i to on odpowiada za ich bezpieczeństwo. Na szczęście coraz więcej firm decyduje się na implementację własnych strategii backupu dla aplikacji SaaS, aby zapewnić ciągłość działania i ochronę przed potencjalnymi zagrożeniami. Uważam, że to dobry trend – podkreśla Paweł Mączka.
Obecnie każdy liczący się dostawca rozwiązań do ochrony danych ma w swojej ofercie produkty do backupu Microsoft 365 – najpopularniejszej usługi SaaS na rynku. Na szczególną uwagę zasługuje
Senny rynek ochrony danych wyszedł z marazmu.
strategia firmy HYCU. Według Simona Taylora, jej CEO i założyciela, na rynku może być dostępnych ponad 30 tys. aplikacji chmurowych, a ich liczba stale rośnie. Część z nich to niszowe produkty, jednak ten bostoński dostawca przygląda się przynajmniej 200 najpopularniejszym, aby zapewnić im ochronę. Ponadto świadczy bezpłatną usługę mapowania aplikacji SaaS używanych przez przedsiębiorstwa, wskazując te, które nie są chronione.
Popyt na systemy do ochrony danych gromadzonych i przetwarzanych przez aplikacje SaaS napędza przy okazji sprzedaż usługi Backup-as-a-Service (BaaS).
– Firmy korzystające z SaaS nie rozwijają własnej infrastruktury chmurowej. Dlatego naturalnym krokiem jest wybór backupu w formie usługi. Zapewnia ona pełną ochronę danych bez konieczności budowania i utrzymywania własnego zaplecza sprzętowego – mówi Tomasz Krajewski, dyrektor techniczny sprzedaży na Europę Wschodnią w Veeam.
Natomiast przedsiębiorstwa korzystające z lokalnych serwerowni raczej
Paweł Omiotek,
W ostatnich latach dokonała się wręcz rewolucja w architekturze systemów kopii zapasowych. Aktualnie wdrażane platformy projektuje się zupełnie inaczej, kładąc szczególny nacisk na bezpieczeństwo samych systemów backupowych oraz metody przechowywania w nich danych. Powszechnie stosowane są mechanizmy uwierzytelniania wieloskładnikowego (MFA) oraz ochrony dla krytycznych procesów (MPA). Coraz więcej producentów wykorzystuje utwardzone dystrybucje systemów Linux, często dostarczając gotowe, preinstalowane komponenty w postaci appliance’ów sprzętowych lub oprogramowania zgodnego ze standardami bezpieczeństwa, na przykład normami STIG. Takie podejście zapewnia wysoki poziom ochrony i minimalizuje ryzyko wystąpienia luk konfiguracyjnych. Standardem staje się również certyfikowanie rozwiązań backupowych pod kątem zgodności z normami bezpieczeństwa, takimi jak FedRAMP czy SOC.
Obawy klientów związane z atakami ransomware skłaniają ich do rozważenia różnych rodzajów repozytorium backupu i wdrażanie kilku z nich w ramach jednego systemu. Te różne rodzaje repozytoriów – dyskowe, taśmowe czy też obiektowe – umieszczane są na platformach chmurowych albo lokalnych. Duża cześć firm rozważa stosowanie repozytoriów typu off-site, takich jak air-gap lub przynajmniej zapewniających niezmienność danych. Wybór odpowiednich narzędzi do backupu i DR to zawsze kompromis pomiędzy oferowaną funkcjonalnością, a kosztami związanymi z ich implementacją. Bardzo dużą rolę odgrywa też szeroko rozumiana łatwość korzystania – od wdrożenia po konfigurację, a następnie realizację codziennych zadań związanych z administrowaniem całym rozwiązaniem.
rzadko decydują się na ten model i dopóty będą pozostawać w tym środowisku, dopóki ich preferencje się nie zmienią.
– Rynek usług BaaS dynamicznie rośnie, zwłaszcza wśród małych i średnich przedsiębiorstw, które zazwyczaj korzystają z oferty dostawców działających w modelu Managed Service Provider. Znaczący wzrost popularności BaaS jest widoczny zwłaszcza poza granicami Polski, jednak ta tendencja się zmienia i sektor MŚP coraz częściej skłania się ku rozwiązaniom, które przede wszystkim zapewniają im skalowalność oraz możliwość wzrostu proporcjonalnie do kosztów backupu – komentuje Łukasz Nowatkowski, Cybersecurity Advocate w Xopero Software.
Wyścig w segmencie rozwiązań ochronnych nabiera tempa. Dostawcy wprowadzają nowe funkcje, integrują rozwiązania i coraz częściej sięgają po mechanizmy sztucznej inteligencji oraz uczenia maszynowego. Jednak o skuteczności i efektywności backupu nadal decydują nośniki. W tym obszarze zachodzą zmiany, ale postępują dość powoli. Najlepszym przykładem na potwierdzenie tej tezy jest nieśmiertelna taśma. Ten nośnik zawdzięcza swój długi żywot kilku czynnikom – cenie za jednostkę pojemności, niskiemu TCO, małemu zużyciu energii oraz odporności na skutki ataków ransomware. Co istotne, cały czas się rozwija. Najnowsza generacja taśm LTO-9 zapewnia do 45 TB pojemności po kompresji. Natomiast na mapie drogowej znajduje się już wersja 14. standardu LTO, o pojemności… 1,4 petabajta.
– Taśmy są idealne do długoterminowej archiwizacji, gdyż są trwałe i tanie w przechowywaniu. Są też używane do backupu offline, którego zadaniem jest ochrona danych przed katastrofami. Ich kolejną zaletą jest też efektywność kosztowa przy backupie dużych ilości danych – mówi Łukasz Nowatkowski.
Z kolei dyski twarde są najczęściej wykorzystywane do krótkoterminowych kopii zapasowych, ponieważ charakteryzują się dużą pojemnością, wydajnością i kompatybilnością. Przy czym również w ich przypadku cena stanowi istotną zaletę. Wprawdzie HDD są dużo droższe od taśm w przeliczeniu na jednostkę pojemności,
ale za to są tańsze niż dyski półprzewodnikowe (średnia cena 1 TB na dysku HDD wynosi 35 dol., czyli dwa razy mniej niż przy SSD). I chociaż cena nośnika ma duże znaczenie, to nie powinna być jedynym czynnikiem determinującym ostateczny wybór. Liczy się też wydajność, dlatego często do przechowywania krytycznych kopii zapasowych rekomenduje się nośniki SSD. Oprócz tego, że zapewniają krótszy czas dostępu do danych, a także szybszy transfer niż HDD, są od nich mniej podatne na awarie.
Na ofertę pamięci flash NAND cieniem jednak kładzie się fakt, że ich dostawcy działają zgodnie z zasadą, iż gorszy pieniądz wypiera lepszy. Najtrwalsze, a zarazem najdroższe pamięci SLC (komórki jednopoziomowe) oraz MLC (dwupoziomowe) mają coraz mniejszy udział w rynku, a ich miejsce zajmują dyski półprzewodnikowe z pamięcią TLC (trzypoziomowe) czy QLC (czteropoziomowe) – tańsze i pozwalające przechowywać więcej danych w tej samej przestrzeni, ale znacznie mniej trwałe.
Chociaż przedstawiciele niektórych firm zapowiadają rychły koniec taśm i mechanicznych twardych dysków, trudno dziś w to uwierzyć. Archiwa o pojemności przekraczającej 1 PB danych przestały być, przynajmniej w dużych firmach, czymś niezwykłym.
– W wielu branżach regulacje nakładają obowiązek przechowywania danych przez kilka lat, co sprawia, że skala archiwów stale rośnie. W tym kontekście 1 PB to wcale nie tak dużo, zwłaszcza w przedsiębiorstwach z branży finansowej, telekomunikacyjnej czy medycznej, które przetwarzają potężne ilości danych – mówi Tomasz Krajewski.
Niezależnie od tego, czy dane znajdują się w chmurze, na taśmach, dyskach czy nośnikach offline, jedno jest pewne: ochrona danych stała się nie tylko elementem strategii IT, ale też warunkiem przetrwania biznesu. n
Niektórzy producenci zapowiadają rychły koniec taśm i HDD.
Urządzenia Synology z nowej rodziny Active-
Protect integrują funkcje tworzenia backupu, odzyskiwania danych oraz centralnego zarządzania nimi.
Przyczyniają się do uproszczenia infrastruktury IT i zwiększenia poziomu ochrony przetwarzanych informacji.
Jednym z wyróżników rozwiązania
ActiveProtect jest ujednolicona architektura. Firmy stosujące tradycyjne modele ochrony danych często muszą inwestować w osobne komponenty: serwery, oprogramowanie do backupu, repozytoria, a także rozwiązania do monitoringu i zarządzania. ActiveProtect konsoliduje wszystkie te elementy w jednym, gotowym do działania urządzeniu, które upraszcza wdrożenie systemu backupu oraz redukuje koszty związane z jego integracją i utrzymaniem. Dzięki temu przedsiębiorstwa nie muszą już „żonglować” licencjami,
Biel, Country Sales Manager Poland, Synology
ActiveProtect to odpowiedź Synology na rosnące potrzeby przedsiębiorstw w zakresie ochrony danych – propozycja trudna do zignorowania dla administratorów danych, którzy szukają rozwiązania niezawodnego, skalowalnego i jednocześnie łatwego w obsłudze. Dzięki integracji kluczowych funkcji w jednym urządzeniu, szerokiemu wsparciu dla różnych środowisk IT, zaawansowanym zabezpieczeniom oraz przyjaznemu dla użytkownika modelowi licencjonowania, rozwiązanie to może stać się fundamentem strategii backupowej każdej nowoczesnej firmy.
a także martwić się o zapewnienie kompatybilności sprzętowej czy nadążanie za harmonogramami aktualizacji.
Kluczową zaletą ActiveProtect jest możliwość tworzenia kopii zapasowych komputerów z systemami Windows i macOS, serwerów, a także maszyn wirtualnych i baz danych. Obsługiwane są również popularne usługi chmurowe, w tym Microsoft 365. Co istotne, cały proces odbywa się za pośrednictwem jednego, intuicyjnego interfejsu, dzięki czemu administratorzy mogą zarządzać nawet złożonym środowiskiem, bez potrzeby przełączania się między różnymi panelami czy aplikacjami.
W dobie rosnącej liczby ataków ransomware i wycieków danych ważna jest dostępność w ActiveProtect funkcji niezmiennych kopii zapasowych (WORM). Zapewniają one, że raz zapisane dane nie mogą zostać zmodyfikowane, co stanowi skuteczne zabezpieczenie przed nadpisywaniem lub usuwaniem kopii backupowych przez złośliwy kod (mechanizm ten powiązany jest z harmonogramem retencji danych, dzięki czemu nie trzeba konfigurować osobno tych dwóch parametrów). Funkcja air-gap ogranicza możliwość bezpośredniego dostępu do danych z zewnątrz, co zapewnia spełnienie wymogów regulacyjnych, w tym takich jak RODO.
Efektywność w każdym obszarze
W ofercie Synology znajdują się trzy modele ActiveProtect: DP320, DP340 i DP7400. Różnią się głównie skalowalnością. Największy model DP7400 może
pełnić funkcję kontrolera klastra integrującego do 2500 serwerów ActiveProtect znajdujących się w wielu lokalizacjach oraz obsługiwać do 150 tys. urządzeń końcowych i kont usług chmurowych. Firmy z rozproszonym środowiskiem IT, jak sieci sklepów, oddziały regionalne czy centra danych, mogą w prosty sposób monitorować i zarządzać całością infrastruktury backupowej z jednej platformy. Nie mniej ważna jest wydajność działania. Synology zastosowało w ActiveProtect mechanizmy, które znacząco zmniejszają obciążenie sieci oraz zapotrzebowanie na pamięć masową. Kluczową rolę odgrywa tu globalna deduplikacja po stronie źródła – mechanizm, który analizuje dane jeszcze przed ich przesłaniem i eliminuje duplikaty, wysyłając tylko unikalne fragmenty. Dzięki temu redukcja ruchu sieciowego sięga nawet 99 proc., a zapotrzebowanie na przestrzeń backupową spada o połowę.
Nie można też pominąć modelu licencjonowania, który wyróżnia ActiveProtect na tle konkurencyjnych rozwiązań. Synology postawiło na przejrzystość i brak ukrytych kosztów – wszystkie funkcje dostępne są w ramach jednorazowego zakupu urządzenia, bez konieczności wykupywania subskrypcji. Dodatkowo, podstawowe zarządzanie trzema serwerami backupowymi odbywa się bez konieczności zakupu dodatkowych licencji.
Dodatkowe informacje: Przemysław Biel, Country Sales Manager Poland, Synology pl_sales@synology.com
Zaawansowane rozwiązania taśmowe Fujifilm umożliwiają integrację niezawodnej, bezpiecznej
i skalowalnej infrastruktury archiwizacyjnej, gotowej na wyzwania
Technologia taśmowego zapisu danych, która przez lata pozostawała nieco w cieniu nowszych nośników pamięci, obecnie powraca jako strategiczne rozwiązanie dla przedsiębiorstw dbających o bezpieczeństwo, zgodność z regulacjami i koszty długoterminowego przechowywania informacji. Eksplozja ilości danych generowanych każdego dnia wynika zarówno z rosnących wymagań prawnych, jak i pojawiania się nowych aplikacji oraz rozwoju AI i Internetu Rzeczy (IoT). A ponieważ jednym z głównych problemów, z jakimi mierzą się firmy, jest cyberprzestępczość, coraz większą popularnością cieszą się rozwiązania bazujące na taśmowej technologii zapisu LTO, które zapewniają wiele korzyści w kontekście bezpieczeństwa danych.
Integralność i trwałość danych
Technologia taśm LTO znana jest z wy-
W porównaniu z twardymi dyskami, taśmy zapewniają nawet 100 tys. razy większą dokładność zapisu. Dla przykładu, LTO-9 charakteryzuje się wskaźnikiem błędu bitowego na poziomie 1 x 1020 (czyli ok. 12,5 EB), podczas gdy w przypadku dysków Enterprise SATA jest to 1 x 1015 (ok. 125 TB).
Oznacza to, że dane zapisane na taśmie są znacznie trwalsze i mogą być przechowywane przez ponad 30 lat, przy jednoczesnym zachowaniu ich dostępności, co jest niezwykle istotne dla firm, które muszą archiwizować informacje zgodnie z wymogami prawnymi przez długi czas. Co więcej, fizyczna obecność nośników na terenie przedsiębiorstwa daje pełną kontrolę nad tym, gdzie i jak dane są przetwarzane oraz przechowywane. W dobie wzrastających obaw związanych z zapewnieniem niezmienności danych, a także koniecznością przestrzegania lokalnego prawa
(np. RODO), ta zaleta nabiera szcze-
Przy czym jedną z najważniejszych zalet technologii LTO jest tzw. ochrona air-gap – fizyczne odizolowanie danych od sieci, co eliminuje ryzyko ataków spoza firmy. Tego rodzaju podejście stanowi skuteczną barierę dla cyberprzestępców próbujących dostać się do zasobów w celu wymuszenia okupu. Dane zapisane offline na taśmach LTO są niedostępne dla atakujących, co daje przedsiębiorstwom pełną kontrolę nad informacjami oraz eliminuje ryzyko ich kompromitacji.
Fujifilm ma w ofercie interesujące portfolio produktów bazujących na taśmowej technologii LTO, na które składa się zarówno oprogramowanie, jak i kompletne zestawy archiwizacyjne „plug-and-play”, dopasowane do potrzeb różnych przedsiębiorstw.
Fujifilm Object Archive to oprogramowanie, które używa otwartego i samoopisującego formatu, zaprojektowane do bezpiecznego przenoszenia danych z aktywnych systemów produkcyjnych
do lokalnego taśmowego środowiska archiwizacyjnego. System pozwala również na tworzenie dodatkowych kopii danych w chmurze lub w certyfikowanym centrum danych Fujifilm, oferując przy tym pełną elastyczność zarządzania zasobami. Kluczową cechą Fujifilm Object Archive jest brak vendor lock-in, czyli uzależnienia od jednego dostawcy, co umożliwia użytkownikom swobodne przenoszenie danych między różnymi środowiskami oraz zapewnia długoterminową ochronę inwestycji.
Oprogramowanie to zostało zaprojektowane z myślą o łatwej integracji z istniejącą infrastrukturą IT, co umożliwia szybkie wdrożenie, bez konieczności przebudowy całych systemów. Dzięki zastosowaniu standardowych protokołów, w tym powszechnego API S3 i S3 Glacier, Fujifilm Object Archive jest kompatybilne z szerokim zakresem aplikacji i platform wykorzystywanych przez przedsiębiorstwa.
Dane zapisane na taśmach mogą być przechowywane przez ponad trzydzieści lat dzięki ich znacznie większej niż przy innych nośnikach integralności i trwałości.
Rozwiązanie charakteryzuje się również wysoką skalowalnością – umożliwia płynne rozszerzanie pojemności archiwum w miarę wzrostu ilości danych bez wpływu na wydajność systemu. Dzięki zaawansowanym funkcjom bezpieczeństwa, takim jak szyfrowanie danych w locie i w spoczynku, Fujifilm Object Archive pomaga przedsiębiorstwom spełniać wymagania dotyczące ochrony danych, w tym te wynikające z przepisów RODO czy NIS 2.
Archiwizacja dla małych i dużych
Fujifilm ma także w ofercie zintegrowane, gotowe do wdrożenia systemy archi-
wizacji danych Fujifilm Kangaroo oraz
Fujifilm Kangaroo LITE, zbudowane w modelu „plug-and-play”, które łączą niezawodność technologii taśmowej LTO z funkcjonalnością oprogramowania Object Archive. Rozwiązania te zaprojektowano z myślą o zminimalizowaniu czasu wdrożenia oraz uproszczeniu zarządzania dużymi wolumenami danych.
Rozwiązanie Kangaroo skierowane jest do dużych przedsiębiorstw oraz instytucji, które muszą zarządzać archiwami o pojemności od 1 PB wzwyż. Urządzenie integruje w sobie wszystkie niezbędne komponenty – bibliotekę taśmową LTO o wysokiej gęstości zapisu, serwery zarządzające oraz preinstalowane oprogramowanie Object Archive. Rodzaj jego licencji można wybierać i rozszerzać zgodnie z potrzebami i wymaganiami klienta. Dodatkowo Kangaroo zapewnia automatyczną replikację danych do chmury lub do zdalnej lokalizacji, co zwiększa odporność na awarie i ataki ransomware. Kangaroo LITE to kompaktowe rozwiązanie, idealne dla średnich firm lub działów IT dużych przedsiębiorstw, które potrzebują wdrożenia we własnym środowisku niezawodnego, wydajnego i przystępnego cenowo systemu archiwizacyjnego. Umożliwia ono przechowywanie od 100 TB danych wzwyż, przy zachowaniu wszystkich
funkcji bezpieczeństwa i zarządzania oferowanych przez rozszerzoną wersję Kangaroo.
Dodatkowym atutem rozwiązań Fujifilm Kangaroo jest ich energooszczędność. Taśmy LTO charakteryzują się bardzo niskim zużyciem energii podczas przechowywania danych, w przeciwieństwie do systemów bazujących na dyskach mechanicznych, które wymagają ciągłego zasilania. Dzięki temu wdrożenie rozwiązań Fujifilm przyczynia się do zmniejszenia śladu węglowego generowanego przez przedsiębiorstwo oraz zredukowania kosztów operacyjnych związanych z archiwizacją danych.
Dodatkowe informacje: Nina Knak
Fujifilm Recording Media, Sales Development Manager CEE nina.knak@fujifilm.com
Daniel Murawski Stovaris, Product Manager d.murawski@stovaris.pl
Coraz więcej firm wdraża zaawansowane narzędzia AI, aby zwiększyć swoją efektywność. Jednak wraz z postępem pojawiają się nowe wyzwania dotyczące integralności i bezpieczeństwa danych.
l Tomasz Janoś
Sztuczna inteligencja rewolucjonizuje biznes – poprzez automatyzację zadań, generowanie treści i wspieranie podejmowania decyzji. GenAI staje się dla pracowników narzędziem codziennej pracy – tak jak wcześniej e-mail, czat, wideokonferencje, systemy do zarządzania projektami i wszystkie inne aplikacje zwiększające produktywność. Niestety, jak pokazują kolejne badania, duży odsetek użytkowników GenAI wyprowadza w ten sposób na zewnątrz wrażliwe firmowe dane. Najczęściej robi to nieświadomie – z chęci zwiększenia produktywności i zaoszczędzenia czasu. Głównym problemem jest to, że wielu pracowników na co dzień, a więc w sposób powtarzalny, „wkleja” w określone narzędzia AI informacje, które nie powinny opuścić firmowych murów.
InfoSecurity Magazine informował niedawno, że niemal jedna piąta dyrektorów ds. bezpieczeństwa informacji (CISO) przyznała, iż ich pracownicy doprowadzili do wycieku danych poprzez użycie narzędzi GenAI. Jak wykazano
w raporcie, masowo wklejali oni do narzędzi generatywnej sztucznej inteligencji takie wrażliwe informacje jak plany biznesowe, kod źródłowy czy dane osobowe. Co więcej, przewiduje się, że trend ten będzie narastać. Ryzyko wycieku danych jest szczególnie duże w aplikacjach typu Enterprise Search, w których systemy AI indeksują ogromne ilości korporacyjnych danych. Bez odpowiednich zabezpieczeń mogą one stać się furtką do nieautoryzowanego dostępu, prowadząc do poważnych naruszeń i problemów z prawem.
Jeśli Enterprise Search staje się podstawą wdrażania generatywnej AI, taki system, gdy zostanie zhakowany, może ujawnić poufne dokumenty, strategiczne plany lub dane osobowe. Z analizy Gartnera wynika, że niemal 30 proc. przedsiębiorstw wdrażających AI doświadczyło incydentów związanych z bezpieczeństwem. Badanie podkreśla też rosnące obawy dotyczące potencjalnych – choć jeszcze niezrealizowanych – scenariuszy ataków z udziałem AI. Ryzyko wystąpienia wycieku podwa-
Wielu użytkowników GenAI wyprowadza na zewnątrz wrażliwe firmowe dane.
ża zaufanie i może całkowicie zatrzymać wdrażanie rozwiązań AI. I tak się już dzieje – część firm zawiesiła swoje inicjatywy związane z AI właśnie z powodu obaw o dostępność do poufnych informacji osób nieupoważnionych do tego w najmniejszym nawet stopniu. Oczywiście CISO mogą masowo zakazywać korzystania z platform GenAI w przedsiębiorstwach, jednak prędzej czy później będzie to równoważne z zablokowaniem poczty elektronicznej czy wideoczatu. Korzystniejsze i bardziej przyszłościowe podejście to znalezienie rozwiązań chroniących przed zagrożeniami i lukami w bezpieczeństwie – zamiast całkowitego zakazywania korzystania z takich platform.
Wycieki przez przeglądarki
Ponieważ dostęp do narzędzi GenAI uzyskiwany jest poprzez przeglądarki, stosowane obecnie w powszechnej skali rozwiązania ochronne nie są w stanie przeciwdziałać takiemu ryzyku jak wklejanie poufnych danych. Dlatego firmy muszą priorytetowo traktować bezpieczeństwo przeglądarek jako sposób obrony swoich systemów przed zagrożeniami związanymi z GenAI, m.in. poprzez stosowanie rozwiązań zapewniających głęboki wgląd w sesje przeglądarkowe, z możliwością ostrzegania o ryzykownych działaniach lub ich blokowania. Umożliwiają też konfigurowanie reguł polityki zgodnych z wewnętrznymi zasadami firmy w odniesieniu do platform GenAI (na przykład zakaz wklejania kodu do ChatGPT).
Warto jednak podkreślić, że AI to nie tylko zagrożenie, bowiem sztuczna inteligencja może także pomóc w zabezpieczaniu danych. Jest w stanie znacząco usprawnić pracę inspektorów Fot. Adobe Stock
ochrony danych (IOD), dzięki czemu mogą oni automatyzować rutynowe zadania, generować teksty, analizować dokumenty, być na bieżąco z rozwojem przepisów o ochronie danych i dostosowywać swoje porady do specyfiki przedsiębiorstwa. Jednak ważna jest przy tym świadomość potencjalnego ryzyka i wyzwań związanych z użyciem AI. Ostateczne decyzje muszą pozostawać w gestii IOD – AI może być ich pomocnikiem, ale nie powinno ich zastępować.
AI potrafi analizować procesy biznesowe oraz identyfikować kategorie przetwarzanych danych. Funkcjonalność ta może zostać rozszerzona o wskazywanie potencjalnych scenariuszy ryzyka. Przykładowo, dzięki zrozumieniu przepływu danych w procesie, AI może wskazać punkty, w których ich bezpieczeństwo może być zagrożone lub gdzie mogą być naruszone prawa osoby, której dotyczą dane.
Do shadow IT dochodzi shadow data
Zdążyliśmy się już przyzwyczaić do pojęcia „shadow IT” odnoszącego się do sprzętu, oprogramowania, usług lub projektów, nad którymi dział IT w przedsiębiorstwie nie ma żadnej kontroli. Na początku, gdy to zjawisko tylko się pojawiło, stanowiło poważne zagrożenie dla bezpieczeństwa danych. Jednak wraz ze wzrostem świadomości pojawiły się strategie i rozwiązania umożliwiające skuteczne zarządzanie i kontrolę nad tą częścią infrastruktury IT, której nie obejmowała wewnętrzna polityka bezpieczeństwa. Postęp techniczny, zwłaszcza rosnące wykorzystanie usług chmurowych, przyczynił się do tzw. demokratyzacji danych, czyli umożliwiania dostępu do informacji użytkownikom bez konieczności interwencji działu IT. Przyniosło to ze sobą liczne korzyści dla firm i konsumentów poprzez zwiększenie dostępu do cennych informacji oraz poprawę ogólnej efektywności.
Jednak korzystanie z chmury oznacza również, że dane rozprzestrzeniają się w różnych miejscach, co utrudnia ich śledzenie. Nie ma już
Część firm zawiesiła swoje inicjatywy AI z powodu obaw o dostęp niepowołanych osób do poufnych informacji.
w pełni zamkniętych, lokalnych systemów, a związany z tym większy dostęp do danych wiąże się z większym ryzykiem. Zagrożenie w postaci niechronionych danych znajdujących się w różnych miejscach zostało nazwane „shadow data”. W przeciwieństwie do stosunkowo ograniczonych zagrożeń związanych z shadow IT, wnosi ono wyjątkowo poważne ryzyko dla bezpieczeństwa danych.
Shadow data odnosi się do wszelkich danych, które istnieją poza scentralizowanym i zabezpieczonym systemem zarządzania informacją – zostały skopiowane, zarchiwizowane lub są przechowywane w sposób, który nie jest objęty przyjętą polityką bezpieczeństwa. Dane te zazwyczaj nie podlegają ograniczeniom kontroli dostępu ani nie są widoczne dla narzędzi monitorujących, co stanowi poważne wyzwanie. Ostatecznie więc o shadow data dział IT wie, że istnieją, ale nie wie dokładnie, gdzie się znajdują. A co ważniejsze, ponieważ nie ma informacji o ich podatności, nie może ich odpowiednio zabezpieczyć przed wyciekiem.
Zjawisko to stanowi nie tylko problem bezpieczeństwa, ale również poważne wyzwanie w zakresie zgodności z przepisami oraz kwestiami biznesowymi. Hakerzy często celują w shadow data jako łatwo dostępne źródło pouf-
nych informacji. Ryzyko braku zgodności z regulacjami rośnie, zwłaszcza w przypadku danych osobowych, finansowych i medycznych, które wymagają szczegółowej identyfikacji i zabezpieczenia. Dodatkowo, niepotrzebne przechowywanie danych w chmurze generuje koszty, co podkreśla finansowy wpływ shadow data na wyniki firmy. Lepsza kontrola nad danymi pozwala firmom zmniejszyć koszty użytkowania chmury i zwiększyć zwrot z inwestycji.
Procesy wdrażania nowych pracowników oraz kończenia współpracy z nimi wciąż należą do największych zagrożeń dla bezpieczeństwa danych w przedsiębiorstwie. Nowi pracownicy otrzymują dostęp do wielu zasobów firmy, co automatycznie wpływa na wzrost poziomu ryzyka. Istnieją też badania dotyczące zachowania odchodzących pracowników – nie brakuje takich osób, które wprost przyznają się do zabierania firmowych danych, nadużywania swojego legalnego dostępu i naruszania poufnych informacji. Dlatego dostęp nowo zatrudnionych osób powinien być dostosowany do ich roli, a dostęp odchodzących pracowników do zasobów powinien być kontrolowany i monitorowany, aby upewnić się, że dane
Z raportu Cisco „2025 Data Privacy Benchmark Study” wynika, że aż 90 proc. przedsiębiorstw postrzega lokalne przechowywanie danych jako bezpieczniejsze – mimo wyższych kosztów operacyjnych z tym związanych. Jednocześnie 91 proc. respondentów (wzrost o 5 p.proc. rok do roku) deklaruje zaufanie do globalnych dostawców usług, uznając, że lepiej chronią powierzone im dane. Dane te pokazują złożoność współczesnych środowisk – firmy cenią globalne kompetencje, ale wciąż preferują lokalne przechowywanie danych ze względu na poczucie większego bezpieczeństwa. Raport wskazuje także, że wzrost świadomości na temat sztucznej inteligencji nie zmniejsza obaw związanych z jej ryzykiem. Chociaż wiele firm dostrzega korzyści biznesowe płynące z wdrażania narzędzi bazujących na GenAI, prywatność danych pozostaje istotnym wyzwaniem. Aż 64 proc. respondentów obawia się przypadkowego ujawnienia poufnych informacji – zarówno publicznie, jak i wobec konkurencji. Jednocześnie niemal połowa przyznaje się do wprowadzania danych pracowników lub informacji niejawnych do narzędzi AI, co podkreśla skalę problemu. Cisco zwraca uwagę na konieczność znalezienia równowagi między lokalnym przechowywaniem danych, globalnymi kompetencjami dostawców, a ochroną prywatności – zwłaszcza w świecie coraz silniej napędzanym przez AI. Przedsiębiorstwa powinny traktować zarządzanie danymi jako strategiczną inwestycję, która umożliwia rozwój techniczny, przy jednoczesnym budowaniu zaufania klientów i zapewnianiu zgodności z regulacjami.
firmy nie opuszczają jej razem z pracownikiem.
Zagrożenie wzrasta też wraz ze zmianą sposobu pracy. Wraz z upowszechnieniem się pracy zdalnej, tradycyjne, skupione na ochronie firmowego środowiska systemy zapobiegania wyciekom danych (DLP) nie są już wystarczające. Pracownicy zdalni są bezpośrednio połączeni z internetem, a ich urządzenia mogą przechowywać wrażliwe dane przedsiębiorstwa. Zarządzanie ryzykiem wycieku danych w rozproszonych i zdalnych środowiskach pracy wymaga rozwiązań DLP, które monitorują i zabezpieczają także urządzenia mobilne i komputery stacjonarne użytkowników zdalnych. Pozwala to zespołom IT ustalić, jakie dane wrażliwe opuszczają firmę, kiedy i za pomocą którego kanału lub urządzenia, zgodnie z określonymi zasadami ochrony danych.
Kontrola prowadzona przez rozwiązania zabezpieczające urządzenia końcowe może zapobiegać nieautoryzowanemu transferowi danych, a dodatkowe środki, takie jak trudne do odgadnięcia hasła czy szyfrowanie, mogą skuteczniej chronić urządzenia przenośne. Tego typu rozwiązania są niezbędne w kontekście pracy zdalnej, gdzie tradycyjne zabezpieczenia biurowe mogą nie mieć zastosowania.
usuwanie danych
Zapotrzebowanie na usługi bezpiecznego usuwania danych rośnie z wielu powodów. Przede wszystkim stały się one niezbędne do ochrony informacji przez cały cykl jej życia oraz do zapobiegania nieautoryzowanemu dostępowi. Kluczowym czynnikiem wpływającym na ten trend jest gwałtowny przyrost ilości generowanych i przechowywanych danych, spowodowany trwającą od dłuższego czasu cyfryzacją różnych branż gospodarki – proces ten znacznie przyspieszył w czasie lockdownów. Wzrost ten jest szczególnie widoczny w wyniku wdrożeń technologii takich jak chmura obliczeniowa, analityka big data czy Internet Rzeczy (IoT). W tej sytuacji coraz większego znaczenia nabiera skuteczne zarządzanie danymi, a zwłaszcza ich bezpieczne usuwanie.
Na wzrost zapotrzebowania na tego rodzaju usługi duży wpływ ma także zaostrzenie przepisów dotyczących ochrony danych, takich jak RODO w Europie czy CCPA w USA, co stało się jednym z kluczowych czynników napędzających rynek rozwiązań do usuwania danych. Można spodziewać się, że w miarę zaostrzania prawa i rosnącej skuteczności jego egzekwowania, firmy będą inwestować w certyfikowane rozwiązania i usługi usuwania danych, aby zachować zgodność oraz chronić prywatność swoich klientów i pracowników. Dodatkowo, zwiększone obawy dotyczące cyberbezpieczeństwa, szczególnie w wrażliwych branżach, jak przemysł lotniczy i obronny, skłaniają do wdrażania zaawansowanych metod usuwania danych. Świadomość znaczenia bezpiecznego zarządzania danymi rośnie także z powodu wzrostu liczby oraz złożoności cyfrowych ataków. Cyberprzestępcy starają się uzyskiwać dostęp do danych przechowywanych na wycofywanych urządzeniach lub nieprawidłowo wykasowanych nośnikach. Rozwój rynku bezpiecznego usuwania danych postępuje równolegle ze wzrostem złożoności miejsc i sposobów ich przechowywania. Dane przeznaczone do trwałego usunięcia znajdują się już nie tylko na dyskach firmowych komputerów i serwerów, ale także na nośnikach pamięci telefonów, innych urządzeń mobilnych oraz w środowiskach chmurowych. To właśnie rosnące wykorzystanie chmury obliczeniowej oraz coraz bardziej restrykcyjne wymagania regulacyjne stanowią główne czynniki napędzające zapotrzebowanie na rozwiązania do bezpiecznego usuwania danych. To z kolei otwiera nowe możliwości dla dostawców tego typu usług, którzy oferują skalowalne, elastyczne i opłacalne rozwiązania kompatybilne z chmurą.
Także nowe rozwiązania techniczne, jak uczenie maszynowe i sztuczna inte-
widzialności
W raporcie IBM z lipca 2024 r. dotyczącym globalnych kosztów naruszeń danych oszacowano, że średni koszt takiego incydentu w 2023 roku wyniósł 4,88 mln dol. To wzrost o 10 proc. w porównaniu z rokiem poprzednim – największy od początku pandemii. Naruszenia stają się coraz bardziej destrukcyjne, zwiększając obciążenie zespołów ds. cyberbezpieczeństwa oraz powodując istotne zakłócenia działalności – doświadczyło ich aż 70 proc. podmiotów dotkniętych incydentem.
Na wzrost kosztów wpływają przede wszystkim przestoje w działalności, a także wydatki ponoszone po incydencie, związane z obsługą klientów i współpracą z podmiotami trzecimi. Coraz większe znaczenie mają też szkody wtórne – tylko 12 proc. firm zdołało w pełni odzyskać sprawność w czasie krótszym niż 100 dni.
Raport wskazuje, że 40 proc. naruszeń dotyczyło danych przechowywanych w wielu środowiskach, a ponad jedna trzecia incydentów była związana z tzw. shadow data – danymi przechowywanymi w niekontrolowanych, niezarządzanych źródłach. Ten brak widzialności znacząco utrudnia ochronę informacji i przyczynił się do 27-procentowego wzrostu przypadków kradzieży własności intelektualnej. Koszt związany z utratą takich danych wzrósł o niemal 11 proc., osiągając wartość 173 dol. za jeden rekord.
Według autorów raportu, zjawisko to może się pogłębiać za sprawą inicjatyw z zakresu generatywnej sztucznej inteligencji, które są w stanie wyciągać poufne dane „na powierzchnię”, czyniąc je bardziej aktywnymi i podatnymi na ryzyko w różnych środowiskach. W tej sytuacji firmy muszą ponownie ocenić mechanizmy zabezpieczeń i kontroli dostępu. Najwyższe koszty naruszeń poniosły przedsiębiorstwa z branży opieki zdrowotnej, finansów, przemysłu, technologii oraz energetyki. Po raz czternasty z rzędu branża medyczna zanotowała najwyższe średnie koszty incydentów – sięgające 9,77 mln dol.
ligencja, wpływają na zwiększenie skuteczności usuwania danych. Przykładowo, algorytmy bazujące na AI mogą poprawić precyzję w wykrywaniu danych i ich usuwaniu, a uczenie maszynowe może wspierać rozwój adaptacyjnych metod odpowiadających na nowe zagrożenia. Z kolei integracja mechanizmów blockchain może dodatkowo zagwarantować integralność i bezpieczeństwo procesu usuwania danych.
Innowacje w sposobach trwałego usuwania danych zwiększają zarówno efektywność, jak i skuteczność tego procesu. Doprowadziły one do rozwoju ekologicznych alternatyw dla dotychczas powszechnie stosowanych metod, takich jak fizyczne niszczenie. Pozwala to na bezpieczną odsprzedaż lub ponowne wykorzystanie urządzeń z pamięcią masową bez narażania bezpieczeństwa danych.
Na wzrost zapotrzebowania na
usługi usuwania
danych wpływ ma zaostrzenie przepisów.
Wśród czynników, jakie mogą spowalniać rozwój tej branży, analitycy wymieniają duże koszty początkowe wdrożeń rozwiązań do usuwania danych – obejmujące zakup licencji na oprogramowanie, inwestycje w specjalistyczny sprzęt oraz szkolenie pracowników. Dla małych i średnich przedsiębiorstw o ograniczonym budżecie koszty te mogą być barierą nie do pokonania. Dodatkowe wydatki związane z utrzymaniem i wsparciem technicznym również mogą zwiększyć ogólne obciążenie finansowe. Z drugiej strony – wobec prawnie wymuszonej konieczności bezpiecznego usuwania danych – wysokie koszty powinny napędzać popyt na usługi zewnętrzne.
Zdaniem analityków inwestycje w tę branżę rosną, a większe firmy przejmują mniejszych graczy, by poszerzyć swoje możliwości i sprostać rosnącemu zapotrzebowaniu na solidne rozwiązania w zakresie bezpieczeństwa danych. Obserwatorzy spodziewają się, że ta konsolidacja stworzy nowe możliwości na rynku i przyczyni się do jego dalszego, dynamicznego rozwoju. n
Opublikowany przez Proofpoint raport „The 2024 Data Loss Landscape” (opracowany przez agencję badawczą CyberEdge Group) rzuca światło na skalę i charakter zagrożeń związanych z wyciekami danych w firmowych środowiskach. Według przeprowadzonej analizy, aż 85 proc. przedsiębiorstw doświadczyło przynajmniej jednego incydentu, a przeciętna liczba zdarzeń przekroczyła 15 rocznie. Najczęstszą przyczyną nie są zaawansowane ataki, lecz działania samych użytkowników – tylko 1 proc. z nich odpowiada za aż 88 proc. przypadków wycieku. W czołówce zagrożeń znalazły się nieumyślnie wysyłane e-maile, kopiowanie poufnych danych na nośniki USB oraz wykorzystywanie aplikacji
Zainfekowane systemy Nierozważni użytkownicy
skonfigurowane systemy
Pracownicy z dostępem do wrażliwych danych
Użytkownicy IT z wyższymi uprawnieniami
Odchodzący pracownicy
Partnerzy/dostawcy
Kontraktorzy
Członkowie zarządu
Analitycy/programiści
chmurowych bez nadzoru. Wśród szczególnie ryzykownych grup użytkowników wyróżniono osoby z dostępem do danych wrażliwych, odchodzących pracowników i użytkowników IT z uprawnieniami administratora.
Raport Proofpoint podkreśla, że wprowadzenie w firmie skutecznej strategii ochrony przed wyciekami wymaga nie tylko narzędzi technicznych, ale i lepszego zrozumienia zachowań ludzi. Co istotne, zaledwie 38 proc. przedsiębiorstw uznaje swoją strategię za w pełni dojrzałą. Jednocześnie rośnie znaczenie zapewniania widzialności danych i monitorowania ich w środowiskach hybrydowych, gdzie granice między chmurą a urządzeniami końcowymi coraz bardziej się zacierają.
Zatrzymanie działalności biznesowej
Naruszenie wizerunku
Osłabienie pozycji konkurencyjnej
Naruszenie regulacji / kara
Koszty procesowe
Brak konsekwencji
Ochrona prywatności pracowników i klientów
Obniżenie kosztów związanych z wyciekiem
Ochrona wizerunku firmy
Ochrona własności intelektualnej
Spełnienie standardów zgodności z regulacjami
Spełnienie wewnętrznych standardów zgodności
Zapewnienie konkurencyjności przedsiębiorstwa
FortiDLP to narzędzie, które w razie utraty kontroli nad
obiegiem informacji umożliwia przedsiębiorcom jej odzyskanie. Jednocześnie ogranicza ryzyko nieuprawnionego ujawnienia kluczowych danych.
Wświecie, w którym dane są zarówno siłą napędową biznesu, jak i głównym celem cyberataków, skuteczna prewencja nie jest już opcją, a stała się koniecznością. Wraz ze wzrostem liczby aplikacji, integracji systemowych oraz kanałów komunikacji, przepływ informacji w firmach staje się coraz trudniejszy do kontrolowania. Wrażliwe dane – od dokumentów finansowych po dane osobowe – przekazywane są pomiędzy użytkownikami, działami i narzędziami. Ta złożoność zwiększa efektywność operacyjną firm, ale jednocześnie znacząco podnosi ryzyko wycieku informacji. Wobec tego przedsiębiorstwa nie mogą polegać wyłącznie na reaktywnej taktyce obrony. Kluczowe jest podejście prewencyjne, które zapewniają systemy klasy Data Loss Prevention (DLP).
– Chociaż stosujemy reguły polityki dostępu do danych na przeznaczonych do tego celu urządzeniach ochronnych, zarządzanych przez wyspecjalizowane
zespoły, nadal istnieje ryzyko działań ze strony insiderów. Mogą oni maskować dane, by obejść podstawowe zabezpieczenia, na przykład na serwerze pocztowym czy firewallu. Ponadto, wiele wycieków ma niezamierzony charakter. Dzięki wdrożeniu takiego narzędzia jak FortiDLP, które monitoruje i blokuje operacje na plikach oraz natychmiast informuje o próbach nieuprawnionego eksportu danych, można znacząco zmniejszyć liczbę zarówno celowych, jak i przypadkowych incydentów. Ułatwia ono także budowanie świadomości użytkowników w obszarze zagrożeń cyberbezpieczeństwa – wyjaśnia Artur Madejski, Product Manager Fortinet w Exclusive Networks Poland.
Kompleksowe podejście do zapobiegania wyciekom
FortiDLP to zaawansowane rozwiązanie klasy Data Loss Prevention, które odpowiada na współczesne potrzeby w zakresie ochrony danych w dynamicznych
Grzegorz Szałański, Fortinet Unit Team Leader, Exclusive Networks Poland
Skutki naruszenia danych mogą być odczuwalne przez firmę na wielu poziomach – począwszy od strat finansowych, przez zakłócenia operacyjne, po konsekwencje prawne i nadszarpniętą reputację. Nawet jednorazowy incydent może prowadzić do czasowego wstrzymania działalności, ko-
nieczności przeprowadzenia dochodzenia oraz wdrożenia działań naprawczych. O zajściu należy poinformować także klientów i partnerów biznesowych. W zależności od charakteru danych i obowiązujących przepisów, firma może zostać również zobowiązana do zgłoszenia naruszenia odpowiednim organom nadzoru lub być narażona na sankcje finansowe. Warto podkreślić, że w świetle wchodzącej w życie dyrektywy NIS 2 wiele przedsiębiorstw zostanie zobowiązanych do wdrożenia rozwiązań umożliwiających skuteczne zarządzanie incydentami oraz raportowania naruszeń bezpieczeństwa informacji. FortiDLP, dzięki rozbudowanym funkcjom raportowania i integracji z innymi narzędziami marki Fortinet, pozwala na realizację tych wymogów w sposób zgodny z najlepszymi praktykami branżowymi oraz przepisami prawa.
środowiskach IT. Wykorzystuje mechanizmy sztucznej inteligencji, zapewniając specjalistom IT natychmiastowy wgląd w przepływ danych w urządzeniach końcowych (w tym przenośnych), środowiskach SaaS i aplikacjach chmurowych.
Obecne w FortiDLP mechanizmy uczenia maszynowego pozwalają na analizę zachowania użytkowników, identyfikowanie nietypowej aktywności i reagowanie na nią w czasie rzeczywistym. Reakcja systemu na potencjalne zagrożenie obejmuje wysłanie powiadomienia, blokadę operacji, a nawet izolację urządzenia generującego alert. FortiDLP umożliwia również śledzenie danych od momentu ich powstania, co pozwala wykrywać próby ich nieautoryzowanego wynoszenia – niezależnie od tego, czy dzieje się to z użyciem firmowego, czy prywatnego konta użytkownika.
FortiDLP może być zintegrowany z popularnymi na rynku rozwiązaniami, takimi jak MDM, SIEM, SOAR czy systemami helpdeskowymi, co pozwala specjalistom ds. bezpieczeństwa prowadzić analizy incydentów w pełnym kontekście operacyjnym. Zarządzanie odbywa się za pośrednictwem centralnej konsoli, która zapewnia szybki dostęp m.in. do bieżących zdarzeń i historii incydentów. Wbudowany moduł case management, wspierany przez usługę FortiAI, przyspiesza analizowanie i dokumentowanie naruszeń, zmniejszając czas potrzebny na reakcję.
Dodatkowe informacje: Grzegorz Gondek
Business Development Manager, Fortinet ggondek@fortinet.com
Do osiągnięcia celu, jakim jest sprostanie ewolucji cyberataków, które stają się coraz bardziej wyrafinowane i wielowymiarowe, potrzebne jest rewolucyjne, całościowe i wielowarstwowe podejście do ochrony danych. Odpowiedzią na to wyzwanie jest stworzone przez Xopero Software rozwiązanie SphereCyberX.
Zaimplementowana w SphereCyberX koncepcja ochrony sferycznej bazuje na wizji zarządzania danymi, w której stanowią one centralny punkt, swego rodzaju jądro kuli (sfery) otoczone koncentrycznymi warstwami zabezpieczeń. Każda warstwa pełni odrębną funkcję, odpowiadając za specyficzne aspekty ochrony różnych obszarów przetwarzania danych. Dzięki zintegrowaniu tych warstw powstaje wielowymiarowy, kompleksowy i dynamiczny system, odporny na współczesne zagrożenia.
Fundamentem platformy SphereCyberX są cztery obszary: Data Recovery (przywracanie danych), Storage & Access (przechowywanie danych i dostęp do nich), Transmission (transmisja danych) oraz Isolation (izolacja danych). Stanowią one podstawę dla kolejnych warstw i mechanizmów zabezpieczeń oraz są głównym elementem strategii cyfrowej ochrony danych na każdym etapie cyklu ich życia.
Obszar przywracania danych (Data Recovery) koncentruje się na zapew-
nieniu ciągłości działania w przypadku awarii lub cyberataku. W tej dziedzinie najważniejszą rolę odgrywa zestaw zaawansowanych procesów i technologii Instant Disaster Recovery, umożliwiający błyskawiczne przywrócenie pełnej funkcjonalności systemów po awarii. Dodatkowo, w celu zredukowania ilości przechowywanych danych wykorzystywane są mechanizmy kompresji i deduplikacji bezpośrednio u ich źródła. W tym obszarze natomiast funkcja Test Restore zapewnia bezpieczne i izolowane środowisko do weryfikowania integralności kopii zapasowych, a dzięki funkcji Any2Any Restore możliwe jest elastyczne przywracanie kopii na fizyczne urządzenia, jak też do środowiska wirtualnego lub chmurowego.
W obszarze przechowywania i dostępu (Storage & Access) kluczową rolę odgrywa usługa bezpiecznego przechowywania danych w repozytorium Fortress Object X Storage (FOXS) – autorskim rozszerzeniu obiektowej pamięci masowej, chroniącym kopie zapasowe przed ata-
kami ransomware, modyfikacją i usunięciem, w którym technologia Single Write Repository (SWR) zapewnia jednorazowy zapis danych z gwarancją braku możliwości ich późniejszej modyfikacji.
Z kolei Zero-Knowledge Encryption to system szyfrowania, w ramach którego nawet jego operatorzy nie mają dostępu do kluczy szyfrujących. Natomiast funkcja Management Service Access Control kontroluje dostęp do usług zarządzania systemem, zapewniając autoryzację operacji administracyjnych. Bezpieczeństwo w tym obszarze wzmacnia też technologia Triple-I (Immutable, Indestructible, Immediate), która integruje mechanizmy jednorazowego zapisu, gwarantujące nienaruszalność kopii zapasowej oraz natychmiastowy do niej dostęp.
Bezpieczna transmisja danych (Transmission) zapewniona jest dzięki funkcji Secure Tunneling, odpowiedzialnej za tworzenie zaszyfrowanych tuneli dla przesyłanych danych. Z kolei Adaptive Bandwidth Management to mechanizm
odpowiedzialny za dynamiczne dostosowywanie wykorzystania pasma. W celu zapewnienia bezpieczeństwa transmisji danych w rozwiązaniu zaproponowano funkcję One-Way Data Flow, która gwarantuje jednokierunkowy przepływ danych podczas replikacji. Natomiast funkcja Xopero Sphere Replication Engine (xSRE) odpowiada za bezpieczną transmisję danych do odizolowanych środowisk, realizując w ten sposób mechanizm zaawansowanego backupu air-gap.
Jednym z kluczowych elementów bezpieczeństwa sferycznego jest obszar izolacji (Isolation), który zapewnia najwyższy poziom ochrony krytycznych danych, w tym przez izolowanie ich w sposób wymagany w takich przepisach jak NIS 2, RODO, HIPAA czy ISO 27001 (Compliance-Driven Approach), a funkcja Time-Based Access umożliwia dostęp do izolowanych danych tylko w ramach prowadzonego backupu i w określonym czasie.
Zastosowany tutaj mechanizm Point-to-Point Network Connection tworzy bezpośrednie, szyfrowane połączenia między izolowanymi strefami, zaś Isolated Replication Zone to specjalne, odizolowane środowisko przechowywania kopii z replikami danych. Rozwiązaniem, które łączy fizyczną izolację danych (AirGap) z repozytorium gwarantującym ich niezmienność (Immutable Repository), jest Xopero Secure AirGap Immutable Repository (xSAIR).
Jednym z filarów SphereCyberX jest zastosowane podejście Xopero Zero Trust Approach (XZTA), które gwarantuje wyeliminowanie ryzyka uzyskania nieautoryzowanego dostępu do danych firmy oraz eskalacji uprawnień. Bazuje ono na ograniczonym zaufaniu, wymagającym pełnej kontroli dostępu. Użytkownicy mogą skorzystać także z funkcji Own Key Encryption (zapewnia kontrolę nad kluczem szyfrującym), nadzorowanej w myśl zasady Zero-knowledge Encryption, która kontroluje też przypisywanie ról i uprawnień (Role-based Access Control) już od samego początku, zanim dane opuszczą źródło. Tym właśnie jest On-source Data Processing (xODP) – mechanizm kontroli danych u źródła ich powstawania. Rozwiązanie SphereCyberX dostarczane jest klientom w postaci appliance’u sprzę-
n Dlaczego tradycyjne podejście do cyberbezpieczeństwa, w tym popularne systemy ochrony 360 stopni, nie jest już wystarczające w obliczu współczesnych zagrożeń?
Cyberataki ewoluowały do tego stopnia, że rozwiązania zapewniające płaskie, horyzontalne podejście do bezpieczeństwa po prostu nie nadążają. Tradycyjna ochrona 360 stopni, mimo swojej wielowarstwowości, często traktuje infrastrukturę IT jako zbiór oddzielnych elementów, co stwarza luki i punkty podatności, które skuteczni w swoim działaniu cyberprzestępcy potrafią wykorzystać. Ataki nie nadchodzą już z jednego kierunku – one przenikają systemy, mutują i rozprzestrzeniają się w nieprzewidywalny sposób. Myśląc jedynie w kategoriach „dookoła”, pomijamy złożoność i wielowymiarowość współczesnych zagrożeń.
n W jaki sposób SphereCyberX oferuje znaczącą przewagę w tej nowej erze cyberataków?
SphereCyberX to fundamentalna zmiana paradygmatu. Wprowadzamy myślenie sferyczne, gdzie dane znajdują się w centrum, a ochrona działa w każdym wymiarze – pionowym, poziomym i ukośnym. To nie jest tylko dodanie kolejnych warstw zabezpieczeń, to zintegrowana architektura, w której każdy element wzmacnia pozostałe, tworząc spójną i dynamiczną tarczę ochronną. Koncentrujemy się na obszarach przetwarzania danych, zabezpieczając je na każdym etapie cyklu ich życia – od momentu powstania,
towego Xopero Unified Protection (XUP), bądź też oprogramowania Xopero ONE. Poszczególne modele różnią się od siebie skalowalnością i podzielone zostały na dwie grupy: XUP for Business (od 14 do 96 TB pojemności) oraz XUP for Enterprise (od 200 do 2200 TB pojemności). Dostępne są również opcje wsparcia technicznego na poziomie srebrnym, złotym i platynowym, a Xopero ONE umożliwia integrację z chmurą Xopero (online storage). Więcej: xopero.com/pl/spherecyberx
przez przechowywanie i transmisję, aż po izolację. Stworzone przez nas technologie, takie jak xSAIR i FOXS, zapewniają poziom bezpieczeństwa i integralności danych, który jest trudny do osiągnięcia przy zastosowaniu tradycyjnych metod. Wierzymy, że ta wielowymiarowość i głęboka integracja funkcji bezpieczeństwa dają SphereCyberX znaczącą przewagę, czyniąc go odpowiedzią na wyrafinowane i ciągle ewoluujące cyberzagrożenia.
n Jakie są plany Xopero na rozwój SphereCyberX?
Nasz zespół nieustannie monitoruje krajobraz zagrożeń, analizuje nowe wektory ataków i pracuje nad integracją w ramach SphereCyberX najnowszych technologii oraz najlepszych praktyk. Dlatego należy spodziewać się dalszego wzmocnienia każdego z czterech kluczowych obszarów – Data Recovery, Storage & Access, Transmission oraz Isolation. Dostrzegamy przy tym duży potencjał w integracji SphereCyberX z innymi systemami bezpieczeństwa oraz platformami chmurowymi, aby zapewnić klientom jeszcze bardziej spójne i kompleksowe rozwiązanie. Kładziemy również nacisk na rozwój narzędzi do analizy oraz monitorowania bezpieczeństwa, wykorzystujących sztuczną inteligencję i uczenie maszynowe, aby proaktywnie wykrywać, a następnie reagować na potencjalne zagrożenia. Naszym celem jest, aby SphereCyberX nie tylko chronił dane, ale także przewidywał i neutralizował zagrożenia, zanim wyrządzą jakiekolwiek szkody.
Dodatkowe informacje: Łukasz Nowatkowski, Cybersecurity Advocate, Xopero l.nowatkowski@xopero.com
Rozwiązanie Fujitsu Private GPT umożliwia przedsiębiorstwom oraz podmiotom sektora publicznego użycie potencjału generatywnej sztucznej inteligencji (GenAI) bez kompromisów w zakresie ochrony danych. Stanowi ono odpowiedź na rosnące potrzeby w zakresie bezpiecznego, efektywnego i zgodnego z regulacjami wykorzystania AI.
Wdobie powszechnej cyfryzacji oraz uzależnienia firm od danych, stają one przed coraz większym wyzwaniem, polegającym na pogodzeniu ze sobą innowacyjnych rozwiązań bazujących na sztucznej inteligencji z koniecznością zachowania pełnej kontroli nad wrażliwymi informacjami. Duże modele językowe (LLM), chociaż imponujące możliwościami, wprowadzają istotne czynniki ryzyka w zakresie prywatności i bezpieczeństwa danych.
W odpowiedzi na powyższe wyzwania do oferty Fujitsu trafiło rozwiązanie Private GPT, które umożliwia korzystanie z potencjału GenAI w ramach w peł-
ni kontrolowanego środowiska, dostosowanego do potrzeb firm o wysokim poziomie uregulowania i restrykcyjnych wymogach bezpieczeństwa wobec wrażliwych oraz poufnych informacji. Jest ono kierowane przede wszystkim do instytucji finansowych, administracji publicznej i przedsiębiorstw działających w takich branżach jak zdrowie, energetyka czy prawo.
Fujitsu Private GPT to kompleksowa platforma bazująca na generatywnym modelu językowym, zaprojektowana z myślą o prywatnym, bezpiecznym wdrożeniu w infrastrukturze klienta – lokalnie (on-premise), w chmurze prywatnej lub hybrydowej. Zapewnia peł-
ną kontrolę nad danymi wejściowymi i wyjściowymi, jednocześnie oferując funkcjonalność porównywalną z popularnymi publicznymi chatbotami AI. Użytkownicy mogą korzystać z intuicyjnego interfejsu czatu, przeszukiwać wewnętrzne dokumenty, analizować dane, automatyzować procesy biznesowe oraz usprawniać codzienną pracę – wszystko to bez ryzyka wycieku informacji do zewnętrznych dostawców usług AI.
W przeciwieństwie do wielu dostępnych w modelu SaaS rozwiązań GenAI, które wymagają połączenia z publiczną chmurą, Private GPT działa lokalnie, co pozwala zachować pełną zgodność z wewnętrzną polityką bezpieczeństwa oraz
Kryterium
Rozwiązanie Fujitsu Private GPT
Miejsce przetwarzania danych Lokalnie (lub chmura prywatna)
Scenariusze zastosowań
Przetwarzanie dokumentów, analizy prawne, zarządzanie wiedzą
Publiczne modele LLM
Zewnętrzne serwery (chmura publiczna)
Chat ogólnego użytku, generowanie treści, proste mechanizmy Q&A
Zgodność z RODO / GDPR Zaprojektowane z myślą o zapewnieniu zgodnościOgraniczona w zależności od regionu i konfiguracji
Tryb offline Możliwy (bez dostępu do internetu)
Źródła danych
Niedostępny (wymaga aktywnego połączenia z internetem)
Dokumenty firmowe, bazy wiedzy klientaInternet, brak dostępu do firmowych danych
Transparentność działania Bazuje na open-source, przejrzysta architektura
Brak dostępu do kodu źródłowego i szczegółów modelu
Koszty operacyjne Koszt początkowy wyższy, ale bez opłat za tokenyModel subskrypcyjny lub uzależniony od zużycia tokenów
Wsparcie dla przepisów branżowych
Wymagania sprzętowe
Tak (np. branża prawnicza, finansowa, przemysłowa, energetyczna, ochrona zdrowia)
Wymaga dedykowanego serwera
Ograniczone (brak specjalizacji w konkretnych regulacjach)
Brak – działa w pełni w chmurze
regulacjami branżowymi, takimi jak RODO czy NIS 2. Dzięki temu firmy mogą bezpiecznie, bez ryzyka naruszenia prywatności, wykorzystywać potencjał dużych modeli językowych do pracy z poufnymi danymi, dokumentacją prawną, analizami finansowymi czy raportami.
Uniwersalne i skalowalne
Private GPT rozwiązuje szereg istotnych problemów, z którymi borykają się przedsiębiorstwa wdrażające mechanizmy GenAI. Po pierwsze, eliminuje ryzyko wycieku danych, gwarantując pełną izolację środowiska i brak konieczności kontaktu z publicznym internetem. Po drugie, umożliwia precyzyjne zarządzanie dostępem do danych i wyników generowanych przez model. Po trzecie, integracja z systemami wewnętrznymi oraz możliwość dostosowania modelu do specyficznych potrzeb klienta pozwalają zwiększyć dokładność, wiarygodność jak również przydatność generowanych odpowiedzi.
Z Fujitsu Private GPT mogą korzystać duże korporacje, jak i średnie przedsiębiorstwa, które potrzebują wsparcia w analizie danych, obsłudze dokumentów czy automatyzacji procesów. W branży finansowej może on usprawniać obsługę zapytań klientów, analizować zapisy transakcji czy wspierać dział zgodności. W administracji publicznej ułatwia analizę przepisów, przeszukiwanie aktów prawnych i tworzenie dokumentacji urzędowej, zachowując zgodność z krajowymi regulacjami. W placówkach ochrony zdrowia może wspierać pracowników administracyjnych w organizacji dokumentacji medycznej, jednocześnie chroniąc dane pacjentów przed nieuprawnionym dostępem.
Co istotne, rozwiązanie Private GPT jest skalowalne w elastyczny sposób – klienci mogą rozpocząć korzystanie od pilotażowych wdrożeń na ograniczonym zakresie danych, a następnie rozszerzać funkcjonalność w miarę wzrostu potrzeb. Platforma wspiera też integrację z różnymi źródłami danych – od plików PDF i baz danych po systemy ERP i CRM – co pozwala modelowi działać w pełni kontekstowo i zgodnie z realiami danego
n W jakim modelu oferowane jest rozwiązanie Fujitsu Private GPT?
To system typu wszystko w jednym, dzięki czemu klient w cenie otrzymuje sprzęt, oprogramowanie, opiekę przed- i posprzedażową, usługę instalacji i utrzymania oraz aktualizacje. Taki model zdecydowanie wyróżnia nas wśród konkurencji. Oczywiście mogą sprzedawać je zarówno dotychczasowi partnerzy Fujitsu, jak też nowi, którzy widzą potencjał w tego rodzaju rozwiązaniach. Możemy współpracować z nimi bezpośrednio, jak też poprzez dystrybutorów – w tym obszarze jesteśmy bardzo elastyczni.
n Jakiego rodzaju partnerów szukacie oraz jakie stawiane są wobec nich wymagania?
Zależy nam na partnerach, którzy widzą potencjał w implementacji tego rozwiązania u swoich klientów. Stawiamy nie tylko na integratorów, którzy mają już pewne doświadczenie w pracy z systemami sztucznej inteligencji – zarówno jeśli chodzi o właściwe rozpoznanie potrzeb i oczekiwań klientów, jak też późniejszy proces wdrożenia i uczenia modelu LLM – lecz także na partnerów otwartych na naukę w tym obszarze. Nie ma ograniczeń co do rodzaju obsługiwanych przez danego partnera podmiotów, niemniej, z racji charakteru samego rozwiązania Private GPT, kierujemy je do klientów, którym zależy na zachowaniu suwerenności przetwarzanych danych.
przedsiębiorstwa. Dodatkowo Fujitsu zapewnia wsparcie wdrożeniowe i doradztwo w zakresie personalizacji modelu, bezpieczeństwa danych oraz zgodności z przepisami, co znacznie ułatwia firmom bezpieczne rozpoczęcie przygody z generatywną sztuczną inteligencją.
Fujitsu Private GPT jest rozwiązaniem kompletnym (tzw. Solution-in-a-Box), bazującym na serwerze Fujitsu Primergy. Jego dystrybutorami są firmy: AB, Also, Exclusive Networks i Ingram Micro.
Partnerom zapewniamy pełne wsparcie, tak by mogli uzyskać rejestrację, a następnie wiedzę o rozwiązaniu Fujitsu Private GPT. Nasi konsultanci pomagają też w rozmowach przedsprzedażowych z klientami oraz wspólnym prowadzeniu projektów Proof of Concept, aby zademonstrować działanie rozwiązania w praktyce i omówić modele jego produkcyjnego zastosowania. Współpraca to podstawa.
n Jakiego rodzaju wyzwań mogą doświadczyć partnerzy przy sprzedaży rozwiązania Private GPT?
Przede wszystkim mierzymy się z brakiem wiedzy w zakresie praktycznego wykorzystania generatywnej sztucznej inteligencji zarówno po stronie klientów, jak i partnerów. Tematyka GenAI jest obecnie bardzo modna i z pewnością nie zmieni się to przez najbliższych kilka lat. Niemniej w tym zakresie wciąż jest wiele nieporozumień. Szczególnie, że Fujitsu Private GPT bywa mylony z popularnymi, ogólnodostępnymi w chmurze modelami językowymi. Tymczasem nie jest to sam LLM, lecz rozwiązanie kompletne, zapewniające możliwość bezpiecznej pracy ze swoimi, nawet najbardziej wrażliwymi danymi. Nasi konsultanci kładą duży nacisk zarówno na edukowanie partnerów, jak też wspieranie ich w identyfikowaniu potrzeb klientów i dobieraniu odpowiedniego rozwiązania. To kluczowy punkt na drodze do sukcesu sprzedażowego.
Dodatkowe informacje:
Joanna Makówka-Kloc, Solution Consulting Manager, Fujitsu joanna.makowka@fujitsu.com
Komputery kwantowe stanowią poważne zagrożenie dla tradycyjnych metod szyfrowania, co wymusza rozwój algorytmów kryptograficznych odpornych na ataki przeprowadzane przy ich użyciu.
Twórcy komputerów kwantowych obiecują przełom w różnych dziedzinach, jak nauka, sztuczna inteligencja, opieka zdrowotna i wielu innych. Z drugiej strony maszyny te stanowią poważne zagrożenie dla bezpieczeństwa zapewnianego z wykorzystaniem tradycyjnych metod szyfrowania – szczególnie wobec popularnych algorytmów, takich jak RSA i ECC, które obecnie stanowią fundament bezpiecznej komunikacji internetowej i ochrony danych. Eksperci alarmują, że wystarczająco zaawansowany komputer kwantowy będzie mógł je złamać, czyniąc wręcz bezużytecznymi.
Odpowiedzią na to zagrożenie mają być nowe, odporne algorytmy szyfrowania, rozwijane w ramach kryptografii postkwantowej (Post-Quantum Cryptography, PQC). Są one projektowane, aby mogły przetrwać ataki wykorzystujące ogromną moc obliczeniową maszyn kwantowych i zapewniać bezpieczeństwo cyfrowej komunikacji oraz danych. Pracom nad wdrożeniem nowych standardów kryptograficznych przewodzą amerykański Narodowy Instytut Standaryzacji i Technologii (NIST) oraz Google. W sierpniu 2024 r. NIST opublikował pierwsze trzy finalne
Rewolucja komputerów kwantowych nie jest już odległą wizją.
l Tomasz Janoś
standardy kryptografii postkwantowej: CRYSTALS-Kyber (FIPS 203), CRYSTALS-Dilithium (FIPS 204) oraz SPHINCS+ (FIPS 205). Dodatkowo, w marcu 2025 roku NIST wybrał algorytm HQC jako piąty standard, pełniący rolę zapasowego mechanizmu szyfrowania odpornego na ataki kwantowe. Natomiast Google niedawno wprowadził hybrydowy algorytm kryptografii postkwantowej do przeglądarki Chrome. NIST podał też konkretne terminy odejścia od szeroko stosowanych obecnie algorytmów kryptograficznych, jak RSA-2048 i ECC-256 – mają one zostać wycofane do 2030 r., a całkowicie zakazane po 2035. Decyzja ta ma ponadto na celu aktywne ograniczenie istniejących zagrożeń, takich jak ataki, w których cyberprzestępcy już teraz przechwytują zaszyfrowane dane z zamiarem ich odszyfrowania w przyszłości, właśnie za pomocą komputerów kwantowych. Dlatego przejście na kryptografię odporną na ataki kwantowe staje się pilne, aby zapewnić prywatność danych w dłuższej perspektywie czasowej i zapobiec „kwantowej apokalipsie”. Wprowadzane regulacje świadczą o tym, że technologia postkwantowa jest bliżej realizacji, niż może się wydawać. W nadchodzących latach można spodziewać się kolejnych regulacji związanych z tą tematyką, ponieważ rosną obawy dotyczące jej nadejścia, a rządy i przedsiębiorstwa będą musiały zmierzyć się z konsekwencjami jej wdrożenia. W związku z tym organizacje i urzędy certyfikujące
powinny dostosować się do zmian, wdrażając szyfrowanie odporne na złamanie przez komputery kwantowe i wyprzedzając tym samym wymagania regulacyjne. Tylko wtedy będą mogły zapewnić bezpieczeństwo i wiarygodność tożsamości cyfrowych i komunikacji. Zdaniem obserwatorów rynku przygotowania do kryptografii postkwantowej to obecnie priorytet dla całej branży.
Szyfrowanie a wzrost wykorzystania chmury
W miarę jak firmy coraz chętniej wdrażają architektury natywne dla chmury, rosnąć będzie wykorzystanie Infrastruktury Klucza Publicznego (Public Key Infrastructure, PKI) do zabezpieczania aplikacji działających w chmurze, mikroserwisów i środowisk kontenerowych. Wynika to z potrzeby stosowania solidnych środków ochronnych, nadążających za dynamicznie zmieniającą się i skalowalną naturą środowisk chmurowych. Gartner przewiduje, że już w tym roku ponad 95 proc. nowych zadań obliczeniowych będzie wdrażanych na platformach natywnych dla chmury, co wyznacza kluczową rolę dla PKI w zapewnianiu bezpieczeństwa, integralności danych oraz uwierzytelniania w zróżnicowanych i rozproszonych systemach.
Aby płynnie wspierać wdrożenia w środowiskach chmurowych, rozwiązania PKI będą ewoluować, koncentrując się na skalowalnym i elastycznym zarządzaniu
certyfikatami, dostosowanym do specyficznych wymagań usług bazujących na chmurze. Kluczowymi funkcjami będą zwiększone możliwości automatyzacji i integracji, które umożliwią firmom efektywne zarządzanie certyfikatami w złożonych ekosystemach chmurowych. Wdrożenia PKI będzie napędzać także rosnąca popularność mikroserwisów i środowisk kontenerowych oraz potrzeba zapewnienia bezpiecznej komunikacji między tymi komponentami. W ten sposób można zapewnić, by każdy mikroserwis i kontener mógł zostać uwierzytelniony oraz komunikować się w bezpieczny sposób, zapobiegając nieautoryzowanemu dostępowi i wyciekom danych. Przyszłość PKI w kontekście rozwiązań chmurowych będzie charakteryzować się zdolnością do skalowania zgodnie z rosnącymi wymaganiami takich środowisk. Umożliwi to firmom szybkie dostosowanie się do zmieniających się potrzeb bezpieczeństwa i zapewnienie ciągłej ochrony bez wpływu na wydajność.
PKI i rozwój Internetu Rzeczy (IoT) Infrastruktura Klucza Publicznego staje się coraz bardziej potrzebna do zabezpieczania komunikacji między urządzeniami, uwierzytelniania i zapewniania integralności danych. PKI może stać się nawet podstawową warstwą ochrony w ekosystemach IoT, zapewniając bezpieczną komunikację każdego urządzenia i możliwość jego uwierzytelniania. Jej
rola powinna się zwiększać, co będzie wynikać ze zdolności do szyfrowania przesyłanych danych, a tym samym ochrony przed przechwyceniem i manipulacją. W przypadku uwierzytelniania, będzie można wykorzystać cyfrowe certyfikaty do weryfikowania tożsamości urządzeń, zapewniając dostęp do sieci wyłącznie tym uprawnionym. Z kolei podpisanie danych kluczem prywatnym umożliwia odbiorcom weryfikację ich integralności i pochodzenia.
Takie rozwiązanie w środowisku Internetu Rzeczy jest wspierane poprzez wdrażanie uwierzytelniania PKI na wiodących platformach, takich jak AWS IoT i Microsoft Azure IoT Hub. Dodatkowo, wprowadzane regulacje coraz bardziej kładą nacisk na zarządzanie tożsamością urządzeń, zmuszając producentów do integracji PKI. W rezultacie, w miarę jak liczba podłączonych urządzeń IoT będzie wciąż rosła, rola PKI w zapewnianiu solidnych rozwiązań bezpieczeństwa stanie się jeszcze bardziej kluczowa. Według raportu Encryption Consulting z 2024 roku, 89 proc. respondentów polega na PKI w celu zabezpieczenia środowisk IoT, a 45 proc. podmiotów zwiększyło budżet na bezpieczeństwo IoT w porównaniu z rokiem poprzednim.
Coraz krótsze cykle życia cyfrowych certyfikatów
W odpowiedzi na ewoluujące zagrożenia bezpieczeństwa i zmieniające się regulacje utrzymuje się trend skracania czasu ważności cyfrowych certyfikatów. Ma to na celu poprawę bezpieczeństwa poprzez zmniejszenie okna czasowego, w którym można wykorzystać skompromitowany certyfikat. Krótszy czas ważności oznacza, że nawet jeśli certyfikat zostanie skompromitowany, jego okres użyteczności jest ograniczony, co minimalizuje potencjalne szkody.
Dobitną reakcją na te oczekiwania była decyzja organizacji CA/Browser Forum z 2020 r. o skróceniu maksymalnego okresu ważności certyfikatów SSL/TLS do jednego roku. Obecnie ten trend staje się jeszcze bardziej widoczny – ostatnio Apple zaproponował, by do 2027 r. skrócić czas ważności publicznych certyfikatów SSL/TLS do zaledwie 47 dni. Propozycja
Motywacją dla działów IT do wdrażania kryptografii postkwantowej jest fakt, że postępy w dziedzinie komputerów kwantowych sprawią, iż kryptografia asymetryczna przestanie być bezpieczna już do 2029 r. (zaś – według prognoz Gartnera – do 2034 r. technologie kwantowe będą w stanie całkowicie ją złamać). To jednak nie oznacza, że zagrożenia pojawią się „dopiero” za kilka lat. Już teraz istnieje realne ryzyko ataków typu „zbierz teraz, odszyfruj później”, co sprawia, że przejście na kryptografię postkwantową staje się pilną koniecznością.
ta została ogłoszona na niedawnym spotkaniu CA/Browser Forum i jest zbieżna z wcześniejszymi działaniami Google’a, który dążył do ograniczenia ważności certyfikatów do 90 dni. Do tego rodzaju działań poszczególne przedsiębiorstwa skłania także wzrost liczby ataków phishingowych oraz przypadków nieprawidłowego wydawania certyfikatów. Ograniczając okres ważności, firmy mogą lepiej kontrolować swoje środowiska bezpieczeństwa i skuteczniej przeciwdziałać zagrożeniom.
Przy coraz krótszym okresie ważności certyfikatów kluczową rolę odgrywa automatyzacja procesów ich odnawiania. Dzięki niej firmy mogą mieć pewność, że certyfikaty są odnawiane na czas, eliminując ryzyko ludzkich błędów czy przeoczeń. Nie tylko poprawia to bezpieczeństwo, ale też redukuje obciążenie administracyjne związane z ręcznym zarządzaniem certyfikatami i wspiera rozwój tzw. kryptograficznej zwinności (crypto-agility), która staje się kluczowa dla utrzymania bezpiecznych operacji. Według Research and Markets rynek oprogramowania do zarządzania cyklem życia certyfikatów (Certificate Lifecycle Management, CLM) dynamicznie rośnie. Jego wartość w 2025 r. ma osiągnąć 5,25 mld dol., zaś według prognoz w 2029 r. będzie to 10,42 mld dol. (przy CAGR wynoszącym 18,7 proc.). n
Wprawdzie chmura kusi skalowalnością i elastycznością, ale coraz więcej firm zaczyna dostrzegać ukryte koszty związane z korzystaniem z niej. Jednocześnie niewykluczone jest, że o wyborze dostawcy coraz częściej będzie decydować nie tylko cena usługi, ale
też regulacje prawne i uwarunkowania geopolityczne.
l Wojciech Urbanek
Chociaż często słyszy się, że usługi chmurowe nie są tanie, a korzystanie z nich niesie ze sobą wiele zagrożeń, najwięksi dostawcy z roku na rok systematycznie powiększają swoje przychody. Gartner przewiduje, że w bieżącym roku globalne wydatki na chmurę publiczną wyniosą 723,4 mld dol., podczas gdy w ubiegłym roku było to „jedynie” 595,7 mld dol. Tradycyjnie najwięcej pieniędzy przyniesie sprzedaż SaaS – 299 mld dol., a w dalszej kolejności IaaS (212 mld) oraz PaaS (209 mld).
Analitycy zwracają uwagę na wzrost zainteresowania klientów ofertą usług CIPS (Cloud Infrastructure and Platform Services), czyli w pełni funkcjonalnej platformy, w ramach której funkcjonalność IaaS oraz PaaS dostarczana jest jako zintegrowana usługa w chmurze. Gartner spodziewa się, że wydatki użytkowników końcowych na CIPS wzrosną o 24,2 proc. w 2025 r., osiągając poziom 301 mld dol. Przewiduje się, że w tym roku sprzedaż usług CIPS będzie stano-
Dostawcy chmurowi nie mają interesu w informowaniu użytkowników o zbędnych wydatkach.
wić 72 proc. wydatków IT na IaaS i PaaS, w porównaniu z 70 proc. w 2022 r.
– Wykorzystanie sztucznej inteligencji w IT i operacjach biznesowych przyspiesza rolę przetwarzania w chmurze we wspieraniu operacji biznesowych oraz osiąganiu lepszych wyników. Sposoby użycia zasobów chmurowych nadal się rozwijają, z coraz większym naciskiem na rozproszone, hybrydowe, natywne dla chmury i wielochmurowe środowiska. Dzięki temu rynek publicznych usług w chmurze osiągnie 21,5 proc. wzrostu w 2025 roku – mówi Sid Nag, Vice President Analyst w Gartnerze. Duże nadzieje w sztucznej inteligencji pokładają również najwięksi dostawcy usług chmurowych. Microsoft zainwestował jak do tej pory 13 mld dol. w OpenAI, podczas gdy Amazon wpompował 8 mld dol. w Anthropic. Również Google ulokowało w tym startupie 2 mld dol., jednocześnie przeznaczając grube miliardy na rozwój własnego modelu Gemini. Zdaniem wielu analityków firmy, które korzystają z oprogramowania lub usług platformy chmurowej, już niedługo zobaczą nowy przycisk, uruchamiający funkcję generatywnej AI. – Sztuczna inteligencja to wyścig bez linii mety. To technologiczny filar, coś co będzie działo się zawsze. Od początku czuliśmy, że nie będzie wyłącznie jednego modelu AI i dlatego chcemy działać
jako neutralna platforma, która oferuje firmom opcje dla modeli sztucznej inteligencji, coś w rodzaju Szwajcarii wśród gigantów chmurowych – tłumaczył Matt Garman, dyrektor generalny Amazon Web Services podczas konferencji WSJ Tech Live w październiku.
Giganci zyskują przewagę
Globalny rynek usług chmurowych jest zdominowany przez trzy amerykańskie koncerny, które łącznie mają ponad 60 proc. udziału w nim. Palmę pierwszeństwa od samego początku dzierży AWS, który rozpoczął świadczenie usług chmury obliczeniowej już w 2006 r. Według Synergy Research ten usługodawca kontrolował w IV kwartale ubiegłego roku 30 proc. rynku, podczas gdy w analogicznym okresie 2022 r. było to 32 proc. „Grupę pościgową” tworzą Microsoft i Google. I choć z roku na rok zmniejszają swój dystans do lidera, to jego przewaga jest wciąż bezpieczna. Microsoft w czwartym kwartale 2024 r. miał 21 proc. udziału w globalnym rynku i od dekady pozostaje drugim graczem tym segmencie. Ostatnie miejsce na podium zajmuje Google Cloud (12 proc.), systematycznie zwiększając swój udział w rynku, jednak dzieje się to powoli – w czwartym kwartale 2021 r., wynosił on 10 proc. Jak na razie niewiele wskazuje na to, że ktokolwiek może poważnie zagrozić
trójce największych dostawców. Co więcej, analitycy uważają, że ich silne zaangażowanie w rozwój modeli sztucznej inteligencji pozwoli im jeszcze bardziej oddalić się od rywali. Według analizy S&P Global giganci chmurowi agresywnie inwestują w AI – ich łączne wydatki kapitałowe na ten cel wzrosły o 60 proc. w ujęciu rocznym. Prognozy wskazują, że w tym roku trzej główni gracze na rynku chmury odnotują wzrosty o 20 proc. lub większe. Jednak nie wszyscy postrzegają tę kwestię w taki sam sposób.
– Modele językowe i ich szkolenie wymagają ogromnych zbiorów danych, także tych poufnych. Pojawiają się nowe regulacje prawne, a jednocześnie rośnie świadomość zarządzających firmami w odniesieniu do szerokiej palety dostępnych rozwiązań, w tym z naszego rodzimego rynku. W efekcie będziemy obserwować wzrost znaczenia podmiotów wywodzących się z krajów UE, a także instytucji państwowych – tłumaczy Tomasz Sobol, Marketing Development Manager CEE w OVHcloud.
Z kolei Tomasz Magda, CEO Produkcji Chmur, tylko częściowo zgadza się z tezą, że boom na sztuczną inteligencję wzmocni pozycję hiperskalerów. Jego zdaniem ich największymi atutami są platformy marketplace zasilane przez rozbudowany ekosystem partnerski, wysoka dostępność, interoperacyjność oraz
wszechobecność usług dzięki licznym oddziałom i centrom danych rozsianym po całym świecie. Tomasz Magda dostrzega jednak pewną szansę dla mniejszych graczy. Jego zdaniem chmura od hiperskalerów nadal ma dość wysoki próg wejścia, co skutecznie odstrasza wielu klientów. Zaprojektowanie środowiska IT w chmurze publicznej wymaga wysokiej klasy specjalistów DevOps, a tych – jak wiadomo – brakuje. Małe i średnie firmy rzadko mogą sobie pozwolić na zatrudnienie specjalisty zarabiającego powyżej 20 tysięcy zł. Ta luka kompetencyjna tworzy nową przestrzeń dla dostawców chmury łatwej w obsłudze.
Jednym z takich przykładów jest amerykański startup Wasabi, oferujący usługi przechowywania danych. Dave Friend, CEO i współzałożyciel tej firmy buduje biznes, robiąc niemal wszystko na odwrót niż trójka gigantów.
– Rozmawiałem z klientami i pytałem ich o potrzeby dotyczące pamięci masowych. Najbardziej narzekali na skomplikowane rachunki wystawiane przez największych dostawców usług chmurowych. Ludzie wręcz nienawidzą tego, że za każdym razem, gdy wykonują operację związaną z pobraniem czy przesłaniem danych, otrzymują jakąś drobną opłatę – mówi Dave Friend.
Rachunek za usługi w Wasabi zawiera tylko jedną linijkę – wykorzystaną po-
wierzchnię dyskową. Poza tym pierwszą rzeczą, którą firma robi, wkraczając na lokalny rynek, jest próba podpisania umów z najlepszymi dystrybutorami oraz resellerami. Dave Friend uważa, że w ten sposób tworzy barierę dla konkurenta, który przychodzi do klienta z przesłaniem: „jesteśmy tańsi niż Wasabi”. System zdaje się dobrze działać, albowiem ta działająca od 2015 r. firma pozyskała już ponad 100 tys. klientów.
Wielu Europejczyków z niepokojem reaguje na prezydenturę Donalda Trumpa. Niewykluczone, że z czasem zaczną odwracać się od amerykańskich technologii, w tym usług chmurowych. Europa ma apetyt na uniezależnienie się od USA, obawiając się, że Amerykanie mogą wykorzystać swoją techniczną przewagę przeciw europejskim interesom. Co ciekawe, od stycznia do marca liczba odwiedzin na stronie internetowej European Alternatives wzrosła o ponad 1200 proc. Na witrynie można znaleźć różnorodne europejskie alternatywy – od usług strumieniowego przesyłania muzyki po narzędzia ochrony przed atakami DDoS. Czy Europa rzeczywiście może uniezależnić się od amerykańskich technologii? Firmy takie jak Microsoft, Google czy Amazon dominują w kluczowych dziedzinach, w tym w chmurze obliczeniowej i sztucznej inteligencji. Nawet jeśli Unia Europejska inwestuje w rozwój własnych rozwiązań, to wciąż daleko jej do amerykańskich gigantów pod względem innowacyjności i kapitału. Nie pomaga w tym też przeregulowana gospodarka. Jednak wśród niektórych europejskich dostawców panuje optymizm. Uważają, że Europa wcale nie jest skazana na zależność od globalnych gigantów. – Część europejskich firm oferuje usługi dorównujące, a nawet przewyższające platformy Big Techów, zwłaszcza w zakresie bezpieczeństwa i lokalizacji danych na terenie Europy. To kluczowe zwłaszcza dla podmiotów, które funkcjonują w branżach objętych surowymi regulacjami. Na szczęście w Europie rośnie świadomość znaczenia technicznej niezależności. Budowa własnej infrastruktury cyfrowej zwiększa odporność
gospodarczą, wzmacnia ochronę strategicznych danych i ogranicza ryzyko uzależnienia od firm spoza UE – przekonuje Andrzej Stella-Sawicki, wiceprezes i dyrektor operacyjny w CloudFerro.
Jednym z argumentów w toczącej się na ten temat dyskusji jest kwestia cen wspomnianych usług. Cześć analityków i rynkowych graczy pyta co się stanie, jeśli Unia Europejska wprowadzi cła odwetowe na usługi dostawców z USA?
– Jeśli ceny usług chmurowych dostarczanych przez amerykańskich usługodawców wzrosną na przykład o 25 procent, to w efekcie nastąpi częściowy powrót do dostawców lokalnych. Poza tym dużym wyzwaniem dla firm zza oceanu są liczne regulacje, takie jak RODO, Digital Markets Act, Digital Services Act, NIS 2 i Data Act. Co ciekawe, w Polsce powraca temat lokalnego podatku cyfrowego. Tutaj będzie się dużo działo – twierdzi Tomasz Magda.
Pułapki kosztowe, a kontrola nad wydatkami
Użytkownicy usług chmurowych prędzej czy później dostrzegają, że przepłacają za niektóre zasoby. Według badania Flexera specjaliści IT i menedżerowie wysokiego szczebla deklarują, że marnują średnio 27 proc. budżetu na chmurę. Dodatkowo 84 proc. respondentów uznaje zarządzanie wydatkami chmurowymi za największe wyzwanie, a 81 proc. wskazuje na bezpieczeństwo jako kluczowy problem.
Rozczarowani klienci czasami samodzielnie optymalizują koszty, inni korzystają ze wsparcia profesjonalnych firm wdrażających praktyki FinOps. Dostawcy chmurowi nie mają interesu w informowaniu użytkowników o zbędnych wydatkach – wręcz przeciwnie, zarabiają na niewykorzystanych zasobach, odsprzedając je innym klientom. Według
Menedżerowie wysokiego szczebla marnują średnio 27 proc. budżetu na chmurę.
Rozczarowanie usługami dostawców chmurowych często wynika z niewłaściwego zaplanowania migracji do chmury. Wbrew pozorom nie jest to rozwiązanie, które odpowiada na wszystkie wyzwania. Środowiska w branżach regulowanych, systemy o stałym, wysokim obciążeniu oraz te, które przesyłają duże ilości danych poza chmurę, często okazują się nieodpowiednie do takiej migracji. Kluczowe jest zatem odpowiednie zaplanowanie początkowej fazy wdrożenia chmury, ponieważ całkowite repatriacje zdarzają się niezwykle rzadko. Poziom złożoności takich operacji – uwzględniając potencjalne przestoje i ponowne koszty – sprawia, że firmy często pozostają przynajmniej częściowo w chmurze, nawet jeśli nie spełnia ona ich oczekiwań, chociażby pod względem kosztów. Model chmury prywatnej, czyli w uproszczeniu wirtualizacji wzbogaconej o zaawansowaną automatyzację w ramach własnego centrum przetwarzania danych, pojawił się na długo przed chmurą publiczną. Choć nie zawsze posiadał wszystkie cechy prawdziwej „chmury” w dzisiejszym rozumieniu, to jednak był i nadal pozostaje realnym rozwiązaniem. W sytuacjach, gdzie kluczowe są pełna kontrola nad danymi i bezpieczeństwem – jak w branżach regulowanych, administracji państwowej czy służbach mundurowych – chmura prywatna wciąż stanowi pierwszy wybór. Dodatkowo, przewidywalność kosztów inwestycyjnych oraz możliwość budowy infrastruktury dostosowanej do specyficznych wymagań sprawiają, że model ten wciąż pozostaje atrakcyjny dla wielu przedsiębiorstw.
Suchity Kaury, CEO Aquila Clouds, nawet jedna piąta budżetu przeznaczanego na chmurę to zmarnowane pieniądze. W takiej sytuacji użytkownicy niezadowoleni z oferty AWS, Microsoft Azure czy Google Cloud Platform mogą powrócić do lokalnych serwerowni – i często tak się dzieje. Badanie Flexera pokazuje, że globalnie przedsiębiorstwa przeniosły 20 proc. obciążeń z chmury publicznej do infrastruktury lokalnej.
– Kilka lat temu mówiono o repatriacji, ale niewiele firm się na nią decydowało. Dziś to już rzeczywistość – zauważa Brian Adler, starszy dyrektor Flexery ds. strategii na rynku chmury.
Większość firm wybiera jednak model hybrydowy, łączący infrastrukturę lokalną z chmurą publiczną. To korzystne zarówno dla dostawców usług chmurowych (np. Amazon FSx, Azure Files), jak i firm zewnętrznych, takich jak NetApp, Ctera, Panzura czy Hammerspace, które ułatwiają integrację obu środowisk. Ostateczny wybór między rozwiązaniami firm zewnętrznych a narzędziami oferowanymi przez dostawców chmury zależy od strategii przedsiębiorstwa. Andrzej Stella-Sawicki podkreśla, że firmy preferujące niezależność i pełną
Engave otrzymał tytuł CRN IT Master 2025
kontrolę nad infrastrukturą IT wybierają niezależne rozwiązania, natomiast te stawiające na łatwość wdrożenia i optymalizację korzystają z narzędzi wbudowanych w platformy chmurowe.
Przy czym te przedsiębiorstwa, które przetwarzają wrażliwe dane, zwłaszcza w branżach regulowanych, często decydują się na budowę chmury prywatnej. Chociaż wymaga to większych inwestycji w sprzęt, daje pełną kontrolę nad systemami i aplikacjami.
– Z naszego doświadczenia wynika, że na ten model decydują się zarówno podmioty średnie, jak i korporacje – mówi Tomasz Sobol.
Obecnie lwia cześć firm dąży do znalezienia kompromisu pomiędzy własną infrastrukturą a usługami chmurowymi. Wykorzystanie sztucznej inteligencji, obliczeń brzegowych oraz integracji chmury hybrydowej pozwala osiągnąć wysoki poziom elastyczności, bezpieczeństwa i kontroli.
– Nie przestajesz kupować paliwa do samochodu, bo wydajesz na nie dużo pieniędzy. Po prostu jeździsz tak, aby spalanie było bardziej wydajne – podsumowuje Yoav Golub, wiceprezes Finout ds. marketingu. n
Opublikowany przez Rackspace Technology dokument „The 2025 State of Cloud Report” pokazuje, że chmura weszła w nową fazę: elastyczności, złożoności i silnego powiązania z rozwojem sztucznej inteligencji. Aż 84 proc. firm już integruje AI ze swoją strategią chmurową, a niemal połowa wykorzystuje ją do poprawy efektywności operacyjnej i bezpieczeństwa.
Coraz większą rolę odgrywa model hybrydowy – 48 proc. firm uznaje go za kluczowy dla przyszłości IT, a 82 proc. jego użytkowników deklaruje wysokie zadowolenie z jego elastyczności oraz wydajności.
Mimo wzrostu popularności środowisk wielochmurowych i publicznej chmury, aż 69 proc. firm rozważa repatriację części zasobów z powrotem do
chmury hybrydowej
Inwestycja w środowisko chmury prywatnej
Wzrost wykorzystania rozwiązań SaaS
Utrzymanie obecnej infrastruktury chmurowej z minimalnymi zmianami
Procesy dotyczące decyzji co do przenoszenia zadań obliczeniowych do chmury
Stosujemy kompleksowy system analizy każdego obciążenia z osobna
Analizujemy każde obciążenie indywidualnie, ale tylko w przypadku aplikacji krytycznych
Decyzje o umiejscowieniu obciążeń w chmurze podejmujemy na podstawie ogólnych zasad i kryteriów
Decyzje podejmujemy ad hoc, bez uporządkowanej analizy i spójnej metodologii
Kryteria wyboru środowiska chmurowego
Pełna wersja raportu
Analityka danych
Systemy finansowe i księgowe
Narzędzia do współpracy
Narzędzia CRM
Zarządzanie łańcuchem dostaw
Aplikacje objęte regulacjami
Aplikacje dla klientów
Systemy kadrowe
Backup/DR
Środowiska programistyczne i testowe
Narzędzia ERP
Aplikacje niezależne
chmur prywatnych lub infrastruktury lokalnej – ze względu na zapewnienie zgodności z przepisami, koszty i złożoność integracji. Wciąż jednak barierą pozostaje brak specjalistów – 40 proc. ankietowanych wskazuje na lukę kompetencyjną jako główną przeszkodę. Raport pokazuje, że wygrywają ci, którzy planują strategicznie – łączą AI, analizę obciążenia i różne modele chmurowe.
ChmuraOn-premise
Spektrum wykorzystania rozwiązań AI do wspomagania procesu zarządzania
– od indeksowania obrabianych dokumentów aż po
zaawansowaną analitykę dużych zbiorów danych.
l Andrzej Gontarz
Ponad połowa przedsiębiorstw (58 proc.) podejmuje strategiczne decyzje bazując na niedokładnych lub niespójnych danych – wynika z raportu „The Great Data Divide”, opracowanego przez Wakefield Research na zlecenie SoftServe. Co ważne, 65 proc. ich menedżerów twierdzi, że nie ma pełnej wiedzy na temat zgromadzonych danych czy sposobów dostępu do nich. Trzeba przyznać, że w sytuacji, gdy uważane są one za podstawowy zasób przedsiębiorstwa i – jak się generalnie przyjmuje – mogą decydować o biznesowej przewadze konkurencyjnej, brzmi to dosyć niepokojąco.
Do skutecznego i odpowiedzialnego wytrenowania modeli AI potrzebne
są dobre, rzetelne dane. Podstawowym wyzwaniem staje się więc obecnie znalezienie odpowiedzi na pytanie: w jaki sposób można skutecznie zaradzić problemom z ich jakością? Teoretycznie metody i sposoby znane są od dawna. To chociażby polityki zarządzania jakością danych (data governance), metody zarządzania danymi wzorcowymi (Master Data Management, MDM) i techniki zarządzania jakością danych (Data Quality Management, DQM), jak również decyzje wyznaczające właścicieli i opiekunów danych (data owner i data steward).
Jednocześnie wiadomo, że wdrożenie ich w realiach codziennego funkcjonowania przedsiębiorstw nie jest wcale
łatwe. Coraz więcej firm, szczególnie tych dużych, próbuje sobie radzić poprzez zatrudnianie osób odpowiedzialnych za ten obszar działalności, czyli tzw. CDO (Chief Data Officer). Obecnie wszystkim może przyjść z pomocą umiejętnie stosowana sztuczna inteligencja.
Cel decyduje o korzyściach
Możliwości wykorzystania sztucznej inteligencji do zarządzania danymi są praktycznie nieograniczone. Stanowią one bowiem obecnie strategiczny zasób w niemalże wszystkich obszarach i segmentach działalności biznesowej – od obsługi klienta, przez zarządzanie finansami, po produkcję.
Zawsze jednak trzeba wiedzieć po co dane rozwiązanie jest stosowane, a więc jaki cel chce się za jego pomocą osiągnąć. Jak podkreślają autorzy raportu „Stanford AI Index 2025”, największe korzyści płyną z wdrożeń sztucznej inteligencji w konkretnych obszarach działalności, w których możliwe jest wspomaganie poszczególnych procesów
Kluczowe obszary i sposoby wykorzystania technik oraz metod sztucznej inteligencji w zarządzaniu danymi.
Automatyczne zbieranie danych z wielu różnych źródeł – narzędzia bazujące na algorytmach AI mogą przeszukiwać strony internetowe i media społecznościowe w poszukiwaniu określonych informacji, jak też znajdować i pobierać w sposób automatyczny konkretne dane z systemów bazodanowych czy systemów obiegu dokumentów. Wyszukiwanie informacji – zwiększenie efektywności i precyzji wyszukiwania informacji w dokumentach i innych zasobach cyfrowych, jak strony internetowe, bazy danych, archiwa firmowe itp. Można przeszukiwać je nie tylko z wykorzystaniem
słów kluczowych lub ich logicznych kombinacji, ale też z wykorzystaniem mechanizmów semantycznych, dzięki którym pod uwagę brany jest kontekst zapytania. Wyszukiwarki kontekstowe mogą znaleźć zastosowanie w wielu różnych obszarach działalności biznesowej.
Tworzenie tekstów – na podstawie analizy dokumentów narzędzia generatywnej sztucznej inteligencji mogą opracowywać gotowe teksty. Potrafią tworzyć odpowiedzi na zapytania klientów, przygotowywać oferty marketingowe produktów, odpowiadać na reklamacje towarów
itp. Mogą także dokonywać podsumowania czy streszczenia wskazanych dokumentów lub ich zbiorów.
Analiza danych – dzięki algorytmom uczenia maszynowego czy modelom przetwarzania języka naturalnego systemy AI mogą w krótkim czasie analizować ogromne ilości danych, w tym również nieustrukturyzowanych (tekstów, obrazów). Potrafią identyfikować istniejące w nich ukryte wzorce, trendy czy relacje. Wyniki mogą mieć kluczowe znaczenie dla funkcjonowania firmy zarówno na poziomie operacyjnym, jak i strategicznym.
biznesowych. W sumie oszczędności odnotowało 61 proc. przebadanych firm korzystających z AI do zarządzania łańcuchem dostaw i zapasami, a 70 proc. stosujących ją w zarządzaniu strategicznym i raportowaniu finansowym zaobserwowało wzrost przychodów. Przy czym największe korzyści niosą ze sobą wdrożenia w obsłudze serwisowej, sprzedaży i marketingu.
Natomiast z tegorocznej edycji raportu EY „Jak polskie firmy wdrażają AI” wynika, że największy wzrost efektywności po zastosowaniu sztucznej inteligencji odnotowały przedsiębiorstwa handlowe i produkcyjne, a w znacząco mniejszym stopniu firmy usługowe. We wszystkich jednak branżach kluczowym czynnikiem decydującym o wdrażaniu AI są działania wynikające ze strategii firmy dla poszczególnych obszarów biznesowych. Przedstawiciele handlu najczęściej wdrażają AI w dziedzinie marketingu i analityki (60 proc.), sprzedaży (51 proc.) oraz obsługi klienta (46 proc.). Dla przedsiębiorstw produkcyjnych najistotniejsze są: IT (41 proc.), marketing i analiza rynku (37 proc.) oraz sprzedaż (36 proc.). Natomiast firmy usługowe najmocniej implementują rozwiązania z zakresu AI w obsłudze klienta (48 proc.), marketingu (39 proc.) i finansach (34 proc.).
Zdaniem PwC sztuczna inteligencja zmieni przedsiębiorstwa z każdej branży, chociaż ich rozwój będzie nierówno-
Przetwarzanie danych – pozyskane dane mogą być automatycznie agregowane i integrowane według ustalonych reguł, a także zestawiane i łączone zgodnie z potrzebami użytkowników. Automatyzacji mogą podlegać procesy ETL (Extract, Transform and Load – wyodrębnianie, przekształcanie i ładowanie), czyli działania w zakresie pozyskiwania i przekształcania informacji z różnych źródeł do odpowiedniego formatu oraz zasilania nimi centralnej bazy.
Poprawa jakości danych – monitorowanie jakości danych, wyszukiwanie występujących nieprawidłowości, identyfikowanie błędów lub brakujących wartości. AI pozwala w sposób automatyczny korygować znalezione błędy oraz usuwać z baz duplikaty zapobiegając redundancji danych.
mierny. 73 proc. liderów biznesowych, którzy wzięli udział w badaniu „PwC’s Pulse Survey 2024”, zadeklarowało, że wykorzysta GenAI do zmiany modelu biznesowego swojej firmy. Analitycy IDC twierdzą, że każdy nowy dolar wydany przez użytkowników na rozwiązania i usługi z zakresu sztucznej inteligencji wygeneruje w światowej gospodarce dodatkowe 4,9 dol. Rozwiązania bazu-
Indeksowanie dokumentów – automatyczne rozpoznawanie zawartości dokumentów (faktur, umów handlowych, zwolnień lekarskich, zgłoszeń reklamacyjnych itp.) i ich odpowiednie indeksowanie oraz przypisywanie do właściwej kategorii w celu przekazania do procesu dalszego przetwarzania. Wspomaganie systemu obiegu dokumentów – automatyczna klasyfikacja przetwarzanych treści, wykrywanie i korygowanie lub sugerowanie konieczności poprawy znajdujących się w dokumentach błędów, automatyczne przydzielanie dostępu do dokumentów osobom zaangażowanym w realizację określonych procesów. W przypadku rozpoznania danych poufnych, automatyczne blokowanie możliwości wysyłania ich na zewnątrz.
jące na AI zwiększają w wielu różnych branżach wydajność i produktywność firm. Otwierają też im nowe możliwości uzyskiwania przychodów.
Z kolei z przeprowadzonego przez specjalistów F5 raportu „State of Application Strategy 2024” wynika, że największym wyzwaniem we wprowadzaniu rozwiązań AI jest niedojrzałość danych (wskazało na nią 56 proc.
Wspieranie automatyzacji procesów – automatyczna kategoryzacja dokumentów i rozpoznawania ich zawartości umożliwia dostarczanie danych potrzebnych do realizacji określonych procesów biznesowych lub wręcz ich inicjowanie bez udziału człowieka. Efektywność takich rozwiązań zależy w dużej mierze od stopnia integracji systemów obiegu dokumentów z innymi systemami informatycznymi w firmie. Poprawa jakości OCR – za sprawą technik AI systemy optycznego rozpoznawania znaków działają coraz szybciej i dokładniej. Potrzebują też coraz mniej czasu na naukę odczytywania danych.
respondentów). Przy czym, jak twierdzą autorzy raportu PwC „Gotowi na sztuczną inteligencję”, zarządzanie danymi jest jednym z sześciu kluczowych obszarów decydujących o sukcesie we wdrażaniu AI. Tym bardziej więc troska o wykorzystanie jak najlepszych sposobów i metod zarządzania staje się zadaniem pierwszej potrzeby.
Odpowiednie środowisko informatyczne
Dla zespołów IT w firmach ważnym wyzwaniem jest obecnie zapewnienie optymalnego środowiska technicznego do przechowywania, przetwarzania, udostępniania i zabezpieczenia wciąż rosnących zasobów danych. Z pomocą mogą przyjść w tym zakresie również odpowiednie metody i techniki sztucznej inteligencji.
Na popularności zyskuje pojęcie AIOps (Artificial Intelligence for IT Operations). Odnosi się ono do wykorzystania uczenia maszynowego i analizy dużych zbiorów danych do automatyzacji działania oraz usprawnienia zarządzania centrami danych. Bazujące na AI rozwiązania pozwalają chociażby na optymalizację funkcjonowania złożonych środowisk informatycznych poprzez automatyczne wykrywanie pojawiających się w nich problemów, diagnozowanie ich i rozwiązywanie.
Dają również możliwość zbudowania odpowiedniej architektury środowiska informatycznego sprzyjającej przetwarzaniu danych oraz wdrożeniu odpowiednich do jej wymogów składników infrastrukturalnych – zarówno po stronie urządzeń, jak i oprogramowania. Wspomagają też proces ich utrzymania, rozwoju i zarządzania funkcjonowaniem. W praktyce oznacza to
Dla małych i średnich
automatyzację zarządzania zasobami, przewidywania awarii, optymalizację przeprowadzanych operacji, przyspieszenie wprowadzania zmian w serwisach czy zwiększenie dostępności wykorzystywanej infrastruktury (w tym poprzez dynamiczne przydzielanie potrzebnych zasobów i zwalnianie niewykorzystywanych), jak też poprawę wydajności przy jednoczesnym pilnowaniu kosztów.
Podejmowanie działań optymalizacyjnych jest możliwe przede wszystkim dzięki analizie częstotliwości i sposobów wykorzystania różnych zbiorów danych oraz analizie potrzeb użytkowników i wzorców ich zachowania podczas korzystania z danych. To daje zarządzającym środowiskiem informatycznym pewność, że wprowadzane zmiany będą zgodne z oczekiwaniami odbiorców, a jednocześnie zapewnią stabilne i bezpieczne funkcjonowanie całej infrastruktury przetwarzania oraz udostępniania danych.
Dostawcy zewnętrzni poszukiwani Narzędzia, które korzystają ze sztucznej inteligencji, często są oferowane jako integralne składniki większych systemów, na przykład zarządzania obiegiem dokumentów, analitycznych czy bezpieczeństwa informacji. W tym kontekście integratorzy, którzy znają potrzeby i wymagania swoich klientów, mogą być bardzo pomocni przy wyborze i wdrażaniu konkretnych rozwiązań. Tym bardziej, że znajomość technik AI nie jest jeszcze zbyt powszechna i do dobrej oceny ich rzeczywistych możliwości potrzebne są specyficzne kwalifikacje.
Nie oznacza to jednak, że na rynku nie ma miejsca dla mniejszych firm, które tworzą własne produkty czy usługi
AI. Obecnie, w dobie wzmożonego zainteresowania GenAI, będą to chociażby wyspecjalizowane aplikacje bazujące na dużych lub małych modelach językowych, np. do automatycznego generowania treści marketingowych. Mogą to być również bazujące na zasobach chmurowych narzędzia przeznaczone do konkretnych zadań, na przykład z zakresu cyberbezpieczeństwa, obsługi klienta czy medycyny.
Według autorów jednej z ostatnich edycji raportu Gartnera „Hype Cycle of Emerging Technologies”, w najbliższym
Największy wzrost efektywności notują przedsiębiorstwa handlowe i produkcyjne.
Prowadzony przez Polską Agencję Rozwoju Przedsiębiorczości (PARP) portal ai4msp.pl oferuje producentom rozwiązań z zakresu AI możliwość prezentowania swoich produktów. Celem inicjatywy AI4MŚP było stworzenie miejsca łączącego dostawców AI z odbiorcami z sektora małych i średnich przedsiębiorstw. Firmy oferujące narzędzia AI, w tym również z dziedziny zarządzania danymi, mogą zaprezentować swoje rozwiązania po bezpłatnej rejestracji na platformie. Po weryfikacji mogą znaleźć się na liście godnych zaufania dostawców AI dla sektora MŚP i dotrzeć dzięki temu do szerszego grona potencjalnych klientów.
czasie będzie rosła popularność rozwiązań wytwarzających i analizujących duże zbiory danych. Towarzyszyć temu będzie rozwój systemów autonomicznej sztucznej inteligencji przynoszącej nowe, realne możliwości zastosowań biznesowych. Gartner prognozuje, że do 2028 r. jedna trzecia aplikacji biznesowych będzie zawierać agenty AI, w których gestii może być autonomiczne podejmowanie kilkunastu procent codziennych decyzji zawodowych. To otwiera nowe perspektywy oraz możliwości działania dla firm z rynku IT. Zwłaszcza, że – jak wynika z badania EY – najwięcej wdrożeń projektów bazujących na AI w polskich przedsiębiorstwach realizowanych jest przez zewnętrznych dostawców i konsultantów lub we współpracy z nimi. Tylko niewielka część firm przeprowadziła takie wdrożenia wyłącznie siłami wewnętrznego zespołu. Także z raportu Gartnera wynika, że globalnie firmy odchodzą od budowania własnych narzędzi z zakresu GenAI i kupują konkretne rozwiązania od dostawców z rynku. Powodem wycofywania się z własnych projektów są nie tylko ograniczenia finansowe, lecz także braki kompetencyjne i niedobór potrzebnej infrastruktury. n
Pełną skalę użyteczności systemu zarządzania dokumentami najlepiej osiągnąć poprzez jego integrację z innymi systemami informatycznymi w przedsiębiorstwie.
Można zaryzykować stwierdzenie, że sytuacja w dziedzinie zarządzania obiegiem dokumentów przypomina dzisiaj w dużej mierze to, co dzieje się w branży motoryzacyjnej. Już od wielu lat mówi się o tym, że w samochodach coraz mniej liczy się mechanika, a kluczowym elementem pojazdów staje się warstwa informatyczna. Według badania IBM Institute for Business Value, do 2035 r. aż 74 proc. komponentów auta będzie zarządzanych przez oprogramowanie i sztuczną inteligencję.
Podobnie ma się sprawa z systemami zarządzania dokumentami. Coraz mniejszą rolę odgrywają w nich urządzenia, a coraz ważniejsze staje się oprogramowanie (w tym również sztuczna inteligencja), które pozwala na zaawansowane przetwarzanie dokumentów i wydobywanie z nich potrzebnych informacji. Owszem, drukarki oraz skanery są nadal potrzebne, cały czas są rozwijane, unowocześniane i wyposażane w nowe funkcje. Stają się szybsze, wydajniejsze, dokładniejsze, coraz bardziej energooszczędne i dostosowane do pracy w różnych warunkach – nie tyl-
l Andrzej Gontarz
ko w biurze, ale też z wykorzystaniem chmury i rozwiązań mobilnych. Stanowią podstawę procesów digitalizacji, ale w coraz większym stopniu ich znaczenie uzależnione jest od umiejętnego wpisania w cały system przetwarzania dokumentów oraz dostępu do zawartych w nich treści.
Coraz wyraźniej widać, że to właśnie oprogramowanie decyduje w znaczący sposób o skuteczności prowadzonego procesu digitalizacji, przyczyniającej się do efektywnego biznesowo wykorzystania zawartości obrabianych dokumentów. Nie tylko zresztą tekstowych, ale też w coraz większym zakresie wizualnych, głosowych, a także wiadomości poczty elektronicznej, czy stron internetowych. A przecież w gruncie rzeczy o to przy przetwarzaniu dokumentów chodzi – nie w tym rzecz, by mieć je zarchiwizowane w postaci cyfrowej, lecz by zyskać możliwość szybkiego, efektywnego dostępu do zawartych w nich informacji, jak też ich skutecznego wykorzystania zgodnie z zakładanymi celami. O tym właśnie w dużej mierze decyduje odpowiednio dobrane oprogramowanie, bazujące już w coraz większym stop-
Coraz mniejszą rolę odgrywają urządzenia, a coraz ważniejsze staje się oprogramowanie.
niu na metodach i technikach sztucznej inteligencji.
Nie sam, lecz w kontekście
Na tym analogie z branżą motoryzacyjną się nie kończą, warto bowiem spojrzeć na trend związany z autonomizacją transportu kołowego, a więc dążenie do tego, by pojazdy mogły docelowo poruszać się całkowicie bez udziału i zaangażowania kierowcy. Podobne oczekiwania towarzyszą rozwojowi systemów elektronicznego obiegu dokumentów. Idealne rozwiązanie to takie, dzięki któremu użytkownik w ogóle nie zdaje sobie sprawy, że w swoich działaniach korzysta z dostępu do dokumentów. To system, dzięki któremu można w jak największym zakresie zautomatyzować całe procesy biznesowe lub obszary działalności. Do tego potrzebna jest jednak integracja systemu obiegu dokumentów z innymi systemami IT – tak daleko posunięta, żeby umożliwiała inicjowanie konkretnych działań po pobraniu określonych danych czy informacji ze wskazanych dokumentów lub ich kategorii. Funkcjonalność samego repozytorium cyfrowej dokumentacji jest ograniczona. Jeżeli system elektronicznego obiegu dokumentów ma przynosić faktyczne, realne korzyści, to nie może funkcjonować sam, w oderwaniu od całego kontekstu biznesowej czy merytorycznej aktywności korzystającego zeń podmiotu.
Owszem, może ułatwiać i przyspieszać dostęp do potrzebnych dokumentów czy zawartych w nich informacji lub umożliwiać wspólną pracę nad jednym, konkretnym dokumentem w ramach zdalnego, szybkiego obiegu. To zresztą często jest przedstawiane przez dostawców takich rozwiązań jako jeden z głównych atutów. Nie oddaje on jednak w pełni faktycznej użyteczności systemów zarządzania dokumentami i prawdziwej skali korzyści, jakie można za ich pomocą osiągnąć. W końcu bowiem w warunkach działalności rynkowej czy administracyjnej nie o sam dostęp do informacji chodzi.
Nie informacja, lecz działanie
Informacje są potrzebne, aby zainicjować bądź zrealizować pewne konkretne działania lub podjąć odpowiednie decyzje, skutkujące docelowo również podjęciem (bądź też zaniechaniem) konkretnych kolejnych działań. Departament finansowy potrzebuje danych z faktury, by zrealizować (bądź wstrzymać) płatność. Dział marketingu lub sprzedaży potrzebuje informacji o klientach, by przedstawić im ofertę produktów lub usług. Wydział architektury i urbanistyki potrzebuje wiedzy na temat uwarunkowań środowiskowych, by wydać pozwolenie na rozpoczęcie budowy lub wstrzymać jej realizację. Nikt nie policzy, ile tego typu małych i dużych decyzji podejmują przedsiębiorstwa oraz instytucje, ani jak wiele czasu one pochłaniają. Idealnym rozwiązaniem byłaby sytuacja, gdyby system samodzielnie, w trybie właśnie autonomicznym, pobierał z odpowiednich dokumentów potrzebne informacje i na ich podstawie przygotowywał stosowne materiały, oferty, decyzje, albo chociażby ich propozycje do zatwierdzenia przez upoważnionych
pracowników. W ściśle określonych, niebudzących zastrzeżeń sytuacjach mógłby wręcz sam inicjować określone działania, na przykład generować gotowe do wysłania przelewy, czy też na podstawie analizy korespondencji z kontrahentem opracowywać projekt współpracy oraz umowę.
O wprowadzaniu takich i podobnych im rozwiązań można myśleć już coraz bardziej realnie za sprawą możliwości oferowanych przez sztuczną inteligencję i uczenie maszynowe. Przy czym nie chodzi tu tylko o robiące ostatnio furorę w powszechnej świadomości narzędzia bazujące na dużych modelach językowych (GenAI), lecz także o wiele innych, równie skutecznych i użytecznych w określonych zastosowaniach metodach i technikach sztucznej inteligencji.
Lepsze rozpoznanie, lepsze zarządzanie
Ze znaczenia i wagi sztucznej inteligencji zdają sobie z pewnością sprawę zarówno twórcy i dostawcy systemów zarządzania obiegiem dokumentów, jak i producenci wykorzystywanych w ich ramach urządzeń. Zresztą już w większości przypadków drukarki czy skanery do biznesowego, profesjonalnego użytku wyposażone są w systemy zarządzania dokumentami lub są od razu z nimi zintegrowane. Dlatego też tym bardziej uzasadnione jest wyposażanie ich również w rozwiązania bazujące na sztucznej inteligencji.
AI jest obecnie głównym tematem przekazów marketingowych i ofert producentów drukarek, skanerów czy urządzeń wielofunkcyjnych, jak i twórców systemów zarządzania dokumentami. W praktyce może ona wspierać i optymalizować samo działanie urządzeń drukująco-skanujących, jak też wspomagać
Rynek systemów zarządzania dokumentami (DMS) będzie w najbliższym czasie rósł wykładniczo. Według szacunków Fortune Business Insights, w ciągu najbliższych siedmiu lat zwiększy swoją wartość trzykrotnie – z 8,3 mld dol. w 2025 r. do 24,3 mld dol. w 2032 r. Największe średnioroczne wzrosty wydatków na te rozwiązania spodziewane są w Europie. Impulsem do ich wdrażania mają być postępujące procesy transformacji cyfrowej i inwestowania w platformy cyfrowe. Czynnikiem sprzyjającym ma być także rosnące zastosowanie środowisk chmurowych. W efekcie wdrożeń systemów DMS przedsiębiorcy na całym świecie spodziewają się zwiększenia wydajności pracy.
korzystanie z dostępnych w postaci cyfrowej zasobów informacji i treści.
Algorytmy i modele AI mogą tak sterować pracą drukarek i skanerów, by zużywały jak najmniej materiałów i energii. W najnowszych urządzeniach są już wprowadzane rozwiązania, które monitorują pracę podzespołów i mogą przewidywać ryzyko wystąpienia awarii, sugerując przy tym przeprowadzenie wcześniejszych prac konserwacyjnych. Systemy wizji komputerowej mogą podnosić jakość skanowania poprzez lepsze rozpoznawanie obrazów. Systemy zarządzania wydrukami mogą samodzielnie wybierać tryb drukowania (kolor lub monochromatyczny), dopasowując jakość wydruku do potrzeb odbiorcy.
Bardziej precyzyjne rozpoznawanie tekstu będzie z kolei przekładać się na lepsze, dokładniejsze klasyfikowanie zawartości dokumentu, identyfikowanie jego struktury oraz wyodrębnianie kluczowych danych. Sztuczna inteligencja jest w stanie samodzielnie kategoryzować digitalizowane i przetwarzane potem w systemie elektronicznego obiegu dokumenty, określać ich typy i kategorie (np. faktura, umowa) oraz ustalać zawarte w nich i niezbędne do podejmowania określonych działań informacje (np. numer konta bankowego, nazwa i adres kontrahenta).
Może też przyczyniać się do podnoszenia poziomu cyberbezpieczeństwa, nie dopuszczając chociażby do przekazywania w wiadomości e-mail newralgicznych czy poufnych wiadomości poza firmę lub w ogóle blokując nieuprawnionemu pracownikowi dostęp do danych. Narzędzia bazujące na AI mogą dokonywać analizy zawartości dokumentów i sporządzać na tej podstawie potrzebne raporty czy zestawienia. Aplikacje korzystające z modeli językowych mogą dokonywać streszczeń umów czy sprawozdań lub przygotowywać propozycje ofert dla danej grupy klientów. Wyszukiwanie informacji stanie się możliwe nie tylko za pomocą słów kluczowych, lecz także na bazie zapytań kontekstowych.
Jak w praktyce taki w miarę autonomiczny, mocno zintegrowany ze środowi-
skiem biznesowym firmy system obiegu dokumentów mógłby wyglądać? Załóżmy, że w dużym parku handlowym czy na rozległej hali produkcyjnej następuje awaria jakiegoś urządzenia lub maszyny. Zgłoszenie o potrzebie naprawy wpływa do zespołu serwisowego. Może być dostarczone zdalnie po wykryciu usterki przez czujniki zamontowane na urządzeniu, przesłane w wiadomości e-mail czy też przekazane telefonicznie. Teoretycznie mogłoby być też przyniesione w wersji papierowej (gdyby się na przykład okazało, że dane miejsce zostało pozbawione dostępu do sieci).
W każdym przypadku zgłoszenie jest traktowane jako dokument, który po wprowadzeniu do systemu powoduje automatyczne uruchomienie określonych procedur skutkujących w konsekwencji wysłaniem ekipy naprawczej. System, korzystając z rozwiązań bazujących na sztucznej inteligencji, dokonuje weryfikacji zgłoszenia i zgłaszającego. Po dokonaniu klasyfikacji przypisuje je do realizacji wybranemu zespołowi lub konkretnemu serwisantowi. Wyboru dokonuje na podstawie analizy zgłoszonych objawów uszkodzenia oraz dotychczasowych doświadczeń i zakresów obowiązków pracownika zawartych w jego dokumentacji pracowniczej.
Potwierdzenie przyjęcia zgłoszenia uruchamia automatycznie – na smartfonie serwisanta lub na monitorach w pomieszczeniu – szczegółowy plan dotarcia do miejsca zdarzenia. Tam, po akceptacji zgłaszającego, serwisant informuje o gotowości podjęcia prac i dostaje na smartfona schemat naprawianej maszyny oraz raporty z poprzednio wykonywanych napraw i akcji serwisowych. Wtedy system kontroli automatycznie wyłącza zabezpieczenia urządzenia, jeśli takowe są stosowane, a po zaakceptowaniu wykonania usługi ponownie je uruchamia. Na skrzynkę e-mail zgłaszającego automatycznie wysyłana jest faktura (którą może sobie wydrukować, jeśli będzie
miał taką potrzebę), a do działu finansowego macierzystej firmy serwisanta wpływa informacja o zobowiązaniu klienta. Dział techniczny otrzymuje natomiast raport z wykonanej naprawy, który wraz z innymi może zostać poddany analizie w celu oceny skuteczności podejmowanych działań. Do kooperanta generowana jest automatycznie wiadomość e-mail z podziękowaniem za szybkie dostarczenie części zamiennej.
Powyższy przykład jest oczywiście fikcyjny, aby pokazać mechanizmy i możliwości wykorzystania systemów zarządzania dokumentami do szerokiej automatyzacji procesów w firmach oraz unaocznić wynikające z tego tytułu korzyści. Nie znaczy to jednak, że przywołane tu rozwiązania nie są już w mniejszym lub większym stopniu stosowane w praktyce w wielu firmach, również w Polsce. Wdrażane są głównie z myślą o poprawie efektywności funkcjonowania na coraz bardziej wymagającym rynku, nie zaś jedynie dla ułatwienia dostępu do dokumentów. Digitalizacja dokumentów jest tylko środkiem do osiągnięcia szerszych celów biznesowych.
Wiadomo, że nie każdy i nie w każdej sytuacji potrzebuje tak zaawansowanych rozwiązań. W warunkach domowych czy w środowisku małej firmy wystarczą często proste mechanizmy optymalizacyjne, skutkujące na przykład zmniejszeniem zużycia energii elektrycznej bądź pozwalające na łatwą, prostą klasyfikację przetwarzanych dokumentów. W większych firmach też niejednokrotnie wystarczy wykorzystanie zwykłej automatyzacji zamiast skomplikowanych algorytmów bazujących na sztucznej inteligencji.
Często jednak umiejętna integracja narzędzi do zarządzania dokumentami z innymi systemami firmowymi może przynieść znaczące korzyści nie tylko w usprawnieniu dostępu do dokumentów, lecz wręcz budowaniu przewagi
Systemy obiegu dokumentów pomogą zautomatyzować wiele zadań.
• Wzrost planów wykorzystania sztucznej inteligencji do transformacji środowiska druku
• Rosnący udział chmury hybrydowej w rynku druku
• Projektowanie przez dostawców rozwiązań zgodnych z wymogami zrównoważonego rozwoju
• Rosnący wpływ sztucznej inteligencji na zmiany w zakresie bezpieczeństwa druku
• Zwiększenie możliwości korzystania z druku w modelu usługowym w wyniku modernizacji miejsc pracy
• Zwrócenie większej uwagi na zarządzanie cyklem życia urządzeń w celu jego wydłużenia
• Nowe możliwości działania na rynkach druku (usługi, konsulting, wsparcie itp.)
• Przyspieszenie konwergencji usług zarządzania drukiem i zarządzania usługami IT w ramach współpracy z jednym dostawcą
• Możliwość identyfikowania i rozwoju nowych obszarów biznesowych za sprawą innowacji bazujących na analizie danych
• Wykorzystanie i oferowanie rozwiązań bazujących na sztucznej inteligencji, stanowiące szansę na zdobycie przewagi konkurencyjnej w kanale sprzedaży
konkurencyjnej na rynku. I w tej perspektywie należy dzisiaj tak naprawdę patrzeć na wdrażanie elektronicznego obiegu dokumentów.
Dlatego przed wyborem i wdrożeniem właściwego systemu tak ważne jest przeprowadzenie audytu w celu rozpoznania rzeczywistych potrzeb poszczególnych użytkowników. To może być pole dodatkowych działań dla integratorów i resellerów. Coraz częściej mówi się też o potrzebie ścisłej współpracy w tym zakresie między producentami, dystrybutorami oraz integratorami w celu zaproponowania klientowi najbardziej optymalnego dla niego rozwiązania. A pracy jest jeszcze dużo dla wszystkich. W okresie lockdownów nastąpił wyraźny wzrost zainteresowania systemami elektronicznego obiegu dokumentów, jednak nie wszyscy jeszcze zdecydowali się na ich wdrożenie. n
Źródło: Quocirca, Print Industry Trends Report 2025
DODATEK SPECJALNY DO MIESIĘCZNIKA CRN POLSKA www.CRN.pl maj 2025 PL ISSN 1640-9183
Redakcja Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa redakcja@crn.pl
Tomasz Gołębiowski (redaktor naczelny) tel. 608 425 699 tomasz.golebiowski@crn.pl Krzysztof Jakubik (redaktor prowadzący) tel. (22) 24 42 923 krzysztof.jakubik@crn.pl Karolina Marszałek (sekretarz redakcji) karolina.marszalek@crn.pl Andrzej Gontarz andrzej.gontarz@crn.pl Tomasz Janoś tomasz.janos@crn.pl Wojciech Urbanek wojciech.urbanek@crn.pl
Grafika, LAYOUT, koordynacja produkcji: Tomasz Baziuk
FotografiA NA OKŁADCE Adobe Stock
Fotografie Adobe Stock, archiwum Prenumerata prenumerata@crn.pl
WYDAWCA Peristeri Sp. z o.o. Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa
REKLAMA i projekty specjalne Agata Myśluk tel. 694 455 426 agata.mysluk@crn.pl Jacek Goszczycki tel. 601 935 513 jacek.goszczycki@crn.pl
Reklamy są przyjmowane w siedzibie wydawnictwa. Za treść ogłoszeń redakcja nie ponosi odpowiedzialności. © 2025 Peristeri Sp. z o.o. Wszelkie prawa zastrzeżone. Computer Reseller News Polska contains articles under license from The Channel Company. ©
KOMIKSY
4 Cyber-historie
Edukacja przez
zabawę
Cyberbezpieczeństwo
dla dzieci
Wsparcie
dla rodziców
Edukacja dzieci i młodzieży
Dedykowane
aplikacje VR
Certyfikacja placówek
Edukacja przez
specjalistów IT
Bajki z morałem
Zagrożenia w internecie
Zaufanie i ostrożność
Nauka przez bajkowe postacie dla najmłodszych