









![]()










8 | AI w biznesie: czas na konkrety Relacja z meetupu zorganizowanego przez ITCORNER i Deloitte’a
10 | Brother Dealer Day 2025 Jubileusz, nagrody i plany na przyszłość
12 | Also Channel Trends+Visions Możliwości AI w praktyce
14 | XVIII Regaty Lenovo Dobra energia, integracja i sportowe emocje
16 | Dane na polu bitwy Na współczesnym dynamicznie zmieniającym się przez technologię polu bitwy, oprócz kul i bomb, w obie strony latają również dane
17 | Cohesity: elitarna ochrona danych Firmy szukają systemów ochrony danych, które łączą maksymalne bezpieczeństwo z intuicyjną prostotą
18 | Debata CRN Polska
Usługi cyberbezpieczeństwa: w oczekiwaniu na przełom
23 | NetApp kontra ransomware
Ewolucja mechanizmów prowadzenia ataków ransomware spowodowała, że klasyczne zabezpieczenia przestały być wystarczające (Alef, Levelite)
24 | Koniec ery VMware
Czas na wirtualizację cloud-native od SUSE
25 | Nowe portfolio vendorów i inwestycje w rozwój
Rozmowa z Joanną Sadecką, Country Managerem oraz Wojciechem Wojtyłą, Head of Sales w Infinigate Polska
26 | Ochronę zdrowia trzeba chronić Sektor medyczny pada ofiarą cyberataków częściej niż wiele innych branż
29 | UPS fundamentem niezawodności
Dofinansowania i technologie UPS Ever będą zmieniać oblicze bezpieczeństwa energetycznego placówek medycznych
30 | Szpital "all-electric" ... ...dzięki innowacjom od Schneider Electric
32 | Większa wydajność z myślą o służbie zdrowia
Komputery mobilne Zebra HC25/HC55 (Jarltech)
33 | Informacja kontra narracja Felieton Krzysztofa Jakubika
34 | Świadczenie usług zarządzanych: ewolucja zamiast rewolucji
Rozmowa z Arturem Cygankiem,VP of Distribution w Blackwall
36 | Korzyści z technologii Jak przekonywać do inwestycji w technologie
37 | Synergia Low-Code i AI Nowy silnik transformacji w biznesie (Opteam)
38 | Sieci dla małych firm
Dobre perspektywy na przyszły rok
41 | Lanberg porządkuje infrastrukturę w MŚP
Profesjonalne szafy rack coraz częściej stają się elementem infrastruktury w małych i średnich firmach (Impakt)
42 | Wszystkie zalety Wi-Fi 7 w przystępnej cenie
Urządzenia Mercusys pozwalają w pełni korzystać z zalet Wi-Fi 7 czy 5G w domowych sieciach (TP-Link)
43 | Rynek urządzeń sieciowych w Polsce Tegorocznym motorem wzrostów są routery i wzmacniacze konsumenckie
44 | Cyfrowe złoto napędza rynek pamięci masowych Podczas gdy jedni przenoszą się do chmury, inni stawiają na rozbudowę własnej infrastruktury, napędzając rynek macierzy dyskowych
48 | Storware podbija globalny rynek backupu Rozwiązania Storware chronią dziś dane w ponad 140 krajach
50 | Innowacje poza Doliną Krzemową Firmy z Europy oferują rozwiązania, dzięki którym można konkurować z koncernami zza oceanu
52 | Sprawdza, informuje, podpowiada
Rozmowa z Przemysławem Paliszewskim, Transformation Directorem w polskim oddziale Armatis
54 | Cyberataki przez zaplecze: jak łańcuch dostaw może zniszczyć twoją firmę
Felieton Łukasza Kokoszki
55 | Dronowa utopia
Felieton Arnolda Adamczyka
56 | Polski sektor IT stawia na jakość
Polska utrzymuje silną pozycję na technologicznej mapie Europy
57 | Ożywienie na rynku pracy w IT
W pierwszych trzech miesiącach tego roku zapotrzebowanie na specjalistów od AI/ML urosło niemal dwukrotnie
58 | Kogo brakuje do pracy
Największym tegorocznym wyzwaniem na rynku pracy jest brak ludzi – nie technologii
60 | Czy europejskie marki mogą walczyć z amerykańską i chińską dominacją?
Felieton Jacka Kotarbińskiego
66 | Cięcie ogona: rzeźnicy i chirurdzy
Felieton Wojciecha Urbanka

Ochronę zdrowia trzeba chronić
Wraz z pieniędzmi z KPO pojawia się szansa, że sektor, który jak żaden inny potrzebuje bezpieczeństwa i ciągłości działania, będzie mógł się wzmocnić.

Sieci dla małych firm: dobre perspektywy na przyszły rok W najbliższych kwartałach popyt na rozwiązania sieciowe dla małych firm powinna napędzać wymiana starszych technologii na Wi-Fi 7 i 5G.

Cyfrowe złoto napędza rynek pamięci masowych
Rodzime przedsiębiorstwa podążają śladem globalnych trendów, inwestując w nowoczesne rozwiązania pamięci masowej.















MEGA odpowiedź na arcyważne pytanie
Czy europejskie marki mogą walczyć z amerykańską i chińską dominacją?
NIEWIELKIE W PORÓWNANIU Z POŻYTKIEM, JAKI PŁYNIE Z WYMIANY MYŚLI”
David S. Landes, „Bogactwo i nędza narodów”


Tomasz Gołębiowski
Redaktor naczelny
Andrzej Przybyło postawił mnie w dość niezręcznej sytuacji. Nie mogę bowiem obojętnie przejść do porządku dziennego nad tym, że ktoś tego formatu po niemal czterech dekadach sprzedaje swoje udziały i rezygnuje z pozycji lidera największej firmy IT w Polsce. Z drugiej strony, skoro jednak wypada odnieść się do tego faktu na łamach takiego medium jak CRN, powstaje pytanie: jak to zrobić, żeby nie postawić Andrzejowi pomnika za życia, co z kolei nie byłoby w dobrym tonie. No dobrze, niech w takim razie przemówią fakty. Pierwszym służbowym samochodem Andrzeja był fiacik 126p, co doskonale obrazuje ówczesny stan majątkowy początkującego wrocławskiego biznesmena. Krótko mówiąc, nikt w końcówce PRL-u czerwonego (nomen, omen) dywanu przed nim nie rozłożył, a początkowe sukcesy przyćmiła powódź tysiąclecia, jaka zalała Wrocław w 1997 roku. Słowem, nikt nie mówił, że będzie łatwo…
Niedługo potem jako jeden z pierwszych polskich przedsiębiorców wprowadził do spółki fundusz private equity. Udało mu się też, dzięki debiutowi na warszawskim parkiecie, pozyskać kapitał od inwestorów giełdowych. Z czasem rozwinął sieć salonów partnerskich i zbudował imponujące centrum biurowo-dystrybucyjno-szkoleniowe. Stworzył stabilny biznes także na rynkach zagranicznych – czeskim i słowackim. Stał się niekwestionowanym liderem naszego rynku, a pod jego rządami AB znalazło się w gronie największych dystrybutorów w rankingu Canalysa, jak też trafiło do elitarnego klubu Global Technology Distribution Council.
Należy przy tym pamiętać, że w drodze na szczyt Andrzej Przybyło konkurował nie z kilkoma czy kilkunastoma, ale z kilkomaset (!) dystrybutorami i subdystrybutorami, którzy w latach 90-ych próbowali swoich sił na polskim rynku (w raporcie CRN Polska, opublikowanym w 2001 roku, liczba takich firm przekraczała 260, choć oczywiście większość z nich stanowili niewielcy subdystrybutorzy o zasięgu regionalnym).



Oczywiście nie zrobił tego wszystkiego sam. Miał szczęście do ludzi, a jednym z największych – moim zdaniem – sukcesów Andrzeja jest zespół jego kluczowych współpracowników. Pracują ze sobą od wielu lat i wcale nie widać, aby ich zaangażowanie malało, wręcz przeciwnie. Dzięki ich wiedzy, doświadczeniu i umiejętnościom decyzja Andrzeja nie będzie miała negatywnego wpływu na dalsze funkcjonowanie spółki. Warto to podkreślić, wszak niewielu liderom na świecie udaje się taka sztuka. Co ciekawe, Andrzej, odkąd pamiętam, ma zwyczaj umniejszania swoich zasług i umiejętności. Cytując: „AB to nie jest przykład success story o tym, jak się wymyśla rakietę kosmiczną. Nie zawdzięczamy dzisiejszej pozycji na rynku jakiemuś genialnemu pomysłowi, na który nie wpadła konkurencja. Jest ona wynikiem systematycznej pracy całego zespołu”. Jednego za to Andrzej nigdy nie umniejszał, a wręcz przeciwnie, zawsze to sobie wielce cenił. Mam na myśli cztery tytuły „Postaci Rynku IT” w plebiscycie CRN Polska, w którym decydowały głosy resellerów i integratorów. Nikt nie zdobył ich więcej niż Andrzej. Jak widać, pod tym względem też był liderem.
MIESIĘCZNIK CRN POLSKA www.CRN.pl
Rok 28, numer 10 (513), 15 października 2025 PL ISSN 2080-8607
REDAKCJA
Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa redakcja@crn.pl
Tomasz Gołębiowski tg (redaktor naczelny) tel. 608 425 699 tomasz.golebiowski@crn.pl
Wojciech Urbanek wu (zastępca red. naczelnego) tel. 691 672 065 wojciech.urbanek@crn.pl
Karolina Marszałek km (sekretarz redakcji) karolina.marszalek@crn.pl
Andrzej Gontarz ag andrzej.gontarz@crn.pl
Krzysztof Jakubik kj krzysztof.jakubik@crn.pl
Krzysztof Pasławski kp krzysztof.paslawski@crn.pl
Tomasz Janoś tj tomasz.janos@crn.pl
FELIETONY
Arnold Adamczyk, Krzysztof Jakubik, Łukasz Kokoszka, Jacek Kotarbiński Wojciech Urbanek GRAFIKA, LAYOUT, Tomasz Baziuk
FOTOGRAFIE
Theta Art Studio Tomasz Pisiński, PhotobyMysluk.pl, Adrian Stykowski, Piotr Syndoman, archiwum
PRENUMERATA prenumerata@crn.pl
REKLAMA I PROJEKTY SPECJALNE Agata Myśluk tel. 694 455 426 agata.mysluk@crn.pl
Jacek Goszczycki tel. 601 935 513 jacek.goszczycki@crn.pl
WYDAWCA
Peristeri Sp. z o.o. Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa
Reklamy są przyjmowane w siedzibie wydawnictwa. Za treść ogłoszeń redakcja nie ponosi odpowiedzialności. © 2025 Peristeri Sp. z o.o. Wszelkie prawa zastrzeżone. Computer Reseller News Polska contains articles under license from The Channel Company. © 2025 The Channel Company. All rights reserved.
Centralny Ośrodek Informatyki wybrał ofertę warszawskiej spółki UpWare w przetargu na firewalle – urządzenia NGFW – wraz ze wsparciem technicznym i serwisem. Oferty otwarto w lipcu br. Złożyły je trzy firmy: Apius Technologies, Comtegra i UpWare. Na sfinansowanie zamówienia ośrodek przygotował 10,4 mln zł brutto. Zwycięska oferta uzyskała 100 pkt. dzięki najniższej cenie ofertowej. Cała trójka konkurentów w kryteriach jakościowych uzyskała takie same, maksymalne noty. COI zamówił dwa firewalle w formie pary wysokiej dostępności (HA) oraz moduły połączeniowe (transceiver).
TD Synnex w swoim III kw. finansowym (zakończonym 31 sierpnia br.) cieszyło się wzrostem przychodów o 6,6 proc. rok do roku (do 15,65 mld dol.). Marża brutto (GAAP) zwiększyła się o 68 punktów bazowych, do poziomu 7,22 proc. – najwyższego od 5 lat. Zysk netto sięgnął 226,8 mln dol. (+27 proc. r/r), przy czym wynik w przeliczeniu na akcję to 2,74 dol. (z wyłączeniem pozycji nadzwyczajnych), co jest nowym kwartalnym rekordem. W Europie przychody podskoczyły o 12,7 proc. r/r, do 5,2 mld dol.
Grupa yarrl w pierwszym półroczu 2025 r. osiągnęła przychody rzędu 46,7 mln zł, a więc o 50 proc. wyższe niż w roku ubiegłym. Zysk operacyjny poprawił się o 29 proc., do 1,9 mln zł, natomiast o 13 proc. spadł zysk netto (do 1,1 mln zł). Z działalności operacyjnej grupa wygenerowała środki pieniężne netto w wysokości 1,6 mln zł, podczas gdy rok wcześniej było to minus 800 tys. zł. Yarrl powstał z połączenia firm Unima 2000 Systemy Informatyczne, działającej na polskim rynku od 1992 roku oraz pTAG, specjalizującej się w budowie i rozwoju oprogramowania na zlecenie. Rebranding miał miejsce pod koniec 2023 r.
Nvidia zainwestuje 100 miliardów w OpenAI, dzięki czemu ma powstać centrum danych o mocy co najmniej 10 gigawatów. Tak duże zapotrzebowanie na energię elektryczną jest mniej więcej porównywalne z mocą wytwarzaną przez ponad cztery zapory Hoovera lub energią zużywaną przez osiem milionów domów. Po ogłoszeniu tej wiadomości akcje Nvidia wzrosły o prawie 4 proc., zwiększając wartość rynkową spółki do prawie 4,5 biliona dol. W tym kontekście warto przypomnieć, że umowa o wartości 300 mld dol. pomiędzy Oracle a OpenAI pomogła podnieść kapitalizację Oracle’a o ponad jedną trzecią, do prawie 1 biliona dol.
Dwaj producenci, Western Digital oraz Seagate, odnotowali w ostatnim kwartale około 30 proc. wzrost przychodów. Wynika to z ogromnego zapotrzebowania na cyfrową pamięć masową ze strony sztucznej inteligencji oraz rosnących cen dysków o większej pojemności. W swoim najnowszym raporcie finansowym Western Digital poinformował, że liczba eksabajtów pamięci masowej, które dostarczył wzrosła do 190, co oznacza wzrost o 32 proc. w porównaniu z rokiem poprzednim.


„Aby pozostać w grze, potrzeba rozwoju projektów koncentrujących się na wykorzystaniu narzędzi AI” – Sławomir Harazin, wiceprezes Actionu.








Accenture zwolniło ponad 11 tys. pracowników w ciągu ostatnich trzech miesięcy i zapowiedziało dalsze redukcje etatów. Pomiędzy majem a sierpniem tego roku liczba pracowników Accenture spadła z około 791 tys. do 779 tys. Oczekuje się, że runda zwolnień potrwa do listopada, a do tego czasu firma planuje przeszkolić pozostałych pracowników na różnych platformach AI. Wprawdzie w ostatnim roku fiskalnym przychody Accenture zwiększyły się o 7 proc. (osiągając poziom 69,7 mld dol.), a zysk netto spółki wzrósł o 6 proc. (do 7,83 mld dol.), to w najbliższej przyszłości firma spodziewa się spadku dynamiki wzrostu w granicach od 2 do 5 proc. Wpływ na taki stan rzeczy ma między innymi spowolnienie popytu na usługi konsultingowe.
Microsoft odłączył dostęp Ministerstwu Obrony Izraela do niektórych usług i subskrypcji po znalezieniu dowodów na to, że korzystało ono z usług chmurowych do inwigilowania obywateli Gazy. Microsoft rozpoczął śledztwo po tym, jak dziennik „The Guardian” poinformował, że Izrael używał chmury Azure do przechowywania danych o cywilach z Gazy i ich inwigilowania. Ustalenia z wewnętrznego dochodzenia Microsoftu koncentrują się na firmowym centrum danych w Holandii, w którym przechowywane są dane izraelskiego Ministerstwa Obrony.
Cisco poinformowało o wykryciu podatności w zabezpieczeniach swojego systemu sieciowego IOS. Luka zero-day oznaczona numerem CVE-2025–20 352 może zostać wykorzystana do zdalnego wykonania kodu lub odmowy usługi. Producent udostępnił już poprawki, które łatają lukę w urządzeniach korzystających z podatnej wersji oprogramowania Cisco IOS lub IOS XE. Ryzyko dotyczy również przełączników Meraki MS390 i Catalyst serii 9300 z systemem Meraki CS 17 i starszym. Luka zero-day została natomiast usunięta w IOS XE w wersji 17.15.4 a.
Prezydent Donald Trump zdecydował o podwyżce opłaty za wizę dla specjalistów (H-1B). Nowa stawka to 100 tys. dol. Zmiana została ogłoszona 19 września br. i obowiązuje od 21 września br. Zmiana silnie uderzy w koncerny technologiczne. Jak podaje wyborcza.biz, powołując się na dane agencji U.S. Citizenship and Immigration Services, w ostatnim roku finansowym (do jesieni 2024 r.) zostało zaakceptowanych blisko 400 tys. wniosków o wydanie lub przedłużenie wizy H-1 B. Przy czym blisko 2/3 (64 proc., tj. ok. 255 tys. w ub.r.) wydano dla firm IT.
200
zawiera plik z danymi logowania Polaków, opublikowany na forum hakerskim – ustalił CyberDefence24. Zawierają one adres URL, e-mail lub login oraz hasło. Pozwalają na logowanie na portalach i mediach społecznościowych oraz na kontach poczty elektronicznej. Zdaniem ekspertów dane wykradziono prawdopodobnie z pomocą tzw. infostealera. O sprawie kradzieży danych zawiadomiono CERT Polska.
”Realizujemy transformację z tradycyjnego sprzedawcy detalicznego w platformę usług wielokanałowych” – Kai-Ulrich Deissner, CEO MediaMarktSaturn.

„Dyski twarde tracą na znaczeniu w sektorze konsumenckim, ale wracają na scenę w sektorze przedsiębiorstw” - Mats Larsson, konsultant ds. badań w Futuresource Consulting.
Do końca września przyszłego roku Allegro zamknie biura we Wrocławiu i Gdańsku, za to w Krakowie i Toruniu planuje zwiększenie zatrudnienia. Koncern ogłosił przy tym, że od 1 stycznia 2026 r. wszyscy zatrudnieni mają obowiązek pracy w biurze przez 4 dni w tygodniu. W pozostały jeden dzień mogą realizować zadania zdalnie. Sposób komunikacji tej zmiany wzbudził wiele kontrowersji. Marcin Kuśmierz, prezes Allegro, zwracając się do zespołu, miał powiedzieć: „Guys, don’t be selfish”, czym część pracowników poczuła się urażona. W internecie rozpętała się burza, przy czym wiele nieprzychylnych komentarzy pojawiło się m.in. na platformie GoWork. Marcin Kuśmierz odniósł się do sytuacji w wewnętrznej komunikacji z pracownikami, których przeprosił.
Sygnity przejmie od Comarchu segment HIS, obejmujący tworzenie i obsługę systemów informatycznych do zarządzania szpitalami (Hospital Information System). Spółki zawarły warunkową umowę w tej sprawie. Ustalona cena wynosi około 28 mln zł, z zastrzeżeniem, że zostanie skorygowana i zapłacona na dzień zawarcia umowy przyrzeczonej. Finalizacja transakcji wymaga spełnienia uzgodnionych przez obie strony warunków. Gdy zostaną zrealizowane, umowa przyrzeczona sprzedaży HIS zostanie zawarta nie później, niż do 31 marca 2026 r.
Ruszyły prace nad budową sektorowych Zespołów Reagowania na Incydenty Bezpieczeństwa Komputerowego (CSIRT). Ministerstwo Cyfryzacji podpisało już odpowiednie porozumienia. Nowe zespoły fachowców wzmocnią cyberbezpieczeństwo krajowych podmiotów w 4 sektorach: zdrowia, cyfrowym, transportu i zaopatrzenia w wodę oraz w bankowym. Wcześniej Centrum Projektów Polska Cyfrowa przyznało w sumie blisko 40 mln zł grantów z KPO na te przedsięwzięcia. Prace nad utworzeniem i modernizacją zespołów mają zakończyć się do 30 czerwca 2026 r.
W dniach 13 – 14 września odbyła się 5 edycja tenisowego turnieju branży IT – ITSF CUP 2025. W tych wyjątkowych zawodach wzięło udział 32 zawodników z całej Polski. Zwyciężył Mirosław Chełmecki z Exclusive Networks, który w finale pokonał Mikołaja Sikorskiego z Dagma Bezpieczeństwo IT. Trzecie miejsce na podium zajęli ex-aequo Grzegorz Chamulak z XCompu i Marcin Kryjom z Intaru. Organizatorem turnieju jest IT Solution Factor, który zdobył tytułu IT Master 2025.

DXC Technology ogłosiło uruchomienie Globalnego Centrum Kompetencji AI w Polsce. Planuje zatrudnienie blisko 500 ekspertów, którzy mają realizować projekty dla krajowych i zagranicznych klientów amerykańskiej korporacji. Nowy ośrodek skoncentruje się na trzech obszarach: odpornej infrastrukturze chmurowej, intuicyjnych interfejsach AI oraz na działalności R&D. Centrum ma być również miejscem wymiany wiedzy i szkoleń dla specjalistów z regionu.

Komenda Główna Policji ogłosiła przetarg na nieograniczone czasowo licencje na oprogramowanie biurowe (trzy rodzaje), pakiet graficznego modelowania oraz pakiet zarządzania projektami. Dla biurowego software’u wymagana jest zgodność z Microsoft Office. Mundurowi chcą zawrzeć umowę ramową na 3 lata. Na realizację zamówienia przygotowano 33 mln zł. Oferty złożyli Crayon Poland i APN Promise.
ZUS po ponownej analizie ofert wybrał w końcu wykonawcę w przetargu na dostawę infrastruktury hiperkonwergentnej wraz z oprogramowaniem. Zakład zamierzał przeznaczyć na realizację projektu w dwóch częściach w sumie 55 mln zł brutto, w tym ponad 53 mln zł na część A. Oferty otwarto w listopadzie 2024 r. W dwóch częściach przetargu złożyło je w sumie 11 wykonawców. W marcu 2025 r. ZUS w części A wybrał ofertę Integrated Solutions, jednak w kwietniu 2025 r. unieważnił ten wybór i rozpoczął powtórne badanie ofert. Pod koniec września br. ogłosił nowe wyniki, odrzucając w sumie aż 8 z 10 ofert złożonych w części A. Jako wykonawca wybrane zostało Engave (oferta z ceną 26,5 mln zł brutto). Wcześniej w części B przetargu ZUS wybrał natomiast ofertę IT Solution Factor.
Do Sądu Okręgowego w Rybniku trafił akt oskarżenia przeciwko 13 osobom dotyczący oszustw podatkowych i posługiwania się nierzetelnymi fakturami w ramach 20 podmiotów gospodarczych, jak też zarzutu prania pieniędzy. Według śledczych sześć firm IT wystawiło 4 tys. fikcyjnych faktur na ponad 50 mln zł lub posługiwało się nimi. Lewe faktury wystawiano na rzekome usługi z zakresu informatyki, doradztwa i szkoleń od 2018 r. do grudnia 2022 r. Firmy zamieszane w oszustwa wykonywały usługi związane z informatyzacją placówek ochrony zdrowia w całym kraju. W przestępczym procederze miało uczestniczyć kilkunastu fikcyjnych podwykonawców. Według śledczych skarb państwa mógł stracić w ten sposób około 20 mln zł. Oskarżonym grozi wyrok do 20 lat więzienia.
Według zawartej umowy koncerny połączą siły i będą wspólnie rozwijać procesory zintegrowane z układami Nvidii dla centrów danych i PC. Finalizacja 5 mld dol. inwestycji Nvidii w Intela wymaga zgody regulatorów. To trzecia w tym roku miliardowa transakcja nabycia udziałów w Intelu. Wcześniej SoftBank ogłosił inwestycję wartą 2 mld dol., a rząd USA zamierza przejąć blisko 10 proc. udziałów w Intelu w zamian za 8,9 mld dol. grantów przyznanych w ramach Chip i Science Act.

Nowa inicjatywa branżowa połączyła ponad 40 podmiotów w celu wsparcia rozwoju startupów i polskiego sektora deep tech, który tworzą operatorzy programów startupowych, inkubatory i akceleratory, centra transferu technologii, aniołowie biznesu, fundusze VC i PE, jak też think tanki. TechPL ma również integrować i reprezentować rodzimą branżę technologiczną. Formalnie jest jedną z sekcji Krajowej Izby Gospodarczej Elektroniki i Telekomunikacji. Na jej pierwszą kadencję powołano 13-osobowy zarząd. Jego przewodniczącym został Adrian Migoń, prezes Fundacji Inkubator Technologiczny (Youth Business Poland).
Zostały podpisane wszystkie umowy o dofinansowanie w ramach programu Cyberbezpieczny Rząd. Granty trafią do 48 podmiotów krajowego systemu cyberbezpieczeństwa. Są to ministerstwa, urzędy centralne, wojewódzkie i inne. Łączna wartość przyznanych środków to 258 mln zł netto, a pojedyncze dotacje wynoszą od 500 tys. zł do 10 mln zł. Pieniądze pójdą na modernizację systemów ochrony cyfrowej, infrastruktury IT oraz szkolenia pracowników z cyberbezpieczeństwa.
TD Synnex ogłosił zawarcie umowy nabycia działów AV/UC oraz gamingu od Exclusive Networks Poland. Wartość transakcji nie została ujawniona. Jej finalizacja wymaga zgody regulatorów. Dzięki temu TD Synnex znacznie wzmocni się na polskim rynku, rozszerzając ofertę dostawców i portfolio produktów. Jednocześnie do zespołu TD Synnex dołączy 29 dotychczasowych pracowników Exclusive’a. Obaj dystrybutorzy zapewniają klientów, że dotychczasowe umowy i kontakty pozostaną bez zmian.

Kontrola skarbówki wykryła nieprawidłowości w firmie, która należy do międzynarodowej grupy kapitałowej z branży elektroniki użytkowej. Według ustaleń spółka zawyżyła koszty uzyskania przychodów o 186 mln zł, w efekcie w ciągu kilku kolejnych lat zaniżając należny CIT (zamiast 91 mln zł dochodu wykazała 94 mln zł straty). Kontrola dotyczyła stosowania cen transferowych. Na mocy decyzji IAS w Białymstoku firma musi wpłacić prawie 4 mln zł zaległego CIT-u.
Spółka zależna Wasko, Gabos Software zawarła ugodę sądową z Podkarpackim Centrum Medycznym. Kończy ona spór dotyczący umowy na dostawę sprzętu i oprogramowania. Na mocy ugody spółka zapłaci centrum 1,38 mln zł, które z kolei wycofuje oświadczenie z 2022 r. o odstąpieniu od umowy. Jednocześnie strony uznały etap 1 umowy za należycie wykonany. Ugoda zamyka wszelkie roszczenia.

Podczas meetupu zorganizowanego przez ITCORNER i Deloitte’a, zaprezentowano takie wdrożenia dotyczące rozwiązań bazujących na AI, które przyniosły ich użytkownikom realne korzyści, czy to pod względem finansowym, organizacyjnym czy wydajnościowym.
Tomasz Gołębiowski
Wspotkaniu pod hasłem „Nie hype a zysk, czyli AI w praktyce biznesowej firm IT” wzięli udział dostawcy z kilkuletnim już doświadczeniem we wdrażaniu systemów AI. Mogli zatem podzielić się z uczestnikami meetupu wiedzą o tym, jak unikać kosztownych błędów i zastanowić się, kiedy klienci chcą inwestować w AI in-house, a kiedy wolą współpracować z dostawcami. Przy czym już na samym początku dokonano istotnego rozróżnienia pomiędzy strategicznym AI, które pomaga użytkownikom w podejmowaniu decyzji biznesowych a operacyjnym AI, służącym do wspierania procesów biznesowych. W tym pierwszym przypadku potencjalni klienci często obawiają się tzw. halucyno-
KLUCZOWA JEST KWESTIA REALNEGO EFEKTU BIZNESOWEGO.
wania systemów AI, a więc zmyślania odpowiedzi (co może mieć miejsce z różnych powodów – wynikających zarówno z ich konstrukcji, jak też niewłaściwych źródeł pozyskiwania danych).
– Dlatego dużo łatwiej przekonać klientów do operacyjnego AI, jak też lepiej się ono u nich przyjmuje. Dotyczy to zwłaszcza roz-
wiązań dla księgowości, bo w tym przypadku nie ma obawy, że przez zastosowanie AI ktoś straci pracę. Zamiast tego dział księgowości, w tym samym składzie, będzie działał szybciej i obsłuży więcej klientów – mówił Kamil Karbownik, dyrektor zarządzający Data Courage.
Uczestnicy byli zgodni, że w przypadku AI absolutnie kluczowe są dane, przy czym – co bardzo ważne – nie tyle chodzi o ich ilość, co jakość. Jak to ujął Piotr Wilczek, CEO Medical Algorithms: „systemy AI przeanalizują wszystko, ale pozostaje dalece wątpliwe, czy zawsze zrobią to skutecznie”.
To z kolei prowadzi do konstatacji, że koszt, ale też czas pozyskania jakościowych danych może niekiedy doprowadzić do rezygnacji z projektu. I, zdaniem specjalistów, lepiej, aby tak właśnie się stało, niż żeby klient zapłacił za wdrożenie, które nie przyniesie mu oczekiwanych rezultatów, co jest niedopuszczalne zwłaszcza w takich branżach, jak medycyna.
Poza danymi jako takimi, kolejną kluczową kwestią w kontekście skutecznych wdrożeń jest precyzyjne nazwanie określonego problemu do rozwiązania. Nie powinno się rozmowy o projekcie rozpoczynać od tego, że skoro na temat AI jest obecnie tak głośno, to „my też musimy to u siebie mieć”. Podczas meetupu podano przykład jednej z belgij-


skich firm, której zarząd „zaszył” w menadżerskich KPI’ach konieczność wdrożenia „czegoś z AI”. Efekt był oczywisty – menadżerowie, żeby się wykazać przez zarządem, zaczęli podczas każdej rozmowy o projektach IT dopytywać potencjalnych dostawców o sztuczną inteligencję. Nie po to, żeby „zaadresować” taki czy inny problem biznesowy, ale żeby móc się wyliczyć przed zarządem z realizacji wskaźnika AI.
– Z tego powodu w kontekście naszej strategii inwestycyjnej odsiewamy to, co jest marketingiem, a co realną AI w danej spółce, danym modelu biznesowym – podkreśla Michał Wojdyła, partner w funduszu Innova Capital.
Zwrócił przy tym uwagę, że AI wprowadziło do sektora inwestycyjnego dużą dozę niepewności. Technologia ta ma bowiem ogromny potencjał do zwrotu z inwestycji, ale jednocześnie, na tym etapie jej rozwoju, można bardzo dużo stracić.
– Ocena sytuacji nie jest łatwa, przy czym kluczowa jest kwestia realnego efektu biznesowego. Dlatego największe fundusze mają po kilku specjalistów odpowiedzialnych za kwestię transformacji AI w „prześwietlanych” firmach – mówi Michał Wojdyła. W tym kontekście Tomasz Kowalczyk, CEO NeuroSYS, zauważył, że startupy często płacą za możliwość dopisania AI w nazwie, co ma podnieść ich wartość w oczach potencjalnych inwestorów.
– To ma zwykle krótkie nogi. W przypadku długofalowych relacji biznesowych liczy się tylko realna wartość – podsumowuje Tomasz Kowalczyk.
Organizatorzy wrześniowego meetupu wyszli ze słusznego założenia, że nie jest dobrze, gdy perspektywiczna technologia zaczyna zamieniać się w swoją własną karykaturę. Użytkownicy powinni wiedzieć, że są dostawcy, którzy bazując na możliwościach AI rozwiązują realne problemy biznesowe, a ich klienci uzyskując dzięki temu konkretne rezultaty. Jak się okazuje, w Stowarzyszeniu ITCORNER takich firm nie brakuje.
W dynamicznej branży IT personalna karuzela kręci się szybciej niż w innych. Prezentujemy
kilka najważniejszych zmian, które nastąpiły w minionych tygodniach.


Andrzej Przybyło, prezes i założyciel AB zapowiedział, że wraz z końcem obecnej kadencji opuści stanowisko zajmowane od początku powstania firmy. Zamierza przejść do rady nadzorczej, a na swojego następcę, jako nowego lidera grupy, wskazał Zbigniewa Mądrego – obecnego wiceprezesa zarządu i dyrektora operacyjnego. W AB pracuje od 1992 r., a w zarządzie zasiada od 1998 r. Zmiana u steru AB ma nastąpić do końca marca 2026 r. Jednocześnie do zarządu nowej kadencji Andrzej Przybyło rekomenduje także aktualnych wiceprezesów. Są to Grzegorz Ochędzan (CFO) i Krzysztof Kucharski (dyrektor ds. korporacyjnych i prawnych). Rada nadzorcza pozytywnie zaopiniowała wszystkie rekomendacje.

W Simplicity nastąpiła zmiana na stanowisku dyrektora handlowego. Nowym liderem zespołu sprzedaży został Michał Jakubczyk. Jako Executive Director będzie odpowiadał za całościowe zarządzanie obszarem sprzedaży, w tym za rozwój biznesu i ekspansję usług IT w Europie. Simplicity jest informatycznym ramieniem Ricoha w Polsce. Japoński producent przejął warszawską firmę w 2020 r. Michał Jakubczyk jest związany z Simplicity od 2022 r. Wcześniej pracował w Polkomtelu i Cyfrowym Polsacie.


Przemysław Kuna został prezesem Urzędu Komunikacji Elektronicznej. Dotychczas, od marca 2024 r., był zastępcą dyrektora NASK. Na czele UKE zastąpił Jacka Oko, który kierował urzędem przez ostatnich 5 lat. Przemysław Kuna ma ponad 30-letnie doświadczenie w branży teleinformatycznej. Pracował w zarządach spółek z Grupy Telnap Telecom – Telnap Telecom oraz N3net. Pełnił też role kierownicze w TK Telekom, Exatelu i Datacomie. Do 2024 r. był prezesem Krajowej Izby Gospodarki Cyfrowej.
Piotr Litwiniuk został Head of Sales poznańskiej
Almy. Będzie odpowiadał za tworzenie i realizację strategii handlowej, współpracę z najważniejszymi klientami i partnerami, jak też wzmacnianie ofert w obszarze cyberbezpieczeństwa. Dotychczas przez ponad 3 lata był Business Development Managerem odpowiedzialnym za rozwiązania bezpieczeństwa w Sevenet. Jako BDM zajmował się również rozwiązaniami cyberbezpieczeństwa w Integrated Solutions (2017–2022). Doświadczenie zdobywał również w RRC (w latach 2010–2017).

Joanna Ormińska dołączyła do Comarchu jako Chief M&A and Corporate Development. Będzie odpowiedzialna za wspieranie procesów transformacyjnych poprzez przejęcia i optymalizację portfela biznesowego oraz za integrację przejmowanych podmiotów. Dotychczas, w latach 2019–2025, kierowała działem M&A w Playu, odpowiadając za transakcje na polskim rynku. Wcześniej była związana z bankowością inwestycyjną w Trigonie.

Łukasz Woźnica dołączył do Future Mind, obejmując funkcję Head of Business Development. Przez lata zdobył pozycję eksperta w obszarze sprzedaży, ekspansji zagranicznej i digitalizacji. W minionych trzech latach pełnił funkcję Head of Business Development w agencji e-commerce Strix. Doświadczenie na stanowiskach menedżerskich zdobywał również w takich firmach jak Apfonica, Argo, Sage i AutoID Polska.
FIRMY PRZED
RANSOMWARE Ransomware może sparaliżować twoją firmę GREYCORTEX Mendel wykrywa ataki w czasie rzeczywistym i pomaga szybko reagować
Polski oddział Brothera zwiększył swoje roczne przychody o 2,9 mln euro, zarządza 38 tysiącami drukarek w modelu MPS i planuje inwestycje w zespół oraz technologie wspierające partnerów biznesowych.
Wojciech Urbanek
Tegoroczna konferencja Brother Dealer Day, która odbyła się w Wiśle, miała wyjątkowy charakter, gdyż zbiegła się z jubileuszem 20-lecia obecności firmy w Polsce. Ponadto krajowy oddział japońskiego producenta przechodzi w tym roku okres istotnych zmian organizacyjnych, które wyznaczają nowy etap w rozwoju firmy na polskim rynku. Podczas spotkania z partnerami biznesowymi przedstawiciele firmy podzielili się planami i podsumowali dotychczasowe osiągnięcia. Osobą związaną z Brother Polska od samego początku jest Piotr Baca, obecnie pełniący funkcję Managing Director w regionie CEE.
KLUCZOWYM WYZWANIEM JEST
UTRZYMANIE POZYCJI LIDERA.
Przez ostatnie 20 lat miałem zaszczyt prowadzić p olskie biuro. To była ciężka, ale wdzięczna praca: budowanie r ynku, poznawanie partnerów, rozwój sprzedaży. Dzięki Państwa wsparciu jesteśmy dziś numerem jeden w większości grup produktowych – mówił Piotr Baca. W bieżącym roku w polskim oddziale firmy zaszły istotne zmiany personalne. W kwietniu Piotr Baca awansował na stanowisko Managing Directora w regionie
CEE, a Krzysztof Mertowski przejął rolę Country Managera i odpowiada za rynek polski oraz ukraiński.
– Gdyby nie doświadczenie Krzysztofa, który zgodził się na przejęcie mojej roli, nie mógłbym objąć nowej funkcji. Polska zawsze będzie mi bliska i zawsze będę wspierał lokalny zespół. Myślę, że z mojej nowej pozycji będę mógł jeszcze bardziej wspomagać nasze działania i że będziemy mogli być jeszcze bardziej elastyczni – dodał Piotr Baca.
Warto w tym miejscu przypomnieć, że Krzysztof Mertowski pracuje w Brother Polska od 19 lat. W ostatnich prawie sześciu latach pełnił rolę Head of Sales, a wcześniej był Channel Sales Managerem. Już na samym początku spotkania w Wiśle zapewnił, że będzie kontynuatorem strategii swojego poprzednika, której fundament stanowią partnerzy biznesowi.
– Drukarka może się czasem p opsuć, ale nasi partnerzy nigdy nas nie zawiedli. Dziękuję, że jesteście – rozpoczął z uśmiechem Krzysztof Mertowski.
W dalszej części spotkania nowy szef polskiego oddziału Brother podkreślał, jak kluczową rolę pełni współpraca z resellerami i integratorami.
– Naszą rolą jest udzielanie szerokiego wsparcia, generowanie leadów i dbanie
o rozwijanie wspólnego biznesu – podkreślał Krzysztof Mertowski.
Utrzymać pozycję lidera
Przychody japońskiego producenta w Polsce osiągnęły w ubiegłym roku poziom 52,2 mln euro, co oznacza wzrost o 2,9 mln euro w porównaniu z rokiem poprzednim. Zgodnie z danymi GfK Polonia, Brother jest liderem polskiego rynku w kilku kluczowych kategoriach produktowych: urządzeń wielofunkcyjnych laserowych monochromatycznych, drukarek laserowych monochromatycznych, urządzeń wielofunkcyjnych laserowych kolorowych, drukarek laserowych kolorowych oraz urządzeń wielofunkcyjnych atramentowych CISS. W sumie oferta firmy obejmuje aż 160 produktów: od drukarek laserowych kolorowych i mono, przez modele atramentowe, skanery, drukarki etykiet, aż po urządzenia mobilne i rozwiązania dla AutoID. – Najbardziej istotnym w yzwaniem na najbliższe miesiące jest utrzymanie pozycji lidera nie tylko w bieżącym roku, ale i w kolejnych latach. Nie będzie to łatwe zadanie. Konkurencja nie śpi, każdy walczy o jak największy udział w rynku. Jednak zrobimy wszystko, aby zachować ten pr ymat i wspierać partnerów w ich codziennej pracy – mówił Krzysztof Mertowski.


W planach na najbliższe lata pozostaje dalszy rozwój sprzedaży urządzeń A4, wzmacnianie segmentu kontraktowego oraz budowanie świadomości marki. Ważnym krokiem jest także globalna współpraca z firmą Ricoh, która pozwala uzupełniać ofertę o urządzenia A3 w projektach wymagających pełnej gamy rozwiązań. Brother Polska rozwija się również wewnętrznie – w ostatnich miesiącach do zespołu dołączyło kilka nowych osób odpowiedzialnych za segment SMB, generowanie leadów i rozwój sprzedaży urządzeń specjalistycznych.
– To nie jest nasze ostatnie słowo. Planujemy kolejne wzmocnienia, by jeszcze lepiej wspierać partnerów – zapowiedział Krzysztof Mertowski.
Brother konsekwentnie inwestuje w działania marketingowe. W 2024 r. firma prowadziła kampanię wizerunkową pod hasłem „Drukujemy wszędzie tam, gdzie Ty”, obecnie zaś skupia się na promocji urządzeń atramentowych Ink Benefit w ramach kampanii Back to School. Oprócz reklam telewizyjnych i internetowych marka pojawiła się również w przestrzeni miejskiej, na tramwajach i autobusach w największych polskich miastach.
Dekadę temu polski oddział firmy Brother wprowadził rozwiązanie, które zmieniło oblicze zarządzania drukiem w wielu przedsiębiorstwach. Managed Print Services (MPS) to coś więcej niż uniknięcie wysokich kosztów zakupu sprzętu – to kompleksowy system ukierunkowany na optymalizację kosztów i procesów. Co ciekawe, Polska jako pierwszy kraj europejski stała się dla Brother poligonem doświadczalnym dla tego nowatorskiego modelu. Jak to zwykle bywa, pierwsze kroki nie były łatwe. W roku debiutu usługa objęła zaledwie 99 urządzeń. Dziś skalę dzia-

łania najlepiej obrazują liczby: 38 tysięcy drukarek zarządzanych przez system MPS, w tym ponad 13,5 tysiąca w modelu chmurowym.
Brother oferuje klientom wybór spośród pięciu różnych rozwiązań MPS. Cztery z nich: MPS Essential, MPS Professional, MPS Enterprise oraz Partner MPS są skierowane do użytkowników biznesowych i bazują na usłudze chmurowej. Szczególnie interesujący jest model Partner MPS, stworzony z myślą o resellerach z dużym doświadczeniem w zarządzaniu drukiem. W tym przypadku partnerzy samodzielnie podpisują umowy z klientami końcowymi i ustalają warunki kontraktów, podczas gdy Brother działa w tle, dostarczając materiały i świadcząc usługi serwisowe. Ofertę uzupełnia program CSP Connected, przeznaczony dla klientów, którzy nie mogą podłączyć urządzeń do internetu. Brother przygotowuje dla nich specjalne warunki zakupu materiałów eksploatacyjnych, zakładając, że partnerzy dysponują narzędziami do monitorowania maszyn i mogą składać regularne raporty dotyczące funkcjonowania urządzeń. Brother konsekwentnie wprowadza ulepszenia do usługi MPS. Firma wdrożyła nowe sposoby aktywacji urządzeń, upraszczając procesy zarówno dla klientów końcowych, jak i partnerów.
– Rok temu wprowadziliśmy aktywację przez ekran dotykowy drukarki. Wystarczy kliknąć dwie ikonki i wpisać kod PIN, aby urządzenie było gotowe do pracy. Z kolei tr yb awaryjny pozwala drukować nawet wtedy, gdy toner nie dotarł na czas, dając ser wisowi czas na reakcję – wyjaśnia Paweł Lechicki, MPS Coordinator w polskim oddziale Brother.
Brother wdrożył też szereg narzędzi wspierających partnerów biznesowych, w tym wskaźniki podłączenia urządzeń i możliwość odświeżenia połączenia drukarki w czasie rzeczywistym.

l Największa liczba kontraktów MPS w Brother Cloud MPS – Pryzmat
l Największa liczba urządzeń w kontraktach MPS – Blue Brain
l Największy kontrakt MPS w Brother Cloud MPS – Bikop
l Największa sprzedaż w kanale SPS
– Jantar
l Największa liczba urządzeń laserowych SOHO – Terg
l Największa liczba urządzeń Ink Benefit
– EURO-net
l Największy wzrost sprzedaży w kanale retail – Komputronik
l Największy wzrost sprzedaży w kanale partnerskim – Pikselomania
l Największy wzrost sprzedaży w kanale business – ZETO Białystok
l Największa sprzedaż w kanale PT/QL
– PowerTools
l Największy wzrost sprzedaży w kontraktach MPS – Cedartex
– Dzięki tym funkcjonalnościom nasi partnerzy mogą szybciej reagować na problemy i utrzymywać w ysoką jakość usług dla klientów końcowych – dodaje Paweł Lechicki.
Brother dba również o środowisko naturalne. Firma nie ogranicza świadczenia usługi wyłącznie do dostawy produktów oraz materiałów eksploatacyjnych. Brother zebrał do tej pory ponad 40 milionów zużytych tonerów oraz kartridży. Fabryki umiejscowione w Wielkiej Brytanii i na Słowacji przetwarzają je w systemie Zero Waste, w rezultacie czego aż 86 proc. materiałów trafia do ponownego zastosowania.
Brother tradycyjnie ogłosił również swój konkurs partnerski. Najlepsi resellerzy będą mogli w nagrodę wyjechać na początku roku 2026 do Kolumbii, a wiosną na Teneryfę.

„Sztuczna inteligencja może stać się katalizatorem zmian, z jakimi nigdy wcześniej nie mieliśmy do czynienia” - podkreślała Hanna
Osetek-Pasquet, dyrektor zarządzająca Also Polska, otwierając konferencję Also Channel Trends+Visions 2025.
Krzysztof Pasławski
Motywem przewodnim tegorocznej konferencji Also Channel Trends+Visions była sztuczna inteligencja. Co ważne, została pokazana w kontekście praktycznych przykładów. Uczestnikom wydarzenia zaprezentowano niezbędne do tego narzędzia i sposoby realizacji wdrożeń. Omawiano przy tym korzyści dla klientów, ale też związane z AI zagrożenia, którym można z powodzeniem zaradzić. Nie zabrakło też informacji o aktualnych trendach rynkowych i prognozach na kolejne miesiące. Hanna Osetek – Pasquet podkreślała przy tym
ROZWÓJ USŁUG TO EFEKT TRANSFORMACJI ALSO W OSTATNICH 12 LATACH.
przełomowe znaczenie sztucznej inteligencji nie tylko dla naszej branży. – Sztuczna inteligencja zmienia sposób, w jaki pracujemy i wchodzimy w interakcję z technologią. Żaden wcześniejszy wynalazek nie umożliwiał tego, co oprogramowanie oparte o AI, czyli adaptowania się, planowania, podejmowania decyzji.
Hanna Osetek-Pasquet
Managing Director, Also
Dlatego też AI może stać się katalizatorem zmian, z jakimi nigdy wcześniej nie mieliśmy do czynienia – mówiła szefowa Also Polska.
Podkreśliła również siłę ekosystemu Also w zakresie szerokiej oferty produktów, rozwiązań, oprogramowania i usług, a także wsparcia dla partnerów poprzez dedykowane usługi. Wiodący paneuropejski dystrybutor zapewnia usługi dostosowane do potrzeb, które pomagają partnerom i klientom końcowym zwiększać efektywność, obniżać koszty i optymalizować zasoby. Usługi te obejmują siedem obszarów: logistykę, finansowanie, doradztwo technologiczne, wsparcie wdrożeniowe i serwisowe, edukację (szkolenia i certyfikacje), wsparcie marketingowe i sprzedażowe oraz narzędzia cyfrowe, czyli platformy. Also może przygotować dla każdego partnera indywidualny pakiet usług, skalowany według potrzeb biznesowych.
Rozwój usług w Also to efekt transformacji, jaką dystrybutor przeszedł w ciągu ostatnich 12 lat. W tym czasie nastąpił kompleksowy rozwój dwóch modeli: solution oraz as a services. Jak podkreśla Wolfgang Krainz, CEO Also, usługi to je-
W edług globalnych danych zebranych przez analityków McKinsey, 80 proc. średnich i dużych organizacji korzysta przynajmniej z jednej aplikacji, któ-

ra wykorzystuje do działania sztuczną inteligencję. Co ważne, aż 90 proc. takich firm planuje zwiększenie inwestycji w AI, przy czym zaledwie 1 proc. z tych firm jest gotowych na wdrożenie, które będzie obejmowało pełną integrację ze wszystkimi procesami biznesowymi w organizacji. To potwierdza, że potencjał sztucznej inteligencji jest ogromny, ale na pewno firmy będą musiały zmierzyć się z szeregiem wyzwań – poczynając od tych ekonomicznych, bo jeśli wdrażamy jakieś rozwiązania, to po to, żeby być bardziej efektywnym i mieć z tego ekonomiczną korzyść. Towarzyszyć temu będą również wyzwania technologiczne i organizacyjne, bo musimy nauczyć nasze zespoły, aby były gotowe na to, żeby taką technologię wdrożyć. Trzeba będzie przy tym sprostać kwestiom prawnym i etycznym. Jako Also wspieramy naszych partnerów w pokonywaniu tych przeszkód, pomagając zwiększać efektywność, obniżać koszty i uwalniać zasoby niezbędne do dalszego rozwoju.



den z najważniejszych obszarów wzrostu w nadchodzących latach, który stworzy bardzo duże możliwości biznesowe.
AI liderem wzrostu na polskim rynku Szybki wzrost zapotrzebowania na rozwiązania AI wskazuje szereg prognoz, w tym PMR, który przewiduje, że krajowy segment AI będzie w latach 2025 – 2030 rósł co roku średnio o 32,4 proc. (CAGR). Najczęściej hamulcem inwestycji jest opór ze strony pracowników (48 proc. wskazań). Do tego większość badanych przedsiębiorstw w kraju (56 proc.) ma problem z obsadzeniem stanowisk odpowiednimi specjalistami.
– To stanowi szansę dla firm, które budują kompetencje i są w stanie zaoferować know - how – podkreślał Paweł Olszynka, wskazując parterom na takie obszary jak AI, chmura i cyberbezpieczeństwo.
Warto podkreślić, że z badania PMR wynika, że dobry dostawca IT ma duże i bardzo duże znaczenie dla przedsiębiorców (w sumie deklaruje tak 74 proc. pytanych). Co ważne, nawet przedsiębiorstwa dysponujące swoimi działami IT oczekują współpracy z integratorami.
Jak wybrać dobry use case
W kontekście możliwości rynkowych, jakie stwarza rozwój AI dla partnerów


i klientów, podczas prezentacji Della wskazywano między innymi na AI PC. Wojciech Janusz, EMEA Data Science & AI Horizontal Lead w Dell Technologies, radził by rozmawiając z klientami o wyborze odpowiedniego use case’u w projektach AI pytać o dwie rzeczy: to, co jest powtarzalne i czego nie lubią robić oraz jak mogliby się wyskalować, gdyby mieli nieograniczoną liczbę pracowników. – Co ważne, nie mamy do czynienia z jakimś tam trendem. Właśnie weszliśmy w erę nowej rzeczywistości, tak jak to było z wynalezieniem elektryczności. Narracja związana z AI będzie napędzała rozwój tej technologii, a ona sama będzie wchodziła w nowe dziedziny życia – mówił Dariusz Piotrowski, dyrektor generalny Dell Technologies w Polsce.
Jak na razie, zdaniem użytkowników biznesowych, największą korzyścią z użycia AI jest wzrost produktywności (78 proc. wskazań), a więc dokładnie to, czego klienci najbardziej oczekują.
Partnerzy, oferujcie usługi wokół AI!
Artur Czerwiński, dyrektor ds. technologii w polskim oddziale Cisco, wskazywał, że na rynku jest dużo miejsca dla partnerów, aby stworzyć własną ofertę usługową wokół narzędzi sztucznej inteligencji. Z badania AI Readiness Index wynika bowiem, że wiele przedsiębiorstw nie jest jeszcze gotowych na wdrożenia i integrację AI. Brakuje im kompetencji, a bardzo często także pomysłu. Z drugiej strony rosną budżety przedsiębiorstw na ten cel. Mianowicie 27 proc. ankietowanych
Monika Kałas
Koniec wsparcia Windows 10 daje ogromną szansę partnerom, aby poprowadzić rozmowy z klientami w kierunku wprowadzenia do firmy tech-

Distribution Lead Poland, Microsoft DPS PSCE nologii AI. Chodzi o to, aby dzisiaj klient, wydając pieniądze na sprzęt, który będzie używany w firmie przez kolejne 5 lat, wybrał urządzenie z procesorem NPU i produkty klasy Copilot+ PC. To jest kluczowy element, aby działania AI odbywały się nie tylko w chmurze, ale też lokalnie, zapewniając klientom prawdziwie hybrydowe rozwiązania. Uważam, że jeżeli partnerzy nie wykorzystają tego momentu, to wiele firm za 2–3 lata będzie rozgoryczonych, bo już wówczas większość oprogramowania będzie wymagała NPU, aby działać poprawnie. Spodziewamy się, że cykl wymiany urządzeń związany z końcem wsparcia Windows 10 przedłuży się na kolejny rok, bo wiele organizacji nie ma tak dużego budżetu, aby wymienić wszystkie swoje PC jeszcze w 2025 roku. Związana z tym szansa dla partnerów dotyczy zresztą nie tylko oferty urządzeń końcowych z AI, ale też na przykład wdrożeń odpowiednich rozwiązań cyberbezpieczeństwa.


dyrektor ds. technologii, Cisco
Partnerzy, którzy oparli swoją strategię o budowanie kompetencji AI, zwykle wybierają jeden lub kilka najbardziej atrakcyjnych zastosowań. Tworzą






odpowiednie rozwiązanie i swoje doświadczenie przenoszą na inne organizacje w danej branży, nabywając kompetencji sektorowych. Z tego co obserwuję, takie właśnie podejście jest silnikiem wzrostu dla partnerów. Im większa firma, tym większe ma możliwości w tym zakresie, zwłaszcza jeżeli posiada dział aplikacyjny. Jednak partnerom nie wystarczą same kompetencje w obszarze oprogramowania, bo potrzebują także wiedzy infrastrukturalnej. Dopiero taki pakiet jest dla klienta istotny. Klienci najchętniej chcieliby bowiem skorzystać z pewnego gotowego zestawu kompetencji, tak aby wdrażać sprawdzone rozwiązania AI na potrzeby biznesu szybko i bezpiecznie. I tu rola partnera jest absolutnie krytyczna, a my mu pomagamy – zarówno poprzez edukację, jak i oferowanie przetestowanych przez producenta zestawów funkcjonalnych takich jak AI Pod, z którymi może on pójść do klienta. Tym samym skracamy ścieżkę budowania kompetencji dla partnera. Może on skorzystać z pewnego wzorca, który już jest przetestowany i udokumentowany. Partner natomiast dostosowuje go do potrzeb i możliwości użytkownika końcowego.
Dariusz Okrasa
Wciągu roku zaskakująco szybko wzrosła liczba partnerów, którzy po raz pierwszy sprzedali serwery i fragmenty infrastruktury, jakie docelowo
Senior Channel Sales Manager, Dell Technologies wprowadzą klientów w świat AI. Rok temu takie wdrożenia realizowało może 1–2 partnerów, dziś jest ich już kilkudziesięciu. Co istotne, dotyczy to zarówno sektora publicznego, jak i komercyjnego, i nie chodzi wcale o największe firmy. To pokazuje, że partnerzy i dystrybutorzy systematycznie absorbują wiedzę na temat narzędzi i rozwiązań sztucznej inteligencji, widzą potrzeby klientów i potrafią je przełożyć na projekty. Obecnie zastosowania technologii serwerowej w połączeniu z GPU napędzają sprzedaż. Mamy już około setki otwartych projektów, gdzie komponent AI staje się częścią infrastruktury. Jeśli chodzi o use case’y, to wśród projektów z wykorzystaniem narzędzi AI znajduje się wiele rozwiązań wspierających obsługę klienta, computer vision, reagowanie na incydenty i predykcje. Co do branż, to obecnie szczególnie dużo inwestuje sektor ochrony zdrowia. Ponadto wiele ośrodków szkoleniowych wdraża rozwiązania do nauki ze wsparciem agentów AI. Tych zastosowań jest coraz więcej i jest to już zaskakująco duży – patrząc z perspektywy roku – komponent projektów, które realizujemy z partnerami i dystrybutorami. A wszystkie analizy pokazują, że tych potrzeb będzie przybywało.
firm deklaruje, że przeznacza ponad 30 proc budżetu IT na sztuczną inteligencję. Przy tym rozwój AI pociąga za sobą konieczność inwestycji w infrastrukturę sieciową oraz szeroko pojęte cyberbezpieczeństwo.

– Gdy uruchomi się agentic AI, ruch wzrasta wykładniczo. Nie zapominajcie o inwestycji w infrastrukturę telekomunikacyjną w związku ze sztuczną inteligencją – sugerował Artur Czerwiński partnerom i użytkownikom końcowym.
październik 2025 / CRN / 13
Jak co roku we wrześniu branża spotkała się na Mazurach, na Regatach Lenovo. Tym razem wydarzenie zgromadziło ponad 1000 osób. Był to czas sportowych emocji, spotkań, rozmów i networkingu.
Krzysztof Pasławski
Wtym roku Regaty Lenovo osiągnęły pełnoletniość. Wydarzenie, które już na stałe wpisało się do branżowego kalendarza, zorganizowano po raz 18, co jednocześnie zbiegło się z 20. rocznicą obecności Lenovo na polskim rynku. Frekwencja jak zwykle dopisała. Do Klubu Mila Kamień nad Jeziorem Bełdany przybyło ponad 1000 osób ze społeczności Lenovo i Motorola, w tym
WIELKIEMU SPOTKANIU ŻEGLARZY TOWARZYSZYŁY RÓWNIEŻ LICZNE INNE ATRAKCJE.
partnerów, dystrybutorów, dostawców usług i resellerów, a w rywalizacji na wodzie uczestniczyło ponad 100 jachtów w trzech klasach. Konkurencja podczas regat rozgrywanych na jeziorach Bełdany i Mikołajskim była więc zażarta i tym większe gratulacje należą się zwycięzcom. Podczas wydarzenia nie brakowało nie tylko sportowych emocji, ale też
biznesowych spotkań, rozmów, dobrej zabawy w świetnej atmosferze, w otoczeniu przepięknej mazurskiej przyrody. – Regaty Lenovo to nie tylko sport, to kolejna okazja do wymiany doświadczeń, networkingu i zacieśnienia relacji – podkreślał Wojciech Zaskórski, General Manager Lenovo Polska, podczas oficjalnego otwarcia wydarzenia.
Z koncertu Varius Manx prosto na jogę Przez cały weekend (4–6 września) działo się sporo, bo wielkiemu spotkaniu branży towarzyszyły liczne atrakcje. Nawet „szczury lądowe” mogły zasmakować nieco żeglarskich klimatów, wybierając się w rejs jachtem po jeziorze albo wsiąść na statek wycieczkowy. Były też konkursy i zabawy z nagrodami, a także muzyka na żywo. Gwiazdą wieczoru był zespół Varius Manx, a jego przeboje tak rozgrzały publiczność, że muzycy trzy razy grali na bis, zanim zeszli ze sceny. Były też szanty – w wykonaniu zespołu Stara Kuźnia, a wieczorami

na Motorola Beach Party ludziom nogi same rwały się do tańca. Kto wolał nieco spokojniejsze klimaty, mógł odpocząć przy ognisku albo na plaży. Po nocnej zabawie rano nadchodził czas na Wake Up Yoga – zajęcia z jogi, spotkania przy ka-


wie w Motorola Coffee Bar, leżakowanie na plaży, czy też kąpiele w jeziorze.
Premierowe nowości w jubilerskiej oprawie
Podczas regat można było również zapoznać się z premierowymi nowościami Lenovo i Motorola Mobility. Wśród nich znalazła się konsola mobilna Lenovo Legion Go 2, wyposażona w ulepszone kontrolery i wyświetlacz OLED o jasności 500 nitów. Z kolei nowy Lenovo Yoga Tab został zaprojektowany z myślą o kreatywnych profesjonalistach i twórcach cyfrowych, a smukły i lekki Lenovo Idea Tab Plus sprawdzi się jako idealny
kompan do nauki, zabawy i utrzymywania kontaktu z najbliższymi. Motorola Mobility wprowadziła natomiast urządzenie, które stanowi połączenie najnowszej technologii i sztuki jubilerskiej. To smartfon Motorola razr 60 w nowej eleganckiej obudowie, ozdobionej 35 ręcznie osadzonymi kryształami Swarovskiego. Dołączone do kompletu słuchawki są również ozdobione kryształami – podczas prezentacji efektownie skrzyły się one w słońcu, gdyż pogoda na regatach dopisała.
Dekoracja najlepszych załóg ukoronowała branżowe święto. Dodajmy, że organizacja tak wielkiej imprezy również była na medal. Wielkie gratulacje dla Lenovo, zwycięzców i uczestników!




Na współczesnym dynamicznie zmieniającym się przez technologię polu bitwy, oprócz kul i bomb, w obie strony latają również dane.
Wojciech Urbanek
Wcentrum globalnej bitwy o opanowanie cyfrowego przepływu informacji znajdują się doświadczone firmy technologiczne. Wykorzystują one swoje wieloletnie doświadczenie w technologiach cywilnych na szybko ewoluującym polu walki. Drony, kamery noszone na ciele oraz cyfrowe czujniki ze smartfonów przesyłają strumieniowo dane wywiadowcze w czasie rzeczywistym w ilościach niemożliwych do przetworzenia tradycyjnymi metodami. Dowództwa wojskowe radzą sobie z tym wyzwaniem, wykorzystując do tego sztuczną inteligencję, aby na bieżą-
NATO PRACUJE NAD PRZYJĘCIEM 5G JAKO STANDARDU KOMUNIKACJI WOJSKOWEJ.
co i możliwie precyzyjnie przekazywać oddziałom informacje o sytuacji, wskazówki taktyczne oraz plany działania. Materiały te są wyświetlane na ekranach laptopów i innych urządzeń przenośnych. Jak ujął to Giorgi Tskhakaia, doradca ukraińskiego ministra transformacji cyfrowej, podczas niedawnej konferencji wojskowej w Wiesbaden w Niemczech: „dane są bronią przyszłości”. Obsługa danych bojowych składa się z trzech etapów. Po pierwsze, wojsko musi przechwytywać informacje i szybko przekazywać je do analizy. Następnie analitycy wydobywają z nich cenne spostrzeżenia. Wreszcie, siły pierwszej linii muszą otrzy-
mywać informacje wywiadowcze i rozkazy w formatach, które mogą natychmiast „strawić” i zastosować, niejednokrotnie pod ostrzałem wroga.
Sama transmisja danych nie jest oczywiście żadną nowością, ale niewiele istniejących wojskowych radiotelefonów może obsłużyć rosnącą ilość danych, szczególnie gdy przeciwnicy pracują nad zagłuszaniem i hakowaniem transmisji. Siły zbrojne używają nowoczesnych cyfrowych radiostacji, sieci 5G i satelitów, w tym sieci Starlink Elona Muska.
Nokia, która produkuje cywilny sprzęt sieci komórkowej 5G, dostosowuje tę technologię do zastosowań wojskowych i w aplikacjach bezpieczeństwa narodowego. Firma opracowała przenośne plecaki wyposażone w małe węzły 5G oraz systemy montowane na pojazdach, które mogą obsługiwać do 1000 użytkowników jednocześnie. W tym roku fińska firma ogłosiła współpracę z gigantami przemysłu obronnego: Lockheed Martin i Rheinmetall w celu zintegrowania komunikacji 5G z ich systemami bojowymi. Również Ericsson, producent sieci 5G i wojskowych radiotelefonów, których historia sięga czasów II wojny światowej, wkracza w obszar cyfrowych aplikacji obronnych. Z kolei NATO pracuje obecnie nad przyjęciem 5G jako standardu komunikacji wojskowej wśród swoich 32 członków. Eksperci sojuszu twierdzą, że ilość danych wojskowych jest tak duża, że 5G

jest najlepsze do transmisji, ponieważ standard ma co najmniej 10 razy większą pojemność danych niż wcześniejsze systemy.
Dane pod lupą wojskowych
Gdy dane dotrą do analizy, kolejną przeszkodą jest wydobycie z nich wartości. Eksperci z Ukrainy przyznają, że tamtejsi programiści spędzili trzy lata na opracowywaniu systemów sztucznej inteligencji, które robią użytek z zebranych informacji. Dane wojskowe mają bowiem niewielką wartość, jeśli nie można ich przechowywać, udostępniać, przeszukać w poszukiwaniu wzorców i wykorzystywać do działania. To dlatego dowództwo Pentagonu w 2017 r., przy wsparciu Google’a, rozpoczęło Project Maven, wykorzystując uczenie maszynowe do analizy stosów danych. Jeszcze do niedawna dane z kamer dronów i radarów lotniczych znajdowały się w izolacji i były bezużyteczne dla innych organizacji. Jak mówi Safra Catz, dyrektor generalny Oracle’a: „Oczywiste jest, że operacje wielodomenowe wymagają infrastruktury chmurowej, to jedyny sposób na współdzielenie informacji między wszystkimi obszarami działań”.
W tym roku Oracle nawiązał współpracę z rządowym wykonawcą Palantir Technologies, a także odrębnie zaprezentował program mający ułatwić innym dostawcom sprzedaż technologii, w tym rozwiązań sztucznej inteligencji do Departamentu Obrony Stanów Zjednoczonych.
W przypadku danych, które muszą być przetwarzane bliżej frontu, wojsko stosuje te wersje komercyjnych technologii, które są zahartowane w warunkach bojowych. Na wspomnianej konferencji w Wiesbaden firma Dell zaprezentowała nową jednostkę obliczeniową: komputer stacjonarny mniejszy niż pudełko chusteczek, zbudowany wokół najnowszego układu Nvidia. Żołnierze w pojeździe lub kwaterze polowej mogą wykorzystywać go do przetwarzania dużych ilości danych bez konieczności transmisji na duże odległości.
Na tejże konferencji zaprezentowano laptopy i tablety we wzmocnionych obudowach, z ekranami odpornymi na pęknięcia oraz magnetycznymi „pleckami” umożliwiającymi mocowanie do burt pojazdów bojowych w terenie. Jeden z modeli pokazywanych przez Della radzi sobie z temperaturami od minus 28,9°C do 62,8°C. Co ciekawe, ze względów bezpieczeństwa oferowane są również komputery pozbawione kamer, mikrofonów i Wi-Fi.
Tekst opracowany na podstawie publikacji w „The Wall Street Journal”.
W czasach niestabilnej gospodarki i rosnącego zagrożenia cyberatakami, firmy szukają systemów ochrony danych, które łączą maksymalne bezpieczeństwo z intuicyjną prostotą. Cohesity spełnia oba te oczekiwania.
Większość przedsiębiorstw dostrzega kluczowe znaczenie inwestycji w systemy ochrony danych, jednocześnie bardzo uważnie analizując każdą wydaną złotówkę. Takie podejście wynika z kilku czynników: niestabilnej sytuacji gospodarczej, zmian geopolitycznych oraz coraz bardziej przemyślanego podejścia do decyzji zakupowych w obszarze IT. – Rynek charakteryzuje się obecnie dużą różnorodnością dostępnych rozwiązań. Choć szeroka oferta teoretycznie ułatwia wybór, w praktyce może utrudniać podjęcie optymalnej decyzji. W przypadku systemów ochrony danych nie ma miejsca i czasu na eksperymenty. Dlatego warto zwrócić uwagę na dostawców wyznaczających kierunki rozwoju branży i kreujących nowe trendy technologiczne. Jednym z takich liderów rynkowych jest Cohesity, co potwierdzają najnowsze dane IDC – tłumaczy Łukasz Dyguła, szef kanału sprzedaży Cohesity w Polsce. Cohesity zajmuje się zarządzaniem i ochroną danych, a po przejęciu Veritasa stało się liderem tego segmentu. Firma rozwija platformę, która łączy ochronę, bezpieczeństwo i możliwości AI w jednym rozwiązaniu. Łączna pojemność wszystkich danych chronionych przez Cohesity wynosi 100 eksabajtów – to 5 razy większa liczba niż którykolwiek z rynkowych konkurentów amerykańskiego dostawcy. Taka skala ma istotne znaczenie nie tylko z marketingowego punktu widzenia. Dostęp do tak wielkich zbiorów danych pozwala bowiem rozwijać zaawansowane mechanizmy bezpieczeństwa, w tym przewidywanie potencjalnych awarii oraz planowanie pojemności. Cohesity obsługuje liczne instytucje finansowe, z których wiele przechowuje setki petabajtów danych.
„iPhone świata backupu”
Cohesity od początku stawia na elegancję i prostotę, wyraźnie dystansując się od

skomplikowanych systemów backupu. Firma od początku działalności pozycjonuje się jako „iPhone świata backupu”, czyli narzędzie proste i intuicyjne. Zamiast tworzyć wyłącznie aplikacje, Cohesity rozwija platformę do przechowywania niemal wszystkich danych (poza zasobami krytycznymi). Ta filozofia umożliwia klientom uruchamianie różnych aplikacji backupu na jednym środowisku oraz zarządzanie danymi lokalnymi i chmurowymi w ramach jednego rozwiązania.
Jak zauważa Łukasz Dyguła, niedobór specjalistów IT napędza popyt na zintegrowane systemy, które są łatwe w zarządzaniu i wdrożeniu. Platforma Cohesity idealnie odpowiada na te potrzeby, konsolidując w jednym rozwiązaniu ochronę danych, bezpieczeństwo i funkcje AI. Dzięki temu firmy mogą zaspokoić wiele potrzeb biznesowych za pomocą jednej, spójnej technologii.
– Rodzimi integratorzy będą stopniowo odchodzić od wciąż popularnej koncepcji „zrób to sam”. Choć przynosi ona nieco wyższe marże niż sprzedaż gotowego systemu pochodzącego od jednego dostawcy, to jednak pochłania znacznie więcej czasu. Kluczowe jest też to, że klienci wymagają szybkich rozwiązań – dodaje Łukasz Dyguła.
Zunifikowana strategia Cohesity bazuje na filozofii „5S” (Speed, Scale, Security, Simplicity, Smart). Platforma została zaprojektowana z myślą o szybkim przywracaniu danych po cyberatakach.
– W dzisiejszym cyfrowym świecie cyberataki stały się tak powszechne jak wirusy grypowe. Choć nie da się ich całkowicie uniknąć, to można zbudować odporność, która pozwoli szybko wrócić do zdrowia – wyjaśnia Vasu Murthy, pełniący w Cohesity funkcję CPO.
W przypadku skalowalności chodzi o ochronę i zarządzanie setkami petabajtów danych, na którym to polu Cohesity dystansuje wielu konkurentów. Z kolei bezpieczeństwo (Security), czyli niezmienność danych, szyfrowanie typu end-to-end i uwierzytelnianie wieloskładnikowe to DNA platformy, a nie dodatki.
Warto przy tym podkreślić, że dużym wyzwaniem dla firmy była fuzja z Veritasem, związana zarówno z integracją zespołów, jak i samych produktów. Simplicity (Prostota) to obietnica przeniesienia prostoty znanej z rozwiązań Cohesity na NetBackup.
Natomiast Smart (Inteligencja) wiąże się z rozwojem sztucznej inteligencji. Przy czym firma wychodzi z założenia, że klienci będą wykorzystywać AI najczęściej do analizy danych, a w dalszej kolejności do zarządzania i ochrony.
Autoryzowanym dystrybutorem rozwiązań Cohesity jest Arrow.
Kontakt dla partnerów
Łukasz Dyguła, Head of Channel–Poland tel. 698 698 907 lukasz.dygula@cohesity.com






W obecnych czasach powiedzieć, że cyberprzestępczość rośnie w siłę, to nic nie powiedzieć. Według raportu „The State of Cyber Security 2025”, opublikowanego przez Check Point, w ciągu najbliższych kilku lat straty wynikające z działalności cyberprzestępców mają globalnie osiągnąć zawrotną wartość 15,6 biliona dol. Co oznacza, że w ujęciu PKB większe od globalnej cybermafii są jedynie USA i Chiny. Z drugiej strony z danych przygotowanych dla World Economic Forum wynika, że na świecie brakuje ponad 4 mln specjalistów z obszaru cyberbezpieczeństwa, a wśród badanych firm aż 67 proc. wykazuje średnie albo krytyczne braki w zatrudnieniu potrzebnych profesjonalistów. Co w takich okolicznościach można powiedzieć o perspektywach polskiego rynku usług cyberbezpieczeństwa świadczonych w modelu MSSP (Managed Security Service Provider)?
Karol Kij Można z dużym prawdopodobieństwem stwierdzić, że usługi tego typu będą w Polsce dynamicznie się rozwijać. Obecnie jednak jesteśmy w początkowej fazie tego procesu. Z perspektywy osoby zarządzającej zespołem świadczącym klientom usługi cyberbezpieczeństwa w modelu MSSP, obserwuję, że lokalny rynek jest dziś przede wszystkim „audytowo-testerski”. Nowe regulacje w przyszłości z pewnością przyspieszą rozwój usług MSSP, jednak na ten moment klienci rzadko decydują się na klasyczne rozwiązania związane z monitorowaniem, detekcją czy

aktywną ochroną. Najczęściej zaczynają od audytu, chcąc najpierw zidentyfikować luki i określić priorytety działań na najbliższą oraz dalszą przyszłość. Krzysztof Hałgas Z pewnością tego rodzaju usługi nie rozwijają się u nas tak, jak na Zachodzie. Chociażby we Francji, nie mówiąc już Wielkiej Brytanii czy Irlandii, gdzie dostawcy usług stanowią nawet 70 proc. firm z sektora cyber generując ponad połowę obrotów w całym rynku cyberbezpieczeństwa. W Polsce jeszcze nikt tego dobrze nie oszacował, ale oględnie mówi się o kilkunastu procentach, choć osobiście sądzę, że udział MSP/MSSP w całym polskim sektorze cyberbezpieczeństwa to wciąż jednocyfrowa liczba. W dodatku zarządzane usługi cyberbezpieczeństwa zostały wprowadzone do sprzedaży we Francji czy Wielkiej Brytanii ponad 20 lat temu, a w Polsce termin MSP wciąż bardziej kojarzy z małymi i średnimi przedsiębiorstwami. U nas ogromna większość klientów wciąż kupuje gotowe rozwiązania, a nie usługi. Podstawową przyczyną tego stanu rzeczy jest, moim zdaniem, brak zaufania. W tej kwestii jesteśmy wciąż krajem postkomunistycznym i nie dotyczy to tylko Polski. Bakotech działa też na rynku czeskim, słowackim i węgierskim, gdzie pod tym względem relacje biznesowe wykazują podobieństwo z polskimi. Do umowy usługowej potrzebujemy przecież pewnej dozy zaufania. Musimy uwierzyć komuś, kto przychodzi do nas i mówi: ja ci to wszystko ogarnę. Reakcją jest często

niechęć. Klient myśli sobie: no nie dość, że będę co miesiąc płacić, to skąd mam wiedzieć, kto tam pracuje, a może będą nas szpiegować i kraść dane, by przekazać je konkurencji… Możliwe, że to jest kwestia pokoleniowa i trzeba czasu, żebyśmy to zaufanie na polskim rynku wzajemnie w końcu wypracowali.
Karol Kij Jednym z głównych hamulców w rozwoju usług cyberbezpieczeństwa pozostaje wciąż niska świadomość zarządów. Temat ten bywa postrzegany jako nieunikniony koszt, a nie jako inwestycja w stabilność i długoterminowy rozwój organizacji. Mało kto patrzy na cyberbezpieczeństwo w kategoriach realnej przewagi konkurencyjnej – możliwości prowadzenia biznesu w sposób bezpieczny, bez ryzyka nagłego wstrzymania działalności wskutek poważnego ataku na infrastrukturę. Dominujące podejście w wielu zarządach jest dość zachowawcze: skoro do tej pory nic się nie wydarzyło, to pewnie przez kolejny rok również uda się uniknąć problemów. A jeśli minie rok bez incydentu, to może i następny
W POLSCE WIĘKSZOŚĆ KLIEN- TÓW WCIĄŻ KUPUJE GOTOWE ROZWIĄZANIA, A NIE USŁUGI. PRZYCZYNĄ JEST, MOIM ZDANIEM, BRAK ZAUFANIA.
Krzysztof Hałgas

się uda. Tyle że prędzej czy później taki dzień nadchodzi i wtedy skala konsekwencji bywa dramatyczna. Właśnie wtedy uwaga zarządów błyskawicznie się zmienia, a temat bezpieczeństwa trafia na najwyższy poziom priorytetów. Mówię to z doświadczenia. Przykładowo, w tym roku pomagaliśmy przy dwóch dużych incydentach ransomware. Każdy z nich uderzył bezpośrednio w kluczowe procesy biznesowe i dopiero wtedy rozmowa z zarządem przybrała zupełnie inny, znacznie bardziej konkretny obrót. Warto też pamiętać, że nowe regulacje, takie jak NIS 2, wprowadzają element osobistej odpowiedzialności członków zarządu za kwestie cyberbezpieczeństwa. To powinno dodatkowo zmotywować decydentów do tego, by spojrzeli na ten obszar strategicznie, nie jako na koszt, lecz jako na fundament prowadzenia biznesu w nowej rzeczywistości.
Krzysztof Hałgas Kolejną barierą dla MSP w Polsce jest legislacja. Niestety, sami sobie rzucamy kłody pod nogi, bo promocji ze strony państwa nie ma. Historycznie rzecz biorąc, polskie prawo zamówień publicznych w ogóle nie obsługiwało usług. Owszem, nie było nakazu zakupu konkretnej formy rozwiązania, ale mentalnie wszyscy od lat dziewięćdziesiątych byli nastawieni na kupno czegoś do swojej serwerowni. I cały czas szło za tym prawo zamówień publicznych. Dopiero ostatnie lata, od czasu pandemii, coś zmieniły w tej kwestii. Za to pojawiają się kolejne utrudnienia. Przykładowo, Ministerstwo Nauki i Szkolnic-
twa Wyższego w zapytaniach ofertowych na SIEM dla placówek edukacyjnych wpisuje, że rozwiązania muszą pojawiać się w „ćwiartce liderów” Gartnera. To wyklucza automatycznie krajowe firmy, no bo – nie oszukujmy się – kto w Polsce będzie inwestował setki tysięcy dolarów, żeby pokazać się w raportach Gartnera?
Powiało pesymizmem, choć to zapewne biznesowy realizm. Na ile nowe regulacje będą jednak stymulować rozwój rynku usługowego? Czy też może skończy się na pewnej fikcji, z jaką w sporej mierze mamy do czynienia w przypadku RODO? Paweł Jurek Uważam, że NIS 2 może być katalizatorem zmiany myślenia o cyberbezpieczeństwie. Przynosi ze sobą odejście od konkretnych wymagań, od rozwiązań nabywanych według listy zakupowej, jak w supermarkecie. Zamiast tego wprowadza podejście, w którym trzeba oszacować swoje ryzyko i dopiero wtedy dobrać odpowiednie środki techniczne. Bo przecież na tym to powinno polegać. Jednak najpierw pojawia się bunt, bo klienci i sama branża w większości są przyzwyczajeni do handlowania rozwiązaniami. Klient do tej pory myślał tak: muszę mieć antywirusa, firewalla, może PAM-a. A najlepiej, żeby partner przyszedł, przedstawił mi listę koniecznych rzeczy i będę miał to załatwione. A teraz okazuje się, że to nie będzie załatwione i coraz więcej podmiotów w branży sobie uświadamia, że to nie takie proste. Dopiero teraz firmy dostrzegają, że to często nie tyl-















Adam Danieluk, Supervisory Management Board, ISSA Polska Krzysztof Hałgas, CEO, Bakotech












DAGMA (w









Paweł Jurek, Business Development Director, DAGMA Bezpieczeństwo IT (w imieniu ESET) Director of the Cybersecurity Solutions Department,








Karol Kij, the Department, Atende redaktor, Polska
Tomasz Janoś, redaktor, CRN Polska




ko kwestia ułożenia portfolio produktowego, ale właśnie stworzenia odpowiednich procesów i właściwego nadzorowania incydentów. W Polsce pod tym względem wciąż jesteśmy na początku drogi. I jeśli duże podmioty bardzo często będą z cyberbezpieczeństwem radzić sobie samodzielnie, to średnie przedsiębiorstwa będą stopniowo przekonywać swoich dostawców IT, żeby ci zmieniali swoje modele biznesowe właśnie w kierunku usług zarządzanych. Krzysztof Hałgas Zgadzam się, bo z punktu widzenia klienta przesunięcie odpowiedzialności na partnera zewnętrznego, który ma kompetencje i gwarantuje zgodność z regulacjami, oznacza dużą dozę pewności biznesowej. Trzeba takie bezpieczeństwo w formie usługi pojmować jako rodzaj ubezpieczenia. Na polskim rynku takiego podejścia jeszcze brakuje, ale to się będzie zmieniać.
Adam Danieluk Warto przy tym podkreślić, że to nie jest tak, że wspomnianych w pytaniu regulacji wcześniej nie było i nie nakładały one pewnych obowiązków na organizacje. Przykładem RODO, które było wielką nadzieją rynku i pompowanym balonikiem. Tyle że ten balonik okazał się przekłuty, bo przychody z doradztwa i obsługi rynku zgarnęły nie firmy IT czy cybersecurity, ale prawnicy. Już za pierwszego NIS-u, czyli w przypadku Polski ustawy o Krajowym Systemie Cyberbezpieczeństwa, były pewne wymagania określone wprost. Łącznie z tym, że miały się pojawić centra typu SOC. To była realna, choć jak się okazało niespełniona, nadzieja na uruchomienie usług zarządzanych, bo nagle się okazało, że tych podmiotów nadzorowanych są tysiące.
Dlaczego w takim razie nic z tego nie wyszło?
Adam Danieluk No cóż, każdy wolał zbierać segregatory dowodów, że spełnia wymagania, niż faktycznie inwestować w ochronę. Były jeszcze Krajowe Ramy Interoperacyjności, gdzie wprost są zapisy, które nakładają określone zadania na podmioty publiczne związane z cyberbezpieczeństwem i z usługami IT. To też jednak
NOWE REGULACJE, TAKIE JAK
NIS 2, WPROWADZAJĄ ELEMENT OSOBISTEJ ODPOWIEDZIALNOŚCI CZŁONKÓW ZARZĄDU ZA KWESTIE CYBERBEZPIECZEŃSTWA.
Karol Kij
nie zagrało. A teraz z kolei mówimy o NIS 2 i DORA, która zresztą już obowiązuje, bo została uchwalona na poziomie europejskim, więc nasz krajowy regulator jedyne, co musiał zrobić, to ją przyjąć do krajowego porządku prawnego. Co do NIS 2, to ustawa o KSC wciąż się „wałkuje” i trudno powiedzieć, kiedy konkretnie pojawi się w parlamencie. W każdym razie, jeżeli ktoś liczy, że rynek usług cyberbezpieczeństwa ruszy z kopyta, bo dziesiątki tysięcy podmiotów zostanie objętych kolejnymi regulacjami, to może się rozczarować, z jednej przyczyny. Otóż firmy często nawet nie wiedzą, że te czy inne przepisy ich dotyczą. A czasami nawet jakiś jeden drobny element produkcji może decydować o tym, że są nimi objęte. Karol Kij Przy pierwszej dyrektywie NIS to ministerstwo decydowało, kto podlega regulacjom. Teraz sytuacja wygląda inaczej, to organizacje muszą same się określić,
a w praktyce oznacza to ponowne gromadzenie dowodów i tworzenie dokumentacji „na wszelki wypadek” w razie kontroli. Paradoks polega na tym, że wiele podmiotów bardziej obawia się regulatora niż realnego przeciwnika, jakim są cyberprzestępcy. Tymczasem w praktyce to właśnie oni pełnią rolę najgroźniejszych „audytorów”. Adam Danieluk I słusznie, że przedsiębiorca boi się regulatora, bo on przyjdzie i powie: źle zrobiliście ocenę ryzyka, w związku z czym nakładamy na was karę. Nieważne, że mieliście 50 tysięcy innych zaadresowanych zagrożeń, ale tego jednego w dokumentacji nie ujęliście, więc musieliście tę ocenę ryzyka zrobić źle. Z jakichkolwiek rozwiązań będzie zmontowane zabezpieczenie firmowej infrastruktury IT, to regulator może przyjść i powiedzieć, że zostało to źle zrobione. Więc szczerze mówiąc, z punktu widzenia przedsiębiorcy, ja bym wolał mieć tak zabezpieczoną dokumentację, jak to było w przypadku RODO. Karol Kij Tylko że cyberbezpieczeństwo tak nie działa. Jeden może mieć ośmioznakowe hasło i dla niego to jest wystarczające, bo ma szereg innych zabezpieczeń i minimalizuje sobie ryzyko czymś innym, a inny nie może mieć ośmio-, tylko dziesięcio- czy szesnastoznakowe, no bo nie ma innych zabezpieczeń.
Adam Danieluk Z tym, że teraz wytyczne są na tyle niejasne, że zawsze może się okazać, że czegoś nie uwzględniłem, bo oceniłem, że mnie dane ryzyko nie dotyczy, a jednak ono się zmaterializowało. Teraz to ja muszę udowadniać, że moja ocena ryzyka była adekwatna do sytuacji. Muszę sam się ocenić, a ktoś przyjdzie później, kiedy mi się mleko wylało, i zamiast mi pomóc, to mi jeszcze dołoży karę. Z perspektywy cyberbezpieczeństwa ta kara nic nie zmieni, a wręcz pogorszy sytuację, bo ja tych pieniędzy nie będę mógł wtedy przeznaczyć na inwestycje we wzmocnienie ochrony. Karol Kij Nie mogę się z tym zgodzić, bo przecież oczywiste jest, że poziom ryzyka nigdy nie spadnie do zera. Regulator, mam nadzieję, doskonale zdaje sobie sprawę, że zawsze istnieje pewien margines niepewności i że któreś z zabezpieczeń może w danym momencie zawieść. Dobrym przykładem jest RODO, nie znam przypadku, w którym kara zostałaby nałożona wyłącznie z powodu samego ataku jako takiego. Kluczowe jest rzetelne podejście do analizy ryzyka i odpowiedź na pytania, co chronimy, przed czym oraz za pomocą jakich mechanizmów. Jeśli ta praca zostanie wykonana uczciwie i udokumentowana, regulator powinien to właściwie ocenić. Paweł Jurek Moim zdaniem to dobrze, że NIS 2 jest tak stworzony, by utrudniał osią-
ganie zgodności na zasadzie odhaczania kolejnych punktów. To nie jest enumeratywna lista, której wypełnienie polega na zaznaczeniu kilkunastu checkboxów i już… mamy to załatwione. Oczywiście będą zdarzały się na rynku patologie. Zdaję sobie sprawę, że nierzadko właśnie tak to się będzie odbywać. Widać to zresztą doskonale na przykładzie cen audytów, których nie da się porządnie przeprowadzić aż tak tanio. Myślę jednak, że z czasem takie podejście zostanie przez rynek zweryfikowane, chociażby dlatego, że NIS 2 stawia takie wymagania, nie precyzując checklisty i nakładając odpowiedzialność bezpośrednio na zarządy.
Wspomniany na wstępie niedobór specjalistów w wypadku świadczenia usług bezpieczeństwa ma dobrą i złą stronę. Ta dobra polega na tym, że dostawcom usług typu MSP/MSSP nie powinno zabraknąć klientów. Złą stroną natomiast będą nieuniknione kłopoty samego usługodawcy ze stworzeniem i utrzymaniem własnego zespołu profesjonalistów… Karol Kij Rzeczywiście, zbudowanie własnego zespołu monitorującego w trybie 24/7 to spore wyzwanie. Z drugiej strony widać rosnące zainteresowanie rynkiem cyberbezpieczeństwa. Podczas rekrutacji często spotykam osoby, które chcą się przebranżowić. Wśród kandydatów miałem już byłego księdza czy weterynarza. Przyciągają ich atrakcyjne zarobki, ale same chęci nie wystarczą. Cyberbezpieczeństwo wymaga szerokiej wiedzy, od działania sieci i systemów, po podstawy programowania i inżynierii oprogramowania. To właśnie ta konieczność ogólnej, interdyscyplinarnej kompetencji sprawia, że prawdziwych specjalistów na rynku jest niewielu. Dla firm oznacza to trudności nie tylko w pozyskiwaniu, ale też w długoterminowym utrzymaniu takich pracowników. Adam Danieluk Jako ISSA Polska badamy płace w obszarze cyberbezpieczeństwa. Zwróciłem uwagę, że jakieś 4 lata temu nastąpił skok – płace na stanowiskach juniorskich typu pierwsza linia SOC-u zaczęły rosnąć, osiągając poziom powyżej 10 tysięcy złotych. Tak było mniej więcej do zeszłego roku, gdy to się ustabilizowało i już nie rośnie tak dramatycznie. W jakimś stopniu rynek się nasycił. Gdyby teraz usługi MSSP wystrzeliły, to pewnie tych ludzi byłoby potrzebnych więcej na rynku i wynagrodzenia znowu zaczęłyby się piąć w górę. Krzysztof Hałgas W sytuacji, gdy od dłuższego czasu media donoszą o braku wykwalifikowanych inżynierów ds. cyberbezpieczeństwa w przedsiębiorstwach, usługi MSP/MSSP świetnie wypełniają tą
lukę. Świadczące je firmy mają swoich specjalistów i mogą sprzedawać usługi klientom, którzy takich kadr nie mają. I znowu, ten proces gdzieś tam pod powierzchnią się odbywa, ale jest zbyt wolny. Nie jest też promowany ani przez Ministerstwo Cyfryzacji, ani różnego rodzaju organizacje, które mogłyby przedsiębiorcom wyjaśniać, czym są usługi zarządzane i w jaki sposób mogą one pomóc rynkowi. Chociażby w kwestii przetargów nie ma tłumaczenia, że organizacje mogą również zamówić usługę. Potrzeba większej promocji usług zarządzanych, zarówno ze strony producentów, dystrybutorów, jak i całego rynku, bo obecnie resellerzy nie za bardzo wiedzą, jak sobie to wszystko poskładać, czy w kontekście marży, czy po prostu stworzenia odpowiedniej oferty na potrzeby danego rynku.
Mówimy o cyberbezpieczeństwie w modelu usługowym, który ma dwa warianty. Czym różnią się MSP i MSSP?
Krzysztof Hałgas Model MSSP już od lat dziewięćdziesiątych był w Polsce budowany tradycyjnie najpierw na rozwiązaniach Check Pointa czy Nokii, a potem Junipera i innych. Bo MSSP to generalnie usługi oferowane przez dużych integratorów ich dużym klientom. Model MSP natomiast pojawił się na naszym rynku jakieś 15 lat temu, ponieważ wyewoluowały rozwiązania, które były skierowane na rynek małych i średnich przedsiębiorstw. Mówię o platformach, które dostarczają podobne usługi, jakie duzi integratorzy świadczą dużym klientom, ale skierowane do mniejszych firm. Taka usługa może nie będzie w tym kontekście porównywalna 1 do 1, być może nie będzie oferować tak szybkiego czasu reakcji, czy nie będzie kogoś, kto od razu zajmie się pewnym problemem, ale będzie odpowiadała mniej więcej tym parametrom, które wynikają chociażby z NIS 2. Dlatego chodzi o poszerzenie rynku, o zejście z usługami cyberbezpieczeństwa do poziomu małych i średnich przedsiębiorstw. Przy czym MSP to abonamentowy zakup i abonamentowa sprzedaż. Nasz partner nie jest więc obciążany finansowo, nie ponosząc kosztów inwestycji do momentu sprzedaży.



Paweł Jurek
Paweł Jurek Rzeczywiście, to wymaga uporządkowania, bo mamy z MSP i MSSP pewien chaos komunikacyjny. Od lat obserwowaliśmy działalność MSSP na dużym rynku, ale to jest inny świat niż ekosystem partnerów, którzy mogą oferować bezpieczeństwo głównie małym i średnim przedsiębiorstwom – wcześniej tylko w formie rozwiązań, a od pewnego czasu także w formie usług. Jako DAGMA Bezpieczeństwo IT dopiero niedawno uznaliśmy, że warto się MSP zajmować i od 2021 roku zaczęliśmy pracować w tym modelu. Rozpoczęliśmy oferowanie abonamentowych usług w oparciu o najpopularniejsze w Polsce rozwiązania ESET – ale w modelu abonamentowym. Obecnie nasi partnerzy, którzy rozpoczęli działalność typu MSP odsprzedają głównie funkcjonalności bezpieczeństwa ESET. Jeszcze chwilę potrwa, zanim partnerzy w oparciu o oferowane platformy zaczną budować własne
pakiety. Skoro usługi rosną szybciej niż cały rynek cyberbezpieczeństwa, to chcemy być częścią tego procesu i dać partnerom podstawę technologiczną, na której mogą budować. To nadal jest nisza, ale – jak już wspomniał Krzysztof – o mocno obniżonych barierach wejścia dla resellerów. Będący małą lub średnią firmą reseller wcale nie musi robić na samym początku dużych inwestycji w zakup różnych rozwiązań. Jednak wymaga to od niego zmiany myślenia, nowego podejścia do fakturowania czy w ogóle rozliczeń, chociażby sposobu nagradzania handlowców. Co – jak wynika z naszych rozmów z partnerami – może być poważną barierą. Na pewno byłoby łatwiej, gdyby rynek klienta końcowego sam już pytał o takie usługi.
Karol Kij W Atende usługi cyberbezpieczeństwa obsługuje dedykowany zespół handlowy, odrębny od działu integracji, ponieważ sprzedaż usług znaczą-
październik 2025 / CRN / 21
co różni się od sprzedaży pojedynczych rozwiązań. To nie jest transakcja jednorazowa – kluczowe znaczenie ma tu długoterminowość współpracy. W modelu MSSP, w którym działamy, podejście różni się od klasycznego MSP, gdzie obowiązuje prosty abonament miesięczny, umowa bezterminowa i krótki okres wypowiedzenia. W przypadku usług bezpieczeństwa bardzo rzadko spotykamy się jednak z klientem, który proponowałby podpisanie umowy bezterminowej. Na tym etapie większość klientów wciąż bada rynek i woli zacząć od rocznej umowy, traktując ten czas jako próbę, czy taki model w ogóle się sprawdzi. My z kolei staramy się, by umowy były dłuższe. Wdrożenie naszego podejścia do SOC-u i monitoringu 24/7 wyma-
ga czasu, a pierwszy rok to de facto dopiero etap dogłębnego poznania infrastruktury klienta. Dlatego również miesięczny okres wypowiedzenia nie jest dobrym rozwiązaniem dla klienta. Przy takiej konstrukcji nie da się zapewnić stabilności i ciągłości działania mechanizmów bezpieczeństwa.
Podsumowując naszą dyskusję, czy są szanse na szybszy rozwój modelu usługowego na naszym rynku? Krzysztof Hałgas Przemawia za tym struktura rynku. Jeśli wyobrazimy sobie cały rynek bezpieczeństwa jako piramidę, to sektor enterprise jest na samej górze. Obecnie stanowi on trzydzieści procent całego rynku, ale za dziesięć lat to pewnie będzie 15 albo 10 procent. Dynamicznie



JEŻELI KTOŚ LICZY, ŻE RYNEK USŁUG CYBERBEZPIECZEŃSTWA RUSZY Z KOPYTA, PONIEWAŻ
DZIESIĄTKI TYSIĘCY PODMIOTÓW ZOSTANIE OBJĘTYCH KOLEJNYMI REGULACJAMI, TO MOŻE SIĘ ROZCZAROWAĆ.
Adam Danieluk
rośnie bowiem rynek średnich i małych przedsiębiorstw, które wcześniej, a mówimy o firmach 10-, 50- czy 100-osobowych, nie miały żadnych zabezpieczeń. I to jest właśnie ta grupa, która powoli wchodzi w obszar kolejnych regulacji i już staje się potencjalnym klientem dla usług cyberbezpieczeństwa. I tak to powinno wyglądać, ale paradoksalnie firmy z grupy tworzącej w tym momencie większość polskiego rynku IT wciąż wolą kupić sobie punktowo antywirusa, jakiegoś UTM-a czy firewalla czy cokolwiek innego, o czym do końca nie mają pojęcia. Wolą nawet nie wykorzystywać pełni możliwości kupionych rozwiązań, niż zamówić usługę od kogoś, kto już zdobył odpowiednie kompetencje i jest w stanie skutecznie pokryć całość obszaru, który należy zabezpieczyć. Z czasem jednak podejście klientów biznesowych zacznie się zmieniać, przechylając szalę zamówień właśnie na stronę usług.
Paweł Jurek Zgoda, ale nie łudzę się co do szybkiego sukcesu modelu usługowego. Jeżeli klienci wciąż chcą rozwiązań, to resellerzy im je oferują i to jest nadal znakomita większość naszego biznesu. Jednocześnie w przypadku rozwiązań ESET równolegle wychodzimy też do rynku z ofertą abonamentową i mówimy partnerom: słuchajcie, to jest model „pay as you go”, w którym jak macie zero klientów, to macie też zero kosztów zakupu tych rozwiązań. A jak zdobędziecie pierwszego klienta, wystawicie mu fakturę i my wam też wystawimy fakturę, więc nie ma żadnego ryzyka na wejściu. Wtedy partnerzy zaczynają kalkulować, jakie będą mieć rabaty, jak to w ogóle będzie funkcjonowało, czy wygrają z innymi partnerami? I dopiero wtedy zaczynamy uczyć takiego partnera modelu MSP, pokazując jak może stworzyć dla klientów swój autorski pakiet usług, którym się wyróżni. I widzę, że to coraz częściej działa i resellerzy zaczynają ruszać do małych oraz średnich przedsiębiorstw i rozmawiać z nimi w duchu wciąż przewijającego się w naszej rozmowie NIS 2. n

Ewolucja mechanizmów prowadzenia ataków ransomware spowodowała, że klasyczne zabezpieczenia przestały być wystarczające, a kluczowe stało się wielowarstwowe podejście, przy którym swoją rolę do odegrania mają także pamięci masowe.
Automatyzacja ataków ransomware oraz popularyzacja modelu „Ransomware as a Service” sprawiły, że ryzyko powodzenia zmasowanej kampanii przeciwko firmowym danym znacznie wzrosło. Dodatkowo, rozwój sztucznej inteligencji zwiększa skuteczność i szybkość takich ataków, a obok szyfrowania danych coraz częściej dokonywana jest też ich kradzież oraz szantaż publikacją poufnych informacji. W tej sytuacji mechanizmy ochronne dla danych należy wprowadzać w każdym możliwym miejscu infrastruktury IT, w którym są one przechowywane i przetwarzane. W filozofię takiej warstwowej obrony, zapewniającej realną szansę na utrzymanie ciągłości biznesowej i ochronę reputacji, wpisuje się całość rozwiązań oferowanych przez firmę NetApp. Łączy ona funkcje instalowanego w swoich macierzach dyskowych systemu operacyjnego ONTAP,
Bartłomiej Matysiak
NetApp System Engineer, Alef
Z
narzędzia chmurowe, usługi doradcze oraz mechanizmy integracji z zewnętrznymi systemami bezpieczeństwa. Dzięki temu przedsiębiorstwa zyskują możliwość wykrywania ataków w czasie rzeczywistym, ochrony kopii danych przed modyfikacją oraz szybkiego i bezpiecznego odzyskiwania kluczowych zasobów.
Jednym z fundamentów ochrony danych zapewnianej przez NetApp jest mechanizm tworzenia kopii migawkowych (Snapshot). Zwiększenie poziomu bezpieczeństwa umożliwia także gwarantująca możliwość ustawienia retencji na snapshotach funkcja SnapShot Lock, która jest rozwinięciem technologii WORM.
W obszarze wykrywania zagrożeń kluczową rolę odgrywa FPolicy – mechanizm kontroli dostępu do plików, który pozwala wdrażać zasadę Zero Trust. FPolicy może działać zarówno lokalnie, jak i we współ-




zaawansowanych rozwiązań NetApp korzysta w Polsce wiele przedsiębiorstw i instytucji publicznych, które zyskały dzięki nim realną dodatkową ochronę przed ransomware oraz możliwość szybkiego odzyskiwania danych. Jako dystrybutor NetApp zapraszamy do współpracy partnerów, którym zapewniamy wsparcie przy realizacji wdrożeń.

Marcin Połatyński




inżynier systemowy ds. pamięci masowych i backupu, Levelite
N etApp, jako doświadczony dostawca rozwiązań do przechowywania danych i zarządzania nimi, znajduje się w wyjątkowej pozycji, aby oferować skuteczną obronę przed atakami ransomware, która pozwoli firmom szybko wznowić działalność po wystąpieniu incydentu. Integracja mechanizmów ochronnych bezpośrednio w systemie ONTAP pozwoliła stworzyć funkcje służące zarówno prewencji przeciwko atakom, jak i wykrywaniu zagrożeń oraz odtwarzaniu danych po ewentualnym ataku. Sprawia to, że zasięg nawet najbardziej złożonych ataków można ograniczyć, a ich skutki zminimalizować.
pracy z zewnętrznymi systemami SIEM, UBA, EDR analizującymi anomalie w zachowaniach użytkowników. To sprawia, że ataki, które wykorzystują przejęte konta czy nietypowe wzorce dostępu, mogą zostać zatrzymane na wczesnym etapie.
Ochrona w czasie rzeczywistym
Niedawno do systemu ONTAP wbudowany został mechanizm uczenia maszynowego Autonomous Ransomware Protection (ARP). Analizuje on entropię danych oraz aktywność wolumenów, wykrywając nietypowe wzorce szyfrowania z dokładnością przekraczającą 99 proc. W momencie wykrycia podejrzanej aktywności system automatycznie tworzy kopię migawkową, aby zapewnić punkt odzyskiwania jak najbliższy chwili ataku. Co istotne, rozwiązanie to działa w czasie rzeczywistym i nie generuje fałszywych alarmów, co zostało potwierdzone niezależnymi testami.
NetApp rozszerzył ochronę także na środowiska chmurowe dzięki narzędziom Cloud Insights i Cloud Secure. Monitorują one wzorce dostępu do danych, identyfikują zagrożenia oraz, w razie potrzeby, automatycznie blokują konta lub tworzą kopie bezpieczeństwa.
NetApp wspiera także klientów poprzez usługę Ransomware Protection and Recovery Service. Obejmuje ona ocenę ryzyka, konfigurację narzędzi, całodobowe monitorowanie oraz regularne testy odtwarzania danych. Dzięki temu firmy mogą mieć pewność, że w razie incydentu ich plan odzyskiwania działa i pozwala wznowić działalność w krótkim czasie.
Jednym z dystrybutorów rozwiązań
NetApp w Polsce jest firma Alef.



wirtualizację
Rynek wirtualizacji wchodzi w nową fazę, która stanowi dla integratorów szansę na nowe otwarcie.
Przejęcie VMware przez Broadcom spowodowało falę niepokoju wśród klientów i resellerów. Ceny tradycyjnej wirtualizacji wzrosły drastycznie, zmieniono warunki licencyjne. Klienci boleśnie odczuli problem vendor lock-in, uzależnienia się od jednego dostawcy i jego polityki cenowej. Jednak dla partnerów handlowych kryzys ten to idealny moment, by zaproponować klientom nowoczesną, otwartą i oszczędną alternatywę: wirtualizację cloud-native opartą na rozwiązaniach SUSE.
Problem: kosztowny „vendor lock-in” i kres tradycyjnej wirtualizacji Decyzje Broadcomu boleśnie obnażyły słabość tradycyjnego modelu IT opartego na jednym, zamkniętym dostawcy. Klienci, przez lata inwestujący w ekosystem VMware, z dnia na dzień stanęli przed ultimatum: albo zaakceptują nawet kilkusetprocentowe podwyżki, albo muszą szukać alternatywy. Frustracja jest tak duża, że doprowadziła do głośnych postępowań sądowych, jak to zainicjowane przez Europejskie Stowarzyszenie Dostawców Usług Chmurowych (CISPE).
Jednak problem sięga głębiej niż tylko polityka cenowa. Tradycyjna wirtualizacja, choć rewolucyjna dekadę temu, osiągnęła pułap swoich możliwości. Jest złożona, kosztowna w utrzymaniu i nieprzystosowana do dynamiki nowoczesnych aplikacji. Przyszłość należy do rozwiązań cloud-native, które oferują te same korzyści co konteneryzacja: elastyczność, błyskawiczną skalowalność i optymalne wykorzystanie zasobów.
Rozwiązanie: nowoczesna platforma SUSE Virtualization dla wirtualizacji i kontenerów
Jak pomóc klientom uciec z pułapki i jednocześnie zmodernizować ich infrastrukturę? Odpowiedzią jest SUSE Virtualization – platforma wirtualizacyjna nowej generacji zbudowana na open source (projekt Harvester). Łączy ona świat tradycyjnych maszyn wirtualnych z nowoczesnymi kontenerami. Dostępna jest jako niezależne rozwiązanie HCI (Hyperconverged Infrastructure) oraz w zestawie SUSE Rancher Prime Suite.













SUSE Virtualization: realne korzyści biznesowe
Dzięki ujednoliconemu zarządzaniu VM i kontenerami klient może zarządzać całą swoją infrastrukturą – zarówno starszymi aplikacjami w maszynach wirtualnych, jak i nowymi, opartymi na mikroserwisach – z jednej konsoli. To nic innego, jak koniec z silosami technologicznymi i skomplikowanymi narzędziami. SUSE Virtualization to prostsze zarządzanie, mniejsze ryzyko błędów i oszczędność czasu administratorów. Godna podkreślenia jest przy tym prostota i oszczędność dzięki hiperkonwergencji (HCI). SUSE Virtualization, jako rozwiązanie HCI integruje zasoby obliczeniowe, pamięć masową i sieć w jedną, spójną platformę działającą na standardowym sprzęcie (x86). Dla klienta oznacza to koniec z drogimi, dedykowanymi macierzami i skomplikowaną siecią SAN. Wdrożenie i skalowanie infrastruktury staje się radykalnie prostsze, a całkowity koszt posiadania (TCO) spada nawet o 40 proc. w porównaniu do tradycyjnych rozwiązań. Kolejna istotna cecha to otwartość zamiast vendor lock-in. Fundamentem SUSE Virtualization są technologie open source, takie jak KVM, Longhorn i Kubernetes. Daje to klientom wolność wyboru, elastyczność i pewność, że nie zostaną zakładnikami jednego dostawcy. Inwestują w technologię rozwijaną przez globalną społeczność, a nie w zamknięty kod kontrolowany przez jedną korporację.
Co więcej, klient otrzymuje spójną platformę dla starych i nowych aplikacji. Dzięki integracji SUSE Virtualization z SUSE Rancher Prime klienci mogą utrzymywać starsze systemy na maszynach wirtualnych jednocześnie rozwijając i wdrażając nowe aplikacje w kontenerach na tej samej platformie.
Szansa dla partnerów SUSE
Obecne zamieszanie na rynku to dla partnerów wyjątkowa okazja. Można pomóc klientom nie tylko rozwiązać palący problem z kosztami VMware, ale także wprowadzić ich w świat nowoczesnej, skalowalnej i wydajnej infrastruktury IT. Tym bardziej, że SUSE aktywnie wspiera swoich partnerów oferując im bezpłatne szkolenia techniczne i sprzedażowe, program rezerwacji projektów (deal registration) oraz atrakcyjne ceny specjalne.
Autoryzowanym dystrybutorem rozwiązań SUSE jest Ingram Micro. Zapraszamy do współpracy!
Kontakt dla partnerów:
Radosław Czubaszek, Partner & Distribution Development Manager, SUSE tel. 602-406-294 radoslaw.czubaszek@suse.com

O tym, jaką rolę pełnią dziś dystrybutorzy działający w modelu Value-Added Distribution (VAD), a także jak Infinigate Polska wspiera swoich partnerów, rozmawiamy z Joanną Sadecką, Country Managerem oraz Wojciechem Wojtyłą, Head of Sales w Infinigate Polska.

Rynek bezpieczeństwa IT rozwija się bardzo dynamicznie. Jak polski oddział Infinigate odnajduje się w tej rzeczywistości?
Joanna Sadecka Zdecydowanie wychodzimy poza klasyczny model dystrybucji. Nie jesteśmy tylko dostawcą technologii – jesteśmy partnerem we wzroście. Widzimy, że resellerzy oczekują od VAD-a czegoś więcej niż samego dostępu do produktów: budowania kompetencji technicznych, wspólnego generowania leadów czy wsparcia finansowego. Naszą misją jest budowanie długoterminowych relacji, które realnie pomagają integratorom i partnerom zwiększać sprzedaż oraz wygrywać projekty.
Wojciechu, z Twojej perspektywy, jakie są dziś największe potrzeby partnerów w Polsce?
Wojciech Wojtyła Największym wyzwaniem jest złożoność projektów. Klienci końcowi coraz rzadziej chcą pojedynczych komponentów – oczekują kompletnych, dobrze zaprojektowanych rozwiązań. Partnerzy potrzebują więc nie tylko produktów, ale też praktycznego doradztwa i wsparcia technicznego. Dlatego włączamy się w cały proces: od planowania architektury, przez testy POC, aż po finalne wdrożenie czy nawet finansowanie kontraktów. To odciąża partnerów i pozwala im skupić się na budowaniu relacji z klientami.
Czym wyróżniacie się na tle broadlinerów: lokalnych, regionalnych bądź globalnych
Joanna Sadecka Naszą przewagą jest pełna koncentracja na rozwiązaniach cybersecu-


rity, chmurze i infrastrukturze sieciowej. Broadlinerzy oferują wszystkiego po trochu, podczas gdy my stawiamy na specjalizację i dzięki temu zapewniamy znacznie głębsze wsparcie. Mam tu na myśli między innymi doradztwo pre-sales oraz testy rozwiązań w modelu POC, elastyczne finansowanie projektów, wspólne kampanie lead generation, jak również szkolenia i certyfikacje, które rozwijają kompetencje naszych partnerów.
Czy możecie podać przykład projektu, w których wasze wsparcie okazało się kluczowe?
Wojciech Wojtyła Ostatnio współpracowaliśmy z jednym z naszych partnerów przy dużym przetargu w sektorze publicznym. Wspólnie zaprojektowaliśmy rozwiązanie, przygotowaliśmy POC, wsparliśmy proces ofertowy i częściowo sfinansowaliśmy wdrożenie. Efekt? Partner zdobył kontrakt z bardzo wymagającym klientem. To pokazuje, że nasza rola nie kończy się na dostarczeniu produktów – aktywnie wspieramy sprzedaż oraz rozwój biznesu naszych partnerów.
Jak rozwija się wasze portfolio i strategia współpracy z producentami?
Joanna Sadecka W ostatnich miesiącach dołączyli do nas SonicWall i Entrust, co znacząco wzmocniło nasze kompetencje w obszarze bezpieczeństwa sieciowego i zarządzania tożsamością. Na tym nie poprzestajemy – prowadzimy rozmowy z kolejnymi vendorami i planujemy dalsze rozszerzenia. Co ważne, aktywnie słuchamy naszych partnerów, aby dowiedzieć

się, jakich rozwiązań najbardziej potrzebują dziś ich klienci.
Jak natomiast wygląda wasza codzienna współpraca z resellerami i integratorami?
Wojciech Wojtyła Stawiamy na bliskie, długofalowe relacje. Regularnie spotykamy się z partnerami, analizujemy ich pipeline’y, wspieramy planowanie sprzedaży i prowadzimy wspólne działania marketingowe. Do tego dochodzą programy enablementowe, warsztaty sprzedażowe czy szkolenia techniczne, które pomagają partnerom szybko poszerzać kompetencje. To jeden z powodów, dla których coraz częściej jesteśmy ich partnerem pierwszego wyboru.
Jakie są strategiczne plany Infinigate Polska na najbliższe lata?
Joanna Sadecka Będziemy dalej rozwijać nasze portfolio vendorów i intensywnie inwestować w programy partnerskie – szkolenia, certyfikacje oraz działania marketingowe wspierające generowanie leadów. Nasz cel jest prosty: chcemy być partnerem pierwszego wyboru dla firm, które chcą rosnąć w obszarze IT security i usług chmurowych. Zapraszamy do śledzenia naszego profilu na LinkedIn oraz strony internetowej Infinigate Polska, aby być na bieżąco z nowymi vendorami, wydarzeniami i trendami technologicznymi.
NIE JESTEŚMY TYLKO DYSTRYBUTOREM – JESTEŚMY PARTNEREM WE WZROŚCIE.
Wraz z pieniędzmi z KPO pojawia się szansa, że sektor, który jak żaden inny potrzebuje bezpieczeństwa i ciągłości działania, będzie mógł się wzmocnić. Czy zostanie ona wykorzystana?
Tomasz Janoś
Elektroniczna dokumentacja medyczna, telemedycyna czy diagnostyka oparta na sztucznej inteligencji – tak cyfryzacja rewolucjonizuje opiekę zdrowotną, doprowadzając do poprawy jakości usług dla pacjentów. Z drugiej strony cyfryzacja sprawia, że pojawiają się niebezpieczne zjawiska, takie jak cyberataki. Mogą one powodować przerwy w świadczeniu usług ratujących życie, opóźnienia w pilnych procedurach medycznych czy niekończące się kolejki na oddziałach ratunkowych. Jak pokazują raporty, sektor medyczny pada ofiarą cyberataków częściej niż wiele
W PLACÓWKACH MEDYCZNYCH
BRAKUJE JEDNOLITYCH STANDARDÓW CYFROWYCH ZABEZPIECZEŃ.
innych branż. Według danych Coveware by Veeam najczęściej atakowaną przy użyciu ransomware branżą w pierwszej połowie 2025 r. pozostawały usługi profesjonalne (17 proc.), ale już na drugim miejscu na świecie są placówki ochrony zdrowia (15 proc.). Co gorsza, według raportu IBM już piętnasty rok z rzędu sektor opieki zdrowotnej ma na świecie najwyższe koszty naruszeń wśród wszystkich branż. Jakby tego było mało, naruszenia w opiece zdrowotnej zajmują średnio 279 dni na wykrycie i zneutrali-
Zdaniem integratora

Borys Łącki, LogicalTrust, członek ITCORNER
Wzowanie, a więc o ponad miesiąc dłużej niż wynosi globalna średnia. Tymczasem im dłuższe cykle życia naruszeń, tym poważniejsze kradzieże danych.
Przy czym, choć szczególnie istotne zagrożenie stanowią cyberprzestępcy, to nie tylko oni mogą doprowadzić do groźnych zakłóceń w działalności placówek medycznych. W jaki zatem sposób placówki medyczne powinny minimalizować ryzyka z jednaj strony ataków, a z drugiej – awarii? Przede wszystkim potrzeba do tego budżetów, a te – według rządowych zapowiedzi – są już w zasięgu ręki.
W ramach Krajowego Planu Odbudowy i Zwiększania Odporności (KPO) na cyfryzację placówek ochrony zdrowia przeznaczono sporą kwotę, bo 4,4 miliarda zł. I trzeba te środki wydać do sierpnia 2026 r. Rząd zapewnia, że inwestycje w cyfrową transformację ochrony zdrowia przyniesą szereg konkretnych korzyści zarówno dla pacjentów, jak i personelu medycznego. W celu rozdysponowania tych pieniędzy Ministerstwo Zdrowia ogłosiło nabór do konkursu „Przyspieszenie procesów transformacji cyfrowej ochrony zdrowia poprzez dalszy rozwój usług cyfrowych w ochronie zdrowia”. Wnioski do 15 maja 2025 r. mogły składać podmioty lecznicze zakwalifikowane do tzw. sieci szpitali. Ostatecznie
sektorze medycznym ciągłość działania jest kluczowa. W ustaleniu priorytetów pomoże analiza wpływu na biznes (BIA) dla procesów klinicznych i administracyjnych oraz analiza ryzyka. Należy jasno zdefiniować konkretne parametry przerw w działaniu usług i procesów, przykładowo MTPD, RTO czy RPO, a także pamiętać, aby decyzje podejmować w oparciu o dane, nie zaś intuicję. Przy ograniczonych środkach koncentrujemy się na dwóch celach: zapobieganiu zakłóceniom o wysokim wpływie oraz szybkim przywróceniu usług krytycznych. Kolejny krok to zaplanowanie zmian długofalowych. Warto w tym celu wykorzystać sprawdzone metodyki, w tym normy ISO/IEC czy rekomendacje organizacji NIST.
do konkursu zgłoszono blisko 500 wniosków, a jego rozstrzygnięcie planowane jest niebawem.
Założenia konkursu obejmowały miedzy innymi szybszą diagnozę i leczenie pacjentów. Ma się to odbywać dzięki łatwiejszemu dostępowi do dokumentacji medycznej oraz swobodnej wymianie informacji między placówkami i lekarzami różnych specjalności. Postawiono także na rozszerzenie i zintegrowanie Elektronicznej Dokumentacji Medycznej (EDM), co ma z kolei ułatwić pacjentom i lekarzom dostęp do e-wyników badań, planów leczenia onkologicznego, kart diagnostyki oraz innych dokumentów medycznych. Inwestycje mają dać ułatwiony dostęp do wyników badań poprzez zredukowanie lub całkowite wyeliminowanie dokumentacji papierowej. Co oznaczałoby nie tylko mniejsze ryzyko utraty ważnych dokumentów, ale także wygodę pacjentów i lekarzy.
Zgodnie z ostatnimi trendami ważne ma być także wsparcie sztucznej inteligencji. Wdrożenie certyfikowanych narzędzi AI ma pomóc lekarzom w podejmowaniu decyzji i umożliwiać im szybsze stawianie diagnoz. Zgodnie z założeniem tego rodzaju rozwiązania stworzone za pieniądze z KPO odciążą personel medyczny, który będzie miał więcej czasu na indywidualną opiekę nad pacjentami.
Wreszcie, pieniądze z KPO mają zwiększyć poziom cyberbezpieczeństwa. W tym przypadku inwestycje mają zapewnić wyższy poziom ochrony danych pacjentów, co jest kluczowe w dobie rosnących zagrożeń w sieci. Ta akurat kwestia jest jednym z najpoważniejszych wyzwań w ochronie zdrowia, bo chociaż placówki medyczne dysponują danymi ogromnej liczby pacjentów, to do dziś nie ma tam przyjętych jednolitych standardów cyfrowych zabezpieczeń.
Medycyna na wojnie z cyberprzestępcami
We wzmacnianiu cyberbezpieczeństwa istotną kwestią jest między innymi bezpieczeństwo aplikacji używanych przez placówki medyczne. A z tym nie było dotąd za dobrze. Do takiego wniosku skłaniać może sytuacja opisana w zeszłym roku przez „Dziennik Gazetę Prawną”. Z publikacji wynika, że dane około 10 mln pacjentów przez lata były narażone na kradzież z aplikacji używanych przez apteki i lekarzy. I nie ma gwarancji, że nie wyciekły.
„Z programów, których lekarze używają do obsługi wizyt, można było wydobyć dostęp do dokumentacji medycznej pacjentów i ich danych osobowych (w tym adresowych i kontaktowych), a także uzyskać dostęp do systemu e-WUŚ NFZ. Za jego
pomocą przestępca mógłby wystawiać refundowane recepty, skierowania czy zwolnienia lekarskie” – czytamy w DGP. Gazeta alarmowała, że skala ujawnionych nieprawidłowości jest ogromna, bo dotyczy kilkunastu tysięcy przychodni, gabinetów lekarskich, stomatologicznych i aptek.
Błąd mieli popełnić przede wszystkim producenci oprogramowania gabinetowego. Dostęp do bazy danych pacjentów odbywał się w ich aplikacjach przy użyciu zakodowanego na stałe hasła, które było zaszyte w kodzie oprogramowania. Dzięki zgłoszeniu sygnalisty udało się załatać tę lukę, ale liczba wykrywanych podatności wciąż rośnie.
Jak informuje CSIRT CeZ (Cyber Security Incident Response Team) pierwszy kwartał 2025 r. przyniósł niepokojący wzrost niebezpiecznych incydentów w sektorze ochrony zdrowia. Już w ciągu pierwszych trzech miesięcy tego roku zgłoszono więcej ataków niż w całym 2023 r. Skala zagrożeń i ich dynamika pokazują, jak poważne wyzwania stoją przed jednostkami medycznymi oraz jak istotna jest rola szybkiego reagowania i prewencji.
Wśród najczęściej rejestrowanych przez CSIRT CeZ incydentów dominowały właśnie podatne na atak usługi – odnotowano aż 150 przypadków ujawnionych luk w zabezpieczeniach. Doszło także do 130 incydentów związanych z próbami wyłudzeń i socjotechniką oraz 60 przypadków infekcji szkodliwym oprogramowaniem.
Do ujawnionych przypadków należy ten z czerwca br., kiedy ofiarą ataku padła Poznańska Pracownia Patomorfologii i Cytologii Paweł Kurzawa. Przestępcy włamali się do systemu informatycznego, szyfrując dane i żądając okupu. Cyberatak dotyczył plików zawierających wyniki badań i pojawiło się ryzyko wycieku wrażliwych danych. Z kolei w marcu tego roku celem był szpital MSWiA w Krakowie (niedawno opisaliśmy ten incydent w artykule „Atak hakerski na szpital MSWiA okiem pacjenta”, CRN Polska, nr 5/2025). Jeszcze wcześniej zaatakowano ALAB Laboratoria. Przy czym niepokoić może to, że według danych CSIRT CeZ w ciągu trzech lat liczba incydentów cyberbezpieczeństwa w krajowych podmiotach ochrony zdrowia wzrosła aż 4-krotnie – w roku 2022 było ich 251, a w 2024 już 1028.
Zdolność operacyjna musi być zachowana
Jednakże bezpieczeństwo placówek ochrony zdrowia, a tym samym ich pacjentów, to nie tylko ochrona przed cyberprzestępcami. To przede wszystkim zapewnienie ciągłości ich działania bez względu na przyczynę zakłóceń. Także awaria zasilania,
W CIĄGU
TRZECH MIESIĘCY TEGO ROKU ZGŁOSZONO WIĘCEJ ATAKÓW NIŻ W CAŁYM 2023 R.


zupełnie niezwiązana z atakiem ransomware, może mieć podobny do niego skutek. Dlatego minimalizacja ryzyka w obszarze działania placówek ochrony zdrowia wymaga zintegrowanego podejścia, obejmującego zarówno warstwę energetyczną, jak i cyfrową. Po stronie infrastruktury elektrycznej kluczowe są rozwiązania zapewniające stabilne i niezawodne zasilanie – od nowoczesnych systemów UPS, przez automatykę średniego napięcia, aż po redundantne linie zasilania. – Takie systemy gwarantują, że nawet przy zakłóceniach w sieci publicznej szpital nie traci zdolności operacyjnych. Dodatkowym zabezpieczeniem są mikrosieci i lokalne źródła energii, w tym magazyny BESS czy ogniwa paliwowe PEMFC, które pozwalają placówce działać autonomicznie przez dłuższy czas. W wielu szpitalach coraz większego znaczenia nabiera także integracja odnawialnych źródeł energii, która obniża koszty, a jednocześnie zwiększa odporność na wahania w sieci – mówi Milena Zaręba, Business Development Specialist w Schneider Electric.
Równie istotna jest warstwa cyfrowa. Dzięki cyfryzacji infrastruktury medycznej możliwe jest nie tylko monitorowanie zasilania i systemów chłodzenia w czasie rzeczywistym, ale także predykcyjne utrzymanie ruchu – czyli identyfikowanie symptomów awarii, zanim jeszcze do nich dojdzie.
– Platformy zarządzania energią i chłodzeniem dają personelowi technicznemu pełną widoczność kluczowych zasobów, a cyfrowe bliźniaki umożliwiają testowanie różnych scenariuszy i przygotowanie planów działania w przypadku incydentów. To oznacza, że administratorzy są w stanie lepiej przewidywać zagrożenia i reagować natychmiast, zanim przekształcą się one w kryzys – uważa Milena Zaręba.
Zabezpieczenie zasilania jako projekt W ochronie zdrowia systemy zasilania awaryjnego nie są jedynie elementem wsparcia technicznego, ale częścią krytycznej infrastruktury. Od ich niezawodności zależy bezpieczeństwo pacjentów, skuteczność procedur medycznych oraz ciągłość pracy systemów IT. Szczególne znaczenie, jakie ma ciągłość działania placówek ochrony zdrowia , to sygnał dla resellerów i integratorów IT , że należy podchodzić do tego sektora w sposób projektowy, a nie wyłącznie produktowy.
– W praktyce warto działać według kilku kroków. Pierwszym byłaby analiza potrzeb, czyli wspólne z klientem określenie priorytetów, a więc które systemy muszą być zabezpieczone w pierwszej kolejności i jak






Janetta Sałek, dyrektor marketingu, członek zarządu, Ever
WComawianym sektorze szczególną rolę odgrywają trójfazowe zasilacze UPS klasy online, zdolne do eliminacji zakłóceń sieciowych, pracy w układach redundantnych i pełnej integracji z agregatami prądotwórczymi. Każda jednostka medyczna ma odmienny profil potrzeb – oddziały intensywnej terapii wymagają zabezpieczenia aparatury podtrzymującej życie, ośrodki onkologiczne pracują na energochłonnych systemach diagnostycznych, a szpitale położnicze muszą gwarantować stabilne środowisko dla delikatnej aparatury neonatologicznej. Z tego względu nie istnieje uniwersalne rozwiązanie – każdy projekt wymaga analizy obciążeń, inwentaryzacji infrastruktury i dostosowania planu serwisowego do rytmu pracy placówki.
yberbezpieczeństwo i ciągłość działania zaczynają się od podstaw, a jedną z nich jest legalne, wspierane środowisko oprogramowania. Wciąż wiele placówek korzysta ze starych systemów, które są bardziej podatne na ataki i mogą powodować ryzyko związane ze zgodnością z regulacjami, takimi jak RODO. Utrzymanie infrastruktury w zgodzie z przepisami i jej bieżąca aktualizacja często jednak stanowi poważne obciążenie dla budżetów szpitali i przychodni. Takim obciążeniem nie będą rozwiązania oparte na rynku oprogramowania wtórnego, gdzie licencje wieczyste są legalnie redystrybuowane – w pełni uznane przez






prawo unijne. Dzięki temu placówki mogą korzystać z bezpiecznych i aktualnych rozwiązań za ułamek pierwotnej ceny, wzmacniając swoje środowisko IT bez nadwyrężania budżetu.






Remigiusz Kaczewski, Business Development Manager, Jarltech
OZile informatycy w placówkach medycznych dbają o ochronę na poziomie sieciowym, korzystając z zabezpieczeń wbudowanych przez producentów switchy, routerów, firewalli i innych tego typu rozwiązań, o tyle bardzo często zapominają o odpowiedniej ochronie urządzeń mobilnych wykorzystywanych chociażby do identyfikacji pacjentów. Smartfon, terminal lub tablet odłożone w ogólnie dostępnym miejscu mogą być dziś w prosty sposób zainfekowane przez znającego się na swojej pracy hakera. Na szczęście producenci tych urządzeń przychodzą z pomocą, przygotowując zabezpieczenia, które mogą z jednej strony zabezpieczyć takie urządzenie przed nieuprawnionym dostępem, z drugiej strony zapewnić ciągłość działania placówki, między innymi w przypadku kradzieży takiego urządzenia.
naszego doświadczenia wynika, że tylko kompleksowe podejście – łączące niezawodne zasilanie, cyfryzację i automatyzację procesów oraz kulturę bezpieczeństwa – daje placówkom medycznym realną odporność na rosnące zagrożenia i gwarantuje pacjentom dostęp do bezpiecznej opieki. Nie można zapominać o aspekcie ludzkim. Nawet najlepsze technologie nie spełnią swojej roli, jeśli personel nie będzie przygotowany. Dlatego ważnym elementem strategii bezpieczeństwa jest edukacja zespołów szpitalnych – w zakresie obsługi systemów energetycznych i procedur reagowania na cyberataki czy zakłócenia w pracy infrastruktury. Milena Zaręba, Business Development Specialist, Schneider Electric

Schneider Electric zdobył certyfikat Channel Master 2025
długo mają pracować w trybie awaryjnym. Następnym krokiem jest dobór architektury i decyzja, czy wystarczy pojedynczy UPS, czy konieczne jest rozwiązanie redundantne lub modułowe. Potem jest integracja, czyli zapewnienie współpracy UPS z agregatem i systemem IT, tak aby obsługa była prosta dla personelu medycznego. Ostatnim etapem jest plan serwisowy, polegający na ustaleniu harmonogramu przeglądów i testów, co minimalizuje ryzyko przestojów – tłu-
maczy Janetta Sałek, dyrektor marketingu i członek zarządu Ever.
Dostawcy zasilania gwarantowanego przekonują, że integratorzy, którzy nauczą się łączyć kompetencje IT z wiedzą o zasilaniu gwarantowanym, będą w stanie obsługiwać coraz bardziej złożone projekty – a tym samym zdobywać przewagę konkurencyjną w jednym z najbardziej perspektywicznych, ale i wymagających sektorów rynku, jakim jest ochrona zdrowia. n
W tym roku dofinansowania i technologie UPS EVER będą zmieniać oblicze bezpieczeństwa energetycznego placówek medycznych.
Cyfryzacja sektora medycznego w Polsce wchodzi w nową fazę. Rok 2025 to czas, gdy placówki ochrony zdrowia mogą sięgnąć po znaczące środki z programów krajowych i unijnych, przeznaczonych na modernizację infrastruktury IT, cyfryzację procesów i podnoszenie jakości opieki nad pacjentem (patrz: ramka obok). Wśród obszarów priorytetowych znajduje się cyberbezpieczeństwo, a także digitalizacja dokumentacji oraz nowoczesne systemy diagnostyczne i serwerowe. Jednak równie istotnym elementem, często pomijanym w pierwszych kalkulacjach, jest zapewnienie niezawodnego zasilania awaryjnego. Bez niego nawet najlepsze systemy informatyczne pozostają narażone na przerwy w pracy i utratę danych.
UPS w medycynie
Rosnące znaczenie IT w medycynie wymusza podejście systemowe do zasilania. Przerwy w dostawie energii skutkują przestojem w pracy i zagrożeniem dla bezpieczeństwa pacjentów. Serwery z danymi medycznymi, urządzenia diagnostyczne, systemy monitorowania czy sieci teleinformatyczne muszą działać nieprzerwanie. Rozwiązania UPS marki EVER są od lat wdrażane w projektach B2B, w tym w placówkach opieki medycznej – począwszy od szpitali powiatowych, przez przychod-
nie specjalistyczne, aż po laboratoria diagnostyczne. Przykłady obejmują zasilanie awaryjne dla systemów rejestracji pacjentów, pracowni obrazowych czy sieci serwerowych w szpitalach wojewódzkich. W każdym przypadku kluczowe było zapewnienie ciągłości pracy urządzeń medycznych i ochrona wrażliwych danych. Doświadczenie zdobyte w sektorze medycznym pozwala EVER-owi oferować rozwiązania, które realnie odpowiadają na potrzeby tej branży – od kompaktowych jednostek jednofazowych po redundantne systemy dla infrastruktury krytycznej.
Dla dystrybutorów i resellerów IT współpraca z polskim producentem UPS-ów stanowi możliwość zaoferowania klientowi kompletnego rozwiązania: sprzętu, oprogramowania i zabezpieczenia energetycznego. EVER wspiera swoich partnerów w kilku obszarach. Pierwszym jest dobór i projektowanie – obejmujący doradztwo techniczne dopasowane do specyfiki placówki medycznej. Kolejna jest integracja z IT – rozwiązania UPS marki EVER są w pełni kompatybilne z systemami monitoringu, serwerowniami i sieciami teleinformatycznymi. Ważny jest serwis i wsparcie techniczne, w ramach którego obowiązują modele współpracy dopaso-
sektora ochrony zdrowia: dostępne programy
W 2025 r. placówki medyczne mogą liczyć na wsparcie finansowe z kilku źródeł. Łącząc dostępne programy z bieżącymi regulacjami NFZ i poprawą finansowania sektora, powstaje realna przestrzeń inwestycyjna. Dla integratorów IT to sygnał, że klienci z rynku medycznego będą aktywnie poszukiwać kompleksowych rozwiązań technologicznych. Kluczowe programy to:
l FEnIKS – dofinansowanie do 100 proc. kosztów, nawet do 20 mln zł na projekt w zakresie opieki psychiatrycznej czy ambulatoryjnej opieki specjalistycznej; planowane nabory w II połowie 2025 r.;
l cyfryzacja szpitali (D1.1.2) – projekty obejmujące wdrażanie AI, rozwój cyberbezpieczeństwa oraz kompleksową digitalizację, z naborem do końca maja 2025 r.;
l granty dla POZ – środki na sprzęt, IT i remonty, których wysokość uzależniona jest od liczby obsługiwanych pacjentów (300–600 tys. zł);
l program „Dostępność Plus dla AOS” – granty od 150 tys. do 900 tys. zł na modernizację i cyfryzację przestrzeni medycznych, z pierwszym naborem od lipca 2025 r.

UPS EVER POWERLINE GREEN 33 Pro często trafia do placówek ochrony zdrowia. Dzięki trójfazowej konstrukcji i wysokiej sprawności energetycznej zapewnia niezawodne podtrzymanie pracy serwerowni, systemów diagnostycznych oraz urządzeń medycznych, co czyni go naturalnym wyborem w projektach modernizacji i cyfryzacji szpitali i przychodni.
wane do wymagań projektów medycznych, z krótkimi czasami reakcji. Producent gwarantuje też dostęp do materiałów sprzedażowych i wdrożeniowych – narzędzi, które reseller może wykorzystać w komunikacji z klientem końcowym, szczególnie w kontekście finansowania z grantów.
Z perspektywy czytelników CRN Polska – dystrybutorów, integratorów i resellerów – rok 2025 to nie tylko okres zwiększonego finansowania sektora ochrony zdrowia, ale też okazja do budowania długofalowych relacji biznesowych. Klient medyczny, który otrzyma kompleksowe wsparcie w pozyskaniu środków, wdrożeniu systemów IT i zabezpieczeniu ich zasilania, prawdopodobnie zostanie partnerem na kolejne lata. Dlatego warto monitorować harmonogramy naborów, przygotować ofertę „IT + UPS” oraz korzystać ze wsparcia producentów takich jak EVER, którzy mają doświadczenie w realizacji projektów dla sektora medycznego.
Połączenie funduszy unijnych i krajowych z nowoczesnymi technologiami daje sektorowi ochrony zdrowia szansę na skokowy rozwój. Resellerzy i integratorzy, którzy odpowiednio wcześnie przygotują ofertę, mogą odegrać kluczową rolę w procesie modernizacji. Włączenie do projektów rozwiązań UPS EVER – sprawdzonych w polskich placówkach medycznych – to nie tylko kwestia techniczna, ale głównie biznesowa: gwarancja ciągłości działania i przewaga konkurencyjna dla dostawcy IT.
Wizja w pełni zelektryfikowanego szpitala to nie tylko całkowite przejście na energię elektryczną. Chodzi o zmianę sposobu, w jaki działają placówki medyczne, poprzez stworzenie inteligentnych, zrównoważonych i bardziej przyjaznych przestrzeni zarówno dla pacjentów, jak i personelu.
Szpitale należą do jednych z najbardziej energochłonnych obiektów i dzieje się tak nie bez powodu. W celu zapewnienia pacjentom bezpieczeństwa i komfortu działają w trybie 24/7, w ykorzystując zaawansowany sprzęt, a ich funkcjonowanie wymaga ściśle kontrolowanych warunków. Tym bardziej że zapotrzebowanie na energię obejmuje wiele obszarów jednocześnie – od systemów HVAC, przez oświetlenie, po procesy sterylizacji – które sumują się, zwiększając całkowite obciążenie energetyczne. A zatem, choć postęp w zakresie rozwoju sprzętu medycznego, robotyki i cyfryzacji poprawia jakość opieki nad pacjentami, to zwiększa też zużycie energii. To z kolei mocno obciąża budżety operacyjne i cele związane ze zrównoważonym rozwojem. Zwłaszcza, że koszty energii niezmiennie rosną, przy czym blisko 89 proc. energii w globalnym sektorze ochrony zdrowia pochodzi z paliw kopalnych (dane International Energy Agency).
SEKTOR OCHRONY
ZDROWIA PRZECHODZI
GŁĘBOKĄ TRANSFORMACJĘ.
Wyobraźmy sobie szpital, w którym każdy aspekt funkcjonowania – od oświetlenia po sprzęt ratujący życie – zasilany jest czystą, odnawialną energią. Taka wizja to szpital „all-electric”, czyli rewolucyjny, w pełni zelektryfikowany obiekt, którego celem jest ograniczenie emisji dwutlenku węgla, poprawa efektywności energetycznej oraz stworzenie bezpieczniejszego środowiska dla pacjentów i personelu.
Koncepcja w pełni zelektryfikowanego szpitala, opracowana przez specjalistów Schneider Electric, to nie tylko całkowite przejście na energię elektryczną. Chodzi o przeobrażenie sposobu, w jaki działają szpitale – stworzenie inteligentnych, zrównoważonych i bardziej przyjaznych przestrzeni zarówno dla pacjentów, jak i personelu. U podstaw takiej transformacji leżą cztery kluczowe idee: elektryfikacja, cyfryzacja, integracja i automatyzacja.
Elektryfikacja stanowi punkt wyjścia transformacji. Oznacza przy tym zastępowanie systemów opartych na paliwach kopalnych, takich jak kotły gazowe czy generatory diesla, elektrycznymi alternatywami, które są bardziej wydajne i zrównoważone. Takie rozwiązania to: elektryczne systemy i pompy ciepła, elektryczne kuchnie i sprzęt do sterylizacji, stacje ładowania pojazdów elektrycznych dla karetek i personelu, a także panele fotowoltaiczne i magazyny energii na miejscu. Te ostatnie pełnią kluczową rolę w zapewnieniu ciągłości działania szpitala – w razie przerw w dostawach prądu pozwalają natychmiastowo przejąć zasilanie krytycznych systemów medycznych i infrastruktury. Dzięki nim placówka może działać nieprzer wanie, niezależnie od wahań w sieci, a pacjenci i personel zyskują gwarancję bezpieczeństwa. Co ważne, elektryfikacja to nie tylko wymiana sprzętu – to budowanie infrastruktury gotowej na przyszłość, odpornej, elastycznej i zdolnej do wspierania nowych technologii w miarę ich pojawiania się.

Cyfryzacja: inteligentniejsze systemy, lepsze decyzje
Dzięki narzędziom cyfrowym w pełni zelektryfikowany szpital zyskuje swoistą inteligencję – dane zbierane w czasie rzeczywistym przekładają się tu na konkretne działania. Czujniki IoT monitorują zużycie energii, stan sprzętu i jakość powietrza, wspierając lepszą konserwację i komfort pacjentów. Z kolei cyfrowe bliźniaki pozwalają testować zmiany przed ich wdrożeniem, zmniejszając potencjalne ryzyka i poprawiając planowanie. I wreszcie platformy chmurowe zapewniają scentralizowany wgląd w zużycie energii, stan sprzętu i potrzeby konserwacyjne. Efekt może być porównany do „dania” szpitalowi cyfrowego układu nerwowego, który czuje, myśli oraz reaguje.

Integracja, czyli burzenie silosów
Szpitale to złożone środowiska, w których systemy często działają w oderwaniu od siebie. Integracja zmienia to, łącząc zarządzanie energią, opieką kliniczną i infrastrukturą w jeden reagujący ekosystem. W efekcie szpital działa płynniej i komunikuje się skuteczniej. W tej koncepcji inteligentne czujniki wykrywają duże zagęszczenie ludzi lub rosnący hałas i automatycznie powiadamiają personel. Ponadto zespoły kliniczne mogą monitorować kluczowe systemy, takie jak zasilanie bezprzerwowe czy kontrola izolacji, w czasie rzeczywistym. Jednak integracja to nie tylko to, co dzieje się „na zapleczu” – zmienia też doświadczenie pacjentów. Przykładowo, w pilotażu stworzonym we współ-
pracy ze Schneider Electric brytyjski Nottingham University Hospitals NHS Trust testuje technologię inteligentnych sal, która pozwala pacjentom sterować oświetleniem, temperaturą i roletami bezpośrednio z łóżka. Zwiększa to niezależność pacjentów i odciąża personel. Jednym z przykładów praktycznej realizacji wizji Schneider Electric jest brytyjski National Rehabilitation Centre (NRC) – pierwszy w UK szpital o zerowej emisji netto. Dzięki w pełni elektrycznym systemom, panelom solarnym i inteligentnej automatyzacji ta placówka pokazuje, jak integracja może uczynić szpitale bardziej zrównoważonymi, wydajnymi i przyjaznymi dla wszystkich.
Automatyzacja: więcej czasu dla pacjentów, mniej na procesy
Współczesna automatyzacja idzie o krok dalej, wykorzystując dane w czasie rzeczywistym i ustalone reguły do podejmowania decyzji bez udziału człowieka. W efekcie przerwy w dostawie prądu przestają być sytuacją kryzysową – gdy sieć zawodzi, energia natychmiast kierowana jest do oddziałów intensywnej opieki, zapewniając ciągłe działanie sprzętu ratującego życie. Co więcej, wypis pacjenta uruchamia automatyczną sekwencję – system dostosowuje oświetlenie i HVAC, a także powiadamia personel sprzątający, co przyspiesza rotację łóżek i poprawia przepływ pacjentów. Co ważne, awarii sprzętu nie da się przeoczyć – przykładowo, gdy pompa chłodnicza ulega uszkodzeniu, system wykrywa problem, rejestruje go i automatycznie wysyła zgłoszenie do zespołu technicznego. Należy podkreślić, że dzięki sztucznej inteligencji (AI) systemy te stale się uczą, stają się mądrzejsze i bardziej wydajne z każdą podjętą decyzją.
Kluczem jest sprawdzone partnerstwo
W pełni zelektryfikowany szpital nie jest zatem jakąś odległą ideą — to realna droga do większej odporności, efektywności, zrównoważonego rozwoju i lepszej opieki nad pacjentami. Jednak aby to osiągnąć, potrzebne są staranne planowanie, długoterminowe zobowiązania i silne partnerstwa. Dzięki współpracy z dostawcami, decydentami, ekspertami technologicznymi, projektantami i operatorami sieci można działać szybciej i skuteczniej.
Po kilku dekadach doświadczeń we wspieraniu blisko 6500 organizacji ochrony zdrowia w ponad 50 krajach, Schneider Electric może z dumą uważać się za ich zaufanego partnera. Zapewnia
im głęboką wiedzę w sektorze ochrony zdrowia, opartą na globalnym portfolio projektów, od lokalnych klinik po duże kampusy medyczne. Dysponuje wiedzą interdyscyplinarną z zakresu: energii, zasilania, automatyki budynkowej, bezpieczeństwa i IT — z unikalną zdolnością łączenia systemów obiektowych z operacjami klinicznymi, wypełniającą lukę między IT a OT. Producent posiada w portfolio sprawdzone rozwiązania infrastrukturalne „all-electric”, które zastępują systemy oparte na paliwach kopalnych czystymi, wydajnymi i odpornymi alternatywami. Towarzyszy temu potężny ekosystem oprogramowania wspierający cały cykl życia szpitala, od projektowania i budowy po codzienne funkcjonowanie i długoterminową optymalizację.
Wraz z postępem technologicznym w sektorze ochrony zdrowia i rosnącymi wymaganiami w zakresie dekarbonizacji, zyskuje na znaczeniu koncepcja szpitala w pełni zelektryfikowanego. Możliwość tworzenia takich obiektów oznacza fundamentalną zmianę w światowej ochronie zdrowia. Ci, którzy podejmą wyzwanie zaprojektowania takiej placówki, mogą w perspektywie czasu liczyć na oszczędności i większą odporność, przy jednoczesnej realizacji celów zrównoważonego rozwoju. Cyfryzacja i elektryfikacja tworzą środowisko, w którym przetwarzanie danych, automatyzacja, infrastruktura i personel medyczny mogą się rozwijać. A to przekłada się na jak najlepsze doświadczenie pacjenta. Jednak proces ten nie jest czymś, co się kończy, a osiągnięte korzyści wymagają kontynuowania wysiłku. Aby odblokować pełen potencjał, organizacje medyczne muszą stawić czoła złożoności transformacji całej infrastruktury oraz wspierających ją procesów. Schneider Electric współpracuje z organizacjami medycznymi na każdym etapie cyfryzacji i elektryfikacji. Dzięki specjalistycznej wiedzy j i globalnej sieci konsultantów oraz ekspertów ds. rozwiązań pomaga klientom wykorzystywać moc cyfryzacji i elektryfikacji, aby sprostać obecnym wyzwaniom i przygotować się na te, które dopiero nadejdą.
Więcej o w pełni zelektryfikowanych szpitalach zasilanych czystą energią


Wsłużbie zdrowia zaawansowane technologie są ważnym elementem opieki nad pacjentem. Nowe komputery mobilne Zebra HC25/HC55 charakteryzują się łatwością obsługi, trwałą wydajnością i konstrukcją opracowaną specjalnie dla sektora opieki zdrowotnej. Niezależnie od tego, czy chodzi o rejestrowanie parametrów życiowych pacjentów, czy o dostęp techników do szczegółowych harmonogramów urządzeń, komputery mobilne sprostają każdemu zadaniu i sprawią, że Twoi klienci będą gotowi do pracy.



Zebra HC25/HC55
l Komputery mobilne z systemem Android i 5G

l Odporna na dezynfekcję obudowa z tworzywa sztucznego
l Programowalny czerwony przycisk alarmowy
l Bateria 3800 mAh, wyświetlacz 6” FHD+
l Moduł skanujący SE4720, kamera tylna 16 MP
l Certyfikat IP65-/IP68, odporność na uderzenia z wysokości 1,2 m
l HC25: Wi-Fi 6, 6 GB RAM i 64 GB Flash, licencja Zebra
DNA Professional
l HC55: Wi-Fi 6E, 8 GB RAM i 128 GB Flash, licencja Zebra
DNA Enterprise, kamera przednia 5 MP, funkcja hot-swap
Zawsze w kontakcie
Dzięki 5G i Wi-Fi komputery mobilne umożliwiają szybką i niezawodną transmisję danych z niskim opóźnieniem. Zapewnia to zoptymalizowane przepływy pracy w opiece domowej, domach opieki, telemedycynie oraz placówkach medycznych.
Ordynator wśród urządzeń mobilnych
Dzięki mechanizmowi skanującemu SE4720, HC25/HC55 niezawodnie i szybko rejestruje niemal każdy kod kreskowy






Nieustanny towarzysz


1D/2D. Zielony punkt celowniczy zapewnia również przyjazne dla oczu i pacjenta użytkowanie oraz poprawia wydajność i dokładność skanowania.

Dzięki funkcji hot-swap baterię można wymienić podczas pracy bez wpływu na funkcjonalność urządzenia. Dzięki temu nie przegapisz żadnych połączeń ani powiadomień i nie utracisz żadnych danych. To znacząca zaleta, gdy potrzebna jest szybka reakcja.


awaryjnych

Programowalny czerwony przycisk alarmowy można skonfigurować tak, aby w sytuacjach awaryjnych dzwonił pod określony numer lub uruchamiał aplikację. Aby zapobiec fałszywym alarmom, można ustawić sekwencję aktywacji przycisku.
Odkryj produkty Zebra w Jarltech. Więcej informacji na temat kompleksowej oferty rozwiązań firmy Zebra znajdziesz skanując kod QR.
Część raportów branżowych nie powstaje wcale po to, aby opisywać rzeczywistość w obiektywny sposób. Są tworzone, by sprzedawać narrację – zazwyczaj dostosowaną do potrzeb zamawiającego je klienta danej firmy analitycznej.
Podczas opracowywania materiałów do „Vademecum rynku IT” często przeglądam raporty publikowane przez analityków branży. I nie ukrywam, że widzę w nich wiele sprzeczności. Okazuje się, że w czasach, gdy raporty najważniejszych firm badawczych (Gartner, IDC, Forrester, Canalys, McKinsey, Bain, PwC etc.) ukazują się co kilka dni, każdy znajdzie dane potwierdzające dowolną tezę. To prawie jak z czekaniem na zmianę pogody na Islandii. Wystarczy na to zwykle godzina.
Weźmy choćby prognozy dotyczące rozwoju chmury. Gartner, jak co roku, dostarcza jednoznaczny komunikat: w 2025 r. globalne wydatki na usługi chmurowe osiągną poziom 723 mld dol. (wzrost o 21,5 proc.). Wtóruje mu Canalys: hiperskalerzy deklarują wzrost wydatków na chmurę publiczną o 22 proc. Podobne prognozy na lata 2025–2029 przedstawiło ostatnio IDC. Jednocześnie jednak to samo IDC publikuje raport, który pokazuje coś zgoła innego – w Europie Środkowo-Wschodniej ponad 60 proc. firm zwiększa inwestycje w infrastrukturę lokalną, czyli on-premises, tłumacząc to koniecznością spełnienia wymagań prawnych, kontroli kosztów oraz… przejściowym rozczarowaniem usługami w chmurze. Jakie wnioski mamy z tego wyciągnąć? Że chmura rośnie, ale on-premises nie spada? Podobne zderzenia występują przy analizie wykorzystania sztucznej inteligencji. PwC i Accenture zgodnie podkreślają, że AI już teraz znajduje zastosowanie w przynajmniej jednym procesie operacyjnym w 70 proc. firm na świecie. Bain & Company dodaje, że wykorzystanie AI to dziś jeden z kluczowych motorów strategii biznesowej. Problem jednak w tym, że ten sam Bain w innym fragmencie swojego raportu przyznaje, iż… tylko 8 proc. tych wdrożeń osiąga skalowalność i realne, mierzalne korzyści biznesowe. Reszta to eksperymenty, których sukces polega głównie na tym, że wyglądają dobrze na slajdach dla zarządu.
Sytuacja komplikuje się, gdy próbujemy interpretować dane o rynku cyberbezpieczeństwa. Tam odbywa się jedno wielkie straszenie – podobno nieskuteczne długofalowo, jak twierdzą psychologowie, ale z perspektywy dostawcy treści najłatwiejsze (to zresztą temat na odrębny felieton).
Na zjawisko to zwracał w wywiadzie w ubiegłorocznym „Vademecum” Chester Wisniewski, CTO Sophosa, mówiąc o sponsorowanych raportach publikowanych przez agencję badawczą Ponemon Institute, której cechą charakterystyczną jest informowanie o rzekomych wielomilionowych stratach wszystkich ofiar cyfrowego incydentu (i żeby nie było – oczywiście, tak duży stopień szkód ma czasem miejsce, ale przecież nie jest to sytuacja typowa). Brak konsekwencji widać też w dokumentach innych firm. Ra-




port Check Point wskazuje na 78-procentowy wzrost poważnych incydentów w sektorze MŚP w skali roku. W tym samym czasie ENISA publikuje swoje roczne podsumowanie, z którego wynika, że głównym celem ataków pozostają infrastruktura krytyczna, sektor publiczny i podmioty wysokiego ryzyka.
Krytycznie myślący Czytelnik oczywiście szybko dopatrzy się pewnej manipulacji, której dopuściłem się podając powyższe przykłady. Należy bowiem zaakceptować fakt, że tego typu raporty nie są tworzone po to, by opisywać rzeczywistość w obiektywny sposób. Są tworzone, by sprzedawać narrację – zazwyczaj dostosowaną do potrzeb zamawiającego je klienta danej firmy analitycznej. Zawsze zalecam sprawdzenie, czy dany raport był sponsorowany, czy nie, ale nawet w przypadku tych „neutralnych” problem pojawia się wtedy, gdy traktowane są jak mapa, a nie zestaw drogowskazów. Jedna firma zobaczy w tych danych uzasadnienie inwestycji w rozwiązania w chmurze publicznej, a inna powód, by wdrażać nowe serwery. I obie będą miały rację, bo wszystko zależy od kontekstu.
W tej sytuacji warto wyrobić sobie jedną prostą umiejętność czytania raportów nie po to, by poznać prawdę, ale po to, by zrozumieć, kto chce nam ją sprzedać. W bardzo dużym uproszczeniu: Gartner pisze pod duże korporacje, Canalys – pod kanał partnerski, IDC – pod integratorów i rynki wertykalne, a Bain czy PwC – pod zarządy przedsiębiorstw. Gdy już zrozumiemy, do kogo kierowana jest narracja danego dokumentu, łatwiej go ocenić. I nagle okazuje się, że te same dane w różnych raportach znaczą coś zupełnie innego, a dostarczająca je firma nie kłamie, ale po prostu filtruje rzeczywistość według innej matrycy.
Krzysztof Jakubik redaktor prowadzący Vademecum rynku IT oraz dziennikarz CRN Polska
PODEJMOWANIE DECYZJI, ZACZĘŁY SŁUŻYĆ DO ICH UZASADNIANIA.
Dlaczego dotarliśmy do momentu, gdy raporty rynkowe przestały być slajdem aktualnej sytuacji na rynku produktów IT, ale same stały się produktem? Prawdopodobnie dlatego, że zamiast służyć do podejmowania decyzji, zaczęły służyć do ich uzasadniania. A to duża różnica. Taką potrzebę ze strony odbiorców zauważyli zarówno dostawcy rozwiązań, jak i raportów, dlatego zaczęły one pełnić rolę „poduszki włożonej w spodnie”, gdy nagle okaże się, że wdrożony system – mówiąc ogólnie – nie spełnia oczekiwań. W zaistniałych okolicznościach zdrowy sceptycyzm należy więc zacząć traktować nie jako nie wadę, lecz narzędzie przetrwania. I nie chodzi o to, by odrzucać dane – przeciwnie, trzeba je czytać. Z założeniem, że za każdą liczbą stoi kontekst, a za każdą prognozą intencja.

















„W procesie zmiany modelu biznesowego z transakcyjnego na MSP nie warto robić zero-jedynkowej rewolucji. Dużo bardziej efektywna będzie ewolucja w postaci hybrydowego planu sprzedaży” – mówi Artur Cyganek, VP of Distribution w Blackwall.
Kilka lat temu w murach Akademii Leona Koźmińskiego odbierałeś dyplom MBA. Teraz na tej właśnie uczelni będziesz pełnił rolę wykładowcy na nowym kierunku studiów podyplomowych „Akademia Business as a Service”. Jak postrzegasz swoją rolę w tym projekcie?
Artur Cyganek Będę dzielił się ze słuchaczami wiedzą praktyczną dotyczącą transformacji biznesu, którą udało mi się zdobyć w ciągu minionych kilkunastu lat na rynku polskim i wschodnioeuropejskim. Dużą część tego czasu spędziłem na aktywnym udziale w zmianie modelu biznesowego Acronisa na chmurowy. To było wtedy coś kompletnie nowego i wszyscy od zera uczyliśmy się jak to robić, jak o tym rozmawiać, jak się pozycjonować na rynku, jak to sprzedawać… Odbyłem wtedy setki spotkań z resellerami i integratorami na poziomie zarządów czy działów sprzedaży. Nie wszyscy czuli wtedy potrzebę zmian, bo ich biznes działał bez zarzutów. Jednak byli wśród nich tacy, którzy uznali, że choć życie nie zmusza ich wcale do transformacji, to czują, że dzięki niej biznes będzie bardziej stabilny. Z perspektywy czasu widać, że takie firmy na
tym podejściu faktycznie zyskały. Z drugiej strony okazało się, że nie jest to łatwe, bo przy dużej transformacji biznesu występują mocne wewnętrzne blokery. To jeden z obszarów, o którym będę rozmawiać ze słuchaczami Akademii.
Zatrzymajmy się na chwilę przy kwestii blokerów. Jaki jest ten największy? Szefowie firm są zgodni co do tego, że zmian nie chcą głównie sprzedawcy. Nie wystarczy bowiem decyzja szefostwa, że zaczynamy oferować usługi zarządzane. To nie załatwi sprawy, jeśli nie będzie temu towarzyszyć zmiana modelu planowania budżetu, ustawiania określonych planów sprzedażowych, a przede wszystkim sensownych zasad premiowania.
Sensownych, czyli jakich?
Przede wszystkim nie warto robić zero-jedynkowej rewolucji. Dużo bardziej efektywna będzie ewolucja w postaci hybrydowego planu sprzedaży. Krótko mówiąc, zarząd może ustalić, że 5 albo 10 procent przychodów ma w danym okresie pochodzić ze sprzedaży usług zarządzanych. Pozostałe przychody mogą być nadal realizowane w modelu transakcyjnym. Z każdym kolejnym rokiem można te proporcje zmieniać na korzyść usług zarządzanych, a jednocześnie można wprowadzić taki model premiowania sprzedaży, żeby handlowcy dostawali relatywnie wyż-
sze nagrody za sprzedaż usług niż za klasyczne projekty. A wiadomo, że każdy szuka swojej szansy tam, gdzie może więcej zarobić. Z drugiej strony trzeba mieć świadomość, że transformacja do modelu MSP to nie jest kwestia kilku miesięcy, ale co najmniej roku, a raczej dwóch. Wiąże się też ona z koniecznością przygotowania poduszki finansowej na czas przejściowy.
Trzeba też sobie uświadomić, że o ile w modelu transakcyjnym projekt zwykle kończy się w momencie decyzji klienta o zakupie i samym wdrożeniu, o tyle w przypadku MSP wdrożenie to dopiero początek danego projektu… Dlatego, oprócz klasycznego działu sprzedaży, potrzebny nam będzie ktoś na stanowisku Customer Success Managera. Jego zadaniem jest monitorowanie jakości usług i bieżący kontakt z klientem, a więc niejako pilnowanie, żeby ten nie zrezygnował ze świadczonych przez nas usług. Kolejnym, bardzo ważnym zadaniem, jest wyłapywanie kolejnych potrzeb użytkownika, a więc analiza tego, co można mu jeszcze zaproponować i umiejętne wykazanie, że miałoby to dla niego sens biznesowy.
Pomówmy chwilę o korzyściach z jakimi wiąże się działalność w modelu MSP. Oczywistą jest docelowa stabilność czy przewidywalność biznesu

i rentowność wyższa od przeciętnej. Co jeszcze?
BĘDĘ DZIELIŁ SIĘ ZE SŁUCHACZAMI WIEDZĄ PRAKTYCZNĄ DOTYCZĄCĄ TRANSFORMACJI BIZNESU, KTÓRĄ UDAŁO MI SIĘ ZDOBYĆ W CIĄGU MINIONYCH KILKUNASTU LAT.
www.crn.pl
www.crn.pl
To też kwestia wyceny wartości firmy, co będzie mieć znaczenie przede wszystkim dla jej obecnych lub potencjalnych inwestorów. W modelu transakcyjnym odejście najlepszego handlowca z firmy powoduje niemal natychmiastowy spadek jej wartości. Jeśli bowiem nie uda się znaleźć godnego zastępcy w kolejnych kwartałach może nastąpić nawet dwucyfrowy spadek przychodów – z powodu odejścia jednego człowieka. W modelu subskrypcyjnym czy MSP nie ma zagrożenia natychmiastowymi spadkami i dlatego współczynnik wyceny tego rodzaju biznesów zamiast jeden czy półtora wynosi nawet razy osiem! Kolejną korzyścią jest zapewnienie sobie konkurencyjnej pozycji na rynku, dzięki czemu nie trzeba już brać udziału w prymitywnych wojnach cenowych.
facebook.com/crnpolska www.crn.pl
facebook.com/crnpolska
kiego właśnie, kompleksowego rozwiązania. I wtedy firmy, które dostarczają pojedyncze produkty za jak najniższą cenę nawet nie będą do takiego przetargu podchodzić – to będą dla nich za wysokie progi. W trakcie zajęć na Akademii będziemy w praktyce omawiali jak tworzyć takie kompleksowe usługi, jak je rozliczać i jak je dalej rozwijać.
A jaką rolę mają w tym zakresie do odegrania dystrybutorzy? I jak sobie z tym radzą?
www.linkedin.com/company/crn-polska
www.linkedin.com/company/crn-polska
facebook.com/crnpolska
Nawet na polskim rynku, wyjątkowo wrażliwym na cenę?
Na każdym rynku, o ile portfolio usług będzie odpowiednio skonstruowane i prezentowane potencjalnym użytkownikom. Kluczowa jest kompleksowość oferty, bez kładzenia nacisku na jakieś jedno wybrane rozwiązanie. Jeśli bowiem, przykładowo, nasz klient zrobi przetarg dotyczący odnowienia licencji na Office’a 365, będziemy musieli walczyć z konkurencją o każdą złotówkę czy euro. Jeśli jednak ten przykładowy Office 365 będzie u naszego klienta stanowił integralną część szerszego bloku usług, obejmujących zabezpieczanie danych i ochronę infrastruktury sieciowej, to przetarg będzie dotyczył ta-
www.linkedin.com/company/crn-polska
Niektórzy radzą sobie świetnie. Przykładowo, jeden z hiszpańskich dystrybutorów stworzył dwa różne działy do obsługi partnerów MSP. Jeden z nich obsługuje zaawansowanych, dojrzałych Managed Services Providerów. Tacy partnerzy mają bardzo duże kompetencje własne i potrzebują dystrybutora na przykład do finansowania kolejnych projektów. Z kolei drugi ze wspomnianych działów obsługuje partnerów, którzy nie mają zbyt wysokich kompetencji w dziedzinie usług zarządzanych, ewentualnie są zbyt mali i nie mają ani ludzi ani innych zasobów, aby obsługiwać większe zlecenia. Takim partnerom ten dystrybutor świadczy wsparcie w pełnym zakresie, łącznie z usługami typu SOC w trybie 24/7. Dzięki takiej kooperacji nie tylko partner może obsługiwać intratne zlecenia, ale też marża dystrybutora jest wyższa niż przeciętna w tym sektorze. Podsumowując, dystrybutorzy mogą przyspieszyć transformację rynku IT w kierunku usług zarządzanych, a jednocześnie dobrze na tym zarobić.
www.crn.pl
Rozmawiał Tomasz Gołębiowski
www.youtube.com/@crnpolska8
facebook.com/crnpolska


W jaki sposób i kogo przekonywać do inwestycji w technologie? Szukamy najbardziej deficytowej specjalizacji, która jest ważna z perspektywy ciągłości biznesowej firmy i z pomysłem na automatyzację tej funkcji idziemy do… zarządu. Tutaj jednak zaczynają się schody.
Im większa firma, tym dłuższy proces decyzyjny. Aby z przekazem dotrzeć do właściwej osoby, warto więc rozumieć, kto ma jakie cele, wskaźniki i za co czuje się odpowiedzialny. W tym miejscu warto zwrócić uwagę na pewną nieintuicyjną prawidłowość ujawniającą się w trakcie rozmów z członkami zarządu. Na większość z nich silniej działa komunikat sygnalizujący potencjalną stratę niż ten, który zapowiada zysk. Może to wynikać z przepracowania i faktu, że nie mają czasu na myślenie o przyszłości. Może też być rezultatem standardowego rozkładu statystycznego w populacji, w którym innowatorów jest zazwyczaj tylko kilka procent. Może też wynikać z ludzkiej konstrukcji psychicznej, na co zwrócił uwagę noblista i współtwórca ekonomii behawioralnej prof. Daniel Kahneman, który wraz ze swoim współpracownikiem Amosem Tverskim opisał awersję do straty jako zjawisko uniwersalne. Niezależnie od przyczyn przed podjęciem rozmów z zarządem warto przejść sekwencję myślową, jak poniżej:
2. Kto najwięcej może zyskać, jeśli inwestycja zostanie zrealizowana?
Inwestując w technologię, możemy być pierwsi na rynku. Możemy zbudować nowe doświadczenie dla klienta lub o wiele szybciej dostarczać produkty. To może poprawić sprzedaż, marżowość itd. To komunikat dla dyrektora sprzedaży. Ciekawość inżynierska kontra uzasadnienie biznesowe.




3. Komu inwestycja poprawi komfort pracy?
Jeśli zainwestujemy w chmurę, to pracownicy zdalni będą mieli łatwiejszy i stabilny dostęp do informacji. Dla kogo komunikat? Dla wszystkich zatrudnionych pracujących zdalnie i ich przełożonych.
4. Komu ta inwestycja może zwiększyć ilość pracy lub pogorszyć jej komfort?


(KPI, OKR), na rachunek zysków i strat oraz przepływy gotówki. Na tym poziomie skupimy się w dalszej części tego rozdziału. Poziom 3. Fundamenty/Infrastruktura /Prawo – czyli obszar, w którym analizujemy i uzasadniamy rozwój infrastruktury technicznej niezbędnej dla inwestycji (np. sieci komunikacyjne, architektura serwerowa, czujniki, architektura cyberbezpieczeństwa), wpływ na cyberbezpieczeństwo oraz wpływ lub wymagania i regulacje prawne, którym podlega inwestycja (np. zasady przetwarzania danych osobowych - GDPR, cyberbezpieczeństwo - NIS 2, regulacje ISO lub inne regulacje specyficzne dla branży).


1. Kto najwięcej traci lub może stracić, jeśli NIE dojdzie do inwestycji?
Innymi słowy, jeśli widzimy, że konkurencyjne firmy inwestują, a my nie, oznacza to prawdopodobnie, że za chwilę będą w czymś od nas lepsze i przejmą część udziału w rynku. To komunikat do prezesa. Jeśli widzimy, że maszyna jest coraz bardziej awaryjna i powoduje przestoje, a my nie wiemy dlaczego, to dobrze byłoby mieć dane pozwalające to zrozumieć i unikać przestojów. Jeśli ich nie zdobędziemy, wpłynie to negatywnie na relacje z klientami i na przychody. To komunikat dla dyrektora operacyjnego/produkcji i dyrektora sprzedaży.
Kontynuując temat chmury, może ona wymagać nabycia nowych kompetencji przez dział IT i utrzymywania systemów chmurowych i lokalnych (on-premise). Więc będą to dodatkowe obowiązki dla działu IT. Jego pracownicy mogą się ucieszyć lub nie. Warto poświęcić chwilę na taką analizę, bo zdobyta dzięki niej wiedza przyda nam się, zanim przejdziemy do liczb. Przygotowując uzasadnienie biznesowe dla inwestycji, zazwyczaj budujemy je na trzech poziomach: Poziom 1. Strategia długoterminowa – czyli jak inwestycja wpływa długofalowo na rozwój firmy i jej wartość rynkową. Odpowiedzią na to pytanie zainteresowani są właściciele, udziałowcy i zarząd. Poziom 2. Biznesplan / Zarządzanie finansami – czyli jak inwestycja wpływa na realizację przyjętego biznesplanu (zazwyczaj rocznego), na bieżące wskaźniki operacyjne
Taka analiza jest istotna z perspektywy zarządzania ryzykiem w przedsiębiorstwie. Technologia rozumiana jako lepsze narzędzia pracy dla zespołów pomaga poprawiać wyniki finansowe. W raporcie krakowskiej firmy Astor i Akademii Leona Koźmińskiego („TechImpact 2024. Jak technologie wpływają na wyniki finansowe producentów w branży spożywczej”) autorzy dowodzą, że inwestycje w cyfryzację produkcji wyraźnie wpływają na dwa wskaźniki finansowe: zwrot na aktywach operacyjnych (Return on Operating Assets) oraz cykl rotacji zapasów. Są też wykazane inne zależności, a często korzyści zależą od specyfiki branży oraz typu stosowanej technologii.
Artykuł stanowi fragment książki Jarosława Gracela pt. „Jak przekuć projekt technologiczny w biznesowy sukces – inżynier, lider, strateg”, wydawnictwo MT Biznes, Warszawa 2025.









Technologia Low-Code fundamentalnie zmienia zasady gry w sektorze rozwoju oprogramowania, a doskonałym przykładem realizacji tej idei jest platforma nAxiom. Stanowi inteligentne połączenie dwóch światów: wizualnego programowania w stylu No-Code, opartego na metodzie drag&drop, oraz możliwości implementacji złożonej logiki biznesowej za pomocą tradycyjnego kodu.
Low-Code centralnym środowiskiem cyfryzacji
zacji, eliminując problem rozproszonych, „wyspowych” systemów.
nAxiom w integracji ze sztuczną
Jeśli Low-Code jest fundamentem nowoczesnych aplikacji, to sztuczna inteligencja (AI) staje się ich mózgiem. AI wprowadza do procesów biznesowych pierwiastek „inteligencji”, automatyzując zadania, które do tej pory wymagały ludzkiej analizy. Jak w prosty sposób zintegrować AI z firmowymi systemami? Platforma nAxiom została pod tym kątem odpowiednio zaprojektowana. Dzięki gotowym konektorom i obsłudze API, aplikacje zbudowane na nAxiom mogą płynnie komunikować się z publicznymi modelami językowymi lub wyspecjalizowanymi, lokalnymi sieciami neuronowymi. W efekcie AI nie tylko wspiera użytkowników, ale może również sterować przepływem procesów, podejmując decyzje w oparciu o analizę danych w czasie rzeczywistym.
Tradycyjne modele tworzenia oprogramowania, z ich długimi cyklami deweloperskimi i sztywnymi ramami, coraz częściej stają się wąskim gardłem dla innowacji. Odpowiedzią na te wyzwania jest synergia dwóch technologii: platform Low-Code oraz sztucznej inteligencji (AI), które razem tworzą nowy, potężny silnik napędowy transformacji. Kontakt dla partnerów
Taka hybrydowa natura nAxiom pozwala na błyskawiczne budowanie interfejsów, modelowanie procesów i tworzenie w pełni funkcjonalnych prototypów. Jaka jest z tego kluczowa korzyść? Zamiast budować wszystko od zera, zespoły mogą skupić się na dostarczaniu wartości biznesowej. Dzięki temu to aplikacja dostosowuje się do logiki organizacji, a nie odwrotnie. Z kolei za sprawą otwartej architektury i elastycznego modelu danych, nAxiom umożliwia tworzenie zaawansowanych rozwiązań – od systemów obiegu dokumentów (EOD), przez aplikacje do zarządzania ryzykiem w sektorze finansowym, aż po specjalistyczne narzędzia klasy MES czy WMS dla produkcji i logistyki. W ten sposób nAxiom staje się centralnym środowiskiem cyfry-
Korzyści biznesowe z duetu nAxiom oraz AI
Połączenie elastyczności, jaką daje platforma nAxiom, z analityczną mocą AI tworzy duet o ogromnym potencjale. Firmy zyskują zdolność do dynamicznego reagowania na zmiany rynkowe, szybkiego
wdrażania nowych narzędzi i optymalizacji procesów na niespotykaną dotąd skalę. W tej transformacji nie można jednak zapominać o bezpieczeństwie. nAxiom pełni rolę strażnika, który kontroluje dostęp do danych zarówno dla użytkowników, jak i dla modeli AI. Rozbudowane narzędzia sterowania uprawnieniami, szczegółowe logowanie działań i mechanizmy audytu pozwalają spełnić rygorystyczne polityki bezpieczeństwa, co jest kluczowe w dobie inteligentnego przetwarzania danych.
W erze, gdzie dane są kluczowym zasobem, a umiejętność ich wykorzystania decyduje o przewadze konkurencyjnej, synergia Low-Code i AI przestaje być ciekawostką. Realizowana za pomocą dojrzałych narzędzi jak nAxiom, staje się niezbędnym elementem strategii każdej nowoczesnej organizacji, która chce wyznaczać trendy w swojej branży.


Mateusz Szwajkosz, Business Development Manager nAxiom, OPTeam mszwajkosz@opteam.pl
W najbliższych kwartałach popyt na rozwiązania sieciowe dla małych firm powinna napędzać wymiana starszych technologii na Wi-Fi 7 i 5G. W kolejnych latach motorem wdrożeń może stać się cyberbezpieczeństwo.
Jak zapewniają producenci, polski rynek rozwiązań sieciowych dla SOHO i małych firm w tym roku uległ ożywieniu. Dotyczy to zarówno routerów i punktów dostępowych, jak też rozwiązań poprawiających bezpieczeństwo danych. Co ważne, coraz częściej klienci wybierają produkty wyższej klasy, co przekłada się na wzrost średniej ceny jednostkowej. Przy czym dobra koniunktura w Polsce idzie w parze z poprawą w całym regionie.
– Od początku roku obserwujemy wyraźne ożywienie. Wzrost dotyczy zarówno bieżącej sprzedaży, jak i liczby wdrożeń. Pod tym względem widzimy silne odbicie w całym regionie CEE – mówi Bartłomiej Kołodziej, Brand Manager Lanberg w Impakcie.
Badacze z Market Research Intellect przewidują, że polski rynek routerów będzie rósł średnio o 7 proc. rocznie, osiągając wartość 110 mln dol. w 2028 r. Zapotrzebowanie zwiększa się ze względu na rozwój infrastruktury szerokopasmowej, wzrost liczby osób pracujących zdalnie i rozwój e-handlu, jak też z uwagi na rosnącą świadomość w zakresie cyberbezpieczeństwa
Na polskim rynku obecnie realizowane są inwestycje (wspierane środkami z KPO) w rozbudowę sieci szerokopasmowych na obszarach tzw. białych plam (Inwestycja C 1.1.1). Cel jest taki, by internet o przepustowości co najmniej 300 Mb/s dotarł do ponad 1,7 mln gospodarstw domowych. Tym samym znacz-
Radosław Janicki, właściciel, Extreme-PC
Wtym roku sprzedaż urządzeń sieciowych jest u nas niższa niż w roku ubiegłym. Jeśli chodzi o połączenia bezprzewodowe, to klienci domowi przechodzą z Wi-Fi 5 na Wi-Fi 6, ale następuje to
powoli. Wymieniają bowiem sprzęt na nowszy zwykle dopiero wtedy, gdy stary się popsuje. Jak na razie widzimy niewielkie zainteresowanie Wi-Fi 7. Niektórzy użytkownicy domowi decydują się również na systemy Mesh, jednak często nie radzą sobie z ich odpowiednią konfiguracją i dlatego świadczymy im takie usługi. Co zaś do małych firm, to preferują one sieci kablowe, często ze względów bezpieczeństwa. W przypadku takich klientów zwykle wdrażamy przełączniki ethernetowe.

nie powiększy się potencjalny rynek dla rozwiązań sieciowych w tych obszarach, zarówno dla domu, jak i przedsiębiorstw. Co istotne, ta infrastruktura już rośnie. W trzech naborach w ramach C 1.1.1 od 2023 r. zawarto 231 umów z firmami telekomunikacyjnymi na łączną kwotę ponad 3,6 mld zł. W IV naborze w tym roku wpłynęło 209 wniosków o dofinansowanie na sumę 1,7 mld zł.
I choć granty, napędzają popyt, nie wszyscy dostawcy są zadowoleni z tempa rozwoju polskiego rynku.
– Klienci zdecydowanie wybierają te tańsze rozwiązania, a sprzedaż na polskim rynku w porównaniu z ubiegłym rokiem nieznacznie spadła lub utrzymała swój poziom. W rozmowach z producentami często słyszymy, że wynik z poprzedniego roku jest nierealny do powtórzenia w roku bieżącym – twierdzi Wojciech Kwaśny, Surveillance, R&S Product Manager w Konsorcjum FEN.
Niemniej, z informacji dostawców wynika, że w małych biurach i firmach rośnie zainteresowanie Wi-Fi 7. Zatem w kraju widoczny jest już globalny trend, obserwowany już wcześniej w dużych przedsiębiorstwach.
– Największe wzrosty rok do roku notują urządzenia w standardzie Wi-Fi 7, ale nadal dynamicznie rozwija się też sprzedaż sprzętu obsługującego Wi-Fi 6. Mniejsze zainteresowanie dotyczy starszych generacji sieci bezprzewodowych, gdzie sprzedaż spada we wszystkich grupach produktowych – mówi Maciej Turski, Marketing Manager w TP-Linku.
Według światowych danych nowe standardy Wi-Fi napędzają wzrost na rynku firmowych sieci WLAN. Jak ustaliło IDC udział Wi-Fi 7 w przychodach z zależnych od punktów dostępowych w I kw. 2025 r. sięgnął globalnie 11,8 proc. z 10,2 proc. w IV kw. 2024 r. Natomiast Wi-Fi 6E odpowiadało za 31,9 proc., co oznacza niewielki wzrost zpoziomu 27,7 proc. Fot. Adobe
WIELE FIRM PLANUJE WYKORZYSTAĆ DOSTĘPNE DOFINANSOWANIA, ZARÓWNO Z PROGRAMÓW KRAJOWYCH, JAK I FUNDUSZY UNIJNYCH.

– Coraz częściej klienci decydują się na zakup nowocześniejszych rozwiązań, które nie tylko gwarantują większą wydajność i bezpieczeństwo, ale również zapewniają długoterminowe wsparcie techniczne i dostęp do bieżących aktualizacji firmware’u – komentuje Tomasz Leyko, Product Manager w Actionie. Ponadto, zdaniem tego specjalisty, istotnym czynnikiem zwiększającym popyt w małych firmach stała się migracja danych i procesów biznesowych do chmury, co wymusza na przedsiębiorcach inwestycje w infrastrukturę sieciową.
Według prognozy Dell’Oro Group w 2028 r. Wi-Fi 7 zdominuje światowy rynek sieci firmowych. Za 3 lata już ponad 90 proc. przychodów z wewnętrznych punktów dostępowych ma pochodzić ze sprzedaży sprzętu w tej właśnie technologii. Przy czym, na co zwracają uwagę analitycy ABI Research, w 2025 r. ponad połowa (55 proc.) dostarczonych na globalny rynek punktów dostępowych Wi-Fi 7 nie będzie obsługiwać pasma 6 GHz. Wynika to nie tylko z preferencji klientów co do tańszego sprzętu dwuzakresowego (pasma 2,4 GHz oraz 5 GHz), ale też z ograniczonej dostępności częstotliwości 6 GHz na różnych rynkach. Tym niemniej udział dwupasmowych AP w 2027 r. ma spaść poniżej 40 proc.
Większe zapotrzebowanie na systemy Mesh i routery 5G
W przypadku polskiego rynku sprzedaż napędzają nie tylko wdrożenia sieci najnowszej generacji. Maciej Turski zwraca uwagę na fakt, że widać rosnące zainteresowanie systemami Mesh, routerami 5G oraz szerokim spektrum akcesoriów sieciowych, od switchy po karty sieciowe. Potwierdzają to obserwacje analityków Market Research Intellect, którzy wśród trendów na polskim rynku odnotowują wzrost popytu na systemy Mesh. Według nich widoczne jest także coraz większe znaczenie cyberbezpieczeństwa i prywatności danych. – Wśród kluczowych trendów obserwujemy wyraźny wzrost inwestycji w cyberbezpieczeństwo, co wynika zarówno z na-
jeśli pracujesz w rmie z branży IT, możesz bezpłatnie zaprenumerować magazyn CRN Polska?
Załóż konto na stronie
crn.pl/rejestracja



















piętej sytuacji geopolitycznej, jak i coraz większej liczby incydentów cybernetycznych – zauważa Bartłomiej Kołodziej, Brand Manager Lanberg w Impakcie.
W MAŁYCH BIURACH I FIRMACH ROŚNIE ZAINTERESOWANIE STANDARDEM WI-FI 7.
Użytkownicy w firmach zwracają więc ostatnio częściej uwagę na funkcje bezpieczeństwa zintegrowane z urządzeniami i inne rozwiązania wzmacniające ochronę firmowych zasobów. Stąd zainteresowanie wdrożeniem firewalli i systemów VPN, NAS-ami i systemami do backupu. – W tym roku widzimy większe zapotrzebowanie na NAS-y, co jest spowodowane rosnącą ilością danych, ale też świadomością zagrożeń. Klienci szukają sposobu na bezpieczne przechowywanie danych, a jednocześnie duże znaczenie mają rosnące ceny usług w chmurze, które początkowo były atrakcyjne, ale długofalowo okazują się po prostu drogie – zaznacza Łukasz Milic, Business Development Representative w QNAP-ie. Jak zauważa Łukasz Milic, obecnie hasłem przyciągającym zainteresowanie klientów jest sztuczna inteligencja, którą czasami dodaje się (zdaniem menedżera) „na siłę” do wielu produktów. Sieciowy storage nie jest zatem wyjątkiem na rynku, jeśli chodzi o modę na AI. Łukasz Milic wskazuje natomiast narzędzia, które w jego ocenie pozwalają użytkownikom w przedsiębiorstwach korzystać z mechanizmów AI w sensowny sposób.
W jego ocenie praktyczne w NAS-ach są mechanizmy wyszukiwania semantycznego opartego na sztucznej inteligencji oraz możliwość uruchomienia modeli AI offline bezpośrednio na serwerze NAS. Jednocześnie takie funkcje wymagają wdrożenia w firmie urządzeń o wyższej wydajności, spełniających oczekiwania wymagających klientów.
Co więcej, z informacji dostawców wynika, że MŚP inwestują także w infrastrukturę sieciową. Ma to związek z wdrożeniami narzędzi sztucznej inteligencji lokalnie oraz z rozwojem edge computingu, co wymaga modernizacji takich elementów, jak przełączniki, storage i in. Co ciekawe, mały i średni biznes przyspieszył zwłaszcza wdrożenia szaf teleinformatycznych w lokalnej infrastrukturze.
– Szafy stają się dziś fundamentem budowy nawet najmniejszych środowisk serwerowych i data center w sektorze MŚP – wyjaśnia Bartłomiej Kołodziej.
Za zamówieniami sprzętu idą też zakupy akcesoriów. Jak informuje menedżer Impaktu, w sektorze MŚP wzrasta również zapotrzebowanie na infrastrukturę okablowania wysokiej jakości (kategorie 6 A, 7, LSZH), a także na rozwiązania światłowodowe, zwłaszcza w projektach, gdzie liczy się przepustowość.
Dobre nastroje na przyszły rok
Dostawcy są optymistycznie nastawieni odnośnie do najbliższych kwartałów. Przeważają opinie, iż popyt pod koniec tego roku i w roku przyszłym powinien zwiększać się zwłaszcza na rozwiązania nowych technoologii.
– Spodziewamy się, że w IV kwartale 2025 roku utrzyma się wysoka dynamika zakupów związanych z końcem roku i wymianą starszych urządzeń. Perspektywy na przyszły rok pozostają pozytywne dzięki rosnącej popularności Wi-Fi 7 i rozwiązań mobilnych 5G – uważa Maciej Turski.
Można również liczyć na to, że nie tylko w tym roku, ale też w kolejnych latach budżety IT przedsiębiorstw zostaną zasilone grantami z funduszy europejskich i innych, co także powinno sprzyjać inwestycjom w sieciówkę w małych przedsiębiorstwach. 40 / CRN / październik 2025

Maciej Turski, Marketing Manager, TP-Link
Najważniejszym trendem na rynku rozwiązań sieciowych pozostaje szybka popularyzacja Wi-Fi 7, które stopniowo staje się nowym standardem również w małych i domowych biurach. Obserwujemy też dynamiczny rozwój rozwiązań 5G, które coraz częściej pełnią rolę głównego łącza lub zapasowego internetu dla użytkowników z segmentu SOHO. Klienci oczekują też prostych w obsłudze i łatwych do rozbudowy systemów,
jak Mesh czy zarządzane z aplikacji mobilnych routery, co będzie napędzać rynek.
Prognozy na IV kw. 2025 roku i rok 2026 są optymistyczne. Obecny wzrostowy trend powinien się utrzymać, w tym dzięki rozwojowi AI, coraz większej liczbie urządzeń podłączonych do sieci i konieczności inwestycji w infrastrukturę teleinformatyczną. Szczególnie rośnie popyt na niezawodne komponenty sieciowe i produkty pasywne. Ogromne zapotrzebowanie notujemy głównie w przypadku szaf teleinformatycznych i powiązanych akce-
TP-Link zdobył certyfikat Channel Master 2025



Bartłomiej Kołodziej, Brand Manager Lanberg, Impakt
soriów. To efekt rosnącej liczby lokalnych wdrożeń AI oraz rozwoju edge computingu, które wymagają stabilnej infrastruktury.

Tomasz Leyko, Product Manager, Action
Wszystko wskazuje na to, że motorem napędowym rynku rozwiązań sieciowych w 2026 roku będzie cyberbezpieczeństwo. Według prognoz to właśnie ten obszar w największym stopniu ma kształtować decyzje zakupowe firm, niezależnie od ich wielkości. Znaczący wpływ na ten proces mają nowe regulacje unijne, takie jak NIS 2 czy DORA. Stanowią one impuls do inwestycji w infrastrukturę sieciową nawet w mniejszych przedsiębiorstwach, które dotychczas od-
kładały takie decyzje. Obserwujemy, że coraz więcej firm kupuje rozwiązania związane z ochroną danych – od prostych backupów i szyfrowania po firewalle.
Coraz więcej firm decyduje się na urządzenia z Wi-Fi 7, przy czym klienci, których stać na droższe rozwiązania, wybierają opcje z trzecim pasmem 6 GHz. W przypadku przełączników na pewno zwiększył się popyt na modele z portami multi-gigowymi. Trend ten można również zaobserwować u producentów, którzy wprowadzają na rynek coraz więcej rozwiązań o takich właśnie parametrach lub rozszerzają ich asortyment. Ponadto zauważalnie rośnie popyt na rozwiązania Mesh.

Wojciech Kwaśny, Surveillance, R&S Product Manager, Konsorcjum FEN Natomiast Wi-Fi 5 odchodzi już do lamusa, a producenci sukcesywnie wycofują takie rozwiązania ze swoich ofert.
– Wiele firm planuje wykorzystać dostępne dofinansowania, zarówno z programów krajowych, jak i funduszy unijnych, aby przyspieszyć cyfryzację i unowocześnić swoje środowisko IT. Sądzę, że ten trend utrzyma się w najbliższych latach – podsumowuje Tomasz Leyko. n











Korzystanie z dobrze zaprojektowanej szafy rack zapewnia przede wszystkim wygodę w zarządzaniu sprzętem sieciowym – przełączniki, routery, patchpanele, rozgałęziacze czy zasilacze zyskują stabilne i uporządkowane środowisko. Eliminacja plątaniny kabli nie tylko poprawia estetykę, ale też znacząco ułatwia serwisowanie i rozbudowę infrastruktury. Dzięki odpowiedniej wentylacji oraz zamkniętej konstrukcji szafa chroni urządzenia przed przegrzaniem, kurzem i nieautoryzowanym dostępem, co w praktyce przekłada się na dłuższą żywotność sprzętu, mniej awarii, a także mniejsze koszty serwisowe.
Nie mniej ważne są względy wizerunkowe. Schludna instalacja, w której wszystkie elementy są zamknięte w eleganckiej szafie, prezentuje się znacznie bardziej profesjonalnie niż zestaw urządzeń rozstawionych na półkach czy biurkach. W oczach odwiedzających biuro klientów i partnerów biznesowych taka organizacja infrastruktury stanowi dodatkowe
Poza szafami rack Lanberg ma w ofercie szereg innych produktów ułatwiających tworzenie infrastruktury sieciowej i zarządzanie nią:
l Akcesoria do szaf rack – obudowy serwerowe, przełącznice światłowodowe, patchpanele, półki i organizery kablowe, przepusty, zaślepki, panele szczotkowe, wentylatory oraz listwy zasilające PDU
l Sieć aktywna – przełączniki niezarządzalne (w tym PoE), rozwiązania do monitoringu, karty sieciowe, adaptery Wi-Fi i inne
l Zasilanie – przedłużacze, kable zasilające, listwy przeciwprzepięciowe, PDU oraz gniazda podtynkowe i 45x45 mm
















Profesjonalne szafy rack coraz częściej stają się elementem infrastruktury w małych i średnich firmach. To inwestycja w porządek, bezpieczeństwo i niezawodność działania całej sieci.



potwierdzenie, że firma dba o jakość i bezpieczeństwo. Profesjonalna szafa to także inwestycja w przyszłość. Dynamicznie rosnące zapotrzebowanie na przepustowość sieci, praca zdalna, cyfryzacja procesów i coraz większa liczba urządzeń IoT powodują, że infrastruktura IT w małych firmach staje się coraz bardziej rozbudowana.
Bezpieczna sieć w kompaktowej szafie
Lanberg od lat oferuje szafy rack dostosowane do różnych scenariuszy – od dużych serwerowni po małe biura lub wręcz gospodarstwa domowe. Dostępne są modele stojące oraz ścienne o szerokościach 10” i 19”, co pozwala dopasować je do wielkości przestrzeni oraz specyfiki działalności. Dla firm dysponujących ograniczonym miejscem idealnym rozwiązaniem są szafy ścienne z serii WAF1 (na zdjęciu), które dzięki płaskiej konstrukcji nie zajmują przestrzeni użytkowej. 19-calowe modele WF01 i WF02 sprawdzą się w biurach, w których potrzebna jest większa










l Sieć strukturalna – patchcordy, kable LAN, wtyki, gniazda sieciowe, keystony i łączniki
l Światłowody – patchcordy światłowodowe, pigtaile, adaptery i przełącznice światłowodowe
l Kable i adaptery – szeroki zakres kabli i adapterów, w tym USB, HDMI, DP, VGA, DVI, audio, kable komputerowe wewnętrzne, zasilające, a także organizery kabli i inne akcesoria
l Narzędzia – akcesoria do zarządzania kablami, mierniki, testery oraz środki czystości



pojemność (udźwig do 60 kg) oraz możliwość montażu licznych akcesoriów, jak listwy PDU, patchpanele, półki, szuflady czy systemy kablowe (szczegóły w ramce poniżej). Do wyboru są wersje z drzwiami perforowanymi, szklanymi lub stalowymi, a dodatkowe opcje wentylacyjne pozwalają bezpiecznie korzystać nawet z bardziej wymagającego sprzętu.
W każdej z serii zastosowano rozwiązania ułatwiające montaż i obsługę. Szafy dostarczane są w formie Flat Pack, co ułatwia transport i przechowywanie, a dzięki otworom montażowym i czytelnym instrukcjom ich złożenie zajmuje niewiele czasu. Producent udostępnia także poradniki wideo, dzięki czemu nawet niewielki zespół techniczny może przygotować kompletną i profesjonalną infrastrukturę. Chociaż produkty Lanberg projektowane są z myślą o profesjonalnych zastosowaniach, coraz częściej znajdują swoje miejsce także w gospodarstwach domowych. To właśnie dla nich przeznaczone są kompaktowe modele z serii WF10 oraz WF11. Zapewniają głębokość 300 mm, dostępne są w kolorach szarym, czarnym i białym, a opcjonalnie dokupić do nich można szklane, perforowane lub stalowe drzwi. Solidne wykonanie oraz otwory wentylacyjne chronią urządzenia przed uszkodzeniami mechanicznymi i przegrzaniem.


Bartłomiej Kołodziej Brand Manager, Lanberg bartlomiej.kolodziej@impakt.com.pl




Urządzenia stworzonej przez TP-Link marki Mercusys pozwalają w pełni korzystać z zalet Wi-Fi 7 czy 5G w domowych sieciach. Co istotne, marka pod względem technologii nie odbiega od największych światowych graczy, zapewniając przy tym polskim użytkownikom wysoki poziom serwisu i obsługi.
Urządzenia Mercusys umożliwiają korzystanie w domowych sieciach z zaawansowanych technologii najnowszej generacji w przystępnej cenie, a przy tym wyróżniają się łatwością obsługi, z którą bez problemu poradzi sobie przeciętny domownik. Do wyboru są rozwiązania z szerokiego, kompleksowego portfolio, które stale się powiększa. Sprzęt marki Mercusys obejmuje już systemy Wi-Fi Mesh, routery, modemy i bramy sieciowe, punkty dostępowe, przełączniki, wzmacniacze sygnału, karty sieciowe, kamery i in. Jakością i szerokością oferty marka nie odbiega od największych graczy, oferując przy tym polskim użytkownikom wysoki poziom serwisu i obsługi – do dyspozycji jest infolinia wsparcia technicznego w języku polskim, a urządzenia mają 3 lata gwarancji.
Zarówno całą siecią, jak i poszczególnymi urządzeniami łatwo jest zarządzać z dowolnego miejsca z pomocą bezpłatnej aplikacji Mercusys w języku polskim.
Najważniejsze cechy rodziny urządzeń marki Mercusys
l zaawansowane, najnowsze technologie,
l przystępne ceny,
l prosta konfiguracja i łatwe zarządzanie dzięki aplikacji mobilnej,
l wysoki poziom serwisu (wsparcie techniczne w języku polskim oraz 3-letnia gwarancja),
l szerokie i stale rosnące portfolio


urządzeń, funkcje ochrony rodzicielskiej, alerty, separacja sieci dla gości i in.).


Wystarczy smartfon albo tablet z Androidem lub iOS-em. Nie jest potrzebna wiedza techniczna. Sieć można skonfigurować w kilka minut, a ponadto aplikacja zawiera wszystko, co jest potrzebne do zarządzania każdym z urządzeń. Przykładowo, pozwala ustanowić kontrolę rodzicielską, tworzyć profile użytkowników, sprawdzać stan urządzeń itd. Pomaga też dbać o bezpieczeństwo sieci, w tym poprzez alerty czy też tworząc osobną sieć dla gości.
Trzypasmowy Wi-Fi 7
Na polski rynek weszły właśnie nowe urządzenia Mercusys, stanowiące przykład zaawansowanych produktów marki. Umożliwiają w pełni korzystanie z zalet Wi-Fi 7 – takich jak wyższa wydajność, większa przepustowość (o 20 proc. więcej danych niż w przypadku Wi-Fi 6), niższe opóźnienia (4-krotnie wobec Wi-Fi 6/6E), większa niezawodność i płynność połączeń itd.
Wśród nowości w portfolio Mercusys znalazł się też domowy system Wi-Fi 7 Halo H27BE. Urządzenia nowej serii zapewniają stabilny i szybki internet w całym domu z prędkością sieci bezprzewodowej do 3,6 Gb/s. Zasięg sieci sięga 460 m2 (2 urządzenia) lub 650 m2 (3 urządzenia). Halo wyposażono w najnowsze technologie, takie jak 4K-QAM, MLO (Multi-Link Operation) czy Multi-RU, które zapewniają wysoką wydajność nawet po podłączeniu wielu urządzeń (a można ich podpiąć aż 150). Szeroki kanał transmisji (160 MHz) pozwala wydajnie i płynnie korzystać z wielu usług jednocześnie, np. streamingu 4K/8K, gier on-line i pobierania plików. Płynny roaming zapobiega utracie sygnału i opóźnieniom podczas poruszania się po domu.
Internet 5G zawsze pod ręką



Wśród nowości jest router Wi-Fi 7 Mercusys MR47BE, który zapewnia trzypasmowe połączenia Wi-Fi 7 o prędkości do 9,3 Gb/s, a szerokość kanału to 320 MHz. Pozwala to na jednoczesne płynne strumieniowanie wideo w jakości 8K, prowadzenie wideokonferencji w home office, granie online, VR/AR czy też na szybkie pobieranie plików. Urządzenie ma ponadto port WAN 2,5 Gb/s i 3 porty LAN 2,5 Gb/s, co umożliwia korzystanie z łącza szerokopasmowego przez komputery, telewizory smart, konsole do gier czy NAS-y. Jak na domowe potrzeby pojemność sieci staje się w praktyce nieskończona, bo pozwala podłączyć 300 urządzeń. Co istotne MR47BE jest kompatybilny z routerami i wzmacniaczami sygnału EasyMesh. Umożliwia to utworzenie domowej sieci Mesh z jedną nazwą Wi-Fi i jednym hasłem.


Sprzęt z serii Mercusys pozwala też korzystać w domowej sieci z zalet 5G. Premierowym urządzeniem jest Mercusys MB520–5G. To dwupasmowy router 5G, AX3000,oferujący połączenia 5G z prędkością do 4,67 Gb/s, pozwalając na podłączenie do 256 urządzeń. Przydaje się zwłaszcza w miejscach, gdzie nie ma infrastruktury kablowej. Aby korzystać z sieci 5G w dowolnym miejscu, wystarczy włożyć kartę nano-SIM do slotu urządzenia. MB520–5G to sprzęt uniwersalny. Działa również w standardzie Wi-Fi 6 z łączną prędkością transmisji do 3,1 Gb/s w dwóch pasmach. Pozwala też na połączenia sieciowe 2,5G WAN/LAN, umożliwiając wykorzystanie routera także z kablowym ISP. Wówczas modem 5G/ LTE może służyć jako łącze zapasowe w razie przerw w dostępie do internetu. Do tego Port RJ11 pozwala na podłączenie telefonu.
Tegorocznym motorem wzrostów są routery i wzmacniacze konsumenckie. Na przeciwnym biegunie znajdują się, niestety dla ich sprzedawców, produkty biznesowe oferowane w kanale B2B.
Rynek urządzeń sieciowych w Polsce jest silnie zsynchronizowany z rynkiem IT ogółem. Oznacza to podobne trendy – boom podczas pandemii, z rekordowym rokiem 2022 (ponad 850 mln zł obrotów), a następnie spadki w kolejnych latach, aż do odbicia w roku bieżącym. I to nie byle jakiego! W okresie styczeń-sierpień 2025 zaobserwowaliśmy wzrost wartości rynku o ponad 15 proc. względem analogicznego okresu w roku 2024. To jednocześnie dobry prognostyk na kolejne miesiące 2025. Co przyczynia się do wzrostów w ostatnich miesiącach? Okazuje się, że motorem wzrostów są routery i wzmacniacze konsumenckie. Ich sprzedaż zwiększyła się aż o około 60 proc., co w liczbach absolutnych oznacza dodatkowe 90 mln zł obrotu! Trudno nie wiązać tego ze zwiększonym popytem na laptopy,
będącym efektem rządowej akcji „Laptop dla nauczyciela”, która jeszcze nie została zakończona.
Na przeciwnym biegunie znajdują się produkty biznesowe sprzedawane w kanale B2B, gdzie obserwujemy spadki w większości kategorii. Powodem odmiennych trendów jest historia ostatnich kilku lat. Na rynku biznesowym boom z lat 2021 – 2022 był znacznie większy niż w segmencie B2C (wartość rynku w 2022 r. była o 170 proc. wyższa niż w roku 2020, wobec 70 proc. wzrostu na rynku konsumenckim). Jako że w tym przypadku cykl wymiany jest dłuższy i brakuje dodatkowych stymulatorów, trend jest – niestety dla sprzedawców – nadal negatywny.
Jak zatem będzie wyglądać rynek w przyszłości? Obstawiałbym w 2026 r. uspokojenie w segmencie konsumenckim, a na rynku B2B powrót do wzrostów.
Panel Dystrybucyjny GfK/NIQ (GfK MI: Supply Chain) to badanie ciągłe, którego celem jest odzwierciedlenie obrazu rynku dystrybucji IT i Telco w Polsce. Wyniki oparte są na rzeczywistych danych sprzedażowych dostarczanych przez kilkudziesięciu dystrybutorów prowadzących działalność na polskim rynku. Dane dostępne są w cyklu tygodniowym zarówno dla kategorii konsumenckich, jak i B2B. Więcej informacji: maciej.piekarski@nielseniq.com.
Maciej Piekarski pełni funkcję Commercial Director Tech&Durable (ex. GfK) w NIQ.












Podczas gdy jedni przenoszą się do chmury, inni stawiają na rozbudowę własnej infrastruktury, napędzając rynek macierzy dyskowych.

Wojciech Urbanek
Dane nie bez powodu nazywane są dziś cyfrowym złotem lub nową ropą naftową. To porównanie dość dobrze oddaje ich prawdziwą wartość. Podobnie jak zasoby naturalne, informacje mogą generować ogromne zyski dla tych, którzy potrafią je skutecznie wykorzystać. Co więcej, w przeciwieństwie do złota, zasobu z definicji ograniczonego, ilość generowanych danych rośnie w tempie wprost oszałamiającym. Według analiz Statista globalna liczba tworzonych, przechwytywanych, kopiowanych i wykorzystywanych danych wyniosła w 2024 r. aż 149 zettabajtów. Jednocześnie prognozy na koniec roku mówią o 181 zettabajtach. Znaczną część tego cyfrowego tsunami stanowią nieustrukturyzowane dane: obrazy, filmy, teksty. Co ciekawe, 90 proc. danych wygenerowano w ciągu ostatnich dwóch lat. Jendak przewidywanie dalszego rozwoju staje się coraz trudniejsze. Dzieje się tak ze względu na rewolucję sztucznej inteligencji. Wymownym przykładem jest OpenAI. Startup we wrześniu ogłosił, iż planuje wydać w ciągu najbliższych pięciu lat około 100 mld dol. na wynajem serwerów do przechowywania kopii zapasowych. Ta lawinowa ekspan-
sja danych to zjawisko o dwóch obliczach. Z jednej strony ogromny potencjał analityczny, możliwość przeprowadzania precyzyjnych badań i wyciągania wniosków z bogatego materiału. Z drugiej, poważne obciążenie dla budżetów przedsiębiorstw. Cyfrowe zasoby wymagają nie tylko przestrzeni do przechowywania, ale także zaawansowanych systemów bezpieczeństwa. To wszystko kosztuje, ale firmy nie mają wyboru, muszą inwestować w rozwiązania dostosowane do nowych realiów rynkowych. W tym celu jedni decydują się przenieść dane do chmury publicznej, inni stawiają na własną infrastrukturę.
W przypadku tej drugiej opcji jednym z najpopularniejszych rozwiązań są zewnętrzne systemy dyskowe. Według IDC globalne przychody ze sprzedaży tych produktów na koniec bieżącego roku osiągną poziom 35,2 mld dol., co oznacza 5 proc. wzrost w ujęciu rocznym. Prognozy na rok przyszły są również optymistyczne, wieszcząc obroty rzędu 37 mld dol. (wzrost o 5,2 proc.).
Co stoi za tym systematycznym rozwojem? Przede wszystkim jest to rosnące zapotrzebowanie na pamięć masową niezbędną do wspierania projektów AI. Poza tym przedsiębiorstwa oraz dostawcy usług coraz częściej dostrzegają wartość w repatriacji albo migracji części swoich obciążeń z chmury współdzielonej do odpowiednich środowisk informatycznych. To jest trend, który nabiera
tempa i zdecydowanie kształtuje przyszłość branży.
– Z jednej strony część klientów migruje w kierunku chmury. To akurat trend, który łatwo „sprzedać” w korporacji jako „must have”, bo chmura kojarzy się z przyszłością. Z drugiej strony znamy przypadki koncernów, które w rozproszonej infrastrukturze rezygnowały z rozwiązań chmurowych na rzecz kilku lokalnych rozwiązań pamięci masowych, ponieważ okazało się to po prostu tańsze i bardziej efektywne – przyznaje Jacek Marynowski, CEO Storage IT.
Stabilny wzrost charakteryzujący światowy rynek zewnętrznych systemów dyskowych znajduje swoje odbicie również w Polsce. Nasze rodzime przedsiębiorstwa podążają śladem globalnych trendów, inwestując w nowoczesne rozwiązania pamięci masowej.
– Analizy rynku pamięci masowych w Polsce, w tym prowadzone przez IDC, wskazują, że ten segment jest stabilny i ciągle rośnie, niezależnie od alternatywnych rozwiązań, takich jak usługi składowania danych w chmurze publicznej. W zależności od segmentu i typu pamięci masowych obserwujemy różne tempo zmian popytu na polskim rynku. Sprzedaży sprzyjają nie tylko projekty wykorzystujące sztuczną inteligencję, ale też analitykę oraz rozwiązania wspierające bezpieczeństwo firm – mówi Radosław Piedziuk, Storage Platforms & Solutions Sales Leader w Dell Technologies.

Ponad dwa lata temu Shawn Rosemarin z Pure Storage przedstawił śmiałą prognozę, zgodnie z którą do 2028 r. dyski twarde mają być całkowicie wyparte z rynku przez nośniki półprzewodnikowe. Dziś z pewnością nie powtórzyłby tej tezy, mimo że jego firma nadal intensywnie konkuruje z producentami dysków twardych. Niemniej, pod koniec ubiegłego roku media doniosły o kontrakcie nieokreślonego hiperskalera, który podpisał umowę na zakup modułów DirectFlash (DFM) marki Pure Storage, jako elementów swojej infrastruktury pamięci masowej. Ten sukces to jednak dopiero początek długiej drogi, a jak wiadomo jedna jaskółka wiosny nie czyni. Szacuje się, że dyski twarde nadal stanowią około 80 proc. pamięci masowej w centrach danych. I nic nie wskazuje na ich zmierzch, tym bardziej, że ustawiają się po nie długie kolejki. Analitycy z Trend Force wyliczyli, że czas oczekiwania na HDD nearline wynosi obecnie 52 tygodnie.
Duże koncerny, a także dostawcy usług chmurowych, coraz częściej rozważają przejście na alternatywne rozwiązania w postaci nośników SSD QLC – technologii dotychczas zarezerwowanej dla przechowywania danych „ciepłych” i „gorących”. Jednak rosnący popyt na pamięci flash napędza ceny w górę. Specjaliści TrendForce prognozują w tym przypadku wzrost o 5–10 proc. już w naj-
bliższym kwartale, choć zastrzeżenia budzi dość ograniczona wytrzymałość pamięci QLC.
Taki rozwój wypadków to prezent dla producentów dysków twardych. Western Digital odnotował spektakularny wzrost sprzedaży pojemności o 32 proc. rok do roku, podczas gdy Seagate osiągnął 45 proc. wzrost. Dostawcy HDD zacierają ręce, przeliczając marże, które podwoiły się w ciągu dwóch lat i osiągnęły poziom około 40 proc. Rodzaj dysków dobierany jest w zależności od potrzeb aplikacji korzystającej z pamięci masowej. Dla archiwizacji danych lub usług, gdzie nie ma dużych wymagań związanych z wydajnością, wciąż stosuje się macierze z dyskami magnetycznymi. „Twardziele” powszechnie występują w serwerach NAS, bardzo często wykorzystywanych do długoterminowego przechowywania danych.
– Sprzedajemy przede wszystkim rozwiązania NAS, w których dyski SSD nadal pełnią rolę drugoplanową. Kluczowe są tutaj pojemność i poziom bezpieczeństwa danych. Coraz większą popularność zyskują rozwiązania hybrydowe, łączące nośniki SSD z HDD, gdzie dyski półprzewodnikowe funkcjonują jako bufor dla puli pamięci masowej zbudowanej na dyskach talerzowych. W przypadku większych klientów za wydajność odpowiadają serwery aplikacji z zaawansowanymi konfiguracjami sprzętowymi – tłumaczy Jacek Marynowski.
Natomiast w przypadku macierzy SAN uwidacznia się przewaga architektury all-flash, gdzie standardem stały się nośniki SSD NVMe. Wynika to z faktu, że nabywcy tego rodzaju systemów oczekują niskich opóźnień i stałej przewidywalnej wydajności. Dla biznesu wykorzystanie tych nośników oznacza wymierne korzy-
ALL-FLASH Z NOŚNIKAMI SSD-NVME.
ści: szybsze działanie baz danych, krótsze okna backupu i odtwarzania, sprawniejszą analitykę oraz stabilne SLA pod aplikacje krytyczne i projekty AI. – Wprawdzie wzrost cen chwilowo spowolnił część projektów all-fl ash, szczególnie w średnich firmach, ale nie odwrócił ogólnego trendu. Dzięki coraz lepszym współczynnikom kompresji i deduplikacji oraz spadającym cenom nośników QLC, all-flash staje się rozwiązaniem dostępnym dla coraz szerszego grona odbiorców – mówi Katarzyna Jedlińska,Storage & Data Services Category Manager w HPE.
Pierwsza linia obrony
Jeszcze do niedawna dostawcy pamięci masowych chwalili się głównie

Tomasz Spyra, CEO, Rafcom
Popyt na macierze dyskowe rośnie nieprzerwanie od kilku lat. Firmy gromadzą i przetwarzają coraz więcej danych, co pociąga za sobą konieczność zapewnienia przez działy IT coraz większej przestrzeni dyskowej. Obecnie praktycznie każda macierz dyskowa opiera się na dyskach SSD lub NVMe. Klienci stali się bardzo świadomi swoich potrzeb i wymagają coraz większej wydajności oraz niezawodności takich systemów. Oczekują parametrów, które gwarantują właśnie dyski SSD i NVMe. Techniczne parametry kluczowe dla wyboru systemu przez
klienta pozostają w zasadzie niezmienne od kilku ostatnich lat. Na pierwszym miejscu znajduje się typ dysków w macierzy, a na kolejnych pojemność, sposób komunikacji z serwerami SAS, FC, iSCSI itp. Dopiero na dalszych pozycjach plasują się przepustowość, liczba IOPS-ów oraz czasy opóźnień.
Ataki ransomware stały się jednym z głównych zagrożeń dla firm i działów IT. W odpowiedzi na to producenci macierzy dyskowych oferują mechanizmy ochrony danych oparte na niezmienialnych migawkach albo moduły dyskowe, które do pewnego stopnia są w stanie wykryć anomalie przy zapisie i odczycie danych. Przy czym częściej stosowane jest pierwsze z wymienionych rozwiązań. Warto jednak podkreślić, że sama macierz nie rozwiąże całego problemu. Jej wbudowane funkcje powinny być traktowa-
Infonet Projekt otrzymał tytuł
IT Master 2025


ne jako dodatkowa linia obrony. Pełna ochrona wymaga szerszej strategii, tzn. dobrze dopasowanego harmonogramu kopii zapasowych w odizolowanym środowisku, testów odtwarzania oraz klasycznych rozwiązań z obszaru cyberbezpieczeństwa na brzegu sieci. W odniesieniu do kopii zapasowych rekomendowana jest zasada 3-2-1.

Maciej Kalisiak, Business Development Manager, ApexIT
Klienci korporacyjni w przypadku rozwiązań wymagających szybkich czasów odpowiedzi i wysokiej wydajności są skłonni płacić więcej za lepszą technologię. Jednocześnie uzyskują oszczędności poprzez optymalizację pojemności, na przykład przez redukcję danych. Z kolei w zastosowaniach, gdzie kluczowe są duże pojemności przy braku wymagań dotyczących wydajności, takich jak archiwa, preferowane będą tańsze dyski HDD. Uważam przy tym, że cena nośników SSD nie hamuje rozwoju systemów all-flash, wystarczy przyjrzeć się ofercie producentów. Po prostu w niektórych rozwiązaniach nie
ApexIT otrzymał tytuł IT Master 2025
wydajnością i skalowalnością swoich produktów. Dziś narracja znacząco się zmieniła – producenci coraz częściej akcentują obecność zaawansowanych zabezpieczeń w najnowszych urządzeniach.
Prognozy Gartnera wskazują, że do 2028 r. wszystkie systemy pamięci masowych przeznaczone dla klientów biznesowych będą oferować elementy aktywnej ochrony. Nowoczesne macierze dyskowe już teraz dysponują mechanizmami chroniącymi przed atakami ransomware – są to między innymi niezmienne migawki, funkcje WORM oraz wieloskładnikowe potwierdzanie operacji usuwania danych. Powszechnie stosowanym rozwiązaniem pozostaje także „air gap”, czyli przechowywanie kopii zapasowych na nośnikach fizycznie odłączonych od sieci i głównych systemów pamięci masowych.
– Na rynku pojawiły się już macierze, których projektanci poszli jeszcze dalej. Zapewniają nie tylko mechanizmy niezmienności danych, ale także natywną detekcję ataków ransomware. System analizuje wzorce zapisu i wykrywa w czasie rzeczywistym anomalie charakterystyczne dla ataku, co pozwala szybciej reagować i uruchomić proces odzyskiwania środowiska, zanim jeszcze szkody staną się krytyczne – wyjaśnia Katarzyna Jedlińska.
można opierać się na dyskach HDD, a mechanizmy redukcji danych dostępne dla pamięci flash pozwalają na optymalizację kosztów.
Wydajność, pojemność i funkcjonalność – to trzy filary procesu decyzyjnego przy zakupie systemu pamięci masowej. Pojemność to sprawa dość oczywista, bo zazwyczaj wiemy, ile potrzebujemy miejsca na dane. Trudniej bywa z wydajnością, bo starsze urządzenia nie zawsze potrafią przekazać informacje o obecnym obciążeniu, a metryki wydajnościowe z systemów operacyjnych serwerów bywają mało czytelne. Jeśli chodzi o nośniki w rozwiązaniach blokowych dyski SSD NVMe TLC, to obecnie są one numerem jeden. Wprawdzie SAS SSD pojawiają się jeszcze w rozwiązaniach z niższej




Michał Dolata, System Engineer, Pitlabs półki, ale ich czas się kończy. Nośniki SAS HDD praktycznie już nie istnieją w nowych rozwiązaniach, podczas gdy standard NL-SAS ma się bardzo dobrze w NAS-ach i deduplikatorach. Nowością są dyski SSD NVMe QLC. Jeśli firmowy system nie obsługuje zawrotnych ilości zapisów, a czas odpowiedzi poniżej 2–3 ms jest akceptowalny, to użytkownik może liczyć na cenę zakupu takiego urządzenia co najmniej o połowę niższą niż przy analogicznej pojemności zbudowanej z dysków SSD NVMe TLC.
Pitlabs otrzymał tytuł
IT Master 2025
Wprowadzane przez producentów innowacje sprawiają, że infrastruktura pamięci masowej staje się pierwszą linią obrony. Eksperci są jednak zgodni, że sama macierz dyskowa to za mało, aby rozwiązać problemy związane z ochroną danych. Potrzebna jest szersza strategia, w tym stosowanie zasady 3-2-1, nakazującej przechowywanie danych w trzech kopiach, na dwóch różnych nośnikach danych, przy czym jedna kopia musi być przechowywana w zdalnej lokalizacji.
– Niestety, często zawodzi człowiek. Choć systemy NAS posiadają zabezpieczenia, są one wdrażane częściowo lub wcale. Na szczęście obserwujemy coraz wyższą świadomość administratorów i dbałość o korzystanie z dostępnych opcji oraz bieżące aktualizowanie systemów – mówi Łukasz Milic, Business Development Manager w QNAP-ie.
Spotkanie ze sztuczną inteligencją
Dostawcy pamięci masowych intensywnie dostosowują swoje rozwiązania do rosnących wymagań środowisk AI. Choć Nvidia skutecznie narzuca narrację o kluczowej roli mocy obliczeniowej, eks-
perci coraz częściej podkreślają istotny problem: gdy pamięć masowa nie nadąża za potrzebami, nawet najpotężniejsze GPU pozostają bezczynne.
– Wielu inwestorów koncentruje się dziś wyłącznie na GPU, nie zdając sobie sprawy, że bez odpowiedniej infrastruktury sukces będzie niepełny. Nasze doświadczenie pokazuje, że wraz z dojrzewaniem modeli AI potrzeby w zakresie pamięci masowej i systemów analizy danych rosną wykładniczo – podkreśla Paul Bloch, prezes DDN.
Praca z modelami AI generuje ekstremalne zróżnicowanie obciążeń. Z jednej strony ogromne pliki danych – obrazy i materiały wideo – wymagają maksymalnej przepustowości i dużej pojemności. Z drugiej strony miliony metadanych generują tysiące drobnych zapytań I/O, które muszą być obsługiwane natychmiast, z minimalnym opóźnieniem. Połączenie tych dwóch światów – masowego przepływu danych i błyskawicznego dostępu do mikrozapytań – stanowi nie lada wyzwanie techniczne.
– Praca z modelami AI oznacza dodatkowe wymagania dla infrastruktury sieci lokalnej oraz pamięci masowych, takich jak współdzielone systemy NAS czy pamięć obiektowa. Kluczowe są przy tym parametry wydajności w wielowątkowym dostępie do danych oraz skalowalność macierzy dyskowych – wyjaśnia Radosław Piedziuk.
W tym kontekście na uwagę zasługuje inicjatywa SNIA, która dąży do stworzenia zestawu otwartych interfejsów i modeli współpracy między systemami obliczeniowymi a pamięciami masowymi. Podstawowym założeniem jest całkowita neutralność wobec dostawców,
co umożliwi integrację dowolnych komponentów: procesorów CPU, GPU i DPU, systemów dyskowych i nośników SSD NVMe, pamięci SCM oraz sieci RDMA. Wsparcie dla tej inicjatywy zadeklarowały między innymi AMD, Cisco, DDN, IBM, NetApp, Samsung i Seagate. Zauważalny jest jednak brak w tym gronie tak ważnego gracza, jak Nvidia.
Tymczasem w Polsce dostawcy rozwiązań do przechowywania i przetwarzania danych nie odczuwają jeszcze znacznej presji ze strony klientów pracujących nad projektami AI. – Pomimo intensywnego marketingu w polskich firmach AI wciąż raczkuje. Tak czy inaczej, należy rozgraniczyć wdrażanie zewnętrznych mechanizmów typu Copilot od faktycznego AI w środowisku lokalnym. W tym drugim przypadku widzimy spore zapotrzebowanie na przestrzeń dyskową głównie ze strony instytucji akademickich oraz firm R&D, które świadomie tworzą lub wdrażają systemy sztucznej inteligencji i big data – podkreśla Łukasz Milic.
Zdaniem specjalisty PRACA Z MODELAMI

Przemysław
Biel, Country
Sales Manager
Poland, Synology
PW podobnym tonie wypowiada się Przemysław Biel, Country Sales Manager Poland w Synology. Jego zdaniem największy skok ilościowy jest dopiero przed nami – nastąpi wtedy, gdy lokalne modele językowe staną się powszechnie potrzebne, umożliwiając firmom uniezależnienie się od wielkich korporacji budujących modele AI w ogromnych centrach danych. Możliwość trenowania oraz uruchamiania własnych modeli na lokalnym sprzęcie oznacza większe bezpieczeństwo, a także brak ryzyka nagłych zmian cenowych czy warunków licencyjnych ze strony dostawców chmurowych. n
opyt na macierze z roku na rok rośnie. W przypadku naszej marki tempo tego wzrostu jest dwucyfrowe. Sprzyjają temu fundusze publiczne, w tym projekty dotyczące cyberbezpieczeństwa, a także coraz większa świadomość przedsiębiorców co do rosnącej liczby zagrożeń, w tym ataków ransomware. Ponadto następuje ciągły przyrost danych, który wymaga kolejnych kopii zapasowych i zabezpieczeń, a rozwój AI wiąże się z potrzebą dużych pojemności i szybkich nośników danych. Do przechowywania dużych ilości danych wciąż najczęściej wybierane są nośniki magnetycznie, ze względu na stosunek pojemności do ceny za TB. SSD cieszą się z kolei popytem tam, gdzie niezbędna jest duża szybkość transferu danych.











































































































Rozwiązania Storware chronią dziś dane w ponad 140 krajach, a firma konsekwentnie realizuje strategię opartą na prostocie, skalowalności i bezpieczeństwie.
Storware od dekady ekspansywnie rozwija się na rynkach zagranicznych. Według Pawła Mączki, CEO firmy, aż 80 proc. jej przychodów pochodzi spoza Polski. Rozwiązania rodzimego producenta chronią dziś dane w ponad 140 krajach. Firma realizuje strategię opartą na trzech S (Simplicity, Scalability, Security). I choć na razie produkty tej marki trafiają głównie do korporacji, to zachowują prostotę użytkowania znaną z rozwiązań dla MŚP. Zastosowana w nich architektura umożliwia elastyczne skalowanie zarówno wertykalne (scale up), jak i horyzontalne (scale out). To możliwe dzięki trójwarstwowej strukturze z centralną warstwą serwerową i rozproszonymi węzłami obliczeniowymi. Storware wychodzi z założenia, iż narzędzia do backupu nie służą do prewencji – to rola systemów cyberbezpieczeństwa – lecz przywracania w nienaruszalnej postaci danych po cyberataku. Polski producent, zamiast konsolidacji produktów do ochrony danych i security, preferuje ich integrację. Jak podkreśla Paweł Mączka, Storware „nie chce tworzyć cyfrowego Frankensteina”.

Nutanix AHV, Openshift Virtualization czy OpenStack. W rezultacie użytkownicy mogą zmieniać platformy wirtualizacyjne bez konieczności wymiany systemu backupu. Przejęcie VMware przez Broadcom udowodniło, iż strategia niezależności okazała się jak się najbardziej słuszna.
Storware, jako jeden z nielicznych vendorów na rynku, może działać zarówno jako samodzielna platforma, jak i uzupełnienie dla większych systemów, takich jak Dell, IBM, czy Rubrik. To szczególnie ważne z punktu widzenia największych klientów, dla których wymiana centralnego systemu backupowego jest złożonym i czasochłonnym procesem.
Storware Backup and Recovery w nowej odsłonie
alnych potrzeb użytkownika. We wrześniu ukazała się najnowsza wersja oprogramowania Storware Backup and Recovery 7.4.
Specjaliści Storware dążą też do tego, aby ich rozwiązania były tak samo bezpieczne zarówno w dniu zakupu, jak i w dalszej przyszłości. Dlatego zapewnili wsparcie dla kilkunastu systemów wirtualizacji, w tym m.in. VMware, Hyper-V,
Flagowym produktem rodzimej firmy jest oprogramowanie Storware Backup and Recovery, które oferuje scentralizowane zarządzanie, automatyzację i kompleksową ochronę danych w środowiskach lokalnych, wirtualnych oraz wielochmurowych. Co istotne, wszystko odbywa się z poziomu jednego pulpitu, przy czym użytkownik ma pewność wsparcia dla szerokiego wachlarza źródeł danych. Storware, dzięki zaawansowanemu szyfrowaniu, niezmienności danych oraz uwierzytelnianiu wieloskładnikowemu, gwarantuje też najwyższy poziom bezpieczeństwa. Produkt dostępny jest w modelu licencji wieczystych oraz subskrypcyjnych, co pozwala dostosować rozwiązanie do indywidu-
– To kolejny kamień milowy w naszej misji upraszczania ochrony danych przy jednoczesnym zwiększaniu efektywności i elastyczności dla naszych klientów. Dzięki Storware Cloud oraz licznym usprawnieniom na kluczowych platformach umożliwiamy organizacjom jeszcze bardziej opłacalną i niezawodną ochronę ich obciążeń – podkreśla Paweł Mączka. Najważniejszą innowacją w tej wersji jest usługa Storware Cloud, zalecana jako dodatkowe miejsce do składowania kopii zapasowych. Klienci mają do wyboru trzy poziomy przechowywania: Tier 1 – obsługiwany przez N-able, Tier 2 – Vawlt oraz Tier 3 – Seagate. Storware Cloud może również pełnić rolę drugiej warstwy pamięci dla Storware Backup Appliance (SBA), w tym nowo wprowadzonych modeli SBA 1010 oraz SBA 1010E.
Storware Backup Appliance lepszy niż DIY
W bieżącym roku producent wprowadził na rynek Storware Backup Appliance, rozwiązanie sprzętowe wpisujące się w najnowsze trendy w segmencie ochrony danych. Urządzenie działa zaraz po wyjęciu z pudełka i łatwo integruje się ze środowiskami chmur publicznych i prywatnych. Storware Backup Appliance dostępny jest w pięciu wariantach, które oferują od 10 TB do 100 TB pamięci fizycznej. Dodatkowo, zintegrowane

mechanizmy deduplikacji i kompresji gwarantują co najmniej pięciokrotne zwiększenie efektywnej pojemności – czyli model 100 TB zabezpiecza do 500 TB danych. Warto dodać, że w praktyce u naszych klientów współczynnik kompresji osiąga często znacznie wyższe wartości.
Backupy są tworzone w sposób syntetyczny, a sama architektura appliance pozwala na wydajne działanie nawet przy dużym obciążeniu. Oczekiwana wydajność wynosi ok. 0,5 TB na godzinę dla bloku 64 KB lub 7 TB na godzinę dla 512 KB. Ciekawym rozwiązaniem jest Paranoid Mode – autorska konfiguracja RAID gwarantująca ciągłość pracy nawet podczas awarii czterech dysków.
Wielu integratorów preferuje rozwiązania typu DIY (Do It Yourself), które pozwalają im uzyskać przyzwoite marże. Na pierwszy rzut oka taka opcja wydaje się atrakcyjna kosztowo, ale w praktyce wiąże się z większą złożonością, wyższym ryzykiem i brakiem jednolitego wsparcia technicznego. Tymczasem każde urządzenie Storware jest przygotowywane indywidualnie, z preinstalowanym i skonfigurowanym systemem operacyjnym, środowiskiem backupowym oraz optymalnymi ustawieniami. Po podłączeniu do infrastruktury urządzenia są gotowe do pracy, bez czasochłonnych konfiguracji i ryzyka błędów. Jednocześnie bazują na komponentach klasy enterprise: serwerowych procesorach, pamięci ECC oraz systemach dyskowych zoptymalizowanych pod kątem intensywnych operacji zapisu i deduplikacji danych.



Andrzej Niziołek, wiceprezes Storware ds. sprzedaży
Rynek ochrony danych jest mocno rozdrobniony. Czym na tle konkurencji wyróżnia się oferta Storware’u?
Rynek rozwiązań do ochrony danych jest bardzo konkurencyjny. Im bardziej masowa usługa lub standardowa platforma, tym większa liczba graczy oferujących swoje produkty lub usługi do backupu. Najlepszym przykładem jest Microsoft 365, do ochrony którego można wybierać spośród kilkudziesięciu różnych rozwiązań. Równie liczne jest grono firm oferujących ochronę danych w kontekście VMware’a, ale już w przypadku platform Hyper-V czy Nutanix AHV ta liczba jest zdecydowanie mniejsza. Storware wspiera wszystkie
te standardowe platformy, niemniej jednak nasza przewaga ukazuje swoją pełnię, kiedy trzeba zabezpieczać także alternatywne platformy, takie jak OpenStack, Openshift, Oracle Linux VM, XCP-ng czy VergeOS. Wspieramy jeszcze wiele innych wirtualizatorów, bo zależy nam, aby nasi klienci mieli prawdziwą możliwość wyboru platformy, która jest najlepiej dopasowana do ich potrzeb biznesowych i technologicznych. Coraz więcej klientów zdaje sobie sprawę, że ochrona danych w takich środowiskach jest trudna w przypadku posiadanych przez nich narzędzi. Wielu z nich przychodzi do Storware’u szukając profesjonalnego doradztwa i profesjonalnych narzędzi do ochrony danych. Najciekawsze jest w tym wszystkim to, że wciąż liczba zapytań z bardzo odległych krańców świata znacząco przewyższa zainteresowanie ze strony polskiego rynku.
Jedną z cech Storware Backup Appliance jest łatwość obsługi oraz wdrożenia. Tymczasem wielu integratorów preferuje rozwiązania DIY. Czy nie obawiacie się, że utrudni to sprzedaż rozwiązania w Polsce?
Storware Backup Appliance to pierwsze na rynku urządzenie, które pozwala na ochronę danych w środowiskach z wieloma wirtualizatorami. To umożliwia szybkie i łatwe zapewnienie ochrony dla klientów dopiero rozpoczynających swoją przygodę ze światem środowisk „otwartych”, takich jak OpenStack, Openshift, lub poszukujących wydajnego i stabilnego rozwiązania do ochrony swoich standardowych zasobów. Samodzielne zbudowanie stabilnego, wydajnego i przede wszystkim bezpiecznego rozwiązania, to złożony proces wymagający niemałych umiejętności. Na przestrzeni lat obserwowałem wiele różnych podejść do tworzenia urządzeń w modelu DYI. Tworzyli je partnerzy i dystrybutorzy, którzy chcieli dodać wartość łącząc dwa lub więcej oferowanych przez siebie produktów. Zwykle kończyło się to w ten sam sposób, pojawiały się problemy z obsługą rozwiązania w produkcji i kończyły jego żywot. Jedyne systemy, które odniosły rynkowy sukces, zostały w całości stworzone przez renomowanych producentów.


Czy rozwiązania Storware są przygotowane na lawinowy przyrost danych i backup dla środowisk HCI oraz klastrów obliczeniowych?

Lawinowy przyrost danych stał się częścią nowej rzeczywistości. Mając tego świadomość, już wiele lat temu zaprojektowaliśmy nasze rozwiązanie z myślą o obsłudze znacznie większych wolumenów, niż wówczas wydawało się to konieczne. Obecnie zbieramy dane na potrzeby modeli językowych i szeroko pojmowanej sztucznej inteligencji oraz analizujemy dane historyczne, by antycypować przyszłość. System Storware Backup and Recovery został zaprojektowany w taki sposób, aby skalować się zarówno wertykalnie, jak i horyzontalnie. Umożliwia to architektura trójwarstwowa, w której kluczową rolę pełni warstwa serwerowa oraz tzw. węzły odpowiedzialne za komunikację oraz transfer danych z wirtualizatorami, środowiskami kontenerowymi czy też za działanie agentów. W zależności od potrzeb, możemy skalować system poprzez dokładanie kolejnych węzłów lub zwiększanie liczby agentów, co sprawdza się przy bardzo rozproszonych i dużych środowiskach. Wraz z rozwojem infrastruktury, następnym krokiem jest wdrożenie Large Scale Agent, który umożliwi zabezpieczanie setek milionów obiektów w ramach pojedynczej instancji agenta backupowego. Rozwiązanie to stanowi istotną przewagę konkurencyjną i znacząco wyróżnia naszą ofertę.


Europa się nie poddaje. Firmy ze Starego Kontynentu oferują innowacyjne rozwiązania, dzięki którym można z powodzeniem konkurować z koncernami zza oceanu.
Wostatnim czasie coraz częściej mówi się o rywalizacji europejskich firm IT z amerykańskimi koncernami technologicznymi. Podczas niedawnego spotkania zorganizowanego w ramach IT Press Tour w Amsterdamie europejscy dostawcy zaprezentowali innowacyjne rozwiązania, począwszy od specjalistycznych systemów pamięci masowej dla branży medialnej, przez produkty do wirtualizacji, aż po nowatorskie podejścia do cyberbezpieczeństwa i kompresji danych.
CompressionX: brytyjski startup rzuca wyzwanie gigantom
W 2012 r. dwaj Brytyjczycy – Nicholas Stavrinou oraz Stuart Marlow – założyli firmę CompressionX. Zgodnie z nazwą opracowali narzędzie do kompresji, które pozwala zredukować dane strukturalne nawet o 95 proc. Jak to często bywa, pierwsze lata działalności były bardzo trudne i przebiegały pod znakiem frustrujących negocjacji z wielkimi koncernami. Zamiast szybkich decyzji, firma
cenę podobną do tej, na jaką wyceniono WinZip.
Narzędzie CompressionX wykorzystuje inteligentny algorytm do analizy zbiorów danych i określania optymalnego sposobu ich podziału w celu osiągnięcia najlepszej kompresji w jednym cyklu. Firma może pochwalić się wieloma przypadkami użycia, począwszy od kompresji plików dźwiękowych, przez dane z lidarów i dronów, aż po systemy przemysłowe. Chociaż rynek narzędzi do kompresji jest zdominowany przez kilka znanych rozwiązań, CompressionX widzi tu dla siebie unikalne miejsce.
– Oferujemy technologię dysruptywną. Wprawdzie wchodzimy na istniejący już rynek, ale to, co proponują nasi konkurenci, choć istnieje od dawna, wcale nie jest najlepsze – mówi Samantha Sweetland, szefowa marketingu w CompressionX.
Właściciele firmy uważają, że rozwiązania konkurencyjne wobec ich produktu mają pewne mankamenty i nie do końca zaspokajają potrzeby użytkowników. W wielu przypadkach charakteryzują się nieporęcznymi, przestarzałymi interfejsami, a proces kompresji wymaga zbyt wielu kroków.
musiała przebrnąć przez ciągnące się w nieskończoność liczne spotkania, aby ostatecznie uzyskać dostęp do kluczowych danych niezbędnych do realizacji projektu.
Powolny i wyczerpujący proces był wyzwaniem dla młodej spółki. Przełomowy moment nastąpił w 2021 r., kiedy zapadła decyzja o opracowaniu wersji desktopowej, którą można będzie pobrać za
– 7-Zip kompresuje świetnie, ale działa w ślimaczym tempie. WinRAR jest z kolei błyskawiczny, jednak jego kompresja jest kiepska. Natomiast WinZip? Oni nie sprzedają oprogramowania do kompresji, oni sprzedają wszystko, co jest dookoła niego – mówi Stuart Marlow.
Dla CompressionX priorytetem jest bezpieczeństwo, co może nieco przeszkadzać w realizacji strategii marketingowej. Narzędzie używa najnowszej technologii szyfrowania XChaCha20. To protokół szczególnie popularny w nowoczesnych aplikacjach ze względu na połączenie
Wojciech Urbanek, Amsterdam
bezpieczeństwa, wydajności i łatwości implementacji. Deszyfrowanie odbywa się na urządzeniu użytkownika.
– W tym przypadku minusem jest fakt, że jeśli zgubisz swoje hasło, nie ma sposobu, żebyśmy mogli ci pomóc. Zbyt wiele możliwych kombinacji haseł sprawia, że odzyskanie jest praktycznie niemożliwe, ponieważ istnieje zbyt wiele opcji – tłumaczy Stuart Marlow.
Darmowa wersja oprogramowania oferuje jedynie najbardziej podstawowe funkcje i pozwala na kompresję do 25 GB miesięcznie. Użytkownicy, którzy chcą korzystać z nielimitowanej kompresji oraz funkcji biznesowych, muszą płacić 3,99 funta miesięcznie za użytkownika wraz z opcją rozliczania rocznego. W przygotowaniu jest też opcja „Pro Plan” dla odbiorców korporacyjnych.
Ochrona kopii zapasowych przed ransomware
Współczesne ataki ransomware charakteryzują się dość perfidną strategią: w pierwszej kolejności dążą do zniszczenia lub zaszyfrowania systemów backupowych. To podejście jest z punktu widzenia napastników wysoce racjonalne. Organizacja pozbawiona dostępu do kopii zapasowych staje przed niemożliwym wyborem: albo poniesie ogromne straty związane z utratą danych, albo będzie zmuszona do zapłacenia żądanego okupu. Ta taktyka sprawia, że tradycyjne podejście do tworzenia kopii zapasowych jest niewystarczające. Współczesne strategie backupu muszą uwzględniać nie tylko ochronę przed awariami sprzętu czy błędami ludzkimi, ale głównie zabezpieczać przed celowymi atakami hakerów. Przykładem takiego podejścia są działania francuskiego startupu Oxibox, za-

łożonego w 2014 r. Jak twierdzi François Esnol-Feugeas, dyrektor generalny i współzałożyciel firmy, kopie zapasowe muszą ewoluować od roli pasywnego narzędzia odzyskiwania danych ku aktywnej warstwie cyberbezpieczeństwa. Oxibox obsługuje ponad 8 tys. klientów, chroni codziennie 5,5 petabajta danych i jest obecny w 20 krajach.
Francuzi opracowali unikalną technologię bazującą na analizie behawioralnej na poziomie systemów plików. Kluczowa funkcjonalność systemu polega na kategoryzacji wszystkich działań w systemie plików. Technologia skutecznie rozróżnia aktywność zgodną z przeznaczeniem od potencjalnie zagrażającej, działając podobnie do systemów IPS w sieciach komputerowych lub zaawansowanych zapór sieciowych.
System Oxibox UDP funkcjonuje jako zaawansowana warstwa pośrednicząca między aplikacjami do tworzenia kopii zapasowych a rzeczywistym systemem plików. Niezależnie od używanego systemu plików, czy będzie to popularny NTFS w środowiskach Windows, czy zaawansowany EXT4, technologia UDP działa ponad warstwą systemu plików. Architektura Oxibox pozwala na pełną kontrolę nad wszystkimi operacjami związanymi z tworzeniem kopii zapasowych bez konieczności modyfikacji istniejącej infrastruktury IT. System działa transparentnie dla użytkowników końcowych i administratorów, jednocześnie zapewniając dodatkową warstwę bezpieczeństwa.
Kluczowym elementem technologii Oxibox UDP jest zdolność do analizy sekwencji POSIX (Portable Operating System Interface) w czasie rzeczywistym. System monitoruje wszystkie operacje
na plikach i katalogach, analizując wzorce dostępu charakterystyczne dla różnych typów aplikacji. Oxibox wykorzystuje przy tym sztuczną inteligencję do trenowania modeli rozpoznających wzorce zachowań różnych systemów tworzenia kopii zapasowych. Jednak w przeciwieństwie do wielu innych rozwiązań, AI nie działa w czasie rzeczywistym u klienta.
– Nie robimy tego z powodów bezpieczeństwa. Istnieje bowiem ryzyko, że złośliwy użytkownik mógłby przeprowadzić wyrafinowany atak, stopniowo modyfikując system wnioskowania, aby zmusić go do akceptowania alternatywnych formatów zapisu lub poleceń – wyjaśnia François Esnol-Feugeas.
Niemiecki euroNAS działa na rynku od 2005 r., a w jego portfolio znajduje się kilka produktów. Przy czym na szczególną uwagę zasługuje platforma hiperkonwwergentna, alternatywna do VMware’a. – Coraz częściej otrzymywaliśmy sygnały od partnerów wdrażających rozwiązania tego vendora. Doszliśmy do wniosku, że możemy wprowadzić na rynek własny system hiperkonwergentny. I w ten właśnie sposób powstał eEVOS – tłumaczy Tvrtko Fritz, CEO euroNAS. eEVOS łączy w ramach jednego rozwiązania wirtualizację, zarządzanie pamięcią masową oraz narzędzia do backupu. Atutem produktu jest możliwość urucha-
FRANCUZI OPRACOWALI
TECHNOLOGIĘ BAZUJĄCĄ NA
ANALIZIE BEHAWIORALNEJ NA POZIOMIE SYSTEMÓW PLIKÓW.
miania maszyn wirtualnych bezpośrednio w ramach platformy, bez konieczności instalowania dodatkowych hiperwizorów. System może być skalowany do 32 węzłów z potencjałem dalszego rozszerzania. Wszystkie produkty euroNAS są licencjonowane w modelu per węzeł. Licencje mają charakter wieczysty, nie wymagają odnowienia ani opłat subskrypcyjnych. Do każdej licencji dołączone jest obowiązkowe trzyletnie wsparcie techniczne. EuroNAS zatrudnia 15 stałych pracowników. Główne biuro mieści się w Niemczech, zaś w Bułgarii (od 2011 r.) działa zespół deweloperów. Firma osiągnęła przychody w wysokości 5 mln euro i stawia sobie ambitne cele na przyszłość. – Przewidujemy, że nasze kolejne wyniki finansowe sięgną 20, a nawet 30 milionów euro. Wcześniej sprzedawaliśmy klientom licencje na jeden lub dwa serwery. Obecnie oferujemy licencje dla całych klastrów. Właśnie podpisałem umowę na konfigurację eEVOS obejmującą 60 węzłów o cenie katalogowej 900 tysięcy euro. Nawet uwzględniając 50-procentowy rabat, widać wyraźnie, jak dynamicznie rosną nasze przychody – mówi z entuzjazmem Tvrtko Fritz.
Prowadzony przez niego biznes nabrał tempa zwłaszcza po wprowadzeniu przez Broadcom nowych warunków współpracy po przejęciu VMware’a. EuroNAS odnotowuje też rosnące zainteresowanie europejskimi rozwiązaniami, co jest widoczne na Starym Kontynencie od czasu, gdy do władzy w USA doszedł Donald Trump. Reakcje poszczególnych państw są jednak zróżnicowane.
– Hiszpania i Portugalia są bardzo proeuropejskie. W Niemczech nie ma to większego znaczenia, a w Polsce kochają Amerykę – podsumowuje Tvrtko Fritz.
„Za swój sukces uznajemy włączenie sztucznej inteligencji w proces oceny jakościowej świadczonych usług” – mówi
Przemysław Paliszewski, Transformation Director w polskim oddziale Armatis.
Funkcjonowanie contact center kojarzy się przede wszystkim z wykorzystaniem voice botów czy chat botów. Jak to wygląda w waszym przypadku?
Przemysław Paliszewski Armatis, jako operator contact center, świadczy usługi dla klientów zewnętrznych. Obsługujemy duże firmy z wielu różnych branż. Przejmujemy obsługę kontaktów z ich klientami końcowymi. Działamy zarówno w obszarze wsparcia użytkownika końcowego, na przykład poprzez prowadzenie infolinii czy biura obsługi klienta, jak i wsparcia kampanii sprzedażowych współpracujących z nami przedsiębiorstw. Jesteśmy twarzą naszego klienta przed jego klientami. Dlatego zarówno do ludzkiej pracy i poszczególnych narzędzi informatycznych musimy podchodzić bardzo odpowiedzialnie. Przede wszystkim należy zadbać o wysoką jakość obsługi, zapewnić wysoki poziom tzw. customer experience. Rzecz jasna mamy w swoim portfolio voice boty i chat boty, ale ich rozwijanie nie jest dla nas priorytetem.
Dlaczego?
Po pierwsze, wielu klientów przychodzi do nas z własnymi rozwiązaniami tego właśnie typu i my się musimy do nich dostosować. Po drugie, i to jest dla nas ważniejsze, sposobów na wykorzystanie nowych technologii, szczególnie teraz sztucznej inteligencji, nie brakuje też w innych obszarach – co prawda mniej widocznych dla klienta końcowego, ale mających duże znaczenie dla wspierania efektywności i jakości pracy agentów w naszym contact center.
Czyli, można powiedzieć, traktujecie AI bardziej back office’owo… Jakiego rodzaju rozwiązania stosujecie?
Za swój sukces uznajemy włączenie sztucznej inteligencji w proces oceny jakościowej świadczonych usług. Do tej pory było tak, że część przeprowadzonych rozmów – wybieranych losowo według obowiązującego algorytmu, lub według wcześniej ustalonych z klientem zasad, była przesłuchiwana przez osobę zajmującą się kontrolą jakości i oceniana pod kątem zgodności z obowiązującymi procedurami. Zazwyczaj takiej weryfikacji podlegało kilka procent przeprowadzonych rozmów. Ocena ich poziomu, a w ślad za tym również ocena pracy agenta była siłą rzeczy wyrywkowa. Sztuczna inteligencja dała nam natomiast możliwość przesłuchiwania dowolnej ilości rozmów, nawet wszystkich przeprowadzonych w naszym contact center. Odpowiednio przygotowany program jest w stanie odsłuchać rozmowę i ocenić jej przebieg według obowiązującej karty jakości. Są w niej opisane w punktach działania i zachowania, które powinny mieć miejsce, a więc które agent powinien wykonać. AI sprawdza, na ile one faktycznie w konkretnym przypadku się wydarzyły.
Jakie są efekty stosowania tego narzędzia?
Przede wszystkim agenci są oceniani na podstawie całości swojej pracy, a nie tylko według kontroli przypadkowych rozmów, w których mogli akurat popełnić jakieś
błędy. Ocena jest więc uczciwsza. Poza tym uzyskujemy olbrzymie ilości danych do analizy naszych usług i obsługi zleceń klientów. Widzimy bowiem, co się dzieje na rynku konkretnego klienta, w jego sieci, jaki są potrzeby jego klientów końcowych, z czym mają problemy, z czym do nas dzwonią. Robimy automatyczną transkrypcję tekstową przesłuchiwanych rozmów i na podstawie odpowiednio napisanych promptów przeszukujemy potem ich treści pod kątem analiz biznesowych. Jest to, jak sadzę, jedno z naszych najciekawszych narzędzi, które wpływa znacząco na osiąganie wysokiej jakości usług, jak też pozwala na lepsze rozumienie tego, co się dzieje w sieci obsługiwanych kontaktów. Nasze narzędzie jest przy tym regularnie kalibrowane. Co miesiąc wybieramy losowo paczkę rozmów i sprawdzamy zgodność walidacji dokonanej przez program z kartą ocen wystawionych przez doświadczonego agenta.
Z jakiego modelu językowego korzystacie?
Korzystamy z kilku różnych modeli językowych dostępnych na rynku w modelu open source’owym. Zrobiliśmy ich weryfikację pod kątem przydatności do naszych celów i wybraliśmy te, które najbardziej pasują do poszczególnych obszarów naszych zastosowań i najlepiej służą wykonywaniu naszych zadań. Bardzo ważną dla nas sprawą jest zapewnienie bezpieczeństwa danych – żadna rozmowa nie może wyjść poza naszą sieć – nie stosujemy więc rozwiązań chmurowych. Mamy instalacje na własnej infrastrukturze, zarówno w Polsce, jak i w ramach Grupy Armatis.
A jakie narzędzia AI-owe wspierają bezpośrednio pracę agentów w contact center?
Ponieważ pracujemy w środowisku językowym, to bardzo ważnym narzędziem jest dla nas tłumacz językowy. Oczywiście, nie jest to żadna nowość, tego typu rozwiązania funkcjonują już od dawna. Nie mogliśmy z nich jednak skorzystać, musieliśmy zbudować własny program translatorski. Powodów było kilka. Po pierwsze, kwestie bezpieczeństwa – nie możemy przekazywać tłumaczonych treści zewnętrznym organizacjom, do zasobów będących poza naszą kontrolą. Poza tym, poważnym problemem powszechnie dostępnych translatorów jest brak rozumienia kontekstu wypowiedzi. W trosce o jakość obsługi klienta nie możemy sobie pozwolić na wynikające z tego powodu, nawet sporadycznie występujące błędy, bo niejednokrotnie mogą one mieć poważne, daleko idące skutki. Nasza aplikacja, zbudowana na bazie LLM-a, tłumaczy na właści-
wy język rozumiejąc kontekst rozmowy, a do tego poprawia gramatycznie i stylistycznie to, co agenci piszą w mejlach lub na czatach zachowując formę języka business professional. Nasz program obsługuje praktycznie nieograniczoną ilość języków, nie zdarzyło się nam jeszcze, by któryś z potrzebnych akurat nie był dostępny.
Do obsługi zapytań klientów potrzebny jest dostęp do odpowiedniej bazy informacji. Czy w tym obszarze pracownicy contact center też mogą liczyć na wsparcie ze strony AI? Tak, wykorzystujemy również takie właśnie rozwiązanie. To specjalny czat, który pozwala agentom contact center zadawać pytania bezpośrednio do baz wiedzy naszych klientów i otrzymywać konkretne odpowiedzi. To diametralnie zmienia sposób pracy agentów. Nie muszą już, jak to było wcześniej, przeglądać całej listy źródeł podanej przez wyszukiwarkę, by dotrzeć do potrzebnej im informacji. Nie muszą też w przypadku wątpliwości ustawiać się w kolejce do swojego team leadera, który by im wyjaśnił, co w danej sprawie mają odpowiedzieć dzwoniącej czy piszącej do nich osobie. Sytuacje, że baza wiedzy jest przeszukiwana po słowach kluczowych i pracownik dostaje zwrotnie na przykład pięć procedur, gdzie to słowo-klucz występuje i musi sam dotrzeć do tej właściwej, jemu potrzebnej, odchodzą do lamusa. Czat, nad którym pracujemy od dwóch lat, przedstawia bezpośrednio odpowiedź na zadane pytanie. Zadawane przez agentów pytania wykorzystywane są też do trenowania naszego czata. Obecnie współpracuje on już z bazami wiedzy kilku naszych klientów.
A czy nie zdarza mu się czasami „halucynować”?
Pierwsze uruchomienia były trudne, bo „halucynacji” było całkiem dużo. Udało nam się jednak program tak skonfigurować, że jak czegoś nie wie, to nie „halucynuje”, tylko odpowiada „nie wiem”. Udało się to osiągnąć dzięki dużemu wysiłkowi zespołu deweloperów trenujących model językowy, ale też dzięki posiadaniu przez nas szczelnego procesu utrzymania jakości wiedzy. Mamy etatowego pracownika, który czyta losowo wybrane zapytania wysyłane do czata i udzielone przez niego odpowiedzi. Dokonuje ich oceny w czterostopniowej skali. A – odpowiedź idealna, B – odpowiedź dobra, ale agent musiał dopytać, C – technologia powiedziała nie wiem, D – to była halucynacja, odpowiedź zła. Przy C i D kontroler musi wpisać, jaka powinna być właściwa odpowiedź. Jest ona następnie wykorzystywana do kolejnego treningu LLM-a, że-

by uszczelnić system wiedzy. Oczywiście, szkolimy też agentów z posługiwania się tym narzędziem i jeśli nawet czat będzie „halucynował”, to nie oznacza, że agent od razu, bezmyślnie przekaże otrzymaną odpowiedź klientowi. Pracownicy wyłapują nieprawidłowości, jeśli się one zdarzają, więc nie widzimy negatywnego wpływu tego narzędzia na satysfakcję klientów z pracy naszych agentów. W wyniku ewaluacji pracy czata dostajemy też całą masę danych, które pozwalają nam jeszcze bardziej usprawniać korzystanie z baz wiedzy. Możemy, na przykład, sprawdzić, na które kwestie należy położyć większy nacisk podczas szkoleń agentów.
Czy wszystkie wykorzystywane rozwiązania tworzycie sami?
Tak, mamy w Armatis Polska własny zespół deweloperski, który jest częścią kierowanego przeze mnie zespołu. To bardzo sprawny zespół, który tworzy wszystkie potrzebne aplikacje. Sami je również wdrażamy według potrzeb zgłaszanych przez klientów. Zaczęliśmy też pracować na rzecz całej Grupy Armatis. Zarządowi z Francji spodobały się nasze rozwiązania i dostaliśmy wspar-
cie, przede wszystkim możliwość zwiększenia liczby zatrudnionych programistów, abyśmy mogli działać na rzecz całej grupy. Armatis, jako grupa, jest teraz w trakcie tworzenia osobnej firmy Armatis Technology, która będzie odpowiedzialna za prowadzenie platformy Square z czterema obszarami rozwiązań technologicznych. Aplikacje tworzone przez nasz, polski zespół również stają się częścią tej platformy.
Jakie są najbliższe plany?
Testujemy aplikację, która będzie się uruchamiała automatycznie, gdy wykryje, że agent zaczyna pisać na swoim komputerze tekst (bo np. pojawi się zdanie, akapit itp.). Będzie mu wtedy od razu proponowała poprawioną gramatycznie czy stylistycznie wersję. Wdrażamy to rozwiązanie z myślą o jakości naszych usług, żeby pracownicy nie wysyłali do klientów odpowiedzi z błędami lub napisanych nieskładnie. Zanim agent popełni błąd i wyśle niepoprawnie napisany tekst, będzie interweniować sztuczna inteligencja, podpowiadając mu prawidłowe sformułowania.
Rozmawiał Andrzej Gontarz
Bezpieczeństwo łańcucha dostaw to jeden z kluczowych tematów współczesnego cyberbezpieczeństwa. W świecie wzajemnych zależności, błędy i zaniedbania partnerów mogą uderzyć w całą organizację.
Werze globalizacji, cyfryzacji i przemysłu 4.0 ochrona informacji nie ogranicza się już tylko do granic jednej organizacji. W dobie zintegrowanych ekosystemów biznesowych i współdzielonych danych, cyberbezpieczeństwo całego łańcucha dostaw staje się kluczowym elementem strategii każdej firmy – zarówno z sektora prywatnego, jak i publicznego. Atak na łańcuch dostaw (ang. supply chain attack) polega na wykorzystaniu słabości jednego z partnerów organizacji – dostawcy, podwykonawcy lub zewnętrznego usługodawcy – w celu przeniknięcia do głównego celu ataku. Przestępcy coraz częściej wybierają właśnie taką drogę, ponieważ organizacje trzecie często nie dysponują tak zaawansowanymi zabezpieczeniami, jak duże firmy czy instytucje.
Według raportu IBM z 2020 r., aż 16 proc. incydentów w łańcuchu dostaw wynikało z luk w oprogramowaniu. Z kolei według raportu ENISA z 2021 r., głównym motywem takich ataków była kradzież danych i własności intelektualnej – w 60 proc. przypadków. Co ważne, łańcuchy dostaw są z natury złożone i rozproszone geograficznie. Słabość jednego elementu może wywołać efekt domina, prowadząc do zakłóceń – nawet na skalę globalną. Przykładem może być głośny incydent SolarWinds, w którym złośliwe aktualizacje oprogramowania trafiły do ponad 18 tys. klientów, w tym instytucji rządowych USA.
Gdzie występują łańcuchy dostaw?
Łańcuch dostaw to sieć powiązanych podmiotów i procesów – od surowca po
klienta końcowego. Występuje wszędzie tam, gdzie produkty są wytwarzane z wielu komponentów. Klasycznym przykładem są urządzenia AGD, które składają się z elementów dostarczanych przez różnych dostawców, a montaż odbywa się w Polsce. W skład łańcucha wchodzą nie tylko producenci silników, czujników i elektroniki, ale też firmy logistyczne oraz serwisowe. Przy czym usługi mogą być realizowane przez wielu partnerów technologicznych – przykładowo banki korzystają z zewnętrznych systemów IT, operatorów chmurowych, firm zabezpieczających dane i operatorów telekomunikacyjnych. Przedsiębiorstwa współpracują też z zewnętrznymi firmami w zakresie logistyki, IT, helpdesku czy produkcji – budując wielowarstwową strukturę zależności. Z kolei administracja publiczna korzysta z usług firm wdrażających i utrzymujących systemy e-usług, centrów danych i operatorów sieci, co czyni ją podatną na incydenty
Wiele norm i przepisów nakłada obowiązek zapewnienia bezpieczeństwa łańcucha dostaw. Poniżej najważniejsze z nich.
Zgodność z powyższymi wymaganiami nie tylko ogranicza ryzyko, ale często jest warunkiem koniecznym dla funkcjonowania organizacji w sektorach regulowanych (np. energetyka, administracja, usługi cyfrowe).
Norma/Regulacja Wymagania dotyczące bezpieczeństwa łańcucha dostaw
ISO/IEC 27001
ISO 22301
KSC (Ustawa o Krajowym Systemie Cyberbezpieczeństwa)
KRI (Krajowe Ramy Interoperacyjności)
Międzynarodowa norma określająca wymagania dla Systemu Zarządzania Bezpieczeństwem (SZBI). W kontekście łańcucha dostaw, norma ta podkreśla konieczność identyfikacji i zarządzania ryzykiem związanym z dostawcami oraz zapewnienia, że odstawcy spełniają odpowiednie wymagania bezpieczeństwa informacji.
Międzynarodowa norma dotycząca zarządzania ciagłością działania. Wymaga od organizacji identyfikacji potencjalnych zagrożeń dla działalności, w tym tych związanych z dostawcami, oraz opracowania planów zapewniających ciągłość działania w przypadku zakóceń w łańcuchu dostaw.
Polska ustawa nakładająca obowiązki na operatorów usług kluczowych oraz dostawców usług cyfrowych w zakresie zapewnienia cyberbezpieczeństwa. W kontekście łańcucha dostaw ustawa ta wymaga od podmiotów wdrożenia środków zarządzania ryzykiem, które uwzględniają bezpieczeństwo dostawców i podwykonawców.
Polskie rozporządzenie określające standardy i wymagania dla systemów teleinformatycznych w administracji publicznej. W kontekście łańcucha dostaw KRI nakłada obowiązek stosowania odpowiednich zabezpieczeń oraz zapewnienia, że podmioty przetwarzające dane na zlecenie instytucji publicznych spełniają określone wymagania bezpieczeństwa.
Zgodność z powyższymi wymaganiami nie tylko ogranicza ryzyko, ale często jest warunkiem koniecznym dla funkcjonowania organizacji w sektorach regulowanych (np. energetyka, administracja, usługi cyfrowe).
bezpieczeństwa. W przypadku zaś usług publicznych wodociągi i kanalizacja zarządzają infrastrukturą krytyczną z pomocą systemów SCADA, dostawców czujników, urządzeń i usług konserwacyjnych – każdy z tych elementów może zostać zaatakowany. Rzecz jasna, im bardziej rozbudowana oraz cyfrowa jest ta sieć, tym większe ryzyko, że któreś ogniwo zostanie wykorzystane jako wektor ataku.
Kto należy do łańcucha dostaw?
Słowem, każdy łańcuch dostaw to nie tylko dostawcy komponentów, ale również integratorzy, firmy transportowe, serwisanci, operatorzy IT, dostawcy energii, usługodawcy chmurowi i wielu innych. W przypadku producenta AGD będą to: dostawcy podzespołów (silniki, czujniki, moduły Wi-Fi), twórcy oprogramowania, firmy montażowe, operatorzy systemów ERP, jak też dostawcy serwisów posprzedażowych. W tym przypadku zagrożenie polega na przykład na zainfekowaniu jednego z komponentów oprogramowania, co może skutkować dystrybucją złośliwego kodu w tysiącach urządzeń końcowych. W przypadku zaś administracji publicznej w łańcuch urzędów mogą wchodzić: operatorzy systemów teleinformatycznych, centra danych czy firmy wdrażające systemy do obsługi obywateli. W tym wypadku atak na podwykonawcę może skutkować wyciekiem danych obywateli, np. PESEL-i bądź danych medycznych. Wreszcie w sektorze usług wodociągowych i kanalizacyjnych elementy łańcucha to systemy sterowania (SCADA), urządzenia monitorujące, firmy utrzymujące sprzęt, a także dostawcy prądu i internetu. Wówczas przejęcie kontroli nad systemami może doprowadzić do przerw w dostawie wody lub zanieczyszczenia środowiska.
Szczegółowy model postępowania w każdym z szeregu przypadków zamieszczamy w artykule opublikowanym na stronie Sisosft: www.sisoft.pl/baza-wiedzy/cyberbezpieczenstwo-lancuch-dostaw. Grzegorz Surdyka opisuje w nim pięć kroków skutecznego podejścia do zarządzania bezpieczeństwem, obejmującego ocenę ryzyka, weryfikację partnerów i ciągłość działania.
Łukasz Kokoszka pełni rolę
Cybersecurity Consultant w Sisoft.







Spacerując jakiś czas temu po dzielnicy Huaqiangbei w Shenzhen, która jest największym rynkiem producentów elektroniki wszelkiej, zainteresowały mnie przeróżne oferty dronów. Od malutkich-kieszonkowych po wielkie, które mogą przewozić towary na duże odległości. W tym aspekcie nasuwa się konkluzja, że Chiny mogą produkować drony w skali dającej istotną przewagę militarną, bo już chyba każdy wie, że to drony, a nie czołgi są kluczowe na współczesnym polu walki. Kiedy rozmawiałem z producentami i handlowcami o rynkach ich sprzedaży, zdziwiła mnie jedna rzecz, a mianowicie, że bez problemu mogą eksportować wszystko na cały świat z wyłączeniem państw, które są objęte światowymi sankcjami na produkty typu dual-use, czyli dotyczy to Ukrainy, Iranu, Korei Północnej, niektórych państw afrykańskich oraz Rosji! Tak! Także Rosji. Zdziwiło mnie to, bo miałem takie przeświadczenie, że akurat Rosja jest w jakiś „bierny” sposób wspierana przez Chiny. Otóż już nie. Jeśli tak było, to już tak nie jest. Sytuacja się zmieniła i w prywatnych rozmowach Chińczycy zdradzają obawę, że USA wraz z Rosją zawiązują właśnie sojusz przeciwko Chinom. W zamian za Europę Wschodnią, którą dostaną od Amerykanów, Rosja będzie co najmniej bierna w razie wielkoskalowego konfliktu USA-Chiny. „Tak ludzie powiadają”.
W tej sytuacji Europa powinna zacząć rozwijać zainteresowanie taktyką obronną na bazie dronów i zakupywać ich dużą ilość z Chin, a jednocześnie rozpocząć samodzielną wielkoskalową produkcję. Jednak Chiny zrobiły nam bardzo wyrafinowanego „bana” na eksport dronów. Poza nielicznymi wy-


Europa powinna zacząć rozwijać zainteresowanie taktyką obronną na bazie dronów i zakupywać ich dużą ilość z Chin, a jednocześnie rozpocząć samodzielną wielkoskalową produkcję.
jątkami oraz globalnym brandami typu DJI, inni producenci perfidnie przestali wystawiać certyfikaty CE na te produkty, co pozbawia UE dostępu do wielkoskalowego importu. Wygląda na to, że większość produkcji jest kierowana jednak do Rosji i Ukrainy poprzez pośredników z Kazachstanu i Indii (akurat ci odbiorcy nie potrzebują CE). Unia Europejska została w ten sposób pozbawiona ważnych zasobów, potrzebnych przynajmniej do celów szkoleniowych i badawczych w zakresie technik obronnych.
Co zaś do masowej produkcji dronów w Polsce i Europie, to jest utopia i nawet szkoda o tym gadać. W polskim wydaniu będzie to wielka defraudacja publicznych pieniędzy. Przypomnijmy sobie historię z czasów pandemii, gdy cała Polska padła na kolana pod ciężarem zadania produkcji zwykłych maseczek. Powstawały wielkie inicjatywy polskich szwaczek albo pomysły na fabryki za setki milionów. To był wielki szturm na koryto. A wystarczyło żeby kilku automatyków przerobiło linie z pakowania jogurtów na zszywanie maseczek. No ale jak z takiego projektu ukraść kilkadziesiąt milionów? Tak więc Chiny nas wykluczają z budowania taktyki obronnej na bazie dronów usuwając z pudełek znaczek przekreślonego śmietnika oraz CE…
Arnold Adamczyk
Autor od 2012 roku prowadzi działalność w Chinach i Hong Kongu w zakresie VR/AR/MR. Zajmuje się produkcją sprzętu i oprogramowania Mixed Reality na potrzeby szkoleń w zastosowaniach specjalistycznych. Prezes zarządu spółki technologicznej Sunway Network notowanej na NewConnect.

Polska utrzymuje silną pozycję na technologicznej mapie Europy i to nie dzięki niższym płacom. Zdecydowanie większą rolę odgrywa obecnie wysoka jakość usług, wynikająca z kompetencji zespołów i rozwijającego się zaplecza edukacyjnego.
Polski sektor IT działa w realiach silnie umiędzynarodowionych. Wielu specjalistów pracuje w modelu zdalnym lub hybrydowym, często w strukturach rozproszonych geograficznie. Praca dla firm z USA, Niemiec, Wielkiej Brytanii czy Skandynawii stała się codziennością, a kompetencje językowe, samodzielność
ŻAŁUJĘ, ŻE TAK PRZEŁOMOWYCHNIEWIELEROZWIĄZAŃ
i umiejętność funkcjonowania w kulturze projektowej to obecnie podstawowe wymagania zawodowe. Taki model działania wymaga nie tylko wiedzy technicz-
nej, ale także zdolności adaptacyjnych i wysokiego poziomu odpowiedzialności. To właśnie te cechy – obok kompetencji twardych – sprawiają, że polscy specjaliści są cenionymi partnerami w globalnych inicjatywach.
Jednocześnie coraz więcej firm technologicznych działających w Polsce obsługuje klientów z całego świata, co umacnia pozycję naszego kraju jako dojrzałego i godnego zaufania rynku IT o rosnącym znaczeniu strategicznym.
– Rynek IT już dawno przekroczył granice lokalności. Dziś większość projektów realizowana jest w strukturach międzynarodowych. Polscy specjaliści doskonale odnajdują się w tej rzeczywistości, łącząc wiedzę technologiczną z umiejętnością pracy w zróżnicowanych kulturowo środo-
wiskach – mówi Agata Jemioła, Branch Manager w Grafton Recruitment. Jak wynika z raportu „Wynagrodzenia i trendy w IT” opracowanego przez Grafton Recruitment, baza talentów w tym sektorze stale się powiększa. Z kolei zgodnie z danymi GUS, liczba studentów kierunków technicznych i informatycznych rośnie szybciej niż ogólna liczba studiujących w kraju. W skali ogólnopolskiej udział tej grupy w całkowitej liczbie studentów wzrósł o 4,2 p.p., co potwierdza trend wzmacniania zaplecza kadrowego w branży. Najwyższe wzrosty odnotowano w województwach wielkopolskim (+20 proc.), dolnośląskim (+11,4 proc.), śląskim (+7,9 proc.) i lubelskim (+6,6 proc.). Ośrodki akademickie skupiające największą liczbę studentów IT znajdują się natomiast w województwach mazowieckim (21 959 osób), małopolskim (12 939) i dolnośląskim (10 526). Dane te potwierdzają rosnące zainteresowanie młodych ludzi technologią, a jednocześnie wskazują na potrzebę dalszego rozwoju infrastruktury edukacyjnej w mniejszych regionach kraju.
– Obserwujemy coraz większe zróżnicowanie specjalizacji, od klasycznego programowania, przez rozwiązania chmurowe i analizę danych, po nowe obszary związane ze sztuczną inteligencją, jak inżynieria promptów czy etyka algorytmów. Jednocześnie zmienia się struktura zapotrzebowania na kompetencje – automatyzacja prostych zadań, zwłaszcza z wykorzystaniem AI, sprawia, że liczba ofert na stanowiskach juniorskich maleje. W ich miejsce pojawiają się jednak nowe role, wymagające głębszej specjalizacji, myślenia strategicznego i umiejętności łączenia wiedzy technologicznej z kontekstem biznesowym – podkreśla Karol Boczkowski, rekruter IT w Grafton Recruitment.
Dane Polskiej Agencji Inwestycji i Handlu (PAIH) pokazują, że Polska przyciąga inwestycje w obszarze IT nie tylko z powodu konkurencyjnych kosztów, ale przede wszystkim dzięki szerokiej puli specjalistów, rozwiniętemu zapleczu akademickiemu oraz stabilnemu otoczeniu gospodarczemu. Każde województwo dysponuje własną siecią uczelni technicznych, a informatyka i telekomunikacja należą do najczęściej wybieranych kierunków. Ponad 55 tys. osób rocznie kończy kształcenie w tych dziedzinach, a Polska może poszczycić się jednym z najwyższych w UE udziałów kobiet wśród absolwentów kierunków STEM. Atutem jest również korzystne położenie w środkowoeuropejskiej strefie czasowej oraz dobrze rozwinięta infrastruktura transportowa, sprzyjająca współpracy z rynkami Europy Zachodniej i Skandynawii.
– Polska jest zdecydowanie jednym z najbardziej atrakcyjnych kierunków dla zagranicznych firm planujących nowe inwestycje w obszarze ICT. To efekt wieloletniego rozwoju kadry specjalistów, jak również rozwiniętego systemu edukacji szkolnej i wyższej. Dodatkowymi atutami Polski są dogodne położenie geograficzne oraz wciąż niższe koszty pracy niż w większości krajów Europy Zachodniej – podkreśla Aleksander Turkiewicz, Consultant PAIH w Investment Support Department.
Raport „Wynagrodzenia i trendy w IT” jednoznacznie pokazuje, że siła polskiego IT nie leży w skali, lecz w jakości. To stabilność, specjalizacja i zdolność do budowania długofalowych relacji przesądzają dziś o konkurencyjności rynku. Liczy się nie tyle dynamiczny wzrost zatrudnienia, co rozwój wyspecjalizowanych zespołów, które potrafią łączyć technologię z potrzebami biznesu, projektować rozwiązania i współtworzyć strategie cyfrowe. W połączeniu z rosnącym zapleczem młodych talentów, Polska ma wszystkie atuty, by umacniać swoją pozycję jako jeden z najważniejszych ośrodków technologicznych w Europie – nie tylko jako wykonawca, ale jako współtwórca rozwiązań o globalnym znaczeniu.
Zdaniem specjalisty

Agata
Jemioła, Branch Manager, Grafton
Recruitment
Jesteśmy w punkcie, w którym konkurencyjność polskiego rynku
IT nie zależy już od „cennika” usług. Coraz większą rolę odgrywa jakość, elastyczność operacyjna i wysoka kultura techniczna specjalistów. Pracodawcy, zarówno lokalni, jak i zagraniczni, poszu-
kują dziś partnerów technologicznych, którzy potrafią nie tylko wykonać zadanie, ale także zapewnić wartość dodaną – rozumieją kontekst biznesowy, potrafią działać proaktywnie i są w stanie rozwijać rozwiązania wspólnie z klientem.
W raporcie „Wynagrodzenia i trendy w IT” prezentowane są wyniki badania przeprowadzonego metodą CAWI w okresie od kwietnia do maja 2025 r. Wzięło w nim udział 187 respondentów, wśród których 161 osób zadeklarowało aktualne zatrudnienie w sektorze IT. Partnerem raportu jest PAIH.
W pierwszych trzech miesiącach tego roku zapotrzebowanie na specjalistów od AI/ML urosło niemal dwukrotnie.
Jak wynika z danych justjoin.it, w I. kw. 2025 r. pracodawcy z sektora IT opublikowali niemal 20 proc. więcej ofert pracy niż w analogicznym okresie ubiegłego roku. Szczególnie poszukiwani byli specjaliści od takich języków programowania, jak Python (7778 ogłoszeń), Java (1296) i JavaScript (ponad 1 000 ofert pracy).
Pod względem liczby ofert pracy zainteresowaniem cieszyli się też eksperci od danych, tzw. data scientists (608 ofert pracy). Największy procentowy przyrost ofert widać jednak wśród pracowników wykorzystujących sztuczną inteligencję, w tym uczenie maszynowe. Jednocześnie duże zapotrzebowanie miało miejsce w przypadku inżynierów i projektantów CAD (451), grafików lub graphic designerów (311), a także pentesterów oraz specjalistów ds. cyberbezpieczeństwa (310). W omawianym okresie na znaczeniu zyskały poza tym połączone kategorie Prompt Engineer, AI Specialist i Machine Learning Engineerów (210 miejsc pracy).
Analiza ostatniego roku, co znajduje również potwierdzenie w I kw. br., wskazuje, że branża IT coraz wyraźniej kieruje się w stronę AI – technologii, która wspiera procesy analityczne i automatyzację. W efekcie powstały nowe specjalizacje oparte na sztucznej inteligencji, jak AI Prompt Engineer, Machine Learning Engineer czy AI Architect. Dane justjoin. it pokazują, że eksperci w tym obszarze będą coraz bardziej pożądani przez pracodawców.
- Branża IT wkracza w okres intensywnych przemian. Inwestycje firm koncentrują się głównie wokół sztucznej inteligencji, analityki danych i automatyzacji, przy czym kluczowym kryterium staje się zdolność pracowników do generowania wymiernych korzyści biznesowych. Dla profesjonalistów IT oznacza to konieczność nieustannego rozwoju kompetencji, ze szczególnym naciskiem na efektywne wykorzystanie narzędzi AI w praktyce – mówi Paweł Baraniewicz, Head of Engineering w portalach justjoin.it oraz rocketjobs.pl.

Interesujące wnioski płyną też z badania NTT Data Business Solutions „Cyfryzacja przemysłu: rola zintegrowanych systemów zarządzania w firmach produkcyjnych w Polsce” (listopad 2024). Analiza dotyczyła planowanego na 2025 r. przez firmy produkcyjne rozwoju technologii IT. W tamtym przypadku ba-
dani na pierwszym miejscu wskazywali analitykę big data (84 proc.) oraz kwestię danych. Dla porównania, zapotrzebowanie na rozwój sztucznej inteligencji wymieniało 44 proc. przedstawicieli firm wytwórczych.
- Wniosek może być jeden: polskie firmy najpierw chcą zadbać o odpowiednią jakość danych, a w dalszej kolejności rozwijać kwestie AI. Bez dobrej analityki nie będą w pełni wykorzystywać potencjału sztucznej inteligencji – podsumowuje Andrzej Wiglusz, Dyrektor HR i Administracji w Komputroniku.

Największym tegorocznym wyzwaniem na rynku pracy jest brak ludzi – nie technologii.
Mazowsze, Dolny Śląsk i Małopolska wciąż dyktują warunki – to tam koncentruje się przemysł, nowoczesne usługi i – co za tym idzie – najwyższe pensje. Przykład? Inżynier procesu we Wrocławiu może zarobić 10–13 tys. zł brutto, podczas gdy jego odpowiednik w Rzeszowie czy Kielcach musi zadowolić się stawką o kilka tysięcy niższą, na poziomie 7–9 tys. zł. Widać natomiast wyraźnie, że duże miasta, choć przyciągają talenty, mają problem z ich utrzymaniem. Mniejsze ośrodki – mimo zapotrzebowania i często lepszych stawek dla stanowisk deficytowych, takich jak kierowcy zawodowi czy księgowi – nie są jednak w stanie skutecznie konkurować o wysokiej klasy specjalistów. Co ważne, różnice w wynagrodzeniach specjalistów średniego i wyższego szczebla w Polsce są znaczące i coraz bardziej zależą od lokalizacji. Te dysproporcje wpływają też na migrację kadry i pogłębiają braki w mniej uprzywilejowanych regionach.
Mało ludzi, jeszcze mniej robotów Na rynku pracy fizycznej jak w soczewce odbija się aktualna sytuacja gospodarcza – tam, gdzie bezrobocie jest najniższe, tam są największe niedobory. Problem dotyczy zwłaszcza kluczowych ośrodków – takich jak Warszawa, Wrocław i Poznań. Widać to również w strukturze wynagrodzeń. W sektorze blue collar różnice płac są szczególnie widoczne na stanowiskach specjalistycznych i odzwierciedlają ogólnokrajowe trendy. W przypadku pracow-
ników niewykwalifikowanych na stawkę wpływa nie tylko region – zgodnie z podziałem wojewódzkim, ale także sezonowość. W okresie wzmożonego zapotrzebowania, np. latem lub w IV kwartale, wynagrodzenia mogą rosnąć o 10–15 proc. na tych samych stanowiskach.
– Choć w debacie publicznej wiele mówi się dziś o wpływie sztucznej inteligencji i automatyzacji na rynek pracy, to rzeczywistość operacyjna wielu firm w Polsce wygląda zupełnie inaczej. Pod względem poziomu robotyzacji wciąż pozostajemy w tyle za sąsiadami. Według ubiegłorocznych danych IFR w Niemczech przypada 429 robotów na 10 tysięcy pracowników, w Czechach – 207, a w przemyśle wytwórczym w Polsce zaledwie 78. Ten niski poziom automatyzacji utrzymuje niedobory kadrowe, zwłaszcza w produkcji, logistyce czy przemyśle – podkreśla Justyna Gosk, dyrektor operacyjna LeasingTeam Group.
Braki wykwalifikowanej kadry najbardziej są widoczne w zawodach technicznych i rzemieślniczych. System edukacji zawodowej od lat nie nadąża za realiami. Z kolei ci, którzy posiadają odpowiednie kwalifikacje, coraz częściej wyjeżdżają – do Niemiec, Holandii czy Norwegii – nadal kuszeni lepszymi wynagrodzeniami i warunkami pracy. Niestety, szanse, by „uzupełnić” siłę roboczą w naszym kraju cudzoziemcami nadal są niewielkie ze względu na ograniczenia wizowe i skomplikowane procedury formalne. Dotyczy to zwłaszcza budownictwa i transportu.
6 najbardziej deficytowych stanowisk w sektorze IT
1. DevOps Engineers – największy i najdłużej utrzymujący się deficyt, który wynika z łączenia kompetencji programisty i administratora w ramach jednego stanowiska
2. Backend Developerzy – szczególnie Java i Python
3. Data roles – Data Engineers, Data Scientists, specjaliści AI/ML
4. QA Automation
5. Specjaliści ds. cyberbezpieczeństwa
6. Specjaliści Cloud (Azure, GCP)
Sektor IT: zmiana standardów rekrutacji
Ten rok przyniósł wyraźną zmianę na rynku rekrutacyjnym IT w Polsce. Przez lata dominowały klasyczne role programistyczne – Backend, Frontend, Fullstack – odpowiadające za lwią część procesów rekrutacyjnych. Jeszcze w 2024 r. stanowiska te stanowiły ponad połowę wszystkich wakatów w branży. Dziś? Ich udział spadł do zaledwie 36–37 proc. To przekłada się na 27-procentowy spadek liczby ofert dla kodujących specjalistów rok do roku. – W dzisiejszych realiach r ynkowych elastyczność w zarządzaniu zasobami IT jest coraz istotniejsza. Zdarza się, że potrzebny jest specjalista „na już”, a kandydatów gotowych podjąć się miesięcznego czy trzymiesięcznego projektu jest niewielu. Ci szukają raczej stabilnych, dłuższych kontraktów. W takich sytuacjach outsourcing daje firmie realną przewagę, bo pozwala reagować praktycznie z dnia na dzień i unikać opóźnień – zauważa Anita Dąbrowska, członek zarządu IT LeasingTeam.
Zmienia się również charakter poszukiwanych ról – coraz większy udział mają stanowiska interdyscyplinarne i zorientowane na dane oraz zarządzanie. IT LeasingTeam obserwuje wzrost zapotrzebowania o 100 proc. rok do roku na takie stanowiska jak Salesforce Developer czy CRM Integration Consultant oraz o 133 proc. w przypadku ról BI Engineer, Senior Data Engineer oraz analityk biznesowo-systemowy. Pojawiają się też role projektowe, takie jak Cloud DevOps Engineer (Azure/GCP), Infrastructure Support Specialist (L2), a także Scrum Master, Product Owner czy Release Train Engineer – które jeszcze rok temu w ogóle się nie pojawiały, a dziś odpowiadają za niemal 10 proc. zatrudnień.
– Branża IT często sama ogranicza sobie dostęp do talentów, chociażby wracając do hybrydowego czy stacjonarnego modelu współpracy. Jednocześnie mamy juniorów – bardzo potrzebnych z perspektywy przyszłości zespołów IT, których wdrożenie i nauka dla wielu firm jest wyzwaniem, jeśli wszyscy lub większość pracuje zdalnie. Tym bardziej potrzebujemy dziś wyważonego
podejścia, elastyczności, która pozwala zachować równowagę między efektywnością zespołów a dostępem do najlepszych talentów. Jeśli tego nie osiągniemy, rynek IT może czekać poważna luka kompetencyjna – mówi Anita Dąbrowska.
Skąd te niedobory kadrowe?
Problem nie sprowadza się wyłącznie do kwestii płac. Coraz bardziej widoczne stają się cztery kluczowe czynniki systemowe: struktura demograficzna, poziom urbanizacji, dostępność uczelni i szkół branżowych oraz atrakcyjność inwestycyjna regionu. Wschodnie i południowo-wschodnie województwa, takie jak podkarpackie, lubelskie czy świętokrzyskie, borykają się z trwałym odpływem młodych ludzi do większych miast lub za granicę. Brakuje tam nie tylko doświadczonych specjalistów, ale często także osób chętnych do nauki zawodu. Z kolei w województwach lubuskim i opolskim głównym wyzwaniem jest starzejąca się populacja pracowników i brak mechanizmów, które zatrzymałyby absolwentów szkół wyższych w regionie – młodzi rzadko wracają po studiach.
W obliczu tych wyzwań konieczne stają się systemowe działania wspierające mobilność zawodową. Pracodawcy coraz częściej sięgają po narzędzie, które jeszcze kilka lat temu traktowano jako wyjątek – relokację.
– To rozwiązanie, po które nasi klienci sięgają coraz częściej. W praktyce najczęściej oznacza to pokrycie kosztów wynajmu mieszkania, częściowo lub w pełni, na określony czas, a także jednorazowe świadczenie relokacyjne lub zapewnienie tymczasowego zakwaterowania blisko zakładu pracy. Szczególnie aktywne w tym zakresie są firmy z Dolnego Śląska i Śląska, które ze względu na wysycenie lokalnych rynków pracy szukają kandydatów w Małopolsce, na Podkarpaciu, a nawet w centralnej Polsce – mówi Agnieszka Sarecka, Team Leader rekrutacji stałych w LeasingTeam Group. Dodatkowym wyzwaniem jest rotacja kadry, która według danych LeasingTeam Group najmocniej dotyka specjalistów i inżynierów. Dla porównania – dużo stabilniejsza jest sytuacja wśród kadry kierowniczej średniego szczebla, a najniższy poziom rotacji dotyczy top managementu. Największą mobilność widać w regionach o dużej koncentracji nowoczesnych usług i przemysłu – szczególnie w województwach mazowieckim (Warszawa i okolice) oraz małopolskim (Kraków). Tam rotacja całkowita sięga około 20 proc., głównie ze względu na dużą konkurencję między pracodawcami i obfitość ofert pracy.
Wakacyjny ból głowy pracodawców
W kontekście braków kadrowych dla pracodawców testem organizacyjnym są: okres urlopowy, sezonowy wzrost zapotrzebowania na pracowników (np. w IV kwartale) oraz niespodziewane absencje chorobowe. W wielu firmach, zwłaszcza w produkcji, logistyce czy handlu, brak nawet kilku kluczowych pracowników może zaburzyć cały rytm działania.
Z perspektywy firmy rekrutacyjnej największym błędem pracodawców jest zbyt późne reagowanie na absencje. Próbują „łatać dziury” wewnętrznie, przeciążając dostępnych pracowników. Prowadzi to do wypalenia i frustracji obecnych zatrudnionych, a w dłuższej perspektywie – do kolejnych odejść. W firmach, które nie mają elastycznej strategii kadrowej, bardzo często pojawia się też problem nieudanych rekrutacji „na szybko”. – Koszt zatrudnienia niewłaściwej osoby, nawet na krótki czas, może być wyższy niż tymczasowe zatrudnienie kogoś przez sprawdzonego partnera zewnętrznego. Dlatego zdecydowanie warto myśleć o zasobach ludzkich w sposób zwinny – nie tylko w kontekście etatów, ale również realnych potrzeb i możliwości – komentuje Agnieszka Sarecka.
By ograniczyć ryzyko braków kadrowych, warto postawić na działania prewencyjne: zarządzanie urlopami z wyprzedzeniem (np. tworzenie rotacyjnych grafików na
min. 1–2 miesięcy do przodu), analizę danych historycznych (identyfikację szczytów absencji i zapotrzebowania na podstawie danych z poprzednich lat) oraz wyodrębnienie zapasowego budżetu kadrowego, czyli uwzględnienie w planie HR „buforu urlopowego”.
WYRAŹNĄ ZMIANĘ NA RYNKU REKRUTACYJNYM W BRANŻY IT.
Zatrudnienie pracowników tymczasowych lub skorzystanie z rezerwy kadrowej pozwala nie tylko pokryć braki, ale też uniknąć przeciążenia zespołu, które w dłuższej perspektywie zwiększa ryzyko wzrostu rotacji i wypalenia zawodowego – dodaje Justyna Gosk. Rynek pracy w Polsce pokazuje, że mamy do czynienia nie tylko z ogólnym niedoborem pracowników, ale przede wszystkim z głębokimi brakami kadrowymi wśród specjalistów średniego i wyższego szczebla. Kluczowa staje się dziś elastyczność po stronie pracodawców, współpraca z sektorem edukacji i otwartość na nowe modele zatrudnienia. Bez tego nawet najlepiej zaprojektowana oferta pracy może trafić w próżnię – ponieważ „idealny kandydat” już dawno pracuje gdzie indziej, często za granicą. n
Najbardziej deficytowe stanowiska w podziale na województwa (tzw. białe kołnierzyki)
Województwo
Dolnośląskie
Kujawsko-Pomorskie
Lubelskie
Lubuskie
Łódzkie
Małopolskie
Mazowieckie
Opolskie
Podkarpackie
Podlaskie
Pomorskie
Śląskie
Świętokrzyskie
Warmińsko-Mazurskie
Wielkopolskie
Zachodniopomorskie
Brakujący specjalista
Technik podziemnej eksploatacji kopalin
Technik OZE (urządzenia i systemy)
Technik technologii żywności
Technik OZE
Technik przemysłu mody, krawiec
Technik elektronik
Technik elektroniki i informatyki medycznej
Technik technologii żywności
Technik mechanik lotniczy
Technik agrobiznesu
Technik OZE
Technik komunikacji szerokopasmowej
Technik mechanizacji rolnictwa i agrotroniki
Technik przemysłu jachtowego
Technik aranżacji wnętrz
Technik elektroautomatyk okrętowy
Świat się zmienia. Na wiosnę tego roku chińscy producenci oraz influencerzy rozpoczęli kampanię, która miała na celu ujawnienie rzeczywistych kosztów produkcji luksusowych produktów zachodnich marek, takich jak Hermès czy Lululemon. W mediach społecznościowych, zwłaszcza na TikToku, pojawiły się filmy pokazujące, że wiele z tych produktów jest wytwarzanych w Chinach za ułamek ceny detalicznej, co ma podważyć wartość dodaną wynikającą z marki i marketingu. Przykładowo, rzeczywiste koszty wytworzenia torby przypominającej Hermès Birkin – za materiały i pracę – wynosi około 1450 dol., podczas gdy oficjalna cena butikowa sięga 38 tys. dol., z czego większość to marża za logo.
POTRZEBUJEMY SILNYCH, EUROPEJSKICH MARKETPLACE’ÓW, ZDOLNYCH DO KONKUROWANIA Z AMAZONEM, ALIEXPRESS, TEMU CZY SHEIN.
W tle całej kampanii toczy się wojna celna między USA a Chinami. USA wprowadziły cła dochodzące do 145 proc., na co Pekin odpowiedział własnymi ograniczeniami. W tym kontekście chińscy producenci zachęcają konsumentów do kupowania bezpośrednio od nich – bez kosztów „marki”, ale
Domykający się system
z identycznymi materiałami i wykonaniem. Chińskie fabryki zaczęły promować sprzedaż bezpośrednią do konsumentów w USA, omijając tradycyjne kanały dystrybucji. Poprzez TikToka zachęcają Amerykanów do zakupów bezpośrednio od producentów.
Istota brandingu marek luksusowych Branding w sektorze dóbr luksusowych nie polega wyłącznie na dostarczaniu wysokiej jakości produktów. To system wartości i aspiracji, który opiera się na pięciu filarach: rzadkości i ekskluzywności (marka luksusowa nie jest dla każdego, dostępność jest celowo ograniczana); historii i dziedzictwie (marki takie jak Hermès, Chanel czy Rolex budowały swój wizerunek przez dziesięciolecia, a często stulecia); symbolu społecznym (posiadanie produktów luksusowych komunikuje status, prestiż i przynależność do elity); marketingu narracyjnym (storytelling, ambasadorzy marki, kunszt rzemieślniczy – to elementy tworzące aurę unikatowości), a wreszcie na doświadczeniu klienta (luksus to także sposób obsługi, opakowanie, butik, opowieść, a nie tylko produkt).
Chińskie działania demaskujące struktury kosztów mogą zatem podważać racjonalność wysokich cen, ale niekoniecznie unieważniają istotę luksusu – bo luksus to w dużej mierze emocjonalna i społeczna wartość symboliczna, nie tylko materialna. Chińskie fabryki nie tylko produkują – dziś
Obserwowana sytuacja ujawnia nowy, zintegrowany ekosystem chińskiej gospodarki produkcyjno-technologicznej, w którym ściśle powiązane są trzy kluczowe elementy: masowa produkcja, platformy e-commerce (np. Taobao, DHGate, Alibaba, Temu) oraz chińskie media społecznościowe z silną obecnością wideo (TikTok/Douyin). Razem tworzą one swoisty zamknięty obieg, który umożliwia: wytwarzanie (produkty „luksusopodobne” na bazie tych samych materiałów i technologii), logistykę (szybki łańcuch dostaw – często bez pośredników), promocję (autentyczne materiały z fabryk, często viralowe treści porównawcze) oraz sprzedaż (bezpośrednią, globalną, z pominięciem zachodnich kanałów dystrybucji). Wspólnym przesłaniem tego modelu jest hasło: „Kupisz u nas to samo, o wiele taniej – nie płać za logo”. To wyzwanie rzucone klasycznemu modelowi marek luksusowych, który przez dekady bazował nie tylko na jakości, ale przede wszystkim na symbolicznej wartości marki.
potrafią też tworzyć narrację, kształtować gusty i dostarczać produkt prosto do klienta, często taniej, szybciej i bardziej bezpośrednio niż tradycyjni gracze. To stawia zachodnie marki w trudnej sytuacji – zmusza je do obrony sensu istnienia marki i wartości „logo”, które w oczach wielu konsumentów zaczyna tracić na znaczeniu.
Rzemiosło wraca do źródeł
Elementem wyróżnienia, który jest związany z moimi wystąpieniami na konferencjach są czerwone Worlandy. To buty wykonane przez włoskiego rzemieślnika, Armando Pertoselliego, w jego manufakturze, która niestety nie przetrwała pandemii. To jedyne takie buty na świecie i z racji wykonania, pochodzenia oraz swoistej historii, są z pewnością unikatowe. Moje czerwone Worlandy są prawdziwą istotą włoskiej marki rzemieślniczej. Wykonane w jedynym egzemplarzu, zgodnie z założeniami i certyfikatem „100% Made in Italy”.
Ta idea idealnie wpisuje się w koncepcję utrzymywania i rozwoju europejskich marek premium, których konstrukcja opiera się na budowaniu wartości w Europie, a nie jedynie „przyklejaniu” logo do stworzonej marki gdzieś indziej. Projekt „100% Made in Italy” to inicjatywa mająca na celu ochronę autentyczności włoskich produktów oraz wsparcie lokalnych producentów, którzy przestrzegają najwyższych standardów jakości i rzemiosła. Certyfikat przyznawany w ramach tego programu potwierdza, że dany wyrób został w całości zaprojektowany, wyprodukowany i zapakowany we Włoszech – z użyciem wyłącznie włoskich materiałów oraz zgodnie z tradycyjnymi metodami wytwarzania.
Inicjatorem i administratorem systemu certyfikacji jest Istituto Tutela Produttori Italiani (ITPI). Aby uzyskać certyfikat „100% Made in Italy”, produkt musi spełniać rygorystyczne kryteria: wszystkie etapy produkcji muszą mieć miejsce na terytorium Włoch, surowce muszą pochodzić z włoskich źródeł, a zastosowane technologie powinny być zgodne z lokalnymi tradycjami rzemieślniczymi. Wymagana jest również
zgodność z przepisami prawa włoskiego w zakresie jakości, bezpieczeństwa i warunków pracy. Co więcej, design produktu musi być oryginalny i opracowany przez włoską firmę. Proces certyfikacji obejmuje weryfikację dokumentacji oraz audyt przeprowadzany przez inspektorów ITPI. Po pozytywnej ocenie, firma otrzymuje certyfikat, który jest ważny przez określony czas i podlega regularnym kontrolom.
Projekt ten jest również poparty włoską ustawą nr 166 z 2009 r., która ustanawia ramy prawne dla oznaczenia „Made in Italy”. Nieprzestrzeganie zasad grozi poważnymi sankcjami finansowymi – nawet do 250 tys. euro. Certyfikat „100% Made in Italy” buduje zaufanie klientów, chroni przed fałszerstwami i nieuczciwą konkurencją, a także wzmacnia pozycję marki na rynku. W dobie globalizacji stanowi on silny komunikat, że dany produkt reprezentuje prawdziwe włoskie dziedzictwo, jakość i styl. Dzięki temu konsumenci mogą świadomie wybierać towary, których pochodzenie i wartość są transparentne i udokumentowane.
W Europie funkcjonuje wiele inicjatyw, których celem jest ochrona lokalnej produkcji, promowanie jakości oraz budowanie zaufania konsumentów. Projekty te koncentrują się na weryfikacji miejsca produkcji, pochodzenia materiałów oraz tradycyjnych metod wytwarzania. Jednym z najbardziej rozpoznawalnych programów jest francuski Origine France Garantie, który przyznaje certyfikat produktom wyprodukowanym we Francji, pod warunkiem że co najmniej 50 proc. kosztów wytworzenia powstało na terytorium tego kraju. Certyfikat ten jest nadzorowany przez organizację Pro France i stanowi ważne narzędzie komunikacji wartości francuskiej produkcji, szczególnie w branży odzieżowej, spożywczej i wyposażenia wnętrz.
W Niemczech, choć nie istnieje formalny odpowiednik, określenie „Made in Germany” od lat funkcjonuje jako znak jakości i rzetelności. Często wspierają go dobrowolne certyfikaty jakości wydawane przez niezależne instytucje, takie jak TÜV czy DIN, które potwierdzają zgodność z niemieckimi normami i wysokimi standardami produkcji. W Hiszpanii funkcjonuje kilka regionalnych inicjatyw, w tym Artesanía de Galicia, promująca lokalne rzemiosło i produkty wytwarzane z poszanowaniem tradycji i kultury regionu. Rząd hiszpański wspiera także oznaczenie „Made in Spain” jako symbol narodowego dziedzictwa w modzie, gastronomii i rękodziele. Portugalia rozwija projekt Portugal Sou Eu, wspierany przez rząd i skierowany do małych i średnich firm. Oznaczenie to przysługuje produktom
i usługom wytwarzanym lokalnie, które spełniają określone kryteria krajowego pochodzenia. Kampania promuje dumę z lokalnej produkcji i ma silne znaczenie społeczne i ekonomiczne. Grecja z kolei wprowadziła znak Elliniko Proion (Produkt grecki), który przyznawany jest wyrobom całkowicie wyprodukowanym na terytorium kraju. Inicjatywa ta ma za zadanie wspierać krajowy przemysł i rolnictwo, zwłaszcza w sektorach żywności i tekstyliów.
Czas na MEGA zamiast MAGA?
To hasło może stać się symbolem nowej, ambitnej narracji gospodarczej Europy. Podczas gdy „MAGA” – Make America Great Again – stanowi hasło protekcjonizmu, dumy narodowej i walki o samowystarczalność gospodarki USA, Europa może stworzyć własną wersję tej idei: MEGA – Make Europe Great Again. W jej centrum powinno znaleźć się dążenie do cyfrowej i handlowej suwerenności, wzmocnienia lokalnych producentów oraz uniezależnienie się od dominujących amerykańskich i chińskich gigantów technologicznych. Jednym z głównych filarów tego podejścia musi być budowa silnych, europejskich marketplace’ów – platform sprzedażowych zdolnych do konkurowania z Amazonem, AliExpress, Temu czy Shein. Dziś europejscy producenci, nawet ci z segmentu premium czy lokalnego rzemiosła, wciąż są zmuszeni do działania w ekosystemach cyfrowych kontrolowanych przez podmioty spoza Europy. Powiedzmy sobie szczerze: chiński rząd będzie zawsze promował swoje marki na TikToku. Tymczasem kontynent z tak silnym dziedzictwem przemysłowym, projektowym i technologicznym, jak Europa, zasługuje na własne rozwiązania handlu cyfrowego – dostosowane do lokalnych potrzeb, prawa i wartości. Drugim wyzwaniem, które stoi przed europejskim projektem MEGA, jest dominacja społecznościowych kanałów komunikacji i reklamy przez podmioty z USA i Chin. TikTok, Instagram, Facebook, WhatsApp czy YouTube i Google kontrolują większość ruchu konsumenckiego, treści reklamowych i danych użytkowników. W takiej sytuacji nawet europejski marketplace może mieć ograniczone możliwości promocji i budowy zasięgów, jeśli nie posiada dostępu do niezależnych kanałów dotarcia do odbiorców. To rodzi potrzebę nie tylko stworzenia własnych platform sprzedaży, ale również budowy europejskich narzędzi do komuni-
kacji, reklamy i analityki danych – zgodnych z wartościami UE i chroniących prywatność obywateli.
Szansą i mocnym punktem dla idei MEGA może być rozwój własnej, europejskiej logistyki, która umożliwi skuteczne dostarczanie produktów w ramach jednolitego rynku. Przykładem jest nasz InPost, która rozwija sieć europejskich paczkomatów i usług kurierskich. Jej dalsza ekspansja mogłaby zapewnić realne wsparcie dla paneuropejskich platform sprzedażowych, oferując alternatywę dla dominacji Amazona i jego logistyki. InPost – lub inni operatorzy – mogą stać się partnerami technologicznymi nowego europejskiego e-commerce’u, opartego na uczciwych zasadach, transparentności i lokalności.
MEGA to nie nostalgiczne hasło, ale realna potrzeba strategicznej autonomii Europy. To pewna wizja przyszłości, w której kontynent buduje własną infrastrukturę cyfrową, wzmacnia lokalne firmy, inwestuje w niezależne kanały promocji i tworzy zintegrowany łańcuch dostaw. W obliczu globalnych napięć gospodarczych, wojny celnej, inflacji oraz presji konkurencyjnej z USA i Chin, Europa musi wyjść z roli biernego konsumenta i zacząć działać jako świadomy, samodzielny gracz. Powinna się zacząć gospodarczo zachowywać jak rasowy rynkolog: tworzyć i komercjalizować posiadane wartości (klejnoty rodowe) podobnie jak od lat robi to USA, a zaczynają robić Chiny. Właśnie teraz jest czas, by Europa powiedziała: Make Europe Great Again – i naprawdę zaczęła to robić, zamiast tworzyć kolejne komitety dyskusyjne.
Jacek Kotarbiński
Ekonomista i finansista, praktyk – marketer od 1990 r., wykładowca MBA i EMBA, członek Polskiego Naukowego Towarzystwa Marketingu, autor serwisu kotarbinski.com.

Źródło: raport „Cyfrowe wyzwania polskiego biznesu”, PMR dla Asseco Cloud
Istotne trendy produktowe, technologiczne, biznesowe, w oparciu o dane pochodzące z renomowanych agencji analitycznych, organizacji branżowych i globalnych mediów, dotyczące głównie Europy i Polski.
Blisko 6 na 10 firm w badaniu PMR dla Asseco Cloud planuje wdrożyć lub rozwijać rozwiązania z zakresu bezpieczeństwa IT i ciągłości działania. Na znaczeniu zyskuje Big Data i SaaS, natomiast implementacja AI/ML pozostaje ograniczona. Zdaniem ekspertów sukces inicjatyw z zakresu sztucznej inteligencji i innych projektów cyfryzacyjnych wymaga stworzenia odpowiedniego środowiska w chmurze. Polski biznes ostrożnie jednak podchodzi do innowacji. Jedynie 12 proc. przedsiębiorstw wskazało, że stara się być w czołówce cyfrowego wyścigu, wcześniej eksperymentując i wdrażając nowe technologie. Aż 41 proc. obserwuje otoczenie konkurencyjne i czeka z wdrożeniem do czasu, gdy technologia stanie się dobrze sprawdzona i powszechnie stosowana. Ponadto najważniejszym obszarem inwestycji w polskich firmach w najbliższych latach ma pozostawać sprzęt IT (46 proc. wskazań), oprogramowanie (40 proc.), automatyzacja procesów (38 proc.) oraz integracja posiadanych systemów IT (38 proc.).
Które z wymienionych technologii Państwa firma planuje za chwilę wdrożyć lub rozwijać w ciągu najbliższych 2 lat?
Rozwiązania z zakresu cyberbezpieczeństwa
Rozwiązania z zakresu bezpieczeństwa danych i ciągłości działania
Usługi realizowane w centrach danych, ale nie chmurowe
Rozwiązania z obszaru Big Data, data warehouse i business intelligence
Większość pracodawców z sektora IT (76 proc.) przyznaje, że ma trudności ze znalezieniem wykwalifikowanych talentów – według globalnego raportu ManpowerGroup. Problem dotyczy zwłaszcza stanowisk wymagających wysoko wykwalifikowanych specjalistów, takich jak inżynierowie danych czy chmury. Przy czym zdaniem ankietowanych szefów IT w tym roku najważniejsze są umiejętności w obszarze cyberbezpieczeństwa. Według badania blisko połowa (47 proc.) pracowników z branży IT zapowiada, że zamierza zmienić pracę w ciągu najbliższych 6 miesięcy. Natomiast 37 proc. dostrzega ryzyko utraty posady wbrew własnej woli. Zmiany w zespołach są jednak kosztowne. Według danych z raportu ManpowerGroup średni globalny koszt rotacji na 1 pracownika wynosi 18,6 tys. dol.
roku według CIO (proc. wskazań)

Tegoroczne globalne dostawy notebooków mają wzrosnąć o 2,2 proc., do ponad 180 mln szt. – przewiduje TrendForce. To efekt zwiększenia mocy produkcyjnych w krajach Azji Południowo – Wschodniej, które nadal korzystają ze zwolnienia z amerykańskich ceł. Jak się okazuje, w połączeniu z wcześniejszą relokacją łańcucha dostaw do tamtego regionu moce produkcyjne stopniowo się uruchamiają. Kraje Azji Południowo – Wschodniej stały się już główną bazą produkcji notebooków poza Chinami. Zdaniem analityków dywersyfikacja produkcji jeszcze przyspieszy, co ograniczy ryzyko handlowe. Natomiast popyt do końca 2025 r. powinien być wzmacniany przez cykle wymiany i projekty edukacyjne. W III kw. 2025 r. wzrost dostaw wyniósł szacunkowo 7,5 proc. kwartał do kwartału, w tym dzięki wspieraniu kanałów dystrybucji subsydiami przez producentów markowych, jak też dostawców OS.
Przychody z dystrybucji komputerów w Polsce w lipcu i sierpniu 2025 r. zwiększyły się o 5,7 proc. rok do roku – wynika z danych Contextu. Obejmują one zarówno notebooki, jak i stacjonarne PC. Tym samym krajowy wzrost okazał się wyraźnie niższy niż europejski, gdzie w pierwszych dwóch miesiącach III kw. 2025 r. przychody ze sprzedaży stacjonarnych komputerów zwiększyły się o 30,3 proc. rok do roku, a notebooków o 11,3 proc. Na przyspieszenie wpłynął głównie imponujący wzrost w II kw. 2025 r. W ocenie analityków na rynku widać już efekt odnawiania starzejącej się bazy sprzętu oraz końca wsparcia Windows 10. Szczególnie silny okazuje się popyt komercyjny. Sprzedaż notebooków biznesowych wzrosła w Europie o ponad 13 proc. rok do roku, a konsumenckich o 8 proc. Jednocześnie znaczący udział w tegorocznym skoku popytu mają komputery ze sztuczną inteligencją – ustalił Context. Notebooki wyposażone w jednostki przetwarzania neuronowego (NPU) osiągnęły już ok. 40 proc. udziału w sprzedaży notebooków w europejskiej dystrybucji. Udział ten jest wyraźnie wyższy w komercyjnych kanałach sprzedaży (46 proc.) niż w tych konsumenckich (29 proc.). Zdaniem analityków AI PC są coraz częściej postrzegane jako przyszłościowa opcja dla firm, które chcą mieć pewność, że ich komputery będą wystarczająco wydajne i bezpieczne do obsługi aplikacji AI. Przychody ze sprzedaży komputerów w dystrybucji w
I kw. 2024 39-10,3%
II kw. 2024 44,113%
III kw. 2024 47,88,4%
IV kw. 2024 45,7-4,4%
I kw. 2025 41,8-8,5%
II kw. 2025 45,89,5%
III kw. 2025* 49,27,5%
IV kw. 2025** 43,6-11,4% *Szacunek, **Prognoza

Światowe wydatki na sztuczną inteligencję wyniosą w tym roku prawie 1,5 biliona dol. – prognozuje Gartner. Analitycy oczekują, że popyt na AI będzie napędzał inwestycje w infrastrukturę informatyczną. Zwłaszcza najwięksi hiperskalerzy będą nadal zwiększać nakłady na centra danych, wyposażając je w sprzęt i procesory graficzne zoptymalizowane pod AI. Według prognozy w 2026 r. wydatki na AI przekroczą globalnie 2 biliony dol. (+38 proc. r/r), głównie dzięki integracji sztucznej inteligencji z urządzeniami takimi jak smartfony i komputery, a także z infrastrukturą. Co ciekawe, smartfony z generatywną AI będą numerem 1 na liście wydatków zarówno w tym roku (blisko 300 mld dol.), jak i w przyszłym.
Globalne wydatki na sztuczną inteligencję w latach 2024–2026 (w miliardach dolarów)









, zainspirowany postem Jakuba Skałbanii, kupił i przeczytał cytowany przez niego artykuł „The Hidden Costs of Coding With Generative AI”. Okazało się, że wnioski pana Marcina odbiegają od wniosków pana Jakuba. „Moje wnioski są odmienne. Być może każdy widzi to co chce zobaczyć, ale wrzucę tutaj kilka cytatów: ‘GitHub has reported that programmers using Copilot are up to 55 proc. more productive’; ‘McKinsey has found that developers can complete tasks up to twice as fast with generative AI assistance’; ‘When AI-generated code is applied to brownfield (legacy) environments, the risks are much greater and much harder to manage’; ‘Layering AI-generated code on top of legacy systems creates additional tangled dependencies that slow future development and destabilize systems even more’. Zgadzam się z wnioskami przedstawionymi w artykule, że AI może wprowadzić bałagan w systemach legacy, ale chyba tylko szaleniec pozwoliłby AI na rozwijanie czy poprawianie nastoletniego systemu. Nie można uogólniać tego do ‘kod pisany z AI tworzy mess w większym obrazku’. Przy prawidłowo zaprojektowanej architekturze mikroserwisowej z wydzieleniem systemów legacy dobry Context i Prompt engineering jest w stanie napisać system, który się zintegruje z systemami legacy bez zwiększania długu technologicznego. Kto ma rację? Czas pokaże”.
Solutions, podzielił się refleksją, że „handlowcy na bezrobociu są jak osadzeni w więzieniu: wszyscy znaleźli się tam za niewinność. Prowadziłem w życiu setki rozmów kwalifikacyjnych i nigdy nie zdarzyło się by kandydat powiedział: nie poradziłem sobie z produktem, hunting zmęczył mnie psychicznie itd. Zawsze ktoś INNY był winien tym niepowodzeniom. O ile można zrozumieć PR na potrzeby rozmowy kwalifikacyjnej, o tyle problemem jest to, że większość z tych ludzi naprawdę w to wierzy. Wierzą, że to cały świat zawinił, a nie oni – taka już natura naszej psychiki. Jak wszyscy dobrze wiemy – moment, w którym zaczynamy wierzyć we własną propagandę jest wyjątkowo niebezpieczny… Już stoicy pisali o tym, że samoświadomość jest podstawą rozwoju. Temat w 2025 roku jest wyjątkowo ważny. Rynek pracy przechodzi turbulencje i już nawet handlowcy nie mogą czuć się bezpieczni”.



Chiny24.com, podjął się odpowiedzi na pytanie: „Dlaczego borykamy się z tak ‘paździerzową’ codziennością w naszym domu, w Polsce? Przede wszystkim dlatego, że jako Polacy nie dzielimy etosu naszego domu, nie mamy wspólnej opowieści, wspólnej wartości, jednakowo definiowanej pomimo różnic chociażby dotyczących poglądów, wiary, etc. Dlatego też tak często przywołuję przykład Chin. Tam ten etos jest, choć są oczywiście i różnice. Nie wszyscy są szczęśliwi, nie wszystkim odpowiada panujący układ, ale problem ten ‘wycisza’ bilans, który jest oczywisty: Chiny zmieniają się, ale zarazem poziom życia przeciętnego Chena rośnie. I to rośnie na skalę niespotykaną na całym świecie. Rośnie też znaczenie państwa, które 120 lat temu okradał każdy, kto tylko na to miał ochotę. Niedawno Chiny pokazywano przez pryzmat parady w Pekinie, oczywiście podkreślając, że zaproszonymi gośćmi byli Putin i Kim. Mało kto zapewne poświęcił uwagę reakcji opinii publicznej w Chinach na samą paradę. Zainspirowany tą reakcją postanowiłem przypomnieć postać generała Witolda Urbanowicza, który służąc w Chinach zestrzelił 11 japońskich maszyn. Generał powinien być naszym emblematem w Chinach, jednym z ludzi, dzięki którym Chińczycy nas rozpoznają i szanują. Tylko… Podkusiło mnie, by sprawdzić, czy w Warszawie jest ulica Witolda Urbanowicza. W 2019 roku kończył się proces w tej sprawie. I do tej daty takiej ulicy w stolicy Polski nie było. Nie ma szans na etos, skoro (zgodnie z tą tradycją, na którą się tak chętnie powołujemy) spieramy się o wszystko, o detale, mordując skutecznie cele, najszczytniejsze nawet idee, o wielkich projektach nawet nie wspominając”.
Casbeg, postanowił dołączyć do Momentum Capital Partners – funduszu o kapitalizacji na poziomie 146 mln zł (prawie połowa z tej kwoty pochodzi od inwestorów prywatnych). „Będziemy inwestować między 5 a 20 mln zł w 8 spółek. Dzięki sporym nakładom i skoncentrowanemu portfolio chcemy zaangażować się mocno w kreację wartości ramię w ramię z założycielami, którzy będą z nami pracować. Jesteśmy już blisko momentu, w którym będziemy mogli realizować pierwsze inwestycje, więc zapraszamy do kontaktu oraz śledzenia profilu funduszu, jak i partnerów (Przemek Danowski, Robert Ditrych, Greg Albrecht) – tym bardziej, że ciekawie piszą o rzeczach bliskich sercu polskich przedsiębiorców. PS. Moja rola w fundraisingu była mikroskopijna, ale patrząc na tytaniczną pracę odrobioną przez partnerów myślę, że zebranie rundy w startupie to naprawdę pestka przy wysiłku potrzebnym do zebrania pierwszego funduszu. Chapeau bas Panowie!”. Jak skomentował Bartosz Czerkies, współzałożyciel Tequipy „to dobre momentum dla rodzimego ekosystemu”, zaś według ekipy Casbeg mamy do czynienia z „najmocniejszym kwartetem w polskim internecie!”.














Damian Tokarczyk, adwokat w kancelarii Raczkowski, opowiedział, „jak tłumacz zrzuca sprawę z wokandy, czyli absurdy wymiaru sprawiedliwości odcinek X. Mój Klient (nazwijmy go Dennis) jest poddanym króla Wilhelma Aleksandra Oranje-Nassau, czyli obywatelem Niderlandów. Tam sobie żyje i pracuje, ale nagle dowiedział się, że ma sprawę karną w Polsce (z prywatnego aktu oskarżenia). Po wielu bólach Sąd wyznaczył rozprawę na jutro. Ale ona się nie odbędzie. Dlaczego? Otóż w poniedziałek poprosiłem sąd o upewnienie się, że na sali będzie tłumacz. Sąd uznał, że to w sumie dobry pomysł. Tłumacz poinformował we wtorek, że na rozprawę nie przyjdzie, bo przecież mówił, że zleceń na udział w rozprawie nie przyjmuje. Dla jasności: tłumacz z listy prezesa sądu okręgowego nie przyjmuje zleceń na rozprawę. Może przetłumaczyć protokół. Okazuje się, że inni dostępni tłumacze (w liczbie 3) mają podobną ‘ofertę’. Więc sąd zdejmuje sprawę z wokandy i prosi mnie o poinformowanie Klienta. Jak się domyślacie, rozmowa z Klientem łatwa nie była. Plan na rozprawę gotowy, wyjaśnienia zaplanowane, wnioski dowodowe złożone, bilety na zwiedzanie Polski powiatowej zarezerwowane. I zonk. Mam wrażenie, że podobnych absurdów jest coraz więcej. Ten brak profesjonalizmu w rozpoznawaniu spraw jest chyba największym wyzwaniem wymiaru sprawiedliwości”.
Jakub Skałbania, założyciel Netwise, mówi wprost: „Kiedy jakiś inwestor po raz czwarty w 2 lata podbija z propozycją inwestycji w Netwise, żeby ‘dołączyć’ nas do ‘większej grupy’, która do nas nie pasuje i którą widzieliśmy już w akcji, niezmiennie dostanie ode mnie tę samą odpowiedź. Nie pasujemy, nie chcemy, nie mamy słabej jakości w projektach robionych za wszelką cenę, widzieliśmy w akcji tamtą firmę i nie. Jest mnóstwo firm, w które można inwestować – sklejanki robiące podwykonem projekty jako tako, albo doklejające nowe linie biznesowe bez pomyślunku i strategii, ale z nadzieją, że przychód będzie większy. A Klient niech się martwi. I dziękujemy ponownie. Nie jesteśmy zainteresowani byciem jak inni, w tym więksi. Nawet za kolejny raz zwiększoną ofertę. Przeżyliśmy już straszenie, że jak się nie sprzedamy, to nas zaorają, bo wchodzą z całą machiną do Polski. I patrzę gdzie oni są teraz. A tu, już widzę – jedni interwencyjnie szukają kupca na polski oddział i w sumie moglibyśmy go kupić (i od razu zamknąć, bo inaczej nie miałoby to sensu), a drugich wchłonęła spółka matka, bo coś nie poszło. A ja nawet wiem co nie poszło – robienie projektów z gównianą jakością, byle robić, robienie rocznych ‘discovery’ jako sposób wyciągania kasy bez żadnych rezultatów dla Klientów, albo oszukiwanie Klientów, że ma się ‘największy polskojęzyczny zespół Dynamics CRM’, myląc ludzi na LinkedIn pracujących w innych firmach ze swoim zespołem i myśląc, że rekruterzy z Indii ‘dadzą radę’ ściągnąć na projekt. Otóż, mogą nie dać. Mamy unikalną niszę i sobie ją zwiększamy. Referencje, inbound, jakość, referencje, inbound, jakość, referencje… Zysk. Zabawa. Odwaga. I bycie happy. Nawet czasem w leadership teamie mamy zagwozdki i ‘plany pre mortem’, że może nam nie pójść w końcowym rezultacie i wygrają ci więksi, ale jak patrzę w nasz CRM i Klientów, których mamy przyjemność ratować w ostatnie 12 miesięcy (a jest ich urodzaj), to upewniam się, że… referencje, inbound, jakość. Może będziemy duzi, a może nie. A może tak, jak mówi pewna mała osoba: troszkę będziemy, troszkę nie”.
Research Institute, pozwolił sobie na bardziej osobisty wpis: „Wybaczcie, że czasami zabrzmię, jak to przystało na pokolenie X, że nam to dopiero było trudno. Jednak nie daje się znaleźć potwierdzenia dla tych stwierdzeń wprost w liczbach, bo jak kończyłem doktorat w 2005 roku to wydatki na naukę i szkolnictwo wyższe z budżetu wynosiły 1,27 proc. PKB, czyli było lepiej niż teraz, kiedy wynoszą one 1,02 proc. PKB. Jak to się stało, że po 20 latach wydajemy mniej na naukę? Jak to się ma do ciągle powtarzanych stwierdzeń, że powinniśmy dążyć do unijnej średniej wynoszącej 2,2 proc. PKB? Nie mówiąc już o tym, że co jakiś czas słyszymy, że Polska dąży do wydawania 3 proc. PKB na badania i rozwój – takie stwierdzenie padało wielokrotnie w ostatnim roku ze strony przedstawicieli MNiSW. Nie mówiąc o tym ile razy takie stwierdzenie padało przez ostatnie 20 lat. Ja osobiście czuję się oszukiwany. Gdyby ministerstwo mówiło zgodnie z prawdą, że nakłady na naukę będą spadać, a pensje naukowców będą realnie w wyniku tego także spadać, to może nie decydowałbym się na taką karierę. Bo jak zaczynałem karierę naukową i robiłem doktorat, to wierzyłem, że będzie lepiej. Myślę, że nie tylko ja zaczynając karierę naukową, czy wracając do Polski z zagranicy, w to wierzyłem. Niestety, smutna prawda jest taka, że w nauce polskiej jest gorzej. Przez ten okres spadającego finansowania dorobiliśmy się jeszcze wielu nowych patologii, np. spółdzielnie nawzajem się cytujące, punktoza i wiele innych. Rzeczy, których nie było 20 lat temu. Jeszcze przy tym wszystkim teraz słyszymy, że nauka ma być motorem dalszego rozwoju Polski, czy każda złotówka zainwestowana w naukę zwraca się kilkukrotnie. Stwierdzenia te stoją w jasnej sprzeczności do tego jak traktowane są wydatki na naukę”.



Wojciech
Urbanek
zastępca redaktora naczelnego CRN Polska


Ponad dwie dekady temu Chris Anderson odkrył magię tzw. długiego ogona. Dziś giganci technologiczni robią wszystko, żeby się go pozbyć.
onad 21 lat temu Chris Anderson, redaktor naczelny magazynu „Wired”, opublikował artykuł, który zmienił sposób myślenia o biznesie w erze cyfrowej, formułując teorię „długiego ogona”. Była to antyteza zasady Pareta, na której wychowywały się pokolenia menedżerów, zgodnie z którą 80 proc. przychodów pochodzi z 20 proc. portfolio produktów. Anderson postanowił bliżej przyjrzeć się ofercie Amazona i Netflixa, obejmującej tysiące książek i filmów, których nikt przy zdrowych zmysłach nie trzymałby w sklepie stacjonarnym. Ale w wirtualnym świecie sytuacja wygląda inaczej: niszowe pozycje też potrafią przynosić realne zyski. Wpływają na to minimalne koszty przechowywania, w związku z czym suma sprzedaży z tysięcy niszowych produktów może dorównać lub przewyższyć zyski z bestsellerów.
koju. Gigant z Redmond, szczycący się największym na świecie ekosystemem, szacowanym na pół miliona partnerów, ujawnił nowe, minimalne progi przychodów dla dystrybutorów i partnerów. Mamy tu do czynienia z podręcznikowym przykładem cięcia ogona zbliżonym do tego, co wdrożył Broadcom w przypadku VMware’a. Cel jest ten sam: skoncentrować zasoby i uwagę na wąskiej grupie najbardziej dochodowych podmiotów.
MICROSOFT OGŁOSIŁ ZMIANY W SWOJEJ
GIGANTYCZNEJ SIECI PARTNERSKIEJ.
Wprawdzie klasyczna teoria długiego ogona odnosi się do sytuacji, w której niskie wolumeny sprzedaży wielu produktów do użytkowników końcowych łącznie generują znaczący przychód, ale nie jest to jedyny przypadek. Może też dotyczyć relacji między producentem a dystrybutorami, gdzie długi ogon oznacza współpracę z wieloma lokalnymi lub niszowymi partnerami. Obecnie w branży nowych technologii narasta właśnie ciekawy trend polegający na odcinaniu tegoż ogona. Producenci w kuluarach coraz częściej mówią wprost: chcemy zmniejszyć liczbę naszych dystrybutorów. Nie ma natomiast żadnej przeciwwagi, bo nie słychać tych, którzy deklarują, że potrzebują ich więcej. Jakby nie patrzeć, rola dystrybutorów w świecie technologii słabnie. Nie trzeba być przy tym wielkim ekspertem, by wskazać przyczyny, do których należy ekspansja modelu SaaS, marketplace’y i presja na marże.
W branży IT na miano jednego z największych ekspertów w dziedzinie odcinania ogonów zasługuje Broadcom. Koncern po przejęciu VMware’a przeprowadził taką operację bez znieczulenia. Broadcom zredukował liczbę partnerów o ponad 90 proc., w efekcie czego małe firmy bazujące na sprzedaży licencji VMware’a praktycznie z dnia na dzień straciły dostęp do produktu. Podobnie postąpiono z dystrybutorami, których liczba została ograniczona do absolutnego minimum. No cóż, Broadcom wyszedł z prostego założenia: mniej pośredników oznacza większą kontrolę nad cenami, marżami i nad samym klientem końcowym. O ile Broadcom działa jak rzeźnik tnący nożem, o tyle inne koncerny starają się przeprowadzać podobny zabieg nieco subtelniej, za pomocą skalpela.
W maju Microsoft ogłosił zmiany w swojej gigantycznej sieci partnerskiej, co wywołało w branży falę niepo-
W myśl aktualnych założeń dystrybutor, który nie osiągnie 30 mln dol. przychodu w regionie, na który ma autoryzację, będzie musiał pożegnać się z gigantem z Redmond. Eksperci szacują, że ze 180 obecnych dystrybutorów Microsoftu w grze pozostanie zaledwie 60. Reszta, zwłaszcza ci działający w jednym lub dwóch krajach, prawdopodobnie nie przeskoczy wysoko zawieszonej poprzeczki. Do tego dochodzi chaos informacyjny i niepewność. Nikt nie wie, czy dystrybutor z przychodami rzędu 27 czy 28 milionów dolarów dostanie jakąś ulgę, okres przejściowy, czy po prostu usłyszy: „przykro nam, ale nie przekroczyłeś progu”. Nic dziwnego, że Jacob Schaumann Schmidt, dyrektor generalny duńskiego dystrybutora Cloud Factory, pyta bez ogródek: „Czy oni mają świadomość, co rozpętali?”.
Osobiście sądzę, że mają, Trudno podejrzewać tak doświadczoną firmę jak Microsoft, że wymachuje „nożem” na oślep. Minimalne progi przychodów wprowadzone przez koncern, prowadzące do odcięcia wielu partnerów, to bardzo sprytne posunięcie. Mniejsi partnerzy, sporadycznie odsprzedający licencje, generują ogromną liczbę transakcji, a każda z nich uszczupla i tak już mizerne marże. A zatem koniec z rozdrobnieniem i koniec z administracyjnym koszmarem tysięcy małych transakcji.
Jednak Jay McBain, analityk z Canalysa, patrzy na tę sprawę nie tylko przez pryzmat arkuszy kalkulacyjnych. Jego zdaniem mniejsi partnerzy z tzw. długiego ogona wcale nie są zbieraniną amatorów. To często wyspecjalizowani gracze obsługujący konkretne nisze: branże, regiony czy specyficzne zastosowania. Gdy Microsoft odcina takich partnerów, traci dostęp do określonego segmentu rynku. A przecież tacy partnerzy nie znikną i teraz przejdą do konkurencji. Odrębną kwestią jest rentowność długiego ogona. Mali gracze nie mają siły przebicia, żeby negocjować rabaty i specjalne warunki na każdą ofertę. Kupują po cennikowych stawkach, nie korzystają z programów motywacyjnych dla gigantów, nie wywalczają dodatkowych bonusów. W efekcie, choć transakcje są małe, to marża na nich bywa lepsza niż na wielkich kontraktach z korporacyjnymi partnerami. Zatem kto wie, może prawdziwy problem nie leży w tym, czy długi ogon jest opłacalny, lecz w tym, że próbujemy obsługiwać XXI-wieczny, zróżnicowany rynek narzędziami i modelami z epoki masowej produkcji.
























W branży IT – bardzo konkurencyjnej, a jednocześnie kluczowej dla całej gospodarki – sukces jest okupiony wyjątkowo ciężką pracą, ale też wyjątkowo smakuje!
Chcemy się nim nacieszyć razem z najbardziej aktywnymi, zaangażowanymi, odnoszącymi największe sukcesy osobistościami ekosystemu partnerskiego IT!




Już teraz zapraszamy na Galę Mistrzów IT!

Partnerzy:



Organizatorzy:
Gala Mistrzów IT odbędzie się 26 listopada br. w Hotelu Polonia Palace. Więcej informacji: gala@peristeri.pl
