CRN Polska 12/2025

Page 1


Radosnych i spokojnych, pełnych ciepła i nadziei świąt Bożego Narodzenia oraz powodzenia w nowym 2026 roku życzy redakcja CRN Polska!

Spis treści 12/2025

7 | IT Nation Connect 2025 „Dzisiejsi MSP nie będą istnieć za kilka lat”

8 | Arrow Partner Summit 2025 Czas na monetyzację AI

10 | Vertiv Driving Innovation: The Future of AI Factories

AI zmieni branżę centrów danych

12 | Gaia‑X Summit Metodyczne podejście do cyfrowych ekosystemów

14 | Jesteśmy fabryką danych Rozmowa z Januszem Dygaszewiczem, dyrektorem Departamentu Systemów Teleinformatycznych, Geostatystyki i Spisów w Głównym Urzędzie Statystycznym (GUS)

17 | GPU fundamentem nowej chmury GigaCloud udostępnia pełne portfolio rozwiązań serwerowych bazujących na procesorach GPU

18 | Usługi cyberbezpieczeństwa Co je stymuluje, a co hamuje?

21 | W drodze do usługowej perfekcji Rozmowa ze Stefanem Fritzem, Directorem Channel Sales EMEA Central w Sophos

22 | ESET jako usługa Więcej szans na biznes (Dagma Bezpieczeństwo IT)

24 | AI w biznesie

SLM-y to niedoceniani bohaterowie drugiego planu

25 | Dane, wracajcie do macierzy! Felieton Krzysztofa Jakubika

26 | Stabilna sieć i szybszy rozwój... ...z SD-WAN Aruba (IT Solution Factor)

28 | IT w przemyśle Sprawniej i taniej

31 | PowerWalker VFI TAP Zasilanie klasy premium (Impakt)

32 | Zasilanie awaryjne Nowe standardy dla małego biznesu

35 | Polski rynek UPS-ów Rynek zasilaczy bezprzerwowych zalicza spadki

36 | Usługi MSP: tak, ale z głową Rozmowa z Jackiem Murawskim, Managing Directorem w firmie konsultingowej Gramen, jednym z wykładowców na kierunku „Akademia Business as a Service” w Akademii Leona Koźmińskiego

38 | Nowy Jork nowym hubem technologicznym?

„Big Apple” staje się właśnie wielkim hubem technologicznym, na co niepośledni wpływ

ma bliskość sektora finansowego oraz medialnego

40 | Nowy wymiar zakupów Rozmowa z Arkadiuszem Zarębą, Platform and Product Directorem we Frisco

42 | Eksperci AI: kogo naprawdę warto śledzić?

Felieton Pawła Cyzmana

44 | Data Act: rewolucja dla umów SaaS Tylko do 12 stycznia 2027 r. dostawcy chmurowi mogą nakładać na klientów obniżone opłaty z tytułu zmiany dostawcy

46 | Rośnie barometr nastrojów w branży Sektor technologiczny powoli wychodzi z okresu niepewności

48 | Kompetencje miękkie według specjalistów IT Większość specjalistów IT uważa, że umiejętności miękkie ułatwiają im rozwój zawodowy, ale nie chronią przed ekspansją AI

50 | Kaskada strategiczna: wstęp do dojrzałego marketingu Felieton Łukasza Kosuniaka

54 | Dobry marketing to nie sztuczki Felieton Jacka Kotarbińskiego

55 | Rok 2026 planujcie agresywnie Felieton Bartosza Majewskiego

56 | Skuteczna promocja treści Felieton Tomasza Kozona

56 | Gartner Magic Quadrant: znikające technologie i praktyki „Pay-to-Play Felieton Artura Bickiego

58 | Integracja, która (nie) działa?

Działy HR powinny przyjrzeć się integracji na nowo i zapytać pracowników, czego naprawdę potrzebują

59 | Zakaz konkurencji: tak, ale z głową Felieton Renaty Lewickiej

60 | Wojna o chipy: ciąg dalszy nastąpił

Felieton Leszka Ślazyka

61 | Karpiarze biznesu

Felieton Wojciecha Herry

62 | Puls branży IT

Trendy produktowe, technologiczne, biznesowe, w oparciu o dane dotyczące głównie

Europy i Polski

64 | LinkedIn Park

Sprawdzamy o czym branża IT (i nie tylko) dyskutuje na największym biznesowym portalu społecznościowym

66 | Train office

Felieton Wojciecha Urbanka

IT w przemyśle: sprawniej i taniej

Firmy przemysłowe preferują projekty, które obniżą koszty, usprawnią pracę, skrócą czas wdrożeń, zagwarantują łatwy do oszacowania oraz wyraźny zwrot z inwestycji.

Rośnie barometr nastrojów w branży Z danych SoDA wynika, że rośnie liczba firm, które postrzegają swoją sytuację jako stabilną bądź pozytywną.

Wojna o chipy: ciąg dalszy nastąpił Październikowe spotkanie na szczycie pomiędzy Xi Jinpingiem i Donaldem Trumpem wywołało falę spekulacji na całym świecie.

Integracja, która (nie) działa?

Najnowsze badanie Pracuj.pl pokazuje, że ponad 30 proc. pracowników czuje się spiętymi podczas spotkań integracyjnych.

David S. Landes, „Bogactwo i nędza narodów” 28

„JEŻELI HANDEL TOWARAMI PRZYNOSI POKAŹNE ZYSKI, TO I TAK

Redaktor naczelny

„Do boju

Polsko!”

JUNITED VOICE OF POLISH TECH.

eśli ponad 40 branżowych organizacji postanowiło dogadać się w jakiejś sprawie, to wiedz, że coś się dzieje. A przynajmniej ma szansę się „zadziać”, o ile uda się choć w połowie zrealizować założone cele. Za co zresztą trzymam kciuki tak mocno, jak to tylko możliwe. Mam przy tym na myśli inicjatywę TechPL, której pomysłodawcy pragną, aby polskie technologie – podobnie jak gospodarka naszego kraju – awansowały do światowej czołówki, na miarę G20. Pomóc ma w tym zintegrowany, profesjonalny i wpływowy ekosystem, który wesprze rozwój polskich startupów oraz rodzimego sektora deep tech. Przy czym założyciele TechPL deklarują bardzo wyraźnie, że zależy im na działaniach realnych, a nie pozorowanych, jak to zbyt często w Polsce bywa. Pozwolę sobie oddać głos Adrianowi Migoniowi, przewodniczącemu zarządu TechPL (a jednocześnie CEO fundacji Youth Business Poland): „Polska ma ogromny potencjał, by stać się liderem innowacji w Europie Środkowo-Wschodniej. Dysponujemy talentami, kreatywnością i przedsiębiorczością, a także miliardami złotych przeznaczonymi na rozwój. Jednocześnie nasz ekosystem innowacji wciąż pozostaje rozproszony. Brakuje skalowania rodzimych rozwiązań, efektywnej współpracy i dialogu przy tworzeniu programów wspierających przedsiębiorczość. Zbyt często zdolni założyciele startupów szukają więc szans za granicą. TechPL powstał, by to zmienić”. Czy to realny cel? To zależy od wielu czynników. Na pierwszy rzut oka wydaje się, że to, co stanowi największą siłę tej inicjatywy, to zarazem jej największa słabość. Z jednej bowiem strony mamy do czynienia z bardzo szerokim, kompleksowym „frontem” zainteresowanych, taką „Organizacją Jedności Narodowej”, zrzeszającą operatorów programów startupowych, inkubatory i akceleratory, centra transferu technologii, aniołów biznesu, fundusze VC i PE, think tanki oraz organizacje pozarządowe. Powtórzmy, że ich misją jest „integracja i reprezentowanie polskiego ekosystemu innowacji, wzmacnianie jego głosu w dialogu z instytucjami publicznymi oraz budowanie pozycji Polski jako technologicznego lidera Europy Środkowo-Wschodniej”. I teraz rodzi się pytanie, czy będzie to w praktyce możliwe przy założeniu, że każdy projekt czy zadanie (a przynajmniej te najważniejsze) powinny być zaakceptowane przez wszystkich (czy chociaż większość) partycypujących w inicjatywie TechPL? Co ciekawe, według jej pomysłodawców stanowić ma ona właśnie remedium na obecnie panujące rozproszenie. Według Pawła Michalskiego, wiceprzewodniczącego TechPL (prezesa VC Leaders): „Coraz pilniejsza staje się potrzeba lepszej koordynacji – od wyznaczania wspólnych priorytetów, przez spójny głos w dialogu z administracją i Unią Europejską. Dziś Polska i cały region CEE wciąż borykają się z rozproszonymi działaniami i zbyt słabą reprezentacją na arenie międzynarodowej, co osłabia naszą pozycję w negocjacjach oraz pozyskiwaniu funduszy”.

Wydaje się, że sukces inicjatywy w dużym stopniu zależy od sprawczości Krajowej Izby Gospodarczej Elektroniki i Telekomunikacji, bo TechPL funkcjonuje jako jedna z sekcji KIGEiT-u. Panie i Panowie, po stokroć powodzenia!

MIESIĘCZNIK CRN POLSKA www.CRN.pl

Rok 28, numer 12 (515), 10 grudnia 2025 PL ISSN 2080-8607

REDAKCJA

Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa redakcja@crn.pl

Tomasz Gołębiowski tg (redaktor naczelny) tel. 608 425 699 tomasz.golebiowski@crn.pl

Wojciech Urbanek wu (zastępca red. naczelnego) tel. 691 672 065 wojciech.urbanek@crn.pl

Karolina Marszałek km (sekretarz redakcji) karolina.marszalek@crn.pl

Andrzej Gontarz ag andrzej.gontarz@crn.pl

Krzysztof Jakubik kj krzysztof.jakubik@crn.pl

Krzysztof Pasławski kp krzysztof.paslawski@crn.pl

Tomasz Janoś tj tomasz.janos@crn.pl

FELIETONY

Artur Bicki, Paweł Cyzman, Wojciech Herra, Krzysztof Jakubik, Łukasz Kosuniak, Jacek Kotarbiński, Tomasz Kozon, Renata Lewicka, Bartosz Majewski, Leszek Ślazyk, Wojciech Urbanek GRAFIKA, LAYOUT, Tomasz Baziuk

FOTOGRAFIE

Theta Art Studio Tomasz Pisiński, PhotobyMysluk.pl, Adrian Stykowski, Piotr Syndoman, archiwum

PRENUMERATA prenumerata@crn.pl

REKLAMA I PROJEKTY SPECJALNE Agata Myśluk tel. 694 455 426 agata.mysluk@crn.pl

Jacek Goszczycki tel. 601 935 513 jacek.goszczycki@crn.pl

WYDAWCA

Peristeri Sp. z o.o. Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa

Reklamy są przyjmowane w siedzibie wydawnictwa. Za treść ogłoszeń redakcja nie ponosi odpowiedzialności. © 2025 Peristeri Sp. z o.o. Wszelkie prawa zastrzeżone. Computer Reseller News Polska contains articles under license from The Channel Company. © 2025 The Channel Company. All rights reserved.

Miesiąc na plusie miesiąc na minusie

Naczelny Sąd Administracyjny wydał korzystne dla Komputronika wyroki w sprawach dotyczących zobowiązań podatkowych spółki za lata obrachunkowe 2013 – 2016. Postanowienia NSA, które dotyczą kwot przekraczających wartość 5 mln zł, kończą administracyjny tok postępowania. W jednej ze spraw skarbówka zakwestionowała koszty uzyskania przychodu, związane z uiszczeniem przez Komputronika należności licencyjnych za znaki towarowe na rzecz spółki powiązanej.

Action w III kw. 2025 r. zwiększył skonsolidowane przychody o 18,7 proc. rok do roku, do blisko 745 mln zł. Przy tym marża poprawiła się o blisko 0,4 pkt, do 8,41 proc. Zysk netto podskoczył natomiast o około 45 proc., do niemal 9 mln zł. Z kolei w pierwszych trzech kwartałach br. przychody grupy z Zamienia wzrosły o około 348 mln zł rok do roku (a zatem o 20 proc.), do poziomu 2,12 mld zł. Zysk netto w tym okresie okazał się wstępnie nieznacznie większy, o ponad 2 proc. r/r i wyniósł 27,6 mln zł.

W tegorocznym rankingu Deloitte Technology Fast 50 Central Europe zostało wyróżnionych 14 polskich firm. Tyle samo pochodziło z Czech, a za nimi uplasowała się Słowacja (9 spółek). Zestawienie obejmuje przedsiębiorstwa, które osiągnęły największy wzrost przychodów w ostatnich 4 latach (2021 – 2024 włącznie). Średnia dla całej pięćdziesiątki to 1219 proc. Z rankingu wynika, że najmocniej rozkręcił się w minionych latach biznes spółek software’owych. Są one najliczniej reprezentowane w zestawieniu (30 firm). Pozostałe to podmioty z branż fintech, hardware, healthcare & life sciences, jak również media & entertainment. Najwyżej wśród polskich firm, na 3 miejscu, uplasował się Mizzox (wzrost o 2504 proc.), producent cyfrowego asystenta dla firm.

Wyłoniono

wykonawców wszystkich tur dostaw laptopów oraz tabletów dla szkół w ramach przetargu z budżetem 1,73 miliarda złotych. Do końca listopada br., w czterech turach wyłonieni zostali dostawcy dla poszczególnych podregionów (jest ich 73). Postępowanie podzielono na trzy części. W sumie do szkół trafi 735 tysięcy sztuk sprzętu: 404 250 laptopów za maksymalną kwotę 1 168 298 670 zł brutto (tura 1); 110 250 laptopów przeglądarkowych (chromebooków) za maksymalnie 181 495 755 zł brutto (tura 2); 220 500 tabletów za maksymalnie 384 503 490 zł brutto (tura 3).

Poczta Polska zapowiedziała największy w ostatnich latach program cyfryzacji. W najbliższych tygodniach zamierza ogłosić kilkanaście przetargów. Będą to postępowania na system HR, Contact Center, nowe rozwiązania infrastrukturalne oraz na integrację systemów IT. „Wchodzimy w etap intensywnej modernizacji technologicznej. Poszukujemy partnerów, którzy pomogą wprowadzić ją na nowy poziom usług. ” – podkreśla Sebastian Mikosz, prezes Poczty Polskiej.

Powiedzieli

„Być może w okolicach 2030 r. mógłbym przejść do rady nadzorczej” – Piotr Bieliński, prezes Actionu w rozmowie z Parkietem.

Prezes UOKiK-u postawił zarzuty nadużywania dominującej pozycji spółkom Apple, Apple Operations International i Apple Distribution International. Ma zastrzeżenia co do wprowadzonej w 2021 r. przez koncern polityki ochrony prywatności użytkowników – App Tracking Transparency Framework (ATT) w kontekście ich zgód (lub niezgody) na odbiór określonych treści. Otóż w ATT Apple określa komunikaty dotyczące produktów własnej marki mianem „reklamy spersonalizowanej” (konotacja pozytywna), zaś komunikaty odnoszące się do produktów innych marek umieszczono pod hasłem „śledzenie” (konotacja negatywna). „Podejrzewamy, że polityka ATT mogła wprowadzać w błąd co do poziomu ochrony prywatności, a jednocześnie pogłębiać przewagę konkurencyjną Apple względem niezależnych wydawców, przyczyniając się do umocnienia pozycji Apple na rynku reklamy” – konkluduje Tomasz Chróstny, prezes UOKiK-u.

Nowe uprawnienia

Państwowej Inspekcji Pracy mogą spowodować gwałtowny wzrost kosztów pracy, odpływ talentów i destabilizację tysięcy firm – alarmuje SoDA, Organizacja Pracodawców Usług IT. Otóż reforma PIP przewiduje, że inspektorzy mogliby jednostronnie przekształcać umowy cywilnoprawne (w tym B2B) w umowy o pracę. Decyzje zyskałyby rygor natychmiastowej wykonalności. Zdaniem organizacji zrzeszającej blisko 120 firm IT i ponad 30 tys. specjalistów, zmiany stanowią zagrożenie dla całego sektora. Obecnie 97 proc. rynku stanowią MŚP, w których 70–90 proc. wydatków to koszty pracy.

Rynek pracy w branży technologicznej borykał się ze spowolnieniem w ciągu ostatniego roku. Raport Indeed sugeruje, że zmiany są poważne: średnio liczba ofert pracy spadła o niemal jedną trzecią w porównaniu z poziomem sprzed okresu lockdownów (specjaliści Indeed śledzili dane dotyczące ofert pracy do 31 października br.). W przypadku ofert dla analityków danych odnotowano spadek o 13 proc. w porównaniu z rokiem ubiegłym, podczas gdy liczba ofert pracy w zakresie systemów informatycznych i rozwiązań spadła o ponad 9 proc.

Komisja Europejska kwestionuje wydanie 2 mld zł ze środków unijnych. „Jest ryzyko, że trzeba będzie zwrócić te pieniądze” – stwierdził w Sejmie wiceminister nauki Marek Gzik (PAP). Według niego wątpliwości Brukseli wynikają z nieprawidłowości w Narodowym Centrum Badań i Rozwoju, do jakich doszło za poprzedniej władzy. Konkursem „Szybka Ścieżka” z 2022 r. z budżetem ponad 800 mln zł zajęli się śledczy, ministerstwo, CBA oraz NIK.

Netgear otrzymał od TP-Linka zarzuty dotyczące „kampanii oszczerstw” – podała agencja Bloomberga. Chodzi o rozpowszechnianie informacji o powiązaniu TP-Linka z chińskimi władzami i wykorzystywania jego rozwiązań do szpiegostwa. W pozwie złożonym przed sądem w stanie Delaware TP-Link odrzuca te twierdzenia, domagając się z odszkodowania. Według niego straty z powodu utraconej sprzedaży mogły wynieść nawet 1 mld dol.

„Projekt reformy PIP może doprowadzić do jednego z największych kryzysów w historii polskiej branży IT” –Marta Kępa, COO SoDA.

„Suwerenność danych to kwestia bezpieczeństwa narodowego” – Wiesław Wilk, wiceprezes Polcomu i przewodniczący Związku Polska Chmura.

Nowe informacje

z branży IT

Przetarg w ARiMR z budżetem 100 mln zł

Agencja Restrukturyzacji i Modernizacji Rolnictwa otworzyła oferty w przetargu na utrzymanie i rozwój systemu CSOB na okres 39 miesięcy. CSOB to Centralny System Obsługi Beneficjenta. Umożliwia zarządzanie przyznawaniem i rozliczaniem wsparcia o pomoc finansową w ramach unijnej polityki rolnej. Na sfinansowanie tego przetargu w ARiMR przeznaczono 100 mln zł (100 717 891,11 zł brutto). Oferty złożyli Comarch (z ceną 69,9 mln zł) i Asseco Poland (98,8 mln zł). Jak widać, Comarch zaproponował realizację zamówienia za stawkę niższą o prawie 29 mln zł. Kryteria oceny ofert to cena (60) i doświadczenie osób skierowanych do realizacji zamówienia (40).

Euvic połączy się z Softiq

Zapowiedziano kolejny krok w konsolidacji Grupy Euvic. Należący do grupy gliwicki software house Softiq połączy się ze spółką Euvic, z którą w przyszłym roku wejdą razem na GPW. Działający od 2015 r. Softiq w roku ubiegłym wypracował 70,9 mln zł przychodów i 12 mln zł zysku netto. Euvic SA wejdzie na GPW dzięki tzw. odwrotnemu przejęciu spółki zależnej eo Networks, notowanej na New Connect. Jak zapowiedział w sierpniu br. prezes Wojciech Wolny, fuzja z eo Networks to początek szerszej konsolidacji w ramach grupy, której Softiq jest kolejnym etapem.

2 tys. w Cyber Legion

Do udziału w inicjatywie Cyber Legion zgłosiło się ok. 2 tys. osób. - poinformował szef MON, wicepremier Władysław Kosiniak–Kamysz. Wśród nich są specjaliści od cyberbezpieczeństwa, AI i innych obszarów informatyki. Program ogłosiły w maju br. Wojska Obrony Cyberprzestrzeni, w celu konsolidacji specjalistów, a tym samym wzmocnienia odporności państwa na zagrożenia cyfrowe. Zainteresowani mogą zaangażować się w działania na rzecz ochrony cyfrowej kraju w jednej z 12 ścieżek udziału w programie.

7 zatrzymanych za alarmy bombowe

Cyberpolicja zatrzymała 7 mężczyzn, podejrzanych o wywołanie ponad 380 fałszywych alarmów bombowych w ponad 1500 obiektach. Wymusiło to ewakuację niemal 12 tys. osób. Podejrzani wysyłali e-maile z groźbami o podłożeniu ładunków do szpitali, szkół, sądów, policji, prokuratur, a nawet Kancelarii Prezydenta. Kierowali ponadto groźby karalne wobec komendantów policji i prokuratorów. W efekcie grozi im do 15 lat więzienia i konsekwencje finansowe.

10 mln euro za sklepy Samsunga w Polsce

Asbis sfinalizował zakup salonów Samsung Brand Store w Polsce, przejmując 13 obiektów od poznańskiej firmy Matrix Media. Wartość transakcji wyniosła 10 mln euro. Zakup jest elementem strategii dystrybutora, tj. rozwoju sieci sklepów premium na lokalnych rynkach. Asbis prowadzi obecnie 40 salonów w 14 krajach.

Wyłudzali VAT na elektronice

Prokuratura Europejska uderzyła w grupy przestępcze, które kręcą karuzelami VAT na elektronice. W ramach operacji o kryptonimie „Escape Room” przeprowadzono dziesiątki przeszukań i czynności dochodzeniowych w Austrii, Belgii, Niemczech, na Łotwie, w Holandii i Polsce. Osiem osób zostało aresztowanych w Belgii, Holandii i Polsce. Śledczy twierdzą, iż mają dowody na sprzedaż milionów urządzeń w ramach transgranicznych oszustw w całej Europie. W celu wyłudzenia VAT wykorzystano setki firm-słupów, sfałszowane dokumenty i fikcyjne faktury.

PRZEPROSINY

Ja, Janusz Pietruszyński, jako redaktor naczelny CIRE.PL, uprzejmie przepraszam Pana Wojciecha Urbanka za bezprawne i zawinione naruszenie jego autorskich praw osobistych i majątkowych poprzez zamieszczenie w dniu 8 marca 2024 na portalu CIRE.PL artykułu „Alternatywa dla chmury publicznej” autorstwa Pana Wojciecha Urbanka jako artykułu mojego autorstwa, co stanowiło naruszenie praw autorskich faktycznego autora artykułu.

Fabrity: wygrana z US

Fabrity otrzymało pomyślny werdykt w sporze ze skarbówką. W efekcie warszawski software house otrzymał zwrot nadpłaty podatku CIT za 2022 r. To efekt wyroku NSA, który w lipcu 2025 r. oddalił skargę kasacyjną IAS na korzystny dla spółki wyrok WSA z czerwca 2024 r. W rezultacie łącznie skarbówka zwróciła 3,26 mln zł (kwota główna nadpłaty CIT plus odsetki). Fiskus kwestionował zwrot należny z tytułu zastosowania ulgi holdingowej przy sprzedaży przez Fabrity (wówczas pod nazwą K2) akcji Oktawave. Nabywcą za 33,7 mln zł była Netia. Do transakcji doszło w czerwcu 2022 r.

720 mln zł na oprogramowanie Microsoftu

Wybrano wykonawców w megaprzetargu na dostawę oprogramowania Microsoftu dla sądów powszechnych i Ministerstwa Sprawiedliwości. Przedmiotem postępowania ogłoszonego w sierpniu br. było zawarcie umowy ramowej na 3 lata. Kwota na sfinansowanie zamówienia to 720,5 mln zł brutto. Zamawiający był gotów podpisać umowę ramową z 5 wykonawcami. Oferty złożyły jednak 4 firmy: Operator Chmury Krajowej, Asseco Poland, SoftwareOne Polska oraz APN Promise. Centrum Zakupów dla Sądownictwa wybrało wszystkich czterech wykonawców do zawarcia umowy ramowej. W ramach umów wykonawczych dostarczą oni licencje i subskrypcje na różne produkty Microsoftu w pakietach EA i MPSA.

Elsat zostanie sprzedany

Polski Światłowód Otwarty przejmie Elsat, dotychczas spółkę zależną z Grupy Vectra. Działa ona na Górnym Śląsku. Jest właścicielem dostępowej infrastruktury szerokopasmowej, a sieć dociera do około 2,3 mln domostw. Wartość transakcji nie została ujawniona. Polski Światłowód Otwarty to spółka, której udziałowcami są fundusz private equity InfraVia oraz Play. W 2023 r. pozyskała 5 mld zł finansowania na inwestycje w sieci światłowodowe.

Sprostowanie

W edytorialu do wydania 11/2025 CRN Polska omyłkowo podałem, że średni wzrost obrotów w europejskiej dystrybucji w okresie styczeń-wrzesień 2025 wyniósł 47 proc., podczas gdy w rzeczywistości sięgnął on, rzecz jasna, poziomu 4,7 proc. Za pomyłkę przepraszam. Tomasz Gołębiowski

IT Nation Connect 2025:

„Dzisiejsi

MSP nie będą istnieć za kilka lat”

Rola dostawców usług zarządzanych szybko się zmienia. Będzie coraz bardziej koncentrować się na wdrażaniu i doradztwie w zakresie AI. Takie wnioski płyną z konferencji IT Nation Connect 2025.

Orlando

Branża usług zarządzanych (MSP) wkroczyła w nową fazę. Sztuczna inteligencja nie jest już tylko narzędziem zwiększającym wydajność. Staje się motorem napędowym transformacji modeli biznesowych. Jednocześnie dyskusja wśród MSP przesuwa się z tematu „jak automatyzować” na „jak przeprojektować procesy biznesowe z wykorzystaniem AI” – takie wnioski płyną z konferencji IT Nation Connect Global 2025. Tegoroczne wydarzenie, organizowane przez ConnectWise, okazało się największe w swojej historii. Zgromadziło ponad cztery tysiące uczestników: dostawców usług zarządzanych, vendorów i liderów opinii.

BRANŻA MUSI KRĄŻYĆ WOKÓŁ KLIENTÓW, A NIE TECHNOLOGII.

W swoim wystąpieniu inaugurującym wydarzenie, Manny Rivello, CEO ConnectWise, wezwał dostawców MSP do wyjścia poza tradycyjne świadczenie usług IT i wspieranie klientów we wdrażaniu i operacjonalizacji AI. Jego zdaniem „dzisiejsze firmy MSP nie będą istnieć za kilka lat”, gdyż ich rola będzie coraz bardziej koncentrować się na wdrażaniu i doradztwie w zakresie sztucznej inteligencji. Wskazał takie obszary aktywności, jak bezpieczna integracja AI, dostosowanie jej do celów biznesowych i pomiar zwrotu z inwestycji.

– Małe i średnie firmy nie wiedzą, jak przygotować się na AI ani jak ją bezpiecznie wdrożyć. To szansa, którą MSP muszą wykorzystać. Przy czym o sukcesie strategii AI będzie decydować jakość danych. Jeśli twoje dane są słabe, twoje modele zawsze będą błędne – ostrzegł Manny Rivello. W odpowiedzi na powyższe wyzwania i potrzeby ConnectWise zainwestował ponad 100 mln dol. w platformę Asio,

której celem jest centralizacja danych i włączenie możliwości AI oraz automatyzacji procesów (RPA) z myślą o partnerach działających w modelu MSP. Generalnie uczestnicy IT Nation Connect byli zgodni co do tego, że ich klienci nie kupują technologii – kupują wyniki biznesowe. W tym duchu dyskutowano między innymi podczas Panelu Liderów MSP, podkreślając konieczność transformacji dostawców usług zarządzanych.

– Tradycyjne, pracochłonne usługi IT ulegają transformacji w pierwszej kolejności. MSP muszą przewodzić w dążeniu do wartościowego doradztwa – mówił Peter Melby, CEO New Charter Technologies. Z kolei Paul Mangano, dyrektor zarządzający Mangano IT, podkreślał, że sztuczna inteligencja powinna poprawiać jakość oczekiwanych przez klientów rezultatów oczekiwanych od nowo wdrażanych rozwiązań.

– Sztuczna inteligencja daje nam narzędzia do świadczenia lepszych usług szybciej i pozwala naszym pracownikom skupić się na kliencie – dodał Paul Mangano. W tym kontekście Owen Whitlock, Group Head of IT Solutions w BDR Group, podzielił się praktycznymi przykładami z sektora opieki zdrowotnej, gdzie automatyzacja oparta na sztucznej inteligencji skróciła proces skierowania z sześciu miesięcy do zaledwie 24 godzin.

– Do takiego mierzalnego wpływu na biznes powinni dążyć dostawcy usług zarządzanych – stwierdził Owen Whitlock, co stanowi znakomite podsumowanie tegorocznego IT Nation Connect.

Maciej Szcześniak Pomysłodawca studiów podyplomowych „Akademia business as a service” w Akademii Leona Koźmińskiego.

Maciej Szcześniak,

WYDARZENIA

Arrow Partner Summit 2025:

czas na monetyzację AI

W konferencji Arrow Partner Summit 2025, która odbyła się w hotelu

Vienna House Andel’s w Łodzi, wzięło udział ponad 300 osób. Podczas spotkania dominowała tematyka związana ze sztuczną inteligencją.

Wojciech Urbanek

Wydarzenie zorganizowane przez

Arrow Enterprise Computing

Solutions Polska przebiegało pod hasłem „Innovation Forward”, tłumaczonym przez Romana Młodkowskiego, moderatora konferencji, jako „Innowacje przodem”. Arrow Partner Summit 2025 zgromadził partnerów biznesowych dystrybutora, ekspertów technologicznych oraz liderów opinii z branży IT, aby wspólnie przyjrzeć się najnowszym trendom i rozwiązaniom kształtującym przyszłość technologii. W ubiegłym roku tematem niemal wszystkich konferencji technologicznych była sztuczna inteligencja. W tym roku jest podobnie, choć coraz częściej pojawiają się przykłady konkretnych wdrożeń, a co za tym idzie monetyzacji AI.

ARROW WPROWADZIŁO OPŁATY ZA KORZYSTANIE Z ASYSTENTA AI.

Jednym z takich przykładów są narzędzia Microsoftu, z Copilotem na czele. – Podeszliśmy do Microsoft Copilot w sposób systematyczny i uporządkowany. Najpierw poznaliśmy podstawowe zasady i praktyki korzystania z tego rozwiązania. Dopiero po opanowaniu tej wiedzy przeszliśmy do konkretnych zastosowań w codziennej pracy. Zaczęliśmy od najprostszych zadań: przygotowywania ofert, analizowania tekstów czy tworzenia prezentacji. To były nasze pierwsze kroki. Te podstawowe umiejętności stanowią solidny fundament. Właśnie na nich budujemy bardziej zaawansowane rozwiązania, które rzeczywiście zwiększają efektywność naszej pracy – tłumaczy Marcin Reczyński, Country Manager Arrow Enterprise Computing Solutions Poland. Co istotne, dystrybutor we współpracy z Microsoft na swojej platformie ArrowSphere Cloud stworzył asystenta AI, który wykorzystując sztuczną inteligencję wspiera partnerów w prowadzeniu biznesu chmurowego. ArrowSphere

Assistant oferuje automatyczne przygotowanie najświeższych promocji, analizę zagrożeń cyberbezpieczeństwa, tworzenie ofert oraz monitorowanie i analizę zakupów dokonywanych przez klientów. Po roku darmowego dostępu dystrybutor zdecydował się wprowadzić opłaty za korzystanie z asystenta. Jak dotąd na taką opcję pozytywnie odpowiedziało kilkuset resellerów, co potwierdza wartość biznesową tego rozwiązania.

O ile sztuczna inteligencja dopiero wchodzi do firm, o tyle usługi chmurowe zdążyły się w nich już zadomowić. Jednak przedsiębiorcy nie zawsze są zadowoleni z migracji do chmury, co nierzadko wynika z nadmiernego pośpiechu.

– Jedna kwestia to czyste kalkulacje dotyczące tego, ile kosztuje rozwiązanie lokalne w porównaniu do rozwiązań chmurowych. Warto jednak podkreślić, że chmura niesie ze sobą szereg innych, istotnych korzyści, zwłaszcza w zakresie elastyczności oraz gotowości do zmiany. Dzięki rozwiązaniom chmurowym organizacje mogą łatwiej dostosowywać się do dynamicznie zmieniającego się rynku, szybko wdrażać nowe technologie i skalować zasoby zgodnie z bieżącymi potrzebami. Elastyczność chmury pozwala również na sprawne reagowanie na nieprzewidziane sytuacje, co

stanowi przewagę konkurencyjną w dzisiejszym środowisku biznesowym –  zauważa Marcin Reczyński.

W 2024 r. firma Arrow uruchomiła Cloud Amplification Program (CAP), aby wspierać partnerów w rozwoju biznesu i usług chmurowych oraz otwieraniu nowych możliwości. Program CAP przebiega według ustalonego schematu, zaczynając od quizu diagnostycznego oceniającego dojrzałość partnera w zakresie rozwiązań chmurowych i hybrydowych, a następnie dostosowanego szkolenia i ciągłego monitorowania postępów.

Co ważne, wyniki programu są wymierne. Partnerzy biorący udział w programie CAP osiągają wyraźny wzrost dynamiki sprzedaży w odniesieniu do poszczególnych dostawców. Przykładowo, od drugiej połowy 2024 r. do pierwszej połowy 2025  r. partnerzy CAP zwiększyli przychody ze sprzedaży rozwiązań Microsoftu o 72 proc., podczas gdy partnerzy niezrzeszeni w CAP osiągnęli wzrost o 25 proc. (na podstawie próby kilkuset resellerów).

Marcin Reczyński zaznacza, że sukces w branży IT nie zależy już tylko od dostępu do najnowszych technologii, ale głównie od inwestycji w wiedzę pracowników i gotowości organizacji na ciągłe zmiany. – Inwestycje w wiedzę naszych pracowników zmieniają się w realne zyski – podkreśla Marcin Reczyński.

Firma zapowiada kontynuację działań edukacyjnych, planując kolejne szkolenia i warsztaty w czwartym kwartale bieżącego oraz w nadchodzącym roku.

Zmiany na stanowiskach

W

dynamicznej branży IT personalna

najważniejszych

karuzela kręci się szybciej niż w innych. Prezentujemy kilka
zmian, które nastąpiły w minionych tygodniach.

Konrad Burzyński w B3 Consulting

Konrad Burzyński dołączył do B3 Consulting Poland, obejmując stanowisko DACH Business Unit Manager. Będzie odpowiadał za skalowanie działalności firmy w regionie (Niemcy, Austria i Szwajcaria) oraz rozwój relacji z klientami.

Konrad Burzyński wnosi do firmy, która jest częścią szwedzkiej B3 Consulting Group, doświadczenie zdobyte w międzynarodowych organizacjach. Przez ostatnie 5 lat był związany z Britenetem, zaś wcześniej pracował w Jaguar Land Rover, Hochtief oraz VEKA Umwelttechnik.

Urszula Leciejewska: z HPE do Veeam

Urszula Leciejewska objęła stanowisko Senior Channel Manager Eastern Europe w Veeam Software. Ma wieloletnie doświadczenie w zarządzaniu kanałem sprzedaży i współpracy z partnerami. Ostatnio, od stycznia 2024 r., pracowała w HPE jako Channel Director. Wcześniej od 2022 r. odpowiadała w Atlassian za kanał sprzedaży w regionie Europy Środkowej. Przez blisko 10 lat była związana z Googlem (2012 – 2022), m.in. jako szefowa sprzedaży partnerskiej Google Cloud w Europie Środkowo-Wschodniej. Doświadczenie zdobywała również w EMC, IBM, Fujitsu-Siemens Computer.

Nowa dyrektorka generalna UKE

Funkcję dyrektor generalnej UKE objęła Ewa Morawska-Sochacka. Zastąpiła na tym stanowisku Zbigniewa Zielińskiego, który był dyrektorem przez ponad 4 lata. Ewa Morawska-Sochacka jest prawniczką. Karierę zawodową rozwijała w administracji państwowej. Pracowała na stanowisku zastępcy dyrektora biura dyrektora generalnego Kancelarii Prezesa Rady Ministrów, p.o. zastępcy dyrektora zarządu Mienia Skarbu Państwa i kierownika działu prawnego Polskiej Wytwórni Papierów Wartościowych.

Nowy szef sprzedaży OVHcloud w regionie

Awans Przemysława Kani w strukturach Cisco

Przemysław Kania, dotychczasowy dyrektor generalny Cisco w Polsce, objął stanowisko wiceprezesa odpowiedzialnego za rynek Service Provider w  regionie EMEA. Dołącza do zespołu kierowniczego Cisco EMEA. Przemysław Kania jest związany z firmą od 1998 r., a jej szefem w Polsce był przez minione 8 lat. Do c zasu powołania następcy Przemysława Kani, stanowisko dyrektora generalnego Cisco w naszym kraju będzie piastować Łucja Barbaszewska, która pracuje w firmie od 18 lat, w tym od 6 lat pełni obowiązki Regional Sales Managera.

Głowacki dyrektorem w Cyber360

Grzegorz Soczewka objął stanowisko Vice President Sales na region Europy Wschodniej w OVHcloud. Będzie odpowiedzialny za rozwój programu partnerskiego i kanału sprzedaży. Ma ponad 20-letnie doświadczenie w obszarze sprzedaży, IT, usług chmurowych i rozwoju biznesu. Przed dołączeniem do OVHcloud przez 4 lata był dyrektorem sprzedaży w Euvic Future Work. Wcześniej był Head of ITS/ECM Division w Konica Minolta Business Solutions Polska, natomiast w Indata Solutions zarządzał zespołem sprzedaży rozwiązań chmurowych. Współpracował również z Dellem i IBM-em.

Bartosz Głowacki dołączył do Cyber360 na stanowisko dyrektora handlowego. W firmie specjalizującej się w cyberbezpieczeństwie odpowiada za rozwój struktur sprzedażowych i pozyskiwanie nowych klientów. Dotychczas, od marca 2024 r., odpowiadał za wsparcie i sprzedaż w Polsce usług MDR i Cyber Threat Intelligence poprzez kanał partnerski w Cyberoo. Wcześniej w Athenasoft był dyrektorem sprzedaży, zaś w Sagenso odpowiadał za rozwój kanału partnerskiego. W latach 2014–2021 pełnił funkcję Business Development Directora w agencji Media Trust. Jest członkiem ISSA Polska i ISSA International.

facebook.com/crnpolska www.crn.pl www.youtube.com/@crnpolska8 www.linkedin.com/company/crn-polska www.youtube.com/@crnpolska8 www.linkedin.com/company/crn-polska ZNAJDŹ NAS W INTERNECIE facebook.com/crnpolska www.crn.pl

facebook.com/crnpolska www.crn.pl www.youtube.com/@crnpolska8 www.linkedin.com/company/crn-polska cebook.com/crnpolska www.youtube.com/@crnpolska8 www.linkedin.com/company/crn-polska www.youtube.com/@crnpolska8 www.linkedin.com/company/crn-polska facebook.com/crnpolska www.crn.pl cebook.com/crnpolska www.youtube.com/@crnpolska8 www.linkedin.com/company/crn-polska

WYDARZENIA

AI zmieni branżę

centrów danych

Sztuczna inteligencja będzie motorem inwestycji i rozwoju data center w kolejnych latach, a przy tym znacząco je zmieni – taki wniosek płynie z prezentacji oraz dyskusji podczas Vertiv Week 2025.

Krzysztof Pasławski, Tognana

Spotkanie pod hasłem „Vertiv Driving Innovation: The Future of AI Factories” zgromadziło zarówno liderów branży DC (Nvidia, Microsoft czy Digital Realty), jak też najważniejsze europejskie stowarzyszenia centrów danych (wśród nich PLDCA – Polish Data Center Association).

Prezentacje i dyskusje koncentrowały się na kluczowych trendach, innowacjach i przyszłości infrastruktury centrów danych i fabryk AI. Wśród najważniejszych zagadnień znalazła się przyszłość fabryk

ZWRACANO UWAGĘ NA WYZWANIA, JAKIMI SĄ ADMINISTRACYJNE,PROCEDURYSZCZEGÓLNIE

W EUROPIE.

AI i infrastruktury o wysokiej gęstości, a także suwerenność AI, zrównoważony rozwój, wyzwania związane z zasilaniem, chłodzeniem, niedoborem specjalistów oraz regulacjami. A wszystko to w kontekście rosnących inwestycji i konieczności przyspieszenia wdrożeń.

Z dyskusji i danych pokazywanych podczas Vertiv Week 2025 wynika, że AI będzie w najbliższych latach motorem wzrostu

sektora data center. Przewiduje się, że w 2026 r. aż 10-krotnie wzrośnie architektura AI w Europie w porównaniu z 2024 r. Natomiast moc centrów danych na świecie ma do 2029 r. corocznie zwiększać się w zakresie od 13 GW do 23 GW, czyli w sumie o ponad 100 GW. Jednocześnie inwestycje kapitałowe w infrastrukturę fizyczną powinny w ciągu najbliższych trzech lat rosnąć o 8–9 proc. rocznie (przy czym część analityków prognozuje nawet 6-krotnie większą skalę). Branżę ma ponadto napędzać globalny wzrost masy danych – średnio o 24 proc. rocznie (CAGR) w latach 2023 – 2028. Z kolei ogólna prognoza wzrostu wydatków na serwery mówi o 16 proc. CAGR w okresie 2023 – 2028. A to oznacza, że sprzedaż serwerów nie rośnie tak szybko, jak masa danych, co jest konsekwencją coraz większej wydajności GPU.

Fabryki AI: „nowa rewolucja przemysłowa”

Jak podkreślał Carlo Ruiz, VP Enterprise Solutions & Operations na rynek EMEA w Nvidii, AI Factory to nowa rewolucja przemysłowa i coś innego niż tradycyjne centrum danych. W jego opinii to miejsce, gdzie „produkuje się inteligencję”. Fabryki AI cechuje przyspieszone przetwarzanie,

sieć i pamięć masowa zaprojektowana dla sztucznej inteligencji.

Jednocześnie rozwojowi AI Factory powinien sprzyjać jeden z najważniejszych trendów na rynku, a mianowicie dążenie do cyfrowej suwerenności. Fabryki AI, zarządzane lokalnie i stanowiące lokalną własność, są bowiem kluczowe dla rozwoju suwerennej sztucznej inteligencji – dla wzrostu gospodarczego i bezpieczeństwa danego państwa, dla rozwoju talentów, jak też innowacji poprzez B&R. Carlo Ruiz uważa, że każdy kraj wręcz musi mieć swoje Fabryki AI. Wskazał przy tym na powstające w Europie ośrodki, takie jak AI Factory w poznańskim PCSS oraz na podobną inwestycję Beyond.pl (fabryka AI powstaje też przy Cyfronecie w Krakowie).

Branżę technologiczną będzie zmieniać też przechodzenie od GenAI do fizycznej sztucznej inteligencji, mającej zastosowanie m.in. w robotyce. Jak podkreślał Carlo Ruiz, potrzebuje ona nie jednego, a trzech komputerów: do symulowania, wdrażania i trenowania AI. Przy tym fizyczna AI również istotnie wpłynie na rynek centrów danych. Mianowicie będzie wymagać lokalnego przetwarzania. Tak uważa Emmanuel Becker, dyrektor generalny Mediterra Datacenters, co w jego opinii zwiększy potrzebę inwestycji w regionalne ośrodki data center.

Potrzeba szybkości i elastyczności

W związku z AI jednym z najważniejszych wyzwań dla sektora centrów danych jest

szybki rozwój technologii, a do tego dochodzą zmieniające się szybciej niż kiedyś potrzeby klientów. Branża musi być więc gotowa do adaptacji nowości i zmian, jak też skracać czas między inwestycją a postawieniem data center. Istotna jest też możliwość wdrażania przyszłych zmian (których dziś nie da się przewidzieć) bez zakłócania pracy ośrodków.

– Szybkość wdrożenia jest jednym z kluczowych elementów – podkreślał Karsten Winther, prezes Vertiva na region EMEA. Konsekwencją jest rozwój prefabrykacji, co jeszcze 6 – 7 lat temu stanowiło rynkową niszę. Według Vertiva jego modularne rozwiązania dla centrów danych przyspieszają pojedyncze wdrożenie o 50 proc., pozwalając na zaoszczędzenie do 30 proc. przestrzeni i oraz do 25 proc. TCO.

Specjaliści Vertiva w odpowiedzi na obecne wyzwania branży zaprezentowali nowy paradygmat „unit of compute”, który jest modularnym blokiem infrastruktury, z zasilaniem, chłodzeniem i zarządzaniem oraz możliwością skalowania i rekonfiguracji. Cechuje go moc 400 MW (do trenowania), przy czym może działać zarówno samodzielnie, jak z innymi jednostkami. Specjaliści Vertiva podkreślali ponadto, że infrastruktura AI stwarza obecnie bezprecedensowe zapotrzebowanie na „systemowe” projekty, wdrożenia i operacje. Zaspokajać ten popyt ma Vertiv OneCore – zaprezentowane na konferencji nowe hybrydowe, prefabrykowane rozwiązanie dla centrów danych o mocy ponad 5 MW.

Wśród uczestników wydarzenia panowała zgoda co do tego, że kluczowa obecnie jest modularność DC, zwłaszcza dla graczy o międzynarodowym zasięgu. Tym niemniej, z uwagi na różne potrzeby klientów, równie duże znaczenie ma elastyczność konstrukcji.

– Niekiedy planujemy centra danych dla klienta, który nie ma najemców. Nie jesteśmy więc do końca pewni, jaki będzie konkretny cel inwestycji, jak też czy gęstość

będzie duża, czy mniejsza W zależności od projektu, musimy być w  stanie zapewnić elastyczność w zakresie możliwości chłodzenia powietrzem lub cieczą – podkreślał Karsten Winther.

W przypadku Vertiva odpowiednią elastyczność zapewnia rozwiązanie Vertiv CoolPhase Flex, a modularyzacja to sposób, by szybko tworzyć i wdrażać takie właśnie projekty. Z dyskusji wynika, że obecnie chłodzenie i wszystko, co jest z nim związane, staje się coraz bardziej kluczowe. Krytyczne jest przy tym odprowadzanie ciepła na poziomie 150 KW, a – jak się przewiduje – będzie potrzeba schładzania rzędu 1 MW na rack.

Nie można przy tym zapominać, że równolegle z ośrodkami przetwarzania AI będzie funkcjonował rynek tradycyjnych centrów danych i pozostanie on niemały. Według przytoczonych podczas konferencji liczb, aż 80 proc. danych przedsiębiorstw nie zostało umieszczonych w chmurze i nie mają do nich dostępu żadne LLM-y. Co jednocześnie wskazuje na potencjał dalszego rozwoju rozwiązań wykorzystujących sztuczną inteligencję.

Branży potrzeba tysięcy nowych inżynierów Jednym z kluczowych wyzwań dla dalszego rozwoju branży DC jest pozyskanie odpowiedniej liczby specjalistów.

– Potrzebujemy tysięcy nowych inżynierów w  centrach danych –  przyznał Peter Lambrecht, wiceprezes Vertiva ds. sprzedaży na region EMEA.

W ciągu minionych 5 lat centra danych wygenerowały 300 tys. nowych miejsc pracy, a w sumie globalne zatrudnienie w tym sektorze wynosi 3,2 mln osób. W tym kontekście przedstawiciele Vertiva zapewniali, że firma dokłada wszelkich starań, aby edukować zarówno nowych pracowników, jak i partnerów z branży. Producent posiada 12 akredytowanych centrów szkoleniowych na świecie.

Centra danych: niezbędne jak prąd i woda

Główną odsłonę prezentacji i dyskusji podczas Vertiv Week 2025 w Tognana poprzedził okrągły stół europejskich stowarzyszeń centrów danych z udziałem PLDCA – Polish Data Center Association. W toku dyskusji omawiano możliwości współpracy, wyzwania (w tym kwestie kosztów energii czy procedur administracyjnych), podkreślając przy tym krytyczne znaczenie centrów danych dla funkcjonowania krajów i społeczeństw. Jak wyraził się Piotr Kowalski, dyrektor zarządzający Stowarzyszenia PLDCA: „Potrzebujemy centrów danych, tak jak potrzebujemy prądu i wody”.

Co roku wydaje ponad 2,2 tys. certyfikatów szkoleniowych, a w zakresie usług – blisko 1 tys.

– Wielu klientów końcowych nie jest do końca pewnych, co technologia może dzisiaj zaoferować. Musimy więc im pomóc, zainspirować ich, a w niektórych przypadkach edukować, zarówno na poziomie inżynieryjnym, jak i celów. To jeden z powodów, dla których mamy wiele centrów obsługi klienta – mówił Karsten Winther. Podczas konferencji potwierdzono też wcześniej komunikowaną zmianę. Otóż wraz z końcem tego roku Karsten Winther przejdzie na emeryturę. Od 1 stycznia 2026 r. stery Vertiva w regionie EMEA przejmie Paul Ryan, teraz dyrektor ds. zaopatrzenia, który podziękował obecnemu prezesowi za dotychczasowe dokonania. Podczas Vertiv Week 2025 przedstawiciele mediów z całego regionu EMEA mieli również okazję gościć w laboratoriach Customer Experience Center w Tognana, gdzie rozwiązania tej marki (w tym moduły OneCore) są testowane, rozwijane i dostosowywane do potrzeb klientów. Na koniec warto dodać, że podczas wydarzenia zwracano też uwagę na wyzwania, jakimi są procedury administracyjne – szczególnie w Europie. Emmanuel Becker uważa, że w sytuacji szybko ewoluujących technologii czas od pomysłu na centrum danych do jego uruchomienia wciąż jest zbyt długi.

do cyfrowych

Gaia-X: ekosystemów metodyczne podejście

Listopadowa konferencja Gaia‑X Summit 2025 była okazją do zaprezentowania nowej wersji Gaia‑X Trust Framework 3.0, pod nazwą kodową Danube.

Krzysztof Jakubik, Porto

Organizacja Gaia X AISBL powstała w 2019 r., jako wspólna inicjatywa Francji i Niemiec. Realne działania podjęła dwa lata później, a ich celem jest wsparcie ogłoszonej w lutym 2020 r. Europejskiej Strategii Danych oraz powołania wspólnych przestrzeni danych (data spaces) w UE. Założyciele Gaia X postanowili stworzyć ramy dla zaufanej, zdecentralizowanej, europejskiej infrastruktury wymiany informacji.

Założenie to jest realizowane poprzez budowanie interoperacyjnych przestrzeni danych, działających w sposób zgodny z zasadami suwerenności, transparentności oraz pełnej kontroli właścicieli informacji, bez względu na to, czy są one przetwarzane w chmurze publicznej lub prywatnej, lokalnie czy w innej architekturze. W ten sposób rzucono rękawicę globalnym dostawcom chmury i platformom cyfrowym spoza Europy,

EUROPA MUSI ODEJŚĆ OD IZOLOWANYCH FRAMEWORKÓW.

które gromadzą ogromne ilości danych pochodzących ze Starego Kontynentu, co rodzi obawy o bezpieczeństwo, prywatność, a także  suwerenność cyfrową jego mieszkańców.

Projekt Gaia X nie jest klasyczną instytucją państwową ani korporacyjną – to organizacja zrzeszająca ponad 400

partnerów: firmy technologiczne, instytuty badawcze, startupy i administracją publiczną. Tworzy standardy, frameworki i narzędzia umożliwiające interoperacyjność danych, ich bezpieczną wymianę oraz kontrolę nad tym, kto i w jaki sposób z nich korzysta. Organizacja urosła z poziomu 22 europejskich założycieli do zrzeszonych w narodowe huby 275 członków z całego świata, przyciągając podmioty z Japonii, Korei, Brazylii czy Kanady.

W Polsce Gaia‑X Hub został uruchomiony 2 września 2021 r. i operacyjnie odpowiada za niego Polska Izba Informatyki i Telekomunikacji (PIIT). Hub p ełni rolę lokalnego ośrodka wiedzy: identyfikuje potrzeby polskich podmiotów zainteresowanych profesjonalizacją zarządzania danymi i ich wymiany z  innymi przedsiębiorstwami, promuje inicjatywy Gaia‑X, wspiera tworzenie przestrzeni danych zgodnych z unijnymi regulacjami (m.in. Data Act i Data Governance Act) oraz współpracuje z innymi europejskimi hubami.

Wśród dotychczasowych najważniejszych osiągnięć Gaia‑X należy przede wszystkim wymienić stworzenie fundamentów wirtualnych przestrzeni danych umożliwiających współpracę między firmami przy zachowaniu reguł zaufania i bezpieczeństwa, zgodności z regulacjami, interoperacyjności i prywatności w całym ekosystemie – są one zdefiniowane w Gaia‑X Trust Framework. Orga-

nizacja wspiera także projekty związane ze sztuczną inteligencją, mobilnością, ochroną zdrowia czy produkcją i dystrybucją energii, w ramach których wymagana jest wymiana danych w sposób zgodny z europejskim prawem oraz wartościami.

Dane nad Dunajem

Jak podkreślał podczas spotkania z mediami Ulrich Ahle, dyrektor zarządzający Gaia‑X, inicjatywa przeszła z fazy koncepcyjnej do praktycznej (otwarcie „drugiego sezonu”), w ramach której zaufanie, interoperacyjność i innowacje stają się fundamentem realnie działających cyfrowych ekosystemów. Przyczyniło się to do zbudowania mechanizmów wykorzystywanej w Europie przejrzystej, odpowiedzialnej i suwerennej sztucznej inteligencji. Ramy zaufania opracowane przez Gaia X stanowią także podstawę wymagań w ogłoszonym niedawno przez Komisję Europejską projekcie zbudowania suwerennej chmury.

Podczas konferencji Gaia‑X Summit 2025 swoją premierę miał Gaia‑X Trust Framework 3.0 Danube. To formalny zbiór reguł, które definiują minimalne wymagania dla firm, by być częścią z bioru ekosystemów bazujących na standardach Gaia‑X. Reguły te dotyczą poprawności składniowej opisów danych (self descriptions), weryfikacji podpisów kryptograficznych, spójności wartości atrybutów oraz ich weryfikacji.

Są wykonywalne maszynowo – można je zapisywać w postaci logicznych zasad (compliance rules), które system może sprawdzać automatycznie. Dostępny jest także słownik terminów oraz logika (reguły drugiego rzędu), które pozwalają przetłumaczyć wartości takie jak prywatność, interoperacyjność czy suwerenność danych na dane możliwe do przetwarzania programowo.

Gaia-X dostarcza bazujący na otwartym źródle kod, który umożliwia automatyzację procesu zgodności (compliance) i implementację tego frameworku. W wersji Danube następuje wyraźne oddzielenie kompatybilności technicznej od zgodności: architektura zawiera silnik techniczny Gaia-X Core Engine, który obsługuje reguły oraz łączenie z lokalnymi lub zewnętrznymi systemami zgodności (extensions). Istnieje też możliwość podłączenia innych lokalnych lub zdalnych silników reguł zaufania (rules/ compliance engines).

Gaia-X, we współpracy z zewnętrznymi Digital Clearing Houses oraz jednostkami certyfikacji, oferuje możliwość ubiegania się o etykietę zgodności oferowanych usług i danych. Najwyższy poziom (Level 3) zarezerwowany jest wyłącznie dla dostawców europejskich, którzy nie podlegają kontroli jednostek spoza UE.

Ważne są standardy

Podczas konferencji ważną dla społeczności Gaia-X prezentację dotyczącą

Trzy pytania do...

Innowacyjność w branży IT kojarzy się głównie z aspektami technicznymi, ale w przypadku Gaia-X stanowią one tylko jeden z filarów… Zgadza się, dbamy o to, aby innowacyjność, zaszyta w DNA naszego przedsięwzięcia, była znacznie szersza niż tylko związana z konkretnymi protokołami czy narzędziami. W ekosystemach danych kluczowe są także reguły biznesowe, prawne i organizacyjne, ponieważ to one definiują interoperacyjność między uczestnikami. Dla przykładu, podczas spotkań z użytkownikami często pada pytanie,

Pierre Gronlier, CIO w Gaia-X czy reguły jednego ekosystemu można stosować w innym. Aby to umożliwić stworzyliśmy i rozwijamy tzw. inteligentne kontrakty prawne – smart legal contracts, czyli kod odwzorowujący treść prawnie obowiązujących umów.

Innowacyjnym rozwiązaniem, które przez ostatnich kilkanaście lat zostało sprawdzone w praktyce, jeśli chodzi o bezpieczeństwo danych, jest blockchain. Dlaczego nie uwzględniacie tego mechanizmu w swoich projektach? Technicznie byłoby to możliwe, ale wprowadzenie pełnoprawnego łańcucha bloków automatycznie oznaczałoby konieczność spełnienia regulacji obowiązujących w różnych krajach, co komplikowałoby współpracę. W niektórych przypadkach można wykorzystać same elementy protokołu Distributed Ledger Technology, które nie podlegają takiemu obciążeniu regulacyjnemu. Problemem nie jest jednak sam mechanizm zdecentralizowanej bazy, ale sprawowanie nadzoru nad nim – przeciwwskazaniem do jego zastosowania może być zbytnia centralizacja infrastruktury użytkownika lub brak kompatybilności z regułami ekosystemu. Oczywiście nie wykluczamy, że w przyszłości zastosujemy blockchain, ale obecnie uznajemy to rozwiązanie za niepraktyczne.

Cyfrowe dane są przetwarzane i zarządzane od kiedy powstała branża IT, a więc od prawie 80 lat. Dlaczego zatem dopiero na przestrzeni ostatnich lat zauważono potrzebę tak znaczącego uporządkowania procedur i procesów związanych z tym obszarem?

Przyczyną są przede wszystkim czynniki ekonomiczne. Firmy i instytucje budują przestrzenie danych wtedy, gdy mają z tego wymierne korzyści: mogą zapewniać lepsze usługi, obniżać koszty, uzyskiwać większą efektywność. Dopiero gdy pojawia się realna potrzeba rynkowa, powstają odpowiednie ramy współdziałania. Zresztą zaproponowane przez nas podejście też z pewnością będzie ulegało modyfikacjom. Obecnie promujemy wdrażanie w firmach przestrzeni danych i traktowanie ich jako odrębnych, wirtualnych bytów, wobec których podejmowanie są działania w celu zapewnienia interoperacyjności z innymi przestrzeniami oraz zgodności z prawem. Nie wykluczam przy tym, że za kilkanaście lat pojęcie to zaniknie, bo promowane przez nas podejście do danych stanie się standardem i nie trzeba będzie wyodrębniać ich w osobny, nazwany byt, któremu przypisywane są konkretne cechy.

standardów wymiany danych przedstawił Jarosław Kowalski, wiceprzewodniczący działającego przy PIIT Komitetu Gaia-X, ekspert Polskiego Komitetu Normalizacyjnego oraz doradca Gaia-X w zakresie standaryzacji:

– Jeśli Europa chce globalnie współdziałać w gospodarce danych, musi odejść od izolowanych frameworków. Tylko formalne standardy, uznawane przez Komisję Europejską i organizacje międzynarodowe, zapewnią realną interoperacyjność. Wbrew założeniom Gaia-X nie stworzyła jeszcze standardu de facto, którym można nazwać tylko powszechnie używane rozwiązanie. Dziś ramy zaufania Gaia-X są jednym z kilku konkurencyjnych podejść

i wciąż nie są dominujące w europejskich przestrzeniach danych – mówił Jarosław Kowalski.

Podczas swojej prezentacji podkreślał także, że Komisja Europejska coraz częściej wskazuje konkretne normy jako podstawę zgodności, więc przedsiębiorstwa tworzące przestrzenie danych nie mogą już funkcjonować poza procesem standaryzacji. Dlatego Gaia-X powinna aktywnie uczestniczyć nie tylko w europejskich, lecz także międzynarodowych komitetach, gdyż gospodarka danych nie jest rynkiem lokalnym, a bez obecności w ISO/IEC JTC 1 trudno będzie mówić o globalnej kompatybilności ekosystemów.

grudzień 2025 / CRN / 13

fabryką Jesteśmy danych

„Wszystko przetwarzamy we własnym ośrodku obliczeniowym. Mamy odpowiednią infrastrukturę i odpowiednie zasoby, które pozwalają nam obrabiać olbrzymie zbiory danych bez korzystania z jakiejkolwiek pomocy z zewnątrz” – mówi dr inż. Janusz Dygaszewicz, dyrektor Departamentu Systemów Teleinformatycznych, Geostatystyki i Spisów w Głównym Urzędzie Statystycznym (GUS).

Kiedy informatyka weszła na dobre do statystyki?

Janusz Dygaszewicz To pytanie można odwrócić: dlaczego maszyny obliczeniowe, a potem metody przetwarzania cyfrowego rozwijały się tak intensywnie na początku i w połowie poprzedniego wieku, głównie w Europie i Ameryce? Właśnie dlatego, że były odpowiedzią na wymagania administracji i rosnące zapotrzebowanie statystyki publicznej na moc obliczeniową dla różnych badań, w tym spisów ludności i mieszkań i związanej z tym konieczności przetwarzania ogromnej ilości danych na potrzeby zarządzania krajem. Te potrzeby stały się dodatkowym motorem rozwoju technik obliczeniowych. Inaczej mówiąc, pierwsze maszyny liczące były od początku głównie stosowane w statystyce i tak jest do dzisiaj.

Można się też jednak spotkać z poglądem, że statystyka jest bardzo tra-

dycyjna, konserwatywna, skupia się tylko na zestawieniach liczbowych, nie nadąża za rozwojem technicznym… W rzeczywistości jest dokładnie odwrotnie. Potrzeby państwa związane z dostępem do informacji statystycznych wręcz wymuszają stosowanie najnowocześniejszych technologii. Tak było 100, 50 lat temu, i tak jest dzisiaj. Na przykład w latach osiemdziesiątych zeszłego stulecia wyzwania związane z inwentaryzacją zasobów leśnych Kanady spowodowały powstanie systemu informacji geograficznej GIS. W Polsce w latach powojennych jednym z przodujących ośrodków obliczeniowych był ośrodek GUS-owski. I do dzisiaj tak pozostało. Stosujemy najnowsze osiągnięcia technik obliczeniowych, związane z machine learning i sztuczną inteligencją. Korzystamy ze wszystkiego, co służy do zbierania i przetwarzania danych, chociażby web scrapingu. Korzystamy też z najnowszych technologii potrzebnych do obliczeń i analiz statystycz-

nych oraz do prezentacji ich wyników. Nadążamy za trendami światowymi, na przykład prowadzimy Portal Geostatystyczny, który pozwala na wielowymiarowe analizy przestrzenne danych statystycznych. Wszystko po to, aby sprostać zapotrzebowaniu społeczności lokalnych, samorządów, państwa i Unii Europejskiej na referencyjne dane o zjawiskach społecznych, gospodarczych i środowiskowych. W ten sposób wypełniamy misję statystyki, stając się jednocześnie kluczowym elementem systemu informacyjnego państwa.

Z jakimi wyzwaniami mierzy się dzisiaj GUS, jeśli chodzi o wykorzystanie technik informacyjnych?

Wystarczy powiedzieć, że zbieramy informacje z bardzo wielu różnych źródeł, w tym z rejestrów państwowych. W Polsce jest ponad sześćset unikalnych rejestrów. My wykorzystujemy w różnym stopniu około połowę z nich. Do bezpośrednich, bieżących prac, około stu, zaś na potrzeby ostatnich spisów powszechnych w całości uspójniliśmy i zintegrowaliśmy w jednym miejscu dane z prawie czterdziestu rejestrów publicznych typu PESEL, ZUS, KRUS, finanse, nieruchomości itd. To jest olbrzymia ilość danych, które musimy zebrać, zabezpieczyć, przetworzyć, a następnie wyciągnąć z nich wnioski. Nie da się tego zrobić inaczej niż z zastosowaniem najnowocześniejszych środków przetwarzania danych.

Fot.

POWOŁALIŚMY ZESPÓŁ, KTÓRY NAZYWAMY

AKADEMIĄ DATA SCIENCE, GDZIE WYJĄTKOWO UZDOLNIONE OSOBY PRACUJĄ NAD PROJEKTAMI BADAWCZO-ROZWOJOWYMI.

Można powiedzieć, że big data to dla Was codzienność… Jaką ilość danych przetworzyliście na przykład w ramach ostatniego spisu powszechnego?

Wolumen danych dochodził już prawie do poziomu zetabajtów. Spisy robimy ekstra raz na dziesięć lat, a corocznie olbrzymie ilości danych i tak stale przetwarzamy na potrzeby naszej działalności statutowej. Można wręcz powiedzieć, że jesteśmy fabryką danych: w ciągu roku realizujemy prawie 300 różnych badań, a na bieżąco korzystamy z 372 źródeł danych, zarówno administracyjnych, jak i pozaadministracyjnych, z których pozyskujemy ponad sześćset różnych zestawów danych, w różnych układach i z różną częstotliwością. Zasilają one 145 badań statystycznych w ramach 31 dziedzin statystyki, czyli około połowy tego, co robimy w ciągu roku. Współpracujemy przy tym ze 156 gestorami tych źródeł danych, na poziomie ministerstw i innych podmiotów administracji publicznej, jak również spoza administracji. Ogromnym wyzwaniem jest ochrona tych danych, a więc dbanie o ich bezpieczeństwo.

Jakimi zasobami technicznymi obecnie dysponujecie?

Mamy dwa własne centra przetwarzania danych – w Warszawie i w Radomiu, działające w ramach specjalnie utworzonej jednostki: Centrum Informatyki Statystycznej. Ze względu na wymogi bezpieczeństwa

nie korzystamy w ogóle z chmury publicznej – ani u dostawcy rynkowego, ani też z jakiejkolwiek chmury administracji publicznej. Bo jeżeli w chmurze, to znaczy na czyimś komputerze, nad którym nie mamy kontroli. Takie rozwiązanie nie wchodzi w ogóle w grę, jeśli chodzi o jednostkowe dane statystyczne. Wszystko przetwarzamy we własnym ośrodku obliczeniowym. Mamy odpowiednią infrastrukturę i odpowiednie zasoby obliczeniowe, które pozwalają nam obrabiać te olbrzymie zbiory danych bez skorzystania z jakiejkolwiek pomocy z zewnątrz. Nie możemy ryzykować jakiejkolwiek możliwości wypływu tych danych. Najbardziej bezpiecznym środkiem ochrony jest maksymalne odseparowanie najcenniejszych zasobów tak daleko, jak to jest tylko możliwe i jeśli to konieczne i niezbędne, kontrolowane udostępnianie z zachowaniem ścisłych zasad bezpieczeństwa. Wszystkie dane statystyczne są przetwarzane wyłącznie u nas i są chronione na poziomie wysokim.

Te rygorystyczne wymogi bezpieczeństwa wynikają, jak się domyślam, z obowiązku dochowania tajemnicy statystycznej…. Statystyka działa jak czarna dziura – dane wchodzą do przetworzenia jako jednostkowe, ale nigdy jako takie już nie wychodzą. Ustawowo jesteśmy zobowiązani do zachowania tajemnicy statystycznej, czyli nie możemy ujawniać żadnych jednostkowych, identyfikowalnych informacji na temat osób, firm, instytucji, miejsc. Możemy jedynie udostępniać informacje zagregowane w odniesieniu do minimum trzech przypadków jednostkowych. Jeżeli bowiem chcielibyśmy powiedzieć coś na temat działalności, na przykład, zakładów krawieckich, a w gminie byłby tylko jeden, to bez problemu każdy mógłby go zidentyfikować. Musimy więc dane łączyć, tworzyć mikroagregaty i agregaty stosując odpowiednie metody statystyczne.

Co jeszcze, oprócz separacji fizycznej, wchodzi do arsenału stosowanych przez was metod zabezpieczeń?

Staramy się działać w zakresie bezpieczeństwa danych na jak najwyższym poziomie. Przykładowo, mamy ścisłą współpracę z NASK, ABW, czy UODO. Dbamy o zabezpieczenia bardzo mocno, ponieważ dane statystyczne czasami dotyczą także szarej strefy. Przykładem mogą być ceny targowiskowe. Nasi ankieterzy dopytują sprzedawców na targowiskach, po ile coś jest faktycznie sprzedawane i to nie zawsze musi się zgadzać z cenami podawanymi do publicznej wiadomości. Zachowanie tajemnicy staty-

stycznej jest kluczowe dla uzyskania wiarygodnej informacji. Pytani przekazują ją w zaufaniu, że ona dalej nie wypłynie. Wystarczy, żebyśmy raz ujawnili, po ile faktycznie coś jest sprzedawane na danym targowisku, aby następnego dnia nasi ankieterzy nie mieli już tam czego szukać. A uzyskanie wiarygodnych, przekazanych w zaufaniu faktycznych danych statystycznych ma kluczowe znaczenie dla wiarygodności formułowania wniosków na temat stanu gospodarki i podejmowania strategicznych decyzji w zakresie jej rozwoju. Inaczej będziemy zdani tylko na oficjalne dane ze źródeł administracyjnych. A te mogą mieć różną jakość.

Czy dane z rejestrów publicznych nie zawsze są wiarygodne?

Chodzi o to, że musimy umieć odpowiednio przetworzyć dane z rejestrów administracyjnych, żeby się nadawały do naszych analiz. Ich jakość przekłada się potem na jakość oferowanego przez nas produktu, a jak zdążyliśmy się już przekonać, czasami w tych zasobach, kolokwialnie mówiąc, jest zauważalne zaśmiecenie – czasami danych jest za mało, czasami za dużo, czasami nie są odpowiednio ustrukturyzowane. Musimy więc je wyczyścić przed przekazaniem do przetwarzania i analiz. Przy ich transformacji musimy brać pod uwagę wiele parametrów, żeby zagwarantować odpowiednią jakość udostępnianych przez nas końcowych wyników statystycznych. Czasami słyszymy narzekanie na statystykę, że to tak długo trwa, ale tutaj zawsze trzeba brać pod uwagę jakość versus szybkość.

Jak wobec tego radzicie sobie z integracją danych z różnych źródeł, z różnych rejestrów? Był swego czasu pomysł stworzenia rejestrów referencyjnych. Co się z nim stało?

PPRACUJEMY NAD ROBOTYZACJĄ, MYŚLĄC O WYKORZYSTANIU W PRZYSZŁOŚCI PRZETWARZANIA KWANTOWEGO.

Sam kilka lat temu postulowałem stworzenie rejestrów referencyjnych. Prace nad tym trwają. Jestem członkiem Rady Architektury przy Ministerstwie Cyfryzacji. Idea rejestrów referencyjnych, a przynajmniej rejestrów, które prowadzą atrybuty referencyjne, powinna w końcu i u nas przybrać realne kształty. Bo prędzej czy później, tak jak w wielu krajach, szczególnie nordyckich, większość informacji będzie się opie-

grudzień 2025 / CRN / 15

rać na rejestrach administracyjnych. A u nas ich jakość jest ciągle różna, mają swoje wady i zalety. Niejednokrotnie dane w nich są nieodpowiednio rejestrowane, mają swoje duplikaty, standardy ich prowadzenia są też różne. Mamy więc w GUS-ie jednostkę, która pobierając te rejestry od gestorów dokonuje standaryzacji i transformacji zawartych w nich danych, przygotowując je do późniejszego przetwarzania.

To się dzieje w sposób automatyczny?

Tutaj sztuczna inteligencja jest bardzo przydatna, szczególnie do klasyfikacji. Wprowadzamy takie właśnie narzędzia informatyczne, bo sztuczna inteligencja to w końcu tylko wyrafinowane algorytmy plus słowniki, schematy i modele językowe. Mamy coraz większą wiedzą i umiejętności w ich zastosowaniu w statystyce. Już od 2010 roku istnieje zespół do spraw standaryzacji, która jest niezbędna, zanim dane zostaną poddane dalszej obróbce do celów statystycznych. Bo zdarzało się na przykład tak, że z rejestrów wynikało, że ktoś ma 130 lat i nadal płaci składkę ZUS-owską. Obecnie poszukujemy informacji o podmiotach – zarówno osobach, jak i przedsiębiorstwach – na podstawie śladów życia. Jeśli coś występuje w jednym rejestrze, to nie znaczy, że tak jest faktycznie, trzeba to sprawdzić jeszcze w dwóch, trzech innych źródłach i odpowiednio zwalidować. I trzeba to robić tak, aby cały czas zapewnić ochronę danych jednostkowych.

Anonimizujecie dane osobowe?

Dysponujemy zespołem wybranych osób, które mają uprawnienia do pracy na da-

pracujemy na danych zanonimizowanych lub pseudonimizowanych, jak też w postaci agregatów i mikroagregatów. Na to jeszcze jest nakładana tajemnica statystyczna. Mamy zatem rozbudowaną metodologię ochrony i pracy z danymi – to bardzo ważne, bo pracuje u nas około pięciu tysięcy osób.

A z jakich jeszcze źródeł danych, poza rejestrami państwowymi i kwestionariuszami pozyskiwanymi przez ankieterów, korzystacie?

kacji, czyli oddzielenia różnych podmiotów, obiektów, zdefiniowania ich według specyficznych dla nich cech i właściwości. Klasyfikacji dokonujemy już teraz w sposób automatyczny, wykorzystując do tego metody bazujące na sztucznej inteligencji. Pracujemy generalnie nad robotyzacją procesu produkcji statystycznej, myśląc przy tym o wykorzystaniu w przyszłości przetwarzania kwantowego.

A co z analizą danych?

nych identyfikowalnych. To jest dosyć mały zespół i każdorazowo odbywa się weryfikacja, czy rzeczywiście jest potrzebne, aby dany pracownik miał dostęp do danych – ja na przykład nie mam takiego dostępu, bo nie pracuję na danych jednostkowych identyfikowalnych. Po procesie standaryzacji następuje, w zależności od potrzeb, anonimizacja lub pseudonimizacja. Mamy prawo przechowywać, pod kontrolą UODO, dane identyfikowalne do określonych celów. Bo gdy czasami badamy losy rodzin czy firm, to musimy dysponować szczegółowymi danymi historycznymi. Generalnie jednak

Praktycznym zastosowaniem technik cyfrowych jest na przykład wykorzystanie zdjęć satelitarnych, czy – poprawniej – zobrazowań satelitarnych oraz zdjęć lotniczych, do określania np. wielkości plonów w  rolnictwie. Współpracujemy przy tym z Instytutem Geodezji i Kartografii. To są olbrzymie ilości danych do przetworzenia, a więc to jest prawdziwe big data. Jeśli chodzi o identyfikację takich zjawisk jak susza, wegetacja w określonym momencie, stosowany płodozmian, rodzaj upraw, to klasyfikacja odbywa się przy pomocy algorytmów sztucznej inteligencji pracujących na dostępnych zobrazowaniach satelitarnych. Techniki satelitarne umożliwiają nam także śledzenie ruchu statków na Bałtyku – jaki mają tonaż, którędy dokładnie pływają, jak często, z jaką prędkością, co wiozą, do jakich portów zawijają, gdzie zrzucają zanieczyszczenia. Bierzemy dane do analizy ze specjalistycznego portalu z danymi satelitarnymi (AIS), na którym dane aktualizowane są co kilkanaście sekund lub minut, w zależności od tego, czy statek jest w ruchu, czy stoi w porcie. W ten sposób opracowujemy wynikowe informacje statystyczne dotyczące transportu morskiego. W podobny sposób zbieramy dane o transporcie drogowym. Z systemu e-TOLL bierzemy informacje o ruchu samochodów ciężarowych, sprawdzamy na przykład natężenie ruchu w odniesieniu do pojazdów o określonym tonażu – czy rośnie, czy maleje. Na podstawie tego można wyciągać wnioski w odniesieniu chociażby do trendów rozwojowych w gospodarce i trendu PKB. Na tym właśnie polega wykorzystanie najnowszych technologii w statystyce.

Nie wystarczy jednak tylko pobranie surowych danych, trzeba je jeszcze przeanalizować i zinterpretować. W jakim zakresie wspomagacie się w tym obszarze nowoczesnymi technikami cyfrowymi? Bardzo ważna jest odpowiednia standaryzacja i klasyfikacja wykorzystywanych do badań danych. Niektórym wydaje się, że wystarczy wziąć różne rejestry i je z sobą połączyć, by uzyskać potrzebne informacje. Tak to nie działa. Trzeba dokonać klasyfi-

Mamy zespoły, które zajmują się wykorzystaniem uczenia maszynowego, czy modeli językowych w różnych obszarach statystyki, w tym w obszarze analityki, drążenia danych. Korzystamy nie tylko z rozwiązań dostępnych na rynku. Prowadzimy także własne badania, wiele z naszych prac ma charakter eksperymentalny. Powołaliśmy zespół, który nazywamy Akademią Data Science, gdzie wyjątkowo uzdolnione osoby pracują nad projektami badawczo-rozwojowymi. Uczestniczymy też w międzynarodowych programach europejskich i światowych, gdzie wspólnie szukamy możliwości efektywnego wykorzystania najnowszych technik do rozwiązywania konkretnych problemów statystycznych. Na przykład system TranStat do analizy ruchu statków powstał właśnie w ramach współpracy wielu krajów posiadających porty morskie.

Wspomniał Pan na początku, że potrzeby statystyczne napędzały powstanie i rozwój systemów informatycznych. Na ile dzisiaj sektor IT jest w stanie zaspokoić wasze potrzeby?

Rynek daje nam do wyboru wiele potrzebnych narzędzi. Są to na przykład systemy bazodanowe, techniki satelitarne, systemy informacji przestrzennej. Mamy też jednak własne zespoły – informatyków, programistów, projektantów, analityków, jak też zatrudniamy osoby o przygotowaniu eksperckim w różnych dziedzinach gospodarki narodowej. Wiele przygotowywanych przez nich rozwiązań odbywa się w ramach prac badawczo-rozwojowych. Staramy się być autonomiczni, ale też nie uciekamy od sięgania po dobre produkty z rynku. Oczywiście, ich zakup odbywa się w ramach zamówień publicznych. Muszą one też spełniać kryteria wynikające z obowiązujących nas metodyk badań statystycznych. Rekomendacje lub nadzór nad ich przestrzeganiem sprawują światowe i europejskie instytucje, na przykład Komisja Ekonomiczna ONZ w Genewie, czy Eurostat w ramach Unii Europejskiej.

Fot. Adobe Stock, archiwum

GigaCloud:

GPU fundamentem nowej chmury

GigaCloud udostępnia pełne portfolio rozwiązań serwerowych bazujących

na procesorach GPU, które pozwalają firmom przyspieszać procesy obliczeniowe, redukować koszty i budować przewagę konkurencyjną.

Wraz z gwałtownym rozwojem sztucznej inteligencji, analityki predykcyjnej oraz generatywnych modeli językowych rośnie zapotrzebowanie na moc obliczeniową, której tradycyjne procesory CPU nie są w stanie zapewnić. Konieczne stało się wykorzystywanie akceleratorów graficznych GPU – już nie tylko do wydobywania kryptowalut i uczenia modeli LLM, ale przede wszystkim w środowiskach komercyjnych. Możliwość uruchamiania nowoczesnych modeli AI z wysoką prędkością i efektywnością kosztową, powoduje, że GPU stało się wartościowym rozwiązaniem biznesowym. Dodanie akceleratorów GPU do środowiska obliczeniowego radykalnie zmienia skalę jego możliwości. Najnowsze układy, jak Nvidia H200 z 141 GB pamięci HBM3e, pozwalają na przechowywanie dużych modeli językowych i wizualnych w całości w pamięci GPU, co przekłada się na mini-

GigaCloud

F irmy coraz częściej inwestują w GPU z potrzeby skrócenia czasu prototypowania, obniżenia kosztu pojedynczej inferencji oraz konsolidacji w jednej infrastrukturze zadań związanych z AI i grafiką. Wirtualizacja oraz funkcje izolacji MIG pozwoliły nam stworzyć elastyczne, przewidywalne modele usług, zgodne z wymaganiami przedsiębiorstw i instytucji publicznych. Dzięki temu układy GPU w chmurze GigaCloud stały się nie tylko technicznym akceleratorem, lecz także fundamentem nowoczesnej transformacji cyfrowej, która łączy wydajność, bezpieczeństwo i realną wartość biznesową.

malne opóźnienia i większą przepustowość. To szczególnie ważne w systemach obsługi klienta w czasie rzeczywistym czy analizie danych strumieniowych. Równie istotne są połączenia między procesorami graficznymi. W projektach wymagających pracy wielu GPU kluczową rolę odgrywają szybkie interkonektory, takie jak NVLink w architekturze Hopper. Umożliwiają one swobodną komunikację między kartami GPU bez wąskich gardeł typowych dla połączeń PCIe, dzięki czemu trenowanie modeli i inferencja na dużą skalę przebiegają bez strat wydajności. Dodatkowo, technologie takie jak Nvidia AI Enterprise, sterowniki vGPU czy funkcja Multi-Instance GPU (MIG) umożliwiają bezpieczne dzielenie zasobów między zespołami i klientami, przy zachowaniu gwarantowanej izolacji oraz poziomów SLA.

Oferta GPU w GigaCloud

GigaCloud, dostawca usług chmurowych i przestrzeni centrów danych, oferuje dwie usługi bazujące na akceleratorach GPU, dopasowane do różnych zastosowań. W ramach usługi GPU Cloud wykorzystywane są karty Nvidia T4 (16 GB) i A40 (48 GB), zoptymalizowane pod kątem wirtualizacji, gęstej inferencji, pracy w środowiskach przetwarzania danych naukowych oraz zastosowań łączących grafikę z AI. Usługa LLM Cloud bazuje na akceleratorach A40 i L40S, przeznaczonych do zadań generatywnej AI. Platforma jest zintegrowana z rozwiązaniami Kubernetes i Docker, co ułatwia wdrażanie i skalowanie środowisk inferencyjnych oraz projektów fine-tuningu.

Wybierając usługę GPU w chmurze, warto określić typ modelu i oczekiwane opóźnienia. Dla większości projektów generatywnej AI idealny balans ceny i wydajności oferuje L40S, pod warunkiem,

że model mieści się w 48 GB pamięci. Jeśli wymagania są większe lub potrzebna jest silniejsza izolacja, najlepszym wyborem będą akceleratory klasy Hopper.

Kolejnym ważnym krokiem jest ustalenie sposobu dzielenia zasobów. GigaCloud zapewnia wsparcie dla wirtualnych GPU oraz technologii MIG, co pozwala efektywnie zarządzać zasobami bez obniżania

jakości usług. Dla projektów wykorzystujących wiele akceleratorów GPU warto uwzględnić również przepustowość połączeń – NVLink zapewnia skalowalność, której brakuje w systemach PCIe.

Wykorzystanie mocy obliczeniowej akceleratorów GPU może przynieść firmom korzyści w wielu obszarach. Przy sprzedaży i obsłudze klienta radykalnie przyspiesza generowanie przez duże modele językowe odpowiedzi zawierających treść oferty czy podsumowanie rozmów. W działach marketingu i kreacji procesory graficzne generacji Ada, takie jak Nvidia L40S, sprawdzają się w tworzeniu i obróbce obrazów, wideo czy renderów 3D. Zyskuje na tym również zaplecze operacyjne. Modele rekomendacyjne, wykrywanie anomalii, prognozowanie popytu czy rozpoznawanie dokumentów mogą działać wydajnie na kartach T4 o niskim poborze energii.

Kirill Naumenko

co je stymuluje, Usługi cyberbezpieczeństwa: a co hamuje?

Modele usługowe MSP/MSSP są dla resellerów i integratorów szansą na dalszy rozwój biznesu. Muszą oni być jednak świadomi przeszkód, które staną im na drodze do sukcesu.

Wzrost znaczenia zarządzanych usług cyberbezpieczeństwa powinny (przynajmniej teoretycznie) napędzać w dużej mierze rosnąca presja regulacyjna – w szczególności wdrożenia NIS 2 i DORA oraz krajowych wymogów branżowych. Przepisy te wymuszają systematyczne podnoszenie poziomu cyberbezpieczeństwa, nakładając na organizacje obowiązek zapewnienia ciągłego monitorowania bezpieczeństwa, reagowania na incydenty i utrzymywania odpowiednich kompetencji (własnych bądź zewnętrznych). I właśnie wtedy, gdy chodzi o własne kompetencje, pojawia się związany z tym, rosnący problem. Niedobór specjalistów na rynku pracy oraz brak dostępu do aktualnej, szerokiej wiedzy technicznej sprawiają, że wiele podmiotów nie jest w stanie samodzielnie zapewnić wymaganej przez regulacje dojrzałości operacyjnej. W konsekwencji coraz bardziej atrakcyjny stanie się model outsourcingowy – w formie usług MSP/MSSP, SOC-as-a-Service czy MDR. Często będzie to jedyny realny sposób uzyskania zgodności z przepisami.

JEDYNIE NIEWIELKI ODSETEK USŁUGODAWCÓW OFERUJE KLIENTOM KOMPLEKSOWĄ OCHRONĘ. .

Powiązana z pierwszym powodem narastająca presja płacowa będzie kolejnym czynnikiem napędzającym rozwój usług zarządzanych w obszarze cyberbezpieczeństwa. Koszty budowy wewnętrznych zespołów bezpieczeństwa staną się dla wielu organizacji barierą nie do pokonania. W efekcie coraz więcej przedsiębiorstw dojdzie do wniosku, że model usługowy to jedyny sposób na uzyskanie dostępu do zaawansowanych technologii, procesów

18 / CRN / grudzień 2025

Tomasz Janoś

i kompetencji przy znacznie niższym koszcie całkowitym. Organizacjom o ograniczonych budżetach – zwłaszcza z segmentu mniejszych i średnich firm – nie pozostanie nic innego jak uznać MSP/MSSP za opłacalną i skuteczną alternatywę dla własnych zespołów bezpieczeństwa.

Trudne początki, ale kierunek słuszny Nie oznacza to, że w rozwoju zewnętrznych usług cyberbezpieczeństwa nie ma żadnych przeszkód. Po pierwsze, poziom świadomości zarządów i decydentów w Polsce wciąż odbiega od standardów zachodnich, co skutkuje podejściem do inwestycji w usługi zarządzane, które trudno nazwać entuzjastycznym. Po drugie, silne w wielu organizacjach przywiązanie do modelu on-premise spowalnia migrację do rozwiązań zarządzanych, które często opierają się na architekturach chmurowych. Po trzecie, rynek nadal cechuje niski poziom zaufania do podmiotów trzecich, przejawiający się obawami przed utratą kontroli nad krytyczną infrastrukturą, dostępem zewnętrznych operatorów do danych oraz ryzykiem potencjalnych nadużyć.

Robiąc bilans trendów i barier w rozwoju MSP/MSSP trzeba sobie zdawać sprawę, że usługi zarządzane to dzisiaj w Europie Zachodniej blisko połowa całego rynku cyberbezpieczeństwa. W Polsce ten udział to jedynie 5–10 proc. Można więc zakładać, że rozwój usług zarządzanych powinien być u nas w najbliższych latach dynamiczny (bo to wzrost z niskich wartości), ale dogonienie dojrzałych rynków zajmie nam jeszcze sporo czasu. Póki co, widać już jaki kształt ta branża w Polsce przybiera i jakie rodzaje usług zdobywają klientów.

– Modele usługowe są w Polsce coraz lepiej rozpoznawane, szczególnie w sektorze większych przedsiębiorstw. Oba rynki, a więc enterprise oraz małych i średnich przedsiębiorstw, zdecydowanie różnią się od siebie,

Zdaniem integratora

Rafał Grześkowiak, All for One Poland, członek ITCORNER

Znaczna część polskich firm i instytucji nadal postrzega bezpieczeństwo IT przede wszystkim jako zadanie punktowe, ograniczające się do jednorazowych inwestycji w sprzęt i oprogramowanie lub działań reaktywnych, podejmowanych dopiero po wystąpieniu incydentów. Jednak wobec coraz szerszego stosowania norm, standardów oraz wymagań prawnych (ISO 27 001, TISAX, NIS/NIS 2 i in.) rośnie ogólna świadomość w tym zakresie. Fundamentem kolejnych regulacji jest systemowe zarządzanie oraz kompleksowość i proaktywność w obszarze bezpieczeństwa IT. Ważną rolę odgrywają także dojrzałe relacje biznesowe w łańcuchach dostaw, gdzie cyberbezpieczeństwo i zapewnienie ciągłości działania IT stają się przyczynkiem do

umieszczania stosownych zobowiązań w kontraktach. Każdy z wymienionych elementów powoduje, że firmy zaczynają lepiej rozumieć złożoność zagadnień związanych z bezpieczeństwem i uświadamiają sobie potrzebę zewnętrznego, eksperckiego wsparcia, także w formie zarządzanych usług cyberbezpieczeństwa.

Szczególnie w sektorze publicznym dominuje oparty na wydatkach kapitałowych model budżetowy z zakupami realizowanymi przez cykliczne przetargi i granty unijne. Jednorazowy zakup jest prostszy w rozliczeniu, zaplanowaniu oraz uzasadnieniu niż ciągły koszt operacyjny, jakim jest subskrypcja czy outsourcing. Co więcej, model subskrypcyjny czy usługowy bywa postrzegany w dłuższej perspektywie czasowej jako droższy. Z takim założeniem łatwiej jest „przełknąć” jeden większy wydatek, niż stałe obciążenie budżetu. W rzeczywistości zewnętrzne usługi zarządzane – takie jak monitoring SOC 24/7, automatyzacja reakcji, dostęp do aktualnej wiedzy i narzędzi – są często bardziej efektywne kosztowo niż stworzenie i utrzymanie własnych zespołów. Mimo to przyzwyczajenia, kwestie

Karol Girjat, Business Development Manager, Net Complex regulacyjne, a także obawy o jakość usług składają się na to, że wciąż dominuje model transakcyjny. Jednak i u nas widać już wzrost zainteresowania modelem usługowym, szczególnie w obszarze cyberbezpieczeństwa.

kierując się innymi potrzebami. W sektorze większych przedsiębiorstw najpopularniejszymi usługami będą z pewnością te oparte o SOC, obejmujące analizę oraz reakcję na anomalie i incydenty w sieci klienta. W sektorze mniejszych przedsiębiorstw są to zazwyczaj najprostsze usługi zabezpieczania stacji roboczych i serwerów, ochrony danych, serwera poczty, usługi archiwizacji, backupu czy ochrony antyspamowej. Pojawiają się też coraz częściej usługi MDR jako ekwiwalent pełnej usługi SOC-owej dla małego i średniego biznesu – twierdzi Krzysztof Hałgas, CEO Bakotechu.

NiS 2 i DORA promują usługi

Obowiązki wynikające z rozszerzonego zakresu regulacji obejmują teraz znacznie szersze spektrum podmiotów, co generuje rosnące zapotrzebowanie na outsourcing usług bezpieczeństwa. Widoczny jest zwiększony popyt na wiele rodzajów usług – od monitoringu i reagowania na incydenty po audyty zgodności i doradztwo strategiczne.

– Poszerzenie obowiązków na nowe branże i wprowadzenie surowszych wymogów dotyczących monitorowania czy zarządza-

nia ryzykiem przekłada się na co najmniej na wyraźny wzrost zainteresowania usługami, szczególnie typu SIEM, SOAR, MDR czy SOC. Wprowadzenie do polskiego porządku prawnego nowej krajowej ustawy o cyberbezpieczeństwie implementującej założenia NIS 2 na naszym rynku z pewnością wpłynie na utrzymanie dynamiki jego wzrostu – uważa Krzysztof Hałgas.

Jednak, jak podkreślają eksperci, wciąż jesteśmy na początku drogi. Duże podmioty wciąż będą starały się radzić sobie samodzielnie, a średnie przedsiębiorstwa będą stopniowo przekonywać się do outsourcingu w zakresie cyberbezpieczeństwa – w tym pod wpływem nowych regulacji, które nakładają obowiązek kompleksowego podejścia w tym zakresie. – Przykładowo, NIS 2 przynosi ze sobą odejście od konkretnych wymagań, od rozwiązań nabywanych według listy zakupowej jak z supermarketu. Zamiast tego wprowadza podejście, w którym trzeba oszacować swoje ryzyko i dopiero wtedy dobrać odpowiednie środki techniczne. Firmy zaczynają dostrzegać, że często to nie jest tylko kwestia złożenia portfolio produktowego, ale właśnie procesów i nadzorowania in-

cydentów –  mówił Paweł Jurek, Business Development Director w Dagmie, podczas niedawnej debaty CRN Polska („Usługi cyberbezpieczeństwa: w oczekiwaniu na przełom”, nr 10/2025).

Legislacyjny miecz obosieczny

Jeśli regulacje są czynnikiem wzrostu zainteresowania cyberbezpieczeństwem, w tym usługami MSP/MSSP, to przede wszystkim dlatego, że zwiększają odpowiedzialność podmiotów, do których wprowadzane nowe przepisy mają zastosowanie. Mogą skutecznie przekonać przedsiębiorców do tego, że należy się zabezpieczać, bo nakładają na nich bardzo wysokie kary finansowe w przypadku braku właściwej reakcji na incydent. Co ważne, NIS 2 przewiduje także dodatkowe sankcje, w tym osobiste kary dla kadry zarządzającej. Trzeba jednak zdawać sobie sprawę, że strach przed karą może mieć zarówno stymulujące, jak i hamujące działanie. To drugie będzie mieć miejsce, jeśli problemem stanie się ustalenie, kto odpowiada za naruszenie bezpieczeństwa. I choć dostawca usług nie może przejąć 100-procentowej odpowiedzialności za infrastrukturę klienta, to i tak będą tacy klienci, którzy – bez względu na to, co jest w umowie – uznają, że MSP/MSSP gwarantuje im absolutnie pełne bezpieczeństwo. Z drugiej strony będą też tacy klienci, dla których kompetencje usługodawcy pozostaną zawsze wątpliwe.

– Gdy mowa o kompetencjach usługodawcy, to w obszarze cyberbezpieczeństwa ryzyko błędu niesie za sobą poważne konwencje. Przez to wiele firm i organizacji wyraża niepewność nie tylko do jakości usług, ale także do odpowiedzialności prawnej, zwłaszcza w zakresie reakcji na incydenty – uważa Karol Girjat, Business Development Manager w Net Complex.

Trzeba liczyć się z tym, że brak precyzyjnych zapisów SLA i zakresu obowiązków może prowadzić do roszczeń odszkodowawczych oraz sporów o nienależyte wykonanie umowy. Znalezienie złotego środka w podziale odpowiedzialności i obowiązków pomiędzy usługodawcą a usługobiorcą może nie być łatwe, a będzie – z uwagi na przepisy – kluczowe.

– Resellerzy i usługodawcy z reguły bardzo ostrożnie podchodzą do kwestii przejmowania odpowiedzialności i tylko niewielki ich procent oferuje klientom kompleksową ochronę, obsługę oraz odpowiedzialność za obszar cybersecurity w ich firmach. Ma to często związek z brakiem wieloletniego doświadczenia w obszarze tego rodzaju obsługi klientów pod kątem odpowiedzialności prawnej, brakiem zainteresowania klientów taką formą umów czy w końcu brakiem

Zdaniem specjalisty

Krzysztof Hałgas, CEO, Bakotech

Wciąż zdecydowana większość firm działających w obszarze integracji i sprzedaży rozwiązań IT woli pozostać przy tradycyjnym modelu, który do tej pory był źródłem ich sukcesu rynkowego. Z różnych względów: przyzwyczajenia i utartych procedur, braku chęci do zmiany oferowanego od lat portfolia czy też z obawy przed ewentualną utratą części klientów w przypadku zmian. Usługi zarządzane pojawiają się często w portfolio nowych podmiotów bądź jako oferta poboczna u liderów rynku, co powoduje, że zdecydowana większość klientów końcowych w Polsce nie ma dostępu do oferty usługowej. To wąskie gardło naszego rynku usługowego, który dodatkowo nie jest wspierany przez

usługodawcę żadnymi zachętami dla klientów, którzy zdecydowaliby się zakupić usługę u wyspecjalizowanego dostawcy. Dochodzi do tego brak zaufania do usługodawców i obawa przed niewłaściwym wykonaniem usługi, wiążącym się z karami bądź innymi problemami.

Jeśli chodzi o partnerów, którzy wchodzą w model MSP, mamy dwa główne ich źródła. Po pierwsze, to konwersja tradycyjnych resellerów, którzy przechodzą na model abonamentowy. Po drugie, to partnerzy, którzy od początku działali usługowo, i dla nich MSP jest naturalnym kierunkiem rozwoju. Ten model daje im wygodę zarządzania — dzięki jednej konsoli mogą obsługiwać wszystkich swoich klientów, bez konieczności logowania się do wielu systemów. To ogromna oszczędność czasu i większa efektywność. Model MSP rozwija się obecnie szybciej w sektorze prywatnym niż publicznym, ale mamy też partnerów, którzy z powodzeniem sprzedają usługi abonamentowe do instytucji publicznych. Wbrew obawom, licencja

Bielas, Product Manager Acronis, Dagma

MSP nie stanowi dla nich problemu – klienci publiczni po prostu oczekują, że ktoś kompleksowo zaopiekuje się ich infrastrukturą, bo nie mają własnych zasobów.

Songül Mokhtar, Senior Channel Account Executive MSP, EMEA Central, Sophos

Przypadki, w których firmy decydują się zaakceptować ryzyko potencjalnych kosztów cyberataku zamiast inwestować w kompleksowe usługi bezpieczeństwa, nie są rzadkością. Wciąż powszechne jest przekonanie, że firma jest zbyt mała, aby stać się celem cyberataku, chociażby dlatego, iż nie przetwarza żadnych istotnych danych itp. To poważny problem, zwłaszcza jeśli przyrównać go do potencjalnych oszczędności, jakie mogłyby osiągać firmy, gdyby korzystały z zarządzanych usług do wykrywania zagrożeń i reagowania na nie (MDR). Nasze badania wskazują na wyraźną różnicę w wysokości roszczeń z tytułu ubezpieczeń cybernetycznych po ataku w zależności od posiadanych przez firmę zabezpieczeń. W przypadku przedsiębiorstw

dysponujących jedynie podstawową ochroną punktów końcowych mediana roszczeń sięgała 3 mln dol. Przy zastosowaniu rozwiązań EDR/XDR spadała do 500 tys. dol., natomiast wśród firm korzystających z MDR roszczenia wyniosły średnio zaledwie 75 tys. dol.

na rynku wystarczającej oferty reasekuracyjnej dla usługodawców, która mogłaby ich chronić w przypadku grożącej im kary za niedotrzymanie warunków umowy usługowej z klientem – twierdzi Krzysztof Hałgas. Jednak z punktu widzenia integratora takiego jak Net Complex tym, co bardziej ogranicza dynamikę rozwoju segmentu usług MSP/MSSP w Polsce, jest konserwatywne podejście części firm do zmiany modelu działalności z projektowego na usługowy, a nie obawy związane z odpowiedzialnością prawną czy ryzykiem. – Wbrew pozorom, odpowiedzialność dostawców usług może być jasno określana w umowach, regulowana poprzez SLA oraz

zapisy dotyczące zakresu obowiązków, co znacząco ogranicza ryzyko po stronie partnera. Dodatkowo, wielu dostawców wspiera nie tylko w zakresie technologicznym, ale również merytorycznym, pomagając w tworzeniu polityk bezpieczeństwa, dokumentacji oraz zapewnianiu zgodności z przepisami – uważa Karol Girjat. W rezultacie rosnąca liczba klientów, także w sektorze małych i średnich przedsiębiorstw, oczekuje kompleksowego podejścia do bezpieczeństwa w modelu outsourcingowym, co generuje wyraźne zapotrzebowanie rynkowe. Przez integratorów powinno to być postrzegane jako szansa na rozwój, a nie zagrożenie. n

Mateusz

Sophos:

w drodze do

usługowej perfekcji

„Nasze innowacje wynikają z zaangażowania w łączenie technologii i ludzkiej wiedzy, by dostarczać mierzalne rezultaty w zakresie bezpieczeństwa. Dzięki temu nasz kanał sprzedaży ma wyjątkową pozycję na bardzo konkurencyjnym rynku” – mówi Stefan Fritz, Director Channel Sales EMEA Central w Sophos.

Sophos zachęca swoich partnerów do oferowania usług zarządzanych opartych na trzech filarach: Sophos MDR, Sophos Managed Risk i Sophos Emergency Incident Response. Co wyróżnia te usługi na rynku?

Na podstawie tych trzech filarów redefiniujemy znaczenie bycia zaufanym partnerem. Naszą strategią jest wspieranie firm i instytucji niezależnie od poziomu ich dojrzałości w obszarze cyberbezpieczeństwa. Łączymy zaawansowane zabezpieczenia z ekspertyzą specjalistów, aby być o krok przed atakującymi. Ulepszamy naszą ofertę w obszarze ochrony tożsamości, usług doradczych, punktów końcowych (endpoints), sztucznej inteligencji, MDR oraz wiedzy ekspertów – i dzięki temu zapewniamy mierzalne efekty w zakresie bezpieczeństwa. Nasze portfolio Security Operations docenia ponad 75 tysięcy firm na całym świecie. Wśród nich jest 35 tysięcy klientów Sophos MDR, obsługiwanych przez globalnie rozproszoną infrastrukturę Security Operations, której analitycy zapewniają ciągłą ochronę i wgląd w działania napastników. W Sophos Central każdego dnia przetwarzamy ponad 223 TB danych telemetrycznych, generując ponad 34 mln detekcji i automatycznie blokując ponad 11 mln zagrożeń. Przy takiej skali sensorów możemy zagwarantować, że nasze mechanizmy wykrywania są nieustannie testowane i ulepszane w celu zapewnienia ciągłej ochrony i dostarczania doskonałego pakietu partnerom, którzy chcą chronić swoich klientów.

Aby skutecznie się bronić i wzmacniać bezpieczeństwo, organizacje muszą najpierw zrozumieć swoje słabe strony. Czy właśnie ta idea stoi za niedawnym wprowadzeniem Sophos Advisory Services?

Krajobraz zagrożeń ewoluuje, powierzchnia ataku rośnie, a wraz z pojawianiem się nowych technologii atakujący rozwijają nowe techniki i taktyki. W rezultacie sposoby, w jakie chronimy nasze środowiska, są poddawane głębszej niż kiedykolwiek wcześniej analizie. Proaktywne usługi testowania bezpieczeństwa zapewniają ekspercką, niezależną ocenę cyberochrony przedsiębiorstw oraz rekomendacje dotyczące jej ulepszenia. Wspierają bardziej strategiczne podejście do cyberbezpieczeństwa, identyfikując słabe punkty. Dokładne określenie, gdzie firma jest podatna na zagrożenia, nie jest łatwe. Testowanie zabezpieczeń to skuteczny sposób na zmierzenie ich siły i obniżenie ryzyka, zanim uderzy cyberprzestępca.

Na czym polega proaktywne testowanie bezpieczeństwa w ramach Sophos Advisory Services? Dlaczego nie jest to kolejna, podobna do innych oferta audytu na rynku, polegająca na odhaczeniu pozycji na liście?

Nasze usługi nie są ogólnymi testami typu „zaliczone/niezaliczone”. Eksperci Sophos spotykają się z klientem przed rozpoczęciem testów, aby zrozumieć jego wyzwania i cele. Po zakończeniu testów dostarczamy szczegółowy raport zarówno dla odbiorców technicznych, jak i nietechnicznych. Obejmuje on wszystkie wykonane kroki, nasze ustalenia oraz praktyczne rekomendacje, które można wykorzystać do podniesienia poziomu bezpieczeństwa w firmie.

Kolejną nowością w portfolio jest Sophos Identity Threat Detection and Response (ITDR), który rozszerza możliwości Sophos MDR i Sophos XDR. Co było powodem wprowadzenia tego rozwiązania?

Chmura i praca zdalna stworzyły nowe możliwości dla cyberprzestępców, zwiększając powierzchnię ataków z wykorzystaniem skradzionej tożsamości. Złożone systemy zarządzania tożsamością i dostępem – z ciągle zmieniającymi się ustawieniami i politykami – tworzą luki, z których atakujący chętnie korzystają. Sophos ITDR pomaga zlikwidować takie luki, zapewniając większą świadomość ryzyka związanego z tożsamością, monitorując skompromitowane dane logowania i integrując dane z Sophos XDR oraz Sophos MDR, aby umożliwić analitykom szybką reakcję.

Dlaczego partnerzy powinni stawiać na zarządzane usługi bezpieczeństwa i związać je właśne z ofertą Sophosa?

Rynek jest coraz bardziej konkurencyjny, dlatego zunifikowane portfolio z płynną sprzedażą całego zestawu rozwiązań zapewnia naszemu kanałowi partnerskiemu znaczącą przewagę. Nasze podejście „channel-first” jest też wspierane poprzez program partnerski, zaprojektowany z myślą o skalowalności i rentowności. Dzięki mnożnikom przychodów, promocjom i elastycznym opcjom rozliczeń, oferuje on naszym partnerom szybszy i bardziej efektywny wzrost biznesu. Partnerzy zyskują dostęp do wartościowych premii, zintegrowanych zasobów sprzedażowych i marketingowych oraz szkoleń – również przez nową platformę Sophos Academy MDR Guided Onboarding i szybkie certyfikacje sprzedażowe.

NASZE USŁUGI NIE SĄ OGÓLNYMI TESTAMI TYPU „ZALICZONE/ NIEZALICZONE”.

ESET jako usługa:

więcej szans na biznes

Oferta ESET w modelu MSP to nie tylko alternatywa dla tradycyjnej sprzedaży subskrypcji, ale przede wszystkim nowy sposób budowania stabilnego, powtarzalnego i skalowalnego biznesu usługowego.

Wostatnim czasie coraz więcej partnerów decyduje się na przejście z tradycyjnego modelu sprzedaży subskrypcji na model usługowy (MSP). Zmiana ta nie jest przypadkowa – MSP pozwala partnerom świadczyć klientom realną usługę, a nie jedynie dostarczać oprogramowanie. Różnice są znaczące zarówno w zakresie administracji, elastyczności, jak i kosztów. Dzięki ofercie ESET w modelu MSP klient otrzymuje dynamiczne, dopasowane do potrzeb rozwiązanie, a partner buduje stabilny i skalowalny biznes usługowy.

Korzyści z modelu MSP

Pierwszym i najbardziej oczywistym atutem jest zasada Pay As You Go. Partner nie musi zamrażać budżetu ani kupować subskrypcji „na zapas”. W praktyce może rozpocząć działalność bez jakichkolwiek zobowiązań początkowych. Ponieważ płaci wyłącznie za realnie wykorzystane zasoby, zyskuje dużą swobodę w kształtowaniu swojej polityki cenowej. Może elastycznie dopasowywać rozliczenia do potrzeb klientów – jedni wolą miesięczne opłaty, inni kwartalne lub roczne. Ta

Sebastian Cielecki

dowolność umożliwia także budowanie wyższej marży, w tym poprzez dodawanie własnych usług zarządzanych, raportowania czy reakcji na incydenty.

– W MSP partner sam generuje i aktywuje subskrypcje z poziomu konsoli. Kluczową korzyścią jest pełna elastyczność, bo nie ma z góry określonego okresu subskrypcyjnego ani minimalnej liczby stanowisk – mówi Andrzej Wściubiak, Channel Manager w DAGMA Bezpieczeństwo IT.

Dodaje, że partner może w dowolnym momencie zwiększać lub zmniejszać liczbę stanowisk, zmieniać pakiet na wyższy lub niższy i – co bardzo istotne – płacić tylko za faktyczne zużycie.

– W modelu klasycznym subskrypcje kupuje się z góry, często na trzy lata. Jeśli kupi się ich za dużo, niewykorzystane stanowiska po prostu przepadają. Oferta MSP pozwala uniknąć takiej sytuacji, bo rozwiązanie jest „szyte na miarę”. Co istotne w modelu ESET MSP nie ma czegoś takiego jak minimalna liczba stanowisk, więc klient, który chce tylko kilka stanowisk z wyższego pakietu, dostanie je – dodaje Andrzej Wściubiak.

Product Manager ESET, DAGMA Bezpieczeństwo IT

W modelu ESET MSP partner może zbudować z klientem stałą relację i realnie odpowiadać za jego bezpieczeństwo. Dzięki doświadczeniu

i wiedzy partner może nie tylko reagować na typowe zagrożenia malware, w tym wirusy, trojany i ransomware, ale także analizować bardziej złożone incydenty i wspierać użytkownika w obszarach wymagających specjalistycznych kompetencji. To nie klient musi samodzielnie monitorować zagrożenia, jeśli w konsoli pojawi się alert, na przykład dotyczący ataku ransomware, to partner reaguje jako pierwszy. Jest w stałym kontakcie z klientem, monitoruje jego środowisko i informuje o wszelkich istotnych zdarzeniach. Warto przy tym podkreślić, że w pakietach biznesowych ESET dostępne są również rozwiązania klasy XDR, które wielu partnerów oferuje jako usługę. Klient zyskuje wtedy wsparcie specjalisty z wiedzą z zakresu cyberbezpieczeństwa i analizy zagrożeń. W takim przypadku partner zarządza środowiskiem z poziomu konsoli ESET Inspect, wykrywając anomalie i nietypowe procesy, które mogą wskazywać na próbę naruszenia infrastruktury.

Kolejną ważną zaletą modelu ESET MSP jest agregacja, czyli sumowanie zakupionych wolumenów. Im więcej rozwiązań partner pozyskuje z poziomu jednej platformy MSP, tym korzystniejsze stawki otrzymuje od dystrybutora. To oznacza, że nawet małe firmy korzystające z modelu usługowego mogą z czasem wypracować warunki handlowe zarezerwowane dotąd dla dużych integratorów. W praktyce przekłada się to na lepszą rentowność i możliwość oferowania klientom atrakcyjniejszych pakietów bezpieczeństwa.

– Im więcej stanowisk w danym pakiecie, tym niższa jest ich cena zakupu dla

PIERWSZYM I NAJBARDZIEJ OCZYWISTYM ATUTEM JEST ZASADA PAY AS YOU GO. PARTNER NIE MUSI ZAMRAŻAĆ BUDŻETU ANI KUPOWAĆ SUBSKRYPCJI „NA ZAPAS”.

partnera. W rezultacie bywa i tak, że partner tworzący agregację w wyższym pakiecie biznesowym jest w stanie zaoferować klientowi lepszą cenę niż ta w niższym pakiecie – tłumaczy Sebastian Cielecki, Product Manager ESET w DAGMA Bezpieczeństwo IT.

Niezwykle ważne jest także to, że MSP nie wymaga prowadzenia czasochłonnych projektów wdrożeniowych. Nie trzeba przygotowywać rozbudowanej dokumentacji ani realizować wielomiesięcznych etapów implementacji. Cały proces jest prosty: partner uruchamia konsolę, dodaje klientów, przypisuje im odpowiednie plany ochrony… i gotowe.

Kolejną zaletą jest stabilność przychodów, co zabezpiecza biznes partnera. Model abonamentowy zapewnia powtarzalność wpływów i ułatwia planowanie finansowe. DAGMA Bezpieczeństwo IT wystawia faktury miesięczne, jednak partner ma pełną swobodę w tym, jak rozlicza się ze swoimi klientami – może stosować własne cykle, łączyć płatności w większe pakiety albo integrować ochronę z innymi usługami.

Duże znaczenie ma wygoda zarządzania usługami. Jedno logowanie do konsoli i pełna widoczność całego ekosystemu klientów sprawiają, że administracja jest szybka i przejrzysta. Partner może monitorować stan ochrony, reagować na incydenty, zarządzać subskrypcjami i aktualizacjami bez konieczności łączenia się z wieloma różnymi panelami. To nie tylko oszczędność czasu, ale też realna poprawa jakości usług, które stają się bardziej spójne, skalowalne i profesjonalne.

– Klientów utworzonych w konsoli ESET MSP Administrator (EMA) automatycznie widać w konsoli ESET PROTECT, a partner jednym kliknięciem może przełączać się między środowiskami różnych firm. To duże usprawnienie, bo zamiast logować się do kilkunastu lub kilkudziesięciu osobnych konsol jak w modelu klasycznym, partner nadzoruje całą swoją bazę klientów z jednego panelu. Oszczędza czas i znacząco poprawia jakość obsługi – mówi Sebastian Cielecki.

Partnerzy chwalą sobie model MSP

Dwie edycje konferencji DAGMA MSP DAY pokazały, że partnerzy, którzy już działają w modelu ESET MSP, doceniają jego zalety. Uczestnicząc w debatach, zgodnie podkreślali, że MSP zapewnia elastyczność, przewidywalność kosztów i szybkie wdrożenie ochrony bez skomplikowanych procedur. Co istotne, miesięczny model rozliczeń jest łatwiejszy do akceptacji przez klientów niż duże jednorazowe faktury, a szczegółowe raporty zwiększają przejrzystość współpracy.

Partnerzy zaznaczali, że ESET MSP poprawia relacje z klientem. Dzięki stałemu monitoringowi i konsoli zarządzającej usługodawca może proaktywnie reagować i dbać o infrastrukturę na bieżąco. Model ten sprawdza się zarówno w małych firmach, jak i w dużych organizacjach, które doceniają możliwość skalowania i elastycznego zarządzania subskrypcjami. Choć w administracji publicznej wdrożenie MSP wymaga dodatkowych formalności, również tam klienci dostrzegają korzyści subskrypcyjnego podejścia.

Partnerzy zwracają także uwagę na wsparcie techniczne DAGMA Bezpieczeństwo IT, które pomaga im w konfiguracji, wdrożeniach i rozwijaniu usług. W debatach podkreślono, że MSP to nie tylko sprzedaż subskrypcji, lecz kompleksowe dostarczanie usług bezpieczeństwa, które daje większą swobodę cenową i umożliwia budowanie długofalowych relacji z klientami.

Business Development Director, DAGMA Bezpieczeństwo IT

Ważnym elementem jest maksymalne uproszczenie codziennej pracy partnera. W tradycyjnych programach, kiedy partner dowiaduje się u klienta

o nowej szansie biznesowej, musi przejść przez żmudny proces: zgłoszenia tematu, rejestracji projektu, raportowania do dystrybutora i wypełniania kolejnych formalności. W naszym modelu ESET MSP te obowiązki po prostu znikają. Partnerzy, którzy już pracują w tym systemie, podkreślają, jak dużo czasu oszczędzają dzięki eliminacji biurokracji. Dysponują własnym cennikiem, dokładnie wiedzą, jakie będą koszty dla klienta, i mogą swobodnie kształtować swoją marżę. Podczas jednej wizyty u klienta są w stanie podpisać umowę, uruchomić ochronę na przykład dla 10 stacji roboczych, a na koniec miesiąca po prostu wystawić fakturę. Nie wymagamy od nich żadnych inwestycji na początku, co dodatkowo zachęca do wejścia w model MSP.

Najważniejsze zalety ESET MSP

l elastyczność subskrypcji, l rozliczanie za faktyczne zużycie, l kompleksowa obsługa klienta, l możliwość świadczenia usług (np. w oparciu o XDR),

l szybsze i uproszczone wdrożenia, l centralne zarządzanie wieloma klientami, l stała relacja usługowa zamiast jednorazowej sprzedaży.

Konsola ESET MSP Administrator służy do zarządzania subskrypcjami, umożliwiając partnerom tworzenie wielu klientów i generowanie określonych subskrypcji z liczbą stanowisk.

Klientów utworzonych w konsoli ESET MSP Administrator (EMA) automatycznie widać w konsoli ESET PROTECT (jedno logowanie), a partner jednym kliknięciem może przełączać się między chronionymi środowiskami różnych firm.

AI w biznesie:

małe

jest piękne

Wprawdzie duże modele językowe (LLM) uważa się za „najmądrzejsze”, jednak w biznesie doskonale sprawdzają się mniej rozbudowane, prostsze modele.

Zaawansowane modele sztucznej inteligencji cieszą się powszechnym zainteresowaniem nie tylko specjalistów związanych z nowymi technologiami, ale również „zwykłych” obywateli. OpenAI, Anthropic czy Google prześcigają się w osiąganiu kolejnych rekordów w zakresie możliwości kognitywnych, zdając egzaminy licencyjne z prawa, wygrywając olimpiady matematyczne i diagnozując choroby.

Jednak wielu menedżerów kierujących firmami, w których wdraża się AI, zdążyło się sparzyć na dużych modelach. Dlatego coraz częściej wykazują zainteresowanie tzw. małymi modelami językowymi (small language model, SLM). To niedoceniani bohaterowie drugiego planu, pozwalający na przyspieszanie i usprawnianie procesów biznesowych. Kyle Lo, naukowiec pracujący z dużymi modelami językowymi w Allen Institute for AI (organizacja non-profit), tłumaczy, że w przypadku wielu operacji, wymagających dużej mocy obliczeniowej, wcale nie potrzeba stosować LLM-ów. Jego zdaniem to jak przysłowiowe „strzelanie z armaty do muchy”.

Firmy wykorzystujące AI odniosły sukces, tworząc własne systemy i usługi przypominające linię montażową: informacje wchodzą z jednej strony, a dane, działania lub produkty wychodzą z drugiej. Pomiędzy nimi działa wiele mniejszych, prostszych, szybszych i bardziej wyspecjalizowanych modeli. Organizacje realizujące zadania za pomocą agentów AI coraz częściej odkrywają, że małe modele językowe (SLM) w zupełności wystarczają do ich zasilania. Co więcej, zdają sobie sprawę, że tak naprawdę nie mają innego wyboru, ponieważ SLM są bardziej przystępne cenowo,

a w niektórych przypadkach lepiej dostosowane do wykonywanych operacji.

Sztuka integracji

Zdaniem części specjalistów największy wpływ sztucznej inteligencji na konkurencyjność firm i rynek pracy wynika nie tyle z postępu samej technologii, co z rosnących umiejętności inżynierów w kontekście sztuki integrowania prostszych systemów AI w spójne, zaawansowane rozwiązania. Jednym z ciekawszych przykładów na tego typu działalność jest Aurelion, startup z Seattle, który wykorzystuje generatywną AI do automatyzacji odpowiedzi na połączenia nie alarmowe do centrów 911. W Stanach Zjednoczonych nawet do 80 proc. całkowitej liczby połączeń w centrach bezpieczeństwa publicznego stanowią sprawy administracyjne, takie jak opłacanie mandatów za parkowanie czy zgłaszanie awarii prądu. Aurelian pomaga odciążyć dyspozytorów od tych zadań. System automatyzuje średnio 74 proc. połączeń niezwiązanych z poważnymi zgłoszeniami, takimi jak zagrożenia życia lub zdrowia, pożary czy też przestępstwa w toku. W rezultacie każdy dyspozytor oszczędza około trzech godzin dziennie. Co ciekawe, nawet potężna Meta wykorzystuje SLM-y do personalizacji reklam. Używanie dużych modeli, takich jak chociażby Llama, ze względu na rozmiar i złożoność byłoby zbyt kosztowne. Zamiast tego, Meta używa swojego LLM-a do przeniesienia niezbędnej wiedzy na temat reklam do mniejszych, bardziej lekkich, wyspecjalizowanych modeli.

Sprytna kombinacja AI

Wiele wskazuje na to, że przyszłość należy do tych, którzy potrafią umiejętnie połączyć zalety LLM-ów i SLM-ów. Niezłe pieniądze zarabia na tym między innymi Gong z San Francisco, pomagający klientom analizować rozmowy za pomocą AI.

Firma działa na zasadzie menedżera, który przydziela zadania pracownikom według ich umiejętności. Jak to działa w praktyce? Przykładowo, kiedy użytkownik zada pytanie: „dlaczego tracę klientów z Polski”, trafi ono do najbardziej zaawansowanego modelu. Ten tworzy ogólny plan działania, a następnie jego tańszy „pomocnik” (SLM) przeszukuje tysiące rozmów przeprowadzonych przez handlowców, aby wyłuskać z nich te najbardziej istotne i podsumować znalezione rozmowy. Finalnie „ekspert”, czyli duży model językowy, zbiera wszystkie informacje i tworzy kompleksowy raport pokazujący, co działa w sprzedaży, a co nie. Zamiast płacić fortunę za używanie LLM-ów do prostych zadań (jak przeszukiwanie czy sprawdzanie), Gong używa ich tylko tam, gdzie naprawdę trzeba, czyli do planowania i tworzenia finalnych wniosków. Czarną robotę wykonują te tańsze modele. Różnica w kosztach między największymi i najbardziej zaawansowanymi modelami a najmniejszymi i najtańszymi jest ogromna. Używając ważonej średniej, standardowej w branży, najmniejszy i najszybszy model OpenAI, GPT-5 Nano, kosztuje około 10 centów za milion tokenów, podczas gdy pełnoprawny, bardziej wyrafinowany GPT-5 kosztuje blisko 3,5 dol. za milion tokenów. Co więcej, duże modele mogą czasami zużywać tysiące razy więcej tokenów, aby wykonać zadanie, ponieważ „spalają” je w wewnętrznym „monologu”, którego używają do wydedukowania odpowiedzi.

Artykuł został opracowany na podstawie publikacji w The Wall Street Journal.

Wojciech Urbanek zastępca redaktora naczelnego CRN Polska

Dane, wracajcie do macierzy!

Tytuł tego felietonu może być mylący, ponieważ nie mam na myśli macierzy dyskowych, ale regiony, w których dane powstają i w których powinny pozostać.

Ugruntowana – po wielu latach eksperymentów – argumentacja uzasadniająca zalety chmury publicznej na rynku usług IT właśnie zostaje poddana w wątpliwość. Dotychczas, obok elastyczności i skalowalności, jedną z immanentnych cech chmury była swoboda wyboru lokalizacji repozytorium danych, o ile dostawca usługi taki wybór zapewniał lub w ogóle o tej lokalizacji informował. Takie podejście wskazywane było jako panaceum na ryzyko wystąpienia regionalnych konfliktów zbrojnych lub katastrof naturalnych, jednak w praktyce nikt tą lokalizacją się nie przejmował, o ile oczywiście usługa działała nieprzerwanie i szybko. Jednak czasy się zmieniły, a ryzyko zagrożeń fizycznych zdominowane zostało przez te cyfrowe. Przechowywanymi w chmurze gigantycznymi repozytoriami zaczęły interesować się rządy niekoniecznie sprzyjających nam państw i nawet jeśli nie będą w stanie ich wykraść (dopóki komputery kwantowe nie ułatwią łamania szyfrów), to mogą w znacznym stopniu utrudnić nam możliwość bezproblemowego korzystania z nich. Sytuacja ta spowodowała, że podczas rozważań o wyborze konkretnych usług chmury publicznej analizowane powinny być takie kryteria, jak suwerenność danych czy zgodność z obowiązującymi w kraju użytkownika regulacjami. Sporą część temu zagadnieniu poświęcił Gartner w opublikowanym niedawno raporcie „Top Strategic Technology Trends for 2026”. Analitycy wprowadzili określenie geopatriacji (geopatriation) i określili je jako kluczowe dla kolejnych lat funkcjonowania chmury publicznej. Ich zdaniem do 2030 r. ponad 75 proc. przedsiębiorstw w Europie i na Bliskim Wschodzie przeniesie swoje wirtualne zasoby z globalnych chmur publicznych do regionalnych providerów lub własnych centrów danych zaprojektowanych z myślą o ograniczeniu ryzyka geopolitycznego. Na scenie pojawiły się trzy rodzaje nacisku: regulacyjny, reputacyjny i operacyjny. Po pierwsze, ustawodawstwa wielu krajów (i regionów, jak w przypadku UE) coraz mocniej podkreślają konieczność zapewnienia suwerenności danych i definiują warunki przekazywania ich za granicę. Po drugie, klienci coraz częściej pytają o to, gdzie znajdują się ich dane, mając świadomość, że nonszalancja w tym zakresie może w skrajnym przypadku doprowadzić do kryzysu wizerunkowego, który w dobie nominacji mediów społecznościowych może być dotkliwy w skutkach. I wreszcie po trzecie, przy obecnych, delikatnie mówiąc „dziwnych” zachowaniach niektórych najważniejszych na świecie polityków może okazać się, że łączność z krajem, który reprezentują, może zostać ograniczona, co przełoży się na opóźnienia w dostępie do danych. Jednym słowem, bezrefleksyjne korzystanie z globalnej chmury praktycznie raz na zawsze przestało być bezpieczne.

Zjawisko geopatriacji zyskuje w Unii Europejskiej mocne umocowanie prawne. Punktem zwrotnym jest wejście w życie we wrześniu br. rozporządzenia Data Act, które reguluje dostęp, przenoszenie i udostępnianie danych przemysłowych, a także ogranicza zjawisko vendor lock-in. W ślad za nim wkrótce pojawi się dokument EU Cloud Rulebook, porządkujący zasady korzystania z usług chmurowych w sektorze publicznym i komercyjnym. Regulacje te nie tylko wzmacniają suwerenność danych, ale też wymuszają zmianę modeli biznesowych dostawców chmury oraz tworzenie usług ograniczonych do jurysdykcji UE. Dla Polski oraz innych krajów członkowskich oznacza to realne konsekwencje. Podmioty z branż regulowanych (finansowa, medyczna, administracyjna) będą wymagały gwarancji lokalizacji danych i zgodności z europejskimi przepisami. To z kolei otwiera szansę dla lokalnych dostawców centrów danych i integratorów, którzy potrafią łączyć infrastrukturę krajową z globalnymi chmurami w modelu hybrydowym. W praktyce o rynkowej przewadze będzie decydować nie tylko technologia, lecz także zdolność do zapewnienia zgodności z Data Act i krajowymi interpretacjami zapisów tego rozporządzenia. Daje to też europejskim podmiotom gwarancję utrzymania lokalnych klientów i brak ryzyka ich odpływu, chociażby do rosnącej w siłę w kontekście usług chmurowych Azji.

Nie oznacza to jednak, że globalne chmury tracą sens. Globalni dostawcy nie znikną – chodzi raczej o elastyczność modelu i możliwość wyboru. Klientowi trzeba zaoferować coś więcej niż standardowa chmura: warunki lokalizacji, możliwość „wyjścia” z globalnej chmury, warunki przechowywania i przetwarzania danych w konkretnych jurysdykcjach. No i oczywiście koniecznie warto obserwować globalnych dostawców usług chmurowych, bo oni też z pewnością nie dadzą pojmać się żywcem. Google już zmniejszył opłaty za transfer danych, AWS zapowiada rozszerzenie pakietu usług świadczonych z terytorium Europy, obsługiwanych przez pracowników z UE, a także Red Hat rozpoczął świadczenie usługi gwarantowanego suwerennego wsparcia dla podmiotów z Unii Europejskiej.

Krzysztof

Jakubik

dziennikarz

CRN Polska

ZJAWISKO

GEOPATRIACJI ZYSKUJE W UNII EUROPEJSKIEJ

SILNE UMOCOWANIE PRAWNE.

Ten kolejny zakręt, w który wchodzą usługi chmurowe, niewątpliwie spowoduje, że oferta integratorów usług będzie musiała stać się przemyślana pod kątem modelu finansowania i rozliczeń, z uwzględnieniem takich elementów jak lokalizacja danych, dostępność w lokalnym centrum danych, SLA związane z regionalnymi przepisami itd. Natomiast czas pokaże, czy rzeczywiście jest to uzasadniona potrzeba europejskiego rynku, obliczona nie tylko w interesie bezpieczeństwa, ale także ekonomicznym.

Stabilna sieć i szybszy rozwój

Sz SD-WAN Aruba

Nowoczesna sieć to nie tylko łączność, ale fundament efektywnego działania. Rozwiązanie SD-WAN od HPE Aruba pozwoliło zbudować środowisko, które łączy stabilność, bezpieczeństwo i prostotę zarządzania — wspierając rozwój organizacji w wielu lokalizacjach.

tock Spirits Group to jeden z największych producentów napojów alkoholowych w Europie, posiadający sieć rozproszonych lokalizacji – zarówno fabryk, jak również biur handlowych oraz centrów logistycznych. Wcześniej wykorzystywał rozwiązanie SD-WAN

PODJĘCIE

POPRZEDZIŁDECYZJISZCZEGÓŁOWY

PROOF OF CONCEPT. ADVERTORIAL

innego producenta, które z czasem zaczęło jednak wykazywać poważne problemy ze stabilnością – pojawiły się awarie urządzeń, nieplanowane restarty oraz chwilową niedostępność poszczególnych lokalizacji.

Co ważne, użytkownicy biznesowi oczekiwali nie tylko stabilnego i przewi-

Longin Mikołajczyk

SASE Sales Specialist, HPE Aruba Networking

HPE Aruba EdgeConnect SD-WAN został zaprojektowany z myślą o zapewnieniu najwyższej stabilności i elastyczności w rozproszonych środowiskach enterprise. W projektach takich jak omawiany w publikacji, widzimy, jak nasze technologie SD-WAN realnie przekładają się na ciągłość procesów biznesowych i lepsze doświadczenia dla użytkowników. Cieszy nas, że rozwiązanie Aruba stało się fundamentem sieci nowej generacji w Stock Spirits Group.

dywalnego połączenia z centrami przetwarzania danych czy poszczególnymi lokalizacjami, ale również elastyczności wynikającej ze stale rosnącej organizacji. Prowadzone akwizycje, tworzące nowe zakłady i oddziały, wymagały szybkiej integracji z istniejącą siecią informatyczną. Następstwem tego było pojawienie się jednego z kluczowych kryteriów w postaci wsparcia dla funkcjonalności Zero Touch Provisioning, czyli możliwości wdrożenia rozwiązania w danym oddziale bez fizycznej obecności administratora sieciowego.

Klient dążył również do unifikacji rozwiązań sieciowych. Już wcześniej korzystał z ekosystemu HPE Aruba (między innymi z Aruba Central) i liczył, że poprzez spójne środowisko poprawi możliwości w zakresie monitorowania i zarządzania. Zdecydował, że kolejne rozwiązanie powinno umożliwiać łatwiejszą integrację z istniejącą infrastrukturą, co miało zapewnić lepszą widoczność sieci, uproszczoną obsługę i zmniejszenie kosztów zarządzania.

Proces wdrożenia

Podjęcie decyzji poprzedził szczegółowy Proof of Concept, który miał za zadanie zweryfikować zarówno aspekty techniczne, jak i biznesowe rozwiązania. Środowisko zostało stworzone w oparciu o fizyczne urządzenia EdgeConnect oraz maszyny wirtualne. Całość była skonfigurowana i monitorowana z wykorzystaniem Orchestratora w modelu chmurowym, co pozwoliło sprawdzić rzeczywistą wydajność i dostępność rozwiązania.

PoC zakończył się sukcesem! Klient potwierdził stabilność działania, łatwość konfiguracji i intuicyjność konsoli zarządzającej, przy jednoczesnym zwiększeniu technicznych możliwości infrastruktury. Istotnym elementem było również upewnienie się, czy rozwiązanie pozwoli na granularną analizę ruchu sieciowego jak również możliwość zagwarantowania bezpiecznego, bezpośredniego wyjścia do internetu wprost z oddziałów, co okazało się w pełni możliwe dzięki funkcjonalnościom security wbudowanym w HPE Aruba EdgeConnect.

Wdrożenie produkcyjne zostało zaprojektowane w modelu wysokiej dostępności – w każdej lokalizacji zainstalowano dwa urządzenia EdgeConnect, zapewniające pełną redundancję. Klient dysponuje kompetentnym zespołem IT, więc projekt mógł zostać zrealizowany wewnętrznie, przy jedynie częściowym wsparciu partnera technologicznego. Dzięki temu implementacja przebiegła sprawnie, a jej całkowity czas wyniósł około 2 miesiące i był krótszy niż założony harmonogram.

Rozwiązania HPE Aruba – konkretne aspekty

Klient zdecydował się na urządzenia HPE Aruba Networking EdgeConnect 10 106 oraz EdgeConnect S-P, które zostały dostarczone ze wsparciem i subskrypcjami na okres 3 lat.

HPE Aruba Networking EdgeConnect S-P to urządzenie SD-WAN klasy operatorskiej, zaprojektowane dla większych oddziałów, wymagających obsługi dużego wolumenu ruchu i zaawansowanych

polityk sieciowych. Oferuje skalowalność niezbędną w środowiskach enterprise, wysoką redundancję i możliwość centralnego zarządzania, dzięki czemu idealnie sprawdza się w krytycznych lokalizacjach data center lub dużych hubach sieciowych. Z kolei EdgeConnect 10 106 to kompaktowa platforma SD-WAN, przeznaczona do mniejszych oddziałów i lokalizacji z ograniczoną przestrzenią, gdzie kluczowa jest łatwość wdrożenia i niezawodność. Oba urządzenia wspierają Zero Touch Provisioning, zapewniając szybkie uruchomienie, a jednocześnie oferują wbudowane funkcje bezpieczeństwa i widoczność aplikacyjną ruchu.

Rozwiązanie HPE Aruba EdgeConnect umożliwiło pełną elastyczność w zakresie stworzenia sieci overlay dla obsługi różnych typów ruchu, wdrożenie architektury full mesh, zapewniającej doskonałą komunikację między wszystkimi ośrodkami oraz dynamiczne tworzenie i modyfikowanie polityk siecowych i bezpieczeństwa przez centralny system zarządzenia – Orchestrator.

Kluczową funkcją było wdrożenie Zero Touch Provisioning, które pozwala wysyłać urządzenia do nowych lokalizacji i uruchamiać je bez konieczności angażowania najbardziej wyspecjalizowanych członków zespołu technicznego. Dzięki przygotowanym szablonom konfiguracji proces implementacji jest nie tylko zautomatyzowany, ale też elastyczny i szybki.

Rozwiązanie zapewnia pełną widoczność sieci, dzięki czemu administratorzy mogą w czasie rzeczywistym

monitorować stan zdrowia poszczególnych oddziałów, analizować źródła ruchu, identyfikować aplikacje generujące największe obciążenie i stosować polityki QoS oraz traffic shaping. Dodatkową zaletą wybranych urządzeń jest wbudowany stack bezpieczeństwa – między innymi NGFW zapewniający satysfakcjonujący poziom ochrony w mniejszych lokalizacjach.

Co istotne, klient zdecydował się również na wdrożenie wirtualnego rozwiązania EdgeConnect w środowisku Microsoft Azure, umożliwiającym dostęp do hostowanych w środowisku IaaS usług w ramach spójnych polityk SD-WAN.

Efekty i korzyści: bez przerw w działaniu

Nowa infrastruktura HPE Aruba EdgeConect SD-WAN rozwiązała główny problem biznesowy – zniknęły przestoje spowodowane utratą komunikacji z poszczególnymi lokalizacjami. Dostęp do systemów krytycznych i data center jest obecnie stabilny, co przełożyło się na większą efektywność procesów produkcyjnych.

Dzięki modelowi wysokiej dostępności, potencjalne awarie pojedynczych urządzeń nie powodują przerw w działaniu. Widoczność ruchu w sieci umożliwia podejmowanie lepszych decyzji dotyczących kształtowania przepusto-

Sales Director, IT Solution Factor

Projekty takie jak ten szczegółowo zaprezentowany w artykule, pokazują jak ważna jest z jednej strony dogłębna analiza potrzeb klienta, z drugiej zaś, dobra znajomość możliwości rozwiązań naszych partnerów technologicznych. Dzięki dostarczonym rozwiązaniom HPE, klient zyskał stabilną, skalowalną i łatwą w zarządzaniu infrastrukturę sieciową, gotową na dalszy rozwój biznesu.

wości, co pozytywnie wpływa na jakość obsługi użytkowników i kluczowych aplikacji.

Czas potrzebny na uruchamianie nowych lokalizacji został znacząco skrócony, co wspiera strategię ekspansji biznesowej. Automatyzacja procesów obniżyła koszty operacyjne i zmniejszyła ryzyko błędów wynikających z ręcznej konfiguracji.

Plany na przyszłość: rozwój i wykorzystanie pełni możliwości Po pomyślnym zakończeniu projektu SD-WAN klient planuje dalsze zmiany w środowisku sieciowym, aby wykorzystać pełnię możliwości rozwiązań SSE, budując tym samym spójną architekturę SASE.

Daniel Sławniak

IT w przemyśle:

sprawniej i taniej

Firmy przemysłowe preferują projekty, które pomogą obniżyć koszty, usprawnią pracę zakładu, skrócą czas wdrożeń, a przy tym zagwarantują łatwy do oszacowania oraz wyraźny zwrot z inwestycji.

Krzysztof Pasławski

Transformacja cyfrowa stała się priorytetem większości firm przemysłowych. Według Deloitte w 2024 r. już 30 proc. budżetów operacyjnych takich przedsiębiorstw w Polsce przeznaczono na technologie. Wskaźnik dojrzałości cyfrowej firm produkcyjnych Digi Index – opracowany przez Siemensa – wzrósł w roku ubiegłym do pułapu 2,3 z poziomu 1,8 w 2023 r. (w 4-stopniowej skali).

Analitycy wskazują, że branża przemysłowa w Polsce coraz chętniej inwestuje w chmurę i sztuczną inteligencję, które wraz z integracją systemów IT i OT usprawniają zarządzanie danymi. Przedsiębiorcy oczekują przy tym narzędzi wspierających podejmowanie decyzji, a nie tylko prezentujących dane.

Zdaniem integratora

WCo ważne, systematycznie rozpowszechnia się automatyzacja. Według DPS Group blisko połowa (42 proc.) firm rozważa wdrożenie robotów lub cobotów przemysłowych, co wynika z potrzeby zwiększenia efektywności, jak też z niedoboru specjalistów.

– Zapotrzebowanie na cyfryzację w przemyśle stale rośnie, szczególnie w obszarach automatyki, energetyki, produkcji i logistyki. Firmy coraz częściej inwestują w rozwiązania umożliwiające integrację systemów OT/ IT, zdalne zarządzanie oraz poprawę bezpieczeństwa infrastruktury – informuje Marek Stefaniak, Business Development Manager w Transition Technologies MS. Warszawski integrator odnotowuje ostatnio częstsze zapytania o dostosowa-

przemyśle najszybciej rośnie popyt na technologie, które skracają czas wdrożeń i ograniczają ryzyko operacyjne. Dlatego firmy coraz chętniej inwestują w systemy automatyzujące i integrujące procesy, które pozwalają przyspieszać realizację projektów w skali całych zakładów i eliminować błędy. Systematycznie zwiększa się rola narzędzi do monitorowania i analizy danych, które stają się fundamentem utrzymania ruchu. Dzięki temu można z wyprzedzeniem zaplanować serwis maszyn, kiedy będzie on potrzebny. Coraz częstszym wyborem firm są przy tym platformy chmurowe. Pozwalają one reagować na problemy z dowolnego miejsca, a także ułatwiają uruchamianie i testowanie nowych rozwiązań. Dla firm produkcyjnych chmura to dziś szansa, żeby działać sprawniej i taniej, ale też

Marek Stefaniak, Business Development Manager, Transition Technologies MS skuteczniej przewidywać przyszłość. Spodziewamy się, że w kolejnych latach przemysł będzie miał „na tapecie” również temat cyfrowych bliźniaków, które pozwalają testować i optymalizować procesy bez zatrzymywania produkcji. Jednocześnie wzrośnie popyt na rozwiązania poprawiające efektywność energetyczną. Ponadto w wielu firmach następne kwartały upłyną pod znakiem prób coraz bardziej zaawansowanej analityki danych, wspieranej przez AI, która staje się nową przewagą konkurencyjną. Jednak, podczas gdy jedni będą wytyczać nowe standardy rynkowe, wiele podmiotów wciąż będzie zmagało się z podstawową integracją nowych technologii i istniejącej infrastruktury.

nie systemów do nowych regulacji, takich jak Cyber Resilience Act. Okazuje się to wyzwaniem dla przedsiębiorstw, zwłaszcza niedysponujących najnowszymi systemami. Ponadto firmy przemysłowe chętniej niż wcześniej inwestują w poprawę widoczności.

– W porównaniu z ubiegłym rokiem dostrzegamy wzrost znaczenia platform chmurowych i narzędzi wspierających monitorowanie procesów, w tym spalania czy zużycia energii, w czasie rzeczywistym – dodaje Marek Stefaniak.

Warto przy tym zaznaczyć, że wciąż wiele przedsiębiorstw produkcyjnych nie korzysta z chmury. Z danych DPS Group wynika, że ich odsetek sięga 41 proc., przy czym jedynie 11 proc. nie planuje tego rodzaju wdrożenia. Warto zaznaczyć, że rośnie natomiast popularność modeli hybrydowych (23 proc. wskazań).

Klienci oczekują szybkiego ROI

Według dostawców klienci są zainteresowani przede wszystkim rozwiązaniami, które szybko przynoszą efekty – zwiększają marżowość, obniżają wydatki operacyjne, poprawiają wydajność, skracają przestoje, a przy tym umożliwiają lepszą kontrolę kosztów. Dotyczy to takich gałęzi przemysłu, jak motoryzacja (inwestycje w łańcuchy dostaw, traceability – śledzenie drogi komponentów i technologii w łańcuchu produkcji), przetwórstwo spożywcze (śledzenie partii, bezpieczeństwo jakości), jak również logistyka i magazynowanie (systemy do zarządzania magazynem – WMS, mobilne terminale).

– W tym roku widzimy kontynuację wzrostu zainteresowania rozwiązaniami IT w obszarze logistycznym. Firmy inwestują głównie w rozwiązania poprawiające wy-

dajność i odporność na zakłócenia – mówi Remigiusz Kaczewski, Business Development Manager w Jarltechu.

Firmy przemysłowe koncentrują się przy tym na rozwiązaniach, których zwrot z inwestycji (ROI) jest łatwy do oszacowania – przede wszystkim systemach ERP/ MRP oraz CRM. Według DPS Group systemami ERP w 2025 r. dysponowało 30 proc. firm wobec niecałych 24 proc. w 2024 r. Zwiększa się też zastosowanie oprogramowania CAE (Computer-Aided Engineering), choć wciąż jest wykorzystywane jedynie przez 20 proc. przedsiębiorstw do symulacji, analizy i optymalizacji projektów. Wspomaga efektywne wykorzystanie i integrację danych, co jest kluczowe dla cyfryzacji przemysłu. Powszechne jest natomiast zastosowanie oprogramowania CAD (Computer-Aided Design), którego używa 97 proc. przedsiębiorstw.

Są jednak obszary cyfryzacji, w których jest sporo do nadrobienia. Blisko połowa firm (48 proc.) nie korzysta z oprogramowania CAM (Computer-Aided Manufacturing), które pozwala na automatyzację produkcji. To się jednak powinno zmieniać, bo aktywność inwestycyjną zwiększyły te przedsiębiorstwa, które kładą duży nacisk na automatyzację. Istotnym kierunkiem cyfryzacji jest bowiem automatyzacja linii produkcyjnych i robotyzacja, zwłaszcza tam, gdzie koszty pracy i potrzeba elastyczności są wysokie.

– Nie powinno to dziwić. W sytuacji rosnących kosztów firmy szukają sposobów na zwiększenie wydajności, na wygenerowanie oszczędności i skrócenie czasu reakcji. Istotnym kierunkiem inwestycji jest też cyberbezpieczeństwo, coraz bardziej istotne w warunkach cyfryzacji przemysłu – podkreśla Łukasz Radosz, ekspert ds. ulgi

B+R, dyrektor zarządzający Euro-Funding Poland.

Jednak nie wszyscy dostawcy zapewniają, że w przemyśle panuje dobra koniunktura. Przykładowo, Panasonic obserwuje, że w tym roku popyt słabnie, choć nie dotyczy to sektora obronności. – Obserwujemy silne i rosnące zainteresowanie projektami związanymi z mikroelektroniką i półprzewodnikami – mówi Jérôme Clouet, Senior Product Manager w Panasonic Factory Solutions.

Część firm nie spieszy się z cyfryzacją ze względu na fakt, że ich zakłady pracują w ruchu ciągłym i w związku z tym ich procesy są utrwalone od lat. Stąd obawy decydentów o zakłócenie pracy linii produkcyjnych przy wdrażaniu nowości technologicznych i związanych z nimi zmian (np. konieczność przebudowy procesów, szkolenia pracowników czy pozyskania nowych fachowców).

Dostawcy odnotowują przy tym nacisk klientów na prostotę integracji systemów. Firmy wdrożeniowe starają się więc wyjść naprzeciw tym oczekiwaniom.

– Najważniejsze cechy przyświecające inwestycjom, którymi kierują się integratorzy rozwiązań to przede wszystkim: prostota integracji, skalowalność, bezpieczeństwo danych i możliwość pracy offline w halach produkcyjnych – wylicza Remigiusz Kaczewski.

Koszty barierą inwestycji

Nikogo nie zaskakuje, że barierą inwestycji w ocenie ekspertów jest finansowanie. Z tym, że nie chodzi tylko o brak pieniędzy na firmowych kontach. Hamulcem bywa niedostateczna wiedza na temat tego, jak je pozyskać. Jak wskazują eksperci, znajomość ulgi na badania i rozwój czy robotyzację wciąż nie jest powszechna.

– Blisko 87 proc. firm wskazuje na cyfryzację jako klucz do poprawy konkurencyjności, jednak około połowa mówi, że barierą jest brak środków – twierdzi Łukasz Radosz. Problemy z finansowaniem sprawiają, że mimo wzrostu inwestycji z roku na rok, jego tempo jest nierówne. Częściej w digitalizację angażują się duże firmy, które mają większy kapitał oraz wiedzę, jak nim dobrze gospodarować. Według Digi Index 2024 najwyższy poziom dojrzałości cyfrowej cechuje sektor motoryzacyjny (2,6, wzrost z 2,0 w 2023 r.). Jednak największy wzrost odnotował sektor spożywczy, co świadczy o przyspieszeniu transformacji (z 1,6 do 2,3). Branża maszynowa ma wskaźnik 2,2, a chemiczna i farmaceutyczna 2,1.

AI do automatyzacji i optymalizacji

Według Deloitte polskie firmy przemysłowe przechodzą obecnie od fazy testów sztucznej inteligencji do jej integracji w procesach operacyjnych. W ciągu trzech najbliższych lat ponad 40 proc. przedsiębiorstw zamierza zwiększyć inwestycje w AI i ML. Jednocześnie aż 55 proc. respondentów zapewnia, że już teraz wykorzystuje narzędzia generatywnej AI.

Co istotne, sztuczna inteligencja pomaga redukować koszty, co jest jednym z priorytetów cyfryzacji w przemyśle. Z doświadczeń Deloitte w projektach w Polsce wynika, że zastosowanie AI może podnieść wynik EBITDA dużych firm produkcyjnych (400–500 mln zł przychodów) nawet o 30 do 50 proc.

– W firmach produkcyjnych sztuczna inteligencja najwięcej oszczędności oferuje w obszarach utrzymania ruchu, kontroli jakości i optymalizacji zużycia energii – uważa Remigiusz Kaczewski.

WZROST POPYTU NASTĄPI NA

STYKU CYFRYZACJI, OPTYMALIZACJI ENERGETYCZNEJ I BEZPIECZEŃSTWA.

Według niego najczęściej wdrażane rozwiązania AI obejmują systemy analizy danych produkcyjnych, jak predykcja awarii, optymalizacja planów, oraz narzędzia wspierające procesy projektowe i planistyczne. Dystrybutor obserwuje też zapotrzebowanie na narzędzia AI wspierające automatyzację procesów logistycznych, w tym takich, które przyspieszają odczyt kodów kreskowych i ułatwiają identyfikację produktów.

Potwierdzają to dane ze wspomnianego wcześniej raportu DPS Group. Respon-

denci najczęściej dostrzegają potencjał sztucznej inteligencji przede wszystkim w automatyzacji pracy (26 proc. wskazań), obliczeniach i optymalizacji procesów (18 proc.) oraz w projektowaniu i modelowaniu (15 proc.).

– Dominującym trendem związanym z AI pozostaje automatyzacja. Sztuczna inteligencja jest wdrażana na platformach, które już teraz zapewniają dane, zdalną diagnostykę i autonomiczne odzyskiwanie danych – wymienia Jérôme Clouet.

Firmy podchodzą jednak do wdrożeń pragmatycznie. W przypadku projektów opartych o AI znów ROI należy do kluczowych kryteriów.

– Analityka predykcyjna i monitoring na poziomie platformy to najpopularniejsze projekty powiązane ze sztuczną inteligencją, ponieważ zapewniają wyraźny zwrot z inwestycji – wyjaśnia Jérôme Clouet.

Należy zrobić porządek z danymi

W przemyśle największe korzyści z narzędzi AI pojawiają się tam, gdzie dane są uporządkowane. Jednocześnie jakość danych oraz ich integracja, jak też integracja systemów, pozostają najczęstszym wyzwaniem w projektach AI, obok obaw związanych z cyberbezpieczeństwem i gotowością organizacji do pracy z bardziej zaawansowaną analityką.

– Aby przyspieszyć wdrażanie sztucznej inteligencji, firmy potrzebują połączonych systemów i ustandaryzowanych przepływów danych z maszyn do platform analitycznych – zauważa Jérôme Clouet. Według części specjalistów zainteresowanie narzędziami sztucznej inteligencji w przemyśle jest wprawdzie wyraźne, jednak poziom wdrożeń oceniają jako relatywnie niski, co ich zdaniem wynika z problemów z finansowaniem.

– Jeśli firmy ostrożnie podchodzą do inwestycji w technologie, bo przyznają, że brakuje im środków, to trudno oczekiwać, by z dużym zapałem inwestowały w tak kapitałochłonną technologię, jak AI – zauważa Łukasz Radosz.

Przytacza przy tym dane Autodesk, z których wynika, że tylko około 14 proc. polskich firm przemysłowych faktycznie korzysta ze sztucznej inteligencji. Wprawdzie presja na wykorzystanie AI jest silna, co potwierdza 3/4 dużych i średnich przedsiębiorstw, to jednak brak jasnego planu i wiedzy, w jakich obszarach ją zastosować, hamuje wdrożenia. Jak na razie sztuczna inteligencja w przemyśle znajduje zastosowanie przede wszystkim na potrzeby utrzymania ruchu, zapobiegania awariom oraz kontroli jakości i wykrywania defektów.

Zdaniem specjalisty

Waldemar Pakoś, Business Development Manager, PAEN Digital Team, ABB

WTostatnim roku widać wyraźne ożywienie zainteresowania cyfryzacją, ale nie wynika ono z jednego czynnika, a raczej z dojrzewania rynku. Firmy podchodzą do transformacji bardziej świadomie niż jeszcze dwa lata temu. Coraz częściej skupiają się na projektach, które realnie poprawiają efektywność, a nie są jedynie testami technologii. Największą aktywność obserwujemy tam, gdzie presja na stabilność produkcji i koszty energii jest najwyższa. Największą popularnością cieszą się rozwiązania poprawiające widoczność tego, co dzieje się w zakładzie. Chodzi o monitorowanie stanu maszyn, zdalne nadzorowanie procesów, gromadzenie danych w jednej spójnej przestrzeni i ich analizę w czasie zbliżonym do rzeczywistego.

rzy kluczowe czynniki napędzające inwestycje w technologie to: zapotrzebowanie na bardziej zintegrowane środowisko pracy, poprawa widoczności zasobów oraz inteligentna automatyzacja. Z tym, że poszczególne firmy znajdują się na różnych etapach cyfryzacji, zależnie od branży i skali działania. Najbardziej pozytywne zmiany widać obecnie w handlu detalicznym, logistyce, sektorze magazynowym oraz w produkcji. Cyfryzacja pozwala na bardziej zaawansowaną i inteligentną automatyzację zadań oraz dostarcza nowych, cennych wniosków dzięki analizie danych. Liderzy IT oraz technologii operacyjnych coraz częściej sięgają po rozwiązania takie

Jacek Żurowski, Regional Director, Zebra Technologies

jak RFID, mobilne komputery i tablety, systemy wizyjne i skanery stacjonarne. Spodziewam się, że trend ten będzie się utrzymywał także w 2026 roku.

Remigiusz Kaczewski, Business Development Manager, Jarltech

Klienci wybierają narzędzia, które dają szybki zwrot z inwestycji i są odporne na trudne warunki przemysłowe. Są to przykładowo systemy magazynowe WMS z mobilnymi terminalami i RFID, co pozwala na szybkie śledzenie materiałów i redukcję błędów. Kolejne to MES (Manufacturing Execution System) i rozwiązania IoT, wspierające monitoring stanu maszyn, predykcję awarii czy zdalny nadzór. Widzimy też zapotrzebowanie na integrację systemów ERP z produkcją, gdzie celem jest spójność danych i planowanie just-in-time. Jako dystrybutor urządzeń AutoID rekomendujemy podejście pragmatyczne: łączyć sprawdzone rozwiązania AutoID (mobilne terminale, czytniki RFID), MES/WMS i IoT z etapowymi wdrożeniami AI. To

pozwala osiągnąć szybki zwrot z inwestycji i zgromadzić dane potrzebne do skalowania inteligentnych rozwiązań.

Zmojej perspektywy, potwierdzonej przez raporty firm analitycznych, główną barierą dla realizacji projektów AI, poza brakiem środków inwestycyjnych, jest brak danych lub dostęp do danych o złej jakości. W wielu zakładach park maszynowy jest przestarzały, a przepływ informacji pozostaje analogowy, co utrudnia zbieranie danych niezbędnych do trenowania sztucznej inteligencji. W wielu zakładach produkcyjnych mamy też do czynienia z rozproszonymi środowiskami IT i OT, silosami danych, a to utrudnia integrację danych z wielu źródeł. Jeśli dodamy do tego deficyt kompetencji w obszarze AI, zarówno wśród kadry technologicznej, jak i operacyjnej, to trudno oczekiwać, by wykorzystanie sztucznej inteligencji w przemyśle istotnie wzrosło.

W przyszłym roku dostawcy spodziewają się zwiększonych inwestycji w takich obszarach, jak automatyzacja, robotyzacja i narzędzia wspomagające elastyczność produkcji. Na popularności powinny zyskiwać ponadto cyfrowe bliźniaki, umożliwiające symulację i optymalizację procesów przed wdrożeniem. Można też oczekiwać

Łukasz Radosz, ekspert ds. ulgi B+R, dyrektor zarządzający, Euro-Funding Poland

większych inwestycji w cyberbezpieczeństwo i efektywność energetyczną.

– W 2026 roku spodziewam się dalszego wzrostu popytu tam, gdzie cyfryzacja łączy się z optymalizacją energetyczną i z kwestiami cyberbezpieczeństwa, bo te dwa obszary stają się kluczowe dla stabilności zakładów – podsumowuje Waldemar Pakoś z ABB. n

PowerWalker VFI TAP – zasilanie klasy premium

W dystrybucyjnej ofercie Impaktu znajduje się rodzina nowoczesnych, trójfazowych zasilaczy PowerWalker VFI TAP, stworzonych z myślą o najbardziej wymagających zastosowaniach przemysłowych, serwerowniach i centrach danych.

Urządzenia UPS z serii PowerWalker VFI TAP to systemy zasilania awaryjnego klasy premium, łączące wysoką moc, elastyczność konfiguracji oraz wyjątkową sprawność. Zapewniają zakres mocy od 20 do 80 kW, co pozwala dobrać urządzenie do zastosowań o różnej skali – od pojedynczych linii produkcyjnych po złożone środowiska serwerowe. Topologia online (VFI – Voltage and Frequency Independent) gwarantuje stałe, w pełni oczyszczone zasilanie, niezależne od wahań napięcia i zakłóceń w sieci. Wyróżnikiem zasilaczy z rodziny VFI TAP jest współczynnik mocy równy 1, co oznacza niemal idealną sprawność konwersji energii. W praktyce przekłada się to na pełne wykorzystanie mocy znamionowej – bez strat, które są typowe dla starszych modeli UPS-ów. Tak wysoka efektywność energetyczna pozwala nie tylko zwiększyć stabilność systemu, ale również ograniczyć koszty eksploatacji.

UPS-y z rodziny VFI TAP zostały zaprojektowane w trzech wariantach: VFI TAP BI (Battery Included), VFI TAP BE (Battery Excluded) oraz VFI TAP BX (Battery External). Wersja BI zawiera wbudowany moduł baterii, co sprawia, że jest gotowa do pracy zaraz po instalacji. Model BE pozwala użytkownikowi dobrać zewnętrzny system magazynowania energii, natomiast BX przeznaczony jest wyłącznie do współpracy z zewnętrznymi bankami baterii, co daje maksymalną elastycz-

ność konfiguracji w dużych instalacjach przemysłowych i centrach danych.

Urządzenia PowerWalker VFI TAP wyróżniają się także pod względem konstrukcyjnym. Zastosowanie nowoczesnych ogniw o wysokiej gęstości energetycznej pozwoliło znacząco zmniejszyć rozmiary zasilaczy, przy zachowaniu ich pełnej mocy i wydajności. To szczególnie istotne w środowiskach, gdzie przestrzeń techniczna jest ograniczona, a każdy metr kwadratowy stanowi strategiczną wartość.

Wszechstronne zarządzanie

W zasilaczach z rodziny VFI TAP położono duży nacisk na inteligentne zarządzanie bateriami. System automatycznie monitoruje stan akumulatorów, co pozwala na optymalizowanie procesu ładowania i rozładowywania. Dzięki temu żywotność baterii zostaje wydłużona, a ryzyko ich przedwczesnego zużycia – zminimalizowane. Funkcje diagnostyczne i predykcyjne pozwalają wykrywać potencjalne problemy, zanim wpłyną one na działanie całego systemu. Jednym z kluczowych atutów UPS-ów VFI TAP jest możliwość zdalnego monitorowania i zarządzania nimi. Użytkownik może w czasie rzeczywistym śledzić parametry pracy zasilacza, poziom obciążenia czy stan baterii, a także otrzymywać powiadomienia o zdarzeniach i alarmach. Zdalny dostęp ułatwia kontrolę rozproszonej infrastruktury – zarówno w środowiskach przemysłowych, jak i w centrach danych, gdzie kluczowa jest szybka reakcja na nieprawidłowości.

W urządzeniach PowerWalker VFI TAP znajdują się również dwa gniazda rozszerzeń na karty inteligentne. Dzięki temu można równocześnie korzystać z różnych interfejsów komunikacyjnych (np. SNMP i Modbus), co poz-

wala na pełną integrację z systemami zarządzania siecią, automatyką przemysłową lub oprogramowaniem klasy BMS/DCIM.

Dla dużych przedsiębiorstw i instytucji zarządzających infrastrukturą krytyczną istotna jest także możliwość pracy w trybie równoległym. UPS-y z rodziny VFI TAP można łączyć w układy redundantne lub zwiększające moc systemu. Rozwiązanie to podnosi niezawodność, umożliwia planową konserwację bez przerw w pracy oraz pozwala na skalowanie infrastruktury w miarę wzrostu zapotrzebowania na energię.

PowerWalker to marka należąca do niemieckiej firmy BlueWalker GmbH, specjalizującej się w projektowaniu i produkcji szerokiej gamy systemów zasilania awaryjnego (UPS), listew zasilających, stabilizatorów napięcia oraz akcesoriów do ochrony sprzętu elektronicznego. Od ponad dwóch dekad dostarcza rozwiązania dla użytkowników indywidualnych, biznesowych i instytucjonalnych, koncentrując się na połączeniu niezawodności, nowoczesnej technologii i przystępności cenowej oraz zgodności z europejskimi standardami jakości. Dystrybutorem rozwiązań PowerWalker jest firma Impakt.

Zasilanie awaryjne:

nowe standardy dla małego biznesu

Przyszłość nie należy do konkurencji między magazynami energii a zasilaczami awaryjnymi, lecz do ich inteligentnego połączenia.

Wojciech Urbanek

Rodzimy rynek zasilaczy awaryjnych dla użytkowników indywidualnych i małych firm przeżywa obecnie stagnację. Towarzyszy temu rosnąca świadomość klientów, którzy nie szukają już wyłącznie chwilowego podtrzymania zasilania komputera, ale kompleksowej ochrony wrażliwej elektroniki, sterowników pieców czy systemów inteligentnego domu. Popytowi na urządzenia UPS sprzyja przy tym niepewność związana z kosztami energii oraz okresowymi przerwami w dostawach prądu. W przypadku gospodarstw domowych wzrost napędzają wyższe koszty energii, zdalna praca i nauka, potrzeba podtrzymania pracy routerów oraz nasycenie domów sprzętem IT i urządzeniami audio-wideo. Małe przedsiębiorstwa mają natomiast odmienne podejście zakupowe.

JEST „WIADERKO NA PRĄD”.

– Wśród małych firm dominuje raczej rotacja i modernizacja sprzętu niż skoko-

wy przyrost nowych instalacji. Ta grupa klientów dokonuje wymian po wygaśnięciu gwarancji, uzupełnia szafy RACK, konsoliduje zasilanie punktów krytycznych i inwestuje w lepsze rozwiązania do zarządzania oraz monitorowania – wyjaśnia Janetta Sałek, dyrektor marketingu poznańskiego Evera.

Choć zarówno gospodarstwa domowe jak i małe firmy zwracają uwagę na cenę, moc i czas podtrzymania zasilania, pozostałe kryteria i priorytety znacząco się różnią. Użytkownik domowy poszukuje dyskretnego urządzenia, które w ciszy ochroni router, komputer lub system alarmowy przed skutkami krótkotrwałych zaników zasilania. Jego priorytetami są prostota obsługi, cicha praca i kompaktowy rozmiar, zaś do bezpiecznego zamknięcia systemów wystarczy zaledwie kilka minut.

Zdecydowanie większe wymagania dotyczące czasu podtrzymania zasilania mają małe firmy. W ich przypadku stawką jest ciągłość procesów biznesowych i minimalizacja strat. Dla serwerów i sieci wymagane jest zwykle kilkanaście do

kilkudziesięciu minut zasilania zapasowego, z możliwością wydłużenia dzięki dodatkowym modułom bateryjnym. Z punktu widzenia przedsiębiorców liczą się architektura zasilania, zdalne zarządzanie, integracja z systemami monitorowania, możliwość rozbudowy, redundancja N+1 w punktach krytycznych, skalowalność rozwiązania oraz warunki serwisowe.

– Różnica jest znacząca: użytkownik domowy potrzebuje bezobsługowej „poduszki bezpieczeństwa”, a mała firma oczekuje narzędzia zapewniającego ciągłość działania i kontrolę ryzyka operacyjnego – podsumowuje Janetta Sałek.

Topologie: za i przeciw

Użytkownicy domowi, szczególnie wrażliwi na cenę, najczęściej sięgają po zasilacze offline. Oprócz niskich kosztów urządzenia topologia ta jednak nie oferuje dodatkowych korzyści. Jej największą słabością jest ograniczona ochrona przed zaburzeniami, system reaguje wyłącznie na całkowity brak zasilania, nie chroniąc przed przepięciami, spadkami napięcia, szybkimi wahaniami ani zniekształceniami sinusoidy. Kolejnym problemem klasycznych zasilaczy offline jest czas przełączania – potrzebują one od 4 do 10 milisekund na zmianę źródła zasilania. Dla starszego sprzętu to wystarczająco szybko, ale nowoczesne urządzenia czasem tego nie tolerują i resetują się lub wyłączają.

Trend rynkowy wskazuje jednak na wyraźną zmianę preferencji. Choć topologia offline wciąż dominuje w gospodarstwach domowych, to w małych firmach jej udział systematycznie spada. Artur Pocięgiel, Senior Sales Manager w TD Synnex, szacuje, iż rozwiązania line-interactive stanowią już około 60 proc. tego segmentu, a urządzenia online 15 proc. – Standardem stały się rozwiązania line-interactive, głównie dzięki niewielkim UPS TO NIE

GOSPODARSTWA

IDĄCE Z DUCHEM CZASU KORZYSTAJĄ Z CORAZ WIĘKSZEJ LICZBY URZĄDZEŃ WYSOKOENERGETYCZNYCH.

kosztom modułów AVR, które zapewniają istotnie lepszą stabilizację napięcia. To obecnie kluczowy argument sprzedażowy –  wyjaśnia Bartłomiej Kołodziej, Brand Manager w Impakcie.

Producenci konsekwentnie podążają za zmianami preferencji. BlueWalker, wytwórca zasilaczy PowerWalker, praktycznie rezygnuje z topologii offline i stosuje ją już tylko w wyjątkowych przypadkach. Podobnie Ever, który od kilku lat obserwuje przesunięcie sprzedaży w kierunku rozwiązań line-interactive, a w małych serwerowniach i szafkach RACK w stronę systemów online.

– Trzon wolumenu stanowią dziś konstrukcje line-interactive z czystą sinusoidą i współczynnikiem mocy równym 1. Lepiej współpracują one z zasilaczami o aktywnym PFC w komputerach PC oraz stabilizują napięcie w urządzeniach NAS przy krótkich czasach transferu. Udział modeli online rośnie zwłaszcza tam, gdzie pojawiają się serwery NAS z usługami 24/7, terminale POS, systemy VoIP czy współ-

praca z agregatem. W takich przypadkach niezbędne jest zasilanie najwyższej jakości, niezależne od wahań sieci – dodaje Janetta Sałek.

Jeszcze więcej mocy

Gospodarstwa idące z duchem czasu korzystają z coraz większej liczby urządzeń wysokoenergetycznych: od klimatyzacji i pomp ciepła, przez zmywarki i pralki, aż po domowe stacje robocze czy serwery NAS. Z kolei małe firmy instalują coraz więcej serwerów, urządzeń sieciowych, drukarek i komputerów. Każde z tych urządzeń wymaga energii, a gdy pracują jednocześnie podczas przerwy w zasilaniu, zapotrzebowanie na moc rośnie gwałtownie. Gospodarstwa domowe jeszcze do niedawna używały jednostek o mocy 600–800 VA, a obecnie wybierają zasilacze powyżej 1000 VA. Natomiast małe firmy kupują UPS-y nawet o mocy 3000 VA. Jednym z ważniejszych trendów w branży UPS-ów jest przejście z tradycyjnych akumulatorów kwasowo-ołowiowych

(VRLA) na baterie litowo-jonowe (Li-Ion) – to obecnie jeden z najważniejszych trendów w tej branży. Choć ta druga technologia jest droższa w zakupie, oferuje szereg korzyści, które często czynią ją bardziej opłacalną w dłuższej perspektywie. Największą jej zaletą jest żywotność – co najmniej dwukrotnie dłuższa niż w przypadku VRLA. Wprawdzie zasilacze z akumulatorami kwasowo-ołowiowymi wciąż dominują na rynku SOHO, aczkolwiek urządzenia litowo-jonowe sukcesywnie zwiększają tutaj swój udział. Specjaliści zwracają przy tym uwagę na fakt, że użytkownicy domowi chętnie skupują używane UPS-y litowo-jonowe z zagranicy. – Baterie nadal zachowują użyteczność na wysokim poziomie. Rodzimi majsterkowicze skupują ten sprzęt i robią z niego własne banki energii, co wychodzi znacznie taniej – mówi Bartłomiej Kołodziej.

Magazyny energii a UPS-y

Wraz ze wzrostem popularności odnawialnych źródeł energii dynamicznie

RYNEK

rozwijają się magazyny energii. W przeciwieństwie do zasilaczy awaryjnych, które pełnią funkcję tymczasową, urządzenia te umożliwiają długoterminowe gromadzenie energii elektrycznej. Przykładowo, gospodarstwo domowe zużywające 10 kWh dziennie, dysponując baterią o pojemności 15 kWh, może pracować w trybie awaryjnym przez około półtora dnia. Zasilacz UPS o mocy nominalnej 1200 VA (720 W) oferuje zdecydowanie krótsze czasy pracy – przy obciążeniu 100 W pracuje przez 45 minut, a przy 500 W zaledwie przez 7 minut. Czy to oznacza, że magazyny energii wyprą tradycyjne zasilacze awaryjne z domów i małych przedsiębiorstw? Eksperci z branży UPS przekonują, że w najbliższym czasie jest to scenariusz całkowicie nierealny.

– Od lat tłumaczę klientom i sprzedawcom, że UPS nie jest tylko „wiaderkiem na prąd”. Jego głównym zadaniem nie jest przechowywanie energii, ale poprawa jakości i ciągłości zasilania. Podczas normalnej pracy zasilacze UPS typu line-interactive pełnią funkcję regulatora napięcia. Regulacja ta jest wprawdzie dość ograniczona, ale umożliwia chronionemu urządzeniu otrzymywanie napięcie mieszczącego się w bezpiecznym zakresie, dzięki czemu może pracować stabilnie – tłumaczy Paweł Poziemski, Application Engineer w polskim oddziale Vertiva. Chociaż Vertiv posiada w swoim portfolio magazyny energii, trafiają one przede wszystkim do dużych ośrodków obliczeniowych, zaś małe firmy wykazują znikome zainteresowanie tymi produktami. Przedstawiciele dystrybutorów podzielają te obserwacje. Artur Pocięgiel zwraca uwagę, że adopcja magazynów w segmencie SOHO pozostaje ograniczona przede wszystkim ze względu na koszty, podczas gdy zasilacz UPS wciąż stanowi prostsze i bardziej opłacalne rozwiązanie, które chroni przed krótkotrwałymi przerwami w zasilaniu.

– Gospodarstwa domowe i małe firmy raczej nie zastępują UPS-em magazynu energii, a raczej rozważają te dwa rozwiązania jako uzupełniające się nawzajem – podkreśla Małgorzata Moskal, Infrastructure & Power Supply Category Manager w AB.

Tak czy inaczej, przyszłość nie należy do konkurencji między magazynami energii a zasilaczami awaryjnymi, lecz do ich inteligentnej synergii. Jednak wszystko wskazuje na to, że dla małych firm i użytkowników domowych tradycyjne zasilacze UPS jeszcze na długo pozostaną standardowym elementem infrastruktury zasilającej. n

Zdaniem specjalisty

Paweł Poziemski, Application Engineer, Vertiv

Wysoki koszt energii jak najbardziej powinien wpływać na decyzje dotyczące wyboru UPS-a. W szczególności warto zwracać uwagę na sprawność urządzeń o podwójnej konwersji, które z założenia generują pewne straty energii. Lepiej tracić 4 procent niż 7 procent w postaci ciepła, które następnie trzeba odprowadzić z pomieszczenia za pomocą klimatyzacji, co dodatkowo zwiększa koszty operacyjne. Warto również pamiętać, że UPS osiąga wysoką sprawność dopiero przy obciążeniu przekraczającym 20–30 procent mocy znamionowej. Dlatego tak istotne jest, aby dobrać jego moc adekwatnie do rzeczywistych potrzeb. Postawienie taniego

UPS-a o mocy 20 kVa tylko po to, aby zabezpieczyć pobór rzędu 4 kW i zostawić zapas na przyszłość, trudno nazwać optymalnym rozwiązaniem czy to z ekonomicznego, czy z technicznego punktu widzenia.

Na rynku UPS-ów nastąpiło znaczne ożywienie w porównaniu z ubiegłym rokiem. Dotyczy to właściwie wszystkich segmentów rynku, na których oferujemy nasze produkty. W efekcie jesteśmy już blisko poziomu z 2022 roku, który był dla nas rekordowy. Zauważamy też, że wśród klientów z segmentu SOHO następuje przesunięcie w stronę modeli o wyższej mocy. Nawet w zastosowaniach domowych coraz częściej wybierane są jednostki powyżej 1000 VA. Jeśli chodzi o kwestie techniczne, to zdarzają się przypadki, że użytkownicy wykorzystują inwertery w zestawach typu bank energii. Należy jednak pamiętać, że nie zapewniają one tak

skutecznej ochrony ani ciągłości zasilania jak UPS-y typu online. Dlatego w takich zastosowaniach rekomendujemy dobór zasilacza awaryjnego współpracującego z magazynami energii. Bartłomiej Kołodziej, Brand Manager, Impakt

Janetta Sałek, dyrektor marketingu, Ever

Wysokie ceny prądu skłaniają do optymalizacji strategii podtrzymania: zamiast „baterii na godzinę” częściej wybiera się krótszą autonomię plus procedury bezpiecznego zamknięcia lub współpracę z agregatem. Ponadto rośnie znaczenie żywotności akumulatorów oraz planu ich wymiany. W firmach istotne stają się monitoring energii i zdalne sterowanie: odcięcie odbiorów niekrytycznych, harmonogramy wyłączeń po godzinach, testy baterii czy alarmy. Dzieje się tak, ponieważ każda niepotrzebnie „przepalona” godzina ma wymierny koszt. Z kolei w domach częściej wygrywa line-interactive z AVR, a więc modele o niskim poborze jałowym,

zaś technikę online stosuje się tam, gdzie rzeczywiście jest potrzebna. W skrócie: droższa energia przesuwa akcent z „jaka maksymalna moc i ile minut” na „ile to zużyje i ile mnie to będzie kosztować w całym cyklu życia”.

W2025 roku popyt na UPS-y w segmencie SOHO utrzymuje się na stabilnym poziomie, z lekkim wzrostem względem 2024 roku. Wynika to z rosnącej liczby urządzeń wymagających ciągłego zasilania, od komputerów po sprzęt sieciowy. W Polsce dodatkowym czynnikiem jest niepewność związana z kosztami energii oraz okresowymi przerwami w dostawach prądu. W kanale dystrybucyjnym obserwujemy przesunięcie w stronę urządzeń o większej mocy i dłuższym czasie podtrzymania. Użytkownicy indywidualni zwracają uwagę na cenę urządzenia, kompaktowe rozmiary, prostotę obsługi oraz cichą pracę. Z kolei małe firmy koncentrują się na takich czynnikach jak niezawodność, możliwość rozbudowy, Artur Pocięgiel, Senior Sales Manager, TD Synnex

funkcje zarządzania i czas podtrzymania. Różnica polega głównie na skali – firmy częściej wybierają modele line-interactive lub on-line, podczas gdy użytkownicy domowi pozostają przy prostych rozwiązaniach off-line. Wysokie ceny energii skłaniają klientów do wyboru urządzeń energooszczędnych i z funkcją automatycznej regulacji napięcia (AVR). Coraz częściej pojawia się pytanie o całkowity koszt posiadania. Użytkownicy zwracają uwagę na sprawność urządzenia i żywotność baterii.

UPS-ów Polski rynek

Po kilkuletniej fali wzrostów, od ponad roku rynek zasilaczy bezprzerwowych zalicza spadki.

Polski rynek UPS-ów znajdował się na fali rosnącej aż do 2023 r. Osiągnął wtedy rekordową wartość – prawie 80 mln zł, co oznacza wzrost o około 75 proc. w porównaniu z rokiem 2019. W przeciwieństwie do innych kategorii produktowych w sektorze IT, motorem wzrostu był w tym przypadku nie okres lockdownów, ale agresja Rosji na Ukrainę. Wiadomości o atakach na infrastrukturę energetyczną uświadomiły przedsiębiorcom i urzędnikom konieczność posiadania awaryjnego zasilania na wypadek przerw w dostawie prądu. W ostatnich dwóch latach popyt jednak

rynku. O ile proste UPS-y (typu „offline”) stanowią już co najwyżej 5 proc. rynku (czyli dwa razy mniej niż w 2019 r.), to zaawansowane sprzęty (typu „online”) zwiększyły swój udział o 2/3 i odpowiadają obecnie za około 45 proc. sprzedaży. I choć największym segmentem wciąż pozostają zasilacze typu „line interactive”, to ich przewaga nad urządzeniami typu „online” jest minimalna.

Co ciekawe, najbardziej zaawansowane rozwiązania nie są kupowane tylko przez największe organizacje. Udział małych i średnich resellerów w segmencie zasilaczy online wynosi około 50 proc.! Biorąc pod uwagę wysokość średnich cen produktów z tego segmentu (ok. 2500 zł) jest to całkiem atrakcyjny kąsek, a średni oraz mali resellerzy wiedzą, jak się do niego dobrać.

wyłoni się grono wyspecjalizowanych w tym zakresie firm, które zdominują rynek. Zatem kto pierwszy, ten lepszy!

Panel Dystrybucyjny GfK/NIQ (GfK MI: Supply Chain) to badanie ciągłe, którego celem jest odzwierciedlenie obrazu rynku dystrybucji IT i Telco w Polsce. Wyniki oparte są na rzeczywistych danych sprzedażowych dostarczanych przez kilkudziesięciu dystrybutorów prowadzących działalność na polskim rynku. Dane dostępne są w cyklu tygodniowym zarówno dla kategorii konsumenckich, jak i B2B. Więcej informacji: maciej.piekarski@nielseniq.com.

maleje: o 5 proc. w roku 2024 oraz około 15 proc. w br.

Z tym, że zachodzące zmiany nie są jednakowe dla wszystkich segmentów

W kolejnych latach należy spodziewać się dalszego wzrostu popytu na zaawansowane zasilacze, co w średnim okresie powinno doprowadzić do tego, że rynek wróci na ścieżkę wzrostową (w ujęciu obrotowym). Oczekiwać należy również, że

Wartość i wielkość rynku UPS-ów w Polsce w latach 2019-2025

Maciej Piekarski pełni funkcję Commercial Director Tech&Durable (ex. GfK) w NIQ.

Usługi MSP: tak, ale z głową

Po wielu latach pracy na lokalnych i regionalnych stanowiskach menadżerskich w Cisco, Dellu, Microsofcie czy Ingram Micro, a także w startupach, w ubiegłym roku poszedłeś na swoje, otworzyłeś biuro w Zurychu i zająłeś się konsultingiem. W jakim zakresie wspierasz swoich klientów?

Jacek Murawski Po okresie pandemii na europejskim rynku zaczęła spadać liczba resellerów. To spowodowało zrozumiałe zaniepokojenie u wielu producentów i dystrybutorów. Dlatego pomagam im modyfikować programy partnerskie, żeby były bardziej atrakcyjne dla tych mniejszych resellerów i integratorów, którzy wcześniej z tymi dostawcami na stałe nie współpracowali. W ten sposób mogą poszerzyć bazę swoich klientów. Drugi obszar, którym się zajmuję, to automatyzacja procesów w kanale sprzedaży.

DYSTRYBUTORZY BĘDĄ PRZEJMOWAĆ FIRMY, KTÓRE MAJĄ KNOW-HOW W ZAKRESIE MSP.

Doświadczenie w tym zakresie zdobyłem jako prezes odpowiedzialny za rynek europejski w innowacyjnym startupie Odin, który z czasem został przejęty przez Ingram Micro – zresztą właśnie to Ingram jest nadal jednym z moich najważniejszych klientów. Zbudowaliśmy wówczas platformę do dystrybucji usług chmurowych. I wreszcie trzeci obszar mojego doradztwa obejmuje kwestie finansowe.

W Szwajcarii, gdzie mieszkam i prowadzę biznes, nie brakuje specjalizowanych fintechów. Pomagam im dostosować usługi finansowe do potrzeb ekosystemu naszej branży i do rozwoju kanałów partnerskich w kierunku wspomnianych już wcześniej mniejszych firm IT. Podsumowując, moje wcześniejsze i obecne doświadczenia świetnie wpisują się w pomysł Maćka Szcześniaka na „Akademię Business as a Service”. Stąd moje zaangażowanie w tę inicjatywę.

No właśnie, kiedy już ruszą zajęcia w ramach Akademii, jakimi doświadczeniami chcesz podzielić się ze słuchaczami?

Jestem w branży naprawdę długo. Zaczynałem w 1988 roku, w Soft-troniku, gdzie byłem szóstym z kolei pracownikiem berlińskiej centrali. I mogę z całą odpowiedzialnością powiedzieć, że oprócz pojawienia się internetu największą zmianą modelu biznesowego w naszej branży, w jakiej od tamtego czasu uczestniczyłem, było przejście Microsoftu od formuły transakcyjnej do recurring revenue, a więc przychodu powtarzalnego. Wiemy, jak bardzo dzięki temu Microsoft poszedł do przodu i jaką gigantyczną ma teraz wycenę. To moim zdaniem jeden z największych korporacyjnych sukcesów w historii amerykańskiego biznesu. Jako że pracowałem wówczas w Microsofcie, wiele się o tym modelu biznesowym nauczyłem i tymi doświadczeniami chętnie podzielę się ze słuchaczami Akademii. Oczywiście zdaję sobie sprawę, że lokalne, polskie firmy nie przeprowadzą transformacji do modelu usług zarządzanych tak szybko i kompleksowo jak potężny, dyktujący

„Doradzam, aby do modelu usług zarządzanych dostosować na początek jakiś jeden produkt czy usługę z całej oferty. Tak, żeby nie robić rewolucji, ale ewolucję” – mówi

Jacek Murawski, Managing Director w firmie konsultingowej Gramen,

Jacek Murawski, Managing Director w firmie konsultingowej Gramen, jeden z wykładowców na kierunku „Akademia Business as a Service” w Akademii Leona Koźmińskiego.

warunki rynkowe koncern, jakim był i jest Microsoft. Niemniej co do zasady, poznałem zarówno teoretyczną, jak i praktyczną stronę takiej transformacji.

W takich krajach jak USA, Wielka Brytania czy Niderlandy rynek MSP, a więc usług zarządzanych jest znacznie bardziej rozwinięty niż w krajach nordyckich, w Niemczech, a polski rynek pozostaje gdzieś w ogóle na szarym końcu. Generalnie w Polsce wiele rzeczy działa, moim zdaniem, znakomicie i profesjonalnie. Różnica zasadnicza pomiędzy nami a rynkami zachodnimi jest taka, że w Stanach Zjednoczonych czy Niemczech informatyka przoduje w tych największych firmach, w sektorze enterprise. I to właśnie niejako z góry te najnowsze działania i rozwiązania technologiczne spływają w dół, do coraz mniejszych podmiotów. W Polsce technologie rozwijały się bardzo demokratycznie, równolegle w przedsiębiorstwach dużych, jak też średnich, a nawet małych. Ma to związek chociażby z tym, że przez długie lata mieliśmy niższe koszty pracy i stąd też bardziej nonszalanckie podejście w zatrudnianiu programistów czy informatyków. Tymczasem na przykład w Szwajcarii koszty pracy są tak ogromne, że zanim ktoś zostanie zatrudniony, to najpierw bada się możliwość outsourcingu. Jeśli jakiś produkt czy usługa odpowiada na konkretne potrzeby danej firmy i można to kupić na zewnątrz, to tak właśnie się tutaj wtedy robi, a w Polsce odruchem jest raczej „zrób to sam”. A zatem szybki wzrost kosztów pracy, z jakim mieliśmy przez pewien czas do czynie-

nia w Polsce, stanowi szansę dla rozwoju usług zarządzanych.

Czy cyberbezpieczeństwo to „wytrych”, który może być jedną z najlepszych dróg rozwoju tego modelu na polskim rynku?

Z pewnością, a to dlatego, że nawet jeżeli ktoś do tej pory nie przykładał do tego dużej wagi, to teraz zmuszają go do tego kolejne nowe regulacje. Dotyczy to zwłaszcza kwestii odpowiedzialności zarządów za brak przygotowania skutecznej ochrony. Strach, jak wiadomo, jest często najlepszym motywatorem… Z punktu zaś widzenia integratorów, znaczenie ma fakt, że od pewnego czasu zdecydowana większość dostawców w obszarze cybersecurity działa w modelu recurring revenue. To zdecydowanie obniża koszt wejścia dla ich partnerów, którzy chcą rozpocząć świadczenie usług zarządzanych, nie muszą bowiem budować w tym celu własnej infrastruktury.

Czy potwierdzasz, że wycena przedsiębiorstw świadczących usługi zarządzane jest wyższa w porównaniu do tych działających w klasycznym, transakcyjnym modelu?

Nie mam co do tego wątpliwości. W czasach mojej pracy w Ingramie, który systematycznie przejmuje kolejne pasujące do jego portfolio firmy, brałem udział w wielu negocjacjach poświęconych tym właśnie kwestiom. Umiejętność właściwej wyceny to, jak wiadomo, duża sztuka, a jedna z podstawowych jej zasad zakłada, że wartość danej firmy nie może zależeć od obecności w niej jednej, dwóch czy trzech

kluczowych osób – czy to handlowców czy prezesów. O wysokiej wartości decydują natomiast w dużym stopniu długofalowe umowy z klientami. To daje nowemu właścicielowi pewniejszy zwrot z inwestycji i czas na zbudowanie zespołu, który swoją drogą może być nawet lepszy niż ten poprzedni.

A zatem model MSP umożliwia sprzedanie firmy za lepsze pieniądze, niż gdyby działała ona w modelu transakcyjnym?

Dla każdej firmy handlowej kluczowym wskaźnikiem jest churn (rotacja klientów – przyp. red.), to znaczy im dłuższe relacje z klientem, tym lepiej. To dobrze wpływa na profitowość, choć rzecz jasna zależy ona także od kosztów, co jest zresztą kolejnym godnym uwagi tematem. Tak czy inaczej, w przypadku modelu transakcyjnego możemy powiedzieć, że nigdy na początku kwartału nie wiemy, kto tak naprawdę ten kwartał nam uratuje. Natomiast w modelu usług zarządzanych dokładnie wiemy, ilu naszym klientom kończą się umowy. To dlatego, przykładowo, HPE kładzie tak duży nacisk na sprzedaż serwerów w ramach platformy GreenLake, zaś w przypadku Cisco już ponad 50 procent ich rozwiązań, głównie software’owych, sprzedawanych jest na zasadzie recurring revenue.

Generalnie doradzam, aby do modelu usług zarządzanych dostosować na początek jakiś jeden produkt czy usługę z całej oferty, na przykład właśnie cybersecurity albo enterprise networking, bo tam też klienci są bardziej gotowi na model MSP. Skupiałbym się na technologiach których producenci wspierają ten model. Tak, żeby nie robić rewolucji, ale ewolucję.

A czy i jaka może być rola dystrybutorów w stymulowaniu rozwoju sektora MSP na polskim rynku?

Jak wynika z danych Canalysa, spory odsetek Managed Services Providerów boryka się z niską lub zerową profitowością. To, jak się zdaje, wyjątkowo trudny model biznesowy pod tym właśnie kątem – jaka jest Twoja opinia w tym zakresie? I czy można temu w jakiś sposób zaradzić?

Zanim odniosę się bezpośrednio do pytania, pozwolę sobie na taką filozoficzną uwagę, że w biznesie transakcyjnym jest trudniej o współpracę pomiędzy uczestnikami kanału sprzedaży. W tym przypadku role są wyjątkowo dobrze zdefiniowane, czyli mamy producenta, dystrybutora i resellera. Jeśli dystrybutor chce coś sprzedać bezpośrednio do klienta końcowego, to od razu jest wielka afera. I nic dziwnego, bo gra toczy się o stosunkowo niskie marże i pojedyncze transakcje. Natomiast w przypadku modelu usług zarządzanych, w którym dystrybutor świadczy takie usługi w imieniu partnera, na zasadzie white label, zdejmując z niego koszty infrastruktury, podejście resellerów powinno być inne. Chcę powiedzieć, że ten model biznesowy wymaga pewnej zmiany mentalnej i takiego podejścia, że jak wpuszczę dystrybutora, a właściwie jego dział usługowy, do mojego klienta, to wcale nie znaczy, że zaraz go stracę na rzecz tego dystrybutora. Wydaje się też, że dystrybutorzy poszukują akwizycji w obszarze MSP, czego przykładem może być przejęcie parę lat temu holenderskiej firmy ICTivity przez Ingram Micro.

Ten dylemat zawsze będzie takim firmom towarzyszył, zwłaszcza na początku działalności. Na pewno pomoże w tym, a właściwie jest niezbędna, standaryzacja usług, co jednak oznacza, że część klientów nie będzie z nich zadowolona, bo nie będą pasowały do ich specyficznych potrzeb. W tradycyjnym biznesie mamy pod tym względem zwykle większą elastyczność. Z kolei w przypadku standardowej umowy na okres trzech lat to niełatwe. Jednocześnie pojawiły się wyjątkowe możliwości automatyzacji i cięcia kosztów dzięki możliwościom AI. Tak dzieje się właśnie w sektorze cybersecurity, gdzie w ten sposób wychwytuje się wiele incydentów, które wymagały wcześniej bardzo dużo pracy ze strony inżynierów. Rozmawiał Tomasz Gołębiowski

Kwestia zaufania wysuwa się wówczas na plan pierwszy… Zdecydowanie tak. Najważniejsze jest w tym przypadku zaufanie. A jeśli chodzi o kwestie czysto ekonomiczne, to właśnie u dystrybutorów można scentralizować te najdroższe elementy infrastruktury niezbędnej do świadczenia usług zarządzanych. W przypadku producentów jest to też możliwe, ale tylko tych największych stać na lokalne działania w tym zakresie. Pozostali nie mają w Polsce takiego potencjału. Wydaje się zatem, że istotna rola dystrybucji może być absolutnie nie do przecenienia.

Nowy Jork

nowym hubem technologicznym

Nowy Jork ma opinię stolicy globalnych finansów, podczas gdy nowe technologie kojarzone są z San Francisco

i Doliną Krzemową. Tymczasem „Big Apple” staje się właśnie wielkim hubem technologicznym, na co niepośledni wpływ ma bliskość sektora finansowego i medialnego.

RLUDZIE BĘDĄ UŻYWAĆ DARMOWEGO ROZWIĄZANIA, DOPÓKI NIE STRACĄ DANYCH.

obię biznes w Nowym Jorku, bo nie lubię San Francisco – otwarcie przyznaje Ethan Ding, CEO i współzałożyciel startupu TextQL. Nie jest w tej opinii osamotniony. W 2024 r. do regionu metropolitalnego Nowego Jorku napłynęło 28,5 miliarda dol. pochodzących od funduszy venture capital, co stanowiło 13,3 proc. wszystkich tego typu inwestycji w całych Stanach Zjednoczonych. Obecnie rodzinne miasto Donalda Trumpa to drugi największy rynek VC w kraju po Dolinie Krzemowej. Wspomniany Ethan Ding w 2022 r. wystartował z projektem TextQL, który polega na uczeniu sztucznej inteligencji czytania tabel. Przy czym nie chodzi tutaj o proste zestawienia w Excelu, lecz rozbudowane bazy danych używane przez wielkie korporacje. To oznacza pracę ze zbiorami przekraczającymi 10 GB danych. – Kluczowym problemem w świecie Big Data jest „uwięzienie dostawcy”. Migracja logiki biznesowej i danych między systemami wiąże się z ogromnymi kosztami i nakładem pracy. Takie projekty często wymagają wieloletnich kontraktów z firmami konsultingowymi, a ich wartość sięga 50‑100 milionów dolarów. Każda platforma w ykorzystuje własny język zapytań, format tabel oraz sposób przechowywania danych, co uniemożliwia proste przeniesienie rozwiązań między systemami – mówi Ethan Ding. Współzałożyciel TextQL porównuje to do sytuacji, w której zmiana zbyt ciasnego mieszkania z głośnymi sąsiadami byłaby niemożliwa, gdyby każda firma zajmująca się przeprowadzkami wycenia-

ła swoją usługę na 50 milionów dolarów. Wówczas właściciel lokalu, znający koszty przeprowadzki, uśmiechałby się przy każdej rozmowie o podwyżce czynszu, bo gdzie miałby udać się złapany w sidła lokator? Wspomniany amerykański startup zamierza rozbić zmowę „firm przeprowadzkowych”, wprowadzając rozwiązanie pozwalające na konwersję jednego języka zapytań na inne, upraszczając proces integracji.

TextQL uważa, że największym przełomem jest możliwość zadawania pytań posługując się językiem naturalnym i  korzystając ze zbiorów zawierających petabajty danych, uzyskując przy tym natychmiastowe wyniki, wizualizacje itp. W przeciwieństwie do rozwiązań pierwszej generacji, które działają jak wyszukiwarka dokumentów, narzędzie TextQL odpowiada na trzy kluczowe wyzwania klientów korporacyjnych: skalę (miliony rekordów), złożoność (dziesiątki powiązanych systemów) oraz semantyczne mapowanie w czasie rzeczywistym (produkt rozpoznaje, że „klient”, „customer” i „kontrahent” w różnych bazach to ten sam obiekt).

Platforma TextQL może znaleźć zastosowanie w wielu sektorach. W branży finansowej wspiera optymalizację kosztów, analizę ryzyka i śledzenie transakcji. W handlu umożliwia podejmowanie decyzji opartych na danych w nanosekundach. W opiece zdrowotnej system zapewnia natychmiastowy dostęp do rozproszonych danych pacjentów z wielu systemów (szpitali, laboratoriów i aptek) przy jednoczesnym zachowaniu zgodności z HIPAA, co jest możliwe dzięki wdrożeniu w środowisku lokalnym, gwarantującym pełną kontrolę nad wrażliwymi danymi medycznymi. Ethan Ding ma też wiadomość dla dyrektorów działów IT z listy Fortune 500: „Wpuśćcie nas do gry, postawcie nas obok

swojego oprogramowania i przeprowadźcie rzeczywiste porównanie jeden do jednego. A jeśli przegramy, to kupię wam wszystkie restauracje z gwiazdkami Michelin na świecie” – prowokuje Ethan Ding.

Shade: konsolidacja dla kreatywnych Zarządzanie danymi, zwłaszcza w kontekście multimediów, stanowi obecnie znaczące wyzwanie dla branży mediów i rozrywki. Zespoły kreatywne często polegają na mozaice narzędzi: pobieraniu plików przez WeTransfer, edycji w LucidLink, recenzowaniu materiałów na frame.io, a na koniec archiwizacji w lokalnym systemie NAS. Ten rozproszony ekosystem prowadzi do fragmentacji danych, utrudnia przepływ pracy i generuje wysokie koszty licencji.

W odpowiedzi na związane z tym frustracje Shade – startup założony w 2023 r. – wprowadza kompleksowe oprogramo-

Wojciech Urbanek, Nowy Jork

wanie, które łączy wszystkie te funkcje. Co istotne, założyciele Shade wywodzą się ze środowisk kreatywnych. Otóż jeden z nich był reżyserem filmowym, a drugi robotykiem. Ich wspólne doświadczenia związane z chaosem dysków i rozproszonymi systemami skłoniły ich do stworzenia jednolitej platformy.

– Naszą wizją było odejście od myślenia o przechowywaniu danych jako o statycznej szafie. Chcieliśmy stworzyć system, który aktywnie pracuje na rzecz użytkownika, niczym taki CRM dla plików – mówi Brandon Fan, CEO i współzałożyciel Shade. Początkowo platforma była projektowana z myślą o plikach wideo, ale jest otwarta na inne typy dokumentów (PDF, obrazy, InDesign). Wyróżnia ją zaawansowana integracja technologii AI, w tym automatyczne generowanie metadanych, transkrypcja tekstu i rozpoznawanie twarzy, realizowane za pomocą zastrzeżonych lub otwartych modeli sztucznej inteligencji.

– Wystarczy kilka p odpowiedzi, aby s ztuczna i nteligencja p rzeanalizowała i  sklasyfikowała tysiące zasob ów: identyfikuje rodzaje ujęć, rozpoznaje lo go lub twarze ludzi i  sprawia, że każdy plik można o dnaleźć w  mgnieniu oka –  wyjaśnia Brandon Fan.

Kluczową funkcją Shade jest koncepcja „pojedynczego źródła prawdy”. Użytkownicy przesyłają treści tylko raz, a następnie są one dostępne w trybie strumieniowym. Platforma umożliwia bezpieczne udostępnianie za pomocą linków oraz precyzyjne zarządzanie uprawnieniami. Narzędzie oferuje także funkcje komentowania, adnotacji i współpracy w ramach wspólnych prze-

pływów pracy, a więc możliwości, które zazwyczaj są rozproszone między kilka konkurencyjnych rozwiązań.

Shade pozycjonuje się jako nowoczesna alternatywa dla serwisów takich jak Dropbox czy Google Drive. Zdaniem szefa nowojorskiego startupu, oba te rozwiązania nie ewoluowały od lat i tym samym nie dostosowują się do standardów wideo 4K czy potencjału AI. Przy czym ujednolicone środowisko eliminuje koszty i złożoność związaną z utrzymaniem drogich protokołów transferowych (jak chociażby Aspera). Specjaliści Shade deklarują, że stworzone przez nich rozwiązanie jest około 30 proc. tańsze niż utrzymywanie rozproszonego stosu technologii. Cena usługi zależy od liczby użytkowników oraz przestrzeni roboczych. Firma pozyskała już 94 klientów (ponad 10 tysięcy utworzonych przestrzeni roboczych).

AuriStor: drugie życie Andrew File System

W erze chmur publicznych i powszechnego wykorzystania kontenerów, mało kto spodziewa się przełomowych zmian ze strony systemu plików bazującego na technologii z lat 80. Jednak inżynierowie AuriStor z Nowego Yorku stworzyli komercyjną wersję rozproszonego systemu plików Andrew File System (AFS), pokazując w ten sposób, że odpowiednio zaprojektowana architektura może ewoluować wraz z potrzebami współczesnych przedsiębiorstw.

System AuriStorFS działa natywnie na wszystkich głównych platformach – od Windows i macOS, przez Linux i Solaris, aż po AIX i inne systemy Unix. Co istotne, obsługuje również urządzenia mo-

KLUCZOWYM PROBLEMEM

W ŚWIECIE BIG DATA JEST „UWIĘZIENIE DOSTAWCY”.

bilne z iOS-em, co czyni go sensownym wyborem dla organizacji stawiających na mobilność. AuriStorFS integruje się bezpośrednio z systemem operacyjnym i współpracuje ze wszystkimi aplikacjami, eliminując potrzebę ich modyfikacji. Nowojorczycy przyjęli specyficzne podejście do polityki cenowej. Podczas gdy dostawcy pamięci masowych zazwyczaj pobierają opłaty za każdy terabajt, gigabajt transferu czy operacje IOPS, AuriStor idzie pod prąd. Podstawowa roczna licencja kosztuje 21 tys. dol. za jedną komórkę (cell), którą firma definiuje jako samodzielną jednostkę administracyjną i techniczną w ramach większej, sfederowanej sieci plików.

– Dajemy pier wsze 100 eksabajtów za darmo –  uśmiecha się Jeffrey Altman, CEO AuriStor, podkreślając skalę rozwiązania i odejście od tradycyjnego, pojemnościowego modelu opłat.

Oczywiście, nie każdy klient AuriStor płaci 21 tys. dol. – cena licencji zależy od złożoności infrastruktury. Przedsiębiorstwa z wieloma centrami danych, korzystające z usług chmurowych różnych dostawców, wymagają bardziej zaawansowanej konfiguracji. Dla przykładu, jeden z największych klientów AuriStor – globalna instytucja finansowa – posiada około 80 komórek i 300 serwerów, obsługujących ponad 175 tys. klientów oraz 1,5 mln woluminów.

W segmencie systemów do zarządzania rozproszonymi systemami plików panuje silna konkurencja. Z jednej strony trzeba rywalizować z gigantami takimi jak Dell czy NetApp, zaś z drugiej, z młodszą falą dostawców (m.in. CTERA, Nasuni, Qumulo, Panzura). Jednak Jeffrey Altman przyznaje, że za największą konkurencję uważa systemy open source.

– Ludzie będą używać darmowego rozwiązania bez względu na związany z tym ból, dopóki nie stracą danych. Wtedy przychodzą do nas i pytają: dlaczego tak długo cierpieliśmy? – mówi CEO AuriStor.

To pewnego rodzaju paradoks systemów typu open source, które są używane w środowisku korporacyjnym. Darmowe rozwiązanie jest dobre, dopóki nie jest potrzebne wsparcie o trzeciej w nocy, w sytuacji gdy stanęły wszystkie systemy. Wówczas okazuje się, że 21 tys. dol. rocznie to niewiele w porównaniu z kosztami przestoju.

Nowy wymiar zakupów

„Kładziemy silny nacisk na adaptacyjność AI. Wykorzystywany przez nas model cały czas uczy się preferencji użytkownika, tworząc plany posiłków dostosowane do jego wymagań kulinarnych i diety” – mówi Arkadiusz Zaręba, Platform and Product Director we Frisco.

Skąd wziął się pomysł na stworzenie Friscoacha, asystenta zakupowego dla klientów waszego sklepu internetowego?

Arkadiusz Zaręba Chcieliśmy stworzyć narzędzie, które zapewni naszym klientom konkretną, wymierną korzyść. Zdawaliśmy sobie sprawę, że pierwsza faza zachłyśnięcia się sztuczną inteligencją już minęła i pora na przemyślane wdrożenia. Postawiliśmy więc na Friscoacha: asystenta kulinarnego, który przyspiesza i ułatwia robienie zakupów.

Jak działa to rozwiązanie? Odpowiada na codzienne pytania związane z zakupami: co mam dzisiaj ugotować? Co mogę przygotować ze składników, które mam w lodówce? A co jeszcze powinienem dokupić? Friscoach proponuje posiłki z uwzględnieniem

Jakie są wymierne efekty tych działań?

Klienci oszczędzają bardzo dużo czasu. Nasze dane pokazują, że wcześniej spędzali średnio 40 minut na budowaniu listy zakupów produkt po produkcie. W tej chwili, dzięki Friscoachowi, mogą skompletować koszyk nawet w 5–7 minut. Do tego dostają świetne przepisy dla całej rodziny.

A co jest podstawą do tworzenia takich zindywidualizowanych ofert?

Wykorzystujemy adaptacyjność AI. Model cały czas uczy się preferencji użytkownika, tworząc plany posiłków dostosowane do jego wymagań kulinarnych, diety i budżetu. Jednocześnie sprawdza na bieżąco dostępność składników, w tym produktów sezonowych. W ten sposób umożliwia sprawne planowanie: zarówno zakupów spożywczych, jak i całego zestawu posiłków według zadanych kryteriów i preferencji.

Tak, od początku angażowaliśmy ekspertów. Zaczęliśmy od współpracy z cenionym twórcą kulinarnym, który specjalnie dla nas opracował przepisy oparte na produktach dostępnych we Frisco. Następnie rozszerzyliśmy projekt o partnerstwo z platformami dietetycznymi i wzbogaciliśmy system o przepisy tworzone przez specjalistów ds. żywienia. Model sztucznej inteligencji może proponować posiłki z tej bazy, ale przede wszystkim samodzielnie komponuje przepisy dostosowane do preferencji użytkownika i wskazanych kryteriów.

Działanie Friscoacha bazuje na modelu językowym. Czy wykorzystywane są też inne techniki sztucznej inteligencji?

Korzystamy głównie z generatywnej sztucznej inteligencji. Model językowy symuluje rozmowę z doradcą kulinarnym. Żeby to dobrze działało, na starcie zbieramy dużą dawkę informacji o kliencie. Prosimy go o wypełnienie ankiety profilującej, żebyśmy wiedzieli, czy ma na przykład jakieś alergie pokarmowe, jakich produktów nie lubi, czy ma oczekiwania odnośnie do konkretnego rodzaju diety etc. System dopasowuje proponowane posiłki do tych preferencji.

Z których modeli językowych korzystacie?

preferencji żywieniowych czy diety, dla każdego członka rodziny. Potem pozwala jednym kliknięciem dodać wszystkie niezbędne składniki do koszyka w aplikacji mobilnej Frisco.

Można powiedzieć, że to idzie w stronę zmiany całego modelu robienia zakupów. Zamiast brać przysłowiową kartkę i zapisywać po kolei: mąka, cukier, masło etc., konsument zastanawia się, na co ma ochotę, następnie mówi to czatowi, a ten wskazuje mu, co ma kupić i co potem z tym zrobić. Czy tak? Dokładnie tak. System w praktyce przejmuje cały proces planowania i tworzenia listy zakupów. Po stronie klienta zostaje to, co najprzyjemniejsze – wybór, na co ma ochotę i czego w danym momencie potrzebuje. Może więc zapytać: „mam trening, co zjeść, żeby mieć siłę i energię?”, albo: „zaprosiłem znajomych na kolację, co mogę szybko przygotować”? Resztą zajmuje się system, podpowiadając konkretne produkty i sposoby ich wykorzystania.

Czy przy tworzeniu tego programu korzystaliście z pomocy szefów kuchni i dietetyków?

Podstawę stanowi model od Open AI. Są też modele dodatkowe, które pozwalają wyszukiwać produkty w sklepie po makroskładnikach czy udzielać informacji na temat naszych usług. W jaki sposób można uzyskać bony rabatowe? Jak wygląda proces dostawy zamówionych produktów? Friscoach wie, jak odpowiedzieć na te pytania. Potrafi też znaleźć zamienniki produktów według zadanych kryteriów i zaproponować najbardziej korzystne dla danego klienta składniki w aktualnej ofercie Frisco. Oczywiście, klient może też w każdej chwili sam zamienić proponowane produkty na inne, które bardziej mu odpowiadają.

Jak sobie radzicie z problemem tak zwanej halucynacji modelu językowego?

System zapamiętuje wszystkie preferencje użytkownika, a jednocześnie rozpoznaje każdy nowy wątek konwersacji. Dzięki temu udało nam się zminimalizować ryzyko halucynacji modelu i osiągnąć wysoką spójność oraz trafność odpowiedzi. Pracowaliśmy dosyć długo nad tym, żeby konwersacja nie „odpły-

wała” w różnych kierunkach. Nie chcieliśmy, żeby klienci zaczęli wykorzystywać naszego doradcę kulinarnego do rozmów na dowolny temat. Zależało nam przede wszystkim, żeby system był skupiony na tym, co jest sednem naszego biznesu. I udało nam się dostosować powszechnie dostępne modele do tego, czego potrzebujemy. Teraz pracujemy nad kolejnymi rozwiązaniami, które pozwolą nam jeszcze lepiej wykorzystywać te narzędzia.

W jaki sposób trenowaliście model, żeby zabezpieczyć go przed podatnościami na zapytania wykraczające poza wskazaną tematykę?

DLA MNIE GŁÓWNYM

WYZWANIEM BYŁ BRAK

ZAUFANIA DO TEGO, CO

MOŻE ZAPROPONOWAĆ

SZTUCZNA INTELIGENCJA.

Próbowaliśmy w warunkach kontrolowanych, poprzez użycie niewłaściwych promptów, nakłonić system do działań nie do końca zgodnych z naszymi oczekiwaniami. Na bazie wyników tych wieloetapowych prób zabezpieczaliśmy krok po kroku model przed wszystkimi możliwymi przypadkami niewłaściwego zachowania. Nałożyliśmy na niego ograniczenia, by w trakcie konwersacji nie wybiegał poza aspekty kulinarne i pozostawał w podstawowym zakresie działalności Frisco. Nie można rozmawiać z nim na inne, dowolne tematy. Gdy ktoś próbuje, Friscoach wraca z tematem rozmowy do wątków kulinarnych. Tak, żeby nie urazić użytkownika, ale też jednocześnie dać jasno do zrozumienia, że należy poruszać się stricte w przypisanych mu obszarach.

Czyli gdybym zapytał: „Chciałbym zjeść zupę pomidorową. Powiedz mi, jak mam wyhodować super pomidory w swoim ogrodzie”, to czy otrzymam odpowiedź na to pytanie?

Teoretycznie model nie powinien jej udzielić. Zastosowaliśmy reguły, zgodnie z którymi na pytanie spoza zakresu Friscoach odpowiada bardzo ogólnikowo i później wraca do głównego wątku. W praktyce cały czas sprawdzamy, jak sobie radzi z konkretnymi zapytaniami. Na bieżąco monitorujemy stabilność i wydajność naszego rozwiązania, korzystając przy tym z opinii i uwag klientów.

Z jakimi wyzwaniami ze strony ludzi – pracowników, klientów – musieliście sobie radzić przy realizacji Friscoacha?

Dla mnie głównym wyzwaniem był brak zaufania do tego, co może zaproponować

sztuczna inteligencja. Ludzie nie wierzyli, że model będzie potrafił przygotować rekomendacje posiłków, które będzie można zjeść ze smakiem. Postanowiliśmy przełamać te obawy w najprostszy możliwy sposób – testując narzędzie na sobie. Każdy z uczestników projektu poprosił Friscoacha o rekomendację posiłków dla siebie. Pokazaliśmy, że można je ugotować z produktów dostępnych w naszym sklepie i zjeść. Po tym działaniu poziom sceptycyzmu znacząco się zmniejszył. Ludzie zobaczyli też, że model można dostrajać, poprawiać – nawet jeżeli pierwotnie proponował produkt, który wydawał się niewłaściwy, to po dotrenowaniu, przy tym samym zapytaniu rekomendował już dużo lepsze rozwiązania.

W jakich kierunkach będziecie rozwijać wykorzystanie sztucznej inteligencji?

W najbliższym czasie czeka nas integracja Friscoacha z systemami naszych partnerów biznesowych. Równolegle pracujemy nad rozwiązaniami, które usprawnią kontakt klientów z naszą firmą i ułatwią im korzystanie z naszych usług.

AI może tutaj znacząco pomóc, automatyzując i przyspieszając określone czynności. Trzecim kierunkiem, nad którym już pracujemy, jest personalizacja całego doświadczenia użytkownika w naszej aplikacji zakupowej.

Rozmawiał Andrzej Gontarz

Eksperci AI:

kogo naprawdę warto śledzić?

Chciałbym podzielić się zestawem 15 cech, które według moich doświadczeń najlepiej opisują tych ekspertów AI, których rzeczywiście cenię.

Codziennie jesteśmy zalewani kolejnymi informacjami, newsami, opiniami i prognozami dotyczącymi AI, a ilość tych treści rośnie w tempie wręcz wykładniczym. Niestety, bardzo często w tym szumie informacyjnym trudno oddzielić wartościowe źródła od treści o wątpliwej jakości, bazujących na modzie lub niepełnym zrozumieniu tematu.

Zamiast wskazywać konkretne nazwiska osób, które warto śledzić – co szybko mogłoby się zdezaktualizować lub nie odpowiadać każdemu kontekstowi – postanowiłem pójść inną drogą. Chciałbym podzielić się zestawem 15 cech, które według moich doświadczeń najlepiej opisują tych ekspertów AI, których rzeczywiście cenię. Mam nadzieję, że to będzie dla Was taka bardziej uniwersalna i praktyczna wędka, która pozwoli na samodzielne rozpoznanie, kogo naprawdę warto obserwować w dynamicznie zmieniającym się świecie…

Cechy prawdziwych ekspertów AI n Nie upraszczają sztucznie tematyki AI – otwarcie mówią, że rozwój kompetencji w dziedzinie sztucznej inteligencji wymaga wysiłku, czasu oraz solidnego przygotowania merytorycznego. Unikają twierdzenia, że każdy może stać się specja-

Zagłuszyć „hałas”

Jak widać, lista cech prawdziwych ekspertów AI nie jest krótka. Wymagań jest całkiem sporo, a „sito” selekcji naprawdę mocne. Jednak właśnie dzięki takiej uważnej selekcji można wyłowić kilka naprawdę wartościowych osób, które warto obserwować i od których można się uczyć. To podejście pozwala też uniknąć bycia nie-

listą w krótkim czasie. Wiedzą, że sztuczna inteligencja nie jest „magiczną czarną skrzynką”, którą wystarczy podłączyć do systemu, by natychmiast osiągnąć spektakularne rezultaty. Wymaga to zrozumienia, jak działają algorytmy, jakie dane są potrzebne, jakie są ograniczenia modeli i jakie ryzyka wiążą się z ich wdrażaniem. Unikają tworzenia złudzeń, że wystarczy „kliknąć kilka razy” w nowe narzędzie lub przejść szybki kurs (który właśnie próbują Tobie wcisnąć!), aby stać się pełnoprawnym specjalistą. Jasno komunikują, że skuteczne wykorzystanie AI w projektach analitycznych to efekt świadomego budowania kompetencji w wielu obszarach: od podstaw machine learningu, przez umiejętność analizy danych, specyfikowania przypadków użycia, aż po rozumienie spe-

ustannie zalewanym potokiem powierzchownych rewelacji, sensacyjnych newsów i  chwilowych mód, które często więcej wprowadzają szumu niż realnej wartości. A to obecnie ogromny atut, zwłaszcza dla analityków biznesowych i systemowych, którzy muszą codziennie oddzielać wartościowe informacje od „hałasu”.

cyfiki procesów biznesowych i technicznych ograniczeń organizacji.

n Są odporni na hype i trendy – świadomie zachowują dystans w ocenie nowych technologii i rozwiązań. Znają dobrze cykl Gartnera i nie podążają bezkrytycznie za chwilową modą, ani jej sami nie kreują. Rozumieją, że każda technologia – niezależnie od początkowego entuzjazmu – przechodzi naturalny cykl dojrzewania.

n Nie publikują banalnych treści w social mediach – unikają powierzchownych treści, takich jak proste generowanie grafik w nowych stylach, które są popularne, lecz nie wnoszą żadnej wartości poznawczej lub edukacyjnej. W przeciwieństwie do wielu obecnych trendów, nie czują potrzeby, by nieustannie dzielić się efektami przypadkowego „wypromptowania” chwytliwej treści, tylko dlatego, że jest to akurat popularne. Zamiast tego skupiają się na rzeczywistej użyteczności rozwiązań i ich wpływie na procesy biznesowe.

n Tworzą merytoryczne publikacje oparte na wiedzy naukowej i technicznej - ich treści wymagają wysiłku intelektualnego, refleksji oraz sięgania do dokumentacji, specjalistycznych źródeł, badań i publikacji

naukowych. Promują głębokie zrozumienie zagadnień AI, a nie jedynie powierzchowną znajomość trendów.

n Posiadają realne doświadczenie projektowe i wdrożeniowe – mają za sobą praktyczne projekty, podczas których aktywnie uczestniczyli w projektowaniu, implementacji oraz wdrażaniu systemów wykorzystujących elementy sztucznej inteligencji, dzięki czemu rozumieją specyfikę oraz złożoność realnych zastosowań AI. Dla analityków to sygnał, że rozmowa z takim ekspertem nie będzie opierała się wyłącznie na koncepcjach, ale na doświadczeniu wynikającym z rzeczywistych wyzwań: integracji AI z istniejącymi systemami, pracy na nieidealnych danych czy radzenia sobie z ograniczeniami organizacyjnymi i prawnymi. To bardzo cenna wiedza przy planowaniu własnych inicjatyw AI.

n Rzetelnie przedstawiają wady i ograniczenia narzędzi AI – potrafią jasno wskazać słabe strony, ryzyka oraz ograniczenia poszczególnych technologii AI, przez co prezentują realistyczny, zbalansowany obraz ich możliwości oraz potencjalnych wyzwań. Nie ukrywają trudnych tematów jak jakość danych, ryzyko błędów modeli czy ograniczenia prawne. Uczą świadomego zarzą-

dzania ryzykiem, zamiast budować złudne oczekiwania.

n Czerpią wiedzę z fachowej literatury i publikacji naukowych, a nie z popularnych newsów - w swojej edukacji opierają się na źródłach profesjonalnych, takich jak dokumentacje techniczne, prace naukowe i specjalistyczne publikacje, co zapewnia im głębokie i precyzyjne zrozumienie omawianych zagadnień. To ważne, bo wiedza oparta na badaniach i dokumentacji daje solidniejsze podstawy do budowy wymagań, projektowania procesów i definiowania przypadków użycia AI.

n Nie przeskakują ciągle z jednego narzędzia na drugie – wolą dokładnie poznać i zrozumieć kilka wybranych technologii, zamiast co chwilę zmieniać narzędzia i powierzchownie posługiwać się kolejnymi popularnymi nazwami. Dzięki temu są bardziej kompetentni i efektywni w realnych projektach. To pomaga w budowaniu trwałych, dobrze osadzonych w architekturze firmy rozwiązań, które nie będą wymagały kosztownych reimplementacji przy każdej nowej modzie na rynku.

n Nie bywają na każdej konferencji o AI – rzadko spotkasz ich na wszystkich branżowych wydarzeniach, ponieważ większość czasu poświęcają na praktyczną pracę, rozwój rozwiązań, konsultacje i rzeczywiste wdrożenia, zamiast nieustannie uczestniczyć w wydarzeniach medialnych.

n Szukają realnej wartości biznesowej, nie efektu „wow” - narzędzia AI nie są dla nich celem samym w sobie. Skupiają się na identyfikowaniu wartościowych przypadków użycia, w których sztuczna inteligencja może przynieść mierzalne korzyści dla organizacji. Zwracają uwagę na opłacalność rozwiązań, koszty wdrożenia, utrzymania oraz aspekty bezpieczeństwa i odpowiedzialności technologicznej. Patrzą całościowo: analizują nie tylko koszt początkowy, ale też koszty utrzymania, potrzebne zasoby oraz możliwość skalowania rozwiązania w przyszłości. Taki sposób myślenia umożliwia budowę trwałych, efektywnych systemów, które rosną wraz z organizacją, a nie kończą się kosztownymi przebudowami po pierwszym wzroście zapotrzebowania.

n Są świadomi konieczności ludzkiego nadzoru i odpowiedzialności - rozumieją, że mimo dynamicznego rozwoju technologii, nadal nie jesteśmy na etapie,

w którym można całkowicie zrezygnować z obecności człowieka w procesach decyzyjnych. Wiedzą, że odpowiedzialność za skutki działania systemów AI nie może zostać przeniesiona na algorytmy i musi pozostać w rękach ludzi.

n Dysponują solidnymi podstawami do pracy z AI - posiadają wiedzę z zakresu uczenia maszynowego, analizy biznesowej i systemowej, umiejętność analizy danych i wyciągania wniosków, co pozwala im rozumieć działanie narzędzi AI nie tylko od strony użytkownika, ale też od strony mechanizmów i logiki stojącej za ich funkcjonowaniem.

n Z ostrożnością podchodzą do sensacyjnych prognoz – nie ulegają buńczucznym narracjom o „końcu wielu zawodów” czy nieuchronnej rewolucji, która z dnia na dzień wywróci rynek pracy. Podchodzą do takich zapowiedzi z krytycznym dystansem, opierając się na danych, analizach i rzeczywistym tempie adopcji technologii w organizacjach.

n Stosują architektoniczne podejście do projektowania rozwiązań AI – patrzą na wdrożenia przez pryzmat całościowej

SZTUCZNA INTELIGENCJA NIE JEST „MAGICZNĄ CZARNĄ

SKRZYNKĄ”.

strategii organizacji, jej modelu działania, dostępnych zasobów, ograniczeń instytucjonalnych i technologicznych oraz otoczenia, w jakim funkcjonuje. Ich podejście nie ogranicza się do implementacji jednego narzędzia, lecz obejmuje całościowy kontekst organizacyjny i dbałość o spójność z istniejącym ekosystemem firmy.

n Stawiają jasne cele i kryteria oceny wdrażanych rozwiązań AI – definiują konkretne wymagania i oczekiwania wobec projektów AI, a następnie potrafią ocenić, czy dane rozwiązanie faktycznie je spełnia. Uwzględniają przy tym eksploracyjny charakter projektowania systemów AI, zachowując równowagę między eksperymentowaniem a odpowiedzialnym zarządzaniem postępem.

Paweł Cyzman jest starszym analitykiem biznesowym w firmie Kruk.

Data Act:

rewolucja dla umów SaaS

Do 12 stycznia 2027 r. dostawcy chmurowi mogą nakładać na klientów obniżone opłaty z tytułu zmiany dostawcy, a po tej dacie wszelkie takie opłaty będą zabronione.

Akt w sprawie danych („Data Act”) to unijne rozporządzenie, które obowiązuje od 12 września 2025 r. Wprowadza ono nowe zasady dostępu do danych pochodzących z produktów skomunikowanych (urządzeń IoT) i powiązanych z nimi usług cyfrowych. Jednym z głównych założeń tej regulacji jest ułatwienie klientom (w tym zarówno osobom fizycznym, jak i prawnym) zmiany

NOWE REGULACJE DOTYCZĄ WSZYSTKICH UMÓW, TAKŻE TYCH SPRZED 12 WRZEŚNIA BR.

dostawcy usług chmurowych. Nowe przepisy mają w praktyce bardzo duży wpływ na dostawców usług chmurowych, a dostosowanie się do nowych wymogów prawnych wpływa istotnie na ich modele biznesowe. Efekt jest taki, że regulacja ta rodzi wiele pytań wśród podmiotów z branży IT, które są zaskoczone jej wpływem na ich modele biznesowe. Warto zatem podjąć próbę dokładnego omówienia wpływu Data Act na usługi SaaS oraz nakreślenia rekomendacji co do działań

Plan działania

zmierzających do dostosowania się do nowych przepisów.

Zacznijmy od tego, że Data Act dotyczy usług chmurowych, nie definiując jednak samej chmury. Usługi chmurowe objęte są regulacjami dla „usług przetwarzania danych”, które zdefiniowano jako usługi cyfrowe świadczone klientowi, które umożliwiają wszechobecny sieciowy dostęp na żądanie do wspólnego zbioru konfigurowalnych, skalowalnych i elastycznych zasobów obliczeniowych o charakterze scentralizowanym, rozproszonym lub wysoce rozproszonym, które mogą być szybko przydzielone i uwolnione przy minimalnym wysiłku pod względem zarządzania lub interakcji z dostawcą usług. Mówiąc prościej, Data Act obejmuje różnorodne usługi chmurowe, w tym usługi należące do jednego z trzech popularnych modeli świadczenia usług chmurowych: infrastruktura jako usługa (IaaS), platforma jako usługa (PaaS) i oprogramowanie jako usługa (SaaS), a także usługi edge computing.

Prawo do zmiany dostawcy?

Jedną ze znaczących zmian na gruncie Data Act są przepisy nakładające obowiązek

Nowe zasady dotyczące zmiany dostawcy i interoperacyjności mają istotny wpływ na modele biznesowe i politykę cenową dostawców usług chmurowych. W pierwszej kolejności podmioty świadczące usługi chmurowe powinny ocenić, w jakim stopniu podlegają obowiązkom na gruncie Data Act i jak nowe przepisy wpłyną na ich działalność. W dalszej kolejności warto:

l dostosować istniejące umowy chmurowe do wymogów Data Act; l przejrzeć i dostosować swoje procesy w zakresie zmiany dostawcy usług chmurowych (switching), udostępniania danych (data sharing) i dostępu do danych (data access);

l zaktualizować klauzule informacyjne oraz informacje na stronie internetowej;

l wdrożyć środki w celu zabezpieczenia praw własności intelektualnej oraz know-how;

l przeanalizować procedury wewnętrzne (np w zakresie wniosków o dostęp ze strony organów sektora publicznego i ochrony tajemnicy przedsiębiorstwa);

l zapewnić gotowość techniczną, aby umożliwić zmianę dostawcy, migrację i interoperacyjność danych.

umożliwienia klientom zmiany dostawcy usług chmurowych (switching rights). Data Act wymaga od wszystkich stron – zarówno dotychczasowego, jak i nowego dostawcy – współpracy w dobrej wierze w celu zapewnienia skutecznej migracji, utrzymania ciągłości usług oraz bezpiecznego, terminowego przekazania niezbędnych danych w uporządkowanym, powszechnie używanym formacie, nadającym się do odczytu maszynowego.

Celem przyświecającym unijnemu ustawodawcy jest zwiększenie interoperacyjności usług. Przy czym celem jest w tym przypadku przezwyciężenie uzależnienia od jednego dostawcy (vendor lock-in), które osłabia konkurencję na unijnym rynku. A zatem Data Act to niewątpliwie regulacja, która będzie wywierać znaczący wpływ na umowy w modelu SaaS. Do tych najważniejszych konsekwencji dla dostawców SaaS należy zaliczyć prawo do zmiany dostawcy (switching rights) – dostawcy usług SaaS muszą usunąć bariery kontraktowe i techniczne, umożliwiając swoim klientom zmianę dostawcy, korzystanie z kilku dostawców równocześnie lub przejście na własną lokalną infrastrukturę ICT.

Co ważne, prawa klienta oraz obowiązki dostawcy usług chmurowych w zakresie zmiany dostawcy muszą być jasno określone w pisemnej umowie. Minimalny zakres postanowień umownych dotyczących zmiany dostawcy został określony w Data Act. Umowa powinna określać nie tylko prawo do zmiany dostawcy, ale także maksymalny okres wypowiedzenia oraz szczegółową specyfikację wszystkich kategorii danych, które można przenieść.

Ponadto dostawcy chmurowi powinni poinformować klientów o wdrożonych procedurach zmiany dostawcy i przenoszenia usług (w tym o dostępnych metodach i formatach zmiany dostawcy i przeniesienia oraz o limitach i ograniczeniach technicznych znanych dostawcy usług chmurowych). Konieczne jest także prowadzenie aktualizowanego rejestru online, zawierającego informacje o tym, jakie typy danych są wykorzystywane, jak dane są zorganizowane oraz jakie zasady lub standardy są stosowane, aby zapewnić interoperacyjność systemów.

Kolejna istotna kwestia to zniesienie opłat za zmianę dostawcy. Otóż do 12 stycznia 2027 r. dostawcy chmurowi mogą nakładać na klientów obniżone opłaty z tytułu zmiany dostawcy, natomiast po tej dacie wszelkie takie opłaty będą zabronione.

Wpływ na świadczenie usług SaaS

Wpływ Data Act na umowy SaaS jest znaczący i obejmuje między innymi pra-

wo do wcześniejszego rozwiązania umowy. Konkretnie rzecz biorąc, dostawcy usług SaaS muszą umożliwić klientom rozpoczęcie procesu zmiany dostawcy z maksymalnym okresem wypowiedzenia wynoszącym dwa miesiące. W praktyce oznacza to prawo do wcześniejszego rozwiązania umowy z dowolnego powodu. Data Act przyznaje wszystkim klientom chmurowym prawo do zakończenia umowy w dowolnym momencie, niezależnie od okresu, na jaki umowa została zawarta – dotyczy to także umów zawartych na czas określony. Praktyczne konsekwencje są zatem bardzo znaczące – klienci otrzymali dodatkowe uprawnienie do rozwiązania każdej umowy, nawet tej zawartej na dłuższy okres.

Jeśli zaś chodzi o sam proces migracji, to dostawcy usług SaaS muszą rozpocząć proces zmiany nie później niż w ciągu dwóch miesięcy od otrzymania żądania od swojego klienta i zakończyć migrację w ciągu 30 dni po upływie okresu przejściowego. Przy czym w tym czasie muszą zapewnić użytkownikowi ciągłość działania swoich usług. Jeśli byłoby to technicznie niemożliwe, okres przejściowy może zostać wydłużony do maksymalnie siedmiu miesięcy, po uprzednim poinformowaniu klienta i przy zachowaniu ciągłości świadczenia usług. Należy przy tym podkreślić, że choć umowy SaaS zawarte na czas określony są nadal dozwolone, to prawo klienta do zmiany dostawcy musi być respektowane przez dostawców.

Co ciekawe, nadal dopuszczalne są kary za wcześniejsze rozwiązanie umowy, ale muszą być proporcjonalne i zgodne z obowiązującym prawem krajowym. W przypadku wcześniejszego rozwiązania umowy przez klienta, żądanie przez dostawcę pełnej zapłaty za pozostały okres umowy mogłoby zostać potraktowane jako utrudnianie zmiany dostawcy, co – na gruncie Data Act – zostało zakazane. Co szczególnie istotne, Data Act dotyczy nie tylko umów chmurowych zawartych po 12 września 2025 r. Zmiany wymagają także umowy zawarte przed tą datą. Jednocześnie nowe regulacje mają zasięg eksterytorialny, zatem dostawcy chmurowi spoza UE, świadczący usługi klientom z UE, również są nimi objęci.

Szymon

Sieniewicz

jest adwokatem oraz

Szefem Praktyki

TMT/IP w kancelarii

Addleshaw Goddard.

CELEM PRZYŚWIECAJĄCYM UNIJNEMU USTAWODAWCY JEST ZWIĘKSZENIE INTEROPERACYJNO-

Data Act

Rośnie barometr nastrojów w branży

W ubiegłym roku wzrost wynagrodzeń nie nadążał za oczekiwaniami specjalistów, a liczba ofert pracy spadała.

Zdanych SoDA wynika, że rośnie liczba firm, które postrzegają swoją sytuację jako stabilną bądź pozytywną. To sygnał, że sektor technologiczny powoli wychodzi z okresu niepewności, choć pełna odbudowa zaufania do rynku jeszcze nie nastąpiła. Zdaniem autorów raportu „Barometr nastrojów w branży IT” na poprawę nastrojów mogły wpłynąć takie czynniki, jak rozwój technologii AI i łatwość w pozyskiwaniu wykwalifikowanych pracowników. Z drugiej strony, sytuację wciąż osłabiają negatywnie oceniane koniunktura w branży, a także

NEGATYWNE OCENY DOTYCZĄ CZYNNIKÓW MAKROEKONOMICZNYCH I ZEWNĘTRZNYCH.

presja geopolityczna, niestabilność kursów walut oraz krajowa sytuacja polityczna. W efekcie, choć część firm odzyskuje równowagę, wciąż dominuje dość ostrożne podejście, a branża w dalszym ciągu uważnie obserwuje warunki rynkowe.

Paweł Pustelnik

wiceprezes, SoDA

Niemniej w pierwszej połowie 2025 r. zauważalny jest wzrost optymizmu wśród firm IT – już blisko 70 proc. respondentów pozytywnie ocenia przyszłość swojej organizacji. To znaczący wzrost w porównaniu z drugą połową ubiegłego roku, kiedy nastroje były bardziej ostrożne i podzielone. Analiza czynników wpływających na obecną kondycję firm IT pokazuje wyraźny podział pomiędzy obszarami wewnętrznymi a zewnętrznymi. Najbardziej pozytywnie oceniane są elementy związane z rozwojem technologii i kapitałem ludzkim – szczególnie rozwój technologii AI (57 proc.), rotacja pracowników (43 proc.) oraz proces pozyskiwania wykwalifikowanych specjalistów (42 proc.). To sygnał, że organizacje coraz skuteczniej adaptują się do zmian technologicznych i potrafią wykorzystywać je w swojej strategii biznesowej.

Z drugiej strony, negatywne oceny dotyczą głównie czynników makroekonomicznych i zewnętrznych. Największe obawy budzą sytuacja geopolityczna, niestabilność kursów walut oraz krajowa

Ostatnie 12 miesięcy przyniosło lekką poprawę sytuacji, co zasługuje na podkreślenie, szczególnie biorąc pod uwagę liczne wyzwania rynkowe. Cieszy fakt, że ponad połowa firm patrzy w przyszłość z nadzieją i pozytywnie ocenia swoje perspektywy, co świadczy o rosnącym zaufaniu do stabilności własnych biznesów. Niemniej jednak, nie można pominąć rosnącej niepewności politycznej, która wpływa na decyzje przedsiębiorstw — zwłaszcza w kontekście pogarszającej się sytuacji geopolitycznej, która budzi sporo obaw i przekłada się na ostrożność w planowaniu. Koniunktura w branży pozostaje umiarkowana, a wzrost wynagrodzeń oceniany jest neutralnie, co sugeruje, że firmy nadal ostrożnie podchodzą do kosztów. Istotny pozostaje wpływ walut, który wciąż wywiera znaczący efekt na działalność wielu podmiotów. Nowością w naszym badaniu jest wpływ AI. Co ciekawe, oceniany jest przeważnie pozytywnie. Może to wskazywać na rosnące przychody z tytułu usług związanych z wdrażaniem AI dla klientów.

sytuacja polityczna. Ponadto utrzymująca się niepewność regulacyjna i podatkowa nadal ogranicza poczucie stabilności w sektorze IT. W rezultacie, choć firmy dostrzegają szanse na rozwój i poprawę efektywności, otoczenie zewnętrzne pozostaje głównym źródłem ostrożności i umiarkowanego optymizmu.

Koncentracja na sprzedaży

W porównaniu z drugą połową 2024 r., firmy IT w pierwszej połowie tego roku jeszcze wyraźniej koncentrują się na sprzedaży (52 wskazania versus 30) oraz zmianie modelu biznesowego (40 vs 20). Wzrost liczby odpowiedzi w tych kategoriach sugeruje, że priorytety strategiczne branży utrzymują się, ale coraz bardziej zyskują na intensywności. Nowością jest silniejszy zwrot w kierunku poszukiwania nisz (36), co potwierdza panujące w branży przekonanie o potrzebie wy-

Opr. Tomasz Gołębiowski

PRZEDSIĘBIORCY DOSTRZEGAJĄ STRATEGICZNY POTENCJAŁ SZTUCZNEJ INTELIGENCJI, ALE WPROWADZANE ZMIA-

NY NIE OBEJMUJĄ ICH ICH FIRM JAKO CAŁOŚCI.

różnienia się na rynku od konkurencji. Wysokie miejsce zajmuje też obniżenie kosztów oraz utrzymanie rentowności, co potwierdza ostrożność w podejmowanych obecnie przez firmy decyzjach biznesowych.

W obecnej edycji raportu jego autorzy po raz pierwszy zapytali o przewidywania dotyczące poziomu tzw. ławeczki w firmach. Aż 60 proc. firm IT przewiduje, że poziom „ławki” pozostanie bez większych zmian w nadchodzących miesiącach, co potwierdza stopniową stabilizację sytuacji projektowej w branży, ale może też być konsekwencją optymalizacji zatrudnienia w poprzednich latach. Firmy coraz rzadziej decydują się na długofalowe utrzymywanie „ławki”. Jedynie 19 proc. ankietowanych organizacji spodziewa się wzrostu liczby osób bez projektów, podczas gdy 22 proc. liczy na jej spadek.

Na jakich obszarach kompetencyjnych Twoja firma będzie musiała się skupić w ciągu najbliższych 12 miesięcy w związku z rozwojem AI, w tym w zakresie reskillingu ról technicznych?

Integracja AI w procesach biznesowych

Analityka danych i praca z modelami AI

K ompetencje techniczne – reskilling/upskillingdeveloperów (np. nowe języki, narzędzia, frameworki)

Kompetencje przywódcze i strategiczne w kontekście AI

O bsługa klienta i sprzedaż wspierana AI

Umiejętności miękkie (adaptacja, praca z AI, współpraca człowiek-AI)

Cyberbezpieczeństwo i zarządzanie ryzykiem

W związku ze sporym zainteresowaniem branży sytuacją benefitów pozapłacowych po raz pierwszy zapytano też respondentów o ich politykę w tym zakresie. Okazuje się, że ponad połowa firm IT (58 proc.) deklaruje, że nie planuje żadnych ograniczeń w zakresie benefitów pozapłacowych, a kolejne 7 proc. rozważa wręcz rozszerzenie oferty. To wyraźny sygnał stabilizacji po okresie wcześniejszych oszczędności (17 proc. organizacji wskazuje, że już dokonało redukcji benefitów). W sumie tylko 5 proc. firm planuje nowe ograniczenia, a 13 proc. pozostaje niezdecydowanych, co sugeruje ostrożność, ale nie powszechny trend cięcia kosztów pracowniczych.

Na koniec warto podkreślić, że firmy inwestujące w AI przede wszystkim stawiają na personel techniczny i liderów, podczas gdy pracownicy back office’u wciąż nie są w pełni objęci programami rozwojowymi. To sygnał, że przedsiębiorcy dostrzegają strategiczny potencjał sztucznej inteligencji, ale wprowadzane zmiany nie obejmują ich firm jako całości.

– Przedstawiciele przedsiębiorstw coraz śmielej patrzą w kierunku sztucznej inteligencji, i słusznie, bo AI realnie zwiększa produktywność i otwiera drogę do nowych modeli działania, także w mniejszych organizacjach. Wyzwanie polega

NAJWIĘKSZE OBAWY BUDZĄ SYTUACJA GEOPOLITYCZNA, NIESTABILNOŚĆ KURSÓW WALUT ORAZ KRAJOWA SYTUACJA POLITYCZNA.

jednak na tym, by nie zatrzymać się na entuzjazmie, ale przekuć go w konkret: procesy, szkolenia i kulturę pracy z technologią, bo to właśnie ci, którzy zrobią to pierwsi, wyznaczą tempo rozwoju na rynku – podsumowuje Łukasz Foks, dyrektor zespołu Elevate w polskim oddziale Microsoftu.

Więcej informacji i danych znajduje się na stronie https://sodapl.com/raporty.

Sami o sobie:

kompetencje miękkie według specjalistów IT

Większość specjalistów IT uważa, że umiejętności miękkie ułatwiają im rozwój zawodowy, ale niekoniecznie postrzegają je jako skuteczną ochronę przed ekspansją AI.

Opr. Tomasz Gołębiowski

Najnowszy raport theprotocol.it i Pracuj.pl na temat stanu kompetencji miękkich w polskiej branży IT („Kompetencje miękkie w pracy i rekrutacji IT”), pokazuje, jak specjaliści oceniają swoje zdolności interpersonalne, w jaki sposób wpływają one na ich kariery oraz jakie wyzwania wiążą się z ich rozwojem. A to wszystko w momencie, gdy branża IT stoi przed pewnym nieoczywistym, choć istotnym, wyzwaniem. Chodzi o odpowiedź na pytanie, jak systemowo rozwijać indywidualne umiejętności społeczne i interpersonalne zespołów, aby zwiększać konkurencyjność poszczególnych firm, a w konsekwencji całego sektora? Łatwo nie będzie, skoro specjaliści IT mają problem z oceną

LIDERZY ŻYJĄ

W „ILUZJI KOMPETENCJI”.

i nazwaniem swoich kompetencji miękkich, co w istotny sposób wpływa na proces rekrutacji. Kiedy bowiem jedna strona oczekuje czegoś, co drugiej trudno rozpoznać, cała komunikacja w procesie rekrutacji może natrafić na spore trudności. W artykule prezentujemy pięć kluczowych wniosków z badania przeprowadzonego wśród 710 pracowników sektora technologii.

Kluczowe dane

1 Kompetencje miękkie jako booster kariery

Aż 65 proc. badanych zgadza się, że posiadanie wysoko rozwiniętych umiejętności miękkich pomaga im w rozwoju kariery. Co więcej, 60 proc. uważa je za istotne w kontekście przyszłych ścieżek zawodowych. Pomimo jednak tych deklaracji wielu specjalistów IT nie postrzega kompetencji interpersonalnych jako skutecznej ochrony przed ekspansją sztucznej inteligencji – tylko 29 proc. widzi w nich przewagę nad AI. W tym świetle jeszcze większą zagadkę stanowi fakt, że ponad połowa badanych dostrzega, iż pracodawcy z branży IT coraz częściej oczekują rozwiniętych kompetencji miękkich. Skąd ten brak spójności? Specjaliści ds. rynku pracy podkreślają w tym kontekście, że wciąż bywa tak, że w działach IT umiejętności techniczne bywają faworyzowane kosztem kompetencji miękkich. Wielu specjalistów awansuje na stanowiska kierownicze głównie ze względu na swoje osiągnięcia techniczne i projektowe, a niekoniecznie ze względu na zdolności przywódcze. W efekcie przybywa menedżerów, którzy znakomicie rozumieją kod, algorytmy czy architekturę systemów, ale mogą mieć trudności w budowaniu relacji z zespołem, motywowaniu go czy efektywnym delegowaniu zadań. Brak dostatecznych kompetencji liderskich

n 2/3 pracowników IT sądzi, że posiadanie rozwiniętych kompetencji miękkich pomaga im w rozwoju kariery; n spośród kompetencji miękkich specjaliści IT najwyżej oceniają swoją umiejętność pracy w zespole (4 na 5 punktów); n 46 proc. specjalistów IT wskazało, że negocjowanie warunków zatrudnienia na etapie rekrutacji, w tym wynagrodzenia, wiąże się dla nich ze stresem; n zaledwie 1 na 3 pracowników IT widzi rozwój kompetencji miękkich jako sposób na obronę przed skutkami szybkiej ekspansji AI.

wśród menedżerów IT może jednak mieć daleko idące konsekwencje. – Z jednej strony prowadzi do spadku zaangażowania pracowników, ich frustracji i w efekcie – do wzrostu rotacji w firmach. Pracownicy, którzy nie czują się wysłuchani, nie mają jasnych priorytetów i nie otrzymują wsparcia, są bardziej skłonni do poszukiwania nowych miejsc pracy. Z drugiej strony, osłabiona komunikacja na poziomie zarządzania projektami może prowadzić do nieefektywnego zarządzania zasobami, opóźnień i nieporozumień w zespołach. To z kolei będzie mieć kluczowy wpływ na funkcjonowanie biznesu – wyjaśnia Szymon Płodowski, Product Development Coordinator w Grupie Pracuj.

Okazuje się zatem, że w obszarze kompetencji miękkich branża IT cierpi na brak wzorców i dobrych praktyk. Tymczasem mobilność na rynku pracy IT jest bardzo wysoka – 71 proc. specjalistów aktywnie szuka lub rozważa zmianę pracy w najbliższych 12 miesiącach. W obliczu tak dużej konkurencyjności umiejętności miękkie mogą stać się kluczowym wyróżnikiem kandydatów.

2 Pożądana umiejętność pracy w zespole

Rekruterzy coraz częściej zwracają uwagę na kompetencje miękkie. W sumie 51 proc. specjalistów IT wskazało, że ich umiejętność współpracy w zespole była weryfikowana w trakcie rozmów rekrutacyjnych. Wysoko oceniane są również gotowość do podejmowania nowych wyzwań (46 proc.) oraz umiejętność pracy pod presją (46 proc.).

Co czwarty respondent przyznał, że zdarzyło mu się odpaść z rekrutacji ze względu na niewystarczające kompetencje miękkie. Warto podkreślić, że problem ten dotyczy zarówno juniorów

(29 proc.), jak i menadżerów (30 proc.). Te dane pokazują, że kompetencje interpersonalne stają się coraz ważniejszym kryterium oceny kandydatów – obok wiedzy technicznej.

3

Negocjacje

i autoprezentacja piętą achillesową

Choć IT to jedna z najlepiej opłacanych branż, aż 46 proc. specjalistów przyznaje, że negocjowanie wynagrodzenia i warunków zatrudnienia jest dla nich źródłem stresu. Negocjacje oceniane są jako jedna z najsłabszych kompetencji miękkich wśród pracowników o profilu technologicznym.

– Pracownicy, którzy potrafią jasno wyrażać swoje myśli i słuchać innych, skuteczniej negocjują warunki zatrudnienia i rozwijają swoje kariery. A to, jak się okazuje, bywa dla nich wyzwaniem i sprzyja stresowi. Stosunkowo wysokie na tle innych branż wynagrodzenia w IT nie są więc efektem zdolności negocjacyjnych specjalistów, lecz szeregu zewnętrznych, sprzyjających czynników. W obecnej, mniej niż dotychczas stabilnej sytuacji rynkowej, zachowanie wysokiego wynagrodzenia przy zmianie pracy może jednak wymagać już sprawniejszego poruszania się w negocjacjach – zauważa Piotr Trzmiel, dyrektor ds. rozwoju biznesu w theprotocol.it.

Stresującym momentem jest również zakończenie współpracy – 30 proc. badanych odczuwa dyskomfort przy składaniu wypowiedzenia. Wyniki te sugerują, że rozwój kompetencji miękkich, takich jak asertywność i komunikacja, może pomóc w lepszym zarządzaniu kluczowymi momentami kariery. Wpływają również na inne skutki pracy w IT: pomagają w szybszej diagnozie albo uniknięciu wypalenia zawodowego, które potrafi stać się hamulcem kariery lub zmiany.

4

Pracownicy IT kontra ich zespoły

Specjaliści IT dobrze oceniają swoje kompetencje miękkie – na przykład umiejętność pracy w zespole uzyskała średnią ocenę 4 na 5 punktów. Najwyżej oceniają siebie menadżerowie i dyrektorzy, dla których umiejętności interpersonalne są priorytetem.

Zaskakujące jest jednak, że tylko 54 proc. pracowników IT ocenia swoich przełożonych jako osoby o bardzo dobrych zdolnościach komunikacyjnych. Może to sugerować istnienie tzw. „iluzji kompetencji” – liderzy postrzegają siebie jako skutecznych w komunikacji, ale

ich zespoły mają inne zdanie. To zresztą szerszy problem – związany w ogóle z umiejętnością identyfikowania kompetencji miękkich w sobie czy u innych.

Badanie Pracuj.pl i theprotocol.it pokazało także, że według 7 na 10 rekruterów kandydaci IT często mają problemy z trafną samooceną posiadanych kompetencji miękkich – z tego właśnie powodu rozbieżność między postrzeganiem własnych umiejętności a ich rzeczywistą wartością w oczach pracodawców jest takim samym zjawiskiem, jak rozbieżność w postrzeganiu kompetencji przez menadżerów oraz ich podwładnych.

To zjawisko ma znaczenie nie tylko na etapie rekrutacji, ale również w kontekście rozwoju kariery. Kandydaci, którzy nie potrafią trafnie ocenić swoich kompetencji miękkich, mogą mieć trudności w identyfikacji obszarów wymagających rozwoju, co utrudnia im planowanie ścieżki zawodowej i podnoszenie kwalifikacji. Z perspektywy organizacji oznacza to również ryzyko niedopasowania – zarówno pod względem oczekiwań wobec roli, jak i zdolności do efektywnej współpracy w zespole.

Ostatecznie problem trafnej samooceny kompetencji miękkich w IT to wyzwanie, które wymaga współpracy obu stron – kandydatów i rekruterów. Im lepiej zrozumiemy ten mechanizm, tym skuteczniejsze będą procesy rekrutacyjne i strategie rozwoju talentów w branży technologicznej.

5 Kompetencje miękkie jako warunek efektywności

Z omawianego raportu wynika, że 84 proc. specjalistów IT pracuje w trybie hybrydowym lub całkowicie zdalnym. Kluczowymi kompetencjami w tym kontekście stają się zatem samodyscyplina, organizacja pracy i komunikacja na odległość. Mimo wyzwań związanych z pracą w rozproszonych zespołach, specjaliści IT nie wskazują komunikacji jako istotnego problemu. Potwierdza to wysoką adaptację branży do nowej rzeczywistości i coraz lepsze zarządzanie relacjami w trybie online.

Podsumowując, raport theprotocol. it i Pracuj.pl pokazuje, że kompetencje miękkie w IT są dziś równie istotne, jak techniczne. Ich rola rośnie zarówno w rekrutacji, ale też w codziennej pracy. Rozwój tych umiejętności może stać się zatem warunkiem powodzenia długofalowego sukcesu zawodowego, który niewątpliwie osiąga się w tej chwili inaczej, niż jeszcze kilka lat temu.

TOP 5 kompetencji weryfikowanych na rozmowach kwalifikacyjnych*

umiejętność współpracy w zespole

gotowość do podejmowania nowych wyzwań

umiejętność pracy pod presją

*Odsetek badanych, którzy wskazali daną odpowiedź

Najbardziej stresujące kwestie dla pracujących specjalistów IT*

negocjowanie warunków zatrudnienia (w tym wynagrodzenia)

autoprezentacja swoich atutów i umiejętności

odpowiednie reagowanie na niespodziewane pytania

zarządzanie stresem związanym z rekrutacją

efektywna komunikacja „twarzą w twarz” z rekrutującym

krótkie i treściwe przedstawienie swoich projektów

zakomunikowanie zamiaru odejścia z obecnej pracy

*Odsetek badanych, którzy wskazali daną odpowiedź (maksymalnie 3 odpowiedzi)

Kaskada strategiczna:

wstęp do dojrzałego

marketingu

Często, kiedy jestem zaproszony do projektu „naprawy marketingu”, szybko orientuję się, że problem jest tak naprawdę nie z marketingiem, ale ze strategią.

Ja wiem, strategia to mocno nadużywane słowo, ale to nie wina strategii, tylko osób, które używają go jako synonimu: planu, wizji, misji, kampanii, lejka, taktyki itp. Tymczasem strategia to nic innego, jak zintegrowany zestaw wyborów, który umożliwia firmie wywołanie pożądanych działań klienta

KLIENCI WDRAŻAJĄCY SYSTEMY

i ma na celu zwycięstwo. No dobrze, ale co to oznacza w praktyce? Po pierwsze świadome wybory i przemyślane pozycjonowanie – strategia to dokonywanie konkretnych wyborów, aby wygrywać na rynku, co wymaga decyzji, na czym się skupić, a co odpuścić. Celem jest stworzenie i podtrzymanie trwałej przewagi konkurencyjnej i wyższej wartości dla klienta w stosunku do konkurencji. Bez tego nawet najlepszy marketing nic nie da. Tymczasem wiele osób, które spo-

tkałem na swojej drodze zawodowej, było przekonanych, że sprawniejsza komunikacja zastąpi braki w przewagach konkurencyjnych ich oferty. W rzeczywistości może być odwrotnie, dobra komunikacja często sprawia, że klienci szybciej orientują się, że nasza oferta jest słaba.

Zintegrowany zestaw: pięć elementów

Innymi słowy, strategia to skoordynowany i zintegrowany zestaw pięciu wyborów, na które składają się: aspiracja zwycięstwa, wskazanie gdzie grać, określenie jak wygrać, niezbędne zdolności i, last but not least, systemy zarządzania. I właśnie o tych pięciu elementach strategii, zwanych przez ich autorów Kaskadą Strategiczną, chcę dziś opowiedzieć z punktu widzenia marketingu jako całości narzędzi oddziaływania na rynek, a nie tylko komunikacji marketingowej. Przy czym, rzecz jasna, jest bardzo wiele podejść do strategii i nie jestem w stanie powiedzieć, które jest najlepsze. Ale jestem w stanie wskazać to, które pomogło wielu moim klientom i jest bardzo konkretne. Kluczowe pytania dotyczące

strategii, zgodnie z koncepcją Kaskady Strategicznych Wyborów (The Strategy Choice Cascade) Rogera Martina i A.G. Lafleya, sprowadzają się do pięciu wzajemnie powiązanych decyzji (patrz: grafiki).

1Jaka jest nasza aspiracja zwycięstwa?

Powyższe pytanie określa cel firmy, wyznaczając ramy dla wszystkich kolejnych strategicznych wyborów. Często ta właśnie aspiracja jest pochopnie traktowana jako całościowa strategia. Przykładowo, słyszę czasem: „nasza strategia to dwukrotny wzrost w ciągu trzech lat”. Owszem, to dobry początek, aspiracja, ale jeszcze nie strategia, dlatego potrzebujemy kolejnych elementów. Otóż wyobraźmy sobie taką sytuację: firma

Łukasz Kosuniak

zdefiniowała właśnie taką aspirację – dwukrotny wzrost w ciągu trzech lat. W pierwszym roku ma to być 30 proc. Firma nie zakłada przy tym jednak zwiększenia sił sprzedażowych, licząc, że podniesienie budżetu marketingowego o 30 proc. sprawi, że pojawią się nowe leady i handlowcy będą mogli na tej bazie wygenerować taki właśnie wzrost. No cóż, jest jeden problem – marketing zazwyczaj odpowiada za kilkanaście procent leadów, które potem zamieniają się w sprzedaż. Opieram się na badaniu „Stan Marketingu B2B”, które przeprowadziliśmy kilka lat temu na próbce kilkuset marketerów B2B w Polsce.

Co to oznacza? Nawet jeżeli będzie to 20 proc., czyli 1/5 zapotrzebowania, to zwiększenie o 30 proc. zdolności marketingowych nie zapewni nam 30 proc. wzrostu sprzedaży. W rzeczywistości ten wzrost musiałby wynosić 5x30 proc., czyli 150 proc. Oczywiście przy założeniu, że wystarczy zwiększyć budżet, żeby marketing działał sprawniej, ale to temat na inny artykuł… Dlaczego przytaczam taki przypadek? Bo pokazuje, że nasze aspiracje trzeba korygować o kilka czynników, chociażby wiedzę o tym, jaki procent zapotrzebowania na leady pokrywa nasz dział marketingu. W ten sposób wykonaliśmy ważne zadanie kaskady strategicznej – weryfikację założeń.

2 Gdzie będziemy grać?

W przypadku takiego pytania mamy do czynienia ze zbiorem wyborów za-

wężających pole konkurencji. Musimy ustalić na jakim polu (rynki, kanały, produkty, segmenty klientów) firma zamierza konkurować, aby osiągnąć wcześniej ustaloną aspirację. O segmentacji pisałem w poprzednich artykułach (część 1, część 2). Segmentacja to zadanie intelektualnie dość proste, ale skomplikowane emocjonalnie. Dlaczego? Bo prawie zawsze oznacza rezygnację z obsługiwania jakiejś grupy klientów. Każde takie ograniczenie wiąże się z naturalnym oporem, bo niby dlaczego mielibyśmy blokować działania naszych handlowców. Dlatego segmentacja musi być oparta o analizy wewnętrzne (opłacalność, koszt pozyskania, całościowy koszt utrzymania klienta itp.) oraz zewnętrzne (konkurencja, potencjał wzrostu, potencjał upsellu, cross sellu itp.).

Może się okazać, że określona przez nas segmentacja nie zabezpieczy nam realizacji aspiracji opisanej w pierwszym etapie kaskady. Mamy zatem dwa wyjścia: korektę założeń lub modyfikację segmentów, aby miały większy potencjał. Hmm, niech zgadnę, które wyjście wybierze większość przedsiębiorców… Zatem załóżmy, że wchodzimy do nowych segmentów, ale… tu czeka na nas kolejny – trzeci zestaw wyborów i korekt.

3 Jak możemy wygrać (How to Win)?

Określa to, jak konkretnie zamierzamy wygrywać w określonych poprzednio segmentach. Istnieją dwie ogólne, pod-

Częste problemy, które sprawiają, że klienci zapraszają mnie do współpracy to:

l brak wystarczającej liczby jakościowych leadów,

l niska konwersja leada na sprzedaż, l rosnące koszty sprzedaży i wydłużający się czas sprzedaży,

l targety sprzedażowe nie są realizowane, mimo, że handlowcy dochodzą do granicy wytrzymałości.

Do tego dochodzi przekonanie, że marketing powinien robić więcej, tylko nie wiadomo dokładnie co. Te problemy to objawy, a nie przyczyny. Prawdziwe źródło kryzysu to strategiczna mgła. Zazwyczaj zaczynamy od przeglądu podstaw i okazuje się, że marketing nie może działać skutecznie, bo bez strategii nie wiadomo, do czego powinien służyć.

stawowe drogi do zwycięstwa: bycie liderem niskich kosztów lub osiągnięcie wyróżnika w postaci unikatowej wartości. Wiadomo, że nikt (może oprócz Amazona) nie lubi konkurować ceną, dlatego naturalnie wybieramy bramkę numer 2, czyli oferowanie unikatowej wartości, która wyróżni nas w oczach klientów i odróżni nas od konkurencji. Proste? No cóż, tylko wtedy, jeżeli mamy dobrze zaprojektowaną propozycję wartości i wiemy, co w naszej ofercie cenią klienci i jakie konkretnie korzyści dostarczamy

grudzień 2025 / CRN / 51

Objawy, nie przyczyny

lepiej niż konkurencja. Tylko, że z mojego doświadczenia wynika, że większość firm B2B w Polsce opiera się w tym przypadku na intuicji, dla niepoznaki nazywanej doświadczeniem rynkowym.

Tymczasem bez wiedzy o tym, czy nasza propozycja wartości jest czytelna, kompletna i istotna dla klientów możemy wpaść w pułapkę szukania przyczyn naszych porażek w słabej sprzedaży czy marketingu, podczas gdy realną przy-

NIE OCZEKUJ EFEKTÓW W CIĄGU TYGODNIA.

czyną jest to, że nasza oferta jest nieistotna, nieczytelna lub niekompletna dla kluczowych klientów.

Co może w tej sprawie zrobić zespół marketingu? Powinien przeprowadzić rozmowy z kluczowymi klientami, którzy kupili lub odrzucili nasze produkty/usługi, żeby sprawdzić, na ile nasze wyobrażenia o korzyściach, jakie oferujemy są spójne z tym, czego doświadczają klienci. I w tym miejscu znów czas na weryfikację: czy nasze przewagi, nasza propozycja wartości umożliwi nam skuteczne konkurowanie w tych wyżej opisanych segmentach. Jeżeli tak, idziemy dalej. Jeżeli nie, musimy pomyśleć o zmianach

w ofercie lub korekcie założeń segmentacji. W przypadku odpowiedzi pozytywnej, przechodzimy do zdolności (lubię to wojskowe określenie).

4

Jakie zdolności musimy posiadać?

Są to kluczowe działania i kompetencje, które muszą zostać wdrożone, aby umożliwić firmie zwycięstwo, czyli realizację aspiracji z punktu 1, w wybranych segmentach (punkt 2) dzięki określonym przewagom (punkt 3). To ten moment, kiedy przechodzimy do konkretów, które będą potem zamienione na plan działania. Co może być taką zdolnością? To chociażby silna marka, solidne R&D, łatwość pozyskiwania talentów, dostęp do wiedzy naukowców, rozwinięty program partnerski, silne marki osobiste ekspertów i zarządu.

Dla przedsiębiorstwa produkcyjnego może to być chociażby innowacyjny system kontroli jakości i usprawniania procesów, pozwalający osiągnąć bardzo wysoką jakość oraz niezawodność w yrobów. Dla firmy technologicznej – zdolność do ciągłej innowacji, poparta dużymi inwestycjami w R&D i patentami. Dla operatora logistycznego – np. ultra-efektywna sieć dystrybucji i zarządzania łańcuchem dostaw. W każdym

Kaskada strategii ASPIRACJE

Jakie są aspiracje i konkretne cele, według których możemy mierzyć nasze postępy?

Na jakim obszarze rynku zdecydujemy się grać, a gdzie nie?

W j aki sposób w wybranym przez nas obszarze wygramy z konkurentami?

Cele sprzedażowe, marżowe, wzrostowe, udziałowe

przypadku jest to coś, co stanowi źródło przewagi: konkurenci albo tego nie mają, albo nie potrafią dorównać na tym polu. I znów czas na weryfikację założeń z tego poziomu. Jeżeli faktycznie posiadamy takie zdolności, które zapewniają nam „dowożenie” wartości dla klienta lepiej niż konkurencja, możemy iść dalej. Jeżeli nie jesteśmy pewni – czeka nas inwestowanie w takie zdolności lub korekta poprzednich założeń. Jeżeli Twoja firma zainwestowała w budowanie rozpoznawalności i preferencji dla marki, np. poprzez zwiększanie jej dostępności mentalnej (łatwości przypomnienia o niej w sytuacji zakupowej) lub fizycznej (ułatwień w procesie zakupu), bardzo możliwe, że to będzie wręcz kluczowa zdolność.

5 Jakie wspierające systemy zarządzania zamierzasz wykorzystać?

Są to systemy, metodyki, które mierzą, wspierają i utrzymują opisane wyżej zdolności. Nie wystarczy stworzyć naszej kluczowej zdolności, musimy jeszcze mieć mechanizm jej rozwijania i utrzymywania. Jeżeli, dajmy na to, Twoją kluczową zdolnością będzie dobry program partnerski, powinieneś wiedzieć, jakie procesy zapewnią, że wartość te-

MIEJSCE GRY

J akie zdolności są niezbędne do zbudowania i utrzymania, aby wygrać?

WYGRAMY

Jakie są systemy i metody niezbędne do działania, abyśmy zbudowali i utrzymali kluczowe zdolności?

Segmentacja, profil idealnego klienta (ICP)

Potrzeby – Value Proposition, Buyer Persona

Zasoby, kompetencje, zdolności

Procesy, metody, egzekucja

go programu dla Ciebie i partnerów będzie rosła lub przynajmniej utrzymywała się. Może będzie to system szkoleniowy, może system rozdziału szans sprzedaży, może wspólne działania marketingowe?

To właśnie ten poziom szczegółowości pozwoli nam określić realne koszty uzyskania planowanych w punkcie pierwszym aspiracji.

Dobrze zaprojektowane systemy zarządzania niekoniecznie pomagają utrzymać długoterminową przewagę konkurencyjną, ponieważ ich skopiowanie jest zwykle złożone i zbyt kosztowne dla konkurentów. I tu właśnie często leży przyczyna sukcesu firm, które inni starają się kopiować, ale nie wiedzą, co dokładnie „zgapić”. Te systemy czy zdolności często nie są widowiskowe. Co ciekawe, zwykle odpowiada za nie właśnie dział marketingu, ot, dobry program szkoleniowy dla partnerów, regularne spotkania z klientami referencyjnymi, żelazna dyscyplina w analizie przyczyn zwycięstw i porażek klientów. Tymczasem oczywiście te systemy nie ograniczają się tylko do marketingu. Co ważne, system trudny do skopiowania nie musi być wcale skomplikowany. W przypadku programu partnerskiego, wartość takiego systemu może zwiększać się z czasem (przykładowo, im dłużej partner jest w programie tym uzyskuje więcej kompetencji, które wyróżniają go na rynku).

Zintegrowany zbiór wyborów

Powyższych pięć pytań musi być zintegrowanym zbiorem wyborów, które wzajemnie się wzmacniają, aby stworzyć trwałą przewagę i wywołać pożądane działania klientów. I teraz kluczowe pytanie: jak ma mi to pomóc w lepszym marketingu? Dzięki strategii skupiasz się na tym, co ma przynieść realną przewagę, a nie na „świecidełkach”. Jeżeli określicie w firmie kluczowe projekty i zdolności, łatwiej jest ustalić, czym marketing ma się zająć. Bez takiego kompasu marketing w firmach szybko zamienia się w dział: wrzutek genialnych pomysłów na kolejną kampanię, organizacji bankietów i gadżetów, robienia na wczoraj materiałów oraz prezentacji dla handlowców i wreszcie generowania leadów, czyli tworzenia PDF-ów i oddawania ich za adresy email, a potem nasyłania handlowców na tych, którzy podali nam swoje kontakty.

I teraz, żeby było jasne: oczywiście, że marketing ma generować leady i owszem, powinien wspierać sprzedaż, ale jeżeli będzie to jedyne zadanie działu

marketingu, nie wyjdziesz nigdy z zaklętego kręgu firm, które oczekują realnych zmian stosując kosmetyczne poprawki. Często przy rozmowach z szefami firm słyszę: ”nie stać nas teraz na to, żeby marketing zajmował się długoterminowymi celami”. To zrozumiałe, że kiedy kwartał się nie spina, trudno myśleć o następnym roku. Jednak z drugiej strony, podzielę się moim doświadczeniem z kilkudziesięciu projektów w ciągu ostatnich ośmiu lat.

Większość tych taktycznych działań marketingowych ma tak naprawdę niewielki wpływ na sukces Twojej firmy. Marketerzy sami przyznają, że generują kilkanaście procent leadów potrzebnych firmie do realizacji sprzedaży. Według Forrestera, średnia konwersja leada kwalifikowanego na sprzedaż to 1 proc. Nie oszukujmy się, to jak wiosłowanie wykałaczką – niewiele zmieni. Jeżeli więc widzimy, że działania krótkoterminowe marketerów B2B nie przynoszą zbyt wiele korzyści, mamy dwie możliwości. Pierwsza: darujmy sobie, niech organizują eventy, generują leady, robią to wszystko, czego nie chce robić sprzedaż. Skutek – nie muszę pisać. Druga: skupmy się na tym, co daje nam strategiczną przewagę – perfekcyjna znajomość procesów decyzyjnych klienta, super istotne treści, które budują eksperckość marki i zwiększają poczucie bezpieczeństwa klientów, procesy posprzedażowe, dzięki którym powstają referencje, rekomendacje oraz realne możliwości upsellu lub rozpychania się w organizacji.

To prawda, że powyższe działania nie dadzą efektu w ciągu tygodnia, ale właśnie dlatego budują naszą przewagę. Jeżeli zrobisz to dobrze, Twoi konkurenci, zanim się zorientują, co tak naprawdę jest źródłem Twojej przewagi, będą daleko w tyle. n WIĘKSZOŚĆ TAKTYCZNYCH

Łukasz Kosuniak

Autor książek: „ABC Marketingu B2B”, „To jest Social Selling”, „Marketing Automation krok po kroku”. Prowadzi też podcast Business Marketer.

Dobry marketing

to nie sztuczki

Dobrze utrzymana relacja z klientem oznacza, że nie musisz go zdobywać za każdym razem od nowa.

Czasami jakaś marka – albo konkretna osoba – zrobi coś spektakularnego. Następuje wówczas wybuch medialny, fala udostępnień, zachwyt w komentarzach. „Ale dobry marketing!” – słyszę wtedy od znajomych. Albo jeszcze lepiej: „Ale to był chwyt!”. Ewentualnie: „Ktoś tam zna się na trikach marketingowych…”. Zawsze wtedy mam ochotę spytać: co dalej? Poza tym od „tricków” są prestidigitatorzy, „chwytami” zajmują się zapaśnicy, zaś „zabiegami” – pielęgniarki. Plątanie w to marketingu bywa zupełnie bez sensu. Pojedyncze fajerwerki potrafią przyciągnąć uwagę, ale nie tworzą lojalności. Nie zapewniają powrotów klientów. Dobry marketing to nie tyle sztuczka, co sztuka budowania trwałej relacji. Jak w związku, tylko że ten związek buduje marka z klientem – i musi przejść przez cztery etapy: zauważenie, rozważanie, decyzję i podtrzymanie.

1. Zauważenie, czyli pierwsze spojrzenie

POJEDYNCZE

Marka nie istnieje, dopóki klient jej nie zauważy. A jeszcze lepiej – nie zapamięta. Na tym etapie chodzi o widoczność i pierwsze skojarzenie. W świecie bombardującym nas reklamami marka musi być wyrazista, spójna i natychmiast rozpoznawalna. Musi też mieć kręgosłup, czyli jasno zdefiniowane wartości. Nie może być banalna – nikt nie zwraca uwagi na banalne marki. Tu kluczowe są elementy tożsamości marki: logo, kolorystyka, styl komunikacji, ale też emocje, jakie wywołuje. To wszystko składa się na osobowość marki.

Przykładowo, pewna marka konsekwentnie komunikuje się „po ludzku”, z humorem, prostym językiem, memiczną stylistyką. Dzięki temu nawet gdy zmienia logo czy wprowadza nową usługę, jej ton pozostaje znajomy – i rozpoznawalny. IKEA nie tylko ma charakterystyczne kolory

i układ katalogów, ale też spójne doświadczenie zakupowe – od nazw produktów po sposób, w jaki jesteś witany w sklepie. Widzisz żółto-niebieskie – już wiesz, gdzie jesteś. Zauważenie to nie tylko „czy cię widzę”, lecz także: co o tobie myślę, kiedy cię widzę? Czy jesteś „marką premium”? Czy „przyjazną i przystępną”? Czy „fajna, ale nie dla mnie”? Tu działa pozycjonowanie – czyli jak marka zakotwicza się w głowie klienta. Nijakie marki nikogo nie interesują.

2. Rozważanie, czyli

„czy

warto

się z tobą związać?”

Gdy klient cię zauważy, zaczyna się etap oceniania. Jak na randce – pierwszy flirt minął, teraz czas na trudniejsze pytania: czy jesteś dla mnie? Czy mogę ci zaufać? Czy nie wyjdę na tym, jak Zabłocki na mydle? To moment, w którym klient analizuje ofertę, porównuje, szuka recenzji, patrzy na detale. Nawet, jeśli robi to podświadomie lub bardzo szybko, proces ten zawsze zachodzi. Kupując telefon, klient porównuje parametry, ale też ogląda recenzje na YouTube, czyta komentarze na forach, sprawdza, co myślą znajomi. Dlatego marki technologiczne dbają o dostępność materiałów recenzenckich i współpracują z influencerami technologicznymi, wiedząc, że ten etap może przesądzić o zakupie. Przykładowo, przy zakupie ubezpieczenia samochodu, klient często porównuje kilka ofert. Właśnie dlatego jeden ze startupów postawił na maksymalne uproszczenie języka ofert i szybkie kalkulatory online – klient nie musi czytać 10 stron PDF-ów, żeby zrozumieć, co kupuje. Według tej koncepcji powstała marka Heyah – była odpowiedzią na skomplikowane oferty firm telekomunikacyjnych. Marki, które ułatwiają ten etap – prezentując przejrzyście ofertę, pokazując opinie innych klientów, udostępniając porównania – mają większe szanse na przejście do kolejnego kroku.

3. Decyzja, czyli „wchodzę w to i lepiej, żebyś mnie nie zawiodła” Decyzja to moment prawdy, a zakup to zobowiązanie – mniejsze lub większe. Jeśli klient zdecyduje się zaufać nowej mar-

DECYZJA TO MOMENT PRAWDY, A ZAKUP TO ZOBOWIĄZANIE.

ce, to ryzykuje. A jeśli się sparzy – zamiast reklamować produkt, może zacząć nagłaśniać problem. I jeżeli zdobędzie wyjątkową atencję na Tik Toku czy Instagramie – marka ma swoistą „jesień średniowiecza” w mediach społecznościowych. Ponadto decyzja klienta to nie koniec, ale początek marketingowej odpowiedzialności. Tu zaczyna się prawdziwe testowanie obietnic. Czy produkt działa? Czy obsługa reaguje? Czy można liczyć na wsparcie? Jedna z marek sportowych daje 365 dni na zwrot zakupionego produktu – nawet jeśli go używałeś. Dzięki temu zdejmuje z klienta ryzyko decyzji. To nie tylko gest – to komunikat: „ufamy, że to, co sprzedajemy, działa”. W Polsce to też ryzyko nadużywania tej zasady przez nieuczciwych klientów… Na etapie decyzji ważne są gwarancje, obsługa klienta, proces reklamacyjny, jakość i… szybkość dostawy. Czy klient czuje, że marka o niego dba – nie tylko do momentu kliknięcia „kup teraz”?

4. Podtrzymanie, czyli „czy chcę zostać z tobą na dłużej?”

Utrzymać relację to najtrudniejsze zadanie. Konkurencja kusi, klient zapomina, zmienia się rynek. A marka, która chce być

obecna w życiu klienta dłużej niż jeden zakup, musi stale przypominać, że warto do niej wrócić. To etap, w którym lojalność klienta może zaistnieć, ale nie dzieje się to samo. Tu kluczowe są emocje, wartość dodana i pamięć o kliencie. Dobrze utrzymana relacja z klientem oznacza, że nie musisz go zdobywać za każdym razem od nowa. Wraca sam. I jeszcze mówi o tobie dobrze innym.

Przy czym dobry marketing nie kończy się na kampanii reklamowej. To nie zaliczenie KPI szefa sprzedaży. Dobry marketing to codzienna praca – jak w każdym związku. Bez sztuczek, tricków, chwytów, za to z konsekwencją, troską i uważnością. Tak buduje się rynek. Tak tworzy się zaufanie. Tak zdobywa się lojalność. I właśnie to – a nie błyskotliwy viral – zasługuje na słowa: „To jest dopiero dobry marketing”.

Jacek Kotarbiński

ekonomista i finansista, praktyk – marketer od 1990 r., wykładowca MBA i EMBA, członek Polskiego Naukowego Towarzystwa Marketingu, autor serwisu kotarbinski.com.

Rok 2026 planujcie agresywnie

Seks być może dobrze się sprzedaje, ale strach sprzedaje się lepiej.

Czwarty kwartał to ten czas, gdy lwia część zarządzających planuje następny rok. Z tej okazji krótka obserwacja: optymiści zarabiają pieniądze, pesymiści wyglądają na inteligentnych. Ponieważ czasy są zmienne, planowanie metodą „przewińmy przeszłość w przyszłość” sprawdza się jeszcze gorzej niż dotąd, bo w wielu miejscach przyszłość odchyla się od dotychczasowej normy bardziej niż wcześniej. W takim otoczeniu kwestia tego, z jakim nastawieniem podchodzimy do planowania przyszłości ma większe znaczenie niż zwykle.

Niestety, w zmiennym otoczeniu zaostrza się też komunikacja. Zauważyliście, że nagłówki są jeszcze bardziej agresywne niż normalnie? Prym w agresywności przekazu przejmują oczywiście twórcy i formacje skrajne. Wszedłem sobie na jeden z kanałów na YouTube i tam nagłówki: „Wielka klapa!”, „Inflacja znowu wróci?!”, „Nie chcemy kolejnego upadku?!”…

quo i próby „przeczekania” i powrotu do tego, „żeby było tak jak było” są bezwzględnie karane przez świat – o czym właśnie boleśnie przekonuje się koalicja rządząca. Zamiast więc prób przeczekania eliminujcie zagrożenia, które mogą zmieść was z planszy i planujcie 2026 rok w swoich firmach agresywnie – bez względu na to czy będzie to agresywność we wzroście, zabawie, cięciach kosztów czy odpoczynku.

NIE DAJCIE SIĘ WKRĘCIĆ MĄDRZE BRZMIĄCYM PESYMISTOM.

Seks być może dobrze się sprzedaje, ale strach sprzedaje się lepiej. Informacja o tym, że 15 milionów ludzi wstało i poszło dziś, jak codziennie, do roboty się nie klika. Tak samo jak to, że każdego miesiąca ogromna liczba Polaków jest bliżej spłacenia kredytu hipotecznego. Zjawisko nie jest jednak nowe. Już Mark Twain powiedział ponad 100 lat temu: „Przeżyłem wiele lat i miałem wiele problemów, z których większość nigdy się nie wydarzyła”. Też to zresztą mam: przez długie lata w Casbeg żartowaliśmy z Marcinem (Deręgowskim – przyp. red.), że z ostatnich trzech kryzysów przewidzieliśmy dziewięć.

Czy więc wszystko będzie dobrze? Oczywiście, że nie. Będzie tak samo jak z każdą zmianą i zakrętem: ktoś zyska, a ktoś straci. Jeśli czegoś jestem jednak pewien to tego, że obstawianie status

Odpowiedzi na pytania, które stawia nam otoczenie makro zawsze znajdują się na poziomie mikro, tam gdzie mamy na szereg rzeczy wpływ, a czasami nawet kontrolę nad sytuacją. Nie dajcie się wkręcić mądrze brzmiącym pesymistom, którzy ostatnio brzmią nie tak znowu mądrze. Ludzie, którzy planują uzyskanie bezpieczeństwa zwykle się rozczarowują. Ludzie, którzy liczą na przygodę – zwykle ją znajdują.

A i tak magia będzie, jak zwykle w implementacji.

Bartosz Majewski

Autor jest współwłaścicielem Casbeg.com oraz partnerem w Momentum Capital Partners.

Skuteczna promocja

Tego, co najlepsze w SEO, nie kupisz za pieniądze. Zanim zaczniesz wydawać, zrozum podstawy.

Temat budowania widoczności w wyszukiwarkach jest nadal bardzo gorący. Google wprowadziło w Polsce długo wyczekiwany tryb AI, który z pewnością dodatkowo zwiększy zainteresowanie konwersacyjnymi wyszukiwarkami opartymi na dużych modelach językowych. Hype wokół zmian, jak zwykle, powodu-

BYĆ MOŻE CEL TANIEJ I SKUTECZNIEJ OSIĄGNIESZ INNYMI DZIAŁANIAMI ONLINE LUB OFFLINE.

je wysyp ofert kursów, szkoleń i „złotych metod” na zbudowanie widoczności. W większości są to materiały, które znajdziecie za darmo w internecie.

Mimo trwającej rewolucji AI, w SEO

treści

i budowaniu widoczności w wyszukiwarce niewiele tak naprawdę się zmieniło. Bez ciągłej optymalizacji projektów, czasowego zaangażowania i testów zwykle niewiele da się osiągnąć. Szkolenia, nawet te z praktycznymi przykładami, zawsze pokazują perspektywę konkretnego projektu, która nie musi sprawdzić się gdzie indziej.

Trzech SEO-wców, cztery opinie

SEO to ciekawa dziedzina, w której trudno zarzucić komuś, że się myli, nawet jeżeli jego teorie mocno odbiegają od ogólnie przyjętych. Google udostępnia wytyczne do pozycjonowania, ale są to jedynie sugestie, a niekoniecznie to, co praktycznie działa. Powoduje to, że trudno odwołać się do jakichś informacji, które mogłyby stanowić potwierdzenie danej tezy o sku-

Gartner Magic Quadrant:

teczności określonych działań. Dlatego najrozsądniej jest opierać się na testach i danych z własnego projektu, zamiast przyjmować cudze „prawdy” za pewnik. Każdy projekt należy traktować indywidualnie, a na koniec dnia SEO nie sprowadza się jedynie do fraz kluczowych czy generowania ruchu. Liczy się przede wszystkim zgodność z intencją użytkownika, jakość treści oraz techniczna kondycja serwisu. Dobrze ułożone SEO powinno wspierać cele biznesowe: konwersje, leady, LTV – nie tylko wykresy sesji. Dlatego priorytetyzuj działania pod kątem wpływu na wynik, a nie „checklisty” z internetu.

Czy potrzebujesz

SEO?

Część projektów, w których właściciele domen inwestują w SEO, mogłaby radzić sobie znacznie lepiej, wykorzystując budżet efektywniej w innych kanałach. Widoczność organiczną buduje się zwykle latami, wymaga ona ciągłej optymalizacji i dużego zaangażowania czasowego. Czasami szybciej i taniej sprzedaż napędzisz w social mediach czy poprzez newsletter. Twoi klienci niekoniecznie muszą znajdować ofertę w Google’u. Dobrym pierwszym krokiem jest szybki przegląd potencjału fraz i intencji wyszukiwania. Często sprawdza się podejście hybrydo-

znikające technologie i praktyki

Kolejny raz zostaliśmy wykluczeni z publicznego przetargu za brak obecności w raporcie Gartnera. W świetle faktów, to nic innego, jak jawny absurd.

Chwilę po tym, gdy na spotkaniu w Ministerstwie Cyfryzacji Sekretarz Stanu Pan Paweł Olszewski klepie nas po ramieniu mówiąc „dobra robota”, Ministerstwo Nauki i Szkolnictwa Wyższego wpisuje wymóg Gartnera w swoim postępowaniu na SIEM. Popatrzmy zatem wspólnie na tę gartnerowską organizację, bo może nie wszyscy wiedzą, jak to działa.

Gartner Magic Quadrant (MQ) od lat jest uważany za jedno z narzędzi oceny dostawców IT. Jednak pomimo prestiżu raportu, pojawia się coraz więcej głosów krytyki, zarówno w kontekście błędnych prognoz, jak

i kontrowersyjnych praktyk biznesowych. Wiele osób z branży cytuje Gartnera, starając się umocnić głoszone przez siebie poglądy, jednak prawdy w tym wszystkim, niestety, nie jest dużo.

Przypomnę, że Gartner wielokrotnie prognozował trendy, które z czasem okazały się zwykłymi mrzonkami. Po kolei: Windows Phone miał wyprzedzić iPhone’a najpóźniej do 2015 r. Do 2019 r. co piąta marka miała porzucić swoje aplikacje mobilne. Fala piractwa plików 3D (naruszenia IP) miała do 2018 r. przynieść straty w wysokości 100 mld dol. Żadna z powyższych prognoz się nie sprawdziła. Jak zresztą wiele innych, w tym przewidywania z 2011 r., jakoby większość systemów IT wkrótce zostanie przeniesiona do chmury. Mija 14 lat… Chmura owszem, zawitała na salony, ale po drodze ostygł ten związany z nią entuzjazm. Jej utrzymanie jest drogie, ryzykowne, pracochłonne i na koniec dnia niebezpieczne. W praktyce, w przypadku polskich organizacji, chmura

zaistniała w 10, może 15 proc. infrastruktury. Jedźmy dalej: podczas swojego sympozjum Peter Sondergaard (Head of Research w Gartnerze) podał „niepodważalne liczby”. Otóż do końca 2025 r. jedno na trzy miejsca pracy miało zostać przejęte przez automatyzację oraz AI… Serio?

No dobrze, jak w takim razie, w świetle powyższych pomyłek, podchodzić do Magic Quadrant (MQ)? Czy można na nim polegać? Spójrzmy na konkretne przypadki, poczynając od RepliWeb. Firma ta pojawia się w 2009 r. jako wizjoner z silnym naciskiem na „ability to execute”, i nagle znika jako produkt „end of life”. Z kolei Netwitness CloudSIEM, promowany przez Gartnera jeszcze w 2021 r., znika z rynku w 2024 r. Jeszcze ciekawiej robi się w przypadku Trellix En-

PO PROSTU

BRAK MI SŁÓW.

we: podstawowe SEO „w tle”, a główny ciężar pozyskania ruchu przez kanały płatne lub własne media. Kliknięcia są jedynie drogą do celu, który być może znacznie taniej i skuteczniej osiągniesz innymi działaniami online lub offline.

Wiedza domenowa i case studies

Zwykle nikt nie zna Twojego projektu lepiej od Ciebie. Mam tu na myśli szeroki kontekst prowadzonej działalności, który przekłada się na to, jak użytkownicy wyszukują informacje w Twoim segmencie rynku. Sam wiesz najlepiej, jak powinieneś tworzyć treści, aby były angażujące. Agencja czy szkoleniowiec, który nie dysponuje wiedzą domenową, mogą pominąć wiele istotnych aspektów wpływających na końcowy efekt projektu. SEO-wiec nie wykona też pracy dla Twoich klientów, a następnie nie przygotuje case studies, które pomogą w generowaniu leadów. Nawet zlecając działania na zewnątrz, musisz mieć świadomość, że oprócz zapłaty będziesz prawdopodobnie musiał poświęcić czas na przygotowanie materiałów, dostarczenie kontekstu czy późniejszą weryfikację skuteczności działań. Współpraca z agencją czy freelancerem to wciąż wspólny proces – im więcej wiedzy wniesiesz, tym lepsze efekty uda się osiągnąć.

Konkurencja i narzędzia

Kolejnym ciekawym elementem SEO jest to, że większość działań Twojej konkurencji jest publicznie widoczna, a część możesz sprawdzić nawet za pomocą bezpłatnych narzędzi. Z dużym prawdopodobieństwem niektóre z linków zewnętrznych Twoich rywali w wyszukiwarce, które znajdziesz chociażby w Backlink Checker Ahrefs, znajduje się na publicznych miejscówkach, gdzie również możesz zostawić swoje linki. Wystarczy przejrzeć kilka wyników, by zobaczyć, jakie typy stron najczęściej linkują w danej branży: fora, katalogi, artykuły sponsorowane czy profile firmowe. To dobry punkt wyjścia do dalszych działań.

Monitoring pozycji oraz cykliczne audyty witryny również można przeprowadzić za pomocą darmowych narzędzi. Sam od wielu lat nie płacę za oprogramowanie w kilkunastu mniejszych projektach. Biorąc pod uwagę coraz mniejszą liczbę dostępnych danych oraz rosnące koszty zapytań po usunięciu przez Google parametru num=100, rola tych narzędzi będzie się zmniejszać. Z czasem coraz większe znaczenie będą miały natomiast dane jakościowe.

terprise Security Manager (ESM). Początkowo, jako McAfee ESM, a wcześniej jako Intel Security, był umieszczony w ćwiartce liderów. Po fuzji Fireeye z McAfeee powstaje Trellix, który jednak nie załapuje się do MQ, przechodząc w „end of life”. Podobnie jak po przejęciu CA przez Broadcom rozwiązanie typu Unified Infrastructure Management z pozycji lidera znika z raportu, również przechodząc w „end of life”.

I jeszcze ciekawostka w postaci rozwiązania Gurucul. Czy ktoś w Polsce to w ogóle widział? W raporcie „Gartner Critical Capabilities for SIEM 2024”, firma Gurucul otrzymała drugą najwyższą ocenę w dwóch kluczowych obszarach: Threat Detection, Investigation and Response (TDIR) – ocena 4,05 na 5, oraz Customizable SIEM Use Cases – ocena 4,13 na 5. Szybko poszło, świetny wynik! Co więcej, całemu temu zamieszaniu towarzyszy promowanie produktów i firm, których dawno nie ma: Panopticon Software, Nubera (GetApp, AppStorm, CloudWork), Ms Sharepoint Workspace/Groove, MessageWay…

A ile kosztuje ten Gartner? Wprawdzie teoretycznie obecność w raporcie Gartnera nie jest związana z żad-

ną opłatą… ale warto kupić abonament! Gartner Advisory to koszt około 100 tys. dol. rocznie, podczas gdy Reprints Rights wiążą się z opłatą w wysokości 30 tys. dol. rocznie. W świetle tego szefowie NetScout w 2014 r. złożyli pozew przeciw Gartnerowi, oskarżając go o twierdzenie, że „trzeba płacić, aby grać”. Cytaty z dokumentów są dość mocne: „Kiedy pracowałem dla poprzedniego pracodawcy zasugerowano mi, żeby dowiedzieć się, co oznacza ‚visionary’. W odpowiedzi usłyszałem, że musimy zostać klientami. Doszedłem do wniosku, że trzeba płacić, aby wiedzieć, co jest wizjonerskie, i następnie włączyć to do swojej wizji”; ”Zauważyłem, że znaleźliśmy się w Magic Quadrant dopiero, gdy zostaliśmy klientami Gartnera. Po zaprzestaniu bycia klientem, nie zostaliśmy ponownie zaproszeni”.

Czas to pieniądz

Za darmo nie zbudujesz przewagi w wyszukiwarkach nad topowymi brandami. Bez nakładów finansowych raczej nie stworzysz też milionowego biznesu opartego wyłącznie na ruchu organicznym. Ale zanim zaczniesz wydawać pieniądze na SEO, warto, abyś rozumiał przynajmniej podstawy – to ułatwi zarządzanie kampanią, ocenę wartości narzędzi i usług oraz weryfikację zrealizowanych działań. Znajomość fundamentów (intencja wyszukiwania, technikalia serwisu, architektura treści, linkowanie) pozwala podejmować lepsze decyzje i sensowniej rozmawiać z wykonawcami. Zacznij od małych eksperymentów i prostych metryk, potem skaluj budżet tam, gdzie widać zwrot. Oczywiście jeżeli za coś nie płacisz, nie do końca oznacza to, że jest za darmo. SEO to zwykle Twój czas, który się nie skaluje i często jest jednym z cenniejszych aktywów w organizacji.

Tomasz Kozon

pełni funkcję CEO w Boring Owl Software House.

Co będzie z Tobą, jeśli przestaniesz płacić? Uważaj, z lidera możesz stać się „niche player”! To dlatego ZL Technologies w 2009 r. złożyło pozew przeciwko Gartnerowi twierdząc, że umieszczenie go w obszarze „Niche” wyrządziło mu wymierne szkody. Jednocześnie pojawiły się oskarżenia o nadużycia metodologiczne (również insynuacje „pay-to-play”).

A można inaczej!

Energy Logserver wchodzi dziś do Tajlandii. Nawiązaliśmy kontakty dystrybucyjne i partnerskie, aby móc oferować swój system na tym właśnie rynku. Elementem początkowym jest certyfikacja NECTEC rozwiązania SIEM przez lokalną instytucję, pod kątem spełnienia wymagań i regulacji w Tajlandii! Koszt? 10 tys. zł! Dostaliśmy konkretne, lokalne wytyczne, system został uruchomiony i aktualnie przechodzi testy. Od momentu otrzymania pozytywnej opinii, w zapisach postępowania nikt nie odwołuje się do amerykańskiej firmy, która rzekomo coś wie o specyfice lokalnego rynku. Można? Tymczasem, gdy najważniejszy polski urząd odpowiedzialny za edukację i kulturę stosuje wykluczenia dla polskich producentów i to na bazie przesłanek, które opisałem…po prostu brak mi słów.

Artur Bicki

pełni funkcję CEO Energy Logserver.

Integracja,

która (nie) działa?

Opr. Tomasz Gołębiowski

Wygląda na to, że działy HR powinny przyjrzeć się integracji na nowo i zapytać pracowników, czego naprawdę potrzebują.

NWARTO POMYŚLEĆ O SZERSZEJ GAMIE AKTYWNOŚCI.

ajnowsze badanie Pracuj.pl pokazuje, że ponad 30 proc. pracowników czuje się spiętymi podczas spotkań integracyjnych, a ponad 40 proc. uważa, że nie są one dopasowane do ich potrzeb. Nic zatem dziwnego, że niemal połowa respondentów uważa, że tego rodzaju wydarzenia nie wpływają szczególnie pozytywnie na relacje w zespole. Przy czym większość badanych twierdzi, że spotkania integracyjne w ich firmie odbywają się głównie w restauracjach, co sugeruje, że integracja ogranicza się do wspólnego posiłku. I choć dla części pracowników może to być atrakcyjna forma

budowania relacji, dla innych stanowi jedynie formalność. To wyraźny sygnał dla pracodawców: schematyczne podejście do integracji może być nieskuteczne. – Spotkania integracyjne powinny budować relacje, ale aby były skuteczne, muszą odpowiadać na realne potrzeby zespołów. Pracownicy mają różne oczekiwania: dla jednych to okazja do swobodnego networkingu, dla innych stresujące wydarzenie w dużej grupie. Firmy powinny podejść do integracji elastycznie, uwzględniając różnorodne formy aktywności –  komentuje Agata Grzejda, ekspertka ds. komunikacji wewnętrznej w Grupie Pracuj.

Kluczowe wyzwania

Blisko 1/5 uczestników spotkań integracyjnych nie potrafi jednoznacznie oce-

Co jest dla Ciebie najważniejsze w spotkaniach integracyjnych?

Budowanie relacji z zespołem

Bliższe poznanie współpracowników

Odpoczynek od codziennych obowiązków

Gry i konkursy zespołowe

Forma i organizacja wydarzenia

Możliwość zdobycia nowych umiejętności/wiedzy

innego

nić, czy czuje się na nich komfortowo, co sugeruje, że dla części pracowników wydarzenia te są neutralnym, ale niekoniecznie pozytywnym doświadczeniem. W sumie 25 proc. respondentów uważa, że jakość organizowanych wydarzeń mogłaby być lepsza, co może pokazywać, że firmy często traktują integrację jako obowiązkowy punkt w kalendarzu, zamiast realną inwestycję w relacje pracowników.

Kolejnym wyzwaniem jest mało zróżnicowana forma firmowych wydarzeń. Jak pokazuje badanie Pracuj.pl, 84 proc. spotkań integracyjnych sprowadza się do wspólnego posiłku, 50 proc. do zabawy tanecznej, a jedynie 25 proc. organizuje warsztaty i zajęcia. Stosunkowo rzadkie są też imprezy tematyczne (17 proc). Jeszcze mniej, bo tylko 14 proc. pracowników, miało okazję uczestniczyć w spotkaniach integracyjnych połączonych ze zwiedzaniem czy inną formą wspólnej aktywności, co mogłoby zapewnić bardziej angażujące doświadczenia. Ograniczona różnorodność sprawia, że nie wszyscy pracownicy mogą znaleźć coś dla siebie – a to rodzi ryzyko, że część osób zamiast budować relacje, poczuje się wykluczona. Firmy niekiedy oferują pracownikom integrację w formie wyjazdowej, ale nie jest to standardem – niemal połowa (49 proc.) pracowników miała okazję uczestniczyć w spotkaniu organizowanym poza miastem, w którym działa firma, a 40 proc. brało udział w wydarzeniu z noclegiem. To pokazuje, że takie formy budowania relacji w zespole nie są standardem, mimo że mogą przynieść lepsze efekty niż jednodniowe spotkania o schematycznym charakterze.

Dlaczego warto zadbać o integrację?

Choć spotkania integracyjne budzą mieszane uczucia wśród pracowników, ich znaczenie dla atmosfery w firmie jest niepodważalne. Nieco ponad połowa badanych uważa, że integracja pozytywnie wpływa na relacje w zespole, co potwierdza, że dobrze zorganizowane wydarzenia mogą wzmacniać więzi i budować poczucie wspólnoty. Z kolei 49 proc. badanych twierdzi, że integracje pozwalają na bliższe poznanie współpracowników. Jednocześnie dla 32 proc. ważny jest wówczas odpoczynek od codziennych obowiązków, a 29 proc. ceni sobie gry i konkursy zespołowe jako kluczowy element takich wydarzeń. Dla 21 proc. istotna jest forma i organizacja spotkania, natomiast na możliwość zdobycia nowych umiejętności zwraca uwa-

gę 18 proc. osób. Co ciekawe, zaledwie 1 proc. uczestników uważa, że spotkania integracyjne nie mają dla nich znaczenia. – Dbałość o lepiej dopasowaną integrację to nie tylko kwestia atmosfery, ale także strategii HR i employer brandingu. W czasach, gdy firmy konkurują o najlepsze talenty, elementy kultury organizacyjnej, takie jak jakość relacji i współpracy, odgrywają kluczową rolę w budowaniu atrakcyjnego miejsca pracy. Zespoły, które dobrze się znają i mają okazję do budowania relacji w przemyślany sposób, lepiej ze sobą współpracują, a to finalnie przekłada się na wyniki firmy – mówi Konstancja Zyzik, ekspert ds. rekrutacji i rozwoju talentów w Pracuj.pl.

Czas na nową jakość

Firmy już inwestują w integrację – to bardzo dobra wiadomość. Spotkania tego typu mogą odgrywać kluczową rolę w budowaniu silnych zespołów, poprawie atmosfery i zwiększaniu zaangażowania pracowników. Jednak badanie Pracuj.pl jasno pokazuje, że obecny model często nie spełnia oczekiwań wielu zatrudnionych. Brakuje różnorodności, elastyczności i dopasowania do potrzeb zespołów. Dla części pracowników integracja to stresujące doświadczenie, inni nie znajdują w niej wartości, a jeszcze inni oczekują bardziej angażujących form budowania relacji.

W 2025 r. firmy powinny podejść do integracji w sposób bardziej przemyślany i dopasowany do różnorodnych oczekiwań. Odejście od schematycznych rozwiązań i większa personalizacja wydarzeń mogą sprawić, że integracja stanie się rzeczywistym narzędziem wzmacniania zespołów, a nie tylko formalnością. Warto pomyśleć o szerszej gamie aktywności – zamiast ograniczać się do kolacji w restauracji, można wprowadzić warsztaty tematyczne, aktywności outdoorowe czy nawet inicjatywy hybrydowe, uwzględniające specyfikę pracy zdalnej.

Zadbana i dobrze zorganizowana integracja to nie tylko benefit, ale element budowania kultury organizacyjnej. To także inwestycja, która może się realnie zwrócić – w postaci lepszej współpracy, większej lojalności i wyższego poziomu satysfakcji pracowników. Firmy, które chcą być atrakcyjnymi pracodawcami, powinny na nowo przemyśleć, jak projektują swoje inicjatywy integracyjne. Klucz do sukcesu leży nie w tym, czy organizować spotkania integracyjne, ale jak to robić, aby faktycznie miały one znaczenie.

Zakaz konkurencji: tak, ale z głową

Czy zakaz konkurencji w umowach B2B w sektorze IT ma sens?

Rzeczywistość na papierze vs. rzeczywistość przed sądem.

Mr Bard, były CTO w firmie IT, opuścił firmę, aby dołączyć do bezpośredniego konkurenta. Stało się tak pomimo tego, że wcześniej podpisał umowę o zakazie konkurencji, która zabraniała mu pracy dla konkurentów byłego pracodawcy w ciągu roku od odejścia. Były pracodawca złożył pozew przeciwko Bardowi, zarzucając naruszenie klauzuli o zakazie konkurencji. Firma domagała się odszkodowania za potencjalne straty biznesowe argumentując, że Bard miał dostęp do poufnych informacji o klientach, planach strategicznych i zastrzeżonych technologiach. W odpowiedzi Mr Bard stwierdził, że klauzula o zakazie konkurencji była zbyt szeroka i nieuzasadniona, ograniczając jego zdolność do zarabiania na życie, a jego obecna rola wyraźnie różni się od poprzedniej.

W tym konkretnym przypadku sąd uznał, że choć były „pracodawca” miał uzasadniony interes w ochronie swojej działalności, klauzula o zakazie konkurencji była zbyt szeroka. Sąd zmodyfikował ograniczenia do bardziej rozsądnego zakresu, zapewniając, że nie ograniczają one nadmiernie prawa Barda do zatrudnienia. Przy czym akurat ta sprawa dotyczyła rynku brytyjskiego, ale ze względu na globalny zasięg sektora IT, podobne sytuacje mogą wystąpić w innych krajach i jurysdykcjach.

Klauzule o zakazie konkurencji mają kluczowe znaczenie dla firm z branży IT. Ich oczywistym celem jest ochrona ich przewagi konkurencyjnej i zastrzeżonych informacji. Jednak wykonalność tych klauzul zależy od ich racjonalności, proporcjonalności i konkretnego kontekstu prawnego. Dlatego powinny mieć rozsądny zakres, czas trwania i zasięg geograficzny. Warto brać pod uwagę, że sądy oceniają, czy klauzula jest niezbędna do ochrony uzasadnionych interesów biznesowych, a jednocześnie czy nie jest aby jednak nadmiernie restrykcyjna.

Z perspektywy międzynarodowej

Podejście UE do klauzul o zakazie konkurencji w umowach B2B, w tym w umowach dotyczących osób samozatrudnionych, zasadniczo wymaga, aby takie klauzule były niezbędne do ochrony uzasadnionych interesów biznesowych oraz miały rozsądny zakres i czas trwania. Poszczególne państwa członkowskie UE mogą mieć jednak własne przepisy. Na przykład w Niemczech klauzulom o zakazie konkurencji musi towarzyszyć odszkodowanie, jeśli wykraczają one poza okres obowiązywania umowy.

KLAUZULE WARTO PODDAWAĆ OKRESOWYM REWIZJOM.

W Stanach Zjednoczonych zaś wykonalność klauzul o zakazie konkurencji różni się znacznie w zależności od stanu. Stany takie jak Kalifornia generalnie unieważniają klauzule o zakazie konkurencji, podczas gdy na przykład Floryda i Teksas egzekwują je, jeśli są one uzasadnione i niezbędne do ochrony określonych interesów biznesowych. Z kolei kanadyjskie sądy generalnie ostrożnie podchodzą do egzekwowania klauzul o zakazie konkurencji, zwłaszcza w przypadku niezależnych wykonawców. Klauzule te muszą być uzasadnione i niezbędne do ochrony konkretnych interesów biznesowych.

Na koniec warto dodać, że klauzule o zakazie konkurencji warto też od czasu do czasu poddawać rewizjom, ze względu na zmiany na rynku, ale i zmiany w orzecznictwie.

Renata Lewicka jest prezesem zarządu Warwick Legal Network.

Wojna

o chipy:

ciąg dalszy nastąpił

Październikowe spotkanie na szczycie pomiędzy

Xi Jinpingiem i Donaldem Trumpem wywołało falę spekulacji na całym świecie. Przy czym jego największe, niemal natychmiastowe konsekwencje odczuwalne są w sektorze, który definiuje naszą przyszłość – w świecie zaawansowanych technologii.

Roczne zawieszenie amerykańskich restrykcji eksportowych, uzgodnione podczas rozmów, rzuca nowe światło na globalny łańcuch dostaw i skomplikowaną relację między mocarstwami. W centrum tej burzy znalazła się holenderska firma Nexperia, kluczowy gracz na rynku chipów, której losy stały się symbolem technologicznej wojny.

Wyobraźmy sobie firmę, która produkuje „mózgi” do naszych samochodów. To właśnie robi Nexperia – dostarcza niezbędne chipy, czyli małe układy scalone, które zarządzają wszystkim w dzisiejszych autach, od silnika po systemy bezpieczeństwa. Choć firma ma siedzibę w Holandii, jej właścicielem jest chiński gigant technologiczny Wingtech. I tu zaczyna się problem.

Pod koniec września holenderski rząd, powołując się na starą ustawę z 1952 r., przejął kontrolę nad Nexperią, oskarżając jej zarząd o niewłaściwe zarządzanie. Decyzja ta zapadła zaledwie dzień po tym, jak Stany Zjednoczone ogłosiły zaostrzenie przepisów eksportowych. No-

się znajduje, holenderskie przejęcie było postrzegane jako próba ochrony firmy przed nadchodzącymi sankcjami USA.

Jednak po spotkaniu Xi-Trump sytuacja zmieniła się o 180 stopni. USA zgodziły się zawiesić „regułę 50 proc.” na rok. Jak ujął to jeden z analityków, potrzeba holenderskiego przejęcia nagle „zniknęła”. Ta decyzja przyniosła ulgę globalnym koncernom, takim jak Volkswagen, które obawiały się paraliżu produkcji z powodu braku kluczowych komponentów. Historia Nexperii pokazuje, jak bardzo polityka na najwyższym szczeblu wpływa na globalne łańcuchy dostaw i jak firmy technologiczne stają się pionkami w geopolitycznej rozgrywce. Historia ta też pokazuje, jak nadgorliwość pionków politycznych może przynieść im efekty znacznie odbiegające od założeń przyjmowanych w oparciu o bardzo krótkowzroczne kalkulacje.

Chiński Długi Marsz

wa zasada, znana jako „reguła 50 proc.”, zakazywała eksportu do firm, które w co najmniej 50 proc. należą do podmiotów z czarnej listy handlowej Waszyngtonu. Ponieważ Nexperia w całości należy do chińskiego Wingtech, który na tej liście

ku niezależności technologicznej Niezależnie od zawirowań wokół Nexperii, Chiny nie zwalniają tempa w dążeniu do strategicznego celu: samowystarczalności technologicznej. Pekin od lat inwestuje ogromne środki, aby uniezależnić się od zagranicznych technologii, zwłaszcza w kluczowych sektorach, takich jak półprzewodniki. Najnowszym przykładem tej strategii jest uruchomienie w Shenzhen „państwowej” platformy do testowania półprzewodników dla przemysłu motoryzacyjnego. To zaawansowane centrum, wyposażo-

ne w 13 specjalistycznych laboratoriów, ma na celu pełną lokalizację produkcji zaawansowanych chipów samochodowych i wzmocnienie bezpieczeństwa łańcucha dostaw. Co ważne, to kluczowy element nadchodzącego 15. pięcioletniego planu Chin, który ma na celu zbudowanie odpornej i niezależnej gospodarki technologicznej.

Przy czym chińskie ambicje nie kończą się na chipach samochodowych. Krajowy lider w produkcji pamięci, firma ChangXin Memory Technologies (CXMT), ogłosiła rozpoczęcie masowej produkcji zaawansowanych pamięci LPDDR5X DRAM. Co to oznacza dla przeciętnego użytkownika? No cóż, pamięci te są kluczowym elementem nowoczesnych smartfonów i systemów sztucznej inteligencji (AI), zapewniając im najwyższą możliwą szybkość i wydajność. Wejście CXMT na ten rynek, zdominowany dotychczas przez gigantów takich jak Samsung, to ogromny krok naprzód w zmniejszaniu luki technologicznej. Co więcej, naukowcy z Uniwersytetu Pekińskiego ogłosili przełom w technologii litografii – jednym z najtrudniejszych i najważniejszych etapów produkcji chipów. Wyobraźmy sobie, że produkcja chipa to jak robienie zdjęcia w niewyobrażalnie małej skali. Litografia to proces „naświetlania” wzorów na materiale światłoczułym zwanym fotorezystem. Chińscy naukowcy opracowali sposób na wizualizację tego, jak cząsteczki fotorezystu zachowują się podczas tego

procesu. To odkrycie może znacząco zredukować defekty i otworzyć drogę do produkcji jeszcze bardziej zaawansowanych chipów, eliminując jedno z największych „wąskich gardeł” chińskiego przemysłu półprzewodnikowego.

Dylemat Nvidii i czarny rynek chipów AI

Rozmowy na linii USA-Chiny mają również bezpośredni wpływ na przyszłość Nvidii, najcenniejszej firmy na świecie, produkującej chipy. Jej procesory graficzne (GPU) są absolutnie kluczowe dla rozwoju sztucznej inteligencji. Amerykańskie restrykcje eksportowe sprawiły, że udział Nvidii w chińskim rynku spadł z 95 proc. do zera. CEO firmy, Jensen Huang, wyraził optymizm co do możliwości powrotu na ten ogromny rynek, jednak prezydent Trump stwierdził, że najnowsze chipy AI, znane jako Blackwell, nie były przedmiotem negocjacji podczas jego spotkania z Xi Jinpingiem w Korei.

Tymczasem popyt na zaawansowane chipy w Chinach jest tak ogromny, że kwitnie tu czarny rynek. Policja w Shenzhen rozbiła syndykat, który fałszował importowane chipy, polerując i zmieniając oznaczenia na starych, zużytych układach. Co więcej, szacuje się, że po zaostrzeniu restrykcji do Chin przemycono chipy Nvidii o wartości co najmniej miliarda dolarów. To desperackie poszukiwanie zagranicznej technologii pokazuje, jak bardzo chińskie firmy wciąż jej potrzebują do napędzania rewolucji AI, jednocześnie intensywnie pracując nad stworzeniem własnych alternatyw. Najnowsze wydarzenia na froncie technologicznym pokazują, że globalna rywalizacja o dominację w dziedzinie półprzewodników jest bardziej zacięta niż kiedykolwiek. Chociaż polityczne decyzje mogą przynieść chwilową odwilż, strategiczne cele Chin pozostają niezmienne. Kraj ten z determinacją buduje własny, niezależny ekosystem technologiczny, osiągając kolejne przełomy i rzucając wyzwanie dotychczasowym liderom. Wojna o chipy trwa, a jej wynik zdefiniuje technologiczną i gospodarczą mapę świata na nadchodzące dekady.

Leszek Ślazyk

Autor jest redaktorem naczelnym portalu Chiny24.com.

Karpiarze biznesu

Mam absolutne przekonanie, że bardzo duża część organizacji sprzedażowych powinna być nazywana karpiarzami.

Dawno temu współpracowałem z hotelem, na którego terenie znajdowało się łowisko karpia. Podczas jednej z konsultacji zapytałem w jaki sposób wykorzystują potencjał wędkarzy? Dostałem srogi łomot: „To nie wędkarze! To karpiarze!”. Z uwagi na to, że mam taką charakterystyczną cechę, która sprawia, że interesują mnie ludzie i ich „dziwne hobby”, postanowiłem się przyjrzeć tematowi bliżej. Zarezerwowałem sobie pokój w hotelu na weekend i postanowiłem poznać zwyczaje karpiarzy.

W piątek na parkingu zaczęły się pojawiać duże SUV’y oraz minivany. Wysiadający z nich (głównie) panowie wypakowywali tony sprzętu na wózki i ruszali z nimi w kierunku łowiska. Czego tam nie było: zdalnie sterowane łodzie zanętowe, z otwieranym dnem, które pozwalały bardzo precyzyjnie zrzucić przynętę w bardzo konkretne miejsce łowiska; echosondy; elektroniczne „powiadamiacze” mocowane do wędek, które sygnalizowały „że coś się dzieje”; i wreszcie namioty, a nawet specjalne łóżka karpiowe (tak, jest taki produkt jak „łóżko karpiowe”, jakby karpiarz leżał inaczej…).

Z uwagi na to, że generalnie bardzo wierzę w to, że nie ma nic złego w zasadzie „więcej sprzętu niż talentu”, to z kosmicznym zainteresowaniem przyglądałem się całemu temu „wyścigowi zbrojeń”. Wieczorem, po rozstawieniu sprzętu, karpiarze pojawili się w restauracji hotelowej. Zacząłem ich wypytywać o to fascynujące mnie hobby. W pewnym momencie doszliśmy do najważniejszego pytania „Co robią ze złowioną rybą?”. Odpowiedź

okazała się prosta: „Wyciągamy haczyk, smarujemy pyszczek odkażaczem do ran, ważymy karpia, robimy sobie z nim zdjęcie i … wypuszczamy”. Przyznają, że – tak jak w przypadku łowienia innych ryb –ten model całkiem mi się podoba. A teraz czas lekcję biznesową.

Podsumowując, mam absolutne przekonanie, że bardzo duża część organizacji sprzedażowych powinna być nazywana karpiarzami. Każdego miesiąca inwestują coraz więcej w narzędzia ukierunkowane na pozyskiwanie nowych klientów. Krocie wydawane na kampanie ukierunkowane na generowanie leadów. Narzędzia automatyzacji „wygrzewające leada”. Zespoły pomagające w umawianiu spotkań. Testy, rekomendacje. Mogę wymieniać godzinami. I co robią ze złowionym klientem? No normalnie, smarują pyszczek, robią zdjęcie i wypuszczają…

CO ROBIMY ZE ZŁOWIONYM KLIENTEM?

Od 25 lat zajmuję się budowaniem lojalności klienta. I tak sobie myślę: kiedy w końcu zaczniemy z taką samą uwagą traktować budowanie lojalności, jak pozyskiwanie nowych klientów?

Wojciech Herra

jest CEO Instytutu Psychologii Sportu.

Puls branży IT

Istotne trendy produktowe, technologiczne, biznesowe, w oparciu o dane pochodzące z renomowanych agencji analitycznych, organizacji branżowych i globalnych mediów, dotyczące głównie Europy i Polski.

Priorytety

wydatków polskich firm na cyberbezpieczeństwo

Większość średnich i dużych firm w kraju (62 proc.) przewidywała zwiększenie wydatków na cyberbezpieczeństwo w 2025 roku – według raportu PMR Market Experts dla Mediarecovery i Safesqr. Przy tym jedynie co piąta badana organizacja twierdzi, że ma wyodrębniony i odpowiedni budżet na ten cel. Taki sam odsetek ma osobny budżet, ale ocenia go jako niewystarczający. Około 60 proc. respondentów finansuje natomiast wydatki na ochronę cyfrową z ogólnego budżetu IT. Z badania wynika, że inwestycje firm skoncentrują się na wzmocnieniu wewnętrznych kompetencji poprzez szkolenia personelu (69 proc.), zaś znacznie mniej respondentów zamierza zaangażować nowych specjalistów (20 proc.).

Jakie

inwestycje w cyberbezpieczeństwo firma

najbliższych 12 miesięcy?

Szkolenia personelu

Audyty bezpieczeństwa

Zakup nowych narzędzi

Testy penetracyjne

Konsulting

Certyfikacje

Zatrudnienie specjalistów

Usługi SOC Inne

Nie planujemy żadnych inwestycji w ciągu 12 miesięcy

planuje w ciągu

Już 77 proc. przedsiębiorców deklaruje, że wdrożyło praktyki zrównoważonego rozwoju we wszystkich firmowych procesach związanych z drukiem, podczas gdy w 2024 r. odsetek takich organizacji wynosił 68 proc. – wynika z danych Quocirca. Natomiast 82 proc. respondentów zapowiada przyspieszenie realizacji planów obejmujących kwestię „sustainability” w 2026 r. Tak twierdzą decydenci IT z Wielkiej Brytanii, Francji, Niemiec i USA odpowiedzialni za infrastrukturę druku. Zapewniają, że efektywność energetyczna, „zrównoważone” materiały eksploatacyjne i  trwałość urządzeń pozostają kluczowymi czynnikami wyboru. Już 53 proc. pytanych zapewnia, że ograniczyło zużycie papieru i wdrożyło cyfrowy obieg pracy ze względu na tzw. zrównoważony rozwój. Do tego 52 proc. korzysta z  recyklingu tuszy i tonerów, 36 proc. używa odnowionego sprzętu drukującego, a 31 proc. refabrykowanego, co stanowi wzrost z 27 proc. i 26 proc. w 2024 r. Jednocześnie wzrosły obawy dotyczące greenwashingu, zajmując drugie miejsce wraz z brakiem danych dotyczących wpływu drukarek na środowisko. Źródło: Quocirca Sustainability Trends Report 2025

Redukcja kosztów IT palącym problemem dla CIO

Z analizy Flexery wynika, że redukcja kosztów IT i ograniczenie ryzyka znajdują się w pierwszej trójce priorytetów szefów IT na świecie. Jednocześnie głównym problemem CIO stało się znalezienie równowagi pomiędzy innowacjami, bezpieczeństwem a odpowiedzialnością finansową i to w warunkach, gdy struktura kosztów jest coraz bardziej złożona, a wydatki pną się w górę. Pilną potrzebę zapanowania nad nimi obrazują narzekania 73 proc. CIO dotyczące wzrostu kosztów obsługi systemów SaaS i infrastruktury chmurowej. Przy tym 67 proc. respondentów przyznaje, że wydatki na chmurę zbyt mocno obciążają firmowe budżety na IT. Aż 80 proc. liderów IT zgłasza wzrost wydatków na aplikacje AI, a ponad jedna trzecia jest zdania, że wydaje na nie za dużo. Ponadto szefowie działów technologicznych zmagają się z widocznością i złożonością danych (85 proc. przyznaje, że luki w widoczności IT stanowią wręcz zagrożenie dla ich organizacji).

Priorytety CIO na nadchodzący rok

44

proc.

MŚP kupuje bez strategii

W ciągu najbliższego roku niemal 60 proc. MŚP planuje zwiększyć nakłady na cyfryzację – wynika z badania przeprowadzonego przez PMR Market Experts na zlecenie Comarchu. Okazuje się, że co trzeci podmiot (32 proc.) chciałby zainwestować w systemy ERP/CRM, niemniej najwięcej pytanych zapowiada wydatki na nowy sprzęt lub modernizację infrastruktury IT (41 proc.). Na drugim miejscu pod tym względem wymieniano natomiast cyberbezpieczeństwo (35 proc.). Niepokoić może przy tym fakt, że znaczący odsetek małych i średnich przedsiębiorstw kupuje rozwiązania IT bez żadnej strategii – przyznaje się do tego aż 44 proc. ankietowanych przedsiębiorców.

Jaką strategię preferuje Państwa firma przy zakupie nowych rozwiązań IT?

Nie mamy stałej strategii (decyzje podejmujemy indywidualnie przy każdym projekcie)

Preferujemy rozszerzanie współpracy z dotychczasowym dostawcą

Wybieramy najlepszy produkt w danej klasie, nawet jeśli pochodzi od innego dostawcy, a integrację rozwiązujemy później Bardzo rzadko podejmujemy decyzje dotyczące zakupu nowych rozwiązań IT

Wzrost wydatków na AI, chmurę i cyberbezpieczeństwo

W 2026 r. wydatki na IT w Europie wzrosną o 11 proc., osiągając poziom 1,4 bln dol. – prognozuje Gartner. Analitycy twierdzą, że więcej pieniędzy pójdzie zwłaszcza na sztuczną inteligencję, chmurę i cyberbezpieczeństwo. Prognoza zakłada, że wydatki użytkowników końcowych na modele generatywnej AI podskoczą w przyszłym roku o 78 proc. Co zaś do chmury, to inwestycje mają być skoncentrowane na suwerenności cyfrowej. Przewiduje się, że wydatki na usługi chmury publicznej zwiększą się o 24 proc. Wysoko na liście zakupów ma pozostać oprogramowanie, co dotyczy firm, które potrzebują bardziej inteligentnych, wydajnych i spersonalizowanych aplikacji. Ponadto rosnące ceny software’u wymuszą większe kwoty na ten cel. Podrożeć w 2026 r. ma także sprzęt, ponieważ producenci będą dodawać do urządzeń funkcje AI i rekompensować sobie zwiększające się koszty. Co do infrastruktury, to dzięki AI będzie nadal rósł popyt na serwery. Prognozuje się, że wydatki użytkowników końcowych w Europie na serwery zoptymalizowane pod kątem sztucznej inteligencji osiągną pułap 46,8 mld dol. w 2026 r. wobec 39,3 mld dol. w 2025 r. Przy tym kraje europejskie będą dążyć do samodzielnego rozwoju i zarządzania systemami AI, bez polegania na zagranicznych platformach.

Prognoza wydatków na IT w Europie w 2026 roku

Wydatki w 2025 r. (mld dol.) Wzrost w 2025 r. (%) Wydatki w 2026 r. (mld dol.)

Źródło: raport “Efektywność cyfryzacji w sektorze MŚP”, PMR Market Experts na zlecenie Comarch ERP

Co miesiąc sprawdzamy,

o czym branża IT (i nie tylko) dyskutuje na największym biznesowym portalu społecznościowym

Maciej Durczak, CEO MWT Solutions, podzielił się spostrzeżeniami w związku z przeprowadzoną rekrutacją na stanowisko przedstawiciela handlowego: „Zaciekawiła mnie struktura CV, jakie otrzymujemy. Po 2 tygodniach zawieszonego ogłoszenia na pracuj.pl mamy kilkanaście CV (bardzo skromnie swoją drogą) w tym ani jednej od osoby poniżej 30 roku życia! Zaczynałem pracę jako handlowiec w wieku 18 lat. Nikogo do tego nie namawiam, bo można spędzić młodość o wiele ciekawiej niż robiąc 60 tysięcy km rocznie po całej Polsce, pracując nawet w weekendy. Praca w sprzedaży zawsze była wymagająca na wielu poziomach. Nie dziwię się, że młodzi ludzie nieszczególnie się do niej pchają, bo to zawód, który wymaga ogromnego wysiłku, poświęcenia, a przede wszystkim dużej odporności psychicznej. Otwierając w 2016 roku oddział MWTS w Czechach zauważyłem, że to społeczeństwo ‘starych’ (takich jak ja) ludzi. Szukałem młodych dwudziestokilkuletnich handlowców, którzy pójdą z młodzieńczą energią w rynek promować nasze rozwiązania – tak jak ja kiedyś. Okazało się, że takich ludzi tam po prostu nie ma. Przyczyny są dwie: po pierwsze, nasze społeczeństwa się starzeją, a po drugie sprzedaż wymagająca ogromnego wysiłku jest dla dzisiejszej młodzieży po prostu nieatrakcyjna. Nie obarczam winą młodych – gdybym wtedy mając 18 lat, miał jakiekolwiek pieniądze wystarczające do pierwszego, ani myślałbym o tak trudnej robocie. Los chciał jednak inaczej i chyba dobrze się stało… Tu pojawia się dobra wiadomość dla handlowców: świat się automatyzuje, ale nie tak szybko jak Was ubywa na rynku pracy. Bezrobocie jeszcze długo Wam nie grozi! Gdybyście jednak szukali pracy – niezależnie od tego ile macie lat – to piszcie do mnie śmiało!”.

Jakub Skałbania, założyciel Netwise

, zwraca uwagę, że „luka w AI to już nie 100 mld USD, ani nawet 600 mld USD, jak podawali ludzie z Sequoia Capital jeszcze rok temu, ale już około 800 mld USD. Według analiz Bain & Company sektor potrzebuje około 2 bilionów USD rocznych przychodów, żeby uzasadnić nakłady na infrastrukturę AI… i pozostanie rosnąca co rok luka startująca od 800 mld USD. Jeśli to nie definicja bańki, to nie wiem co nią jest. Tymczasem badania MIT z setek firm o pięknym tytule („The Gen AI Divide. State of AI in business 2025”) wykazały, że 95 proc. projektów GenAI w firmach nie przynosi żadnego mierzalnego wpływu na P&L firm. W sensie przynosi ‘zero return’. Przyczyny? Surprise!!! Według powyższego raportu i pozostałych dostępnych to: słaba jakość danych, próby automatyzacji „bo trzeba” bez zrozumienia procesów w firmie, wdrażanie AI punktowo, szybko wyczerpujące się use case’y (często low-codem, bez wplecenia w realne procesy), brak patrzenia na big picture, żeby organizacja miała uzysk (a nie poszczególni ludzie ułamki uzysku na poziomie osobistym bez wpływu na resztę procesów). W praktyce AI to taki CRM z lat 2005 „wdróżmy, bo zarząd kazał, żeby być sexy”, a „potem zobaczymy po co”. Plus, panowie eksperci mówią, że bez AI zostaniemy w tyle i każdy musi. 20 lat później sytuacja w CRM jest piękna i właściwa, przynajmniej my tak staramy się ją widzieć – wdrażane są systemy po coś i żeby przynosić konkretną, zrozumianą up front wartość. A nie, żeby mieć. Z AI mogłoby być podobnie, o ile świat nie zawali się pod tą bańką, bo nie nadąży jednak drukować 800 mld USD rocznie na załatanie dziury. A use case’y się szybko wyczerpują i nie mają wpływu na return. A kasę, którą świat wydrukuje, zużyje na koszty energii, żeby pan Kazio miał szybszą sumaryzację e-maili, kiedy pani Ania z zarządu nie wie, że pan Kazio w ogóle używa ciągle e-maila…”.

Krzysztof Habowski, CEO RST

Group, odniósł się do raportu „Mapa kompetencji AI w Polsce. Potrzeby i kierunki rozwoju”, który „wskazuje głównie na brak kompetencji jako problem rozwoju AI w Polsce. Podobnie w badaniach ‘Poland: a snapshot of digital skills’ nad kompetencjami cyfrowymi też wyszło, że odbiegamy w dół od średniej UE. Raporty diagnozują objawy i zalecają leczenie tu i teraz szkoleniami – pracowników administracji, MŚP i w dużych firmach. Mam wątpliwości, czy jest to dobra recepta. Prawda jest taka – i trzeba to powiedzieć wprost – iż podstawą jest zmiana w systemie edukacji szkolnej. Inaczej zawsze będziemy tylko łatali zaległości systemowe. Czemu Ministerstwo Edukacji Narodowej skupia się od lat tylko na lekturach, religii, zadaniach domowych? Jaka jest największa zmiana w ostatnich 30 latach w szkolnictwie i jej efekt? W tym czasie zdążyliśmy zaadaptować Internet, całą wiedzę świata nosić w smartfonie w kieszeni, nawet mieć tam dostęp do asystentów AI rozwiązujących zadania na poziomie profesorów. A co się zmieniło w tym czasie w systemie edukacji? Czy dalej zakuj, zapamiętaj, zapomnij? Jednocześnie, oba raporty mówią o średniej, ale mimo że mamy ją niższą niż inne kraje, to pozwala nam to mieć najlepsze płatności cyfrowe, mocną adaptację e-commerce i być w czołówce scyfryzowania usług państwowych. Może zamiast skupiać się na średniej, warto wzmocnić najlepsze praktyki i jednostki – w firmach czy na uczelniach. Sukcesy polskich specjalistów w zachodnich organizacjach typu OpenAI pokazują, że mamy duży potencjał, ale on emigruje. Uważam, że zamiast równać wszystkich do średniej, powinniśmy postawić na najlepszych ambasadorów zmiany, którzy zainspirują i rozwiną resztę efektywniej. Dobrym pomysłem jest włączenie 5 bezpłatnych podpisów kwalifikowanych/mc w mObywatelu. Za chwilę czymś jeszcze większym będzie udostępnienie w nim chata AI opartego o PLLuM. Tym sposobem ta technologia trafi do 10 mln Polaków i ma szansę pokazać swoją wartość i tym samym zachęcić do dalszego jej poznawania i używania. Jednocześnie jako Polska nie możemy ścigać się na tworzenie dużych modeli LLM i największych centrów obliczeniowych. Nie wygramy tutaj ani z USA ani Chinami, ani nawet z Francuzami. Naszą przewagą może natomiast być szybka i najlepsza możliwa implementacja tych istniejących już rozwiązań – w przemyśle, w usługach, w obronności – bo z tym inni mają problem”.

Szymon Janiak, partner zarządzający Czysta3.vc

, zauważa, że „w większości firm B2B marketing mierzy zasięg, sprzedaż liczy faktury, a obsługa gasi pożary. I wszyscy uważają, że robią dobrą robotę. Problem w tym, że to nie jest współpraca — to trzy osobne zespoły, które grają w różne gry. Marketing gra w widoczność, sprzedaż w targety, a obsługa w gaszenie błędów. Każdy coś robi, ale nikt nie dowozi całości. RevOps to moment, w którym firma przestaje biegać w kółko i zaczyna biec w jednym kierunku. Nie jest to nowy dział ani modne hasło. To system, który łączy wszystko, co do tej pory działało osobno. Marketing nie kończy na leadzie. Sprzedaż nie kończy na podpisie. Obsługa nie naprawia po innych. Wspólny proces, wspólne dane, wspólny cel: przychód. Efekty są bardzo wymierne. Firmy, które realnie wdrażają RevOps, widzą wzrost skuteczności kampanii marketingowych o kilkadziesiąt procent, krótsze cykle sprzedaży, a przede wszystkim — większą przewidywalność wyników. Zespół wie, skąd biorą się pieniądze, które działania naprawdę działają i które leady warto domykać. Chaos znika, bo w końcu każdy wie, za co odpowiada. To nie jest rewolucja w narzędziach, tylko w myśleniu. RevOps zmienia rozmowę w firmie z ‘co zawiodło?’ na ‘gdzie możemy poprawić?’. Zamiast przerzucać się winą, zespoły zaczynają współpracować na wspólnych liczbach. Dla wielu firm B2B to trudna zmiana, bo przez lata winny był marketing. Albo sprzedaż. Albo obsługa. A prawda jest taka, że winny był brak jednego procesu, który spina wszystko razem. RevOps nie jest kolejnym modnym skrótem. To sposób, żeby przestać działać w silosach i zacząć zarządzać wzrostem. A dopiero wtedy widać, jak bardzo dotychczasowy brak systemu kosztował firmę pieniądze”.

Stanisław Eysmont, Innovation Strategy Advisor w Future. Company

, uważa, że „nakaz powrotu do biura to dowód słabego przywództwa. Oto dlaczego w ostatnich dniach głośno o decyzji Allegro, które od 2026 roku wymaga od wszystkich pracowników czterech dni pracy z biura. Marcin Kuśmierz, CEO Allegro tłumaczy, że chodzi o ‘odbudowanie wspólnoty interesów’ i ochronę kultury organizacyjnej. Brzmi sensownie? Nie. MIT Sloan Management Review w najnowszym artykule ‘Hybrid Work Is Not the Problem — Poor Leadership Is’ pokazuje bardzo jasno: problemy z produktywnością i zaangażowaniem nie wynikają z pracy hybrydowej, tylko z braku przywództwa, czyli z umiejętności liderów. Badania z udziałem 8500 firm w USA pokazały, że mimo 12 proc. wzrostu nakazów pracy z biura, realna obecność wzrosła jedynie o 1–3 proc. Firmy chcą ‘trzech dni w biurze’, a dostają dwa. Dlaczego? Bo menedżerowie wybierają wyniki zamiast kontroli. Nie istnieją dowody, że 5-dniowy tydzień biurowy zwiększa efektywność. Przeciwnie — badania Nicka Blooma i Raja Choudhury’ego pokazują, że praca hybrydowa: redukuje rotację o 33 proc., zwiększa produktywność o 10 proc., zwiększa zaangażowanie o 25 proc., i poszerza dostęp do talentów (szczególnie kobiet i osób spoza dużych miast). Ale jak to? Wniosek: to jakość liderów decyduje o wynikach, a nie miejsce pracy. Najlepsze firmy: znają swoją przewagę talentową (znają swoich ludzi i ich możliwości), mierzą wyniki, nie obecność, pozwalają zespołom decydować, jak pracować, inwestują w rozwój menedżerów, nie tylko w biura. Zgadzam się z tym w 100 proc. Miałem przyjemność pracować w zespole Jana van der Saara w laboratorium innowacji Banku Pekao na początku pandemii. W biurze (przed pracą zdalną) spędziłem niecały miesiąc – a mimo to był to jeden z najlepiej zintegrowanych zespołów, z jakimi pracowałem. Zaufanie, otwartość i silne przywództwo sprawiły, że zdalnie działaliśmy sprawniej niż niejeden zespół siedzący razem na open space. To nie hybryda dzieli ludzi. To słabe jakościowo przywództwo, brak zaufania i potrzeba kontroli. Bo liderzy, którzy nie potrafią prowadzić zespołów rozproszonych, wracają do tego, co znają – biura… a tam i tak są nadal beznadziejni. A prawdziwi liderzy — budują zaufanie, niezależnie od miejsca. Ba! Mogą to robić nawet zdalnie. Zaufanie jest fundamentem przywództwa. ‚Jeśli nie potrafisz ufać ludziom, gdy ich nie widzisz, nigdy im naprawdę nie ufałeś’ — Indra Nooyi (była CEO PepsiCo). PS. Marcin Kuśmierz jest CEO Allegro od maja tego roku. Ciekaw jestem, co się stanie, jeśli za kilka miesięcy okaże się, że problemy firmy, z powodu których których został zatrudniony, nie wynikały z pracy zdalnej — tylko z przywództwa, decyzji i kultury organizacyjnej”.

Grzegorz RudnoRudziński, Managing

Partner

w Univio

, przeprowadził „szybki research polskiej rzeczywistości biznesowej: rosną koszty surowców i materiałów (NBP: pogorszenie warunków prowadzenia działalności w II kw. 2025); utrzymuje się niepewność geopolityczna i fiskalna (Moody’s: perspektywa ratingu Polski obniżona do ‘negatywnej’); a mimo to sektor usług biznesowych i eksportowych wciąż pokazuje odporność (raport ABSL 2025). Kiedy ‘Rzeczpospolita’ poprosiła mnie o komentarz w sprawie nastrojów przedsiębiorców, zwróciłem uwagę na jedno: to nie koniunktura decyduje o wynikach, tylko zdolność organizacji do adaptacji. W świecie ciągłej zmiany wygrywają ci, którzy potrafią szybko analizować dane, podejmować decyzje i działać – zanim rynek wymusi reakcję. Dlatego dziś z wieloma klientami pracujemy nad modelami analizy i predykcji danych — by reagować na bieżąco, a nie po fakcie. Niepewność nie zniknie z dnia na dzień. Ale można nauczyć się nią zarządzać. Nie da się kontrolować kontekstu – da się kontrolować przygotowanie organizacji na zmianę”.

Wojciech

Urbanek

zastępca redaktora naczelnego CRN Polska

STrain office

W trakcie podróży pociągiem warto mieć na uwadze, że innych pasażerów

raczej nie interesują szczegóły podpisanych kontraktów, dysputy o zwolnieniu Joli czy Marka, ani treść zawieranych właśnie umów.

pędzam ostatnio dużo czasu w pociągach. To znakomita okazja do obserwowania ludzi w warunkach „laboratoryjnych”, gdzie między Gdańskiem a Warszawą, czy Krakowem a Wrocławiem, rozgrywa się teatr wielu aktorów: począwszy od milczków pogrążonych we własnych myślach, poprzez ludzi, z którymi można zamienić miłe słowo, aż po osobników skutecznie uprzykrzających podróż innym pasażerom.

szczęścia można trafić na prawdziwe perełki. Trafiłem na taką w drodze na Galę Mistrzów IT.

Pan Nowak (tak nazwijmy go na potrzeby niniejszego felietonu) wszedł do przedziału w Gdańsku równo o 7.00. Wyglądał na około 60 lat, miał na sobie ubrania od Emporio Armani – jak też emanował pewnością siebie. Kilka minut później wyjął smartfona i zaczął się ponad dwugodzinny spektakl.

POCIĄG DO BIZNESU

TO NIE TO SAMO, CO BIZNES W POCIĄGU.

Czasem trafia się widok szczególny – znana twarz. Pamiętam chociażby Dariusza Michalczewskiego, który na trasie z Gdańska do Warszawy nie wydał z siebie ani jednego dźwięku – ani słowa przez telefon, ani jednego spojrzenia wymienionego z pasażerami. Zupełnie inny „spektakl” zagrał Mateusz Rusin, polski Ryan Gosling, wracający z festiwalu filmowego w Gdyni. Jego telefon stał się małą sceną, a on sam, rozentuzjazmowanym narratorem. Z przejęciem relacjonował mamie i znajomym wrażenia z pokazu „Chłopów”, w których wcielił się w postać Mateusza Gołębia. W każdym jego słowie czuć było duszę artysty i aktorską pasję. Innym razem jechałem w przedziale z dwójką młodych ludzi. Ona malarka, projektantka, zaś on wokalista próbujący przebić się przez szklany sufit rodzimej rozrywki. Podróż z Gdańska do Warszawy minęła nam wszystkim w mgnieniu oka, a po wciągającej rozmowie urocza dwójka umówiła się na kolację. A do mnie powróciły na chwilę młodzieńcze wspomnienia… Lecz prawdziwym fenomenem są podróżujący menedżerowie, którzy wagony traktują jak otwartą przestrzeń biurową. Taki osobnik wkracza do pociągu wcześnie, a jego pierwszym, wręcz odruchowym gestem jest sięgnięcie po telefon. Chwilę później uruchamia gorącą linię. Rozmowy płyną jedna za drugą, nieprzerwanym strumieniem. To rytuał, w którym głos musi być donośny na tyle, by dotarł nie tylko do współpracownika po drugiej stronie „słuchawki”, ale i do współpasażerów w całym wagonie. Wtedy padają magiczne formuły: „Jestem w pociągu, jadę do Warszawy na ważne spotkanie!”, „Będę na miejscu za godzinę, teraz właśnie zamawiam kawę”, „Wyślij koniecznie ofertę dla firmy ABC, pamiętaj o deadlinie”, „Zastanawiam się czy nie powinniśmy zwolnić Kowalskiego”...

I tak zwykły przedział kolejowy zmienia się w biznes klasę, a my, przypadkowi widzowie, otrzymujemy bezpłatny bilet na spektakl „Menedżer w Pociągu”. Niektóre takie sztuki są dość krótkie i nudne, kończąc się na kilku połączeniach i suchych, beznamiętnych poleceniach wydanych podwładnym. Jednak przy odrobinie

Pierwsza rozmowa dotyczyła podwładnego, po czym na pana Nowaka czekały inne ważne sprawy. Kontakt z konsultantem zewnętrznym, który ma otworzyć przedsiębiorstwu drzwi do Australii. Plany ekspansji, strategiczne posunięcia, rzeczy naprawdę ważne dla biznesu. Cały przedział mógł dowiedzieć się o perspektywach dalekiego, zamorskiego kontynentu. Niedługo potem uruchomił się kolejny akt przedstawienia – dyskusja o pani Basi, świetnej specjalistce, która rzekomo znakomicie ogarnęła branżę i zagłębiła się w najtrudniejsze tematy. Niestety pani Basia postanowiła rzucić papierami i odejść (jakoś mnie to nie dziwi), choć pan Nowak wciąż wykazuje się dużą determinacją, aby ją zatrzymać. Na rynku pracy, jak zaznaczał, trudno znaleźć ludzi o takich kompetencjach.

Podróż toczy się dalej, a wraz z nią kolejne rozmowy. Tym razem pan Nowak ma pretensje do firmy prowadzącej szkolenia dla jego kierowców. Stawki są za wysokie, a wiedza zdobywana przez kursantów nie usprawiedliwia takich cen. W finale tego przedstawienia pojawił się nawet prof. Jan Kowalski (nazwisko oczywiście zmienione) i wtedy pan Nowak zmienia nagle ton, rezygnuje z buńczuczności i staje się prawdziwym dyplomatą. Z wdziękiem i delikatnością zachęca naukowca do wspólnego projektu. To kolejny punkt na mapie biznesowych ambicji naszego bohatera, który przypadkowo lub raczej niezbyt przypadkowo, dzieli się wszystkimi szczegółami ze swoimi towarzyszami podróży.

W tym wszystkim jawne jest totalne lekceważenie bezpieczeństwa danych. Nazwy firm, imiona, nazwiska, dane kontaktowe, szczegóły sporów pracowniczych… To wszystko fragmenty mozaiki, które można łatwo ułożyć w kompletny obraz. A na koniec przychodzi punkt zwrotny: poznajemy też dane samego pana Nowaka, jak też nazwę jego firmy.

Nawet umiarkowanie zaawansowany haker miałby niezłą zabawę. Przy odrobinie własnego wkładu i przeszukaniu mediów społecznościowych, skuteczna kampania spear phishingowa czy podszywanie się pod partnera biznesowego to kwestia dnia lub dwóch. To już jednak materiał na osobny felieton.

Gala Mistrzów IT

W branży IT – bardzo konkurencyjnej, a jednocześnie kluczowej dla

całej gospodarki – sukces jest okupiony wyjątkowo ciężką pracą, ale też wyjątkowo smakuje!

l …NAGRODZILIŚMY!

Podczas Gali Mistrzów IT uroczyście wręczyliśmy najlepszym integratorom tytuły IT Master, jak też certyfikaty

Channel Master dla producentów charakteryzujących się dbałością o najwyższy standard i jakość bieżącej obsługi oraz rozwój ekosystemu partnerskiego.

l …ROZMAWIALIŚMY!

W ten wyjątkowy wieczór Sala Ludwikowska Hotelu Polonia Palace zamieniła się w stolicę polskiego sektora IT, gromadząc wybitnych przedstawicieli producentów, dystrybutorów i integratorów, stwarzając tym samym okazję do nawiązywania i podtrzymywania szczególnie cennych - zarówno biznesowych, jak i towarzyskich - relacji.

l…INSPIROWALIŚMY!

Gala była też okazją do dyskusji na temat aktualnego tempa i kierunku rozwoju ekosystemu partnerskiego w branży IT – w najlepszym możliwym do tego gronie wybitnych reprezentantów tego kluczowego sektora gospodarki.

Dziękujemy Partnerom tego wyjątkowego wydarzenia

i gratulujemy zdobywcom certyfikatów Channel Master i tytułów IT Master

Gala Mistrzów IT odbyła się 26 listopada br. w Hotelu Polonia Palace. Relację i fotoreportaż z tego wydarzenia opublikujemy w CRN nr 1-2/2026.

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.