CRN Polska 11/2025

Page 1


Spis treści 11/2025

9 | 100 godzin tygodniowo Szaleńczy wyścig AI w Dolinie Krzemowej

10 | Dagma MSP Day

Usługi to przyszłość

12 | Upgrade'25

Branża SH w obliczu nowych wyzwań

14 | Canalys Forums EMEA Transformuj się lub giń

16 | Data Center Nation

Polska staje się regionalnym liderem

18 | Czas na partnerstwo wokół AI Igor Grdic, dyrektor regionalny Vertiv na Europę Środkową, o polskim rynku centrów danych i naszej transformacji w kierunku gospodarki opartej na AI

19 | SUSE Rancher Prime Szansa na biznes w erze kontenerów

20 | Całe miasto w jednej aplikacji Rozmowa z Eweliną Włoch, Naczelnik iem Wydziału Cyfryzacji i Nowych Technologii w Urzędzie Miasta Rybnik

23 | Mint Service Desk Nowa jakość komunikacji (OPGK Rzeszów)

24 | Nie ma transformacji bez skanowania Przyszłość skanowania dokumentów niezmiennie jawi się w jasnych barwach

27 | Skanery Epson

Realna wartość dla klientów, konkretna korzyść dla resellerów

28 | Bezpieczeństwo zaczyna odgrywać kluczową rolę dla klientów Rozmowa z Michałem Czeredysem, prezesem Arcusa

29 | Marketing apokalipsy Felieton Krzysztofa Jakubika

30 | Supremo Mobile Assist Mobilne zarządzanie bez granic (Nanosystems)

32 | NAS dla mas Rynek NAS dla sektora SOHO przetrwał rywalizację z usługami chmurowymi i dynamicznie ewoluuje

35 | Banki muszą być odporne na stres Rozmowa z Tomaszem Kokotem, Dyrektorem Obszaru Biznesowego w Sygnity

36 | Bądź o krok przed cyberzagrożeniami

Serwery HPE ProLiant oraz inne rozwiązania HPE dla SMB oferują szereg technologii oraz bezpiecznych mechanizmów, które pozwalają wyprzedzać działania cyberprzestępców.

38 | KSeF: odpowiedzialność po stronie integratora?

W ostatnich miesiącach znacznie wzrosło zapotrzebowanie na wdrożenia związane z Krajowym Systemem e-Faktur

41 | Od chaosu do pełnej kontroli

Cohesity rewolucjonizuje ochronę danych

42 | IT w logistyce

Przełom na wyciągnięcie ręki

45 | Wysoka cena zmowy

Felieton Marcina Babiaka

46 | Dolina Krzemowa i okolice

Arcitecta, ExaGrid i HYCU: trzy odpowiedzi na problemy z danymi

48 | Usługi zarządzane zwiększają wartość firmy

Rozmowa z Maciejem Toroszewskim, Customer Success Directorem w Meniga – UK Top FinTech Company w 2025

50 | Psychologia sprzedaży: brakujący element strategii

Felieton Sławomira Janczewskiego

51 | Siedem wartości w przywództwie IT Jak budować nadzieję i zaufanie w świecie niepewności?

52 | O świecie wojen, które nie wyglądają jak wojna

Felieton Adrianny Kilińskiej

53 | AI w praktyce

Ankieta CRN.pl

54 | „Ławka”, czyli mityczny byt firm usługowych IT

Felieton Tomasza Onyszko

55 | Europejski problem z produktywnością Produktywność pracy w Europie jest dziś aż o 24 proc. niższa niż w USA

56 | Hiperskalerzy na krzywej rosnącej Dane raportu „GTM Channel Decision Maker Survey”

56 | Czy i dlaczego Europa upadnie...

Felieton Arnolda Adamczyka

58 | Umowy B2B ponownie na świeczniku Jaka przyszłość czeka wyjątkowo popularną w IT formę współpracy z personelem?

60 | Ostatnia szansa na IP Box? Czy możliwość korzystania z popularnej ulgi będzie ograniczona?

60 | Dark patterns w świetle przepisów Stosowanie dark patterns może zostać zakwalifikowane jako nieuczciwa praktyka rynkowa

66 | Inwigilacja w imię dziecka Felieton Wojciecha Urbanka

9

Szaleńczy wyścig AI w dolinie Krzemowej Podczas gdy w Europie coraz częściej pojawiają się pomysły czterodniowego tygodnia pracy, specjaliści od AI zza oceanu pracują po 100 godzin tygodniowo.

29

Marketing apokalipsy, czyli strach sprzedaje się najlepiej Strach jest jednym z głównych motorów napędow ych rynku rozwiązań cyberbezpieczeństwa.

58 54

Umowy B2B ponownie na świeczniku Jaka przyszłość czeka wyjątkowo popularną w IT formę współpracy z personelem?

„Ławka”: mityczny byt firm usługowych IT Pomysł „Ławki” w sektorze IT przestał się sprawdzać. Również w Polsce.

„JEŻELI HANDEL TOWARAMI PRZYNOSI POKAŹNE ZYSKI, TO I TAK SĄ ONE NIEWIELKIE W PORÓWNANIU Z POŻYTKIEM, JAKI PŁYNIE

David S. Landes, „Bogactwo i nędza narodów”

Tomasz Gołębiowski

Redaktor naczelny

Context posłańcem

dobrychwieści

Po wyjątkowo obfitym lipcu, kiedy to obroty w europejskiej dystrybucji wzrosły rok do roku o 7,7 proc., dwa kolejne miesiące nieco stonowały dobre nastroje. W sierpniu wynik poprawił się o 1,5 proc., podczas gdy we wrześniu o 1,3 proc. Średnio cały trzeci kwartał tego roku zamknął się wzrostem na poziomie 3,7 proc., a sumarycznie od stycznia do września 2025 r. było to 47 proc. w porównaniu z tym samym okresem ubiegłego roku. Co oznacza, że biorąc pod uwagę szereg geopolitycznych i gospodarczych wyzwań, z jakimi mierzy się Stary Kontynent, europejska dystrybucja zachowuje stabilną pozycję rynkową, rosnąc kilkukrotnie szybciej niż przeciętne unijne PKB. Warto dodać, że jedną z sił napędowych okazały się w omawianym okresie pecety, których segment zanotował w III kwartale poprawę obrotów rok do roku na poziomie 15 proc., zaś łącznie w trzech pierwszych kwartałach bieżącego roku wynik w tym przypadku sięgnął bardzo przyzwoitych 11 proc. na plusie.

RYNEK ŚWIECI

NA ZIELONO.

Szczególnym optymizmem napawa wynik dystrybucji w Polsce, która ze wzrostem na poziomie 8 proc. ustępowała w pierwszych dziewięciu miesiącach 2025 r. jedynie Hiszpanii i krajom nordyckim (w obu przypadkach po 14 proc. wzrostu rok do roku). Sam trzeci kwartał na polskim rynku, z wynikiem dodatnim na poziomie 5 proc., może i nie rzuca na kolana, ale jednak w porównaniu z danymi z Wielkiej Brytanii i Irlandii (0 proc.), a przede wszystkim Niemiec (2 proc. spadku), zdecydowanie powinien cieszyć. Dla porządku dodam, że III kwartał był korzystny także dla dystrybucji we Francji (+ 7 proc.) i krajach nordyckich (+ 10 proc.), a zwłaszcza dla Hiszpanii (16 proc. w górę). Generalnie, średnia europejska to w III kwartale 6 proc., a w okresie od stycznia do września 7 proc. Pod względem wartości (value) sprzedaży poprzez europejską dystrybucję w pierwszych dziewięciu miesiącach tego roku liderem okazał się Microsoft, wyprzedzając HPE oraz VMware, a w pierwszej piątce zmieściły się ponadto Cisco oraz Dell Technologies. Z kolei pod względem wielkości (volume) sprzedaży w rankingu Top 5 znalazły się: Apple, HP, Lenovo, Samsung i Dell. Ciekawe są jednocześnie wstępne prognozy analityków Contextu odnośnie do całego 2025 r., który ma się zamknąć wynikiem rzędu 5,3 proc. na plusie, pod warunkiem, że w czwartym kwartale europejska dystrybucja zanotuje wzrost o co najmniej 6,6 proc. rok do roku. Korzystne przewidywania współgrają z nastrojami większości integratorów, resellerów i retailerów, z których – jak wynika z danych Contextu – 64 proc. oczekuje, że w kolejnych 12 miesiącach ich biznes będzie prosperował lepiej niż obecnie, podczas gdy przeciwnego zdania jest jedynie 7 proc. respondentów (z ponad 6 tys. wszystkich uczestników analizy).

A skoro wybiegamy w nieco dalszą przyszłość, warto wspomnieć o zapowiedziach Gartnera, który wieszczy, że globalne wydatki na produkty i usługi IT wzrosną w przyszłym roku niemal o 10 proc., przekraczając tym samym poziom 6 bln dol. Motorami napędowymi rynku mają być inwestycje w sprzęt oraz oprogramowanie dla centrów danych, co ma wynikać z rosnącego zapotrzebowania na usługi AI.

MIESIĘCZNIK CRN POLSKA www.CRN.pl

Rok 28, numer 11 (514), 12 listopada 2025 PL ISSN 2080-8607

REDAKCJA

Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa redakcja@crn.pl

Tomasz Gołębiowski tg (redaktor naczelny) tel. 608 425 699 tomasz.golebiowski@crn.pl

Wojciech Urbanek wu (zastępca red. naczelnego) tel. 691 672 065 wojciech.urbanek@crn.pl

Karolina Marszałek km (sekretarz redakcji) karolina.marszalek@crn.pl

Andrzej Gontarz ag andrzej.gontarz@crn.pl

Krzysztof Jakubik kj krzysztof.jakubik@crn.pl

Krzysztof Pasławski kp krzysztof.paslawski@crn.pl

Tomasz Janoś tj tomasz.janos@crn.pl

FELIETONY

Arnold Adamczyk, Maciej Babiak Krzysztof Jakubik, Sławomir Janczewski, Adrianna Kilińska, Krzysztof Kozakiewicz, Tomasz Onyszko, Wojciech Urbanek GRAFIKA, LAYOUT, Tomasz Baziuk

FOTOGRAFIE

Theta Art Studio Tomasz Pisiński, PhotobyMysluk.pl, Adrian Stykowski, Piotr Syndoman, archiwum

PRENUMERATA prenumerata@crn.pl

REKLAMA I PROJEKTY SPECJALNE Agata Myśluk tel. 694 455 426 agata.mysluk@crn.pl

Jacek Goszczycki tel. 601 935 513 jacek.goszczycki@crn.pl

WYDAWCA

Peristeri Sp. z o.o. Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa

Reklamy są przyjmowane w siedzibie wydawnictwa. Za treść ogłoszeń redakcja nie ponosi odpowiedzialności. © 2025 Peristeri Sp. z o.o. Wszelkie prawa zastrzeżone. Computer Reseller News Polska contains articles under license from The Channel Company. © 2025 The Channel Company. All rights reserved.

Miesiąc na plusie miesiąc na minusie

Ministerstwo Rodziny, Pracy i Polityki Społecznej inwestuje w platformę AI. Na sfinansowanie zamówienia zamierzało przeznaczyć 4 mln zł. Przetarg ogłoszono w sierpniu br., a oferty zostały otwarte we wrześniu br. Ministerstwo wybrało do realizacji zamówienia spółkę Deloitte Advisory, która złożyła jedyną ofertę (o wartości 3,99 mln zł brutto), uzyskując 85 pkt. w kryteriach oceny. Zamówienie obejmuje dostawę, instalację, konfigurację i uruchomienie kompletnej platformy AI. Będzie ona zawierać serwer z oprogramowaniem umożliwiającym uruchamianie modeli sztucznej inteligencji.

Satya Nadella, prezes Microsoftu, zarobił w 2025 roku fiskalnym 96,5 mln dol., o niemal jedną piątą więcej niż rok wcześniej. Na powyższą kwotę składają się: wynagrodzenie podstawowe w wysokości 2,5 mln dol. (niezmienione od 2023 r.), 84 mln dol. w nagrodach akcyjnych, 9,5 mln dol. w ramach planu motywacyjnego pozakapitałowego oraz 196 tys. dol. tytułem innych świadczeń.

Analitycy PFR Ventures i Inovo.vc podali, że w III kw. 2025 r. 39 spółek pozyskało w sumie 464 mln zł od 45 funduszy. Wynik nieznacznie przewyższa średnią z okresu 2023 – 2024 (423 mln zł), jest jednak niższy niż w II kw. 2025 r., gdy 48 firm zostało zasilonych przez 549 mln zł od 37 funduszy venture capital. Tym niemniej już po 9 miesiącach 2025 r. przekroczono poziom finansowania, na którym rynek zatrzymywał się w dwóch poprzednich latach. Liczba transakcji w br. nie odbiega natomiast od wyników z 2024 roku. Ich średnia wartość wyniosła około 11–12 mln zł na jedną firmę.

Centrum Informatyki Resortu Finansów

sfinalizowało przetarg na body leasing specjalistów IT. Przedmiotem zamówienia jest zawarcie umowy ramowej na 2 lata na świadczenie usług wsparcia informatycznego dla systemów IT w resorcie finansów. Zajmie się tym udostępniony przez wykonawcę wyspecjalizowany personel. CIRF zamierza przeznaczyć na realizację zamówienia blisko 200 mln zł.

Centralny Ośrodek Informatyki

rozstrzygnął przetarg na dostawę klastra obliczeniowego, który powstanie na potrzeby trenowania i korzystania z modeli LLM. Przetarg ruszył w maju br., a oferty zostały otwarte w lipcu 2025. Złożyli je: Comtegra, Enigma Systemy Ochrony Informacji i Galaxy Systemy Informatyczne. COI wybrał ofertę spółki Enigma Systemy Ochrony Informacji o wartości ponad 14,5 mln zł. Wykonawca dostarczy klaster obliczeniowy na potrzeby trenowania i korzystania z modeli LLM w środowisku chmury prywatnej. Będzie on składać się z 3 serwerów z 24 modułami GPU i przełącznika backend z portami 400G Ethernet. COI zamawia też oprogramowanie, w tym platformę do zarządzania klastrami kontenerów oraz software do tworzenia, trenowania, uruchamiania i zarządzania modelami AI/ML. Do tego dochodzi serwis gwarancyjny urządzeń i wsparcie techniczne oprogramowania.

„Chcemy, aby APN Promise był jednym z kluczowych, globalnych partnerów Microsoftu” – Gregor Primus, CCO APN Promise.

Meta zwalnia 600 pracowników w dziale AI, a konkretnie osoby skupione na produktach sztucznej inteligencji, infrastrukturze i długoterminowych badaniach nad sztuczną inteligencją. Nie dotkną jednak TBD Lab, nowego zespołu skupiającego najlepiej opłacanych pracowników. „Dzięki mniejszemu zespołowi decyzje będą podejmowane szybciej, a każdy pracownik będzie miał większą odpowiedzialność, szerszy zakres obowiązków i większy wpływ na projekty. Większość dotkniętych pracowników będzie miała możliwość przeniesienia na inne stanowiska w Meta, gdzie ich wiedza na temat sztucznej inteligencji może być przydatna” – poinformował Alexandr Wang, dyrektor ds. sztucznej inteligencji.

Huawei Technologies Cooperatief

, jako właściciel 90 proc. udziałów w Huawei Polska, w liście do polskiego premiera i wicepremierów wyraża zaniepokojenie dotyczące projektu nowelizacji ustawy o krajowym systemie cyberbezpieczeństwa. „Obawiamy się, że obecny projekt ustawy, w szczególności przepisy dotyczące ‘dostawców wysokiego ryzyka’, zostaną wykorzystywane do wyeliminowania Huawei z kluczowych sektorów” – stwierdza koncern. Według niego przygotowywane przepisy sprawią, iż w Polsce Huawei oprócz 5G zostanie wykluczony z takich sektorów jak energetyka, zdrowie, transport, gospodarka odpadami, zaopatrzenie w wodę, czy produkcja, przetwarzanie i dystrybucja żywności.

Awaria infrastruktury AWS spowodowała problem z dostępnością do wielu serwisów. Globalnie dotyczył takich platform jak Snapchat, Fortnite, Canva, Zoom, Roblox, Duolingo, Shutterstock czy McDonald’s, a w Polsce między innymi Poczty Polskiej. Koncern wszczął dochodzenie w tej sprawie.

Amazon zwalnia do 15 proc. pracowników w dziale kadr. Chodzi o jednostkę pod nazwą People eXperience and Technology (PXT), która zatrudnia ponad 10 tys. osób na całym świecie. Kolejne redukcje planuje w innych działach – wynika z nieoficjalnych informacji. Koncern na razie nie skomentował tych doniesień. W czerwcu br. CEO Amazona, Andy Jassy stwierdził, iż spodziewa się zmniejszenia liczby pracowników w firmie w perspektywie najbliższych lat. Taki jego zdaniem będzie efekt wzrostu wydajności dzięki wykorzystaniu sztucznej inteligencji w całej organizacji.

Kaseya pozwała Slide, dostawcę oprogramowania do tworzenia kopii zapasowych i odzyskiwania danych. Zarzuca mu kradzież własności intelektualnej. Twierdzi, że współzałożyciel i szef Slide, Austin McChord, odtworzył swoje poprzednie przedsięwzięcie, Datto. Firma ta została przejęta przez Kaseyę w 2022 r. za 6,2 mld dol., specjalizując się w dedykowanych MSP rozwiązaniach utrzymania ciągłości biznesowej, backupu i disaster recovery. Kaseya domaga się, by sąd nakazał wstrzymanie sprzedaży produktu Slide’a do tworzenia kopii zapasowych.

„To jest inwestycja w bezpieczeństwo narodowe” – Michał Kanownik, prezes Związku Cyfrowa Polska, o projekcie ustawy o nowelizacji KSC.

„Wiele firm IT przyjmuje strategię ‘wait and see’, co jest sygnałem rosnącej ostrożności” – Dominik Malec, Head of Experis IT Resourcing w Manpower Group, o sektorze pracy.

Nowe informacje

z branży IT

Największe zwolnienia w Amazonie

Amazon zamierza zwolnić nawet 30 tys. pracowników w sektorze korporacyjnym – podał Reuters w końcu października br. Byłyby to rekordowe cięcia w historii firmy. Na koniec II kw. 2025 r. koncern zatrudniał na świecie 1,54 mln osób. Liczba ta obejmuje jednak głównie personel magazynowy. W sektorze korporacyjnym pracuje około 350 tys. osób. W ostatnich miesiącach cięcia dotknęły między innymi działy chmury, sklepów, komunikacji oraz urządzeń Amazona.

APN Promise w Niemczech

APN Promise powołał spółkę, która będzie działała na rynku niemieckim, który jest 15 z kolei, na którym polska firma prowadzi swoje interesy. Co więcej, w ciągu najbliższych dwóch lat APN planuje rozszerzyć działalność na co najmniej 30 różnych krajów. Zapowiada koncentrację na rynkach o dużym potencjale – w tym w krajach nordyckich, Afryce oraz na Bliskim Wschodzie. Natomiast niemiecka spółka w ciągu najbliższych 3 lat ma osiągnąć kilkadziesiąt milionów dolarów przychodów.

Polska firma kupuje w USA

Wrocławski Spyrosoft przejmuje amerykańską spółkę Carimus, która specjalizuje się w tworzeniu aplikacji i doradztwie. W 2024 r. miała ok. 5,3 mln dol. przychodów. Cena za 100 proc. udziałów to 2 mln dol., powiększona o ok. 0,6 mln dol. Przewidziane są też dodatkowe odroczone płatności w kwocie 1,9 mld dol. Celem przejęcia jest rozszerzenie bazy klientów polskiej firmy w USA i wzrost przychodów.

Nvidia inwestuje 1 mld dol. w Nokię

Nvidia zainwestuje 1 miliard dolarów w Nokię w ramach umowy między firmami o współpracy w zakresie sztucznej inteligencji. Przejmie przy tym 2,9 proc. udziałów w fińskiej firmie. Koncerny będą wspólnie pracować nad rozwiązaniami sieciowymi opartymi na AI. Zbadają też możliwości włączenia technologii Nokii do przyszłej architektury infrastruktury AI Nvidii. Nokia ostatnio odnotowała gwałtowny wzrost sprzedaży sprzętu do infrastruktury sieciowej w rezultacie popytu ze strony klientów AI i centrów danych.

Comarch sprzedaje sektor publiczny

Comarch podpisał warunkową umowę z CGI ISMC (Polska), dotyczącą sprzedaży Comarch Polska. Po finalizacji transakcji spółka ta będzie obejmować działalność krakowskiej firmy w zakresie rozwoju i utrzymania systemów IT dla sektora publicznego. Strony przewidują, że do zakupu dojdzie na przełomie 2025 i  2026  r. Wartość umowy nie została ujawniona. W 2024 r. Comarch wypracował blisko 190 mln zł przychodów ze sprzedaży do klientów z sektora publicznego. CGI ISMC (Polska) jest spółką zależną kanadyjskiej firmy CGI. Sprzedaż to element strategii uproszczenia portfolio Comarchu i koncentracji na najważniejszych liniach biznesowych.

Szwedzka firma w Polsce

Szwedzka firma Sigma Embedded Engineering otworzyła biuro w Krakowie. Jej polski oddział skoncentruje się na takich obszarach, jak motoryzacja, technologia medyczna i przemysłowy IoT. W pierwszym roku zespół będzie liczył około 30 pracowników zaangażowanych w realizację projektów. Obecnie firma z centralą w Göteborgu zatrudnia 4,5 tys. osób w 12 krajach.

„Cyberbezpieczne Wodociągi” z a 730 mln zł

Zainteresowanie grantami na „Cyberbezpieczne Wodociągi” znacznie przekroczyło ustalone limity. Łączna wartość 896 wniosków o dofinansowanie wyniosła ponad 730 mln zł. To przeszło trzy razy więcej niż kwota przygotowana do podziału (313 mln zł). Natomiast limit wsparcia to 552 projekty. O granty mogły starać się podmioty Krajowego Systemu Cyberbezpieczeństwa – przedsiębiorstwa wodociągowo-kanalizacyjne i jednostki wykonujące zadania użyteczności publicznej. Minimalna wysokość dofinansowania dla jednego podmiotu to 130 tys. zł.

Zmiany na stanowiskach

W dynamicznej branży IT personalna karuzela kręci się

szybciej niż w innych. Prezentujemy kilka najważniejszych zmian, które nastąpiły w minionych tygodniach.

Maciej Bocian w HPE

Maciej Bocian został dyrektorem działu usług danych i pamięci masowych w HPE. Będzie kierował zespołem odpowiedzialnym za sprzedaż rozwiązań z tej kategorii. Jednocześnie wzmocni zespół zarządzający firmy w Polsce. Maciej Bocian to ekspert z ponad 20-letnim doświadczeniem w sprzedaży, rozwoju biznesu i transformacji centrów danych na rynku polskim oraz CEE. Ostatnio był Regional Sales Managerem VAST Data na CEE i CIS (2024 – 2025). Wcześniej stał na czele Pure Storage w kraju i regionie (2017 – 2024). Pełnił również role kierownicze w NetApp, Bull Polska, Cisco i IBM.

Nowy prezes Future Mind

Chief AI Officer w Comarchu

1 listopada br. Łukasz Bolikowski dołączył do Comarchu jako Chief AI Officer. Będzie wyznaczał strategiczne kierunki rozwoju firmy w zakresie sztucznej inteligencji. Ma również sprawować nadzór nad wdrażaniem rozwiązań AI w produktach i usługach Comarchu. Łukasz Bolikowski dotychczas pełnił funkcję Vice President of Data Science w BCG X (Boston Consulting Group). Wcześniej założył Laboratorium Analizy Danych Stosowanych na Uniwersytecie Warszawskim, gdzie rozwijał metody uczenia maszynowego i systemy oparte na blockchainie.

Tomasz Woźniak po ponad 17 latach kierowania Future Mind przekazał stanowisko CEO Tomaszowi Koperskiemu (na zdj.), dotychczasowemu CTO (od 2009 r.). Tomasz Koperski równocześnie objął funkcję Executive Vice President w Solicie, fińskiej firmie, z którą Future Mind połączył siły w grudniu 2023 r. Z kolei Tomasz Woźniak przechodzi do rady nadzorczej Future Mind. Będzie także strategicznym doradcą w ramach całej Grupy Solita. W zarządzie pozostaje Paweł Josiek, współzałożyciel Future Mind, jako dyrektor operacyjny.

Z Euvic do KBJ

Halina Frańczak Managing Directorem w DXC

Halina Frańczak objęła stanowisko Market Leadera i Managing Directora w DXC Technology. Zajmie się opracowaniem i wdrożeniem strategii rozwoju firmy w Polsce. Będzie współpracowała z Maciejem Tomczykiem, który pełni równoległą funkcję Managing Directora. Przed przejściem do DXC przez 18 lat pracowała w Deloitte. Ostatnio pełniła funkcję Chief Sustainability Officer w Polsce, na Ukrainie i krajach bałtyckich. Kierowała również działaniami marketingowymi w Polsce i regionie Europy Środkowej w Deloitte, a wcześniej w Accenture.

Roman Kasprzyk został dyrektorem handlowym w KBJ. W nowej roli będzie odpowiadał za relacje ze strategicznymi partnerami i umacnianie pozycji KBJ jako dostawcy usług opartych na technologii SAP-a i rozwiązaniach chmurowych. Roman Kasprzyk jest związany z branżą IT od 2004 r. Ostatnio przez trzy lata pracował w Grupie Euvic jako Enterprise Account Executive. Wcześniej zarządzał sprzedażą w MDS (2019 – 2022), Ricohu (2018 – 2019) oraz w Komputronik Biznes (2014 – 2018).

Paweł Mydło w Scalo

Paweł Mydło objął stanowisko dyrektora ds. rozwoju biznesu w Scalo i będzie kierował działalnością firmy w Stanach Zjednoczonych. Dostawca usług IT z centralą we Wrocławiu jest obecny na rynku amerykańskim od ponad trzech lat, a obecnie planuje dalszą ekspansję za oceanem. Paweł Mydło już wcześniej, do grudnia 2024 r., był związany ze Scalo jako Senior Business Development Manager. Ostatnio w RITS rozwijał biznes tej firmy w USA. Doświadczenie na stanowiskach menedżerskich zdobywał również w Codibly i Axence.

Łączymy technologie w obszarze Cyberbezpieczeństwa, Secure Cloud i Secure Networks, oparte na rozwiązaniach zaufanych producentów z naszego portfolio

Wspólnie z naszymi partnerami realizujemy projekty, które zwiększają bezpieczeństwo, efektywność i wartość dla klienta końcowego

Zaufane rozwiązania. Cyberbezpieczeństwo, chmura i sieci od wiodących producentów.

Eksperci po Twojej stronie. Doradztwo, presales i lokalne wsparcie techniczne.

Wspólny wzrost. Szkolenia, marketing i elastyczne finansowanie projektów.

Chcesz dołączyć do sieci partnerów Infinigate? Napisz do nas: sales-pl@infinigate.com

Fabryka AI za 300 mln zł

W Krakowie powstanie Fabryka AI. Zbuduje ją konsorcjum kierowane przez Akademickie Centrum Komputerowe Cyfronet AGH. Wartość projektu to 70 mln euro (ok. 300 mln zł), w tym połowa to środki unijne. Ośrodek o nazwie Gaia AI Factory skoncentruje się na badaniach i rozwoju rozwiązań AI w ochronie zdrowia i sektorze kosmicznym oraz na LLM. Jest drugą w Polsce Fabryką AI w ramach unijnego programu EuroHPC JU. Pierwszy taki ośrodek - PIAST AI Factory - rusza w Poznaniu kosztem 50 mln euro (ok. 210 mln zł).

Największy Business

Experience Centre

Samsung otworzył w Warszawie swoje największe Business Experience Centre w Europie. Nowy ośrodek jest miejscem współpracy dla partnerów firmy, a także prezentacji i testowania rozwiązań dla różnych branż. Partnerzy mają do dyspozycji sale konferencyjne i strefy spotkań. W sumie jest to ponad 1200 mkw. powierzchni z 9 interaktywnymi strefami, prezentującymi ponad 180 scenariuszy biznesowych. Centrum wyposażono w pełne portfolio rozwiązań i produktów Samsunga. Obecne są także rozwiązania partnerów technologicznych.

Przetarg z budżetem 410 mln zł

Asseco i Comarch rywalizują o duży kontrakt w przetargu w Agencji Restrukturyzacji i Modernizacji Rolnictwa. Przedmiotem zamówienia jest utrzymanie i rozwój SIA (System Informatyczny Agencji) na czas 47 miesięcy. Na sfinansowanie zamówienia ARiMR zamierza przeznaczyć ponad 410 mln zł. Comarch złożył ofertę o wartości 376 mln zł, a Asseco Poland 348,6 mln zł. Kryteria oceny to po pierwsze cena (60), a po drugie doświadczenie osób skierowanych do realizacji zamówienia (40). Ostatnio, w 2023 roku, ARiMR powierzyła Asseco rozwój i utrzymanie SIA.

Komputronik pozyskał inwestora

Komputronik podpisał umowę inwestycyjną z Euvic 2030 i WB iTotal. W rezultacie poznańska spółka pozyskała dodatkowe finansowanie, a Euvic staje się jednym z najsilniejszych graczy na rynku sprzętu IT. W ramach umowy Euvic 2030 i WBiTotal zobowiązali się do zapewnienia Komputronikowi zwiększonych limitów kredytów kupieckich w wysokości co najmniej 20 mln zł. Uzgodniono też emisję 980 tys. nowych akcji, z których 735 tys. obejmie Euvic (6,82 proc. akcji w podwyższonym kapitale spółki).

Allegro z centralnym hubem

Allegro inwestuje w centralny hub logistyczny. Ruszy w Piotrkowie Trybunalskim w IV kw. 2026 r. Obiekt o powierzchni blisko 27 tys. mkw. wyposażono w automatykę sortującą, 144 doki liniowe i bezsłupową konstrukcję o wysokości 12 metrów. Według firmy nowa inwestycja stanowi strategiczny krok w jej dalszym rozwoju. Obecnie Allegro dysponuje szeregiem mniejszych magazynów i centrów przeładunkowych w całej Polsce.

JetBrains utworzy w Polsce centrum B&R

JetBrains, dostawca narzędzi dla deweloperów, utworzy w Polsce centrum badawczo-rozwojowe. Ośrodek ma powstać do 2027 r. Firma z siedzibą w Amsterdamie decyzję o inwestycji wyjaśnia dużym potencjałem pozyskania talentów w Polsce. Deklaruje, iż nasz kraj stanowi strategiczny kierunek rozwoju. Obecnie JetBrains zatrudnia w Polsce około 60 osób. Do końca 2026 r. zamierza zwiększyć tę liczbę do 200. Nowi ludzie będą angażować się w globalne projekty firmy, w tym w rozwój najważniejszych produktów z oferty AI JetBrains..

Palantir wesprze polską armię

MON podpisał list intencyjny z Palantir Technologies. Amerykańska firma specjalizuje się w analizie danych na dużą skalę. Współpraca z polskim resortem obrony obejmuje między innymi rozwiązania sztucznej inteligencji. Warunki finansowe nie zostały ujawnione. Finalizacja umowy jest spodziewana do końca roku. Alex Karp, CEO Palantira, zapowiedział, że firma zamierza zwiększać obecność w Polsce zarówno w obszarze wojskowym, jak też w technologiach podwójnego zastosowania.

Oszukiwali na grantach

W październiku br. CBA zatrzymało 3 osoby w woj. wielkopolskim i śląskim, które według śledczych brały udział w wyprowadzaniu środków unijnych na szkodę NCBR i PARP. Dwóch z zatrzymanych występowało jako grantobiorcy, a jeden był podwykonawcą. Jak ustalono, prace wykonywane w związku z grantami były pozorne, a wystawione faktury poświadczały nieprawdę. Szkoda NCBR wyniosła 1,6 mln zł, a PARP ponad 1,3 mln zł. W tej samej sprawie w lipcu br. CBA zatrzymało 4 osoby.

Nowelizacja ustawy o KSC

Rząd przyjął projekt nowelizacji ustawy o Krajowym Systemie Cyberbezpieczeństwa. Trafi on do prac w parlamencie. Nowelizacja dostosowuje krajowe przepisy do NIS2, wprowadza mechanizmy zwiększające bezpieczeństwo infrastruktury krytycznej, instytucji publicznych i sektora prywatnego. .Zmiany mają umożliwić m.in. wycofywanie z użytku sprzętu lub oprogramowania, uznanego za potencjalnie niebezpieczne dla bezpieczeństwa państwa – tzw. dostawcy wysokiego ryzyka. Z krytycznej infrastruktury telekomunikacyjnej ma on zniknąć w ciągu 4 lat, a z pozostałej w ciągu 7 lat. Zdaniem prezesa Cyfrowej Polski, Michała Kanownika, proces ten nie powinien generować dodatkowych kosztów dla firm czy instytucji, gdyż czas na realizację tego procesu standardowo odpowiada cyklom wymiany sprzętu. Z projektu wynika, że decyzja o uznaniu firmy za dostawcę wysokiego ryzyka będzie procesem wieloetapowym.

100 godzin tygodniowo:

szaleńczy wyścig AI w Dolinie Krzemowej

Podczas gdy w Europie coraz częściej pojawiają się pomysły czterodniowego tygodnia pracy, specjaliści od AI zza oceanu pracują po 100 godzin tygodniowo.

Wojciech Urbanek

Wnajwiększych laboratoriach sztucznej inteligencji w Dolinie Krzemowej najlepsi badacze i menedżerowie pracują od 80 do 100 godzin tygodniowo. Niektórzy porównują tę sytuację do warunków wojennych. Jak mówi Joshua Batson, naukowiec w Anthropic: „Zasadniczo staramy się uzyskać dwadzieścia lat postępu naukowego w ciągu dwóch lat. Niezwykłe innowacje pojawiają się w systemach sztucznej inteligencji co kilka miesięcy”. Wyraźnie widać, że kierownictwo, a także badacze takich firm jak Microsoft, Anthropic, Alphabet, Apple oraz OpenAI postrzegają swoją pracę jako krytyczną, uważając, że znaleźli się w przełomowym momencie historii.

KONCERNY, KTÓRE POZYSKAŁY NAJZDOLNIEJSZYCH SPECJALISTÓW, WYCISKAJĄ ICH JAK CYTRYNĘ.

Część badaczy stało się już wielokrotnymi milionerami, ale wielu z nich przyznaje, że nie mieli czasu na wydanie swoich fortun. Wielki wyścig o kasę rozpoczął Mark Zuckerberg, który zamienił się w rekrutera i wyruszył na łowy talentów AI, oferując im niebotyczne kontrakty. Nagle okazało się, że praca stosunkowo małej grupy badaczy stała się jednym z najcenniejszych zasobów na świecie. Potężne koncerny, które pozyskały najzdolniejszych specjalistów, zaczęły ich wyciskać jak cytrynę. „Wszyscy pracują non stop. Jest to niezwykle intensywne i wydaje

się, że nie ma żadnego naturalnego punktu zatrzymania” – przyznaje Madhavi Sewak, badacz AI w Google DeepMind.

Niektóre startupy uwzględniają oczekiwania ponad 80-godzinnego tygodnia pracy w swoich umowach o pracę. Jednak według osób zaznajomionych ze sprawą, najzdolniejszych wcale nie trzeba wiązać zapisami, bowiem najbardziej motywuje ich intensywna konkurencja z rywalami, a także własna ciekawość związana z nowymi możliwościami modeli AI.

W Meta członkowie TBD Lab, a więc nowi pracownicy, których zadaniem jest opracowanie firmowych modeli AI, pracują w pobliżu biurka Zuckerberga w siedzibie firmy w Menlo Park w Kalifornii. Warto jednak odnotować, że koncern pod koniec października poinformował o zwolnieniu 600 osób z zespołów skupionych na produktach sztucznej inteligencji i jej badaniu. Co istotne, redukcje nie dotknęły TBD Lab. Alexandr Wang, dyrektor ds. sztucznej inteligencji Meta, tłumaczy, że dzięki zmniejszeniu liczby specjalistów decyzje będą podejmowane szybciej, a każdy pracownik będzie miał większą odpowiedzialność, szerszy zakres obowiązków i większy wpływ na projekty. To, czego Alexandr Wang nie powiedział, ale czego można się spodziewać, to że w ślad za tym pójdzie wyższe wynagrodzenie.

Praca 0-0-2

Najbardziej intensywne okresy dla wielu pracowników przypadają podczas pracy

nad modelami lub nowymi produktami, kiedy czas pracy wykracza poza harmonogram „9-9-6” – od 9 rano do 9 wieczorem, sześć dni w tygodniu. Jeden z dyrektorów startupu żartobliwie określił ten harmonogram jako „0-0-2”, czyli od północy do północy, z dwugodzinną przerwą w weekendy. To zawrotne tempo dotyczy na ogół wąskiej podgrupy pracowników, z których większość próbuje poprawić podstawowe modele AI lub osadzić je w nowych produktach. Ich słabiej opłacani koledzy wracają do domu dużo szybciej. Jak tłumaczy Madhavi Sewak: „Masz te wszystkie dobre pomysły i wiesz, że to rywalizacja z czasem. Nie chcesz pozwolić, żeby pozostały one niezbadane, a więc kiedy masz wolny czas, pracujesz nad tym i gonisz za kolejnymi nowymi pomysłami”.

Są takie firmy w Dolinie Krzemowej, które pracują cały tydzień. W związku z tym niektóre z nich serwują swoim pracownikom jedzenie w weekendy. Stałą praktyką jest przy tym wyznaczanie często rotujących „kapitanów”, odpowiedzialnych za monitorowanie rozwoju produktu. „W poprzednich czasach boomu, takich jak dot-com pod koniec lat 90. lub przyspieszone przejście na urządzenia mobilne, gdy pojawił się iPhone, adopcja użytkowników miała miejsce przez dekadę lub dłużej. Ze sztuczną inteligencją jest inaczej, bo 90 procent firm z listy Fortune 500 już używa produktów AI, a więc po zaledwie kilku latach od jej pojawienia się. Czas między przełomami badawczymi a premierami produktów skompresował się z kilku lat w przeszłości do luki między czwartkiem a piątkiem” – mówi Aparna Chennapragada, CPO ds. doświadczeń AI w Microsofcie. Podstawowy problem polega na tym, że trudno jest zaplanować pracę ze względu na specyficzny rozwój nowych modeli – trudno jest przewidzieć, jak będą się zachowywać. „Proces bardziej przypomina ewolucję niż inżynierię. Często nie wiesz co wyjdzie z treningu. Nie wiesz też, co się wydarzy, dopóki tego nie przetestujesz. Nawet nie wiesz, co zrobi model, kiedy znajdzie się na wolności” – mówi Joshua Batson. Badacz porównuje przy tym intensywność obecnych doświadczeń do swojej pracy w laboratorium testowym podczas pandemii Covid-19, kiedy kierował pracą grupy międzynarodowych naukowców, której celem było zrozumienie trajektorii wirusa…

DAGMA MSP Day:

usługi to przyszłość

To już druga edycja wydarzenia poświęconego usługom zarządzanym, a zarazem potwierdzenie, że grono rodzimych Managed Service Providerów systematycznie rośnie w siłę.

Tegoroczny DAGMA MSP Day był wypełniony prezentacjami pokazującymi, jak aktywnie działać w modelu Managed Service Provider i wykorzystywać jego przewagi w stosunku do tradycyjnej sprzedaży. Menedżerowie z DAGMA Bezpieczeństwo IT podzielili się przy tym wiedzą, w jaki sposób, na bazie wielu produktów z portfolio spółki, można budować swoją konkurencyjność, tworząc dla klientów wyjątkowe na rynku pakiety usługowe. Wprowadzeniem do konferencji było przypomnienie najważniejszych powodów, dla których model MSP może być tak

W MSP ZBYT NISKIE MARŻE TO BŁĄD. NALEŻY ZACZYNAĆ OD RAZU Z WYŻSZYMI.

atrakcyjny i perspektywiczny dla partnerów. Po pierwsze, większość rozwiązań oferowanych w tym modelu opiera się na zasadzie pay-as-you-go. Daje to partnerom dużą elastyczność w sposobie rozliczeń z klientami oraz możliwość uzyskania wyższej marży w zależności od przyjętej strategii biznesowej. Drugim, niezwykle istotnym elementem jest agregacja – im większy wolumen zakupowy partnera u dystrybutora, tym korzystniejsze warunki handlowe. To mechanizm, który wprost przekłada się na zwiększenie rentowności biznesu.

Trzeba również podkreślić, że model MSP nie wymaga prowadzenia odrębnych projektów czy rozbudowanej dokumentacji. Proces wdrożenia jest szybki i intuicyjny, wystarczy uruchomić konsolę, dodać klientów oraz przypisać im odpowiednie plany ochrony.

Kolejną zaletą jest stabilność przychodów. Model MSP opiera się na cyklicznych rozliczeniach abonamentowych, co zapewnia przewidywalność finansową i ciągłość wpływów. DAGMA Bezpieczeństwo IT wystawia faktury w cyklach miesięcznych, natomiast sposób, w jaki partnerzy rozliczają się ze swoimi klientami może być w pełni dowolny i zależeć wyłącznie od ich polityki biznesowej.

Wreszcie nie można pominąć kwestii wygody zarządzania swoją ofertą. Jedna konsola, jedno logowanie i pełna widoczność wszystkich klientów pozwalają na sprawne monitorowanie oraz efektywne administrowanie usługami.

Większy potencjał MSP

Blok prezentacji produktowych obejmował te rozwiązania z portfolio DAGMA Bezpieczeństwo IT, które partnerzy mogą obecnie oferować swoim klientom w modelu usługowym. I co ciekawe, nie wszystkie z nich to tylko software. Owszem, trzy rozwiązania – Holm Security, Acronis i ESET – to platformy oparte na oprogramowaniu, ale czwarty produkt – od Stormshielda – to również sprzęt.

Dla zgromadzonych na konferencji partnerów ważne było to, że w przypadku każdego z nich menedżerowie katowickiej spółki wyjaśnili szczegółowo i na przykładach, jak model MSP może sprawić, by te oferty stały się bardziej atrakcyjne zarówno dla partnerów, jak i ich klientów.

Na pierwszy ogień poszło Holm Security, czyli nowoczesna platforma do zarządzania podatnościami. Może ona stanowić podstawę proaktywnej, opartej na ryzyku ochrony przed zagrożeniami, takimi jak ransomware czy phishing. Przy czym nie najniższa wcale cena dla klienta w przypadku tradycyjnej sprzedaży tego rozwiązania, może w jakimś stopniu ograniczać możliwości resellera. Co prawda w takim wariancie platforma daje klientowi możliwość wykonania nieograniczonej liczby skanowań podatności, ale tak naprawdę mało kto tego potrzebuje. Oferta robi się dla klientów znacznie bardziej atrakcyjna cenowo, gdy partner oferuje taką usługę wielu organizacjom w modelu MSP, w regularnych odstępach czasu skanując ich środowiska i pobierając za to opłaty z dobrą marżą. W przypadku ESET, który jest doskonale znanym, kompleksowym rozwiązaniem do ochrony punktów końcowych, wariant MSP wręcz znosi – w porównaniu z tradycyjną sprzedażą licencji – ograniczenia odnośnie do liczby kupowanych stanowisk. I tak w przypadku modelu resellerskiego pakiety Entry, Advanced i Complete są sprzedawane od 5 stanowisk, a jeżeli chodzi o pakiety Enterprise i Elite – 25 stanowisk. Za to w wariancie MSP, ESET można sprzedawać już od jednego stanowiska. Okazuje się to bardzo wygodne, gdy klientem jest bardzo mała organizacja – przykładowo kancelaria adwokacka – której będzie za-

leżeć na zaawansowanej ochronie z XDR. Można wtedy jej zaoferować pakiet Enterprise lub Elite już od kilku stanowisk.

Co do Acronisa, to trudno o platformę równie dobrze skrojoną pod świadczenie wielu usług w modelu MSP. Taką, która łączy wiele elementów cyberbezpieczeństwa w ramach jednej konsoli. Dzięki temu partner, jako dostawca usług, jest w stanie po jednym logowaniu zobaczyć, czy u jego klientów nic złego się nie dzieje. A jeśli w jednej konsoli widać wszystkich klientów i wszystkie z wielu technologii ochrony, które obejmuje platforma, nic dziwnego, że według DAGMA Bezpieczeństwo IT w przypadku Acronisa aż 80–90 proc. partnerów wybiera model MSP.

Także sprzętowy Stormshield UTM może być oferowany w formie usługi. Urządzenie jest udostępniane w kilku wariantach w ramach miesięcznych opłat. Partnerzy oferujący tego typu ochronę jako usługę, mogą to robić w różnych scenariuszach. Poprzez umieszczenie urządzenia UTM u każdego swojego klienta, bądź w oparciu o rozwiązanie działające u siebie, które zdalnie filtruje ruch klientów.

Partnerzy radzą partnerom

Ważnym elementem wydarzenia był panel dyskusyjny, w którym udział wzięli zarówno ci partnerzy, którzy od dawna oferują usługi w modelu MSP, jak i ci, którzy zdecydowali się na to dopiero niedawno, po poprzednim DAGMA MSP Day. Dzieląc się doświadczeniami, zarówno pierwsi, jak i drudzy wskazywali na duże ułatwienie procesu sprzedaży i wdrażania rozwiązań.

– Już wcześniej, bo od 2014 roku, świadczyliśmy usługi outsourcingowe. Dopiero niedawno dowiedzieliśmy się, że jest taki model, jak MSP. I on całkowicie odmienił u nas sposób sprzedaży oprogramowania – tłumaczył Daniel Kubica z IT-Logic.

Partnerzy chwalili znacznie większą elastyczność systemu licencjonowania w przypadku usług.

– Już w przypadku małych środowisk, 5–10 komputerów, a nawet jednej licencji mogę oferować klientowi XDR-a. Wtedy poziom

Zdaniem specjalisty

Paweł Jurek, Business Development Director, DAGMA Bezpieczeństwo IT

Wprzypadku Acronisa czy ESET udostępniamy ofertę MSP jako Pay as you go, czyli partnerzy mogą rozpocząć taki biznes w zasadzie od zerowych zobowiązań. A często partner nie chce mieć obowiązku stałych opłat, jeśli nie wie, jak mu pójdzie. Dlatego chcemy eliminować takie problemy na starcie. Mówimy partnerom, że mamy dla nich model, w którym zaczną nam płacić wtedy, gdy sami zaczną zarabiać. Kolejną rzeczą jest maksymalne uproszczenie działalności. Wyobraźmy sobie taką sytuację, w której partner dowiaduje się u klienta o możliwości zrobienia biznesu, po czym najpierw musi zgłosić ten temat, zarejestrować go, zaraportować wszystko u dystrybutora itd. W przypadku naszej oferty MSP w ogóle nie musi się tym zajmować. Dlatego ci partnerzy, którzy zaczęli według tego modelu pracować, widzą jak dużo czasu oszczędzają. Mają swój cennik, a zatem z góry wiedzą, ile to będzie klienta kosztować.

Mogą przy tym dowolnie kształtować swoją marżę. Przy czym już w trakcie jednej wizyty mogą podpisać kontrakt z klientem, uruchomić mu ochronę, dajmy na to 10 stacji roboczych i na koniec miesiąca podesłać fakturę.

Sprzedaż usług MSP rośnie w naszym przypadku bardzo dynamicznie. To wzrost, który w dużej mierze napędzają nasi partnerzy, bo przecież my nie funkcjonujemy w oderwaniu od nich. To właśnie oni stanowią siłę napędową całego tego ekosystemu, przesuwając rynek resellerski w stronę modelu MSP. W tym tradycyjnym resellerzy sprzedają licencje i zakładają projekty, co bywa czasochłonne, a jednocześnie mało elastyczne. Natomiast model MSP daje im swobodę, elastyczność i pełną dowolność odnośnie do tego, jak partner świadczy swoje usługi. W tym celu nie musi realizować projektów, działając znacznie sprawniej. W minionym roku wielu partnerów zaczęło przechodzić z klasycznego modelu sprzedaży licencji na model MSP. Widzą bowiem, że ich klienci oczekują dziś czegoś więcej. W sprzedaży tradycyjnej dostarcza się licen-

Mateusz Bielas, Product Manager Acronis, DAGMA Bezpieczeństwo IT

cje i często kontakt z klientem kończy się na dłuższy czas, zwykle do momentu odnowienia. Tymczasem obecnie klienci oczekują wartości dodanej, podobnie jak partnerzy oczekują jej od nas. My wspieramy partnerów, a klienci oczekują podobnego wsparcia od swoich resellerów – chcą, aby oprócz samej licencji dostali także wdrożenie, obsługę i opiekę.

bezpieczeństwa u takiego klienta zwiększa się znacząco, a jednocześnie ja nie mam progu wejścia – mówił Piotr Owczak z Libero. Wątek braku progu wejścia i ułatwionego w ten sposób rozwijania działalności przewijał się w całej debacie.

– Wcześniej, w ramach etatu, byłem kimś, kto wdraża różne rozwiązania w firmach. Ale zauważyłem, że model MSP może otworzyć mi drogę do własnej działalności. I rzeczywiście, doprowadził mnie do niezależności i wystartowania ze swoim biznesem – mówił Kamil Giemza z KeyGate IT.

Dyskutanci wskazywali też, jak dużą zaletą jest posiadanie wszystkich klientów w jednej konsoli – bez konieczności przelogowywania się, uruchamiania dedykowanych połączeń itp. O tym, że MSP sprawdza się, niech świadczy fakt, że kiedy rozmówcy mieli znaleźć jakieś wady tego modelu czy popełniane w jego oferowaniu błędy, w zasadzie tylko jeden z nich pokusił się o to. – W moim przypadku to były zbyt niskie marże na samym początku. Zalecam zacząć od razu z wyższymi – stwierdził Robert Krymarys z WeLikeIT.

Upgrade’25:

branża SH w obliczu nowych wyzwań

Choć polski rynek software house’ów wciąż rośnie, towarzyszy temu spadek marż – wynika z pierwszego w Polsce raportu na temat rynku sektora SH, zaprezentowanego podczas tegorocznej edycji Upgrade.

Gołębiowski

AKLIENCI

BĘDĄ OD OPROGRAMOWANIADOSTAWCÓW ŻĄDAĆ WIĘKSZEJ EFEKTYWNOŚCI

W DZIAŁANIU.

leksander Vuković, były trener i piłkarz Legii Warszawa, podsumował kiedyś sytuację stołecznego klubu stwierdzeniem, że „w Legii nigdy nie jest tak dobrze jak podają media, ani tak źle, jak podają media”. Pasuje ono bardzo dobrze do wyników analizy, jakiej dokonali specjaliści SH Advisory, bazując na danych finansowych ponad 940 software house’ów („Polski rynek usługowego dostarczania oprogramowania – analiza 2025”). Okazuje się, że w 2024 r., w wartościach bezwzględnych doszło do wzrostu przychodów całej branży o ponad 7,4 proc. rok do roku. W tym czasie 62 proc. spośród badanych software house’ów zanotowało wzrost przychodów, zaś 54 proc. osiągnęło wzrost zysków. Typowy (mediana) software house w Polsce wygenerował w ubiegłym roku około 19 mln zł przychodu, osiągając niecały 1 mln zł zysku netto, przy marży zysku netto na poziomie 4,7 proc. (co

stanowiło 0,2 p.p. mniej niż w roku 2023). Średni przychód był jednak ponad dwukrotnie wyższy i wyniósł ponad 48 mln zł (średni zysk to 3,6 mln zł).

Autorzy badania zwracają uwagę, że różnica między średnią a medianą pokazuje, że polska branża SH jest ogromnie zróżnicowana, a przy tym zdominowana przez niewielką grupę dużych graczy. Co ciekawe, wśród dużych firm z tego segmentu (o obrotach powyżej 100 mln zł) jest grupa kilku dominatorów (Sii, Epam, Comarch, Asseco), którzy przez swoją skalę nawet w ujęciu jednostkowym istotnie wpływają na średnie wyniki nie tylko dla całej grupy 943 badanych podmiotów, ale również w gronie spółek o przychodach przekraczających poziom 200 mln zł.

– Ten rynek normalnieje albo wręcz już się stał normalnym rynkiem, czyli takim, który podlega wahaniom koniunktury. Jak wiadomo, praktycznie od powstania w Polsce ten sektor cieszył się sporymi wzrostami, które wynikały głównie z nadwyżki popytu nad podażą dzięki arbitrażowi cenowemu, z czasem uzupełnionemu o percepcję wysokiej jakości usług dostarczanych przez polskich programistów. Taki stan nigdy nie trwa wiecznie, bo koszty i ceny rosną, jak też pojawia się równie skuteczna konkurencja. Polskie software

house’y muszą się do tej sytuacji dostosować – mówi Przemysław Soroka, partner w SH Advisory.

Dodaje przy tym, że widać wciąż ogromne zainteresowanie zarówno rodzimych, jak i zagranicznych podmiotów inwestycjami w  polski sektor SH. To pozytywny sygnał, jeśli chodzi o kondycję tej branży. Jednocześnie obie strony, a więc inwestorzy i właściciele, pogodzili się z niższymi wycenami.

– Wcześniej, gdy rynek rósł, myślano w kategoriach „the only way is up” i stąd wyceny były wysokie, czemu pomagał niski koszt pieniądza. Jednak te najbardziej atrakcyjne spółki nadal mogą liczyć na solidne wyceny, przekraczające 10-krotność wskaźnika EBITDA – przyznaje Przemysław Soroka.

Czas na nowe scenariusze

O tym, że przyszłość jest niepewna i jak się przygotować na dalszy rozwój wydarzeń, żywiołowo dyskutowano podczas Upgrade’25 w gronie wybitnych specjalistów i  menadżerów, zaproszonych do podwrocławskiego Zamku Topacz przez stowarzyszenie ITCORNER. Jak podkreśliła Karolina Charewicz-Jakubowska, CEO organizacji zrzeszającej ponad 80 firm technologicznych: „stare scenariusze działania odchodzą w przeszłość, a nowe technologie już nie wystarczą do odniesienia sukcesu – dziś przewagę ma ten, kto potrafi zmieniać swój sposób myślenia o biznesie”. W podobnym tonie wypowiadało się wielu uczestników wydarzenia.

– Nasza branża wchodzi w fazę niepewności. Nie mamy jeszcze odpowiedzi na szereg

nowych pytań, zwłaszcza w kontekście AI, która zdaje się być największym czarnym łabędziem w historii sektora SH – mówił Tomasz Woźniak, do niedawna CEO Future Mind (podczas Upgrade’25 ogłosił swoją decyzję o przekazaniu sterów w ręce Tomasza Koperskiego i przejściu do rady nadzorczej).

Choć już teraz część firm deklaruje zaawansowane prace nad rozwojem korzystnych dla użytkowników końcowych rozwiązań na bazie AI, to jednocześnie takie produkty są często traktowane przez przedsiębiorców w charakterze „entertainment tools”, które mogą się przydać, ale nie są niezbędne z punktu widzenia rozwoju biznesu. Z drugiej strony część branży z niepokojem obserwuje inicjatywy w rodzaju nowej funkcji, o jaką OpenAI chce rozszerzyć ChataGPT, która umożliwia robienie zakupów bez konieczności odwiedzania stron sprzedawców. Jeśli pomysł „wypali”, może się to wiązać ze zmniejszeniem popytu w sektorze e-commerce na nowe aplikacje, co uderzyłoby w interesy działających na tym rynku software house’ów. W ocenie specjalistów SH Advisory, wpływ AI na sektor software house’ów będzie wieloraki. Przykładowo, klienci będą od dostawców oprogramowania żądać większej efektywności w działaniu, a przy tym lepszego rozliczania czasu – już teraz jedną z obaw wyrażanych przez klientów jest to, że płacą „dużo” za coś, co „AI zrobi w kilka minut”. Ponadto użytkownicy biznesowi będą oczekiwać dostarczania rozwiązań o znacznie wyższej jakości, skoro „nie marnuje się czasu na kodowanie prostych rzeczy dzięki AI”. To z kolei rodzi pytanie o to, czy software house’y powinny zajmować się również doradztwem biznesowym. Przeciwnicy takiego podejścia argumentują, że SH co do zasady są ekspertami we własnej dziedzinie, czyli dostarczaniu oprogramowania,

nie dysponując know-how w zakresie doradztwa biznesowego. Z drugiej strony, według ekspertów SH Advisory, trudno będzie w dzisiejszych czasach sprzedawać systemy i jednocześnie abstrahować od kontekstu oraz sensu biznesowego, jaki za nimi stoi, jak też wartości biznesowej, jaką ze sobą niosą.

Trudno też abstrahować od faktu, że usługa doradcza często oznacza wyższą od standardowej marżę w procesie dostarczania oprogramowania i oddawanie tej części projektu innym dostawcom czy firmom doradczym, wydaje się działaniem wbrew własnemu interesowi ekonomicznemu.

Powrót do korzeni

Tymczasem na horyzoncie mogą pojawić się kolejne tzw. czarne łabędzie. Jak wyraził się Tomasz Muter, współzałożyciel Droids on Roids: „Dziś AI, jutro komputery kwantowe, a potem, kto wie, może AGI”. Uczestnicy Upgrade’25 zgodzili się, że w obecnych czasach należy – poza śledzeniem i rozwojem najnowszych technologii – skoncentrować swoje działania na podstawach biznesu, a przede wszystkim rozmawiać z klientami, budując z nimi możliwie mocne relacje.

Grzegorz Rudno-Rudziński, Managing Partner w Univio, podkreślał w powyższym kontekście, że sprzedaż i doradztwo

dotyczy nie tyle firm, co pracujących w nich konkretnych ludzi, na nich więc należy skupić swoją uwagę. Tym bardziej, że zdecydowana większość członków ITCORNER-a jest zdania, że nie ma sensu czekanie na powrót koniunktury, jaką sektor SH cieszył się przez minioną dekadę. – Ludzie postrzegają spółki IT jako bardzo solidne biznesy, a często to dość wrażliwe podmioty, które po utracie klienta przynoszącego im 40 procent przychodów stają na granicy przetrwania. Trzeba mieć tego świadomość i przygotować się na możliwe turbulencje. Moim zdaniem, na tak zwany koniec dnia sprowadza się to do jak najlepszego rozumienia potrzeb klientów i bliskości z nimi.

LUDZIE POSTRZEGAJĄ SPÓŁKI IT JAKO SOLIDNE BIZNESY, A CZĘSTO SĄ TO WRAŻLIWE PODMIOTY.

To właśnie jest w tym wszystkim najważniejsze, niezależnie od okoliczności – podsumowuje Kamil Tatol, CEO Flying Bisons. Pełna treść raportu „Polski rynek usługowego dostarczania oprogramowania – analiza 2025” jest dostępny pod adresem www.shadvisory.eu.

Canalys Forums EMEA:

transformuj się lub giń

Ewolucja branży IT, z którą mamy obecnie do czynienia, dotyczy wyjątkowo wielu obszarów i stawia pod znakiem zapytania dotychczasowe modele biznesowe.

Ponad tysiąc producentów, dystrybutorów i integratorów, którzy wzięli udział w Canalys Forums EMEA 2025, zgodziło się co do dwóch kwestii. Pierwsza dotyczy trudności z budową portfolio produktów i usług bazujących na AI. W tej sytuacji, jeśli nie wiemy, co zaproponować klientom, zacznijmy od siebie. Druga kwestia to kłopot z ustaleniem strategii rozwoju w dobie nakładających się na siebie wielu zmiennych. W takim przypadku, gdy „mgła rynkowej wojny” ogranicza nam widoczność, warto zwiększyć nacisk na budowanie trwałych relacji z klientami i dogłębną znajomość ich potrzeb.

WIELU Z NAJLEPSZYCH PARTNERÓW MICROSOFTU PRZESZŁO

Z MODE LU TRANSAKCYJNEGO NA USŁUGI ZARZĄDZANE.

W pozostałych sprawach, jakimi obecnie żyje ekosystem partnerski branży IT, pytań jest znacznie więcej niż klarownych odpowiedzi. Dlatego hasło „Opportunity in Uncertainty”, pod jakim przebiegało tegoroczne Canalys Forums

EMEA, bardzo dobrze oddaje moment dziejowy, w jakim znajduje się obecnie rynek IT.

– Branża technologiczna pozostaje najlepiej rozwijającym się sektorem światowej gospodarki. Jednocześnie przechodzi jedną z epokowych transformacji w kilku różnych obszarach. Jednym z nich jest rynek hiperskalerów, który w w yniku szybkiego rozwoju dostawców typu neoclouds zaczyna się rozwarstwiać – podkreśla Steve Brazier, założyciel Canalys (obecnie Omdia).

W ten sposób nawiązał do tego, że niewątpliwym liderom w postaci AWS, Google Cloud i Microsoftu, zaczynają coraz mocniej deptać po piętach tacy dostawcy, jak CoreWeave, Paperspace, Nebius czy Lambda Labs (przy czym nowych graczy wciąż przybywa). „Nowochmurowcy” przyciągają klientów

Analitycy Omdia przewidują, że do 2028 roku...

l …20 proc. dystrybutorów zostanie przejętych, skonsoliduje się lub zakończy działalność;

l …aż 25 proc. partnerów w branży IT to będą debiutanci (niespełna 5 lat działalności);

l …ponad połowie transakcji na marketplace’ach będą towarzyszyć usługi świadczone przez f irmy z ekosystemu

partnerskiego (dobra wiadomość dla partnerów!);

l …50 proc. ataków ransomware będzie kierowanych na sieci OT i łańcuchy dostaw, co może zachwiać ciągłością działania branży logistycznej oraz produkcyjnej;

l …o połowę wzrosną koszty ubezpieczeń w sektorach, które są najbardziej zagrożone cyberatakami.

optymalizacją kosztów i wydajności poprzez ustawienie wszystkich procesorów konkretnie pod zastosowania AI. Łączne tegoroczne inwestycje w rozwój infrastruktury w sektorze neoclouds mają wynieść 181 mld dol., podczas gdy hiperskalerzy wyłożą na ten cel 361 mld dol. To nadal znacząca różnica, ale jednak nie mamy już do czynienia z przepaścią.

Biznes w cieniu „shadow AI”

Za szalonym tempem inwestycji w infrastrukturę wspierającą rozwój AI, nie idzie wcale przekonanie co do miejsca, w które nas ten rozwój doprowadzi. Na razie pewne jest to, że choć konsumenci korzystają z generatywnej sztucznej inteligencji na masową skalę, to inaczej rzeczy się mają z użytkownikami biznesowymi. Ze zrozumiałych zresztą powodów, do których zaliczają się wątpliwości odnośnie do precyzji uzyskiwanych wyników, jak też problem z bezpieczeństwem danych. Towarzyszącym temu wyzwaniem jest „shadow AI”, a więc wykorzystywanie przez pracowników narzędzi GenAI w celach służbowych przy pomocy prywatnych urządzeń.

W tej sytuacji coraz więcej firm IT idzie za radą Rezy Honarmanda, który uważa, że optymalną strategią jest wdrażanie rozwiązań AI najpierw na własne potrzeby. Z danych Omdia wynika, że tak właśnie robi ponad 45 proc. firm part -

nerskich. Przy czym, choć nie należy zwlekać z decyzjami w tym zakresie, to „pociąg” możliwości jeszcze nie odjechał.

– Przed nami 7–8 lat szans na rozwój, to się nie stanie z dnia na dzień – uspokaja Senior Vice President w TD Synnex.

Warto przy tym zwrócić uwagę na pozytywny wpływ, jaki rozwój AI wywiera na rynek sprzętu. Jak ujął to Jay McBain, Chief Analyst w Omdia: „każdy dolar wydany na software, to drugi dolar wydany na hardware”.

Sektor MSP pod presją

Drugim sposobem na wzmocnienie swojej pozycji rynkowej jest model usług zarządzanych. W dłuższej perspektywie zapewnia stabilne przychody i ułatwia utrzymanie klienta na konkurencyjnym rynku. Ponadto jest już dobrze zdefiniowany i wspierany przez coraz większą grupę producentów i dystrybutorów.

– Wielu z naszych najlepiej prosp erujących partnerów przeszło z mo delu transakcyjnego na świadczenie usług zarządzanych – mówi Bart van der Knaap, General Manager EMEA Channel w Microsoftcie.

Jednak również ten sektor rynku zmaga się obecnie z nowymi wyzwaniami. Nowe rządowe regulacje, choć wzmacniają popyt na usługi zarządzane, śrubują wymagania sprzętowo-programowe, komplikując providerom skuteczną opiekę na systemami swoich klientów. Wiąże się to z rosnącymi wymogami ze strony firm z sektora cyberubezpieczeń wobec Managed Service Providerów, a jednocześnie stawki polis systematycznie rosną. Jednym z przykładowych powodów odmowy wypłacenia odszkodowania jest „shadow IT”. Jeśli, dajmy na to, wyciek danych firmowych nastąpił podczas urlopu pracownika, który na prośbę szefa wysłał mu ważny raport ze swojej prywatnej komórki, ubezpieczyciel uzna, że procedury bezpieczeństwa były niewystarczające.

Niemniej globalny rynek MSP rośnie w tempie dwucyfrowym, choć – jak podkreśla Robin Ody, Practice Leader w Omdia – niemało, bo 23 proc. dostawców usług zarządzanych nie uzyskuje regularnych profitów z tego tytułu. Jednocześnie, wśród aktualnych trendów w ekosystemie partnerskim na czoło wysuwają się takie zmiany w programach partnerskich, w efekcie których producenci coraz bardziej koncentrują się na swoich kluczowych partnerach. Wpisuje się w to niedawna decyzja Microsoftu dotycząca limitu minimum 30 mln dol. przychodów w regionie dla każde-

Jaki odsetek projektów GenAI u klientów biznesowych przeszedł z fazy PoC do realizacji?

każdy z naszych projektów

większość z naszych projektów

mniejszość naszych projektów

żaden z naszych projektów

go dystrybutora. To oznacza, że z gigantem z Redmond pożegna się około… 2/3 jego autoryzowanych dystrybutorów, co kojarzy się z nie tak dawnym casusem partnerów VMware’a po przejęciu tegoż przez Broadcoma. Tymczasem, jak podkreśla Jay McBain, mniejsi partnerzy i dystrybutorzy to często wyspecjalizowani gracze obsługujący konkretne nisze. Odcinając takich partnerów, traci się dostęp do określonego segmentu rynku.

Lepsze wyniki (mimo wszystko)

Niezależnie jednak od rynkowych turbulencji, jak wynika z danych Omdia, w sumie 67 proc. spośród 180 tys. partnerów działających w regionie EMEA, przewiduje, że ich tegoroczne wyniki będą lepsze od uzyskanych w 2024 r. Biorąc pod uwagę obecny krajobraz całego rynku, należy to chyba uznać za pozytywną informację. Choć dla pozostałych 33 proc. to żadne pocieszenie.

Data Center Nation:

„Polska staje się

regionalnym liderem”

Polski rynek centrów danych dynamicznie rośnie i ma spory potencjał do dalszego rozwoju. Ale, aby utrzymać tempo wzrostu inwestycji, potrzebne jest pokonanie barier związanych z zasilaniem i wsparcie regulacyjne.

Krzysztof Pasławski

Konferencja Data Center Nation 2025 w Warszawie zgromadziła blisko 1 tys. uczestników – operatorów centrów danych, inwestorów, dostawców infrastruktury, firm technologicznych, doradców z sektora nieruchomości, firm budowlanych i instytucji publicznych. W strefie wystawienniczej zaprezentowało się kilkudziesięciu dostawców, a program obejmował ponad 25 sesji i paneli dyskusyjnych. Omawiano wyzwania i kierunki rozwoju branży centrów danych w Polsce i regionie Europy Środkowo-Wschodniej. Tematyka konferencji koncentrowała się wokół czterech zagadnień: transformacji energetycznej, rozwoju infrastruktury cyfrowej, roli regulacji i polityki państwowej i wpływu nowych technologii – w tym sztucznej inteligencji i tzw. neocloudów – na popyt na usługi data center. – Tegoroczna edycja DCN Warsaw potwierdziła, że polski rynek dojrzewa i za-

czyna pełnić rolę regionalnego lidera. Obok dynamicznego napływu inwestycji w infrastrukturę cyfrową, coraz większą wagę przywiązuje się do efektywności energetycznej, zrównoważonego rozwoju oraz kompetencji inżynierskich – komentuje Paweł Olszynka, Market Research Director w PMR Market Experts, który moderował jeden z paneli.

Jak wykorzystać polskie szanse

Jak podkreślali uczestnicy konferencji, Polska stoi przed ogromną szansą, by stać się strategicznym cyfrowym hubem Europy Środkowo-Wschodniej – jednakże pod warunkiem odpowiedniego wsparcia instytucjonalnego i energetycznego.

Dla inwestorów kluczowe znaczenie ma wzrost gospodarczy Polski i solidne fundamenty makroekonomiczne. Atutem naszego kraju jest też potencjał inżynierski. W oczach zagranicznych graczy uwiarygodniły nas regiony chmurowe najwięk-

szych hiperskalerów, co potwierdziło że w Polsce warto inwestować Aby nasz kraj mógł lepiej wykorzystać swoje szanse na rynku centrów danych, potrzebne są jednak ułatwienia regulacyjne – wynika z dyskusji podczas panelu poświęconego przyszłości polskiego rynku.

– Dyskusja pokazała, że kluczowym czynnikiem dalszego rozwoju będzie współpraca sektora prywatnego z administracją, szczególnie w obszarach regulacji, dostępności energii i planowania przestrzennego i nadania centrom danych statusu obiektów o krytycznym znaczeniu dla infrastruktury państwa – mówi Paweł Olszynka.

Cena energii ważniejsza niż pochodzenie

Ograniczenia mocy przyłączeniowych niezmiennie stanowią wąskie gardło inwestycji w data center w kraju. Stąd wielu prelegentów podkreślało, że rozbudowa infrastruktury energetycznej jest konieczna dla utrzymania dynamiki inwestycji. Istotna jest przy tym transformacja w stronę OZE, ponieważ decyzje inwestorów coraz częściej zależą od dostępności stabilnych i „zielonych” źródeł zasilania. Tym niemniej nasz kraj z roku na rok ma coraz lepszy miks energetyczny i jest tylko kwestią czasu, kiedy pochodzenie energii przestanie być problemem – wynika z jednej z dyskusji. Zaznaczano również, że pochodzenie energii, choć ważne, z punktu widzenia przedsiębiorców ustępuje miejsca cenie i bezpieczeństwu oraz ciągłości zasilania.

AI zmienia projekty centrów danych

Podczas panelu poświęconego chłodzeniu cieczą podkreślano, że rozwój AI zmienia sposób projektowania, budowy i obsługi centrów danych. Przy tym do

najważniejszych wyzwań należy odprowadzanie ciepła. Przykładowo pojedyncza szafa AI może obecnie przekraczać 140 kW, a prognozy mówią o 1 MW na szafę. W tej sytuacji systemy chłodzenia powietrzem już nie wystarczają. Przewiduje się więc skokowy wzrost rynku chłodzenia cieczą. Według Omdia globalne wydatki na ten cel zwiększą się 6-krotnie w ciągu najbliższych 5 lat, z poziomu 1,9 mld dol. w 2024 r. do 10,3 mld dol. w roku 2029.

Wśród dostawców, którzy przygotowują się do tej zmiany, jest Schneider Electric. Na początku 2025 r. producent ten przejął Motivair, dostawcę specjalizującego się w produkcji systemów wydajnego chłodzenia.

– Obciążenia AI generują ponad 10 razy więcej ciepła niż konwencjonalne serwery. W porównaniu z powietrzem, woda absorbuje 4 razy więcej ciepła na gram, co czyni ją znacznie lepszym medium chłodzącym –zaznacza Claudia Cantarello, Business Developer Schneider Electric ds. chłodzenia cieczą w Europie.

Dodaje przy tym, że chłodzenie może pochłaniać nawet 40 proc. budżetu energetycznego centrum danych, a chłodzenie cieczą jest nawet 3 tys. razy bardziej efektywne niż wykorzystywanie w tym celu powietrza.

Zdaniem specjalisty

Michał Redlich, wiceprezes, FAST Group

Wmojej ocenie to nie pojedyncze czynniki napędzają rynek centrów danych, lecz sam jego szybki wzrost staje się katalizatorem zmian. Coraz więcej firm i instytucji chce uczestniczyć w tym segmencie gospodarki, choć często brakuje im pełnego spojrzenia, kompetencji i doświadczenia. Obserwujemy rosnącą złożoność projektów, zwłaszcza w infrastrukturze krytycznej – serwerownie są coraz większe i muszą spełniać coraz bardziej restrykcyjne wymagania. Dobrym przykładem jest obiekt Polskich Sieci Energetycznych w Radomiu o wartości 0,5 mld zł, który nasza firma ukończyła niedawno w konsorcjum z PORR. W sektorze prywatnym także widoczne jest ogromne zainteresowanie.

Część inwestorów działa spekulacyjnie, ale są podmioty gotowe do kompleksowego rozwoju projektów. Dodatkowym akceleratorem jest sztuczna inteligencja – jeszcze niedawno mówiliśmy o inwestycjach rzędu 2–20 MW, a dziś dyskusje toczą się wokół mocy od 50 do nawet 500 MW.

Podczas panelu dotyczącego suwerenności sztucznej inteligencji dyskusja koncentrowała się na tym, jak suwerenność AI kształtuje krajobraz technologiczny Europy i jakie ma to znaczenie dla Polski. Wraz z Romanem Siodą z Nvidii i Piotrem Kowalskim z PLDCA/Beyond, analizowaliśmy powiązania między technologią, energią i polityką. Suwerenność AI jest obecnie kwestią strategii krajowej – rządy inwestują w gigafabryki AI i infrastrukturę obliczeniową o wysokiej wydajności, aby zabezpieczyć lokalne moce przerobowe na potrzeby lokalnych firm. Zaczyna się to od inicjatyw na mniejszą skalę, ale wkrótce przekształci się w pełnowymiarowe fabryki AI, zdolne do produkcji i zarządzania modelami AI na poziomie krajowym. Sukces Europy w erze AI będzie za-

Igor Grdic, Regional Director – Central Europe, Vertiv

leżał od tego, jak zbuduje ona fizyczny i energetyczny „szkielet inteligencji” – centra danych, systemy zasilania i technologie chłodzenia, które umożliwiają rozwój AI. Oprócz idei, AI opiera się na infrastrukturze, a to właśnie ta infrastruktura zdefiniuje konkurencyjność kontynentu w nadchodzącej dekadzie.

Tegoroczna edycja DCN Warsaw była, jak dotąd, zdecydowanie największa – zgromadziła ponad 950 uczestników reprezentujących ponad 400 firm i instytucji z 32 krajów. To wyraźnie pokazuje, jak szybko Polska i region Europy Środkowo-Wschodniej zyskują na znaczeniu na europejskiej mapie centrów danych. Tegoroczne dyskusje koncentrowały się głównie na sztucznej inteligencji, zaopatrzeniu w energię, suwerenności danych i zrównoważonym rozwoju – kluczowych trendach kształtujących dzisiejszą transformację branży. Potwierdziło to również, że DCN Warsaw jest platformą referencyjną dla wymiany wiedzy i współpracy liderów rynku, w tym inwestorów, operatorów, decydentów oraz łańcucha dostaw usług i produktów dla centrów danych. Naszym celem jest, aby DCN Warsaw pozostało nie tylko największym i najważniejszym wyEwa Napiórkowska, Market Development Manager, Data Center Nation

darzeniem w branży centrów danych w regionie Europy Środkowo-Wschodniej, ale także tym, które rok po roku inspiruje do współpracy, rozwoju i innowacji.

Potrzebna jest „strategia wymiany”

INFRASTRUKTURA

DATA CENTER TO FUNDAMENT

CYFROWEJ GOSPODARKI.

Istotna jest też koordynacja etapu konstrukcyjnego i projektowego oraz zaangażowanie jednostek odpowiedzialnych za operacje już na etapie projektowania centrum danych. Istotne staje się przygotowanie „strategii wymiany”. Chodzi o to, iż centrum danych buduje się na 20 lat i w tym czasie co najmniej część urządzeń trzeba będzie wymienić. Już w trakcie projektowania należy więc upewnić się, czy będzie można zastąpić starszy sprzęt nowym bez zatrzymywania pracy centrum danych.

– Infrastruktura data center to fundament cyfrowej gospodarki. Polska dzięki transformacji energetycznej, strategicznemu położeniu i rosnącej kadrze inżynierskiej, ma wyjątkowy potencjał, by przyciągać inwestycje w nowoczesne centra danych. To szansa na stworzenie silnego ekosystemu innowacji, od startupów AI po technologie kwantowe, a tym samym umocnienie pozycji Polski jako lidera zrównoważonej infrastruktury cyfrowej w regionie –  podkreśla Adam Ponichtera, Country Managing Director Poland Data4 Group i wiceprezes Polish Data Center Association.

Executive view

Czas na partnerstwa wokół AI

„Współpraca między globalnymi dostawcami a lokalnymi ekspertami będzie kluczowa dla przyspieszenia transformacji Polski w kierunku cyfrowej gospodarki opartej na AI” – mówi Igor Grdic, dyrektor regionalny Vertiv na Europę Środkową.

Zacznijmy od tego, w jakim miejscu znajduje się polski rynek centrów danych?

Polska stała się regionalnym centrum rozwoju centrów danych w Europie Środkowo-Wschodniej. Po chwilowym spowolnieniu, podczas którego inwestorzy oczekiwali na wyjaśnienie trendu przejścia od tradycyjnych obciążeń chmurowych do modeli opartych na sztucznej inteligencji, obserwujemy ponowny wzrost. Jego kolejna faza będzie napędzana przez sztuczną inteligencję i obliczenia o wysokiej gęstości, co doprowadzi do powstania tzw. fabryk AI – centrów danych zaprojektowanych specjalnie do trenowania sztucznej inteligencji i wnioskowania. Projekty te będą coraz częściej wykraczać poza Warszawę, w zależności od dostępnej mocy energetycznej i gotowości infrastruktury.

Jakie są mocne strony naszego, lokalnego rynku?

Warto zaznaczyć, że Polska ma drugą co do wielkości sieć ciepłowniczą w Europie, co stwarza wyjątkowe możliwości synergii przemysłowej, ponownego wykorzystania energii i poprawy efektywności wykorzystania zasobów. W połączeniu z inwestycjami w infrastrukturę energii odnawialnej i wsparciem rządowym dla cyfryzacji, Polska staje się jednym z najbardziej obiecujących rynków centrów danych w Europie. Największe wyzwania prawdopodobnie będą związane z dostępnością energii i mocą sieci, ale są to również obszary, w których innowacje mogą odblokować wzrost. Centra danych będą coraz częściej podążać za energią, czyli do regionów z dostępem do sieci, odnawialnymi źródłami energii i efektywnymi strategiami ponow-

ZYSKAJĄ PARTNERZY

INWESTUJĄCY W KOMPETENCJE GOTOWE NA AI.

nego wykorzystania ciepła. Transformacja energetyczna Polski i jej rozbudowana infrastruktura ciepłownicza stwarzają więc wyjątkową szansę na przekształcenie zrównoważonego rozwoju w przewagę konkurencyjną.

Jakie rozwiązania cieszą się największym popytem na polskim rynku? Wraz ze wzrostem gęstości i dynamiki obciążeń, popyt przesuwa się w kierunku wydajnej infrastruktury zasilania i chłodzenia. Dla Vertiv oznacza to dostarczanie rozwiązań infrastrukturalnych o znaczeniu krytycznym: systemów zasilania, zarządzania ciepłem, prefabrykowanych modułowych centrów danych oraz zintegrowanych systemów monitorowania i sterowania. Prefabrykowane rozwiązania modułowe zyskują na popularności w Polsce, ponieważ umożliwiają szybsze wdrożenie, przewidywalną wydajność i skalowalność. Są to kluczowe czynniki w obecnym cyklu, napędzanym przez sztuczną inteligencję. Widzimy, że zarówno klienci hiperskalowi, jak i korporacyjni przygotowują swoją infrastrukturę pod kątem AI i przetwarzania brzegowego. Partnerstwa między globalnymi dostawcami technologii a lokalnymi integratorami będą odgrywać jeszcze bardziej strategiczną rolę w najbliższej przyszłości.

Jak rozwój sztucznej inteligencji zmienia centra danych?

Związana z tym zmiana konstrukcji i działania data center jest wręcz fundamentalna. Środowiska chłodzone powietrzem ewoluują w kierunku architektur chłodzenia cieczą – w tym systemów bezpośrednich do układu scalonego (direct-to-chip) i systemów immersyjnych, aby poradzić sobie z emisją ciepła generowaną przez procesory graficzne nowej generacji. Przykładowo, szafy rack AI wyposażone w najnowsze GPU NVIDIA mogą osiągać moc 130–150 kW na szafę, a wkrótce na-

wet 300 kW. Bezpieczne i efektywne zarządzanie tą gęstością wymaga nowego podejścia zarówno w systemach zasilania, jak i chłodzenia. Vertiv odgrywa kluczową rolę w umożliwieniu tej transformacji. Projektujemy i produkujemy infrastrukturę szkieletową, która zasila, chłodzi i łączy obciążenia AI – od jednostek dystrybucji chłodzenia cieczą (CDU) i inteligentnych systemów szyn zbiorczych po prefabrykowane modułowe bloki mocy. Nasza koncepcja Vertiv OneCore umożliwia szybkie wdrażanie infrastruktury gotowej do obsługi AI na dużą skalę. Została już wykorzystana w wielu europejskich projektach, takich jak inicjatywa Polar w Norwegii.

Jaka, w takim razie, będzie rola partnerów w kanale sprzedaży na rynku centrów danych?

Lokalni partnerzy są niezbędni dla modelu biznesowego Vertiv i rozwoju polskiego ekosystemu centrów danych. W miarę, jak projekty stają się coraz bardziej złożone, polegamy na partnerach posiadających bogate doświadczenie w dziedzinie elektryki i mechaniki – takich, którzy są w stanie uczestniczyć w realizacji projektu, instalacji i uruchomieniu kluczowych systemów. Vertiv utrzymuje globalne umowy z głównymi dostawcami hiperskalerów i usług kolokacji, ale w projektach korporacyjnych współpracujemy z lokalnymi partnerami. To podejście zapewnia elastyczność i szybkość reagowania na potrzeby klientów przy jednoczesnym zachowaniu najwyższych standardów technicznych. W przyszłości partnerzy inwestujący w kompetencje gotowe na AI – takie jak integracja chłodzenia cieczą, montaż prefabrykowanej infrastruktury czy zrównoważone rozwiązania energetyczne – będą mieli największe możliwości. Współpraca między globalnymi dostawcami a lokalnymi ekspertami będzie kluczowa dla przyspieszenia transformacji Polski w kierunku cyfrowej gospodarki opartej na AI.

SUSE Rancher Prime

szansa na biznes w erze kontenerów

Do obsługi aplikacji cloud-native wybierana jest platforma Kubernetes. Dla partnerów handlowych to szansa na dostarczenie klientom realnej wartości biznesowej. Jak sprawnie przeprowadzić ich przez tę zmianę?

Proces przejścia od monolitu do mikroserwisów stał się nowym paradygmatem IT. To dobrze, bo tradycyjne aplikacje monolityczne stały się hamulcem dla innowacji. Są trudne w skalowaniu, a każda zmiana wymaga przebudowy i wdrożenia całej aplikacji. Nowoczesne podejście oparte na mikroserwisach dzieli aplikacje na małe, niezależne i łatwe w zarządzaniu komponenty. Daje to niespotykaną dotąd elastyczność, przyspiesza cykle wdrożeniowe i pozwala na błyskawiczne skalowanie zgodnie z potrzebami. To właśnie konteneryzacja, wspierana przez Kubernetes, jest idealnym środowiskiem dla mikroserwisów. Zastępuje ona tradycyjną, ciężką wirtualizację, oferując znacznie lepsze wykorzystanie zasobów. Dlatego przyszłość należy do konteneryzacji i  wirtualizacji cloud-native, która przenosi korzyści znane z kontenerów – jak skalowalność i efektywność – do świata maszyn wirtualnych, unifikując całe środowisko IT.

Rancher Prime: centrum dowodzenia transformacją

W teorii wszystko brzmi doskonale, ale w praktyce klienci stają przed wyzwaniem, jak zarządzać rosnącą liczbą kontenerów i klastrów Kubernetes, szczególnie w środowiskach hybrydowych i multi-cloud, jak zapewnić bezpieczeństwo i uprościć codzienne operacje?

Odpowiedzią na te pytania jest SUSE Rancher Prime – wiodąca na rynku, otwarta platforma do zarządzania Kubernetesem. Rancher sprawia, że przejście do świata cloud-native staje się szybkie, łatwe i bezproblemowe. Jest jak uniwersalny pilot do całego ekosystemu Kubernetes, rozwiązujący kluczowe problemy: l Zarządzanie cyklem życia klastrów: umożliwia wdrożenie, aktualizację i skalowanie dowolnych certyfikowanych dystrybucji Kubernetes (RKE2, EKS, AKS, GKE i inne) za pomocą jednego interfejsu, niezależnie od tego, gdzie się znajdują – we własnej serwerowni, w chmurze publicznej czy na brzegu sieci (edge).

l Centralizacja i bezpieczeństwo: zapewnia scentralizowane uwierzytelnianie i kontrolę dostępu (RBAC) dla wszystkich klastrów. Umożliwia egzekwowanie globalnych polityk bezpieczeństwa nawet w rozproszonych środowiskach.

l Uproszczenie operacji: dostarcza intuicyjny interfejs i bogaty katalog gotowych do wdrożenia aplikacji, co radykalnie skraca czas dostarczania oprogramowania. Klienci korzystający z Rancher Prime notują skrócenie czasu wdrażania aplikacji nawet o 40 proc. i redukcję kosztów operacyjnych IT do 30 proc. dzięki automatyzacji i lepszemu wykorzystaniu zasobów.

Poznaj Rancher Prime Suite

SUSE Rancher Prime to potężne narzędzie do zarządzania konteneryzacją, lider w raportach Gartnera i Forrestera. Dostępne jest samodzielnie oraz w pakiecie Rancher Prime Suite, które rozszerza go o funkcje: l. SUSE Virtualization (Harvester): nowoczesna platforma do wirtualizacji cloud-native, pozwalająca zarządzać z jednego miejsca maszynami wirtualnymi i kontenerami.

2. SUSE Security (NeuVector): zapewnia kompleksowe bezpieczeństwo w modelu zero-trust dla całego cyklu życia kontenera – od skanowania obrazów po ochronę w czasie rzeczywistym.

3. SUSE Observability: oferuje zaawansowane możliwości monitorowania i analizy środowiska, zapewniając pełen wgląd w jego stan i wydajność pracy.

Wspólny sukces

Partnerzy SUSE mają szansę, by przeprowadzić swoich klientów przez cyfrową transformację. Kubernetes i konteneryzacja to także podstawa wdrożeń AI, ponieważ zapewniają skalowalność, przenośność i efektywne zarządzanie zasobami.

SUSE zapewnia partnerom kompleksowe wsparcie, by ułatwić sprzedaż i wdrożenie rozwiązań z rodziny Rancher. Oferuje bezpłatne szkolenia techniczne i sprzedażowe, możliwość rejestracji projektów oraz atrakcyjne ceny specjalne i rabaty w ramach programu partnerskiego.

Wykorzystajmy razem potencjał SUSE Rancher Prime, aby budować nowoczesne, wydajne i bezpieczne środowiska IT dla klientów zainteresowanych konteneryzacją oraz rozwiązaniami AI.

Autoryzowanym dystrybutorem rozwiązań SUSE jest Ingram Micro.

Kontakt dla partnerów:

Radosław Czubaszek, Partner & Distribution Development Manager, SUSE tel. 602-406-294 radoslaw.czubaszek@suse.com

Całe miasto

w jednej

aplikacji

„Naszym zadaniem nie jest tworzenie rozwiązań tylko dla jednego wydziału, czy jednej jednostki miejskiej. Chcemy, żeby z każdego systemu mogło korzystać możliwie dużo użytkowników, zarówno po stronie administracji, jak i mieszkańców” – mówi Ewelina Włoch, Naczelnik Wydziału Cyfryzacji i Nowych Technologii w Urzędzie Miasta Rybnik.

Jaki jest zakres zadań i kompetencji zespołu, którym Pani kieruje? Nazwa sugerowałaby, że macie Państwo inny obszar działania niż tradycyjny dział informatyczny w urzędzie…

Ewelina Włoch Wydział Cyfryzacji i Nowych Technologii powstał dwa lata temu z założeniem, że będzie reprezentował szersze podejście do wykorzystania technik cyfrowych niż standardowy dział IT. Chodzi o to, aby nie ograniczać się tylko do obsługi samego urzędu, ale też patrzeć na potrzeby całego miasta, wdrażając różnego rodzaju

PRZYMIERZAMY SIĘ DO STWORZENIA CYFROWEGO BLIŹNIAKA

CAŁEGO MIASTA. PRACE RUSZĄ W PRZYSZŁYM ROKU.

usługi dla pojedynczych mieszkańców, ale też funkcjonujących w mieście organizacji. Naszym zadaniem jest realizacja holistycznego podejścia do wprowadzania rozwiązań cyfrowych.

Jesteście w trakcie realizacji cyfrowego bliźniaka miasta. Czy to jest jeden z elementów wspomnianego nowego podejścia do roli IT w mieście?

To na pewno przykład wykorzystania możliwości oferowanych przez nowoczesne techniki cyfrowe. Jako że Rybnik był jednym z pionierów informatyzacji admini-

stracji samorządowej, to funkcjonujące obecnie w urzędzie systemy były wdrażane wiele lat temu i są już generalnie przestarzałe. Obecnie staramy się je stopniowo aktualizować, modernizować, bo jak wiadomo postęp w dziedzinie ICT jest wyjątkowo dynamiczny. Jednym z przykładów tych działań jest stworzenie cyfrowego bliźniaka miejskiego pasa drogowego. Nie chodzi jednak tylko o zbudowanie cyfrowego modelu tych terenów. Powstaje cały system do zarządzania pasem drogowym. Będą w nim informacje o całej infrastrukturze pasa drogowego, w tym o znajdujących się w jego obrębie reklamach. Integrujemy go z systemami dziedzinowymi, jak na przykład systemem finansowo-księgowym, jak również z systemem obiegu dokumentów. Pozwoli to na szybsze podejmowanie decyzji i sprawniejsze wydawanie zezwoleń. Pracownicy mniej czasu będą musieli spędzać w terenie, bo wiele informacji będą mogli pobrać bezpośrednio z systemu. A jak już pojadą w teren, to specjalna aplikacja mobilna umożliwi im, przykładowo, sprawdzenie, czy dana reklama lub inna instalacja jest legalnie postawiona w pasie drogowym. Będą też mieli dostęp do informacji o wszelkich innych, znajdujących się tam obiektach.

Kto będzie głównym użytkownikiem tego rozwiązania?

Naszym zadaniem, jako Wydziału Cyfryzacji i Nowych Technologii, nie jest tworzenie rozwiązań tylko dla jednego wydziału. Za zarządzanie pasem drogowym odpowiada

Zarząd Dróg Miejskich, ale z cyfrowego bliźniaka będą korzystać także inne jednostki miejskie, na przykład Zarząd Zieleni Miejskiej, wydział architektury, wydział promocji, wydział inwestycji, wydział gospodarki miejskiej i inne. Chcemy, żeby z tego rozwiązania mogli korzystać też mieszkańcy miasta. Jako urzędnicy ułatwiamy sobie dzięki takim systemom pracę, optymalizujemy funkcjonowanie urzędu, ale naszym celem jest, by służyły one bezpośrednio również samym mieszkańcom.

Czy w planach jest stworzenie cyfrowego bliźniaka całego miasta? Tak, przymierzamy się do tego. Planujemy ruszyć z pracami w przyszłym roku. Wiele informacji o mieście jest już dostępnych w Rybnickim Systemie Informacji Przestrzennej (RSIP). Jego wielką zaletą jest to, że dane aktualizują się codziennie w sposób automatyczny, co jest możliwe dzięki integracji z systemami źródłowymi. Jeżeli, dajmy na to, wydział geodezji coś zmieni, to następnego dnia rano ta konkretna aktualizacja znajdzie się w naszym geoportalu. Przy czym część zasobów jest ogólnodostępna dla wszystkich zainteresowanych za pomocą przeglądarki internetowej, podczas gdy do warstwy wewnętrznej mają dostęp tylko upoważnieni pracownicy urzędu i innych jednostek miejskich. W przyszłym roku będziemy aktualizować ortofotomapę, która ma być robiona w bardzo dobrej jakości. Wykonywane w tym celu naloty lotnicze chcemy też od razu wykorzystać do budowy cyfrowego bliźniaka całego miasta. Do tworzenia modelu pasa drogowego wykorzystywane jest natomiast obecnie skanowanie za pomocą urządzeń zainstalowanych na specjalnym samochodzie.

Cyfrowy bliźniak oznacza dużą ilość danych do przetworzenia. Czy to się wiąże na przykład z koniecznością przebudowy infrastruktury teleinformatycznej? Jeżeli chodzi o cyfrowego bliźniaka pasa drogowego, to będzie on uruchomiony na infrastrukturze firmy, która go dla nas wykonuje. Nie zwalnia to nas jednak, oczywiście, z dbałości o wykorzystywaną przez nas infrastrukturę. Dzisiaj w szczególny sposób cyberbezpieczeństwo jest dla nas bardzo ważne. Staramy się o pozyskanie dużych środków finansowych z funduszy unijnych na wymianę wyposażenia centrum komputerowego. Nasza infrastruktura serwerowa nie jest stosunkowo stara, ale wymaga modernizacji w celu zapewnienia zgodności z wszelkimi wymaganiami, w tym wynikającymi z NIS 2. Urząd pozyskał nowy budynek, do którego przeniesiona zostanie część wydziałów. Chcemy go wyposażyć w najno-

wocześniejszą infrastrukturę ICT, łącznie z efektywnymi systemami zarządzania za sobami i siecią.

W jakim zakresie kierowany przez Panią wydział zajmuje się także ob sługą teleinformatyczną innych jednostek miejskich?

Instytucje miejskie korzystają z prowadzo nych przez nas systemów centralnych. Na szym zadaniem jest utrzymanie i rozwój tych systemów oraz zarządzanie dostępem do nich. Mam na myśli wspomniany system informacji przestrzennej, ale także system finansowo-księgowy, czy system zarządza nia obiegiem dokumentów. W naszej gestii leży też miejska sieć światłowodowa, do której są podłączone placówki miejskie. Je śli natomiast chodzi o sprzęt komputerowy, czy lokalne aplikacje, to jednostki miejskie korzystają zazwyczaj z usług firm zewnętrz nych. Zawsze jednak, gdy jest taka potrzeba, to mogą liczyć także na nasze wsparcie. Ni gdy nie zostawiamy ich bez pomocy. Teraz rozsyłamy ankietę, która ma pomóc w roz poznaniu ich potrzeb. W przygotowywa nym przez nas wniosku o dofinansowanie rozwoju infrastruktury zostaną uwzględ nione również zakupy dla nich. Chcemy im zapewnić także odpowiedni poziom cyber bezpieczeństwa. Dzięki tym działaniom nie tylko unowocześnimy, ale też bardziej ujed nolicimy infrastrukturę teleinformatyczną w mieście. Później będzie ją łatwiej zinte grować. Gdyby w przyszłości pojawiła się potrzeba powołania wspólnego SOC-a, czy CUW-u informatycznego, to będziemy do tego w dużej mierze już przygotowani.

Jakie miejsce zajmuje obecnie w strukturze administracji samorządowej dział IT?

Przy rosnącej stale cyfryzacji państwa, w tym również samorządów lokalnych, wy działy takie jak nasz mają w urzędach klu czowe znaczenie. Wszystkie świadczone przez administrację usługi są oparte o in formatykę. Jeśli coś po stronie ICT nie dzia ła, to w zasadzie nie działa też urząd. Dlatego mocno staramy się rozwijać komponenty dotyczące świadczenia usług elektronicz nych. Właśnie dlatego chcemy je połączyć z naszym cyfrowym bliźniakiem.

Czy można wskazać systemy, które są dzisiaj kluczowe z perspektywy miejskiej informatyki samorządowej? Z pewnością ważną rolę odgrywa system zarządzania obiegiem dokumentów. W za sadzie to jest już w ogóle system wspoma gania zarządzaniem miastem. Jest on u nas bardzo rozbudowany, mocno zintegrowa ny z innymi systemami, korzystamy z nie

PRZY ROSNĄCEJ CYFRYZACJI PAŃSTWA, W TYM RÓWNIEŻ SAMORZĄDÓW

LOKALNYCH, WYDZIAŁY

TAKIE JAK NASZ MAJĄ

W URZĘDACH KLUCZOWE ZNACZENIE.

go i w urzędzie, i we wszystkich jednostkach miejskich. Newralgiczne znaczenie ma też miejska sieć światłowodowa, do której podłączone są wszystkie instytucje miejskie. Wszystko się jednak szybko w obszarze ICT zmienia, więc musimy cały czas trzymać rękę na pulsie.

Które z wdrożonych systemów były tworzone z myślą o bezpośrednim korzystaniu z nich przez mieszkańców miasta? Wspólnie z wydziałem promocji stworzyliśmy aplikację „Halo! Rybnik”. Jest ona dla mieszkańców bardzo ważna i chętnie przez nich wykorzystywana. Służy nie tylko do informowania o tym, co się dzieje w mieście, ale też pozwala na przekazywanie informacji od mieszkańców. Posiada moduł „Zgłoś problem”, za pośrednictwem którego można informować urząd bądź służby miejskie o różnych sytuacjach wymagających interwencji. Zgłoszenie trafia bezpośrednio do odpowiedniej jednostki, która zajmuje się daną kategorią spraw. Mieszkańcy mogą sprawdzić status sprawy, a na koniec dostają informację, w jaki sposób zgłoszona sprawa została załatwiona. Jest też moduł do przeprowadzania konsultacji społecznych i wiele innych. Mamy tam również zintegrowaną kartę mieszkańca, która zapewnia bonusy osobom płacącym podatki w Rybniku. Generalnie jestem za tym, aby w jednej aplikacji miejskiej było jak najwięcej komponentów. I tak już wszyscy mamy multum poinstalowanych programów, więc niech aplikacja miejska będzie jedna, niech wszystko, co miejskie, znajduje się w jednym miejscu. Oczywiście, nie wszystko da się tak zrobić, ale staramy

GENERALNIE JESTEM ZA TYM, ABY W JEDNEJ APLIKACJI MIEJ-

Jaki jest główny, strategiczny kierunek rozwoju cyfryzacji miasta? Działamy zgodnie z ideą smart city, więc zamierzamy wdrażać rozwiązania bazujące na sztucznej inteligencji. Chcemy, na przykład, wymienić cały monitoring wizyjny w mieście. Nowy system będzie wykorzystywał algorytmy sztucznej inteligencji rozpoznające określone wzorce zachowań – jak bójki bądź niszczenie mienia – czy też wspomagające poszukiwania określonych obiektów według wskazanych parametrów, gdy, powiedzmy, będzie wiadomo, że w zdarzeniu drogowym brał udział czerwony sedan. Obecnie mamy około stu kamer w mieście. System jest obsługiwany przez straż miejską. Sztuczna inteligencja ma pomagać w wykrywaniu zdarzeń wymagających interwencji służb miejskich. W mieście dzieje się dużo rzeczy, więc ludzie siedzący przed monitorami nie zawsze są w stanie wszystko od razu wychwycić. Operatorzy będą więc otrzymywać generowane automatycznie alerty, ale ostateczna decyzja o podjęciu stosownych działań będzie należała do człowieka.

Gdzie jeszcze będziecie wykorzystywać sztuczną inteligencję?

W planowanym nowym systemie parkingowym chcemy umożliwić jak najszerszy dostęp do informacji o wolnych miejscach postojowych. Będą na przykład wyświetlane na tablicach informacyjnych na głównych trasach wjazdowych do miasta. Walczymy mocno z zanieczyszczeniem powietrza w Rybniku, nie chcemy więc, aby samochody krążyły niepotrzebnie po ulicach w poszukiwaniu wolnych miejsc postojowych. Przy wjazdach na parkingi będą też sczytywane tablice rejestracyjne w celu automatycznego rozliczania opłat.

Na jakie natomiast wsparcie informacyjne mogą liczyć użytkownicy transportu publicznego?

nuje też pracę prywatnych przewoźników, obsługujących wybrane trasy na terenie Rybnika.

Czy dane z systemów miejskich udostępniacie również użytkownikom zewnętrznym?

Dzisiaj odbywa się to głównie w ramach zapytań o dostęp do informacji publicznej. W planach mamy jednak zbudowanie specjalnego portalu z otwartymi danymi. Chcemy, aby służyły one przede wszystkim naszym mieszkańcom, ale też i innym, zainteresowanym podmiotom. Dane te będą zaciągane automatycznie z systemów miejskich, a tam, gdzie nie będzie to możliwe, to będą cyklicznie aktualizowane. Dostęp do rzetelnych, aktualnych danych ma kluczowe znaczenie dla kadry zarządzającej miastem i jego jednostkami. Dzięki temu można podejmować szybkie, prawidłowe decyzje. Chcielibyśmy jednak, aby dostęp do jak największej ilości danych z systemów miejskich mieli zapewniony też sami mieszkańcy i organizacje funkcjonujące na terenie miasta.

Czego oczekujecie od firm będących dostawcami rozwiązań informatycznych dla miasta?

się jak najwięcej rzeczy zawrzeć w pojedynczym rozwiązaniu.

A czy możliwa jest integracja systemów miejskich z systemami rządowymi? Wspólnie z Ministerstwem Cyfryzacji i Centralnym Ośrodkiem Informatyki zrobiliśmy integrację z systemem mObywatel. Nasi mieszkańcy mogą dzięki temu płacić podatek od nieruchomości przy pomocy tej właśnie aplikacji. Chcemy to dalej rozwijać, żeby na przykład inne podatki można było też w ten sposób uiszczać. Tego typu rozwiązania cieszą się dużym zainteresowaniem wśród naszych mieszkańców.

Dostaliśmy z programu FEnIKS ponad 18 milionów złotych na stworzenie nowoczesnego systemu transportu miejskiego, który obejmuje wykorzystanie autobusów wodorowych. Koordynacja programu wodorowego należy do moich kompetencji. Obecnie po mieście jeździ już 20 napędzanych w ten sposób autobusów, a docelowo ma ich być 34. W ramach tego przedsięwzięcia będziemy też budować nowy system informatyczny. Będzie on obejmował wszystkie obszary funkcjonowania transportu zbiorowego w mieście – od spraw prowadzonych w odpowiednich wydziałach urzędu miasta po działalność miejskiej spółki komunikacyjnej, która dysponuje autobusami i prowadzi dyspozytornię ruchu, która z kolei koordy-

Zwracamy uwagę na dojrzałość oferowanych systemów. Ważne jest, aby tworzące je firmy rozumiały specyfikę funkcjonowania samorządu miejskiego. Oczywiście, nie możemy wykluczyć z przetargu firmy, która robiła do tej pory, przykładowo, oprogramowanie dla banku, bo może się okazać, że poradzi sobie również dobrze z wdrożeniem dla samorządu. Wszyscy oferenci muszą jednak wiedzieć, jakim wymaganiom musi sprostać system informatyczny dla miasta i być w stanie zapewnić ich realizację. Bo pozornie może się wydawać, że na przykład system kadrowy dla banku i dla samorządu jest taki sam, ale w rzeczywistości będą się różnić, chociażby ze względu na różnice w przepisach. Firmy specjalizujące się w rozwiązaniach dla samorządu mają tę przewagę, że dysponują bardzo liczącym się dla nas doświadczeniem z już przeprowadzonych wdrożeń. Jesteśmy jednak otwarci na różne propozycje, bo i systemy samorządowe robi się dzisiaj inaczej niż, powiedzmy, dwadzieścia lat temu. Teraz tworzy się przede wszystkim rozwiązania „korowe”, do których można dokładać dodatkowe moduły. Kupując nowe systemy wymagamy już zawsze otwartego API, żeby w razie potrzeby nie było problemów z integracją z innymi systemami.

Rozmawiał Andrzej Gontarz

Mint Service Desk:

nowa jakość komunikacji

Rozwiązanie Mint Service Desk ułatwia codzienną pracę zespołów bez zbędnej  złożoności i nadmiaru funkcji. Umożliwia wprowadzenie porządku w procesach oraz wspiera podejmowanie decyzji bazujących na danych.

Wostatnich latach jednym z najbardziej okazałych trendów w dziedzinie nowych technologii jest dynamiczny rozwój wszelkiego rodzaju sztucznej inteligencji (AI). To sprawia, że przedsiębiorcom coraz trudniej ocenić, jakie narzędzia są rzeczywiście potrzebne w procesie cyfrowej transformacji. Firmy nie dostrzegają, że konieczne stało się zastosowanie nieco bardziej systemowego podejścia do niektórych kwestii. W wielu podmiotach domyślnym miejscem „załatwiania spraw” stały się wewnętrzne komunikatory, co prowadzi do mikrozarządzania i chaosu informa-

prezes zarządu, OPGK Rzeszów

Service desk, a więc koncentracja na zarządzaniu jakością świadczonych usług, zawsze była dla nas filarem prowadzonej działalności. W pewnym momencie zauważyliśmy, że rynek proponuje w tym obszarze niezwykle drogie platformy, ewentualnie rozwiązania bazujące na otwartym kodzie źródłowym. Te drugie, niestety, mają ograniczoną funkcjonalność, trudny w obsłudze interfejs, a także nie zapewniają takiego poziomu wsparcia, jakie jest oczekiwane przez użytkowników końcowych. Dlatego powstał Mint Service Desk, tworzony od początku z myślą o architekturze, która pozwoli na wydajne funkcjonowanie w bardzo wymagających warunkach. A skąd nazwa? Większość rozwiązań była już tak mało świeża, że jedyną opcją było wprowadzenie jakiegoś podmuchu świeżości… a „miętówka” z pewnością taką zapewnia!

cyjnego. Takie podejście może sprawdzić się w małych firmach, lecz uniemożliwia mierzenie jakości obsługi i dotrzymywanie warunków SLA. Dlatego bazowanie wyłącznie na komunikatorach staje się poważnym ograniczeniem w dłuższej perspektywie. Najlepszym krokiem jest postawienie na service desk jako główne narzędzie pracy.

Platformą, która przyczynia się do usprawnienia i monitorowania poziomu świadczonych usług IT, jest polski system Mint Service Desk, opracowany przez firmę OPGK Rzeszów, która od lat łączy doświadczenie w zarządzaniu danymi z tworzeniem zaawansowanych rozwiązań IT.

Service desk jako podstawa udanej transformacji

Mint Service Desk działa w modelu chmurowym i on-premises. Narzędzie wspiera nie tylko zespoły IT, ale też działy odpowiedzialne za kontrakty, relacje z partnerami, reklamacje czy wsparcie posprzedażowe. Świetnie sprawdza się ono w podmiotach z branży logistycznej, edukacyjnej, przemysłowej czy energetycznej, jak też w administracji publicznej. Zaspokaja potrzeby większości firm i branż, a wykorzystywane jest chociażby do automatyzacji obsługi zgłoszeń, zarządzania zasobami, reklamacjami czy usługami (z uwzględnieniem czasów SLA). Dzięki integracji z platformą Baramundi dodatkowo umożliwia sprawne zarządzanie urządzeniami końcowymi. W planach rozwojowych tego produktu uwzględniono także aspekty dotyczące sztucznej inteligencji.

– Podejmujemy daleko idące kroki, aby nasi klienci mogli w bezpieczny dla ich danych sposób korzystać z rozwiązań AI.

Mint Service Desk to platforma, na bazie której można z powodzeniem zaplanować cyfrową transformację w swojej firmie. Wierzymy jednak, że najlepszą referencją są zadowoleni klienci i to im jesteśmy wdzięczni za zaufanie –  mówi Wojciech Abram, dyrektor operacyjny OPGK Rzeszów. Kierunkiem, który OPGK aktywnie uwzględnia w planach rozwojowych swojego flagowego produktu, jest sztuczna inteligencja. Stanowi ona obecnie zarówno wyzwanie, jak i ogromną szansę – szczególnie w kontekście eliminowania zadań, które nie należą do kluczowych funkcji biznesowych. Może ona przyczynić się do rewolucji, w której cała administracyjna otoczka przedsiębiorstwa będzie obsługiwana przez inteligentne, odpowiednio wyszkolone boty. Ważne jest jednak wprowadzanie mechanizmów AI w sposób odpowiedzialny, aby zminimalizować ryzyko halucynowania, które mogłoby przełożyć się na deformację treści w procesie komunikacyjnym.

Obecnie producent Mint Service Desk skupia się na budowie sieci partnerskiej, a dzięki skutecznej i konkurencyjnej polityce cenowej z sukcesem realizuje kolejne wdrożenia w Polsce i za granicą. Partnerzy mogą liczyć na wsparcie OPGK przy realizacji wdrożeń oraz migracji z szeregu innych platform.

Hanna Bera-Bobrecka Partner Manager, OPGK Rzeszów hbera@opgksoftware.com

Paweł Kuźniar

Nie ma transformacji

bez skanowania

Transformacja cyfrowa przestała być hasłem marketingowym, a stała się codziennym doświadczeniem. W takiej rzeczywistości przyszłość skanowania dokumentów niezmiennie jawi się w jasnych barwach.

Tomasz Janoś

Wydaje się dość oczywistym, że perspektywy cyfrowej transformacji wyznaczać będzie rosnący poziom automatyzacji, zwiększone bezpieczeństwo, pogłębiona analityka danych i coraz powszechniejsze wykorzystanie AI. Według obserwatorów rynku te organizacje, które będą realizować powyższe założenia, powinny zyskiwać przewagę konkurencyjną, a instytucje publiczne sprawniej obsługiwać obywateli i zwiększać swoją efektywność operacyjną. Przy czym towarzyszy temu jeden, stary jak świat, warunek: potrzebne są na to odpowiednie budżety. Obecnie spore na-

SEKTOR PUBLICZNY WCIĄŻ NADRABIA ZALEGŁOŚCI.

dzieje pokłada się w tym, że digitalizacja dokumentów stanowi konieczną składową cyfryzacji wspieranej funduszami z Krajowego Planu Odbudowy.

– Wdrażanie systemu NASK EZD RP, finansowane ze śro dków KPO i budżetu państwa, to realny krok w kierunku automatyzacji procesów i ograniczenia papieru w administracji publicznej, a niebawem również w ochronie zdrowia. Mniejsze placówki medyczne mogą uzyskać wsparcie na wyposażenie do digitalizacji w ramach projektu FEnIX – mówi Tomasz Lis, Reseller Account Manager w polskim oddziale Epsona.

Co istotne, w prowadzonej transformacji nie chodzi wyłącznie o skanowanie papieru, lecz o płynne połączenie obiegu analogowego z elektronicznym. – Dobrym przykładem są szpitale, gdzie proces przyjęcia pacjenta łączy oba światy: zgody na leczenie drukowane są na miejscu, pacjent podpisuje je odręcznie, po czym dokument jest natychmiast skanowany i „wrzucany” do cy frowego systemu placówki. Takie rozwiązanie znacząco przyspiesza obieg infor macji i eliminuje ryzyko zagubienia danych – uważa Tomasz Lis.

W ramach Krajowego KPO na cyfryzację placówek ochrony zdrowa przeznaczono sporą kwotę, bo 4,4 miliarda zł. I bez wątpienia, wdrożenie digitalizacji dokumentacji pacjentów, obrazów diagnostycznych czy faktur może przynieść placówkom medycznym ogromne korzyści. Dodatkowo inteligentne przetwarzanie dokumentów zapewnia dokładne i terminowe przetwarzanie danych wrażliwych. Cyfrowe przepływy pracy powinny zmniejszyć obciążenie administracyjne personelu i wspierać zgodność z regulacjami.

Nietrudno zauważyć, że proces digitalizacji w niektórych sektorach postępuje znacznie szybciej, niż w innych. Branżą o największym zapotrzebowaniu na cyfryzację jest administracja publiczna. – Chodzi o możliwość składania wniosków online, dostęp do e-usług czy cyfrowe archiwa danych. Jak zapowiada Ministerstwo Cyfryzacji, do stycznia 2028 roku wszystkie jednostki administracji publicznej, rządowej i samorządowej, będą zobowiązane do stosowania elektronicznego zarządzania dokumentacją – tłumaczy

Piotr Gołębczyk, Team Leader Business Channel w polskim oddziale Brothera. Nie zaskakuje przy tym fakt, że duże przedsiębiorstwa zwykle mają już opanowane procesy cyfrowe, natomiast sektor publiczny wciąż nadrabia zaległości, szczególnie w zakresie integracji danych i zarządzania obiegiem dokumentów. – Digitalizacja pozwala im nie tylko oszczędzić czas i koszty, ale też zwiększyć transparentność i efektywność działania. To obecnie najbardziej perspektywiczny obszar dla rozwoju rozwiązań z segmentu skanerów i urządzeń wielofunkcyjnych – uważa Tomasz Lis.

Nie tylko ochrona zdrowia, instytucje i biura

Jak wspomniano, największy potencjał w zakresie zwiększania digitalizacji mają dziś instytucje publiczne, samorządowe oraz medyczne i edukacyjne. Niektó-

re z nich są już objęte programami EU wspierającymi modernizację infrastruktury IT, ale na tym nie koniec.

Z dużego potencjału w digitalizacji informacji powinien zdawać sobie sprawę sektor finansowy. Inteligentne skanowanie dokumentów może przyspieszać procesy udzielania kredytów, skracając czas oczekiwania na decyzję. Zaawansowane zarządzanie danymi usprawni wykrywanie oszustw poprzez identyfikację anomalii w czasie rzeczywistym, zaś zautomatyzowane narzędzia zgodności pomagają tworzyć ścieżki audytowe i zmniejszać ryzyko kar regulacyjnych. Co więcej, inteligentne przetwarzanie dokumentów może także wydobywać i weryfikować dane z dokumentów finansowych, zwiększając precyzję takich operacji. Z kolei kancelarie i działy prawne mogą wykorzystywać inteligentne skanowanie dokumentów, ułatwiając sobie życie w pracy z ogromnymi ilościami dokumentów z postępowań sądowych oraz w dbaniu o zgodność z przepisami. Wprowadzenie automatyzacji do przeglądania i oznaczania dokumentów może skrócić czas przygotowania sprawy oraz zwiększyć dokładność analiz. Dodatkowo inteligentne przetwarzanie dokumentów wspiera zgodność z wymaganiami dotyczącymi e-discovery i wzmacnia ochronę danych wrażliwych. Firmy produkcyjne wykorzystują transformację cyfrową do uzyskiwania wglądu w procesy operacyjne w czasie rzeczywistym. Cyfryzacja zapisów produkcyjnych, raportów kontroli jakości i dokumentacji łańcucha dostaw zapewnia większą przejrzystość procesów. Dzięki temu można optymalizować harmonogramy produkcji, ograniczać odpady materiałowe i zwiększać efektywność działań. Dodatkowo systemy zarządzania dokumentami są w stanie przeprowadzać natychmiastową analizę danych produkcyjnych, co skraca przestoje i usprawnia podejmowanie decyzji na hali produkcyjnej.

Z kolei w energetyce cyfrowe przepływy pracy umożliwiają monitorowanie infrastruktury w czasie rzeczywistym, zwiększając efektywność i zrównoważony rozwój. Przykładowo, inteligentne przetwarzanie dokumentów może integrować się z urządzeniami IoT w celu analizy dzienników konserwacyjnych i przewidywania awarii sprzętu, co ogranicza przestoje i optymalizuje dostarczanie energii. To, rzecz jasna, tylko kilka przykładów obrazujących, jak różne branże mogą wykorzystywać cyfryzację, aby usprawniać procesy, napędzać innowacje i osiągać doskonałość operacyjną. – Dążenie do cyfryzacji obejmuje każdą branżę i każdy rodzaj działalności, choć jej tempo jest być może nieco niższe w sektorze rolniczym czy budownictwie, co wynika ze specyfiki tych branż. Zauważamy również, że pro ces ten szybciej wdrażany jest w większych firmach, natomiast

stosunkowo wolniej odbywa się w mniejszych organizacjach – uważa Piotr Gołębczyk.

Konieczna zgodność z regulacjami

Wobec rosnącej fali cyberzagrożeń jednym z najpoważniejszych zadań funkcjonujących w cyfrowym otoczeniu organizacji jest zwiększanie bezpieczeństwa danych. Przy użyciu solidnych zabezpieczeń powinny one chronić wrażliwe informacje oraz zapewniać zgodność z regulacjami prawnymi i branżowymi.

– Digitalizacja dokumentów to proces, który firmy powinny przeprowadzić w sposób odpowiedzialny i zgodnie z obowiązującymi przepisami. Tylko w ten sposób dokonana zmiana może przyczynić się do ograniczenia problemów związanych z wymogami narzucanymi przez regulacje branżowe oraz prawne. Do -

PEŁNA DIGITALIZACJA W SEKTORZE PUBLICZNYM WCIĄŻ WYMAGA RÓWNOLEGŁEGO UTRZYMANIA ZASOBÓW PAPIEROWYCH.

CYFRYZACJA UŁATWIA ZGODNOŚĆ Z PRZEPISAMI RODO I INNYMI REGULACJAMI.

kumenty w formie cyfrowej powinny być w odpowiedni sposób zabezpieczone, a dostęp do nich powinien wymagać autoryzacji – twierdzi Piotr Gołębczyk.

Mając na uwadze konieczność zwiększenia bezpieczeństwa informacji, można się zastanowić nad tym, jak przejście od papierowej dokumentacji do informacji cyfrowej wpływa na zdolność do realizacji tego celu. Przykładowo, jak digitalizacja ma się do regulacji branżowych i prawnych? Zwiększa czy zmniejsza problemy organizacji ze zgodnością z przepisami?

– Cyfryzacja znacząco ułatwia zgodność z przepisami RODO i innymi re-

gulacjami dotyczącymi bezpieczeństwa danych. Dokumenty w tej formie są szyfrowane i archiwizowane na serwerach z backupem. Minimalizuje to ryzyko utraty danych, zniszczenia czy nieautoryzowanego dostępu. W porównaniu z archiwami papierowymi, systemy cyfrowe zapewniają też pełną audytowalność i łatwiejsze zarządzanie uprawnieniami użytkowników – twierdzi Tomasz Lis.

Nie można jednak zapominać, że instytucje publiczne w Polsce nadal są zobowiązane do przechowywania części dokumentacji w formie papierowej – zgodnie z ustawą o narodowym zasobie archiwalnym i archiwach oraz towarzyszącymi jej rozporządzeniami. – Okresy archiwizacji różnią się w zależności od kategorii dokumentów, począwszy od kilku (dokumenty kadrowe, sprawozdania finansowe) do nawet stu lat (akta stanu cywilnego). To oznacza, że pełna digitalizacja w sektorze publicznym wciąż wymaga równoległego utrzymania zasobów papierowych. Dlatego obok skanerów równie istotne pozostają urządzenia drukujące, które zapewniają wysoką trwałość i odporność wydruków i gwarantują niezmienność treści, jak też czytelność dokumentów przez wiele lat – zauważa Tomasz Lis.

Zrównoważony rozwój a koszty

W Unii Europejskiej znaczenie ma przy tym kwestia odpowiedzialności za środowisko i wprowadzanie przez firmy przyjaznych dla niego praktyk. Przy czym proces ten może być tzw. inicjatywą oddolną, ale zwykle jest narzucany w ramach kolejnych regulacji. – Warto pamiętać, że każda inwestycja finansowana z funduszy unijnych musi być zgodna z zasadą DNSH, a więc Do No Significant Harm, doprecyzowującej kwestie wpływu działań człowieka na środowisko. Dlatego powinno się wybierać związane z dokumentami produkty oraz technologie, które wpisują się w ten wymóg, łącząc cyfryzację z niskim wpływem na środowisko – mówi Tomasz Lis. Rozwiązania do skanowania dokumentów mają swój udział w „zielonych

Zdaniem specjalisty

Tomasz Lis, Reseller Account Manager, Epson

Wprzypadku sprzętu, który jest najczęściej wybierany do skanowania dokumentów w firmach i instytucjach, popularne są zwłaszcza urządzenia wielofunkcyjne – oferując najlepszy stosunek możliwości do kosztów. Pozwalają drukować, kopiować i skanować w jednym procesie, co większości organizacji w pełni wystarcza. Jednak w przypadku dużego wolumenu skanów lub pracy z różnorodnymi materiałami (książki, karty, paszporty, zdjęcia) sięga się po specjalistyczne skanery, które oferują wysoką wydajność, pozwalając przy tym na oszczędność miejsca. Ważną kwestią w wyborze rozwiązań jest przyjazne dla użytkowników jednolite środowisko oprogramowania – za-

równo w przypadku skanerów, jak i urządzeń wielofunkcyjnych – oraz łatwa integracja z zewnętrznymi systemami EZD lub ERP. Dzięki temu proces digitalizacji dokumentów można dostosować do indywidualnych potrzeb każdej instytucji.

Digitalizacja dokumentów jest jednym z kluczowych elementów transformacji cyfrowej, która z kolei stanowi jeden z filarów nowoczesnej gospodarki i administracji. Przekształcanie dokumentów papierowych w formę elektroniczną umożliwia ich łatwe przechowywanie, wyszukiwanie, udostępnienie oraz analizowanie. Aktywnie wspieramy te procesy, oferując szeroki zakres narzędzi służących do przetwarzania obrazu, takich jak urządzenia wielofunkcyjne, skanery i drukarki etykiet. Wsparcie transformacji cyfrowej ze strony funduszy KPO bezpośrednio wpływa na automatyzację procesów biznesowych, lepszą integrację systemów IT czy zwiększenie dostępu do usług. Digitalizacja dokumentów to także szansa na poprawę bezpieczeń-

Piotr Gołębczyk, Team Leader Business Channel, Brother

stwa danych, skrócenie czasu potrzebnego na przetwarzanie dokumentów oraz redukcja kosztów związanych z ich archiwizacją.

inicjatywach”, zmniejszając potrzebę fizycznego przechowywania dokumentów, ograniczając zużycie papieru oraz – dzięki automatyzacji procesów – minimalizując zużycie energii. Takie działania będą obejmować wykorzystanie OCR do tworzenia w pełni przeszukiwalnych, cyfrowych plików z zeskanowanych dokumentów, a także przechowywanie tych plików w chmurze lub własnych repozytoriach, które wyeliminuje potrzebę fizycznych archiwów. Ważne jest przy tym, by przy zautomatyzowanym zarządzaniu dokumentami i przepływami pracy, które redukuje ręczne działania i przyspiesza realizację zadań, wykorzystywać bezpieczne szyfrowanie danych i opcje kopii zapasowych. To ograniczy ryzyko, że inicjatywy zrównoważonego rozwoju będą zagrażać bezpieczeństwu danych i zgodności z przepisami.

Co istotne, poprzez zmniejszenie wpływu na środowisko, można jednocześnie doprowadzić do ograniczenia kosztów. Cyfrowe procesy redukują wydatki związane z papierem, drukiem, przechowywaniem i transportem. Z kolei energooszczędna automatyzacja procesów cyfrowych może również zmniejszyć rachunki za energię dzięki optymalizacji wykorzystania zasobów. Nie bez znaczenia jest to, że cyfrowe przepływy pracy usprawniają operacje, zwiększają produktywność i skracają opóźnienia spowodowane procesami manualnymi. Ostatecznie, organizacje, które wprowadzają tzw. zrównoważone praktyki, mogą – zdaniem analityków, w tym Gartnera – obniżyć swoje koszty operacyjne nawet o 20 proc., dzięki mniejszemu zużyciu zasobów i większej efektywności. n

Skanery Epson:

realna

wartość dla klientów, konkretna korzyść dla resellerów

Dla resellerów to doskonały moment, by wykorzystać potencjał produktów Epson – lidera w segmencie skanowania dokumentów – i zbudować przewagę konkurencyjną, oferując klientom rozwiązania dopasowane do ich realnych potrzeb. Portfolio skanerów Epson obejmuje pełne spektrum zastosowań – od kompaktowych modeli mobilnych, przez urządzenia biurowe, po zaawansowane rozwiązania dla środowisk produkcyjnych. Nowe modele WorkForce DS-1730 i DS-1760WN to przykład połączenia ergonomii, wydajności i nowoczesnych funkcji.

DS-1730 to idealny wybór dla instytucji i firm, które potrzebują urządzenia płaskiego do digitalizacji nie tylko standardowych dokumentów papierowych, ale też kart, paszportów, etc. Model DS-1760WN, z kolei, to sieciowy skaner z Wi-Fi i ekranem dotykowym, który umożliwia szybkie skanowanie bez komputera – prosto do chmury, mejla lub na serwer FTP. Oba urządzenia świetnie wspomogą obieg dokumentów w środowiskach biurowych, administracyjnych i edukacyjnych, zapewniając intuicyjność obsługi.

EZD RP i DocuScan: skanowanie bez kompromisów

Wdrażane ze środków KPO Elektroniczne Zarządzanie Dokumentacją (EZD RP), opra-

cowane przez NASK, staje się standardem w administracji publicznej, a wkrótce także w służbie zdrowia. Dla integratorów i resellerów oznacza to rosnący popyt na sprzęt kompatybilny z tym systemem. Epson odpowiada na te potrzeby dzięki integracji z oprogramowaniem DocuScan EZD – systemem stworzonym przez Docu-Partner. Skanery i urządzenia wielofunkcyjne Epson (m.in. DS-800WN, WF-M5899DWF, EM-C800RDWF) wraz z dedykowanym oprogramowaniem pozwalają użytkownikom na bezpośrednie skanowanie dokumentów do EZD RP bez dodatkowych etapów przetwarzania. System automatycznie rozpoznaje numer sprawy lub kod kreskowy i przypisuje dokument do odpowiedniego rejestru. Co więcej, proces ten jest bezpieczny – wymaga uwierzytelnienia użytkownika, a dokumenty trafiają bezpośrednio do lokalizacji wybranej z poziomu panelu urządzenia.

Oszczędność, zgodność, ekologia

Klient końcowy, niezależnie od branży, zyskuje nie tylko na szybkości i bezpieczeństwie procesu digitalizacji. Skanery Epson wpisują się w regulację DNSH (Do No Significant Harm), obowiązującej w projektach finansowanych z funduszy UE – są energooszczędne, trwałe i ograniczają zużycie materiałów eksploatacyjnych. To szczegól-

Segmentacja oferty – model dla każdego klienta

Oto kilka przykładów modeli Epson dopasowanych do konkretnych segmentów klientów:

l DS-730N – sieciowy skaner dla MŚP z ADF na 100 arkuszy i szybkością 40 str./min.;

l DS-790WN – z ekranem dotykowym i funkcją autoryzacji użytkowników, idealny dla działów HR i finansów;

l DS-800WN – rozwiązanie dla korporacji i urzędów, z pełnym wsparciem EZD RP, Wi-Fi, Ethernetem i obsługą kart dostępu;

l ES-C380W – mobilne rozwiązanie dla pracowników terenowych: lekkie, kompaktowe, zasilane przez USB;

l DS-32 000 – skaner A3 dla grafików, architektów i agencji reklamowych, z szybkością 90 str./min i zaawansowaną obróbką obrazu.

W dobie cyfrowej transformacji, wspieranej funduszami KPO oraz rosnącymi wymaganiami prawnymi w zakresie digitalizacji, skanery przestały być dodatkiem do drukarki. Stały się strategicznym elementem infrastruktury IT, szczególnie w sektorze publicznym i branżach regulowanych.

nie istotne dla jednostek publicznych, które muszą wykazać dbałość o środowisko. Dodatkowo, użytkownicy skanerów Epson mogą konwertować dokumenty do edytowalnych formatów (Word, Excel, PDF OCR), co znacznie usprawnia dalsze przetwarzanie danych. Urządzenia są też gotowe do pracy w chmurze i łatwo integrują się z systemami DMS, ERP czy branżowymi platformami medycznymi.

Wsparcie dla partnerów: więcej niż sam sprzęt

Epson nie tylko dostarcza sprzęt, ale również realne wsparcie dla partnerów handlowych. Resellerzy mogą liczyć na bezpłatną licencję DocuScan EZD do zakupionych skanerów DS-800WN i DS-900WN (do końca 2025 r.), jak też roczne wsparcie techniczne oprogramowania bez dodatkowych opłat. Ponadto Epson zapewnia szkolenia produktowe oraz profesjonalne materiały sprzedażowe i pomoc w przygotowaniu ofert przetargowych. To wszystko pozwala szybko i skutecznie wdrażać rozwiązania skanujące w różnych środowiskach – od urzędów, przez szkoły, po firmy prywatne. Resellerzy, którzy włączą skanery Epson do oferty, zyskają dostęp do solidnego portfolio produktowego, wsparcia technicznego i narzędzi sprzedażowych. Współpraca z Epson to również możliwość uzyskania mocnej pozycji na dynamicznie rozwijającym się rynku digitalizacji, wspieranym przez fundusze krajowe i europejskie. Dzięki elastyczności oferty, ekologicznym rozwiązaniom i pełnej zgodności z wymogami prawnymi, urządzenia Epson są bezpiecznym i opłacalnym wyborem – zarówno dla klientów końcowych, jak i dla ich partnerów biznesowych.

Kontakt

Anna Murawska Epson Polska Mail: anna.murawska@epson.eu

„Jesteśmy

Bezpieczeństwo

zaczyna odgrywać kluczową rolę dla klientów

firmą z polskim kapitałem. Musimy wygrywać nie tylko ceną , ale idealnym dopasowaniem oferty do procesów i specyfiki klienta oraz maksymalizacją korzyści z wdrożenia” – mówi Michał Czeredys, prezes Arcusa.

Co zadecydowało o tym, że Arcus nawiązał współpracę z Fujifilm? Przez lata byliście kojarzeni z Kyocerą. Nadal jesteśmy jedynym przedstawicielem marki Kyocera w Polsce. Dzięki tej współpracy, która trwa już od 27 lat, zdobyliśmy ogromne doświadczenie w dostarczaniu klientom kompleksowych rozwiązań do zarządzania dokumentem i drukiem. Natomiast dość długo szukaliśmy partnera, którego oferta byłaby uzupełnieniem obecnej. Konieczność jej poszerzania wynikła z tego, że świat cyfrowego dokumentu uległ transformacji. Drukarka z urządzenia stała się elementem cyfrowego ekosystemu u naszych klientów, gdzie fundamentalne jest bezpieczeństwo danych i miejsce przechowywania dokumentu. Fujifilm to globalny lider, zarówno jeśli chodzi o rynek druku biurowego, jak i produkcyjnego. Ta firma idealnie wpisuje się w transformację cyfrową i pozwala klientom przechodzić z tradycyjnych procesów biurowych w stronę tych bardziej zdigitalizowanych.

Czyli Fujifilm nie zastąpi w waszym portfolio Kyocery, lecz ją uzupełni?

Tak jak wspomniałem wcześniej naszym celem było uzupełnienie oferty. Urządzenia Kyocery słyną z trwałości, niezawodności, niskich kosztów eksploatacji i ekologii. Każda z tych cech jest doceniana przez naszych klientów. Wyróżnikiem produktów Fujifilm jest także niezawodność. Dodałbym do niej wysokiej jakości druk oraz zaawansowane technologie obrazowania będące efektem wieloletniego doświadczenia firmy w dziedzinie fotografii i obrazowania cyfrowego. Obie marki naszych japońskich partnerów przywiązują, tak jak Arcus, wagę do bezpieczeństwa

przetwarzania danych. W efekcie współpracy możemy wspierać proces cyfryzacji polskich instytucji i firm rozwiązaniami o wysokiej wydajności, powtarzalności i jakości. Doświadczenie Fujifilm na rynku aparatów fotograficznych skutkuje tym, że jakość wydruku na maszynach tej marki jest bardzo wysoka. Współpraca z Fujifilm oznacza dla klientów wysoką jakość wydruku i bezpieczeństwo przetwarzanych dokumentów.

Jak współpraca z Energy Logserver, Sagenso i Mycroft Solutions, dostawcami, których też macie w portfolio, wpisuje się w rozwój oferty Arcusa? Te rozwiązania również wspierają naszych klientów, jeśli chodzi o bezpieczeństwo. Oferujemy polską platformę SIEM i SOAR, która umożliwia zaawansowaną analizę zdarzeń, centralizację danych i szybkie wykrywanie zagrożeń. Rozwijamy przy tym obszar konsultingu związanego z bezpieczeństwem – możemy edukować klientów w tym zakresie, pomagając we wdrożeniu odpowiednich rozwiązań, od czego mamy ekspertów. Przekazujemy też klientom wiedzę poprzez cykliczne konferencje online pod hasłem Arcus Secure Day.

Współpracując z Fujiflm podkreślacie zaangażowanie tego producenta w zrównoważony rozwój. Jakie są potrzeby klientów z tym związane?

Nie jest to dla nas nowością. Kyocera, od lat postrzegana jest jako „zielona marka”. Także Fujifilm ma zrównoważony rozwój wpisany w strategię. Ich maszyny charakteryzują się bardzo niską emisją CO₂ i cichą pracą. Te możliwości łączymy z wiedzą ekspertów Arcusa na temat tego, jak optymalizować środowisko wydruku, mini-

malizować liczbę drukowanych stron, czy ograniczać zużycie toneru. W efekcie otrzymujemy produkt, który jest bardziej przyjazny środowisku. Ponadto zawsze staramy się dobierać dla klientów najbardziej energooszczędne rozwiązania.

Z tego co Pan mówi wynika, że na rynku druku i zarządzania dokumentami kluczowe znaczenie zyskuje doradztwo i to nie ograniczające się jedynie do druku, ale też z zakresu cyberbezpieczeństwa czy ESG. Arcus nie jest częścią globalnej korporacji, tak jak nasi konkurenci. Jesteśmy firmą z polskim kapitałem. Musimy wygrywać nie tylko ceną, ale idealnym dopasowaniem oferty do procesów i specyfiki klienta oraz maksymalizacją korzyści z wdrożenia. Etap planowania, projektowania, a później wdrażania całego systemu związanego z zarządzaniem dokumentem jest kluczowy i tym właśnie wygrywamy. Potrafimy zaprojektować środowisko wydruku tak, że zaoszczędzi on koszty, a co za tym idzie ograniczy zużycie energii i wpływ na środowisko, a nade wszystko wpłynie efektywnie na procesy zachodzące w organizacji naszego klienta. Także część konsultingowa jest bardzo istotna, a wiąże się z częścią cyberbezpieczeństwa, bo jeśli przerzucimy część wydruku na formę cyfrową, to z jednej strony zaoszczędzimy na eksploatacji, ale z drugiej narażamy się na ryzyko związane z elektronicznym dokumentem, więc to środowisko musi być bezpieczne.

JEŚLI CHODZI O PRODUCENTÓW, TO NASZE PORTFOLIO JEST W ZASADZIE KOMPLETNE.

czyli strach sprzedaje najlepiej Marketing apokalipsy,

Wokół strachu, który jest jednym z głównych motorów napędowych rynku rozwiązań cyberbezpieczeństwa, zbudowano całe strategie marketingowe i modele biznesowe.

Już dawno zauważono, że w branży cyfrowego bezpieczeństwa lepiej działa słowo „atak” niż „analiza”, a hasła o „nieuchronnym zagrożeniu” trafiają do wyobraźni szybciej niż dane o skuteczności zabezpieczeń. Paradoks polega na tym, że środowisko, które deklaruje dbałość o ochronę przed technikami manipulacyjnymi, samo doskonale opanowało sztukę grania na emocjach. Producenci sprzętu i oprogramowania ochronnego od lat pielęgnują wizerunek cyfrowych proroków zagłady. W efekcie komunikacja na tym rynku koncentruje się wokół permanentnego stanu zagrożenia, a dostawcy funkcjonują w trybie wiecznej gotowości bojowej – oczywiście z corocznym odnowieniem licencji. Ich przekaz jest spójny, donośny i zawsze dramatyczny: nie chodzi o to, czy zostaniesz zaatakowany, ale kiedy. Raporty, webinary, konferencje – wszędzie ta sama nuta apokaliptycznej nieuchronności, z drobnym zastrzeżeniem, że rozwiązanie problemu leży akurat w portfolio tego czy innego dostawcy. Ale... gdyby wszystkie te „ostatnie linie obrony” działały tak doskonale, jak obiecują specjaliści, świat cyfrowych zagrożeń zniknąłby po pierwszej fali właściwych zakupów. A nie, wróć! Przecież cyberprzestępcy wymyślą nowe zagrożenia, ewentualnie zwiększą zakres swoich ataków APT… I tak w koło Macieju. W tej sytuacji integratorzy wzięli na siebie rolę pośredników lęku. Powielają alarmistyczne narracje, wzmacniając je dodatkowymi, wziętymi z własnego doświadczenia historiami o „prawdziwych incydentach” i ubierając w język sprzedażowy, który idealnie trafia do menedżerów IT. Strach upraszcza proces decyzyjny – klient, który się boi, nie analizuje, tylko podpisuje. Po co liczyć ROI, skoro każdy dzień zwłoki może skończyć się kompromitacją? W efekcie wdrożenia często są pochodną emocji, a nie analizy potrzeb. Rozwiązania techniczne przestają być narzędziem zarządzania ryzykiem, a stają się swego rodzaju talizmanem przeciw złu. Uczestnikami tej gry, chociaż często w nieuświadomiony sposób, są także klienci. W wielu firmach inwestycje w bezpieczeństwo traktuje się jako formę reputacyjnego ubezpieczenia. Chodzi nie tyle o skuteczność systemu, ile o dowód, że „coś zostało zrobione”. Kupuje się więc rozwiązania nadmiarowe, dublujące funkcje, trudne w integracji i rzadko w pełni wykorzystywane. Powstaje architektura złożona z puzzli, które razem nie tworzą spójnego obrazu. I choć z zewnątrz wygląda to imponująco, w praktyce bezpieczeństwo pozostaje powierzchowne.

I tu chcę wrzucić kamyczek do własnego ogródka, bo przecież nie bez winy są też media branżowe i analitycy. Artykuły i raporty często podsycają atmosferę niepokoju. Nagłówki w rodzaju „80 proc. firm padnie ofiarą cyberataku w ciągu roku” są powielane bez pytania o metodologię. W tle wciąż brakuje spokojnej rozmowy o priorytetach: co naprawdę

stanowi ryzyko, a co jest tylko hipotetycznym zagrożeniem i jak odróżnić jedno od drugiego. W tym kontekście zapraszam do lektury najnowszego „Vademecum Rynku IT”, a szczególnie wywiadu z Adamem Haertle z portalu ZaufanaTrzeciaStrona.pl, który w idealny sposób pokazał, jak powinno się rozmawiać o cyberbezpieczeństwie.

Z perspektywy psychologii to zjawisko całkowicie przewidywalne. Strach jest reakcją pierwotną, a lęk przed utratą kontroli – jednym z najsilniejszych impulsów decyzyjnych, co „pomaga” w dokonywaniu szybkich, emocjonalnych zakupów. Systemy klasy EDR, XDR, NDR, SIEM, SOAR – im bardziej tajemniczo brzmi skrót, tym większe daje poczucie bezpieczeństwa. Problem w tym, że większość firm nie potrafi wykorzystać nawet połowy funkcjonalności tych rozwiązań. Brak poprawnej integracji, szkoleń czy świadomości dotyczącej procesów – wszystko to powoduje, że narzędzia techniczne działają tylko jako fasada odpowiedzialności.

W efekcie powstała pełnoprawna ekonomia strachu, w ramach której producenci sprzedają rozwiązania, resellerzy lojalność, a klienci kupują złudne poczucie kontroli. Wszyscy są zadowoleni, dopóki nic złego się nie dzieje. Gdy jednak dochodzi do incydentu, szybko okazuje się, że jego powodem nie był brak narzędzi, lecz brak kompetencji i spójnej polityki bezpieczeństwa, na podstawie której planowano i realizowano zakupy.

Ironia jest oczywista, o czym wspomniałem już na początku: branża, która ostrzega przed manipulacją i socjotechniką, sama stosuje te metody w przekazie marketingowym. Zamiast uczyć, jak działać świadomie, często woli podsycać niepokój. Ale czy można inaczej? Oczywiście. Można mówić o bezpieczeństwie w sposób dojrzały – nie jako o wiecznej walce z niewidzialnym wrogiem, ale jako o procesie zarządzania ryzykiem. Zamiast pytać, „czy nas zaatakują?”, warto pytać, „czy jesteśmy przygotowani, by zareagować?”. Zamiast sprzedawać rozwiązania na skróty, należy budować partnerstwa bazujące na audycie, analizie i transparentności. Zamiast mnożyć coraz trudniejsze w integracji rozwiązania techniczne, konieczne jest inwestowanie w procedury, szkolenia i świadomość pracowników. Dla resellerów i integratorów to szansa, by stać się doradcami, a nie handlarzami strachu. Dla producentów – by wzmocnić wizerunek wiarygodnego, dojrzałego partnera, a nie dostawcy alarmów. Dla klientów – by wydawać pieniądze mądrzej, podejmując decyzje bazujące na danych, nie emocjach. W świecie, w którym strach stał się walutą, największym aktem odwagi może być spokojna rozmowa o faktach.

Krzysztof Jakubik redaktor prowadzący Vademecum rynku IT oraz dziennikarz CRN Polska

WIĘKSZOŚĆ FIRM NIE POTRAFI WYKORZYSTAĆ

NAWET POŁOWY FUNKCJONALNOŚCI

ROZWIĄZAŃ ZABEZPIECZAJĄCYCH.

Supremo Mobile Assist:

mobilne zarządzanie bez granic

W świecie, w którym mobilność stała się jednym z filarów produktywności, Supremo daje przedsiębiorstwom realną kontrolę nad rozproszonymi zasobami i ułatwia wdrożenie zdalnej pomocy technicznej. W jednym rozwiązaniu połączono intuicyjną obsługę, bezpieczeństwo klasy korporacyjnej oraz elastyczne modele licencjonowania.

Firmy coraz częściej działają w modelu pracy rozproszonej, w którym mobilność i elastyczność stają się podstawą funkcjonowania. Pracownicy korzystają z laptopów, tabletów i smartfonów w biurze, w domu, a także w podróży. W tych warunkach utrzymanie ciągłości działania urządzeń i aplikacji wymaga zupełnie nowego podejścia do wsparcia IT. Nie wystarcza już tradycyjna pomoc zdalna dla komputerów biurowych. Potrzebne są narzędzia, które pozwalają na błyskawiczną reakcję na problemy w dowolnym miejscu i na dowolnym urządzeniu – niezależnie od systemu operacyjnego czy lokalizacji użytkownika.

ciowych czy skomplikowanej konfiguracji. Wystarczy uruchomić aplikację, a następnie podać identyfikator i hasło. Dzięki temu Supremo zyskało opinię jednego z najbardziej intuicyjnych narzędzi do zdalnego wsparcia zarówno w środowiskach biznesowych, jak i edukacyjnych.

Zaletą rozwiązania jest pełna zgodność międzyplatformowa. Supremo działa bowiem na systemach Windows i macOS, a ponadto oferuje aplikacje mobilne na Androida i iOS. Możliwe są więc połączenia między różnymi systemami operacyjnymi, w tym z urządzeń mobilnych do komputerów. Użytkownicy mają do dyspozycji takie funkcje jak transfer plików, czat, drukowanie zdalne, synchronizacja książki adresowej czy praca bezobsługowa, która pozwala na dostęp do urządzenia nawet wtedy, gdy użytkownik nie jest obecny.

niekomercyjnego, natomiast firmy mogą wybierać spośród planów Solo, Business i Professional, różniących się limitem sesji, funkcjami zespołowymi, możliwościami prowadzenia zdalnego monitoringu, automatycznych aktualizacji i personalizacji interfejsu. Takie podejście pozwala skalować infrastrukturę zdalnego wsparcia wraz z rozwojem przedsiębiorstwa, bez konieczności ponoszenia wysokich kosztów na start.

Bezpieczeństwo i niezawodność

W ostatnich latach popularność zdobyło – dzięki swojej prostocie, niezawodności i przemyślanemu modelowi licencyjnemu – oprogramowanie Supremo do zdalnego sterowania cyfrowymi urządzeniami i świadczenia pomocy technicznej. Rozwijane przez włoską firmę Nanosystems narzędzie zostało zaprojektowane tak, aby uruchomić połączenie w kilka sekund, bez konieczności modyfikacji ustawień sie-

Model licencjonowania Supremo to jeden z mocniejszych atutów tego narzędzia. Zamiast opłat za każde urządzenie lub użytkownika, system bazuje na liczbie równoległych połączeń. Oznacza to, że firma może zainstalować aplikację na dowolnej liczbie komputerów i urządzeń, a koszt zależy wyłącznie od tego, ile sesji jest jednocześnie aktywnych. Dla osób indywidualnych dostępna jest bezpłatna wersja do użytku

Co ważne, twórcy Supremo stawiają bezpieczeństwo na równi z funkcjonalnością. Wszystkie dane przesyłane między urządzeniami są szyfrowane metodą end-to-end, co gwarantuje, że nikt poza uczestnikami sesji nie ma dostępu do treści. Program nie przechowuje historii połączeń ani żadnych plików, a sesje są zabezpieczane losowo generowanymi hasłami.

Dodatkową zaletą jest brak konieczności zakładania konta – użytkownik nie musi podawać żadnych danych osobowych ani logować się do chmury. Połączenie odbywa się wyłącznie na podstawie identyfika-

tora i hasła wygenerowanego lokalnie na urządzeniu. Dzięki temu Supremo spełnia wymagania wielu korporacyjnych reguł polityki bezpieczeństwa, w tym zasad RODO dotyczących ochrony danych osobowych. Rozwiązanie zostało zaprojektowane tak, aby żadne informacje nie opuszczały bezpośrednio połączonych urządzeń, co ma szczególne znaczenie przy pracy z poufnymi danymi w branży finansowej, medycznej czy administracyjnej.

Na telefonie i tablecie

Wraz z rozwojem pracy mobilnej pojawiła się potrzeba przeniesienia zdalnego wsparcia na urządzenia przenośne. Dlatego firma Supremo stworzyła aplikację Supremo Remote Desktop, która umożliwia sterowanie komputerami z poziomu smartfona lub tabletu. To narzędzie, dostępne dla systemów Android i iOS, pozwala na pełną kontrolę pulpitu, obsługę wielu monitorów, korzystanie z klawiatury ekranowej, czatu i synchronizacji kontaktów. Dzięki temu administrator lub pracownik działu wsparcia może rozwiązać problem na komputerze biurowym, korzystając wyłącznie z telefonu, co w praktyce eliminuje barierę lokalizacji.

Największym krokiem w stronę pełnej obsługi urządzeń mobilnych okazało się jednak stworzenie narzędzia Supremo Mobile Assist. Pozwala ono informatykom zdalnie łączyć się z telefonami i tabletami z systemem Android, aby diagnozować problemy, aktualizować oprogramowanie i wspierać użytkowników w czasie rzeczywistym. Wystarczy, że uruchomią aplikację na swoim urządzeniu, przekażą wygenerowany identyfikator i hasło, a specjalista może natychmiast rozpocząć sesję. Jeśli urządzenie ma zainstalowany dodatkowy komponent Supremo Mobile Add-on i udzielone niezbędne uprawnienia systemowe, możliwe jest uzyskanie pełnej kontroli nad ekranem – otwieranie aplikacji, zmienianie ustawień, rozwiązywanie problemów i przeprowadzanie testów. Natomiast w przypadku braku tego rozszerzenia dostępny jest podgląd ekranu, co i tak znacząco przyspiesza komunikację i diagnozowanie ewentualnych problemów. Na 2026 r. zaplanowane zostało udostępnienie wersji Supremo Mobile Assist dla iOS, przy czym – ze względu a wprowadzone przez Apple ograniczenia systemowe – będzie ona umożliwiała tylko podgląd ekranu.

Dzięki funkcji adaptacyjnego przesyłania obrazu system automatycznie dostosowuje rozdzielczość i jakość transmisji do przepustowości łącza, a dodatkowe narzędzia, takie jak zrzuty ekranu, kopiowanie danych czy przesyłanie plików, umożliwiają szyb-

ką wymianę informacji bez przerw w pracy. Obsługa kursora, przewijania i gestów dotykowych została zoptymalizowana tak, by praca z Androidem na komputerze była intuicyjna. Supremo można także uruchamiać jako aplikację przenośną (portable), bez instalacji w systemie operacyjnym, co jest szczególnie użyteczne w środowiskach o zaostrzonej polityce bezpieczeństwa, w których użytkownicy nie mają uprawnień administracyjnych.

Supremo Mobile Assist nie wymaga rootowania urządzenia, a wszystkie połączenia są szyfrowane metodami klasy korporacyjnej. Każda sesja wymaga jednorazowego hasła i akceptacji użytkownika, co eliminuje ryzyko nieautoryzowanego dostępu. Rozwiązanie to w pełni wspiera obsługę wielu platform, co oznacza, że pracownik działu wsparcia może łączyć się z urządzenia z systemem Windows, macOS, Android czy iOS do dowolnego terminala lub telefonu z Androidem.

Warto dodać, że Mobile Assist w pełni integruje się z posiadanymi przez klienta licencjami Supremo. Nie ma potrzeby zakupu oddzielnych subskrypcji – połączenia z urządzeniami mobilnymi są liczone tak samo jak sesje z komputerami. To oznacza, że dział IT może zarządzać całą infrastrukturą z jednego systemu, niezależnie od rodzaju sprzętu. Ograniczeniem jest jedynie liczba jednoczesnych połączeń wynikająca z posiadanej licencji, co ułatwia planowanie kosztów i wdrażanie jednolitego standardu wsparcia w przedsiębiorstwie.

Mobilność w każdej branży

Zastosowania Mobile Assist są szerokie oraz obejmują praktycznie wszystkie branże. W środowiskach korporacyjnych narzędzie to umożliwia błyskawiczne reagowanie na problemy zgłaszane przez pracowników zdalnych, bez konieczności odsyłania urządzenia do serwisu. W handlu detalicznym pozwala utrzymać ciągłość działania terminali POS, kas samoobsługowych czy urządzeń płatniczych – technik może w kilka minut połączyć się z urządzeniem i przywrócić jego funkcjonalność. W edukacji system sprawdza się przy obsłudze tablic multimedialnych i tabletów dydaktycznych, co pozwala uniknąć przestojów w trakcie zajęć. Z kolei w gastronomii i logistyce umożliwia utrzymanie sprawno-

Nowoczesne firmy często korzystają z różnych platform – Windows, macOS, Android, iOS – i tym samym oczekują, że narzędzie do zdalnego wsparcia będzie działało w całym tym ekosystemie. Supremo spełnia to oczekiwanie, zapewniając spójne środowisko zarządzania, które zastępuje wiele rozproszonych narzędzi do zdalnego sterowania komputerami i sprzętem przenośnym w obu kierunkach: z komputera na telefon, z telefonu na komputer, a nawet w komunikacji między urządzeniami mobilnymi. Równolegle Nanosystems rozwija też ekosystem Supremo. Dla przykładu, planowane są kolejne rozszerzenia narzędzia Mobile Assist, w tym integracja z funkcjami czatu, menedżera plików, powiadomień push i modułu raportowania aktywności, a także stworzenie wersji aplikacji dla urządzeń z systemem iOS. Celem jest pełna konsolidacja zdalnego wsparcia – niezależnie od platformy, lokalizacji czy typu urządzenia.

ści tabletów wykorzystywanych do przyjmowania zamówień lub zarządzania magazynem.

Z biznesowego punktu widzenia rozwiązanie to idealnie wpisuje się w potrzeby nowoczesnych firm, które stawiają na efektywność, mobilność i bezpieczeństwo. Dzięki temu, że Supremo nie wymaga instalowania własnych serwerów ani rozbudowanych systemów zarządzania, może być wdrożone w ciągu jednego dnia, a jego obsługa nie wymaga specjalistycznych szkoleń. Dla firm posiadających rozproszone zespoły, punkty sprzedaży, magazyny lub szkoły, staje się narzędziem skracającym rzeczywisty czas reakcji i obniżającym koszty utrzymania infrastruktury IT.

NAS dla mas

w erze 8K

i cyberataków

Choć popularność usług chmurowych kusi niskim progiem wejścia, rynek NAS dla sektora SOHO nie tylko przetrwał tę rywalizację, ale dynamicznie ewoluuje.

Wojciech Urbanek

Mimo że producenci komputerów i smartfonów oferują coraz więcej gigabajtów, przestrzeni dyskowej wciąż brakuje. Szczególnie istotnym czynnikiem jest boom na treści multimedialne – strumień zdjęć w rozdzielczości 4K i 8K, jak też nagrania wideo w jakości kinowej oraz rosnące biblioteki multimedialne użytkowników domowych. To wszystko tworzy ogromne zapotrzebowanie na pojemne, szybkie i zawsze dostępne rozwiązania do przechowywania danych. Dlatego małe firmy i użytkownicy domowi coraz częściej sięgają po dodatkowe magazyny danych. Obok dysków zewnętrznych i usług chmurowych, bardzo często są to serwery NAS. Rynek NAS-ów dla SOHO, choć dojrzały i stabilny, dynamicznie ewoluuje. Wymuszają to trzy czynniki: lawinowy przyrost danych, nasilające się cyberataki i rosną-

NAS-Y PRZESTAŁY BYĆ POSTRZEGANE JAKO PROSTE MAGAZYNY PLIKÓW.

ce wymagania samych użytkowników. NAS-y już dawno przestały być postrzegane jako proste magazyny plików. Dziś to wielofunkcyjne centra zarządzania danymi. Przy czym dla małych firm i gospodarstw domowych kluczowym kryterium wciąż pozostaje cena. To nie zmienia się od lat, podobnie jak niekwestionowana dominacja Synology i QNAP-a na polskim rynku. Choć co jakiś czas pojawiają się no-

wi gracze, nikomu jak dotąd nie udało się poważnie zagrozić pozycji tych dwóch tajwańskich gigantów.

Tym natomiast, co zdecydowanie się zmienia, jest podejście do bezpieczeństwa. Użytkownicy nie pytają już głównie o cenę urządzeń, ale równie ważne stały się funkcje chroniące dane. W dużym stopniu przyczynia się do tego rosnąca fala cyberataków. Dane CERT są alarmujące: w ubiegłym roku przeciętna polska firma odpierała tygodniowo dwa tysiące ataków, co oznacza dziesięciokrotny (sic!) wzrost w stosunku do 2020 r. Duży niepokój, zwłaszcza wśród mniejszych przedsiębiorców, budzi ransomware. Ataki te, w najczarniejszym scenariuszu, mogą doprowadzić nawet do upadku firmy.

Kluczowe funkcje antyransomware są zazwyczaj wbudowane w systemy operacyjne urządzeń (jak Synology DSM czy QNAP QTS). Integralną częścią nowoczesnych NAS-ów stała się na przykład możliwość tworzenia i przywracania migawek. Producenci w ostatnim czasie położyli też mocny nacisk na rozwój oprogramowania do ochrony danych.

Klienci coraz częściej decydują się na wykorzystanie NAS-a jako serwera backupu. To efekt działań czołowych producentów, którzy wyposażyli swój sprzęt w zaawansowane, a przy tym bezpłatne oprogramowanie do tworzenia kopii zapasowych. Dla użytkowników SOHO to znaczące oszczędności, bo nie muszą inwestować w dodatkowe rozwiązania. Nowoczesne systemy oferują też wbudowane zapory sieciowe, blokowanie

adresów IP po nieudanych próbach logowania oraz kluczowe dziś uwierzytelnianie dwuskładnikowe (2FA). Jednak o ile producenci stanęli na wysokości zadania, o tyle sami klienci SOHO nie zawsze rozumieją niuanse bezpieczeństwa. – Dla nabywców dwa największe wyzwania to konfiguracja i zrozumienie zagrożeń. Świadomość jest znacznie większa niż kilka lat temu, ale nie zawsze idzie w parze z właściwą interpretacją zagadnień. Klasycznym przykładem jest zaskoczenie klientów, że RAID to nie backup danych – mówi Jacek Marynowski, CEO Storage IT. Przyszłość rynku NAS dla klientów SOHO rysuje się w jasnych barwach. Według Grand View Research, globalny rynek NAS dla SOHO wyceniany w 2024 r. na 6,1 mld dol., eksploduje do 12 mld do 2030 r., osiągając tempo wzrostu na poziomie 12,1 proc. CAGR. Za tymi optymistycznymi prognozami stoi połączenie kilku kluczowych czynników. Przede wszystkim rewolucja technologiczna: integracja sztucznej inteligencji z systemami NAS oraz gwałtownie rosnąca pojemność pamięci masowej przekształcają sposób przechowywania danych. Jednocześnie lawinowo rośnie wolumen generowanych informacji, zarówno z życia prywatnego (zdjęcia, wideo 4K/8K, streaming), jak również zawodowego (praca zdalna, projekty, dokumentacja). Do tego dochodzi coraz większa świadomość użytkowników: bezpieczeństwo danych i skuteczne zarządzanie informacją powoli przestają być opcją, a stają się koniecznością.

Sytuacja na polskim rynku zasadniczo nie odbiega do światowych tendencji, choć w tym roku miał miejsce zgrzyt, na który zwraca uwagę Jacek Marynowski.

– Sprzedaż nieznacznie wyhamowała, a jedną z przyczyn była prawdopodobnie nowa polityka Synology, ograniczająca zgodne dyski do tych z własnym logo. Tym samym oczekiwana przez klientów linia produktów serii x25 zaliczyła falstart. Gdyby nie ten ruch tegoroczna sprzedaż mogła być wyższa nawet o kilkanaście procent. Co istotne, firma wraz z najnowszą aktualizacją systemu operacyjnego poluzowała politykę dotyczącą instalacji dysków pochodzących od innych producentów – mówi Jacek Marynowski.

Na pierwszy rzut oka koncepcja tajwańskiego producenta wydawała się dość rozsądna. Użytkownicy otrzymywali najważniejsze komponenty z jednego źródła, co pozwalało na optymalne skoordynowanie nośników i oprogramowania serwera NAS, a także szybkie wprowadzanie zmian oraz aktualizacji. Jednak polskim użytkownikom najwyraźniej nie przypadła do gustu. Należy zaznaczyć, że klienci mogli używać niezatwierdzonych dysków, aczkolwiek w takim przypadku producent odmawiał wsparcia technicznego w razie wystąpienia problemów.

W segmencie SOHO najbardziej popularne są serwery NAS 2- i 4-dyskowe. Klienci najchętniej wybierają dyski HDD ze względu korzystny przelicznik kosztów na 1 TB. Jeśli chodzi o pojemność to zdecydowany prymat należy do nośników 4 TB. Pozytywnym trendem jest

zwiększanie wydajności poprzez dodatkowy RAM, a także wyposażenie systemów w dyski SSD służące jako pamięć podręczna, która przyspiesza działanie systemu operacyjnego oraz dostęp do najczęściej używanych plików. Standar-

Zdaniem integratora

Tomasz Spyra, CEO, Rafcom

Ddem w segmencie SOHO stają się porty Ethernet 2.5GbE, zastępując wysłużony 1GbE. W modelach z wyższej półki coraz częściej pojawia się też opcja 10GbE, co jest kluczowe chociażby przy edycji wideo bezpośrednio z serwera.

– W przypadku rozwiązań Synology mamy w tym roku do czynienia z kolejnym przesunięciem w górę, jeśli chodzi o nasze portfolio, bo klienci wymagają do swoich firm trochę bardziej zaawansowanych serwerów. Wynika to z ciągle rosnącej ilości danych oraz wdrażania poprawnych polityk kopii zapasowych, tzn. 3-2-1 – mówi Przemysław Biel, Country Sales Manager Poland w Synology.

NAS za darmo?

Alternatywą dla komercyjnych serwerów NAS dostarczanych przez producentów są rozwiązania oparte na otwartym oprogramowaniu. Opcja ta jest szczególnie atrakcyjna dla mniejszych firm oraz użytkowników indywidualnych. Dwa najpopularniejsze tego typu systemy NAS to obecnie TrueNAS oraz OpenMediaVault. Prymat pod względem zaawansowania i popularności należy do TrueNAS, który wykorzystuje OpenZFS jako domyślny i zalecany system plików. Darmową wersję TrueNAS można zainstalować

la klientów z segmentu SOHO systemy NAS bardzo często stanowią centralny element infrastruktury IT, pełniąc rolę głównego systemu plików, a jednocześnie służą jako magazyn danych archiwalnych i kopii zapasowych. Użytkownicy domowi zazwyczaj wybierają kompaktowe, dwudyskowe urządzenia, natomiast małe firmy coraz częściej decydują się na bardziej rozbudowane modele, obsługujące 4–6 dysków. Wciąż dominują rozwiązania oparte na klasycznych dyskach HDD o prędkości 7,2 tys. obr./min., jednak rośnie zaintere-

sowanie konfiguracjami wykorzystującymi nośniki SSD oraz interfejsy sieciowe 10GbE, które znacząco poprawiają wydajność. Dla tej grupy użytkowników kluczowe znaczenie ma prostota instalacji i konfiguracji oraz intuicyjny interfejs graficzny umożliwiający wygodne zarządzanie zarówno samym urządzeniem, jak i dodatkowymi funkcjami czy aplikacjami. W obliczu rosnącego ryzyka ataków ransomware coraz większą uwagę przywiązują oni także do wbudowanych mechanizmów ochrony danych.

Wśród najczęściej poszukiwanych funkcji systemów NAS niezmiennie dominują możliwości centralnego przechowywania i współdzielenia plików. Coraz więcej użytkowników decyduje się także na wykorzystanie serwera NAS jako centralnego systemu backupu firmowych zasobów – komputerów i serwerów. To w dużej mierze zasługa producentów, którzy coraz częściej wyposażają swoje urządzenia w zaawansowane, wbudowane mechanizmy tworzenia kopii zapasowych, dostępne bez dodatkowych opłat. Klienci doceniają również możliwość synchronizacji dokumentów

Jacek Marynowski, CEO, Storage IT

z opcją przywracania wcześniejszych wersji plików – funkcję szczególnie przydatną w czasach powszechnej pracy zdalnej. Bardziej zaawansowani użytkownicy zwracają natomiast uwagę na dodatkowe formy zabezpieczenia danych, takie jak tworzenie kopii na zewnętrznym serwerze lub w chmurze.

RYNEK

na urządzeniach z architekturą x86–64. Poprzednik TrueNAS, FreeNAS, odnotował ponad 10 milionów pobrań i 1 milion wdrożeń na całym świecie, a do 2022 r. TrueNAS przekroczył już 15 mln pobrań.

Choć OpenMediaVault nie chwali się liczbą użytkowników, jego popularność potwierdza aktywna społeczność oraz szeroka dostępność wtyczek rozszerzających funkcjonalność. Co istotne, jest on zaprojektowany przede wszystkim z myślą o środowiskach domowych i małych biurach.

Mimo imponujących osiągnięć w świecie technologii, otwarte systemy NAS budzą kontrowersje, jeśli chodzi o ich użyteczność dla „zwykłego” klienta. Jak przyznaje Tomasz Spyra, CEO Rafcomu, są to rozwiązania dla użytkowników dysponujących wiedzą z zakresu Linuxa i uruchamiają taki system do użytku własnego. Ale eksperci ostrzegają przed pułapkami open source w kontekście domowego serwera NAS.

– Dla przeciętnego użytkownika takie rozwiązania są niepraktyczne. Konfiguracja bywa skomplikowana, utrzymanie wymaga stałej uwagi, a każda pomyłka może skończyć się utratą danych. Choć te systemy oferują dużą elastyczność i możliwość rozbudowy, w praktyce łatwo napotkać problemy z kompatybilnością sprzętu, aktualizacjami czy bezpieczeństwem. Dla osoby, która chce po prostu bezproblemowo przechowywać i udostępniać pliki, jest to raczej źródło frustracji niż wygoda – mówi Maciej Michalak, Product Manager AB. Otwarte systemy NAS pozostają więc niszową opcją, atrakcyjną głównie dla entuzjastów technologii. Zwykły użytkownik szybciej doceni stabilność i prostotę gotowego sprzętu dostarczanego przez producentów na zasadach komercyjnych.

Wrażliwe dane zostają w domu

Wbrew pozorom popularność usług takich jak Google Drive, Dropbox czy OneDrive nie osłabiła w istotny sposób segmentu NAS dla sektora SOHO. Usługi chmurowe są szczególnie kuszące dla odbiorców indywidualnych i małych firm, przede wszystkim ze względu na niski próg wejścia. Małe pakiety są darmowe lub bardzo tanie (10–15 zł miesięcznie), podczas gdy zakup serwera NAS z dwoma dyskami mechanicznymi to wydatek rzędu półtora tysiąca złotych.

PRZYSZŁOŚĆ RYNKU NAS DLA KLIENTÓW SOHO RYSUJE SIĘ W JASNYCH BARWACH.

Zdaniem specjalisty

Łukasz Milic, Business Development Representative, QNAP

RSozwiązania NAS są wręcz idealne dla klientów z sektora SOHO, ponieważ pozwalają niewielkim kosztem uzyskać bezpieczną przestrzeń do przechowywania danych bez dodatkowych kosztów związanych z usługami w chmurze. Użytkownicy zwracają przede wszystkim uwagę na przestrzeń dyskową oraz ewentualnie mechanizmy backupu. Bardziej zaawansowani użytkownicy doceniają też takie funkcje, jak serwer VPN, dzięki któremu mogą bezpiecznie łączyć się do swoich zasobów spoza sieci. W tym segmencie największą popularnością cieszą się serwery z 2 lub 4 zatokami, gdzie zwykle pojawiają się dyski mechaniczne.

erwer NAS wciąż pełni przede wszystkim rolę pamięci masowej i platformy do tworzenia kopii zapasowych. Coraz więcej firm stara się jednak wykorzystać jego możliwości w sposób bardziej kompleksowy jako narzędzie wspierające codzienną pracę, na przykład poprzez uruchamianie serwera poczty czy aplikacji zwiększających produktywność. Natomiast jeśli chodzi o konfigurację, klienci z segmentu SOHO często wybierają urządzenia od czterech zatok w górę, choć jeszcze kilka lat temu były to serwery z dwoma zatokami. Jako producent staramy się aktywnie kształtować świadomość bezpieczeństwa wspólnie z naszymi partnerami, między in-

Synology zdobyło certyfikat Channel Master 2025

Iwona Ostrowska, Product Manager, AB

Przemysław Biel, Country Sales Manager Poland, Synology

nymi poprzez szkolenia oraz rozwiązania wdrażane bezpośrednio w naszych produktach.

Wtym roku obserwujemy stabilny wzrost sprzedaży serwerów NAS w kanale SOHO, głównie ze względu na większą świadomość potrzeby bezpiecznego przechowywania danych oraz alternatywy dla chmury publicznej. Klienci coraz częściej sięgają po rozwiązania z obsługą AI oraz takie, które zapewniają im dostęp do zintegrowanych funkcji ochrony danych. Przy czym użytkownicy indywidualni cenią sobie łatwą konfigurację i zarządzanie danymi z konsoli NAS. Dzięki funkcjom takim jak replikacja, migawki, szyfrowanie i niezmienność danych, mogą zapewnić sobie pełną ochronę wrażliwych treści oraz cieszyć się spokojem. Dzięki funkcjom bazu-

jącym na sztucznej inteligencji, klienci mogą w łatwy i szybki sposób odszukać dokumenty i fotografie w swoich prywatnych zbiorach oraz analizować obraz z kamer. To powoduje, że NAS nie jest już tylko magazynem danych, lecz całym systemem funkcji, umożliwiającym automatyzację procesów w domu i firmie.

– Chmura jest atrakcyjna dla małych firm, jednak z czasem okazuje się, że cena przestaje być zachęcająca. Zastosowanie NAS pozwala w bardziej kontrolowany sposób zarządzać kosztami. To kolejne urządzenie, co dla części użytkowników jest minusem. Wiele zależy od samego nastawienia, ale też zakresu usług, które można wykorzystać –mówi Łukasz Milic, Business Development Representative w QNAP-ie. Nie wszyscy chcą dzielić się swoimi danymi z zewnętrznymi usługodawcami. Jak wynika z raportu „2025 State of SaaS Backup and Recovery Report” autorstwa Backupify, 42 proc. respondentów przechowuje w środowisku lokalnym dane wrażliwe umożliwiające identyfikację osób i informacje dotyczące finansów. Producenci NAS doskonale to rozumieją. Synology i QNAP bardzo dobrze przygoto-

wały się do rywalizacji z dostawcami usług chmurowych. Obie firmy oferują rozwiązania do stworzenia własnej, prywatnej chmury na swoich urządzeniach oraz własne, płatne usługi chmury publicznej. – Klienci SOHO wybierają usługi chmurowe jako uzupełnienie i dodatkowe zabezpieczenie danych składowanych na systemach NAS. Najczęściej jest to rozszerzenie funkcji posiadanego systemu NAS, a nie jego zastępstwo – zauważa Tomasz Spyra.

Wiele wskazuje na to, że przechowywanie danych dla sektora SOHO w najbliższych latach stać będzie pod znakiem chmury hybrydowej. To podejście, które łączy w sobie bezpieczeństwo i kontrolę własnego serwera NAS z elastycznością, skalowalnością i zdalnym dostępem, jakie oferują usługi publiczne. n

Banki muszą być odporne na stres

O sytuacji makroekonomicznej można powiedzieć dziś wiele, ale na pewno nie to, że jest stabilna. Wpływa na to zwłaszcza geopolityka. Jak sektor bankowy powinien się przygotować na potencjalne zagrożenia dla ciągłości działania?

Myślę, że to pytanie stawiają sobie dzisiaj wszyscy odpowiedzialni za stabilność sektora bankowo-finansowego. Nikt obecnie nie ma wątpliwości, że sektor ten stanowi krytyczny obszar funkcjonowania państwa i bez jego odporności trudno będzie planować strategiczny rozwój całej gospodarki. Krajowy nadzór nad sektorem (UKNF), jak i jego odpowiednik na poziomie europejskim (EUNB) wprowadzają szereg istotnych zmian regulacyjnych, których celem jest zwiększenie stabilności sektora bankowego, w tym zakrojone na szeroką skalę testy warunków skrajnych zwane potocznie stress-testami.

Czy taka weryfikacja jest wystarczająca, by mieć pewność, że instytucje są gotowe sprostać ewentualnemu kryzysowi? Co z instytucjami, których testy EUNB nie obejmują?

W polityce EUNB działa zasada proporcjonalności, czyli poddawania testom tych instytucji, które stanowią o sile całego sektora (najbardziej istotne instytucje, których kłopoty spowodują kłopoty całego sektora). Odporność całego sektora nie oznacza odporności wszystkich instytucji. Skoro EUNB nie koncentruje się na odporności mniejszych instytucji tak mocno, jak na tych istotnych systemowo, to do właścicieli średnich i małych instytucji finansowych należy zadbanie o kondycję i odporność na zmiany makroekonomiczne.

Jeśli więc banki potrzebują dodatkowej weryfikacji, czego takie stress-testy powinny dotyczyć?

„W przeciwieństwie do bieżącego raportowania nadzorczego, stress-testy są narzędziem do oceny odporności poszczególnych instytucji oraz całego sektora bankowo-finansowego na sytuacje ekstremalne”

– mówi Tomasz Kokot, Dyrektor Obszaru Biznesowego w Sygnity.

Dobrze zaprojektowany system stress-testów, mający na uwadze zalecenia EUNB i charakter działalności instytucji finansowych powinien obejmować co najmniej następujące obszary: analizę wrażliwości na ryzyko płynności, analizę wrażliwości na ryzyko stopy procentowej w portfelu bankowym (IRRBB), analizę wrażliwości na ryzyko spreadu kredytowego (CSRBB), test warunków skrajnych dotyczący cyberodporności oraz test warunków skrajnych dotyczący zagrożeń klimatycznych.

Jakich narzędzi i kompetencji potrzeba do wdrożenia efektywnego procesu przeprowadzania stress-testów? W rzeczywistości proces zaczyna się od uświadomienia sobie wagi problemu, zbudowania kompetencji, a na końcu dobrania do tego odpowiednich narzędzi. Na pewno potrzebna jest dogłębna wiedza dziedzinowa w poszczególnych obszarach zagrożeń. Nie może być to „przydzielanie” kolejnych obowiązków, bo mamy nową regulację czy wymagania. Współpraca z osobami, które rozumieją dane zagrożenie i problematykę, daje lepsze efekty końcowe w postaci: lepiej zaprojektowanego procesu i polityk własnych instytucji, szybciej wdrożonych odpowiednich rozwiązań i bardziej strategicznego spojrzenia na całość zagadnień związanych ze stress-testami. Im bardziej przejrzysty, audytowalny i zintegrowany proces, tym efekty końcowe są lepsze.

Jak Sygnity może pomóc instytucjom bankowym w przygotowaniu się na rynkowe problemy? Dlaczego może być przez nie postrzegane jako zaufany partner?

Sygnity od wielu lat jest zaangażowane w transformację cyfrową sektora bankowo-finansowego. Współpracujemy z wieloma instytucjami finansowymi w Polsce i poza jej granicami. Dynamicznie wzrasta

nasze zaangażowanie w obszarze systemów monitorujących kluczowe wskaźniki finansowe, a więc płynność, ryzyko kredytowe, kontrahenta, rynkowe, stóp procentowych oraz w obszarze ESG. Wraz ze wzrostem świadomości istotności stress-testów (w tym tych stymulowanych przez EUNB) obserwujemy rosnące wykorzystanie naszych systemów do przeprowadzania testów warunków skrajnych dla poszczególnych obszarów ryzyka. Tym, co czyni Sygnity partnerem cieszącym się dużym zaufaniem wśród klientów, są dwa kluczowe elementy: kompetencje branżowe oraz ponad 30-letnie doświadczenie w rozwoju systemów monitorujących i raportujących ryzyka bankowe. Nasze zespoły wdrożeniowe składają się przede wszystkim z osób, których kariera zawodowa potwierdza głęboką wiedzę dziedzinową i doświadczenie w tym zakresie, co powoduje, że są profesjonalnym partnerem dla zespołów bankowych. Rozwiązania informatyczne Sygnity są platformami o ugruntowanej pozycji w obszarze automatyzacji pomiaru zagrożeń i przeprowadzaniu stress-testów. Ostatnie wdrożenia pokazują, że odpersonalizowanie procesów na rzecz zintegrowanej platformy automatyzującej cały proces pomiaru i raportowania pozwala na oszczędność od 40 do 60 procent czasu pracy zespołu. Pozwala to na zaangażowanie pracowników w bardzie efektywny proces analizy wyników i podejmowania lepszych decyzji, zamiast koncentrowania ich na bieżącym, operacyjnym „wykonywaniu” poszczególnych zadań i podprocesów.

Pełna wersja wywiadu dostępna na crn.pl.

cyberzagrożeniami Bądź o krok przed

Serwery HPE ProLiant oraz inne rozwiązania HPE dla SMB oferują szereg technologii oraz bezpiecznych mechanizmów, które pozwalają wyprzedzać małym i średnim przedsiębiorstwom działania cyberprzestępców.

Transformacja cyfrowa przedsiębiorstw przyczynia się do powstania nie tylko korzyści, ale również wprowadza bardzo istotne ryzyka społeczne i gospodarcze. Wszelkiego rodzaju włamania, wycieki danych czy inne negatywne zjawiska, nie tylko podważają zaufanie do procesów transformacji, ale przede wszystkim przynoszą wymierne straty ogólnie rozumianym użytkownikom sieci.

Przy tym coraz większe są wymogi regulacyjne. Często różnią się one w zależności od rodzaju przedsiębiorstwa. Jeśli nie zostaną spełnione, firmy narażają się – oprócz zagrożeń czysto finansowych czy wizerunkowych, także na kary dotyczące osobiście członków zarządów. Organizacje muszą na bieżąco śledzić, w jaki sposób nowe technologie wpływają na ryzyko cybernetyczne i odpowiednio do tego wprowadzać nowe środki zaradcze niezbędne, aby utrzymać je w granicach tolerancji.

Kompleksowe podejście do cyberbezpieczeństwa Cyberbezpieczeństwo dzisiaj to nie tylko spełnienie odpowiednich norm, posiadanie infrastruktury technicznej umożliwiającej wspieranie procesu prewencji oraz detekcji już zaistniałego ataku (rozwiązania firewall, antywirusy, XDR), ale także monitorowanie systemu informatycznego (systemy SIEM). Bardzo ważne jest określenie procedur postępowania w przypadku już zaistniałego ataku oraz posiadanie i testowanie skutecznego systemu backupu.

Wdrożenie cyklicznych szkoleń pracowników to kluczowy aspekt, gdyż – jak pokazują wszystkie badania – to człowiek jest w każdej organizacji najsłabszym ogniwem. To najczęściej właśnie od pracowników rozpoczyna się atak na środowisko informatyczne danego przedsiębiorstwa. W istocie rzeczy kwestie edukacyjne nie mogą ograniczać się tylko do odrębnych

szkoleń. Podejmowane działania powinny mieć formę kompleksowego programu świadomości cyberbezpieczeństwa. Krótkie filmy wideo poruszające tematykę bezpieczeństwa są przydatne, ale szybko się o nich zapomina. Lepszym pomysłem może być rozwiązanie połączone z nagradzaniem raportowania testowych e-maili phishingowych do działu bezpieczeństwa. Wśród uczestników, którzy poprawnie zidentyfikowali taki testowy e-mail można rozlosować nagrody. Warto pamiętać, że pracownicy boją się reperkusji. Nie powinno wprowadzać się takich mechanizmów, które spowodują, że pracownicy będą obawiać się zgłaszania incydentów.

Ochrona od wczesnego etapu „życia” technologii Poza szkoleniami z zakresu cyberbezpieczeństwa, ważne jest także oczywiście zabezpieczenie elementów infrastruktury nie tylko na etapie użytkowania. Koniecznością jest zapewnienie bezpiecznych dostaw sprzętu poprzez tzw. trusted supply chain.

Zabezpieczenie łańcucha dostaw jest dzisiaj kluczowe. Ataki w tym obszarze zdominowały nagłówki gazet w ostatnich latach. Wystarczy przypomnieć wydarzenia takie jak atak na SolarWinds poprzez backdoor Malware jako upgrade oprogramowania do zarządzania, jak również incydenty w innych przedsiębiorstwach, w których doniesiono o pojawieniu się podrobionego sprzętu.

Operacje i procesy bezpieczeństwa łańcucha dostaw HPE wykorzystują branżowe certyfikaty, które poświadczają bezpieczeństwo głównych komponentów sprzętu serwerowego po opuszczeniu fabryki. Dzięki temu jest możliwe bezpieczne zatwierdzanie wszelkich zmian sprzętowych aż do momentu dostarczenia go do klienta.

Silicon Root of Trust

Jedną z najważniejszych cech serwerów HPE ProLiant w kontekście bezpieczeństwa jest implementacja zabezpieczeń działania serwera już na poziomie rozruchu poprzez wprowadzenie unikatowego w branży mechanizmu Silicon Root of Trust.

Rozwiązanie to pozwala na załadowanie do serwera wyłącznie zaufanego firmware’u. Wiąże się to z zakotwiczeniem procesu rozruchu serwera w sprzęcie, dzięki czemu nie można go aktualizować, ani modyfikować w nieautoryzowany sposób. Po uruchomieniu serwerów HPE ProLiant z Silicon Root of Trust oprogramowanie sprzętowe HPE iLO przeprowadza weryfikację systemu wejścia/wyjścia i lokalizuje tzw. cyfrowy odcisk palca osadzony w krzemie.

Ta niezmienna, cyfrowa sygnatura służy następnie jako podstawa do weryfikacji, czy cały kod firmowy jest poprawny i nie został zmanipulowany lub naruszony. Jeśli walidacja nie powiedzie się (np. wykryto manipulację), Silicon Root of Trust uniemożliwia włączenie serwera.

HPE Silicon Root of Trust okazał się bardzo skuteczny w zapobieganiu wstrzykiwania złośliwego kodu w przypadku cyberataku, a w połączeniu z kryptograficznie zabezpieczonym podpisem stanowi wysoce odporną czy wręcz kuloodporną warstwę ochrony serwera. Jeśli cyberprzestępca zdoła wprowadzić do oprogramowania sprzętowego serwera wirusa, złośliwe oprogramowanie lub kod, Silicon Root of Trust wykrywa zmiany i niedopasowanie w konfiguracji oprogramowania sprzę-

towego. W tym celu wykorzystywany jest wspomniany wcześniej cyfrowy odcisk palca wbudowany w krzem.

Bezpieczna logistyka ma znaczenie

Bardzo ważne są także elementy zabezpieczenia serwerów HPE ProLiant już na poziomie fabryki. W ten sposób w całym procesie logistycznym – od dostawy do klienta i później, na etapie użytkowania – wykluczamy zmiany w konfiguracji serwera, bądź próby podmiany komponentów sprzętowych czy programowych. Naszych klientów zabezpieczają tutaj dwa poniższe mechanizmy.

HPE Server Configuration Lock tworzy cyfrowy odcisk palca konfiguracji serwera. Jeśli jakiekolwiek oprogramowanie układowe, sprzęt lub opcje zostaną zmienione, na starcie pojawi się alert. Włączenie tej opcji w fabryce w zasadzie uniemożliwia wszelkie ingerencje w komponenty serwera. Ta funkcja wykorzystuje unikatowe hasło, stworzone przez HPE, do zablokowania konfiguracji serwera. Jest ono bezpiecznie przesyłane do klienta, który odblokowuje serwer po jego dotarciu na miejsce.

Z kolei HPE Chassis Intrusion Detection Switch chroni serwer przed jakąkolwiek fizyczną ingerencją. Ta funkcja rejestruje alert, jeśli górna część obudowy serwera zostanie otwarta. Podobnie jak elektroniczny zamek w drzwiach, mechanizm rejestruje alert w oprogramowaniu HPE iLO, nawet jeśli serwer nie jest zasilany. Jeśli jakikolwiek cyberprzestępca lub nieupoważniony personel kiedykolwiek otworzy obudowę serwera, klienci będą wiedzieli, że ktoś potencjalnie ingerował w ich serwer.

Zabezpieczenia najnowszej generacji W najnowszych serwerach HPE ProLiant Compute Gen12 wprowadziliśmy znacząco rozszerzone funkcje cyberbezpieczeństwa, które odpowiadają na coraz bardziej zaawansowane zagrożenia i wymagania regulacyjne. Najważniejszym elementem jest nowa edycja HPE iLO w wersji 7 z wbudowanym Secure Enclave, czyli dedykowanym procesorem bezpieczeństwa odpowiedzialnym za ochronę kluczy kryptograficznych i haseł. Rozwiązanie to izoluje procesy związane z bezpieczeństwem od reszty systemu, co zwiększa odporność na ataki na poziomie sprzętowym oraz firmware. Nowością jest gotowość serwerów HPE Gen12 na erę kwantową. Serwery obsługują algorytmy kryptograficzne odporne na przyszłe zagrożenia związane z komputerami kwantowymi. Platforma spełnia również wymagania normy FIPS 140–3 Level 3, co stanowi znaczącą przewagę w środowiskach objętych regulacjami, jak administracja publiczna czy sektor finansowy.

HPE rozbudowało także bezpieczny łańcuch dostaw, aby chronić serwer od etapu produkcji aż po instalację i wycofanie z eksploatacji. Rozbudowaliśmy elementy zabezpieczające pełny cykl życia serwera, w tym m.in. bezpieczne wycofywanie i utylizację sprzętu.

Dzięki tym innowacjom serwery HPE ProLiant Compute Gen12 stanowią jedną z najbardziej bezpiecznych platform na rynku, pozwalając klientom na spełnienie wymogów regulacyjnych, wzmocnienie ochrony przed atakami i przygotowanie się na przyszłe wyzwania związane z cyberbezpieczeństwem.

Całość oparta jest na zasadzie Zero Trust, która zakłada brak domyślnego zaufania do jakiejkolwiek warstwy systemu. Każdy element – od firmware’u, przez sieć, aż po dostęp administratora – jest weryfikowany i sprawdzany. Uzupełnieniem tego są mechanizmy ciągłego monitoringu integralności firmware’u, które w czasie rzeczywistym wykrywają anomalie i zapobiegają zmianom środowiska.

Ochrona na

poziomie sprzętowym i nie tylko

Windows Server 2025 to najnowsza wersja systemu operacyjnego Microsoft, który od ponad 30 lat obsługuje najważniejsze obciążenia biznesowe w małych i średnich firmach (SMB). Windows Server 2025 oferuje gotowy na chmurę system operacyjny z zaawansowanymi funkcjami zabezpieczeń, możliwościami hybrydowymi i wysokowydajną infrastrukturą działającą zarówno w środowiskach lokalnych, jak i chmurowych. Został zaprojektowany, aby wspierać transformację cyfrową, wzmacniać obronę przed cyberzagrożeniami i umożliwiać firmom SMB innowacje dzięki technologiom gotowym na wykorzystanie sztucznej inteligencji.

HPE i autoryzowani partnerzy mogą zaoferować nabywcom HPE ProLiant wybór jednej z trzech edycji Windows Server 2025, z których każda została zaprojektowana w celu zapewnienia ciągłości działania, wzmocnienia bezpieczeństwa i osiągnięcia lepszych wyników biznesowych. Edycje te oferują potężne funkcje i usługi, wspierane przez światowej klasy infrastrukturę i doświadczenie HPE:

l Essentials: dla małych firm do 25 użytkowników i 50 urządzeń, które potrzebują podstawowej funkcjonalności serwera.

l Standard: dla ogólnych zastosowań serwerowych w firmach SMB; idealny do środowisk fizycznych lub minimalnie zwirtualizowanych.

l Datacenter: głównie dla dużych przedsiębiorstw z wysoko zwirtualizowanymi

centrami danych i środowiskami chmurowymi, które wymagają zaawansowanych funkcji w zakresie przechowywania danych, sieci i tworzenia aplikacji. Dlaczego warto wybrać HPE ProLiant z systemem Windows Server 2025? Ponieważ uruchamianie obciążeń na wcześniejszych edycjach systemu Windows Server naraża firmy na coraz bardziej wyrafinowane ataki i pozbawia nowoczesnych funkcji umożliwiających proaktywne zabezpieczenie, usunięcie podatności i monitorowanie środowiska oraz danych. W połączeniu z serwerami HPE ProLiant Compute Gen12, Windows Server 2025 zapewnia zoptymalizowaną integrację sprzętu i oprogramowania, w tym solidne zabezpieczenia oparte na zaawansowanych funkcjach bezpieczeństwa.

Zabezpieczenie danych – kluczowy element w każdym przedsiębiorstwie Niezbędnym elementem ochrony danych w każdej organizacji jest nie tylko ich bieżące zabezpieczenie, ale także efektywna archiwizacja i systematyczny backup. HPE Storage Tape to rozwiązanie, które umożliwia firmom – szczególnie małym i średnim – kompleksową ochronę danych przed ich utratą, awariami systemów oraz cyberzagrożeniami, takimi jak ransomware.

NOWOŚCIĄ JEST GOTOWOŚĆ

SERWERÓW HPE GEN12 NA PRZYSZŁE ZAGROŻENIA ZWIĄZANE Z ERĄ KWANTOWĄ.

Technologia LTO pozwala na fizyczne odseparowanie kopii zapasowej od sieci (air-gap), minimalizując ryzyko ataków zdalnych oraz niepożądanej ingerencji w dane. Wbudowane funkcje, takie jak szyfrowanie sprzętowe oraz tryb WORM (Write Once, Read Many), dodatkowo zwiększają bezpieczeństwo, uniemożliwiając nieautoryzowaną zmianę lub usunięcie danych.

Rozwiązanie HPE Storage Tape jest nie tylko bezpieczne, ale też ekonomiczne i skalowalne – można je łatwo dostosować do rosnących potrzeb firmy. Dodatkowo spełnia ono wymagania regulacyjne dotyczące długoterminowego przechowywania danych, co jest szczególnie istotne w sektorach takich jak finanse, administracja publiczna czy opieka zdrowotna. Dzięki temu organizacje mogą nie tylko chronić swoje kluczowe zasoby, ale także zapewnić zgodność z obowiązującymi przepisami i standardami bezpieczeństwa.

KSeF:

odpowiedzialność po stronie integratora?

W ostatnich miesiącach znacznie wzrosło zapotrzebowanie na wdrożenia związane z Krajowym Systemem e-Faktur. Zanosi się na to, że popyt utrzyma się przez cały 2026 rok.

Obowiązkowy Krajowy System eFaktur wejdzie w życie od 1 lutego 2026 r. – najpierw dla dużych przedsiębiorców, którzy w 2024 r. osiągnęli wartość sprzedaży co najmniej na poziomie 200 mln zł wraz z podatkiem. Natomiast od 1 kwietnia 2026 r. system obejmie pozostałe firmy. Wyjątkiem są najmniejsi podatnicy, którzy wystawiają pojedyncze faktury na kwotę do 450 zł, a miesięcznie nie przekraczają 10 tys. zł sprzedaży. KSeF będzie ich dotyczył od 1 stycznia 2027 r.

Jak podkreślają integratorzy, zainteresowanie usługami konsultingu i wdrożeń związanymi z KSeF jest wysokie i wyraźnie wzrosło po tym, gdy wejście systemu stało się pewne po podpisie prezydenta w sierpniu br. (wcześniej kilkukrotnie przekładano wprowadzenie tego systemu). Przyspieszyło to decyzje przedsiębiorców.

– Wśród małych i średnich firm obserwujemy obecnie gwałtowny wzrost popytu. Wcześniej wiele z nich odkładało decyzje

wdrożeniowe, licząc na przesunięcia terminów. Teraz intensywnie poszukują gotowych, szybkich i przystępnych cenowo rozwiązań integracyjnych – informuje Michał Sosnowski, Business Development Director w Exorigo-Upos.

Dodaje przy tym, że większość dużych organizacji rozpoczęła przygotowania z odpowiednim wyprzedzeniem. Także kolejne elementy systemu udostępniane przedsiębiorcom motywują firmy do działania.

Krzysztof Pasławski

Przykładowo, w październiku br. resort finansów udostępnił do testowania demo (środowisko przedprodukcyjne) ostatecznej wersji Krajowego Systemu e-Faktur. Tym niemniej nadal większość firm nie zakończyła przygotowań. Zapewne część z nich znów przez niepewność regulacyjną, wstrzymując się do czasu publikacji rozporządzeń wykonawczych.

Z raportu Comarchu przygotowanego we współpracy z PMR wynika, że około 1/3 przedsiębiorców znajduje się na wczesnym etapie przygotowań. Natomiast według badania Asseco z września br. 42 proc. zadeklarowało pełną gotowość na KSeF, a 30 proc. częściową. Tylko 10 proc. przyznaje, że nie podjęło jeszcze żadnych przygotowań.

Co oznacza finalny etap

Exorigo-Upos szacuje, że około 60–70 proc. najważniejszych klientów, przede wszystkim dużych przedsiębiorstw, znajduje się na zaawansowanym lub końcowym etapie przygotowań. Ten etap oznacza, że mają już wybrane rozwiązania, prowadzą testy integracyjne i pilotażowe wysyłki w środowisku produkcyjnym lub przedprodukcyjnym. Pozostałe 30–40 proc. jest na etapie planowania wdrożenia i konfiguracji integracji. Z kolei w sektorze MŚP poziom przygotowania jest zdecydowanie niższy.

Tym niemniej, z uwagi na aktualny stan przygotowań firm i instytucji oczekuje się, że popyt na usługi związane z KSeF utrzyma się także w 2026 r. i to nie do wiosny, lecz raczej do końca przyszłego roku. Dla integratorów zapowiadają się zatem pracowite kolejne kwartały. Do finalizacji przygotowań najpóźniej za rok powinna skłonić najbardziej opieszałych przedsię-

biorców zapowiedź kar za nieprawidłowości w KSeF, które według resortu finansów zaczną być egzekwowane od początku 2027 r. (cały przyszły rok ma być jeszcze wolny od sankcji).

Warto dodać, że obsługujące przedsiębiorców biura rachunkowe w większości nie są gotowe na zmianę – tak w każdym razie wynika z badania Symfonii. Otóż według danych z lipca br. aż 69 proc. takich biur nie rozpoczęło żadnych przygoto-

wań do obsługi klientów w KSeF (zaledwie 1 proc. zadeklarowało pełną gotowość). Tak niski poziom sami zainteresowani tłumaczą najczęściej obawą o możliwość popełnienia błędów (60 proc.).

Co istotne, wdrożenie KSeF raczej niekoniecznie będzie mieć wpływ na stawki biur rachunkowych. Otóż 27 proc. biur pytanych przez Symfonię przewiduje, że ich ceny nie ulegną zmianie. Taka sama grupa spodziewa się jednak, że stawki mogą pójść w górę.

Potrzebny partner od IT i regulacji Dostawcy podkreślają, iż KSeF nie jest jedynie kolejnym projektem w firmie, ale to systemowa zmiana procedur, przepływu informacji i ról pracowników. Sporo klientów oczekuje więc od zewnętrznych podmiotów kompleksowego wsparcia – zarówno w kwestii integracji, procesów, jak też bezpieczeństwa i spełnienia wymagań prawnych.

– Firmy chcą, aby to integrator przejął odpowiedzialność za ciągły nadzór nad zmianami technicznymi i legislacyjnymi, gwarantując nieprzerwane działanie systemu bez angażowania własnych zespołów IT. Potrzebują partnerów łączących wiedzę IT z kompetencjami regulacyjnymi – wyjaśnia Michał Sosnowski.

Według niego największym zainteresowaniem firm, jeśli chodzi o wsparcie, cieszy się outsourcing komunikacji z KSeF. Chodzi o powierzenie dostawcy integracji i aktualizacji, jak również o informowanie użytkowników o wymaganych działaniach. Najbardziej w cenie będą więc partnerzy obeznani zarówno z przepisami, jak i działaniem KSeF i całą stroną techniczną. – Przedsiębiorstwa potrzebują partnera, który orientuje się w całym ekosystemie e-fakturowania. W najbliższych miesiącach kluczowy dla nich będzie wybór dostawcy, który nie tylko oferuje integrację, ale też rozumie specyfikę KSeF i potrafi przewidzieć potencjalne problemy – twierdzi Rafał Orłowski, Head of Open Banking w Banqup. Przedsiębiorcy wymagają także dostosowania systemów ERP do wymogów KSeF, jak też automatyzacji procesów biznesowych realizowanych w tym systemie, związanych z e-fakturowaniem. Obserwowane jest przy tym zainteresowanie rozwiązaniami, które pozwalają wyjść poza zgodność z przepisami, usprawniając procesy w organizacji. W efekcie dzięki KSeF zwiększa się popyt na narzędzia do zarządzania obiegiem dokumentów.

– Wdrożenia KSeF lepiej nie traktować jako uciążliwego wymogu, ale jako szansę na dodatkowe korzyści: porządek w danych, lepszą kontrolę nad procesami i mniejsze koszty obsługi dokumentów – mówi Jacek Lisowski, członek zarządu Asseco Business Solutions, dyrektor pionu sprzedaży i wdrożeń systemów ERP. Według klientów MŚP do największych wyzwań należy ograniczony dostęp do specjalistów, którzy mogą przeprowadzić integrację i weryfikację poprawności danych przesyłanych do KSeF, stąd często pojawiają się problemy z instalacją lub konfiguracją oprogramowania.

– Decyzje o wdrożeniu zapadają w ostatniej chwili, co z kolei skraca czas realizacji

projektu do zaledwie kilku tygodni – zauważa Michał Sosnowski.

Jak wyjaśnia, w sektorze MŚP dominują rozwiązania standaryzowane i gotowe do szybkiego wdrożenia, takie jak huby integracyjne, aplikacje chmurowe czy wtyczki do popularnych programów księgowych. Mali i średni przedsiębiorcy oczekują od integratora, że wdrożenie KSeF obciąży je jak najmniej organizacyjnie i kosztowo, stawiają zatem na prostotę i niezawodność. Z kolei duże i średnie firmy oczekują bardziej indywidualnego podejścia. W większych organizacjach problemem może być zapewnienie spójności procesów w środowiskach, które obsługują ogromne ilości faktur. Nie ułatwia zmian także to, że harmonogramy wdrożeń związane z KSeF muszą być dostosowane do innych równolegle prowadzonych projektów IT. W dużych podmiotach implementacja KSeF to złożone przedsięwzięcie, który wymaga integracji z rozbudowanymi systemami ERP oraz dostosowania procesów w wielu jednostkach organizacyjnych.

Problem

z fachowcami od KSeF

Także integratorzy muszą mierzyć się z wyzwaniami. Wynikają one zwłaszcza z potrzeby kompleksowej obsługi firm, przy ograniczonej dostępności specjalistów z doświadczeniem w integracjach KSeF. – Największym wyzwaniem dla dostawców i integratorów wspierających firmy w przygotowaniach do KSeF jest konieczność działania jednocześnie na wielu frontach: technologicznym, organizacyjnym i regulacyjnym, w warunkach rosnącego popytu i presji czasu – mówi Michał Sosnowski.

Wyzwaniem pozostaje dopasowanie natywnych formatów danych klientów do wymagań KSeF.

– Często okazuje się, że wdrożenie nie kończy się na podłączeniu do API, ale wymaga zmian w lokalnych systemach przechowywania danych dokumentowych. To może być czasochłonne i kosztowne, zwłaszcza

EDUKACJA UŻYTKOWNIKÓW TO JEDNO Z KLUCZOWYCH DZIAŁAŃ.

gdy odkryje się to dopiero na etapie testów – zauważa Michał Orłowski.

Specjaliści podkreślają też, że należy przeszkolić pracowników w firmach, aby implementacja i korzystanie z KSeF przebiegały bez większych wpadek.

– Edukacja użytkowników pozostaje jednym z kluczowych działań. Niedostateczna znajomość zasad funkcjonowania KSeF

może prowadzić do błędów w wystawianiu faktur, mimo zachowania poprawności ich struktury technicznej – przestrzega Tomasz Mamys, ekspert ds. cyfryzacji w Symfonii.

Już najbliższe miesiące zdecydują o efektywnym przygotowaniu do obowiązkowego KSeF. Podmioty, które jeszcze go nie rozpoczęły, powinny jak najszybciej wybrać i wdrożyć rozwiązanie integracyjne, przeprowadzić testy z fakturami, przeanalizować procesy biznesowe, przeszkolić pracowników.

– Aby dobrze wykorzystać najbliższe miesiące, firmy powinny niezwłocznie podjąć decyzję o wdrożeniu i zaktualizować systemy ERP, a następnie skupić się na weryfikacji i uporządkowaniu procesów w firmie. Ostatnim, ale ważnym krokiem jest testowanie nowych funkcjonalności w środowisku demo – radzi Paweł Krupa, Product Manager rozwiązań Comarch ERP z obszaru finansów i księgowości.

Na finalnym etapie bardzo ważne jest nadanie uprawnień w KSeF i zarządzanie dostępami, co jest kluczowe dla bezpieczeństwa.

Praca nad KSeF potrwa latami

Warto podkreślić, że wdrożenie KSeF to nie koniec pracy nad systemem. Firmy powinny zadbać o stałe zapewnienie zgodności z przepisami, jak też przygotować procedury na wypadek niedostępności czy awarii systemu. Co więcej, już w najbliższych latach można oczekiwać zmian w systemie, więc integratorzy nadal będą mieli zajęcie. Wynika to z tego, że KSeF w obecnej formie jest niezgodny z unijną dyrektywą e-fakturowania i e-raportowania ViDA (VAT in the Digital Age) i konieczne będzie dostosowanie polskiego systemu do unijnych wymogów. Wcześniej konieczność dostosowania KSeF do ViDA będzie dotyczyć firm obsługujących zagranicznych kontrahentów.

– Kluczowe pytanie, które każda organizacja powinna dziś sobie zadać, brzmi: „Czy mój dostawca rozwiązań KSeF ma strategię na ViDA?” – twierdzi Jarosław Trzpiel, doradca zarządu ds. sprzedaży, Editel. Można zatem oczekiwać zapotrzebowania na usługi związane z Krajowym Systemem e-Faktur także w 2027 r. i później.

– Nie spodziewamy się spadku popytu po 2026 roku. Przeciwnie, wraz z kolejnymi wersjami systemu i nieuniknionymi poprawkami, zapotrzebowanie na fachowe wsparcie będzie tylko rosło. KSeF to nie jednorazowe wdrożenie, lecz długoterminowe zobowiązanie wymagające ciągłej obsługi – podsumowuje Rafał Orłowski. n 40 / CRN / listopad 2025

Zdaniem specjalisty

Michał Sosnowski, Business Development Director, Exorigo-Upos

SZpodziewamy się, że popyt na usługi związane z KSeF utrzyma się na bardzo wysokim poziomie przez cały 2026 rok. Szczególnie intensywne będzie pierwsze półrocze, kiedy firmy, które nie zdążyły zakończyć przygotowań, będą potrzebowały wsparcia w trybie przyspieszonym. W tym samym czasie organizacje, które wdrożyły podstawowe procesy, skupią się na optymalizacji i doskonaleniu integracji po pierwszych praktycznych doświadczeniach z systemem. W drugiej połowie 2026 roku popyt nieco się ustabilizuje, ale wciąż będzie silny. Będzie to głównie zapotrzebowanie na dalszą optymalizację, zwiększenie bezpieczeństwa i niezawodności systemów oraz rozwój nowych funkcjonalności, które pojawią się w wyniku doświadczeń z pierwszej fali wdrożeń.

perspektywy integratora największym wyzwaniem we wdrażaniu KSeF jest to, że projekt wymaga jednocześnie solidnego przygotowania technologicznego i organizacyjnego. Poza samym połączeniem KSeF z systemami ERP, firmy muszą opracować procedury awaryjne i scenariusze wyjątków, przykładowo jak działać w przypadku niedostępności systemu lub błędów w komunikacji. W praktyce ważne jest też ujednolicenie obsługi wszystkich faktur. Wielu klientów mierzy się z trudnością w identyfikacji zakupów pracowniczych, dlatego warto wdrożyć mechanizmy awizacji, które pozwalają przypisać fakturę do konkretnego pracownika. Niezwykle istotna jest jakość danych, dlatego wdrożenie narzędzi do

Jacek Lisowski, członek zarządu, Asseco Business Solutions

automatycznej weryfikacji faktur to konieczność. Kluczowy czynnik to ludzie. Nawet najlepsze rozwiązania techniczne nie przyniosą efektu bez zaangażowania zespołów księgowych, zakupowych i IT.

Paweł Krupa, Product Manager rozwiązań Comarch ERP z obszaru finansów i księgowości

Klienci, przygotowujący się do obowiązkowego Krajowego Systemu e-Faktur, najczęściej oczekują od dostawców systemów ERP kompleksowego wsparcia obejmującego trzy główne obszary: integrację techniczną, edukację i doradztwo procesowe. Priorytetem jest stabilna i pełna integracja ich systemów z rządowym interfejsem API KSeF 2.0, co jest podstawą do bezproblemowej wysyłki i odbioru e-faktur ustrukturyzowanych. Równie ważne jest przekazanie klientowi wiedzy, aby ten mógł przyswoić techniczne i prawne niuanse KSeF, a przede wszystkim zrozumieć, jak zmieni się obieg dokumentów i proces akceptacji. Kolejnym ważnym elementem wsparcia staje się doradztwo procesowe, pomagające w mapowaniu i dostosowywaniu wewnętrznych procedur – od zmian w komunikacji z kontrahentami, po zarządzanie uprawnie-

niami czy procesowanie faktur kosztowych. Aby dobrze wykorzystać najbliższe miesiące, firmy powinny podjąć decyzję o wdrożeniu i zaktualizować systemy ERP.

Od firm słyszę, że globalni dostawcy systemów ERP często sugerują swoim polskim klientom współpracę z lokalnymi partnerami technologicznymi, nie chcąc brać na siebie wdrożeń pod ogromną presją czasu przy braku ostatecznych przepisów. W tym kontekście warto podkreślić, że termin obowiązkowego wdrożenia KSeF w lutym 2026 r. oznacza, że praktycznie wszystkie firmy muszą być gotowe w tym samym momencie. Nawet jeśli część z nich formalnie nie będzie objęta obowiązkiem od początku, to współpracując z większymi podmiotami, będą musiały odbierać faktury z KSeF, a to wymaga przynajmniej podstawowej integracji. Najczęściej klienci oczekują od nas wsparcia nie tylko w prze-

Jarosław Trzpiel, doradca zarządu ds. sprzedaży, Editel

prowadzeniu wdrożenia minimum, czyli takiego, które zapewni zgodność z wymogami KSeF i bezpieczeństwo finansowe firmy, ale także spełnienia dodatkowych obowiązków wynikających z ustaleń z kontrahentami.

Cohesity rewolucjonizuje ochronę danych:

od chaosu do pełnej kontroli

Osoby odpowiedzialne za zakup rozwiązań do ochrony danych stają dziś przed bezprecedensowymi wyzwaniami. Presja się zwiększa z powodu liczby danych, które rosną w zastraszającym tempie, a infrastruktura IT staje się coraz bardziej skomplikowana.

Tradycyjne rozwiązania backupowe stały się w obecnych czasach kosztowną pułapką. Wymagają zastosowania rozbudowanej infrastruktury: serwerów, systemów pamięci masowej, sieci i specjalistycznego oprogramowania. Do rachunku trzeba doliczyć jeszcze utrzymanie, kolejne aktualizacje i zarządzanie całym tym ekosystemem. Koszty rosną lawinowo, zarówno na starcie, jak i w długoterminowej perspektywie, a w tle narastają fale ataków ransomware i innych zagrożeń cybernetycznych. Nowa generacja rozwiązań do ochrony danych odpowiada na ten chaos zintegrowanymi, skalowalnymi platformami. To coś więcej niż tradycyjny backup i recovery. W grę wchodzą wbudowane zabezpieczenia cybernetyczne i zaawansowane narzędzia analityczne. Przełomem jest możliwość zarządzania ochroną wszystkich danych – niezależnie od tego, czy znajdują się w środowiskach lokalnych, chmurowych czy hybrydowych – z poziomu jednej konsoli.

Cohesity zmienia reguły gry

Liderem tej rewolucji jest amerykańska firma Cohesity. Choć działa już od 2013 r., prawdziwy przełom nastąpił w roku ubiegłym, gdy przejęła kluczową część biznesu Veritasa. Efekt? Cohesity chroni obecnie 100 eksabajtów danych – pięciokrotnie więcej niż którykolwiek z konkurentów. Dlaczego firmy i instytucje wybierają właśnie rozwiązania tego producenta? – Cohesity idealnie pasuje do naszej koncepcji. System jest niezwykle pomocny w zakresie zabezpieczenia danych zarówno w środowisku lokalnym, jak i chmurowym. Do wyboru Cohesity przyczyniła się także ochrona przed ransomware oraz najwyższej klasy rozwiązania szyfrujące. Cenimy zdolność do zarządzania danymi we wszystkich krajach, które obsługujemy. To pozwala nam zachować zgodność z regulacjami dotyczą-

cymi backupu, które występują w różnych państwach. Wcześniej nie mogliśmy tego robić – tłumaczy Mike Viola, Principal Technologist w Nasdaq.

Warto dodać, że wdrożenie platformy trwało zaledwie miesiąc. Obecnie Nasdaq używa Cohesity do tworzenia kopii zapasowych 6000 skrzynek Office’a M365, 45 TB danych OneDrive i Teams oraz 100 skrzynek Exchange. Specjaliści technologicznego indeksu giełdowego, podobnie jak wielu innych, wysoko oceniają intuicyjny interfejs i wysoki stopień automatyzacji platformy Cohesity Helios. W rezultacie nawet realizację złożonych operacji można powierzyć początkującym administratorom. Rozwiązanie wyróżnia się na tle konkurencji także podejściem do infrastruktury sprzętowej. Platforma pracuje ze sprzętem takich marek, jak: Dell, HPE, Cisco, Lenovo czy Super Micro. Ta elastyczność pozwala organizacjom wykorzystać istniejącą infrastrukturę lub wybrać dostawców zgodnie z własnymi preferencjami i relacjami biznesowymi.

Dla kogo Cohesity?

W przypadku grupy docelowej tak dobrze ocenianego rozwiązania, bez wahania można wskazać przede wszystkim na użytkowników, którzy operują na dużych ilościach danych.

– Nasi najmniejsi klienci posiadają 50 TB danych, a najwięksi nawet kilkaset petabajtów. Rozwiązanie cieszy się bardzo dużą popularnością w bankach, placówkach służby zdrowia, firmach technologicznych, produkcji i logistyce, a także instytucjach rządowych. Na liście referencyjnej znajdują się między innymi BMW, Nasdaq, Cisco, Salesforce czy lotnisko w Wiedniu – tłumaczy Łukasz Dyguła, szef kanału sprzedaży Cohesity w Polsce. Wspomniany port lotniczy w Wiedniu zatrudnia 5,5 tys. pracowników i obsługuje ponad 30 milionów pasażerów rocznie. Rzecz jasna, zespół IT lotniska zarządza ogromną

liczbą danych rozproszonych w wielu lokalizacjach. Vienna International Airport, aby poradzić sobie z zagrożeniami cybernetycznymi, wdrożyło platformę cyberodporności, w tym izolowane środowisko odzyskiwania danych (IRE) w celu zabezpieczenia kopii zapasowych. Ta konfiguracja zapewnia zgodność z dyrektywami UE dotyczącymi cyberbezpieczeństwa i chroni infrastrukturę przed oprogramowaniem ransomware. Martin Meindl, IT Administrator w Vienna Airport, podkreśla przy tym, że funkcje bazujące na sztucznej inteligencji, ułatwiają kontrolę i ochronę w czasach rosnącej złożoności IT.

Na nieco inny aspekt współpracy z Cohesity zwraca uwagę Juan Perez, CIO Salesforce’a. Jego zdaniem na rynku działa wielu

COHESITY NIE JEST ZWYKŁYM DOSTAWCĄ, LECZ PROAKTYWNYM PARTNEREM.

dostawców, którzy nie rozumieją wystarczająco dobrze biznesu prowadzonego przez jego firmę. Nie pojmują wyzwań organizacji takich jak Salesforce, lecz skupiają się bardziej na swoim sukcesie.

– Cohesity nie jest zwykłym dostawcą, lecz proaktywnym partnerem, szukającym sposobów, aby być jeszcze lepszym w tym, co robi. Jako że musimy mierzyć się z licznymi wyzwaniami i trudnościami, potrzebujemy takich właśnie partnerów, którzy za każdym razem udzielą nam właściwej odpowiedzi – podsumowuje Juan Perez.

dla partnerów

Łukasz Dyguła, Head of Channel–Poland tel. 698 698 907 lukasz.dygula@cohesity.com

IT w logistyce:

przełom na wyciągnięcie ręki

Sektor logistyczny w dużej mierze upatruje swojej szansy na dalszy rozwój w nowych technologiach, z nadzieją patrząc na sztuczną inteligencję, automatyzację i robotyzację procesów.

Oznaczącej roli technik informacyjnych w logistyce świadczy dobitnie bogata oferta kształcenia akademickiego w tym kierunku. Niemalże na każdej polskiej uczelni technicznej czy ekonomicznej są dzisiaj prowadzone (pod różnymi nazwami) studia dotyczące wykorzystania informatyki w sektorze logistycznym. Z drugiej strony, same firmy z tej branży nie są do końca zadowolone z właściwego wsparcia swej działalności ze strony systemów IT. Zwróciło na to uwagę 20 proc. uczestników tegorocznej edycji badania „Dokąd zmierzasz logistyko?” przeprowadzonego przez

W PERSPEKTYWIE TRENDÓW

ROZWOJOWYCH LOGISTYKI CIEKAWYM ROZWIĄZANIEM WYDAJE SIĘ AI AUDIO.

ków (34 proc.), a następnie zbyt wysokie koszty logistyki (31 proc.). Obecnie kolejność się odwróciła – w 2025 r. firmy logistyczne mierzą się głównie z rosnącymi kosztami operacyjnymi, w tym paliwa i energii (44 proc. wskazań), brakiem wykwalifikowanej kadry (37 proc.), niewłaściwym poziomem zapasów (26 proc.) oraz niewystarczającym poziomem obsługi klienta przy rosnących oczekiwaniach w tym zakresie (20 proc.).

ManpowerGroup we współpracy z Łukasiewicz – Poznański Instytut Technologiczny.

Sytuacja w tym zakresie uległa jednak w ostatnich latach znacznej poprawie. Jeszcze w 2021 r. brak wsparcia ze strony IT był wskazywany jako największa trudność, na którą narzekało 38 proc. badanych. Na kolejnych miejscach znalazł się niedobór wykwalifikowanych pracowni-

Kosmiczne wyzwania?

Generalnie jednak przedstawiciele firm logistycznych patrzą pozytywnie na sytuację sektora. Aż 78 proc. uczestników badania ocenia kondycję polskiego sektora logistyki dobrze lub bardzo dobrze. Szans na rozwój upatrują w dużej mierze w zastosowaniach nowych technologii. W sumie 33 proc. przedsiębiorstw zaplanowało na ten rok inwestycje w ich wdrażanie. Zdaniem 54 proc. respondentów największy wpływ na rozwój branży w najbliższych latach będą miały automatyzacja i robotyzacja procesów magazynowych. Na kolejnym miejscu znalazła się sztuczna inteligencja, której potencjał dostrzega 49 proc. firm, a na następnym cyfryzacja i digitalizacja procesów, wskazywana przez 41 proc. ankietowanych.

Od opisu towarów do autonomicznego transportu

W coraz bardziej istotnym obszarze AI autorzy raportu „DHL Logistics Trend

Nowe perspektywy rozwoju dla branży TSL otwierać się będą, jak można zakładać, wraz ze wzrostem zainteresowania podbojem kosmosu. Trudno bowiem wyobrazić sobie jakiekolwiek wyprawy w kosmos bez odpowiedniego zaplecza logistycznego. Zwracają na to uwagę autorzy artykułu zamieszczonego w książce „Współczesne trendy w logistyce” (Michał Marszałkowski i Weronika Wabich, Uniwersytet Morski w Gdyni, 2024).

Radar 7.0” wymieniają pięć kluczowych trendów, które w istotny sposób pomagają firmom optymalizować ich łańcuchy dostaw. Są to: generatywna sztuczna inteligencja, AI audio, komputerowe rozpoznawanie obrazu, zaawansowana analiza danych oraz etyka sztucznej inteligencji.

Generatywna sztuczna inteligencja może, dla przykładu, na bazie analizy różnych czynników drogowych i środowiskowych proponować najbardziej efektywne trasy transportu towarów, generować opisy produktów w magazynach, czy wspomagać kontakty z klientami. Techniki rozpoznawania obrazów mogą być wykorzystywane do automatycznego monitorowania ruchu towarów, a analiza dużych zbiorów danych może być przydatna do prognozowania zapotrzebowania na usługi i wspomagania procesów podejmowania decyzji biznesowych. A jak wynika z badania badania „Łańcuch dostaw 2025”,

I chociaż, jak sami zastrzegają, ich praca ma charakter spekulatywny, pokazując pewien model teoretyczny dotyczący sektora TSL, to jednocześnie zwracają uwagę na duże prawdopodobieństwo zmaterializowania się w przyszłości dzisiejszych wizji kosmicznych ekspansji. Warto więc już dzisiaj zastanawiać się nad rolą, jaką omawiany sektor może odegrać w podboju przestrzeni kosmicznej w nadchodzących dekadach.

przeprowadzonego przez Zukunftinstitut i niemieckie Stowarzyszenie Przemysłu Tektury Falistej (VdW), wzrost handlu internetowego wymusza stosowanie coraz bardziej złożonych i zintegrowanych strategii dostaw.

W perspektywie trendów rozwojowych logistyki ciekawym rozwiązaniem wydaje się AI audio. Technika ta służy komputerowemu rozpoznawaniu dźwięków – nie tylko tych generowanych przez człowieka, lecz także przez maszyny, w tym również takich, których nie jest w stanie zarejestrować ludzkie ucho. Dzięki temu może być wykorzystywana do wczesnego rozpoznawania i ostrzegania o potencjalnych usterkach eksploatowanych urządzeń i maszyn. Jej użyteczność będzie z pewnością nabierała coraz większego znaczenia wraz z upowszechnianiem się zastosowań autonomicznych ciężarówek czy zautomatyzowanych robotów transportowych klasy AGV (Automated Guided Vehicles) i AMR (Autonomous Mobile Robots) odgrywających coraz większą rolę w funkcjonowaniu i obsłudze magazynów.

Największe, dostrzegane korzyści związane z rozwojem AI w firmie

Przyspieszenie procesów

Optymalizacja kosztów

Lepsze statystyki i raportowanie

Ograniczanie błędów

Wzrost bezpieczeństwa

Drony i samojezdne roboty Według jednej piątej respondentów badania ManPowerGroup i Łukasiewicz (Poznański Instytut Technologiczny) technologie związane z autonomicznymi pojazdami będą miały kluczowy wpływ na rozwój branży logistycznej w najbliższych latach. Z kolei autorzy Trend Map infuture.institute zakwalifikowali transport autonomiczny, w tym samojezdne ciężarówki i drony dostawcze, do trendów średnioterminowych, które już dają o sobie znać, ale mogą rozwinąć się dopiero w kolejnej dekadzie, najwcześniej w perspektywie 5–15 lat. Globalny rynek logistyczny z wykorzystaniem dronów ma, zdaniem analityków Zion Market Research, osiągnąć do 2028 r. wartość 53 mld dol. z tempem wzrostu (CAGR) na poziomie 20,75 proc. rok do roku (w 2022 r. miał wielkość 8,25 mld dol.). Zdaniem ekspertów drony, jak również kołowe roboty dostawcze, będą odgrywać kluczową rolę głównie na odcinku tzw. ostatniej mili, a więc do odbiorcy końcowego. Tam często dostarczenie przesyłek tradycyjnymi metodami jest utrudnione, na przykład ze względu na brak lub zły stan infrastruktury komunikacyjnej. A w wielu wypadkach specyfika przesyłanego towaru wymaga szybkiego dostarczenia, jak chociażby w przypadku szczepionek, próbek do badań laboratoryjnych, czy transportu krwi do placówek medycznych.

Pozyskiwanie danych

Plany inwestycyjne firm logistycznych na 2025 rok

Źródło: Czy AI wspiera logistykę kontraktową w Polsce? Raport zrealizowany

Pozyskiwanie nowych pracowników

Wdrażanie nowoczesnych technologii

Budowa nowych magazynów

Ograniczenie emisyjności procesów

Elektryfikacja floty

Źródło: „Dokąd zmierzasz logistyko?”. Raport ManpowerGroup, we współpracy

z Łukasiewicz – Poznański Instytut Technologiczny, 2025

RYNEK

Dostawy ostatniej mili będę zyskiwać coraz bardziej na znaczeniu również ze względu na rosnący udział logistyki w działaniach na rzecz e-commerce, którego rozwój wpływa w znaczący sposób na kształt sektora logistycznego. Skoordynowanie działań z udziałem dronów, zautomatyzowanych robotów transportowych i lokalnych centrów dostawczych, by optymalnie wpisać ich wykorzystanie w sprawnie funkcjonujące łańcuchy dostaw, będzie wymagało również zastosowania odpowiednich systemów informatycznych. Przydatne będą narzędzia bazujące na sztucznej inteligencji, dzięki którym będzie można, na przykład, wykonywać analizy predykcyjne pozwalające na lepsze prognozowanie potrzeb odbiorców i skuteczniejsze wykorzystanie posiadanych zasobów. Tym bardziej, że klienci sklepów internetowych oczekują coraz szybszych dostaw zamówionych produktów.

Sztuczna inteligencja wpisana w procesy

Na razie jednak skala zastosowań AI w logistyce w naszym kraju nie jest zbyt duża. Z badania wykonanego na zlecenie

ID Logistics wynika, że w ubiegłym roku korzystało z nich jedynie 21 proc. respondentów. Częściej sięgają po nie firmy logistyczne związane z branżą e-commerce oraz przedsiębiorstwa z dużymi przychodami (powyżej 20 mln złotych w 2023 r.), działające także poza polskim rynkiem. Tylko dla 19 proc. uczestniczących w badaniu firm inwestycje związane z AI są czynnikiem determinującym ich przetrwanie na rynku. Z drugiej jednak strony ponad połowa przedsiębiorstw dostrzega wzrost znaczenia innowacyjnych rozwiązań, w tym również związanych ze sztuczną inteligencją. Najczęściej wskazywanym kierunkiem rozwoju była automatyzacja (52 proc. wskazań), ale tuż za nią znalazła się sztuczna inteligencja (34 proc.).

SEKTOR LOGISTYKI JEST TRZECIM CO DO WIELKOŚCI UŻYTKOWNIKIEM GENERATYWNEJ SZTUCZNEJ INTELIGENCJI NA ŚWIECIE.

W opracowanym przez Maersk we współpracy ze Statista rankingu „The Logistics Trend Map” (2025) sztuczna inteligencja znalazła się dopiero na dziesiątym miejscu. Jako najważniejsza została przez uczestników przeprowadzonego badania sklasyfikowana

Zgodnie z przepisami

Pakiet mobilności to kompleksowy zestaw ujednoliconych regulacji unijnych odnoszących się do sektora transportowego i logistycznego. Wchodzące sukcesywnie w życie przepisy nie pozostają bez wpływu na wykorzystanie technik informacyjno-komunikacyjnych, gdyż wymagają wprowadzenia pełnej digitalizacji dokumentacji przewozowej w transporcie międzynarodowym. Wszystkie państwa członkowskie UE są zobowiązane do umożliwienia stosowania elektronicznego listu przewozowego (e-CMR). Ma on zapewnić możliwość wymiany informacji w czasie rzeczywistym między stronami transakcji przewozowej na każdym etapie jej realizacji, a także przyczynić się do usprawnienia kontroli i zwiększenia przejrzystości działalności transportowej. Ma być używany do wymiany danych między przedsiębiorstwami a administracją publiczną krajów unijnych. Poza tym od sierpnia tego roku wszystkie pojazdy wykonujące przewozy międzynarodowe muszą być wyposażone w tachografy cyfrowe drugiej generacji. Umożliwiają one, poza rejestracją czasu pracy kierowcy, automatyczną rejestrację momentu przekraczania granicy między państwami. Pozwalają przy tym na zdalny odczyt danych, jak też mogą być integrowane z systemami zarządzania flotą.

przejrzystość łańcucha dostaw. Drugie miejsce zajął Internet Rzeczy, a trzecie dywersyfikacja łańcucha dostaw. Na kolejnych miejscach znalazły się: odporność finansowa, cyfrowa transformacja, cyberbezpieczeństwo, innowacje w zakresie dostaw ostatniej mili, e-handel i gospodarka obiegu zamkniętego.

Jednocześnie, jak podają autorzy raportu, sektor logistyki jest trzecim co do wielkości użytkownikiem generatywnej sztucznej inteligencji na świecie. Jest ona wykorzystywana na wiele różnych sposobów, w tym do automatyzacji i optymalizacji procesów, takich jak planowanie, zaopatrzenie, czy podejmowanie decyzji. Służy to poprawie produktywności i efektywności działania, jak też pozwala rozwijać aplikacje służące optymalizacji tras statków przez dostosowanie ich do warunków pogodowych, wymogów bezpieczeństwa i czynników zużycia energii.

Nowe wyzwania, nowe role dla pracowników

Co ważne, wzrost zainteresowania wdrożeniami narzędzi bazujących na AI nie musi oznaczać likwidacji miejsc pracy w sektorze logistycznym. Badanie „Wpływ sztucznej inteligencji i technologii cyfrowych na prognozowanie popytu oraz zaawansowane zarządzanie zapasami w logistyce e-commerce: analiza ekonomiczna i społeczna”, przeprowadzone przez Politechnikę Mediolańską i Amazon, przy współpracy z Caio Digital Partners, pokazuje, że sztuczna inteligencja nie zastępuje ludzi, lecz tworzy nowe miejsca pracy optymalizując przy tym działalność przedsiębiorstw i przyczyniając się do zmniejszania ilości produkowanych odpadów. Jak podają autorzy raportu, 80 proc. uczestniczących w badaniu przedsiębiorstw skutecznie

przekwalifikowało pracowników do ról o wyższej wartości dodanej, tworząc dla nich nowe stanowiska i role zawodowe, w tym związane z analizą danych oraz planowaniem.

Z kolei 85 proc. badanych z firm logistycznych współpracujących z sektorem

W FIRMACH LOGISTYCZ-

NYCH WCIĄŻ ISTNIEJE DUŻE ZAPOTRZEBOWANIE

NA ZATRUDNIANIE LUDZI.

e-commerce, odnotowało poprawę efektywności realizowanych procesów oraz poprawę satysfakcji klientów. Przedsiębiorstwa, które wdrożyły AI, odnotowały poprawę dokładności prognozowania popytu, co przełożyło się na skuteczniejsze zarządzanie zapasami. Zwiększyła się dostępność produktów gotowych do wysyłki w chwili zamówienia. W wielu przypadkach możliwe stało się poszerzenie oferty za sprawą lepszego w ykorzystania przestrzeni magazynowej (40 proc. respondentów deklarowało odzyskanie do 20 proc. przestrzeni magazynowej). Poprawiła się także efektywność transportu dzięki osiągnięciu lepszych wskaźników ładowności pojazdów. Zauważono, poza tym, poprawę poziomu przejrzystości i integracji realizowanych procesów.

Jednocześnie, jak wynika z analiz Timocom, w firmach logistycznych wciąż istnieje duże zapotrzebowanie na zatrudnianie ludzi. Niezmiennie brakuje wykwalifikowanych kierowców i dyspozytorów, których rozwiązania bazujące na sztucznej inteligencji nie są w stanie zastąpić. Mogą jednak z pewnością wspomagać ich pracę, co już obecnie się dzieje. n

Wysoka cena

zmowy

Uzgadnianie cen i podział rynku odbywa się powszechnie. Nawet w kolejce po oscypki na Krupówkach.

Na wszelkich szkoleniach korporacyjnych od lat powtarza się jedno zalecenie: jeśli ktoś zaczyna rozmowę o uzgadnianiu cen – niezależnie czy chodzi o konkurencję, czy partnera z kanału dystrybucyjnego – natychmiast, pod jakimkolwiek pretekstem, należy oddalić się od stolika. Dlaczego? Bo samo przysłuchiwanie się takiej rozmowie może już nosić znamiona czynu zabronionego. Nie ma przy tym znaczenia, czy do ustaleń dochodzi formalnie, czy tylko „na słowo honoru” (gentleman’s agreement). Nawet jeśli zarząd o niczym nie wie, a rozmowa odbywa się w cztery oczy – to wciąż może to być naruszenie zasad uczciwej konkurencji: zmowa cenowa, przetargowa, podział rynku.

Co więcej, wiara w to, że „jak ustalimy sprawy na WhatsAppie, Telegramie albo Signalu, to nikt się nie dowie” – wyczer-

DWA MILIONY

KARY ZA SKASOWANIE PLIKU…

puje znamiona miejskiej legendy. Nawet przy szyfrowaniu end-to-end istnieją techniczne i operacyjne sposoby zdobycia dostępu do treści wiadomości. Przykładów z praktyki organów ścigania nie brakuje… Co nie zmienia faktu, że w 2002 roku sam stworzyłem program partnerski „Belinea Authorised Reseller”, w którym z rozkoszą zapisałem, że jeśli ktoś „sprzedaje rażąco poniżej sugerowanych cen detalicznych (SRP)”, to mam pełne prawo usunąć go z programu. Wówczas był to standard rynkowy.

A jak wygląda przeszukanie prowadzone przez UOKiK? Otóż wszyscy pracownicy firmy są proszeni o to, by natychmiast: wstali od biurek, nie dotykali klawiatury ani myszki, nie wyłączali komputerów, położyli przed sobą wszystkie urządzenia elektroniczne: telefony, tablety,

smartwatche (służbowe i prywatne!), na żądanie wylegitymowali się (czyli okazali dowód osobisty – nie przekazując go do ręki). Za utrudnianie kontroli grozi kara (do 50 mln zł dla firmy i 400 tys. zł dla pracownika).

Przykład z życia: ponad 10 lat temu UOKiK przeprowadził kontrolę z przeszukaniem w jednej z polskich firm z sektora FMCG. Podejrzenie? Zmowa cenowa. Efekt? Kara 2 mln zł dla firmy. Ale to nie koniec. Dodatkową karę 2 mln zł otrzymał jeden z wiceprezesów za utrudnianie kontroli (osoby fizyczne pełniące funkcje zarządcze mają wyższy pułap kar). W trakcie działań kontrolerów usunął z laptopa dokument potwierdzający ustalanie cen. Plik trafił do „Kosza”. Sęk w tym, że kontrolerzy nie zajęli się laptopem, tylko od razu zabezpieczyli backupy serwera. A tam – jak to w dobrze zarządzanym IT – była kopia zapasowa pliku i ślad „kasowania” już po momencie rozpoczęcia kontroli.

Sprawa trafiła do Sądu Najwyższego, który orzekł jednoznacznie: „przedsiębiorca ma obowiązek aktywnie współpracować z organem kontroli” i utrzymał karę: 2 mln zł za skasowanie pliku. Tymczasem uzgadnianie cen i podział rynku odbywa się powszechnie. Nawet w kolejce po oscypki na Krupówkach. Pytanie, czy wynika to z niewiedzy czy może z lekceważenia ryzyka, nasuwa się samo z siebie.

Marcin Babiak

Założyciel Kordo Edukacja i Fundacji Człowiek Może, gospodarz podcastu Rozmowy Inspirujące i wykładowca na Uczelni Łazarskiego.

Arcitecta, ExaGrid i HYCU: trzy odpowiedzi

na problemy z danymi

Rozrastające się silosy danych z jednej strony spędzają sen z powiek działom IT, z drugiej zaś stwarzają

szanse dla firm, które mają ciekawe pomysły na uporządkowanie chaosu w centrach danych.

Spotkanie IT Press Tour w Nowym Jorku pokazało, że mniejsi i mniej znani dostawcy technologii do zarządzania i ochrony danych wciąż znajdują przestrzeń do działania. Pod takim wszak warunkiem, że potrafią odpowiedzieć na konkretne problemy, których liderzy rynku nie rozwiązują wystarczająco dobrze lub nie robią tego w ogóle. Chaos w zarządzaniu danymi nieustrukturyzowanymi, wolne odzyskiwanie po ransomware, luki w backupie aplikacji SaaS to obszary, gdzie wciąż jest miejsce nie tylko dla największych graczy. Pytanie

WCIĄŻ JEST MIEJSCE NIE TYLKO

DLA NAJWIĘKSZYCH GRACZY.

brzmi: jak długo da się utrzymać przewagę, zanim lepsza okaże się bezpośrednia konkurencja lub rynek się skonsoliduje? Zarządzanie petabajtami nagrań wideo i audio nie jest zadaniem łatwym, a skala trudności rośnie, gdy trzeba odszukać konkretną scenę lub osobę, bez znajomości nazwy pliku. To wręcz codzienność studiów filmowych i instytucji przechowujących ogromne ilości danych. Przykładowo, National Film and Sound Archive w Australii wykorzystuje do tego celu system Arcitecta. Dane nieustrukturyzowane, czyli filmy, zdjęcia, nagrania audio, skany medyczne i dokumenty tekstowe stanowią około 80 proc. wszystkich informacji przechowywanych przez różne organizacje. Problem stanowi jednak nie tylko ilość plików, ale także lokalizacja. Najczęściej są porozrzucane po różnych serwerach, macierzach i dyskach pochodzących od różnych dostawców. Każda kolejna generacja sprzętu ozna-

cza jeszcze więcej chaosu. W rezultacie firmy tracą mnóstwo czasu na poszukiwanie plików.

– Znajdujemy się w erze, gdzie wszystko, co robimy, może być sterowane za pośrednictwem danych, ale tylko wtedy, gdy potrafimy do nich dotrzeć – mówi Jason Lohrey, CEO i CTO Arcitecta.

Misja Arcitecty jest prosta: zarządzaj wszystkimi danymi z jednego miejsca, niezależnie od tego, gdzie się znajdują. Firma powstała w 1998 r., a pięć lat później wprowadziła na rynek Mediaflux, system, który od ponad dwóch dekad ewoluuje wraz ze światem danych. W 2024 r. Arcitecta, wraz z Komprise, Hammerspace i Data Dynamics, została uznana za lidera w raporcie Coldago Research poświęconym rynkowi zarządzania danymi niestrukturyzowanymi. Australijczyków na tle konkurencji wyróżnia autorska technologia bazodanowa xoDB (XML-encoded Object Database), stworzona w 2010 r. jako wczesna forma NoSQL. To nie zwykły indeks systemu plików, lecz baza metadanych, która umożliwia obsługę w skali niemożliwej do „ogarnięcia” dla tradycyjnych rozwiązań.

– Źródłem naszego sukcesu jest potęga metadanych, znajdujących się w sercu wszystkiego, co robi Mediaflux. Nasz klient posiada ponad bilion obiektów w jednej przestrzeni nazw. Metadane przechowywane dla każdego pliku zajmują średnio tylko 75 bajtów – mówi Eric Polet, dyrektor Arcitecta ds. marketingu.

Gęstość bazy danych to stosunek faktycznie przechowywanych danych do całkowitej przestrzeni dyskowej. Wysoki współczynnik (np. 80 proc.) oznacza, że niewiele miejsca marnuje się na narzuty systemowe. To jeden z kluczowych wskaźników efektywności.

– W tym roku udało się nam dokonać przełomu i podwoić gęstość informacji w bazie danych. To Święty Graal, osiągnięcie tego celu zajęło nam wiele lat – mówi Jason Lohrey.

Kolejny krok to wektorowa baza danych zintegrowana z xoDB. Przechowuje ona nie tylko metadane, ale także wektory – matematyczne reprezentacje treści plików, które umożliwiają wyszukiwanie semantyczne. W praktyce działa to tak, że Mediaflux nie generuje tych wektorów samodzielnie, lecz orkiestruje cały proces. Wysyła dane do wyspecjalizowanych serwisów AI (np. Wasabi AIR), które rozpoznają twarze, wykrywają obiekty, odczytują tekst (OCR) i analizują mowę. Następnie przechowuje wygenerowane osadzenia wektorowe wraz z metadanymi w jednej bazie. Użytkownik może szukać informacji po nazwach plików, metadanych i treści jednocześnie. Na przykład „pokaż nagrania, gdzie występuje osoba X i mówi o temacie Y”, a system znajdzie odpowiedź. Rozwiązanie w wersji beta testuje wspomniane wyżej National Film and Sound Archive w Australii, dysponujące petabajtami materiałów.

ExaGrid rzuca rękawicę gigantom

W obliczu ewoluującego rynku pamięci masowych dla kopii zapasowych i rosnącego wyrafinowania cyberataków, kluczowe staje się nie tylko znaczenie wyspecjalizowanych dostawców technologii, ale i posiadanie silnego ekosystemu partnerskiego. ExaGrid realizuje tę strategię, a jej dyrektor generalny konsekwentnie podkreśla zalety płynące z wąskiej specjalizacji.

– Koncentrujemy się w 100 procentach na pamięci masowej dla kopii zapasowych. Jesteśmy rentowni od 19 kwartałów

Wojciech Urbanek, Nowy Jork

z rzędu i nie potrzebujemy pozyskiwać kapitału od zewnętrznych inwestorów. Nasza baza liczy obecnie 4800 aktywnych klientów – mówi Bill Andrews.

ExaGrid oferuje urządzenia do backupu dyskowego z funkcjonalnością deduplikacji. Linia produktów składa się z ośmiu modeli urządzeń o różnych pojemnościach. Ich cechą charakterystyczną jest dwuwarstwowa architektura. W strefie zapisu danych (Landing Zone) przechowywany jest najnowszy, pełny backup w formie niezdeduplikowanej. Następnie dane są deduplikowane i umieszczane w puli (Repository Tier), gdzie zajmują mniej miejsca. To z jednej strony przyspiesza odzyskiwanie najnowszych danych, z drugiej wymaga większej całkowitej pojemności dyskowej niż rozwiązania konkurencji stosujące deduplikację w locie. Druga warstwa przechowywania (Repository Tier) nie jest widoczna dla sieci, co teoretycznie uniemożliwia hakerom bezpośredni dostęp. Dodatkowe zabezpieczenie stanowi mechanizm opóźnionego usuwania, który przypomina działanie kosza w systemie Windows.

Bill Andrews dostrzega różnicę między modelami biznesowymi w warstwie aplikacji i sprzętu backupowego. – O ile w aplikacjach do backupu dominuje model subskrypcyjny, o tyle w przypadku urządzeń przeważa wciąż model CAPEX, który stanowi około 90 procent rynku – wyjaśnia przedstawiciel ExaGrid, jako główny powód podając długi cykl życia produktów. Klienci bowiem używają pamięci masowej do kopii zapasowych przez 6 do 9 lat, a w tej perspektywie czasowej zakup sprzętu na własność okazuje się tańszy niż trzyletni model subskrypcji. – Dyrektorzy finansowi rzadko chcą płacić stałe, wysokie opłaty operacyjne

za zasoby, których fizyczna wymiana nastąpi dopiero za wiele lat – argumentuje Bill Andrews.

Trend ten może się jednak zmieniać wraz z rosnącą popularnością rozwiązań hybrydowych i chmurowych, gdzie model subskrypcyjny wydaje się bardziej naturalny.

Ochrona danych w chmurze

Adaptacja SaaS w firmach oraz instytucjach postępuje w szybkim tempie, jednak wraz z nią pojawiają się kłopoty związane z ochroną danych. Model współdzielonej odpowiedzialności, na którym opiera się chmura, wciąż bywa źle rozumiany przez przedsiębiorstwa. Kluczowa zasada brzmi prosto: dostawca SaaS odpowiada za infrastrukturę i dostępność usługi, ale to klient jest właścicielem danych i odpowiada za ich ochronę. Gdy pracownik przypadkowo skasuje pliki w Microsoft 365 lub Google Workspace, usługodawcy przywrócą je z własnych kopii tylko w ograniczonym zakresie czasowymi. Po tym okresie dane przepadają, jeśli firma nie ma własnego backupu.

Jak wynika z raportu „The HYCU State of SaaS Resilience Report 2025″, przeciętna organizacja obsługuje obecnie 139 aplikacji SaaS. Niestety, aż 65 proc. respondentów doświadczyło co najmniej jednego naruszenia bezpieczeństwa w ciągu ostatniego roku, a wywołane tym zakłócenia kosztują średnio

ADAPTACJA SAAS W FIRMACH

400 tys. dol. Przy czym część specjalistów zwraca w tym kontekście uwagę na powszechne nieporozumienie:

– Wiele firm wychodzi z błędnego przekonania, że dostawca SaaS zajmie się wszystkim. Tymczasem utrata danych w środowisku chmurowym może być tak samo kosztowna jak awaria systemu lokalnego – mówi Subbiah Sundaram, starszy wiceprezes ds. produktu w HYCU.

HYCU rozpoczęło swoją działalność od backupu dla systemów Nutanix, aby następnie rozszerzyć ofertę o Google Cloud, Microsoft Azure i dziesiątki innych platform. Obecnie R-Cloud chroni dane dla ponad 90 obciążeń, od Microsoft 365 i Google Workspace po Jira Service Management i Box. Firma stawia na szybkość dodawania wsparcia dla nowych aplikacji SaaS, traktując to jako swój wyróżnik.

Jednym z przykładów tej strategii jest niedawna integracja z iManage – systemem zarządzania dokumentacją używanym przez 80 proc. największych kancelarii prawniczych na świecie. iManage nie oferuje natywnego backupu, co stanowi istotną lukę dla firm prawniczych przechowujących masę dokumentów i dowodów. HYCU wypełnia tę niszę, umożliwiając przechowywanie kopii zarówno w chmurze, jak i lokalnie, co w niektórych jurysdykcjach bywa wręcz wymogiem regulacyjnym.

Na początku 2025 r. HYCU przystąpiło do Dell Technologies Partner Program, co daje dostęp do sieci około 60 tys. partnerów handlowych Della na całym świecie. To znaczący skok zasięgu dla firmy, która tradycyjnie miała ograniczoną obecność poza Stanami Zjednoczonymi. Obecnie HYCU zyskało dostęp do rynków w Australii, na Bliskim Wschodzie i we Francji.

Usługi zarządzane zwiększają wartość

Niedawno zostałeś wykładowcą w Akademii Leona Koźmińskiego. Będziesz pomagał właścicielom firm IT, którzy chcą świadczyć usługi zarządzane. Jakimi doświadczeniami będziesz się z nimi dzielił?

Maciej Toroszewski Jeszcze w czasach mojej pracy w HPE byłem między innymi odpowiedzialny za sprzedaż HPE GreenLake’a, a więc platformy z rozwiązaniami as-a-service. To wtedy zderzyłem się z oporami zarówno ze strony własnego działu handlowego, jak i ze strony partnerów, którzy byli przyzwyczajeni do dużo łatwiejszego modelu transakcyjnego. W przypadku HPE GreenLake bowiem, co osobiście uważałem za bardzo motywujące i ciekawe, trzeba być wyjątkowo blisko klienta, żeby doskonale znać jego potrzeby i wyzwania biznesowe. W modelu subskrypcyjnym czy usługach zarządzanych nie pyta się potencjalnego użytkownika o to, ile – dajmy na to – serwerów potrzebuje – ale co konkretnie chce dzięki danemu wdrożeniu osiągnąć w kontekście biznesowym. To właśnie w HPE zdobyłem sporo doświadczenia w zakresie nowych modeli biznesowych i chcę się nimi

WPROWADZENIE MODELU

MSP WYMAGA KONKRETNEJ WIEDZY FINANSOWEJ.

firmy

„W przypadku usług zarządzanych nigdy nie jest tak, że jak coś raz poprawiłeś, to już

będzie odhaczone” – mówi Maciej Toroszewski, Customer Success Director w Meniga – UK Top FinTech Company w 2025.

podzielić ze słuchaczami „Akademii Business as a service”.

Tym bardziej, że obecnie zdobywasz kolejne doświadczenia, choć w innym sektorze rynku… Teraz pracuję w międzynarodowym fintechu, gdzie sprzedajemy software w modelu subskrypcyjnym. Obsługujemy bardzo wymagający sektor, bo banki są objęte wieloma wewnętrznymi i zewnętrznymi regulacjami. Dodatkowo, ponieważ robimy to na wielu rynkach, jest to okazja, żeby poznać, jak jest to realizowane w innych krajach. Podpisujemy z nimi wieloletnie umowy, więc jest to biznes zarazem trudny, ale też stabilny, podobnie jak ma to miejsce w przypadku podmiotów świadczących usługi zarządzane.

To, jak rozumiem, jeden z powodów, dla których inwestorzy dużo wyżej wyceniają Managed Services Providerów (MSP) niż bardziej tradycyjne firmy IT? W biznesie, w którym obecnie działam, ale też często w sektorze MSP, minimalna umowa na obsługę klienta wynosi 3 lata. A jeśli danej firmie udało się wyjątkowo mocno zintegrować z klientem, to jest duża szansa, że to będzie więcej niż 3 lata. Osoby na takich stanowiskach jak moje dbają o to, żeby tak właśnie się stało, a więc żeby użytkownik widział wartość w tym, co kupuje. Krótko mówiąc,

w sektorze MSP nie chodzi o jak największy jednorazowy strzał, ale dobrą dla obu stron umowę długoterminową. Dlatego inwestorzy przy wycenie mnożą roczne przychody dostawców MSP od 6 do nawet 8 razy. Rzecz jasna, wpływają na to jeszcze inne elementy, natomiast co do zasady ktoś, kto taką firmę kupuje, de facto kupuje przychody gwarantowane na minimum następne 3 do 5 lat. Jeśli zaś kupi bardziej tradycyjną firmę, która bazuje na pojedynczych transakcjach, to wystarczy, że odejdzie jeden kluczowy sprzedawca i biznes zadołuje w ciągu kwartału. To, siłą rzeczy, obniża wycenę firmy.

Z danych Canalysa wynika jednak, że ponad 20 proc. dostawców MSP boryka się z nierentownością. To nie jest dobra wiadomość…

To trochę tak, jak w przypadku chmury, która miała być takim „boskim” rozwiązaniem, jeśli chodzi o cyfryzację, tymczasem przyniosła ze sobą sporo problemów, w tym finansowych. Okazało się, że zarządzanie opłatami za infrastrukturę chmurową jest dramatycznie inne i dużo trudniejsze niż w przypadku tradycyjnych projektów wdrożeniowych. Z podobną sytuacją mamy do czynienia w przypadku sprzedaży i kupowania usług zarządzanych. Z punktu widzenia usługodawcy początkowo należy najczęściej liczyć się z wejściową inwesty-

www.crn.pl

www.crn.pl

www.crn.pl

facebook.com/crnpolska

cją w know-how, infrastrukturę, procesy i specjalistów. A płynące z tego przychody rozkładają się na kilka lat i dopiero po ich upływie ich łączny strumień jest pokaźny i stabilny. Wprowadzenie więc tego modelu w życie wymaga konkretnej wiedzy, także finansowej. Podobnie jak w przypadku chmury, to dało silny impuls do rozwoju finops. Chcemy tą wiedzę przekazać studentom „Akademii Business as a service”. Jeśli całą transformację do modelu MSP, od samego początku, dobrze się zaprojektuje, uwzględniając również aspekty finansowe, to wtedy „na koniec dnia” rentowność będzie osiągnięta. Zwłaszcza, że w ciągu trzyletniego kontraktu jest czas, aby z jednej strony optymalizować koszty, w tym poprzez automatyzację, z drugiej zaś realizować upsell, dodając punktowo kolejne usługi. A takich szans pojawia się naprawdę dużo ….

Wdrożenie nie kończy się bowiem na dostarczeniu oprogramowania i sprzętu, ale jest stałą, aktywną współpracą z klientem, na bieżąco… Tak właśnie. To jest niekończący się proces, którym trzeba aktywnie zarządzać. Na pewno nie jest to samograj, i to jest kolejna rzecz, o której będę mówił studentom. W przypadku usług zarządzanych nigdy nie jest tak, że jak coś raz poprawiłeś, to już będzie odhaczone. No nie, bo w przyszłym miesiącu znowu trzeba tego przypilnować – zobaczyć, co się zmieniło, przeanalizować sytuację, znowu coś poprawić, może wdrożyć w to miejsce coś innego… To jest ciągły proces z jednej strony kontroli, a z drugiej ciągłego udoskonalania. To

facebook.com/crnpolska

facebook.com/crnpolska

wyraźnie wpływa na rentowność całego projektu czy też całej takiej usługi i trzeba wiedzieć, jak przebiegają poszczególne procesy i aktywnie nimi zarządzać. Tym bardziej, że z każdym rokiem pojawiają się nowe metody dostarczania usług, które są prostsze i tańsze. Ostatnio ma to związek głównie z AI. Podsumowując, musimy stworzyć organizację, która cały czas się doskonali i sama siebie optymalizuje. I klienci bardzo to sobie cenią.

Czy i w jaki sposób dystrybutorzy mogą wspierać partnerów w rozwoju portfolio usług zarządzanych?

www.linkedin.com/company/crn-polska

Moim zdaniem powinni odegrać w tym zakresie wręcz kluczową rolę. Dlatego, że są katalizatorem całej branży i stanowią to „miejsce”, które po przyłożeniu do niego jakiegokolwiek wektora przyniesie ze sobą największy efekt. Owszem, producenci mogą namawiać do współpracy pojedynczych partnerów, ale efekt tego będzie słaby, bo rozproszony. Owszem, bez wsparcia ze strony dystrybucji rozwój rynku usług zarządzanych będzie postępował, ale znacznie wolniej. Warto przy tym zwrócić uwagę dystrybutorom, że to dla nich potencjalnie bardzo ciekawy biznes – dużo bardziej stabilny i przewidywalny niż klasyczna dystrybucja. Mam nadzieję, że podejmą rękawicę i pomogą zwiększyć potencjał polskiego sektora MSP, który tak czy inaczej będzie podążał za trendami na Zachodzie, gdzie usługi zarządzane są dużo bardziej popularne, bo wszystkie zainteresowane strony dostrzegają w nich konkretną wartość.

www.linkedin.com/company/crn-polska

www.linkedin.com/company/crn-polska

www.youtube.com/@crnpolska8

facebook.com/crnpolska www.crn.pl

Rozmawiał Tomasz Gołębiowski

Psychologia sprzedaży:

brakujący element strategii

Zarządy często zapominają, że handlowiec to nie trybik w maszynie, tylko człowiek z własnymi obawami, przekonaniami i potrzebami.

Już od ponad 28 lat pracuję w sprzedaży B2B – od rozwiązań IT, przez projekty infrastrukturalne, po zaawansowane systemy przemysłowe. Widziałem setki projektów, spotykałem tysiące klientów, współpracuję z zarządami, które chcą „naprawić sprzedaż”. Jak obecnie „naprawia się sprzedaż”? Większość programów konsultingowych koncentruje się na procesach, procedurach i KPI. Nowe CRM-y, kolejne tabelki, nowe cykle raportowania, pięknie zaprojektowane lejki. To wszystko jest ważne, ale jeśli ignorujemy psychologię sprzedaży, zmiany stają się powierzchowne i nietrwałe. Dziś, studiując psychologię i zgłębiając mechanizmy działania człowieka, widzę to jeszcze wyraźniej: strategia sprzedaży to nie tylko proces. To w pierwszej kolejności ludzie. Dlaczego zatem klasyczny konsulting

Jeśli pominie się motywacje i emocje ludzi, zmiany będą tylko chwilowym eksperymentem.

nie działa? Powiedzmy to wprost: wdrożenie nowego CRM-u nie sprawi, że handlowcy nagle zaczną robić follow-upy; nowa tabela KPI nie zmotywuje zespołu, jeśli handlowcy nie widzą sensu swojej pracy; cotygodniowe raporty nie poprawią wyników, jeśli „pod spodem” panuje lęk i opór wobec zmian. Klasyczny konsulting nie działa dlatego, że koncentruje się na strukturze, a nie na człowieku. A sprzedaż to biznes głęboko ludzki, relacyjny. Tu decydują emocje, percepcja, motywacja, nie tylko procedury. Zarządy często zapominają, że handlowiec to nie trybik w maszynie. To człowiek z własny mi obawami, przekonaniami i potrzebami.

Psychologiczne mechanizmy w sprzedaży

Pierwszym kluczowym mechanizmem jest lęk przed odrzuceniem. Badania po-

kazują, że odrzucenie aktywuje w mózgu te same obszary, co ból fizyczny. Dlatego wielu handlowców unika follow-upów nie z lenistwa, ale ze strachu przed kolejnym „nie”. Jeśli zarząd nie zrozumie tego mechanizmu, może tworzyć kolejne procesy, które i tak będą ignorowane. Kolejny mechanizm to opór wobec zmiany. Każda nowa procedura, każdy CRM, każdy nowy model sprzedaży to potencjalne zagrożenie dla poczucia bezpieczeństwa handlowca. W psychologii organizacji nazywamy to oporem wobec zmiany. Ludzie wolą „stare, znane schematy”, nawet jeśli są mniej skuteczne. I wreszcie niezwykle istotne są błędy poznawcze klientów, a przecież sprzedaż to nie tylko kwestia zespołu, ale i klientów. Decyzje zakupowe B2B często nie są racjonalne, bo wpływają na nie błędy poznawcze. Możemy tu wymienić: efekt potwierdzenia – klient szuka dowodów na to, co już wcześniej zdecydował; efekt status quo – łatwiej jest nic nie zmieniać niż podjąć decyzję ryzykowną; heurystykę dostępności – klient wybiera dostawcę, który pierwszy przychodzi mu do głowy, a niekoniecznie najlepszego. Jeśli zarząd nie bierze tego pod uwagę, traci szansę na realne zrozumienie procesu zakupowego.

Co się dzieje, gdy zarząd ignoruje

psychologię

Rozważmy kilka typowych i częstych sytuacji. Zacznijmy od systemu CRM jako „tabelki do wypełnienia”. Powiedzmy, że jakaś firma zainwestowała setki tysięcy w nowoczesny system CRM. Handlowcy dostali szkolenia, a zarząd oczekiwał szybkich efektów. Po trzech miesiącach… system był martwy. Dane były wpisywane niechętnie, często niepełne, a część transakcji w ogóle nie trafiała do systemu. Dlaczego? Bo nikt nie pomyślał o obawie (psychologia), że CRM stanie się narzędziem kontroli i karania.

Kolejny przykład niech dotyczy bezsensownych KPI. Przyjmijmy, że zarząd narzu-

cił nowe wskaźniki: więcej spotkań, więcej telefonów i więcej ofert. Handlowcy zaczęli je realizować, ale bez zaangażowania, tylko „dla raportu”. Efekt? Więcej aktywności, ale zero wzrostu wyników, bo problem nie leżał w KPI, ale w tym, że nikt nie odpowiedział na pytanie: „po co?”. I wreszcie posłużmy się przykładem oporu wobec zmian. Załóżmy, że firma zdecydowała się na nową strategię sprzedaży, opartą na digitalizacji. Handlowcy z większym doświadczeniem od początku byli sceptyczni. Zarząd wdrażał procedury, ale bez pracy nad obawami zespołu. W efekcie powstały dwa równoległe systemy: nowy, „na pokaz” i stary, nieformalny, w którym faktycznie działał zespół.

Procesy plus psychologia

Co zatem działa naprawdę? Przede wszystkim połączenie twardych procesów ze zrozumieniem psychologii. Dopiero synergia tych dwóch perspektyw daje realny efekt. Procesy same w sobie nie działają tak jak tego oczekujemy. To ludzie nadają im sens. Tymczasem psychologia sprzedaży to zbyt często brakujący element w strategiach wielu zarządów. Można inwestować w systemy, raporty i procedury, ale jeśli pominie się motywacje i emocje ludzi, zmiany będą tylko chwilowym eksperymentem, za który zapłacisz dużo i prawdopodobnie nie zobaczysz korzyści.

Dlatego uważam, że przyszłość skutecznego konsultingu sprzedaży to hybryda procesów i psychologii. Tylko jej zrozumienie i zastosowanie umożliwia trwałe zwiększenie wyników i budowanie organizacji odpornych na kryzysy.

jest założycielem Janczewski Business Consulting.

Sławomir Janczewski

7 wartości

w przywództwie IT

Jak budować nadzieję i zaufanie w świecie niepewności?

Jeśli wierzyć najnowszemu raportowi Gallupa „The Leadership Needs of Followers”, nadzieja jest numerem jeden wśród oczekiwań pracowników wobec liderów – przed zaufaniem, współczuciem i stabilnością. To się zresztą pokrywa z danymi Deloitte’a: aż 57 proc. przedstawicieli pokolenia Z i millenialsów deklaruje, że ich decyzje zawodowe coraz częściej wynikają z wartości, a nie tylko benefitów czy awansów („2024 Gen Z and Millennial Survey”).

To nie znaczy, że musisz być „liderem z  TED-a”, ale znaczy, że musisz być autentyczny. Pokazać, że wiesz, dokąd zmierzacie jako organizacja – nawet jeśli droga będzie kręta.

Raport mówi jasno: młodzi ludzie (18–29 lat) potrzebują liderów, którzy dają im

nadzieję. Aż 57 proc. atrybutów przypisywanych najbardziej pozytywnym liderom w ich życiu wiąże się z nadzieją. To prawie dwa razy więcej niż zaufanie (32 proc.)! I nie chodzi tu o puste motywacyjne hasła, ale o prawdziwe przekonanie, że jest sens, jest kierunek, jest przyszłość, w którą warto iść. Przy czym im wyżej jesteś w organizacyjnej hierarchii, tym bardziej ta odpowiedzialność rośnie. Gallup pokazuje, że aż 64 proc. osób oczekuje nadziei od głównych liderów, podczas gdy od bezpośrednich menedżerów – 59 proc. Różnica? Mała tylko na papierze. W rzeczywistości oznacza to jedno: im wyższe stanowisko, tym większa potrzeba, by dawać ludziom kierunek, a nie tylko zadania i procesy. Co więcej, aż 34 proc. zatrudnionych wskazuje lidera ze swojego środowiska pracy jako osobę wywierającą pozytywny wpływ na ich życie (tylko rodzina jest silniejsza, ze wskaźnikiem na poziomie 44 proc.). A to znaczy, że jako lider nie jesteś „częścią firmy”. Jesteś częścią czyjegoś życia. I masz ogromną moc, którą

Nie tyle stabilność, co przywództwo

Krzysztof Kozakiewicz

albo zdołasz wykorzystać, albo zmarnujesz.

bą zrealizowanych zadań. Mierzy się tym, czy zespół chce za nim iść. Rzecz jasna, liczby są ważne, a procesy konieczne, ale to nie one sprawiają, że ludzie chcą za tobą iść.

W czasach niepewności najważniejsze pytanie, jakie zespół zadaje liderowi, brzmi: „Czy to, co robimy, ma sens – i czy naprawdę idziemy tam razem?”. Jeśli potrafisz odpowiedzieć: „Tak. Wiem, dokąd zmierzamy. I jesteś tu potrzebny(a)”, to znaczy, że jesteś liderem, którego ten świat dziś potrzebuje.

Autor pełni funkcję CEO firmy szkoleniowej Conlea. RZECZYWISTOŚĆ STAŁA SIĘ ZBYT ZŁOŻONA, ŻEBY JĄ ZAMKNĄĆ W WYKRESIE GANTTA I KPI.

Jeszcze kilka lat temu od menadżera projektu oczekiwano jednego: żeby dowiózł. Budżet, deadline, zakres – klasyczne święte trio. Ale jak pisze PMI w swojej prognozie na lata 2025–2030, ten model właśnie się rozpada. Nie dlatego, że był zły, ale dlatego, że rzeczywistość stała się zbyt złożona, żeby ją zamknąć w wykresie Gantta i KPI. W nowym świecie wygrywają ci, którzy potrafią coś znacznie trudniejszego niż „zarządzanie projektami”. Wygrywają ci, którzy tworzą znaczenie, budują relacje, wytrzymują niepewność – i robią to w taki sposób, że inni chcą za nimi iść. W grze są dziś inne karty: inteligencja emocjonalna, umiejętność słuchania, refleksja strategiczna. To już nie delivery person. To architekt zaufania. Ktoś, kto potrafi przełożyć wizję firmy na realne zachowania zespołu. Ktoś, kto rozumie presję, ale nie przenosi jej jak gorącego ziemniaka – tylko przekształca ją w kierunek. Ktoś, kto w poniedziałek rano potrafi powiedzieć: „Nie wiem wszystkiego, ale wiem, że jesteśmy w tym razem. I wiem, dlaczego to robimy”.

Tacy liderzy nie tylko dowożą. Oni trzymają drużynę przy życiu, nawet jeśli roadmapa się zmienia, a piąty sprint z rzędu przypomina bardziej maraton z przeszkodami niż zwinny taniec. I wiecie co? Według Gallupa, to właśnie takich liderów ludzie zapamiętują jako najbardziej wpływowych w swoim codziennym życiu – nie tych z plakatu, ale tych, którzy dawali im nadzieję, zaufanie, empatię i poczucie bezpieczeństwa. To jest leadership, a nie tylko management. Krótko mówiąc, skuteczny lider organizacyjny w roku 2025 już nie tylko dowozi – on łączy. W świecie AI, hybrydowych zespołów i niepewności geopolitycznej, skuteczności lidera nie mierzy się licz-

7 oczekiwań wobec liderów

1. Budowanie relacji – bo w zespole najpierw jesteśmy ludźmi, potem rolami.

2. Rozwijanie ludzi – nie musisz być coachem, ale nie bądź też strażnikiem stagnacji.

3. Inspirowanie przez pozytywność – nie chodzi o lukier, tylko o autentyczne „razem damy radę”.

4. Jasna komunikacja – mniej slajdów, więcej sensu.

5. Prowadzenie zmian – nie pytaj czy, tylko jak i z kim.

6. Krytyczne myślenie – bo lider nie tylko patrzy na dane, ale widzi też, czego nie widać.

7. Tworzenie odpowiedzialności –bez mikrozarządzania, za to z zaufaniem.

które nie wyglądają jak wojna

Z perspektywy czasu pewne rzeczy zaczynają wyglądać inaczej, zwłaszcza w obecnej, niezwykle rozedrganej emocjonalnie rzeczywistości.

Rano włączam ekspres do kawy. Jeszcze dobrze się nie obudziłam, a telefon już bombarduje newsami. Alerty, nagłówki, nagrania. „Rosyjskie drony nad Polską”, „Polskie wojska odpaliły broń”. Myślę sobie – jest poważnie… Pierwsze, co robię, to w „wiarygodnych źródłach” szukam informacji, które powstały trzy minuty temu. Odpalam więc strony rządowe i co widzę – wielki napis „Uwaga na dezinformację” (dotyczący dronów). Z kolei w mediach społecznościowych huczy, a w tle przemawia jeden z ministrów – uspokajając nastroje. I nagle ta nieludzko współczesna myśl: czy ja jeszcze słucham prawdziwego człowieka, czy może już nie? Działam w branży technologicznej od ponad dwóch dekad i jeśli ja łapię się na takiej refleksji, to co czuje ktoś, kto nie rozumie, z jaką rzeczywistością się dziś mierzymy.

trwa „bitwa na narracje”, w komunikatorach toczy się gra w głuchy telefon, a na platformie X trwają potyczki na piksele i caps locki. To właśnie jest to „kinetyczne inaczej”: mniej huku, więcej echa. Tak – to dotyka również Polski. Kiedy nad naszym niebem pojawiają się obce drony, równolegle w sieci startuje fala dezinformacji: memów, „analiz”, osądów. Algorytm nie zna prawdy. Zna zaangażowanie. Jeśli prawda jest nudna, prawda przegrywa. To wzorzec nowej normalności, w której my, ludzie biznesu, powinniśmy się umieć odnaleźć. Współcześni liderzy muszą odróżniać szum od sygnału i utrzymać spokój operacyjny zespołów.

Co z tym robi lider?

LIDERZY MUSZĄ ODRÓŻNIAĆ SZUM OD SYGNAŁU I UTRZYMAĆ SPOKÓJ OPERACYJNY.

Wczoraj wysłuchałam wprowadzenia do Mapy Trendów opracowanej przez prowadzoną przez Natalię Hatalską firmę badawczą infuture.institute. Jeden z omawianych megatrendów nazwano „Świat wojen”. I nie chodzi tylko o te, które mają granice na mapie. Dziś pojęcie „wojna” ma aspekt wielowymiarowy. Mamy wojny kognitywne, hybrydowe, wojny międzypokoleniowe, kulturowe, energetyczne, o zasoby, handlowe czy kosmiczne. Najkrótsza definicja współczesnych wojen to ta, w której pierwszą linią frontu stajesz się Ty – Twój wzrok, słuch, podatność, zaufanie.

W starym świecie rozpoznawało się wojnę po czołgach. W nowym – po tym, że zanim skończysz pić poranną kawę, ktoś już próbuje zburzyć Twój spokój. Na TikToku

Nie będę udawać, że wystarczy „zachować spokój”. W sytuacjach kryzysowych spokój bez planu (procedury) prowadzi do chaosu. Dlatego zanim zaczniesz działać upewnij się, że wiesz co jest prawdą. Wojny kognitywne „celują” w percepcję i osąd. To nie termin publicystyczny, tylko kierunek realnych działań opisywany w NATO i badaniach akademickich. Celem nie zawsze jest zniszczenie infrastruktury, ale rozchwianie zaufania: do państwa, do instytucji, do siebie nawzajem. Wystarczy, że zaczynasz – podobnie jak ja – zastanawiać się, czy przemawiający na Instagramie minister Gawkowski jest prawdziwą postacią z prawdziwym przekazem czy może tą wygenerowaną przez AI — a już jesteś w polu rażenia.

U nas w Engave, w sytuacjach wysokiego szumu informacyjnego, najlepszym „narzędziem” bywa… dyscyplina decyzyjna. Z góry ustalamy: kto w organizacji potwierdza fakty? Kto komunikuje? Kto uruchamia plan/ procedurę? Zespoły oddychają spokojniej, gdy wiedzą, że prawda ma właściciela i istnieje proces jej weryfikacji. Ja osobiście taki szum traktuję jak każdy inny incydent cy-

ber: jest zdarzenie, są źródła, jest decyzja, jest komunikat. Tyle że w „świecie wojen” pierwszą ofiarą bywa czas reakcji.

Jak to robić mądrze: trzy zasady

Pamiętaj, zanim podniesiesz alarm, podnieś wartość informacji. Zanim coś ogłosisz zespołowi, klientom, partnerom biznesowym, sprawdź informację w dwóch niezależnych źródłach. Zrób wcześniej listę kontaktów o wysokiej wiarygodności. Jeśli nie masz dwóch potwierdzeń – mówisz „jeszcze nie wiem/sprawdzam”. Ponadto prawda musi mieć właściciela. W kryzysie ludzie chcą wiedzieć, kto mówi prawdę i gdzie jej szukać. Jedna wyznaczona osoba podejmuje decyzje w ciągu 5 minut. Zatwierdza fakty i komunikaty. Ustalacie jeden kanał komunikacji, jeden numer telefonu, który zawsze odbiera. Demokracja w informowaniu brzmi świetnie, ale w chaosie zamienia się w chór bez dyrygenta. I jeszcze jedna ważna kwestia, czyli rytuały zamiast nerwów. Wprowadź cykliczne ćwiczenia procedury kryzysowej na sucho. Wymyślcie z zespołem kilka scenariuszy i potrenujcie jej zastosowanie.

W powyższym kontekście możecie przygotować sobie zestaw pytań: kto to mówi? Co dokładnie twierdzi? Kiedy to się wydarzyło? Gdzie (miejsce, link, źródło)? Dlaczego rozpowszechnia tę informację? Na koniec trzeba zadbać o dowód: zrzut ekranu z datą, numer zgłoszenia, logowanie – cokolwiek, co da się sprawdzić.

Wiem, kiedyś wszystko było „prostsze”. Ktoś mówił – my wierzyliśmy. Dziś ktoś mówi, a my pytamy: czy to jest prawdziwe? I tu, pozwólcie, odrobina sarkazmu. Gdy słyszę hasła „nie dajmy się manipulować”, to myślę: świetnie, tylko jak? Przycisk „nie wciągaj mnie w tę grę” jeszcze nie istnieje.

„Świat wojen” ma jeszcze jedną warstwę: wojnę o tempo. Ci, którzy sieją szum, kochają pośpiech. „Udostępnij teraz! Reaguj natychmiast!” – to ich ulubione narzędzia. Nasze brzmią gorzej na banerach, ale wygrywają w praktyce: sprawdź, nazwij, zakomunikuj, monitoruj.

Jestem fanką technologii. To mój świat, moja praca, moja pasja. Jednak w najgłośniejszych chwilach przypominam sobie o rzeczach z lamusa: prawda jest wydarzeniem społecznym. Nie rodzi się sama. Tworzymy ją przez cierpliwe dopytywanie, przez odwagę powiedzenia „nie wiem”, przez gotowość, by skorygować własny błąd publicznie.

Czy to znaczy, że mamy żyć w lęku? Nie. Mamy żyć w uważności, a to duża różnica. Lęk zamyka, uważność otwiera: na innych, na fakty, na wspólne działanie. A wspólnota – ta zwykła, codzienna – nadal działa jak najlepsza tarcza. Nikt nie wysadzi w powietrze więzi zespołu, który nauczył się słuchać i szukać sprawdzonej prawdy, zanim osądzi i udostępni dalej.

Na koniec – coś bardzo prywatnego. Gdy patrzę na rosnący szum, mam czasem odruch, by… wyłączyć wszystko i jak najszybciej wrócić z powrotem na morze, gdzie zasady są proste. I wtedy wraca myśl, od której zaczęłam: jeśli ja wątpię, tym bardziej potrzebna jest moja odpowiedzialność względem zespołu. Lider nie musi krzyczeć głośniej. Musi świecić jaśniej, gdy gasną latarnie.

Adrianna Kilińska

sprawuje funkcję CEO w firmie Engave, odznaczonej tytułem IT Master 2025.

AI w praktyce

Większość respondentów ankiety na portalu CRN.pl wprowadziło już do oferty przynajmniej jedno rozwiązanie bazujące na GenAI lub Agentic AI.

Chociaż 52 proc. ankietowanych przez nas firm IT nie oferuje swoim klientom produktów bazujących na obu wspomnianych wyżej rodzajach sztucznej inteligencji, to większy odsetek (sumarycznie 58 proc.) wprowadziło do portfolio rozwiązania oparte na GenAI (5 proc.), Agentic AI (3 proc.), bądź przy wykorzystaniu obu tych rodzajów (40 proc.). W ten sposób odpowiadają na potencjalnie rosnący popyt na tego typu systemy czy aplikacje.

Jak bowiem wynika z danych Gartnera, 77 proc. szefów ds. usług i wsparcia technicznego odczuwa presję ze strony kadry kierowniczej wyższego szczebla, aby wdrażać AI. Jednocześnie 75 proc. deklaruje wzrost budżetów na inicjatywy AI w porównaniu z ub.r. Według analityków typowy lider planuje dodać 5 nowych stanowisk w przeliczeniu na pełny etat w ciągu najbliższych 12 miesięcy, aby zarządzać tymi inwestycjami.

Szefowie potrzebują AI przede wszystkim do poprawy efektywności, doświadczenia klienta i generowania leadów. Według badania najważniejsze przypadki użycia sztucznej inteligencji w obsłudze klienta i wsparciu technicznym dzielą się na cztery obszary. Co nie zaskakuje, należy do nich Agentic AI do obsługi złożonych przepływów pracy i wieloetapowych zgłoszeń serwisowych. Do tego dochodzą narzędzia AI wspomagające agentów, takie jak podsumowania treści, szybkie odpowiedzi, analizy danych klientów i rekomendacje. Umożliwiają one agentom bardziej spersonalizowane i skuteczne działanie. Kolejny obszar zastosowania AI to samoobsługa niewymagająca wysiłku. Tutaj do akcji wchodzą asystenci wirtualni i zaawansowane funkcje wyszukiwania, które

pomagają klientom szybko i samodzielnie rozwiązywać problemy. Ważna jest też automatyzacja wsparcia operacyjnego, co usprawnia procesy back-office. Automatyzuje powtarzalne zadania i dostarcza praktyczne wnioski.

– Organizacje, które priorytetowo traktują te istotne przypadki użycia, będą miały najlepszą pozycję do osiągnięcia doskonałości operacyjnej, zapewnienia klientom

SZEFOWIE POTRZEBUJĄ

dobrych doświadczeń i utrzymania przewagi w szybko rozwijającym się środowisku AI – uważa Keith McIntosh, starszy dyrektor ds. badań w dziale obsługi klienta i wsparcia w Gartnerze.

Warto jednak dodać, że według badania 7N jedynie 8 proc. firm deklaruje skuteczność wdrożonych przez nich rozwiązań bazujących na sztucznej inteligencji.

W ankiecie wzięło udział 106 respondentów – czytelników portalu CRN.pl.

Czy Twoja firma wprowadziła do oferty rozwiązania bazujące na GenAI i/lub Agentic AI? Tak, GenAI

„Ławka”,

czyli mityczny byt firm usługowych IT

Z powodów biznesowych i intelektualnych warto omówić, skąd wziął się pomysł „ławki” w sektorze IT,

jak też dlaczego nieźle się sprawdzał, aby sprawdzać się przestał, nie tylko zresztą w Polsce.

Taka „ławka” to prosta rzecz. Zatrudniasz ludzi na zapas, sadzasz ich na „ławce” (bench time) i czekasz, aż wpadnie jakiś projekt. A jak wpadnie, to masz ludzi gotowych, pod parą i możesz zacząć działać od razu. Tak działały duże firmy w sektorze IT, głównie te z Indii, ale nie tylko, w przypadku których nawet do 30 proc. ludzi mogło „siedzieć na ławce” w oczekiwaniu na kolejny projekt. Jak ten się wydarzył, to ładowało się samoloty i wysyłało klientowi „konsultantów”, którzy generowali zajęcie dla tych, co pozostawali w HQ (czy satelitach). Dlaczego to działało? Odpowiedź jest prosta – „arbitraż ceny”. Zatrudniasz tanio i sprzedajesz drogo, przeważnie na innym rynku niż rodzimy. Jak masz źródło tanich ludzi, to nadal jak ich sprzedasz, marża pozwala Ci pokryć koszt tych, którzy siedzą i czekają, i jeszcze na tym zarobić.

„ławka” zamienia się w kłopotliwy balast. W zależności od polityki i kondycji firmy, balast odrzuca się od razu, albo… próbuje się najpierw trochę wypompowywać wodę tam, gdzie cieknie, a dopiero potem wyrzuca się balast.

”Ławka” a sprawa polska

W jednym z tomów „Kajko i Kokosza” jeden z bohaterów orzekł: „Na słowo działało, na słowo przestało”. Przez jakiś czas polskie IT w zakresie tak zwanych „kontraktorni” lub software house’ów jechało w większości na arbitrażu w zakresie (po pierwsze) różnic zarobkowych w Polsce i na Zachodzie; (po drugie) różnic kursowych złotego względem euro i dolara; (po trzecie) korzystając z otoczenia finansowego, a konkretnie ZIRP – Zero Intrest Rate Period (czytaj: kasa jest tania [w dol.], więc ładujemy ją w startupy, bo nic nas to nie kosztuje, a może coś zarobimy).

branie, to da się coś ugrać (czytaj: podwyżki). W rezultacie pensje w okresie Covida szły w górę 20–30 proc. rok do roku. Przy czym fakt, że pensje w Polsce szły w górę, nie oznaczało, że udało się ten wzrost kosztów proporcjonalnie przenieść na klientów w cenach usług. No, ale orkiestra wciąż grała i dopiero z czasem przyszła (spóźniona nieco) reakcja rynku – w postaci podniesienia stóp procentowych i inflacji, co przełożyło się na przykręcenie kurka z tanimi pieniędzmi. I nagle: zniknął albo mocno zmniejszył się margines w arbitrażu (pensje szły w górę, a stawki nie). Przykręcił się kurek z pieniędzmi u klientów (koniec ZIRP, wyższe stopy procentowe oznaczające mniejsze inwestycje w startupy itp.). I muzyka przestała grać. W takich warunkach „ławka” staje się balastem i nie ma na nią miejsca w modelu biznesowym firmy usługowej, więc się ją „odrzuca”.

Czy to miało zalety? No jakieś tam miało. Można było wysłać do klienta ludzi „na już” (to nic, że takich nie na temat, ale body count się zgadzał). Można było robić rzeczy „za darmo” (ulubiona taktyka sprzedaży), chociaż to nigdy nie jest za darmo. Można było zabrać ludzi konkurencji. Więc coś tam się da przypisać jako „zaletę”.

Gdzie wady? No cóż, nie trzeba być geniuszem (bo to nie jest trudny biznes), żeby je zauważyć. Przy wzroście kosztów (typu płace itp.), o ile nie możesz przełożyć tych kosztów na klienta końcowego, ławka ciąży coraz bardziej. Jeżeli zmieniają się warunki arbitrażu, chociażby ze względu na różnice kursów walut, to zacieśnia się różnica w „arbitrażu ceny”. Jeżeli spadnie ilość nowych projektów, to nie masz gdzie „upychać” ławki. I wtedy

A potem przyszedł Covid. Najpierw była panika, ponieważ wszystko się zaczęło zatrzymywać, nie wiadomo co będzie się działo i niebo spadnie nam na głowę. Ci, którzy byli „na bogato” zaangażowani w model „ławki” zaczęli szybko i sprawnie upuszczać balast. Ale… wydarzyła się niespodzianka, bo nastąpiło „V shaped recovery” i wzrosło gwałtownie zapotrzebowanie na ludzi w IT i dookoła niego. Do tego wpadło trochę „helicopter money” i pieniędzy na rynku było jeszcze więcej. W efekcie szanse „arbitrażu ceny” jeszcze wzrosły (wolumen) i zaczęto zatrudniać na łeb, na szyję, zapełniając zarówno pipeline z projektami, jak i „ławkę”.

Dlaczego ławkę? Oczywiście żeby konkurencja ich nie wzięła, zwłaszcza że zajęcia nie zabraknie w świetle przybywających wciąż projektów. Pełen optymizm! W takiej sytuacji pracownicy, nie w ciemię bici, zorientowali się, że jak jest

To, że muzyka przestanie grać, przy takiej dynamice na naszym rynku, było widać już dużo wcześniej. Przynajmniej jeżeli ktoś zwracał na to uwagę. Kto się szybciej ogarnął (albo ogarnął to już wcześniej) to wyszedł z tego mniej poharatany i pewnie mniej zwalniał. Kto się nie ogarnął albo po prostu trzymał się starego modelu, upuszczał balast tak długo, aż wypłynął na powierzchnię. Obecnie coś takiego jak „ławka” nie ma już zbytniego sensu dla firm usługowych. Muzyka może nie ucichła zupełnie, ale gra zbyt cicho, aby do niej szczególnie zapamiętale tańczyć.

Tomasz Onyszko jest gospodarzem podcastu CTO Morning Coffee.

Europejski problem

z produktywnością

Produktywność pracy w Europie jest dziś aż o 24 proc. niższa niż w USA. To znaczny spadek w porównaniu do 2005 r., kiedy to przeciętny europejski pracownik wytwarzał 85 proc. tego, co jego amerykańscy odpowiednicy.

Tomasz Gołębiowski

Najnowszy raport Accenture „Europe’s AI reckoning: Reinventing industries for a new era” wskazuje na ogromną lukę w produktywności pomiędzy Stanami Zjednoczonymi a Europą. Według badania przeciętny europejski pracownik wytwarza obecnie jedynie 76 proc. tego, co jego odpowiednik po drugiej stronie Atlantyku.

Autorzy raportu za główną przyczynę tej rosnącej przepaści uważają niedobór inwestycji. Przykładowo, licząc od 2017 r. amerykańskie firmy opracowały 70 proc. podstawowych modeli AI, a USA obecnie posiada około 70 proc. globalnej mocy obliczeniowej wykorzystywanej do sztucznej inteligencji, w porównaniu z zaledwie 4 proc. w Europie. Inwestycje w big data i analitykę, a także w bezpieczeństwo w USA przewyższają europejski poziom dwukrotnie, a poziom inwestycji w sztuczną inteligencję jest prawie 3-krotnie wyższy niż w Europie.

Pomimo że opublikowany niedawno raport Mario Draghiego na temat konkurencyjności Europy wskazuje AI jako potencjalne rozwiązanie problemu produktywności, badanie Accenture wy-

POTENCJAŁU AI NIE WYKORZYSTUJE MIĘDZY INNYMI SEKTOR PRZEMYSŁOWY.

kazało, że europejskie firmy wciąż nie wykorzystują w pełni szansy, jaką daje ta technologia. Obecnie ponad połowa (56 proc.) z 800 dużych europejskich firm objętych badaniem nie wdrożyła jeszcze żadnego rozwiązania w AI na skalę operacyjną. Dodatkowo według badania Komisji Europejskiej tylko 13 proc. firm w Europie korzysta ze sztucznej inteligencji, chociaż w przypadku większych firm odsetek ten wzrasta do 41 proc. Wolne tempo wdrożeń technologii ma swoją cenę: szacuje się, że w ciągu ostatnich dwóch lat europejskie firmy straciły z tego powodu 3,2 biliona dol. przychodów. – W czasach rosnącej niepewności geopolitycznej znalezienie sposobu na zmniejszenie luki produktywności w Europie jest ważniejsze niż kiedykolwiek. W tym celu firmy muszą znacząco przyspieszyć wdrażanie rozwiązań opartych na sztucznej inteligencji, nie tylko w formie pilotaży, ale na skalę operacyjną. Choć wiele z nich podejmuje pierwsze kroki, potrzebne są bardziej zdecydowane działania: intensywniejsze wykorzystanie chmury, modernizacja architektury danych oraz inwestycje w rozwój kompetencji – mówi Dawid Osiecki, dyrek-

tor zarządzający i Head of Data & AI w polskim oddziale Accenture.

Europa na cyfrowym zakręcie

Omawiane badanie wykazało ponadto, że duże europejskie firmy wdrażają AI szybciej niż mniejsze, co biorąc pod uwagę ich większy w porównaniu z USA udział w gospodarce może dodatkowo pogłębić problem niskiej produktywności i konkurencyjności w regionie.

Poziom adopcji AI różni się także w zależności od branży. Sektory takie jak motoryzacja, lotnictwo i obronność są liderami we wdrażaniu rozwiązań AI, podczas gdy inne – w tym telekomunikacja i usługi komunalne – pozostają w tyle. Raport podkreśla, że niski poziom dojrzałości AI w sektorach o strategicznym znaczeniu dla infrastruktury (takich jak systemy energetyczne czy sieci cyfrowe) stanowi poważne zagrożenie dla konkurencyjności i suwerenności Europy. Nadchodząca ustawa UE o rozwoju chmury i AI ma na celu co najmniej potrojenie zasobochłonnych i tzw. zrównoważonych mocy przetwarzania danych do 2030 r. Zapotrzebowanie na energię elektryczną w Europie w ciągu najbliższych 5 lat ma wzrosnąć o 70 proc.

Pełnego potencjału AI nie wykorzystuje także sektor przemysłowy – odpowiadający za ponad jedną czwartą PKB Europy. Tymczasem, gdyby wszystkie duże europejskie przedsiębiorstwa (o przychodach przekraczających 1 miliard euro) rozwinęły swoje kompetencje AI do poziomu amerykańskich odpowiedników z wiodących branż, według szacunków Accenture ich roczne przychody mogłyby wzrosnąć o prawie 200 mld euro.

Raport identyfikuje także kluczowe zasoby – od danych po kapitał ludzki – które są niezbędne do osiągania wartości biznesowej z inwestycji w AI. W tym celu w Europie musi powstać ekosystem AI obejmujący wsparcie mniejszych firm w rozwoju ich kompetencji AI i operujący w ramach skoordynowanej strategii przemysłowej. Równie istotna jest edukacja i rozwój kompetencji pracowników. W UE na milion mieszkańców co roku przypada 850 absolwentów STEM, ale w USA jest ich ponad 1100.

Hiperskalerzy na krzywej rosnącej

W sumie 60 proc. partnerów w kanale sprzedaży IT spodziewa się

w tym roku wzrostu przychodów, pomimo niepewności gospodarczej i rosnących kosztów prowadzenia działalności – wynika z raportu „GTM

Channel Decision Maker Survey”.

Dane uzyskane przez analityków Futurum Research zostały zebrane wśród firm IT w USA i Europie Zachodniej, niemniej dość liczna i opiniotwórcza grupa badawcza sprawia, że warto bliżej przyjrzeć się wynikom tegorocznego raportu. Tym bardziej, że wyjątkowo duży odsetek respondentów wskazuje, że AI (86 proc.) oraz cyberbezpieczeństwo

Opr. Tomasz Gołębiowski

(82 proc.) – zwłaszcza w modelu usług zarządzanych (MSP/MSSP) – to kluczowe kategorie, które mają decydujący wpływ na rozwój biznesu w 2025 r. Jednocześnie za „kręgosłup transformacji cyfrowej” uważana jest infrastruktura w chmurze (IaaS, PaaS), którą sprzedaje 61 proc. respondentów, a 79 proc. uważa, że będzie to główny obszar wzrostu ich biznesu.

Rekomendacje dla producentów

l Ponieważ oprogramowanie AI (86 proc.) staje się kluczową kategorią wzrostu dla partnerów, dostawcy muszą skupić się na umożliwieniu swoim społecznościom partnerskim za pomocą swoich ofert sprostanie rosnącemu zapotrzebowaniu klientów.

l Ponieważ 87 proc. respondentów zgłasza częste zakupy za pośrednictwem hiperskalerów, firmy zajmujące się oprogramowaniem powinny zoptymalizować swoją obecność na rynku, wzmocnić partnerstwa z AWS, Microsoft i Google oraz usprawnić procesy zamówień.

l Partnerzy oczekują od dostawców wsparcia technicznego, a narzędzia programistyczne, wsparcie techniczne i programy szkoleniowe znajdują się wysoko na liście rzeczy, na które społeczność ma zapotrzebowanie. Programy partnerskie są postrzegane jako niezwykle ważne (64 proc.), aby umożliwić partnerom dostęp do tego typu ofert.

Sprzyja temu stały popyt na rozwiązania hybrydowe i multi-cloud, a do trójki tych najważniejszych, strategicznych dostawców, zaliczają się: Microsoft (69 proc.), AWS (66 proc.) i Google Cloud (54 proc.). Generalnie, 87 proc. partnerów w sektorze IT regularnie dokonuje transakcji korzystając z oferty hiperskalerów. Co ważne, 66 proc. sprzedawców aplikacji korporacyjnych typu CRM i ERP spodziewa się, że przyczynią się one do spodziewanego wzrostu obrotów

Europa upadnie…

Czy współczesna Europa jest do jakichkolwiek konkretnych, konstruktywnych decyzji i działań zdolna?

Utrata zdolności decyzyjnych Europy jest konsekwencją utraty podmiotowości. Nagle władze Unii Europejskiej dostrzegły, że straciła ona – a właściwie nigdy nie miała – podmiotowości w zakresie obronności. Zapewnienie bezpieczeństwa było od dawna outsourcowane do Stanów Zjednoczonych. Podobnie jak produkcja

jest outsourcowana do Chin, co w pewnym momencie doprowadziło do uświadomienia sobie, że utraciliśmy także podmiotowość w zakresie wytwórczym. Pozostają jeszcze siła finansowa i technologiczna, które mogą stanowić argument utrzymujący naszą pozycję na geopolitycznej szachownicy, ale i to szybko ulega Czy i dlaczego

zmianie. Wpływy polityczne podlegają argumentom siły militarnej, determinowanej zdolnościami wytwórczymi, którym coraz trudniej się przeciwstawić z powodu utraty zdolności decyzyjnej. Tworzy się zamknięte koło, a właściwie wir, który wciąga Europę wciąga Europę w całkowitą utratę wpływu na sprawy globalne. Kryzys władzy osłabia podmiotowość, a słabnąca podmiotowość obniża zdolności decyzyjne. W efekcie administracje zaczynają kierować się strachem i niepewnością. Nawet teraz, wszyscy siedzą i trzęsą się czekając na wyniki rozmów pomiędzy Trumpem a Putinem. To jest tragedia Europy! Dowód na to, że musi upaść. Rewolucji polegającej na drastycznych zmianach, takich chociażby jak likwidacja 80 proc. ad-

Prognozowany przez partnerów tegoroczny wzrost przychodów w poszczególnych kategoriach produktowych

Oprogramowanie AI

Rozwiązania cyberochronne

Infrastruktura chmurowa

Aplikacje korporacyjne

Wyposażenie centrum danych

Urządzenia

Rozwiązania sieciowe

Oprogramowanie infrastrukturalne

Urządzenia peryferyjne

Serwery

Infrastruktura storage’owa

Sprzęt drukujący

w 2025 r. Mniejszy odsetek, nieprzekraczający 60 proc., oczekuje tego od rozwiązań sprzętowych na potrzeby centrów danych i sprzętu ogółem (przy czym hardware sprzedaje 30 proc. respondentów badania).

Dystrybucyjne platformy chmurowe Istotnym wnioskiem, jaki płynie z badania Futurum Research, jest wciąż stosunkowo niewielka rola dystrybucyjnych platform chmurowych, w tym prowadzonych przez największych globalnych dystrybutorów. Jedynie co trzeci partner w kanale sprzedaży IT deklaruje, że ponad 10 proc.

ministracji i koncentracja ośrodków decyzyjnych, raczej nie należy się spodziewać. A bez tego ten upadek wydaje się nieunikniony.

W takiej sytuacji to, co dzieje się w Stanach, czyli rewolucja w administracji realizowana wcześniej rękoma Elona Muska, a teraz samego POTUS-a może budzić sprzeciwy. Jednak podobne rzeczy działy się w historii i w rezultacie ratowały gospo-

prowadzonych przez niego transakcji jest realizowanych za pośrednictwem Ingram Micro Cloud, TD Synnex StreamOne czy Pax8. W przypadku 51 proc. respondentów odsetek stałych transakcji via chmurowe platformy dystrybucyjne sięga od 5 do 10 proc.

W każdym razie większość partnerów (67 proc.) spodziewa się zwiększenia liczby dotychczasowych dostawców (producentów i dystrybutorów) w ciągu dwóch najbliższych lat, przy czym 31 proc. przewiduje znaczny wzrost w tym zakresie, zaś 36 proc. niewielki wzrost, co odzwierciedla rosnący nacisk na rozsze-

darkę kraju, a nawet windowały społeczeństwa na korzystniejszą pozycję. Pozwolę sobie posłużyć trzema pierwszymi z rzędu przykładami. Pierwszym jest reforma Meiji w Japonii pod koniec XIX wieku. Cesarz Meiji drastycznie zlikwidował feudalizm i otworzył kraj na zachodnią technologię oraz administrację. Z kolei Deng Xiaoping w Chinach w 1978 r. odrzucił komunizm gospodarczy, wbrew twardogłowym, i rozpoczął reformy wolnorynkowe. I wreszcie reformy sekularyzacyjne w Turcji w latach 20. XX wieku, a więc bezpardonowa likwidacja kalifatu, likwidacja sądów szariackich, zakaz noszenia bród dla urzędników i powszechny zakaz noszenia fezów (tradycyjnych czapek). Zakaz fezów wywołał protesty, a w niektórych miejscach doszło do

Kluczowe wnioski

60% integratorów spodziewa się w tym roku co najmniej umiarkowanego, a nawet dużego wzrostu popytu, a jednocześnie dostrzega wyzwania w postaci rosnących kosztów prowadzenia działalności i związaną z tym presję na budżety IT;

82%respondentów sądzi, że dwa główne czynniki wzrostu to oprogramowanie AI i rozwiązania cybersecurity;

69%partnerów uważa Microsoft za swojego kluczowego dostawcę, podczas gdy w przypadku AWS-u i Google Cloud odsetek takich deklaracji wynosi, odpowiednio: 66 proc. i 54 proc.;

87%integratorów współpracuje na bieżąco z hiperskalerami.

rzanie partnerstw strategicznych. W tym kontekście warto zwrócić uwagę, że dla większości (ponad 60 proc.) pytanych bardzo ważną rolę odgrywają programy partnerskie.

Badanie zostało przeprowadzone w Stanach Zjednoczonych i Europie Zachodniej na początku 2025 r. wśród 705 decydentów wyższego i średniego szczebla w społeczności partnerskiej (dostawców usług zarządzanych, integratorów i firm konsultingowych). Większość respondentów badania zajmuje w organizacjach takie pozycje, jak: założyciel, prezes, wiceprezes, dyrektor zarządzający lub General Manager.

buntów, które zostały krwawo stłumione. Każde z powyższych działań, mimo protestów i trudności, przyniosła pożądane i zakładane skutki. Czy współczesna Europa jest do jakichkolwiek konkretnych, konstruktywnych decyzji i działań zdolna? No cóż, zostaje tylko czekać i patrzeć.

Autor od 2012 roku prowadzi działalność w Chinach i Hong Kongu w zakresie VR/AR/MR. Zajmuje się produkcją sprzętu i oprogramowania Mixed Reality na potrzeby szkoleń w zastosowaniach specjalistycznych. Prezes zarządu spółki technologicznej Sunway Network notowanej na NewConnect.

Arnold Adamczyk

Umowy B2B ponownie na świeczniku

Jaka przyszłość czeka wyjątkowo popularną w IT formę współpracy z personelem?

Dyskusja o tym, jak podejść do tematu umów cywilnoprawnych (w tym B2B), które w istocie są ukrytymi umowami o pracę, trwa od dłuższego czasu. W przestrzeni publicznej już w zeszłym roku pojawiały się zapowiedzi, że konieczne będzie przyznanie Państwowej Inspekcji Pracy nowych, władczych uprawnień. Zapowiedzi te właśnie przybrały konkretną postać – pod koniec sierpnia bieżącego roku

Ministerstwo Pracy i Polityki Społecznej przedstawiło założenia zmian, a w dniu 1 września na stronach rządowych pojawił się projekt nowych przepisów. Temat stosowania umów cywilnoprawnych, w tym B2B jako substytutu zatrudnienia pracowniczego istnieje od lat. Oczywiście, umowy cywilnoprawne same w sobie są jak najbardziej legalne. Podob-

UMOWY CYWILNOPRAWNE SAME W SOBIE SĄ LEGALNE.

nie jest z zakładaniem jednoosobowych firm i prowadzeniem działalności na własny rachunek – swobodę działalności gospodarczej gwarantuje wszak wprost Konstytucja RP. Nie jest więc tak, że współpraca z personelem w oparciu o umowę świadczenia usług zawsze będzie problematyczna. Problemy mogą pojawić się dopiero wówczas, gdy współpraca z konkretną osobą oparta na umowie cywilnoprawnej nosi cechy stosunku pracy, a więc gdy osoba ta wykonuje określone zadania pod kierownictwem podmiotu zatrudniającego oraz w miejscu i czasie przez ten podmiot wyznaczonym.

Co jeszcze ma się zmienić?

Jak to jest obecnie?

Już obecnie istnieją możliwości kwestionowania przez organy publiczne cywilnoprawnego charakteru zatrudnienia, jeśli dojdą one do wniosku, że w danym przypadku mamy do czynienia z ukrytym stosunkiem pracy. W tym artykule skupiam się na Państwowej Inspekcji Pracy (PIP), ale nie należy zapominać, że pewne instrumenty do dyspozycji mają również ZUS i organy podatkowe.

Na dzień dzisiejszy PIP ma kilka możliwości działania w razie stwierdzenia ukrytego stosunku pracy. Po pierwsze, PIP może skierować sprawę do sądu, który zdecyduje o ewentualnym „przekwalifikowaniu” umowy. W praktyce takich spraw było jednak niewiele, a PIP częściej je przegrywała niż wygrywała. Przykładowo, w latach 2022–2024 PIP złożyła 94 tego rodzaju powództwa, z czego wygrała jedynie 32 sprawy. Po drugie, PIP może wykorzystywać sankcje wykroczeniowe, ponieważ zawarcie umowy cywilnoprawnej w warunkach, kiedy powinna być zawarta umowa o pracę, jest wykroczeniem zagrożonym karą grzywny od 1 do 30 tysięcy złotych. W okresie 2022–2024 w 110 przypadkach wystąpiono do sądu z wnioskiem o ukaranie, nałożono 1125 mandatów oraz zastosowano 483 pouczenia. Po trzecie, PIP ma możliwość skierowania wystąpienia lub wydania polecenia w sprawie zmiany podstawy prawnej współpracy. Instrumenty te nie mają jednak charakteru władczego. Patrząc zatem na statystyki można zaryzykować twierdzenie, że obecnie nie ma specjalnie podstaw, by obawiać się reklasyfikacji umów cywilnoprawnych przez PIP.

Projekt zakłada również szereg dodatkowych zmian, które mają usprawnić funkcjonowanie PIP i zwiększyć jej efektywność. Obejmują one:

l wzmocnienie współpracy pomiędzy PIP a ZUS i organami podatkowymi w zakresie wzajemnej wymiany informacji,

l umożliwienie PIP prowadzenia kontroli zdalnych, w tym również zdalnego przesłuchiwania świadków,

l zwiększenie grzywien za wykroczenia.

Co powinni zrobić przedsiębiorcy?

Warto już teraz dokonać przeglądu umów cywilnoprawnych, w tym B2B zawartych z personelem, aby zweryfikować, na ile w organizacji występuje ryzyko reklasyfikacyjne. Należy zadać sobie w szczególności pytania:

l Jaki jest realny poziom samodzielności kontraktorów?

l Czy faktycznie mają oni swobodę w organizacji pracy?

l Czy rzeczywiście ponoszą ryzyko gospodarcze?

l Na ile i w jaki sposób umowy z nimi zawarte regulują kwestie leżące w sferze zainteresowania prawa pracy (np. urlopy)?

l Jeżeli oprócz kontraktorów organizacja zatrudnia również pracowników – czy i jakie odrębności występują w podejściu do obu tych grup?

Tam, gdzie granica jest cienka, bezpieczniejsze może okazać się zawarcie z personelem umów o pracę.

Jak będzie wyglądać reklasyfikacja po zmianach?

Tymczasem projekt nowych przepisów zakłada, że PIP będzie mogła samodzielnie wydać decyzję administracyjną uznającą, iż współpraca w ramach umowy cywilnoprawnej (w tym B2B) faktycznie jest zatrudnieniem pracowniczym, o ile oczywiście stwierdzi cechy typowe dla takiego zatrudnienia. Decyzje będą podlegały natychmiastowemu wykonaniu w zakresie skutków „na przyszłość”. Oznacza to, że nawet jeśli przedsiębiorca zdecyduje się zaskarżyć decyzję, to od czasu jej wydania do czasu prawomocnego rozstrzygnięcia sprawy i tak zmuszony będzie traktować daną osobę jak pracownika ze wszystkimi tego konsekwencjami. Przykładowo, trzeba będzie zgłosić taką osobę do ZUS, rozliczać jej wynagrodzenie na zasadach obowiązujących pracowników, a także prowadzić dokumentację pracowniczą.

Warto zaznaczyć, że decyzja PIP wywoła również skutek wsteczny, bo skoro ktoś okazał się pracownikiem, a nie zleceniobiorcą, to taki stan rzeczy istniał już od samego początku współpracy stron. To z kolei ma swoje implikacje podatkowe i z tytułu składek ZUS, gdzie w takim przypadku z pewnością wystąpią zaległości. Niemniej, w zakresie skutków wstecznych przepisy przewidują wstrzymanie wykonania decyzji do czasu wydania prawomocnego rozstrzygnięcia w sprawie. Decyzje reklasyfikacyjne będą wydawali okręgowi inspektorzy pracy. Będzie od nich przysługiwać odwołanie do Głównego Inspektora Pracy, a od jego decyzji – dalsze odwołanie do właściwego sądu rejonowego (sądu pracy). Sądy nie będą ograniczać się do kontroli legalności decyzji (jak to czynią sądy administracyjne), ale zbadają od podstaw każdą sprawę.

Czy i kiedy zmiany wejdą w życie?

Choć dokładny kształt projektowanych przepisów z pewnością nieco się jeszcze

zmieni (przed nami długa droga legislacyjna, obejmująca zarówno etap rządowy, jak i parlamentarny), to jednak należy nastawić się na to, że przepisy te wejdą w życie. Pozostają one bowiem w ścisłym związku ze zobowiązaniami Polski wynikającymi z przyjęcia KPO.

Zakłada się, że prace na poziomie rządowym zakończą się w IV kwartale 2025, a przepisy wejdą w życie pierwszej połowie 2026 r. Co istotne, przepisy przejściowe przewidują, że zawarcie umów cywilnoprawnych, w tym B2B, przed wejściem w życie zmian nie daje żadnej ochrony. Takie umowy będą bowiem mogły być oceniane z wykorzystaniem nowych, dostępnych dla PIP instrumentów prawnych. Praktyka PIP pokaże, jak duży będzie realny wpływ nowego mechanizmu reklasyfikacji na biznes. Statystyki PIP wskazują, że spośród kontrolowanych dotychczas umów cywilnoprawnych jedynie niewielki procent był realnie kwestionowany. Przykładowo, w roku 2024 skontrolowano 38,9 tys. takich umów, kwestionując 1,4 tys. z nich (3,6 proc.). Rok wcześniej, w 2023 r. kontrolą objęto 42,2 tys. umów, kwestionując 1,9 tys. (4,5 proc.). Pokazuje to, że PIP dość ostrożnie dokonywała ocen w tym zakresie. Pytanie jednak, czy takie podejście się utrzyma. Inna sprawa, że dzięki usprawnionej wymianie danych pomiędzy PIP, ZUS i organami podatkowymi możliwe będzie zapewne celniejsze typowanie podmiotów do kontroli, a więc z tej perspektywy można się spodziewać wzrostu odsetka zakwestionowanych umów.

Piotr Grzelczak

Autor jest radcą prawnym w Kancelarii Prawnej GFP_Legal.

Ostatnia szansa na

W resorcie finansów trwa obecnie dyskusja nad ograniczeniem możliwości korzystania z popularnej ulgi.

UKONSEKWENCJE DLA PODATNIKÓW BĘDĄ ZNACZĄCE.

lga IP Box od kilku lat jest jednym z najważniejszych narzędzi podatkowych dla przedsiębiorców działających w branżach innowacyjnych i technologicznych. Dzięki niej dochody z kwalifikowanych praw własności intelektualnej, w szczególności z autorskiego prawa do programu komputerowego, mogą być opodatkowane stawką na poziomie 5 proc. Dla programistów i firm IT oznacza to oszczędność, liczoną często w setkach tysięcy złotych rocznie. Popularność tego rozwiązania sprawiła jednak, że ulga zaczęła być postrzegana przez Ministerstwo Finansów jako zbyt szeroka i w niektórych przypadkach nadużywana. Trwa obecnie dyskusja nad ograniczeniem możliwości korzystania z IP Box, a w ostatnich tygodniach przyjęto założenia

IP Box?

nowelizacji, które mogą istotnie wpłynąć na możliwość skorzystania z ulgi.

Obecne ramy prawne

Obecnie z IP Box mogą korzystać podatnicy PIT (osoby fizyczne) oraz podatnicy CIT (spółki) prowadzący działalność gospodarczą, którzy tworzą, rozwijają lub ulepszają kwalifikowane prawa własności intelektualnej w ramach działalności badawczo-rozwojowej. Najczęściej w praktyce dotyczą one autorskich praw do programów komputerowych, choć katalog obejmuje także patenty oraz wzory użytkowe. Aby zastosować preferencyjną stawkę w wysokości 5 proc., przedsiębiorca musi prowadzić szczegółową ewidencję przychodów, kosztów i wydatków związanych z działalnością badawczo-rozwojową. Kluczowym elementem mechanizmu jest tzw. wskaźnik Nexus, który pozwala obliczyć, jaka część dochodu z praw własności intelektualnej rzeczywiście kwalifikuje się do objęcia ulgą.

W praktyce oznacza to, że nie cały dochód firmy podlega 5-procentowej stawce podatkowej, ale tylko ta jego część, która została wytworzona w ramach działalności badawczo-rozwojowej.

Z danych Ministerstwa Finansów wynika, że z ulgi korzysta obecnie ponad 7,5 tys. podatników. Największą grupę stanowią przedsiębiorcy-programiści rozliczający się w modelu B2B, którzy wprowadzili IP Box jako stały element swojej strategii podatkowej. Choć liczba podatników korzystających z ulgi jest stosunkowo niewielka, to z uwagi na wysokość dochodów, często przekraczających setki tysięcy czy miliony złotych rocznie, skala utraconych wpływów budżetowych jest istotna.

Projekt zmian ograniczenia

Resort przewiduje dwie zasadnicze zmiany, które mogą wyeliminować znaczną część przedsiębiorców z możliwości stosowania IP Box. Dochody opodatkowane w ramach

dark patterns w świetle przepisów Kiedy design łamie prawo:

Stosowanie dark patterns może także zostać zakwalifikowane jako nieuczciwa praktyka rynkowa. Aktywność prezesa UOKiK-u na tym polu potwierdzają liczne decyzje wydawane w związku z wykorzystywaniem zwodniczych interfejsów.

Skomplikowana procedura rezygnacji z usługi, automatyczne dodawanie produktów do koszyka albo takie oznaczanie pól w banerze cookies, by użytkownik wyraził zgodę na wszystkie pliki, a nie tylko te niezbędne… To tylko niektóre z wielu przykładów tzw. ciemnych wzorców (dark patterns) wykorzystywanych na co dzień na stronach internetowych. Ich wspólnym mianownikiem jest cel: nakłonienie użytkownika do podjęcia działania, które nie leży w jego najlepszym interesie, a które jest z kolei korzystne dla właściciela platformy.

Mechanizmy te łączy jeszcze jedno: są zakazane, a ich stosowanie może przyciągnąć uwagę UOKiK-u czy UODO.

Ustalając, czym są dark patterns, nie możemy powołać się na żadną definicję legalną (czyli taką, która wynikałaby z obowiązujących przepisów) – ponieważ takiej, póki co, brak. Ale są one rozumiane dość jednolicie, a za pojęciem „ciemnych wzorców” kryją się mechanizmy, które mają wpłynąć na użytkownika i zmusić go do podjęcia niezamierzonej decyzji. Podobnie zjawisko to tłumaczy w swoich motywach akt o usługach

cyfrowych (DSA). DSA, ujmując tę praktykę w kontekście projektowania stron internetowych, określa, że zwodniczymi interfejsami są „praktyki, które w istotny sposób zniekształcają lub ograniczają, celowo lub w praktyce, zdolność odbiorców usługi do dokonywania niezależnych i świadomych wyborów lub podejmowania takich decyzji”. Należy pamiętać, że dark patterns mogą być też ujęte szerzej, na co wskazuje chociażby treść art. 5 ust. 1 lit. a aktu w sprawie sztucznej inteligencji. Zakazuje on wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu AI, który stosuje tego typu praktyki i nie ogranicza zakazu wyłącznie do interfejsu tego systemu.

Zwodnicze interfejsy w DSA

Akt o usługach cyfrowych jest zresztą pierwszą regulacją wprost zakazującą tego

IP Box mają zostać włączone do podstawy obliczenia daniny solidarnościowej. Przypomnijmy, że danina solidarnościowa to podatek w wysokości 4 proc., który płacą osoby fizyczne od dochodów przekraczających milion złotych rocznie. Obecnie ulga IP Box pozwala wyłączyć dochody uzyskane w ramach działalności badawczo-rozwojowej z opodatkowania daniną solidarnościową, co w praktyce obniża całkowite obciążenie podatkowe przedsiębiorców. Ministerstwo Finansów uznało jednak, że taka preferencja jest zbyt szeroka i planuje, aby dochody z IP Box zostały uwzględnione przy obliczaniu daniny solidarnościowej. W praktyce oznacza to, że dochody powyżej 1 mln zł będą opodatkowane łączną stawką 9 proc. (5 proc. w ramach ulgi IP Box i dodatkowe 4 proc. w postaci daniny solidarnościowej).

Druga zmiana wywołuje jeszcze większe emocje, zwłaszcza w branży IT. Ministerstwo Finansów proponuje, aby prawo do stosowania preferencyjnej stawki 5 proc. podatku dochodowego w ramach ulgi IP Box zostało uzależnione od zatrudnienia przynajmniej trzech osób fizycznych (w przeliczeniu na pełne etaty) na podstawie umowy o pracę. Wskazać należy, że zatrudnione osoby nie mogą być podmiotami powiązanymi z podatnikiem, czyli członkami najbliższej rodziny, wspólnikami, wspólnikami spółek cywilnych lub osobowych, a także osobami pozostającymi w zależności ekonomicznej lub decyzyjnej od podatnika.

typu praktyk, chociaż zakaz adresowany jest wyłącznie do pewnej grupy podmiotów, tj. platform internetowych w rozumieniu DSA. Jak bowiem wynika z art. 25 ust. 1, dostawcom takich platform nie wolno „projektować, organizować ani obsługiwać swoich interfejsów internetowych w sposób, który

Skutki dla programistów i przedsiębiorców

Ulga IP Box została wprowadzona, aby wspierać innowacyjność i działalność badawczo-rozwojową w Polsce, zachęcać przedsiębiorców do tworzenia nowych rozwiązań technologicznych oraz rozwijania kwalifikowanych praw własności intelektualnej. Jeśli proponowane zmiany zostaną uchwalone, konsekwencje dla podatników rozliczających się w ramach IP Box będą znaczące. Najbardziej odczują je programiści prowadzący jednoosobową działalność gospodarczą w modelu B2B. Obecnie wielu z nich nie zatrudnia pracowników, a całą działalność opiera na własnej pracy. Po wprowadzeniu nowych przepisów, aby nadal korzystać z ulgi, musieliby stworzyć mały zespół, co wiązałoby się z dodatkowymi kosztami administracyjnymi i kadrowymi. Firmy działające w formie spółek prawa handlowego, które już zatrudniają pracowników, dostosują się do nowych wymogów znacznie łatwiej. Jednocześnie warto zwrócić uwagę, że około 98 proc. podatników korzystających z ulgi IP Box to osoby prowadzące jednoosobową działalność gospodarczą, najczęściej w modelu B2B. Wprowadzenie obowiązku zatrudnienia pracowników może więc w praktyce doprowadzić do niemal całkowitego wyeliminowania funkcjonowania ulgi IP Box w Polsce.

Ciemne wzorce w RODO

Jaka przyszłość czeka branżę IT?

Ulga IP Box, która miała być impulsem do rozwoju działalności badawczo-rozwojowej i wspierania innowacyjności polskich firm, wkrótce może zmienić swoje oblicze. Propozycje Ministerstwa Finansów jasno wskazują, że rząd zamierza ograniczyć jej dostępność, szczególnie dla jednoosobowych działalności gospodarczych oraz specjalistów IT rozliczających się w modelu B2B.

Włączenie dochodów z IP Box do podstawy daniny solidarnościowej oraz wprowadzenie wymogu zatrudniania co najmniej trzech pracowników sprawią, że preferencja będzie dostępna głównie dla większych firm. Zgodnie z zapowiedziami zmiany miałyby obowiązywać od 1 stycznia 2026 r. W praktyce oznacza to, że dla wielu przedsiębiorców rok 2025 może być ostatnią szansą, by skorzystać z ulgi na dotychczasowych zasadach. Należy jednak pamiętać, że projekt ustawy nie został jeszcze złożony w Sejmie, więc zarówno ostateczne rozwiązania, jak i termin ich wejścia w życie mogą ulec zmianie.

Agata Bienia

jest doradcą podatkowym w ASB Group.

wprowadza w błąd odbiorców usługi lub nimi manipuluje,czy też w inny istotny sposób zakłóca bądź ogranicza zdolność odbiorców ich usługi do podejmowania wolnych i świadomych decyzji”. Nałożenie ograniczenia tylko na dostawców platform internetowych powoduje, że pierwszym krokiem analizy powinno być przesądzenie, czy dana strona www będzie spełniała przesłanki takiej platformy. Pod uwagę trzeba wziąć też rozmiar firmy dostawcy – DSA wyłącza bowiem spod zakazu podmioty spełniające określone kryteria wielkości.

zachowanie rynkowe przeciętnego konsumenta przed zawarciem umowy dotyczącej produktu, w trakcie jej zawierania lub po jej zawarciu. To z kolei otwiera drogę do uznania tej praktyki jako naruszającą zbiorowe interesy konsumentów (zgodnie z art. 24 ust. 2 ustawy o ochronie konkurencji i konsumentów), a tym samym – do podjęcia działań przez prezesa UOKiK-u. Aktywność prezesa UOKiK-u na tym polu potwierdzają liczne decyzje wydawane w związku z wykorzystywaniem zwodniczych interfejsów i nakładane przez niego kary pieniężne (mogące sięgać nawet 10 proc. przychodów danego podmiotu). Warto zatem zweryfikować, czy mechanizmy stosowane na firmowej stronie mogą zostać zakwalifikowane jako ciemne wzorce, aby uniknąć przykrych konsekwencji. DSA TO

Podmioty, którym uda się uniknąć ograniczenia z art. 25 ust. 1 DSA – czy to ze względu na charakter strony internetowej, czy też rozmiar – powinny pamiętać, że korzystanie z mechanizmów dark patterns może zostać zakwestionowane także z perspektywy przepisów dotyczących ochrony danych osobowych. W tym kontekście warto odwołać się do opublikowanych przez Europejską Radę Ochrony Danych Wytycznych 3/2022 w sprawie zwodniczych wzorów projektowych w interfejsach platform mediów społecznościowych. Wytyczne, wbrew swojej nazwie, stanowią wskazówkę nie tylko dla platform społecznościowych, lecz także są pomocne dla pozostałej części rynku cyfrowego, wymieniając przykłady ciemnych wzorców wątpliwych z punktu widzenia RODO i podpowiadając, jak ich unikać.

Zwodnicze

interfejsy pod lupą

Stosowanie dark patterns może także zostać zakwalifikowane jako nieuczciwa praktyka rynkowa, czyli jako praktyka sprzeczna z dobrymi obyczajami, która w istotny sposób zniekształca lub może zniekształcić

Hanna Groborz jest radcą prawnym w kancelarii Barta & Partners.

Puls branży IT

Istotne trendy produktowe, technologiczne, biznesowe, w oparciu o dane pochodzące z renomowanych agencji analitycznych, organizacji branżowych i globalnych mediów, dotyczące głównie Europy i Polski.

Cyberbezpieczeństwo na szczycie listy inwestycji

Innowacje w obszarze cyberbezpieczeństwa i monitoringu infrastruktury to dwie kwestie, które przedsiębiorcy ankietowani przez Polcom wskazali jako najbardziej pomocne w prowadzeniu biznesu (91 proc. odpowiedzi). Z kolei około dwie trzecie respondentów (67 proc.) wymieniło chmurę, aczkolwiek w niektórych branżach, w tym finansowej, odsetek ten jest dużo wyższy (92 proc.). Co ciekawe, firmy nie zamierzają rezygnować z własnej infrastruktury informatycznej – takie zasoby utrzymuje 89 proc. respondentów.

Przedsiębiorców zapytano również o plany inwestycyjne. Okazuje się, że priorytety zakupów w dużej mierze pokrywają się z wymienionymi pomocnymi rozwiązaniami IT. Kluczowe zatem jest zarówno cyberbezpieczeństwo, jak też związana z nim ciągłość działania. Rośnie też zainteresowanie narzędziami sztucznej inteligencji oraz automatyzacją (RPA).

Nowe technologie IT i rozwiązania planowane do wdrożenia (odpowiedzi średnich firm)

Będziemy utrzymywać własne zasoby IT

Cyberbezpieczeństwo i monitoring infrastruktury (SOC)

Chmura obliczeniowa (IaaS, PaaS, SaaS)

Sztuczna inteligencja (AI) i uczenie maszynowe (ML)

Robotyzacja procesów biznesowych (RPA)

Outsourcing procesów IT

Zewnętrzne data center (kolokacja IT)

Rozwiązania Przemysłu 4.0 oraz 5.0 (OT, IoT itd.)

Przetwarzanie brzegowe

Tylko 39 proc. firm zakończyło wymianę PC z Windows 10

Nadal jest wiele do zrobienia w związku z aktualizacją sprzętu z Windows 10 w firmach – wynika z danych Omdii. W globalnym badaniu z września br. tylko 39 proc. partnerów z kanału sprzedaży IT wskazało, że prawie wszystkie komputery ich klientów zostały wymienione lub zaktualizowane. W części pozostałych organizacji wymiana PC potrwa nawet dłużej niż pół roku – wynika z odpowiedzi. Nadal będzie to zatem jeden z najważniejszych powodów zakupu komputerów. Przy czym według partnerów wciąż więcej niż połowa ich klientów używa komputerów z Windows 10. Otóż 26 proc. pytanych wskazało, że ponad 75 proc. organizacji, które obsługują, korzysta z takiego właśnie sprzętu. Natomiast 29 proc. partnerów wskazuje, że 51 proc. do 75  proc. ich klientów biznesowych nadal pracuje na PC z Windows 10. Warto dodać, że według danych Statcounter z września br. ponad 40 proc. tych komputerów na świecie, które są wyposażone w OS Microsoftu, działało w oparciu o Windows 10 (dane dotyczą zarówno f irmowych, jak i prywatnych PC). W Polsce we wrześniu br. ten odsetek wynosił 46,4 proc.

Co Twoi klienci planują zrobić z komputerami z Windows 10?

Prawie wszystkie zostały już wymienione albo zaktualizowane

Zostaną zaktualizowane do Windows 11 w ciągu najbliższych 6 miesięcy

Zostaną zaktualizowane do Windows 11 w czasie dłuższym niż 6 miesięcy

Niektóre zostaną zaktualizowane do Windows 11 Komputery z Windows 10 będą nadal używane

Szpitale będą inwestować w nowy sprzęt IT i oprogramowanie, aby spełnić wymagania projektu nowelizacji ustawy o Krajowym Systemie Cyberbezpieczeństwa – wynika z raportu PTKOZ. Chodzi zwłaszcza o zapisy dotyczące „dostawcy wysokiego ryzyka”. Otóż 68 proc. z 421 ankietowanych placówek uważa, że będzie miało możliwość wymiany urządzeń na produkty z krajów UE i NATO. Wśród nich zdecydowana większość (83 proc.) spodziewa się kosztów w przedziale od 500 tys. zł do 1 mln zł. Kwoty te obejmują zakup i instalację nowego sprzętu oraz utylizację i demontaż starego. Dodatkowo 76 proc. szpitali spodziewa się większych nakładów na serwis i wsparcie techniczne – najczęściej o kolejne od 500 tys. zł do 1 mln zł. Autorzy raportu szacują przeciętny koszt związany z koniecznością wymiany sprzętu producenta uznanego za „DWR” na 1,28 mln zł netto na 1 szpital w ciągu roku oraz 3,63 mln zł w okresie 5 lat. Łącznie z oprogramowaniem daje to kwotę 4,64 mln zł. Otóż 57 proc. szpitali przewiduje wymianę oprogramowania na produkty z państw UE i NATO. Spośród nich większość (69 proc.) wyceniła koszt tej operacji na 500 tys. zł do 1 mln zł (69 proc.).

Czy Pani/Pana zdaniem koszt netto wymiany sprzętu teleinformatycznego, urządzeń elektronicznych, maszyn będzie na poziomie?

GUS: mniej chmury w polskich firmach

W ciągu 2 lat zmniejszył się odsetek firm korzystających z płatnych usług w chmurze obliczeniowej – tak przynajmniej wynika z danych GUS. Jednak udział ten wobec 2023 r. spadł nieznacznie, zaledwie o 0,4 punkta procentowego, do poziomu 55,3 proc. Przy czym firmy ujęte w  tej statystyce najczęściej korzystają z chmurowej usługi poczty elektronicznej (37,3 proc. wskazań) oraz oprogramowania biurowego (28 proc.). Według GUS-u nadal niewielki odsetek przedsiębiorstw korzysta ze sztucznej inteligencji. W 2025 r. było to 8,7 proc. W tym po technologie AI generujące tekst lub głos sięgało 5,3 proc., a analizujące tekst – 2,1 proc. Narzędzia AI często wykorzystywano też do wspomagania marketingu i sprzedaży (5 proc.) oraz w pracach biurowych związanych z zarządzaniem pracownikami i przedsiębiorstwem (3,7 proc.).

Przedsiębiorstwa kupujące usługi w chmurze obliczeniowej

(w % ogółu firm)

Ogółem

Zaufanie CIO do chmury jest krytycznie niskie

Tylko 7 proc. dyrektorów IT jest w pełni przekonanych o słuszności swoich strategii chmurowych w zakresie kosztów i wydajności – wynika z badania Futurum. Ponad połowa CIO (54 proc.) przyznaje, iż w tym roku przeprowadza ponowną analizę tych strategii, zwłaszcza pod kątem bezpieczeństwa i kontroli (32 proc.), optymalizacji kosztów (26 proc.) i zgodności z przepisami (23 proc.). Trend ten nasila się wraz z ograniczaniem budżetów i  przyspieszeniem zużycia zasobów przez sztuczną inteligencję. W efekcie już 12 proc. CIO postanowiło przenieść docelowe obciążenia z powrotem do chmury prywatnej. W tej sytuacji zdaniem analityków dostawcy chmury muszą wdrożyć FinOps, optymalizację opartą na AI i elastyczność rozwiązań hybrydowych w standardowych ofertach, aby zwiększyć zaufanie szefów IT. Futurum przytacza badanie McKinseya, według którego mniej niż 10 proc. transformacji chmurowych przynosi pełną wartość bez rygorystycznej dyscypliny operacyjnej. Z kolei według Deloitte’a wdrożenie FinOps może zmniejszyć wydatki na chmurę nawet o 40 proc.

jest całkowicie do niej przekonana wierzy w nią w umiarkowanym stopniu jest nią nieco zaniepokojona

Co miesiąc sprawdzamy,

biznesowym

portalu społecznościowym

Piotr Konieczny, CISO

w Niebezpiecznik.pl, opisuje sytuację specjalisty od cyberbezpieczeństwa, którego żona padła ofiarą cyfrowych złodziei. „Zadzwonili do niej niby z Providenta, że ‘pieniądze w niebezpieczeństwie’. Przesłali jej pismo od komendanta o wszczęciu postępowania na WhatsAppa. Komendant zadzwonił do niej na kamerkę. Poinstruowali ją jak zwiększyć limity na koncie. Wypłaciła 19K (po tysiaku, z bankomatu). Powiedzieli jej, że pieniądze są oznakowane i że będzie miała kłopoty jak nimi zapłaci. Kazali jej te pieniądze wpłacić ‚na kod BLIK’. I je wpłaciła. Ta historia pojawiła się wczoraj na Wykopie. Niektórzy sugerują, że to ‘bait’, ale ja nie takie historie słyszałem… Załóżmy więc, że ten atak faktycznie się zdarzył i tak przebiegał. Omamić i oszukać można każdego — nie tylko bliskich ‘bezpieczników’, ale również ich samych. Kwestia pretekstu i odpowiedniego momentu. Znam takie przypadki. Pytanie jednak jest takie, czy tej konkretnej, przykrej sytuacji można by było zapobiec? Może gdyby mąż pracujący w cyber porozmawiał zawczasu z żoną o zagrożeniach (przyznał, że tego nie zrobił) albo chociaż zainstalował jej apkę CyberAlerty, która ostrzegała o podobnych atakach…”.

Karol

Molenda, Dowódca

Komponentu Wojsk Obrony

Cyberprzestrzeni, został odznaczony amerykańskim medalem Legion of Merit (Legia Zasługi). Polski generał podkreślił, że to potwierdzenie doskonałej polsko-amerykańskiej współpracy w dziedzinie cyberbezpieczeństwa. „To wyróżnienie traktuję także jako uhonorowanie żołnierzy i cywilnych specjalistów Wojsk Obrony Cyberprzestrzeni, którzy każdego dnia dbają o bezpieczeństwo naszego kraju. Dzięki partnerstwu, zaufaniu i wymianie informacji udało nam się stworzyć system, który pozwala skutecznie reagować na współczesne zagrożenia. Wierzę, że dalsza współpraca będzie przykładem skutecznego działania na rzecz naszego bezpieczeństwa i obrony wartości, które nas łączą – dziś i w przyszłości”.

o czym branża IT (i nie tylko) dyskutuje na największym

Tomasz Misiak, założyciel Mizyak Fund, zastanawia się czy w świecie AI nie powstaje aby właśnie nowa bańka finansowa? „Świat technologii rządzi się swoimi prawami. Podczas gdy tradycyjne firmy wycenia się na podstawie wskaźników takich jak cena do zysku czy EV/EBITDA, w technologii liczy się coś innego – marzenie o przyszłości. Ale nawet na tle gigantów technologicznych wycena OpenAI wydaje się wręcz kosmiczna. Przy przychodach na poziomie zaledwie 11 miliardów dolarów, spółka jest dziś wyceniana na 500 miliardów – czyli niemal 40-krotność rocznych przychodów. Dla porównania: Nvidia ma wskaźnik 27x, Tesla 15x, a Apple czy Google zaledwie 8–9x. Nie mówimy tu o zyskach czy EBITDA – bo OpenAI w ostatnich miesiącach spaliło ponad 13 miliardów dolarów. Mimo to inwestorzy wciąż pompują kolejne środki. W 2024 roku globalne inwestycje w AI sięgnęły już 350 miliardów dolarów. Dla skali – Nvidia warta jest dziś 4,5 biliona dolarów, czyli niemal tyle, co PKB całych Indii. Oczywiście nikt nie porównuje kapitalizacji spółek do gospodarek, ale gdyby sprzedać wszystkie akcje Nvidii, można by sfinansować w rok całą produkcję ekonomiczną kraju liczącego 1,4 miliarda ludzi. Czy bańka pęknie? Nie wiadomo. AI wciąż nie ma masowego, stabilnego zastosowania, a mimo to pochłania niewyobrażalne pieniądze. Żeby spełnić oczekiwania inwestorów, OpenAI musiałoby generować roczny zysk rzędu 100 miliardów dolarów – czyli więcej niż zarabia dziś niemal jakakolwiek firma na świecie, może poza Saudi Aramco. A jednak… uważam, że bańka nie pęknie – przynajmniej jeszcze nie teraz. Dlaczego? Bo za wzrostem stoją giganci z najgłębszymi kieszeniami. Spekulanci od dawna nie mają tu głosu. Dopóki Microsoft, Apple, Amazon czy fundusze emerytalne wierzą, że AI to przyszłość – maszyna będzie działać. Pytanie tylko, jak długo rynki, fundusze i prywatni inwestorzy będą tolerować kolejne miliardy „spalanych” dolarów, zanim ktoś powie: ‘Niech ktoś zatrzyma wreszcie świat, ja wysiadam’ – jak śpiewała Anna Maria Jopek”.

Leszek Ślazyk, redaktor naczelny portalu

Chiny24.com, zauważa, że „polityka i biznes stają się na Zachodzie dwoma osobnymi światami. Biznes rzuca politykom coś tam na pożarcie, a robi swoje. Przykład najnowszy, czyli Tim Cook w Chinach. Szef Apple Inc. złożył kolejną wizytę w Państwie Środka. Spotykał się w Pekinie z przedstawicielami chińskich władz, by zapewnić, że nie zamierza realizować scenariuszy amerykańskich polityków i zamiast ‘decouplingu’ planuje zwiększenie zaangażowania kapitałowego w Chinach. W tym samym czasie Sabih Khan, szef operacyjny Apple Inc., spotykał się z szefami kluczowych chińskich dostawców Apple, z którymi Amerykanie współpracują od niemal 20 lat. Czy Apple spotka się z represjami ze strony prezydenta Stanów Zjednoczonych? Może. Ale wystarczy obsadzić któreś z jego dzieci w którejś ze spółek i będzie dobrze. Wiecie, że Barron Trump, lat 19, ma ponoć stać się członkiem rady TikToka? Taka sytuacja...”. Dr Artur Wypych, prezes zarządu Chempol, dodał, że „o tym, jak Apple uzależniło się od Chin na potrzeby produkcji swoich produktów, co miało istotne konsekwencje dla relacji technologicznych i politycznych między Chinami a USA, opowiada książka: ‚Apple in China: The Capture of the World’s Greatest Company’ autorstwa Patricka McGee”.

Aleksandra Przegalinska, profesor Akademii Leona Koźmińskiego

, odbyła podróż na wschodnie wybrzeże USA, gdzie „widać było wyraźnie publiczną niechęć do AI, a może raczej rozczarowanie wobec tej technologii. Na co poszły miliardy inwestycji? Spójrzmy na OpenAI. Zamiast technologii dobro sprawczej (zastosowania medyczne, transportowe, badawcze), społeczeństwo dostało nową Sorę, platformę do generowania deepfejków, na potęgę. W te same ślady poszła również Meta, pokazując AI-ową platformę Vibez, która zdławi media społecznościowe jakie znamy (były one dalekie od doskonałości, ale przynajmniej byli na nich ludzie i tworzyły się społeczności) na rzecz medium, w którym ludzie jak w amoku oglądają zalew wygenerowanych treści, jak rozumiem przynajmniej część z nich będzie komercyjna. Zastanawiam się, czy o to właśnie chodziło w wielkiej generatywnej rewolucji? O potężną maszynę do memów, która pozwoli jeszcze skuteczniej wyśmiewać się z innych, bezmyślnie scrollować i – nie oszukujmy się – radykalizować coraz bardziej osamotnionych ludzi? Jeśli ktoś widzi to inaczej, posłucham argumentów”. W tym kontekście Tomasz Kaczmarek, CEO Herbapol Poznań, przyznał: „Właśnie wyszedłem z mediów społecznościowych nie przez drzwi, tylko przez wyjście awaryjne. AI miała leczyć, uczyć i wspierać, a zamiast tego dostałem scrollowalny teatr deepfejków. Zamiast ludzi algorytmy, zamiast rozmów wygenerowane emocje.”

Artur Wiza, wiceprezes Asseco Poland, odniósł się do rekordowej kapitalizacji spółki: „To wyjątkowy moment w rozwoju naszej spółki, która ponad 30 lat temu zaczynała jako trzyosobowy start-up z Rzeszowa, a dziś jest liderem rynku oprogramowania w Polsce i Europie Środkowo-Wschodniej, zatrudniającym ponad 34 tysiące pracowników na całym świecie. Ten sukces nie byłby możliwy bez wsparcia GPW i inwestorów, dzięki którym wizja Adama Górala mogła być realizowana właśnie w Polsce. W sukcesie Asseco uczestniczą setki tysięcy osób – poprzez fundusze emerytalne, inwestycyjne i bezpośrednie inwestycje w akcje naszej spółki. Przez ponad 20 lat obecności na GPW wypłaciliśmy akcjonariuszom 3,8 miliarda zł dywidend, stając się jedną z najbardziej konsekwentnych spółek dywidendowych na GPW. Obecna wycena Asseco, to nie tylko docenienie naszych dotychczasowych osiągnięć, ale przede wszystkim pozytywna ocena perspektyw dalszego rozwoju. W ubiegłym tygodniu sfinalizowaliśmy sprzedaż 14,84 proc. akcji własnych na rzecz TSS Europe, długoterminowego inwestora w sektorze oprogramowania dla biznesu. Wraz z tym wydarzeniem Adam Góral poinformował o opcji zwiększenia swojego zaangażowania w akcje Asseco, a także o podpisaniu porozumienia między Fundacją Rodzinną Adama Górala i TSS Europe, które ma wspierać dalszy rozwój i stabilność Asseco. Porozumienie dotyczy współkontroli (razem ok. 35 proc. głosów na WZA) i określa współpracę akcjonariuszy w kluczowych kwestiach strategicznych – w tym kontynuację strategii obecnego zarządu i procesu sukcesji. To ważny krok w kierunku zapewnienia długofalowej stabilności właścicielskiej i strategicznej spółki. Asseco Poland pozostaje polską spółką publiczną, notowaną na polskiej giełdzie, z siedzibą w Rzeszowie, zarządzaną przez Polaków, płacącą podatki w Polsce i promującą mądrość gospodarczą oraz polską gospodarkę. Będziemy nadal z dumą rozwijać i promować polskie rozwiązania IT na całym świecie!”.

Jakub Skałbania, założyciel

Netwise, zwraca uwagę, że „my tu walczymy na załączniki, ‘dory’, ‘rody”, gigantyczne kary, a ciekawe, jakie kary zapłacą Klientom te setki firm, których dane z Salesforce’a są publicznie dostępne w internecie (prawie miliard rekordów) i które już to potwierdziły. Co na to Unia Europejska, UODO, regulatorzy? Będą uciskać dalej papierowymi wymaganiami europejskie firmy, czy wreszcie coś zrobią z prawdziwym breachem amerykańskich? ‘Insurance giant Allianz Life, Google, fashion conglomerate Kering, the airline Qantas, carmaking giant Stellantis, credit bureau TransUnion, and the employee management platform Workday, among several others, have confirmed their data was stolen in these mass hacks.’ Dodatkowo Pandora, Cisco, Adidas, Cartier, Louis Vuitton, Air France i mnóstwo innych. Jak już kiedyś pisałem, nie był to atak na Salesforce’a jako taki, tylko atak na Salesloft, jedną z firm robiących mnóstwo dla Salesforce’a. Po zdobyciu dostępu do GitHuba udało się zgarnąć tokeny uwierzytelniające i później już poszło – przez kilka miesięcy konta gości, workflowy kopiujące dane... Generalnie kompromitacja, ale jak to stwierdzili ludzie z Salesforce’a to nie dziura w platformie, więc ok. Rezultat? Już ponad miliard rekordów z CRM-ów opartych o Salesforce’a jest dostępnych w internecie – dane firm, osób kontaktowych, szans sprzedaży i aktywności (tu zaktualizowana lista jakie to dane: https://lnkd.in/d7U9vSHs). Co na to Unia Europejska i nasze DORA, NIS 2, GDPR i wszystkie inne regulacje sztucznie utrudniające życie, kiedy trzeba walczyć o dane europejskich obywateli? Ano, nic. Regulacje i kary są dla firm europejskich. Dla amerykańskich są ‘potwierdzenia wykradzenia danych’ i wystarczy”. Jak słusznie podsumował Rafał Jasiński, wykładowca w Akademii Leona Koźmińskiego: „Ludzie, którzy nie lubią hipokryzji, mają ciężkie życie...”

Wojciech

Urbanek

zastępca redaktora

naczelnego CRN Polska

WInwigilacja w imię dziecka

Miał być „dialog w ramach demokracji”, czyli cicha zgoda na masową inwigilację. Tym razem jednak, dzięki determinacji Joachima z Aalborga i setek tysięcy zwykłych Europejczyków, brukselska machina zabuksowała w miejscu.

laboratoriach od Pekinu po Dolinę Krzemową toczy się kwantowy wyścig, który zadecyduje o przyszłości całej branży technologicznej. IBM, Google czy IonQ wydają w tym celu miliardy dolarów, zatrudniając tysiące najwybitniejszych naukowców. Coraz głośniej słyszy się o tym, że nowe maszyny bez trudu złamią współczesne metody szyfrowania. Tym bardziej warto zdawać sobie sprawę, że era kwantowa nadchodzi szybciej, niż myślimy! Jak się jednak okazuje, najgenialniejsze i najbardziej cyniczne pomysły zazwyczaj rodzą się nie w sterylnych laboratoriach, lecz w biurokratycznych korytarzach Brukseli. Po co inwestować fortunę w egzotyczną fizykę, skoro można po prostu… nakazać firmom odszyfrowywanie danych pod byle pretekstem? Efekt jest identyczny: koniec tajemnicy korespondencji. Za to metoda jest prostsza. I nieporównywalnie tańsza.

Otóż w maju 2022 r. Komisja Europejska zrzuciła bombę: propozycję, która miała uczynić świat „bezpieczniejszym”. Urzędnicy chcą wprowadzić obowiązkową, masową kontrolę chatów dla wszystkich dostawców, nawet tych, którzy oferują bezpieczne, szyfrowane usługi. W potocznym języku to projekt znany jako „Chat Control”. Intencje? Oczywiście jak najbardziej szlachetne: walka z materiałami dotyczącymi seksualnego wykorzystywania dzieci.

ZWOLENNICY

INWIGILACJI NIE PODDADZĄ SIĘ ŁATWO.

I właśnie w tym tkwi perfekcja cynizmu. „Chat Control” to podręcznikowy przykład, jak totalną inwigilację opakowuje się w lśniącą, różową kokardkę z napisem „chronimy dzieci”. I voilà, krytyka staje się moralnie podejrzana, wręcz niemożliwa. Sprzeciwiasz się masowej kontroli prywatnej korespondencji setek milionów obywateli? To pewnie jesteś za pedofilią. Masz coś do ukrycia? Jak mawiał klasyk: „niewinni nie mają się czego bać”. To genialna sztuczka retoryczna, znana od wieków. Wystarczy znaleźć cel na tyle wzniosły, by sprzeciw wobec środków stał się niemożliwy do obrony. Przez lata działał w ten sposób straszak terroryzmu, ale społeczeństwa już się na niego uodporniły. Dzieci jednak zawsze działają na wyobraźnię i budzą współczucie.

Wygląda jednak na to, że tym razem pozorna niezawodność tej metody może zawieść. „Chat Control” wywołał w Europie falę ostrej krytyki. Jego symbolem stał się Joachim z Aalborga, 30-letni programista. Joachim uruchomił stronę „Fight Chat Control”, która nie tylko zbiera informacje, ale pozwala każdemu w kilka sekund wysłać e-maila do unijnych urzędników i europarlamentarzystów. Efekt? Skrzynki odbiorcze w Brukseli zostały zalane protestami, wywołując poruszenie na europejskich salonach.

Znamienny jest komentarz niemieckiej europosłanki Leny Düpont (EPP): „to nie jest dialog w ramach demokracji”. Nasuwa się pytanie: jaki dialog ma na myśli? Dyskretne rozmowy płatnych lobbystów z garstką uprzywilejowanych urzędników? Z kolei wpływowe Politico określiło akcję Duńczyka chłodnym tytułem: „One-man spam campaign ravages EU ‘Chat Control’ bill” (Jednoosobowa kampania spamerska dewastuje projekt „Chat Control”). Nazwanie obywatelskiego protestu „spamem” jest wręcz podręcznikowym przykładem pogardy dla zwykłego ludu.

Zmagania Joachima przypominają walkę Dawida z Goliatem. Wystarczyła chwila czasu, jasna intencja, pomysł i człowiek z laptopem wygrał bitwę z armią lobbystów dysponujących milionowymi budżetami. Warto w tym miejscu dodać, że do protestu dołączyła część mediów i niewielka grupa przedsiębiorców. W sumie 40 europejskich firm ostrzegło, że Chat Control zagraża bezpieczeństwu internetu i podważa cyfrową suwerenność. Z kolei Europejskie Centrum Wolności Prasy i Mediów (ECPMF) zaalarmowało, że żaden system filtrowania nie odróżni wiarygodnie nielegalnych treści od legalnych, prywatnych wiadomości na dużą skalę bez generowania fałszywych alarmów.

Ostatecznie, pierwotnie planowane na 14 października głosowanie w sprawie „Chat Control” nie odbyło się z powodu braku większości! To spektakularne zwycięstwo Joachima z Aalborga i setek tysięcy Europejczyków. Jednak jest za wcześnie na szampana. Wojna trwa. Plotki mówią o alternatywnej propozycji, która może zostać poddana pod głosowanie już 6/7 grudnia 2025 r. na zjeździe ministrów spraw wewnętrznych. Za Chat Control są: Francja, Dania, Węgry, Bułgaria, Chorwacja, Portugalia i Szwecja. Po przeciwnej stronie znalazły się między innymi Polska, Czechy, Finlandia, Austria, Holandia, Słowacja oraz Słowenia. Niepewne są Niemcy, które są jak na razie przeciw, ale po niewielkich modyfikacjach rozporządzenia mogą zmienić front.

Zwolennicy inwigilacji nie poddadzą się łatwo i użyją każdego triku, aby postawić na swoim. Projekt jest przepychany od 2022 r. i niewykluczone, że zastosowana zostanie metoda małych kroków, stopniowo ograniczając cyfrową wolność Europejczyków. W każdym razie zagrożenie nie zniknęło. Dopóki projekt, pod jakąkolwiek nazwą i w jakiejkolwiek formie, będzie krążył w korytarzach europarlamentu, dopóty nasze cyfrowe życie prywatne będzie wisiało na włosku. Cisza w tym sporze to przyzwolenie. Nie pozwólmy na „dialog”, jaki marzy się Lenie Düpont i jej podobnym. Bez prywatności korespondencji wolność to tylko puste hasło.

Czy wiesz, że…

jeśli pracujesz w rmie z branży IT, możesz bezpłatnie zaprenumerować magazyn CRN Polska?

Załóż konto na stronie

crn.pl/rejestracja

Najlepiej poinformowany magazyn w branży IT!

dla resellerów, VAR-ów i integratorów

Pewny kierunek w świecie technologii

bezpieczne ścieżki łączności

Twój przewodnik po Cybersec & Networking

Wsparcie klientów w utrzymaniu zgodności

Szkolenia i doradztwo eksperckie

Wartość dodana, na której możesz polegać

www.kappadata.pl sales@kappadata.pl

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.