









![]()




















W branży IT – bardzo konkurencyjnej, a jednocześnie kluczowej dla całej gospodarki – sukces jest okupiony wyjątkowo ciężką pracą, ale też wyjątkowo smakuje!





Chcemy się nim nacieszyć razem z najbardziej aktywnymi, zaangażowanymi, odnoszącymi największe sukcesy osobistościami ekosystemu partnerskiego IT!
Już teraz zapraszamy na Galę Mistrzów IT!


Podczas Gali uroczyście wręczymy najlepszym integratorom tytuły IT Master, jak też certyfikaty Channel Master dla producentów charakteryzujących się dbałością o najwyższy standard i jakość bieżącej obsługi oraz rozwój ekosystemu partnerskiego.
Partnerzy:

W ten wyjątkowy wieczór Sala Ludwikowska Hotelu Polonia Palace zamieni się w stolicę polskiego sektora IT, gromadząc wybitnych przedstawicieli producentów, dystrybutorów i integratorów, stwarzając tym samym okazję do nawiązywania i podtrzymywania szczególnie cennych - zarówno biznesowych, jak i towarzyskich - relacji.



Tegoroczna Gala będzie też okazją do dyskusji na temat aktualnego tempa i kierunku rozwoju ekosystemu partnerskiego w branży IT – w najlepszym możliwym do tego gronie wybitnych reprezentantów kluczowego sektora gospodarki.


Organizatorzy:
Gala Mistrzów IT odbędzie się 26 listopada br. w Hotelu Polonia Palace. Więcej informacji: gala@peristeri.pl
8 | Storage.AI
Brakujące ogniwo w środowiskach sztucznej inteligencji
10 | Chiny przygotowują się do "bitwy AI" Stany Zjednoczone robią co mogą, aby ograniczyć postępy Chin w zakresie rozwoju AI
11 | Indywidualne podejście do klientów jest niezbędne
Rozmowa z Robertem Gawrońskim, B2B Channel Managerem w polskim oddziale TP-Link
12 | Akademia "business as a service"
Rozmowa z Maćkiem Szcześniakiem, pomysłodawcą studiów podyplomowych dla resellerów i integratorów IT
16 | Chmura publiczna: cóż szkodzi obiecać
Aż 83 proc. dyrektorów IT przyznaje, że wydają na chmurę więcej niż planowali
19 | Migracja i repatriacja Najlepsze praktyki GigaCloud
20 | Rynek backupu czeka rewolucja Paweł Mączka o przyszłości Storware i wyzwaniach w świecie ochrony danych
22 | Cohesity: polskie plany lidera rynku ochrony danych
Po przejęciu od Veritasa działu ochrony danych, Cohesity zwiększyło bazę klientów do 13 tysięcy i objęło pozycję lidera globalnego rynku ochrony danych
23 | Czy sztuczna inteligencja przestaje być sexy? Felieton Krzysztofa Jakubika
24 | IT w handlu Sklepy stacjonarne skracają dystans do internetowych
27 | Multimedialne ekrany przyciągają klientów ViewSonic ma w portfolio rozwiązania stworzone z myślą o specyfice placówek handlowych
28 | Nadążyć za potrzebami klientów Rozmowa z Robertem Tomaszewskim, Business Development Managerem Professional Displays LFD Touch w iiyama.
30 | Polski rynek druku
Wiele wskazuje na to, że ten rok będzie rekordowy, jeśli chodzi o liczbę sprzedanych urządzeń
31 | Nowa generacja Brother InkBenefit Ekonomia i ekologia w jednym
32 | Digitalizacja i usługi zmieniają rynek druku
Na rynku druku kontynuowany jest stały rozwój modelu usługowego (MPS). Postępuje też digitalizacja obiegu dokumentów
35 | Brother na rynku MPS
Dekada inteligentnego zarządzania drukiem
36 | Druk, który nie szkodzi
Użytkownicy rozwiązań Epson mogą skorzystać na nowych regulacjach
37 | FineReader gwarantem bezpieczeństwa plików PDF
Ochrona plików PDF przestała być opcjonalną czynnością i stała się obowiązkiem
38 | AI w przemyśle
Od automatyzacji do optymalizacji
41 | Krok dalej niż standardowe zabezpieczenia
Rozmowa ze Stanislavem Pokhylko, prezesem polskiego oddziału Oberig IT
42 | Supremo: zdalny dostęp, monitorowanie i wsparcie
Supremo to narzędzie zdalnego dostępu do zasobów IT, które wspiera zarówno bieżącą działalność operacyjną firm, jak i długoterminową strategię rozwoju biznesu
44 | SUSE obniża koszty korzystania z Linuksa o 50 procent Kompleksowa oferta SUSE, jako europejskiego dostawcy oprogramowania open source, pozwala obniżyć koszty, podnieść poziom bezpieczeństwa i uprościć zarządzanie
45 | Mitologia wdrożeń IT
Felieton Renaty Lewickiej
45 | Jak nie zrujnować sobie firmy... zatrudniając sprzedawcę
Felieton Tomasza Karwatki
46 | Progres Flowmon
Zabezpiecza przed NIS 2
47 | AI na ławie oskarżonych
Felieton Agnieszki Kaczmarczyk
48 | Boom na AI... ...zmienia rynek infrastruktury IT
50 | Elastyczność czy święty spokój? Czy ograniczenia możliwości wyboru nośników danych wprowadzane przez producentów systemów pamięci masowych to tzw. vendor lock-in?
52 | Narzędzie nie zastąpi rozumu
Felieton Łukasza Kosuniaka
56 | Unijne AI: po europejsku czy amerykańsku?
Felieton Piotra Kowalskiego
58 | PropTech: budowanie widoczności w specjalizacji branżowej
Felieton Tomasz Kozona
58 | Fundusz do zadań specjalnych
Felieton Bartosza Majewskiego
60 | Akt o dostępności
Kto musi się przygotować na zmiany?
66 | Wintel, czyli imperia upadają powoli
Felieton Wojciecha Urbanka

16
Chmura publiczna: cóż szkodzi obiecać
Czy w przypadku chmury publicznej możemy już mówić o pułapce finansowej?

30
Polski rynek druku
Wiele wskazuje na to, że ten rok będzie rekordowy, jeśli chodzi o liczbę sprzedanych urządzeń

50
Elastyczność czy święty spokój?
Czy ograniczenia dotyczące możliwości wyboru nośników danych wprowadzane przez producentów systemów pamięci masowych to tzw. vendor lock-in? Dyskusja na ten temat powróciła za sprawą decyzji Synology.

52
Narzędzie nie zastąpi rozumu Strategia marketingowa z AI to pomysł na piękną katastrofę.
„JEŻELI HANDEL TOWARAMI PRZYNOSI POKAŹNE ZYSKI, TO I TAK SĄ
David S. Landes, „Bogactwo i nędza narodów”


Tomasz Gołębiowski
Redaktor naczelny
To był mój błąd, przyznaję. Otóż zamiast osadzić felieton Larry’ego Walsha sprzed miesiąca – dotyczący globalnej bitwy o talenty – w odpowiednim kontekście, zdecydowałem się na publikację bez redakcyjnego komentarza. Tymczasem to, co dla Larry’ego, jako mieszkańca Bostonu, było oczywiste i niewymagające tłumaczenia, dla wielu polskich czytelników okazało się nie do końca zrozumiałe. Jestem im więc winien kilka słów wyjaśnienia. A zatem, kiedy Larry twierdzi, że obecne „szykany” wobec studiujących w USA obcokrajowców stanowią szansę dla europejskich uczelni na ściągnięcie ich do siebie, odnosi się w ten sposób do zaostrzenia polityki wizowej dla zagranicznych studentów. W amerykańskich mediach było o tym bardzo głośno. Gospodarzowi Białego Domu zarzucono osłabianie amerykańskiej innowacyjności, jako że potęga USA została zbudowana przez ambitnych, pracowitych, zdolnych imigrantów. Paradoksalnie jednak, Biały Dom tłumaczy swoje postępowanie niczym innym, jak… ochroną amerykańskiej innowacyjności. Otóż Waszyngton uważa, że chińska „bezpieka” zdecydowanie przedobrzyła z poziomem infiltracji amerykańskich kampusów. O skali problemu świadczy między innymi dziennikarskie śledztwo, przeprowadzone w tym roku przez redakcję „The Stanford Review”.
Dwójka dziennikarzy, Elsa Johnson i Garret Molly, twierdzi wprost, że na Uniwersytecie Stanforda swobodnie i na dużą skalę działają chińscy szpiedzy. Przy czym nie chodzi o tajnych agentów włamujących się nocą do uczelnianych szaf pancernych. Otóż chińska ustawa o wywiadzie państwowym z 2017 roku nakazuje wszystkim (!) obywatelom Państwa Środka wspieranie i współpracę z państwowym wywiadem, niezależnie od miejsca zamieszkania. Na tej podstawie Ministerstwo Bezpieczeństwa Państwowego ChRL wykorzystuje cywilów niezwiązanych ze służbami wywiadowczymi do pozyskiwania informacji. W dużej mierze chodzi o wiedzę, którą każdy student wynosi z zajęć, warsztatów i laboratoriów badawczych. Coś pomiędzy klasycznym szpiegostwem a tzw. białym wywiadem.



Uniwersytet Stanforda stał się ważnym celem pekińskich „bezpieczniaków” ze względu na swoją dominację w dziedzinie sztucznej inteligencji. Autorzy artykułu „Investigation: Uncovering Chinese Academic Espionage at Stanford” cytują eksperta ds. Chin, który potwierdził, że „spośród około 1129 chińskich studentów zagranicznych na kampusie, istotna ich liczba aktywnie składa raporty Komunistycznej Partii Chin”. Organizatorem tej działalności jest Chińska Rada Stypendialna, która finansuje około 15 proc. chińskich studentów na amerykańskich uniwersytetach. Każdy z chińskich ekspertów, cytowanych przez „The Stanford Review”, potwierdził, że wymaga ona od studentów regularnego przesyłania raportów do chińskich placówek dyplomatycznych na temat badań, w których uczestniczą.
I choć, w świetle powyższych doniesień, nie dziwię się nerwowości amerykańskich władz, nie jestem wcale pewien, czy skorzystają na tym uczelnie europejskie. Jeżeli jednak tak właśnie się stanie, powinny być świadome związanych z tym zagrożeń.
MIESIĘCZNIK CRN POLSKA www.CRN.pl
Rok 28, numer 9 (512), 17 września 2025 PL ISSN 2080-8607
REDAKCJA
Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa redakcja@crn.pl
Tomasz Gołębiowski tg (redaktor naczelny) tel. 608 425 699 tomasz.golebiowski@crn.pl
Wojciech Urbanek wu (zastępca red. naczelnego) tel. 691 672 065 wojciech.urbanek@crn.pl
Karolina Marszałek km (sekretarz redakcji) karolina.marszalek@crn.pl
Andrzej Gontarz ag andrzej.gontarz@crn.pl
Krzysztof Jakubik kj krzysztof.jakubik@crn.pl
Krzysztof Pasławski kp krzysztof.paslawski@crn.pl
Tomasz Janoś tj tomasz.janos@crn.pl
FELIETONY
Krzysztof Jakubik, Agnieszka Kaczmarczyk, Tomasz Karwatka, Łukasz Kosuniak, Piotr Kowalski, Tomasz Kozon, Renata Lewicka, Bartosz Majewski, Wojciech Urbanek
GRAFIKA, LAYOUT, Tomasz Baziuk
FOTOGRAFIE
Theta Art Studio Tomasz Pisiński, PhotobyMysluk.pl, Adrian Stykowski, Piotr Syndoman, archiwum
PRENUMERATA prenumerata@crn.pl
REKLAMA I PROJEKTY SPECJALNE Agata Myśluk tel. 694 455 426 agata.mysluk@crn.pl
Jacek Goszczycki tel. 601 935 513 jacek.goszczycki@crn.pl
WYDAWCA
Peristeri Sp. z o.o. Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa
Reklamy są przyjmowane w siedzibie wydawnictwa. Za treść ogłoszeń redakcja nie ponosi odpowiedzialności. © 2025 Peristeri Sp. z o.o. Wszelkie prawa zastrzeżone. Computer Reseller News Polska contains articles under license from The Channel Company. © 2025 The Channel Company. All rights reserved.
Przychody z produkcji półprzewodników na zlecenie (rynek foundry) w II kw. 2025 r. wzrosły o 14,6 proc., osiągając rekordowy poziom 41,7 mld dol. – ustalił TrendForce. Solidny wzrost ma być zasługą chińskich subsydiów dla konsumentów. Skłonił on producentów do gromadzenia zapasów CPU i GPU, w oczekiwaniu na lepszą sprzedaż smartfonów, komputerów i serwerów. Zarówno wykorzystanie mocy produkcyjnych, jak i dostawy płytek krzemowych znacząco poprawiły się w dziesięciu największych na świecie firmach typu foundry (odlewniach).
Dell Technologies odnotowało rekordową sprzedaż w II kw. finansowym 2026 r., zakończonym 1 sierpnia br. Jej wartość wyniosła 29,8 mld dol., co stanowi wzrost o 19 proc. Z kolei zysk netto zwiększył się o 32 proc., do 1,16 mld dol. „W pierwszej połowie roku obrotowego 2026 dostarczyliśmy rozwiązania AI o wartości 10 miliardów dolarów, przewyższając dostawy z całego roku obrotowego 2025″ – poinformował Jeff Clarke, wiceprezes Dell Technologies.
Grupa AB w II kw. 2025 r. (III kw. roku finansowego 2024/2025) zwiększyła przychody ze sprzedaży o 53,5 mln zł rok do roku (+1,7 proc.), do kwoty 3,18 mld zł. Zysk netto wzrósł w tym czasie o 9,4 proc. rok do roku (sięgając 33,7 mln zł). Patrząc na ostatnie cztery kwartały obrotowe skonsolidowane przychody Grupy AB oczyszczone z wpływu różnic kursowych miały wartość 15,2 mld zł. To w dużej mierze efekt optymalizacji kapitału obrotowego, redukcji kosztów finansowych i wykorzystania przewag konkurencyjnych” – komentuje Grzegorz Ochędzan, wiceprezes ds. finansowych w AB.
Atende zakończyło zarówno II kw. 2025 r., jak i całe I półrocze aktualnego roku, silnym wzrostem rentowności. Otóż w okresie styczeń – czerwiec 2025 jednostkowy zysk Atende na działalności operacyjnej podskoczył o 110 proc. rok do roku, a wynik netto o 134 proc. Po dobrym I kw. 2025 r. znaczną poprawę wobec ub.r. wzmocnił II kw. 2025 r. Przykładowo, zysk netto zwiększył się o 51 proc. Zarząd Atende zastrzega, że powyższe wyniki są szacunkowe i mogą ulec zmianie.
rozstrzygnęło postępowanie na utrzymanie i rozwój Systemu Informacyjnego Skarbowo-Celnego (SISC). Na realizację zamówienia podstawowego w przetargu CIRF zamierzał przeznaczyć 135,2 mln zł. O kontrakt rywalizowali Asseco Poland i Comarch. CIRF zdecydował o wyborze oferty Asseco, które uzyskało wyższą punktację dzięki niższej cenie ofertowej (blisko 183 mln zł). Jeśli chodzi o kryteria jakościowe – doświadczenie specjalistów wymaganych do realizacji zamówienia – między obu graczami był remis – zarówno Asseco, jak i Comarch, uzyskali maksymalne noty. Zamówienie obejmuje świadczenie usług utrzymania i rozwoju komponentów systemu SISC, które obsługują procesy biznesowe w obszarach: import, eksport, tranzyt, statystyka obrotów towarowych i dane referencyjne.

„To unikalny okres dla branży IT. Szanse są długoterminowe” – Andrzej Przybyło, prezes zarządu AB








spadła o 9 proc. w II kw. 2025 r., do poziomu 28,7 mln sprzedanych sztuk – wynika z danych Canalysa (przy czym dane te nie obejmują Rosji). Stary Kontynent okazał się regionem o najgorszych wynikach w segmencie smartfonów na świecie w II kw. 2025 r. Spory dołek to głównie „zasługa” nowych unijnych przepisów dotyczących tzw. ekoprojektowania. Chodzi o Rozporządzenie 2023/1670, które wprowadza nowe wymagania środowiskowe dla smartfonów i tabletów, które weszło w życie 20 czerwca br. „Chęć producentów do zgromadzenia zapasów przed 20 czerwca nie spełniła się, ponieważ kanał sprzedaży opierał się przyjmowaniu nadwyżek. Ponadto niektórzy z największych operatorów z kilkumiesięcznym wyprzedzeniem wymagali, aby urządzenia w ich ofercie były zgodne z przepisami” – wyjaśnia Aaron West, starszy analityk w Omdia.
Elon Musk oskarżył inżyniera Xuechena Li o umyślne skopiowanie poufnych informacji oraz tajemnic handlowych ze służbowego laptopa na swoje osobiste urządzenia. Według złożonego do sądu pozwu, skradziona technologia zawiera „najnowocześniejsze rozwiązania AI z funkcjami przewyższającymi ChatGPT i inne konkurencyjne produkty”. Chińczyk Xuechen Li pracował w xAI od lutego 2024 r. jako członek zespołu technicznego. Zgodnie z zarzutami w czerwcu i lipcu 2025 r. sprzedał akcje xAI o wartości ponad 6,9 mln dol. 25 lipca br. skopiował poufne dane na swoje osobiste urządzenia, zaś 28 lipca złożył rezygnację, po wcześniejszym przyjęciu oferty pracy w OpenAI z datą rozpoczęcia 19 sierpnia br.
rejonowy nakazał Google’owi zapłacić na rzecz Ceneo karę 8 mln zł w związku z faworyzowaniem przez największą wyszukiwarkę świata własnej porównywarki cen (Google Shopping). Ustalona kara wynosi 50 tys. zł za każdy dzień naruszeń. Działania te narażały na straty firmy konkurencyjne wobec Google’a. Ceneo w swoim pozwie domagało się 2,331 mld zł rekompensaty (1,7 mld zł plus 615 mln zł odsetek za lata 2013 – 2024).
Netflix zmienia ceny bez wyraźnej zgody subskrybentów, czyli niezgodnie z prawem – twierdzi UOKiK. Mianowicie brak reakcji konsumenta na zawiadomienie o podwyżce, koncern traktuje jako zgodę. „Cena usługi – jak każde świadczenie – nie powinna być zmieniana jednostronnie, bez wyraźnej i świadomej zgody użytkownika. Takie działanie stanowi naruszenie prawa, któremu będziemy przeciwdziałać” – zapowiada Tomasz Chróstny, prezes UOKiK-u.
Minister Cyfryzacji unieważnił konkurs ofert na realizację w latach 2025 – 2026 zadania publicznego „Mistrzostwa w Algorytmice i Programowaniu – Studenci”. Nikt nie złożył oferty. Można je było składać od 13 czerwca do 4 lipca br. Celem zadania było zaktywizowanie studentów pod kątem rozwoju najbardziej zaawansowanych umiejętności informatycznych.
„To krok w kierunku socjalizmu” – republikański senator Rand Paul o rządowych planach przejęcia 10 proc. udziałów w Intelu.




„Docelowo myślimy o przenosinach na główny parkiet GPW” – Wojciech Wolny, prezes Euvic w kontekście planowanego debiutu na NewConnect.
Comarch sprzedał większościowy pakiet KS Cracovia SA spółce MRKT Poland, kontrolowanej przez Roberta Platka. Wartość transakcji nie została ujawniona. Mniejszościowy pakiet akcji Cracovii nabędzie Elżbieta Filipiak. Tym samym rodzina Filipiaków pozostanie zaangażowana w działalność klubu, a Comarch pozostanie jego sponsorem. Robert Platek pełni szereg ról menedżerskich w instytucjach finansowych. W 2002 r. dołączył do MSD Capital (obecnie DFO Management) – funduszu zarządzającego kapitałem Michaela Della i jego rodziny.

Euvic zapowiedział finalizację tzw. odwrotnego przejęcia, poprzez połączenie z EO Networks. Notowana na rynku NewConnect spółka zmieni nazwę na Euvic SA. Według zapowiedzi, jest to początek szerszej konsolidacji spółek w ramach grupy, a także plan na nowe przejęcia. Euvic SA chce pozyskać kapitał na dużą akwizycję za granicą. „Rozmowy w tej sprawie nabierają konkretnych kształtów” – zapewnił wiceprezes Łukasz Czernecki.
Koncern private equity Thoma Bravo przejmie Verint Systems za 2 mld dol. Finalizacja transakcji ma nastąpić przed 31 stycznia 2026 r. Verint to dostawca rozwiązań do automatyzacji obsługi klienta, który ma spółkę zależną także w Polsce. Oferuje platformę CX (customer experiences). Ma ponad 1 tys. partnerów w kanale sprzedaży na świecie. Po finalizacji zakupu Verint połączy się z Calabrio, dostawcą oprogramowania do zarządzania zaangażowaniem pracowników – firmy należącej do Thoma Bravo od 2021 r.
Rząd USA zdecydował o przejęciu 10 proc. udziałów w Intelu. Stanie się to w ten sposób, iż wcześniej przyznane koncernowi dotacje w wysokości 8,9 mld dol. (w ramach ustawy o chipach z 2022 r.) zostaną zamienione na akcje spółki. Ponadto SoftBank chce za 2 mld dol. kupić akcje Intela odpowiadające za około 2 proc. wszystkich wyemitowanych do tej pory przez spółkę. To nie pierwsza inwestycja koncernu w sektorze chipów – w 2016 r. SoftBank przejął ARM.

Straż Graniczna wybrała ofertę w przetargu na modernizację i utrzymanie platformy teleinformatycznej, zakup licencji, a także oprogramowania oraz praw do jego aktualizacji. Na realizację zamówienia SG zamierzała przeznaczyć blisko 40 mln zł. Wybrana została oferta Crayon Poland o wartości 36,1 mln zł (ofertę złożyło również APN Promise). Przedmiotem zamówienia była między innymi dostawa oprogramowania standardowego z licencjami wieczystymi i subskrypcji usług, w tym 20 produktów Microsoftu.

Ministerstwo Rodziny, Pracy i Polityki Społecznej modernizuje infrastrukturę serwerową. W ramach przetargu na 24 serwery, 2 macierze i 4 przełączniki resort zamierza wydać 37,7 mln zł. Jako wykonawcę wybrał IT Solution Factor. Ofertę złożył również Galaxy Systemy Informatyczne. Postępowanie obejmuję dostawę, instalację, konfigurację i wdrożenie infrastruktury serwerowej wraz z oprogramowaniem na potrzeby rozbudowy ośrodków przetwarzania danych MRPiPS.
Między 1 stycznia a 5 sierpnia 2025 r. firmy IT na świecie ogłosiły 149 140 zwolnień – ustalili analitycy RationalFX. Ich zdaniem rzeczywista skala cięć może być znacznie większa, ponieważ w wielu przedsiębiorstwach redukcje nie zostały potwierdzone. Dane to suma zwolnień z 250 firm, przy czym podmioty z centralą w USA odpowiadają za 71 proc. z nich. Największe redukcje załogi ogłosił w br. Intel, a drugi jest Microsoft. Jeśli ten trend utrzyma się, według analityków łączna liczba zwolnień w branży IT w całym bieżącym roku na świecie sięgnie 242 tys. osób.
Tak orzekł Sąd Federalny w USA. Warunek jest taki, że koncern będzie udostępnianiał dane z wyników z wyszukiwań innym firmom. Mogą na tym skorzystać inni giganci branży. Sprawę skierował do sądu departament sprawiedliwości USA. Domagał się przymusowego oddzielenia od Google’a przeglądarki Chrome, co miało zapobiec wykorzystywaniu dominującej pozycji na rynku. Zgłosili się już chętni do zakupu.,między innymi Perplexity, które zaoferowało blisko 35 mld dol. Niektórzy wyceniali Chrome’a nawet na 50 mld dol. Sąd jednak uznał, że rozwój narzędzi AI zwiększył konkurencję w wyszukiwaniu, więc ryzyko monopolu wyszukiwarki Google’a zostało oddalone. Tym niemniej Google w oświadczeniu wyraziło zaniepokojenie koniecznością udostępniania danych z wyszukiwarki innym firmom. Mówi o obawie dotyczącej prywatności danych.
Prezydent podpisał nowelizację ustawy o VAT, która wprowadza Krajowy System eFaktur. Oznacza to, że od 1 lutego 2026 r. stanie się on obowiązkowy dla dużych podmiotów. Chodzi o firmy, które w 2024 r. osiągnęły sprzedaż na poziomie co najmniej 200 mln zł wraz z podatkiem. Natomiast od 1 kwietnia 2026 r. system obejmie pozostałych przedsiębiorców, za wyjątkiem najmniejszych biznesów (do 450 zł dla pojedynczej faktury, jak też o łącznej wartości sprzedaży do 10 tys. zł miesięcznie), które „wejdą” w obowiązkowy KSeF w dn. 1 stycznia 2027 r.

Wrocławski Spyrosoft analizuje możliwość przejęcia firmy EEF (Engineering Engineered Framework). To podmiot specjalizujący się w obszarze automotive na rynkach azjatyckich, zwłaszcza w Indiach i Korei. Należy do grupy kapitałowej z Azji Południowej. Polska firma podpisała list intencyjny, w którym wyraziła zainteresowanie przejęciem 100 proc. udziałów w EEF. Obecnie ruszył proces badań due diligence, który powinien zakończyć się jeszcze w tym roku.
Rozpoczął się nabór w CPPC o dofinansowanie w ramach działania „Wysoka jakość i dostępność e-usług publicznych”. Do podziału jest 800 mln zł. Środki popłyną na inwestycje w Krajowe Centrum Przetwarzania Danych. Powstają trzy data center o powierzchni 2 tys. mkw każdy. Wartość projektu to ok. 1 mld zł. Nabór ma charakter niekonkurencyjny. Granty są przeznaczone m.in. na prace budowlane, budowę trzeciego ośrodka, odbiory i testy.
Rozpoczął się nabór wniosków w ramach nowego konkursu grantowego Cyberbezpieczne Wodociągi. Do podziału jest 313 mln zł. Minimalny poziom dofinansowania to 130 tys. zł. Z kolei maksymalna kwota zależy od wysokości otrzymanej pomocy de minimis. Granty będzie można przeznaczyć na sprzęt i oprogramowanie, audyty, zarządzanie cyberbezpieczeństwem czy szkolenia. Ze wsparcia będą mogły skorzystać podmioty Krajowego Systemu Cyberbezpieczeństwa, w tym przedsiębiorstwa wodociągowo-kanalizacyjne. Wnioski można składać do 2 października 2025 r. Nabór prowadzi Centrum Projektów Polska Cyfrowa.
Vertiv sfinalizował przejęcie Great Lakes – amerykańskiego dostawcy szaf serwerowych i zintegrowanych rozwiązań infrastrukturalnych. Wartość umowy to 200 mln dol. Jak twierdzi koncern, technologie i wiedza Great Lakes zwiększą jego możliwości dostarczania kompleksowych rozwiązań infrastrukturalnych oraz szybkiej konfiguracji środowisk AI. Vertiv przejął także belgijską firmę Waylay, której technologie wzmocnią rozwiązania do monitorowania i sterowania oparte na AI, wykorzystywane w systemach zasilania i chłodzenia Vertiva. Cena zakupu nie została ujawniona.
Salesforce ściął zatrudnienie o 4 tys. osób
W ciągu 8 miesięcy Salesforce zmniejszył zatrudnienie z 9 tys. do ok. 5 tys. osób – poinformował CEO Marc Benioff. Miejsca personelu zajmują agenci AI. Obecnie firma dysponuje agentami sprzedażowymi, którzy kontaktują się z każdą osobą zwracającą się do firmy. AI obsługuje już 50 proc. rozmów.














SNIA zainicjowała projekt Storage.AI, którego celem jest stworzenie otwartych standardów dla efektywnego przesyłania i przechowywania danych w systemach sztucznej inteligencji.

Organizacja SNIA podjęła prace na rzecz wypełnienia wciąż istniejącej w infrastrukturze IT luki, która negatywnie wpływa na wydajność środowisk AI. Sprawa dotyczy obserwowanych często wąskich gardeł powodowanych przez opóźnienia, na które wpływ mają systemy przechowujące dane potrzebne do zasilania treścią mechanizmów sztucznej inteligencji. Zainicjowany w sierpniu br. projekt Storage.AI ma na celu stworzenie zestawu otwartych interfejsów i modeli współpracy między systemami obliczeniowymi i pamięciami masowymi. Jego podstawowym założeniem jest całkowita neutralność od dostawców – w ten sposób inicjatywa ma umożliwić integrację dowolnych komponentów: procesorów CPU, GPU i DPU, systemów dyskowych i nośników SSD NVMe, pamięci SCM oraz sieci RDMA. Systemy generatywnej AI wymagają nie tylko zaawansowanych algorytmów, ale i infrastruktury danych spełniającej
rosnące wymagania co do przepustowości, opóźnienia, skalowalności i elastyczności. Choć zwykle podkreśla się znaczenie mocy obliczeniowej procesorów GPU, coraz więcej analiz dowodzi, że prawdziwym wąskim gardłem są dane – a konkretnie procesy ich dostarczania i przechowywania. Modele GenAI potrzebują stałego strumienia informacji, a gdy pamięć masowa nie nadąża, kosztowne GPU pozostają bezczynne. Pierwszym problemem jest brak standaryzacji – silnie powiązane z konkretnymi dostawcami rozwiązania tworzą zamknięte ekosystemy utrudniające skalowanie i współpracę. Drugim jest zbyt długi czas dostępu: w tradycyjnych architekturach dane, zanim dotrą do GPU, przechodzą z pamięci masowych przez sieć i CPU, co generuje opóźnienia. Trzecim wyzwaniem jest brak efektywnego zarządzania danymi w całym cyklu życia AI: od treningu i wnioskowania, po backup, audyt i testy. Wiele syste-
Najważniejsze koncepcje techniczne zintegrowane w ramach standardu Storage.AI
l Smart Data Accelerator Interface (SDXI) – interfejs przyspieszający transfer danych między pamięcią a procesorami CPU, GPU i DPU
l GPU-initiated I/O (AiSIO) – mechanizm inicjowania operacji wejścia/wyjścia bezpośrednio przez GPU, co redukuje opóźnienia i obciążenie CPU
l Computational Storage API – interfejs umożliwiający przetwarzanie danych bezpośrednio w nośnikach lub systemach pamięci masowych, bez potrzeby wprowadzającego opóźnienia przesyłania ich do hosta
l Flexible Data Placement API – interfejs umożliwiający optymalne rozmieszczanie danych w środowisku IT, zależnie od etapu ich przetwarzania przez mechanizm sztucznej inteligencji
l File/Object over RDMA – szybki dostęp do plików i obiektów poprzez protokół RDMA w celu zminimalizowania opóźnienia
l NVM Programming Model – standard definiujący sposób, w jaki oprogramowanie ma uzyskiwać dostęp i zarządzać nośnikami NVMe na poziomie systemu, aby zapewnić kompatybilność i optymalną wydajność
mów jest zoptymalizowanych pod jedną fazę, ignorując pozostałe.
Wiarygodność inicjatywy Storage. AI jako ujednoliconej platformy dla całego ekosystemu sztucznej inteligencji zwiększona jest dzięki wieloletniemu doświadczeniu SNIA w tworzeniu pozytywnie przyjętych przez branżę pamięci masowych standardów, takich jak Swordfish, SMI-S czy CDMI. W ramach
NAJWIĘKSZYM NIEOBECNYM JEST NVIDIA.
tego projektu podjęta została współpraca z wieloma instytucjami standaryzacyjnymi, jak UEC, NVM Express, OCP, OFA, DMTF oraz SPEC. Swoje wsparcie zadeklarowały też wiodące firmy z branży: AMD, Cisco, DDN, Dell, IBM, Intel, Kioxia, Microchip, Micron, NetApp, Pure Storage, Samsung, Seagate, Solidigm i Weka. Natomiast największym nieobecnym na liście producentów wspierających projekt Storage.AI jest firma Nvidia. Nie podano oficjalnych informacji co do przyczyn. Można jedynie zakładać, że jako dostawca zastrzeżonych rozwiązań może nie być zainteresowana wspieraniem tych otwartych, które umożliwiałyby interoperacyjność z konkurencyjnymi produktami. Taka sytuacja może postawić pod znakiem zapytania tempo upowszechnienia standardu Storage.AI w skali globalnej, ale jednocześnie otwiera przestrzeń dla pozostałych graczy do budowania bardziej zintegrowanego i gotowego do współpracy ekosystemu AI, w którym zniwelowana w pewnym stopniu zostanie de facto monopolistyczna pozycja Nvidii.
W dynamicznej branży IT personalna karuzela kręci się szybciej niż w innych. Prezentujemy kilka najważniejszych zmian, które nastąpiły w minionych tygodniach.


Piotr Korycki został dyrektorem finansowym w Grupie Comarch i dołączył do jej zarządu. W latach 2021–2024 pełnił funkcję prezesa zarządu Polpharma Biologics. Wcześniej przez blisko 20 lat był związany z TVN-em. W latach 2012–2018 zajmował stanowisko CFO i COO, a od 2018 r. do 2021 r. – prezesa i dyrektora generalnego. Do zarządu Comarchu dołączyła również Joanna Bilewicz. Jako Chief People Officer objęła stanowisko wiceprezesa. Ma ponad 20 lat doświadczenia w zarządzaniu HR, które zdobywała w globalnych strukturach Grupy Electrolux.

Małgorzata Kasperska objęła stanowisko dyrektora operacyjnego działu sprzedaży we Frizo. W nowej roli będzie rozwijać potencjał sprzedażowy polskiego producenta, wzmacniać relacje z kluczowymi partnerami i wspierać klientów w transformacji w kierunku tzw. zeroemisyjności. Dotychczas Małgorzata Kasperska przez 8 lat była związana ze Schneider Electric. Ostatnio zajmowała stanowisko VP Secure Power Division MEE Cluster (Polska, Czechy, Słowacja, Ukraina). Wcześniej przez kilkanaście lat pełniła role kierownicze w Polsce i regionie w Vertivie.

Mariola Ciszewska-Brauła dołączyła do Komsa Polska, obejmując stanowisko Lead of Reseller Account Management. Odpowiada za rozwój kanału B2B w zakresie marek commercial i współpracę z partnerami. Ma ponad 15 lat doświadczenia w branży IT w sprzedaży B2B i zarządzaniu zespołami handlowymi. Karierę rozpoczynała w AEC Design, następnie pracowała na stanowiskach managerskich w Also Polska, zaś ostatnio była związana z Triumph International.

Krzysztof Rachwalski objął stanowisko Strategic Account Executive – ENT – CEE w GitLabie. Będzie rozwijał sprzedaż dostawcy platformy DevSecOps do dużych organizacji w Polsce, w krajach bałtyckich, Czechach, na Słowacji i Węgrzech. Krzysztof Rachwalski przez ostatnie blisko 4 lata był związany z Salesforce’m jako Strategic Accounts Director na Polskę, Estonię i Łotwę. Wcześniej był Country Directorem Citrixa w Polsce (2018 – 2021) oraz dyrektorem Veeam Software na Europę Wschodnią i regionalnym menedżerem (2011 – 2017). Doświadczenie zdobywał również w takich firmach, jak VMware i IBM.

Z początkiem sierpnia br. stanowisko prezesa Iron Mountain Polska objęła Karolina Słowińska. W ciągu 13 lat pracy dla tej korporacji, z pozycji prawnika awansowała w strukturach globalnych do pozycji Head of Global Sales Operations DBU (Digital Business Unit). Specjalizuje się w doradztwie strategicznym i operacyjnym, zarządzaniu ryzykiem i rozwiązywaniu złożonych kwestii prawnych.

Jarosław Pękala wszedł do zarządu Europa Ubezpieczenia. Będzie odpowiadał za obszar Obsługi Klientów i Operacji. Przejął również nadzór nad Departamentem IT. Odpowiada za tworzenie strategii IT firmy, transformację cyfrową i projekty wykorzystujące narzędzia AI. Wcześniej przez ponad 15 lat zajmował stanowiska menedżerskie w AXA (później Uniqa) i w Fortna Poland.

Cyberbezpieczeństwo.
Cyberbezpieczeństwo. Wzrost. Partnerstwo.
Wzrost. Partnerstwo.
Infinigate – Twój zaufany partner w budowaniu bezpiecznej, cyfrowej przyszłości.
Infi nigate – Twój zaufany partner w budowaniu bezpiecznej, cyfrowej przyszłości.
Jesteśmy Value Added Distributor (VAD) i jednym z najszybciej rosnących VAD-ów w Europie
Jesteśmy Value Added Distributor (VAD) i jednym z najszybciej rosnących VAD-ów w Europie
Wspieramy partnerów w rozwoju biznesu, oferując dostęp do najlepszych technologii oraz pełne wsparcie na każdym etapie współpracy.
Wspieramy partnerów w rozwoju biznesu, oferując dostęp do najlepszych technologii oraz pełne wsparcie na każdym etapie współpracy.
Nasze specjalizacje: Cyberbezpieczeństwo – kompleksowa ochrona danych i systemów Bezpieczna chmura – nowoczesne rozwiązania dla biznesu
Bezpieczne sieci – niezawodna i skalowalna infrastruktura
Nasze specjalizacje: Cyberbezpieczeństwo – kompleksowa ochrona danych i systemów Bezpieczna chmura – nowoczesne rozwiązania dla biznesu Bezpieczne sieci – niezawodna i skalowalna infrastruktura

Wsparcie techniczne - eksperci dostępni na każdym etapie
Wsparcie techniczne - eksperci dostępni na każdym etapie
Wsparcie finansowe i marketingowe – pomagamy partnerom rosnąć
Wsparcie finansowe i marketingowe – pomagamy partnerom rosnąć
Zostań naszym partnerem!
Zostań naszym partnerem!
Dowiedz się więcej: www.infinigate.pl
Dowiedz się więcej: www.infinigate.pl
Napisz do nas: dl-sales-pl@infinigate.com
Napisz do nas: dl-sales-pl@infinigate.com
Zadzwoń: +48 22 332 58 04
Zadzwoń: +48 22 332 58 04


Stany Zjednoczone robią co mogą, aby ograniczyć postępy Chin w zakresie rozwoju sztucznej inteligencji. Tymczasem Pekin wydaje coraz więcej pieniędzy na alternatywne rozwiązania dla amerykańskiej technologii.
Wojciech Urbanek
Chiny intensyfikują wysiłki zmierzające do budowy krajowego ekosystemu sztucznej inteligencji, który może funkcjonować bez zachodnich technologii, przygotowując się na długotrwałą rywalizację technologiczną ze Stanami Zjednoczonymi. Amerykanie starają się, poprzez kontrolę eksportu oraz inne ograniczenia, zablokować Chińczykom dostęp do amerykańskiego kapitału, talentów i zaawansowanych technologii. I przynosi to pewne efekty, choć ostatni raport „Finan-
W PAŃSTWIE ŚRODKA ISTNIEJE, WYCENIANY NA MILIARD DOLARÓW, CZARNY RYNEK CHIPÓW AI NVIDII.
cial Times” pokazuje, że zawsze znajdą się sposoby, aby ominąć nakazy. W Państwie Środka istnieje, wyceniany na miliard dolarów, czarny rynek chipów AI Nvidii. Chiny nie mogą jednak rozwijać zdolności AI bazując jedynie na przemycających układy dystrybutorach z Malezji oraz Tajlandii. Ceny procesorów oferowanych w szarej strefie są o połowę wyższe od tych sprzedawanych legalnie.
Stawka w globalnym wyścigu AI jest bardzo wysoka. Jak na razie Stany Zjednoczone utrzymują swoją przewagę – Dolina Krzemowa jest domem dla najpopularniejszych modeli sztucznej inteligencji i najpotężniejszych chipów. Nie dziwi zatem, że Chiny nie zamierzają całkowicie rezygnować z amerykańskich technologii. Jak donosi „The Wall Street Journal” przywrócenie sprzedaży chipów Nvidia H20 do Chin była jednym z priorytetów w rozmowach handlowych prowadzonych pomiędzy Pekinem a Waszyngtonem. Administracja Donalda Trumpa zezwoliła na eksport tych jednostek do Chin. Wciąż jednak obowiązuje zakaz dostaw najbardziej wydajnych procesorów, w tym między innymi B200, stąd powstanie nielegalnych kanałów sprzedaży.
Donald Trump podejmuje też inne kroki, które mają prowadzić USA do utrzymania dotychczasowej przewagi. Niedawno ogłosił plan AI, który ma na celu zmniejszenie biurokracji i ułatwienie firmom technologicznym budowania centrów danych potrzebnych do szkolenia modeli sztucznej inteligencji. W tym roku w Białym Domu, OpenAI i japoński SoftBank ogłosiły budowę centrów danych dla potrzeb AI o wartości 500 mld dol., aczkolwiek projekt ten boryka się z opóźnieniami.
Rosnąca popularność DeepSeek wzmocniła nadzieje Pekinu na osiągnięcie większej samowystarczalności. Huawei opublikowało w tym roku kilka artykułów naukowych szczegółowo opisujących, w jaki sposób jego badacze wykorzystali własne chipy do budowy dużych modeli językowych. „Chiny wyraźnie czynią postępy w umacnianiu swojego ekosystemu AI i obliczeniowego” – przyznał niedawno Michael Frank, założyciel think tanku Seldon Strategies. Największym wyzwaniem dla rozwoju sztucznej inteligencji w Chinach jest
przezwyciężenie trudności w pozyskiwaniu najbardziej zaawansowanych chipów. Tym bardziej, że Waszyngton odciął Chiny nie tylko od najbardziej wydajnych układów Nvidii, ale także od zaawansowanych obrabiarek używanych do produkcji najnowocześniejszych chipów. Chińskie firmy starają się w miarę sprawnie poruszać pomimo pewnych ograniczeń. Na zdecydowanego lidera wyrasta Huawei, budujący zaawansowane systemy obliczeniowe pracujące z zaawansowanymi modelami AI. Amerykański badacz SemiAnalysis poinformował niedawno, że jeden z klastrów Huawei, łącząc 384 chipy Ascend, przewyższa w niektórych kategoriach flagowy system Nvidii z 72 jednostkami GPU.
Analitycy Morgan Stanley przewidują, że Chiny do 2027 r. będą czerpać 82 proc. chipów AI od producentów krajowych, w porównaniu z 34 proc. w 2024 r.
Chińczycy dążą również do utworzenia międzynarodowej społeczności open-source, dzięki której modele AI mogłyby być swobodnie wdrażane i ulepszane przez użytkowników. W pewnym sensie pokazuje to ambicje Chin w zakresie kształtowania globalnych standardów dla AI i może podważyć pozycję USA, których wiodące modele nie bazują na otwartym kodzie.
Osobną kwestią jest moc potrzebna do zasilania coraz bardziej energochłonnych centrów danych. Chiny nie zaniedbują tego tematu – planują wydać 564 mld dol. na projekty budowy sieci energetycznej w ciągu najbliższych pięciu lat. To stanowi wzrost o ponad 40 proc. w porównaniu z poprzednim pięcioleciem. Chiny mają obecnie około 2,5 razy większą moc wytwórczą niż USA, a dysproporcja ma wzrosnąć, pomimo rosnącego wytwarzania energii w Stanach Zjednoczonych.


„Uważam, że szczerość, transparentność i szybkość działania w relacjach z partnerami są dziś równie ważne jak jakość produktu” – mówi Robert Gawroński, B2B Channel Manager w polskim oddziale TP-Link.

Co jest dla Pana osobiście najważniejsze we współpracy z partnerami?
Kluczowe jest zrozumienie ich modelu biznesowego i realnych potrzeb. Wśród naszych partnerów są integratorzy, resellerzy i partnerzy z sektora e-commerce, a także resellerzy oraz dystrybutorzy z wartością dodaną. Każdy z nich działa inaczej, dlatego indywidualne podejście jest absolutnie niezbędne. Wsparcie musi być elastyczne i dostosowane do skali działalności każdego z partnerów. Jedni oczekują pomocy w tworzeniu ofert projektowych, inni – szkoleń technicznych, a jeszcze inni – działań marketingowych i lead generation.
Musicie wpisywać się w ich jednostkowe strategie pod kątem biznesowym oraz produktowym…
Tak właśnie. Dla mnie szczególnie ważne jest zrozumienie, jaką rolę TP-Link odgrywa w ofercie danego partnera, czy jesteśmy dla niego fundamentem sprzedaży, czy raczej uzupełnieniem portfela. To pozwala
JEDNYM Z NASZYCH KIERUNKÓW ROZWOJU
JEST RYNEK ENTERPRISE.
dopasować zakres współpracy, wsparcia i zaangażowania. Priorytetem dla naszego zespołu jest też pełna dostępność i partnerskie podejście. Jeśli partner potrzebuje wsparcia – jesteśmy do dyspozycji: czy to chodzi o szkolenie, sprawdzenie statusu dostawy, przygotowanie oferty, czy nawet banera na jego stronę internetową. Uważam, że szczerość, transparentność i szybkość działania w relacjach z partnerami są dziś równie ważne jak jakość produktu. Stawiamy również duży nacisk na edukację – nie tylko dla pracowników naszych partnerów, ale również dla ich klientów. Szkolenia produktowe, warsztaty, prezentacje nowości – to codzienna część naszej pracy,
która procentuje zarówno sprzedażowo, jak i relacyjnie. Co ważne, moje podejście jest takie, że zapewniamy wsparcie każdemu partnerowi, niezależnie od jego wielkości.
Jakie są cele, które chce Pan zrealizować w kanale partnerskim?
Najważniejszy jest długoterminowy rozwój sprzedaży, oparty jednak nie na „szybkich wynikach”, ale na budowaniu świadomości marki TP-Link jako solidnego dostawcy rozwiązań biznesowych. Wciąż wiele osób kojarzy nas głównie z segmentem konsumenckim, a przecież portfolio B2B – Omada, VIGI, rozwiązania dla ISP, przełączniki PoE, to zaawansowane produkty kierowane do profesjonalnych wdrożeń. Pracujemy także nad budowaniem świadomości klientów końcowych w tym zakresie, bo jeżeli użytkownik zna markę i jej ufa, naszym partnerom jest znacznie łatwiej prowadzić rozmowy handlowe i domykać projekty. Co ważne, takie podejście działa. TP-Link od lat systematycznie zwiększa swoje przychody w Polsce, a nasz udział w rynku rośnie z roku na rok. W tym roku wzrost liczby partnerów, z którymi współpracujemy, jest szybszy niż w poprzednich latach, co pokazuje, że droga którą obraliśmy jest słuszna. Skupiamy się jednak nie tylko na wynikach, ale przede wszystkim na zrozumieniu, skąd się one biorą. Oznacza to dogłębną analizę danych sprzedażowych, segmentację rynku i identyfikowanie obszarów, które mają potencjał do dalszego rozwoju. Dzięki takim analizom możemy lepiej wspierać naszych partnerów – dostarczać im wiedzę, argumenty sprzedażowe i konkretne działania, które realnie wpływają na ich efektywność.
Jakie są Pana zdaniem obecnie największe wyzwania dla partnerów i jak staracie się je adresować?
Jednym z głównych jest dotarcie do większych projektów, zwłaszcza w segmencie
enterprise. Choć, tak jak wspomniałem, portfolio TP-Link w obszarze rozwiązań biznesowych jest coraz szersze i bardziej zaawansowane, to nadal spotykamy się z barierą błędnego postrzegania marki wyłącznie jako dostawcy tańszych, konsumenckich rozwiązań. Spodziewamy się, że w 2026 roku coraz większym wyzwaniem będzie nadążanie za zmianami technologicznymi. Popularyzacja Wi-Fi 7, przełączników multigigabitowych, rosnące wymagania dotyczące przepustowości i niezawodności sieci będą wymagały od partnerów podnoszenia kompetencji i dostosowywania ofert do rosnących oczekiwań klientów. Naszą odpowiedzią na te wyzwania są codzienne, systematyczne działania: edukacja, szkolenia, wsparcie w projektach, obecność na wydarzeniach branżowych i wspólna promocja z partnerami, praca nad świadomością i wiarygodnością marki. Regularnie uczestniczymy w eventach organizowanych przez partnerów dla ich klientów, zapraszamy ich również do współpracy podczas ogólnopolskich konferencji. Dzięki temu mogą zaprezentować się ramię w ramię z naszą firmą, co dodatkowo zwiększa ich wiarygodność i daje realne możliwości pozyskiwania nowych klientów. Fundamentem pozostaje jednak jedno: być zawsze dostępnym i gotowym do pomocy – niezależnie od skali projektu czy profilu partnera. Tylko tak da się budować wspólny, zrównoważony biznes.
TP-Link otrzymał certyfikat
Channel Master 2025.
Robert Gawroński odebrał go podczas Gali CRN.

„Do dziś pamiętam, jakim szokiem było dla mnie jedno z wystąpień, podczas którego prelegent przekonywał kilka tysięcy słuchaczy, że marże z obecnych 50 procent można podnieść do 58 procent. Rozumiesz? Nie do kilku procent, jak w modelu transakcyjnym, ale do 58!” – mówi Maciek Szcześniak, pomysłodawca studiów podyplomowych dla resellerów i integratorów IT.
„ Akademia business as a service – zarządzanie transformacją organizacji”. Tak nazywa się nowy kierunek studiów podyplomowych w Akademii Leona Koźmińskiego. To pierwsze na świecie tego rodzaju studia, których celem jest pomoc resellerom i integratorom w skutecznej transformacji firm do modelu świadczenia usług zarządzanych (Managed Services Provider). Jak doszło do tego, że po kilku dekadach w branży, w tym jako globalny wiceprezes HPE, zdecydowałeś się na pracę akademicką?
Maciek Szcześniak Kiedy opiekowałem się globalnym kanałem sprzedaży HPE, z niepokojem obserwowałem niewielki, ale systematyczny spadek liczby partnerów, którzy robili z nami regularny biznes w segmencie SMB, za który byłem odpowiedzialny. Co gorsza, ten proces wyraźnie przyspieszył podczas Covidu, głównie
JEŚLI KTOŚ KASUJE KLIENTA ZA
GODZINĘ PRACY, TO JESZCZE NIE ZNACZY, ŻE ŚWIADCZY USŁUGĘ W MODELU MSP.
w Stanach Zjednoczonych. Tymczasem znajomi menadżerowie, którzy odpowiadali za rynek SMB u dystrybutorów, informowali mnie, że sprzedaż do małych i średnich firm rośnie jak na drożdżach, a po Covidzie jest lepiej niż kiedykolwiek wcześniej. Miałem więc poważny dysonans poznawczy, który należało wyjaśnić. Udało mi się to głównie dzięki udziałowi w kilku konferencjach dla partnerów
z rynku SMB, między innymi DattoCon i IT Nation Connect.
Spotkałeś tam odpowiednie osoby?
I tak, i nie. Zwykle na konferencjach partnerskich spotykałem co najmniej kilku dobrych znajomych z branży. Tymczasem na wspomnianych eventach nie znałem dosłownie nikogo. To uświadomiło mi, że równolegle do tradycyjnego rynku resellerskiego od dłuższego już czasu rozwijał się rynek managed services – i to zjawisko umknęło nie tylko mnie, ale też wielu innym przedstawicielom producentów. Pojawiło się dużo nowych firm, które działały już nie w tradycyjnym, transakcyjnym modelu sprzedaży, do którego byłem przywiązany od czasów Compaqa i HP, lecz w modelu subskrypcyjnym, często oferując zaawansowane usługi zarządzane. To nie byli typowi partnerzy HPE. Pamiętam, jakim szokiem było dla mnie jedno z wystąpień, podczas którego prelegent przekonywał kilka tysięcy słuchaczy, że marże z obecnych 50 procent można podnieść do 58 procent. Rozumiesz? Nie do kilku procent, jak w modelu transakcyjnym, ale do 58! Gdy HPE borykało się z malejącą liczbą partnerów walczących o kilkuprocentowe, góra kilkunastoprocentowe marże, na świecie działały firmy IT, które nie godziły się na 50 procent marży…
To musiało zrobić wrażenie na każdym, kto obserwował erozję marż na klasycznym rynku IT. Jak rozumiem, to był dla Ciebie pewien przełom? Tak. Postanowiłem wtedy zrobić wszystko, żeby na wylot poznać model bizne-
sowy polegający na świadczeniu usług zarządzanych przez Managed Services Providerów. W tym celu spotykałem się z wieloma firmami, które odniosły w tym zakresie duży sukces, a część z nich przeprowadziła niełatwą transformację ze sprzedaży transakcyjnej do subskrypcyjnej. Z drugiej strony poznałem też firmy, którym taka transformacja się nie udała, z wielu różnych powodów.
Jaki był ten największy?
Największy problem zwykle stanowi zmiana mentalności. Menadżerowie, którzy czasami od dekad działają w tradycyjnym modelu sprzedaży, nie doceniają skali wyzwania związanego z transformacją biznesu do modelu as-a-service. Zabierają się do tego bez strategicznego, kompleksowego planu rozpisanego na dwa do trzech lat. Sądzą, że wystarczy jak do dotychczasowej oferty dodadzą jedną czy kilka usług i staną się w ten sposób Managed Services Providerami. A tak nie jest, bo nie każda usługa jest z automatu usługą typu MSP. Jeśli ktoś kasuje klienta za godzinę pracy, to jeszcze nie znaczy, że to jest usługa MSP. Model MSP rządzi się swoimi prawami. Podam taki konkretny przykład nieudanej transformacji. Otóż niedawno rozmawiałem z szefem dużej firmy w Niemczech, który przejął lokalnego Managed Services Providera. Powiedział mi, cytuję: „Wiesz co Maciek? Ja się nie jestem w stanie od nich tego wszystkiego nauczyć. Oni nadal obsługują swoich klientów, świadczą im te usługi zarządzane i robią to bardzo dobrze, ale ja nie potrafię przetransferować ich wiedzy i umiejętności na resztę mojej firmy”.
I teraz wracając do naszych studiów podyplomowych: one powstały po to, żeby nauczyć resellerów, jak przeprowadzić taką właśnie transformację.
Zacznijmy jednak od pytania: czemu ma służyć ten wysiłek?
Powód jest prosty: to jest model biznesowy, w którym mamy zapewnione stabilne przychody, w ramach długoletnich kontraktów, a więc co miesiąc inkasujemy od klienta płatność za określony rezultat danej usługi. Bez szarpania się o każdy kolejny kwartał.
Dlaczego tak trudno się na ten model przestawić?
Z wielu względów. W modelu usługowym zupełnie inaczej kształtują się proporcje pomiędzy liczbą sprzedawców a liczbą inżynierów. Zmienia się też system wynagradzania handlowców – ich prowizje nie wynikają już z dużych, jednorazowych transakcji, lecz z mniejszych płatności rozłożonych w czasie. Choć w dłuższej perspektywie jest to dla nich korzystne finansowo, na początku często czują się pokrzywdzeni. Poza tym wyjątkowo ważna jest transformacja działu marketingu, a to dlatego, że świadcząc usługi zarządzane nie pozycjonujemy się jako reseller tego czy innego vendora. Nie chwalimy się tym, że jesteśmy złotym partnerem producenta iks, albo platynowym producenta igrek. Jako Managed Services Provider pozycjonujemy się jako niezależny usługodawca. W tym przypadku rośnie znaczenie naszej własnej marki i związanej z nią wartości dodanej dla klienta. Dostarczanie usług wymaga również wdrożenia odpowiednich procesów i regularnego monitorowania szeregu wskaźników, w tym kosztu i poziomu wykorzystania zasobów technicznych. Bez takich danych trudno właściwie kalkulować ceny usług. Zarządzanie tym zestawem procesów jest wymagające, ale można się tego nauczyć.
A jak długo trwa taka kompleksowa transformacja?
Jak pokazuje doświadczenie firm, które z sukcesem przeprowadziły transformację do modelu MSP, przy dobrym, strategicznym planowaniu to „ćwiczenie” na 2–3 lata. Tylko w tym celu konieczny

jest dobry plan, który adresuje wszystkie elementy takiego projektu. Zaznaczę, że wcale nie jestem adwokatem przechodzenia na pełny model MSP, taki w 100 procentach. Rekomenduję raczej wybudowanie w ten sposób w firmie „drugiej nogi”, bez porzucania sprzedaży sprzętu w modelu transakcyjnym. Tradycyjna sprzedaż jest często świetnym sposobem na pozyskanie nowych klientów. Z czasem jednak wiele firm migruje większość sprzedaży do modelu usługowego, bo jest on o wiele korzystniejszy finansowo.
Poza tym łatwiej w tym modelu utrzymać długofalową relację z klientem, a w zasadzie jest to konieczne. Otóż to. Coraz częściej słyszę o przypadkach, kiedy reseller sprzedaje klientowi sprzęt, a następnie u tego samego klienta pojawia się partner MSP, który „obudowuje” ten sprzęt własnymi usługami zarządzanymi. Potem, przy kolejnej próbie sprzedaży sprzętu, reseller niestety nie ma żadnej karty przetargowej, albo jest ona bardzo słaba. Klient jest już związany z partnerem MSP, który zapewnia mu
obsługę i zna jego infrastrukturę, więc reseller może wtedy co najwyżej na bardzo niskiej marży sprzedać temu klientowi coś, na co mu partner MSP pozwoli…
Warto też zwrócić uwagę, że o ile partnerzy MSP to wyjątkowo trudna konkurencja dla tradycyjnych resellerów i integratorów, to pomiędzy sobą MSP nierzadko blisko współpracują. Czy tak jest w istocie?
To prawda. Dzięki temu, że na rynku Managed Services Providerów lojalność klientów jest ogromna, partnerzy MSP dobrze wiedzą, że o wiele więcej zyskają dzieląc się pomiędzy sobą wiedzą i generalnie, współpracując ze sobą w takim czy innym zakresie. Ryzyko utraty klienta na rzecz konkurenta jest niewielkie i znacznie mniejsze od potencjalnych korzyści ze współpracy. Takie podejście do tematu kooperacji na rynku tradycyjnych resellerów czy integratorów właściwie nie występuje.
W czwartej dekadzie rozwoju polskiego rynku IT coraz większy odsetek założycieli polskich firm IT szuka „wyjścia z inwestycji”. Transformacja do modelu as-a-service jest w tym kontekście ryzykowna czy pożądana?
Zdecydowanie pomoże uzyskać znacznie wyższą wycenę firmy. W Polsce ten aspekt wciąż bywa niedoceniany, a to poważny błąd w przypadku właścicieli, którzy w perspektywie kilku lat planują sprzedaż firmy – czy to z myślą o emeryturze, czy o nowym biznesie. W przypadku tradycyjnego biznesu IT zwykle taki właściciel zderza się z niską wyceną. Dlaczego? Dlatego, że bardzo często w takich firmach resellerskich tym najlepszym sprzedawcą jest sam właściciel. Czyli jak on odejdzie, bo będzie chciał podróżować po świecie, to jak to wpłynie na przychody jego firmy? W przypadku Managed Service Providerów, ze względu na powtarzalne przychody w długim okresie, wartość przedsiębiorstwa jest wysoka i znacznie mniej zależna od jednej czy dwóch gwiazd z działu handlowego, czy też od bliskich relacji właściciela z kilkoma dużymi
klientami. Jeśli firma ma odpowiednio wdrożony model MSP i podpisała wieloletnie kontrakty, to nie działa od projektu do projektu. Taka firma jest istotnym elementem w biznesowym krwioobiegu każdego z klientów. Znam przypadki, że dzięki temu wartość firmy wzrosła nawet ośmiokrotnie. Mało tego, wielu inwestorów nie chce w ogóle rozmawiać z firmami, których powtarzalne przychody nie przekraczają pięćdziesięciu procent całej sprzedaży.
Jaką rolę na rynku usług zarządzanych mogą pełnić dystrybutorzy? Czy stanowią, potencjalnie, kluczowe ogniwo? Ich rolę postrzegam jako wyjątkowo istotną i są już na świecie dystrybutorzy, którzy aktywnie wspierają partnerów w przejściu do modelu MSP. Najczęściej są to mniejsze firmy, które dzięki elastyczności potrafią szybciej reagować na potrzeby rynku i oferować partnerom realne wsparcie. W Polsce takich przykładów jest jednak niewiele. Najwięksi dystrybutorzy wciąż koncentrują się głównie na sprzedaży sprzętu, a zmuszeni do cięcia kosztów często ograniczają zakres obsługi i przenoszą wiele procesów do kanałów samoobsługowych działających w trybie online. Na razie jednak w niewielkim stopniu, co widać po wynikach finansowych tych dystrybutorów, którzy są notowani na giełdzie. Usługi, o jakich mówimy, to w ich przypadku na razie poziom jednego, góra trzech procent całości, i to na niskich marżach. A przecież mogliby oni znacząco ułatwiać resellerom przejście do modelu MSP, przejmując na siebie część związanych z tym wyzwań. Na przykład mogliby świadczyć określone usługi zarządzane klientom w imieniu swoich partnerów. W ten sposób zdejmując z resellera konieczność wdrażania całych systemów, przeszkalania pracowników, jak też zapewniania zasobów i ich właściwej utylizacji. Podkreślam przy tym, że dystrybutor występuje tu jedynie w roli poddostawcy, działając w tle, tak aby dla klienta jedynym „oficjalnym” usługodawcą pozostawał partner.
Jak rozumiem, na „Akademię business as a service – zarządzanie transformacją organizacji” mogą zapisać się nie tylko resellerzy i integratorzy, ale także dystrybutorzy?
Tak, zdecydowanie. Ten program stworzono z myślą o całym kanale partnerskim, ponieważ transformacja do modelu usług zarządzanych dotyczy nie tylko resellerów czy integratorów, ale także dystrybutorów. Każdy uczestnik – nieza-
leżnie od roli w ekosystemie – po ukończeniu studiów lepiej zrozumie specyfikę modelu MSP, wyzwania i korzyści, a także własne miejsce i odpowiedzialność w procesie zmiany. To pozwoli zarówno partnerom, jak i dystrybutorom skuteczniej wspierać klientów i wzajemnie się uzupełniać w tej transformacji. I każdy uczestnik wypracuje własną, indywidualną strategię transformacji, którą będzie mógł wdrożyć w swojej firmie.
Pytanie, jak uczestnicy mają to pogodzić z codziennym biznesem?
Mając świadomość, jak zapracowani są wszyscy w kanale sprzedaży, program został tak skonstruowany, aby dało się go pogodzić z codziennym prowadzeniem biznesu. Studia trwają rok, większość zajęć odbywa się raz w miesiącu i online – co umożliwia udział osobom z całej Polski, a także umożliwi dostęp do wykładowców z różnych części świata.
A kto będzie prowadził zajęcia, oczywiście oprócz Ciebie?
To będą praktycy i teoretycy, którzy bardzo dobrze znają model MSP. Wśród wykładowców, poza mną, mogę wymienić między innymi: Robina Ody – jednego z głównych analityków Canalysa, Macieja Toroszewskiego – Customer Success Directora w firmie Meniga, byłego szefa sprzedaży GreenLake w HPE, jak również Artura Cyganka – wiceprezesa ds. dystrybucji w Blackwallu. Będą też specjaliści z różnych firm związanych z rynkiem MSP, jak też resellerzy, którym udało się z sukcesem dokonać transformacji swojej firmy. Oczywiście będą też wykładowcy z Akademii Leona Koźmińskiego, którzy są takimi „praktycznymi teoretykami”, z doświadczeniem zdobytym w ramach wielu projektów konsultingowych. Jeśli zaś chodzi o uczestników naszych zajęć, to pierwsze 30 osób, które się na nie zapisze, to z pewnością będą liderzy, którzy stawiają na innowacyjność, chcą zwiększać wartość swoich firm i budować organizacje trwałe, odporne na zmiany, które będą się rozwijać i inspirować także w kolejnych pokoleniach. A to szczególnie ważne, bo przed nami kolejna wielka fala zmian związana z wejściem sztucznej inteligencji. Jej wdrażanie u klientów będzie nierozerwalnie związane z dostarczaniem jej w modelu usług zarządzanych – czyli w formule MSP, przy pełnym zrozumieniu procesów biznesowych klienta i umiejętności ich właściwego zaadresowania.
Rozmawiał Tomasz Gołębiowski




































Aż 83 proc. dyrektorów IT przyznaje, że wydają na chmurę więcej niż planowali. Czy w tej sytuacji można już mówić o pułapce finansowej?

Prymat amerykańskich firm w globalnym rynku chmurowym budzi coraz większe obawy o technologiczną zależność europejskich użytkowników od „obcych” platform. AWS, Microsoft Azure i Google Cloud kontrolują znaczną część światowej infrastruktury cyfrowej, co daje Stanom Zjednoczonym ogromne wpływy geopolityczne. Jeszcze do niedawna taki stan rzeczy zbytnio nie przeszkadzał firmom ze Starego Kontynentu. Jednak prezydentura Donalda Trumpa przyniosła ochłodzenie stosunków między USA a UE. Wśród Europejczyków pojawiły się nawet wyjątkowo śmiałe – jak na obecne możliwości – pomysły odcięcia się od amerykańskich technologii i postawienia na rozwiązania „made in Europe”. Napięcia na linii Stany Zjednoczone –Unia Europejska są wodą na młyn dla
GEOPOLITYKA MA JAK DOTĄD NIEWIELKI WPŁYW NA REPATRIACJĘ Z CHMUR AMERYKAŃ- SKICH GIGANTÓW.
europejskich dostawców chmurowych, którzy liczą na to, że klienci ze Starego Kontynentu zaczną odwracać się od amerykańskich usługodawców, choć równie dobrze mogą oni przenieść zasoby z platformy AWS-u czy Microsoftu do własnych serwerowni. Tak czy inaczej, jak na razie to Amerykanie rozdają karty, zarówno w skali globalnej, jak i w samej Europie. Według Synergy Research w 2017 r. europejskie



Wojciech Urbanek
firmy kontrolowały niemal jedną trzecią lokalnego rynku. Jednak począwszy od 2022 r. ich udział spadł do zaledwie 15 proc. i do dziś utrzymuje się na stałym poziomie. Wprawdzie europejscy dostawcy ponad trzykrotnie zwiększyli swoje przychody w latach 2017–2024, ale cały regionalny rynek urósł sześciokrotnie, osiągając wartość 61 mld euro. Największymi beneficjentami tego wzrostu byli Amazon, Google i Microsoft.
Bardzo surową ocenę wystawił Europejczykom John Dinsdale, dyrektor zarządzający w Synergy Research. Jego zdaniem rynek chmurowy jest grą na wyjątkowo dużą skalę, gdzie pretendenci do roli liderów muszą spełniać kilka kluczowych kryteriów: liczyć się z gigantycznymi nakładami finansowymi, mieć długoterminową wizję inwestycji i rentowności, wykazywać niezłomną determinację w dążeniu do sukcesu, jak też konsekwentnie utrzymywać operacyjną doskonałość.
– Niestety, żadna z żadna z europejskich platform chmurowych nie spełnia nawet zbliżonego zestawu tych kryteriów – ocenia John Dinsdale.
Czy europejskie firmy pozostaną zatem, chcąc nie chcąc, wierne amerykańskiej chmurze? Zdania w tej materii są podzielone. Część obserwatorów rynku uważa, że geopolityczne napięcia mogą tworzyć niszę dla europejskich dostawców, ale niosą też ze sobą ryzyko.
– W aspekcie gospodarczym istotny wpływ może mieć niepewność co do dalszych relacji między Europą a USA. Na pewno tworzy to pewną niszę dla europejskich dostawców, jednak ten kierunek niestety
wprowadza sporą dozę niepewności wśród klientów. Europa nie jest w tym obszarze liderem technologicznym i nie rozwiążą tego same regulacje. Zwłaszcza, że największe globalne platformy doskonale dostosowują się do wymogów dotyczących lokalizacji danych w Europie – mówi Tomasz Dwornicki, CEO Hostersi.
Zwolennicy europejskiej chmury wierzą, że geopolityka zmieni rynek usług chmurowych. Obok tradycyjnych czynników, takich jak koszty czy wydajność, rośnie znaczenie tak zwanej cyfrowej suwerenności, kontroli nad tym, gdzie i w jakim porządku prawnym przechowywane są dane. Do tego dochodzą jeszcze regulacje, takie jak RODO, NIS 2, DORA czy AI Act. – To tworzy możliwości dla europejskich dostawców. Najwięcej mogą oni zyskać w obszarach wymagających wysokiego poziomu bezpieczeństwa i zgodności z regulacjami, szczególnie w sektorach regulowanych oraz w usługach chmurowych dla AI. Kwestia repatriacji z platform amerykańskich dostawców nabiera w tym kontekście nowego znaczenia. Przewodzi w tym zakresie Wielka Brytania, która zdała sobie sprawę, że jej niezależność i autonomia w obszarze chmury obliczeniowej jest bardzo ograniczona – wyjaśnia Tomasz Sobol, Marketing Development Manager CEE w OVHcloud.
Sposób myślenia o lokalnej chmurze zmieniła też nieco wojna na Ukrainie, na co zwraca uwagę Paulina Kowalczyk,Head of Terra Cloud PL. – Ten konflikt pokazał, że dane można szybko przenieść i zdywersyfikować ryzyko. Dlatego część usług trafiła wtedy z Ukrainy

do Polski. W takiej sytuacji lokalni dostawcy zyskują przewagę w obszarach takich jak backup, chmury prywatne i usługi bezpieczeństwa – podkreśla Paulina Kowalczyk.
Koszty ważniejsze niż geopolityka?
Geopolityka ma jak dotąd niewielki wpływ na repatriację z chmur amerykańskich gigantów, w przeciwieństwie do kosztów usług. Najnowsze raporty Canalysa i Flexery pokazują, że globalne wydatki na chmurę wzrosły rok do roku o 21 proc., osiągając w pierwszym kwartale 2025 r. wartość niemal 91 mld dol. Przy czym koszty coraz częściej wymykają się spod kontroli szefów działów IT. Zgodnie z „CIO Cloud Trends Survey & Report” opracowanym przez Azul System, aż 83 proc. dyrektorów ds. informatyki (CIO) przyznaje, że wydaje na usługi chmurowe więcej niż pierwotnie zakładano, a jedynie 2 proc. udało się zmieścić w budżecie.
– Powyższy stan rzeczy wynika z wielu czynników, ale trzy z nich odgrywają kluczową rolę. Pierwszym jest uzależnienie się od konkretnego dostawcy i dostępnych kompatybilnych rozwiązań. Zgodnie z zasadą „korzystasz tam, gdzie masz zasoby”. Drugi czynnik wiąże się z rozwojem firmy, a tym samym danych i aplikacji, zaś trzeci z systemem cen i rozliczeń, pokaźnych tak zwanych „ukrytych kosztów” za korzystanie z usług – wylicza Tomasz Sobol. Szczególnie dużo emocji wśród klientów budzą egress fees, czyli opłaty sieciowe pobierane przez większość dostawców usług chmurowych za przenoszenie danych z chmury. To uderza zwłaszcza w firmy operujące na dużych zbiorach danych.
Osobną kwestią jest naiwność wielu decydentów, którzy dają się zwieść marketerom kuszącym ich niskimi cenami.
– Marketingowe uproszczenia nie oddają złożoności środowisk chmurowych, co skutkuje rozbieżnością między oczekiwaniami a rzeczywistością. Dlatego coraz więcej firm wdraża praktyki FinOps, aby lepiej zarządzać kosztami – mówi Maciej Wójcicki, IT Solutions Architect w ITBoom. FinOps stanowi rzeczywiście pewnego rodzaju fenomen. Jeszcze kilka lat temu dostawcy wmawiali klientom (również z sektora finansowego), że usługi chmurowe są tanie i przejrzyste, choć część ekspertów ostrzegała wówczas przed zbyt pochopnym przyjmowaniem tego typu obietnic i, jak się okazało, mieli rację. W odpowiedzi na wyzwania związane z zarządzaniem kosztami w chmurze obliczeniowej powstała formalna dyscyplina FinOps. Obecnie wartość tego rynku szacuje się na ponad 13 mld dol. Badania McKinsey pokazują, że praktyki FinOps pozwalają ograniczyć wydatki na chmurę nawet o 20–30 proc., a oszczędności w ujęciu globalnym wynikające z szerokiego zastosowania tego podejścia mogą w samym tylko 2025 r. sięgnąć 21 mld dol.
Według cytowanego wcześniej raportu Azul Systems, 22 proc. organizacji sięga po FinOps w celu obniżenia kosztów usług chmurowych. Inne popularne metody to optymalizacja i modernizacja obciążeń aplikacji wdrażanych w chmurze (52 proc.), wykorzystanie narzędzi do zarządzania kosztami usług chmurowych (51 proc.), programy rabatowe dla przed-
siębiorstw (49 proc.) oraz śledzenie i audyt wdrożeń chmurowych (45 proc.). Jednocześnie 22 proc. respondentów rozważa przeniesienie części obciążeń do środowiska lokalnego, podczas gdy tylko 2 proc.
CÓW USŁUG CHMUROWYCH.
popiera całkowity powrót do rozwiązań on-premise. Najchętniej na taki krok decydują się średnie i duże firmy oraz instytucje z branż regulowanych: bankowości, szpitalnictwa czy administracji publicznej. Druga fala „uciekinierów” to przedsiębiorstwa, które nie mogą sobie pozwolić na jakiekolwiek przestoje, bowiem liczy się dla nich każda sekunda. Te podmioty z reguły wybierają rozwiązania hybrydowe. Istnieje też grupa firm ceniących sobie niezależność, które mają dość uzależnienia od gigantów technologicznych i chcą odzyskać pełną kontrolę nad swoimi danymi. W obliczu napięć geopolitycznych i rosnących zagrożeń suwerenność cyfrowa staje się dla nich priorytetem numer jeden. Wolą zarządzać własną infrastrukturą niż polegać na cudzej łasce.
AI oraz edge computing zmieniają reguły gry
Przez ostatnie lata świat nowych technologii zdominowała filozofia cloud computingu. Zasada wydawała się oczywista:
scentralizowane centra danych i wszystkie zasoby miały być skupione w jednym miejscu. Branża IT pewnie zmierzała właśnie w tym kierunku, gdy w międzyczasie narodziła się rewolucyjna, odwrotna koncepcja, według której dane powinny pozostawać jak najbliżej użytkowników. Mowa oczywiście o edge computingu – technologii wywracającej dotychczasowe założenia do góry nogami.
Urządzenia IoT, takie jak czujniki, kamery i inne inteligentne systemy, przetwarzają teraz dane w miejscu ich powstawania, eliminując potrzebę przesyłania informacji do odległych serwerów. Kluczowe procesy sterowane przez komputery brzegowe wymagają reakcji w czasie rzeczywistym, tolerując opóźnienia jedynie na poziomie kilkuset milisekund. To rygorystyczne wymaganie stanowi poważne wyzwanie dla tradycyjnych rozwiązań chmurowych, gdzie dane muszą pokonać długą drogę między użytkownikiem a centrum danych.
Najczęstsze zastosowania edge computingu dotyczą transportu, począwszy od pojazdów autonomicznych po inteligentne zarządzanie ruchem miejskim. Technologia sprawdza się również w monitorowaniu środowiska, zarządzaniu zapasami w czasie rzeczywistym czy systemach bezpieczeństwa wykorzystujących rozpoznawanie twarzy.
Według prognoz Gartnera do 2025 r. aż 75 proc. danych generowanych przez przedsiębiorstwa powstanie i zostanie przetworzonych poza tradycyjnymi centrami danych. Edge computing funkcjonuje głównie jako element hybrydowej strategii przetwarzania rozproszonego, współpracując z centralnymi serwerowniami. Jednak coraz więcej organizacji stawia na małe, modułowe centra danych jako alternatywę dla konwencjonalnej infrastruktury.
Rozwój AI wprowadza dodatkową dynamikę do tej układanki. Z jednej strony sztuczna inteligencja napędza popyt na usługi chmurowe, z drugiej pojawiają się głosy, że w dłuższej perspektywie bardziej opłacalne okazuje się budowanie modeli AI w lokalnej infrastrukturze. W miarę skalowania i dojrzewania projektów AI chmura publiczna może generować astronomiczne koszty. Ponadto środowisko lokalne pozwala uniknąć uzależnienia od dostawcy i zachować ściślejszą kontrolę nad wrażliwymi danymi.
– Choć usługi chmurowe pozostają kluczowym elementem transformacji cyfrowej, lokalne centra danych umożliwiające dostarczanie usług w modelu hybrydowym zyskują przewagę w kontekście AI.

Paulina Kowalczyk, Head of Terra Cloud PL, Wortmann
WKdrożenie AI zmienia sposób, w jaki firmy patrzą na infrastrukturę.
Z jednej strony rośnie zapotrzebowanie na chmurę, bo to właśnie tam można w prosty sposób sięgnąć po ogromną moc obliczeniową i elastyczność potrzebną przy trenowaniu modeli. Z drugiej strony, szczególnie w sektorach regulowanych, obserwujemy inwestycje w lokalne centra danych, tam, gdzie najważniejsze jest, by krytyczne informacje nie opuszczały organizacji. W praktyce najwięcej zyskują jednak ci, którzy łączą oba podejścia: wykorzystują chmurę do skalowania mocy, a infrastrukturę lokalną do ochrony wrażliwych danych. To sprawia, że rozwiązania hybrydowe stają się dziś naturalnym standardem w projektach bazujących na sztucznej inteligencji.
oszty przewyższające oczekiwania klientów są jednym z głównych powodów rezygnacji z usług chmurowych. Dotyczy to zwłaszcza długoterminowych projektów. Dodatkowe opłaty, takie jak egress fees, mogą znacząco zwiększyć całkowity koszt posiadania, szczególnie dla firm operujących na dużych zbiorach danych. Brak przejrzystości w cennikach i trudności w przewidywaniu kosztów prowadzą do frustracji i zmiany strategii IT. W efekcie, niektóre organizacje decydują się na częściową lub całkowitą repatriację danych do środowisk lokalnych. To pokazuje, jak ważna jest transparentność i kontrola kosztów w modelu chmurowym.

Piotr Podlawski - Head of Microsoft Cloud Services, Hostersi

UNITBoom
sługi chmurowe są niedrogie, trzeba jedynie używać ich w prawidłowy sposób. W chmurze płacimy za rzeczywiste wykorzystanie, więc trzeba zużywać jedynie to, co niezbędne. Jednak usługi chmurowe nie są proste i wymagają dobrej znajomości cenników. To właśnie dlatego partnerzy mają tak dużo pracy, potrafiąc poruszać się w gąszczu wariantów i opcji cenowych. Optymalne wykorzystanie chmury wymaga odpowiedniego dopasowania jakości usług do rzeczywistych potrzeb. Po co używać bardzo niezawodnych dysków na backup? Chmura wymusza dokładną analizę potrzeb i pozwala na optymalne wykorzystanie zasobów obliczeniowych, unikając sytuacji, w której na przykład procesor w serwerze jest obciążony w 3 procentach, jak to bywa w rozwiązaniach lokalnych.
a koszt chmury publicznej składa się tak wiele elementów, że nie sposób ich wszystkich wymienić. W chmurze płacimy najczęściej za rzeczywiste zużycie. Przykładowe składowe kosztu chmury to: użycie vCPU i pamięci RAM, zajętość i rodzaj pamięci masowej, operacje I/O i IOPS, transfery danych oraz wiele innych. Z tego powodu niewielu CIO, bazujących do tej pory na własnej infrastrukturze, potrafi wyliczyć koszt chmury po migracji. Drugi powód wyższych niż oczekiwane rachunków za chmurę publiczną to użycie strategii „lift-and-shift”. Oznacza to migrację do usługodawcy chmurowego bez

Tomasz Magda, CEO, Produkcja Chmur
wprowadzania zmian w architekturze przenoszonych środowisk i aplikacji. W takiej sytuacji właściwie nie korzystamy z głównych benefitów chmury, takich jak skalowalność pozioma czy pionowa oraz rozliczenie za faktyczne użycie. Przypomina to nieco zakup auta elektrycznego i ładowanie go z generatora spalinowego.
Wynika to z potrzeby szybkiego, bezpiecznego i energooszczędnego przetwarzania danych w pobliżu użytkownika końcowego – wyjaśnia Tomasz Sobol.
Wszystko wskazuje na to, że w najbliższych latach nastąpi przepływ w dwóch kierunkach. Gartner prognozuje wzrost rynku usług chmury publicznej w tempie
20 proc. rocznie do 2028 r. Jednocześnie do 2027 r. połowa kluczowych aplikacji przedsiębiorstw będzie działać poza scentralizowanymi lokalizacjami chmury publicznej. Ta dwukierunkowa ewolucja oznacza, że przyszłość nie należy tylko do chmury publicznej, jak niegdyś zapowiadali ewangeliści usług chmurowych. n





GigaCloud, jako dostawca certyfikowanej infrastruktury chmurowej, wypracował zestaw najlepszych praktyk, które pozwalają przedsiębiorstwom przeprowadzać migrację i repatriację w sposób bezpieczny, przewidywalny i korzystny biznesowo.




Wramach cyfrowej transformacji przedsiębiorstw coraz mniej mówi się o tym, czy migrować do chmury, a coraz częściej – jak to zrobić najlepiej oraz kiedy warto rozważyć repatriację, czyli powrót z hiperskalowych platform do bardziej lokalnych lub hybrydowych środowisk. W obu przypadkach nie chodzi wyłącznie o aspekty techniczne, lecz przede wszystkim o strategiczne dopasowanie infrastruktury IT do celów biznesowych.
Migracja do chmury wymaga przemyślanej strategii. Pierwszym krokiem zawsze jest audyt istniejącej infrastruktury i zmapowanie zależności pomiędzy aplikacjami oraz przepływami danych. Należy też zdefiniować jasne cele, jak redukcjakosztów,zwiększenieskalowalności,
Kirill Naumenko
Chief Technology Officer, GigaCloud

Wraz z GigaCloud łatwiej jest rozpocząć korzystanie z technik chmurowych, integrować nowe produkty i usługi z własnymi procesami oraz skalować działalność. Wszystko to dzięki naszemu wygodnemu, zorientowanemu na klienta podejściu oraz gotowości do wyjaśniania każdego podejmowanego kroku. Nie przytłaczamy klientów złożoną terminologią, lecz działamy szybko i uczciwie. Nie ograniczamy dostępu do alternatywnych rozwiązań infrastrukturalnych i możemy zbudować wszystko zgodnie z potrzebami klienta, z uwzględnieniem dedykowanych chmur, systemów hybrydowych, serwerów GPU oraz środowisk zapewniających ciągłość działania.


poprawa niezawodności czy spełnienie wymogów regulacyjnych. Dobre praktyki zakładają etapowe podejście: rozpoczęcie od przenoszenia mniej krytycznych systemów, a dopiero później migrację kluczowych procesów biznesowych. Taka taktyka pozwala zminimalizować ryzyko i szybciej uzyskać pierwsze korzyści. Konieczne jest także prowadzenie szczegółowej dokumentacji migrowanych systemów.
Rolą takiego dostawcy jak GigaCloud jest zapewnienie certyfikowanej infrastruktury, przygotowanie mapy drogowej migracji, a także udostępnienie środowisk testowych i wsparcie w ich obsłudze. Po stronie klienta kluczowe jest natomiast jasne określenie priorytetów biznesowych oraz gotowość do dostosowania wewnętrznych procesów.
Przykładem udanej migracji jest ukraińska platforma Uklon, umożliwiająca zamawianie przejazdów przez aplikację. Jej administratorzy przenieśli swoje wewnętrzne usługi z serwerów dedykowanych do chmury publicznej GigaCloud w Warszawie w celu zapewnienia stabilności platformy dla milionów codziennych użytkowników. W efekcie uzyskano wyższą odporność systemów, zapewniono zgodność z międzynarodowymi standardami oraz możliwość planowania ciągłości działania.
Repatriacja, czyli strategiczny powrót
Często racjonalnym wyborem okazuje się powrót do środowiska lokalnego lub hybrydowego z dużej chmury publicznej. Repatriacja nie jest porażką, ale naturalną korektą strategii. Jej główne motywy – wynikające z wypracowanych najlepszych praktyk – to stabilizacja kosztów po ich wcześniejszej dogłębnej analizie (uniknięcie trudnych do przewidze-
nia opłat w modelach hiperskalowych), poprawa wydajności poprzez redukcję opóźnień w pracy aplikacji krytycznych oraz zapewnienie zgodności z regulacjami, szczególnie dotyczących konieczności przechowywania danych w obrębie danego kraju lub regionu. Bardzo ważne jest także, aby klient zdefiniował ujęte w umowie SLA kryteria wynajmowanego środowiska po repatriacji na bazie precyzyjnie wyznaczonych wcześniej celów biznesowych.
Dobrym przykładem udanego projektu repatriacji jest dostawca usług płatniczych Portmone, który musiał obsługiwać gwałtowne skoki liczby transakcji na początku każdego miesiąca. Rozwiązaniem okazało się środowisko hybrydowe łączące własną infrastrukturę z chmurą GigaCloud, posiadającą certyfikat PCI DSS. Dzięki temu firma wyeliminowała ryzyko przestojów, ustabilizowała koszty i jednocześnie zachowała pełną zgodność z wymaganiami branżowymi.
W niektórych projektach nie chodzi tylko o przeniesienie zasobów, lecz o całkowitą modernizację infrastruktury. Głównie dotyczy to obszaru AI. Współpracujący z GigaCloud klient (jego nazwa jest zastrzeżona umową NDA) wykorzystał środowisko GPU Cloud z procesorami NVIDIA A40 do trenowania modeli rozpoznawania obiektów. W porównaniu z tradycyjnymi CPU czas treningu skrócił się nawet 50-krotnie, a wrażliwe informacje pozostały w lokalnym centrum danych o standardzie Tier III.
„Na rynku ochrony danych w ciągu najbliższych kilku lat zajdą ogromne zmiany. Po tym czasie
w niczym nie będzie przypominał tego sprzed dziesięciu lat” – mówi Paweł Mączka, CEO Storware.
Jesteś współzałożycielem spółki, która działa od 2013 roku. W lipcu zostałeś jej CEO. Jak odnajdujesz się w nowej roli i jakie są Twoje najbliższe plany?
Choć przez lata pełniłem funkcję CTO, nieobce były mi tematy związane z operacjami finansowymi, marketingiem czy sprzedażą. Dlatego uważam, że połączenie solidnych podstaw technicznych z rozwiniętymi kompetencjami miękkimi niezwykle pomaga mi w skutecznym prowadzeniu spółki technologicznej. Dzięki zrozumieniu aspektów technologicznych i znajomości rynku można stać się wiarygodnym i rozpoznawalnym liderem, wyróżniającym się na tle silnej konkurencji. To ważne, bo rynek backupu jest wyjątkowo trudny ze względu na dużą liczbę dostawców. Oprócz kilkunastu graczy notowanych w zestawieniu Gartnera, konkurujemy z około setką innych firm, które próbują przebić się przez szklany sufit. Wierzę, że akurat nam się to uda i tym bardziej jestem podekscytowany nową rolą. Zwłaszcza, że na rynku ochrony danych w ciągu najbliższych kilku lat zajdą ogromne zmiany. Po tym czasie w niczym nie będzie przypominał tego sprzed dziesięciu lat.
Czy rozdrobnienie rynku postrzegacie jako szansę czy poważną przeszkodę w dalszym rozwoju? Można tutaj wysnuć kilka tez. Z jednej strony na rynku dochodzi do konsolidacji – przykładowo Cohesity kupuje Veritasa – czy też aliansów, chociażby Rubrik oraz Veeam mocno zacieśniają relację z Microsoftem. Widać przy tym próby scalania rynków cyberbezpieczeństwa oraz backupu. W dużym stopniu decydują o tym finanse – dostawcy systemów do ochrony i odzyskiwania danych starają się być blisko security, bo sięgają w ten sposób po dużo większe budżety. Nie jestem zwolennikiem tego trendu. Systemy cyberbezpieczeństwa powinny
się skupiać na prewencji. Natomiast nie jest to rola dla systemów do backupu. Ich zadanie sprowadza się do tego, aby przywrócić dane w nienaruszalnej postaci po ataku. Uważam, że dużo lepszym rozwiązaniem niż konsolidacja jest integracja narzędzi z sektorów security oraz backupu.
Wspomniane przez Ciebie Rubrik oraz Cohesity oferują rozwiązania dla klientów korporacyjnych. Veeam celuje bardziej w małe i średnie firmy. Gdzie jest tu miejsce dla Storware? Nie chcemy się zamykać na małych czy średnich klientów, aczkolwiek w naszym DNA od zawsze zaszyty był rynek rozwiązań korporacyjnych. Realizujemy strategię 3 S – simplicity, scalability, security. To oznacza, że nasze produkty mają być proste w użytkowaniu, tak jak Veeam czy Nakivo, czyli dostawców skoncentrowanych na MŚP. Nie chcemy jednak, aby ktoś wybierał nasz produkt kierując się ceną. Natomiast ma to być bezpieczny zakup na dziś i na przyszłość.
Co rozumiesz pod pojęciem bezpiecznej przyszłości?
Zapewniamy wsparcie dla ponad 10 różnych systemów wirtualizacji, w tym między innymi VMware, Hyper-V, Nutanix AHV, Openshift Virtualization czy OpenStack. Dzięki temu klienci mogą zmieniać platformy wirtualizacyjne bez konieczności wymiany systemu backupu. Jakie to ma znaczenie, pokazuje sytuacja na rynku po przejęciu VMware’a przez Broadcom. Dajemy klientom swobodę wyboru technologii, zapewniając im bezpieczeństwo niezależnie od wybranych obciążeń. Oferujemy przy tym szeroką gamę źródeł i miejsc docelowych dla składowania danych. Jako jedyny vendor na rynku możemy działać zarówno jako samodzielna platforma, jak i uzupełnienie dla większych systemów, takich jak Dell, IBM, Rubrik. To szczególnie ważne z punktu wi-
dzenia największych klientów, dla których wymiana centralnego systemu backupowego nie jest procesem trywialnym.
W sierpniu do Storware dołączył Andrzej Niziołek, menedżer z doświadczeniem zdobytym w takich firmach jak Veeam, IBM oraz EMC. Za co będzie odpowiadał?
Warto dodać, że Andrzej wcześniej również pracował w Microsofcie oraz w firmie Commvault. Wydaje mi się, że nie ma w tym momencie lepszej osoby, która po pierwsze rozumie rynek, a po drugie ma tak duże doświadczenie. Najlepsze cechy nabyte w dużych korporacjach i wiedza o tym, jak skaluje się biznesy z małych czy średnich spółek do firm zatrudniających tysiące pracowników, pozwolą mu działać w pełni skutecznie. Cel, jaki przed nim stawiam, jest prosty: zwielokrotnienie przychodów na wszystkich rynkach, na których działamy.
Jakie miejsce zajmuje Polska w waszej strategii rynkowej?
Obecnie około 80 procent naszych przychodów pochodzi ze sprzedaży na rynkach zagranicznych. Nie chcę, aby zabrzmiało to w ten sposób, że Polska jest dla nas nieważna. Ale skupiamy się na strategii globalnej. Ona się doskonale broni i samoistnie napędza się na rynkach zagranicznych. W Polsce wielu klientów nie zna rozwiązań bazujących na silnikach wirtualizacji KVM czy XEN, co bierze się stąd, że około 90 procent organizacji bazuje na narzędziach VMware’a lub Hyper-V. W związku z tym nie rozumieją języka naszych wartości.
Niedawno podpisaliście umowę z Rackspace. Jakie ma to znaczenie dla Waszych klientów? W 2010 roku NASA i Rackspace Hosting stworzyły inicjatywę open source – OpenStack. To siła napędowa dla dużych kor-







poracji i alternatywa dla MSP budujących chmury prywatne i publiczne. Jeżeli Rackspace wybiera nas jako partnera, to znaczy, że klienci nie będą pytali nas o wiarygodność. To partnerstwo wyznacza też nasz kierunek w segmencie ochrony danych. Przy okazji wspomnę o jednym z ostatnich dużych projektów Storware, dla amerykańskiego klienta, jednego z liderów w produkcji urządzeń GPS oraz elektroniki sportowej, bazującym właśnie na standardzie OpenStack. To kolejny klient z segmentu enterprise, który docenił naszą fachowość i rzetelność. W świecie otwartej wirtualizacji KVM działamy od ponad dziesięciu lat. Trzeba podkreślić, że nie ma dzisiaj ani jednego gracza z takim doświadczeniem. Naszą misją od wielu lat jest bycie numerem jeden. Tak jak Veeam chwali się pozycją numer jeden w VMware, tak my chcemy być numerem jeden i walczymy o pozycję lidera w świecie OpenStack KVM.
Dostawcy rozwiązań do backupu i DR wprowadzają funkcje bazujące na AI. Jak je oceniasz?

Największy potencjał AI dostrzegamy w zakresie przewidywania problemów i proaktywnego zarządzania kopią zapasową oraz wsparciem technicznym. Tradycyjne podejście do backupu i wsparcia technicznego opiera się na modelu reaktywnym: problem występuje, klient zgłasza, zespół analizuje i znajduje rozwiązanie. Ten proces może trwać godzinami, a czasem przez kilka dni. Tymczasem system bazujący na AI może działać zupełnie inaczej i my takie podejście wdrażamy od pewnego czasu. Inteligentne platformy obserwacyjne nieustannie monitorują tysiące instancji na całym świecie. Zbierają bezpiecznie informacje o zdarzeniach, analizują wzorce i uczą się na podstawie każdego incydentu. Jednym z ciekawszych programów, jakie ostatnio wdrożyliśmy w ramach optymalizacji naszych działań serwisowych jest projekt crAIzol autorstwa Marcina Kubackiego, który jest chyba najlepszym przykładem rewolucji, jaką przynosi AI – optymalizacji czasu pracy. Dotychczas serwisant musiał poświęcić nawet dwie godziny na przeanalizowanie logów sys-
ZAPEWNIAMY WSPARCIE DLA PONAD 10 RÓŻNYCH SYSTEMÓW WIRTUALIZACJI, MIĘDZY INNYMI
VMWARE, HYPER-V, NUTANIX AHV, OPENSHIFT VIRTUALIZATION CZY OPENSTACK.
temowych w dużych środowiskach klienta, by zrozumieć przyczynę problemu. crAIzol potrafi wykonać tę samą pracę w kilka minut, podając gotowe rozwiązania, które znajdzie w naszym Knowledge Base (KB), jak i w internecie.
W jakim kierunku będzie zmierzać rozwój systemów do backupu? Chcecie podążać za światowymi trendami, a może wyznaczać własne ścieżki? Nie musimy być wszędzie. Działania największych graczy przypominają historię oprogramowania Nero, pierwotnie służącego do wypalania płyt CD oraz DVD. Genialny pomysł i funkcjonalność spotkały się z doskonałym przyjęciem na rynku. Ale twórcy produktu zaczęli wprowadzać nowe funkcje. W pewnym momencie instalowałeś pakiet o wielkości 1,7 GB. Dostawcy rozwiązań do backupu robią podobny błąd – zamiast skoncentrować się na tym, co robią najlepiej, stali się niewolnikami kolejnych funkcji. To tworzy cyfrowego Frankensteina, który jest trudny w utrzymaniu i bardzo drogi.
My wracamy do pierwotnego DNA – nie będziemy nazywać swoich produktów pod szyldem „Resilient Data Protection”, Cyfrowa Twierdza, Bunkier, etc. Chcemy być producentem sprzedającym kluczową funkcję, jaką jest szybki i odtwarzalny backup, ale zawsze działającą w lekki, wydajny i skalowalny sposób. Przez ostatnie 12 lat goniliśmy rynek, skupiając się na zbyt wielu obszarach. Część z nich chcę odciąć i skoncentrować się na wzroście w kluczowych dla Storware obszarach. Jesteśmy w idealnym momencie, żeby zbudować pozycję lidera w obszarze OpenStack oraz innych wirtualizatorów opartych o silnik KVM. Mamy podwaliny, know-how i gotową bazę klientów, ale też nie składamy broni względem największych graczy w wybranych aspektach.
Wlutym 2024 r. Cohesity ogłosiło ambitne plany przejęcia działu ochrony danych Veritasa, którego działania koncentrują się wokół flagowego produktu NetBackup. Dziesięć miesięcy intensywnej pracy zakończyło się sukcesem i proces integracji został pomyślnie sfinalizowany. ohesity nie tylko zyskało dostęp do nowych klientów i wcześniej niedostępnych rynków geograficznych, ale również dokonało prawdziwego przełomu, jeśli chodzi o skalę działania. Ta strategiczna konsolidacja przetasowała karty na globalnym rynku ochrony danych. Najnowsze analizy firmy badawczej IDC nie pozostawiają wątpliwości: Cohesity objęło pozycję lidera branży, zepchnąwszy na drugie i trzecie miejsce Veeam i Della. Tym samym nowa hierarchia potęg została ustanowiona.
Flagowym produktem tej marki jest Cohesity Data Cloud – ujednolicona platforma do zarządzania danymi w chmurze, która umożliwia zabezpieczanie, zarządzanie oraz wykorzystanie pełnego potencjału danych. Jednym z kluczowych elementów tego ekosystemu jest NetBackup. Rozwiązanie dostępne jest zarówno jako system lokalny, jak i usługa SaaS.

O ile Veritas jest dość dobrze znaną marką na polskim rynku, o tyle o Cohesity słyszały jedynie osoby uważnie śledzące rynek ochrony danych. Amerykańska firma powstała w 2014 r. z inicjatywy Arona Mohita (notabene współzałożyciela firmy Nutanix). Aron Mohit w sposób bardzo jasny określił obszar działania Cohesity.
– Aplikacje krytyczne to jedynie wierzchołek góry lodowej, stanowiący zaledwie 20 procent wszystkich danych organizacyjnych. Cała reszta spoczywa „pod powierzchnią wody”. Pozostałe 80 procent to dane rozproszone w różnych systemach: na urządzeniach do tworzenia kopii zapasowych, w magazynach plików, repozytoriach obiektów, bazach danych analitycznych oraz środowiskach testowych. To właśnie ta ukryta część danych wymaga naszej uwagi – tłumaczy Aron Mohit.
Kluczowe jest to, że firma od samego początku konsekwentnie realizuje tę strategię i przynosi to spektakularne rezultaty. Cohesity stała się najszybciej rozwijającą się firmą w branży bezpieczeństwa danych, osiągając przychody przekraczające 1,5 miliarda dolarów w rekordowym czasie zaledwie 11 lat.
– Cohesity Data Cloud to nasz strategiczny kierunek rozwoju. Wizja jest jasna: platforma ma być postrzegana jako spójny, zintegrowany organizm, dostępny w przejrzystych wariantach. Wierzę, że w nieodległej przyszłości klienci nie będą musieli analizować złożonych diagramów architektury. Po prostu wybiorą jedną z wersji: Core, Enterprise i Premium, jak wybiera się odpowiedni rozmiar koszulki: small, medium lub large – wyjaśnia Sanjay Poonen, CEO Cohesity. Cohesity chroni dane o łącznej pojemności 100 eksabajtów. To ogromna przewaga nad konkurencją – Veeam zarządza 18 eksabajtami, a Commvault zaledwie 10 eksabajtami. Dlaczego ta różnica ma kluczowe znaczenie? Ostatnio coraz częściej eksperci mówią o grawitacji danych, koncepcji opisującej naturalną tendencję danych do przyciągania innych danych, aplikacji i usług, podobnie jak grawitacja w fizyce oddziałuje na obiekty w przestrzeni. – Grawitacja danych to klucz do sukcesu rynkowego. Im więcej danych chronimy, tym potężniejsze algorytmy AI i bardziej zaawansowane mechanizmy bezpieczeństwa możemy tworzyć. Skala to fundament naszej przewagi konkurencyjnej. Nasi najwięksi klienci, w tym czołowe banki światowe, dysponują setkami petabajtów danych – podkreśla Sanjay Poonen.
Nowa geografia sprzedaży Przed zakupem Veritasa większość przychodów ze sprzedaży Cohesity było generowanych na rynku Ameryki Północnej. Po połączeniu obu podmiotów wartość ta
spadła do 50 proc., a firma oferuje swoje rozwiązania w 138 krajach. Obecnie Cohesity zamierza zwiększyć swoją aktywność w Polsce.
– Jesteśmy otwarci na współpracę z integratorami poszukującymi nowoczesnych rozwiązań technologicznych. Naszym celem jest oferowanie produktów, które łączą w sobie zaawansowaną funkcjonalność z prostotą wdrożenia oraz intuicyjną obsługą dla końcowych użytkowników. Przy czym rozumiemy, że w dzisiejszym dynamicznie zmieniającym się środowisku biznesowym kluczowe znaczenie ma nie tylko sama technologia, ale również szybkość i efektywność jej implementacji – mówi Łukasz Dyguła, szef kanału sprzedaży Cohesity w Polsce.
Warto w tym miejscu dodać, że w sierpniu firma uruchomiła nowy program partnerski Aspire. W ten sposób Cohesity zamierza usprawnić i zoptymalizować współpracę z partnerami działającymi w ramach różnorodnych modeli biznesowych i kanałów dystrybucji. Kluczowe korzyści programu obejmują:
l znaczące zwiększenie rentowności działalności partnerów,
l odkrycie oraz aktywację nowych, dotychczas niewykorzystanych strumieni przychodów,
l zapewnienie szerokiego dostępu do specjalistycznych certyfikatów i programów szkoleniowych.
Ekosystem partnerski Cohesity obejmuje wszystkie typy partnerów, w tym sprzedaż, zarządzanie, integrację, dystrybucję, sprzęt OEM, wbudowany OEM, partnerów technologicznych i rynek chmurowy. Uczestnicy programu Aspire mogą kwalifikować się do poziomów Premier, Preferred lub Associate. Program zawiera również komponent autoryzowanego dystrybutora i nastawiony jest na wniesienie większej wartości dla sprzedawców Cohesity.
Autoryzowanym dystrybutorem rozwiązań Cohesity jest Arrow.
W lipcu analitycy Gartnera ogłosili, że generatywna AI znajduje się obecnie w fazie „doliny rozczarowania”. To ten moment, gdy okazuje się, że oczekiwania były większe niż realne możliwości i rynek zaczyna łapać zadyszkę.
Na przestrzeni ostatnich dwóch dekad mieliśmy w branży IT kilka fenomenów, które do czerwoności rozpalały głowy pracowników działów marketingu globalnych i lokalnych dostawców rozwiązań oraz usług. Oczywiście wszystko zaczęło się od pluskwy milenijnej, która miała spowodować Armagedon 1 stycznia 2000 r. Długo trwały dyskusje czy fakt, że nic się nie stało, był efektem perfekcyjnie przeprowadzonych długotrwałych przygotowań (w tym masowych inwestycji w nowe systemy), czy też byliśmy świadkami pierwszej w tak dużej skali marketingowej bańki.
W 2007 r. wszyscy nagle „zazielenili się” i przypomnieli sobie, że trzeba dbać o środowisko. Szaleństwo „green IT” bardzo szybko przyjęło surrealistyczny wymiar. Cała branża zaczęła być eco-friendly, firmy prześcigały się na publikacje wyników poboru mocy ich urządzeń, na konferencjach masowo rozdawano żywe drzewka, a nawet udowadniano wysportowanym uczestnikom, że dany sprzęt można zasilić… za pomocą dynama, odpowiednio szybko pedałując na rowerze. Wniebowzięte były te firmy, które miały zielone logo, a inne starały się dodać przynajmniej jeden przycisk w tym kolorze na obudowie swoich produktów. Po trzech latach nadciągnął cloud. Język angielski pozwala na nieco wyższy poziom abstrakcji, w Polsce zaś regularnie było słychać żarty o płynącym z chmury ryzyku deszczu (a nawet gradu) i ogólnie przygnębiającej atmosferze – przypominam, że w 2010 r., po kilkunastu miesiącach opóźnienia, także do nas, choć w mniejszej skali, nadciągnął finansowy kryzys z Zachodu. Gradu nie było, ale deszcz tu i ówdzie się pojawił (pisałem o tym w poprzednim felietonie).
Oczywiście nie można zapomnieć o gorączce RODO z 2017 i 2018 r. Wtedy też emocje sięgały zenitu – praktycznie nie było reklamy czy rozsyłanej do mediów informacji prasowej, w której nie wspomniane zostałoby to unijne rozporządzenie. Równolegle szczytów absurdu sięgały działania marketingowe. W moim prywatnym rankingu na pierwszym miejscu ex aequo znajdują się dwa reklamowane przedmioty „zgodne z RODO” – klawiatura (w końcu za jej pomocą można wpisać hasło) i… zamykana na kluczyk szafka do przechowywania nośników danych. No i od trzech lat mamy eksplozję popularności generatywnej sztucznej inteligencji, bazującej na wielkich modelach językowych. CEO wszystkich dużych firm opowiadają o niej jak o magicznym przycisku do zwiększania zysków, szefowie działów IT zamawiają kolejne licencje (bo „wszyscy to robią”), a działy marketingu wymyślają nowe skróty z „AI” w nazwie, żeby sprzedać stary produkt w nowym




opakowaniu. Minęło jednak trochę czasu, entuzjazm nieco opadł, a pytania o konkretne efekty zaczęły pojawiać się coraz częściej. I nagle okazało się, że ta „ejaj” nie jest taka sexy, jak ją malowali.
Z danych opublikowanych w marcu br. w raporcie „The state of AI” przez firmę doradczą McKinsey wynika, że choć aż 75 proc. firm deklaruje wykorzystanie sztucznej inteligencji w jakiejś formie (wzrost z 65 proc. r/r), to ponad 80 proc. z nich nie odnotowało materialnego wpływu na wyniki finansowe z tego tytułu, a… tylko 1 proc. ocenia swoją strategię związaną z GenAI jako dojrzałą. W upowszechnieniu modeli generatywnych nie pomaga fakt, że są wyjątkowo trudne do wdrożenia w sposób efektywny i bezpieczny. OpenAI, Google, Meta, Anthropic – wszyscy pchają na rynek coraz potężniejsze modele, ale niekoniecznie udostępniają narzędzia, które pozwalają na ich łatwe osadzenie w procesach biznesowych. A nawet jeśli ktoś to zrobi, szybko natyka się na ścianę zbudowaną z problemów z prywatnością, zgodnością z RODO, halucynacjami modeli, brakiem kompetencji i trudnością w zdefiniowaniu sensownego wskaźnika sukcesu. Gartner, znany z obrazowania na swoich wykresach rynkowych emocji, umieścił w lipcu br. generatywną AI w fazie „doliny rozczarowania” („trough of disillusionment”). To ten moment, gdy okazuje się, że oczekiwania były większe niż realne możliwości i rynek zaczyna łapać zadyszkę. I choć Gartner twierdzi, że ta technologia będzie miała znaczący wpływ na biznes w dłuższej perspektywie, dziś dominują frustracja, niejasność i pytania o sens wydatków. Z kolei PwC, w tegorocznym raporcie „2025 Global AI Jobs Barometer”, stwierdza, że w niektórych branżach AI przynosi ogromny wzrost produktywności – nawet trzykrotny. Problem w tym, że dotyczy to głównie wysoko wykwalifikowanych pracowników, którzy potrafią zintegrować narzędzia AI ze swoją pracą. Na tym tle interesujące są dane z raportu Gartnera z września 2024 r. o rynku oprogramowania: do 2026 r. ponad 80 proc. nowych aplikacji biznesowych będzie zawierać wbudowane funkcje AI. To oznacza, że AI przestanie być czymś, co trzeba samodzielnie wdrażać i używać jako oddzielne rozwiązanie – stanie się po prostu częścią narzędzi, które i tak kupujemy. Może więc dobrze, że AI przestaje być sexy? Może teraz, gdy opadł kurz po ChatGPT i szum medialny powoli cichnie, nadszedł czas na realne rozmowy o wdrożeniach, metrykach sukcesu i rzeczywistej wartości dodanej. Może teraz z tej technologii przestaną korzystać tylko ci, którzy mają FOMO, a zaczną ci, którzy mają realną potrzebę. I wtedy – dopiero wtedy – AI stanie się naprawdę użyteczna.
Krzysztof Jakubik redaktor prowadzący Vademecum rynku IT oraz dziennikarz CRN Polska
Właściciele sklepów stacjonarnych muszą się nieźle natrudzić, by nadążyć za szybko zmieniającymi się oczekiwaniami klientów, wynikającymi z ich doświadczeń w sektorze e-commerce.
Tomasz Janoś
Większość ludzi regularnie robi zakupy stacjonarne, mając tym samym możliwość przeglądania produktów z możliwością ich dotknięcia. Jednocześnie rośnie liczba konsumentów, którzy przyzwyczaili się do wygody i elastyczności zakupów online. W efekcie niektóre procesy w handlu stacjonarnym zaczynają domagać się zmiany, a technologia staje się integralną częścią zakupów offline.
Sieci handlowe już teraz przeznaczają globalnie miliardy dolarów na inwestycje w IT, uznając tym samym innowacje technologiczne za kluczowy element modernizacji zarówno operacji back office’owych, jak i całego tzw. doświadczenia zakupowego. Do stałych rozwiązań w sklepach stacjonarnych już od pewnego czasu zaliczają się systemy samoobsługowych kas, inteligentne punkty sprzedaży, aplikacje lojalnościowe, jak też kody QR.
LICZBA APLIKACJI WYKORZYSTUJĄCYCH WIDZENIE KOMPUTEROWE BĘDZIE W NAJBLIŻSZYM CZASIE ROSNĄĆ.
W związku z tym warto zwrócić uwagę na entuzjazm, z jakim cześć sektora handlowego przyjęła pojawienie się GenAI. Po prawie trzech latach, jakie minęły od tamtej pory, nie brakuje sklepów stacjonarnych, które faktycznie zaczynają czerpać korzyści z dynamicznie rozwijającego się ekosystemu modeli AI, platform, aplikacji i agentów, a także narzędzi opartych na AI, które wspierają tworzenie innowacyjnych rozwiązań. Co więcej, sprzedawcy detaliczni mogą
korzystać z wielu warstw sztucznej inteligencji — obejmujących automatyzację, algorytmy, uczenie maszynowe (ML), GenAI oraz agentów AI, rozwiązując problemy biznesowe i osiągając strategiczne cele. AI stanowi również podstawę
widzenia komputerowego (Computer Vision), które wciąż zyskuje nowe funkcje i zastosowania.
Sztuczna inteligencja oferuje detalistom niedostępne dotąd możliwości personalizacji doświadczeń zakupowych, optymalizacji zarządzania zapasami oraz wprowadzania strategii dynamicznego ustalania cen. Wszystkie te funkcje mogą być dostosowane do indywidualnych preferencji i trendów rynkowych dzięki generatywnej AI. Krótko mówiąc,

wykorzystując AI, sprzedawcy detaliczni korzystają z mocy uczenia maszynowego do tworzenia algorytmów personalizacji, które mają poprawić doświadczenia zakupowe w sklepie.
AI staje się również kluczowym narzędziem w obszarze bezpieczeństwa i zapobiegania szkodom. Już dziś sprzedawcy wykorzystują zdolność AI do analizowania ogromnych ilości danych i dostarczania wglądu w czasie rzeczywistym, co rewolucjonizuje walkę z kradzieżami sklepowymi. W efekcie inteligentna technologia pomaga tworzyć bezpieczne środowisko zakupowe zarówno dla klientów, jak i pracowników. Wiele zastosowań dla komputerowego widzenia
Dzięki upowszechnieniu się kamer i rosnącym możliwościom analizy obrazu wspieranej przez AI coraz więcej zastosowań w sklepach stacjonarnych znajduje Computer Vision (tzw. widzenie komputerowe). Obecnie kamery mogą znajdować się w wielu miejscach sklepu:

Jeśli przyjąć, że trendy przychodzą do nas zza oceanu, to działania dwóch gigantów, takich jak Walmart i Amazon, mogą oznaczać przyszłe problemy już nie tylko dla osiedlowych sklepików, ale i dla hipermarketów. Amazon, czyli największy gracz w branży e-commerce na świecie, bardzo poważnie wziął się za dostawę artykułów spożywczych do klienta. Gigant handlu online niedawno uruchomił dostawy – na ten sam dzień – świeżych, łatwo psujących się produktów spożywczych w ponad 1000 miastach i miasteczkach, a do końca 2026 roku planuje rozszerzyć tę inicjatywę do ponad 2300 lokalizacji w całych Stanach Zjednoczonych. Komentarzem do tych działań jest skierowana do akcjonariuszy deklaracja Andy’ego Jassy’ego, dyrektora generalnego Amazona, że firma bardzo optymistycznie widzi swoją przyszłość w branży spożywczej. Według najnowszego badania Brick Meets Click Grocery Shopper sprzedaż artykułów spożywczych online w USA osiągnęła w lipcu 2025 r. wartość 10 mld dol., co stanowi wzrost aż o 26 proc. w porównaniu z lipcem 2024 r. Przy czym szczegółowa analiza wyników sprzedaży spożywczej online pokazuje, że Amazon wcale nie jest liderem tego segmentu. Według szacunków eMarketer Amazon posiada około 22 proc. udziału, podczas gdy lider branży – Walmart – do końca 2025 r. osiągnie udział na poziomie 32 proc. I także ten lider, dotychczas znany przecież jako gigant handlu stacjonarnego, bardzo wyraźnie deklaruje, że stawia na działania w sektorze e-commerce wsparte sztuczną inteligencją.
na suficie, na krawędziach półek, w inteligentnych wózkach, na robotach poruszających się po sklepie, w urządzeniach przenośnych, w kioskach samoobsługowych, a nawet w takich lokalizacjach, jak automaty sprzedające czy drzwi lodówek. Wszystkie te urządzenia mogą być wykorzystane do najróżniejszych zastosowań napędzanych przez AI. Mogą przy tym wspierać różne obszary działalności, w tym śledzenie zapasów, operacje sklepowe oraz gromadzenie danych. W najbardziej zaawansowanej postaci widzenie komputerowe w handlu detalicznym umożliwia sprzedawcom tworzenie sklepów, w których klienci mogą wejść, wybrać produkty i dokonać zakupu bez potrzeby korzystania z tradycyjnych kas czy stanowisk obsługi. Jest to możliwe dzięki zastosowaniu czujników i kamer, które śledzą produkty wybierane przez klienta. Po dokonaniu wyboru i zaakceptowaniu płatności kwota jest automatycznie pobierana z konta klienta. Jednak dla sprzedawców ważniejsze od tworzenia takich bezobsługowych sklepów wydaje się utrzymanie odpowiedniego poziomu zapasów oraz zapewnienie dostępności towarów na półkach. Dzięki systemom opartym na kamerach i algorytmach widzenie komputerowe może na bieżąco skanować półki i natychmiast wykrywać braki w asortymencie, źle rozmieszczone produkty czy problemy z organizacją ekspozycji. Dane te w czasie rzeczywistym pomagają sprzedawcom usprawnić proces zarządzania zapasami, zmniejszyć liczbę braków towarowych, a w rezultacie poprawić efektywność działania sklepów.
Computer Vision odgrywa kluczową rolę w zbieraniu danych, pomagając w zapobieganiu stratom i monitorowaniu zapasów, a także zmniejszając niedogodności dla konsumentów, co poprawia doświadczenie zakupowe. Ze względu na powszechność kamer w sklepach i rosnącą liczbę funkcji wspieranych przez AI i CV można się spodziewać, że liczba aplikacji wykorzystujących widzenie komputerowe będzie w najbliższym czasie rosnąć.
Po drugiej stronie ekranu
Wykorzystanie wyświetlaczy i ekranów w sklepach daje sprzedawcom możliwość uruchamiania cyfrowych działań marketingowych w miejscu zakupu, jednocześnie poprawiając doświadczenie klienta. Dzięki dużym możliwościom integracji z innymi technologiami, wyświetlacze są świetnym sposobem na zacieranie granicy między zakupami online a stacjonarnymi.
– Do najczęstszych tego rodzaju wdrożeń należą instalacje Digital Signage i ściany wideo, p ocząwszy o d prostych ekspozycji produktów po masywne ściany LED, tworzące efektowne punkty centralne. Mogą one przedstawiać prezentacje produktów, historie marek lub kanały mediów społecznościowych w czasie rzeczywistym, tworząc dynamiczne, stale zmieniające się otoczenie – mówi Przemysław Mika, Strategic Partnership Manager – B2B Enterprise w polskim oddziale ViewSonica.
Sprzedawcy detaliczni wykorzystują te instalacje do realizacji kilku celów biznesowych. Systemy nawigacji pomagają klientom poruszać się po dużych
centrach handlowych, zmniejszając frustrację i wydłużając czas spędzany w sklepach. Edukacja produktowa za pomocą interaktywnych wyświetlaczy pozwala klientom uczyć się o złożonych produktach we własnym tempie, potencjalnie zmniejszając zapotrzebowanie na obsługę klienta, a jednocześnie zwiększając zaufanie klientów do zakupów.
– W instalacjach audiowizualnych kluczowe jest zarządzanie treścią. Wyświe-
tlacze prezentujące nieaktualne ceny albo niedziałające funkcje interaktywne mogą zaszkodzić postrzeganiu marki. Wielu sprzedawców detalicznych inwestuje w systemy zarządzania treścią, które umożliwiają aktualizacje w czasie rzeczywistym w wielu lokalizacjach. Integracja z istniejącymi systemami zapewnia, że wyświetlacze cyfrowe mogą wyświetlać aktualne informacje o stanie magazynowym, cenach i promocjach, które są



Robert Tomaszewski, Business Development Manager, Professional Displays, iiyama
Tspójne z innymi systemami sklepowymi – tłumaczy Przemysław Mika.
Lansowana wcześniej strategia migracji wszystkiego do chmury została zastąpiona bardziej racjonalnym podejściem hybrydowym. Jest ono lepiej dostosowane do obsługi rosnącej liczby urządzeń w sklepach oraz aplikacji generujących ogromne ilości danych. Taka zmiana umożliwia bardziej efektywny podział zadań obliczeniowych między infrastrukturą lokalną a chmurową – każda część wykonuje to, w czym jest najlepsza – optymalizując wydajność i szybkość reakcji.
W końcu sklepy stacjonarne są dziś pełne urządzeń – terminali POS, mobilnych urządzeń dla pracowników, kamer na półkach i na suficie, robotów, wyświetlaczy, liczników ruchu i wielu innych. Wraz z pojawianiem się nowych zastosowań ta lista jeszcze się powiększa. Wiele z tych urządzeń – np. kamery działające w czasie zbliżonym do rzeczywistego – wymaga znacznie szybszej reakcji (mniejszych opóźnień), niż mogłoby zapewnić przesyłanie danych do chmury, ich przetwarzanie tam, a potem oczekiwanie na odpowiedź.
radycyjny handel stacjonarny coraz mocniej konkuruje z e-commerce nie tylko ceną, ale przede wszystkim doświadczeniem zakupowym. Klient, który przychodzi do sklepu, oczekuje szybkości, wygody i interakcji – podobnie jak w internecie. Dlatego tak ważnym trendem są dziś rozwiązania oparte o monitory dotykowe i Digital Signage, które pozwalają wzmocnić relację z klientem i skrócić ścieżkę zakupową. Generalnie, dzisiejsze sklepy stacjonarne potrzebują rozwiązań, które sprawią, że klienci będą chcieli wracać – angażujących, spójnych i wygodnych w obsłudze. Technologia wyświetlaczy daje sklepom stacjonarnym przewagę w walce z e-commerce, a resellerom i integratorom otwiera szerokie możliwości wdrożeń w praktycznie każdej branży związanej ze sprzedażą detaliczną.
Instalacje audiowizualne stały się stałym i nieodzownym składnikiem nowoczesnego designu detalicznego, przekształcając sklepy, salony sprzedaży oraz centra handlowe z prostych przestrzeni komercyjnych w immersyjne doświadczenia marki. Te technologiczne integracje służą wielu celom, od zwiększania zaangażowania klientów, przez generowanie sprzedaży, po tworzenie niezapomnianych wrażeń podczas poznawania produktu lub danej marki. Najważniejsza jest najlepsza z możliwych interakcja z marką. Najskuteczniejsze instalacje naturalnie wpisują się w środowisko sprzedaży detalicznej, a nie są jedynie oczywistą technologiczną wstawką. Powinny one wzbogacać doświadczenia zakupowe, jednocześnie wspierając es-
tetyczne i funkcjonalne cele marki, tworząc przestrzenie, w których klienci chcą spędzać czas i do których chcą wracać.
Znaczenie lokalnych wdrożeń dodatkowo zwiększa pojawienie się możliwości wykorzystania sztucznej inteligencji w sklepach detalicznych – do personalizacji, zarządzania sieciami reklamowymi (RMN), obsługi klienta, interaktywnych doświadczeń czy aplikacji CV. Wszystkie te rozwiązania wymagają lokalnej mocy obliczeniowej w formie urządzeń, w tym serwerów brzegowych. Szczególnie dużych zasobów wymaga wspomniane widzenie komputerowe – zarówno w kontekście opóźnień, jak i generowania danych.
Nowe technologie to nowe ryzyko
Choć innowacyjne technologie w sklepach mogą przynieść wiele korzyści, trzeba być świadomym wyzwań i potencjalnych problemów związanych z wdrażaniem nowego oprogramowania czy sprzętu.
Przede wszystkim trzeba zdawać sobie sprawę, że wykorzystanie nowych technologii wymaga zapewnienia zgodności z lokalnymi regulacjami, do których te rozwiązania mogą nie być w pełni dostosowane. Tak jak w handlu online, również w sklepach stacjonarnych najważniejsze pozostają kwestie ochrony danych wrażliwych – jeśli będą gromadzone dane klientów, kluczowe stanie się uzyskanie zgody oraz zachowanie transparentności w zakresie sposobu ich wykorzystania.
Niezgodność z regulacjami może prowadzić do obniżenia satysfakcji klientów, problemów z zapasami, utraty sprzedaży oraz szkód wizerunkowych. W przypadku wielu lokalizacji i złożonych łańcuchów dostaw – szczególnie we franczyzach lub dużych sieciach – monitorowanie zgodności staje się niezbędne. Dlatego do zarządzania i egzekwowania standardów przydadzą się audyty oraz oprogramowanie wspomagające zapewnianie zgodności.

Przemysław Mika, Strategic Partnership Manager – B2B Enterprise, ViewSonic
Oczywiście przy wyborze technologii dla sklepów trzeba brać pod uwagę potencjalną reakcję kupujących na konkretne rozwiązania. Przykładowo, wymagać to będzie rozstrzygnięcia kwestii, jak duża część z nich woli inteligentne, zautomatyzowane kasy, a jak wielu chce pozostać przy tradycyjnych stanowiskach kasowych. Rolą integratora w relacji z właścicielem sklepu jest przecież stworzenie długoterminowej relacji opartej na zaufaniu, o którą będzie trudno, gdy sprzedane „niezwykle innowacyjne” rozwiązanie okaże się kompletnym niewypałem. n
ViewSonic ma w swoim portfolio rozwiązania stworzone z myślą o specyfice placówek handlowych – od mobilnych, wielkoformatowych ekranów LED po eleganckie interaktywne totemy.
Wświecie, w którym klient codziennie styka się z setkami komunikatów reklamowych, to właśnie jakość i forma przekazu decydują, czy zostaną one zauważone. Rozwiązania ViewSonic pozwalają sklepom i usługodawcom każdej wielkości dostosowywać sposób prezentowania treści do konkretnych potrzeb. Tajwański producent pokazuje, że innowacyjność to nie tylko lepsze parametry techniczne, ale także przemyślane rozwiązania logistyczne, łatwość obsługi i możliwość szybkiego reagowania na zmieniające się potrzeby rynku.
Jednym z najbardziej spektakularnych produktów w ofercie ViewSonic jest LDS138–151 – mobilny, składany 138-calowy ekran LED. Jego unikalność polega na tym, że łączy wielkoformatowy przekaz z mobilnością i możliwością szybkiego uruchomienia. Konkurencyjne rozwiązania są mniejsze i zazwyczaj wymagają poświęcenia kilku godzin na montaż, podczas gdy LDS138–151 jest gotowy do pracy w ciągu zaledwie 8–10 minut. Ekran umieszczony jest na wózku z elektryczną regulacją wysokości, co ułatwia dopasowanie formuły prezentacji do konkretnego wydarzenia. Wytrzymała konstrukcja o klasie szczelności IP54 i odporności mechanicznej IK06 gwarantuje bezpieczeństwo pracy w wymagających warunkach. W zestawie znajduje się skrzynia transportowa, dzięki której ekran może podróżować między lokalizacjami bez ryzyka uszkodzeń.

Placówki handlowe coraz chętniej sięgają po niestandardowe formaty obrazu, które pozwalają wyróżnić się na tle konkurencji. Monitor CDE105UW o przekątnej 105 cali i proporcjach 21:9 oferuje o 33 proc. większą przestrzeń roboczą niż tradycyjny ekran 16:9, co sprawia, że jest idealny do efektownych prezentacji panoramicznych czy dynamicznych reklam w witrynach. Dzięki rozdzielczości 5K obraz jest niezwykle ostry, a technologia pozwalająca na pracę w trybie 24/7 oraz możliwość instalacji w pionie czynią z niego doskonałe narzędzie do całodobowej ekspozycji promocyjnych treści. Zainstalowany system Android 13 oraz 8-rdzeniowy procesor SoC zapew-
niają płynną obsługę nawet najbardziej zaawansowanych aplikacji. W sytuacjach, gdy kluczowe jest połączenie nowoczesnego wzornictwa i funkcjonalności, idealnym wyborem są wolnostojące 55-calowe totemy EP5542 oraz EP5542T w smukłej aluminiowej obudowie. Wersja EP5542T z obsługą dotyku umożliwia interaktywną komunikację z klientem – od przeglądania katalogów produktowych po obsługę gier i ankiet. Urządzenia mogą odtwarzać materiały wideo, zdjęcia, muzykę i dokumenty PDF z nośników USB oraz dostarczane przez sieć. Dzięki kompatybilności z systemem SureMDM i platformą Revel Digital możliwe jest centralne zarządzanie treściami oraz zdalna kontrola nad flotą totemów.
Dla przestrzeni premium (flagowych sklepów, luksusowych butików czy stref VIP) ViewSonic oferuje model LDM136 –151, czyli 136-calowy ekran LED All-in-One. Charakteryzuje się on jasnością 600 nitów, kontrastem 6500:1 i odświeżaniem 3840 Hz, co gwarantuje nieskazitelną jakość obrazu nawet w bardzo jasnych przestrzeniach. Wbudowane głośniki 2x30 W pozwalają na realizację efektownych prezentacji multimedialnych bez dodatkowego nagłośnienia.
Strategic Partnership Manager – B2B Enterprise – Poland, ViewSonic

Współczesne placówki handlu stacjonarnego wymagają czegoś więcej niż tylko estetycznego wystroju i atrakcyjnego asortymentu. Ich klienci coraz częściej oczekują wrażeń zbliżonych do tych, jakie oferują nowoczesne platformy e-commerce – bogatych wizualnie, spersonalizowanych i interaktywnych. W tej rywalizacji o uwagę konsumenta kluczową rolę odgrywają wysokiej jakości monitory i ekrany multimedialne, takie jak mobilny, składany ekran ViewSonic LDS138–151 o przekątnej 138 cali. To unikalne urządzenie zostało zakupione przez firmę GMP Solutions z Gdańska, która jest naszym autoryzowanym partnerem B2B w zakresie monitorów interaktywnych, monitorów digital signage oraz ekranów LED. GMP zaprasza inne firmy partnerskie oraz ich potencjalnych klientów do zapoznania się z funkcjonalnością ekranu LDS138–151 w swoim showroomie.

















„Nawet małym sklepom stacjonarnym można obecnie zaproponować coraz więcej w zakresie wyświetlaczy i systemów DS” – mówi Robert Tomaszewski, Business Development
Manager Professional Displays LFD Touch w iiyama.
Wyświetlacze stały się niezastąpionym elementem w codziennym funkcjonowaniu sklepów stacjonarnych. Co należy brać pod uwagę, oferując je klientom?
Wiemy, że konsumenci wchodzący do sklepu zauważają w pierwszej kolejności ekrany wielkoformatowe, które pełnią funkcję reklamową i budują wizerunek marki. Oznacza to, że muszą nie tylko wyświetlać odpowiednie treści – ich wygląd i umiejscowienie muszą współgrać z całym otoczeniem.
Monitory stanowią także ważny element kas samoobsługowych, kas tradycyjnych i kiosków. Potrzebne są nie tylko na sali sprzedaży, pełnią też ważną funkcję na zapleczu, na przykład do wyświetlania informacji przeznaczonych dla pracowników. Dlatego w iiyama, w kategorii Professional Displays, mamy pełną ofertę rozwiązań, odpowiadającą wielorakim potrzebom sklepów. Takie kompleksowe podejście ma ogromne znaczenie dla klientów końcowych oraz dla naszych partnerów, którzy mogą ich obsłużyć sprawniej i skuteczniej.
Co jednak, gdy klient nie chce rezygnować z wdrożonego wcześniej sprzętu innej marki, a jedynie uzupełnić infrastrukturę?
Nie ma przeszkód, by klient dokupił produkty iiyama i wpiął je w swój funkcjo-
nujący system. Poza tym, we wrześniu wprowadzamy zewnętrzny player, który pozwoli klientowi zarządzać ekranami różnych marek za pomocą naszego bezpłatnego, łatwo skalowalnego oprogramowania.
Czy bezpłatne oprogramowanie nie będzie przeszkadzać partnerom, którzy piszą własny software, dostosowany do potrzeb klienta?
Nasze oprogramowanie stanowi uzupełnienie rozwiązań partnerów. Klient może, ale nie musi korzystać z systemu, o którym wspomniałem. Zdaję sobie też sprawę, że wraz z rozwojem własnego systemu, część jego funkcji stanie się płatna, by nie konkurować z kanałem partnerskim.
Oprogramowanie, które oferują nasi partnerzy, to element, w którym mogą zaproponować klientowi wartość dodaną. Czasami z tak spektakularnym efektem, jak w warszawskim sklepie stacjonarnym R-gol.
To sklep dla wielbicieli piłki nożnej. Co czeka klientów, którzy zdecydują się go odwiedzić?
Wykorzystując nasze monitory i swoje oprogramowanie, partner stworzył rozwiązanie, które w pozytywny sposób oddziałuje na emocje kupujących. Na przykład w momencie, gdy klient podniesie z półki jakiś model obuwia, na wyświetlaczu pojawi się informacja, który słynny piłkarz gra w tych właśnie butach. Jeśli są to buty marki Puma, na ekranie pojawi się Neymar, promujący tę markę. Budzi pozytywne odczucia i świetnie działa zwłaszcza na młodszych klientów sklepu, wpływając na sprzedaż i doświadczenie zakupowe.
Z kolei Pana doświadczenia z marką Triumph wskazują na dość zaskakujące kryteria, którymi może kierować się klient, decydując się na rozwiązanie DS. Przedstawiciele tego producenta, oglądając swoje reklamy na naszych ekranach, przykładali do nich produkty, aby sprawdzić poprawność wyświetlanych kolorów. Jedna z proponowanych im serii monitorów została zaakceptowana i wybrana do showroomów w Europie, również w Polsce.
Idąc za ciosem, pokazałem temu klientowi także dotykowy 24-calowy monitor, aby wiedział, że nasze ekrany może również wykorzystać, udostępniając klientom swoich sklepów kioski samoobsługowe. Okazało się, że odwzorowanie barw na tych monitorach było doskonałe. Wspominam o tym, aby podkreślić, jak ważna jest
ta cecha monitorów. Czasami nawet już wybrane przez klienta i wdrożone rozwiązanie DS może zostać zakwestionowane przez zarządzających wyższego szczebla, z powodu lekkiego odchylenia barw w wyświetlanym logo marki.
Co właścicieli mniejszych placówek, oferujących mniej spektakularne produkty, szczególnie skłania do inwestycji w wyświetlacze?
To między innymi możliwość dynamicznej zmiany cen oferowanych produktów. Dobry przykład podał nam nasz partner, który sprzedaje również własny system do zarządzania treścią. Dotyczyło to niewielkiej sieci punktów oferujących… kebaby. Zarządzający potrzebowali rozwiązania, które pozwoli im na podwyższenie ceny za kebab raz na dobę. Cena miała się zmieniać o godzinie dwudziestej pierwszej na ekranach, kasach i wirtualnej metce. Działaniu temu przyświecała idea, że dla osób, które przychodzą po kebab w nocy, cena nie gra już roli, a zyski po niewielkiej zmianie będą znaczące. Oprogramowanie umożliwiające zdalne i natychmiastowe zarządzanie treścią na wszystkich wyświetlaczach w sklepie, pozwoliło skutecznie wprowadzić plan w życie. Inwestycja zwróciła się bardzo szybko.
A czy system kaucyjny, który będzie obowiązywał już od października, można uznać za game changer na rynku rozwiązań IT dla handlu? Wiele czynników przemawia za tym, że tak. Punktów odbioru butelek docelowo może być tyle, co paczkomatów na polskim rynku, czyli blisko 30 tysięcy. Najważniejszym wyzwaniem będzie niezawodność automatów do odbioru, które będą musiały mieć wbudowany ekran dotykowy. Nie każdy sklep będzie musiał mieć automat, jednak jeżeli jakiś punkt w okolicy będzie go posiadał, a cztery inne nie, to klienci, którzy chcą zwrócić butelki, pójdą do tego jednego. Tym samym automaty pojawią się także w mniejszych miejscach. W październiku duża część placówek będzie chciała kupić „jakieś” rozwiązanie – a to ogromna szansa dla iiyama. System kaucyjny oznacza dla nas i naszych partnerów masowe wdrożenie ekranów dotykowych w punktach handlowych.
Pana zdaniem szykuje się jeszcze jedna rewolucja związana z wyświetlaczami w małych placówkach. Twierdzę tak na podstawie informacji pochodzących od naszego partnera sprzedającego reklamy emitowane na wyświetlaczach w sieci Żabka. Są to rekla-
my zewnętrznych klientów, np. banków. W Polsce mamy dziesięć tysięcy Żabek – to punkty, do których przychodzi dużo ludzi i żaden kanał telewizyjny nie jest się w stanie zapewnić takiego dotarcia do klienta. To kolejny etap rozwoju rynku DS.
A jeśli już wspomnieliśmy o partnerach – rozbudowujecie kanał partnerski w innowacyjny sposób. Nawiązaliśmy współpracę z firmami, które działają w obszarze kas fiskalnych, drukarek etykiet, skanerów, czytników kodów i obsługują zaplecza placówek handlowych, logistycznych, jak też przedsiębiorstwa z branży HoReCa. To firmy Posnet, Koncept-L oraz HSI, które są zainteresowane tym, co jeszcze mogą zaoferować swoim klientom. Stawiamy je obok naszych głównych dystrybutorów – AB, Also i Ingram Micro. Tworzymy również kanał sprzedaży z firmami z rynku AV. Naszą najliczniejszą grupą partnerów pozostają jednak firmy z branży IT.
Na koniec przytoczmy dane firmy analitycznej Context, z których wynika, że pozycja iiyama rośnie na polskim rynku monitorów. Osiągnęliśmy dwudziestoprocentowy stabilny udział w rynku monitorów, między innymi dzięki mocno rozbudowanej ofercie. W drugim kwartale br. zajęliśmy drugie miejsce w kategorii wszystkich rodzajów wyświetlaczy. W kategorii monitorów wielkoformatowych jeste-
śmy również na drugim miejscu od kilku kwartałów z rzędu. Po pandemii, w 2022 roku sprzedaliśmy 5 tysięcy takich urządzeń, w roku 2023 ich liczba się podwoiła, a w 2024 zanotowaliśmy kolejny wzrost sprzedaży – o 80 procent. Wcześniej sprzedawaliśmy tysiąc sztuk rocznie ekranów wielkiego formatu.
Nasze wyniki rosną, bo wygrywamy przetargi na coraz większe projekty. Naszą mocną stroną jest także bardzo niska awaryjność produktów, która utrzymuje się na poziomie poniżej 0,5 procenta. To kilkakrotnie mniej niż średnie dla sprzętu elektronicznego. W innych segmentach awaryjność często oscyluje na poziomie 1 – 5 procent, a nawet wyższym. To potwierdza, że iiyama dostarcza rozwiązania, którym można zaufać.
Wiele wskazuje na to, że ten rok będzie rekordowy, jeśli chodzi o liczbę sprzedanych urządzeń.
Rynek drukarek w Polsce, po korekcie z ubiegłego roku, wraca na ścieżkę wzrostu. Co prawda do szczytu z 2023 r. (ówczesna wartość obrotu sięgnęła poziomu prawie 600 mln zł) wciąż zabraknie około 10 proc., ale w porównaniu do roku 2019 rynek będzie mniej więcej o połowę większy. Jednocześnie zanotowaliśmy rekordową pierwszą połowę roku pod względem wolumenu. W tym czasie rodzimy rynek wchłonął przeszło 450 tys. urządzeń, czyli ponad 10 proc. więcej niż analogicznym okresie 2023 r., a jednocześnie 25 proc. więcej niż w ub.r.). Krótko mówiąc, pierwsze dwa kwartały dobrze rokują, jeśli chodzi o cały 2025 r.

Ponadto zakupy drukarek są mocno skorelowane z rynkiem komputerów. Jako, że funkcjonuje wciąż program „Laptop dla nauczyciela”, który napędza ten rynek to i peryferia na tym zyskują. Co przy tym ciekawe, w ostatnim półroczu to rynek B2B wykazuje większą skłonność do zakupów drukarek niż ten konsumencki. Wzrosty przekraczają 40 proc. rok do roku, podczas gdy w segmencie konsumenckim są dwa razy niższe. Wygląda na to, że narastająca fala ograniczania przez pracodawców pracy zdalnej wspiera biznes drukarkowy.
Niebagatelnym impulsem napędzającym sprzedaż są również spadające ceny. W porównaniu do pierwszej połowy ubiegłego roku obserwujemy obniżki we wszystkich segmentach poza „tankami” (dolewany tusz). Najmocniejsze przeceny widoczne są dla drukarek laserowych, przekraczając poziom 15 proc.
ti-color”, ale takie modele stanowią wciąż niespełna 15 proc. całego rynku. Podsumowując: najbliższe miesiące powinny przynieść dalsze wzrosty na rynku drukarek. Wiele wskazuje na to, że ten rok będzie rekordowy, jeśli chodzi o liczbę sprzedanych urządzeń. Do rekordu pod względem obrotów będzie natomiast nieco brakować, co jest pochodną spadków cen. Przy rozsądnej strategii (najlepiej opartej na danych GfK/NIQ), każdy będzie mógł skorzystać z tej sprzyjającej koniunktury.
Co przyczynia się do wzrostów w ostatnich miesiącach? Poza zwiększoną dostępnością (po problemach jednego z głównych dostawców w pierwszej połowie ub.r.) zaczyna się naturalny cykl wymiany urządzeń. W przypadku drukarek konsumenckich wynosi on przeciętnie około 5 lat, ale 50 proc. konsumentów wymienia sprzęt w ciągu 4 lat od zakupu poprzedniego urządzenia. Biorąc pod uwagę „górkę” z lat 2020–22 zaczynamy powoli doświadczać tego zjawiska na polskim rynku.
Które segmenty rynku zyskują, a które tracą? W ujęciu wolumenowym zyskują „multi-colory” (wszystkie kolory w jednym kartridżu), przebijając próg 35 proc., tracą zaś „tanki” (dochodząc do 25 proc.), a laserówki utrzymują poziom około 30 proc. Jeśli chodzi o perspektywę obrotową to wciąż najwięcej znaczą urządzenia laserowe (prawie 40 proc.), ale tracą one 3 pp. względem poprzedniego roku. Przeciwny trend obserwujemy dla „tanków”, które prawie zrównały się z modelami laserowymi, zyskując 3 pp. Rosną również obroty na drukarkach typu „mul-
Panel Dystrybucyjny GfK/NIQ (GfK MI: Supply Chain) to badanie ciągłe, którego celem jest odzwierciedlenie obrazu rynku dystrybucji IT i Telco w Polsce. Wyniki oparte są na rzeczywistych danych sprzedażowych dostarczanych przez kilkudziesięciu dystrybutorów prowadzących działalność na polskim rynku. Dane dostępne są w cyklu tygodniowym zarówno dla kategorii konsumenckich, jak i B2B. Więcej informacji: maciej.piekarski@nielseniq.com. O

Wartość sprzedaży (mln zł netto) 382,7462,5483,6583,2595,8516,3273,8212,6239,0
Wielkość sprzedaży (tys. szt.) 880,41069,8935,9979,01005,6910,1417,9370,8462,3
Średnia cena sprzedaży (mln zł netto)


Brother wprowadza nową linię urządzeń atramentowych z serii InkBenefit. To odpowiedź na potrzeby klientów indywidualnych i małych biur, którzy szukają drukarek łączących niskie koszty eksploatacji, wygodę obsługi i troskę o środowisko naturalne.
Oferta obejmuje aż 9 modeli, w tym urządzenia wielofunkcyjne z rozbudowanymi funkcjami oraz eleganckie warianty w kolorze białym. Cała seria jest kompatybilna z aplikacją Brother Mobile Connect, która zapewnia użytkownikom wygodę zarządzania drukarką z poziomu smartfona. Drukarki współpracują także z technologią Apple AirPrint umożliwiając proste i szybkie drukowanie z urządzeń takich jak iPhone czy iPad.
Szeroki wybór modeli dla różnych potrzeb
Modele z tej serii to idealne rozwiązanie do codziennych wydruków w domu. Kompaktowe rozmiary i prosta obsługa sprawiają, że urządzenia dobrze sprawdzą się w ograniczonej przestrzeni. Ponadto zapewniają możliwość łączności bezprzewodowej w standardzie 5 GHz, co zwiększa komfort korzystania w otoczeniu wielu urządzeń.
Bardziej zaawansowane modele, jak na przykład DCP-T730DW, oferują automatyczny druk dwustronny oraz podajnikADF,ułatwiającypracęz dokumen-
Robert Kowalski
Dealer&Retail Team Leader, Brother
N

owa seria Brother InkBenefit to przykład urządzeń, które łączą w sobie trzy kluczowe elementy: ekonomię, wydajność i ekologię. Użytkownicy mogą liczyć na prostą obsługę, dużą wydajność startowych butelek z atramentem oraz technologie, które ułatwiają codzienną pracę i dbają o bezpieczeństwo danych.


tami wielostronicowymi. Z kolei flagowy MFC-T930DW zapewnia pełną funkcjonalność biurową, w tym obsługę faksu, kolorowy ekran LCD, gniazdo LAN i dodatkowy podajnik papieru. Tak zróżnicowane portfolio umożliwia użytkownikom wybór urządzenia dopasowanego do własnych potrzeb – od prostych zastosowań domowych po zadania biurowe.
Ekonomia i wygoda użytkowania
Jedną z największych zalet serii InkBenefit są pojemne i łatwe do napełniania zbiorniki z atramentem. W zestawie startowym z modelami DCP-T530DW, DCP-T535DW, DCP-T536DW, DCP-T730DW, DCP-T735DW oraz MFC-T930DW, użytkownicy otrzymują butelki, które pozwalają wydrukować nawet do 15 000 stron w czerni i 5 000 w kolorze. Dzięki temu można znacząco ograniczyć koszty druku oraz rzadziej uzupełniać tusz.
Proces napełniania został maksymalnie uproszczony – każda butelka pasuje tylko do odpowiedniego zbiornika kolorystycznego, co eliminuje ryzyko pomyłki i czyni obsługę jeszcze bardziej intuicyjną.
Nowe urządzenia osiągają prędkość druku do 17 obrazów na minutę w czerni, a wydruk pierwszej strony trwa zaledwie kilka sekund. Standardowy podajnik mieści 150 arkuszy papieru, a taca wyjściowa – 50. To parametry, które sprawiają, że nowa seria InkBenefit to wyjątkowo praktyczny wybór do codziennej, intensywnej pracy.
Urządzenia Brother znane są ze swojej niezawodności, co daje użytkownikom pewność, że inwestują w sprzęt, który posłuży im przez lata. A automatyczne mechanizmy czyszczenia głowic pomagają


utrzymać wysoką jakość wydruków bez dodatkowych interwencji serwisowych.
Brother podkreśla, że nowa linia powstała zgodnie z zasadą „secure by design” Oznacza to zastosowanie wielowarstwowych zabezpieczeń – na poziomie urządzenia, sieci i dokumentów. Dzięki temu użytkownicy zyskują pewność, że ich dane pozostają chronione na każdym etapie przetwarzania.
Aplikacja Brother Mobile Connect daje pełną kontrolę nad urządzeniem – od zdalnego drukowania, przez monitorowanie poziomu atramentu, po szybki dostęp do historii skanów. To rozwiązanie odpowiada na współczesne potrzeby mobilności i elastycznej pracy, ułatwiając codzienne korzystanie z drukarki.
Nowa seria InkBenefit to także ukłon w stronę środowiska. Urządzenia zużywają mniej energii w trybie uśpienia, a ich opakowania wykonano z formowanej masy papierowej, całkowicie eliminując styropian EPS. To rozwiązanie pozwala ograniczyć emisję CO₂ i zapewnia pełną możliwość recyklingu.
Za te działania Brother otrzymał prestiżowe wyróżnienia, m.in. WorldStar Global Packaging Award 2025, a także nagrody w Japonii i Australii. Potwierdza to, że ekologiczne rozwiązania mogą iść w parze z innowacyjnością i funkcjonalnością.
Seria InkBenefit trafiła do szerokiej dystrybucji – zarówno do sklepów detalicznych, jak i do autoryzowanych partnerów handlowych.

Na rynku druku kontynuowany jest stały rozwój modelu usługowego (MPS), a postępująca digitalizacja obiegu dokumentów generuje popyt zarówno na sprzęt, jak też oprogramowanie.
Krzysztof Pasławski
Pierwsze półrocze 2025 r. zakończyło się wyraźnym wzrostem sprzedaży urządzeń drukujących w polskiej dystrybucji. Według danych Contextu przychody zwiększyły się o 8 proc. rok do roku, a wolumeny o 19,4 proc. W okresie od stycznia do czerwca br. najbardziej wzrosła sprzedaż urządzeń atramentowych – o 13,4 proc. pod względem przychodów, a zarazem o 20,4 proc. ilościowo. Dla maszyn laserowych było to – odpowiednio – 2,5 proc. oraz 17,7 proc. Przy czym widoczny jest wzrost sprzedaży wysokowydajnych urządzeń drukujących A4, kosztem A3 mono. – W II kw. 2025 roku sprzedaż urządzeń A4 kolor zwiększyła się o prawie 30 procent rok do roku, natomiast w przypadku modeli A4 mono o około 8 proc. Zauważalny jest przy tym duży spadek na maszynach A3 mono, o około 50 procent. Dla rozwiązań A3 kolor sytuacja jest stabilna – informuje Damian Kuliszewski, Project Manager w polskim oddziale Ricoha.
Co ważne, znacznie wzrosło zapotrzebowanie na sprzęt atramentowy w firmach.
Zdaniem integratora
– W 2025 r. obserwujemy kontynuację bardzo silnego wzrostu w segmencie biznesowego druku atramentowego. Wartościowo przekracza on w Epsonie 30 procent rok do roku – mówi Robert Reszkowski, Business Sales Manager. Jego zdaniem za tymi wynikami stoi zapotrzebowanie na nowe urządzenia cechujące się niskim zużyciem energii. Ponadto rośnie świadomość ekologiczna, zwłaszcza wśród młodszych menedżerów, a to oni coraz częściej podejmują decyzje zakupowe. Także konsumenci patrzą na niski koszt eksploatacji, dlatego nadal preferują maszyny z dolewanym atramentem. Generalnie, według dostawców, przy wyborze urządzeń drukujących rosnąca grupa klientów kieruje się całkowitym kosztem posiadania (TCO) bardziej niż ceną.
Rynek przechodzi od sprzętu do usług
Na rynku kontynuowany jest trend przejścia od sprzedaży transakcyjnej do modelu usługowego – zarządzanych usług
Wtym roku obserwujemy generalnie słabszy popyt w różnych segmentach rynku. Dopiero pod koniec II kwartału zauważyliśmy pewne ożywienie. Co do urządzeń drukujących, to w I półroczu sprzedawały się głównie maszyny z niższych półek cenowych, zwłaszcza urządzenia z dolewanym atramentem oraz z możliwoStanisław Kukułka, członek zarządu, NKK System
ścią uzupełniania toneru. Widać, że klienci bardziej niż kiedyś zwracają uwagę na koszty eksploatacji sprzętu. W tym roku są też takie projekty, gdzie klienci potrzebują droższych i bardziej wydajnych maszyn, ale stanowią one mniejszość. Klientami są głównie małe biura, sektor publiczny czy spółdzielnie. Zauważyliśmy, że ostatnio zmniejsza się zainteresowanie drukiem w biurach rachunkowych. Te przechodzą coraz bardziej na elektroniczny obieg dokumentów. Do mniejszej sprzedaży przyczynił się też spadek liczby przetargów i zamówień publicznych w tym roku. A jeśli już są, to zamówienia bywają skromne, na przykład na kilka maszyn. Do tego nawet w małych przetargach startuje teraz nawet 20 firm, a kiedyś były ich dwie lub trzy. Trudniej więc o uzyskanie zamówienia, jak i o satysfakcjonującą marżę przy tak dużej konkurencji. Sami nie zajmujemy się zarządzanymi usługami druku. Natomiast jeśli klient jest nimi zainteresowany, to polecamy firmę, która ma odpowiednie kompetencje w tym zakresie.
druku (MPS). Wynika to z chęci outsourcingu obsługi urządzeń drukujących w firmie.
– Klienci cenią przewidywalność kosztów i wygodę w ynikającą z pełnej obsługi. To przesunięcie akcentu ze sprzętu na kompleksową usługę jest w yraźnym trendem, który będzie się pogłębiał – twierdzi Robert Reszkowski.
Widać również coraz większe zapotrzebowanie na zarządzanie obiegiem dokumentów i ich cyfryzację, co dotyczy już organizacji różnej wielkości, także mniejszych firm. Stąd klienci preferują odpowiedni sprzęt ułatwiający digitalizację, jak urządzenia wielofunkcyjne pozwalające również na szybkie skanowanie. Maszyny drukujące stały się więc terminalami umożliwiającymi wprowadzenie do cyfrowego obiegu analogowych dokumentów.
– Rośnie znaczenie funkcji MFP, w tym tych związanych z cyfryzacją. W przyszłych latach sp odziewamy się w iększego zainteresowania urządzeniami wyposażonymi w profesjonalne skanery jednoprzebiegowe – prognozuje Damian Kuliszewski.
Dla klientów przy wyborze urządzeń istotna jest też możliwość integracji z systemami do zarządzania dokumentami (DMS).
– Największe zainteresowanie wzbudzają rozwiązania zintegrowane z platformami Microsoft 365 i Google Workspace, oferujące automatyzację i zaawansowaną analitykę – mówi Tomasz Szymański, Presales Solution Consultant w Sharp Business Systems.
Według niego klienci coraz częściej wybierają takie funkcje jak zarządzanie drukiem w chmurze, narzędzia umożliwiające wgląd w koszty, wykorzystanie i optymalizację środowiska druku, jak też rozwiązania hybrydowe – pozwalające na drukowanie z dowolnego miejsca. Co do samego sprzętu, to w drugim pół-
W 2025 roku wyraźnie wzrosło zapotrzebowanie na…
l …rozbudowane platformy DMS z funkcjami OCR i AI do automatycznej klasyfikacji dokumentów, l zdalne zarządzanie środowiskiem druku, l usługi subskrypcyjne (print-as-a-service), eliminujące zakup sprzętu na własność.
Klienci oczekują teraz…
l elastycznych modeli subskrypcji, l …bezproblemowej integracji z innymi narzędziami, l …błyskawicznego wdrożenia i uproszczonego onboardingu, l …pełnej kontroli kosztów i raportowania.
roczu w sprzedaż maszyn wielofunkcyjnych powinna być znacznie wyższa, na co wskazują historyczne wyniki.
– W 2026 roku spodziewamy się minimalnego spadku sprzedaży urządzeń A3 i wzrostu w segmencie A4 – mówi Damian Kuliszewski.
Kto potrzebuje digitalizacji
O ile zapotrzebowanie na digitalizację i zarządzanie obiegiem dokumentów widać już także w małych firmach, to nadal są nią zainteresowane głównie duże organizacje – ze względu na wolumeny przetwarzanych dokumentów, potrzebę ich zabezpieczenia i archiwizacji, a także z uwagi na wymagania zgodności z regulacjami.
– Wśród trendów sprzyjających digitalizacji na pierwszy plan wysuwa się presja na cyfryzację obiegu dokumentów oraz rozwój pracy hybrydowej. Istotne znaczenie ma również wprowadzenie obowiązkowej e-faktury w ramach KSeF, jak też rosnąca świadomość w zakresie cyberbezpieczeństwa – mówi Jacek Wójcik, dyrektor handlowy Auto ID. Z popytem na rozwiązania do digitalizacji mamy do czynienia zwłaszcza w takich sektorach jak finanse, bankowość, ubezpieczenia, administracja publiczna, ochrona zdrowia, edukacja, logistyka i produkcja, ale też w biurach rachunkowych i firmach prawniczych. Tym mniejszym przedsiębiorstwom zależy na usprawnieniu obiegu dokumentacji, przede wszystkim umów, faktur i dokumentacji pracowniczej.
– Firmy powyżej 50 pracowników oraz MŚP korzystające z funduszy unijnych

CYFRYZACJI SPRZYJA WPROWADZENIE OBOWIĄZKOWEJ E-FAKTURY
W RAMACH KSEF.
szybko wdrażają chmurowe DMS-y, doceniając ich efektywność i skalowalność. Do głównych barier należą ograniczone budżety IT, brak specjalistów i przywiązanie pracowników do tradycyjnych procesów – wylicza Tomasz Szymański.
Jak z kolei zaznacza Jacek Wójcik, obecnie już trudno wyobrazić sobie funkcjonowanie firmy bez możliwości szyfrowania plików i nadawania haseł oraz funkcji anonimizacji i redakcji treści, w tym usuwania danych osobowych wrażliwych według RODO. Wśród czynników sprzyjających popytowi coraz większe znaczenie zyskuje również przygotowanie dokumentów do podpisów elektronicznych. Dla działów prawnych oraz księgowych istotne są ponadto zaawansowane narzędzia do pracy z PDF-ami.
Agenci AI zwiększą popyt
W przyszłym roku spodziewany jest dalszy wzrost zainteresowania prostymi we wdrożeniu, a jednocześnie bezpiecznymi i zgodnymi z przepisami rozwiązaniami digitalizacji.
– Projekty będą koncentrować się wokół cyfryzacji faktur i umów, przygotowania do podpisów elektronicznych, wdrażania standardu PDF/A oraz ochrony danych poprzez szyfrowanie i anonimizację – przewiduje Jacek Wójcik.
Wskazuje też na zyskujący na znaczeniu kolejny sprzyjający wzrostowi popytu czynnik. Jego zdaniem stopniowe włączanie w życie firmy agentów AI do analizy danych wymusza ustandaryzowanie procesów pracy z dokumentami.
– Narzędzia zapewniające nie tylko OCR i konwersję, ale także kompleksowe, zgodne z regulacjami zarządzanie dokumentami cyfrowymi będą stawały się koniecznością – podsumuje przedstawiciel
Auto ID. n

Robert Reszkowski, Business Sales Manager, Epson
ZWapotrzebowanie na digitalizację dotyczy już nie tylko dużych instytucji i korporacji, ale coraz częściej także MŚP. Kluczowe są tutaj zarówno względy prawne, w tym wymogi archiwizacji i ochrony danych, jak i chęć zwiększenia efektywności pracy z dokumentami z poprzednich lat. Odpowiedzią na te potrzeby są urządzenia MFP oraz szybkie, wyspecjalizowane skanery. Jednak trzeba jasno powiedzieć, że nie wszystko da się w pełni zdigitalizować. Wymogi prawne, brak powszechnego podpisu elektronicznego, czy choćby przyzwyczajenia użytkowników powodują, że druk pozostaje istotnym elementem obiegu informacji.
II półroczu tego roku oraz w roku 2026 spodziewamy się dalszego wzrostu zainteresowania rozwiązaniami hybrydowymi i wspierającymi działania proekologiczne. Na pewno wzrosną także wymagania dotyczące oszczędności energii, minimalizacji zużycia materiałów eksploatacyjnych oraz maksymalizacji bezpieczeństwa danych. Administracja publiczna, dzięki projektowi EZD – Elektronicznego Zarządzania Dokumentacją, przyspieszy wdrożenia systemów zarządzania dokumentami, co przełoży się na inwestycje w sprzęt i oprogramowanie. Najbardziej zainteresowane digitalizacją branże to finanse i bankowość, administracja publiczna, ochrona zdrowia, logistyka i produkcja.

Jacek Wójcik, dyrektor handlowy, Auto ID




GOTomasz Szymański, Presales Solution Consultant, Sharp Business Systems
łównymi barierami w cyfryzacji dokumentów pozostają rozproszone systemy, obawy o koszty integracji oraz brak kompetencji w zakresie mapowania procesów. Największą przeszkodą, jaką obecnie identyfikujemy wśród pracowników biurowych, jest nieznajomość narzędzi usprawniających pracę z dokumentami. Często brakuje im wiedzy, jak nimi zarządzać, przygotowywać je do podpisu, anonimizować, szyfrować czy archiwizować. W tym obszarze widzimy potrzebę ciągłej edukacji, ale docelowo również ogromny potencjał do rozwoju.
bserwujemy wzrost zainteresowania klientów oprogramowaniem do zarządzania drukiem i współdzieleniem dokumentów. Wiąże się to nie tylko z potrzebą odciążenia zespołu IT od zadań związanych ze środowiskiem druku, ale również rosnącą świadomością odnośnie do bezpieczeństwa dokumentów i danych. Dzięki rozwiązaniom chmurowym wdrożenie bezpiecznego wydruku podążającego czy autoryzacji na urządzeniu drukującym nie jest dużym wydatkiem i nie stanowi wyzwania dla mniejszych organizacji. Zapewne w drugiej połowie 2025 roku zainteresowanie kwestiami związanymi z cyberbezpieczeństwem, również w kontekście druku biurowego, będzie wyraźnie większe.

Rafał Krupa, Project Manager, Ricoh








Cloud Managed Print Services pozwala firmom optymalizować koszty, poprawiać wydajność i zwiększać kontrolę nad środowiskiem druku. Pierwszy kontrakt w ramach tej usługi został podpisany 5 maja 2015 r.
Dziesięć lat temu zarządzanie drukiem w modelu usługowym dopiero zyskiwało na znaczeniu. Dla specjalistów z polskiego oddziału Brother wprowadzenie, rozwinięcie tej usługi i przekonanie do niej partnerów oraz klientów biznesowych było nowym, bardzo ambitnym wyzwaniem.
– Dziś MPS jest standardem, a my z dumą możemy powiedzieć, że braliśmy udział
Paweł
Lechicki
MPS Coordinator, Brother

Oferowana przez Brothera kompleksowa usługa zarządzania drukiem Cloud MPS bazuje na prostym założeniu: klient płaci wyłącznie za wydrukowane strony, a Brother wraz z partnerami dbają o resztę – począwszy od dostarczania sprzętu, przez jego serwisowanie, po automatyczne uzupełnianie materiałów eksploatacyjnych. Przez ostatnią dekadę nasze rozwiązanie pomogło setkom polskich fi rm poprawić efektywność pracy, zminimalizować przestoje i ograniczyć niepotrzebne wydatki związane z drukiem. Widzimy, że potrzeby polskich przedsiębiorstw ewoluują, ale jedno pozostaje niezmienne: klienci biznesowi oczekują prostych, skutecznych i przewidywalnych rozwiązań. Nasza usługa MPS od początku odpowiadała na te potrzeby i nadal będziemy ją rozwijać, aby wspierać firmy w transformacji cyfrowej. Chciałbym również podkreślić wagę współpracy z lokalnymi partnerami, którzy przez ostatnie 10 lat odegrali kluczową rolę w dostarczaniu usług MPS klientom w całym kraju.

w procesie transformacji rynku w kierunku tych usług. Nasze podejście od początku było proste: oferować klientom maksimum wygody i przejrzystości w zarządzaniu drukiem. To dzięki takiemu podejściu zaufały nam zarówno małe firmy, jak również większe organizacje, które szukają partnera technologicznego, a nie tylko dostawcy sprzętu – mówi Paweł Lechicki, MPS Coordinator w Brother Polska. W ramach pierwszej umowy – podpisanej w maju 2015 r. – zaoferowano klientowi końcowemu pełną usługę rozliczaną w oparciu o faktyczną liczbę wydrukowanych przez niego stron. Dla producenta i jego partnerów był to początek nowej ery – oferowania klientom usługi, która skutkuje transparentnością oraz przewidywalnością kosztów eksploatacji urządzeń drukujących w miejsce modelu prostej odsprzedaży i serwisowania drukarek.
Przez dekadę potrzeby polskich przedsiębiorstw w dziedzinie druku biurowego ewoluowały. W ostatnich latach szczególnie istotne stały się funkcje zdalnego zarządzania i analityki, umożliwiające firmom kontrolę zużycia zasobów nawet w modelu pracy hybrydowej. Brother dostosowuje się więc do potrzeb klientów biznesowych, rozwijając Cloud MPS w oparciu o dane oraz opinie użytkowników, stawiając na elastyczność oraz możliwość łatwej integracji z infrastrukturą IT w przedsiębiorstwach.
Urządzenia w ofercie
Ponadto producent konsekwentnie rozwija swoje portfolio sprzętu dostępnego w ramach umowy na usługi zarządzania drukiem, kierując się oczekiwaniami klientów biznesowych i instytucjonal-
nych. W efekcie na rynku pojawiły się kolejne wielofunkcyjne urządzenia laserowe: monochromatyczny model MFC-L6910DN oraz MFC-L9670CDN – drukujący w kolorze. Oba zostały włączone do oferty MPS firmy Brother. Wy-
ODGRYWAJĄ KLUCZOWĄ ROLĘ W DOSTARCZANIU USŁUG MPS.
posażono je w zaawansowane funkcje, w tym w pełni konfigurowalne podajniki, spersonalizowane wyświetlacze, możliwość szybkiego drukowania, kopiowania i skanowania. Dodatkowo mają wbudowaną funkcję bezpieczeństwa, co jest zgodne z najnowszymi normami branżowymi, aby dotrzymać kroku stale zmieniającym się przepisom dotyczącym ochrony prywatności i przetwarzania danych. Ponadto dają dostęp do funkcji NFC służącej do bezpiecznego uwierzytelniania i drukowania z urządzeń mobilnych oraz Cloud Secure Print, która umożliwia łatwe wysyłanie dokumentów z myślą o ich druku, gdy użytkownik znajduje się poza domem lub biurem. Dodatkowo funkcje Secure Print Plus i Barcode Print Plus umożliwiają bezpieczny druk oraz automatyzację przepływu pracy.
Użytkownicy rozwiązań Epson mogą skorzystać na nowych regulacjach.
Wprowadzenie regulacji unijnej DNSH (Do No Significant Harm), obowiązującej wszystkie podmioty korzystające z funduszy publicznych, zmienia sposób, w jaki firmy podchodzą do inwestycji technologicznych. Neutralność środowiskowa przestała być domeną CSR czy marketingu – dziś to realny wymóg wpisany w strategię biznesową i podstawowy warunek uzyskania finansowania. Krótko mówiąc, ekologia to już nie wybór – to obowiązek. Co ważne, przy odpowiednich narzędziach może on stać się źródłem realnych oszczędności. W odpowiedzi na zmiany prawne Epson oferuje technologię, która łączy ekologiczność z efektywnością kosztową – druk bez nagrzewania (Heat-Free). Dzięki wyeliminowaniu energochłonnych procesów, takich jak podgrzewanie tonera, urządzenia atramentowe Epson zużywają do 90 proc. mniej energii i generują aż 94 proc. mniej odpadów eksploatacyjnych niż ich laserowe odpowiedniki. To nie tylko oszczędność na rachunkach za prąd, ale też znaczne ograniczenie śladu węglowego.
Ekologia z kalkulatorem w ręku
Przykładem takiego podejścia są wielofunkcyjne urządzenia z serii WorkForce Pro. Model WF-M5899DWF to kompaktowe rozwiązanie dla małych firm i grup roboczych, które potrzebują szybkiego i energooszczędnego druku monochromatycznego. WorkForce Pro EM-C8101RDWF to kolorowe urządzenie A3 klasy RIPS, stworzone do dużych wolumenów i pracy w środowiskach biurowych, gdzie liczy się wydajność

archiwizację i dystrybucję dokumentów z poziomu jednego urządzenia.
Gotowość do integracji z systemami DMS, OCR czy uwierzytelnianiem użytkowników oznacza mniejsze zużycie papieru, mniejsze ryzyko błędów ludzkich i większą kontrolę nad informacją – zarówno w wersji cyfrowej, jak i papierowej.
PaperLab – zamknięcie obiegu dokumentu
Ekologiczne drukowanie to tylko jeden z filarów strategii. Drugim jest wspomniana digitalizacja, a trzecim – odpowiedzialna utylizacja. Tu wkracza PaperLab A-8100, autorskie rozwiązanie Epsona do przetwarzania zużytego papieru bezpośrednio w firmie.
celów ESG i raportowania zrównoważonego rozwoju.
Odpowiedź na „zielone” potrzeby Zarówno sektor publiczny, jak i prywatny coraz częściej oczekują rozwiązań „all-in-one”: oszczędnych, zautomatyzowanych i zgodnych z najnowszymi przepisami środowiskowymi. Drukarki Epson spełniają te wymagania – nie tylko poprzez niższe TCO i energooszczędność, ale również dzięki możliwości pełnej integracji z usługami typu MPS (Managed Print Services) i modelami subskrypcyjnymi, takimi jak Epson Print Performance.
i niezawodność. Z kolei przystępniejsze cenowo urządzenie WF-EMC800RDWF formatu A4 zapewnia dużą elastyczność i skalowalność – cenioną przez rozwijające się firmy. Wszystkie te rozwiązania są wyposażone w szybkie, niezawodne skanery, które przekształcają je w cyfrowe centra przetwarzania informacji – umożliwiające nie tylko drukowanie, ale też digitalizację,
To jedyne na rynku urządzenie, które pozwala na produkcję nowego papieru A4 i A3 z wcześniej zadrukowanych arkuszy – bez użycia wody (tradycyjny recykling wymaga jej nawet 100 razy więcej!) i bez konieczności transportu makulatury do zewnętrznych podmiotów. Dzięki temu redukowana jest nie tylko emisja CO₂, ale i ryzyko wycieku danych. Proces odbywa się zgodnie z normą ISO/IEC 21 964–2 P7, co oznacza, że papier po przetworzeniu nie może być odtworzony żadną dostępną technologią.
Dodatkowym atutem PaperLabu jest moduł PORT, pozwalający firmom na bieżąco monitorować i raportować efekty ekologiczne – co staje się nieocenionym narzędziem w kontekście realizacji
Co więcej, jak pokazują dane rynkowe, segment biznesowych urządzeń atramentowych notuje ponad 30 proc. wzrost rok do roku, wypierając technologie laserowe zarówno pod względem kosztów, jak i funkcjonalności.
Warto sprawdzić, czy flota drukująca w firmie wspiera cele klimatyczne i zgodność regulacyjną – czy raczej jest ich cichym sabotażystą. Są narzędzia, by to zmienić. W erze obowiązków środowiskowych wynikających z regulacji takich jak DNSH, technologia Epsona przestaje być tylko alternatywą – staje się logicznym wyborem.
Robert Reszkowski, Business Sales Manager, Epson robert.reszkowski@epson.pl

Ochrona plików PDF przestała być opcjonalną czynnością, lecz obowiązkiem wynikającym z prawa i zdrowego rozsądku. Zabezpieczenie znajdujących się w nich treści ułatwia oprogramowanie ABBYY FineReader PDF.
Format PDF pozostaje standardem wymiany dokumentów, więc to właśnie w tym obszarze najczęściej materializuje się ryzyko wycieku danych lub podmiany ich treści. Dlatego konieczność ochrony plików PDF pojawia się zawsze, gdy dokument opuszcza bezpieczne firmowe środowisko – poprzez chmurę, na nośniku przenośnym albo gdy w korespondencji e-mail trafia do kontrahenta lub do urzędu.
Polskie prawo konsekwentnie akcentuje szyfrowanie jako element procedur ochronnych, zwłaszcza przy „wynoszeniu” danych poza firmę, a także w kontekście ograniczania skutków naruszeń i obowiązków notyfikacyjnych. W szczególności RODO nakazuje wdrożyć „odpowiednie środki techniczne i organizacyjne” z uwzględnieniem ryzyka, przy czym szyfrowanie jest wprost wskazywane jako właściwy środek zapewniający poufność
Jacek Wójcik
dyrektor handlowy działu dystrybucji, AutoID Polska



Dokumenty PDF należy chronić zawsze, gdy naruszenie poufności, integralności lub autentyczności mogłoby uderzyć w prawa osób, reputację firmy lub ważne interesy biznesowe. Stosowanie szyfrowania AES-256, haseł, nieodwracalne redagowanie oraz podpisywanie cyfrowe to zestaw technik, które spełniają wymogi prawa i są zgodne z najlepszymi praktykami. Wybór takiego narzędzia, które łączy wszystkie te mechanizmy, jak ABBYY FineReader PDF, ułatwia stworzenie powtarzalnych procesów zabezpieczających i dowodzi przyjętej przez przedsiębiorstwo należytej staranności ochrony danych.
i integralność przetwarzania. Jego brak podnosi ryzyko sankcji administracyjnych.
W wielu scenariuszach zastosowania liczy się nie tylko poufność, ale i wiarygodność dokumentu. W Unii Europejskiej ramy prawne eIDAS nadają kwalifikowanemu podpisowi elektronicznemu równoważność z odręcznym. W plikach PDF wykorzystywany jest profil PAdES (PDF Advanced Electronic Signatures), który zapewnia możliwość weryfikacji integralności i tożsamości podpisującego w długim horyzoncie czasu.
Aby zapewniona została zgodność z regulacjami, równie ważna jest możliwość trwałej redakcji wrażliwych treści. Proste ukrycie tekstu poprzez zamazanie lub zasłonięcie obiektem graficznym bywa odwracalne, dlatego potrzebna jest funkcja redakcji, która usuwa fragmenty tekstu i obrazy z pliku, a nie tylko je przykrywa. Konieczna jest też dostępność mechanizmów czyszczenia metadanych, komentarzy, załączników i obiektów ukrytych, które nierzadko zdradzają więcej, niż użytkownik chce ujawniać.
Gdy w grę wchodzi autentyczność i nienaruszalność treści, stosuje się podpisy cyfrowe oparte na certyfikatach. Pozwalają one wykazać, że dokument nie został zmieniony po podpisaniu, a tożsamość podpisującego jest weryfikowalna. Rozwiązania PDF wspierają walidację przy otwieraniu oraz pracę z różnymi dostawcami certyfikatów, co ułatwia wdrożenia zgodne z eIDAS.
Wszystkie wymienione techniki zostały zintegrowane w jednym narzędziu ABBYY FineReader PDF. Umożliwia ono ustawianie hasła do otwierania i modyfikowania dokumentów PDF, szyfruje pliki zgodnie ze standardem AES-256, zapewnia trwałe zaciemnianie wrażliwych treści lub ich usuwanie, czyszczenie danych ukrytych
oraz dodawanie i weryfikowanie podpisów cyfrowych. W praktyce pozwala to przygotować dokument do udostępnienia bez konieczności „sklejania” procesów zabezpieczających z wielu aplikacji, co minimalizuje ryzyko popełnienia błędu ludzkiego.
Z perspektywy zgodności z regulacjami RODO FineReader pomaga wdrożyć „odpowiednie środki” zdefiniowane w artykule 32 rozporządzenia (szyfrowanie, kontrola dostępu, minimalizowanie udostępnianych danych, zapewnienie integralności). Oczywiście, taki zestaw środków, aby istotnie obniżone zostało prawdopodobieństwo i skutki naruszeń, powinien zostać uzupełniony odpowiednią polityką bezpieczeństwa dotyczącą konkretnego przedsiębiorstwa oraz pakietem szkoleń dla pracowników.
Obsługa rozwiązania ABBYY FineReader PDF nie wymaga specjalistycznej wiedzy. Dodanie hasła i wybór poziomu szyfrowania odbywa się w kilku krokach w module „Zabezpieczenia”, z opcją rozdzielenia hasła otwarcia od hasła dodatkowych uprawnień. Mechanizm redagowania działa w trybie prowadzącym użytkownika przez kolejne etapy wykrywania i usuwania treści. Takie podejście skraca czas przygotowania pliku oraz zmniejsza liczbę pomyłek przy masowej pracy z dokumentami.

Jacek Wójcik, dyrektor handlowy działu dystrybucji, AutoID Polska FineReader@FineReader.pl
Koncepcja inteligentnej fabryki i Przemysłu 4.0 – a zdaniem niektórych już nawet Przemysłu 5.0 – nabiera realnych kształtów.
Rozwiązania z tego zakresu mają zapewnić efektywność działania i odporność na zmienne wyzwania rynkowe.
Wzasadzie prawie wszystkie przedsiębiorstwa produkcyjne nie widzą swojej dalszej przyszłości bez inwestycji w cyfryzację. Aż 98 proc. uczestników badania firmy Deloitte „Digital Maturity Index 2023” zadeklarowało już rozpoczęcie transformacji cyfrowej. To o 20 punktów procentowych więcej niż w roku 2019. Głównymi motywami do podjęcia działań w tym zakresie są: optymalizacja kosztów, poprawa wydajności operacyjnej, innowacyjność, wyższa jakość produktów oraz lepsza obsługa klientów.
Tendencja ta znajduje potwierdzenie również w innym badaniu Deloitte’a. Jak bowiem wynika z raportu „2025 Manufacturing Industry Outlook”, w 2024 r. inwestycje technologiczne stanowiły 30 proc. budżetów operacyjnych firm przemysłowych. To wzrost o 7 punk-
wy. Jak pokazuje przeprowadzone przez firmę Autodesk badanie „Cyfryzacja polskich przedsiębiorstw przemysłowych”, 87 proc. firm uważa cyfryzację za szansę na zwiększenie konkurencyjności i efektywności działania, a 77 proc. za czynnik niezbędny do utrzymania konkurencyjnej pozycji na rynku. Poprawa efektywności procesów oraz wzrost przychodów uznawane są za kluczowe korzyści z transformacji cyfrowej w polskim przemyśle.
tów procentowych w stosunku do roku 2023. Wydatki dotyczyły głównie projektów z dziedziny chmury obliczeniowej, sztucznej inteligencji oraz usług telekomunikacyjnych, w tym sieci 5G. W polu zainteresowań znalazła się także rzeczywistość rozszerzona, która okazuje się być przydatna przy automatyzacji procesów produkcyjnych oraz szkoleniu pracowników.
Dla 55 proc. badanych przez Autodesk główną barierą we wdrażaniu cyfrowych rozwiązań pozostaje wciąż brak wystarczających środków finansowych. Jednak według przeprowadzonego przez SAP Polska badania „Biznes napędzany cyfrowo. Rozwój w obliczu Przemysłu 5.0”, polskie przedsiębiorstwa coraz bardziej zdają sobie sprawę z wartości inwestycji technologicznych. W sumie 61 proc. z nich zadeklarowało, że patrzą na nie w perspektywie długoterminowego zysku, a nie tylko inicjalnych kosztów wdrożenia. Z kolei badanie przeprowadzone wspólnie przez Akademię Leona Koźmińskiego i firmę Astor (Raport Techimpact 2024) pokazało, że 20 proc. najbardziej zaawansowanych technologicznie firm z branży FMCG jest w stanie dynamicznie zarządzać kosztami i efektywnie kontrolować swoją działalność.

w przemyśle produkcyjnym ma osiągnąć globalnie do 2032 r. wartość 103,3 miliarda dol. Byłby to aż dwudziestokrotny wzrost w porównaniu z rokiem 2023. Według opublikowanego w tym roku przez EY Polska raportu „Jak polskie firmy wdrażają AI”, blisko jedna trzecia badanych firm z branży produkcyjnej w naszym kraju wprowadziła już u siebie rozwiązania oparte na sztucznej inteligencji, mając za sobą przynajmniej pierwsze procesy implementacyjne. To więcej niż w przypadku usług i handlu. Przemysł jest też obszarem, w którym priorytet dla rozwiązań AI jest najwyższy – 65 proc. firm z tego sektora wskazaSZCZEGÓLNIE
Znaczenie transformacji cyfrowej dostrzega także polski sektor przemysło-
Firmy przemysłowe na całym świecie coraz bardziej doceniają możliwości oferowane przez rozwiązania bazujące na sztucznej inteligencji. Jak szacują autorzy raportu S&S Insider, jej zastosowanie

ło go jako „wysoki” bądź „bardzo wysoki”. Do tego 35 proc. firm z sektora produkcji chce znacząco zwiększyć wydatki na AI na przestrzeni następnych 18 miesięcy. Największych korzyści upatrują w zastosowaniach w obszarze IT (41 proc.), marketingu i analizie rynku (37 proc.) oraz sprzedaży (36 proc.).
Skala możliwych zastosowań sztucznej inteligencji w fabrykach jest w zasadzie nieograniczona. Bazujące na niej rozwiązania mogą być wykorzystywane zarówno przy projektowaniu nowych wyrobów, w zarządzaniu liniami produkcyjnymi, do optymalizacji łańcucha dostaw, prowadzenia analiz rynkowych jak
Obszary zastosowań sztucznej
Automatyzacja procesów projektowych, produkcyjnych lub operacyjnych
Analiza danych, big data
Automatyzacja zadań administracyjnych
i do wspomagania obsługi klientów oraz zarządzania cyklem życia produktów. W opinii ekspertów zastosowanie sztucznej inteligencji w zakładach przemysłowych nie jest już futurystyczną wizją, lecz codzienną rzeczywistością. To jej umiejętne wykorzystanie i włączenie do współpracy z człowiekiem pozwala, zdaniem niektórych, mówić już wręcz o nowej rewolucji przemysłowej, która znajduje odzwierciedlenie w koncepcji Przemysłu 5.0. Jak pokazują badania rynkowe, w sektorze przemysłowym rośnie strategiczna rola AI, podobnie jak nakłady na jej wdrożenia.
Na popularności w zakładach przemysłowych zyskują coraz bardziej tzw. cyfrowe bliźniaki (ang. digital twins). To wirtualna reprezentacja obiektu lub procesu z realnego świata. Taki cyfrowy model odzwierciedla w formie oprogramowania cechy lub zachowania swego fizycznego odpowiednika i może służyć do symulacji jego sprawowania się w reakcji na określone czynniki czy parametry. Dzięki temu stanowi bardzo przydatne narzędzie do testowania procesu technologicznego jeszcze przed jego uruchomieniem. Pomaga sprawdzić, gdzie mogą być wąskie gardła, czy w jakich sytuacjach stan wykorzystywanych surowców może w kluczowy sposób wpływać na finalny produkt. Dzięki cyfrowemu bliźniakowi można, na przykład, zasy-
mulować przebieg wytworzenia artykułu spożywczego według nowej receptury bez konieczności testowego uruchamiania całej linii produkcyjnej.
Potrzeba coraz więcej danych
Wyzwaniem dla firm produkcyjnych jest przy tym zapewnienie odpowiednich danych, które mogą posłużyć zarówno do trenowania modeli sztucznej inteligencji, jak i potem stanowić podstawę do ich ciągłego funkcjonowania, na przykład przy wspomaganiu sterowania cyklem produkcyjnym. Dane stanowią również kluczowy element budowy i wykorzystania cyfrowych bliźniaków. Symulacja skutków potencjalnych działań będzie tym bardziej wiarygodna, im bardziej będzie bazowała na jak najbardziej wiarygodnych danych.
Stąd też poważnym zadaniem dla firm przemysłowych jest wyposażanie poszczególnych maszyn, jak i całych instalacji produkcyjnych w czujniki zapewniające stały, bieżący dopływ informacji o przebiegu procesu produkcyjnego. Nowe urządzenia są już fabrycznie w takie czujniki wyposażane, ale stare – których jeszcze wiele jest z powodzeniem wykorzystywanych na liniach produkcyjnych – wymagają takiego dozbrojenia. Dane pozyskiwane z takich czujników mogą służyć do wielu celów – od zarządzania w czasie rzeczywistym
Źródło: Cyfryzacja polskich przedsiębiorstw przemysłowych, Autodesk 2024
przebiegiem procesu produkcyjnego, po analizy zapotrzebowania na surowce i półprodukty. Pozwalają optymalizować procesy i wspomagają podejmowanie decyzji biznesowych.
Ważnym obszarem ich wykorzystania jest monitorowanie stanu technicznego wykorzystywanych maszyn i przewidywanie ich potencjalnych awarii. Odpowiednia reakcja wyprzedzająca polegająca na wymianie zużytego pod-


zespołu pozwala uniknąć pokaźnych strat związanych z zatrzymaniem i przestojem linii produkcyjnej. Wyzwaniem, z którym zakłady produkcyjne muszą się w coraz większym stopniu mierzyć, jest w tym kontekście integracja infrastruktury OT, czyli automatyki przemysłowej, ze środowiskiem IT.
Te dwa światy funkcjonowały do niedawna osobno, teraz – chociażby ze względu na to, że automatyka przemy-
Które wyzwania z zakresu cyfryzacji są obecnie dla Pana najważniejsze?
Trwający obecnie proces cyfryzacji w spółkach Grupy Azoty nie jest tylko sposobem na wprowadzanie rozwiązań informatycznych lub wymianą starszego systemu na nowy. Wyzwaniem jest w tym przypadku aktualizacja obecnych rozwiązań informatycznych w połączeniu z prowadzoną unifikacją i standaryzacją procesów biznesowych w zakresie spółek Grupy oraz jednoczesne wprowadzanie nowych, zintegrowanych rozwiązań, kluczowych dla sprawnego funkcjonowania przedsiębiorstwa, zarówno z punktu widzenia bieżących działań, jak i planów rozwojowych. Wymaga to sprawnego przeglądu obecnie wykorzystywanych systemów informatycznych i ich analizy pod względem przydatności biznesowej, kosztowej oraz rozwojowej. Konieczne jest też znaczące zaangażowanie
Leszek Maciuga, Dyrektor Departamentu Korporacyjnego IT w Grupie Azoty pracowników z poszczególnych obszarów merytorycznych, dysponujących wiedzą na temat kluczowych dla spółki procesów. Z drugiej strony potrzebny jest udział wykwalifikowanego zespołu IT, który nie tylko dobrze zna zasady działania systemów informatycznych i kierunek ich rozwoju na rynku, ale też dobrze rozumie wymagania biznesowe.
Jakie są strategiczne kierunki rozwoju środowiska IT w państwa organizacji? W zakresie rozwiązań dla biznesu nie chodzi już tylko o gromadzenie informacji i ich udostępnianie. Kluczowe staje się zapewnienie możliwości optymalnej realizacji wszystkich wymaganych działań. Dla nas dodatkowo istotna jest unifikacja i standaryzacja wdrażanych rozwiązań w zakresie wszystkich spółek Grupy. Podejście to stanowi podstawę do szukania rozwiązań optymalizujących wprowadzanie i przetwarzanie informacji, ale także umożliwiających automatyzację powtarzalnych zadań i inteligentne wsparcie użytkownika w zakresie obsługi rozwiązań. Dużo korzyści może przynieść wyposażenie rozwiązań informatycznych w tzw. agentów, które dają użytkownikom istotne wsparcie w codziennej pracy, na przykład poprzez udzielanie pomocy przy obsłudze dużych, skomplikowanych systemów, prowadząc ich krok po kroku. Umożliwiają też łatwe raportowanie na bazie zapytań w języku potocznym, czy dostosowanie interfejsu bez konieczności wprowadzania zmian programistycznych. Newralgicznym kierunkiem rozwoju środowiska teleinformatycznego jest zapewnienie bezpieczeństwa danych stanowiących podstawę funkcjonowania spółek z Grupy. Ze względu na pozycję rynkową są one szczególnie narażone na ataki, więc zastosowanie właściwych rozwiązań z obszaru bezpieczeństwa jest jednym z ważniejszych zadań.
Jak ocenia Pan współpracę z firmami z sektora IT?
Od pięciu lat rynek dostawców oraz integratorów zmienia się bardzo dynamicznie, co stanowi duże wyzwanie dla zamawiających. Z uwagi na duży popyt na usługi i systemy informatyczne oraz rosnące oczekiwania finansowe specjalistów, ceny są bardzo wysokie, w konsekwencji czego koszty utrzymania infrastruktury i rozwiązań IT zwiększają się z roku na rok. Ta sytuacja wymaga od nas nie tylko poszukiwania optymalnych funkcjonalnie i kosztowo rozwiązań informatycznych. Potrzebujemy też partnerów technologicznych biegłych w doradztwie z zakresu sposobów wdrażania danego rozwiązania i jego konfiguracji, sprawnie wykonujących swoje obowiązki, co przekłada się na krótszy czas uruchomienia i mniejsze koszty dla zamawiającego. Obecnie zwracamy bardzo dużą uwagę na to, aby dostawca lub integrator był także partnerem biznesowym i rozumiał nie tylko nasze interesy, ale także okresowe zakłócenia i środowisko, w którym działamy.
słowa bazuje w coraz większym stopniu na rozwiązaniach cyfrowych, a pochodzące z niej dane są potrzebne w wielu obszarach funkcjonowania zakładu – muszą się z sobą coraz bardziej łączyć. To stawia poważne wyzwania przed kierownikami produkcji i szefami działów IT. Integracja OT oraz IT umożliwia płynne i spójne zarządzanie danymi z różnych obszarów – zarówno w procesach produkcyjnych, jak i na potrzeby systemów zarządczych.
Szczególnie pomocne w tym zakresie mogą być rozwiązania klasy MOM (Manufacturing Operations Management) i MES (Manufacturing Execution Systems). Umożliwiają one pełną widoczność danych pozwalając na integrację poziomu produkcyjnego z zarządczym. Architektura typu UNS (ang. Unified Namespace) zapewnia stworzenie centralnego, ujednoliconego punktu dostępu do danych. Nie tylko umożliwia wymianę danych w czasie rzeczywistym między systemami OT i IT, ale daje możliwość zbierania danych z różnych systemów, dodawania do nich kontekstu i przekształcania ich w format zrozumiały dla innych systemów, co ułatwia integrację i wymianę informacji. Agreguje dane z różnych źródeł, takich jak systemy produkcyjne, czujniki, bazy danych, czy aplikacje, tworząc pojedynczy punkt dostępu do informacji. Dzięki temu zapewnia też na przykład funkcję łatwego wprowadzania i standaryzacji produkcji definiowanej programowo oraz wykorzystanie maszyn definiowanych programowo (SDM – Software-Defined Machines).
Na koniec warto dodać, że zapewnienie sprawnej komunikacji cyfrowej i wymiany danych staje się też szczególnie ważne w sytuacji rosnącego wykorzystania w produkcji przemysłowej różnego rodzaju robotów. Opublikowany przez Międzynarodową Federację Robotyki (International Federation of Robotics, IFR) raport „World Robotics 2024” pokazuje, że na koniec 2023 r. na całym świecie działało już ponad 4,2 mln robotów przemysłowych. To o 10 proc. więcej w stosunku do roku poprzedniego.
Przy czym roboty wykorzystywane są już nie tylko bezpośrednio na liniach produkcyjnych. Coraz większego znaczenia, zdaniem ekspertów, nabierają służące do wspomagania procesów okołoprodukcyjnych transportowe roboty mobilne poruszające się po halach fabrycznych i w magazynach. Przy czym w wielu przypadkach są to roboty autonomiczne, sterowane przez algorytmy sztucznej inteligencji. n










































Od kiedy Oberig IT prowadzi w Polsce działalność dystrybucyjną i w jak dużej skali?
Nasza spółka powstała 8 lat temu w Kijowie, a w kolejnych latach otwieraliśmy oddziały w różnych krajach, także w Europie Środkowo-Wschodniej. Wejście na rynek UE planowaliśmy jeszcze przed rozpoczęciem wojny, ale ostatecznie założyliśmy w Polsce spółkę w ubiegłym roku i rozpoczęliśmy badania rynku pod kątem zapotrzebowania na rozwiązania ochronne. Wówczas zostałem prezesem polskiego oddziału, ale w firmie Oberig IT pracuję od samego początku. Obecnie rozwijamy lokalny zespół, korzystając z merytorycznego wsparcia inżynierów z innych krajów, którzy pomagali już partnerom przy realizacji dużych i nietypowych wdrożeń.
Na polskim rynku jest już kilku dystrybutorów, którzy specjalizują się w rozwiązaniach cyberbezpieczeństwa. W jaki sposób chcecie się od nich odróżniać?
Bardzo precyzyjnie dobieramy portfolio produktów. Nie jesteśmy kolejnym dystrybutorem firewalli czy klasycznych antywirusów. Skupiamy się na rozwiązaniach dla firm, które mają już wdrożone podstawowe systemy ochronne. Coraz więcej ataków potrafi przeniknąć przez tradycyjne zapory, dlatego potrzebne są narzędzia do szczegółowej analizy podatności w całej infrastrukturze IT (Algosec), prowadzenia białego wywiadu – także w dark webie (Luminar) – oraz korelowania danych z systemów ochronnych (Logpoint SIEM/SOAR/NDR). Skala zgromadzonych w ten sposób informa-



„Polski rynek potrzebuje inteligentnej cyberochrony - tradycyjny firewall to za mało. Dlatego naszym celem jest dostarczanie rozwiązań, które wnoszą bezpieczeństwo na nowy poziom” – podkreśla Stanislav Pokhylko, prezes polskiego oddziału Oberig IT.


cji uniemożliwia ich ręczną analizę, więc niezbędne jest techniczne wsparcie (Serwisy). Ważną kategorię stanowią też narzędzia do symulowania ataków (Cymulate), które pozwalają na ciągłe identyfikowanie luk w bezpieczeństwie. Liczymy, że takie produkty będą chętnie oferowane również przez naszych partnerów biznesowych.
Obecnie macie w portfolio produkty pięciu dostawców. Czy planujecie rozbudować tę listę chociażby o firmy, których rozwiązania oferuje centrala?
Nasza strategia bazuje głównie na analizie potrzeb polskiego rynku, a nie na prostym kopiowaniu zagranicznych modeli. Część rozwiązań z oferty centrali jest już dostępnych w Polsce i ma uregulowaną dystrybucję, ale skupiamy się głównie na wyszukiwaniu nowych technologii i usług, które odpowiadają na realne potrzeby partnerów i klientów. Coraz większą wagę przykładamy do dostawców oferujących model as-a-Service – szczególnie SOC-as-a-Service i MDR-as-a-Service. Wkrótce pojawią się one w naszej ofercie. Widać wyraźnie, że brakuje specjalistów od cyberbezpieczeństwa zarówno po stronie partnerów, jak i klientów. To sprawia, że usługi tego typu zyskują na popularności i ich znaczenie będzie rosło w całej Unii Europejskiej.
Jakie macie oczekiwania wobec partnerów, z którymi chcecie współpracować?
Są one zróżnicowane, ponieważ współpracujemy zarówno z firmami z dużym doświadczeniem w obszarze cyberbez-






pieczeństwa, jak też z tymi, którzy dopiero rozpoczynają swoją drogę w tym obszarze. Wśród polskich partnerów widać wyraźny trend poszerzania swojej oferty o rozwiązania z zakresu ochrony IT. Oczywiście istnieje spora grupa doświadczonych firm, które często mają rozbudowane kompetencje, a nawet własne centra SOC. Dla takich partnerów możemy wzbogacić i rozwijać ofertę, zwiększając ich wartość dla odbiorców końcowych. Z nimi współpracujemy przy bardziej zaawansowanych projektach, na przykład przy wdrożeniach rozwiązań do symulacji ataków lub Threat Intelligence. Jednocześnie, jako dystrybutor typu VAD, mamy możliwość i zasoby, aby wspierać nowych partnerów w zdobywaniu wiedzy i kompetencji – zarówno handlowych, jak i technicznych. Szkolimy ich, dzielimy się doświadczeniem, pomagamy w budowaniu oferty oraz docieraniu do klientów. Nasza strategia zakłada obecność w każdym większym mieście – chcemy mieć tam jednego lub dwóch aktywnych partnerów, a w takich ośrodkach jak Warszawa – odpowiednio więcej. Rozwój sztucznej inteligencji początkowo ułatwił działalność hakerom, czego dowodem są codzienne ataki i ich ofiary w Polsce. Dlatego skuteczność naszych rozwiązań w ochronie klientów końcowych jest dziś wyraźnie widoczna.
OFERUJEMY INNOWACYJNE ROZWIĄZANIA, A TAKŻE PEŁNE WSPARCIE TECHNICZNE I SPRZEDAŻOWE.

Supremo
to narzędzie zdalnego dostępu do zasobów IT, które wspiera zarówno bieżącą działalność operacyjną firm, jak i długoterminową strategię rozwoju biznesu.
Werze pracy hybrydowej i rosnącej mobilności pracowników fundamentem sprawnego działania firm stały się skuteczne, bezpieczne i szybkie narzędzia umożliwiające zdalny dostęp do zasobów IT. Jednym z rozwiązań, które wyróżnia się na tym rynku, jest Supremo – oprogramowanie stworzone przez Nanosystems, łączące w sobie funkcje zdalnego pulpitu, monitorowania infrastruktury IT, transferu plików oraz wsparcia technicznego. Supremo jest dystrybuowane w ponad 150 krajach i wykorzystywane przez ponad 1,2 mln aktywnych klientów dziennie. Oprogramowanie to stanowi sprawdzony wybór zarówno dla dużych przedsiębiorstw, jak i mniejszych firm czy pojedynczych osób. Zostało zapro-

jektowane tak, aby rozpoczęcie pracy z tym narzędziem było jak najprostsze. Nie ma wymogu zakładania konta ani konieczności skomplikowanej instalacji oprogramowania – wystarczy pobrać jeden plik dla systemu Windows lub macOS, uruchomić go i od razu można korzystać z funkcji łączności. Połączenie może nastąpić z innego komputera wyposażonego w to samo narzędzie albo ze smartfona z systemem Android lub iOS, na którym zainstalowana została aplikacja Supremo Remote Desktop. Ta prostota wdrożenia oznacza, że zdalna pomoc techniczna może być realizowana w ciągu minut, a nie godzin, co znacząco skraca czas reagowania na incydenty lub inne doświadczane przez pracowników problemy.
l Dostęp bez nadzoru – możliwość łączenia się z komputerami i serwerami bez konieczności obecności użytkownika po drugiej stronie, co ułatwia obsługę infrastruktury poza godzinami pracy lub w oddalonych lokalizacjach.
l Bezpieczny transfer plików – wymiana plików i folderów pomiędzy urządzeniami możliwa jest zarówno przez wbudowany moduł, jak i metodą „przeciągnij i upuść” czy kopiuj/wklej, przy zachowaniu pełnego szyfrowania transmisji.
l Zdalne drukowanie – dokumenty zdalne można drukować bezpośrednio na drukarkach lokalnych.
l Personalizacja interfejsu – możliwość dodania logo lub zmiany kolorystyki, aby były spójne z wizerunkiem marki podmiotu świadczącego usługi wsparcia.
l Automatyczna instalacja – funkcja instalacji i konfiguracji narzędzia Supremo na zdalnych urządzeniach.
l Kolejka wsparcia – możliwość priorytetyzacji próśb o wsparcie w zależności od ich pilności.
l Raportowanie połączeń – gromadzenie i filtrowanie danych o sesjach wychodzących pozwala lepiej kontrolować pracę działów wsparcia.
Ciekawostką w ofercie Supremo jest także możliwość zdalnego zarządzania smartfonami i tabletami z systemem Android (producent zapowiada wprowadzenie tej funkcji dla urządzeń z systemem iOS na 2026 r.). Służy do tego aplikacja Supremo Mobile Assist, dzięki której administrator może otwierać aplikacje, zmieniać ustawienia i rozwiązywać problemy w czasie rzeczywistym. To szczególnie ważne w środowiskach, gdzie pracownicy terenowi korzystają z urządzeń mobilnych lub gdy firma zarządza rozproszoną siecią punktów sprzedaży wyposażonych w kasy POS.
Bezpieczeństwo w standardzie
Narzędzia zapewniające zdalny dostęp są częstym wektorem cyberataków, dla-
l Książka adresowa online – możliwość zapisania nieograniczonej liczby kontaktów z pełnymi danymi dostępowymi i szybkie sprawdzenie ich statusu online/offline.


tego kwestie bezpieczeństwa powinny być traktowane absolutnie priorytetowo. Supremo wykorzystuje szyfrowanie end-to-end oraz dwuskładnikowe uwierzytelnianie, a także umożliwia tworzenie białej listy ID, dzięki której tylko autoryzowane urządzenia mogą nawiązać połączenie. Dla każdej sesji generowane są losowe hasła, ale można również ustawić własne. Funkcja autoryzacji użytkownika wymaga ręcznego potwierdzenia połączenia po stronie zdalnego hosta. Dzięki takiemu podejściu rozwiązanie to spełnia wymagania bezpieczeństwa w branżach o podwyższonych obostrzeniach, takich jak finanse, medycyna czy administracja publiczna.
Supremo to także narzędzie wspierające administratorów w codziennej pracy. Funkcja Patch Management pozwala centralnie monitorować i instalować aktualizacje systemowe, minimalizując ryzyko wystąpienia podatności. Natomiast Moduł RMM (Remote Monitoring & Management) umożliwia bieżące śledzenie procesów, usług, zdarzeń oraz stanu sprzętu i oprogramowania.
Oprogramowanie Supremo może być integrowane poprzez API z systemami CRM, ERP, RMM czy help desk, co umożliwia włączenie funkcji zdalnego wsparcia bezpośrednio w dotychczasowe procesy obsługi klienta. Zapewniony jest także mechanizm masowej instalacji i konfiguracji w całej sieci, co jest kluczowe przy wdrażaniu narzędzia w dużych przedsiębiorstwach.
Model licencjonowania Supremo bazuje na liczbie jednoczesnych połączeń, a nie urządzeń czy użytkowników.




Romana Romandini, CEO w Nanosystems
Jakie są kluczowe wyróżniki Supremo na rynku?
Naszą główną przewagą konkurencyjną jest elastyczność i prostota modelu licencjonowania. Działamy w formule pay-as-you-go, co oznacza, że klienci płacą jedynie za wykorzystanie równoległych sesji zdalnych, bez ograniczeń dotyczących liczby zdalnych urządzeń końcowych. Dzięki temu nasi partnerzy i klienci zyskują pełną kontrolę nad kosztami i mogą łatwo skalować swoje działania. Co istotne, w odpowiedzi na zmieniające się potrzeby, szczególnie widoczne w czasie pandemii, zauważyliśmy, że zdalny dostęp coraz częściej łączył się z kwestiami ochrony urządzeń. To
skłoniło nas do wyjścia poza tradycyjny obszar usług zdalnego dostępu i dołączenia do oferty zaawansowanych funkcji z zakresu cyberbezpieczeństwa. Pod koniec 2022 roku wprowadziliśmy nowe możliwości, jak zdalne monitorowanie i zarządzanie (Remote Monitoring and Management – RMM), zarządzanie aktualizacjami oraz wykrywanie zagrożeń bazujące na sztucznej inteligencji i analizie behawioralnej. Jednak pomimo rosnącej mocy tych narzędzi pozostajemy wierni naszej filozofii, aby dostarczać rozwiązania proste w obsłudze nawet dla użytkowników nietechnicznych oraz przyjazne cenowo.
Jak funkcjonuje kanał sprzedaży Supremo? Obsługujemy aktywnych klientów w ponad 150 krajach, ale główna siła naszego kanału koncentruje się w Europie i Ameryce Łacińskiej. Do 2023 roku nasza strategia dystrybucyjna bazowała głównie na współpracy z resellerami i dostawcami usług MSP, w większości małymi i średnimi firmami IT. Jednak od 2024 roku przeprowadziliśmy gruntowną restrukturyzację kanału, wprowadzając nową rolę dystrybutorów jako partnerów strategicznych. Dystrybutorzy nie są już tylko pośrednikami – pełnią dziś rolę współpracowników wspierających nas w ramach wspólnych inicjatyw marketingowych, współtworzenia mapy rozwoju produktu oraz zapewniania pierwszej linii wsparcia technicznego i obsługi klienta. To istotna zmiana, która oznacza przejście od modelu transakcyjnego do ekosystemu bazującego na partnerstwie.
Czego oczekujecie od swoich partnerów w kanale sprzedaży?
We wszystkich krajach nasze oczekiwania koncentrują się na zwiększaniu zasięgu i skalowalności bazy resellerów oraz klientów końcowych. W praktyce oznacza to dwa kluczowe obszary. Po pierwsze, budowanie marki i widoczności – oczekujemy od partnerów zaangażowania we wspólne działania marketingowe, które wzmacniają rozpoznawalność naszej marki i generują wartościowe leady na poszczególnych rynkach. Tym drugim obszarem jest wsparcie operacyjne – zależy nam, aby partnerzy aktywnie uczestniczyli w edukacji handlowej i technicznej, dając klientom narzędzia oraz wiedzę potrzebną do rozwoju wspólnego ekosystemu. Poszukujemy partnerów, którzy podzielają naszą wizję skalowalnego wzrostu bazując na prostocie, innowacyjności i silnym zaangażowaniu lokalnym.
To oznacza, że w ramach jednej licencji można obsługiwać nieograniczoną liczbę stanowisk, a opłata zależy tylko od tego, ile sesji uruchomionych jest w tym samym czasie. Taka elastyczność pozwala optymalizować koszty i skalować usługi wraz z rozwojem firmy. Dostępne są plany od darmowego (do użytku osobistego) po wersje Solo, Business i Professional dla zespołów i dużych firm.
Supremo to narzędzie, które łączy prostotę obsługi z bogatym zestawem funkcji i wysokim poziomem bezpieczeństwa. Dzięki wszechstronności i elastycznemu licencjonowaniu sprawdza się w małych firmach, średnich przedsiębiorstwach i globalnych korporacjach. Wyeliminowanie konieczności podróży służbowych w celu wsparcia klientów lub pracowni-
ków, pozwala firmom znacząco obniżyć koszty obsługi technicznej. Jednocześnie krótszy czas reagowania na problemy przekłada się na wyższą produktywność i satysfakcję użytkowników. Supremo znajduje zastosowanie w wielu branżach – od IT i telekomunikacji, przez edukację i ochronę zdrowia, po handel detaliczny czy logistykę. Może służyć do obsługi wewnętrznej infrastruktury firmy, wsparcia użytkowników, a także zarządzania rozproszonymi zasobami technicznymi. Dla firm, które wykorzystują tego typu narzędzia do świadczenia usług wsparcia IT, zapewniono możliwość personalizacji interfejsu poprzez dodanie logotypu czy zmiany kolorystyki. Dzięki temu mogą one zapewnić spójność z własną identyfikacją wizualną, co pozwala zwiększyć rozpoznawalność i profesjonalny odbiór usług.


Rosnące koszty subskrypcji, brak przejrzystości licencjonowania, niepewność
po stronie dostawców, takich jak Red Hat i Broadcom, czy koniec wsparcia dla
Kompleksowa oferta SUSE, jako europejskiego dostawcy oprogramowania open source, pozwala obniżyć koszty, podnieść wysoko poziom bezpieczeństwa i uprościć zarządzanie. Innymi słowy, kiedy Red Hat przykręca śrubę, SUSE daje oddech. Jak bowiem wiadomo, po przejęciu przez IBM koszty licencji RHEL wzrosły drastycznie, nawet o 300–400 proc. Jednocześnie Red Hat ograniczył dostęp do źródeł CentOS, zmuszając organizacje do kosztownych migracji. To klasyczny vendor lock-in, gdzie dostawca „dusi” klientów wysokimi cenami. Alternatywą jest oferta SUSE Multi-Linux Support, zapewniająca pełne wsparcie techniczne dla posiadanych systemów Red Hat Linux i obniżenie kosztów ich utrzymania o połowę
Użytkownikom CentOS i RHEL7, którzy utracili wsparcie, SUSE zapewnia dostęp do krytycznych poprawek i dalsze, bezpieczne ich używanie. Co ważne, nie trzeba zmieniać tych systemów. Przejście na Multi-Linux Support jest jak zmiana operatora telefonu komórkowego przy zachowaniu numeru.
Dalsza redukcja kosztów wynika z uproszczenia i automatyzacji zarządzania. SUSE Multi-Linux Manager to jedno narzędzie do administrowania całym środowiskiem Linux z serwerami RHEL, CentOS, Alma Linux, Rocky Linux, Ubuntu, Oracle Linux,
openSUSE czy SUSE Linux Enterprise Server (SLES). Centralizuje i automatyzuje kluczowe zadania jak patchowanie, aktualizacje, monitoring i zapewnienie zgodności. Automatyzacja radykalnie zmniejsza koszty i nakłady pracy administratorów i minimalizuje ryzyko ludzkiego błędu. Zapewnia spójny poziom bezpieczeństwa w całej infrastrukturze (x86–64, IBM Z, Power). Jedno narzędzie to także mniej wymaganych szkoleń działu IT.
SUSE Linux: fundament dla biznesowych aplikacji
Choć wsparcie dla innych dystrybucji to spora zaleta, docelowym rozwiązaniem dla wielu firm jest migracja na system SUSE Linux, synonim wydajności, stabilności i bezpieczeństwa. Doceniają to szczególnie użytkownicy SAP. SUSE Linux Enterprise Server for SAP Applications jest rekomendowaną i preferowaną platformą dla SAP S/4HANA i SAP HANA, zapewnia wsparcie dla baz HANA większych niż 32 TB z 4-petabajtową przestrzenią adresową, oferuje unikalne funkcje, jak zintegrowane rozwiązanie HA, Live Patching, monitoring czy wydłużone wsparcie nawet do 4.5 roku dla każdego Service Pack.
i zgodność w standardzie
SUSE stawia bezpieczeństwo klientów na pierwszym miejscu. SLES posiada certyfikaty Common Criteria EAL4+ i FIPS 140–3 potwierdzające najwyższy stan-








CentOS… SUSE odpowiada na te problemy jasno: więcej wolności, pełna kontrola oraz niższe koszty. Kontakt dla partnerów:






dard ochrony. Dzięki narzędziom takim jak OpenSCAP łatwo przeprowadza się audyty i dba o zgodność z regulacjami (NIS 2, DORA, PCI-DSS, HIPAA, ISO).
Kluczową funkcją cenioną przez administratorów jest SUSE Live Patching. Dzięki niej instalacja krytycznych poprawek do jądra systemu nie wymaga restartu serwera, co jest istotne w środowiskach wymagających dostępności 24/7.
Otwartość gwarancją suwerenności cyfrowej
W dobie zamykania ekosystemów, rosnących zagrożeń geopolitycznych, cięcia kosztów subskrypcji, SUSE jako europejska firma pozostaje otwartym i przejrzystym partnerem dla organizacji IT Przejście na rozwiązania SUSE to kwestia bezpieczeństwa, zachowania suwerenności cyfrowej i realne oszczędności. Firmy takie jak PPL LOT obniżyły wydatki o połowę, a transparentny model licencjonowania eliminuje ukryte koszty.
Sprawdź korzyści dla swoich klientów
Niezależnie od tego, czy klient potrzebuje wsparcia dla RHEL/CentOS, czy niezawodnej platformy dla SAP, wybierając SUSE zyskuje wymierne oszczędności i korzyści. Skontaktuj się z nami, aby umówić bezpłatną ocenę możliwości migracji do SLES, wdrożenia SUSE Multi-Linux Support lub przeprowadzenia testowej instalacji (PoC). Autoryzowanym dystrybutorem rozwiązań SUSE jest Ingram Micro– zapraszamy do współpracy!
Radosław Czubaszek, Partner & Distribution Development Manager, SUSE tel. 602-406-294, radoslaw.czubaszek@suse.com.
Poniższe mity mogą prowadzić w najlepszym razie do rozczarowań, w najgorszym do strat finansowych i wizerunkowych. Do wdrożenia każdego systemu, szczególnie kluczowego typu ERP, warto się dobrze przygotować.
Robimy tak jak wszyscy i tak samo jak wszyscy, oni nie mogą się mylić” – to jeden z najczęstszych mitów jakie słyszę na temat wdrożeń systemów IT. Tymczasem często już na etapie rozmów o przedmiocie umowy widzimy jak bardzo to nie jest prawda, a ten konkretny produkt się nie nadaje. Kolejny mit? Proszę bardzo: „Wdrożenie systemu IT to jednorazowa inwestycja”. Otóż to zdecydowanie błędne przekonanie, ponieważ wdrożenie systemu to tylko początek. Po jego zakończeniu system wymaga ciągłej opieki, aktualizacji oraz rozwoju. Właściwe zarządzanie systemem IT to proces długoterminowy, który wiąże się z dodatkowymi kosztami i pracą. „Wdrożenie systemu IT jest szybkie i proste, wystarczy wybrać dobry produkt”. No nie, wdrożenie systemu IT, szczególnie z dużą ilością kastomizacji, to skomplikowany proces, który może zająć miesiące,
a nawet lata, w zależności od rozmiaru organizacji, stopnia złożoności systemu i potrzeby dostosowania go do specyficznych wymagań biznesowych.
„Wystarczy kupić system i działa” – to kolejna popularna nieprawda. Nawet najlepiej zaprojektowany system wymaga odpowiedniego wdrożenia, konfiguracji i integracji z istniejącymi procesami i innymi systemami w organizacji. Zignorowanie tego kroku może prowadzić do problemów z użytkowaniem i efektywnością systemu.
„System IT z automatu rozwiąże wszystkie problemy w tym obszarze”. Znowu nieprawda, gdyż wdrożenie systemu IT nie sprawi, że wszystkie problemy organizacji znikną. Systemy IT wspierają procesy, ale sukces wdrożenia zależy od tego, jak dobrze są zdefiniowane cele biznesowe, jak system jest wdrażany oraz jak organizacja
Wielu sprzedawców najlepiej sprzedaje siebie. Na co zatem uważać podczas rekrutacji?
Niestety, powyższy tytuł nie jest przesadny. Zatrudnienie nieodpowiednich osób na stanowiska sprzedażowe może doprowadzić firmę nie tylko na skraj bankructwa, ale nawet spowodować jej zamknięcie. Jeśli zatem, podczas rozmowy kwalifikacyjnej, usłyszymy od kandydata: „pracuję za samą prowizję”, to najpewniej znaczy, że: a) jestem beznadziejny i szukam czegokolwiek, aby się zaczepić; b) mam takich firm jak wasza z dziesięć i może czasem coś sprzedam, ale nie liczcie, że cokolwiek zadeklaruję – na 99 proc. nie sprzeda nic; c) mam wujka w jednej takiej spółce skarbu państwa... (to akurat może się skończyć poznaniem Panów z jednej ze służb o trzyliterowych skrótach).
A kiedy usłyszymy, że „w poprzedniej firmie zrobiłem wszystko sam”, to z kolei zna-
czy, że: a) jestem mitomanem; b) tamta firma już nie istnieje, a zarząd poleciał na Marsa, bo wierzę, że naprawdę nikt tego nie sprawdzi; c) byłem tak świetny, że bali się dalej ze mną pracować, bo kasa już nie mieściłaby się na kontach. Kiedy zaś dowiemy się, że „w poprzedniej firmie problemem był… produkt, dotacja, marketing (you name it)”, to spodziewaj się, że tak samo za kilka miesięcy kandydat będzie mówić o Twojej firmie. Możesz też usłyszeć, że „targety jakieś były, ale robiłem też inne rzeczy”, oznaczać to będzie brak fokusu i tłumaczenie (często będące częścią kultury firmy), że targetów dowozić nie musimy i wystarczy, że zrobimy chociaż połowę. To postawa bardzo groźna i trudna do zmiany. Czasem to oznacza też, że nikt w poprzedniej firmie nie brał
adaptuje się do zmian. I przede wszystkim nie naprawi złych procesów, albo takich, których w ogóle nie powinno być.
„Błędy w systemie zawsze wynikają z wad oprogramowania”. W rzeczywistości często problemy w funkcjonowaniu systemu są wynikiem niewłaściwej konfiguracji, nieodpowiedniego przeszkolenia pracowników czy błędów w procesach biznesowych, a nie błędów samego oprogramowania. Ważne jest, aby podejść do wdrożenia z holistyczną perspektywą, biorąc pod uwagę wszystkie aspekty organizacji.
„Im droższy system, tym lepszy”. Oczywiście nie. Wysoka cena systemu IT nie zawsze jest gwarancją jego jakości czy dopasowania do potrzeb organizacji. Czasami mniejsze, tańsze rozwiązania mogą lepiej odpowiadać na wymagania firmy, a drogie systemy mogą okazać się zbędnym obciążeniem, zwłaszcza jeśli nie wykorzystuje się wszystkich ich funkcji.
Renata W. Lewicka zasiada w zarządzie Warwick Legal Network, radca prawny.

na poważnie planowania, budżetowania i rozliczania.
Wreszcie spodziewaj się deklaracji: „zawsze dowoziłem, różne to były sposoby, ale nie ważne co, wynik będzie!”. Wówczas możemy mieć do czynienia z bezwzględnym człowiekiem, który rozwali nam zespół lub zbytnim optymistą.
No dobrze, to co w takim razie powinien mówić dobry sales na rozmowie? Powinien umieć jasno, klarownie, tak abyś zrozumiał opowiedzieć, jak wyglądał proces sprzedażowy, jak ustalane były cele i jak były monitorowane. Idealnie, jeśli w swojej poprzedniej firmie awansował lub dowoził kolejne kwartały. Pewnie czegoś nie dowiózł, i warto zapytać jak wtedy sobie radził.
Pamiętaj - szukasz fajnego człowieka, empatycznego, inteligentnego i szybko uczącego się. Nie szukasz kogoś, kto zachowuje się jak „Wilk z Wall Street”.
Tomasz Karwatka jest założycielem
Catch the Tornado.

Rozwiązanie Flowmon, opracowane przez specjalistów Progress Software, wspiera praktyczne wdrożenie założeń zdefiniowanych w dyrektywie NIS 2, zwiększa odporność na cyberataki i pozwala uniknąć kar.
Dyrektywa NIS 2 to już druga odsłona tej unijnej regulacji dotyczącej bezpieczeństwa sieci i informacji, która znacząco rozszerza zakres poprzedniej wersji z 2016 r. Obecnie obejmuje ona znacznie więcej obszarów – od energetyki i transportu po branżę spożywczą, cyfrową i administrację publiczną. W praktyce NIS 2 dotyczy ogromnej liczby podmiotów, zarówno tych zdefiniowanych jako „istotne”, jak i tych „kluczowych”, których lista jest aktualizowana co dwa lata. Najważniejsze obowiązki wynikające z NIS 2 zawarto w artykułach 20–25. Dotyczą one zarządzania ryzykiem, reguł sprawozdawczości, współpracy z CSIRT-ami oraz wdrażania certyfikacji bezpieczeństwa. Szczególnie ważne są ponadto artykuły 21 i 23 – pierwszy dotyczy środków technicznych i organizacyjnych, drugi – zgłaszania incydentów. Brak zgodności z przepisami grozi poważnymi konsekwencjami: do 10 mln euro kary lub 2 proc. rocznego przychodu dla podmiotów kluczowych. Co więcej, odpowiedzialność może ponosić bezpośrednio kadra zarządzająca.
Aby zapewnić sobie zgodność z tymi wymogami warto sięgnąć po wdrożenie takich rozwiązań jak Flowmon firmy Progress Software. To narzędzie typu NDR (Network Detection and Response), które działa jak cyfrowy analityk bezpieczeństwa, aktywnie wykorzystujący do swojej


pracy sztuczną inteligencję. Ułatwia wykrywanie zagrożeń i anomalii w czasie rzeczywistym, analizowanie ruchu sieciowego (również szyfrowanego) i automatyzowanie reagowania na incydenty. To nie tylko system wczesnego ostrzegania, ale też źródło danych do analiz post factum oraz narzędzie wspierające prowadzenie audytów i tworzenie dokumentacji wymaganej przez NIS 2.
Mechanizmy zaimplementowane w rozwiązaniu Flowmon obsługują wszystkie kluczowe etapy cyklu reagowania na incydenty według metodologii NIST: od przygotowania i wykrycia, przez reagowanie i odzyskiwanie, aż po działania następcze. W praktyce dla przedsiębiorstw oznacza to także możliwość lepszego raportowania incydentów, w tym przygotowania zgłoszenia w ciągu wymaganych 24–72 godzin i raportu końcowego po miesiącu. System wspiera również klasyfikowanie incydentów według frameworku MITRE ATT&CK oraz dostarcza twarde dowody (np. logi, korelacje zdarzeń, przepływy sieciowe).
W kontekście NIS 2 istotna jest także możliwość monitorowania środowisk hybrydowych i chmurowych (Azure, AWS, GCP). Flowmon zbiera dane z routerów i przełączników zgodnych z protokołem IPFIX, ale korzysta również z własnych





sensorów. Dzięki temu przedsiębiorstwa mogą stworzyć jednolite repozytorium stanowiące źródło prawdy o całym ruchu sieciowym – bez względu na to, czy dotyczy on serwerowni w siedzibie firmy, czy instancji w chmurze publicznej.
Kolejną zaletą tego rozwiązania jest łatwa implementacja i intuicyjny interfejs. Nawet mniej doświadczony zespół może w krótkim czasie przeprowadzić analizę incydentu, zidentyfikować jego źródło oraz wdrożyć działania naprawcze. System pozwala również wizualizować całą ścieżkę ataku – od skanowania sieci i ataku słownikowego, przez komunikację z serwerem C&C, aż po eksfiltrację danych i próbę zaszyfrowania zasobów przez ransomware.
Z perspektywy zapewnienia zgodności prawnej, Flowmon pomaga spełniać zarówno techniczne, jak i organizacyjne wymogi NIS 2. Ułatwia dokumentowanie wdrożonych środków bezpieczeństwa, wspiera procesy audytowe i umożliwia tworzenie analiz źródłowych przyczyn ataku. W dobie rosnącej presji regulacyjnej i coraz bardziej złożonych zagrożeń, takie funkcje stają się absolutnym fundamentem strategii bezpieczeństwa.

Na stronie Progress dostępna jest do pobrania wersja demonstracyjna rozwiązania Flowmon.

Filip Cerny
Manager,
Po raz pierwszy Trybunał Sprawiedliwości Unii Europejskiej (TSUE) zajmie się tym, jak unijne przepisy o prawie autorskim mają się do działania sztucznej inteligencji.

Wkwietniu 2025 r. sąd na Węgrzech zwrócił się do TSUE z pytaniami, jak stosować unijne przepisy w kontekście sztucznej inteligencji. Sprawę zainicjowała Like Company – wydawca kilku węgierskich portali informacyjnych. Stroną pozwaną jest Google Ireland Limited, odpowiedzialna za usługi Google Search i Google Gemini (wcześniej Bard), które korzystają z chatbotów opartych na sztucznej inteligencji.
Spór dotyczy konkretnego artykułu prasowego opublikowanego przez Like Company. Opisywał on znanego węgierskiego muzyka Kozsó i jego pomysł na wprowadzenie delfinów do akwarium nad jeziorem Balaton. Artykuł odnosił się również do innych internetowych publikacji prasowych Like Company, które zawierały informacje o piosenkarzu: o jego hobby, pobycie w szpitalu, karze więzienia w USA i grzywnie za kradzież prądu. Problem pojawił się, kiedy chatbot Google – w odpowiedzi na pytanie od jednego z użytkowników – wygenerował odpowiedź, która była streszczeniem treści zawartych w artykule Like Company. Co ważne, chatbot nie skopiował tekstu słowo w słowo. Odpowiedź zawierała część informacji z oryginalnych materiałów, ale też inne dane – niepochodzące bezpośrednio z publikacji powódki.
Sąd węgierski zwrócił się do TSUE z czterema pytaniami, które mają pomóc wyjaśnić, czy i jak chatboty mogą legalnie korzystać z chronionych materiałów prasowych. Po pierwsze, czy pokazanie przez chatbota fragmentów treści prasowej może być uznane za jej publiczne udostępnienie – nawet jeśli chatbot tylko „przewiduje kolejne słowo”, a nie generuje tekstu w całości? Po drugie, czy uczenie modelu AI na podstawie tekstów prasowych można uznać za ich kopiowanie – czyli zwielokrotnianie? Po trzecie, jeśli tak – czy takie kopiowanie może być legalne, jeśli służy tzw. eksploracji tekstów i danych (TDM)? I wreszcie po czwarte, czy ma miejsce zwielokrotnianie przez dostawcę usługi chatbota, jeśli użytkownik podaje mu instrukcję (prompt), która odpowiada tekstowi zawartemu w publikacji prasowej lub odnosi się do niego, a chatbot generuje odpowiedź zawierającą całość lub część tej publikacji prasowej?
Like Company twierdzi, że Google naruszyło jej prawa, ponieważ chatbot korzystał z jej materiałów prasowych bez zgody – kopiował je, streszczał i udostępniał w różnych formach. Zdaniem wydawcy, bez zgody można ewentualnie wykorzystać tytuł lub bardzo krótki fragment – ale nie całe akapity czy większe części tekstu. Google odpowiada, że chatbot nie narusza prawa. Według firmy: chatbot nie kopiuje treści w sposób, który narusza prawo autorskie; nawet jeśli uznać to za kopiowanie, to i tak byłoby objęte wy-
jątkiem w odniesieniu do tymczasowych czynności zwielokrotniania oraz TDM; fragmenty pojawiające się w odpowiedzi są krótkie i zgodne z przepisami. Like Company podkreśla jednak, że chodzi o coś więcej – o nowe prawo przyznane wydawcom prasowym (art. 15 dyrektywy 2019/790), które daje im dodatkową ochronę. Bez ich zgody publikacje nie powinny być używane na platformach takich jak Google Search czy Gemini (Bard).
Dlaczego to ważne?
To nie jest tylko spór o jedną publikację czy jednego artystę. Ta sprawa pokazuje, jakie napięcia rosną między dostawcami usług wyszukiwania i dostawcami treści. W tle są pytania o to: co AI może robić z cudzą treścią, jak chronić prawa wydawców w erze chatbotów i gdzie kończy się dozwolone „uczenie się”, a zaczyna bezprawne wykorzystywanie. Wyrok TSUE może mieć ogromny wpływ na to, jak w Europie traktowane będą chatboty AI i ich interakcje z chronionymi treściami – zarówno podczas trenowania modeli, jak i późniejszego generowania odpowiedzi.






jest młodszym prawnikiem w kancelarii Barta &



Sztuczna inteligencja jest motorem napędowym rynku infrastruktury IT. Dość istotną pozycję na liście wydatków zajmują pamięci masowe i systemy zarządzania danymi.
Urbanek, Palo Alto
Skala inwestycji w infrastrukturę sztucznej inteligencji już teraz osiągnęła bezprecedensowy wręcz poziom. Jeszcze trzy, cztery lata temu zakup kilkuset jednostek GPU był ogromnym przedsięwzięciem. Obecnie zaś nikogo nie dziwią zamówienia na 20 tys. procesorów graficznych, a inwestycje sięgające 1–2 mld dol. stały się niemal standardem. Dla porównania, jeszcze kilka lat temu zbudowanie superkomputera za 500 mln dol. stawiało firmę w światowej czołówce. Jednym z beneficjentów takiego stanu rzecz jest DDN (Data Direct Networks), dostawca wysokowydajnych systemów dla środowisk wymagających bardzo dużej przepustowości, niskich opóźnień i pełnej skalowalności. Amerykańska firma zbudowała największy, jak dotąd, na świecie pojedynczy klaster AI (na potrzeby xAI Elona Muska), składający się z 200 tys. procesorów graficznych. To wręcz miasteczko przemysłowe, zużywające setki megawatów energii, z infrastrukturą przypominającą zakłady produkcyjne.
– Łącznie obsługujemy ponad 700 tysięcy GPU, ale według naszych szacunków w cią-
AI PATRZĄ NA WSZYSTKO Z PERSPEKTYWY BIZNESOWEJ.
gu dwóch lat liczba ta wzrośnie przynajmniej czterokrotnie, a to dopiero początek. Wielu inwestorów koncentruje się dziś wyłącznie na GPU, nie zdając sobie sprawy, że bez odpowiedniej infrastruktury danych sukces będzie niepełny. Tymczasem nasze doświadczenie pokazuje, że w miarę dojrzewania modeli AI, potrzeby w zakresie pamięci masowej i systemów analizy danych rosną wykładniczo – tłumaczy Paul Bloch, prezydent i współzałożyciel DDN.
DDN już od 2016 r. współpracuje z Nvidią, dzięki czemu obie firmy łączy dość bliskie partnerstwo technologicznie. W lutym bieżącego roku Jensen Huang, CEO Nvidii,
w rozmowie z Alexem Bouzarim, CEO DDN, przyznał, iż bez DDN funkcjonowanie superkomputerów Nvidii nie byłoby możliwe. Dostawca ten obsługuje firmy z różnych sektorów gospodarki: od finansów, przez motoryzację, zdrowie, farmację i naukę, po przemysł i telekomunikację, dostarczając im systemy HPC. Przy czym nawet dla firmy z takim doświadczeniem, obsługa projektów AI to spore wyzwanie.
– Nabywcy HPC mają określone oczekiwania wobec takich systemów. Wiedzą, czego chcą, choć czasem brakuje im budżetu. Natomiast klienci wdrażający systemy AI patrzą na wszystko z perspektywy biznesowej. Technologia jest dla nich kwestią drugorzędną. Dlatego potrzebują od nas znacznie więcej wsparcia – tłumaczy Sven Oehme, CTO DDN.
To przekłada się na nowe wymagania wobec infrastruktury danych. W środowiskach AI pojawia się ekstremalne zróżnicowanie obciążeń. Z jednej strony ogromne pliki danych, jak obrazy i wideo, wymagające maksymalnej przepustowości i dużej pojemności, zaś z drugiej, miliony metadanych, generujących tysiące drobnych zapytań I/O, które muszą być obsługiwane natychmiast… Połączenie tych dwóch światów: masowego przepływu danych i bardzo dużej pojemności oraz błyskawicznego dostępu do mikrozapytań stanowi poważne wyzwanie. W świecie AI to już nie wyjątek, ale codzienność.
Phison: duże modele dla mniejszych firm
Choć Phison działa na rynku od ćwierć wieku i jest na nim jednym z ważniejszych graczy, często mówi się o nim jako o „niewidzialnym” producencie. Firma specjalizuje się w projektowaniu i produkcji kontrolerów pamięci masowych dla nośników SSD, pamięci flash USB, kart pamięci (SD, microSD i CFexpress), a także modułów pamięci eMMC i UFS.
– Rozwiązania Phisona można porównać do procesorów Intela: gdy otwierasz laptopa,
nie widzisz procesora, a jedynie małą naklejkę „Intel Inside”– mówi Michael Wu, prezydent i dyrektor generalny Phisona.
Model biznesowy Phisona opiera się na dwóch filarach: produkcji kontrolerów (25 proc. przychodu) oraz gotowych produktów SSD (75 proc.). Według Michaela Wu to kluczowy element przewagi konkurencyjnej, szczególnie w dynamicznie zmieniającej się branży, gdzie ceny pamięci NAND spadają średnio co 18 miesięcy. Phison, aby utrzymać obecne tempo wzrostu, musi nieustannie zwiększać skalę działania, a innowacje i szybkie wprowadzanie nowych produktów na rynek stanowią podstawę firmowej strategii.
Phison zamierza też aktywnie uczestniczyć w wyścigu AI, podając pomocną dłoń firmom, których nie stać na pracę z dużymi modelami językowymi (LLM). Trenowanie i używanie LLM wymaga nie tylko ogromnej mocy obliczeniowej, ale też bardzo kosztownej pamięci (HBM, GDDR, VRAM).
– Klienci inwestują duże pieniądze w GPU, ale nie dlatego, że potrzebują aż tyle mocy, lecz by zwiększyć pojemność pamięci. Tym samym przepłacają, bo nie wykorzystują do końca możliwości zakupionego sprzętu. Naszą szansą jest dostarczanie pamięci masowej rozszerzającej możliwości w zakresie trenowania i pracy z modelami AI, bez konieczności inwestowania w zbędne karty graficzne – tłumaczy Brian Cox, dyrektor ds. rozwiązań AI w Phisonie. Firma włączyła do swojej oferty aiDAPTIV+, hybrydowe rozwiązanie sprzętowo-programowe, przeznaczone do szkolenia i dostrajania dużych modeli językowych (LLM) przy użyciu pojedynczej stacji roboczej. W jego skład wchodzą specjalne nośniki o dużej wytrzymałości





i oprogramowanie odpowiadające za przesyłanie danych między pamięcią SSD, GPU a RAM-em.
Moc Nvidii do zabezpieczania danych Koncepcja RAID, czyli metoda ochrony danych przed awarią dysków, liczy już sobie niemal 40 lat. Gdy powstawała, światem rządziły wolne, talerzowe dyski HDD i nikt wówczas nie myślał o nośnikach SDD. Nic więc dziwnego, że klasyczne mechanizmy RAID nie radzą sobie najlepiej z nowoczesnymi nośnikami flash, zwłaszcza bazującymi na NVMe. Często stają się wąskim gardłem, ograniczając wydajność całego systemu. Na przestrzeni lat podejmowano wiele prób rozwiązania tego problemu, zarówno sprzętowych, jak i programowych. Świeże spojrzenie wniósł amerykański startup Graid Technology, którego twórcy doszli do wniosku, że zamiast obciążać procesor, lepiej przenieść przetwarzanie RAID bezpośrednio na GPU, czyli na te same procesory graficzne, które obsługują obciążenia związane ze sztuczną inteligencją, Tradycyjne kontrolery RAID bazują na procesorach ogólnego przeznaczenia lub dedykowanych układach ASIC. Tymczasem nawet średniej klasy GPU oferuje znacznie większą moc przetwarzania równoległego. Efekt? Zdecydowany wzrost liczby operacji IOPS, wyższa przepustowość i praktyczne wyeliminowanie ograniczeń typowych dla klasycznych macierzy. W tym kontekście Graid Technology oferuje całą rodzinę kart SupremeRAID, zaprojektowanych z myślą o środowiskach klasy enterprise, począwszy od centrów danych, przez chmurę publiczną i edge computing, aż po profesjonalne stacje robocze, a nawet komputery dla graczy.






Trudno o lepszy moment na tego typu rozwiązania. Według IDC, w pierwszym kwartale 2025 r. przychody ze sprzedaży serwerów wzrosły aż o 134 proc. rok do roku, osiągając poziom 95,2 mld dol. Co istotne, niemal połowa tej kwoty przypadła na serwery wyposażone w GPU. Sztuczna inteligencja zmienia krajobraz IT, a coraz więcej organizacji inwestuje w infrastrukturę gotową do jej obsługi. Jak zauważa Tom Paquette, starszy wiceprezes i dyrektor generalny Graid Technology, wiele firm popełnia przy tym kosztowny błąd.
– Firmy wydają nawet 400 tysięcy dolarów na serwer GPU, po czym zabezpieczają go najprostszą możliwą konfiguracją RAID 0. To rozwiązanie szybkie, ale nie daje ono żadnej redundancji. Wystarczy awaria jednego dysku NVMe, by zatrzymać cały system. Wówczas zaczyna się żmudne przywracanie danych z ostatniego punktu kontrolnego. W tym czasie drogie układy GPU stoją bezczynnie – tłumaczy Tom Paquette.
Cohesity i grawitacja danych
Ubiegłoroczne przejęcie działu ochrony danych Veritasa przez Cohesity było jednym z najważniejszych wydarzeń w branży backupu. Obecnie Cohesity chroni dane klientów o łącznej powierzchni dyskowej przekraczającej 100 eksabajtów. Żaden z konkurentów nie może pochwalić się taką liczbą. Dla Cohesity to przewaga: im większa liczba chronionych danych, tym lepsze możliwości w zakresie tworzenia algorytmów AI i mechanizmów bezpieczeństwa. Sztuczna inteligencja powoli wchodzi do świata backupu, a Cohesity jest na tym polu jednym z prekursorów. W marcu ubiegłego roku firma poinformowała o udostępnieniu asystenta Gaia. To rozwiązanie bazuje na AI







INTELIGENCJA WCHODZI DO ŚWIATA BACKUPU, A COHESITY JEST NA TYM POLU JEDNYM Z PREKURSORÓW.
i technologii RAG (retrieval-augmented generation), która umożliwia przeszukiwanie i analizę dużych zbiorów danych.
– Klienci często pytają: „jaki model AI wybrać, czy budować go samemu, a może lepiej kupić gotowy?”. To niewłaściwe pytania, bo wszystko sprowadza się do danych. Trzeba mieć bezpieczną i zarządzaną warstwę dostępu do danych. Reszta przyjdzie sama. I właśnie Cohesity spełnia taką rolę – mówi Greg Statton, VP AI Solutions w Cohesity.
Gaia w pierwotnej wersji była dostępna jako usługa w chmurze. Jednak część klientów, zwłaszcza z Europy, ze względu na wymogi suwerenności danych czy RODO, zgłaszała zapotrzebowanie na rozwiązanie działające w siedzibie firmy. Dlatego też dziś Gaia dostępna jest w trzech wariantach: jako usługa lokalna, hybrydowa oraz SaaS. Użytkownik płaci za wolumen indeksowanych danych lub za liczbę odpowiedzi AI (jeśli nie korzysta z własnego modelu LLM).
Gaia wykorzystywana jest przede wszystkim do wyciągania wniosków z danych przechowywanych na platformie. Przykład? Duży bank, który chce przeanalizować warunki współpracy z dostawcami na przestrzeni ostatnich 10 lat, musiałby w klasycznym podejściu wyodrębnić z backupu miliony plików PDF, umieścić je w katalogu NAS, a następnie stworzyć aplikację do przetwarzania treści. Gaia umożliwia zadawanie zapytań bezpośrednio na danych z backupu i otrzymywanie odpowiedzi. n







KLIENCI INWESTUJĄ DUŻE PIENIĄDZE W GPU, ALE NIE DLATEGO, ŻE POTRZEBUJĄ AŻ TYLE MOCY, LECZ BY


Czy ograniczenia dotyczące możliwości wyboru nośników danych wprowadzane przez producentów systemów pamięci masowych to tzw. vendor lock-in? Dyskusja na ten temat wróciła za sprawą kontrowersyjnej – według niektórych – decyzji Synology.
Wkwietniu br. Synology – popularny tajwański producent serwerów NAS i systemów monitoringu wideo – wprowadził istotne zmiany w polityce kompatybilności dysków w swoich serwerach NAS przeznaczonych do montażu w szafach rack, cyfrowych rejestratorach wideo oraz popularnych modelach z rodziny „Plus”. We wszystkich tych urządzeniach, które miały swoją premierę w 2025 r., można instalować wyłącznie dyski HDD i SSD NVMe, które pozytywnie przeszły proces intensywnych testów przeprowadzonych przez Synology i trafiły na listę kompatybilności. Rynek zelektryzowała jednak informacja, że znalazły się na niej wyłącznie... nośniki marki Synology, których bardziej wydajne i pojemne modele są droższe od ich odpowiedników innych marek o kilkadziesiąt procent w przypadku dysków twardych i nawet dwukrotnie, jeśli chodzi o nośniki SSD. Synology jest też pierwszym producentem, który wprowadził takie ograniczenie w urządzeniach dla MŚP. Synology ma w ofercie własne nośniki HDD oraz SSD (produkowane m.in. przez Toshibę i Phison) od kilku lat.
Argumentacja za przyjęciem takiej strategii jest spójna z tą, którą od lat stosują producenci serwerów i dużych systemów pamięci masowych. Chodzi o konieczność zapewnienia jak najwyższego poziomu trwałości, wydajności i dostępności danych, przy jednoczesnym wyeliminowaniu ryzyka, że dział serwisu będzie musiał odmówić świadczenia usługi wsparcia w przypadku problemów, gdy wynikają one z nieprawidłowej pracy niewspieranego napędu.
W przypadku wszystkich nowych serwerów Synology wprowadzonych do oferty w 2025 r. (z wyjątkiem modeli z rodziny „Value” oraz „j”) próba zainicjowania dysków HDD i SSD NVMe innych marek niż te znajdujące się na liście kompatybilności (a więc obecnie tylko Synology), skończy się niepowodzeniem. Możliwe jest przeniesienie w modelu „data-in-place” działającej wcześniej w starszym serwerze Synology puli RAID napędów innych marek, ale w przypadku awarii dysku w tej strukturze niemożliwa będzie jego wymiana na identyczny model lub nośnik Synology o takiej samej wydajności i funkcjonalności (co stawia sens całej
Obowiązujące od 2025 r. reguły polityki kompatybilności nośników w serwerach Synology
Rodzina serwerów Ograniczenia dotyczące nośników
FS, HD, SA, UC, XS+, XS, DP
Możliwość inicjowania nośników wyłącznie z listy kompatybilności. Opcjonalna możliwość migracji zainicjowanej puli dysków z innych modeli serwerów Synology.
Dyski HDD i SSD NVMe: Możliwość inicjowania nośników wyłącznie z listy kompatybilności. Opcjonalna możliwość migracji zainicjowanej puli dysków z innych modeli serwerów Synology.
Plus, DVA/NVR
Dyski SSD SATA: Nośniki spoza listy kompatybilności będą oznaczone w panelu administratora jako niezweryfikowane, ale możliwe do wykorzystania."
Value, J Brak ograniczeń i planów ich wprowadzenia.
Krzysztof Jakubik
operacji pod dużym znakiem zapytania w kontekście bezpieczeństwa danych). Całkowita blokada nie została zastosowana wobec dysków SSD SATA, ale ich status w panelu administratora systemu Synology DSM będzie widniał jako „niezweryfikowane”.
– Cel jest prosty: stworzyć najbardziej niezawodny system NAS na świecie, a żeby to zrobić, potrzebna jest kontrola każdego elementu tego systemu. Najłatwiej jest nam zrobić to na bazie naszych komponentów, ale jeśli zewnętrzni dostawcy będą w stanie przetestować nośniki dokładnie tak jak my, to dopuszczamy opcję umieszczenia ich na liście kompatybilności – powiedział Przemysław Biel, menedżer sprzedaży Synology na Polskę.
Wymóg stosowania nośników własnej marki jest obecnie normą u największych producentów serwerów i macierzy dyskowych. Jednocześnie budzi sporo kontrowersji. Klienci wskazują przede wszystkim na sztuczne zawężenie wyboru i często kilkukrotnie wyższe ceny „firmowych” dysków w porównaniu z ich odpowiednikami od tych samych producentów OEM.
Z drugiej strony dostawcy sprzętu bronią tej praktyki, podkreślając, że tylko dzięki pełnej kontroli nad firmware’em dysków oraz ich certyfikacji będącej następstwem bardzo intensywnych, morderczych wręcz testów, można zapewnić spójny poziom wydajności, bezpieczeństwa i niezawodności całego systemu. Wskazują, że w dużych środowiskach korporacyjnych nawet drobne różnice w zachowaniu nośników mogą prowadzić do poważnych problemów, a koszty związane z konsekwencjami nieplanowanych przestojów są wielokrotnie wyższe niż dopłata do „autoryzowanego” dysku.

Czynników ryzyka jest wiele. W dużych środowiskach, w których serwery i macierze dyskowe obsługują setki tysięcy operacji I/O na sekundę, nawet pozornie nieistotne różnice w zachowaniu połączonych w RAID nośników mogą wywołać kaskadę problemów. Chodzi tu między innymi o opóźnienie w zapisywaniu i odczytywaniu danych, różnice pomiędzy poszczególnymi napędami w algorytmach zarządzania błędami, implementacji firmware’u, a także obsłudze pamięci cache i kolejkowania poleceń. Do tego dochodzą takie kwestie jak różna charakterystyka zużycia, wibracje i nagrzewanie się dysków, co wpływa na balans termiczny w obudowie serwera czy macierzy.
W komentarzu, który redakcja CRN Polska otrzymała od Synology, znalazło się także ostrzeżenie co do wyboru nośników SSD do pracy w serwerach NAS: „Wiele dysków SSD, nawet tych pozycjonowanych jako nośniki klasy korporacyjnej, utrzymuje przyzwoitą wydajność losową IOPS podczas początkowej fazy pracy Fresh-Out-of-Box (FOB), ale ich wydajność szybko spada po nasyceniu pamięci podręcznej SLC i uruchomieniu działań w tle, t akich jak zbieranie śmieci (garbage collection). Często podkreślane w materiałach marketingowych parametry odzwierciedlają jedynie krótki okres szczytowej wydajności i nie oddają długoterminowego zachowania w warunkach ciągłego obciążenia”.
Gdzie dwóch się bije…
Jak wspomnieliśmy, w reakcji na krytykę użytkowników co do sztucznego ograniczania wyboru, Synology zadeklarowało współpracę z dostawcami dysków innych marek, aby także one mogły być przetestowane i zostać certyfikowane do uży-
cia w serwerach tego producenta. Jednak – jak do tej pory – żadnemu z niezależnych producentów nie udało się przejść pozytywnie tego procesu. W nieoficjalnych rozmowach nie ukrywają oni swojego rozgoryczenia, ale oficjalnie wszyscy zapytani przez nas dostawcy dysków HDD i SSD odmówili komentarza. Oczywiste jest, że liczą na kontynuowanie współpracy z Synology, chociaż nie sposób nie zauważyć, że niektórzy z nich na swoich internetowych stronach z dumą prezentują własne nośniki dla serwerów NAS z wyraźnie widocznymi w tle… urządzeniami marki QNAP.
Zapytani przez nas przedstawiciele QNAP-a nie ukrywają, że będą stawać w opozycji dla zainicjowanej przez Synology praktyki i spodziewają się korzyści z takiego podejścia: „Naszą filozofią jest zapewnienie klientom pełnej swobody wyboru. Nie widzimy uzasadnienia dla sztucznego ograniczania kompatybilności lub zawyżania cen poprzez zamykanie ekosystemu. Użytkownicy najlepiej wiedzą, która marka i model dysku odpowiada ich potrzebom, dlatego skupiamy się na otwartości i elastyczności. Nasze doświadczenie pokazuje, że otwarta polityka dotycząca wyboru dysków nie prowadzi do wzrostu liczby zgłoszeń serwisowych” – tak brzmi komentarz, którzy otrzymaliśmy z centrali QNAP na Tajwanie. Przedstawiciele producenta podkreślają też, że w przypadku swoich najbardziej zaawansowanych rozwiązań planują wprowadzenie do oferty gotowych do użycia zestawów, dostarczanych już z wybranymi przez klienta dyskami, ale nie mają zamiaru tworzyć sztucznych ograniczeń.
O komentarz poprosiliśmy także przedstawiciela Konsorcjum FEN, a więc dystrybutora obu konkurujących ze sobą zaciekle producentów.
Projektując środowisko pamięci masowych ich administrator musi odpowiedzieć sobie na pytanie, jakie ma priorytety. Czy ważna jest tylko pojemność udostępniona w sieci lub dla serwerów? Czy może jest to też bezpieczeństwo i dostępność danych, a jeśli tak, to ile są one dla firmy warte? Jeśli dużo, to zazwyczaj znacznie więcej niż koszt licencjonowanych nośników klasy enterprise, których gwarancja poprawnej pracy zwykle wynosi 5 lat. Zresztą o korzyściach z posiadania profesjonalnie przetestowanych dysków można przekonać się chociażby w wysoce prawdopodobnej sytuacji awarii jednego napędu o wysokiej pojemności w strukturze RAID. Jej odbudowa może trwać nawet kilka dni, a w tym czasie dyski są bardzo obciążone, co wpływa nie tylko na ich wydajność, ale też powoduje przegrzewanie się i silne wibracje. Synology niewątpliwie jest pierwszym producentem, który zdecydował się na wprowadzenie ograniczeń co do swobody wyboru nośników w urządzeniach poza grupą produktów klasy enterprise. Firma jest pewna swojej decyzji – oczywiście nie tylko w kwestiach biznesowych (bo z pewnością na tym skorzystała), ale też operacyjnych, gdyż przełożyło się to na znaczne zmniejszenie liczby zgłoszeń serwisowych. Dobrze, że jednocześnie nie wyklucza certyfikacji nośników innych marek, chociaż prawdopodobieństwo pojawienia się ich na liście kompatybilności można uznać za niewielkie. A klient musi wybrać, czy woli zapewnianą przez konkurencyjnych producentów gwarancję pełnej elastyczności (która zresztą przy rozsądnym wyborze nośników nie musi oznaczać wzrostu ryzyka problemów), czy też gwarancję świętego spokoju.
– Wśród partnerów i klientów zdarzały się głosy krytykujące fakt, że Synology zamyka się na innych dostawców, ale argumentacja producenta chyba nieco studzi te negatywne emocje. Dla odbiorcy posiadającego jednego dostawcę i jeden punkt serwisowy czy źródło wsparcia technicznego, jest to po prostu wygodniejsza forma. Poza tym, RMA na dyskach Synology wygląda bardzo dobrze i za cały 2024 rok do teraz wynosi raptem 1,18 proc., w porównaniu z 1,74 proc. dla wszystkich innych pozostałych producentów dysków, jakich mamy w swojej ofercie – podsumowuje Maciej Cenkier, Business Development Director w Konsorcjum FEN. n
Mam takie ćwiczenie, które często przeprowadzam z uczestnikami szkoleń dla kadry zarządzającej sprzedażą i marketingiem. Dzielimy się na kilkuosobowe grupy, a następnie każda z grup wymyśla dla innej zadanie, które ma być zrealizowane przy pomocy narzędzi AI LLM (zazwyczaj używamy ChataGPT, ale to nie jest warunek konieczny). I wiecie, jakie jest najczęściej wymyślane zadanie? „Opracuj strategię marketingową wejścia na rynek produktu ABC”. To około 80 proc. przypadków. Zdaję sobie sprawę, że po tym artykule może to się trochę zmienić i – szczerze mówiąc – marzę o tym. Bo najgorsze, co może się stać, to tysiące bezsensownych strategii marketingowych wygenerowanych przez przedsiębiorców, którzy wierzą, że tę pracę może za nich zrobić sztuczna inteligencja. Jestem gorącym zwolennikiem stosowania AI w biznesie, ale warto wiedzieć, kiedy
takie narzędzia stosować i czego możemy się po nich spodziewać.
A zatem, dlaczego AI nie stworzy za nas dobrej strategii marketingowej (i żadnej innej)? Po pierwsze, strategia wymaga dogłębnego zrozumienia naszego biznesu i potrzeb rynku. Zacznijmy od tego, jak w większości przypadków wyglądało odpytywanie AI na potrzeby strategii. ChatGPT otrzymywał krótką informację o tym, czym zajmuje się firma, z kim konkuruje i komu sprzedaje swoje produkty. Zazwyczaj prompt miał 4–6 zdań. Na tej podstawie otrzymywaliśmy zazwyczaj coś tak nieprawdopodobnie ogólnego, że trudno było to potraktować poważnie. Nie będę Was męczył przykładami, bo takie rezultaty ciężko później „odzobaczyć”.
W zasadzie trudno mieć o to do ChataGPT jakieś pretensje. Po tak skrótowej instrukcji nie mógł przyjść z czymś lepszym. Jednak co by się stało, gdyby-















śmy zamiast wpisać ten średnio mądry prompt zapytali AI o to, jakich informacji potrzebuje, aby stworzyć dobrą strategię? I tu pojawia się pierwsze przydatne zastosowanie AI. Tego typu narzędzia dość dobrze stosują różnego rodzaju reguły. Dlatego mając dostęp do dobrej jakości źródeł, mogą poprowadzić Cię przez proces budowania strategii. Nie wiedzą, jak stworzyć dla Ciebie strategię, bo nie mają Twojej wiedzy, ale wiedzą, jak wygląda proces strategiczny.
Nie będzie to może mistrzostwo świata, ale przy odpowiednim opromptowaniu i minimalnej wiedzy o tym jak wygląda ten proces można uznać, że AI taki schemat nam przygotuje. Będzie on dość ogólny i nie będzie uwzględniał pewnych specyficznych ograniczeń i przewag naszej organizacji, ale będzie się trzymał pewnych dobrych praktyk opracowanych chociażby przez London Business School. Przy

takim zastosowaniu będziemy mniej więcej w tym samym miejscu, jak po przeczytaniu dobrej książki o budowaniu strategii. To już coś, jednak prawdziwa praca dopiero przed nami.
Drugim powodem tego, że AI nie stworzy za nas dobrej strategii, jest wymóg realnej oceny naszych możliwości, potencjału pracowników, ale też i słabych stron, których ustalenie i zrozumienie wymaga dodatkowej pracy. Prawdziwa trudność w tworzeniu strategii polega na zebraniu danych o rynku, firmie, konkurencji, potrzebach klientów, dostawców i innych interesariuszy, których nasza strategia będzie dotyczyć.
Odpowiedź z ChatGPT 4.5 na pytanie: dlaczego strategia oparta o ChatGPT nie jest optymalnym rozwiązaniem?
Tworzenie kompletnej, unikatowej strategii marketingowej wymaga bardzo głębokiego rozumienia:
l specyfiki branży i rynku (czynniki makroekonomiczne, otoczenie konkurencyjne), l szczegółowej wiedzy na temat firmy, jej produktów lub usług, a także przewag konkurencyjnych, l analizy danych, takich jak wyniki sprzedaży, profil klientów, zachowania zakupowe, l uwzględnienia czynników ludzkich (zespół, kultura organizacyjna, styl zarządzania), l praktycznych ograniczeń (budżet, zasoby, terminy).
Wady takiego podejścia to:
l brak głębokiego rozumienia specyfiki firmy i rynku, l ryzyko powierzchowności strategii bez dogłębnej analizy danych i specyfiki klienta, l nie uwzględnia intuicji i doświadczenia ludzkiego, które często decydują o sukcesie strategii.
Jednym z ważniejszych zadań w tworzeniu strategii jest określenie zasobów i zdolności, jakie są niezbędne do jej realizacji. I wcale nie chodzi o budżet, jakim będziemy dysponować. W początkach mojej działalności jako konsultant miałem pewien problem z oceną, czy strategia marketingowa, którą wspólnie z klientem projektowaliśmy, nie była zbyt ambitna. Niestety często okazywała się ponad siły i możliwości firmy, mimo wcześniejszych deklaracji, że „chcemy działać ambitnie”. Obecnie uważam, że jednym z kluczowych elementów tworzenia strategii marketingowej jest realna ocena naszych możliwości jej realizacji i ciągła weryfikacja, czy nasze założenia nie odbiegają od rzeczywistości. Przykładowo, jeden z moich klientów chciał w ciągu dwóch lat potroić liczbę jakościowych leadów (o konwersji na sprzedaż minimum 50 proc.), ale w punkcie wyjścia nie byliśmy w stanie ocenić, jaka jest obecnie konwersja z leadów na sprzedaż. Ponieważ nie istniała jednolita definicja leada, nie mieliśmy jakościowych danych pozwalających określić punkt startowy i pomysł na wzrost. Dodatkowo okazało się, że praca ta ma być wykonana bez znacznego zwiększania zatrudnienia w zespole marketingowym – mowa była o jednym dodatkowym etacie i było ewentualnie przyzwolenie na wsparcie agencji.
Przykład ryzyka wynikającego z opierania strategii wyłącznie na ChatGPT: firma produkująca specjalistyczne maszyny przemysłowe może otrzymać ogólnikową strategię, która choć poprawna teoretycznie, nie uwzględnia realiów rynkowych ani specyfiki procesu zakupowego jej klientów. W efekcie strategia będzie zbyt powierzchowna, a działania nieskuteczne, ponieważ nie uwzględni precyzyjnych potrzeb decydentów technicznych lub procesu sprzedaży konsultacyjnej typowej dla takiej branży.
Podsumowanie i rekomendacja końcowa: tworzenie kompletnej, unikatowej strategii marketingowej wyłącznie na podstawie odpowiedzi ChatGPT nie jest rekomendowane. Jest to narzędzie wspierające, nie zastępujące kompleksową analizy strategicznej prowadzonej przez doświadczonych ludzi. Jednakże, jeśli podejście będzie oparte na uzupełnieniu generowanych przez ChatGPT treści dogłębnymi analizami oraz doświadczeniem ekspertów marketingu i sprzedaży, może ono być bardzo wartościowym elementem procesu strategicznego.

Wielu marketerów B2B pewnie nie zdziwiło się widząc tę sytuację, ale ja postawiłem dodatkowe pytanie: jaki procent leadów w tej chwili jest dostarczony przez zespół marketingowy? Okazało się, że jest to mniej niż 20 proc., co zresztą pokrywa się z naszymi badaniami. Drugie pytanie: kto ma być odpowiedzialny za ten trzykrotny wzrost liczby leadów. Okazało się, że marketing. Zatem obciążenie marketingu w ciągu dwóch lat wzrośnie nie trzykrotnie, a 15-krotnie! I to był moment, kiedy wszyscy zdaliśmy sobie sprawę, że tę strategię trzeba urealnić.
Przeprowadzenie procesu urealniania strategii moim zdaniem w tej chwili jest niemożliwe przy pomocy AI, ponieważ wymaga zdolności zadawania pytań weryfikujących. W żadnej z moich prób ChatGPT nie dotknął tematu urealniania strategii, jeżeli nie był o to wprost poproszony.
Po trzecie wreszcie, strategia to rezultat procesu jej budowania. A ten proces może być ważniejszy niż sam rezultat. Przyjrzyjmy się w tym kontekście kluczowemu i dość kontrowersyjnemu argumentowi. Doszedłem do niego obserwując firmy, którym strategia została „napisana” przez zawodowych konsultantów. Oczywiście konsultanci nie pisali jej z głowy. Spędzili masę czasu zadając pytania, które wprowadzają często panikę wśród załogi, bo skoro konsultant pyta o Twoje priorytety, to prawdopodobnie po to, aby przygotować Ci wypowiedzenie.
Zatem strategia powstała na bazie wiedzy, jaką konsultanci wyciągnęli z głów załogi oraz oczywiście z mądrych i drogich głów własnych. Zazwyczaj były to dokumenty, które miały sporo sensu. Był z nimi jednak pewien problem – nie były w więkwrzesień 2025 / CRN / 53
szości wdrożone ani nawet porządnie przedyskutowane. I tu dochodzę do mojego argumentu. Uważam, że sam proces tworzenia strategii może być dla firmy nawet ważniejszy niż rezultat tego procesu. Uważam tak dlatego, że praca nad strategią zmusza zespół do dzielenia się wiedzą i kwestionowania rzeczy często oczywistych. Zdarza się, że nikt nie wie, dlaczego
uwagę, że aspiracja to jeszcze nie strategia. To na razie oczekiwany rezultat. I pierwsza weryfikacja, strzałka w dół: czy rynek, na jakim chcemy działać pozwala na uzyskanie takiego wzrostu. Odpowiedź wymaga analizy nie tylko klientów, ale też konkurencji. Jeżeli odpowiedź jest twierdząca, idziemy w dół. Jeżeli nie, korygujemy nasze ambicje – strzałka w górę. Podobnie postępujemy oceniając nasze przewagi i propozycje wartości, zdolności i zasoby, wreszcie narzędzia i metody bieżącego zarządzania. Na każdym z tych etapów dokonujemy weryfikacji założeń.
możliwości realnego wpływu na strategię. A zespół, który rozumie swoją strategię nie szuka sposobu, aby ją obejść, jak też nie musimy poszczególnych osób z niej odpytywać. Ona jest wyryta w pamięci, bo byliśmy jej twórcami, a nie odbiorcami. Na koniec, aby być obiektywnym, oddajmy głos ChatowiGPT w najnowszej wersji i zapytajmy, co sądzi o zlecaniu tworzenia strategii sztucznej inteligencji. Otóż sam ChatGPT nie wyrywa się szczególnie do zrobienia za nas strategii. Zauważa własne ograniczenia wynikające z braku znajomości specyfiki działania firmy i potrzeb klientów. ChatGPT zaznacza jednak, że pomoże nam w pewnych elementach tworzenia strategii. I w tych bardziej szczegółowych obszarach, jak analiza danych i dokumentów (np. Google Notebook LM świetnie analizuje raporty giełdowe) narzędzia AI LLM mogą być bardzo przydatne. n SAM CHATGPT
te oczywistości są takie oczywiste, ale ponieważ nikt ich od dawna nie kwestionował, uznaliśmy, że tak ma być. W ramce poniżej podaję wzór „kaskady strategicznej”, a więc narzędzia, którym najczęściej posługują się menadżerowie związani z Harvard Business School. Ponieważ moja formalna wiedza marketingowa kształtowała się pod wpływem tego ośrodka, stosuję ją też w praktyce. Praca z tą kaskadą polega na ciągłym weryfikowaniu i kwestionowaniu naszych założeń.
Zacznijmy od góry. Naszą aspiracją jest dwukrotny wzrost przychodu w ciągu najbliższych trzech lat. Przy okazji zwracam
Jakie są aspiracje i konkretne cele według których możemy mierzyć nasze postępy?
Na jakim obszarze rynku zdecydujemy się grać, a na jakim nie?
Oczywiście możemy bezrefleksyjnie popłynąć w dół tej kaskady jak dzieciaki w parku wodnym, ale pytanie – co dalej? Natomiast jeżeli wspólnie z zespołem przejdziemy przez ten proces, zbierzemy dane, ocenimy nasze zasoby i zdolności, przeanalizujemy potrzeby klientów i działania konkurencji, budujemy realne fundamenty pod przyszły wzrost.
A jeżeli zmienią się warunki rynkowe, dajmy na to prezydent Urugwaju wprowadzi 100 proc. cła, będziemy w stanie szybko i z pełnym zrozumieniem przeprowadzić korektę naszej strategii. Właśnie dlatego uważam, że oddając „tworzenie” strategii do AI ryzykujemy nie tyko otrzymanie tzw. gniota, ale też pozbawiamy zespół
Cele: sprzedażowe, marżowe, wzrostowe, udziałowe
Łukasz Kosuniak jest autorem książek „ABC Marketingu B2B”, „To jest Social Selling”, „Marketing Automation krok po kroku” i prowadzi podcast Business Marketer.


W jaki sposób w wybranym przez nas obszarze wygramy z konkurentami?
Jakie zdolności są niezbędne do zbudowania i utrzymania, aby wygrać?
Systemy i metody niezbędne do działania, abyśmy zbudowali i utrzymali kluczowe zdolności?
Segmentacja, Profi l Idealnego Klienta (ICP)
Potrzeby – Value Proposition Buyer Persona Zasoby, kompetencje, zdolności
Procesy, metody, egzekucja

Dawno już nie mieliśmy do czynienia z tak dużym rozczarowaniem wynikami finansowymi, jak ma to miejsce obecnie w kontekście I połowy bieżącego roku.
Tomasz Gołębiowski
Ponad połowa respondentów ankiety na portalu CRN.pl deklaruje spadek przychodów w pierwszych sześciu miesiącach tego roku w porównaniu z tym samym okresem roku ubiegłego. Jedynie 17 proc. pytanych cieszy się ze wzrostu wpływów do firmowej kasy. Nieco tylko lepiej I połowa br. prezentuje się pod względem rentowności biznesu. W przypadku 52 proc. firm zyski spadły, podczas gdy 29 proc. przedsiębiorców zanotowało wzrost tego wskaźnika. Pozostałe 19 proc. respondentów deklaruje, że rentowność w ich przypadku utrzymuje się na poziomie ubiegłorocznym (co samo w sobie nie musi być złe).
ZALEDWIE 10 PROC. PYTANYCH
SPODZIEWA SIĘ WZROSTU PRZY- CHODÓW W II POŁOWIE ROKU.
Co gorsza, choć można się tego było spodziewać, mamy do czynienia z bardzo słabymi nastrojami odnośnie do II połowy tego roku. Zaledwie 10 proc. pytanych spodziewa się wzrostu przychodów w tym czasie (rok do roku), a 13 proc. poprawy rentowności. Przeciwnego zdania jest – odpowiednio – 66 proc. i 68 proc. Stagnację przewiduje zaś 24 proc. (przychody) i 20 proc. (zyski) respondentów.
Niski odsetek realizacji inwestycji
Z raportu Polcomu wynika, że tylko 11 proc. firm w Polsce zrealizowało większość zaplanowanych inwestycji IT na lata 2024–2026. Kolejne 58 proc. wdro-

żyło część takich projektów, przy czym 20 proc. przedsięwzięć okazało się nietrafionych lub przekroczyło budżet. Do kluczowych barier w tym kontekście należy zaliczyć brak wykwalifikowanych specjalistów (66 proc. wskazań) i przestarzałe systemy IT – ten problem dotyczy połowy badanych.
– Firmy odkładają na później modernizację infrastruktury IT i przestarzałych systemów, a dług technologiczny rośnie. To jest moment, w którym partner technologiczny może pełnić rolę doradczą, pomagając w wyborze właściwych rozwiązań i ograniczeniu ryzyka inwestycyjnego – mówi Adam Matyaszek, dyrektor sprzedaży w Polcomie.
Inwestycje w rozwiązania IT dotyczą w 92 proc. cyberbezpieczeństwa i zapewnienia ciągłości działania, obejmując przede wszystkim backup w modelu usługowym (86 proc.) oraz monitoring systemów i aplikacji (77 proc.). W praktyce oznacza to rosnące nakłady na ochronę danych i odporność operacyjną. Z raportu Polcomu wynika, że do końca 2026 r. ponad 60 proc. firm planuje migrację do chmury. Główne powody to możliwość skalowania infrastruktury
(73 proc. wskazań), jak też skrócenie czasu wprowadzania produktów i usług na rynek (56 proc.). Istotna pozostaje też optymalizacja kosztów (52 proc.).
– Chmura jest postrzegana jako fundament dalszej cyfryzacji. Za jej pomocą firmy budują zaawansowaną analitykę danych, wdrażają projekty oparte na AI i rozwijają usługi w trybie ciągłym. Kluczowe jest to, że technologia staje się narzędziem wpływającym na budowanie przewagi konkurencyjnej, a nie tylko elementem redukcji kosztów – podsumowuje Adam Matyaszek.
W ankiecie wzięło udział 134 respondentów – czytelników portalu CRN.pl.
Europa staje przed strategiczną decyzją: jak zbudować własną sztuczną inteligencję – i na czyich fundamentach.
Na początku kwietnia OpenAI zaprezentowało „EU Economic Blueprint”, dokument, który jest apelem do instytucji unijnych o odważne decyzje inwestycyjne, uproszczenie regulacji i szeroką adaptację AI, oferując przy tym wsparcie technologiczne. Chwilę później Komisja Europejska ogłosiła inicjatywę „AI Continent Action Plan”, stawiając na rozwój europejskiej infrastruktury i niezależnych modeli. W centrum obu wizji pozostaje to samo wyzwanie: dostęp do mocy obliczeniowej, danych i centrów danych, bez których suwerenność cyfrowa pozostanie tylko deklaracją. Czy oba dokumenty przybliżają nas do tego celu?
Zaprezentowany przez OpenAI „EU Economic Blueprint” stanowi dokument strategiczny, jak też komunikat polityczny. Krótko mówiąc: OpenAI oferuje Europie wsparcie w budowie demokratycznej AI, jednocześnie sygnalizując konkretne oczekiwania względem regulacji, infrastruktury i dostępu do danych. Wskazuje przy tym cztery główne filary rozwoju AI w Europie. Są to: inwestycje w fundamenty AI (chipów, infrastruktury, energii, kadr), uproszczenie i harmonizacja regulacji, powszechna adopcja AI w administracji, biznesie i edukacji, oraz odpowiedzialny rozwój, uwzględniający prywatność, bezpieczeństwo i przejrzystość. Wśród inicjatyw znalazły się między innymi: fundusz AI, indeks gotowości cyfrowej, program AI Erasmus i dni edukacji AI.
Z kolei ogłoszona przez Komisję Europejską strategia „AI Continent Action Plan”, której celem jest przyspieszenie rozwoju sztucznej inteligencji i zmniejszenie dystansu do liderów technolo-
CZY TO REALNA WSPÓŁPRACA, CZY CYFROWA KOLONIZACJA?
gicznych, takich jak USA i Chiny, opiera się na pięciu filarach. Obejmują one: inwestycje w infrastrukturę (budowa sieci fabryk AI, gigafabryk i niskoemisyjnych centrów danych), lepsze wykorzystanie danych, wdrożenia sektorowe przyspieszające adaptację AI – od przemysłu po administrację – rozwój kompetencji, w tym utworzenie Akademii Umiejętności AI oraz uproszczenie regulacji ułatwiających trenowanie modeli i wdrażanie innowacji.
AI potrzebuje infrastruktury
Zarówno OpenAI, jak i Komisja Europejska podkreślają znaczenie dostępu do infrastruktury jako warunku rozwoju AI – w tym centrów danych, energii, specjalistycznych chipów i zasobów obliczeniowych. To najważniejszy, a często pomijany aspekt strategii AI. Bez nowoczesnych centrów danych, dużych klastrów GPU i bezpiecznych lokalizacji do przetwarzania danych, Europa nie będzie w stanie trenować własnych modeli ani skalować innowacji. Inicjatywa „AI Continent” zapowiada inwestycje w tym zakresie – zarówno poprzez program EuroHPC (High Performance Computing), jak i rozwój regionalnych hubów danych. Warto w tym miejscu wspomnieć o pierwszym polskim projekcie AI Factory, który został przyznany Poznańskiemu Centrum Superkomputerowo-Sieciowemu (PCSS). Jednak – jak zauważają eksperci – dziś Europa wciąż w dużym stopniu zależy od globalnych dostawców usług obliczeniowych.
Z kolei, dzięki partnerstwu z Microsoftem, OpenAI już dziś dysponuje infrastrukturą i zasobami pozwalającymi działać na dużą skalę. W swoim stanowisku podkreśla konieczność szybkiego znoszenia barier administracyjnych i wspierania firm technologicznych, które mogą napędzać rozwój AI w Europie.

Z kim Europa zbuduje swoją AI?
Choć podejścia są różne, oba dokumenty akcentują wspólny cel: umożliwienie Europie pełnoprawnego uczestnictwa w rozwoju technologii AI – zarówno jako użytkownika, jak i twórcy. OpenAI wskazuje na potrzebę szerokiej adopcji AI w sektorze publicznym i biznesie, a także stworzenia otwartego, konkurencyjnego środowiska regulacyjnego. W dokumencie OpenAI widać próbę zdefiniowania wspólnej ścieżki rozwoju sztucznej inteligencji w duchu europejskich wartości, ale też wyraźne wezwanie do stworzenia sprzyjających warunków dla globalnych liderów technologicznych. „EU Economic Blueprint” można odczytywać jako zachętę do współtworzenia AI, ale w oparciu o amerykańskie technologie i modele. Z jednej strony to gotowość do współpracy nad rozwiązaniami zgodnymi z europejskimi standardami, z drugiej – oczekiwanie na konkretne działania UE w obszarze infrastruktury cyfrowej,

otwartości danych i przewidywalnych regulacji. Z kolei „AI Continent Action Plan” stawia na budowę niezależnych zasobów, wspieranie otwartych modeli, transparentność i zwiększenie kontroli nad tym, jak i gdzie przetwarzane są dane europejskich użytkowników.
Pomocna dłoń czy cyfrowa zależność?
Choć OpenAI mówi o „AI dla Europy, w Europie i przez Europę”, nie przewiduje stworzenia w pełni niezależnych europejskich rozwiązań. Eksperci ostrzegają, że może to rodzić pytania o cyfrową suwerenność i niezależność kontynentu. Trzeba zadać sobie pytanie: czy to realna współpraca, czy cyfrowa kolonizacja?
Europa musi zachować czujność i zadbać o to, by mieć nie tylko odpowiednie regulacje, ale też technologię i infrastrukturę, którą naprawdę kontroluje.
„EU Economic Blueprint” i „AI Continent Action Plan” to dwa dokumenty,
które – mimo różnic – wskazują na to samo wyzwanie: jeśli Europa chce odegrać realną rolę w rozwoju AI, musi zainwestować w infrastrukturę, zasoby i kompetencje. Ostateczny kształt europejskiego ekosystemu AI będzie prawdopodobnie efektem współistnienia różnych modeli: publicznych, komercyjnych i hybrydowych. Przy czym nie chodzi o to, by wybierać między współpracą a samodzielnością. Kluczowe jest, by Europa miała dostęp do technologii – i możliwość jej współtworzenia, a nie tylko wykorzystywania. Pytanie, czy za deklaracjami politycznymi pójdą czyny, wciąż czeka na odpowiedź.
Piotr Kowalski
jest dyrektorem zarządzającym Polskiego Stowarzyszenia Data Center (PLDCA).

i rozwijaj swój biznes z CRN Polska








































































































































wiedzy Zaprenumeruj najlepiej poinformowane












































Specjalizacja to coś, bez czego większość małych i średnich firm usługowych w IT nie przetrwa. Era generycznych software house’ów i agencji body leasingowych dobiega końca.
Klienci coraz rzadziej poszukują samych programistów, oczekując przede wszystkim mierzalnych rezultatów i rozwiązywania konkretnych problemów biznesowych. Moim zdaniem ten trend będzie się tylko pogłębiał, a bez Unikalnej Propozycji Wartości nie da się skutecznie rozwijać żadnej organizacji. Dlatego na przełomie roku podzieliłem specjalizacje naszej spółki na trzy główne obszary: branża, technologia i produkty. W artykule skupię się na specjalizacji branżowej, czyli na rynku nieruchomości, ze szczególnym uwzględnieniem niszy luksusowych nieruchomości. Zamierzamy budować widoczność w tym obszarze za pomocą Google’a, wyszukiwarek LLM (ChatGPT, Claude itp.), mediów społecznościowych i działań offline. Będziemy pozycjonować markę boringowl.io zarówno na generyczne frazy, jak i specjalistyczny content z długiego ogona słów kluczowych.
Naturalny wybór nieruchomości
Zbudowanie przez software house Unikalnej Propozycji Wartości (Unique Value Proposition) czy Unikalnej Propozycji Sprzedaży (Unique Selling Proposition)
W naszym przypadku zrealizowaliśmy ostatnio lub realizujemy projekty dla czterech firm z sektora nieruchomości. Dla części z nich tworzymy systemy, które mają kluczowe znaczenie operacyjne. Dzięki temu lepiej rozumiemy wyzwania tej branży, co przekłada się na większą skuteczność naszych rozwiązań. Nasi obecni klienci z branży nieruchomości to: Mzuri (lider zarządzania najmem w Polsce, operujący tysiącami mieszkań na terenie całego kraju), SAO (deweloper i inwestor w luksusowe nieruchomości), BlueApart (operator luksusowych apartamentów wakacyjnych nad polskim morzem), a także SRDK Studio (butikowe studio architektoniczno-deweloperskie realizujące inwestycje premium).
W przeszłości zrealizowaliśmy również projekty dla innych podmiotów w branży nieruchomości, co pozwoliło nam lepiej zrozumieć specyfikę tego rynku i wypracować skuteczne rozwiązania dla powtarzających się problemów. Pierwszych klientów pozyskaliśmy dzięki rekomendacjom, SEO oraz sieci partnerskiej. Kolejne spółki chcemy przyciągać w podobny sposób, z tą różnicą, że dziś działamy już jako zespół z konkretnym doświadczeniem i specjalizacją w tym obszarze.
Case studies, open source i specjalistyczny content

rując go zarówno do sekcji z case studies, jak i do materiałów związanych z open source. Praktyczne case studies i specjalistyczne treści mają budować widoczność naszej marki zarówno w wyszukiwarkach LLM, jak i w odpowiedziach na złożone zapytania z tzw. długiego ogona. Równolegle rozwijane będzie pozycjonowanie na bardziej ogólne frazy w Google, i chociaż koncepcja specjalizacji częściowo się z tym kłóci, obecność w szerszym zakresie wyników pozwoli zwiększyć zasięg i lepiej wykorzystać ruch w remarketingu.
Chodzi o to, żeby ktokolwiek w Polsce wpisując w Google albo w ChatGPT coś związanego z technologią i nieruchomościami, natknął się na naszą markę. Niezależnie od tego, czy szuka systemu CRM dopasowanego do swojej firmy, chce zrozumieć, czym jest PropTech, czy wpisuje typowo sprzedażowe frazy. Największą wagę przykładam do tych ostatnich.
dla określonej branży to przede wszystkim praca dla podmiotów z tego sektora. Najlepiej, jeśli są to firmy o odpowiedniej skali, liderzy swoich nisz, dynamicznie rosnące spółki, które nie boją się inwestować w przewagi konkurencyjne oparte na technologii. Dzięki transferowi wiedzy domenowej, software house zyskuje unikalne kompetencje i staje się naturalnym wyborem dla kolejnych graczy z tej niszy.
Do końca roku planujemy zwiększyć nasze portfolio nawet o 10 projektów z sektora nieruchomości. Docelowo, w perspektywie 2–3 lat, chcemy zbudować pozycję rozpoznawalnej marki w branży nieruchomości w Polsce, postrzeganej jako jeden z wykonawców IT pierwszego wyboru. Planujemy też wejść na wybrane rynki zagraniczne, choć mam świadomość, że specjalizacja w PropTech wiąże się z dostosowaniem do lokalnych realiów. Ruch planujemy generować z remarketingu, płatnych kampanii i LinkedIna, kie-
Nasze firmowe social media praktycznie nie funkcjonują już od dłuższego czasu. To ma się zmienić, ponieważ planujemy odświeżenie całej marki w ostatnim kwartale tego roku i chcemy połączyć to z nowym kierunkiem komunikacji. Nie wierzę w skuteczną sprzedaż B2B przez Facebooka czy Instagrama, ale widzę potencjał w krótkich formatach wideo, zwłaszcza rolkach, które zyskują również znaczenie w SEO. Zamierzam inwestować w krótkie, dobrze zrealizowane treści, które będą naturalnie kierować uwagę do materiałów wymagających większego zaangażowania.

W najbliższym półroczu planuję udział w kilku konferencjach branżowych związanych z rynkiem nieruchomości. Jako osoba odpowiedzialna za sprzedaż muszę dobrze rozumieć ten sektor, żeby trafnie identyfikować potrzeby klientów i od samego początku budować nasz wizerunek jako specjalistów. W przyszłym roku chciałbym rozpocząć budowę społeczności skupionej wokół tematyki PropTech i wypromować autorski projekt open source.
Obecnie klienci z branży nieruchomości odpowiadają za około 30 proc. przychodów spółki. Od pół roku firma działa rentownie i generuje miesięcznie od 150 do 200 tys. zł przychodu powtarzalnego (MRR). Wybór specjalizacji branżowej i technologicznej ma nam pomóc w dalszym skalowaniu działalności i zwiększaniu marży. Dzięki lepszemu zrozumieniu rynku czy gotowym rozwiązaniom i wiedzy domenowej. Przy czym kluczowe znaczenie ma jakość realizacji. Nasz zespół projektowy jest obecnie w pełni skoncentrowany na skutecznym dostarczaniu projektów, które realnie odpowiadają na potrzeby klientów i budują naszą pozycję w branży.
Jedną z najbardziej istotnych różnic pomiędzy inwestowaniem na rynkach publicznych a prywatnych jest podejście do insider tradingu.
Krótko mówiąc, na rynkach publicznych idzie się za to siedzieć, podczas gdy na rynkach prywatnych to po prostu część roboty. Zilustrujmy to historią jednego z inwestorów i członków rady nadzorczej Wiz, kupionego w tym roku za 32 mld dol. przez Google. Fundusz Pana, o którym opowiem, wykręcił na tej transakcji 222x w ciągu 5 lat. Gili Raanan jest obecnie partnerem w Sequoia Capital oraz założycielem funduszu Cyberstarts. Podmiot ten jest skoncentrowany na inwestycjach w startupy B2B na wczesnym etapie w sektorze cyberbezpieczeństwa. Jeśli spojrzycie na jego portfolio, to zobaczycie wielu founderów z Izraela. To oczywiście nie jest przypadek, gdyż Gili spędził 10 lat w jednostce 8200, która jest izraelskim odpowiednikiem amerykańskiej National Security Agency, z tą różnicą, że zapełnionym ludźmi w wieku 18–25 lat. Rozwiązania cybersecurity charakteryzują się długimi cyklami sprzedażowymi, szczególnie wtedy, gdy są skierowane do klienta rządowego lub sektora enterprise. Jeśli jednak cykl zakończy się sukcesem, to na jego końcu można znaleźć dużego, stabilnego płatnika, który potrafi płacić miliony dolarów rocznie przez wiele lat. Warunkiem wstępnym takich cykli jest portfolio, przy czym złapanie pierwszego klienta na cokolwiek w tej kategorii jest super trudne. W przypadku Cyberstarts pomaga w tym rada doradców złożona z wielu CISO (Cybersecurity Information Officers) wypełniających swoje role na co dzień w dużych firmach. Jak jakiś CISO napotyka w pracy na problem, którego nie może rozwiązać
inhouse lub obecnym na rynku oprogramowaniem, to idzie do Giliego. Gili przekazuje problem do szeregu kumpli, którzy są absolwentami 8200 i zaczynają budować firmę wokół zadanego problemu za pieniądze od funduszu. Jak
JAK JAKIŚ CISO NAPOTYKA NA PROBLEM, IDZIE DO GILIEGO.
wszystko dobrze pójdzie, biznes odpala, dysponując już wtedy pierwszym case study, z którym może iść do innych CISO. A na koniec takiej rundki mamy do czynienia z firmą, która ma rok i 100 mln dol. przychodów od klientów z sektora enterprise (jak Wiz). Swoją drogą wcale nie jestem pewien, czy w tamtym momencie Wiz miał w ogóle jakiś dział sprzedaży…
Piękno tego modelu polega na tym, że wspomniani CISO mają widoki na udział w zyskach w funduszu, więc są w stanie nieźle dorobić do etatu w korporacji – dzięki temu, że trzymają kciuki za startupy Giliego i oferują im swoją bezcenną pomoc. O ilość nowych problemów w cybersecurity jestem spokojny, a co za tym idzie o przyszłość zwrotów tego konkretnego funduszu – też.
Bartosz Majewski
Autor jest współwłaścicielem Casbeg.com.

pełni
funkcję CEO
w Boring Owl Software House.


Podmioty gospodarcze oferujące produkty objęte aktem o dostępności będą musiały udostępniać informacje o produktach w odpowiedni sposób.
Wczerwcu 2025 r. weszła w życie ustawa dotycząca spełniania wymagań dostępności niektórych produktów i usług przez podmioty gospodarcze (akt o dostępności). To implementacja do polskiego porządku prawnego przepisów unijnej dyrektywy 2019/882. Choć na pierwszy rzut oka mogłoby się wydawać, że ustawa ma znaczenie niszowe, to jednak jej bliższa lektura prowadzi do wniosku, iż będzie miała szeroki wpływ na rynek sprzętu IT i usług.
Akt o dostępności dotyczy komputerów osobistych, smartfonów, tabletów, czytników ebooków, terminali płatniczych, bankomatów, wpłatomatów, automatów biletowych oraz interaktywnych terminali informacyjnych. Jednocześnie obejmuje usługi telekomunikacyjne, dostęp do audiowizualnych usług medialnych, rozpowszechnianie ebooków czy handel elektroniczny.
KARY WYNOSZĄ DO DZIESIĘCIOKROTNOŚCI PRZECIĘTNEGO WYNAGRODZENIA ZA POPRZEDNI ROK.
W przypadku ww. produktów lub usług podmioty je oferujące (producenci, importerzy, dystrybutorzy, usługodawcy) zobowiązani są do zapewnienia dostępności, czyli takich właściwości produktu/usługi, które umożliwią korzystanie z nich zgodnie z przeznaczeniem przez osoby ze szczególnymi potrzebami na zasadzie równości z innymi użytkownikami. Co istotne, dotychczas wymagania dostępności nie były regulowane kompleksowo w prawie polskim, a istniejące, fragmentaryczne regulacje odnosiły się przede wszystkim do sektora publicznego. Wdrożenie aktu o dostępności może więc stanowić pewne wyzwanie dla podmiotów prywatnych.
Wymogi dostępności dla produktów
Podmioty gospodarcze oferujące produkty objęte aktem o dostępności będą musiały udostępniać informacje o produktach w odpowiedni sposób. Informacje powinny być udostępniane za pomocą więcej niż jednego tzw. kanału sensorycznego, przy czym w przypadku kanału tekstowego należy zastosować odpowiednią czcionkę, kontrast i odstępy. Udostępniane informacje powinny mieć też odpowiedni zakres, w tym opisywać możliwości współpracy produktu z narzędziami wspomagającymi, z jakich mogą korzystać osoby ze specjalnymi potrzebami.
Ponadto, należy zapewnić odpowiednie właściwości samego produktu. Przykładowo, jeżeli umożliwia on komunikowanie się, wówczas funkcja ta powinna być dostępna przez więcej niż jeden kanał sensoryczny, przy czym obowiązują bardziej szczegółowe wymagania dla poszczególnych kanałów, jakich jak elementy wizualne, mowa i dźwięk. Tryby pracy produktu nie mogą wymagać wykonywania ruchów o dużym zasięgu lub dużej siły fizycznej, a zastosowane rozwiązania muszą ograniczać ryzyko padaczki fotogennej.
Za spełnienie wymagań dostępności odnośnie do produktów odpowiedzialni są zarówno producenci, jak też importerzy i dystrybutorzy, przy czym zakresy ich obowiązków się różnią. Producenci sporządzają dokumentację techniczną, organizują system wewnętrznej kontroli produkcji, sporządzają deklaracje zgodności i dokonują odpowiedniego oznaczenia produktu. Opracowują także odpowiednie instrukcje i ostrzeżenia. W przypadku podjęcia uzasadnionej wątpliwości, że produkt nie spełnia wymagań dostępności producent niezwłocznie podejmuje działania naprawcze albo wycofuje produkt z obrotu, informując o tym właściwe organy nadzorcze.
Do obowiązków importerów należy zapewnienie, że będą wprowadzać do obrotu wyłącznie produkty spełniające wymogi dostępności, w tym dopilnowanie, aby producent należycie wykonał obowiązki, o których mowa powyżej. Ponadto, powinni oni odpowiednio oznaczyć produkt i zapewnić, żeby dołączono do niego lub udostępniono publicznie dostępne w języku polskim instrukcje i ostrzeżenia. W przypadku podjęcia uzasadnionej wątpliwości, że produkt nie spełnia wymagań dostępności importer niezwłocznie podejmuje działania naprawcze albo wycofuje produkt z obrotu, informując o tym właściwe organy nadzorcze.
Warto podkreślić, że z kolei obowiązki dystrybutora są ograniczone. Powinien on przed udostępnieniem produktu na rynku sprawdzić, czy producent i importer spełnili swoje obowiązki. Nie może udostępniać na rynku produktu, co do którego ma uzasadnione wątpliwości odnośnie do spełnienia wymogów zgodności. W takim przypadku powinien poinformować producenta lub importera o konieczności podjęcia działań naprawczych albo wycofaniu produktu z obrotu, zawiadamiając o sprawie także właściwe organy.
Do świadczenia usług objętych aktem o dostępności należy wykorzystywać produkty, które same spełniają wymagania dostępności wskazane powyżej. Ponadto, oferując takie usługi należy zapewnić udzielanie odpowiednich informacji o usługach, w tym poprzez więcej niż jeden kanał sensoryczny. Konieczne jest poza tym zachowanie jednolitości stron internetowych i aplikacji mobilnych oraz zapewnienie ich postrzegalności, funkcjonalności, zrozumiałości i kompatybilności. W przypadku braku zgodności, usługodawcy powinni podejmować odpowiednie działania naprawcze, informując o tym właściwe organy. Adresaci nowych wymogów zastanawiają się czy wymagania w zakresie dostępności mają charakter bezwzględny. Warto ich w tym zakresie uspokoić – odpowiedź brzmi: nie. Po pierwsze, obowiązują wyłączenia dla mikroprzedsiębiorców. Po drugie, w przypadku pozostałych firm wymagań dostępności można nie stosować, jeśli byłoby to zbyt kosztowne albo wymagałoby zbyt dużych zmian technologicznych. Oceny w tym zakresie dokonuje sam podmiot gospodarczy na podstawie wskazanych w akcie
o dostępności kryteriów. Wyniki tej oceny powinny być udokumentowane, a dokumentacja przechowywana na wypadek kontroli.
Jakie prawa mają konsumenci?
Konsumenci mogą składać do podmiotów gospodarczych skargi dotyczące niespełnienia wymogów dostępności. Skarga powinna zostać rozpatrzona, a odpowiedź udzielona konsumentowi co do zasady w terminie 30 dni. W przypadku niedotrzymania ww. terminu skargę uważa się za rozpatrzoną zgodnie z żądaniem, które powinno zostać zrealizowane w terminie do 6 miesięcy. Jeżeli podmiot gospodarczy nie uwzględni skargi, powinien wyjaśnić dlaczego, a ponadto poinformować o możliwości złożenia odwołania lub skorzystania mechanizmu polubownego, a także o możliwości złożenia zawiadomienia o niespełnianiu wymagań dostępności do prezesa zarządu PFRON (co może skutkować kontrolą podmiotu gospodarczego).
System nadzoru rynku tworzą: prezes zarządu PFRON, organy celne oraz organy „dziedzinowe” (stosownie do swojej właściwości merytorycznej). Przykładowo, organem „dziedzinowym” będzie prezes Urzędu Komunikacji Elektronicznej (dla smartfonów, tabletów, laptopów) czy minister właściwy ds. informatyzacji (dla usług handlu elektronicznego).
Organy te mogą prowadzić kontrole pod kątem spełnienia wymagań dostępności, w tym również prowadzić badania produktów.
Co istotne, na podmioty gospodarcze mogą być nakładane kary, choć ich wysokość jest zdecydowanie niższa niż w przypadku innych aktów prawnych mających swoje źródło w prawie UE. W przypadku aktu o dostępności kary te wynoszą do dziesięciokrotności przeciętnego wynagrodzenia za poprzedni rok, nie więcej jednak niż 10 proc. obrotu z roku poprzedzającego nałożenie kary. Należy jednak pamiętać, że kontrola może skończyć się także decyzjami nakazowymi, które mogą być dla podmiotu gospodarczego równie dotkliwe, jak chociażby nakaz wycofania produktu z rynku.
Piotr Grzelczak
Autor jest radcą prawnym w Kancelarii Prawnej GFP_Legal.
KONSUMENCI
GOSPODARCZYCH
SKARGI DOTYCZĄCE
NIESPEŁNIENIA
WYMOGÓW


Istotne trendy produktowe, technologiczne, biznesowe, w oparciu o dane pochodzące z renomowanych agencji analitycznych, organizacji branżowych i globalnych mediów, dotyczące głównie Europy i Polski.
Do końca 2025 r. AI PC będą miały 31 proc. udziału w dostawach na światowym rynku pecetów – przewidują analitycy Gartnera. W 2026 r. odsetek ten ma sięgać 55 proc., a w roku 2029 AI PC staną się rynkowym standardem. Na razie jednak wdrażanie AI PC zwalnia z powodu wzrostu ceł i wstrzymywania zakupów komputerów w związku z ogólną niepewnością w gospodarce. Gartner prognozuje przy tym, że laptopy z procesorami ARM zdobędą większy udział w segmencie konsumenckim niż biznesowym, ze względu na mniejsze problemy ze zgodnością aplikacji. Klienci biznesowi preferują natomiast architekturę x86 z systemem Windows. Ma ona mieć 71 proc. udziału w sprzedaży laptopów biznesowych z AI w 2025 r. (w przypadku ARM ma to być 24 proc.).
Zdaniem Gartnera przyszłość AI PC leży w personalizacji. W celu przyspieszenia wzrostu sprzedaży, producenci muszą dostarczać AI PC zaprojektowane do konkretnych zadań i zastosowań, umożliwiając użytkownikom konfigurowanie urządzeń z wybranymi aplikacjami i funkcjami. Już w 2026 r. na komputerach PC ma działać lokalnie wiele małych modeli językowych (SLM), w porównaniu z zerowym ich udziałem w 2023 r.
Udział i sprzedaż komputerów ze sztuczną inteligencją na świecie w 2024 roku i prognoza na lata 2025 - 2026
Udział AI PC w całym rynku komputerów (%) 15,63154,7
Udział laptopów z AI w całym rynku laptopów (%)
Udział stacjonarnych AI PC w całym rynku komputerów stacjonarnych (%) 3,816,442,1
Łączna liczba AI PC (mln szt.)
Cyberbezpieczeństwo
38,14577,792143,113
Wykrywanie, reagowanie na zagrożenia i ochrona przed ransomware napędzają wydatki na cyberbezpieczeństwo – wynika z badania Futurum. Sugeruje to, że firmy koncentrują się na mierzalnych rezultatach biznesowych, takich jak unikanie przestojów, redukcja kosztów naruszeń i kontrola ryzyka. Tym samym dostawcy oferujący zintegrowane, bazujące na AI platformy ochrony cyfrowej, w oparciu o mierzalne wyniki, będą mieli największe szanse na sukces rynkowy – podkreślają analitycy. Co istotne, 81 proc. pytanych dyrektorów IT zapewnia, że cyberbezpieczeństwo to absolutny priorytet na ich liście wydatków. Jako kluczowe wskazują funkcje wykrywania i reagowania.
Wielu CIO priorytetowo traktuje również rozwiązania oferujące automatyczne radzenie sobie z problemami o niskiej i średniej wadze. Pozwala to zespołom ds. bezpieczeństwa skupić wysiłki na tym, co jest najważniejsze.
uznało wydatki na cyberbezpieczeństwo za priorytet w 2025 r.
twierdzi, że narzędzia do wykrywania i reagowania wpływają na ich decyzje zakupowe bardziej niż cokolwiek innego
wymienia ochrona przed ransomware jako priorytet wpływający na wybór dostawcy
Przychody z cyberbezpieczeństwa w europejskiej dystrybucji IT wrosną o 13 proc. w I poł. 2025 r. – ustalił Context. Sprzedaż zwiększa się ze względu na rosnące zapotrzebowanie firm na ochronę przed zagrożeniami oraz presję regulacyjną. W podziale na segmenty, największy wzrost odnotowało bezpieczeństwo sieci (o 21 proc. rok do roku). Wysoką dynamiką cechują się również przychody z rozwiązań bezpieczeństwa w chmurze, ochrony punktów końcowych i bezpieczeństwa infrastruktury. Zdaniem analityków odzwierciedla to duże zapotrzebowanie na zabezpieczenia wielowarstwowe.
Analitycy Contextu wskazują też na rosnący niepokój związany z zagrożeniami opartymi na sztucznej inteligencji. Odnotowano rekordową liczbę oszustw wykorzystujących narzędzia generatywnej AI. Podnoszą one poprzeczkę dla ochrony cyfrowej, co stymuluje kolejne inwestycje. Context przewiduje, że popyt na cyberbezpieczeństwo w Europie utrzyma się na wysokim poziomie w II poł. 2025 r. i w kolejnych latach. Źródło: Context

Rynek oprogramowania dla przedsiębiorstw będzie rósł średnio o 10,8 proc. rocznie w latach 2024 – 2029, docelowo osiągając wartość blisko 570 mld dol. – prognozuje Futurum. Analitycy podkreślają, że rozwój narzędzi AI staje się kluczowym czynnikiem zachęcającym organizacje do zwiększania wydatków na nowe rozwiązania technologiczne. Przykładowo, znacznie wzrosło znaczenie agentowej AI w kryteriach wyboru oprogramowania – jak deklarują respondenci w raporcie Futurum. Jednocześnie, jak zauważają autorzy dokumentu, wiele funkcji generatywnej i agentowej AI nie przynosi klientom znaczącego zwrotu z inwestycji. Jednak sama obietnica sztucznej inteligencji okazuje się wystarczająca, aby dostawcy technologii przyciągnęli do siebie klientów.
w I połowie 2025 r. (porównanie z I połową 2024)
Funkcje i funkcjonalność
Możliwości generatywnej AI
Obiecywane ROI
Elastyczność/personalizacja
Interfejs/łatwość użycia
Możliwości integracji z innymi aplikacjami/źródła danych
Wsparcie/oferta serwisowa

Decydenci IT spodziewają się, że w przyszłym roku nastąpi kilkunastoprocentowy wzrost wydatków na bezpieczeństwo druku – wynika z raportu Quocirca. W przypadku firm wyposażonych w urządzenia różnych dostawców poziom ten sięgnie 16 proc. Nakładą rosną, ponieważ organizacje często borykają się z naruszeniami bezpieczeństwa związanymi z drukowaniem. W tym kontekście aż 56 proc. respondentów zgłosiło co najmniej jedną utratę danych w ciągu ostatniego roku.
Badanie pokazuje też lukę w ochronie między organizacjami korzystających z flot urządzeń wielu dostawców (jest ich 59 proc.), a tymi które używają sprzętu tylko jednej marki. Otóż naruszenia danych związane z drukowaniem kosztują firmy z ujednoliconymi flotami średnio 630 tys. funtów (ok. 3,1 mln zł), ale wzrastają do 937 tys. funtów (ok. 4,7 mln zł) w przypadku przedsiębiorstw, które korzystają z urządzeń od wielu producentów. Właściciele sprzętu pochodzącego od różnych producentów prawie dwukrotnie częściej zgłaszają zakłócenia działalności w wyniku naruszenia bezpieczeństwa związanego z drukowaniem. Co ciekawe, dwie trzecie respondentów oczekuje od producentów OEM opracowania urządzeń drukujących odpornych na ataki kwantowe. Takie właśnie chcieliby wdrożyć w swoim środowisku druku w przyszłości.
Zabezpieczenie drukowania w domu, które jest głównym problemem dla 28% decydentów IT...
Ochrona dokumentów przed nieautoryzowanym










Łukasz Jesis, CEO Xopero Software, zirytował się „Dzikim Wschodem, czyli skolonizowaną technologicznie Polską. Intel zainwestuje w Polsce… Microsoft zainwestuje w Polsce… Google zainwestuje w Polsce… Lobbystów i sprzedawców więcej niż inżynierów… Polscy ministrowie na konferencjach prasowych BigTechów występujący niczym gwiazdy wieczoru… Wyobrażacie sobie ministra UK czy kongresmena USA pozującego w błysku fleszy na evencie w oddziale zagranicznym polskiej firmy? Tymczasem Orlen podpisuje umowę na licencje i usługi Microsoftu warte 663 mln zł. Ale to nic w porównaniu do historii OChK – Operatora Chmury Krajowej. OChK to partner strategiczny Google Cloud i Microsoft Azure czyli integrator-sprzedawca. Właściwa nazwa powinna brzmieć: Operator Amerykańskiej Chmury Krajowej! Powstał ze środków PFR i PKO (125 mln), aby na własny koszt budować sprzedaż dla przyjaciół zza oceanu. Zamiast krawata przybrał koszulkę biało-czerwoną za 120 baniek. Takich przykładów są setki, każdego dnia znajdziemy bohatera, który chwali się ile wydał na zagraniczne zabawki… A teraz do rzeczy: Xopero Software zainwestuje w Polsce w ciągu 3 lat około 100 mln w samo R&D. Polską technologię tworzymy od kilkunastu lat. Bez wielkich haseł, bez konferencji prasowych. Codziennie – kod po kodzie, linia po linii. I każdą naszą prezentację rozpoczynamy od słów, że jesteśmy polskim producentem oprogramowania do cyberbezpieczeństwa i backupu danych. Bo choć działamy globalnie, to fundamenty mamy tutaj: polski kapitał, polski zespół, polska myśl inżynieryjna. I chwalimy się tym. To nie jest opowieść o ‘jesteśmy z Polski i tyle’. To jest opowieść o tym, że można stworzyć światowej klasy technologię tutaj w Polsce. Nasze rozwiązania trafiają do klientów z listy Fortune 500, korzystają z nich spółki notowane na najbardziej prestiżowych giełdach świata, a także chronią dane amerykańskich instytucji rządowych. Polska technologia może być eksportowana, może konkurować z największymi graczami – i może zachować pełną niezależność. (…) Technologia to dziś filar suwerenności – tej cyfrowej, gospodarczej, a coraz częściej: strategicznej. (…) Zacznijmy faktycznie wspierać polskie firmy technologiczne, które pokazują, że da się z sukcesem konkurować z największymi globalnymi graczami. Z nami też można wystąpić na konferencji, czy pojawić się na okładce Forbesa”.
Coffee, musiał jakiś czas temu zająć się kilkoma sprawami urzędowymi: „Szybko, pomocnie, w większości on-line. Serio. Bardzo pozytywne odczucia i jako obywatel 100 procent zadowolenia. Z kolei dzisiaj rano przywitał mnie listonosz, z zestawem sześciu listów. Poleconych z poświadczeniem odbioru. I teraz… to są te same pisma. Dokładnie te same. Tylko na okólniku wskazanych zostało kilku odbiorców… znaczy sześciu.
Więc… żeby powiadomić sześć osób o czymś, wysłano… trzydzieści sześć listów poleconych z potwierdzeniem odbioru. WTF!!! Ja rozumiem, że inwestujemy w model AI, który będzie wspierał obywateli i inne tam czaty, ale… czy ktoś może włączyć zdrowy rozsądek? Serio. Tyle. Ja rozumiem, że to może wymagać zmian w prawie itp., ale czy serio ktoś, kto to robi (a zakładam, że takich przypadków jest dużo) nie zada sobie pytania… WTF się tutaj odwala (może być po polsku). OK. Może to być forma dotowania Poczty Polskiej. Spoko… taki mamy sport, że dotujemy tą instytucję w różny sposób (patrz e-doręczenia). Ale to jest serio jakaś aberracja. Zanim usuniemy ten proces… może zróbmy coś, żeby do sześciu osób wysyłano sześć listów. Serio… ta decyzja ma bardzo dobrze określony ROI do policzenia w 15 minut. Opłaci się. Polecam uwadze i działaniu. Januszu Cieszyński, Rafale Brzoska – jak Panowie chcą pokazać coś, co da się szybko usprawnić, to jest to naprawdę nisko wiszący owoc”.


Zbigniew Wantuła, do niedawna partner zarządzający Primetric, po dwóch latach od akwizycji i sumarycznie sześciu latach w firmie, postanowił ostatecznie zamknąć ten rozdział kariery. „Budowałem Primetric z myślą o sprzedaży, więc wiedziałem, że ten dzień nadejdzie. Nie jest to jednak łatwe. Ktoś uchwycił jak na imprezie pożegnalnej, gdzie zespół nagrał dla mnie podziękowania, nie umiałem powstrzymać wzruszenia. To tutaj przeżyłem najwspanialszy okres swojej kariery. Miałem szczęście do wspólników – Jędrzeja Anisiewicza, Arkadiusza Terpiłowskiego, Tomasza Gmura, jak też do inwestorów i aniołów biznesu – WP2 Investments, Unfold.vc, Tar Heel Capital Pathfinder, Victora Zaborowskiego, Piotra Jankowskiego, a przede wszystkim do ludzi, którzy wybrali rozwój kariery razem z nami, tworząc wspaniały zespół Primetric. To dla nich zostałem w firmie dodatkowe dwa lata, aby upewnić się, że każdy znajdzie swoje miejsce w globalnej organizacji. Dziś niemal cały zespół Primetric jest wciąż na pokładzie i prowadzi kluczowe inicjatywy w BigTime Software. Polski oddział powiększył się niemal dwukrotnie od akwizycji, a cały BigTime obecnie jest na najlepszej drodze, by stać się wiodącym narzędziem PSA na rynku. Dlatego uznałem, że to dla mnie najlepszy moment na prawdziwy exit. 31 sierpnia to mój ostatni dzień w firmie. Dziękuję zespołowi Primetric i BigTime, naszym klientom i partnerom. Nie żegnam się — mówię do zobaczenia”.
założyciel Netwise, opublikował swoje „przemyślenia po kolejnym idiotycznym wpisie na wallu o tym, że porażka za porażką to dobra rzecz, bo prowadzi do sukcesu. Niby jak? Z czego konkretnie ma wyniknąć ten sukces – z ponoszenia porażek? Porażka może nauczyć najwyżej czego















, zadaje pytanie, czy lepiej prosić o wybaczenie czy o pozwolenie? „Unia Europejska opublikowała Code of Practice for General Purpose AI Models – dobrowolny, ale w praktyce kluczowy dokument, który wyznacza standardy postępowania. Obejmuje trzy elementy: Prawa autorskie, Bezpieczeństwo oraz Transparentność. Rozdział ‘Copyright’ to pierwszy tak szczegółowy zestaw zasad, który mówi dostawcom modeli: szanuj prawa twórców – implementuj polityki copyright i respektuj automatyczne ‘opt-outy’; nie kopiuj bezmyślnie – modele nie mogą reprodukować chronionych dzieł: umożliwiaj skargi – twórcy muszą mieć prosty kanał do zgłaszania naruszeń; działaj transparentnie – informuj, jak działa twoje narzędzie i jakie dane wykorzystujesz; pokaż, że rozumiesz ryzyko – polityka musi być czymś więcej niż dokumentem w szufladzie. To próba ustawienia balansu: rozwijania AI, ale nie kosztem autorów. W UE punktem odniesienia jest pełna ochrona praw autorskich. Trenowanie AI na chronionych treściach wymaga podstawy prawnej (np. licencji lub wyjątku TDM – Text and Data Mining). W USA, zgodnie z doktryną Fair Use, jeżeli użycie jest ‘transformacyjne’ (np. tworzy coś nowego zamiast kopiować), może być legalne bez zgody autora, nawet przy komercyjnym zastosowaniu. Tym samym UE stawia na prewencję, a USA na eksperyment, a później się tłumacz… Sądy oceniają przypadki indywidualnie; granica jest elastyczna i przesuwa się wraz z orzecznictwem. W UE nieprzestrzeganie zasad może skutkować sankcjami administracyjnymi (np. zgodnie z AI Act) oraz pozwami cywilnymi. W USA ryzyko opiera się głównie na procesach sądowych, ale duże firmy testują granice, licząc, że Fair Use ochroni ich innowacje”.
zarządzający Czysta3.vc, podzielił się krótką obserwacją: „Zbyt wielu przedsiębiorców, którzy zbudowali jedną dużą firmę, zaczyna wierzyć w swoją nieomylność. Ego rośnie razy sto — bo jest kasa, są ludzie, jest uznanie. A potem, przy kolejnych podejściach, nagle już ‘nie wychodzi’. Winę zrzuca się na wspólników, pracowników, rynek… byle nie na siebie. Podobny mechanizm widać w inwestycjach — taki przedsiębiorca zachowuje się, jakby pozjadał wszystkie rozumy. A przecież w biznesie zawsze się uczymy. Zdarza się, że jeden trafny ruch albo czysty łut szczęścia sprawił, że firma wystrzeliła: pandemia, zmiana gospodarcza, upadłość głównego konkurenta, trend, który pojawił się w idealnym momencie. Wykorzystali moment – chwała im za to. Problem w tym, że takie podejście potrafi pogrzebać kolejne projekty. Bo przestaje się widzieć własne błędy i zakłada, że skoro raz się udało, to uda się znowu — na tych samych zasadach. Tymczasem to, że ktoś zbudował wielki biznes, wcale nie oznacza, że potrafiłby to zrobić drugi raz. Tak samo jak kilka nieudanych prób nie oznacza, że kolejna nie wystrzeli. W rzeczywistości biznes to sinusoida — górki i dołki. Czasem jesteś na fali, czasem pod wodą. Najważniejsze to pamiętać, że obie sytuacje są tymczasowe i ani sukces, ani porażka nie definiują Cię raz na zawsze. Pokora zawsze jest w cenie – niezależnie od liczby zer na koncie, bo niemal zawsze ktoś jest o krok dalej…”.
nie robić. Ale nie nauczy jak coś robić. Coache i mentorzy gloryfikują porażki. A chyba każdy zdrowy psychicznie człowiek, gdyby miał porażkę za porażką, to by się zdołował, nie cieszył. I to dobrze. Tak, trzeba próbować. Ale ‘próbować’ to nie to samo co powtarzanie głupot, że porażka jest dobra. Porażka jest zła i tyle. Może dać informację zwrotną czego unikać, ale nie da planu sukcesu.
Może pomóc eliminować opcje, ale nie projektuje nowych rozwiązań. To nie porażka jest droga do sukcesu, tylko zrobienie czegoś dobrze. Droga do wyników to świadome eksperymentowanie, wkurzanie się na porażki i wyciąganie wniosków, a nie afirmowanie jakichś bzdur dla lamusów w stylu ‘porażka jest dobra’. Wcale nie potrzeba porażek, jak uda się komuś odnieść od razu sukces”.
Calling, usłyszała na początku rozmowy z dyrektorem marketingu dużej firmy technologicznej, że naprawdę nie mają o czym pisać. ”W tym samym kwartale: wprowadzili nową usługę, zamknęli największy kontrakt w swojej historii, opracowali dane do kilku materiałów sprzedażowych, które mogłyby stać się punktem wyjścia do wartościowego raportu. Ile z tego trafiło do komunikacji zewnętrznej? Zero. Ani słowa w socialach. Ani jednego newsa w mediach. Na www cisza. Komunikacja wewnętrzna? Kuluarowa. Kto był na projektach, ten wie. Pozostali? Mogą się domyślać. Dlaczego? Bo w tej firmie mówi się o czymś dopiero wtedy, gdy wydarzy się ‘coś spektakularnego’. I to też nie zawsze. Definicja ‘spektakularnego’? Brak. Najbliżej prawdy jest: ‘to zależy’. Kiedy zaczęłam dopytywać, wyszło na jaw, że potencjału jest znacznie więcej: kilkunastu ekspertów z unikalną, rynkową wiedzą, codziennie powstające analizy, wnioski i obserwacje, które mogłyby zasilić branżowe dyskusje, raporty, white papers i badania, które nigdy nie opuściły folderu na dysku. To wszystko mogłoby być paliwem komunikacji, gdyby tylko istniał proces, który pozwala to zauważać i wykorzystywać. Ale procesu nie ma. ‘Nie mamy o czym pisać’ w 9 na 10 przypadków nie oznacza faktycznego braku tematów. Oznacza brak nawyku ich wyłapywania. A w tym czasie konkurencja nie tylko opowie o mniejszych rzeczach, ale zrobi to szybciej i głośniej”.


Wojciech
Urbanek
zastępca redaktora
naczelnego
CRN Polska


Solidny fundament, na którym przez dekady opierał się rynek PC, coraz mocniej chwieje się w posadach.
eszcze do niedawna kupno komputera PC przypominało wybór między Pepsi a Coca-Colą. Przez niemal trzy dekady świat pecetów był wyjątkowo nudny, aczkolwiek uporządkowany: Intel dostarczał mózgi, Microsoft duszę, a reszta mogła co najwyżej wybierać kolor obudowy. Nic jednak nie trwa wiecznie. Wintel to solidny fundament, który już od pewnego czasu zaczyna się chwiać. Na pewno nie jest to trzęsienie ziemi, ale z pewnością powolna erozja, dzięki której konsumenci w końcu mają do dyspozycji coś więcej niż tylko wybór między Pepsi a Coca-Colą.
Początki imperium Wintela sięgają połowy lat 80, a lata jego świetności przypadają na pierwszą dekadę naszego wieku. Microsoft oraz Intel przez lata żyli w przeświadczeniu, że świat kręci się wokół PC. Wszyscy mogliby żyć w tej harmonii do dziś, gdyby nie pewien wizjoner z Cupertino.
9 stycznia 2007 r. Steve Jobs, podczas konferencji Macworld w San Francisco, wszedł na scenę trzymając w dłoni iPhone’a. Nikt wówczas nie zdawał sobie sprawy, że patrzy na bombę, która wysadzi w powietrze nie tylko Nokię czy BlackBerry, ale również będzie początkiem końca Wintela.
jącym się masowo. I tak w końcu pociąg ze smartfonami odjechał…
Kilkanaście lat później karty się odwróciły i to Apple pokazało drzwi szefom Intela. W czerwcu 2020 r. koncern z Cupertino poinformował o przejściu na własne układy Apple Silicon oparte na architekturze ARM. Jesienią zaprezentowano pierwsze komputery Mac z chipem M1, kończąc tym samym wieloletnią współpracę z Intelem. W ten sposób Apple kontroluje cały stos od procesora po system operacyjny i może w pojedynkę napędzać zmiany, bez oglądania się na innych. No i jak się ostatecznie okazało, „zabawki” pozostawiły Intela w tyle, a internauci zaczęli przerzucać się porównaniami. Ich zdaniem, podczas gdy MacBook Air M1 był cichy jak mysz i zimny po 18 godzinach pracy na baterii, to najnowszy laptop z Intel Core i7 miał wentylator jak odrzutowiec, był gorący jak piecyk, a bateria starczała na 4 godziny, „jeśli miałeś szczęście”.
MICROSOFT JUŻ NIE POTRZEBUJE INTELA.
iPhone narzucił nową modę na mobilność i prostotę. Ludzie, zmęczeni monstrualnymi komputerami odkryli urok lekkich, mobilnych rozwiązań. Tymczasem Microsoft wypuszczał Windows Vistę, system tak ciężki i problematyczny, że firmy masowo wracały do XP. Intel z kolei koncentrował się na wyścigu gigaherców, kompletnie ignorując kwestię energooszczędności. Co gorsza, obaj członkowie sojuszu jak słoń w składzie porcelany poruszali się w świecie urządzeń mobilnych. Wprawdzie Microsoft desperacko próbował w końcu nadrobić zaległości, wydając astronomiczną sumę 5,44 mld dol. na zakup działu telefonów Nokii. Jednak takie modele jak Windows Phone, Windows Mobile czy Surface RT okazały się spektakularnymi porażkami, o których dziś prawie nikt nie pamięta.
Z kolei Intel dumnie prezentował kolejne generacje energochłonnych procesorów x86. W ich cieniu natomiast rozwijały się procesory ARM: skromne, energooszczędne, idealne do zastosowań mobilnych. Jednak według inżynierów Intela to były jedynie zwykłe „zabawki”. Przy czym naśmiewanie się z rywala to tylko jeden z błędów, które popełnił ówczesny gigant z Santa Clara. W 2007 r. Apple zaproponowało Intelowi współpracę przy dostarczeniu chipów do iPhone’a, ale Paul Otellini, ówczesny CEO Intela, grzecznie odmówił, uważając, że iPhone nie będzie produktem sprzeda-
Jeśli zaś chodzi o Microsoft, to koncern przez długie lata słynął z fanatycznej wręcz dbałości o wsteczną kompatybilność. Nowe wersje Windowsa – od 7, przez 8, aż po 10 – można było z powodzeniem instalować na wiekowych maszynach. Dawało to użytkownikom pewność, że ich sprzęt nie straci na wartości z dnia na dzień. To była wizytówka ekosystemu Wintel i jeden z jego największych atutów.
Windows 11 stanowi definitywne zerwanie z tą tradycją. Microsoft wprowadził sztywne, bezkompromisowe wymagania sprzętowe: konieczność posiadania układu TPM 2.0, wsparcie dla UEFI i Secure Boot, nowsze generacje procesorów (Intel od 8. generacji, AMD Ryzen 2000+). Decyzja ta świadomie wyklucza miliony komputerów, które pod względem czystej wydajności bez problemu obsłużyłyby nowy system. Firma argumentuje swoją decyzję troską o bezpieczeństwo i niezawodność, ale wielu ekspertów widzi w tym poważne naruszenie fundamentów Wintela – umowy społecznej, który przez dekady gwarantował użytkownikom długowieczność ich inwestycji.
Jednak o ile Microsoft nadal pozostaje w gronie gigantów technologicznych, o tyle Intel wypadł z niego z hukiem. To już nie partnerstwo równych. Niektórzy uważają, że ubiegłoroczny debiut nowych procesorów ARM w laptopach z systemem Windows był prawdopodobnie największą zmianą na rynku PC od czasu wprowadzenia procesorów Intela 486 w 1989 roku. Microsoft tak naprawdę nie potrzebuje Intela do swojej strategii. Intel stał się w tym przypadku jedynie jednym z wielu dostawców i dlatego pytanie o przyszłość Wintela nie brzmi już „czy ten sojusz się skończy”, ale „jak szybko to się stanie”.
jeśli pracujesz w rmie z branży IT, możesz bezpłatnie zaprenumerować magazyn CRN Polska?




























Załóż konto na stronie
crn.pl/rejestracja
Najlepiej poinformowany magazyn w branży IT!
dla resellerów, VAR-ów i integratorów






















