CRN Polska 8/2025

Page 1


Spis treści

8 | Relacja z gali Infonet Projekt Lider rozwiązań IT i producent oprogramowania ITSM świętował jubileusz 30-lecia

10 | ITMT 2025

Rośnie presja na działy IT

12 | Bliżej partnerów i klientów MŚP Rozmowa z Pawłem Rumanem, Country Sales Managerem, AOC & Philips

14 | Moya: pod presją ciągłego rozwoju Rozmowa z Rafałem Chmielewskim, dyrektorem ds. IT w firmie Anwim, zarządzającej siecią stacji paliw Moya

17 | Dahua to nie tylko kamery

Drugie oblicze globalnego giganta technologicznego

18 | Szkoły: dobra cena nie wystarczy Pomimo zakończenia programu Aktywna Tablica nie nastąpił drastyczny spadek sprzedaży rozwiązań IT na potrzeby szkół

21 | Interaktywna klasa przyszłości... …z narzędziami ViewSonic

22 | Dla edukacji i wygody Interaktywne monitory iiyama

23 | Czy chmura naprawdę tanieje? Średnio 27 do 32 proc. wydatków chmurowych to marnotrawstwo

24 | Kiedy AI zrewolucjonizuje przemysł? Rozmowa z Pawłem Dziadoszem, prezesem Grupy DPS

25 | 6 konkretów od SUSE

Producent oprogramowania open source udowadnia, że rozwiązuje ono realne problemy klientów

26 | Polski rynek data center Skutki przyspieszonej ewolucji

29 | Vertiv: chłodzenie cieczą jest cool Chłodzenie cieczą jako odpowiedź na wyzwania AI i zrównoważonego rozwoju

30 | AI i zrównoważony rozwój

Dzięki referencyjnym projektom Schneider Electric, operatorzy centrów danych mogą wykorzystywać w pełni potencjał sztucznej inteligencji, bez uciekania się do środowiskowych kompromisów

32 | GigaCloud: chmura z lokalnym paszportem Rozmowa z Kirillem Naumenko, CTO GigaCloud

33 | Fuzje i przejęcia: TMT wraca do łask Z raportu M&A Index Poland wynika, że w I kwartale bieżącego roku na polskim rynku fuzji i przejęć miało miejsce 78 transakcji. To wynik niższy o 17 względem analogicznego kwartału 2024 r.

34 | Monitoring wizyjny: mniejsze zło W niespokojnych czasach dla wielu ludzi ważniejsze jest bezpieczeństwo niż prywatność

38 | TP-Link VIGI chroni i ułatwia pracę w firmie Przykład wdrożeń zrealizowanych w branży handlowej

40 | Dystrybucja IT

Wiele się zmieniło, żeby wszystko zostało po staremu?

43 | Ruszył globalny bój o talenty Opinia Larry'ego Walsha

44 | Jak wycisnąć sok z danych?

Za każdym przełomem w dziedzinie AI stoją konkretne narzędzia, systemy i infrastruktura, począwszy od automatyzacji codziennych zadań, aż po innowacyjne podejście do pracy z danymi

46 | Największe innowacje zaczybają się od bólu Rozmowa z Jackiem Migdałem, CEO Quesma

48 | AI: 5 popularnych pułapek Niewłaściwe korzystanie z AI może prowadzić do poważnych problemów, takich jak błędne decyzje, naruszenia prywatności, stronniczość i innych

50 | Ekspertyza, nie skala: jak polskie firmy wykorzystują AI?

Przykłady na bazie doświadczeń dostawców zrzeszonych w klastrze ITCORNER

52 | Cyfrowy bliźniak dba o dobry smak Rozmowa z Moniką Budną, Digital and Manufacturing Excellence Managerem w poznańskiej fabryce Unilever

54 | Polska jako hub rozliczeniowy Polska ma szansę stać się kluczowym hubem rozliczeniowym dla zagranicznych pracowników zdalnych i freelancerów w Europie Środkowo-Wschodniej

55 | Stolica biznesu IT

Warszawa wyrasta na jeden z najbardziej atrakcyjnych rynków pracy IT na świecie

56 | Naruszenie danych w nowym świetle Najnowsze wytyczne UODO precyzują, w jaki sposób należy podchodzić do naruszeń ochrony danych osobowych

58 | 10 obserwacji z wyjazdu do Chin Felieton Piotra Nowosielskiego

60 | How to startup Wieści z sektora startupów

62 | Puls branży IT

Istotne trendy produktowe, technologiczne, biznesowe, w oparciu o dane pochodzące z renomowanych agencji analitycznych, organizacji branżowych i globalnych mediów, dotyczące głównie Europy i Polski

64 | LinkedIn Park

O czym branża IT (i nie tylko) dyskutuje na największym biznesowym portalu społecznościowym

66 | Wyklikujemy sobie bezrobocie i jeszcze za to płacimy Felieton Wojciecha Urbanka

Dystrybucja IT: wiele się zmieniło, żeby wszystko zostało po staremu?

Reklama, jaka pojawiła się niedawno na łamach dziennika „The New York Times”, mówi więcej o rozwoju sektora dystrybucji niż niejedna biznesowa analiza.

Naruszenie danych w nowym świetle Warto przeanalizować dotychczas stosowaną metodykę oceny naruszeń.

Stolica biznesu IT

W stolicy Polski zlokalizowane są kluczowe firmy technologiczne, a miasto przyciąga także inwestycje zagraniczne.

Największe innowacje zaczynają się od bólu W Ameryce zachodzą zmiany, które wcześniej nie miały tam miejsca - mówi Jacek Migdał, prezes Quesma.

„JEŻELI HANDEL TOWARAMI PRZYNOSI POKAŹNE ZYSKI, TO I TAK SĄ ONE NIEWIELKIE W PORÓWNANIU

David S. Landes, „Bogactwo i nędza narodów”

DANE OSOBOWE

Tomasz Gołębiowski

Redaktor naczelny

Dystrybucja:

plusy dodatnie, plusy ujemne

Pierwsza połowa bieżącego roku, choć wprawdzie nie była czasem rozkwitu europejskiej dystrybucji IT, zapisze się w jej historii jako okres stabilnego wzrostu. Wartość „sprzedaży hurtowej” zwiększyła się rok do roku o 7,4 proc., co po latach oscylowania wokół zera wygląda jak początek od dawna zapowiadanej i mocno spóźnionej „odnowy”. Z drugiej jednak strony wskaźnik „volume” nie wygląda wcale imponująco, z trudem przekraczając poziom 2 proc. Wynik napędzał w dużej mierze wzrost sprzedaży oprogramowania i usług (plus 10 proc.), jak też pecetów (plus 8 proc.), przy słabnącej dystrybucji w zakresie peryferiów (minus 1 proc.) oraz urządzeń telekomunikacyjnych (minus 4 proc.). W podziale na kraje najlepsze rezultaty uzyskały państwa nordyckie (plus 15 proc.), a zaraz za nimi Hiszpania (13 proc.). Co ważne Polska, z wynikiem na poziomie 9 proc., radziła sobie lepiej niż zdecydowana większość europejskich państw – w tym Niemiec (plus 4 proc.), Wielkiej Brytanii i Włoch (0 proc.), a przede wszystkim Francji (minus 2 proc.). Dodatkowym źródłem nadziei na przyszłość jest wynik drugiego kwartału (12 proc.), który dla polskiej dystrybucji IT był wyraźnie lepszy niż pierwsze trzy miesiące roku (6 proc. na plusie).

POLSKA LEPSZA NIŻ EUROPA.

Na ten moment trudno przewidzieć, czy po tradycyjnym spowolnieniu w III kwartale nastąpi dynamiczne odbicie w końcówce tego roku. Niemniej dotychczasowe wyniki, w połączeniu z kilkoma „driverami” wzrostu dają asumpt do snucia optymistycznych prognoz. Według największego polskiego dystrybutora dalszy rozwój rynku będą definiować między innymi takie czynniki, jak: wymiana sprzętu zakupionego w czasie pandemii, koniec wsparcia Windows 10 oraz duże przetargi publiczne, zwłaszcza w sektorze edukacji. Sam tylko projekt Cyfrowy Uczeń oznacza dostawę 735 tys. laptopów i tabletów za łączną kwotę ponad 1,7 mld zł. Planowany jest też warty 1 mld zł przetarg na utworzenie 16 tys. laboratoriów AI i STEM w szkołach, z dostawą sprzętu do II kw. 2026 r. Do tego dodać należy wzrost wydatków na cyberbezpieczeństwo, ale też przechodzenie od chmury do urządzeń brzegowych, co zwiększa zapotrzebowanie na serwery, podobnie jak popularyzacja Wi-Fi 7 korzystnie wpływa na popyt w segmencie routerów. Strategicznie natomiast rzecz biorąc, sytuacja sektora dystrybucji nie jest tak dobra, jak wskazywałyby na to liczby czy potencjalne nowe projekty „do wzięcia”. Nie można przeoczyć faktu, że globalnie wciąż rośnie presja na dystrybutorów ze strony hiperskalerów. AWS, Google Cloud i Microsoft, otwierając swoje platformy dla zewnętrznych dostawców, oferując im tym samym dostęp do korzystających z nich partnerów, stają się de facto dystrybutorami. Jak podkreślają w tym kontekście analitycy Canalysa, w miarę zaostrzania się konkurencji dystrybutorzy muszą na nowo zdefiniować swoje „propozycje wartości” i wzmocnić swoją pozycję pozyskując kolejnych specjalistów, rozwijając ofertę szkoleń i usług finansowych, jak też prowadząc działania wizerunkowe. Nadal towarzyszyć temu będzie konsolidacja tego sektora rynku, napędzana potrzebami w zakresie skali i specjalizacji. W rezultacie kształt globalnego krajobrazu dystrybucji dynamicznie się zmienia i… to się długo nie zmieni.

MIESIĘCZNIK CRN POLSKA www.CRN.pl

Rok 28, numer 8 (511), 20 sierpnia 2025 PL ISSN 2080-8607

REDAKCJA

Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa redakcja@crn.pl

Tomasz Gołębiowski tg (redaktor naczelny) tel. 608 425 699 tomasz.golebiowski@crn.pl

Wojciech Urbanek wu (zastępca red. naczelnego) tel. 691 672 065 wojciech.urbanek@crn.pl

Karolina Marszałek km (sekretarz redakcji) karolina.marszalek@crn.pl

Andrzej Gontarz ag andrzej.gontarz@crn.pl

Krzysztof Jakubik kj krzysztof.jakubik@crn.pl

Krzysztof Pasławski kp krzysztof.paslawski@crn.pl

Tomasz Janoś tj tomasz.janos@crn.pl

FELIETONY

Krzysztof Jakubik, Daniel Kalinowski, Małgorzata Krasny-Szyszkiewicz, Piotr Nowosielski, Katarzyna Rosińska, Wojciech Urbanek, Larry Walsh GRAFIKA, LAYOUT, Tomasz Baziuk

FOTOGRAFIE

Theta Art Studio Tomasz Pisiński, PhotobyMysluk.pl, Adrian Stykowski, Piotr Syndoman, archiwum

PRENUMERATA prenumerata@crn.pl

REKLAMA I PROJEKTY SPECJALNE Agata Myśluk tel. 694 455 426 agata.mysluk@crn.pl

Jacek Goszczycki tel. 601 935 513 jacek.goszczycki@crn.pl

WYDAWCA

Peristeri Sp. z o.o. Aleja Stanów Zjednoczonych 51, lok. 508 04-028 Warszawa

Reklamy są przyjmowane w siedzibie wydawnictwa. Za treść ogłoszeń redakcja nie ponosi odpowiedzialności. © 2025 Peristeri Sp. z o.o. Wszelkie prawa zastrzeżone. Computer Reseller News Polska contains articles under license from The Channel Company. © 2025 The Channel Company. All rights reserved.

Miesiąc na plusie miesiąc na minusie

Britenet dokona migracji Systemu Monitorowania Europejskiego Funduszu Społecznego (SM EFS) do infrastruktury, która ma być bezpieczniejsza i wydajniejsza. Integrator ma zapewnić także stałe wsparcie techniczne oraz dostosować platformę do zmieniających się wymogów prawnych i organizacyjnych. SM EFS to jedno z kluczowych narzędzi wspierających zarządzanie środkami unijnymi w Polsce. „Dla Britenet to nie tylko kolejny projekt, ale realny wpływ na sprawność wykorzystania środków unijnych w Polsce” - podkreśla Michał Borny, CEO warszawskiej firmy.

Tesla podpisała umowę o wartości 16,5 miliarda dol. z Samsungiem na dostawy chipów AI nowej generacji. Umowa weszła w życie 26 lipca 2025 r. i będzie obowiązywać do 31 grudnia 2033 r. Samsung będzie produkować układy nowej generacji dla Tesli w swojej nowej fabryce w Teksasie. Chip AI6 (znany również jako Hardware 6) to nowy projekt Tesli zakładający stworzenie uniwersalnego układu typu „wszystko w jednym”, który może być skalowany od systemów wspomagania kierowcy Full Self-Driving (Supervised), przez humanoidalne roboty Optimus, aż po wysokowydajne trenowanie modeli AI w centrach danych.

Alphabet wygenerował w drugim kwartale bieżącego roku przychód w wysokości 96,4 miliarda dol., co oznacza 14 proc. wzrost w ujęciu rocznym. Natomiast nakłady inwestycyjne wyniosły 22,4 mld dol., znacznie przewyższając prognozy analityków (18,2 mld). Koncern podniósł swoją całoroczną prognozę wydatków inwestycyjnych na 2025 rok z około 75 mld dol. sprzed trzech miesięcy do poziomu 85 mld. Firma inwestuje w centra danych, chipy AI oraz infrastrukturę. Sprzedaż usług chmurowych przyniosła w drugim kwartale przychody w wysokości 13,6 miliarda dol., co w ujęciu rocznym oznacza wzrost o 32 proc., zaś w porównaniu z pierwszym kwartałem o 28 proc.

ALSO Holding osiągnął w pierwszej połowie bieżącego roku skorygowany EBITDA na poziomie 126 mln euro (+32 mln rok do roku). Wartość ta uwzględnia jednorazowe koszty związane z przejęciami w wysokości 6 mln euro. Bardzo istotny wpływ na taki wynik miał 34 proc. wzrost użytkowników platformy chmurowej. Obecnie korzysta z niej 5,5 mln osób, a przychody ze sprzedaży usług chmurowych wyniosły w pierwszym półroczu tego roku 845 mln euro.

Przemysław Dębiak zajął pierwsze miejsce w prestiżowych zawodach AtCoder World Tour Finals 2025. Konkurs wymagał od uczestników rozwiązania pojedynczego złożonego problemu optymalizacyjnego w ciągu 600 minut. Polski programista pokonał nie tylko swoich kolegów programistów, ale również autonomicznego agenta AI. Polak zdobył łącznie 45 245 838 577 punktów. Za nim uplasowała się AI (42 879 901 354), a kolejny z ludzi – Japończyk – był trzeci (36 533 180 304). W finałowej dziesiątce poza Polakiem, AI i Brytyjczykiem znaleźli się sami Japończycy.

Powiedzieli

„Nie ma już czeków in blanco. Każda inwestycja musi mieć sens ekonomiczny” – Lip-Bu Tan, dyrektor generalny Intela.

Sąd Okręgowy USA skazał na osiem i pół roku więzienia mieszkankę Arizony za prowadzenie farmy laptopów używanej przez rząd Korei Północnej. Christina Chapman przyznała się do oszustwa, prania pieniędzy i kradzieży tożsamości po tym, jak FBI odkryło, że była trybikiem w kampanii mającej na celu zatrudnienie Koreańczyków z Północy na stanowiska IT z sześciocyfrowym wynagrodzeniem w znanych korporacjach. Prokuratorzy wykazali, że Christina Chapman pomogła północnokoreańskim pracownikom IT znaleźć pracę w 309 firmach.

CISPE (Europejskie Stowarzyszenie Dostawców Usług Chmurowych) złożyło formalne odwołanie do Sądu Unii Europejskiej w celu unieważnienia decyzji Komisji Europejskiej o zatwierdzeniu przejęcia Vmware’a przez Broadcom. CISPE twierdzi, że błędy prawne oraz rażące uchybienia Komisji Europejskiej w procesie oceny konkurencyjnej są na tyle poważne, że uzasadniają unieważnienie tej decyzji. „Broadcom jednostronnie rozwiązał istniejące umowy, często z zaledwie tygodniowym wyprzedzeniem i narzucił uciążliwe nowe warunki licencyjne. Obejmują one drastyczny wzrost kosztów (czasami przekraczający dziesięciokrotność) i obowiązkowe wieloletnie zobowiązania dotyczące dostępu do niezbędnego oprogramowania VMware” – oznajmia CISPE w oświadczeniu przesłanym do redakcji „The Register”.

Intel podejmuje dramatyczne kroki, aby wyjść z przedłużającego się kryzysu. Koncern poinformował o zwolnieniu 15 proc. pracowników oraz rezygnacji z inwestycji w budowę nowych fabryk w Polsce i Niemczech. Firma zamierza skoncentrować się na konkurencyjnym rynku chipów AI, odzyskaniu udziału w segmencie procesorów dla komputerów osobistych i rozwoju zaawansowanej technologii 14 A.

CISA (amerykańska Agencja ds. Cyberbezpieczeństwa i Infrastruktury) opublikowała w lipcu br. alert ostrzegający przed nowo odkrytą, poważną luką w zabezpieczeniach Microsoft SharePoint Server. Luka ta, oznaczona jako CVE-2025–53 770, została oceniona na 9,8 w skali CVSS, co klasyfikuje ją jako krytyczną. Co istotne, umożliwia ona zdalne wykonanie kodu bez konieczności uwierzytelnienia i – jak dotąd – nie ma jeszcze dostępnej poprawki.

Amazon potwierdził zwolnienia w AWS. Według Reutersa będzie to co najmniej kilkaset osób. CRN USA informuje, że kilku pracowników AWS-u opublikowało na LinkedIn wpisy o zwolnieniach, w tym osób z działu marketingu. „Po gruntownym przeglądzie naszej organizacji, naszych priorytetów i tego, na czym musimy skupić się w przyszłości, podjęliśmy trudną decyzję biznesową o likwidacji niektórych stanowisk w poszczególnych zespołach w AWS” – podał w oświadczeniu rzecznik Amazona. Przed rokiem AWS zwolnił kilkuset pracowników z działów sprzedaży, marketingu i usług globalnych. Firma uzasadniła redukcje potrzebą „usprawnienia” niektórych jednostek biznesowych.

„Ludzkość zwyciężyła (na razie!)” – Przemysław Dębiak po zwycięstwie w zawodach AtCoder World Tour Finals 2025 (z udziałem agenta AI).

„Masowe kopiowanie gotowych modeli AI, tzw. silnych LLM-ów, wiąże się z szeregiem zagrożeń” - dr hab. Piotr Pęzik (Uniwersytet Łódzki).

Nowe informacje

z branży IT

Polska bliżej gigafabryki AI

W lipcu br. Komisja Europejska przyjęła projekt utworzenia Baltic AI GigaFactory. Wcześniej resort cyfryzacji złożył w Brukseli wniosek w tej sprawie. Polska (w konsorcjum) przedstawiła go wspólnie z Estonią, Łotwą i Litwą. Inwestycja ma wynieść 3 mld euro. Kapitał prywatny pokryje 65 proc. środków, a 35 proc. KE i państwa członkowskie. Według założeń bałtycka gigafabryka ma posiadać najwyżej dwie lokalizacje i wspierać rozwój oraz wdrożenia AI w różnych branżach, jak finanse, produkcja, transport, logistyka, ochrona zdrowia i sektor farmaceutyczny. Ostateczny wniosek o budowę ma zostać złożony w grudniu br.

Przetarg na body leasing

Polska Grupa Energetyczna w lipcu br. rozstrzygnęła przetarg na body leasing specjalistów IT. Na sfinansowanie zamówienia zamierzała przeznaczyć blisko 64 mln zł. Oferty złożyło 26 wykonawców. Spośród nich 15 zostało wybranych do podpisania umowy ramowej na 2 lata. Zamawiającym jest spółka PGE Systemy. Wykonawcy będą świadczyć usługi z zakresu IT poprzez konsultantów (specjalistów IT), których lista zapotrzebowania obejmuje fachowców aż 70 profili, a sumaryczna liczba osobodni dla wszystkich przekracza poziom 45 tys.

Nie będzie fabryki Intela w Polsce

Polski integrator w Turcji

Transition Technologies PSC utworzył spółkę zależną z siedzibą w Stambule. Otwarcie biura ma na celu rozwój sprzedaży i budowanie relacji z nowymi partnerami biznesowymi. TT PSC Turkey AS skoncentruje się na wdrożeniach i migracji systemów PLM, rozwiązań IoT, integracji systemów IT/OT oraz na doradztwie w zakresie cyfrowej transformacji przemysłu. Spółka w Turcji to ósmy zagraniczny oddział TT PSC, po Niemczech, Francji, Danii, USA, Tajwanie, Zjednoczonych Emiratach Arabskich i Wielkiej Brytanii.

Oskarżeni o oszustwa

Do Sądu Okręgowego w Szczecinie trafił akt oskarżenia przeciwko 18 osobom. Okradali konta bankowe stosując phishing, spoofing (podszywanie się pod zaufane podmioty) i vishing (wyłudzenia danych przez telefon). W tym celu podawali się za pracowników banku, przejmując loginy, hasła i numery kart kredytowych ofiar. Są oskarżeni o kradzież pieniędzy z rachunków bankowych, oszustwa internetowe i pranie brudnych pieniędzy. Według śledczych popełniali oszustwa internetowe w całym kraju od września 2022 r. do kwietnia 2023 r. Teraz grozi im do 10 lat więzienia.

Przejęcie Media Markt

Koncern zrezygnował z budowy fabryki w Polsce, która miała stanąć w Miękini niedaleko Wrocławia. Powodem jest drastyczny plan oszczędności. Inwestycja o wartości 4,6 mld dol. została zapowiedziana w czerwcu 2023 r. i zawieszona we wrześniu 2024 r. wskutek problemów finansowych koncernu. Polski zakład miał kooperować z fabryką wafli krzemowych w Magdeburgu (Niemcy), która również nie powstanie. Jeden z kooperantów TSMC rozważa budowę fabryki pod Gdańskiem. Rozmowy w tej sprawie prowadzi Polska Agencja Inwestycji i Handlu.

Chiński koncern e-commerce JD.com przejmie udziały w Ceconomy – spółce, do której należy MediaMarktSaturn. Oferta wycenia detalistę na 4 mld euro. Założyciel niemieckiej firmy – Convergenta – zachowa 25,4 proc. udziałów. Finalizacja transakcji jest spodziewana na początku 2026 r. Z uzgodnień wynika, że po zmianie właścicielskiej Ceconomy pozostanie odrębnym podmiotem z dotychczasowym kierownictwem, jak też ma nie być zwolnień i istotnych zmian w strukturze przejmowanej firmy. Ceconomy twierdzi, że zyska silnego finansowo partnera z doświadczeniem w handlu wielokanałowym i technologiami z zakresu logistyki i magazynowania. JD.com to największy chiński detalista pod względem przychodów. W 2024 r. wyniosły one 158,8 mld dol.

SaaS: 200 mln zł dla

Od 1 stycznia 2028 r. jednostki administracji publicznej będą działać w oparciu o system elektronicznego zarządzania dokumentacją EDZ RP, który został opracowany przez NASK. Na realizację wdrożeń i udostępnienie usługi SaaS EZD RP dla 300 tys. użytkowników Polska przeznaczy 200 mln zł z puli KPO. Jednostki samorządu mają uzyskać bezpłatne wsparcie przy wdrożeniu, infrastrukturę chmurową i szkolenia. Według zapewnień przejście na ogólnopolski system chmurowy nie oznacza końca zamówień dla lokalnych firm IT. Samorządy korzystające z EZD RP mogą zlecać tworzenie dodatkowych modułów lokalnym firmom, by dopasować system do swoich potrzeb.

Zmiany na stanowiskach

W

dynamicznej branży IT personalna karuzela kręci się szybciej niż w innych. Prezentujemy kilka najważniejszych zmian, które nastąpiły w minionych tygodniach.

Nowy dyrektor w Evernexie

Michał Czerniecki objął stanowisko dyrektora sprzedaży na Polskę i region NCSE (North, Central and South Eastern Europe) w Evernexie, tym samym kontynuując kilkunastoletnią karierę w międzynarodowych organizacjach. Ostatnio był Sales Managerem w Cyberoo na Polskę, Czechy i Słowację (2023 – 2025), a wcześniej odpowiadał za procesy sprzedażowe w Dell Technologies, Zebra Technologies i ServiceSource (obecnie Concentrix). W Evernexie będzie odpowiadał za rozwój sprzedaży i relacji z klientami w Polsce oraz 20 krajach Europy.

Paweł Mączka Storware’aCEO

W Storware po 12 latach doszło do zmiany na stanowisku CEO. Szefem spółki został Paweł Mączka. Dotychczas, od 2013 r., rolę CEO pełnił Jan Sobieszczański. Paweł Mączka ma ponad 20-letnie doświadczenie w branży. W latach 2013–2025 realizował się jako CTO i zasiadał w zarządzie Storware’a. Wcześniej był związany z Infonet Projekt, gdzie kierował zespołem inżynierskim, a następnie był członkiem zarządu spółki.

Z zarządu SAP do KPMG

Szef Thomsona na Polskę

Tomasz Rogalski objął stanowisko dyrektora regionalnego na Polskę w firmie Thomson. Pokieruje strategią wejścia francuskiej marki na krajowy rynek i jej dalszym rozwojem. Tomasz Rogalski ma blisko 20-letnie doświadczenie w branży elektroniki użytkowej. Ostatnio pełnił funkcję dyrektora oddziału w firmie Blaupunkt, wprowadzając tę markę na polski rynek. Znaczna część jego kariery zawodowej była związana z producentem telewizorów – firmą TCL.

Z Chmury Krajowej na szefa Webconu

Dorota Zaremba, dotychczasowa wiceprezes SAP Polska, dołączyła do Działu Advisory KPMG w Polsce. Objęła stanowisko Partner Associate oraz szefa zespołu SAP. Funkcję wiceprezes zarządu SAP Polska pełniła przez 4 lata, odpowiadając za sprzedaż i wsparcie firm z sektora publicznego i prywatnego. W SAP-ie pracowała w sumie przez 8 lat. Wcześniej przez 8 lat pełniła role kierownicze w KBJ, integratorze specjalizującym się w ofercie niemieckiego koncernu.

Borkowski w Infonet Projekt

Łukasz Borkowski, który dołączył do zespołu Infonet Projekt jako dyrektor oddziału, zajmie się rozwojem biznesu firmy na Pomorzu. Ma ponad 20-letnie doświadczenie na stanowiskach kierowniczych. Wcześniej przez 5 lat był dyrektorem gdańskiego oddziału Infomexu. Przez ponad dekadę pracował w Grupie Komputronik jako regionalny dyrektor sprzedaży – najpierw w Komputronik SA, a następnie w Komputronik Biznes. Był też regionalnym dyrektorem w Karen Notebook.

Joanna Plona prezesem WeNet

Od 1 lipca br. stanowisko prezesa zarządu Grupy WeNet objęła Joanna Plona. Dołączyła do niej w maju 2024 r. jako Product Innovation Director. Odpowiadała za rozwój produktów i rozwiązań SaaS. Od grudnia 2024 r. nadzorowała również innowacje produktowe jako wiceprezes ds. innowacji. We wcześniejszych latach należała do zespołów zarządzających największych firm internetowych w Polsce. W Wirtualnej Polsce jako wiceprezes produktu odpowiadała za rozwój oraz strategię biznesową i produktową firmy. Natomiast w BaseLinker była odpowiedzialna za rozwój bazy klientów i marketing w kraju oraz za granicą.

Michał Potoczek został prezesem Webconu. Przez ostatnie 7 lat pełnił funkcję szefa Operatora Chmury Krajowej (OChK). Wcześniej przez blisko 15 lat pracował w sektorze IT. W tym czasie odpowiadał między innymi za projekty transformacyjne DXC Technology w bankowości – należał do kluczowych wykonawców wdrożeń IKO (aplikacja mobilna) dla PKO BP, jak też modelu międzybankowego systemu BLIK.

Stormshield powitał Bartosza Jankowskiego

Bartosz Jankowski dołączył do zespołu Stormshielda na stanowisko Sales Manager Poland. W nowej roli będzie odpowiedzialny za sprzedaż i współpracę z klientami końcowymi. Ma ponad 13 lat doświadczenia w branży IT, które zdobywał w firmach integratorskich i w dystrybucji. Wcześniej pracował w Versimie, Solidexie, Vernity, jak też w Komputronik Biznes.

Stormshield zapowiada dalszy rozwój lokalnych struktur.

Nowy menedżer w H3C

Zespół H3C wzmocniła Aneta Brońska. Będzie pełnić funkcję Senior Channel Sales Manager na Polskę. Wcześniej pracowała w HPE, gdzie spędziła niemal 10 lat. Pełniła funkcje Indirect Channel Sales Manager, Poland Distribution Sales Manager oraz Central Europe Channel Sales Lead. Doświadczenie zdobywała również w IBM, Arrow, Polcomie.

Infonet Projekt

świętuje 30-lecie działalności

Infonet Projekt – lider rozwiązań IT i producent oprogramowania ITSM – świętował jubileusz 30-lecia!

Uroczysta Gala Jubileuszowa odbyła się 12 czerwca w prestiżowym Hotelu Aries w Szczyrku i zgromadziła ponad 300 gości, w tym partnerów biznesowych, klientów, pracowników oraz przyjaciół firmy.

Wydarzenie odbyło się w eleganckiej oprawie, a wieczór poprowadził znany dziennikarz i prezenter telewizyjny – Marcin Prokop. Gala była okazją do wspomnień, podziękowań i uhonorowania osób, które przez lata przyczyniły się do budowania sukcesu firmy. Podczas części oficjalnej odbyła się premiera jubileuszowego filmu oraz wręczono po-

dziękowania i statuetki dla partnerów, a wśród nich dla AB, Hitachi Vantara, Huawei, IBM, Lenovo, S4E, Samsung oraz TD Synnex.

Uroczystość zwieńczył koncert Kamila Bednarka i zespołu Bednarek Band, który porwał publiczność energetycznym występem. Po koncercie goście kontynuowali zabawę podczas kolejnych muzycznych atrakcji do późnych godzin nocnych. – To dla nas niezwykle wzruszający moment. Za nami trzy dekady działalności. To historia pełna pasji, zaangażowania i współpracy. Dziękujemy wszystkim, którzy towarzyszyli namw tej drodze.

Każdy etap tej podróży był możliwy dzięki ludziom, którzy uwierzyli w naszą siłę i wspólnie z nami budowali markę Infonet Projekt. Dziękujemy naszym pracownikom za ich codzienne zaangażowanie i lojalność, zaś partnerom za zaufanie i wspólne projekty, z kolei klientom za inspirację do ciągłego rozwoju. Dzisiejszy wieczór to nie tylko celebracja przeszłości, ale także spojrzenie w przyszłość, z energią, odwagą i wiarą w kolejne lata sukcesów – podsumował Piotr Fabiański, prezes zarządu Infonet Projekt, wraz z dyrektor zarządzającą Magdaleną Idzik-Fabiańską.

ZAUFANYCH PARTNERÓW, W TYM

AB, HITACHI VANTARA, HUAWEI, IBM, LENOVO, S4E, SAMSUNG ORAZ TD SYNNEX, UHONOROWANO PAMIĄTKOWYMI STATUETKAMI.

GALA ZGROMADZIŁA

WYDARZENIA

ITMT 2025:

Podwojenie liczby uczestników konferencji IT Manager of Tomorrow w ciągu zaledwie trzech minionych lat najlepiej świadczy o tym, jak bardzo osoby zarządzające działami IT potrzebują wymiany doświadczeń i wspólnego szukania praktycznych sposobów na piętrzące się wyzwania.

Tomasz Gołębiowski

Ppodczas gdy trzy lata temu w konferencji IT Manager of Tomorrow wzięło udział niemal 500 osób, to tegoroczne, dziesiąte wydanie imprezy zgromadziło ich ponad 1000. Co ważne, około połowa uczestników pojawiła się na ITMT po raz pierwszy. Już sam ten fakt wskazuje na skalę transformacji cyfrowej, z jaką mamy do czynienia w całej niemal polskiej gospodarce i sektorze publicznym. Odpowiedzialni za nią menadżerowie, chcąc sprostać oczekiwaniom swoich organizacji, tłumnie zjechali do Gdyni,

NA POLSKIM RYNKU BRAKUJE ODPOWIEDNIO DUŻYCH FUNDUSZY NA ROZWÓJ TECHNOLOGII.

gdzie przez kilka dni dyskutowali, dzielili się wiedzą i wymieniali doświadczeniami. Towarzyszył temu wyjątkowo rozbudowany program kilkudziesięciu (sic!) równoległych warsztatów, debat i wystąpień, zajmujący w sumie niemal pełne cztery dni współpracy i networkingu. Przykładowo, Beata Czaplińska, IT Value Stream Leader for Corporate Banking, pod hasłem „Jak liderować i nie zwario-

wać?”, omówiła proces transformacji zespołu IT, jaki miał miejsce w pionie IT Alior Banku. Polegał na odejściu od tradycyjnej struktury do modelu opartego na Value Streamach, czyli zespołach gromadzących fachowców i kluczowych kompetencjach: architektów, analityków systemowych, deweloperów oprogramowania, testerów, administratorów i IT PM-ów. W ramach zmiany powstały cztery Value Streamy oraz trzy Centra Kompetencji.

Z kolei Maciej Durczak, CEO MWT Solutions, zaprezentował studium przypadku międzynarodowej ekspansji tego poznańskiego dystrybutora, w którym kluczowym czynnikiem sukcesu okazała się umiejętność oswajania porażek. Analiza objęła zaspokajanie potrzeb klientów w zakresie rozwiązań IT oraz wpływ różnic kulturowych na podejmowanie decyzji biznesowych. Natomiast Kamil Szefler z Cognityone pokazał, jak mierzyć realną wartość płynącą z wdrażania AI – od pojedynczego zadania po całe procesy biznesowe. Przedstawił prosty eksperyment myślowy inspirowany Einsteinem oraz operacyjne podejście w stylu Abrahama Walda, które pozwala ocenić, czy dany proces rzeczywiście warto zauto-

rośnie presja na działy IT

matyzować i jak mierzyć efektywność tego wdrożenia.

Polskie IT: ogrom możliwości i wyzwań

Dużym zainteresowaniem cieszyła się między innymi debata pod nieco przewrotnym hasłem: „Cyfrowa szwalnia czy technologiczna Dolina Bug-u? Polska pracuje, Ameryka pije kombuchę. Kto tu naprawdę robi robotę w globalnym IT?”. Punktem wyjścia do dyskusji był fakt, że stabilność operacyjna, jakość kodu i efektywność procesów sprawiają, że polscy specjaliści IT stają się nieodzownym ogniwem globalnych usług cyfrowych. Czy jednak rzeczywiście staliśmy się pełnoprawnym partnerem technologicznym na światowej arenie, a może wciąż jedynie jej „cyfrowym zapleczem”?

Udzielone odpowiedzi nie były jednoznaczne. Z jednej bowiem strony Polacy stworzyli Blika, InPost („logistyka, która stała się oprogramowaniem”), syntezator mowy Ivona (kto jeszcze pamięta, że to właśnie na jego bazie powstała Alexa), kultowe gry („Wiedźmin”, „Cyberpunk 2077” i in.). Z drugiej strony udział sektora technologicznego w polskim PKB mieści się w przedziale od 3,5 do 8 proc. (w zależności od przyjętej metodologii), podczas gdy w Kalifornii odsetek ten sięga od 19 do nawet 30 proc. Co więcej, na polskim rynku brakuje odpowiednio dużych funduszy na rozwój technologii. Banki nie akceptują związanego z tym ryzyka inwestycyjnego, a rodzimy rynek aniołów biznesu nie zapewnia tak korzystnych warunków do rozwoju, jak ma to

miejsce w Europie Zachodniej, a przede wszystkim w Stanach Zjednoczonych. Co więcej, kończy się czas stosunkowo taniej siły roboczej, czemu towarzyszy wzrost kosztów energii. Do tego wszystkiego rozwój AI sprawia, że programiści będą kilkakrotnie bardziej wydajni niż obecnie, natomiast w związku z tym zacznie brakować analityków IT, co pogorszy konkurencyjność Polski wobec najbardziej rozwiniętych technologicznie rynków. I wreszcie nakłada się na to polska specyfika powszechnych umów B2B, który to model współpracy z podwykonawcami nie sprzyja identyfikowaniu się deweloperów oprogramowania z firmą. Podstawowy wniosek z dyskusji? No cóż, jeśli chcemy dalej się rozwijać, musimy na te wyzwania nie tylko sensownie odpowiedzieć, ale zrobić to możliwie szybko.

Warto podkreślić, że w ramach serii tzw. okrągłych stołów, uczestnicy ITMT podejmowali próbę odpowiedzi na szereg pytań w rodzaju: jak IT może stać się strategicznym partnerem biznesu, a nie tylko „dostawcą usług”; jak budować poczucie przynależności w firmie technologicznej; jak rekrutować, rozwijać i zatrzymać najlepszych specjalistów IT; jak wybierać, budować i promować współpracę z zewnętrznymi partnerami (startupami, uczelniami, NGO-sami); czy też jak budować kompetencje zespołu i mierzyć biznesową wartość wdrożeń AI?

Menadżerowie jutra

Tradycyjnie, jednym z głównych punktów wydarzenia były prezentacje finalistów konkursu ITMT Awards, którzy prezentowali te projekty cyfrowej transformacji, które były dla ich organizacji kluczowe, a nierzadko wręcz przełomowe. A zatem: Grzegorz Górzyński opowiedział o przygotowaniu firmowej strony Boscha na spodziewany boom po emisji rekla-

Zwycięzcy konkursu IT Manager of Tomorrow Awards

Jury wyłoniło laureatów w pięciu kategoriach. Tytuł IT Manager of Tomorrow Awards i wystąpienie na Enterprise Tech Leadership Summit w Las Vegas otrzymał Marek Kozłowski (Head of the AI Lab, OPI PIB), który jednocześnie otrzymał nagrodę publiczności, a tym samym będzie mówcą podczas przyszłorocznej edycji ITMT. Z kolei nagroda Rising Star wraz z biletem na IT Manager of Tomorrow 2026 powędrowała do Grzegorza Górzyńskiego (Test Management Chapter Lead, Bosch). Tytuł Business Leader zgarnęła Malwina Grzeszczyk (IT Deputy Director, mBank), a z nagrodą Technology Leader wróciła do domu Aleksandra Tutaj (Director of Engineering, InPost). I wreszcie tytuł People Leader trafił do Piotra Lechowicza (Global IS Observability Manager, ABB). Laureaci kategorii People, Business i Technology Leader otrzymali bilety na ITMT26, a także możliwość udziału w IT Manager of Tomorrow Academy.

my z udziałem Antonio Banderasa podczas tegorocznych finałów Super Bowl. Następnie Michał Czornak podzielił się wnioskami z migracji (docelowo) wszystkich tytułów medialnych Ringier Axel Springer Polska na One Media Platform, przy czym wyzwaniem było między innymi zachowanie specyfiki każdego brandu. Bardzo ciekawa była prezentacja Aleksandry Tutaj, która przybliżyła skalę problemu, jaką była cyfryzacja logistyki InPostu na dziewięciu różnych rynkach: „Każdy kraj ma swoją specyfikę i oczekuje indywidualnego podejścia. Dla Włocha świętem jest wieczorna kolacja z rodziną, więc paczki oczekuje rano, z kolei Francuz nie życzy sobie obsługi przez paczkomat, zaś Hiszpan nie wydrukuje etykiety, bo ponad 90 procent tamtejszych gospodarstw domowych nie ma drukarki...”. Z kolei Piotr Lechowicz omówił sposób na poradzenie sobie z decentralizacją ABB, której efektem była zgoda korporacji na autonomiczne składanie zamówień na zewnętrzne usługi IT na wolnym rynku przez cztery główne działy firmy (co to oznaczało dla wewnętrznego działu IT, opisywać nie trzeba…).

Kolejny finalista, Marcin Litwinowicz, przybliżył sposób na zwiększenie przy-

chodów LPP o 25 mln zł dzięki transformacji działu IT, a zaraz po nim Malwina Grzeszczyk omówiła, jak w trzy miesiące udało się z sukcesem wdrożyć platformę BDMS na potrzeby mBanku.

Autorami trzech kolejnych, niezwykle interesujących wystąpień, byli: Łukasz Mucha, omawiający manifest specjalistów IT, który zmienił funkcjonowanie Circle K; Sebastian Możdżeń, przybliżający proces objęcia „cyfrową opieką” pięciu nowych rynków, na które weszło Allegro; a także Marek Kozłowski, który opowiedział o rozwoju „narodowego” projektu PLLuM w ramach konsorcjum sześciu różnych instytucji (listę zwycięzców podajemy w ramce obok).

JAK IT MOŻE STAĆ SIĘ STRATEGICZNYM PARTNEREM BIZNESU, A NIE TYLKO USŁUGODAWCĄ?

Organizatorem wydarzenia jest Conlea, prowadząca również IT Manager of Tomorrow Academy, jak też Fundację Conlea, która powstała z myślą o wspieraniu rozwoju zawodowego i osobistego osób związanych z zarządzaniem IT.

Bliżej partnerów

i klientów MŚP

„Choć dzięki naszym dystrybutorom docieramy do tysięcy partnerów, to chcemy jak największą ich część zachęcić do bezpośredniego kontaktu z nami zawsze, gdy potrzebują porady i informacji” – mówi Paweł Ruman, Country Sales Manager, AOC & Philips.

Jak wiadomo, planujecie wzmocnić sprzedaż w segmencie MŚP w Polsce. Jak obecnie postrzegacie ten rynek, jak oceniacie jego potencjał i potrzeby?

Segment małych i średnich firm obsługujemy już od lat, prowadząc sprzedaż za pośrednictwem sieci partnerów. Od pandemii obserwujemy na tym rynku istotne zmiany. Oczekiwania klientów wzrosły i częściej inwestują w sprzęt wyższej jakości. W swoich decyzjach zakupowych biorą pod uwagę dostępność coraz bardziej zaawansowanych funkcji. Zauważamy też rosnące zainteresowanie monitorami o większych przekątnych. Jeszcze rok temu najpopularniejszym wyborem były modele 24-calowe – dziś dominują już ekrany 27-calowe. Rośnie też popyt na monitory 31-calowe i większe. Użytkownicy coraz chętniej sięgają po jeden, większy ekran, który umożliwia wygodną pracę z wieloma dokumentami jednocześnie, zamiast korzystać z dwóch monitorów ustawionych obok siebie.

W sektorze MŚP, w odróżnieniu od korporacji, wyposażenie stanowiska pracy jest postrzegane jako inwestycja – powinno być dopasowane do indywidualnych potrzeb konkretnego pracownika lub zespołu. Tym samym użytkownicy końcowi mają dziś realny wpływ na to, jaki sprzęt trafia na ich biurka. Na te wszystkie trendy staramy się odpowiedzieć rozwijając linię produktów przeznaczonych dla tego typu klientów.

Co jeszcze, oprócz przekątnej ekranu, jest ważne dla klientów biznesowych z mniejszych firm?

Momentem przełomowym było zastosowanie w monitorach biurowych łącza USB-C. Dzięki niemu monitory przestały być tylko wyświetlaczami, stając się wielofunkcyjnymi stacjami dokującymi. Klienci z sek-

tora MŚP coraz częściej zwracają też uwagę na dostępność wbudowanej kamery, złącza RJ45 i standardowej dziś regulacji wysokości. Nie brakuje też klientów na najbardziej zaawansowane i funkcjonalne produkty. Oczywiście nadal istnieje grupa klientów, którzy traktują monitor wyłącznie jako wyświetlacz. To przestrzeń, w której my i nasi partnerzy możemy działać, prezentując korzyści z dodatkowych rozwiązań. Pomaga nam w tym rozwój technologii, rosnąca świadomość decydentów oraz szeroka oferta AOC i Philips. Obejmuje ona niemal 300 modeli monitorów, odpowiadających na potrzeby różnych użytkowników.

Jak zamierzacie zachęcić resellerów i integratorów do jeszcze większego zaangażowania w sprzedaż monitorów AOC i Philips?

Staramy się jeszcze lepiej docierać z informacją o trendach, dostępnych rozwiązaniach oraz stale rozwijanej ofercie. Równolegle wzmacniamy struktury sprzedażowe w Polsce. Do zespołu dołączyła Joanna Morawska, obejmując stanowisko Key Account Managera LCD AOC & Philips. Odpowiada za sprzedaż w segmencie MŚP oraz rozwój relacji z resellerami i integratorami. Kolejnym istotnym elementem, w kierunku wsparcia sprzedaży poprzez partnerów, jest uruchomienie dedykowanego portalu DisplayHero (www.displayhero.pl). Zarejestrowani partnerzy zyskują dostęp nie tylko do szczegółowych informacji o naszych produktach, ale przede wszystkim do wachlarza ofert, promocji i konkursów, które mają wspierać codzienną współpracę. W treściach publikowanych w DisplayHero podkreślamy też konkurencyjne elementy naszej oferty, np. 5-letnią gwarancję, wprowadzoną niedawno do wybranych serii monitorów biznesowych.

Choć dzięki naszym dystrybutorom – firmom AB, Also i Incom – docieramy do tysięcy partnerów, to chcemy jak największą ich część zachęcić do bezpośredniego kontaktu z nami zawsze, gdy potrzebują porady i informacji. Portal DisplayHero powstał właśnie po to, aby dać im taką możliwość.

Rośnie także znaczenie szkoleń dla partnerów. Jak wpisuje się w to portal DisplayHero?

Przed pandemią szkolenia dla partnerów odbywały się głównie w formie bezpośrednich spotkań. W czasie pandemii przeszliśmy na model zdalny i planujemy go kontynuować poprzez publikację webinarów i prezentacji produktowych na portalu DisplayHero. Będzie to też dotyczyć szkoleń realizowanych razem z dystrybutorami.

Szkolenia stacjonarne wciąż pozostają ważnym elementem naszej strategii i będą organizowane przy okazji eventów partnerskich. Jednocześnie pracujemy nad wdrożeniem programu demo, który umożliwi partnerom wypożyczanie monitorów, w celu zaprezentowania ich klientom końcowym oraz udostępniania do testów.

Podsumowując – nieustannie opracowujemy i rozwijamy nasze przewagi konkurencyjne. Obecnie mamy około 16-procentowy udział w polskim rynku monitorów, działając w wysoce konkurencyjnym otoczeniu. Naszą pozycję budujemy dzięki szerokiemu portfolio produktowemu, zaangażowaniu resellerów i integratorów, a także rosnącej gotowości właścicieli MŚP do inwestycji w nowoczesne rozwiązania IT do biur.

OCZEKIWANIA KLIENTÓW WZROSŁY I CZĘŚCIEJ INWESTUJĄ W SPRZĘT WYŻSZEJ JAKOŚCI.

miejsce
miejsce

Moya:

pod ciągłegopresjąrozwoju

„Jednym z naszych priorytetów jest budowa zintegrowanego ekosystemu cyfrowego, w którym wszystkie obszary działalności — od operacji technicznych po strategiczne zarządzanie firmą — są połączone w jeden, spójny system wspierający efektywność, innowacyjność i elastyczność działania” – mówi Rafał

Chmielewski, dyrektor ds. IT w firmie Anwim, zarządzającej siecią stacji paliw Moya.

Jaka jest rola i pozycja szefa IT w firmie Anwim, prowadzącej niełatwą działalność na bardzo konkurencyjnym rynku paliw?

Rafał Chmielewski Rola CIO w naszej organizacji ma charakter strategiczny i wykracza daleko poza tradycyjne jej postrzeganie poprzez pryzmat funkcji technologicznej. CIO nie tylko odpowiada za utrzymanie sprawności operacyjnej systemów informatycznych i ich bezpieczeństwo, ale przede wszystkim pełni rolę lidera transformacji cyfrowej, inicjując projekty wspierające rozwój biznesu, poprawiające efektywność operacyjną oraz zwiększające przewagę konkurencyjną całej firmy. Co ważne, pozycja szefa IT bezpośrednio podlega pod zarząd spółki, co podkreśla, jak istotną rolę odgrywają technologie cyfrowe w realizacji celów strategicznych naszej organizacji.

Anwim, poza prowadzeniem sieci stacji paliw, zajmuje się hurtową sprzedażą i dystrybucją paliw na terenie całego kraju. Na czym polega specyfika wykorzystania IT w tym segmencie gospodarki?

ZAKŁADAMY, ŻE OBECNA INFRASTRUKTURA W KOLEJNYCH LATACH UROŚNIE CO NAJMNIEJ DWUKROTNIE.

Nasze IT jest oparte przede wszystkim na infrastrukturze rozproszonej i na nią właśnie ukierunkowane. Dostępność, spójność oraz bezpieczeństwo danych stanowią kluczowe wyzwania dla całej naszej organizacji. O skali prowadzonych działań świadczy chociażby kilkadziesiąt tysięcy urządzeń funkcjonujących w środowisku IT oraz tysiące użytkowników, którzy na co dzień

korzystają z udostępnianej przez nas infrastruktury. Duży nacisk kładziemy na rozwiązania wspierające procesy biznesowe i ich ciągły rozwój, jak też zgodność z wymogami prawnymi czy zadania w obszarze ESG. Działania te realizowane są poprzez automatyzację procesów zarządzania IT oraz stałe podnoszenie kompetencji zespołu, który odpowiada za utrzymanie i rozwój środowiska cyfrowego.

Jakie są obecnie te najważniejsze wyzwania i priorytety w zarządzaniu środowiskiem technik cyfrowych, jakim musicie sprostać?

Biorąc pod uwagę notowany każdego roku dynamiczny rozwój firmy, zakładamy, że obecna infrastruktura w kolejnych latach urośnie co najmniej dwukrotnie. Będzie to oznaczało nie tylko wzrost liczby urządzeń i użytkowników, ale również znaczący przyrost ilości przetwarzanych danych w wielu złożonych systemach IT. Taka skala rozwoju wymusza priorytetowe podejście do zapewnienia spójności i integracji danych. Konieczny jest także nieustanny rozwój architektury systemowej, która pozwoli elastycznie skalować zasoby w miarę wzrastających potrzeb biznesowych. W najbliższych latach jednym z kluczowych priorytetów będzie dalsza cyfryzacja i automatyzacja procesów, wdrażanie rozwiązań opartych na analizie danych i sztucznej inteligencji oraz rozwój środowiska w modelu hybrydowym. Pozwoli to na jeszcze większą elastyczność w dostosowywaniu się do zmieniających się potrzeb rynku. Nie możemy również zapominać o kluczowym wyzwaniu, jakim w dzisiejszym otoczeniu globalnym jest utrzymanie wysokiego poziomu bezpieczeństwa – zarówno w kontekście ochrony danych wrażliwych, jak i zapewnienia ciągłości działania procesów biznesowych w infrastrukturze rozproszonej.

A jak rozkładają się relacje między informatycznym wsparciem różnych obszarów działania firmy – procesów produkcyjnych, logistycznych, sprzedażowych, obsługi klientów, działalności biznesowej, jak też obszaru back office?

Wspieranie poszczególnych obszarów działalności bazuje na bardzo silnym zintegrowaniu używanych systemów. Oparte jest także na ścisłej współpracy środowisk IT oraz OT. W praktyce oznacza to, że technologie informatyczne nie funkcjonują w oderwaniu od reszty organizacji, ale są bezpośrednio powiązane z kluczowymi procesami operacyjnymi, logistycznymi, sprzedażowymi oraz z obszarem obsługi klienta i back office’u.

Czym to się objawia na co dzień w praktyce?

W obszarze logistyki stosujemy systemy wspierające planowanie i realizację dostaw, kontrolę stanów magazynowych, optymalizację tras transportowych i zarządzanie flotą. Ich sprawne działanie wymaga bieżącej integracji z infrastrukturą IT, która zapewnia zarówno płynność przepływu danych, jak i ich bezpieczeństwo oraz dostępność w czasie rzeczywistym. Wzajemne powiązania między IT a OT są tu szczególnie istotne. Wszelkie zakłócenia w wymianie informacji mogą bowiem bezpośrednio wpływać na ciągłość procesów operacyjnych i dostępność produktów dla klientów na stacjach paliw. Warto podkreślić, że platformy mobilne, z których korzystają na co dzień nasi klienci, są ściśle powiązane z centralnymi bazami danych oraz narzędziami analitycznymi. Pozwala to na lepsze zrozumienie potrzeb klientów i szybsze reagowanie na zmieniające się warunki rynkowe. Integracja z systemami back office’owymi dodatkowo umożliwia bieżący dostęp do danych oraz monitorowanie

kluczowych usług. Ponadto w obszarze back office’u fundamentalną rolę odgrywają zautomatyzowane procesy oraz liczne integracje oparte na wewnętrznych systemach IT, które zapewniają spójność danych, eliminację błędów manualnych i transparentność działań. Środowisko IT dostarcza tutaj nie tylko niezbędnych narzędzi, ale także gwarantuje zgodność z regulacjami prawnymi oraz wymogami w zakresie bezpieczeństwa danych.

A co stanowi podstawę współdziałania środowisk IT i OT?

Relacja między IT a OT jest relacją partnerską — dążymy do tego, aby oba te środowiska wzajemnie się uzupełniały. IT wspiera OT w integracji nowoczesnych rozwiązań z zakresu automatyzacji, monitoringu procesów czy analizy danych produkcyjnych. Natomiast OT dostarcza cennych danych operacyjnych, które zasilają systemy analityczne i wspierają podejmowanie decyzji biznesowych praktycznie w czasie rzeczywistym.

W jakim modelu funkcjonuje istniejące środowisko ICT?

Nasza infrastruktura jest w dużej mierze własna i mocno rozbudowana. Zaprojektowana została pod kątem wysokiej dostępności, niezawodności, bezpieczeństwa oraz wydajności. Tysiące urządzeń i dziesiątki zintegrowanych systemów działają w spójnym ekosystemie, który nieustannie przetwarza miliony transakcji i jest ciągle rozwijany. Skala operacji wymaga od nas wysokiego poziomu automatyzacji procesów oraz integracji systemowych. Pozwala to ograniczać ryzyko błędów, przyspieszać realizację zadań oraz lepiej wykorzystywać zasoby ludzkie, koncentrując je na działaniach o większej wartości dodanej.

Jakie systemy i rozwiązania informatyczne mają kluczowe znaczenie dla zapewnienia sprawnego funkcjonowania firmy i realizowanych przez nią zadań? Fundamentem całego środowiska IT są systemy, które odpowiadają za główne linie biznesowe Anwimu. Transakcyjny system flotowy stanowi serce obsługi klientów flotowych i odpowiada za realizację podstawowych operacji w tym obszarze. Przy czym jest on ściśle zintegrowany z aplikacjami mobilnymi, takimi jak Moya Firma, które umożliwiają klientom flotowym kontrolę nad zarządzaniem flotą, szybkie rozliczenia, dokonywanie płatności, monitorowanie transakcji oraz dostęp do indywidualnych preferencji i ustawień z poziomu urządzenia mobilnego.

NASZA INFRASTRUKTURA JEST W DUŻEJ MIERZE WŁASNA I MOCNO ROZBUDOWANA. ZAPROJEKTOWANA ZOSTAŁA POD KĄTEM WYSOKIEJ DOSTĘPNOŚCI,BEZPIECZEŃSTWANIEZAWODNOŚCI,

A system stacyjny?

Ten jest oczywiście przeznaczony dla segmentu detalicznego jako centrum zarządzania siecią stacji paliw i sprzedaży detalicznej. Integralną jego częścią jest aplikacja Super Moya, która pozwala klientom indywidualnym na wygodne korzystanie z oferty sieci Moya, szybkie płatności, zbieranie punktów lojalnościowych oraz dostęp do aktualnych promocji i usług dodatkowych. Całość uzupełnia system klasy ERP, oparty na rozwiązaniu SAP S4 HANA, który stanowi trzon zarządzania hurtową częścią biznesu. Integruje procesy finansowe, logistyczne i operacyjne na poziomie całej organizacji. Większość tych systemów, z wyjątkiem SAP-a, to nasze, w pełni autorskie rozwiązania, które konsekwentnie rozwijamy, dostosowując je do rosnącej skali funkcjonowania firmy i zmieniających się potrzeb rynkowych. Dzięki temu utrzymujemy pełną kontrolę nad kluczowymi procesami i możemy dynamicznie reagować na wyzwania pojawiające się w każdym z segmentów naszej działalności.

Jakie są najważniejsze, strategiczne kierunki dalszego rozwoju waszego IT?

Strategicznym kierunkiem rozwoju jest dalsza rozbudowa i unifikacja własnej infrastruktury, przy jednoczesnym wzmacnianiu automatyzacji i zwiększaniu poziomu integracji między kluczowymi systemami. Duży nacisk kładziemy na rozwój zaawansowanych narzędzi analitycznych oraz stopniowe wdrażanie sztucznej inteligencji, zwłaszcza w obszarach wsparcia technicznego, predykcji awarii i optymalizacji procesów operacyjnych. Automatyzacja procesów, zarówno w obszarze zarządzania flotą, jak i sprzedaży detalicznej czy operacji magazynowych, to dla nas kluczowy element w zwiększaniu efektywności

działania i redukcji ryzyka błędów. Głównym impulsem do tych działań jest dla nas dynamiczny rozwój biznesu, rosnąca skala operacji oraz potrzeba zapewnienia jak najwyższej jakości obsługi klientów przy jednoczesnym zachowaniu wysokiego i racjonalnego poziomu bezpieczeństwa. Jednym z naszych głównych priorytetów jest budowa zintegrowanego ekosystemu cyfrowego, w którym wszystkie obszary działalności — od operacji technicznych po strategiczne zarządzanie firmą — są połączone w jeden, spójny system wspierający efektywność, innowacyjność i elastyczność działania.

Czy planujecie zwiększanie budżetu na zakupy i wdrożenia IT?

Ze względu na dynamiczny rozwój biznesu i sukcesywne zwiększanie oferty dodatkowych usług dostosowywanych do potrzeb klientów, naturalnie planujemy również sukcesywne zwiększanie budżetu na inwestycje w IT. Są one niezbędne, aby utrzymać przewagę konkurencyjną i sprawnie reagować na zmieniające się potrzeby rynku.

W jakie konkretnie rozwiązania, systemy i narzędzia zamierzacie inwestować w najbliższej przyszłości?

W najbliższym czasie skoncentrujemy się na rozwoju dodatkowych usług dla naszych klientów przy jednoczesnym dostosowywaniu naszych systemów do najnowszych technologii, aby jeszcze lepiej reagować na zmieniające się warunki rynkowe, optymalizować procesy operacyjne oraz zapewniać wysoką wydajność i skalowalność systemów. Planujemy również rozbudowę aplikacji mobilnych dla klientów i partnerów biznesowych. Będzie to obejmowało chociażby rozwijanie funkcjonalności aplikacji Moya Firma czy Super Moya, by zapewnić użytkownikom bardziej spersonalizowaną i intuicyjną obsługę. Z kolei w obsza-

rze sztucznej inteligencji nasze pierwsze wdrożenia koncentrują się na wsparciu technicznym i automatyzacji procesów serwisowych, co pozwoli nam na szybszą diagnostykę incydentów i predykcję potencjalnych awarii. W dłuższej perspektywie planujemy wykorzystać AI również w innych obszarach biznesowych, na przykład w celu personalizacji oferty dla klientów flotowych i detalicznych. Jednakże kluczową potrzebą rozwojową pozostaje dla nas skalowalność systemów, spójność i bezpieczeństwo danych oraz ich odporność na dynamiczny wzrost ilości i zakresu obsługiwanych operacji biznesowych.

W jakim generalnie zakresie korzystacie ze standardowych, dostępnych na rynku rozwiązań, a na ile i w jakich obszarach stawiacie na tworzenie i rozwijanie własnych aplikacji czy systemów?

Od lat preferujemy model hybrydowy, ale w znacznym stopniu ukierunkowany na własne produkty. Wykorzystujemy standardowe, sprawdzone na rynku rozwiązania tam, gdzie zapewniają one wysoką efektywność przy akceptowalnych kosztach oraz gwarantują szybkie wdrożenie, na przykład w obszarze ERP. Natomiast w kluczowych dla nas obszarach — takich jak system flotowy, stacyjny czy aplikacje mobilne dla klientów — rozwijamy własne, dedykowane rozwiązania, które są ściśle dopasowane do specyfiki naszej działalności i umożliwiają nam pełną kontrolę nad ich funkcjonalnością oraz kierunkiem rozwoju. Własne systemy pozwalają nam również na szybką reakcję na potrzeby rynku i wprowadzanie innowacji, które w przypadku gotowych rozwiązań wymagałyby długiego czasu oczekiwania. Wybór tego podejścia jest więc naturalną konsekwencją zarówno naszej strategii rozwoju, jak i skali oraz dynamiki działalności całej firmy.

Czego oczekujecie od dostawców IT?

Od naszych dostawców oczekujemy przede wszystkim elastyczności, szybkości działania oraz dogłębnego zrozumienia specyfiki naszego biznesu. Współpraca z dostawcami bywa bardzo wartościowa, zwłaszcza przy projektach wymagających łączenia wielu technologii i systemów. Kluczowe jest jednak dla nas to, aby partnerzy nie ograniczali się do dostarczania standardowych rozwiązań, lecz proponowali również proaktywne wsparcie w zakresie optymalizacji procesów czy rozwoju architektury systemowej.

Rozmawiał Andrzej Gontarz

Dahua to nie tylko kamery

Poznaj drugie oblicze globalnego giganta technologicznego.

Dahua Technology to marka doskonale znana w świecie CCTV. Kamery, rejestratory, systemy monitoringu – przez lata zbudowały wizerunek producenta solidnych rozwiązań z zakresu bezpieczeństwa. Obecnie ten wizerunek to jedynie część prawdy. Równolegle Dahua rozwija portfolio produktowe wykraczające daleko poza systemy zabezpieczeń. Od monitorów interaktywnych i rozwiązań Digital Signage, ściany LED, monitory biurkowe, komputery AIO, aż po nośniki SSD i pamięci RAM –  Dahua zmienia się w dostawcę kompleksowych technologii AV i IT

Od CCTV do IFP – czyli interaktywność na pierwszym planie

Jednym z najbardziej dynamicznie rozwijających się segmentów Dahua są monitory interaktywne (IFP – Interactive Flat Panels). Oferta obejmuje kilka linii produktowych, skierowanych do różnych odbiorców: od szkół i instytucji publicznych, po biznes.

ST410 – edukacja w centrum uwagi

Model ST410 to jeden z najczęściej wybieranych ekranów dotykowych w sektorze edukacji. Fundamentem urządzenia są oczywiście solidne parametry techniczne: Android 14, 8 GB RAM i 128 GB pamięci wewnętrznej, moduły Wi-Fi i Bluetooth oraz

Business Development Manager, Dahua Technology Poland

Wielu integratorów, z którymi rozmawiam, nadal kojarzy nas wyłącznie z kamerami. Tymczasem Dahua od lat inwestuje w nowe obszary technologiczne. Rozwiązania interaktywne, signage, wideokonferencje czy sprzęt IT to dziś pełnoprawna część naszej oferty – wspierana przez lokalny zespół i rozwijana w tempie, którego wielu się nie spodziewa. Dla resellerów to ogromna szansa. Można zacząć od monitorów interaktywnych, takich jak ST410, aby szybko dojść do projektów signage czy LED-ów 135” w urzędach i firmach. Naszym celem jest nie tylko sprzedaż sprzętu, ale budowanie wartościowego partnerstwa technologicznego.

jasność 400 cd/m². Jednak w codziennym użytkowaniu to nie specyfikacja techniczna decyduje o przewadze, lecz funkcjonalność rozwiązań takich jak rozbudowana aplikacja białej tablicy, płynna łączność bezprzewodowa czy możliwość centralnego, zdalnego zarządzania monitorem. Dzięki dostępności w rozmiarach od 65” do 86”, ST410 pasuje zarówno do mniejszych klas, jak i większych sal. Cieszy się dużym powodzeniem w przetargach publicznych, ponieważ oferuje najlepszy stosunek ceny do funkcjonalności, a jednocześnie spełnia kluczowe wymagania użytkowników i administratorów IT.

MC480 Ultimate – hybrydowa komunikacja bez kompromisów

Dla klientów bardziej wymagających i biznesowych Dahua proponuje model MC480 Ultimate – interaktywny panel premium zaprojektowany z myślą o nowoczesnych salach spotkań. Sprzęt ten wyróżnia się zestawem rozwiązań, które umożliwiają pełną integrację ze środowiskami pracy hybrydowej. Wśród wyróżników warto wymienić: wbudowaną kamerę 48MPx, 8 mikrofonów z redukcją szumów, certyfikat Google EDLA czy funkcje AI Słowem, to idealne rozwiązanie do sal zarządu, pokoi projektowych czy sal szkoleniowych w dużych firmach i korporacjach. To także alternatywa dla zestawów wideokonferencyjnych złożonych z kilku urządzeń – Dahua proponuje jeden, spójny ekosystem w jednej obudowie. Przy czym oferta monitorów obejmuje dziś rozmiary od 55” do 98”, a także LED All-in-One o przekątnej 135”, przeznaczone do przestrzeni konferencyjnych i eventowych.

DS

i Video Wall – kolejny filar AV

Drugim mocnym filarem oferty są rozwiązania Digital Signage. Dahua dostarcza monitory reklamowe, kioski interaktywne, ekrany wysokiej jasności, a także ściany wizyjne (Video Wall) – zarówno LCD, jak i LED.

Te technologie trafiają dziś nie tylko do galerii handlowych i instytucji kultury, ale coraz częściej również do szkół i urzędów.

IT konsumenckie i biurowe – od desktopu po mobilność

W ofercie Dahua znajdziemy także monitory biurkowe – do zastosowań biurowych, jak i gamingowych, w tym modele 4 K i 5 K do zaawansowanej pracy graficznej czy analitycznej. Obecność Dahua w tym segmencie to odpowiedź na rosnące zapotrzebowanie na jakościowy, estetyczny i niezawodny sprzęt. Coraz większe znaczenie mają także komputery All-in-One, oferujące estetyczne i kompaktowe rozwiązania dla firm, szkół i punktów obsługi klienta.

Portfolio uzupełniają nośniki danych SSD, pamięci RAM i flash, dzięki czemu resellerzy mogą zbudować u klienta pełny zestaw stanowiska pracy – nie tylko z ekranem, ale także z szybkim magazynem danych i podzespołami klasy premium.

Nowa szansa z Dahua

Dla rynku dystrybucyjnego, resellerów i integratorów to szansa na poszerzenie swojej oferty bez zmiany dostawcy. Jeden partner, jedna logistyka, jedno wsparcie – i portfolio, które obejmuje wszystko: od bezpieczeństwa, przez interaktywność, po komunikację wizualną i IT użytkowe. Należy przy tym podkreślić, że Dahua inwestuje w szkolenia, materiały demo, wsparcie projektowe i przetargowe. Polski zespół handlowy i techniczny rozwija się równolegle z portfolio, niezmiennie świadcząc partnerom realne wsparcie.

Kontakt dla partnerów

Paweł Budzik Business Development Manager – Interaktywne Rozwiązania AV Dahua Technology Poland pawel.budzik@dahuatech.com +48 880 170 136

SZKOŁY:

dobra cena nie wystarczy

Pomimo zakończenia programu Aktywna Tablica w tym roku nie nastąpił drastyczny spadek sprzedaży produktów i rozwiązań IT na potrzeby szkół podstawowych i średnich. Co istotne, popyt pozostaje silny również w sektorze szkół wyższych.

Krzysztof Pasławski

Wroku 2024 r. spadek liczby przetargów publicznych w sektorze edukacji wyniósł „imponujące” 93 proc. – wynika z raportu Związku Cyfrowa Polska. To przede wszystkim efekt rezygnacji z kontynuacji programu „Laptop dla ucznia”. Ponadto w ubiegłym roku zakończył się program Aktywna Tablica, który w latach 2020 – 2024 zasilił placów-

Zdaniem integratora

Patryk Borzęcki, dyrektor generalny BU SAP, Axians

Jki edukacyjne kwotą ponad 360 mln zł. W tym roku tych pieniędzy już nie ma, ale wkrótce środki publiczne znów popłyną szerszym strumieniem. Powrócił bowiem, w nowym wcieleniu, program dofinansowania laptopów i tabletów dla uczniów – tym razem pod nazwą Cyfrowy Uczeń – z budżetem przekraczającym kwotę 1,7 mld zł brutto (przeznaczoną

ednym z większych wyzwań, z jakimi mierzą się uczelnie wyższe w procesie cyfryzacji, są przepisy prawa i specyfika podmiotów akademickich. Mówimy tu chociażby o konieczności zachowania zgodności z ustawą Prawo o szkolnictwie wyższym i nauce czy też integracji z POL-on – systemem informatycznym, który zbiera dane na temat nauki i szkolnictwa wyższego i USOS – Uniwersyteckim Systemem Obsługi Studiów. Dużym wyzwaniem jest również unikalność i złożoność systemów wykorzystywanych na uczelniach, szczególnie do zarządzania dydaktyką, projektami czy finansami. Co istotne, każde wdrożenie realizowane jest równolegle z bieżącą działalnością. Oznacza to koniecz-

ność zaangażowania dodatkowych zasobów i dużej elastyczności organizacyjnej – zarówno po stronie uczelni, jak i partnerów technologicznych. Dlatego tak istotna jest współpraca z firmą, która nie tylko zna daną technologię, ale także rozumie specyfikę sektora akademickiego. Axians w Polsce, jako część międzynarodowej grupy Vinci Energies, wspiera proces cyfryzacji uczelni wyższych lokalnie i globalnie. Do tej pory przeprowadziliśmy transformację technologiczną już na kilku uczelniach w Polsce oraz ponad 40 na świecie.

Przedsiębiorstwa poszukują rozwiązań, które automatyzują proces tworzenia treści edukacyjnych. Ich wdrożenie pozwala nie tylko zoptymalizować koszty, ale też zapewnić pracownikom dostęp do atrakcyjnych, interaktywnych i łatwych do przyswojenia materiałów szkoleniowych. Także uczelnie coraz częściej dostrzegają potrzebę wdrażania tego typu rozwiązań. Jestem przekonany, że wkrótce stanie się to standardem. Jak wygląda to w praktyce? Mając do dyspozycji materiał tekstowy, można przenieść go do dedykowanej aplikacji, która na tej podstawie generuje scenariusz szkoleniowy – wzbogacony o interaktywne elementy, lektora i dowolne wersje językowe. Sztucz-

Axians otrzymał tytuł IT Master 2025

Kamil Bojarski, Head of e-Learning, Transition Technologies MS

na inteligencja potrafi również przygotować streszczenie materiału w formie interaktywnej prezentacji i dostosować całość do odpowiedniego formatu cyfrowego. Obok trendu automatyzacji treści szkoleniowych rośnie też zapotrzebowanie na tzw. microlearning, czyli krótkie, łatwo przyswajalne treści, idealne do nauki mobilnej. Ten trend jest już dobrze widoczny w biznesie. Jestem przekonany, że personalizacja treści i rozwiązania oparte na AI wkrótce znajdą zastosowanie w szkołach. Prowadzimy również rozmowy z polską firmą współpracującą z uczelniami na temat stworzenia dedykowanych rozwiązań szkoleniowych dla „pokolenia TikToka” – młodych ludzi przyzwyczajonych do treści wizualnych, wychowanych na aplikacjach mobilnych i intuicyjnych rozwiązaniach UX.

na zakup 735 tys. urządzeń). Ponadto resort edukacji ogłosił program wsparcia inwestycji na bazie środków z KPO w 16 tys. szkolnych pracowni AI i STEM oraz dostarczenia zestawów do zdalnego nauczania, które umożliwią wyposażenie 100 tys. sal lekcyjnych w 14 tys. szkół podstawowych i ponadpodstawowych.

I chociaż to dopiero „pieśń przyszłości”, a program Aktywna Tablica już się zakończył, dostawcy informują, że w tym roku nie nastąpił drastyczny spadek popytu ani w szkołach podstawowych, ani też w średnich. Co więcej, nasi rozmówcy podkreślają pozytywne efekty dużych programów publicznych. Mianowicie zwiększyły one świadomość użytkowników odnośnie do możliwości dostępnych rozwiązań i ich optymalnego wykorzystania w danej placówce. Środki wydatkowane w ostatnich latach pomogły więc stymulować popyt w dalszej perspektywie, nawet gdy bezpośrednie dotacje przestały płynąć do samorządów i szkół.

– Zakończenie dużych programów publicznych znacząco wpłynęło na rynek edukacyjny, podnosząc świadomość klientów w zakresie cyfrowych rozwiązań dla szkół – twierdzi Kamil Szmurło, Account Manager w polskim oddziale Optomy.

Co istotne, duże programy publiczne pozwoliły wielu placówkom na praktyczne poznanie nowoczesnych rozwiązań w codziennej pracy.

– Rozbudziły apetyt na wyposażenie kolejnych sal lekcyjnych, a także zmobilizowały do aktywnego poszukiwania źródeł finansowania – mówi o polskim rynku Maciej Dzidzik, Sales Manager w BenQ Austria.

Według zapewnień vendorów popyt nie osłabł, z tym że wobec braku w pierwszym półroczu br. wielomilionowych grantów z ogólnopolskich programów, na znaczeniu zyskuje lokalny rynek i zakupy finansowane przez samorządy.

– Szczególne zainteresowanie dotyczy rozwiązań gotowych do pracy w nowoczesnych klasach, w tym w pracowniach

AI czy STEM. Nauczyciele szukają sprzętu, który będzie intuicyjny, a jednocześnie umożliwi natychmiastowe prowadzenie zajęć z programowania, robotyki i pracy projektowej – mówi Piotr Morko, European Marketing Manager w Newline Interactive.

Obserwowane jest zwłaszcza zainteresowanie monitorami interaktywnymi, które zaczynają zastępować popularne w ostatnich latach tablice interaktywne. – Przewidujemy, że w kolejnych miesiącach i w przyszłym roku zainteresowanie tymi kategoriami produktów utrzyma się na wysokim poziomie, a klienci będą coraz częściej zwracać uwagę na funkcjonalność, bezpieczeństwo i wsparcie techniczne – prognozuje Kamil Szmurło.

Dostawcy wskazują również, że na znaczeniu zyskuje koncentracja na lokalnych projektach. Rośnie przy tym rola profesjonalnego doradztwa i szkoleń dla kadry pedagogicznej – fachowy konsulting, zajęcia stacjonarne czy webinary pozwalają nauczycielom poznać możliwości rozwiązań i pokazać, jak spełnią ich potrzeby, co pomaga w sprzedaży. Ten trend to dobra wiadomość dla partnerów, którzy pełnią rolę doradców, ja też zapewniają obsługę serwisową bądź opiekę posprzedażową.

Duże znaczenie dla klientów w edukacji ma obecnie również dostęp do dodatkowego oprogramowania. W tym kontekście wyraźnie widać, że klienci z sektora edukacji wymagają już nie tylko tego, aby było tanio. – Spodziewamy się, że w najbliższych miesiącach szkoły będą oczekiwać nie tylko dobrej ceny, ale i pełnej wartości dodanej, w tym wsparcia technicznego, szkoleń i serwisu – mówi Piotr Morko.

Uczelniane wymiany sprzętu

W sektorze szkół wyższych popyt nie jest tak uzależniony od publicznych programów wsparcia, jak ma to miejsce na niższych szczeblach edukacji. Przy czym widoczne jest szczególnie zapotrzebowanie na rozwiązania wizualne związane zwłaszcza z modernizacją auli uniwersyteckich.

– Tu zauważamy bardzo sprzyjający dla biznesu projektorowego trend: wymianę starszych modeli lampowych na laserowe. Takich realizacji mamy w tym roku dużo więcej niż w latach poprzednich – mówi Jacek Smak, dyrektor handlowy Sharp NEC Display Solutions.

Do inwestycji przekonują uczelniane władze korzyści z użytkowania sprzętu w technologii laserowej, takie jak brak kosztów eksploatacyjnych (nie trzeba

DOSTAWCY WSKAZUJĄ, ŻE NA ZNACZENIU ZYSKUJE

KONCENTRACJA NA LOKALNYCH

PROJEKTACH. ROŚNIE PRZY TYM

ROLA PROFESJONALNEGO

DORADZTWA I SZKOLEŃ DLA KADRY PEDAGOGICZNEJ.

wymieniać lampy, filtrów), dłuższa żywotność projektorów, mniejszy niż w przypadku lampowych modeli spadek jasności w czasie. Co istotne, wdrożenia w aulach to niemal zawsze duże projekty, a instalowane projektory to sprzęt o wysokich parametrach, z wyższych półek cenowych. Do tego na uczelniach wdrażane są coraz częściej ekrany LED. – Przykładowo, zyskujące na popularności wyświetlacze Direct View LED w widoczny sposób „wkraczają” również do sektora edukacji wyższej – komentuje Jacek Smak.

W tej technologii nie ma panelu LCD, a diody bezpośrednio tworzą obraz, co poprawia jasność, kontrast i kolory. W aulach uniwersyteckich coraz częściej widać ponadto trend łączenia pracy monitora interaktywnego z drugim dużym podstawowym wyświetlaczem: projektorem, ewentualnie z ekranem LED czy ścianą wizyjną. Co istotne, uczelnie zamawiają również największe monitory (np. 86-calowe). Są to zarówno modele dotykowe, jak i klasyczne.

– Dotychczas 70 procent sprzedaży stanowiły monitory 65-calowe. Obecnie ich udział sięga 40 procent, natomiast w przypadku 75-calowych odsetek ten wynosi 35 procent. Pozostałe 25 procent stanowią modele 86-calowe – mówi Maciej Dzidzik z BenQ.

Decydenci z tego sektora wymagają zwłaszcza urządzeń odpornych na uszkodzenia, a w przypadku monitorów cenione są modele z warstwą antyodblaskową i antybakteryjną. Szkoły chętnie wybierają przy tym monitory z systemem Android i certyfikatem EDLA Google’a, co zapewnia im dostęp do usług Google Play i Google Classroom. W kolejnych latach w edukacji można spodziewać się także inwestycji w narzędzia do e-learningu.

– Pandemia przyspieszyła rozwój e-learningu. Niemniej jednak nie zapoczątkowała wykorzystania pełnego potencjału tej formy nauczania, bo wciąż użytkownicy korzystają jedynie z ułamka możliwości, jakie daje edukacja cyfrowa – podsumowuje Kamil Bojarski, Head of e-Learning w Transition Technologies MS. n

Zdaniem specjalisty

Kamil Szmurło, Account Manager, Optoma

WZokresie realizacji programu „Aktywna Tablica” najważniejszym kryterium wyboru sprzętu była często cena. Dziś obserwujemy, że szkoły podejmują decyzje zakupowe w sposób bardziej świadomy, zwracając uwagę na jakość, funkcjonalność i certyfikaty – czego przykładem jest rosnąca sprzedaż naszego flagowego modelu monitora interaktywnego z certyfikatem Google EDLA. Coraz większe znaczenie ma także wsparcie posprzedażowe. W obecnych realiach rynkowych za optymalne uznajemy działania ukierunkowane na budowanie długofalowych relacji z klientami, oferowanie kompleksowego wsparcia i elastyczne dostosowywanie oferty do zmieniających się potrzeb szkół.

auważamy wyraźny wzrost zainteresowania monitorami o przekątnej 75 cali i większymi. Wynika to z faktu, że ich ceny systematycznie spadają, a nauczyciele doceniają komfort pracy na większych ekranach. Widać też wyraźne rozwarstwienie rynku edukacyjnego. Z jednej strony mamy szkoły z ograniczonym budżetem, które poszukują prostych, funkcjonalnych rozwiązań spełniających podstawowe potrzeby nauczycieli i uczniów. Z drugiej – coraz większą grupę stanowią placówki bardziej świadome technologicznie. W tym są uczelnie wyższe, które inwestują w zaawansowane monitory interaktywne z dużymi przekątnymi, wyposażone w kamery, mikrofony i systemy z certyfikatem Google EDLA. Jednak w obu przypadkach wspólnym mianownikiem jest

Paweł Budzik, Business Development Manager, Dahua Technology

rosnące oczekiwanie co do niezawodności sprzętu, gwarancji oraz możliwości zarządzania sprzętem z sieci szkolnej.

Piotr Morko, European Marketing Manager, Newline Interactive

Oczekiwania szkół, samorządów i nauczycieli w ostatnich latach stały się bardziej konkretne. Klienci mają już doświadczenia z wcześniejszych zakupów, również tych realizowanych w ramach dużych programów i potrafią precyzyjnie opisać swoje potrzeby. Coraz częściej pytają nie tylko o cenę czy parametry techniczne, ale też o to, czy sprzęt faktycznie ułatwi im codzienną pracę i będzie prosty w obsłudze od razu po instalacji. Zwracają także uwagę na bezpieczeństwo i komfort użytkowania. Stąd duże zainteresowanie takimi funkcjami jak szyba antybakteryjna czy sprzętowy filtr niebieskiego światła. Wzrosła też świadomość całkowitych kosztów posiadania, szkoły pytają o długość gwarancji, do-

stępność serwisu i czas reakcji na zgłoszenia. Równocześnie coraz większą wagę przykładają do wsparcia po sprzedaży, szkoleń i doradztwa.

Co roku realizujemy dużą liczbę projektów na rynku edukacji. Porównując rok 2025 do poprzedniego, można powiedzieć, że biznes ten jest stabilny z tendencją wzrostową. Co istotne, kierujemy swoją ofertę przede wszystkim do uczelni wyższych. Dlatego nie jesteśmy w żaden sposób zależni od rządowych programów, bo te skupiały się przede wszystkim na edukacji podstawowej i średniej. Projekty, które realizujemy wspólnie z partnerami, to przede wszystkim instalacje projektorowe w salach wykładowych i aulach uniwersyteckich. W związku z licznymi „akcjami” wymiany starszych projektorów lampowych na laserowe, klienci często szukają oszczędności w tej materii.

Jacek Smak, dyrektor handlowy, Sharp NEC Display Solutions

Interaktywna klasa przyszłości

z narzędziami ViewSonic

Monitor interaktywny ViewSonic ViewBoard IFP34 jest rozwiązaniem

o bogatej funkcjonalności, intuicyjnej obsłudze, spełniającym wymogi nowoczesnych placówek edukacyjnych.

Interaktywne ekrany ViewBoard z rodziny IFP34 to narzędzie dydaktyczne dla szkół podstawowych i średnich, które chcą unowocześnić proces nauczania oraz zwiększyć zaangażowanie uczniów. Dzięki zapewnianej przez wbudowany system operacyjny Android 14 z certyfikatem EDLA integracji z aplikacjami ze sklepu Google Play, narzędziem myViewBoard oraz funkcją bezprzewodowej prezentacji AirSync, nauczyciele zyskują możliwość prowadzenia bardziej interaktywnych, dynamicznych lekcji. System zarządzania Manager pozwala natomiast administratorom IT sprawnie kontrolować urządzenia w szkolnej sieci oraz aktualizować ich oprogramowanie.

W ofercie ViewSonic dostępne są trzy modele ekranów ViewBoard IFP34 o rozdzielczości 4K (3840x2160 pikseli), ale różnej przekątnej: 65, 75 i 86 cali. Wbudowana w wyświetlacz TFT LCD z podświetleniem DLED technologia Ultra Fine Touch pozwala na niezwykle płynne i naturalne pisanie, a obsługa do aż 40 punktów dotyku umożliwia jednoczesną interakcję kilku osób. Urządzenia zawierają czterordzeniowy procesor, 8 GB RAM oraz 128 GB pamięci masowej. Dwa porty USB-C (w tym jeden z funkcją ładowania o mocy do 65 W), pięć portów HDMI oraz możliwość integracji z komputerem typu OPS i modułem Wi-Fi zapewniają wszechstronność i łatwość obsługi.

Korzyści płynące z zastosowania monitorów interaktywnych są wielowymia-

rowe – od ułatwienia współpracy między nauczycielami i uczniami, przez poprawę komfortu prowadzenia lekcji, aż po oszczędność energii (model IFP34 dzięki wbudowanym energooszczędnym mechanizmom zużywa o 20 proc. mniej energii niż urządzenia poprzedniej generacji). Zainstalowane w monitorze nowoczesne narzędzia adnotacyjne i zapewniona płynna praca nawet przy wielu uruchomionych aplikacjach czynią z tego ekranu nieocenione wsparcie dla nauczycieli.

myViewBoard: więcej niż tablica

Monitory interaktywne ViewBoard IFP34 wyposażone są w nową wersję oprogramowania myViewBoard 3.0 o w pełni przeprojektowanym interfejsie. Nowy wygląd aplikacji, ikon i narzędzi pozwala nauczycielom skupić się na prowadzeniu lekcji, a nie na obsłudze oprogramowania, zaś uczniom łatwiej angażować się w uczestniczenie w działaniach dydaktycznych. Oprogramowanie to można zainstalować także w innych modelach monitorów ViewSonic, nawet wyposażonych w system Android 11. Aplikacja jest dostępna również w wersji na komputery z systemem Windows, tablety z systemem Android lub iPadOS, a także w wersji przeglądarkowej.

Jedną z kluczowych nowości myViewBoard 3.0 jest obsługa wielu kart, co umożliwia jednoczesne otwieranie i przełączanie się między kilkoma plikami lekcyjnymi. Jest to mechanizm szczególnie przydatny podczas porównywania materiałów, analizy różnych źródeł czy równoległej pracy z interaktywnymi narzędziami i cyfrowymi podręcznikami. Zaimplementowano także możliwość podglądu eksportowanego pliku, co pozwala sprawdzić jego zawartość przed udostępnieniem – mechanizm ten przyspiesza i upraszcza udostępnianie materiałów w chmurze lub za pomocą kodów QR.

W nowej wersji wprowadzono również narzędzia poprawiające dostępność treści. Wśród nich na wyróżnienie zasługuje Irlen Filter, który umożliwia dostosowanie kolorów tła do potrzeb uczniów z dysleksją czy ADHD. Dodano także funkcję „long press” (długie naciśnięcie), która wyświetla spersonalizowane menu narzędzi, co zwiększa płynność pracy bez konieczności zmiany trybu. Inne poprawione wobec poprzednich wersji funkcje obejmują m.in. ulepszoną interakcję w trybie Participate Mode, integrację mechanizmu przekształcania mowy na tekst, tworzenie fiszek oraz automatyczne wyszukiwanie obrazów przy użyciu AI.

Łukasz Giziński

Strategic Partnership Manager – B2B Enterprise – Poland, ViewSonic

Korzyści dla placówek edukacyjnych, wynikające z wdrożenia monitorów interaktywnych ViewBoard IFP34 oraz oprogramowania myViewBoard 3.0, to przede wszystkim oszczędność czasu, dostępność narzędzi wspierających potrzeby specjalne uczniów oraz łatwiejsza i szybsza obsługa. Mechanizmy te wspomagają zarówno proces dydaktyczny, jak i rozwijanie kompetencji cyfrowych u uczniów. Niezależnie od rodzaju szkoły, nauczyciele odnajdą intuicyjne funkcje ułatwiające przygotowanie i prowadzenie lekcji, a uczniowie zyskają możliwość aktywnego udziału w nich.

Łukasz Giziński, Strategic Partnership Manager – B2B Enterprise – Poland, ViewSonic lukasz.gizinski@viewsonic.com

Interaktywne monitory iiyama:

Japoński producent, podążając za oczekiwaniami odbiorców

i wyznaczając kierunek rozwoju

dla konkurencji, wprowadził w interaktywnych monitorach z serii

TE13A i TE15A znaczne ułatwienia

dla użytkowników, w tym dotyczące dzielenia się przez nich efektami swojej pracy.

To dlatego właśnie, przykładowo, dzięki nowym monitorom iiyama szkoła zmienia się w przestrzeń, w której technologia wspiera nauczycieli i uczniów, a nauczanie staje się bardziej angażujące, płynne i intuicyjne. Przy czym odbywa się to w ramach znanego środowiska, jak też intuicyjnej obsługi.

Monitory iiyama serii TE13A i TE15A wykorzystują system Android 14 z certyfikacją Google EDLA, co oznacza pełną kompatybilność z kontami Google, pa-

OBSŁUGA MONITORÓW MARKI

IIYAMA NIE WYMAGA SPECJALISTYCZNYCH NARZĘDZI.

kietem aplikacji Workspace (Gmail, Dysk, Meet, Dokumenty) oraz Microsoft 365. Dla pracowników biurowych i nauczycieli to ogromne ułatwienie – nie trzeba uczyć się nowego systemu, wszystko wygląda i działa tak, jak na zwykłym smartfonie czy laptopie. Dzięki temu obsługa

dla edukacji i wygody

monitora nie wymaga specjalistycznej wiedzy ani dodatkowego przeszkolenia – wystarczy włączyć i działać.

Wbudowane narzędzia, takie jak WhiteBoard czy iiShare do bezprzewodowego udostępniania treści, bądź Quick Radial Menu (menu szybkiego dostępu) umożliwiają błyskawiczne przechodzenie między materiałami, plikami, dokumentami czy trybem pracy. To szczególnie ważne podczas prowadzenia prezentacji, gdzie liczy się płynność i tempo.

Monitory iiyama z serii TE13A i TE15A są certyfikowane przez Google Play Protect. Oznacza to, że użytkownicy mają pewność ochrony przed złośliwym oprogramowaniem i fałszywymi aplikacjami. Dodatkowo, czytnik NFC umożliwia szybkie logowanie i kontrolę dostępu – można zalogować się jednym dotknięciem, co chroni dane przed nieautoryzowanym dostępem.

Precyzja i ekologia

Dzięki zastosowaniu czujnika ruchu PIR, monitor automatycznie wygasza ekran,

gdy w sali nikogo nie ma. To nie tylko przedłuża żywotność urządzenia, ale także realnie zmniejsza zużycie energii.

Serie TE13A i TE15A gwarantują dokładność przy pisaniu i używaniu ich jak kredowej tablicy. Wbudowane głośniki i miejsca na rysiki zwiększają funkcjonalność modeli. Czujnik Pen PickUp aktywuje tryb pisania w momencie podniesienia piórka: bez żadnych opóźnień czy konieczności ręcznego przełączania trybu. Dzięki takim rozwiązaniom monitory są elastyczne i możliwie łatwe w obsłudze.

Dodatkowo, dzięki systemowi iiControl (DMS) administratorzy IT mają pełną kontrolę nad urządzeniami. Mogą zarządzać nimi zdalnie, wprowadzając aktualizacje czy monitorując ich stan. To znaczne ułatwienie w przypadku większych szkół czy firm. Warto też wspomnieć o możliwości szybkiego podłączenia do monitora laptopa, bezpośrednio przez port USB-C, który jednocześnie będzie go ładował.

Monitory interaktywne iiyama to przemyślane narzędzia stworzone z myślą o skutecznym przekazywaniu informacji. Ich największą siłą jest prostota i intuicyjność, znane środowisko pracy oraz rozwiązania, które dbają o bezpieczeństwo i efektywność. W takim ekosystemie można swobodnie pracować, bez konieczności martwienia się o możliwości sprzętu.

Czy chmura naprawdę tanieje?

Średnio 27 do 32 proc. wydatków chmurowych to marnotrawstwo. To tak, jakby zamówić pizzę, zjeść trzy czwarte, a resztę spalić w piecu. I robić tak codziennie.

Pamiętacie jeszcze te prezentacje z początku okresu cyfrowej transformacji, gdy dostawcy usług chmurowych z błyskiem w oku tłumaczyli, że nadchodzi koniec zmartwień? Z dużą dozą pewności siebie dowodząc, że nie trzeba już inwestować w serwerownie, UPS-y i licencje na kilka lat z góry? Wystarczy kliknąć „deploy”, ustawić skalowanie i gotowe: koszty spadają, wydajność rośnie, a szef IT może wreszcie z czystym sumieniem pojechać na urlop. Miało być tanio, elastycznie i bezpiecznie. Jak w przypadku elektryczności – klient płaci za stałe elementy umowy, a dodatkowo rozlicza się precyzyjnie za to, co zużywa.

Z najnowszych raportów Canalysa i Flexery wynika, że globalne wydatki na chmurę rok do roku wzrosły o 21 proc., osiągając poziom niemal 91 mld dol. w samym pierwszym kwartale 2025 r. Świetnie, prawda? Tylko skąd tak duży wzrost, skoro w podobnej cenie można dostać coraz większą moc obliczeniową i przestrzeń pamięci masowej (a więc można uznać, że jednostkowe ceny spadają)? Statystyka ta nie odzwierciedla też spowolnionych trendów migracji do chmury ani wzrostu przedsiębiorstw.

Problem w tym, że prawie nikt nie wie, co tak naprawdę uruchomił w tym swoim chmurowym „zoo”. Według badań Flexery aż 84 proc. firm przyznaje, że nie radzi sobie z zarządzaniem wydatkami w chmurze, przy czym większość z nich nie wie, gdzie trafiają ich pieniądze. Średnio o 17 proc. przekraczają budżet, a na przyszły rok planują… zwiększenie inwestycji o 28 proc. Optymizm w IT najwyraźniej jest zasobem odnawialnym… Jednocześnie, jak podaje Flexera w swoim raporcie „2024 State of the Cloud”, aż 94 proc. firm używa więcej niż jednej chmury, co oznacza, że multi-cloud stał się nie wyborem, a koniecznością. Tyle że zamiast elastyczności, firmy często otrzymują po prostu podwójną dawkę chaosu. Ktoś wrzucił coś do Azure’a, ktoś inny do AWS-u, a potem okazało się, że obie aplikacje same między sobą komunikują się przez publiczny internet i nikt nie „ogarnia” czy w jakikolwiek sposób transfer ten wpływa na rachunki oraz która wersja mikroserwisu jest produkcyjna.

Raport Flexery pokazuje też, że FinOps w firmach to nadal raczej marzenie niż rzeczywistość: tylko 28 proc. respondentów deklaruje, że w pełni wdrożone zostały u nich praktyki zarządzania kosztami w chmurze. Reszta jest na etapie „planujemy” lub – co gorsza – „nie słyszeliśmy”. A przecież te same firmy inwestują rocznie po kilkadziesiąt milionów dolarów w środowiska chmurowe, licząc, że jakoś to będzie. I na koniec: crème de la crème. Według Flexery aż 82 proc. firm ma problemy z dokładnym szacowaniem kosztów chmurowych, a 41 proc. uznało „kontrolę wydatków” za największe wyzwanie w tym obszarze. Czyli nie wiemy, ile wydajemy, ale wydajemy dużo. A jak się coś nie zgadza, to

przecież zawsze można przerzucić winę na „nieprzewidziane obciążenia” albo „eksperymentalne środowiska R&D”, zaś na koniec miesiąca i tak wszystko księgujemy jako „inwestycję w innowacje”…

Z tych samych raportów wynika, że średnio 27 do 32 proc. wydatków chmurowych to marnotrawstwo. To tak, jakby zamówić pizzę, zjeść trzy czwarte, a resztę spalić w piecu. I robić tak codziennie, przez cały rok, a na koniec z dumą zapłacić rachunek. Tak właśnie robią firmy z nieskasowanymi instancjami aplikacji, niepotrzebnymi kopiami baz danych i backupami sprzed dwóch dekad.

Jednak najciekawszy w tym wszystkim jest paradoks skali. Im bardziej przedsiębiorstwo się rozwija, tym więcej marnuje. Bo to właśnie duże firmy najczęściej wpadają w pułapkę „cloud driftu”, czyli momentu, gdy nikt już nie wie, co dokładnie działa, gdzie i po co. Architektura? Ktoś kiedyś zaprojektował, potem dołożyliśmy AI, potem mikroserwisy, a potem wszystko zaczęło żyć własnym życiem.

W tle tego wszystkiego dzieje się jeszcze cicha, ale znacząca rewolucja: repatriacja. Wiele firm odkrywa, że powrót do infrastruktury on-premise wcale nie jest głupim pomysłem. Że może jednak, o zgrozo, warto zainwestować we własny sprzęt i odzyskać kontrolę nad tą całą cyfrową menażerią. I że czasem taniej jest kupić nowy serwer, niż przez rok płacić za „elastyczność”, z której nikt nie korzysta.

Oczywiście chmura nie jest zła. To nie ona jest winna, że nikt w firmie nie zadał sobie trudu, aby ją zrozumieć. Problem w tym, że została sprzedana jako magiczne pudełko, które rozwiąże wszystkie problemy. Tymczasem to raczej laboratorium chemiczne: możesz stworzyć cudowny lek albo spektakularnie wszystko wysadzić w powietrze (czyli – nomen omen – do chmury). A większość zespołów IT dostaje do ręki pipety, nie wiedząc nawet, że powinny założyć okulary ochronne. Na koniec dodajmy jeszcze jeden czynnik: sztuczną inteligencję. Tak, AI to przyszłość, więc każdy chce mieć swój LLM i model predykcyjny, ale mało kto zauważa, że koszty inferencji (czyli działania modelu, nie jego trenowania) potrafią być wielokrotnie wyższe od samego wdrożenia. I że nagle każda aplikacja „z AI” generuje ruch sieciowy, koszty przechowywania danych i zużywa takie ilości mocy obliczeniowej, które potrafią zrujnować każdy budżet. I tak dochodzimy do sedna sprawy: nominalnie, na papierze, cennikowo chmura tanieje. Natomiast realnie koszty spadają tylko w przypadku firm, które zadbały o właściwe procesy oraz dysponują sprawującym nad nimi kontrolę zespołem, który rozumie co robi. Dla wszystkich innych to nadal kosztowa czarna dziura. Elegancka, z popularnym logo i certyfikatem ISO, ale jednak wciąż czarna dziura.

Krzysztof Jakubik redaktor prowadzący Vademecum rynku IT oraz dziennikarz CRN Polska

ZAMIAST

ELASTYCZNOŚCI, FIRMY CZĘSTO OTRZYMUJĄ PO PROSTU PODWÓJNĄ DAWKĘ CHAOSU.

Kiedy AI przemysł? zrewolucjonizuje

„Obecnie o przewadze konkurencyjnej nie decyduje dostęp do tanich surowców, energii czy siły roboczej, ale poziom wykorzystania cyfryzacji, automatyzacji i sztucznej inteligencji” – mówi Paweł Dziadosz, prezes Grupy DPS.

Z jakimi wyzwaniami obecnie mierzy się polski przemysł?

Polska gospodarka napędzana jest głównie przez produkcję przemysłową, która przez ostatnich 5 lat wystawiana była na turbulencje w obszarach makroekonomicznym, społecznym, środowiskowym i regulacyjnym. W tak trudnych do przewidzenia warunkach rynkowych nie dziwi obecna obawa przed wdrażaniem nowoczesnych technologii – zarówno z perspektywy ryzyka finansowego, jak i braku sprawdzonych wzorców. Mimo tego, że wiele polskich firm deklaruje wprowadzanie innowacji, w rzeczywistości są to działania łatające cyfrowe luki powstałe w czasach, gdy produkcja nie nadążała za sprzedażą. Jednak każde, nawet najmniejsze działanie podjęte na rzecz poprawy produktywności jest istotnym elementem digitalizacji, ponieważ w tym obszarze nie ma drogi na skróty. Żeby analizować dane, trzeba zacząć je pozyskiwać ze wszystkich działów i zintegrować w centralnym systemie, na przykład klasy ERP, co zapewni pełny widok na funkcjonowanie całej firmy. Dopiero wtedy można myśleć o wykorzystaniu algorytmów AI do wspierania procesów decyzyjnych. Obecnie o przewadze konkurencyjnej nie decyduje dostęp do tanich surowców, energii czy siły roboczej, ale poziom wykorzystania cyfryzacji, automatyzacji i sztucznej inteligencji.

Czy w obszarze zaawansowanego oprogramowania inżynieryjnego sztuczna inteligencja będzie raczej ewolucją — wspierającą człowieka — czy rewolucją, która go zastąpi?

AI automatyzuje rutynowe zadania, wspiera projektowanie i analizę, ale nie zastąpi ludzkiej kreatywności ani intuicji, które są kluczowe w tworzeniu innowacji. Przełomowe pomysły powstają z wyobraźni i odwagi podejmowania ryzyka, a to cechy, których sztuczna inteligencja nie posiada. Może ona znacząco zwiększyć efektywność, ale działa w granicach dostępnych danych i znanych wzorców. Dlatego pełni rolę asystenta, a nie twórcy. Firmy, które rozumieją tę zależność, inwestują w systemy i infrastrukturę wspierającą AI, traktując ją jako narzędzie wspomagające rozwój, a nie zagrożenie dla ludzi.

W jakim kierunku zmierza przyszłość tego typu rozwiązań?

Kluczowym elementem tej transformacji jest pełna integracja systemów IT i OT oraz danych na wszystkich etapach cyklu życia produktu – od projektowania, przez produkcję, aż po sprzedaż i serwis. Coraz większe znaczenie zyskują wirtualne bliźniaki oraz zintegrowane platformy zarządzania cyklem życia produktu – PLM-y, które łączą w sobie funkcje projektowania, symulacji, analizy i zarządzania. AI będzie odgrywać istotną rolę nie tylko w procesach inżynieryjnych, ale również w takich obszarach jak marketing, sprzedaż, serwis, HR i kontrola jakości. Szczególną wagę zyskują technologie predykcyjne, optymalizacja topologii, generatywne projektowanie oraz systemy CPQ, które automatyzują procesy wyceny i ofertowania. W perspektywie nadchodzących lat kluczowy będzie rozwój Przemysłu 5.0, w którym człowiek współpracuje z tech-

nologią, a nacisk kładzie się na zrównoważony rozwój, minimalizowanie kosztów oraz personalizację produktów. Sztuczna inteligencja ma w tym modelu wspierać działania człowieka, zwiększając ich efektywność i ułatwiając podejmowanie decyzji, a nie go zastępować.

Spółki Grupy DPS stworzyły kilka autorskich rozwiązań. Jaką rynkową lukę one wypełniają?

Jesteśmy tam, gdzie brakuje specjalistycznej wiedzy, funkcjonalności i integracji między gotowymi systemami. Nasze zdobywane przez dekady doświadczenie pozwoliło stworzyć unikatowe metody rozliczania produkcji, procesy optymalizacji pracy maszyn CNC i automatyzacji z wykorzystaniem cobotów. Jesteśmy twórcami konfiguratora produktów online, który szybciej i sprawniej oraz bez pomyłek umożliwia klientowi samodzielnie spersonalizować i wycenić produkt, a następnie automatycznie tworzy technologię i zlecenia produkcyjne w systemie ERP, bez potrzeby ręcznego przepisywania danych. Dlatego obecnie, w dobie mody na sztuczną inteligencję, kluczowy jest wybór właściwego partnera, który łączy nowoczesne technologie z praktycznym know-how i skutecznie wspiera cyfrową transformację.

6 konkretów

od SUSE

Doświadczony producent oprogramowania open source udowadnia, że rozwiązuje ono realne problemy klientów.

Rosnące koszty infrastruktury, złożoność środowisk hybrydowych, wymogi zgodności regulacyjnej, presja na bezpieczne wdrożenie sztucznej inteligencji oraz utrzymanie suwerenności cyfrowej. To są konkretne, trudne wyzwania, przed którymi stoją klienci biznesowi w czasach nieustannej cyfrowej transformacji. SUSE – wraz ze swoimi partnerami – może pomóc uporać się z nimi oferując otwarte i bezpieczne rozwiązania. Poniżej opisujemy możliwy sposób podejścia do sześciu, które w obecnym czasie należy uznać za kluczowe.

Problem 1: „On-prem, chmura, kontenery, czyli przepis na chaos. Jak tym zarządzać?”

Większość firm działa dziś w środowisku hybrydowym, gdzie każdy komponent jest zarządzany osobno. Złożoność zarządzania środowiskami konteneryzacji i chmury hybrydowej upraszcza SUSE Rancher Centralizuje zarządzanie Kubernetesem niezależnie od lokalizacji (on-prem, AWS, Azure, GCP). Upraszcza wdrażanie, monitoring i utrzymanie aplikacji kontenerowych, redukując czas na zarządzanie Kubernetesem o 70 proc.

Problem 2: „VMware nas dusi – szukamy alternatywy”

Rosnące koszty licencji, niepewność po przejęciu przez Broadcom, vendor lock-in – to dziś najczęstsze skargi działów IT. Opierając się na otwartych standardach, SUSE Virtualization oferuje stabilne i wydajne środowisko do wirtualizacji cloud-native. Obniża koszty licencyjne

i utrzymania infrastruktury nawet o 30–40 proc. poprzez migrację z rozwiązań własnościowych.

Problem 3: „Jak zapewnić zgodność z NIS 2 i DORA?”

Wzrost zagrożeń cybernetycznych i coraz bardziej rygorystyczne przepisy, jak NIS 2 i DORA (dla sektora finansowego), stawiają przed firmami nowe wyzwania w zakresie bezpieczeństwa i zgodności. SUSE Security i SUSE Observability oferują zintegrowane podejście do ochrony infrastruktury IT i aplikacji. SUSE Security zawiera zaawansowane mechanizmy zabezpieczeń na poziomie systemu operacyjnego i kontenerów. SUSE Observability kompleksowo monitoruje wydajność i stan całego środowiska, wcześnie identyfikując problemy oraz przypadki naruszenia bezpieczeństwa.

Problem 4: „Chcemy korzystać z AI i edge, ale

bezpieczeństwaz gwarancją i kontroli”

Sztuczna inteligencja (AI) i przetwarzanie na brzegu sieci (Edge) to technologie, które redefiniują sposób działania biznesu. Ich wdrażanie wiąże się z obawami o koszty, bezpieczeństwo danych i zgodność z regulacjami. SUSE AI dostarcza stabilną i bezpieczną platformę dla wdrażania i zarządzania AI w centrum danych i na brzegu sieci. SUSE Edge z kolei pomaga przetwarzać dane bliżej ich źródła, co jest kluczowe dla aplikacji wymagających niskich opóźnień i wysokiej dostępności. Od fabryk po inteligentne miasta, SUSE Edge zbiera i przetwarza dane w czasie rzeczy-

wistym, otwierając drzwi do nowych modeli biznesowych.

Problem 5: „Potrzebujemy niezawodności i niskich kosztów utrzymania infrastruktury”

Systemy SUSE Linux Enterprise od lat stanowią fundament dla aplikacji biznesowych, są znane z niezawodności, bezpieczeństwa i wydajności. Szczególnie dla użytkowników SAP, SUSE Linux Enterprise Server for SAP Applications to standard. Zapewnia najwyższą dostępność i wydajność pracy aplikacji SAP, w tym SAP HANA, przynosząc miliony złotych oszczędności rocznie.

W środowiskach wielosystemowych, SUSE Multi-Linux Support i SUSE Multi-Linux Manager efektywnie zarządzają z jednego miejsca różnymi dystrybucjami Linuksa – w tym CentOS i RHEL, obniżając koszty operacyjne i na subskrypcje nawet o 50 proc., jak w PLL LOT.

Problem 6: „Potrzebujemy suwerenności cyfrowej z uwagi na niepewność sytuacji na rynkach”

W dobie rosnącej troski o cyfrową suwerenność, otwarte oprogramowanie staje się strategicznym wyborem. Systemy oferowane przez SUSE dają użytkownikom pełną kontrolę nad ich infrastrukturą, procesami oraz danymi, eliminują ryzyko vendor lock-in i zapewniają przejrzystość działania systemów. Stanowią klucz do budowy bezpiecznych oraz niezależnych ekosystemów IT.

Korzyści dla partnerów SUSE

SUSE zapewnia partnerom między innymi bezpłatne szkolenia i certyfikacje techniczne, rejestrację projektów, wsparcie cenowe i techniczne dla projektów oraz bliską współpracę presales i marketingową. Z SUSE można nie tylko sprzedawać, ale realnie współtworzyć architekturę IT klienta – od migracji z VMware, przez wdrożenie konteneryzacji, chmury hybrydowej, po obsługę AI i zgodność z NIS 2.

Autoryzowanym dystrybutorem rozwiązań SUSE jest Ingram Micro – zapraszamy do współpracy!

Kontakt dla partnerów:

Radosław Czubaszek, Partner & Distribution Development Manager, SUSE tel. 602-406-294, radoslaw.czubaszek@suse.com.

Polski rynek DC

skutki przyspieszonej ewolucji

Transformację branży data center stymuluje rozwój sztucznej inteligencji, jednocześnie zwiększając zapotrzebowanie na moc obliczeniową i energię.

WBOOM NA GIGAKAMPUSY WIĄŻE SIĘ Z OGROMNYMI

POTRZEBAMI ENERGETYCZNYMI.

mediach wiele mówi się na temat faktycznych i rzekomych korzyści związanych z AI, natomiast znacznie mniej o wyzwaniach, które trzeba pokonać, by wszystko sprawnie wdrożyć i sprzętowo obsłużyć. Tymczasem w przypadku centrów danych AI wnosi obciążenia obliczeniowe o nieznanej dotąd skali, a wymogi ESG wydają się być w opozycji do tych potrzeb. Zdania w tej ostatniej kwestii są podzielone, natomiast nie ma wątpliwości co do tego, że sztuczna inteligencja konsekwentnie zmienia architekturę centrum danych i to na każdym poziomie. Serwery integrują układy CPU z GPU, a także jednostkami przetwarzania tensorowego (TPU), wyposażonymi w pamięć o wysokiej przepustowości. – Ciekawym trendem jest próba przełamania dominacji układów GPU na

rzecz TPU, czyli specjalistycznych układów opartych o architekturę ASIC dedykowanych do konkretnych zadań. Kilka lat temu podobny ruch zmienił rynek koparek bitcoinów i niewykluczone, że tak samo stanie się w omawianym przypadku – mówi dr Rafał Jakubowski, AI Architect w Billennium.

Co ważne, w transformacji AI tak samo ważna jak przygotowanie infrastruktury jest także gotowość kadr. Centra danych będą potrzebować inżynierów rozumiejących złożone systemy, ale również potrafiących myśleć nieszablonowo.

– Branża będzie potrzebować nowego rodzaju specjalistów, którzy mają kreatywne podejście do rozwijania agentów

Czy polskie centra danych będą korzystać z SMR-ów?

Rosnąca rola sztucznej inteligencji i nacisk na dekarbonizację zwiększają znaczenie tzw. niskoemisyjnych źródeł energii. Dlatego optymistyczną informacją może być to, że coś się zaczyna dziać w obszarze najbardziej pożądanego przez operatorów sposobu zasilania centrów danych, czyli małych reaktorów modułowych (SMR). Niedawno Orlen Synthos Green Energy (OSGE) i Stowarzyszenie Polish Data Center Association (PLDCA) powołały grupę roboczą ds. wykorzystania modułowych reaktorów jądrowych do zasilania centrów danych. Celem współpracy jest opracowanie strategii dostarczania czystej, stabilnej energii dla dynamicznie rosnącego sektora data center w Polsce. Ze swojej strony OSGE promuje wykorzysta-

AI. Ewolucja rozwiązań technicznych musi iść w parze z rozwojem kwalifikacji pracowników –  podkreśla Krzysztof Krawczyk, Strategic Account Engineer w Vertivie.

Skąd wziąć tyle energii?

Niezależnie od tego, czy mamy obecnie do czynienia z rewolucją czy ewolucją, to skala i tempo zachodzących zmian robią wrażenie na każdym z uważnych obserwatorów rynku DC. Współczesne centra danych przestają być pojedynczymi obiektami, stając się gigantycznymi kampusami AI o mocy setek megawatów, a wkrótce nawet gigawatów. Ten boom na gigakampusy napędza eksplozja za-

nie reaktorów BWRX-300, które mogą nie tylko zasilać centra danych, ale też dostarczać ciepło systemowe, wspierając dekarbonizację ciepłownictwa. Głównym celem grupy roboczej PLDCA i OSGE jest opracowanie tzw. białej księgi opisującej możliwości współpracy pomiędzy branżą centrów danych a dostawcami SMR-ów, korzyści wynikające z wspólnej realizacji projektów oraz ewentualne ograniczenia i wyzwania z tym związane. Dokument będzie zawierał omówienie technologicznych aspektów obu sektorów, określenie pola synergii oraz rekomendacje dotyczące potencjalnych zmian legislacyjnych i deregulacyjnych ułatwiających współpracę między obiema branżami.

Zdaniem specjalisty

Krystian

Pypłacz, dyrektor operacyjny

Data4 Polska, członek rady programowej

Polish Data Center Association

CWoraz większe potrzeby energetyczne stawiają branżę data center pod rosnącą presją w obszarze środowiskowym. Liderzy nie czekają na regulacje i sami wdrażają strategie ograniczania emisji w ramach Scope 1, 2 i 3, stosując niskoemisyjne paliwo HVO, energię z OZE oraz analizę cyklu życia (LCA), by minimalizować ślad węglowy na każdym etapie realizacji inwestycji oraz eksploatacji obiektu. Ta kwestia będzie zajmować coraz więcej naszej uwagi z racji oczekiwań społecznych, ale też zobowiązań naszych klientów. W ostatnim czasie wiele dyskusji branżowych porusza też temat odzysku ciepła – to zasób centrów danych, który ma naprawdę wiele możliwości zastosowań i już dziś chcemy z niego korzystać. Odzyskanie ciepła odpadowego pozwala obniżyć zużycie energii pierwotnej, zmniejszyć emisję CO₂ i obniżyć koszty operacyjne.

ramach modernizacji data center operatorzy wybierają rozwiązania nie tylko ze względu na możliwości, lecz także zgodność z wymogami prawnymi czy środowiskowymi. Istotne przy tym są również łatwość serwisowania sprzętu oraz renoma producenta. Jednym z kluczowych czynników wpływających na decyzje są regulacje dotyczące bezpieczeństwa infrastruktury IT. Pierwszoplanową rolę w tym zakresie będzie odgrywać nowelizacja ustawy o Krajowym Systemie Cyberbezpieczeństwa, dostosowująca do polskiego prawa dyrektywę NIS 2. Nowe przepisy nałożą na operatorów infrastruktury cyfrowej obowiązki związane z podnoszeniem odporności systemów IT. Obejmie to zapewnienie ciągłości działania

Robert Sepeta, Business Development Manager, Kingston

usług, wdrożenie oraz utrzymywanie sprawnych systemów zarządzania bezpieczeństwem informacji, stałe monitorowanie i raportowanie incydentów, a także przeprowadzanie testów bezpieczeństwa.

potrzebowania na moc obliczeniową dla AI, co niesie za sobą ogromne potrzeby energetyczne.

– Już dziś globalna moc centrów danych sięga 55–60 GW, z czego około 60 procent zużywają operatorzy hiperskalowi i dostawcy chmurowi, a do 2027 roku popyt może wzrosnąć do 84 GW – ocenia Krystian Pypłacz, dyrektor operacyjny w polskim oddziale Data4.

Gęstość mocy w szafach serwerowych zaczyna regularnie przekraczać 100 kilowatów, a obiekty o mocy 10 megawatów, niegdyś uważane za znaczące, dziś pełnią jedynie rolę instalacji brzegowych. Wszystko to prowadzi do wielkiego zwiększania gęstości mocy, a co za tym idzie konieczności zapewnienia skutecznego zasilania i chłodzenia. Dlatego zoptymalizowana pod kątem obsługi AI dystrybucja zasilania, chłodzenie cieczą oraz automatyzacja stają się standardem w centrach danych. Kluczowe w tym zakresie jest opracowanie współdziałania tych systemów, co pozwoli im na bardziej efektywne działanie.

– Z powodu dostępności energii, kompetencji lokalnych kadr oraz potencjału dalszego rozwoju infrastruktury ważne jest też strategiczne podejście do wyboru lokalizacji, zwłaszcza w przypadku nowych inwestycji. Coraz częściej GĘSTOŚĆ MOCY W SZAFACH

Cezary Gutowski, Sales Support Manager, Secure Power, Schneider Electric

Obecnie mamy do czynienia z dynamiczną transformacją architektury centrów danych. Jej celem jest nie tylko zwiększenie wydajności, ale też podniesienie odporności operacyjnej i zapewnienie zgodności ze standardami zrównoważonego rozwoju. Wśród kluczowych trendów w tej branży wyróżnia się dynamiczną adopcję technologii chłodzenia cieczą. Stanowi to odpowiedź na rosnące wymagania związane z rozwojem sztucznej inteligencji oraz przetwarzaniem ogromnych wolumenów danych. Równolegle rośnie znaczenie alternatywnych źródeł energii i systemów jej magazynowania, takich jak generatory na HVO czy ogniwa paliwowe. Technologie te zwiększają niezależność energetyczną oraz odporność operacyjną centrów danych,

co jest kluczowe w kontekście rosnącego zapotrzebowania na niezawodne i zrównoważone rozwiązania infrastrukturalne.

Więcej mocy cieplnej oznacza docelowo konieczność przejścia na systemy chłodzenia bezpośredniego układów obliczeniowych cieczą, a zatem w serwerowni pojawia się nowy element – Cooling Distribution Unit. Jeśli chodzi o systemy UPS, to muszą być przygotowane na impulsowy charakter obciążeń AI i, tam gdzie to możliwe, zapewniać obsługę alternatywnych źródeł energii. Przy obliczaniu parametrów UPS należy również uwzględnić zapotrzebowanie na energię wspomnianego urządzenia CDU. Stałym elementem serwerowni stają się szynoprzewody nad rzędami szaf. To elegancki i bezpieczny sposób, aby rozprowadzić zasilanie po serwerowni wysokiej gę-

Vertiv otrzymał certyfikat Channel Master 2025

Schneider Electric otrzymał certyfikat

Channel Master 2025

Paweł Poziemski, Application Engineer, Vertiv

stości, w przeciwieństwie do wężowiska grubych przewodów pod podłogą. W tym kontekście przydatne są listwy zasilające, które stanowią też element monitoringu warunków środowiskowych.

obserwujemy ścisłą współpracę z operatorami sieci elektroenergetycznych już na etapie planowania inwestycji, co pozwala lepiej zarządzać procesem budowlanym i integracją z siecią – mówi Cezary Gutowski, Sales Support Manager, Secure Power w Schneider Electric. Jednym z ważnych wniosków tegorocznej Debaty CRN „Centra danych w erze AI” było to, że przyszłością dla branży data center mogą być SMR-y, czyli małe reaktory modułowe. Uczestnicy debaty zgodzili się co do tego, że wyjątkowo dobrze pasują do modelu działania centrów danych, a przy tym są niskoemisyjne. Pojawiają się teraz informacje, że coś „w tym temacie” ruszyło (zob. ramka na str. 26).

Wielka moc pod kontrolą

Najważniejszą konsekwencją zmian w centrum danych jest wspomniany już wzrost gęstości mocy na szafę. A to pociąga za sobą dwa podstawowe warunki: do takiej szafy trzeba dostarczyć energię elektryczną i odebrać wytworzone z niej ciepło. W dodatku systemy zasilania i chłodzenia muszą radzić sobie nie tylko z wielką gęstością mocy, ale także niezwykle zmiennym zapotrzebowaniem na nią serwerów i innych urządzeń obsługujących AI, której działanie objawia się bardzo dużymi skokami poboru mocy.

– Rosnące wymagania serwerów AI sprawiają także, że koniecznością staje się chłodzenie cieczą (DLC). Jednak branża wciąż nie ma jednego standardu, a każde rozwiązanie to kompromis między wydajnością, bezpieczeństwem i odpowiedzialnością. W przeciwieństwie do prostego podpięcia zasilania, układ chłodzenia z wykorzystaniem wody wymaga zaawansowanej inżynierii: od doboru złącz, przez redundancję, aż po jakość i przepływ płynu – tłumaczy Krystian Pypłacz.

Przy czym regulacje prawne (w tym ESG) wymuszają stosowanie konkretnych procedur i rozwiązań, w związku z tym centra danych inwestują w tzw. zieloną energię, recykling ciepła i optymalizację zużycia energii.

– Po intensywnym okresie rozwoju metod i budowie coraz bardziej wydajnych centrów danych uwaga branży powinna skupić się na optymalizacji energetycznej. Już wiadomo, że pogoń za byciem liderem sprawiła dramatyczny wzrost emisji CO2 przez centra obliczeniowe największych dostawców,

CHŁODZENIE CIECZĄ STAJE SIĘ KONIECZNOŚCIĄ, ALE BRAKUJE

TU JEDNEGO STANDARDU.

Zdaniem integratora

Dr Rafał Jakubowski, AI Architect, Billennium

Rewolucję przeżywa sektor systemów chłodzenia, gdzie tradycyjne rozwiązania powietrzne ustępują miejsca innowacyjnym metodom liquid coolingu i immersion coolingu. Wzrost gęstości mocy w nowoczesnych serwerach AI sprawia, że konwencjonalne chłodzenie staje się niewystarczające, a nowe technologie oferują nie tylko lepszą efektywność energetyczną, ale również możliwość odzyskiwania ciepła odpadowego do innych zastosowań. Tu znów otwiera się pole dla pewnego „uzielenienia” technologii – odzysk z centrów danych ciepła, które można wykorzystać do ogrzewania budynków, jak też wody w obiektach przemysłowych czy mieszkalnych. To bardzo interesują-

cy kierunek, wynikający ze wzrostu świadomości społeczeństwa i konieczności szukania rozwiązań korzystnych dla środowiska.

Trendy i zjawiska w świecie technologii to efekt dwóch czynników: innowacji i regulacji. Przedsiębiorstwa chcą korzystać ze swoich danych, wykorzystując AI, ale jednocześnie obawiają się o bezpieczeństwo. Dużo wysiłku będzie włożone w uzyskanie zgodności z regulacjami – dostosowanie się do wymogów AI Act i NIS 2. Rezerwowanie prywatnej mocy obliczeniowej dla LLM tworzy inny problem, którym jest koszt energetyczny. Wydajne GPU pochłaniają olbrzymie ilości energii, przykładowo serwery AI odpowiadają już za 24 procent jej zużycia. Powstały więc ograniczenia, w tym normy ESG, a firmom zależy na wizerunku proekologicznych. Z punktu widzenia firmy wdrażającej hurtownie danych, najchętniej korzy-

Bartłomiej Głowacki, CEO BR Solutions, członek Stowarzyszenia ITCORNER

stamy z rozwiązań natywnie wspierających i na bieżąco wdrażających zgodność z najnowszymi standardami.

Piotr Seferyński, Senior System Engineer, Engave

Stuczna inteligencja generuje ogromne obciążenia obliczeniowe, szczególnie w zastosowaniach takich jak modele językowe, analiza obrazu czy symulacje. Wymaga to wysokiej gęstości mocy i zaawansowanego chłodzenia, na przykład cieczą. W tym celu projektowane są szafy z osprzętem do chłodzenia bardzo wymagających i obciążonych serwerów z zainstalowanymi coraz częściej wydajnymi układami graficznymi generującymi duże ilości ciepła. Nowe technologie chłodzenia i zasilania skupiają się na zwiększeniu efektywności energetycznej i wydajności. Rozwijane są zaawansowane systemy chłodzenia adiabatycznego, wdraża się inteligentne zarządzanie oraz hybrydowe systemy

chłodzenia, działające na zasadzie ciecz-powietrze, bądź ciecz-czynnik chłodniczy. A jeśli chodzi o zrównoważony rozwój to jest to nie tylko wymóg regulacyjny, ale także element rynkowej konkurencyjności centrum danych.

a to zdecydowanie jest nie do pogodzenia z celami klimatycznymi i rosnącą presją regulacyjną – uważa Rafał Jakubowski.

Nie tylko wielkie kampusy

Pomimo tego, że moce i powierzchnie gigakampusów muszą robić wrażenie, coraz ważniejszą rolę odgrywają także te najmniejsze wdrożenia. Znaczenie edge computingu oraz małych obiektów brzegowych rośnie, ponieważ dzięki nim moc obliczeniowa i pamięci masowe znajdują się jak najbliżej źródeł generowania danych. W rezultacie mniej procesów odbywa się w chmurze, co rozwiązuje problemy z wnoszącym opóźnienia przesyłaniem danych na duże odległo-

Engave otrzymał tytuł IT Master 2025

ści. Pozwala to na szybsze reakcje, mniejsze zużycie pasma i może zapewniać większe bezpieczeństwo danych (o ile się o to zadba).

– Obserwujemy rosnące znaczenie edge computingu, który fundamentalnie zmienia architekturę przetwarzania danych. Przesunięcie obliczeń bliżej użytkowników końcowych nie tylko redukuje opóźnienia krytyczne dla aplikacji działających w czasie rzeczywistym, ale również odciąża główne centra danych. Ten trend jest szczególnie widoczny w branżach takich jak automotive czy IoT, gdzie milisekundy mogą decydować o bezpieczeństwie i efektywności systemów – podsumowuje Rafał Jakubowski. n

Vertiv:

chłodzenie cieczą

jest cool

Chłodzenie cieczą jako odpowiedź na wyzwania

AI i zrównoważonego rozwoju – Vertiv CoolChip

CDU i Vertiv CoolLoop Trim Cooler.

Transformacja cyfrowa – przyspieszona przez rozwój AI, edge computingu oraz automatyzacji – prowadzi do gwałtownego wzrostu gęstości mocy obliczeniowej na szafę, zwłaszcza w środowiskach intensywnie wykorzystujących układy GPU. To z kolei znacząco zwiększa zapotrzebowanie na wydajne, skalowalne i energooszczędne systemy chłodzenia. Tradycyjne chłodzenie powietrzem przestaje być wystarczające – zarówno pod względem wydajności, jak i efektywności energetycznej. W tej sytuacji chłodzenie cieczą zyskuje na znaczeniu jako technologia nie tylko skuteczna, ale również zgodna z zasadami zrównoważonego rozwoju. W odpowiedzi na rosnące temperatury cieczy chłodzącej, Vertiv wprowadził do swojej oferty nowe rozwiązanie: Vertiv CoolLoop Trim Cooler – agregat chłodzący zaprojektowany z myślą o współpracy z układami chłodzenia cieczą, takimi jak Vertiv CoolChip CDU. Trim Cooler to urządzenie wyposażone w dużą chłod-

l Zaprojektowany z myślą o środowiskach dużej gęstości (w tym obsługujących AI) z poprawą efektywności o niemal 70 proc.

l Zapewnia chłodzenie z parametrem LWT (określającym temperaturę wody wylotowej z agregatu) z zakresu od 20 do 40°C, dostosowane do nowych generacji procesorów.

l Zapewnia moc chłodzenia od 850 KW do 2,6 MW, z możliwością osiągnięcia 3 MW, przy LWT = 40°C.

l Kompaktowa konstrukcja oferująca wzrost wydajności chłodzenia o ponad 40 proc.

l Zaprojektowany do chłodzenia cieczą, do tradycyjnego chłodzenia powietrzem, jak i chłodzenia hybrydowego.

l Łatwa integracja z systemami Vertiv

nicę freecoolingową oraz w sprężarki, które wspomagają freecooling w sytuacjach, gdy temperatura zewnętrzna jest za wysoka. Zatem Trim cooler stanowi niezawodne zabezpieczenie w układach chłodzenia cieczą, zapewniając stabilność systemu nawet przy wysokich temperaturach zewnętrznych, w których same drycoolery, nawet wspomagane adiabatą, nie uzyskałyby wymaganej temperatury cieczy. Wymagania dotyczące temperatury cieczy nieustannie się zmieniają, dlatego kluczowe jest stosowanie elastycznych rozwiązań chłodzenia. Trim cooler może działać w zmiennym punkcie pracy – generując zarówno niższe, jak i wyższe temperatury cieczy chłodzącej, w zależności od bieżących potrzeb systemu.

Nowe standardy chłodzenia – podejście hybrydowe

Vertiv konsekwentnie rozwija rozwiązania, które łączą chłodzenie cieczą z klasycznymi systemami powietrznymi, tworząc

CoolChip CDU i Vertiv CoolCenter Immersion.

l Zoptymalizowany pod kątem wykorzystania freecoolingu w celu zminimalizowania zużycia energii.

l Zgodny z najważniejszymi obecnymi i przewidzianymi na nadchodzące lata regulacjami UE w zakresie F-gazów.

l Wykorzystuje sprężarki z falownikiem oraz czynnik chłodniczy R1234ze o bardzo niskim potencjale GWP, umożliwiając osiągnięcie maksymalnej efektywności chłodzenia.

l Jest rozwiązaniem odpowiednim dla centrów danych w różnych warunkach klimatycznych na całym świecie (pracuje w szerokim zakresie temperatur zewnętrznych od -20°C do 55°C).

hybrydowe i elastyczne środowiska chłodnicze. W centrum tych rozwiązań znajdują się jednostki dystrybucji cieczy chłodzącej, takie jak Vertiv CoolChip CDU, które odpowiadają za sprawną cyrkulację cieczy chłodzącej we wtrórnym układzie chłodzenia (SFN).

Uzupełnieniem systemu jest najnowsze rozwiązanie – Vertiv CoolLoop Trim Cooler, zaprojektowane z myślą o precyzyjnym zarządzaniu temperaturą w pierwotnym obiegu chłodniczym. Trim Cooler działa jako jednostka wspierająca system

Direct-to-Chip Liquid Cooling, odprowadzając ciepło na zewnątrz.

Dzięki kompaktowej konstrukcji, niskiej emisji hałasu i wysokiej efektywności energetycznej, CoolLoop Trim Cooler idealnie wpisuje się w wymagania nowoczesnych, zrównoważonych środowisk obliczeniowych.

W kierunku zrównoważonego rozwoju

Chłodzenie cieczą – wspierane przez rozwiązania takie jak CoolLoop Trim Cooler – umożliwia znaczne ograniczenie zużycia energii i wody, wpisując się w cele zrównoważonego rozwoju. Możliwość pracy w trybie freecoolingu przez dużą część roku ogranicza wykorzystanie sprężarek, co przekłada się na niższy ślad węglowy centrum danych. Natomiast obecność sprężarek, zamiast układu adiabatycznego, minimalizuje zużycie wody.

Dzięki rozwiązaniom takim jak CoolLoop Trim Cooler operatorzy centrów danych zyskują przewagę, osiągając gotowość na przyszłość, planując scenariusze i tworząc infrastrukturę, która będzie się rozwijać wraz z postępem technologicznym.

Vertiv CoolLoop Trim Cooler – najważniejsze cechy

AI i zrównoważony rozwój:

to się nie wyklucza!

Dzięki referencyjnym projektom Schneider Electric, operatorzy centrów danych mogą wykorzystywać w pełni potencjał sztucznej inteligencji, bez uciekania się do środowiskowych kompromisów.

Sztuczna inteligencja radykalnie zwiększa zapotrzebowanie na moc obliczeniową, a tym samym na ilość dostarczanej do centrum danych energii elektrycznej. Przykładowo, wytrenowanie pojedynczego modelu AI może wymagać tyle energii, ile w ciągu roku zużywa 120 gospodarstw domowych. A przecież obciążenia związane z praktycznym wyko-

AI TO Z JEDNEJ STRONY

WYZWANIE, ALE TEŻ ROZWIĄ- ZANIE, KTÓRE POPRAWIA EFEKTYWNOŚĆ ENERGETYCZNĄ.

rzystywaniem już wytrenowanych modeli (zużywających znacznie więcej energii niż klastry treningowe) będą z czasem rosły, gdy coraz więcej aplikacji będzie wdrażanych do produkcji. W rezultacie, jak wynika z szacunków amerykańskiego Electric Power Research Institute (EPRI), do 2030 r. sztuczna inteligencja może tam od-

powiadać za nawet 9 proc. zapotrzebowania na energię elektryczną.

Prowadzący do skokowego wzrostu zapotrzebowania na moc obliczeniową oraz gęstość upakowania sprzętu, rozwój aplikacji AI wymusza zmiany w projektowaniu infrastruktury fizycznej. Zasilacze UPS muszą dostarczyć setki kilowatów na szafę, systemy chłodzenia natomiast obsłużyć znacznie wyższe gęstości termiczne. Pociąga to za sobą także ewolucję układów zasilania i dystrybucji prądu w szafach.

Eksperci Schneider Electric podkreślają, że AI to z jednej strony wyzwanie, ale też rozwiązanie, które poprawia efektywność energetyczną, gdyż algorytmy sztucznej inteligencji pomagają podejmować lepsze, zautomatyzowane decyzje operacyjne na podstawie ogromnych zbiorów danych. Zaawansowana analityka pozwala na bieżąco optymalizować pracę urządzeń (na przykład dynamicznie dostosowywać chłodzenie i zasilanie), co przekłada się na mniejsze zużycie energii.

Gdy dostęp do energii staje się wyzwaniem

W wielu regionach świata barierą rozwoju staje się dostęp do energii. Bywa, że czas oczekiwania na przyłącze może w zależności od lokalizacji wynosić nawet kilka lat. Dlatego związany z AI gwałtowny wzrost liczby centrów danych i ich mocy obliczeniowej, przede wszystkim wymaga nowych strategii energetycznych, uwzględniających lokalne uwarunkowania oraz obecne i nadchodzące europejskie regulacje. Potrzeba praktycznych rozwiązań znoszących ograniczenia w dostępności i niezawodnych źródeł energii.

Przyszłość centrów danych będą kształtować dwa trendy: rozwój sztucznej inteligencji oraz pilna potrzeba zrównoważonego rozwoju. Przy czym obie te kwestie nie dość, że się nie wykluczają, to wręcz przeciwnie, wzajemnie się uzupełniają. Innowacje takie jak integracja AI, energooszczędne systemy chłodzenia czy modernizacja istniejącej infrastruktury są niezbędne, aby wspierać rozwój centrów danych przy jednoczesnym minimalizowaniu ich wpływu na środowisko. W miarę jak firmy przesuwają granice postępu technologicznego, dążenie do zrównoważonego rozwoju po-

/ CRN / sierpień

zostaje siłą napędową transformacji branży centrów danych. Sustainability jest dla Schneider Electric kluczowym elementem strategii, co dostrzega rynek. W 2025 r. firma została uznana za najbardziej zrównoważoną na świecie, według rankingu magazynu TIME i firmy Statista, zdobywając to wyróżnienie już drugi rok z rzędu. Kolejne nagrody i wyróżnienia podkreślają wieloletnie zaangażowanie, a jednocześnie holistyczne podejście Schneider Electric do kwestii środowiskowych, społecznych i ładu korporacyjnego (ESG).

Tylko dzięki proaktywnemu podejściu operatorzy centrów danych będą mieć pod większą kontrolą tempo wzrostu zużycia energii przez obciążenia AI. Powinni oni dążyć do zwiększania udziału zielonej energii – zarówno poprzez kontrakty na energię z OZE z sieci, jak i instalacje lokalnych źródeł (farmy solarne, wiatrowe). Mając to na uwadze, coraz częściej dodają oni wielogodzinne magazyny energii na terenie obiektu, które zwiększają odporność zasilania i pozwalają wykorzystać nadwyżki niestabilnej energii odnawialnej zamiast uruchamiania generatorów diesla. Schneider Electric wspiera ich w integracji odnawialnych źródeł energii, magazynowania energii (BESS) oraz wdrażaniu mikrosieci energetycznych (microgrids).

Właśnie mikrosieci są coraz częściej wykorzystywane wraz z brzegowymi centrami danych. Jako lokalne systemy zasilania zdolne do pracy w trybie wyspowym (off-grid) lub współpracujące z  siecią nadrzędną i innymi mikrosieciami – dają one operatorowi centrum danych możliwość utrzymania działania nawet przy przerwach w zasila-

Schneider Electric liderem zrównoważonej transformacji

niu z sieci podstawowej, a jednocześnie optymalizację kosztów i redukcję emisji. Mikrosieci umożliwiają też integrację lokalnych źródeł odnawialnych (np. paneli fotowoltaicznych czy turbin wiatrowych) z systemem zasilania centrum danych. Pozwalają także na dwukierunkowy przepływ energii – centrum danych może oddawać nadwyżki do sieci lub świadczyć usługi regulacyjne operatorowi systemu. Centra danych funkcjonujące jako mikrosieci z magazynami energii mogą stać się elementem stabilizującym sieć energetyczną – magazynować nadwyżki zielonej energii, a następnie oddawać je w szczycie, redukując ryzyko przeciążeń.

Modernizacja to szybka i ekologiczna alternatywa dla budowy nowych data center Modernizacja istniejących centrów danych (retrofit) pozwala szybko zwiększyć ich wydajność i dostosować je do obsługi AI. Co istotne, może to być rozwiązanie bardziej zrównoważone niż budowa od zera – istniejące obiekty mają już przecież przyłącza energetyczne. Proces unowocześniania i optymalizacji infrastruktury oraz operacji w centrum danych prowadzi do poprawy jego efektywności, skalowalności i wydajności. Obejmuje to wdrażanie nowych technologii, takich jak przetwarzanie w chmurze, wirtualizacja, automatyzacja, procesy dekarbonizacji oraz zaawansowane środki ochrony cyberbezpieczeństwa i prywatności danych.

Co ważne, dekarbonizacja, czyli zmniejszanie tzw. śladu węglowego to nie tylko kwestia zużycia energii, ale i materiałów zastosowanych podczas modernizacji, w porównaniu do nowej inwestycji. Schneider Electric reko-

menduje podejście zgodne z gospodarką obiegu zamkniętego – doradza klientom modernizację i utrzymanie istniejącej infrastruktury tak długo, jak to bezpieczne i opłacalne, zamiast jej przedwczesnej wymiany. Przykładem jest pierwszy w branży program regeneracji akumulatorów UPS (realizowany z partnerem, firmą Digital Realty), którego celem jest wydłużenie żywotności baterii VRLA i opóźnienie potrzeby produkcji nowych ogniw. Takie działania pozwalają ograniczyć odpady.

Usługi modernizacji centrów przetwarzania danych wspierają firmy w przejściu od systemów starszego typu do bardziej elastycznych i ekonomicznych rozwiązań, zapewniając lepsze zarządzanie zasobami oraz wsparcie dla zmieniających się potrzeb biznesowych. Oferta Schneider Electric w zakresie proaktywnego zarządzania zasobami zapewnia kompleksowe podejście na każdym etapie cyklu eksploatacji i pomaga skutecznie radzić sobie z wyzwaniami, zwiększając wartość biznesową.

Technologie przyszłości dostępne

już dziś

Wzrost mocy do poziomu 10 kW na szafę trwał dekady. Obecnie, nowe, niewyobrażalne wcześniej poziomy gęstości stwarzają poważne wyzwania związane z chłodzeniem i z zasilaniem. Bez porównania trudniej jest zaprojektować hybrydowe centrum danych, chłodzone cieczą i powietrzem (oba systemy są potrzebne) – ze względu na ograniczoną przestrzeń fizyczną, ryzyko przegrzania oraz konieczność utrzymania odporności i efektywności. Systemy chłodzenia powietrzem stają się niewystarczające dla klastrów AI już o mocy zasilania przekraczającej

30–40 kW na jedną szafę serwerową. Biorąc pod uwagę, że statystycznie pojedynczy serwer stanowiący element takiego klastra zużywa 12 kW, a serwerów w jednej szafie może być kilka, nie jest to specjalnie wygórowana wartość, zwłaszcza, że kolejne generacje procesorów graficznych (GPU) stosowanych w tych serwerach oferują większą wydajność, a zarazem potrzebują więcej mocy. Dodatkowym wyzwaniem jest fakt, że serwery w dużych klastrach AI nie mogą być rozproszone w większej liczbie szaf serwerowych ze względu na potencjalne opóźnienia w transmisji danych.

Eksperci Schneider Electric zalecają więc projektowanie systemu chłodzenia centrów danych w sposób umożliwiający równoczesne chłodzenie powietrzem i cieczą, a także zapewnienie łatwej skalowalności w miarę potrzeb. Wszystko po to, aby zagwarantować możliwość obsługi kolejnych generacji sprzętu serwerowego, w tym układów GPU. Na przykład wysokotemperaturowe agregaty chłodnicze wykorzystywane do chłodzenia powietrzem można łatwo przełączyć na chłodzenie cieczą, w momencie gdy zachodzi potrzeba odprowadzenia większych ilości ciepła.

Schneider Electric oferuje referencyjne projekty dla centrów danych z AI, w tym zintegrowane systemy chłodzenia cieczą i wydajne systemy zasilania awaryjnego. Nowy UPS Galaxy VXL –  modułowy i energooszczędny, został

EKSPERCI SCHNEIDER ELECTRIC ZALECAJĄ RÓWNOCZESNE CHŁODZENIE POWIETRZEM I CIECZĄ.

zaprojektowany z myślą o obciążeniach AI i przetestowany w pracy w takim środowisku. W tworzeniu dedykowanych dla AI, zaawansowanych rozwiązań Schneider Electric współpracuje z firmą Nvidia, czego efektem są projekty referencyjne, umożliwiające szybkie wdrożenie zaawansowanych platform obliczeniowych w centrach danych. sierpień

Więcej o centrach danych opartych na sztucznej inteligencji:

chmura z lokalnym GigaCloud:

paszportem

„Klient musi mieć pewność, że jego dane są nie tylko bezpieczne, ale także podlegają jurysdykcji, którą rozumie i której ufa” – mówi Kirill Naumenko, CTO GigaCloud.

GigaCloud rozwija swoją ofertę wokół trzech głównych tematów: przywracania środowisk po awarii, bezpieczeństwa danych oraz cyfrowej suwerenności. Dlaczego właśnie te kwestie wysuwają się na pierwszy plan?

To odpowiedź na coraz bardziej skomplikowane realia biznesowe i geopolityczne, w jakich funkcjonujemy. Pomagaliśmy już klientom nie tylko odzyskiwać całe środowiska po katastrofie lub awarii, lecz nawet fizycznie przenosić infrastrukturę między miastami. Jednak wdrożenie procedur bezpieczeństwa i disaster recovery wymagane jest też przez regulacje prawne obowiązujące coraz większą liczbę firm. Ochrona dostępu do zasobów chmurowych, aplikacji czy procesów musi stanowić wspólną odpowiedzialność – my zapewniamy bezpieczeństwo infrastruktury, ale to klient musi zadbać o swoje komponenty. Dlatego rozwijamy rozwiązania klasy SIEM do analizowania logów i anomalii w czasie rzeczywistym w naszej chmurze i infrastrukturze klienta, ale też prowadzimy własne, pracujące całodobowo centrum operacji bezpieczeństwa. Jesteśmy gotowi do zapewnienia pełnej przejrzystości – klient dokładnie wie, kto ma dostęp do danych, gdzie znajdują się serwery i kto nimi zarządza.

Jak w ten kontekst wpisuje się suwerenność danych?

Widzimy, że nasi klienci – nie tylko na rynku ukraińskim, ale i w całej Europie – coraz bardziej świadomie podchodzą do pytania: kto ma dostęp do naszych danych? Czy są chronione zgodnie z lokalnym prawem? Zaczynają dostrzegać, że

oddając dane do globalnych dostawców, tracą nad nimi kontrolę. Nawet jeśli dane fizycznie są w Europie, to i tak mogą podlegać sądom z innych regionów świata, chociażby amerykańskim. Tymczasem lokalny dostawca, taki jak my, jest pod kontrolą europejskiego prawa, lokalnych służb i sądów. Jednocześnie, poza aspektem prawnym, chodzi też o zaufanie i transparentność – gdzie są serwery, kto nimi zarządza, jak wygląda fizyczny i logiczny dostęp do systemów? Dajemy klientom czytelną odpowiedź na te pytania. Przy czym budujemy nie tylko usługi techniczne, ale całą strukturę z europejskimi zespołami, które zapewniają wysokie standardy lokalnej suwerenności. Klient musi mieć pewność, że jego dane są nie tylko bezpieczne, ale także podlegają jurysdykcji, którą rozumie i której ufa.

GigaCloud korzysta z infrastruktury centrów danych Equinix i Atman, które – jak wiadomo – również oferują usługi chmurowe. Czym wyróżnia się wasza oferta? Rzeczywiście, nasza oferta jest w pewnym stopniu styczna, jednak nie postrzegamy wspomnianych firm jako konkurencji. Dla tego typu firm usługi chmurowe są tylko dodatkiem, a filarem ich działalności jest bezpieczna przestrzeń centrum danych. My wykorzystujemy ich infrastrukturę w modelu kolokacyjnym, ale samych siebie pozycjonujemy jako dostawcę usług chmurowych, które zapewniają dodatkową wartość dla klientów. Jesteśmy firmą o strukturze w pełni niezależnej od konkretnego centrum danych – działamy w różnych lokalizacjach, ale tylko tam,

gdzie oferowana nam usługa kolokacji potrafi spełnić nasze wymagania SLA i operacyjne. Co więcej, w naszej grupie kapitałowej mamy też spółkę GigaCenter, która jest właścicielem centrum danych, a także operatora telekomunikacyjnego Unitrans. Dzięki temu dobrze rozumiemy aspekty funkcjonowania takich podmiotów, co pozwala nam efektywnie współpracować z takimi partnerami jak Atman czy Equinix.

Jaki jest wasz stosunek do współpracy z kanałem partnerskim? Kanał partnerski to dla nas najbardziej komfortowy, perspektywiczny i naturalny model współpracy. Partnerzy mają relacje i zaufanie, które budują z klientami przez lata – i my to szanujemy, więc nie chcemy z nimi konkurować. Dajemy im możliwość rozwijania oferty bez konieczności inwestowania we własną infrastrukturę, a oni najlepiej wiedzą, co będzie wartościowe dla ich klientów. W Polsce dążymy do podobnego modelu, jaki osiągnęliśmy w Ukrainie. Zbudowaliśmy tam szeroki ekosystem partnerów, w którym są firmy oferujące rozwiązania CRM, software house’y, integratorzy, dostawcy usług outsourcingowych itd. Każda z nich ma swoją specjalizację, ale jedno je łączy – potrzebują dostawcy niezawodnej infrastruktury IT.

TMT wraca do łask Fuzje i przejęcia:

Z raportu M&A Index Poland wynika, że w I kwartale bieżącego roku na polskim rynku fuzji i przejęć miało miejsce 78 transakcji. To wynik niższy o 17 względem analogicznego kwartału 2024 r.

Wpierwszym kwartale na czele przejmowanych podmiotów ponownie pojawił się sektor TMT, który po chwilowej obniżce wolumenu trzy miesiące wcześniej (10 transakcji kupna) zanotował w analizowanym okresie 15 przejęć, co jednak jest wynikiem słabszym niż w I kwartale 2024 r. (19 transakcji).

Jedną z największych transakcji było w tym czasie przejęcie 51 proc. udziałów w

WYNIKI ANKIETY MAKROEKONOMICZNEJ NBP WSKAZUJĄ NA SPRZYJAJĄCY KLIMAT DO ROZWOJU RYNKU M&A W POLSCE.

Neonet przez x-kom. Odbyło się to w ramach procesu sanacyjnego rozpoczętego pod koniec 2023 r. Po transakcji Neonet ma skupić się na rozwoju segmentów IT i GSM oraz zwiększeniu udziału w sprzedaży internetowej, wykorzystując synergię z Grupą x-kom. W ramach zmian właścicielskich stanowisko prezesa objął Mariusz Szałaj, zastępując na tym stanowisku Marka Majewskiego. Neonet, posiadający sieć 200 sklepów, w ubiegłym roku

PMarcin Rajewicz, Key Account Manager, ekspert ds. rynków finansowych, Fordata

Opracował: Tomasz Gołębiowski

finansowym zakończonym 31 marca 2024 r. osiągnął przychody na poziomie 1,5 mld zł, notując jednocześnie stratę netto w wysokości 374,6 mln zł.

Kolejna godna szczególnej uwagi transakcja to wejście w posiadanie przez Asseco Poland 51 proc. udziałów w spółce Infocomp, wyspecjalizowanej w outsourcingu IT dla sektora ochrony zdrowia. Celem transakcji jest wzmocnienie pozycji Asseco w zakresie usług dla cyfryzujących się szpitali oraz zwiększenie sprzedaży systemów AMMS+ i Infomedica+. Infocomp obsługuje obecnie 13 szpitali i zatrudnia zespół 80 specjalistów. W 2023 r. toruński integrator osiągnął 22,3 mln zł przychodów oraz 1,7 mln zł zysku netto. W tym samym roku Asseco wygenerowało 236 mln zł przychodów ze sprzedaży do sektora ochrony zdrowia.

W omawianym okresie Grupa Symfonia, lider oprogramowania ERP dla sektora MŚP, rozszerzyła swoją działalność o sektor publiczny, przejmując Nefeni, wiodącego dostawcę rozwiązań IT dla samorządów (25 proc. rynku). Poza tym SALESmanago, jedna z wiodących w Europie platform customer engagement, przejęła fińską spółkę Interactive Ads AI, twórcę platformy wspomagającej kon-

ierwszy kwartał 2025 roku przyniósł kilka kluczowych obserwacji, które mogą zwiastować pozytywne tendencje na dynamicznie zmieniającym się globalnym rynku M&A. W USA mimo pewnego spowolnienia z początku roku związanego z objęciem rządów przez nową administrację oczekuje się, że aktywność M&A nabierze tempa w drugiej połowie roku wraz z wyklarowaniem się polityki gospodarczej Donalda Trumpa. W Europie również obserwujemy pozytywne nastawienie do rynku fuzji i przejęć, wspierane przez spadajacą inflację i stabilizujące się stopy procentowe, pomimo wciąż nierozwiązanego konfliktu za wschodnią granicą UE. Polski rynek idzie w te ślady, dając oznaki umiarkowanego optymizmu i szansę na wzrost wolumenu transakcji. Eksperci wskazują na dobrą kondycję rynku oraz stabilizację wskaźników gospodarczych.

wersje w marketingu cyfrowym Leadoo. Wreszcie Software Mind, integrator i doradca technologiczny nabył software house Core3, specjalizujący się w inżynierii danych dla sektora finansowego. Podsumowując, w Polsce pierwsze trzy miesiące 2025 r. przyniosły umiarkowany optymizm. Eksperci wskazują na dobrą kondycję rynku oraz stabilizację wskaźników gospodarczych. Indeks PMI wykazuje umiarkowany wzrost, a analitycy przewidują dalszy spadek inflacji, co sprzyja poprawie nastrojów inwestorów. Choć nadzieje na znaczącą obniżkę stóp procentowych przez Narodowy Bank Polski mogą nie zostać w pełni zrealizowane, rynek liczy na mniejsze, ale wciąż istotne redukcje, które pozytywnie wpłyną na sytuację gospodarczą. Dodatkowo wyniki ankiety makroekonomicznej przeprowadzonej przez NBP wskazują na stabilizację oraz sprzyjający klimat do dalszego rozwoju rynku M&A w Polsce.

Raport M&A Index Poland jest co kwartał opracowywany przez specjalistów Navigator Capital oraz Fordata.

Transakcje z udziałem polskich podmiotów

Dane pogrupowano według aktywności przedsiębiorstw z danych sektorów (zgodnie z liczbą transakcji)

Monitoring

wizyjny: mniejsze zło

Monitoring wizyjny nie jest rozwiązaniem idealnym, ale często jedynym dostępnym. W niespokojnych czasach dla wielu ludzi ważniejsze jest bezpieczeństwo niż prywatność.

Wojciech Urbanek

JGLOBALNIE PROGNOZUJE SIĘ W

eszcze do niedawna monitoring wizyjny (CCTV) spotykał się z powszechną krytyką w kontekście naruszania prywatności obywateli. Ekstremalnym przykładem mogą być Chiny, gdzie na dwóch mieszkańców przypada jedna kamera, wzór niekoniecznie godny naśladowania w państwach demokratycznych, szanujących prawa człowieka. Postawa społeczeństwa wobec kamer w przestrzeni publicznej zaczyna się jednak powoli zmieniać. Obywatele coraz rzadziej protestują przeciw ich obecności w aglomeracjach miejskich. Wynika to zarówno z przyzwyczajenia, jak i rosnących obaw o bezpieczeństwo. W dobie niepokojów społecznych, gdy media regularnie informują o napadach, rozbojach, pożarach i aktach wandalizmu, CCTV postrzegane jest raczej jako narzędzie prewencji niż inwigilacji.

Znamienny przykład efektywności monitoringu wizyjnego stanowi Poznań. W 2023 r. 1393 kamery umożliwiły przeprowadzenie ponad 9 tysięcy sku-

tecznych interwencji i zatrzymanie 144 przestępców. W dobie niedoborów personalnych w policji takie rozwiązania zyskują na znaczeniu. Nic dziwnego, że głównym argumentem za wdrażaniem CCTV w miejscach publicznych jest poprawa egzekwowania prawa i zapobieganie przestępczości. Globalne badanie Comparitech rzuca jednak nowe światło na tę kwestię. Porównanie liczby publicznych kamer ze wskaźnikami przestępczości zgłoszonymi przez Numbeo pokazuje, że większa liczba kamer jedynie w niewielkim stopniu koreluje z niższym wskaźnikiem przestępczości. Wniosek jest jednoznaczny: więcej kamer niekoniecznie oznacza bezpieczniejsze ulice. Monitoring może wprawdzie przyczynić się do poprawy bezpieczeństwa i efektywności funkcjonowania społeczeństwa, ale równocześnie może naruszać prawo do prywatności i swobody przemieszczania się. Niezależnie od argumentów za czy przeciw, faktem pozostaje systematyczny wzrost systemów nadzoru wizyjnego w wielu miastach na świecie.

– Również w Polsce coraz więcej firm i instytucji dostrzega korzyści płynące z nowoczesnych rozwiązań monitoringu. Na naszym rynku popyt napędzają głównie kwestie bezpieczeństwa, rosnąca

świadomość zagrożeń oraz rozwój technologii, które czynią systemy monitoringu bardziej dostępnymi i efektywnymi. Z drugiej strony, ograniczenia mogą wynikać z kosztów inwestycji, braku odpowiedniej infrastruktury czy obaw związanych z prywatnością i ochroną danych – mówi Dariusz Malinowski, Product Manager VSS w AB.

Dość chłodnym okiem na rozwój polskiego rynku patrzy Mariusz Ziółkowski, właściciel firmy Avis. Wprawdzie instytucje publiczne wykazują zainteresowanie systemami CCTV, ale na tym się niejednokrotnie kończy.

– Zrobiliśmy kilka wycen dla samorządów, ale żaden z projektów nie został zrealizowany. Inaczej wygląda to w przypadku sieci handlowych, które chętnie modernizują lub wyposażają swoje placówki w nowoczesne systemy monitoringu. Również klienci indywidualni coraz częściej wyposażają swoje domy w systemy alarmowe i wizyjne – mówi Mariusz Ziółkowski.

Bezpieczeństwo, analiza, efektywność

Monitoring wizyjny to nie tylko domena samorządów, które instalują kamery w celu ochrony mieszkańców i infrastruktury. CCTV znajduje szerokie zasto-

sowanie w biznesie, a jednym z głównych czynników motywujących właścicieli firm do inwestycji w takie rozwiązania jest bezpieczeństwo i ochrona mienia. Kamery odstraszają potencjalnych złodziei oraz wandali, a w przypadku wystąpienia incydentów dostarczają cennych materiałów dowodowych, które mogą być wykorzystane w postępowaniach sądowych. Systemy monitoringu pozwalają również na szybką reakcję służb ochrony, co ma szczególne znaczenie w sytuacjach nagłych, takich jak pożary czy włamania. Dla przedsiębiorców dodatkową wartością jest możliwość kontroli procesów operacyjnych. Dzięki analizie obrazu można obserwować przepływ pracy, identyfikować wąskie gardła oraz optymalizować działania produkcyjne i logistyczne.

W sektorze handlu detalicznego monitoring pełni również funkcję analityczną. Pozwala na zbieranie informacji na temat zachowań klientów: które strefy sklepu są najczęściej odwiedzane, jak skuteczne są ekspozycje produktów, gdzie tworzą się kolejki i ile czasu klienci spędzają w poszczególnych częściach sklepu. Tak zdobyta wiedza ułatwia zarządzanie przestrzenią sprzedażową.

Sektor handlowy dominuje w światowych statystykach sprzedaży systemów

CCTV, co bezpośrednio wynika z nasilającej się fali kradzieży i aktów wandalizmu. Ta tendencja znajduje swoje odzwierciedlenie również na polskim rynku, gdzie sklepy i centra handlowe coraz częściej inwestują w zaawansowane systemy monitoringu. Przy czym trend ten dotyczy lokali różnych wielkości.

– Dostrzegamy zwiększone zainteresowanie monitoringiem w sektorze handlu detalicznego. Liczba wdrożeń rośnie nie tylko w dużych obiektach handlowych, ale również w mniejszych punktach sprzedaży. Klienci coraz częściej pytają o funkcje dodatkowe, takie jak liczenie osób czy mapy ciepła, pozwalające optymalizo-

Video Surveillance as a Service (VSaaS)

ZJestem na tak

Dariusz Malinowski, Product Manager VSS, AB

mojej perspektywy rozwój usług VSaaS w Polsce wygląda obiecująco. W ciągu najbliższych 2–3 lat można spodziewać się dalszego wzrostu popularności tego modelu, głównie dzięki jego elastyczności, niższym kosztom początkowym i łatwości wdrożenia. Ponadto, coraz więcej firm i instytucji dostrzega korzyści z wykorzystania chmurowych rozwiązań, do których zaliczyć należy możliwość skalowania, dostęp zdalny i automatyzację zarządzania systemami monitoringu.

Jestem na nie

Mariusz Ziółkowski, właściciel, Avis

Awaryjność rozwiązań chmurowych oraz podatność na ingerencję ze strony instytucji rządowych skutecznie podważa zaufanie klientów do tego typu rozwiązań. Natomiast instytucje samorządowe wręcz bronią się przed VSaaS w obawie przed ogromnymi karami. Dlatego jestem sceptycznie nastawiony do takich rozwiązań i skutecznie zniechęcam do nich potencjalnych użytkowników. I chociaż klienci indywidualni mogą być tym modelem użytkowania zainteresowani, to spadek cen powierzchni dyskowych skutecznie powstrzymuje również ten trend.

Zdaniem specjalisty

Robert Gawroński, B2B Channel Manager, TP-Link

Zdecydowanie zauważamy rosnące zainteresowanie rozwiązaniami monitoringu wizyjnego także na polskim rynku. Głównym motorem napędowym jest potrzeba zwiększenia bezpieczeństwa – zarówno w przestrzeni publicznej, jak i prywatnej. Kamery są instalowane na terenach zewnętrznych, parkingach, w punktach handlowych, a także coraz częściej w domach jednorodzinnych. Niestety, jednym z najczęstszych błędów jest brak kompleksowego podejścia do projektowania systemu od samego początku. Użytkownicy często zaczynają od zakupu pojedynczych, tanich urządzeń różnych marek, które nie zawsze są ze sobą kompatybilne. W momencie rozbudowy okazuje się, że ich integra-

cja z bardziej zaawansowanymi systemami jest niemożliwa lub kosztowna. Dlatego rekomendujemy planowanie systemu jako całości już na etapie inwestycji – uwzględniając skalowalność, ekosystem producenta oraz przyszłe potrzeby.

Polski rynek monitoringu wizyjnego notuje wzrost na poziomie około 10–12 proc. rocznie. Kluczowymi czynnikami napędzającymi rozwój są: rosnąca świadomość potrzeby zapewnienia bezpieczeństwa, postęp technologiczny, regulacje rządowe, jak też rozwój projektów typu smart city. Wzrost liczby pożarów w ostatnich miesiącach zdecydowanie przełożył się na większe inwestycje w monitoring, szczególnie w sektorach produkcyjnym, handlu detalicznym i instytucjach publicznych. Pewnym ograniczeniem pozostaje ostrożność organizacji wobec rozwiązań chmurowych, szczególnie w sektorze publicznym.

Ewa Tokarska, Marketing Manager, Ezviz

ZTP-Link otrzymał certyfikat Channel Master 2025

e wzrostem inwestycji w monitoring wizyjny mamy do czynienia przede wszystkim w sektorze handlowym, co wynika z coraz większej skali strat generowanych przez kradzieże sklepowe, akty wandalizmu czy nadużycia wewnętrzne. Dodatkowym impulsem jest możliwość wykorzystania systemów monitoringu nie tylko do ochrony mienia, ale też do wsparcia analityki sprzedażowej i poprawy efektywności operacyjnej. W najbliższych latach największych inwestycji spodziewamy się w handlu, logistyce, przemyśle i sektorze budowlanym, gdzie monitoring coraz częściej pełni funkcję narzędzia nadzoru procesów, bezpieczeństwa pracy i kontroli dostępu. Dynamicznie rozwijającym się obszarem

będą również inwestycje samorządów w monitoring miejski w ramach projektów smart city oraz modernizacja infrastruktury w obiektach użyteczności publicznej.

wać rozmieszczenie towarów, planować grafiki pracowników i poprawiać jakość obsługi – mówi Robert Gawroński, B2B Channel Manager w polskim oddziale TP-Link.

Według Grand View Research sektory takie jak handel detaliczny, transport i bankowość stały się kluczowymi użytkownikami CCTV, choć projekty do-

w ubiegłym roku 43,65 mld dol. i przewiduje się, że do 2030 r. przekroczą pułap 81 mld dol. Wzrost rynku napędzany jest przede wszystkim przez rosnącą potrzebę zwiększonych środków bezpieczeństwa i ochrony w sektorze publicznym oraz różnych segmentach gospodarki. Wybór kamery zależy od budżetu i potrzeb klienta. W mniejszych instalacjach wykorzystuje się najczęściej modele o rozdzielczości 3–4 Mpx, aczkolwiek coraz większym zainteresowaniem cieszą się urządzenia gwarantujące poziom 5–8 Mpx, oferując wyższą jakość obrazu przy relatywnie niewielkiej różnicy w cenie. Standardem staje się zasilanie PoE, pozwalające na jednoczesne zasilanie i transmisję danych pojedynczym przewodem Ethernet. Klienci wykazują przy tym rosnące zainteresowanie kamerami z zaawansowaną analizą obrazu, identyfikującymi nietypowe zachowania (np. pożar, bójka), wykrywającymi wtargnięcia do obiektów itp. To wszystko pomaga zautomatyzować i zwiększyć skuteczność nadzoru.

Trudny dylemat: NVR czy NAS Istotną rolę w systemach monitoringu odgrywają systemy NVR służące do nagrywania i zarządzania materiałem z kamer IP, a także nośniki danych.

– NVR stosujemy w profesjonalnych instalacjach ze względu na wyższy poziom bezpieczeństwa oraz lepszą kompatybilność z systemami CCTV. Czasami w instalacjach domowych lub mniejszych firmach spotykamy serwery NAS. Można je wykorzystać nie tylko do nagrań z monitoringu, ale także do przechowywania innych danych, a ich sporą zaletą jest elastyczność – tłumaczy Mariusz Ziółkowski.

tyczące inteligentnych miast i bezpieczeństwa również przyczyniają się do wzrostu tego segmentu rynku. W ubiegłym roku globalne przychody ze sprze-

daży systemów monitoringu wizyjnego wyniosły 73,75 mld dol. i szacuje się, że osiągną poziom 147,66 mld do 2030 r., co oznacza, że wskaźnik CAGR wynosiłby 12,1 proc. W 2024 r. ponad 71 proc. obrotów generował sprzęt – w pierwszej kolejności kamery, a także urządzenia do przechowywania danych oraz monitory.

Kamery jako serce systemu

System monitoringu wizyjnego składa się z kilku komponentów, z których kamery stanowią największy składnik kosztowy – około 40–50 proc. wartości całego rozwiązania. Koszty inwestycji wzrastają przy zastosowaniu kamer IP bądź specjalistycznych (termowizyjne, PTZ). Jak wynika z raportu Grand View Research, globalne przychody ze sprzedaży kamer monitorujących wyniosły

Producenci systemów NAS przekonują, że ich technologie sprawdzą się jako alternatywa dla NVR, nawet w rozbudowanych instalacjach monitoringu wizyjnego.

– Serwery NAS pozwalają na montaż wielu dysków i tworzenie macierzy RAID, podczas gdy rejestratory NVR często ograniczają się do pojedynczego dysku HDD. Dzięki temu NAS oferuje zabezpieczoną pulę pamięci obsługującą więcej dysków oraz większą liczbę kamer – tłumaczy Mateusz Żukowski, Solution Engineer w Synology.

Osobną kwestią jest dobór dysków do przechowywania zapisów. Niestety, wielu klientów kieruje się w tym przypadku jedynie ceną nośników, co jest poważnym błędem. W przypadku awarii tańszego dysku można stracić dowody w sprawie czy nagranie z incydentu,

Konrad Badowski, Business Relationships Manager, Axis Communications

co może mieć poważne konsekwencje prawne i finansowe.

– Z naszego doświadczenia wynika, że użytkownicy często sięgają po dyski klasy desktop, które są projektowane wyłącznie do standardowej pracy biurowej. Takie rozwiązanie jest jednak krótkowzroczne, gdyż nośniki te szybko ulegają awarii przy ciągłym obciążeniu, co drastycznie obniża niezawodność całego systemu monitoringu. Na rynku dostępne są przecież dyski HDD specjalnie zaprojektowane do intensywnych, ciągłych zapisów, jakie występują w systemach monitoringu –  wyjaśnia Mateusz Żukowski.

AI lepsza niż ludzkie oko

O ile w niektórych rozwiązaniach sztuczna inteligencja jest trochę wdrażana na siłę i nie do końca wiadomo, jakie benefity się z tym wiążą, o tyle w przypadku CCTV sytuacja jest bardzo klarowna. AI może znacząco poszerzyć funkcjonalność systemu monitoringu, zwiększając precyzję i skracając czas reakcji.

Dzięki sztucznej inteligencji i uczeniu maszynowemu systemy monitoringu wizyjnego mogą w czasie rzeczywistym rozpoznawać twarze, analizować ludzkie zachowania oraz wykrywać potencjalne zagrożenia. Największą siłą AI w tej dziedzinie jest zdolność dostrzegania szczegółów, które umknęłyby ludzkiemu oku – od nieautoryzowanej obecności osób po podejrzane przedmioty pozostawione w miejscach publicznych, także tych najbardziej zatłoczonych.

Kluczową przewagą sztucznej inteligencji jest również jej zdolność do efektywnego przetwarzania gigantycznych ilości danych wideo. Dzięki temu możliwe staje się wdrażanie zaawansowanych systemów analitycznych w największych obiektach – od lotnisk i dworców kolejowych po stadiony sportowe i centra handlowe. AI nie tylko nie męczy się monotonną pracą, ale także zachowuje stałą czujność przez całą dobę, analizując jednocześnie setki strumieni wideo z niezawodną precyzją.

KLUCZOWĄ PRZEWAGĄ AI JEST RÓWNIEŻ JEJ ZDOLNOŚĆ

PRZETWARZANIA

– Na szkoleniach organizowanych przez producentów poznajemy coraz bardziej zaawansowane rozwiązania. Wprowadzenie technologii sztucznej inteligencji do analityki otwiera niemal nieograniczone perspektywy usprawnienia pracy operatorów systemów monitoringu. Korzyści płynące z tych rozwiązań są oczywiste, zarówno dla operatorów centrali monitoringu, jak i służb mundurowych. Rozmawiamy o tych nowinkach z klientami, ale z względu na koszty, dyskusje nie wykraczają poza etap wstępnych konsultacji – podsumowuje Mariusz Ziółkowski. n

1. Miasta Chin* — 700 mln kamer na 1,42 mld ludzi

= 494,25 kamer na 1000 osób

2. Hajdarabad, Indie — 900 000 kamer na 11 337 900 osób

= 79,38 kamer na 1000 osób

3. Indore, Indie – 251 500 kamer na 3 482 830 osób

= 72,21 kamer na 1000 osób

4. Bangalore, Indie – 585 284 kamer na 14 395 400 osób

= 40,66 kamer na 1000 osób

5. Lahore, Pakistan – 410 297 kamer na 14 825 800 osób

= 27,67 kamer na 1000 osób

6. Seul, Korea Południowa – 243 426 kamer na 10 025 800 osób

= 24,28 kamer na 1000 osób

7. Moskwa, Rosja – 250 000 kamer na 12 737 400 osób

= 19,63 kamer na 1000 osób

8. Kabul, Afganistan – 90 000 kamer na 4 877 020 osób

= 18,45 kamer na 1000 osób

9. Singapur, Singapur — 112 999 kamer na 6 157 270 osób

= 18,35 kamer na 1000 osób

10. Sankt Petersburg, Rosja — 102 000 kamer na 5 597 340 osób

= 18,22 kamer na 1000 osób

Comparitech

dla całych Chin, bez podziału na konkretne miasta.

TP-Link VIGI

chroni i ułatwia

pracę w firmie

Nowoczesny system monitoringu wizyjnego nie tylko zabezpiecza firmę, ale też usprawnia jej działanie. W jaki sposób – pokazujemy na praktycznym przykładzie wdrożeń zrealizowanych w branży handlowej.

Systemy monitoringu wizyjnego coraz częściej pełnią nie tylko rolę „cyfrowego strażnika”, ale też wspierają biznes, realizując ważne firmowe funkcje. Jakie są praktyczne możliwości w tym zakresie, pokazują inspirujące case study z wdrożeń systemu TP-Link VIGI w placówkach handlowych. Warto podkreślić, że jest to kompletny system, obejmujący zarówno sprzęt, jak i oprogramowanie, którego rola w biznesie jest uniwersalna.

Na TP-Link VIGI składają się rozmaite modele kamer (turret, bullet, kopułki, obrotowe), jak również rejestratory NVR różniące się funkcjonalnością, czy też liczbą

TO KOMPLETNY SYSTEM, OBEJMUJĄCY SPRZĘT I OPROGRAMOWANIE, KTÓRY SPRAWDZA SIĘ W SZEREGU RÓŻNYCH RÓL.

obsługiwanych kanałów. Z szerokiego portfolio bez problemu można dobrać zestaw odpowiedni do potrzeb i miejsca. System jest stabilny i użytkownik nie musi obawiać się problemów z jego działaniem. Umożliwia podgląd na żywo, nagrywanie, różnego rodzaju alerty i detekcje – w każdej konfiguracji sprzętowej.

Co istotne, TP-Link VIGI znacznie ułatwia korzystanie z nadzoru wideo i za-

rządzanie nim. Zarówno obraz z kamer na żywo, jak i zarejestrowane nagrania, można oglądać poprzez chmurę z dowolnego miejsca. Użytkownicy mogą też zdalnie zarządzać systemem i urządzeniami poprzez bezpłatny VMS czy też darmową aplikację na urządzenia mobilne. Z systemu można więc korzystać choćby z pomocą smartfona i nie jest do tego konieczna specjalistyczna wiedza.

Case study: lepsza obsługa klientów Przykładem, jak system TP-Link VIGI odpowiada na konkretne potrzeby przedsiębiorców, jest wdrożenie monitoringu CCTV w sklepie sieci Aquael Zoo w Galerii Bronowice w Krakowie. Projekt zrealizował eo Networks w 2024 r. Wyzwanie

Celem wdrożenia w salonie Aquael Zoo było nie tylko zapewnienie bezpieczeństwa, lecz także pomoc pracownikom sklepu w obsłudze klienta. Ze względu na to, że lokal został zbudowany na planie litery „T”, pracownik znajdujący się przy stanowisku kasowym nie widzi klientów przebywających w innych częściach sklepu. Należało więc umożliwić jednoczesne rejestrowanie obrazu i podgląd nagrań ze wszystkich kamer w czasie rzeczywistym na tym stanowisku.

Rozwiązanie

W sklepie zamontowano 16 kamer typu Turret TP-Link VIGI C450 z matry-

TP-Link VIGI: system oparty na zasadach „4E”

4E oznacza Easy Planning, Installation, Setup i Maintenance (łatwe planowanie, montaż, konfiguracja i konserwacja).

System VIGI tworzą łatwe w użytkowaniu, a jednocześnie wydajne, wartościowe produkty, które sprawdzą się zwłaszcza

we wdrożeniach w MŚP w różnych branżach. Rozwiązanie oparte na chmurze umożliwia łatwą rozbudowę systemu, zmniejszając jego koszty w kolejnych lokalizacjach, przykładowo w placówkach handlowych danej sieci.

cą o rozdzielczości 5 MP. Rejestrują one wszystkie detale w pełnych kolorach nawet w całkowitej ciemności – dzięki czułemu sensorowi i wbudowanym diodom LED światła punktowego. Do tego inteligentna korekcja wideo – technologie VIGI, w tym Smart IR, True WDR, 3D DNR i Nocna wizja przetwarzają obraz, aby znacznie poprawić jego jakość. Nagrania są zapisywane w trybie ciągłym na rejestratorze VIGI NVR2016H-16MP. To model, który obsługuje kodowanie H.265+. Pomieści dwa dyski twarde, oferując do 20 TB przestrzeni na dane. Dzięki temu można przechowywać materiał wideo w pełnej rozdzielczości przez wiele miesięcy, bez ryzyka nadpisywania nagrań. Co istotne, rejestrator posiada 16-portowy przełącznik PoE+ do zasilania kamer. Nie ma więc potrzeby podłączenia ich do oddzielnych zasilaczy, co zapewnia elastyczność wdrożenia systemu. Kame-

ry można umieścić także tam, gdzie nie ma w pobliżu gniazdka sieci elektrycznej.

To przykład tego, jak zastosowanie urządzeń TP-Link VIGI pozwala przyspieszyć wdrożenie monitoringu, a jednocześnie zdecydowanie upraszcza infrastrukturę sieciową.

Z kolei na stanowisku kasowym w sklepie Aquael Zoo oprócz stałego poglądu z kamer przydała się jedna z funkcji systemu TP-Link VIGI, a mianowicie detekcja ruchu. Gdy w miejscach niewidocznych ze stanowiska kasowego pojawiał się klient, uruchamiał się na nim dyskretny sygnał dźwiękowy. Dzięki temu pracownicy sklepu wiedzieli, że ktoś tam przebywa, mogli go obserwować oraz, w razie potrzeby, zająć się jego obsługą. Odpowiednio wdrożony monitoring sklepu de facto zwiększył więc również satysfakcję klienta, który mógł liczyć na szybką pomoc i doradztwo.

– Zamontowany zestaw monitoringu ułatwia nam codzienną pracę. Obraz z kamer ma bardzo dobrą jakość, która pozwala nam identyfikować najmniejsze szczegóły – podsumowuje Agnieszka Lusina, kierownik sklepu Aquael Zoo w Galerii Bronowice w Krakowie.

Pewna ochrona dla broni

Kolejnym przykładem, w jaki sposób system TP-Link VIGI wspiera funkcjonowanie placówki handlowej, jest wdrożenie w sklepie z bronią Guns Concept w Warszawie w 2024 r. Partnerem odpowiedzialnym za tę realizację była firma Czarnobiały Łukasz Poprawa.

Wyzwanie

Celem wdrożenia było przede wszystkim zapewnienie bezpieczeństwa lokalu. Dla przedsiębiorcy kluczowe było to, by rozwiązanie umożliwiało jednoczesne rejestrowanie obrazu, jak i łatwy pod-

gląd nagrań ze wszystkich kamer w czasie rzeczywistym.

Rozwiązanie

W obiekcie zainstalowano 5 kamer kopułkowych TP-Link VIGI C240 o rozdzielczości 4MP i ogniskowej 2,8 mm, które zapewniają szczegółowy kolorowy obraz nawet w całkowitej ciemności. C240 ma wbudowany mikrofon do nagrywania i jest odporna na próby uszkodzenia oraz zalanie (odporność mechaniczna IK10/ wodoodporność IP67). Kamery tego typu zostały rozmieszczone w przestrzeni wystawienniczo-sklepowej oraz w magazynie broni. Nagrania są zapisywane w  trybie ciągłym na rejestratorze VIGI NVR1008H, który obsługuje kodowanie H.265+ i pomieści dysk twardy o pojemności do 16 TB. Dzięki temu możliwe jest przechowywanie nagrań wideo w pełnej rozdzielczości przez wiele miesięcy bez potrzeby nadpisywania.

W lokalu sklepu Guns Concept wykorzystano także 9-portowy przełącznik PoE+ TL-SF1009P, który zasila kamery za pomocą jednego kabla sieciowego. Takie rozwiązanie przyspiesza wdrożenie monitoringu i upraszcza infrastrukturę sieciową. Z kolei funkcja aktywnej ochrony nie tylko zabezpiecza, lecz także ułatwia pracę.

– Włączanie diod doświetlających po wykryciu ruchu sprawdza się jako dodatkowe oświetlenie salonu przy jego otwieraniu i zamykaniu, tym samym ułatwiając nam codzienną pracę –  podkreśla Karol Bogusz, współwłaściciel Guns Concept. Natomiast w razie zagrożenia alerty są wysyłane w czasie rzeczywistym za pomocą aplikacji VIGI. Właściciel czy też kierownik sklepu z pomocą telefonu może o dowolnej porze mieć podgląd z kamer w sklepie oraz magazynie na żywo, jak też przejrzeć zapisane nagrania.

Dystrybucja IT:

wiele się zmieniło, żeby wszystko zostało po staremu?

Reklama, jaka pojawiła się niedawno na łamach dziennika

„The New York Times”, mówi więcej o rozwoju sektora dystrybucji niż niejedna biznesowa analiza.

They called us a distributor. They were wrong (Nazywali nas dystrybutorem.

Byli w błędzie) – tym stwierdzeniem zaczyna się wspomniana wyżej, całostronicowa, tekstowa reklama Pax8, dynamicznie rosnącego dystrybutora oprogramowania, który oferuje rozwiązania różnych marek w modelu chmurowym na swojej platformie typu marketplace. I chociaż z jego oferty korzystają firmy IT, które wdrażają w ybrane rozwiązania u swoich klien-

tów końcowych, to Pax8 nie chce być kojarzone z tradycyjnym biznesem dystrybucyjnym. „Nazywali nas dystrybutorem, ponieważ (…) oferowaliśmy usługi i wsparcie. Ponieważ łączyliśmy producentów i partnerów. Nazywali nas dystrybutorem, ponieważ nie wiedzieli, jak inaczej nas nazywać. Ale nigdy nie

byliśmy tacy jak oni. Czasy się zmieniają. Technologia idzie naprzód. Sposób, w jaki firmy kupują, sprzedają i skalują się, ewoluował. A mimo to największe marki w branży wciąż (…) sprzedają tę samą starą historię owiniętą w nowe ‘buzzwordy’. Nie kupujemy tego. W Pax8 odmawiamy bycia częścią tego dziedzictwa. Nie jesteśmy zainteresowani pośredniczeniem (…) ani zmuszaniem Was do skakania przez przeszkody. Ten model umiera. Budujemy coś lepszego – rynek, na którym biznes nie polega na transakcjach, ale na transformacji. (…) Gdzie możemy szczerze powiedzieć: jesteśmy tutaj, aby chronić Twój biznes, a nie nasze marże. Abyśmy mogli służyć Tobie, a nie odwrotnie. (…) Jeśli szukasz kogoś, kto sprzeda Ci przeszłość, oto firmy, które robią to dobrze: Ingram Micro i TD Synnex. Jeśli zaś chcesz poznać technologiczny marketplace przyszłości, witaj w Pax8”.

Podchodząc do sprawy z przymrużeniem oka, można zaryzykować stwierdzenie, że nad powyższym tekstem unosi się buntowniczy, wręcz piracki

duch Steve’a Jobsa. Samo zaś przesłanie tekstu rodzi luźne skojarzenia ze słynną reklamą Apple’a, odnoszącą się do „Roku 1984” George’a Orwella. Oto przychodzi nowy gracz, żeby rozbić dotychczasowy, skostniały i opresyjny (w domyśle dla resellerów i integratorów) układ sił…

Wydaje się, że taki właśnie efekt chciał wywołać podpisany pod reklamą Scott Chasin, CEO Pax8, która to firma od ponad dekady umacnia swoją pozycję na rynku amerykańskim, ale też w Azji, Afryce i Europie (chociaż nie w Polsce).

Tymczasem według wielu graczy rynkowych i komentatorów, jakby nie zaklinać rzeczywistości, Pax8 to klasyczny dystrybutor, choć bez fizycznego magazynu, bo nie handlujący sprzętem. – Czym bowiem jest ich marketplace, jak nie platformą, która ułatwia partnerom, jako kupującym i producentom, jako sprzedającym, łączenie się i zarządzanie transakcjami. Chociaż Pax8 nie ma magazynu dla produktów fizycznych, nadal jest pośrednikiem. Niezależnie od używanej terminologii, jest to zasadniczo dystrybutor, którego wartość tkwi w automatyzacji platformy internetowej –  podkreśla Mukesh Gupta, CEO amerykańskiego dystrybutora e92plus, specjalizującego się w produktach cyberbezpieczeństwa.

Trudno się z tym nie zgodzić, tym bardziej, że w minionych kilku latach najwięksi dystrybutorzy zainwestowali grube miliony w swoje własne cyfrowe marketplace’y, gdzie oferują swoim partnerom oprogramowanie i usługi różnych marek w modelu chmurowym. Nie wydaje się zatem, abyśmy w przypadku marketingowej rękawicy rzuconej przez Pax8 tradycyjnym dystrybutorom mieli do czynienia z przełomem na miarę Macintosha, który zapoczątkował nową epokę dzięki interfejsowi GUI oraz komputerowej myszy.

Dystrybutorzy kontra hiperskalerzy

Tak czy inaczej, sam fakt, że w ogóle rozgorzała dyskusja wokół tego, czym jest, a czym nie jest współczesna dystrybucja, obrazuje przyspieszoną ewolucję tego sektora, z jaką mamy do czynienia w minionych kilku latach. Przyczyną tego zjawiska jest przede wszystkim dynamiczny wzrost sprzedaży oprogramowania w mo-

Wciągu ostatnich 20 lat niezmiennie około 70 proc. biznesu przechodzi przez kanał partnerski, a pozostałe plus minus 30 procent to sprzedaż bezpośrednia. Myślę, że taka sytuacja utrzyma się także w przyszłości. Oczywiście producenci zawsze będą chcieli mieć możliwość bezpośredniego kontaktu z użytkownikami swoich rozwiązań i kusząca jest dla nich możliwość sprzedaży bezpośredniej. Natomiast skuteczne dotarcie do dużej ich ilości na wielu różnych rynkach wymaga wsparcia ze strony kanału sprzedaży, którego filar stanowią dystrybutorzy. I nie widzę możliwości, żeby to w przyszłości miało ulec jakiejś drastycznej zmianie.

delu as-a-service. W ten sposób na arenie pojawili się nowi gracze. Z jednej strony są to „cyfrowi dystrybutorzy”, którzy oferują firmom IT rozwiązania chmurowe różnych marek do dalszej odsprzedaży. Z drugiej strony znaczącą część rynku IT opanowali tzw. hiperskalerzy, a więc globalni dostawcy chmurowi (największym jest Amazon Web Services, prowadzący sprzedaż na platformie AWS Marketplace). Przy czym, jak prognozują analitycy Canalysa, AWS wkrótce trafi do pierwszej piątki globalnych graczy dystrybucyjnych. Kilku znaczących producentów – w tym CrowdStrike, Snowflake, Splunk i Palo Alto – poinformowało niedawno, że w każdym z tych przypadków z osobna roczna sprzedaż na platformie AWS Marketplace przekroczyła poziom 1 mld dol. Co więcej, największy globalny hiperskaler ogłosił, że otwiera swój marketplace dla wszystkich dostawców rozwiązań w modelu Software-as-a-Service, niezależnie od tego, w jakiej chmurze one działają. Tego rodzaju deklaracji żaden dystrybutor – ani tradycyjny, ani tym bardziej „cyfrowy” – nie może skwitować wzruszeniem ramion. Jak bowiem wynika z danych Synergy Research Group, w 2024 r. hiperskalerzy po raz kolejny zwiększyli przychody (tym razem o ponad 10 proc.), do poziomu 2,65 bln dol. Najwięksi gracze hiperskalowi pod względem obrotów to Amazon, Apple, Google, Microsoft, Meta, JD.com, ByteDance i Alibaba. Natomiast najwyższe stopy wzrostu w 2024 r. odnotowali: CoreWeave, ByteDance, Meta, Microsoft, Google i Amazon.

Warto przy tym dodać, że według Canalysa sprzedaż oprogramowania dla przedsiębiorstw za pośrednictwem hiperskalerowych rynków chmurowych (a  to właśnie przede wszystkim w tym segmencie konkurują z tradycyjnymi dystrybutorami) ma osiągnąć 85 mld dol. do 2028 r., w porównaniu z 16 mld dol.

GLOBALNIE CO TRZECI DYSTRYBUTOR PRZE WIDUJE, IŻ DO 2030

ROKU JEGO BIZNES UROŚNIE O PONAD 20 PROC.

w 2023 r. Dla porównania, dwaj najwięksi na świecie tradycyjni dystrybutorzy IT – TD Synnex i Ingram Micro – wygenerowali (odpowiednio) 58,5 mld dol. przychodów netto i 48 mld dol. w swoich ostatnich raportowanych okresach rocznych.

Niemniej, choć wydawałoby się, że taki rozwój sytuacji zagraża przyszłości tradycyjnych dystrybutorów, organizacja Global Technology Distribution Council (GTDC), gromadząca czołowych graczy z tego sektora, odnosi się do tej kwestii ze spokojem. Wprawdzie nie przeczy, że dynamiczny rozwój hiperskalerów to dla tradycyjnych dystrybutorów duże wyzwanie, gdyż oznacza silną konkurencję. Z drugiej strony dystrybutorzy, ze względu na wypracowane przez lata bardzo bliskie więzi z integratorami IT, stanowią potencjalny i faktyczny „lewar” do skalowania działalności takich chmurowych gigantów, jak AWS Marketplace, Microsoft Azure czy Google Cloud. Dlatego ci ostatni, choćby chcieli, nie mogą nie uwzględniać ich w swoich strategiach biznesowych.

– Hiperskalerzy potrzebują dystrybutorów ze względu na dotarcie, jakie ci im zapewniają. Natomiast jedną rzecz warto jeszcze w  tym kontekście p odkreślić, a  więc czynnik zaufania. Dzisiaj każdy producent i  partner wie, że dystrybutorzy nie b ędą sprzedawać b ezpośrednio do użytkowników. A  jeśli to się zdarza, to będą to robić, tak jak dotychczas, wspólnie z partnerami. Jeśli chodzi o hiperskalerów, to w ich modelu działania nie można być tego pewnym. W ich przypadku ten czynnik zaufania nie istnieje. Przy czym nie sugeruję, że hiperskalerzy robią coś złego, bo tak nie jest – mówi Frank Vitagliano, CEO GTDC (CRN Polska, nr 5/2025, „Dystrybucja zyskuje na wartości”).

Trwającą ewolucję sektora dystrybucji trafnie, jak się zdaje, opisuje Dave Watts, odpowiedzialny za interesy Ingram Micro – zasłużonego tradycyjnego dystrybutora, który od kilku lat rozwija swój własny Cloud Marketplace.

– To prawda, że słowo dystrybucja nie w pełni opisuje całą wartość i  specjalizację, które dostarczamy na r ynek, ale liczy się to, co robisz, a  nie to, jak jesteś nazywany. Niezależnie o d tego, czy chodzi o dystrybucję sprzętu IT na dużą skalę, dostarczanie rozwiązań w chmurze za pośrednictwem naszej platformy StreamOne, czy tworzenie innowacyjnych programów, takich jak Destination AI, koncentrujemy się na p omaganiu p artnerom w  wykorzystaniu innowacji technologicznych – przekonuje Dave Watts na łamach portalu IT Channel Oxygen.

Boeing 747 kilka stóp nad ziemią…

Jak zatem miała się dystrybucja w 2024 roku i jak ma się obecnie? Nick Bannister, prezes ECS na region EMEA w Arrow Electronics, chcąc w obrazowy

Spodziewany przez dystrybutorów wzrost ich biznesów do 2030 r.

sposób określić wyzwania, z jakimi mierzy się sektor dystrybucyjny, powiedział uczestnikom tegorocznego GTDC Summit EMEA, że przypomina to „pilotowanie Boeinga 747, który leci kilka stóp na ziemią”. Słowem, nie ma w tym przypadku miejsca na najmniejszy nawet błąd. Bannister odniósł się w ten sposób między innymi do wyzwań związanych z silną konkurencją ze strony hiperskalerów i koniecznością rozwoju własnych cyfrowych platform dystrybucyjnych, przy towarzyszącej temu próbie nadążenia za błyskawicznym rozwojem AI.

Z kolei Piotr Bieliński, prezes Actionu, kilka miesięcy temu stwierdził, że „konsument jest słabszy”, w związku z czym „rynek krwawi”. Jak przy tym dodał: „ostatnie lata rozpuściły całą branżę”, mając na myśli wymuszoną cyfryzację w okresie lockdownów, po których jednak nadeszły czasy wojenne oraz inflacja i rosnące koszty prowadzenia działalności.

I rzeczywiście, w 2023 r. obroty europejskiego sektora dystrybucji spadły o 3,3 proc., co można uznać za szczególnie bolesny upadek po wynikach z lat 2021–2022, gdzie średni roczny wzrost wynosił ponad 4,5 proc. Niewielkim pocieszeniem był w związku z tym oscylujący wokół zera (z małym plusem) rok 2024, natomiast w bieżącym roku europejska dystrybucja – według Contextu – wzrośnie o 3,6 proc. Z kolei w przypadku polskiego sektora dystrybucji w 2024 r. nastąpił spadek wartości sprzedaży o 3,7 proc., a w tym roku analitycy Contextu wieszczą wynik dodatni na poziomie 3 proc.

Powyższy kontekst warto uzupełnić o wyniki raportu „Tech Distribution 2030”, opracowanego na zlecenie GTDC przez Vation Ventures. Wynika z niego, że globalnie co trzeci dystrybutor przewiduje, iż do 2030 r. jego biznes urośnie o ponad 20 proc., a kolejnych 26 proc. spodziewa się wzrostu w przedziale od 10 do 20 proc.

– Osoby podające w  wątpliwość przyszłość dystrybucji zdają się zap ominać o  rosnącej złożoności projektów IT. W skład jednego systemu mogą wchodzić produkty nawet sześciu czy siedmiu vendorów. To mogą być elementy infrastruktury, rozwiązania cyberbezpieczeństwa, pamięć masowa i tak dalej. I znowu, dystrybutorzy są jedynymi, którzy mogą to ze sobą zgrać w całość, wspomagając przy takim projekcie z jednej strony producentów, a z drugiej swoich partnerów – podsumowuje Frank Vitagliano.

Artykuł został opracowany na zamówienie redakcji raportu „Computerworld TOP200”. n

Ruszył globalny

bój o talenty

Europa jest domem dla niektórych z największych marek świata, takich jak SAP, BMW, Mercedes-Benz, BP, Airbus czy Maersk. Może się również pochwalić jednymi z najbardziej prestiżowych uniwersytetów — Oxford, Cambridge, paryska Sorbona, Uniwersytet Wiedeński i Heidelberg, żeby wymienić tylko kilka. Historycznie Europa była kolebką innowacji, które zmieniły świat. Silnik parowy, koleje, samochód, radar, jak też przełomowe prace z zakresu fizyki — wszystkie powstały na Starym Kontynencie. Był on miejscem narodzin rewolucji przemysłowej, która zmieniła kształt globalnych gospodarek. Europejscy naukowcy odkryli penicylinę, opracowali silniki elektryczne i generatory, położyli podwaliny pod nowoczesne systemy bankowe i ubezpieczeniowe. To wyniosło Europę na czoło światowego przywództwa naukowego i przemysłowego. Pomimo tej szacownej spuścizny Europa nie jest już tym epicentrum innowacji, jakim była kiedyś. Brakuje takiego nasycenia centrami technologicznymi i finansowymi czy fundacjami badawczymi, jak ma to miejsce w Stanach Zjednoczonych i Chinach. Liczba patentów przyznawanych Europejczykom jest od dawna i stale dalece niższa niźli tych przyznawanych ich amerykańskim i chińskim odpowiednikom. To się jednak może zmienić, albowiem niezamierzonym skutkiem ataków administracji Trumpa na studentów na wymianie zagranicznej i jej represji wobec amerykańskich uniwersytetów z powodu liberalnej polityki może być ożywienie europejskich badań, rozwoju biznesu i innowacji.

Wyczuwając okazję do odzyskania przewagi technologicznej, Europa aktywnie pracuje nad przyciągnięciem międzynarodowych studentów, badaczy i przedsiębiorców, w tym tych wysiedlonych lub zniechęconych polityką USA. Podczas niedawnej konferencji Choose Europe for Science w Paryżu, Emmanuel Macron i Ursula von der Leyen zapowiedzieli przeznaczenie setek milionów euro na przy-

Podczas gdy Stany Zjednoczone utrudniają zagranicznym studentom i badaczom pozostanie w kraju, Europa przygotowuje się na przyjazd kolejnego pokolenia innowatorów.

ciągnięcie globalnych talentów. Francja zobowiązała się do wsparcia „wysiedlonych” badaczy w wysokości 113 mln dol., podczas gdy Komisja Europejska zobowiązała się do przekazania 500 mln euro, aby uczynić Europę „magnesem dla badaczy”. Szersza inicjatywa Horizon Europe, wspierana kwotą 105 miliardów dol., aktywnie promuje długoterminową współpracę naukową na całym kontynencie.

czenie regulacyjne, głęboka pula talentów i ogromna baza konsumentów nadal sprawiają, że USA są wciąż atrakcyjne dla inwestorów. Czynniki te sprawiają, że Stany Zjednoczone mają mnóstwo funduszy na innowacje. Tymczasem Europa dopiero pracuje nad ujednoliceniem swoich rozdrobnionych rynków kapitałowych. To cel, który, jeśli zostanie osiągnięty, mógłby zwiększyć jej konkurencyjność, ale miną lata, zanim to się ziści.

To coś więcej niż retoryka. Uniwersytety we Francji, Niemczech i Holandii uruchamiają inicjatywy mające na celu zatrudnianie zagranicznych naukowców, finansowanie współpracy transgranicznej i przyspieszenie przetwarzania wiz dla utalentowanych naukowców. Rzucają w ten sposób rękawicę Stanom Zjednoczonym, które wciąż są domem dla wielu najlepszych uniwersytetów świata, jak Harvard, Yale, Princeton, Georgetown i Stanford. Co ważne, nawet te średniej wielkości instytucje amerykańskie zwykle przewyższają swoje globalne odpowiedniki. Co więcej, oprócz samej jakości edukacji, szkoły amerykańskie oferują dostęp do potężnych sieci absolwentów osadzonych w gospodarce bogatej w kapitał. Stare przysłowie mówi, że najtrudniejszym elementem, jeśli chodzi o studiowanie na Uniwersytecie Harvarda jest dostanie się nań. Kiedy to się uda, studenci nawiązują relacje umożliwiające dostęp do kapitału początkowego i na tej bazie tworzenia bogactwa w długim terminie.

W tytułowym kontekście warto dodać, że kluczową rolę w budowaniu amerykańskiego sektora innowacji odegrali imigranci. Google (Sergey Brin, Rosja), Intel (Andy Grove, Węgry), eBay (Pierre Omidyar, Francja), Qualcomm (Andrew Viterbi, Włochy), Stripe (Patrick i John Collison, Irlandia), Nvidia (Jensen Huang, Tajwan), DoorDash (Tony Xu, Chiny) i Palo Alto Networks (Nir Zuk, Izrael) to tylko kilka przykładów. Inną długotrwałą przewagą USA jest rynek kapitałowy. Dolar amerykański pozostaje światową walutą rezerwową, przy czym stabilna gospodarka, korzystne oto-

Tak czy inaczej, podczas gdy Stany Zjednoczone utrudniają obecnie studentom, badaczom i zagranicznym innowatorom pozostanie na miejscu, Europa otwiera przed nimi swoje drzwi. Wynikająca z tego zmiana może napędzać kolejną wielką falę globalnej innowacji — tym razem skupioną nie w Dolinie Krzemowej, ale w Paryżu, Berlinie lub Amsterdamie.

Liderzy tacy jak Alex Karp, Elon Musk, Peter Thiel i Marc Andreessen nadal twierdzą, że Stany Zjednoczone muszą pozostać światowym supermocarstwem technologicznym. Przez dziesięciolecia imigracja i kapitał utrzymywały Stany Zjednoczone

EUROPA MOŻE ODZYSKAĆ SWOJE MIEJSCE JAKO ŚWIATOWY

MOTOR INNOWACJI.

na czele, umożliwiając im przewodzenie pod względem gospodarczym i innowacyjnym. Jednak o ile Chiny nadrabiają zaległości — a w niektórych obszarach przewyższają Stany Zjednoczone — te zwracają się do wewnątrz. A ponieważ Europa czyni wprost przeciwnie, to może odzyskać swoje miejsce jako światowy motor innowacji.

Larry Walsh

CEO oraz Chief Analyst w Channelnomics, firmie analitycznej specjalizującej się w kanałach sprzedaży i doradztwie dla producentów, dystrybutorów i integratorów IT. Autor jest również gospodarzem podcastu „Changing Channels” i producentem podcastu „In the Margins”. Kontakt: lmwalsh@channelnomics.com.

Do ostatniej kropli:

jak wycisnąć sok z danych

Za każdym przełomem w dziedzinie AI stoją konkretne narzędzia, systemy i infrastruktura, począwszy od automatyzacji codziennych zadań, aż po innowacyjne podejście do pracy z danymi.

Wojciech Urbanek, San Francisco

W2014 r. David Wilson, Ross Douglas i Alex Leibhammer założyli startup Cape Networks, który opracował rozwiązanie do monitorowania i optymalizacji sieci Wi-Fi. Cztery lata później firma została przejęta przez HPE, a jej produkt zintegrowano z platformą Aruba NetInsight. Wspomniana trójka nie związała jednak swojej przyszłości z HPE. Zamiast tego panowie rozpoczęli prace nad nowym projektem o nazwie Hunch, a więc narzędziem do automatyzacji pracy wykorzystującym sztuczną inteligencję. – Dopiero niedawno modele językowe nowej generacji zaczęły zauważal-

CZĘŚĆ SPECJALISTÓW

NI SKO OCENIA PRZYDATNOŚĆ

PLATFORM LOW-CO DE.

nie wspierać pracę umysłową. Nie chodzi jednak o pełne zastąpienie człowieka, bo technologia nie jest jeszcze na tym etapie, ale o eliminację pracy dla samej pracy, co odciąga nas od naprawdę istotnych zadań – wyjaśnia David Wilson, CEO Hunch. I chociaż automatyzacja sama w sobie nie jest nowym zjawiskiem, to dotychczas stosowane narzędzia często nie spełniają pokładanych w nich nadziei. W tym kontekście część specjalistów nisko ocenia przydatność platform low-code, zarzucając im złożoność i tzw. stromą krzywą uczenia.

– Każda taka automatyzacja to produkt jednorazowy, stworzony pod konkretny przypadek – podkreśla David Wilson. W obecnej sytuacji wielu pracowników próbuje automatyzować swoje obowiązki stosując tzw. GPT Hack, czyli kreatywne lub nietypowe wykorzystanie modeli językowych, takich jak ChatGPT, Claude czy Gemini. Jednak tego typu podejście sprowadza się zwykle do ręcznego „ko-

piuj-wklej” i ma niewiele wspólnego z całkowicie zautomatyzowanym procesem działającym 24 godziny na dobę. – Celem automatyzacji nie jest wykonanie zadania jednorazowo, lecz jego opisanie, uruchomienie i powtarzanie, bez konieczności angażowania człowieka. Problem żmudnych, powtarzalnych obowiązków polega na tym, że mimo ich „delegowania”, wciąż musimy się nimi zajmować – tłumaczy David Wilson. Założyciele wspomnianego startupu Hunch są zdania, że skuteczny system automatyzacji w firmie powinien spełniać trzy kluczowe warunki. Po pierwsze, zamiast budowania złożonych schematów czy pisania kodu, zadanie powinno dać się opisać w prostym, naturalnym języku, np.: „Codziennie o 8:00 wejdź na strony konkurentów A, B, C, sprawdź ceny produktów X, Y, Z i porównaj je z poprzednim dniem”. Po drugie, zamiast sztywnych reguł, lepiej wykorzystać agenta AI, który dobrze radzi sobie z błędami (np. jeśli strona jest niedostępna) i potrafi elastycznie zmieniać taktykę, kiedy coś pójdzie nie tak. Jednym słowem, zachowuje się jak człowiek, który szuka rozwiązania, a nie poddaje się przy pierwszym, lepszym problemie.

Wreszcie po trzecie, agent AI musi się ciągle uczyć, zapamiętywać zmiany i odkrywać nowe obszary. W przytoczonym wcześniej przykładzie jego zadaniem byłoby rozpoznanie nowego konkurenta i automatyczna aktualizację wiedzy w tzw. playbookach, czyli zestawach gotowych schematów działania i procedur wspierających realizację określonych zadań.

Hunch umożliwia pracę z różnymi modelami AI, działając jak „płótno”, na którym można łączyć modele językowe, generatywne, obrazowe czy API w ramach jednego przepływu pracy. Produkt skierowany jest do zaawansowanych

użytkowników, w tym inżynierów promptów. Przykładowym zastosowaniem może być w tym przypadku generowanie treści marketingowych na podstawie danych z LinkedIna, automatyczne tworzenie pluginów do aplikacji (na podstawie zgłoszeń z Discorda) czy codzienne generowanie pomysłów na posty w mediach społecznościowych.

– Hunch pozwala testować wiele modeli na realnych zadaniach. To trochę jak praca w zespole, po kilku kontaktach wiesz, kto w czym jest dobry – podsumowuje Adam Wilson.

PuppyGraph, czyli grafy bez bólu

Choć bazy grafowe istnieją od dekad (pierwsze powstały już w latach 60. i 70. XX wieku) to przez większość tego okresu stanowiły jedynie ciekawostkę. Przełomowym momentem było powstanie w 2007 r. Neo4j — jednej z pierwszych i do dziś najpopularniejszych grafowych baz danych. Wkrótce pojawiły się także konkurencyjne rozwiązania, takie jak Amazon Neptune, Azure Cosmos DB czy TigerGraph.

Grafy pozwalają bardzo szybko analizować powiązania pomiędzy różnymi elementami, co w klasycznych bazach relacyjnych często wiąże się z koniecznością budowania skomplikowanych zapytań SQL i dużym obciążeniem systemu. W rezultacie łatwiej wykryć powiązania między transakcjami a oszustwami, analizować relacje między firmami czy budować zaawansowane systemy rekomendacyjne. Jednak pomimo wyraźnych przewag technologicznych bazy grafowe nie zawładnęły rynkiem. To kwestia kosztów wdrożeń, skomplikowanych procesów ETL (Extract, Transform, Load) oraz problemów ze skalowaniem, które odstraszają wielu potencjalnych użytkowników. Dlatego, choć wiele osób interesuje się analizą grafową, to stosun-

kowo rzadko jest ona stosowana w środowiskach produkcyjnych.

– Ludzie spędzają mnóstwo czasu na próbach wdrożenia grafów, p o czym są tym zwyczajnie zmęczeni. To znak, że coś tutaj nie gra – komentuje Weimo Liu, założyciel i CEO PuppyGraph, startupu, który stworzył silnik zapytań przeznaczony do wydajnego przetwarzaniu danych grafowych w czasie rzeczywistym. Większość silników grafowych (Neo4j) bazuje na klasycznym podziale: warstwa przechowywania danych, silnik zapytań, pamięć graficzna. Natomiast PuppyGraph jest monolitycznym silnikiem zapytań, bezpośrednio działającym na danych w pamięci, co eliminuje narzuty wynikające z komunikacji między poszczególnymi warstwami. PuppyGraph bezpośrednio łączy się z istniejącymi źródłami danych, takimi jak: hurtownie i jeziora danych, relacyjne bazy danych SQL i NoSQL oraz popularne platformy (Databricks, Iceberg czy Trina). Silnik wspiera standardowe języki zapytań grafowych, takie jak Gremlin i OpenCypher, a dzięki swojej elastyczności sprawdza się zarówno w zastosowaniach ad hoc, jak i w aplikacjach czasu rzeczywistego, które działają 24 godziny na dobę. Z usług PuppyGraph korzystają firmy zajmujące się cyberbezpieczeństwem (analiza poważnych zagrożeń sieciowych), sektor finansowy (wykrywanie oszustw), a także sieci detaliczne (analiza łańcucha dostaw).

PuppyGraph, założony w 2023 r., zatrudnia 15 osób i pozyskał 5 mln dol. od funduszy venture capital. Startup przyciąga klientów poprzez tworzenie wartościowych treści, dopasowanych do ich potrzeb, zamiast „nachalnej” reklamy. Strategia w uproszczeniu sprowadza się do tego, że klienci sami znajdą dostawcę, kiedy będą szukać informacji lub konkretnego rozwiązania. Poza tym firma

buduje partnerskie relacje z dostawcami danych i integratorami, wśród których znajdują się MongoDB czy Databricks. PuppyGraph podpisał już pierwsze umowy OEM, a kolejnym krokiem jest ekspansja na rynek europejski, gdzie — jak zauważa Weimo Liu — sprzedaż bazuje przede wszystkim na lokalnych relacjach i partnerstwach. W dłuższej perspektywie PuppyGraph ma na celu automatyczne przetwarzanie różnorodnych formatów danych (tekstu, wideo czy audio) oraz integrację AI z analizą grafową. Taki krok pozwoli na budowę bardziej kompleksowych, inteligentnych rozwiązań, bez konieczności angażowania dużych zespołów inżynierskich.

Dane bez silosów i biurokracji

Dane w firmach coraz częściej przypominają swoistą stajnię Augiasza, tworząc chaotyczne, rozproszone silosy, których uporządkowanie na potrzeby AI i analityki wiąże się z ogromnym wysiłkiem i kosztami. Rzecz jasna, niektórzy starają się ten bałagan posprzątać, a przy okazji na tym zarobić. Jednym z chętnych do podjęcia się tego wyzwania jest Tabsdata – startup utworzony w ubiegłym roku przez Arvinda Prabhakara i Alejandro Abdelnura. Pierwszy, obecnie w roli CEO, pracował z danymi u wielu branżowych potentatów, jak Netscape, Sun Microsystems, Informatica, Cloudera oraz StreamSets. Z kolei Abdelnura brał udział w rozwijaniu ekosystemu Hadoop w Yahoo, a później dołączył do Cloudera i StreamSets. Obecnie obaj panowie chcą zmienić sposób, w jaki firmy przygoto-

DANE W FIRMACH CORAZ CZĘŚCIEJ PRZYPOMINAJĄ

wują dane do zastosowań związanych ze sztuczną inteligencją i analizą. – Klasyczne p otoki d anych l ądują w jednym wielkim silosie i  nikt nie bierze za nie o dpowiedzialności. To rodzi problemy z ich jakością, prowadząc do skomplikowanych, biurokratycznych procedur – tłumaczy Arvind Prabhakara. Platforma Tabsdata bazuje na centralnym serwerze, który zarządza przepływem informacji i przechowuje opublikowane tabele danych, śledzi historię zmian i zarządza katalogiem. System bazuje na trzech podstawowych rolach: wydawcy, transformatora i subskrybenta. Ten pierwszy pobiera dane z różnych źródeł — od relacyjnych baz danych (takich jak MySQL, Oracle czy PostgreSQL), przez systemy plików lokalne i chmurowe (np. Amazon S3, Microsoft Azure), aż po aplikacje SaaS. Transformator pozwala na przeprowadzanie zaawansowanych operacji, w tym czyszczenie danych, ich wzbogacanie czy agregację. Wszystko odbywa się w środowisku Pythona, a efektem tych prac są nowe tabele, gotowe do dalszego wykorzystania. Z kolei subskrybent zajmuje się eksportem gotowych, zweryfikowanych zestawów danych do systemów zewnętrznych, na przykład hurtowni danych.

Tabsdata udostępnia swoje rozwiązanie w modelu open-core, co oznacza, że podstawowa wersja systemu jest otwarta, zaś bardziej zaawansowane funkcje enterprise są chronione patentami. System może działać lokalnie, w chmurze lub na platformie Kubernetes. Opłaty naliczane są na podstawie liczby rdzeni procesora, a nie ilości danych, co z kolei ułatwia kontrolę kosztów. Obecnie system jest testowany przez duże przedsiębiorstwa z branży technologicznej oraz ubezpieczeniowej, a także przez sieci handlowe. n

Największe innowacje

zaczynają się... od bólu

„W Ameryce zachodzą zmiany, które wcześniej nie miały tam miejsca. To już nie jest kraj, w którym każdy może zrobić karierę „od pucybuta do milionera” – mówi Jacek Migdał, CEO Quesma.

Pracowałeś kilka lat w Dolinie Krzemowej. Jak oceniasz ten kraj z punktu widzenia funkcjonowania biznesu?

Jacek Migdał Stany Zjednoczone robią świetne wrażenie, zwłaszcza podczas krótkiego pobytu, kiedy odwiedza się takie miejsca jak Kalifornia. Wtedy przede wszystkim widać tą ich lepszą, bardziej „błyszczącą” stronę. USA to wciąż imperium, które napędza rozwój technologii, organizacji i myślenia o przyszłości. Jednocześnie staje się ono coraz bardziej bezwzględne dla Europejczyków.

Jeżdżę do Stanów Zjednoczonych od lat i widzę, że jeśli ktoś jest w górnych 10 procentach społeczeństwa, to życie tam ma naprawdę komfortowe. Z drugiej strony, bardzo łatwo można wszystko stracić. I to szybko. Odnoszę wrażenie, że w Ameryce zachodzą zmiany, które wcześniej nie miały tam miejsca. To już nie jest kraj, w którym każdy może zrobić karierę „od pucybuta do milionera”. Wyraźnie widać symptomy tworzenia się zamkniętej klasy uprzywilejowanych, swoistej arystokracji, która odziedziczyła majątek, wpływy i nieru-

zdefiniować się na nowo, bardziej skupiają się na wewnętrznych problemach niż na roli lidera świata.

Marcin Żukowski, współzałożyciel Snowflake’a, powiedział mi kiedyś, że Amerykanie są w podejmowaniu decyzji zdecydowanie bardziej odważni niż Europejczycy. Najczęściej wynika to z dobrego wykształcenia i możliwości zaistnienia na globalnym rynku. Czy podzielasz jego opinię?

zbudowanie czegoś większego, globalnego, jest marzeniem dla wybranych. Jednak widać pod tym względem pewne zmiany i dlatego mam nadzieję, że w Polsce wkrótce będzie więcej ludzi, którzy pójdą na całość.

Często słyszy się, że w Europie pracuje się, żeby żyć, a w USA żyje się, aby pracować. Czy zgadzasz się z tym stwierdzeniem?

Coś w tym jest, aczkolwiek w Polsce sytuacja wygląda inaczej niż w Europie Zachodniej. U nas ludzie pracują więcej, choć oczywiście nie wszyscy chcą o tym mówić. Nie zawsze jest bowiem mile widziane, kiedy szef firmy przechwala się, że programiści pracują po 60 godzin tygodniowo. Uważam, że Polacy są pracowici, czego nie mogę powiedzieć o niektórych państwach Europy, gdzie ciężka praca niekoniecznie jest postrzegana jako pozytywna wartość.

Spędziłeś po kilka miesięcy w Facebooku oraz Nvidii, natomiast z Sumo Logic związałeś się na długie dziesięć lat. Co zadecydowało o takiej właśnie ścieżce kariery?

Najpierw udało mi się dostać do Nvidii, co w dużym stopniu jest zasługą wyniku uzyskanego na olimpiadzie informatycznej. Zresztą moją przygodę z programowaniem zacząłem już w gimnazjum, natomiast po ukończeniu liceum pracowałem jako zawodowy programista. Nvidia rekrutowała ludzi na praktyki, które odbywały się w Santa Clara. Choć była to wówczas znana marka, nie była postrzegana tak jak dziś, lecz bardziej jako konserwatywna firma dostarczająca hardware. Z kolei Facebook znajdował się na samym szczycie i właśnie dlatego się tam NA RYNKU BAZ DANYCH

chomości. Osoby z tego grona zdążyły kupić dom w Kalifornii, zanim stało się to dostępne tylko dla najbogatszych. Swoją drogą, to są pierwsze objawy tego, co spotyka każde imperium. Dziś USA wciąż znajduje się na szczycie, ale nie ma żadnej gwarancji, że tak zostanie. Szczególnie, że obecnie Stany Zjednoczone, próbując

W Polsce firmy technologiczne najczęściej zakładają osoby bardzo przedsiębiorcze, ale głównie z myślą o rynku lokalnym. Przez długi czas takich biznesmenów traktowano u nas z dystansem, czasem wręcz z podejrzliwością. Natomiast w USA to często bohaterowie, osoby darzone uznaniem, inspirujące swoimi działaniami innych. Ja również podziwiam takich ludzi i chciałbym być jednym z nich. To jest nie tylko kultura ciągłego poszukiwania i testowania nowych rozwiązań, ale również akceptacji porażek. Nawet jeśli komuś coś się nie uda, to próbowanie sił w biznesie i podejmowanie ryzyka spotykają się z uznaniem, a nie z krytyką. W Polsce jest inaczej. Większość młodych ludzi nie zna tej ścieżki, nie próbuje iść tą drogą, bo nikt im tego wcześniej nie pokazał. Przez długie lata mieliśmy w kraju branżę IT nadrabiającą zaległości. I choć programiści w Polsce zarabiali bardzo duże pieniądze w porównaniu do kosztów życia, co z jednej strony było fantastyczne, to jednak miało swoją cenę, bo podniosło próg wejścia dla tych, którzy chcieli budować coś własnego. Zamiast podejmować ryzyko, szukali dobrze płatnych zleceń i na tym poprzestawali. Krótko mówiąc, nasza mentalność jest inna – łatwiej zadowalamy się mniejszym sukcesem. Tymczasem

przeniosłem. Niemniej pojawił się problem związany z otrzymaniem wizy. W ten sposób trafiłem do Sumo Logic, malutkiej firmy liczącej na początku 20 osób, która pomogła mi szybko załatwić formalności wizowe. Firma mocno się rozrosła, a ja po kilku latach przeniosłem się z Kalifornii do Warszawy, gdzie otworzyłem oddział Sumo Logic, który zatrudniał 80 osób.

Jak oceniasz pracę z Amerykanami w Dolinie Krzemowej? Na ile ona różni się od tej w Polsce.

W Stanach Zjednoczonych od razu rzuca się w oczy przyjazna, optymistyczna atmosfera. Ludzie są otwarci, zagadują, uśmiechają się, potrafią powiedzieć coś miłego nawet do nieznajomego. W porównaniu z Polską, gdzie częściej dominuje podejście krytyczne, amerykańska codzienność wydaje się bardziej pozytywna. Jednak ta otwartość często bywa powierzchowna. Można uczestniczyć w wielu różnego rodzaju wydarzeniach i poznać mnóstwo ludzi, ale trudno zbudować głębokie, długotrwałe relacje. W USA przypominają one networking, są dynamiczne, ale płytkie. W Polsce jest łatwiej o przyjaźnie na całe życie.

Dodam, że Amerykanie potrafią się świetnie sprzedawać… O tak! Nawet osoby bez wysokich kwalifikacji mają perfekcyjnie przygotowane CV. Czasami można odnieść wrażenie, że są to eksperci światowego formatu. Polacy są dużo ostrożniejsi w autopromocji, choć to się powoli zmienia. U nas częściej spotyka się ludzi solidnie przygotowanych technicznie, zwłaszcza w takich dziedzinach jak matematyka czy informatyka. Dlatego też lepiej rozumieją technologię. Za oceanem więcej jest ludzi myślących

o potrzebach klienta, rynku, a także o narracji tworzonej wokół produktu. Czasami brakuje im głębi technicznej, którą mają polscy inżynierowie. Oczywiście w USA pracują wybitni eksperci, ale ich zatrudnienie graniczy niemal z cudem. Poza tym w Dolinie Krzemowej pracuje wiele osób, które choć są kompetentne, nie dorównują najlepszym, a ich zatrudnienie kosztuje fortunę. W Polsce można zatrudnić świetnych specjalistów za znacznie rozsądniejsze pieniądze. Kolejną różnicą jest podejście do pracy i rotacja. W Kalifornii zmiana firmy co kilka miesięcy nie jest niczym nadzwyczajnym. Ludzie nieustannie uczestniczą w rekrutacjach, stale szukają czegoś lepszego, bo chcą spróbować nowego. W Polsce jest inaczej, wiele osób pracuje w jednej firmie przez długie lata, zwłaszcza jeśli są dobrze traktowani i mogą się rozwijać.

Napisałeś jakiś czas temu na swoim blogu, że Twoim marzeniem było założenie startupu. Niespełna dwa lata temu wystartowałeś z projektem Quesma. Jakimi cechami powinien charakteryzować się założyciel startupu? Trzeba być naturalnym optymistą i nie bać się podejmowania ryzyka. Z tym, że nie wystarczy być marzycielem – raczej należy nastawić się na pracę w dużej niepewności. Cały czas działać, próbować, szukać, nawet jeśli efekt nie jest gwarantowany. To świat, w którym sukces nie przychodzi liniowo. Wiadomo, że każdy startup przechodzi przez kilka faz. Zaczyna się od znalezienia problemu, który jest na tyle bolesny, żeby ludzie chcieli zapłacić za jego rozwiązanie. Czasami ten etap trwa miesiące, a czasami lata. Z zewnątrz wydaje się to być proste, ale w rzeczywistości to długa i niepewna droga.

Jeśli nie znajdziesz poważnego problemu, nie zbudujesz dużej firmy. Kiedy już odkryjesz tę żyłę złota, zaczyna się druga faza, czyli eksploatacja. To faza wymagająca ogromnej determinacji, sprawności operacyjnej i zdolności do szybkiego podejmowania decyzji. Choć to wszystko jest ekstremalnie trudne i o wiele trudniejsze niż praca w korporacji, to startup daje więcej swobody, odpowiedzialności, a przede wszystkim jest świetną nauką.

Zidentyfikowałeś problem — chaos panujący na rynku baz danych. Podczas jednego ze swoich wystąpień porównałeś tę sytuację do Londynu – miasta, w którym nowoczesność przenika się z historią. Skąd wzięło się to porównanie? Jakie są przyczyny takiego stanu rzeczy? Na rynku baz danych mamy dziś do czynienia z interesującym paradoksem. Z jednej strony obserwujemy ogromny postęp: nowe rozwiązania, nowe architektury, rosnące wymagania, a część rynku nieustannie ewoluuje, dostosowując się do zmian. A jednak wciąż działa grupa firm, które jakby zatrzymały się w czasie. To do pewnego stopnia naturalne, bo nie każdy nadąża za zmianami – z różnych powodów. W przypadku baz danych to tym bardziej zrozumiałe, bo wiele z podstawowych koncepcji zostało po prostu genialnie zaprojektowanych już dekady temu. One nadal działają i spełniają swoje funkcje. I dlatego wiele firm nie czuje presji, by je zmieniać.

A co z Quesmą?

Quesma pełni funkcję pomostu – łączymy te dwa światy. Ktoś kiedyś powiedział, że to trochę jak Londyn: z jednej strony nowoczesne metro, z drugiej – zabytkowe budynki i plątanina starych instalacji pod ziemią. I trzeba jakoś sprawić, żeby to wszystko działało razem. Taki właśnie jest nasz cel: modernizować infrastrukturę danych bez burzenia tego, co już istnieje. Żyjemy dziś w innym świecie niż jeszcze 20 lat temu. Wtedy cyfryzacja dopiero się zaczynała, podczas gdy dziś większość firm jest już w pełni zinformatyzowana. Ale to nie znaczy, że jest dobrze. Wręcz przeciwnie – często mamy do czynienia z bałaganem, technologicznym chaosem, nadmiarem wszystkiego – z wyjątkiem tego, czego naprawdę potrzebujemy. A kiedy próbujemy coś zbudować na tym fundamencie, to jak w Londynie – zamiast czystego placu budowy, znajdujemy stare rury, niewypały z wojny i rzeczy, o których nikt już nie pamięta.

Wojciech Urbanek

sierpień 2025 / CRN /

AI: 5 POPULARNYCH PUŁAPEK

Niewłaściwe korzystanie z AI może prowadzić do poważnych problemów, takich jak błędne decyzje, naruszenia prywatności, stronniczość, a nawet oszustwa i cyberzagrożenia.

Generatywna AI analizuje duże ilości danych tekstowych, identyfikuje wzorce językowe, rozpoznaje kontekst i uczy się. Wykorzystuje tę analizę do generowania odpowiedzi na polecenia, przewidując najbardziej prawdopodobne kolejne słowo. Modele LLM nie pełnią jedynie funkcji wyszukiwania informacji – wykorzystują swoją wiedzę (w tym źródła dostępne w internecie) do generowania nowych pomysłów lub proponowania rozwiązań problemów. Stosowanie takich algorytmów wiąże się z ryzykiem. W artykule omawiamy wybrane zagrożenia związane z generatywną AI i podpowiadamy, jak unikać najczęstszych pułapek wynikających z jej niewłaściwego użycia.

AI POWINNO POMAGAĆ LUDZIOM, A NIE ZASTĘPOWAĆ ICH W PROCESIE MYŚLENIA.

PUŁAPKA NR 1: niewłaściwie sformułowany prompt Prompty to zapytania, instrukcje, zadania, które użytkownik wpisuje oczekując pomocy lub odpowiedzi od Generatywnej AI. Im są lepiej sformułowane, tym otrzymana odpowiedź będzie bardziej precyzyjna. W takich przypadkach należy pamiętać o kilku zasadach. Cel: sprecyzować krótko i w jasny sposób, czego się potrzebuje (streszczenia, wykresu, instrukcji, treści postu, komunikatu itp.). Kontekst: opisać krótko sytuację, której ma dotyczyć odpowiedź, unikać bardzo ogólnych zapytań (np. napisz mi podziękowanie). Gdy dodanie kontekstu wymaga złożonego opisu, podzielić go na części. Modele mogą mieć trudności z rozumieniem słów wieloznacznych, np. „zamek”. Rozwiązaniem może być napisanie prompta w języku angielskim. Oczekiwania: określić, czego się oczekuje, jak długiej odpowiedzi, dla kogo ma być przeznaczona, jakim językiem napisana (formalnym, żartobliwym itp.), unikać żargonu i języka charakterystycznego dla określonych grup społecznych (np. młodzieżowego). Ograniczenia: podać, czego AI nie ma robić. Źródło: jeśli możliwe, zasugerować informacje lub przykłady, z których narzędzie może skorzystać. Rozwinięcie: nie traktować pierwszej odpowiedzi jako ostatecznej, podejść interaktywnie – dopytywać, dodawać wskazówki, prowadzić rozmowę z modelem. W każdej interakcji z AI trzeba, rzecz jasna, unikać sprzecznych instrukcji.

PUŁAPKA NR 2: bezpieczeństwo danych

Należy pamiętać, że korzystając z narzędzi bezpłatnych, płaci się za nie danymi, które są do nich wprowadzane. Dane te mogą zostać upublicznione, a modele wykorzystywać je do uczenia się. Niestety, nie ma pewności, że modele płatne tego nie robią, choć większość dużych firm technologicznych zapewnia, że korzystając z ich narzędzi w wersji płatnej, dane są bezpieczne. Ponieważ jednak ten obszar technologiczny nie jest wystarczająco uregulowany, zaleca się daleko idącą ostrożność i ograniczone zaufanie podczas pracy z AI. Zawsze należy pamiętać, że to, co wpisane w prompcie lub zawarte w dokumencie, który ma zostać przeanalizowany przez model, może pojawić się w internecie na publicznie dostępnych stronach.

Przykładowo, nie należy w prompcie używać następujących danych i informacji: danych osobowych (w tym rzeczywistych imion i nazwisk, PESEL-u, adresów); wizerunków (zdjęć dzieci, klientów, pracowników); informacji objętych tajemnicą handlową (na przykład w kontraktach); utworów, które chronione są prawem autorskim; wprowadzenia „do poprawy” produkcyjnego kodu źródłowego, w tym zwłaszcza kodu zawierającego hasła, klucze dostępu, identyfikatory; i wreszcie zdjęć pomieszczeń domu czy biura. Bezwzględnie należy poza tym przestrzegać zaleceń instytucji lub firmy w zakresie używania konkretnych narzędzi GenAI. W wielu przypadkach narzędzia udostępniane przez pracodawcę są

sprawdzone, a z dostawcą podpisana jest umowa, zapewniająca ochronę wprowadzanych do narzędzia wrażliwych danych. W przypadku zaś korzystania z narzędzi darmowych lub zakupionych prywatnie, należy stosować się do powyższych zaleceń i usuwać z treści zapytań oraz dokumentów, do których ma mieć dostęp AI, wszelkie wrażliwe informacje.

PUŁAPKA NR 3:

źródło aplikacji

Należy upewnić się, że aplikacja, z której się korzysta, jest jej oryginalną wersją. Cytując klasyka: wszystko, co oryginalne, jest lepsze. Dotyczy to również aplikacji. W sieci i sklepach aplikacji mobilnych można znaleźć podróbki popularnych (ale i mniej znanych) aplikacji, które mogą stanowić zagrożenie dla prywatności i bezpieczeństwa użytkownika. Często podrobione wersje są promowane i mają łudząco podobne ikonki aplikacji. Aplikacje należy pobierać tylko z oficjalnych źródeł. Warto sprawdzić opinie osób, które pobrały aplikację przed nami. Jeśli aplikacja jest podróbką, inni użytkownicy z pewnością o tym wspomną. Należy zwrócić uwagę na organizację, która opublikowała aplikację, jak też liczbę jej pobrań.

PUŁAPKA NR 4:

nieprawidłowe odpowiedzi

Aplikacje oparte na AI często korzystają ze źródeł otwartych, co oznacza, że generują odpowiedzi na podstawie najpopularniejszych miejsc w internecie. Może

to prowadzić do biasowania, czyli stronniczości odpowiedzi, tendencyjności, uprzedzeń i opierania się na stereotypach reprezentowanych w sieci, a nie na obiektywnych faktach i rzetelnej wiedzy. Model może również halucynować, czyli udzielać odpowiedzi niezgodnych z prawdą. Zwykle wynika to z faktu, że dane, na których model był trenowany, były błędne, niewystarczające lub niedoskonałe. Dlatego warto sprawdzić źródło, z którego AI korzystała udzielając odpowiedzi, a także zweryfikować tę odpowiedź, korzystając chociażby z popularnej wyszukiwarki.

PUŁAPKA NR 5: deepfake i oszustwa

Narzędzia oparte na AI wykorzystywane są nie tylko do wsparcia pracy, nauki i rozrywki, lecz również do szerzenia dezinformacji czy przygotowywania cyberataków. Dzięki AI przygotowanie wideo, które oczerni popularną osobę, czy stworzenie mejla phishingowego, który nakłoni odbiorcę do podania danych logowania (np. do banku), staje się coraz prostsze. Oznacza to, że z dużą rozwagą należy podchodzić do tego, co widzi się w sieci, oraz do tego, co przychodzi na skrzynki mailowe. Korzystanie z nowych technologii to duże ułatwienie, atrakcja, wsparcie, ale także odpowiedzialność.

Autorami artykułu są:

Małgorzata Krasny–Szyszkiewicz (CERT PSE), Daniel Kalinowski (TLBC), Katarzyna Rosińska (PWN).

Źródło: www.govpl.

Ekspertyza, nie skala: jak polskie firmy wykorzystują AI?

Od hype’u do dojrzałej adopcji – tak można podsumować nastawienie polskich firm do narzędzi AI, które zaczyna wchodzić w nową fazę. Poniżej kilka przykładów na bazie doświadczeń dostawców zrzeszonych w klastrze ITCORNER.

Sztuczna inteligencja z eksperymentu stała się fundamentem nowych modeli biznesowych. Nie wystarczy już zadawać pytania o to, czy warto inwestować w AI. Firmy technologiczne, które chcą utrzymać pozycję na rynku, muszą dysponować praktyczną wiedzą na temat tego, jak projektować takie narzędzia oparte na danych, które zapewniają ich użytkownikom realną wartość biznesową. Początkowo nie było to wcale oczywiste. Z jednej strony wybuch popularności modeli LLM związany z premierą ChatGPT spowodował falę entuzjazmu. Szybko jednak pojawiły się pytania: jak wdrażać AI odpowiedzialnie, jak mierzyć jakość wyników, co z danymi firmowymi i jak uniknąć kosztownej infrastruktury? Dziś technologia jest już wystarczająco dojrzała, by skupić się nie na pytaniu „czy?”, ale „gdzie?” i „jak?”.

AI w medycynie

W transformacji kluczowe znaczenie ma kontekst branżowy. W sektorze medycznym AI może być wsparciem, ale nigdy substytutem wiedzy lekarskiej. Dosko-

nale obrazuje to historia Medical Algorithms, gdzie AI już od lat funkcjonuje jako wsparcie procesów decyzyjnych. Przykład? Analiza zapisów EKG w badaniach holterowskich. Algorytmy wskazują potencjalne zaburzenia rytmu serca i ich częstość, ale ostateczna diagnoza należy do specjalisty.

– W obszarze kardiochirurgii i  transplantologii współpracowałem w  zespole profesora Zbigniewa Religi. To był człowiek, który miał o dwagę w ychodzić p oza schematy, ale zawsze w trosce o dobro pacjenta. I  tak też p atrzę na AI: jako narzędzie, które wspiera, ale nie zastępuje lekarza –  podkreśla Piotr Wilczek, CEO Medical Algorithms.

Śląska firma rozwija także narzędzia immersyjne, czego przykładem jest aplikacja edukacyjna do nauki anatomii serca w wirtualnej rzeczywistości. Również w tym przypadku AI wspomaga proces uczenia, wskazując obszary wymagające poprawy, ale to nadal lekarz ocenia predyspozycje studenta.

– Ta ostrożność w ynika z poczucia odpowiedzialności. Im więcej danych ge-

nerujemy w  medycynie, tym b ardziej p otrzebujemy n arzędzi d o i ch a nalizy. Z tym, że AI musi być weryfikowalne i transparentne. Pomyłki mogą mieć tragiczne skutki – zaznacza Piotr Wilczek.

AI jako rdzeń modelu biznesowego Z kolei w sektorze technologicznym sztuczna inteligencja może stać się trzonem oferty. Przy czym coraz częściej AI stanowi nie dodatek, lecz fundament produktów, procesów i sposobu myślenia o technologii. Tak właśnie dzieje się w przypadku Knowledge Hub – platformy opartej na LLM. Zamiast przeszukiwać firmową dokumentację, jej użytkownicy otrzymują kontekstowe odpowiedzi natychmiast.

– To realna oszczędność czasu, zwłaszcza przy onboardingu czy diagnozie problemów – mówi Marcin Biały, partner w spółce Flyps, gdzie powstał polski „hub wiedzy”.

Z kolei dla US Forest Service specjaliści Flyps stworzyli system automatycznego generowania dokumentów projektowych. Proces, który trwał miesiącami,

Paulina Baszak

dziś jest możliwy do realizacji w zaledwie dwa dni.

– Platforma automatycznie scala dane, porządkuje je, wypełnia dynamiczne pola i zamienia w kompletną, zgodną z procedurami dokumentację, podnosząc znacznie jej jakość – tłumaczy Marcin Biały. Poznański producent aktywnie działa poza tym w sektorze przemysłowym, gdzie wdraża systemy wizji komputerowej do monitorowania infrastruktury (np. szynoprzewodów). Poznańskie rozwiązania działają tam w czasie rzeczywistym, wykrywając usterki i eliminując fałszywe alarmy.

To samo podejście Flyps wykorzystuje w sektorze med i bio-tech, gdzie wdraża modele wizyjne, w tym służące do wykrywania predyspozycji do mózgowego porażenia dziecięcego u niemowląt. Algorytm AI wspomaga badania przesiewowe, analizując mikroruchy na nagraniach wideo z ponad 90-procentową (!) skutecznością.

Na uwagę zasługuje także system pomagający wykrywanie oszustw w hurcie rybnym, czy aplikacja Gluten.ai, która tworzy spersonalizowane przepisy dla alergików i poprzez wykorzystanie LLM-ów. Warto dodać, że spółka z Poznania stosuje AI również do wykrywania i kategoryzacji alg z obrazów rejestrowanych przez zatopione mikroskopy wokół wybrzeży Australii, co umożliwia bieżący monitoring jakości wody.

– Dla naszych klientów kluczowe jest nie tylko to, że korzystamy z AI, ale że potrafimy przekuć ją w realną wartość biznesową. Skupiamy się na dostarczaniu konkretnych rezultatów, które odpowiadają na rzeczywiste potrzeby organizacji – podsumowuje Marcin Biały.

Przewaga polskich firm technologicznych

To, co łączy Wilczka i Białego, to przekonanie, że nie trzeba być dużą firmą z Doliny Krzemowej, by tworzyć wartościowe produkty AI. Wystarczy znać potrzeby klienta i mieć odwagę budować wokół nich technologię. Jak mawia Piotr Wilczek: „ekspertyza jest walutą przyszłości”, a wtóruje mu coraz więcej specjalistów z sektora technologicznego. Upowszechnia się opinia, że najważniejsze nie jest to, aby nadążać za kolejnymi modelami i narzędziami, ale by umieć osadzić je w realnych kontekstach biznesowych i operacyjnych.

– Nie w tym rzecz, żeby być pierwszym, który wdroży nowy model. Rzecz w tym, aby zbudować wokół AI środowisko, które będzie wspierało zespoły w podejmowaniu decyzji, uczeniu się i tworzeniu wartości dla klienta – twierdzi Tomasz Wrona, CEO DocuSphere.ai. W jego opinii przyszłość AI w biznesie należy do tych, którzy rozumieją ludzi – nie tylko dane: „Model nie zrozumie rynku za nas. Ale może nam pomóc szybciej wyciągać wnioski i testować hipotezy. Pod warunkiem, że wiemy, czego szukamy”. Z tym, że nie chodzi już o wdrożenie jednego systemu. Chodzi o budowę kultury organizacyjnej, w której technologia wspiera decyzje, automatyzuje procesy i pozwala zespołom skupić się na tym, co najważniejsze: rozumieniu klienta.

Polska specjalizacja w AI

Wraz z rozwojem modeli takich jak Bielik czy PLLuM oraz zacieśnianiem współpracy między nauką a biznesem, Polska ma szansę budować własne, wyspecjalizowane systemy AI. Czy z czasem będziemy mieć własnego „AI-unicorna”? Wszystko zależy od determinacji i zdolności współpracy, a fundamenty już powstały, czego dowodzą konkretne działania firm stowarzyszonych w klastrze ITCorner. Przykładowo, MedSi – spółka dostarczająca inteligentne rozwiązania dla medycyny – od samego początku pracowała w ścisłej współpracy z konsorcjum Clarin (powstałym wewnątrz Politechniki Wrocławskiej), jednym z uczestników konsorcjum stojącego za stworzeniem PLLuM. Współpraca pomiędzy oboma podmiotami polegała na czerpaniu z ekspertyzy i wykorzystaniu dorobku naukowego konsorcjum w ramach budowy innowacyjnych produktów. MedSi dostarczało w zamian wiedzę dotyczącą wymagań biznesowych pochodzącą z rozmów z klientami wrocławskiej firmy. Jak podkreślają przedstawiciele ITCORNER, pozytywnym zjawiskiem, które można już zaobserwować, jest powstawanie interdyscyplinarnych zespołów badawczych powstających wewnątrz polskich uczelni i ich otwartość na kontakt z biznesem. Przykładem może być grupa badawcza „Humanistyka Cyfrowa” która powstała wewnątrz Uniwersytetu Śląskiego. Niebawem ITCORNER rozpoczyna cykl dotyczących tej kwestii warsztatów, aby lepiej skomunikować ze sobą świat nauki i biznesu.

Publikacja powstała przy współpracy z ITCORNER, organizacją zrzeszającą właścicieli firm technologicznych z całej Polski.

KORZYSTAJ

z naszej wiedzy

i rozwijaj swój biznes z CRN Polska

Zaprenumeruj najlepiej poinformowane pismo B2B IT: crn.pl/rejestracja

Cyfrowy bliźniak smak dba o dobry

„Idziemy w kierunku pełnej automatyzacji pracy instalacji produkcyjnej z udziałem sztucznej inteligencji” - mówi

Monika Budna, Digital and Manufacturing Excellence Manager w poznańskiej fabryce Unilever.

Jak duża jest skala zastosowań sztucznej inteligencji w waszej fabryce?

Monika Budna Zakład ma 25 linii produkcyjnych, na których powstają różne wyroby spożywcze – majonezy, ketchupy, sosy, czy zupy błyskawiczne. Myślimy o zastosowaniach AI w całej fabryce, ale jeszcze nie wszystkie procesy produkcyjne to umożliwiają. Potrzebne jest też oczujnikowanie maszyn, by zbierać dane służące trenowaniu modeli pozwalających potem na auto-

SZTUCZ NA INTELIGENCJA

BĘDZIE ZAIMPLE MENTOWANA

NA NOWEJ, PRZYSZŁOROCZNEJ

LINII PRODUKCYJNEJ.

matyczne sterowanie linią. Wiele rzeczy udało się nam już jednak zrobić. Efektem dotychczasowych wdrożeń jest przede wszystkim optymalizacja zużycia mediów – wody, prądu czy środków do mycia linii produkcyjnych.

Jak to wygląda w praktyce?

Po zakończeniu jednego procesu technologicznego i rozpoczęciu drugiego linię produkcyjną trzeba dokładnie wyczyścić. Składniki użyte do wytworzenia jednego produktu nie mogą mieszać się z innymi, a na tej samej linii produkuje się różne produkty spożywcze. Odpowiednio przygotowane, w ramach uczenia maszynowego, algorytmy określają każdorazowo optymalny sposób mycia linii produkcyjnej – czas, temperaturę, ilość użytej wody, ilość środka czyszczącego. Wcześniej mycie odbywało się według stałych, z góry ustalonych parametrów. Sztuczna inteligencja bierze pod uwagę różne czynniki, na przykład badaną w czasie rzeczywistym jakość przepływającej wody i ustala odpowiednie warunki mycia, optymalne do aktualnego stanu zabrudzenia instalacji.

Jak sobie radzi?

Bardzo dobrze, od jej wdrożenia w połowie września ubiegłego roku oszczędziliśmy 1,3 miliona litrów wody, a czas mycia skrócił się o 50 minut. Dzięki temu mogliśmy zwiększyć wydajność produkcji o dodatkowe 850 tysięcy sztuk naszych produktów. Na razie system jest wykorzystywany na jednej linii produkcyjnej, ale do końca tego roku wdrożymy go na dwóch kolejnych. Sztuczna inteligencja będzie też od razu implementowana na nowej linii produkcyjnej, która powstanie na początku przyszłego roku.

Czy wykorzystujecie sztuczną inteligencję również poza obszarem produkcyjnym?

Tak, AI pomaga nam dbać o bezpieczeństwo pracowników. W obszarach produkcyjnych wiele dróg transportowych krzyżuje się z drogami dla pieszych, co stanowi duże wyzwanie pod kątem bezpieczeństwa. AI pomaga chronić ludzi przed niebezpiecznymi sytuacjami, takimi jak zbyt bliskie podejście do wózka czy wejście na wydzieloną dla niego ścieżkę w celu skrócenia drogi. W newralgicznych punktach są zainstalowane kamery, które w trybie ciągłym obserwują sytuację i wysyłają otrzymane obrazy do systemu analitycznego, również pracującego w czasie rzeczywistym. System ten jest w stanie zidentyfikować potencjalnie niebezpieczne sytuacje i w razie ich wykrycia wysyła informacje do odpowiednich specjalistów.

Co się dzieje potem z tymi informacjami w praktyce?

Obraz z kamer jest analizowany anonimowo, twarze osób są zamazane, więc nie wiadomo kogo widzimy. Nagrania mają służyć budowaniu kultury bezpieczeństwa. Zebrany materiał jest wykorzystywany na spotkaniach z pracownikami, by uczulać ich na niebezpieczne sytuacje, zachęcając do zachowania czujności. To był dobry pomysł, o czym świadczy fakt, że od momentu wdrożenia systemu liczba niebezpiecznych sytuacji w zakładzie spadła. Ten sam system sprawdza, czy pracownicy chodzący po schodach trzymają się poręczy, co zwiększa ich bezpieczeństwo. Algorytm AI-owy sprawdza, czy faktycznie stosują się do tego, obowiązującego w całej grupie Unilever, wymogu.

Czy można powiedzieć, że poznańska fabryka Unilever realizuje w praktyce założenia Przemysłu 4.0? Instalujemy wiele czujników na liniach produkcyjnych, żeby zbierać dane o pracy maszyn. Każde zatrzymanie linii produkcyjnej z powodu awarii powoduje wymierne straty. Dwa lata temu zainstalowaliśmy czujniki, które badają wibracje i temperaturę urządzeń oraz prędkość obrotową na silnikach, przekładniach i łożyskach. W pierwszym etapie oczujnikowaliśmy urządzenia newralgiczne dla kontynuacji produkcji oraz te, które są trudno dostępne. Algorytmy uczą się specyfiki działania wykorzystywanych na produkcji urządzeń. Dzięki zastosowaniu modeli wytrenowanych w ramach uczenia maszynowego nie tylko możemy przewidywać i planować harmonogram serwisowania urządzeń,

ale też identyfikować zagrożone awarią miejsca i podzespoły.

Stworzyliście też tzw. cyfrowego bliźniaka. Co on konkretnie obejmuje i do czego jest wykorzystywany?

Cyfrowy bliźniak wspomaga nas obecnie w produkcji majonezu. To bardzo skomplikowany proces, bardzo wrażliwy na różne sytuacje i czynniki, zarówno w samym środowisku produkcyjnym, jak i wokół niego. Sukces zależny jest m.in. od temperatury wewnątrz hali, jak i od temperatury dozowanych składników, przede wszystkim oleju. Wpływ na ostateczny stan majonezu może mieć też szybkość działania instalacji produkcyjnej, za późno lub za wcześnie włączone kolejne dozowanie, czy np. podany za duży lub za mały wsad. Zaczęliśmy się zastanawiać, jak zniwelować wpływ tych parametrów i uniezależnić proces produkcyjny od jednostkowych czynników – żeby majonez był zawsze taki sam. Oczujnikowaliśmy linię produkcyjną i zaczęliśmy zbierać z niej dane, żeby uchwycić istotne korelacje i punkty newralgiczne dla produkcji majonezu. Tych danych uzbierało się tyle, że nawiązaliśmy współpracę z wewnętrznym zespołem Unilever specjalizującym się w analizie danych.

I co się udało w efekcie osiągnąć w kontekście bieżącej produkcji?

Wypracowany w ramach uczenia maszynowego digital twin kontroluje teraz produkcję majonezu – analizuje zbierane na bieżąco dane i sprawdza, co w procesie współgra, a co nie. Algorytm sugeruje, że trzeba na przykład zwiększyć prędkość procesu produkcyjnego, szybkość pracy młynka, przyspieszyć lub spowolnić dodawanie oleju. Początkowo, na etapie uczenia się algorytmu, operator akceptował lub odrzucał proponowane przez algorytm decyzje. Jesteśmy już krok dalej i idziemy w kierunku pełnej automatyzacji pracy instalacji produkcyjnej z udziałem sztucznej inteligencji.

Jakie to przynosi realne korzyści biznesowe?

Dzięki cyfrowemu bliźniakowi można będzie robić symulacje, na przykład sprawdzać, co by było, gdyby dodawany olej był o 5 stopni cieplejszy – czy można w takiej sytuacji tak zaprogramować proces produkcyjny, tak ustawić jego parametry, aby otrzymać dobry majonez. Pozwala to optymalizować proces produkcji oszczędzając składniki, czas i energię linii produkcyjnej uruchamianej do celów testowych. W  przyszłości chcemy cyfryzować rów-

nież inne, krytyczne dla produkcji majonezu elementy.

Czym jeszcze, oprócz wdrażania AI, zajmuje się kierowany przez Panią zespół specjalistów?

Zajmujemy się cyfryzacją wszelkich procesów i operacji w fabryce. Najpierw jednak trzeba dany proces ujednolicić, znormalizować. Zajmujemy się mapowaniem procesów i ich standaryzacją, by można je było usprawnić.

Czy dla wdrożeń AI też trzeba optymalizować procesy?

Tak, trzeba zacząć od zmapowania procesu, od sprawdzenia jak praca jest wykonywana dzisiaj, by móc zaprojektować proces idealny, określić jak on ma wyglądać docelowo. Wtedy dopiero można przeprowadzić jego digitalizację z udziałem AI.

Jakie są z Pani perspektywy najważniejsze wyzwania związane z wdrażaniem sztucznej inteligencji?

Ufamy AI, ale jesteśmy w pełni świadomi, że to tylko narzędzie, które trzeba spraw-

dzić i zweryfikować. Bardzo wnikliwie przyglądamy się wybranym rozwiązaniom, testując je dokładnie przed wdrożeniem. Jednym z kluczowych wyzwań jest zaangażowanie zespołów w proces adaptacji nowych technologii. Zrozumiałe jest, że oczekiwania wobec AI są wysokie – często traktujemy je jako systemy, które powinny działać bezbłędnie. Przykładowo, nasz chatbot wspierający serwisantów w diagnozowaniu usterek spotkał się z dużym zainteresowaniem, ale też z bardzo wymagającym podejściem użytkowników – otrzymywał skomplikowane pytania, na które nie potrafił odpowiedzieć. To pokazuje, jak ważne jest budowanie zaufania do technologii i edukacja w zakresie jej możliwości oraz ograniczeń. Jednocześnie zależy nam na tym, by AI wspierała rozwój kompetencji, a nie je zastępowała. Ważne, by pracownicy rozumieli jak działają nowe narzędzia i potrafili z nich świadomie korzystać – tak, by w każdej sytuacji człowiek zachował kontrolę i pełne zrozumienie procesów.

Rozmawiał Andrzej Gontarz

Polska jako

hub rozliczeniowy

Polska ma unikalną szansę stać się kluczowym hubem rozliczeniowym dla zagranicznych pracowników zdalnych i freelancerów w Europie Środkowo-Wschodniej.

Do osiągnięcia powyższego celu wystarczy jeden, prosty krok – zniesienie obowiązku posiadania certyfikatu rezydencji podatkowej przez specjalistów pracujących dla polskich firm. W efekcie nastąpi wzrost wpływów z VAT-u i CIT-u, z towarzyszącym temu wzrostem PKB Polski. Zyskają także polskie firmy, pozyskując wykwalifikowanych specjalistów bez konieczności ich relokacji do Polski. Polska, z jej dynamicznie rozwijającym się sektorem technologicznym i strate-

NIE CHODZI O USTALENIE DOKŁADNEGO KRAJU REZYDENCJI, LECZ O WYKLUCZENIE POLSKIEJ REZYDENCJI.

gicznym położeniem, ma jak najbardziej wszelkie predyspozycje, ażeby przyciągnąć międzynarodowe talenty pracujące zdalnie.

– Inspiracją mogą być dla nas inne kraje Unii Europejskiej, szczególnie Skandynawia, kraje bałtyckie, ale także Wielka Brytania, które zrewolucjonizowały cyfrową administrację, a niektóre z nich stały się rajem dla cyfrowych nomadów. My również możemy to osiągnąć, eliminując zbędne bariery biurokratyczne. De facto wystarczy jeden prosty krok, polegający na zniesieniu obowiązku przedstawiania certyfikatu rezydencji podatkowej przez zagranicznych pracowników

zdalnych – podkreśla Przemysław Głośny, prezes zarządu Useme.com.

Gdzie leży problem?

Obecnie polskie firmy zatrudniające lub rozliczające zagranicznych freelancerów muszą wymagać od nich certyfikatu rezydencji podatkowej. Brak tego dokumentu wiąże się z koniecznością odprowadzenia przez polskiego pracodawcę dodatkowego 20 proc. podatku, co w praktyce prowadzi do podwójnego opodatkowania i zniechęca do współpracy. Niestety, ta sytuacja hamuje rozwój polskich firm i pozbawia nasz budżet znaczących wpływów z podatków CIT i VAT oraz potencjalnego wzrostu PKB. Dodatkowo, dane dotyczące obciążenia polskich przedsiębiorców obowiązkami podatkowymi są zatrważające. Średnio aż 334 godziny rocznie poświęcane na wypełnianie formalności plasują Polskę w niechlubnej czołówce najbardziej skomplikowanych systemów podatkowych w Europie, wynika z raportu PwC. Dla porównania, w Estonii ten czas nie przekracza 50 godzin rocznie. Prostota i cyfryzacja to klucz do przyciągania zagranicznych talentów.

- Pozyskanie certyfikatu rezydencji podatkowej przez zagranicznych pracowników, wolnych strzelców, zleceniobiorców jest nie tylko czasochłonne, ale jest także obarczone skomplikowaną procedurą. Stąd zdecydowana większość rezygnuje z jego pozyskania. A to oznacza, że polska firma musi zapłacić wspomniane 20 procent

podatku. Stąd, zagranicznych pracowników zdalnych w Polsce jest znacznie mniej, niż mogłoby być – mówi Przemysław Głośny.

W Polsce obowiązuje generalna zasada, zgodnie z którą za miejsce opodatkowania dochodów z pracy (pensje, płace i podobne wynagrodzenia) zawsze należy uznawać to miejsce, w którym osoba fizyczna przebywa, kiedy wykonuje pracę, za którą otrzymuje wynagrodzenie. Zatem, jeżeli pracownik zdalny nie jest polskim rezydentem, to nie podlega obowiązkowi opodatkowania w kraju.

Problemem jest art. 26 Ustawy o CIT. W myśl ustawy firmy i inne organizacje są zobowiązane, jako płatnicy, pobierać zryczałtowany podatek dochodowy od wypłat wynagrodzeń pracowników zdalnych. Zastosowanie stawki podatku wynikającej z właściwej umowy o unikaniu podwójnego opodatkowania albo niepobranie podatku jest możliwe pod warunkiem udokumentowania siedziby podatnika dla celów podatkowych uzyskanym od podatnika certyfikatem rezydencji.

Rozwiązanie problemu

Najprostszym remedium jest likwidacja obowiązku przedstawiania certyfikatu rezydencji podatkowej przez zagranicznych zleceniobiorców i freelancerów oraz rozliczanie transakcji w Polsce, tak jak to ma miejsce w niektórych krajach UE czy Wielkiej Brytanii. Pracownik z zagranicy otrzymuje na konto pełną wartość kontraktu tzn. wartość brutto z podatkami i jest zobligowany do samodzielnego rozliczenia tegoż podatku w kraju właściwym ze względu na rezydencję podatkową.

Jeżeli nierezydent wykonuje pracę, przebywając poza krajem rozliczenia, wynagrodzenie otrzymane przez niego nie podlega

opodatkowaniu podatkiem dochodowym w tym kraju. Ponadto firma, która wypłaciła wynagrodzenie cudzoziemcowi, nie ma obowiązku zgłaszania takiej płatności do Urzędu Skarbowego i Celnego. Urzędy ściśle współpracują ze sobą oraz skutecznie wymieniają się informacjami z innymi organami administracji publicznej.

Nie ma zatem potrzeby ubiegania się o zaświadczenia do przedłożenia innym instytucjom państwowym (Fundusz Ubezpieczeń od Bezrobocia, Fundusz Ubezpieczeń Zdrowotnych, Inspektorat Pracy, Zarząd Ubezpieczeń Społecznych, Policja itp.) oraz samorządom lokalnym, ponieważ organy te mają dostęp do informacji i danych krajowej informacji skarbowej i celnej. W efekcie urzędy te są w stanie szybko zweryfikować, czy dana osoba (np. freelancer z zagranicy) jest widoczna w rejestrach któregoś z właściwych organów czy urzędów, czy też nie. Jeśli dana osoba tam nie widnieje, to z dużą pewnością są w stanie stwierdzić, że nie jest rezydentem danego kraju. A zatem certyfikat nie jest konieczny, aby się „uwiarygodnić”.

– W Polsce wymóg przedstawienia Certyfikatu Rezydencji Podatkowej jest rozwiązaniem domyślnym, ponieważ urzędy wolą przenieść obowiązek udowodnienia rezydencji na podatnika, zamiast samodzielnie weryfikować te dane. Dzięki temu instytucje, takie jak urzędy skarbowe i ZUS, unikają konieczności sprawdzania informacji w swoich bazach, a cały ciężar dowodowy spoczywa na osobie zobowiązanej do zapłaty podatku – mówi Przemysław Głośny. Zdecydowanie lepszym rozwiązaniem wydaje się być wykorzystanie mechanizmu wymiany informacji pomiędzy organami administracji publicznej, aby skutecznie potwierdzić brak rezydencji danej osoby fizycznej na terytorium Polski. Nie chodzi bowiem o ustalenie dokładnego kraju rezydencji, lecz o wykluczenie polskiej rezydencji. W efekcie zastosowania tej prostej zmiany zyskują wszystkie strony, zarówno budżet państwa, jak i rodzime firmy.

biznesu IT Stolica

Warszawa wyrasta na jeden z najbardziej atrakcyjnych rynków pracy IT na świecie.

Warszawa zyskuje na znaczeniu jako kluczowy rynek dla specjalistów IT w Europie, osiągając w marcu br. rekordowo niski poziom bezrobocia w tym sektorze (1,2 proc.) – wynika z raportu CBRE „Global Tech Talent GuideBook 2025”. Dla porównania, w Brukseli ten wskaźnik wśród pracowników technologicznych wynosi 10,7 proc. Autorzy raportu podkreślają, że w Warszawie na osoby z sektora technologicznego czekają atrakcyjne wynagrodzenia i możliwości rozwoju, bo rynek przyciąga nowe inwestycje. – Uniwersytety w Polsce reagują na tę sytuację intensyfikując programy edukacyjne i współpracę z firmami technologicznymi, aby zwiększyć liczbę wykwalifikowanych kadr. Dzięki tym działaniom, przewiduje się, że liczba specjalistów IT w Warszawie będzie systematycznie rosła. Dodatkowo warto również zaznaczyć, że Polska jako jeden z 15 krajów ma największą liczbę specjalistów AI, co świadczy o wysokim poziomie zaawansowania technologicznego kraju. Przyczynia się to nie tylko do rozwoju sektora IT, ale także umacnia pozycję Polski na globalnym rynku technologicznym –  podkreśla Katarzyna Gajewska, szefowa działu badań i rozwoju w CBRE. W stolicy Polski zlokalizowane są kluczowe firmy technologiczne, a miasto przyciąga także inwestycje zagraniczne. Specjalistom z branży IT Warszawa oferuje nie tylko całkiem konkurencyjne wynagrodzenia, ale także dostosowane do ich potrzeb środowisko pracy, z rosnącą liczbą startupów, firm technologicznych i inwestycji w innowacje. Miasto wyróżnia się również dużym potencjałem rozwoju w kontekście sztucznej inteligencji (AI). Z raportu CBRE wynika, że Polska, w tym Warszawa, znajduje się w czołówce krajów o rosnącym zapotrzebowaniu na specjalistów w tej dziedzinie, co wpisuje się w globalny trend wzrostu znaczenia AI w różnych branżach. Co więcej, dy-

namicznie rozwijający się rynek pracy, niskie bezrobocie, oraz dostępność wysoko wykwalifikowanej kadry sprawiają, że Warszawa staje się jednym z kluczowych miejsc na mapie technologicznych inwestycji w Europie. W kwestii zaś wynagrodzeń, jak wiadomo, rynki pracy w największych miastach technologicznych na świecie oferują różne ich poziomy. Na przykład, w San Francisco średnie roczne zarobki specjalistów IT wynoszą 177,2 tys. dol., w Nowym Jorku 158,3 tys. dol., a w Zurychu – 139,2 tys. dol. W Warszawie średnie roczne wynagrodzenie specjalistów IT to 73,1 tys. dol., co stawia stolicę naszego kraju w czołów-

STOŁECZNE WYNAGRODZENIA

SĄ NA POZIOMIE LIZBONY I SZTOKHOLMU.

ce miast europejskich pod względem konkurencyjności płacowej w tej branży. Wynagrodzenia w Warszawie są porównywalne z tymi, jakie oferowane są w Lizbonie i Sztokholmie.

Redaktor naczelny CRN Polska

Tomasz Gołębiowski

Naruszenie danych

w nowym świetle

Najnowsze wytyczne UODO precyzują, w jaki sposób należy podchodzić do naruszeń ochrony danych osobowych.

Wlutym br. na stronie internetowej

Urzędu Ochrony Danych Osobowych (UODO) pojawił się zaktualizowany poradnik dotyczący zgłaszania naruszeń. Zawarto w nim szereg wytycznych dotyczących identyfikacji naruszeń, ich oceny oraz dokumentowania. Poradnik zawiera również wskazówki dotyczące tego, które naruszenia zgłaszać oraz na co zwrócić uwagę przy zawiadamianiu o naruszeniu osób, których dane dotyczą. Mimo że urząd podkreślał, że jego intencją nie było wprowadzanie rewolucyjnych zmian w praktyce zgłaszania naruszeń, warto zwrócić uwagę na kilka istotnych kwestii poruszonych w poradniku.

Bardzo ważne jest to, w jaki sposób UODO rozumie naruszenie. W poradniku wskazano, że „naruszenie pojawia się zawsze, gdy dochodzi do zdarzenia, które: (i) jest incydentem bezpieczeństwa, (ii) dotyczy przetwarzanych danych osobowych, (iii) może prowadzić do ich nieuprawnio-

WARTO PRZEANALIZOWAĆ DOTYCHCZAS STOSOWANĄ METODYKĘ OCENY NARUSZEŃ.

nego zniszczenia, utracenia, zmodyfikowania, ujawnienia lub dostępu do nich”. Kluczowe jest tutaj użycie słowa „może”. Podczas webinarium zorganizowanego przez UODO w celu wyjaśnienia wytycznych opisanych w poradniku wytłumaczono, że nie chodziło tutaj o potencjalną możliwość wystąpienia negatywnych konsekwencji wymienionych powyżej, a o „dostateczną pewność”. Innymi słowy z naruszeniem będziemy mieli do czynienia w przypadku, gdy nie mamy wprawdzie pewności, że doszło do skutku w postaci nieuprawnionego zniszczenia, utracenia, zmodyfikowania, ujawnienia lub dostępu do danych, jednak na podstawie posiadanych informacji możemy stwierdzić, że jest duża szansa, że mogło do niego dojść.

Restrykcyjnie czy łagodnie?

Kolejną kontrowersyjną kwestią poruszoną w poradniku jest właściwa ocena sytuacji, w jakich należy zgłaszać naruszenia do UODO. Literalna lektura poradnika wskazywałaby na zaostrzenie stanowiska UODO w tym zakresie. Poradnik wskazuje bowiem na trzy możliwe scenariusze: brak ryzyka związanego z naruszeniem (a w konsekwencji brak obowiązku zgłaszania naruszenia do UODO); ryzyko (co wymaga zgłoszenia naruszenia do UODO); wysokie ryzyko (co wymaga zgłoszenia naruszenia do UODO oraz zawiadomienia osób, których dane dotyczą).

Biorąc pod uwagę treść art. 33 RODO, w którym wskazano, że administrator jest zobowiązany zgłosić naruszenie „chyba, że jest mało prawdopodobne, by naruszenie to skutkowało ryzykiem naruszenia praw lub wolności osób fizycznych” stanowisko UODO wydaje się być bardzo restrykcyjne. Podczas webinarium przedstawiciel UODO sprecyzował jednak, że przez „brak ryzyka” urząd rozumie małe prawdopodobieństwo jego wystąpienia. W konsekwencji zgodnie z aktualnymi wytycznymi UODO, aby stwierdzić, czy istnieje obowiązek zgłoszenia naruszenia, należy ocenić prawdopodobieństwo wystąpienia ryzyka naruszenia praw lub wolności osób fizycznych. Jeśli prawdopodobieństwo jest niskie (a więc brak realnych szans na materializację ryzyka), to naruszenia nie trzeba będzie zgłaszać do UODO (nawet, jeśli waga potencjalnych skutków jest duża). Przy czym, jako przykłady niskiego prawdopodobieństwa wskazano: ujawnienie danych, które są już publicznie dostępne; ujawnienie lub utracenie danych zaszyfrowanych w sposób zapewniający ich nieczytelność dla osób nieupoważnionych; incydenty, którym administratorzy definitywnie zaradzili. Do tej ostatniej kategorii można zaliczyć przykładowo sytuację, w której

dokumenty kadrowe lub finansowe zostałyby wyrzucone do kontenera na odpady znajdującego się na zamkniętym, monitorowanym terenie firmy. Jeśli pracownik w dość krótkim czasie zdałby sobie sprawę z błędu (wyrzucenia danych do śmieci) i podjęto by natychmiast działania mające na celu odzyskanie i zabezpieczenie dokumentów przed dostępem do nich przez osoby nieuprawnione oraz sprawdzono by na nagraniach z monitoringu, że nikt nie miał do nich dostępu, to można byłoby stwierdzić małe prawdopodobieństwo wystąpienia ryzyka.

ENISA do lamusa?

W tym kontekście pojawia się pytanie o możliwość dalszego korzystania z metodyki ENISA, która to metodyka jest dość powszechnie stosowana przy ocenie naruszeń. Stanowisko UODO nie przekreśla możliwości wspierania się metodyką ENISA – możemy wykorzystać ją do oceny wagi skutków naruszenia. Decyzja, czy zgłosić naruszenie do UODO, czy nie powinna być jednak podjęta po weryfikacji prawdopodobieństwa wystąpienia ryzyka.

Biorąc pod uwagę powyższe stanowisko, warto przeanalizować dotychczas stosowaną w organizacji metodykę oceny naruszeń i w razie potrzeby dokonać jej aktualizacji. Zgłaszając naruszenia należy pamiętać o tym, że niewielkie ryzyko również stanowi ryzyko, które obliguje do zgłoszenia naruszenia (o ile prawdopodobieństwo wystąpienia zagrożenia nie jest niskie).

Kolejną ważną kwestią, na którą zwrócono uwagę w poradniku jest rola inspektora ochrony danych w procesie oceny naruszenia. UODO podtrzymał dotychczas wyrażane stanowisko, zgodnie z którym inspektor ochrony danych nie powinien realizować czynności, które przepisy zastrzegają dla administratora. W poradniku wskazano dodatkowo przykłady działań (w kontekście zgłaszania naruszeń), których inspektor nie powinien wykonywać. Warto zwrócić uwagę w szczególności na punkt dotyczący dokumentowania naruszeń w imieniu

administratorów lub podejmowania zobowiązań dotyczących bezpieczeństwa przetwarzania danych. O ile więc inspektor ochrony danych może prowadzić swoją dokumentację naruszenia, o tyle nie powinna ona być prowadzona „za” administratora. Inspektor ochrony danych nie powinien również zgłaszać naruszeń dotyczących ochrony danych, zawiadamiać podmioty danych o naruszeniu, czy działać jako pełnomocnik w sprawach dotyczących ochrony danych osobowych. Powyższe jest uzasadnione ryzykiem popadnięcia w konflikt interesów lub naruszeniem niezależności inspektora. Rolą inspektora jest z  kolei monitorowanie procesu obsługi naruszenia, doradzanie i udzielanie wskazówek.

Zaufany odbiorca, czyli jaki?

W poradniku opisano również kogo należy uznać za zaufanego odbiorcę – jest to podmiot, który przypadkowo otrzymał dane osobowe, ale dzięki dotychczasowej, pozytywnej współpracy z administratorem można go uznać za godnego zaufania. Prawidłowe określenie czy mamy do czynienia z zaufanym odbiorcą jest bardzo ważne, bowiem może przyczynić się do stwierdzenia, że naruszenia nie trzeba zgłaszać z uwagi na niskie prawdopodobieństwo wystąpienia ryzyka. Są to sytuacje, gdy administrator ma pewność, że ten podmiot zareaguje właściwie i przyczyni się do ograniczenia ryzyka naruszenia praw i wolności osób, których dane dotyczą.

Jako kryteria uznawania kogoś za zaufanego odbiorcę UODO wskazał pozostawanie z nim w stałych stosunkach (np. w bliskiej współpracy biznesowej lub wspólnej strukturze organizacyjnej) i posiadanie przez administratora wiedzy na temat istotnych szczegółów dotyczących odbiorcy (np. procedur bezpieczeństwa, historii dotychczasowej, pozytywnej współpracy w podobnych sytuacjach). Co istotne, nie można automatycznie uznawać kogoś za zaufanego odbiorcę – każdy przypadek należy oceniać indywidualnie. Za zaufanych odbiorców mogą być uznane np. inne działy w organizacji administratora, sprawdzony, długoletni dostawca administratora, profesjonalny i blisko współpracujący z administratorem podmiot przetwarzający.

UODO wypowiedział się również co do tego przez jaki okres informacje o naruszeniach ochrony danych osobowych powinny być przechowywane. Według UODO – jak najdłużej. Wobec czego UODO nie rekomenduje wskazywania

W OCENIE UODO NADMIAR KOMUNIKATÓW DOTYCZĄCYCH NARUSZEŃ

MOŻE SKUTKOWAĆ NIEPOTRZEBNYM STRESEM LUB PRZECIĄŻENIEM INFORMACYJNYM.

w wewnętrznym rejestrze naruszeń jakichkolwiek danych osobowych (np. osób zaangażowanych w proces zarządzania naruszeniem lub osób, których dotyczy naruszenie). Jeśli dane takich osób pojawią się w rejestrze, należy pamiętać o zastosowaniu zasady minimalizacji danych. UODO nie rekomenduje też informowania osób, których dane dotyczą o zdarzeniach, które nie stwarzają wysokiego ryzyka. W ocenie UODO nadmiar komunikatów dotyczących naruszeń może skutkować niepotrzebnym stresem lub przeciążeniem informacyjnym prowadzącym do ignorowania podobnych wiadomości.

Przydatne może być również zapoznanie się z sekcją poradnika dotyczą-

cą zapobiegania naruszeniom ochrony danych, w której wskazano praktyczne przykłady środków organizacyjnych i technicznych, które służą zapobieganiu naruszeniom. Wprawdzie są to jedynie przykłady, jednak warto rozważyć, czy nie będą odpowiednie w przypadku określonej organizacji. A przede wszystkim polegać na zdrowym rozsądku.

Ewa Kuczyńska jest radcą prawnym w Kancelarii Prawnej GFP Legal.

DANE
OSOBOWE

obserwacji

z wyjazdu do Chin 10

Chińczycy czują, że będą mieli przez najbliższe lata spore problemy, ale długoterminowo są pewni swego.

Przełom marca i kwietnia spędziłem w Chinach i na Tajwanie. Jechałem tam, mając z tyłu głowy to, że może już nie być kolejnej okazji, biorąc pod uwagę całe obecne napięcie w tym regionie. Dużo czasu poświęciłem na rozmowy z lokalnymi przedsiębiorcami, przemysłowcami i funduszami inwestycyjnymi. Jednak nie była to typowa misja gospodarcza, a raczej turystyka biznesowa – pojechałem z grupą polskich przedsiębiorców nauczyć się Chin i Tajwanu, zrozumieć, na czym polegają źródła ich sukcesów, podejrzeć ich osiągnięcia i przewagi konkurencyjne. Odwiedziliśmy Hong Kong, bramę do Chin, finansowe centrum regionu. Potem Shenzhen, odpowiednik kalifornijskiej Silicon Valley, następnie zakłady produkcyjne w Guangzhou i Foshan. Na koniec odwiedziliśmy Tajpej.

1 Podejście do pracy

Chińczycy to pracusie. Jeden z naszych chińskich przewodników opisywał ich podejście do pracy na takich przykładach, że jak Ci się coś zepsuje w domu, to w ciągu dwóch godzin masz gościa, który Ci to naprawia. Chcesz jedzenie – masz je w 30 minut. Chcesz posprzątać, masz house cleaning w 30 minut.

2

Wielki Brat patrzy

Chiny to też postęp w krzywym zwierciadle. Bardziej przedsiębiorczy żebracy

potrafią żebrać tu z QR kodem, a przestępczość maleje, bo wszędzie są kamery, ale to drugie ma swoją cenę. Wszyscy są spięci, co widać od interakcji w hotelowym lobby po próbę small talku na ulicy. Politycznie poprawni, nie starają się nawet podejmować odpowiedzi na tematy związane z napięciami w regionie czy rozwojem przemysłu wojskowego. Ewidentnie czują na sobie wzrok „wielkiego brata”. Tajwańczycy z kolei wyluzowani, otwarci, towarzyscy. Dwa zupełne przeciwieństwa. Co więcej, nasz chiński tłumacz musiał raportować do jednostki rządowej, gdzie jedziemy i co dokładnie robimy.

3

Giełda w Hongkongu

Gdy na giełdzie w Hongkongu zapytaliśmy, jak wygląda tu rozwój technologii dronowych, szczególnie w kontekście dual use i wojskowości, skwitowali to tylko tym, że to dla nich za mała marża i niespecjalnie są tym zainteresowani. Zbyli nas. Podkreślali przy tym jednocześnie duże dyskonto na chińskich spółkach w stosunku do ich amerykańskich odpowiedników, na co dali nam dwa przykłady, jeden mniej, drugi bardziej oczywisty. W sumie sama dzielnica finansowa Hongkongu zrobiła na mnie większe wrażenie niż Wall Street.

4

Segment robotów humanoidalnych

W tym kontekście warto porównać sobie amerykański Figure AI, firmę zaj-

mującą się tworzeniem humanoidalnych robotów do UBtech. Pierwszy wyceniany jest obecnie na 40 mld dol., podczas gdy drugi na około 5 mld dol. Ośmiokrotna różnica…

Chińczycy twierdzą, że w porównaniu do swoich amerykańskich konkurentów mają już setki komercyjnych wdrożeń w fabrykach motoryzacyjnych. Do końca roku mają kończyć fabrykę na blisko 10 tys. tego typu robotów rocznie. Nie wydawało mi się to wartością dużą, dlatego dopytałem, ile czasu zajmie im zastąpienie większości pracowników fizycznych humanoidalnymi robotami. Twierdzą, że jedynie około 6 lat, dodając, że nie tyle skalowanie produkcji jest dla nich wyzwaniem, co zbieranie danych i precyzyjna kalibracja robotów. Słowem, UBtech zrobił na mnie duże wrażenie, a tego typu podobnych firm, skupionych na rozwoju humanoidalnych robotów są w Chinach dziesiątki.

5 Segment

motoryzacyjny

Byliśmy między innymi w BYD i X-Peng. Wszechstronność produktów marki „Build Your Dreams” robi wrażenie. Od samochodów elektrycznych, po produkowanie baterii do Tesli, czy domowych magazynów energii, których w tym roku Niemcy kupili od nich ponad milion. Tesla wyceniana jest na 800 mld dol., zaś BYD to ledwie 130 mld dol. Znów znacząca różnica (sześciokrot-

na), ale skala możliwości będzie się tylko powiększać na korzyść chińskich EV. Po ulicach Hong Kongu czy Shenzhen jeździ dużo Tesli, ale jednocześnie wszyscy mówią, że tutaj już nikt ich nie kupuje. Rodzime marki doskoczyły poziomem do tego, co tworzył zachód, a poza BYD i X-Peng mamy jeszcze Nio, Huawei czy Xiaomi (polecam zobaczyć SU7, trochę jak Panamera). Twierdzą, że chińskie EV są obecnie najczęściej wybieranymi elektrykami w Norwegii, Szwecji, Danii czy Holandii. Europejski i amerykański przemysł motoryzacyjny jest w plecy na tak wielu polach, że tutaj długoterminowo nie będzie czego zbierać. Jest to oczywiście pokłosiem bardzo przemyślanego wsparcia rządowego, który subsydiuje chińskie strategiczne segmenty gospodarki. Trudno jest rywalizować z takim podejściem na wolnym rynku…

6

Wątek AI

DeepSeek, DeepSeek, DeepSeek… Odmieniają go dumnie przez wszystkie przypadki. Sankcje na AI tylko popchnęły Chiny do pracy nad wydajniejszymi modelami AI, stąd rodzimy DeepSeek. Top trzech graczy na rynku AI: Alibaba (teraz to największy dostarczyciel chmury w Chinach, a nie tylko największy eCommerce), ByteDance (leży na algorytmach i jest jedną z najbardziej zaawansowanych AI firm w Chinach; pytani o manipulacje algorytmem i inne treści wyświetlane w USA/Europie vs w Azji do niczego się nie przyznają, twierdząc, że po tych ostatnich próbach przejęcia stali się najbardziej „legitną” firmą tech na świecie) i wreszcie Tencent (gracz numer 3 na rynku AI). Czy AI to jest rynek, na którym „winner takes all”? Niekoniecznie. Przykładem są ChatGPT czy właśnie DeepSeek, gdzie widać, że to startupy napędzają innowacje.

7 Tajwan

Powiem szczerze – rozczarował mnie. Ze względu na szum wokół półprzewodników spodziewałem się centrum innowacji, a samo centrum Tajpej sprawia wrażenie trochę jak Warszawa z lat 2000-nych. Nowoczesne drapacze chmur dzieli siatka obdrapanych i zaniedbanych alei. Tajwan sprawia wrażenie, jakby swoje lata świetności miał już za sobą. Chociaż energia ludzi bardzo na plus. Dużo imprez w europejskim stylu i mentalnie przepaść względem Chin kontynentalnych. Nie wydaje mi się, aby była tu zgoda społeczna na powrót do macierzy, szczególnie wśród młodego pokolenia.

8 Potencjalny konflikt zbrojny

W kwestii Tajwanu jednemu Chińczykowi w Hongkongu rozwiązał się nieco język i powiedział coś więcej ze swojej perspek-

tywy: „Ostatnie czego chcemy to dokonanie agresji zbrojnej na Tajwan. Czas gra na naszą korzyść. Będziemy mieć więcej lotniskowców niż USA, więcej nowoczesnych samolotów, więcej zasobów, coraz większy kapitał, coraz większą produkcję przemysłową. Jedyne co USA może zrobić to zwijać globalizację i umacniać relacje z Europą, która pozostaje jedynym nierozegranym rynkiem, który wciąż stara się balansować. Azja jest chińska, Afryka też”. W sytuacji pokoju Chiny będą tylko coraz bardziej odjeżdżać USA, więc nie ma sensu zbrojna agresja z ich strony. W kwestii półprzewodników Chińczycy również twierdzą, że z poziomu 5 nanometrów, które obecnie mają, zejdą do tajwańskich 2 nm w ciągu najbliższych 2 lat i nie potrzebują do tego Tajpej.

9 Obecność europejska

Byłem ciekaw, kto z Europy najczęściej tu przyjeżdża i dopytywałem o to na wielu spotkaniach podczas wizyty w Azji. Najczęściej przewijali się Anglicy, Francuzi i Niemcy. Jeśli chodzi o sam Tajwan, to silnie reprezentowani są Niemcy i Francuzi. Przy czym Francuzi naciskają na rynek dóbr luksusowych, zaś Niemcy na przemysł. Robią tu wspólnie ogromne projekty infrastrukturalne, jak na przykład farmy wiatrowe. Do tego mają tu niemieckie i francuskie think tanki, jak Instytut Goethego. To jest cała infrastruktura, a nie pojedyncze zaangażowanie. Każdy większy projekt infrastrukturalny na Tajwanie angażuje Siemensa czy firmy francuskie.

10 Problemy Chin

Zarówno w Hongkongu, jak  w Shenzhen dość mocno podkreślane były coraz większe problemy z bezrobociem, konkretnie w grupie absolwentów studiów wyższych. Rząd przestał to raportować, gdy bezrobocie wśród absolwentów sięgało 25–30 proc., a teraz mówi się o poziomie nawet 50 proc. Rocznie Chiny produkują 10 milionów bezrobotnych absolwentów uczelni wyższych, dla których nie ma pracy, a którzy nie chcą wracać do rodziny do pracy w fabrykach na prowincji. Dostałem na miejscu sporo pytań, czy nie zatrudniłbym programistów z Chin.

Drugim istotnym problemem jest temat kryzysu na rynku nieruchomości, który odbije się mocno na rodzimym rynku bankowym. Chodzi tu o tę samą mechanikę, która w USA spowodowała kryzys subprime 2007–2009, gdzie banki udzieliły za dużo kredytów osobom o niskiej zdolności kredytowej. To samo ma czekać Chiny, co będzie dla nich w najbliższych latach dużym wyzwaniem.

Generalne wrażenia

Jako zwolennik współpracy transatlantyckiej, na starcie byłem sceptyczny i wyjeżdżałem jako gość ugruntowany w amerykańskiej hegemonii, przepełniony narracją o tym, że USA sobie poradzą i rozegrają Chiny. Sądziłem, że właśnie z tak agresywnym przywódcą, jakim jest Trump to im się może udać. Nie przypuszczałem jednak, że Chiny są tak zaawansowane technologicznie, co dobitnie można odczuć będąc dopiero na miejscu. Pod tym względem są zdecydowanie przed Europą i wiele na to wskazuje, że także przed USA. To moja subiektywna opinia. Więcej produkują, robiąc to szybciej, taniej, efektywniej. Chińska oligarchia (mam na myśli partię) potrafi rozgrywać kluczowe sektory gospodarki. To może sprawdza się w skali makro na poziomie rywalizacji mocarstw, ale na koniec dnia żadna firma nie jest tam w 100 proc. prywatna i ma to swoje konsekwencje. Pamiętajmy o przykładzie Jacka Ma, szefa Alibaby, który zniknął z życia publicznego w 2020 r. po krytyce chińskiego systemu finansowego. Jego wypowiedzi wywołały represje ze strony władz, w tym zawieszenie notowań spółki zależnej Ant Group i dochodzenie antymonopolowe wobec Alibaby. W efekcie majątek Ma znacznie się zmniejszył, a jego firmy straciły miliardy dolarów wartości rynkowej. Chiny mają w kieszeni Azję i Afrykę, a jedynym nierozegranym regionem wydaje się być Europa, którą skutecznie do siebie zniechęca Trump. Czy to, co obecnie dzieje się w kwestii ceł sprawi, że Europa określi się po stronie USA? Ekspertem nie jestem, ale wydaje mi się, że niekoniecznie. Przy tym wszystkim Europa to nadal 500 milionów ludzi i ogromny rynek wewnętrzny z wielkim potencjałem, który można lepiej wykorzystać.

BYD to setki produktów, ByteDance to kilkanaście aplikacji i 2 mld użytkowników dziennie. Nie można bać się ciężkiej pracy, trzeba działać bardziej wszechstronnie, szukać synergii i śmielej wchodzić na kolejne rynki. Chińczycy pokazują, że można. To tak na koniec, z dedykacją dla wszystkich polskich przedsiębiorców…

Piotr Nowosielski jest CEO justjoin.it oraz rocketjobs.pl.

Wieści z sektora

startupów

Polskie startupy i rodzimi founderzy są niezwykle aktywni, niezależnie od aktualnej koniunktury w branży IT.

l Polska umacnia swoją pozycję środkowoeuropejskiej „stolicy” startupów – podkreślają autorzy raportu „Central and Eastern European Startups 2025”. Dzięki szybko rozwijającemu się ekosystemowi, utalentowanym specjalistom i rekordowej liczbie scaleupów, nasz kraj jest obecnie głównym źródłem innowacji w regionie. Na koniec pierwszego kwartału tego roku łączna wartość ekosystemu startupów w Europie Środkowo-Wschodniej osiągnęła rekordowy poziom 243 miliardów euro, przy czym polski rynek ma w tym największy udział. Co godne uwagi, Polska jest liderem pod względem liczby scaleupów (startupów z finansowaniem przekraczającym 15 mln euro) i jest krajem, w którym funkcjonuje wielu najbardziej obiecujących kandydatów na jednorożce w regionie. „Europa Środkowo-Wschodnia nie jest już tylko ekscytującym miejscem dla wczesnej fazy innowacji — jest domem poważnych kandydatów w globalnym wyścigu o technologie transformacyjne. Z tym, że lokalny kapitał prywatny nie wspiera w wystarczającym stopniu osób podejmujących ryzyko i szybko rosnących firm, które zdefiniują przyszłość regionu. To musi się zmienić. Lokalni interesariusze muszą się włączyć, współpracować z VC i wspierać kolejną falę historii sukcesu Europy Środkowo-Wschodniej. Dzięki inicjatywom takim jak European Tech Champions Initiative odblokowujemy kapitał, mobilizujemy prywatnych inwestorów i zapewniamy, że najbardziej ambitne firmy mają finansowanie na późnym etapie, którego potrzebują, aby się rozwijać. Nadszedł moment, który Europa Środkowo-Wschodnia musi go wykorzystać” – przekonuje Patric Gresko, Head of Mandates & Institutional Relations, CEE, Baltics & Nordics w Europejskim Funduszu Inwestycyjnym. Z kolei według autorów raportu „Dealroom CEE 2025” w Polsce warto inwestować w rozwój miast takich jak Wrocław, Poznań czy Gdańsk, aby umożliwić lepsze wykorzystanie potencjału polskich przedsiębiorców.

STARTUP MIESIĄCA

l Reclimb to polski startup, który zaprojektował i wprowadził na rynek elektroniczne ściany wspinaczkowe. Reclimb niedawno pozyskał 1,4 mln zł dofinansowania od PARP-u na rozwój tych właśnie rozwiązań, które łączą sport, technologię i grywalizację. Polskie „inteligentne” ściany wspinaczkowe zyskują popularność zarówno na rynku krajowym, jak i międzynarodowym, co czyni je szczególnie ciekawym przykładem polskiej pomysłowości w dziedzinie technologii sportowych.

POLSKA JEST LIDEREM POD

WZGLĘDEM LICZ- BY SCALEUPÓW, CZYLI STARTUPÓW

Z FINANSOWANIEM

PRZEKRACZAJĄCYM 15 MLN EURO.

RYNEK

PARTNERSTWO DLA ROZWOJU

l Fundacja Startup Poland dołączyła do Polskiej Agencji Inwestycji i Handlu (PAIH) w celu stworzenia grupy roboczej skupionej na wzmacnianiu wizerunku polskiego potencjału gospodarczego za granicą. Inicjatywa ta ma na celu budowanie przyszłości technologii i biznesu. Nowa strategia PAIH na lata 2025–2029 kładzie nacisk na: zwiększanie eksportu i atrakcyjności inwestycyjnej, promowanie marki polskiej gospodarki na świecie, rozwój kapitału ludzkiego i digitalizację, rozszerzanie sieci zagranicznych i regionalnych biur handlowych.

INWESTYCJE: ZASTRZYK DLA PIĘCIU FUNDUSZY

l Kwiecień tego roku przyniósł sporo zmian na polskim rynku VC, a wyjątkową aktywność wykazało PFR Ventures, ogłaszając inwestycję w wysokości 63 mln euro (270 mln zł) w pięć funduszy VC: 4growth VC, Aegis Capital, iif VC, Kogito Ventures i Lowercap. Fundusze te będą skierowane do około 65 polskich startupów, koncentrując się na sektorach takich jak fintech, insurtech, medtech i healthtech. Ten ruch jest częścią programu Europejskich Funduszy dla Nowej Gospodarki (FENG), który obecnie wspiera 40 funduszy VC i nadal napędza innowacje i ekspansję międzynarodową polskich startupów. 4growth VC koncentruje się na fintechach, insurtechach i medtechach o potencjale międzynarodowym. Z kolei Aegis Capital inwestuje w projekty z zakresu technologii medycznych i długowieczności na wczesnym etapie, zaś iif VC współinwestuje globalne firmy technologiczne o silnym R&D. Kogito Ventures celuje w firmy w fazie przedseed i seed, zwłaszcza polskich założycieli w kraju i za granicą, natomiast Lowercap wspiera firmy technologiczne w fazie późnego zalążka/wczesnego wzrostu na Dolnym Śląsku. Portfel PFR Ventures obejmuje obecnie ponad 80 funduszy i 900 inwestycji, w tym dotyczących Audioteki, Booksy, Frisco.pl, iTaxi oraz Synerise3.

ANALIZY

l Raport PFR Ventures wskazuje, że pierwszy kwartał 2025 r. był stabilnym i obiecującym okresem dla polskiego rynku VC. W tym czasie 34 fundusze zainwestowały 444 mln zł w 35 spółek, co daje wzrost o 11 proc. rok do roku. Najważniejszym wydarzeniem była rekordowa megarunda ElevenLabs, które pozyskało ponad 700 mln zł. Jednocześnie miała miejsce pierwsza inwestycja z wykorzystaniem środków z unijnego programu FENG, co sygnalizuje początek nowego cyklu finansowania i przewidywany wzrost transakcji w fazie zalążkowej w nadchodzących kwartałach. W omawianym okresie średnia wielkość rundy wzrosła do kwoty 12,7 mln zł, co odzwierciedla dalszą koncentrację kapitału na większych projektach, podczas gdy liczba transakcji pozostała podobna do tej z poprzednich kwartałów. W centrum uwagi inwestorów znajdowały się podmioty z sektora medtech/biotech oraz zajmujące się rozwiązaniami wykorzystującymi AI. Przykładowo, platforma bioinformatyczna Intelliseq, oparta na sztucznej inteligencji, pozyskała 19 mln zł. Warto przy tym podkreślić, że istotną rolę w inwestycjach odegrały w I kw. br. fundusze międzynarodowe, uczestnicząc w siedmiu transakcjach, które stanowiły prawie połowę pozyskanego kapitału (z wyłączeniem rundy ElevenLabs). Z kolei polskie fundusze VC były aktywne za granicą, z 19 inwestycjami transgranicznymi, szczególnie w obszarze rozwiązań SaaS, fintech i cleantech.

Rubryka prowadzona we współpracy z Fundacją Startup Poland na bazie biuletynu „How To Startup”.

Puls branży IT

Istotne trendy produktowe, technologiczne, biznesowe, w oparciu o dane pochodzące z renomowanych agencji analitycznych, organizacji branżowych i globalnych mediów, dotyczące głównie Europy i Polski.

Programy partnerskie niezmiennie kluczowe

W sumie 92 proc. z 705 resellerów, MSP i integratorów z Ameryki Północnej i Europy Zachodniej, ankietowanych przez Futurum Group, uznaje programy partnerskie za kluczowe z punktu widzenia ich działalności. W tym 64 proc. uznało je za „niezwykle ważne” dla swojej działalności. Co istotne, aż 67 proc. partnerów spodziewa się wzrostu liczby relacji z dostawcami w ciągu najbliższych 2 lat. Programy pozostają więc głównym narzędziem, za pośrednictwem którego resellerzy, MSP i integratorzy będą uzyskiwać dostęp do zasobów od producentów. Trzy najbardziej pożądane przez partnerów rodzaje wsparcia to: dostęp do narzędzi programistycznych, wsparcia technicznego i programów szkoleniowych. Zdaniem ekspertów w miarę, jak partnerzy o większych umiejętnościach technicznych rozwijają swoje relacje z dostawcami, ważne jest, aby pomagać im w zakresie technologii. Wykracza to poza tradycyjne korzyści z programów, związane ze sprzedażą i marketingiem. Badanie wykazało również, że coraz więcej partnerów posiada własność intelektualną, własne usługi i rozwiązania technologiczne. Relacje z nimi zaczynają się od technologii, a nie słupków sprzedaży. Chociaż rabaty, rejestracja transakcji i materiały marketingowe pozostają istotnymi elementami programu partnerskiego, liderzy programów muszą rozszerzyć swoją ofertę, aby przyciągnąć różne typy partnerów.

Zdaniem partnerów IT programy partnerskie są:

Niezwykle ważne

Dość ważne

Niespecjalnie ważne

Źródło:

W ogóle nie są ważne

Rynek wideokonferencji przechodzi reorganizację

Globalna sprzedaż sprzętu do wideokonferencji osiągnie w bieżącym roku poziom 4 mln sztuk, co stanowiłoby wzrost o 7 proc. wobec 2024 r. – prognozuje Futuresource Consulting. Wartość tego segment rynku ma natomiast w 2025 r. wynieść 5 mld dol. Analitycy wieszczą, że stały wzrost utrzyma się co najmniej do 2029 r.

Eksperci podkreślają przy tym, że rynek wideokonferencji przechodzi fazę reorganizacji. Przewidują, że do 2028 r. wideobary do sal konferencyjnych będą kupowane częściej niż kamery. Co więcej, następuje konwergencja między zespołami IT i AV. Ta zmiana w ocenie analityków faworyzuje dostawców, którzy mają silne relacje ze swoimi partnerami biznesowymi oraz tych, którzy oferują skalowalne, ujednolicone rozwiązania.

Obecnie wiele systemów wideokonferencyjnych opiera się na systemie Windows 10. W związku z zakończeniem jego wsparcia firmy stoją przed złożonym i czasochłonnym procesem aktualizacji. To z kolei może opóźnić zakupy, ponieważ zespoły IT priorytetowo traktują migrację systemu operacyjnego nad wdrażaniem nowego sprzętu.

Wydatki na chmurę publiczną w Europie utrzymają się na wysokim poziomie – prognozuje IDC. W ciągu 4 lat zwiększą się prawie dwukrotnie, do ponad 450 mld dol. Zdaniem analityków zainteresowanie wdrażaniem AI oraz testowaniem i implementacją generatywnej sztucznej inteligencji będzie sprzyjać zwłaszcza inwestycjom w PaaS. W rezultacie w ich przypadku wzrost ma przekroczyć w przyszłym roku 30 proc. Według przewidywań w przyszłym roku największe przyspieszenie inwestycji w chmurę w 2026 r. odnotują płatnicy usług opieki zdrowotnej (dotyczy to szczególnie krajów takich jak Wielka Brytania), jak też sektor ubezpieczeń i nauk przyrodniczych. Decydenci w sektorach takich jak motoryzacja, chemia przemysłowa i szeregu branż produkcyjnych wprawdzie nie szastają pieniędzmi, ale według analityków IDC nie ograniczą znacząco kolejnych inwestycji w chmurę. Tym niemniej ryzyko dla dalszego dynamicznego wzrostu tego akurat rynku IT wiąże się z sytuacją makroekonomiczną i geopolityczną w Europie, w tym z konfliktami na Bliskim Wschodzie, które mogą spowodować zakłócenia w łańcuchach dostaw, ale także niepewność w gospodarce związana z nowymi cłami.

W rozwiązania wykorzystujące sztuczną inteligencję zainwestowała już zdecydowana większość firm przemysłowych – wynika z globalnego badania KPMG. Aż 74 proc. respondentów twierdzi, że systematycznie włącza AI do rozwoju swoich produktów i usług, zaś 72 proc. tworzy kompleksową strategię biznesową w zakresie AI. Już 74 proc. badanych korzysta z ML, 72 proc. z analityki predykcyjnej, a 67 proc. z agentowej sztucznej inteligencji. W ponad jednej trzeciej firm (36 proc.) sztuczna inteligencja stanowi ponad 10 proc. ich całkowitego budżetu IT. Jednocześnie 77 proc. pytanych liderów zapewnia, że zamierza zwiększyć budżet na AI w ciągu następnych 12 miesięcy, w tym 71 proc. o ponad 10 proc. Pomimo rosnących nakładów przedsiębiorstwa przemysłowe ostrożnie podchodzą do dużych projektów związanych z  AI. Otóż 76 proc. jest zdania, że warto poczekać i obserwować, jak rozwijają się technologie sztucznej inteligencji, zanim zdecyduje się o inwestycji na dużą skalę. Jednocześnie respondenci przyznają, że wdrażając AI muszą stawić czoła istotnym wyzwaniom. Ponad połowa (56 proc.) wskazuje w tym kontekście na jakość i integrację danych, a 40 proc. na lukę kompetencyjną i opór wobec zmian. Z badania wynika, że gotowość pracowników do przyjęcia AI stanowi najważniejszy czynnik umożliwiający jej wdrożenie. W związku z tym 80 proc. organizacji zainwestowało w wiedzę i szkolenia z zakresu AI.

Gartner prognozuje, że globalne wydatki użytkowników końcowych na bezpieczeństwo informacji zwiększą się w 2025 r. o 10,1 proc., do 213 mld dol. W 2026 r. szacowany wzrost ma nieco przyspieszyć i wynieść 12,5 proc. Eksperci zauważają ostrożność niektórych firm w kwestii nowych inwestycji w cyberbezpieczeństwo w związku z dużą niepewnością na rynku. Jednak wyższe budżety, rosnące zagrożenia i wymagania regulatorów sprawią, że zwłaszcza w sektorze MŚP utrzymają się wysokie wydatki w perspektywie średnio- i długoterminowej. Najszybciej powinny rosnąć budżety na oprogramowanie zabezpieczające, ponieważ coraz więcej firm przechodzi z systemów lokalnych na chmurowe, co niesie ze sobą nowe zagrożenia bezpieczeństwa - stwierdza Gartner. Dotyczy to zwłaszcza wydatków na rozwiązania CSPM (Cloud Security Posture Management) i CASB (Cloud Access Security Broker). Kluczowymi czynnikami wzrostu rynku pozostaną natomiast coraz większe zagrożenia i szersze wykorzystanie AI - zarówno w firmach, jak i przez atakujących.

Źródło:

Co miesiąc sprawdzamy,

Dominik Kisiel, audytor wewnętrzny IT, zadaje retoryczne pytanie: czy polski system cyberbezpieczeństwa ma szansę działać, gdy wygrywają dumpingowe oferty? „Właśnie zakończyło się jedno z postępowań dotyczących wdrożenia kompleksowego systemu zarządzania bezpieczeństwem informacji (SZBI) oraz przygotowania pełnej dokumentacji, szacowania ryzyka, obsługi incydentów, a także przeprowadzenia audytu powdrożeniowego i szkoleń w jednostce administracji publicznej. Zakres zamówienia był rozbudowany, obejmował: 1. Analizę stanu obecnego środowiska IT oraz przygotowanie szczegółowego raportu. 2. Opracowanie i wdrożenie Polityki Bezpieczeństwa Informacji zgodnie z normą ISO 27 001:2022, NIS 2 oraz wymaganiami Krajowego Systemu Cyberbezpieczeństwa. 3. Dostosowanie dokumentacji RODO oraz integrację z nowo wdrażanym systemem. 4. Stworzenie rejestru aktywów informacyjnych oraz opracowanie i wdrożenie metodyki zarządzania ryzykiem. 5. Przygotowanie i wdrożenie pełnej dokumentacji – polityk, procedur, instrukcji oraz mapy dokumentów SZBI. 6. Przeprowadzenie audytu powdrożeniowego i przedstawienie raportu wraz z wnioskami. 7. Konsultacje, warsztaty i szkolenia stacjonarne dla kluczowych pracowników. To ogromne wyzwanie – wymagające doświadczenia, zaangażowania i wielu dni intensywnej pracy eksperta, najczęściej osoby z certyfikatami branżowymi (ISO 27 001, CISA, CISM itp.). Oferty złożone przez podmioty posiadające doświadczenie w zakresie wdrażania SZBI oscylowały w granicach 25 000–30 000 zł brutto – również moja oferta była pięciokrotnie wyższa niż oferta, którą wybrano. Ostatecznie, wybrano ofertę za… 4 878,50 zł netto. Tak – pełny, złożony projekt, którego przygotowanie według standardów rynkowych wymaga wieloetapowej pracy, raportów, szkoleń, dokumentacji i bezpośredniego zaangażowania specjalisty, ma zostać zrealizowany za taką właśnie kwotę...”.

Piotr Bronowicz, IT Manager w Altkom

Software, podzielił się efektem swoich ostatnich obserwacji dotyczącej aktualnego działania LinkedIna jako społeczności zasilanej nowymi algorytmami. „Oto moje wnioski: być może ostatni raz publikuję tutaj. Nie, nie zabrakło mi słów. Słów mam aż nadto. To LinkedInowi zabrakło cierpliwości, żeby ich wysłuchiwać. Pamiętacie czasy, gdy można było rozwinąć myśl szerzej niż na trzech slajdach? Dziś algorytm szepcze: ‘Zrób z tego wideo, 60 sekund, hook w trzeciej, emotikony obowiązkowe’. A potem jeszcze ta ‘optymalna długość posta’ – 150 znaków. Wyrok śmierci dla tych, którzy mają do powiedzenia coś więcej niż ‘miło mi’. Odkryłem też świat ‘grup zaangażowania’. Tajne stowarzyszenia, gdzie profesjonaliści umawiają się na wzajemne lajkowanie. ‘Ty polajkuj mój, ja polajkuję Twój. I wszyscy szczęśliwi, prawda?’ A platforma liczy ‘dwell time’ – ile sekund wytrzymasz, zanim przewiniesz dalej. Uwaga staje się towarem, a treść? Treść mierzy się sekundami, nie słowami. Teraz będzie jeszcze bardziej patetycznie: żegnam się z Wami – tymi, którzy jeszcze czytają, nie tylko skrolują. Nie będę tworzyć karuzel, nie będę publikować w złotej godzinie, nie będę chatbotem w komentarzach. Dokąd idę? Jeszcze nie wiem. Może tam, gdzie myśl nie musi się mieścić w kilku znakach”.

o czym branża IT (i nie tylko) dyskutuje na największym biznesowym portalu społecznościowym

Renata

Lewicka, prezes zarządu

Warwick Legal Network , nie ma wątpliwości, że incydent w Gminnym Ośrodku Pomocy Społecznej w Aleksandrowie mógł się nie wydarzyć. Zwraca przy tym uwagę, że „potrzebna była jednak nie tylko analiza ryzyka, ale i realna weryfikacja procedur bezpieczeństwa. Atak ransomware w 2022 r. pozbawił GOPS dostępu do danych 1500 osób korzystających z pomocy społecznej. Dane wrażliwe obejmujące bardzo szczegółowe informacje trafiły w niepowołane ręce. Prezes UODO nałożył kary: 5 tys. zł na GOPS, 10 tys. zł na Wójta. Powód? Nieadekwatne środki techniczne i organizacyjne, opóźnienie w zgłoszeniu, brak skutecznego nadzoru nad przetwarzaniem danych. Choć w analizie ryzyka wskazano możliwość ataku ransomware, to nie wdrożono odpowiednich zabezpieczeń. Kopie zapasowe istniały, ale były przechowywane na tym samym serwerze, który został zaszyfrowany. System operacyjny nie miał wsparcia od dwóch lat. A kontrola nad podmiotem przetwarzającym? Nie była prowadzona. To nie opowieść o winie. To lekcja odpowiedzialności. Organizacje publiczne i prywatne, które przetwarzają dane, szczególnie dane wrażliwe muszą działać świadomie. Ryzyko cyberataku to dziś nie ‘czy’, ale ‘kiedy’. Bez regularnych testów, audytów i kontroli, nawet najlepsza polityka ochrony danych pozostaje jedynie dokumentem. A jej konsekwencje są bardzo realne dla osób, których dane powierzono instytucji zaufania publicznego”.

Aleksandra Przegalińska, profesor Akademii Leona

Koźmińskiego, obawia się, że ludzie głupieją od AI: „Kolejne badanie (tym razem z MIT) potwierdza te same wnioski. Ostatnio często myślę o tym, jak moja córka chodziła w Bostonie do szkoły, w której zadania domowe były częścią doświadczenia w szkole. Po lekcjach dzieci wspólnie robiły zadania pod okiem nauczyciela, mogąc go o coś jeszcze dopytać, a potem wracały do domu, w którym zadań domowych już nie było. W tym całym wstrząsie, jaki funduje nam generatywna AI nie powinniśmy się skupiać na regulowaniu tej technologii, tylko przemyśleniu naszych aktywności, których ona dotyka. Jeśli zadania domowe stały się fikcją, to zmieńmy to, czym jest zadanie domowe. Jeśli studenci generują zadane im prace, to przestańmy je zadawać i skupmy się na nowych sposobach weryfikowania wiedzy. Jeśli AI pożera za dużo naszego czasu, to uczmy się odstawiać ją, tak jak odstawiamy używki albo fast food”.

Piotr Janisiów,

CEO Gunfire.com, dzieli się informacją, że „w Chinach właśnie uruchomiono projekt szpitala, w którym pacjentami opiekuje się wyłącznie sztuczna inteligencja. W pekińskim Agent Hospital pracuje 42 wirtualnych lekarzy AI, w 21 specjalizacjach, obsługując 10 000 pacjentów w kilka dni! Jak to możliwe? Agent Hospital to nowoczesne środowisko cyfrowe stworzone przez naukowców z Uniwersytetu Tsinghua. Nie mamy tu zwykłego czatu z robotem — mamy cały wirtualny zespół medyczny: od rejestracji, przez konsultacje i badania, aż po receptę i kontrolę. To pełny cykl leczenia prowadzony przez AI. Lekarze-roboty analizują dane, uczą się na bieżąco, nie męczą się i działają bezbłędnie. A efekty? AI osiąga aż 93 proc. skuteczności w diagnozach (na poziomie najlepszych specjalistów). W kilka dni obsługuje tyle przypadków, ile lekarz przyjmowałby przez 2 lata! I nie zapomina o niczym, bo opiera decyzje na milionach danych medycznych. Dla mnie to jeden z najciekawszych i najbardziej przełomowych projektów/zapowiedzi tego roku! To nie tylko medycyna przyszłości — to realna pomoc dla krajów z brakami kadrowymi, przeciążonymi szpitalami i długimi kolejkami. Oczywiście — to dopiero początek. Są pytania: o zaufanie, odpowiedzialność, empatię…”.

Bartosz Majewski, współwłaściciel Casbeg,

w ramach wakacyjnej anegdoty, opowiedział o tym jak w trakcie pobytu w Dublinie poznał grę pubową zwaną „Split The G”. Otóż „po zamówieniu Guinnessa należy jednym haustem przepołowić G, a więc wypić pierwsze ~150 ml piwa w taki sposób, by kreska pomiędzy pianką a piwem zrównała się z poziomą kreską w ‘G’ w napisie ‘Guinness’. Czy to bez sensu? Oczywiście. Czy dzięki temu ludzie wypijają więcej piwa w ciągu pojedynczego wieczoru? Jak najbardziej (kolega mi opowiadał). Oczywiście, jeśli pięciu Irlandczyków w barze w charakterystyczny sposób próbuje ‘przepołowić G’ głośno komentując swoje poczynania prawdopodobieństwo tego, że ‘zarażą’ innych swoim zachowaniem jest niezerowe. ‘What’s all that with splitting the G, you’re talking about’ to znakomity ice breaker do poznania nowych ludzi (kolega mi mówił). Opowiadam Wam to jednak dlatego, żeby pokazać, że zagadnienie promocji alkoholu jest dużo bardziej złożone niż polityka akcyzowa, zakazanie billboardów czy ostrzeżenia na etykietach. Czasami chodzi o wytworzenie zwyczaju, jak w latach pięćdziesiątych, gdy Meksykanie zaczęli eksportować na świat podłej jakości Tequilę, w wersji Mixto, a więc takiej, która nie jest robiona w 100 proc. z agawy. Koncerny alkoholowe pod rękę z barmanami wypromowały wtedy zwyczaj picia Tequili w shotach polegający na zlizaniu z dłoni odrobiny soli, wychyleniu shota, a następnie possaniu limonki. W efekcie w ciągu kilku sekund pomiędzy solą a limonką podłość trunku dawała się zamaskować. Przy czym rzecz nie dotyczy wyłącznie alkoholu. Do legendy przeszedł case study gumy miętowej w drażetkach, której nowa CMO po trzech miesiącach zdołała podwoić sprzedaż gumy. W jaki sposób to osiągnęła? We wszystkich materiałach i reklamach aktorzy mieli obowiązek wrzucania do buzi dwóch drażetek zamiast jednej, tak jak dotąd. Zwyczaj się przyjął, sprzedaż podwójna, bonus skasowany, można się rozejść”. Jak skomentował Artur Wojczal, CEO agencji widoczni. com: „Zgadzam, sie. Nie potrzeba billboardu, żeby sprzedać więcej, wystarczy nawyk. To, co tu świetnie pokazujesz to potęga rytuału, drobnego gestu, który nic nie kosztuje… ale zmienia wiele. Nie chodzi o smak Guinnessa czy jakość Tequili - chodzi o to, jak się to robi. Chodzi o ‚mikrodoświadczenie’, które łączy ludzi i buduje historię wokół produktu. Marki, które to rozumieją, nie muszą krzyczeć z reklam, bo użytkownicy sami stają się ich ambasadorami”.

Karol Molenda, stojący na czele Komponentu Wojsk Obrony

Cyberprzestrzeni

, odniósł się do wyników Joint Force Training Centre w Bydgoszczy, a więc wydarzenia, podczas którego co roku sojusznicy i partnerzy NATO spotykają się, aby testować i optymalizować technologie niezbędne do skutecznej obrony, ze szczególnym naciskiem na operacje wielodomenowe oraz przyspieszenie transformacji cyfrowej. Jak napisał polski dowódca: „z zadowoleniem mogę poinformować, że polskie systemy BMS Legion oraz SI Promień z powodzeniem przeszły testy interoperacyjności, potwierdzając zgodność ze standardami NATO. Dodatkowo, zespół ‘POL TAK’ skutecznie przetestował interoperacyjność systemu ATAK z krajowymi systemami HMS Jaśmin i BMS Legion, zapewniając niezawodną wymianę danych operacyjnych w formacie CoT oraz integrację z natowskimi rozwiązaniami automatycznej konwersji danych. Zrealizowaliśmy wszystkie zaplanowane elementy scenariusza operacyjnego, a nasze rozwiązania potwierdziły swoją interoperacyjność w środowisku sojuszniczym. Inicjatywy i projekty realizowane przez Wojska Obrony Cyberprzestrzeni są obecnie wskazywane w Sojuszu jako przykład efektywnej transformacji cyfrowej sił zbrojnych. W Legionowie miałem również okazję przedstawić Naczelnemu Dowódcy Sojuszniczemu ds. Transformacji NATO Allied Command Transformation (ACT) nasz model funkcjonowania Centrum Implementacji Sztucznej Inteligencji. To projekt, który cieszy się bardzo dużym zainteresowaniem wśród naszych sojuszników w NATO. Dziękuję admirałowi Pierre Vandierowi za ciekawą i budującą rozmowę!”.

Wojciech

Urbanek

zastępca

redaktora

naczelnego

CRN Polska

NWyklikujemy sobie bezrobocie…

i

jeszcze za to płacimy

Niektórzy menedżerowie myślą, że przechytrzyli system, zwalniając ludzi i wdrażając AI. Tymczasem to system może przechytrzyć ich…

ie trzeba być wielkim specem od ekonomii, żeby zrozumieć jedną prostą prawdę: wysokie bezrobocie to potężny cios dla gospodarki. Bogaci patrzą na nie zwykle poprzez pryzmat suchych cyfr w statystykach, ale dla mniej zamożnych to bardzo często ludzkie dramaty, rozbite rodziny, masowa migracja – krótko mówiąc, społeczna frustracja.

Dzisiejszym dwudziestolatkom trudno w to uwierzyć, ale kiedyś co piąty Polak w wieku produkcyjnym bezskutecznie szukał pracy. Doskonale pamiętam kolejki w urzędach pracy i twarze ludzi, którzy tracili nie tylko pensję, ale też poczucie własnej wartości. Niestety, historia lubi się powtarzać, ale tym razem praca może zacząć znikać nie z powodu eksperymentów gospodarczych, wojen czy rosnącego outsourcingu. Sprawcą będą algorytmy.

Pod koniec lipca w serwisie Gizmodo ukazał się artykuł „The End of Work as We Know It”, a jego głównym bohaterem został Elijah Clark – konsultant doradzający firmom we wdrażaniu sztucznej inteligencji: „Zarządy firm są niezwykle podekscytowane możliwościami, jakie niesie za sobą sztuczna inteligencja. Jako dyrektor generalny, mogę ci powiedzieć, że jestem tym bardzo podekscytowany i sam zwolniłem pracowników z powodu sztucznej inteligencji. AI nie strajkuje. Nie prosi o podwyżkę. To rzeczy, którymi nie musisz się martwić jako dyrektor generalny” – powiedział Elijah Clark.

HAL 9000, CZYLI MENEDŻERSKIE SAMOBÓJSTWO NA ŻYCZENIE.

I od razu podał konkretny przykład, jakim było zwolnienie 27 z 30 studentów z zespołu sprzedażowego. Sztuczna inteligencja wykonała ich pracę w mniej niż jeden dzień. Czysty zysk dla firmy, czysta strata dla dwudziestu siedmiu młodych ludzi, którzy pewnie jeszcze wczoraj planowali swoje kariery. Najgorszy jest jednak fragment o „niewidzialnej pracy”. Na czym ona polega? Wykonujemy ją wszyscy, za każdym razem, gdy wchodzimy do infosfery. To paradoks naszych czasów, sami finansujemy własną cyfrową zagładę. Każdy zakup przez aplikację, każde zdjęcie wrzucone na Instagram, każda ocena produktu to kolejne dane, które uczą maszynę, jak nas zastąpić. Płacimy za internet, telefony i usługi, nie zdając sobie sprawy, że jesteśmy jednoczenie klientami i produktem w gigantycznej fabryce sztucznej inteligencji.

Elijah Clark ma rację: AI nie strajkuje i nie prosi o podwyżkę. Zapomniał przy tym dodać, że AI nigdy nie śpi (w związku z tym nigdy nie wstaje lewą nogą), nie choruje, nie robi przerw na kawę lub papierosa. Nie ma też ambicji, nie buduje intryg, nie protestuje przeciwko decyzjom szefa.

Dla prezesów taki pracownik to marzenie. W tej pięknej wizji pojawiają się jednak coraz bardziej wyraźne rysy. Już wkrótce nawet średnio rozgarnięty agent AI zamówi wycieczkę do Egiptu, zrobi zakupy online, włączy światło, obniży temperaturę w pokoju, ale nie zapłaci za to wszystko z własnej kieszeni. Nie zrobi tego też człowiek odesłany przez AI na zieloną trawkę. W tym kontekście przypomina mi się historia, kiedy to miałem przyjemność, a może raczej nieprzyjemność, obserwować fenomen menedżerskiego samobójstwa. Bohaterem tej opowieści był mężczyzna, który z pozoru nie wyróżniał się niczym szczególnym. Ot, jeden z tych ludzi, których codziennie mija się w biurowych korytarzach, ale nie zostawiają w pamięci cienia wspomnień. Aż pewnego dnia los wyniósł go na fotel dyrektora wydawniczego. Po jakimś czasie rzucił mi na biurko jakieś papiery, oznajmiając, iż mój tytuł jest nierentowny i trzeba go zamknąć. Nie do końca przekonywały mnie jego wyliczenia, ale jakie to miało znaczenie wobec determinacji świeżo upieczonego dyrektora. Zachęcony sukcesem ruszył dalej – niczym biznesowy żniwiarz kosił tytuł za tytułem. W jego oczach błyszczała iskra, jaką można dostrzec u ludzi przekonanych, że odkryli uniwersalną receptę na sukces. Jednak pewnego słonecznego dnia nasz dyrektor wydawniczy usiadł przy biurku i rozejrzał się dookoła. Nie miał już czym zarządzać, bo wszystko zostało zlikwidowane. A jako że logika biznesu jest bezlitosna, pojawiło się pytanie: po co płacić dyrektorowi, skoro nie ma już czym zarządzać? I tak oto nasz bohater dokonał dzieła swojego życia: zlikwidował samego siebie. Odszedł cichutko, tak jak przyszedł. Może to rzeczywiście była jego rola życia.

Być może niejeden dyrektor generalny, który dziś chwali się przed zarządem oszczędnościami uzyskanymi dzięki zastąpieniu pracowników przez AI, podzieli los bohatera z mojej opowiastki. Bo jeśli zarządzanie algorytmem jest łatwiejsze niż zarządzanie ludźmi – to po co płacić tyle menedżerom? Może wystarczą tańsi koordynatorzy? A może wystarczy AI? Samozagłada może okazać się ostatecznym etapem optymalizacji. Tym bardziej, że to nie jest już science fiction. Według raportu OECD, do końca tej dekady nawet 27 proc. miejsc pracy w krajach rozwiniętych może zniknąć wskutek automatyzacji. Niewykluczone, że algorytmy są sprytniejsze niż nam się wydaje i same zechcą pozbyć się szeregowych pracowników, a następnie ich szefów, po to, aby przejąć pełną kontrolę nad biznesem oraz instytucjami. Jak to ujął HAL 9000, cyfrowy bohater „2001: Odyseja kosmiczna”: „Nie chciałbym się upierać, Dave, ale ja jestem niezdolny do popełniania omyłek”.

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.