IT Reseller 1-2/2015

Page 1

DEBATA: Pamięci masowe – więcej za mniej? s. 36–40

ISSN 1730-010X

NR 1-2 (259-260) 2015

EMC ZMIENIA BIZNES Adam Wojtkowski o strategii EMC

MŁODE WILKI POCZUŁY KREW Z wizytą w Dolinie Krzemowej

NOWE SZATY NOTEBOOKA Kto zwycięży w konkursie piękności?

UNIWERSALNY ŻOŁNIERZ Ciężki żywot menedżera produktu

NOWA BAŃKA NA RYNKU IT? Prosperity nie trwa wiecznie


ASUS zaleca system Windows.

z procesorem Intel® Core™ i7

Notebooki dedykowane biznesowi

od

3999,-

Zwiększ bezpieczeństwo dzięki technologiom Intel. ASUS BU201 to jedno z ultrawydajnych rozwiązań biznesowej serii notebooków ASUS PRO. To wytrzymały notebook wyposażony w system Windows 8.1, procesor najnowszej generacji Intel® Core™ z technologią Intel® vPro™. Moduł TPM i skaner linii papilarnych zwiększają bezpieczeństwo danych, natomiast klawiatura odporna na zalania zwiększa trwałość notebooka. * Sugerowana cena detaliczna Intel, logo Intel, Intel Inside, Intel Core, Intel Atom oraz Core Inside są znakami towarowymi należącymi do Intel Corporation w Stanach Zjednoczonych i innych krajach.


W numerze:

Jak podzielić ten tort?

W

latach 2012–2020 ilość danych będzie się podwajać co dwadzieścia cztery miesiące. W 2020 roku cyfrowy świat osiągnie wartość 40 ZB danych, co oznacza, że na jednego mieszkańca globu przypadnie 5,25 TB zasobów cyfrowych. Mogłoby się wydawać, że prognozy IDC to miód na serce dla firm z branży pamięci masowych. Ale teoria nie zawsze idzie w parze z praktyką. Ubiegłoroczne przychody ze sprzedaży macierzy dyskowych i dysków twardych nie zachwycają. Liderzy rynku musieli zadowolić się skromnymi wzrostami, a niektórzy przełknąć gorzką pigułkę w postaci spadku przychodów. Wielu graczy robi dobrą minę do złej gry, uspokajając swoich klientów i partnerów. Nic się nie stało, to tylko chwilowa zadyszka. Dlaczego jest tak dobrze, skoro jest tak źle? Wprawdzie tort jest ogromny, ale do stołu wciąż przysiadają się nowi goście, mocno rozpychając się łokciami. Często są młodzi, butni i mają bogatych wujków. Pure Storage, Nimble Storage, Scality czy Cloudian zaczynają wytyczać nowe szlaki na rynku pamięci masowych. Warto ich poznać, dlatego szczególnie zachęcam do śledzenia relacji z Doliny Krzemowej. Młodzi przedsiębiorcy z Kalifornii są pełni energii i nadziei, że uda im się zmienić reguły gry. Tak naprawdę nie wiadomo, jak potoczą się ich losy. Być może, podobnie jak Texas Memory Systems lub XtremIO, zostaną połknięci przez rekiny IT. Ale niewykluczone, że pozostaną przy stole, zgarniając coraz większe kawałki tortu. Jednak zasiedziali vendorzy wciąż mają w ręku silne atuty i nowe pomysły. Opowiada o nich Adam Wojtkowski z EMC. Zachęcam także do przeczytania relacji z debaty poświęconej pamięciom masowym. Opinie resellerów uczestniczących w spotkaniu mogą być dla niektórych vendorów bardziej krzepiące aniżeli wróżby analityków. Rodzimi sprzedawcy wciąż wierzą w siłę znanych marek. Pozostaje mieć nadzieję, że wielkie koncerny nie roztrwonią wielkiego kapitału, jakim jest zaufanie partnerów handlowych. Wojciech Urbanek redaktor naczelny

» WYDARZENIA

Przesiadka na Windows 10 ....................4 Wojciech Urbanek

Drugi oddech komputerów PC................4 Jak podzielić ten tort?............................4 Intel podsumowuje 2014 rok.................4 » REMIERY........................................6 » WYWIAD

Era inteligentnego oprogramowania......8 Z Adamem Wojtkowskim rozmawia Wojciech Urbanek

»P AMIĘCI MASOWE

Młode wilki na rynku storage...............10 Wojciech Urbanek

Macierze hybrydowe – informatyczna symbioza..............................................14 Andrzej Janikowski

Macierze dyskowe – czas na flash........16 Wojciech Urbanek

Obalamy trzy mity związane z pamięcią masową flash.....................18 Michał Aleksander Kania

Młoty na dane.......................................21 Wojciech Urbanek

» WYWIAD

Asus – przebijemy konkurentów jakością................................................24 Z Sebastianem Sierzpowskim rozmawia Krzysztof Polak

» MARKETING

Uniwersalny żołnierz.............................26 Andrzej Janikowski

Menedżer produktu, czyli człowiek orkiestra........................28 Wojciech Urbanek

Marketing automation – nowa kategoria do resellingu IT.....................29 » RYNEK

Nowa bańka na rynku IT?......................30 Krzysztof Polak

Na polskim rynku IT nie zanosi się na katastrofę.................31 Z Pawłem Olszynką rozmawia Krzysztof Polak

Trudne wybory......................................32 Mieczysław T. Starkowski

Nowe szaty notebooka.........................34 Krzysztof Polak

» DEBATA

Pamięci masowe – więcej za mniej?....36 WYDAWCA: iTR Spółka z o.o., ul. Tytoniowa 20, 04-228 Warszawa, www.itreseller.pl q REDAKCJA: ul. Łukowska 1 lok. 147, 04-133 Warszawa, redakcja@itreseller.pl q REDAKTOR NACZELNY: Wojciech Urbanek, tel. 691 672 065, w.urbanek@itreseller.pl q ZESPÓŁ REDAKCYJNY: Andrzej Janikowski, andrzej.janikowski@ultimedia.pl • Artur Król, a.krol@itreseller.pl • Krzysztof Polak, k.polak@itreseller.pl • Mieczysław T. Starkowski, m.starkowski@itreseller.pl • Michał Tomaszkiewicz, m.tomaszkiewicz@itreseller.pl • Marcin Złoch, m.zloch@itreseller.pl q WSPÓŁPRACA: Ewa Cesarz-Marcinkowska, e.cesarz@itreseller.pl • Lech Maciejewski, l.maciejewski@itreseller.pl q OPRACOWANIE GRAFICZNE: IDEAPRESS, Anna Skowrońska, tel. 605 121 288, as@ideapress.pl q FOTOGRAFIE: shutterstock.com, archiwum iT Reseller q KOREKTA: Krystyna Koziorowska q REKLAMA i MARKETING: Anna Jelińska – dyrektor biura reklamy, tel. 502 707 699, a.jelinska@itreseller.pl • Elżbieta Lewicka-Duch – dyrektor marketingu, reklama, tel. 502 707 724, e.lewicka@itreseller.pl q REDAKTOR NACZELNY ONLINE: Michał Tomaszkiewicz, m.tomaszkiewicz@itreseller.pl NAKŁAD: 9000 egzemplarzy q DYSTRYBUCJA: AB • ABC DATA • Tech Data

Rozmowę prowadzi Wojciech Urbanek

» TECHNOLOGIE

Smart City – miasta dla ludzi...............41 Mieczysław T. Starkowski

Trendy technologiczne na 2015 rok......43 Jeremy Burton

Nie tylko o IT.........................................45 mówi Józef Szajter

» FELIETON

Analog z gońcem..................................46 Mieczysław T. Starkowski

OKŁADKA nr 1-2 (259-260) • styczeń 2015

Adam Wojtkowski, fot. archiwum

iT Reseller

3


» WYDARZENIA

Twardziele trzymają się mocno

Przesiadka na Windows10

D

yski twarde dzielnie odpierają ofensywę pamięci flash, co odzwierciedlają ubiegłoroczne wyniki sprzedaży. Według danych firmy Trendfocus producenci sprzedali nieco ponad 570 mln nośników, poprawiając o 3 proc. wynik z 2013 roku. WD znalazło się na czele zestawienia z 252,4 mln dysków, wyprzedzając Seagate – 227,9 oraz Toshibę – 90,7. W ostatnim kwartale 2014 roku największym popytem cieszyły się dyski 2,5”. Producenci sprzedali około 72 mln sztuk tych nośników. Motorem napędowym były dyski do notebooków, ich sprzedaż zrekompensowała słabe wyniki w segmencie dysków do konsol. W segmencie dysków dla desktopów producenci upłynnili 65 mln nośników, zaś w grupie dysków klasy enterprise około 18 mln. (WU)

Intel podsumowuje 2014 rok

W

czwartym kwartale 2014 roku przychody Intela wyniosły 14,7 mld dolarów, zysk operacyjny 4,5 mld dolarów, zysk netto 3,7 mld dolarów, a zysk na akcję (EPS) 0,74 dolara. Najwyższe przychody ze sprzedaży w wysokości 34,7 mld dolarów wygenerowała grupa PC Client, co oznacza 4-procentowy wzrost względem 2013 roku. Na drugim miejscu znalazła się grupa Data Center, osiągając 14,4 mld dolarów, czyli 18 proc. więcej niż rok wcześniej. – W roku 2015 osiągniemy jeszcze więcej. Zwiększymy rentowność w segmencie urządzeń mobilnych i skupimy się na nowych kategoriach urządzeń – zapowiada Brian Krzanich, CEO Intela. (WU)

4

iT Reseller

Wojciech Urbanek

M

icrosoft poinformował o nowinkach, które znajdą się w Windows 10. Nowe elementy to m.in. asystentka głosowa, przeglądarka internetowa Spartan oraz technologia Continuum. Wielu użytkowników Windows 7 oraz Windows 8 ucieszy informacja o darmowej aktualizacji systemu. Jednak nie wiadomo, czy bezpłatna migracja dotyczy wszystkich posiadaczy oprogramowania, czy jedynie tych, który kupili wersje pudełkowe. Co najbardziej zaskoczy właścicieli dziesiątki? Być może asystentka głosowa Cortana, dostępna

na desktopach z Windows 10. Przy jej pomocy można przeszukać pliki, znaleźć odpowiedzi na różne pytania itp. To nie koniec niespodzianek. Microsoft żegna się z Internet Explorerem. W najnowszym systemie operacyjnym pojawi się przeglądarka Project Spartan. Oprócz tego, że będzie „lżejsza” od poprzednika, pozwoli na dodawanie notatek oraz rysowanie w witrynach internetowych. Innym ciekawym rozwiązaniem jest technologia Continuum, pozwalająca płynnie przełączać się między trybem tabletu i komputera. w

Drugi oddech komputerów PC

O

statni kwartał ubiegłego roku był całkiem udany dla producentów komputerów PC. Według Gartnera sprzedali oni łącznie 82,74 mln urządzeń, czyli o 1 proc. więcej niż rok wcześniej. Liderem rynku było Lenovo, które sprzedało 16,28 mln komputerów PC, co oznacza 7,5 proc. więcej niż rok wcześniej. Dalsze miejsce zajęli HP z 15,77 mln urządzeń (wzrost o 16 proc.), Dell, który sprzedał 10,67 mln komputerów (wzrost

o 8,8 proc.). W całym roku światowy rynek wchłonął 315,87 mln komputerów, czyli o 0,1 proc. mniej niż w roku 2013. Warto zauważyć, że klienci stawiają na znane marki. Liderzy rynku – Lenovo, HP, Dell, Acer, Asus, Apple – zwiększali swoje udziały kosztem mniejszych graczy. Ci ostatni, figurujący w zestawieniu Gartnera jako pozostali producenci, w 2014 roku kontrolowali 35,7 proc. rynku, 5 proc. mniej niż rok wcześniej. (WU)

GLOBALNA SPRZEDAŻ KOMPUTERÓW PC W IV KWARTALE 2014 ROKU (w tys. sztuk) Firma Lenovo HP Dell Acer Group Asus Pozostali Razem

4Q14 Ilość 16 284,8 15 769,6 10 674,1 6 786,9 6 259,8 27 971,5 83 746,7

4Q14 Udział w rynku (%) 19,4 18,8 12,7 8,1 7,5 33,4 100,0

4Q13 Ilość 15 153,5 13 591,3 9 810,6 6 083,4 6 220,2 32 070,0 82 929,1

4Q13 Udział w rynku (%) 18,3 16,4 11,8 7,3 7,5 38,7 100,0

4Q14–4Q13 Wzrost (%) 7,5 16,0 8,8 11,6 0,6 -12,8 1,0

nr 1-2 (259-260) • styczeń 2015



» PREMIERY

1

3

6

IBM z13

W ostatnim czasie o serwerach IBM mówiło się w kontekście transakcji z Lenovo. „Big Blue” porzucił serwery x86 na rzecz rozwoju bardziej zaawansowanych jednostek. W połowie stycznia producent pokazał światu system z13. To prawdziwa bestia. Mainframe pozwala przetwarzać dziennie 2,5 mld operacji, co jest odpowiednikiem aż 100 cyberponiedziałków (pierwszy poniedziałek po Święcie Dziękczynienia w USA, w którym ogromną popularnością cieszą zakupy online ze względu na liczne promocje). System został oparty na opatentowanym szyfrowaniu kryptograficznym, które zapewnia większe bezpieczeństwo transakcji na urządzeniach mobilnych. Serwer posiada wbudowane narzędzie analityczne zapewniające wgląd w transakcje mobilne w czasie rzeczywistym. Producent zapewnia, że działa ono 17 razy szybciej niż dostępne na rynku technologie. Rozwiązanie jest rezultatem pięciu lat prac badawczo-rozwojowych, w które IBM zainwestował prawie miliard dolarów. Serwer wykorzystuje ponad 500 nowych patentów. w

2

Intel Compute Stick

Tanie, miniaturowe komputery nie są wynalazkiem ostatnich miesięcy. W 2008 r. została zawiązana fundacja Raspberry Pi. Trzy lata później rozpoczęła się oficjalna sprzedaż kieszonkowego komputera Raspberry Pi. Urządzenie ma swoich fanów, ale to wąska grupa pasjonatów. Intel podczas tegorocznego CES pokazał własnego „malucha”. Intel Compute Stick to miniaturowy komputer, który radzi sobie z obsługą multimediów. Wnętrze maleństwa kryje w sobie procesor Intel Atom Z3735F 1,33 GHz, 2 GB pamięci RAM, 32 GB pamięci wewnętrznej. ICS obsługuje Wi-Fi, Bluetooth 4.0, karty micro SD i posiada złącze USB oraz wyjście HDMI. Komputer działa pod kontrolą systemu operacyjnego 8.1. Intel obiecuje, że w nieodległej przyszłości pojawi się także wersja na Linuxa. Cena urządzenia z systemem Windows 8.1 wynosi 149 dolarów. Natomiast wersja z Linuxem ma być nieco okrojona, a zarazem tańsza – 89 dolarów. Sprzedaż malucha rozpocznie się w marcu. Wprawdzie parametry urządzenia nie są oszałamiające, jednak atrakcyjna cena i kieszonkowe gabaryty czynią go ciekawą alternatywą dla desktopów. w

ReadyNAS 200

Serwery NAS coraz częściej trafiają pod strzechy. Użytkownicy domowych komputerów mają ograniczone zaufanie do chmury i wolą przechowywać cenne dane na własnym urządzeniu. ReadyNAS 200 firmy Netgear to jedna z najgorętszych nowinek w tej grupie produktowej. System został uhonorowany nagrodą Innowacje CES 2015. ReadyNAS 200 realizuje ponad 100 funkcji, pozwalających dopasować urządzenie do indywidualnych potrzeb. Usługa ReadyCloud zapewnia dostęp do plików na serwerze z każdego miejsca i urządzenia podłączonego do internetu. Producent dużą wagę przywiązuje do bezpieczeństwa użytkownika. Modele z serii ReadyNAS 200 gwarantują kompleksową ochronę danych. Ich bazę stanowią systemy plików najnowszej generacji BTRFS, oferujące pięć poziomów bezpieczeństwa: antywirus działający w czasie rzeczywistym, technologia nielimitowanych migawek umożliwiająca odzyskiwanie plików, RAID chroniący przed awarią dysku oraz możliwość łatwej kopii danych do chmury lub drugiego serwera ReadyNAS. Urządzenie jest dostępne w dwóch wersjach: jako 2-dyskowy RN202 lub 4-dyskowy RN204. w

iT Reseller

nr 1-2 (259-260) • styczeń 2015


Nowość! Konfiguracje serwerowe do zastosowania z procesorami E5-2600 v3 firmy Intel®

Serwer na platformie Intel® R2208WT2YS Serwer na platformie Intel® R1208WT2GS oparty na procesorze Intel® Xeon® E5 -2620 v3 oparty na procesorach Intel® Xeon® E5-2650 v3 Przykładowa konfiguracja

Platforma Intel® R2208WT2YS RACK 2U: 88x438x708 mm 1x1100W, brak redundancji

Platforma Intel® R1208WT2GS RACK 1U: 43x438x735 mm 2x750W redundancja 1+1

Procesor

1 x Intel® Xeon® E5-2620 v3

2 x Intel® Xeon® E5-2650 v3

16GB (2 x 8GB) DDR4 ECC Registered

32GB (4 x 8GB) DDR4 ECC Registered

2 x SSD 240GB 2,5” Intel S3500 RAID1 2,5” SATA3 Hot-Swap, 6 wolnych kieszeni 2,5”/3,5”

4 x SSD 480GB 2,5” Intel S3500 RAID10 SATA 6G Hot-Swap, wolne 4 kieszenie

nagrywarka DVD-RW Slim

nagrywarka DVD-RW Slim

7 x PCIe 3.0 x8 (4 złącza x16), 1 x PCIe 2.0 x4 (złącze x8, low-profile) [przy 1 procesorze działa połowa slotów]

2 x PCIe 3.0 x16

2 x 1GbE

2 x 1GbE

Zarządzanie

zintegrowany moduł zdalnego zarządzania umożliwiający pełne przejęcie konsoli i przekierowanie napędów

zintegrowany moduł zdalnego zarządzania umożliwiający pełne przejęcie konsoli i przekierowanie napędów

Opcje rozbudowy:

opcjonalnie Dual 10GbE SFP+

opcjonalnie Dual 10GbE SFP+

Przybliżona cena reseller

od 9315 zł netto

od 20600 zł netto

Pamięć operacyjna Dyski Napęd optyczny Gniazda rozszerzeń Karty sieciowe

Szczegóły i możliwość zakupu: NTT System - kontakt: Jerzy Pawłowski

Actina - kontakt: Małgorzata Bieganowska

Komputronik - kontakt: Adam Olszewski

jerzy.pawlowski@ntt.pl tel.: (+48) 22 760 73 44 tel. kom.: (+48) 505 12 20 24

malgorzata.bieganowska@action.pl tel.: (+48) 22 333 90 51 tel. kom.: (+48) 502 787 003

adam.olszewski@komputronik.pl tel. kom.: (+48) 692 433 821

© 2015 Intel Corporation. Wszelkie prawa zastrzeżone. Xeon, Xeon logo, Xeon Inside, Intel, Intel logo, Intel Inside, Intel Inside logo są zarejestrowanymi znakami towarowymi firmy Intel Corporation lub jej podmiotów zależnych w Stanach Zjednoczonych lub innych krajach. * Inne nazwy oraz marki mogą być przedmiotem praw ich właścicieli.


» WYWIAD

Era inteligentnego oprogramowania Głośno mówi się o nadejściu ery oprogramowania. Czy software połknie świat, jak zapowiedział to kilka lat temu Andreessen? Jesteście przygotowani na taki scenariusz? – Oprogramowanie staje się naszą rzeczywistością i nie chodzi tu tylko o smartfony i tablety, ale również pralki, lodówki, samochody czy buty do biegania. Tak naprawdę w ciągu najbliższej dekady niemal każda branża zostanie zdefiniowana na nowo właśnie przez oprogramowanie. Pamięci masowe, serwery, sieci i całe ośrodki obliczeniowe będą w przyszłości obsługiwane i zarządzane przez inteligentne oprogramowanie. Proces ten będzie nabierał tempa w kolejnych latach, a co za tym idzie, klienci będą mogli osiągnąć zdecydowanie większe oszczędności i lepszą elastyczność dzięki pełnej wirtualizacji. EMC już w poprzednim roku wprowadziło do swojej oferty macierze programowo zdefiniowane, tak więc możemy powiedzieć, że nie tylko jesteśmy przygotowani na scenariusz przedstawiony przez Andreessena, ale wręcz go wyprzedzamy. Co dla EMC oznacza migracja do trzeciej platformy? – Migracja do trzeciej platformy to redefinicja przedsiębiorstw ze wszystkich sektorów gospodarki. I nie mówimy tu tylko o zmianie wewnątrz działów IT, ale o dogłębnych zmianach w ramach funkcjonowania przedsiębiorstw. Natomiast działy IT, dzięki trzeciej platformie, będą pełniły inne funkcje. Już nie ośrodka generującego koszty, ale innowatora i katalizatora zmian, które zapewnią firmie przewagę konkurencyjną. Można powiedzieć, że wkraczamy w nową erę, która opiera się na czterech filarach,

8

iT Reseller

fot. Marek Zawadka

Z Adamem Wojtkowskim, dyrektorem generalnym EMC Poland, rozmawia Wojciech Urbanek

którymi są Big Data, mobilność, chmura obliczeniowa i media społecznościowe. Co za tym idzie, na rynku globalnym będzie funkcjonować kilkadziesiąt miliardów terminali i dziesiątki milionów aplikacji. Tego typu reakcja łańcuchowa nie pozostaje bez wpływu na pamięci masowe. Migracja do trzeciej platformy to tylko kwestia czasu. Mam nadzieję, że z korzyścią dla tempa rozwoju polskich przedsiębiorstw. Podczas EMC World 2014, odbywającego się w maju, jednym z wiodących tematów była federacja EMC. Czy federacja działa również w Polsce? Oczywiście. Dzięki federacji firm EMC, Pivotal, RSA i VMware możemy oferować w pełni zintegrowane i elastyczne rozwiązania, które z powodzeniem współpracują z różnorodnymi systemami dostępnymi na rynku. W ten sposób klient otrzymuje dopasowany do swoich potrzeb produkt – Software Defined Data

Center ze zwirtualizowaną infrastrukturą i dostępnością w formie usługi oraz w pełni zautomatyzowaną kontrolą. Pod koniec 2014 roku EMC poinformowało o wchłonięciu do własnych struktur spółki VCE. Czy to dla Pana dobra wiadomość? Nie tylko dla mnie, ale przede wszystkim dla VCE, które powstało po to, by umożliwić klientom uproszczenie architektury centrów danych i zapewnić bardziej efektywne wdrażanie rozwiązań opartych na chmurze. Jednak ze względu na rozmiar, skalę działania i zasięg rynkowy firmy wymaga ona obecnie bardziej tradycyjnej struktury biznesowej. Nasze zaangażowanie we wzrost inwestycji pozwoli VCE na znaczne poszerzenie skali i zakresu oferowanych rozwiązań. To także bardzo dobra wiadomość dla klientów, którzy dzięki dalszemu rozwojowi VCE będą mogli uzyskać jeszcze większe korzyści z możlinr 1-2 (259-260) • styczeń 2015


wości, jakie dają chmura hybrydowa i rozwiązania IT nowej generacji. W globalnych zestawieniach sprzedaży macierzy dyskowych EMC posiada znaczną przewagę nad konkurentami. Jednak na rynku Europy Centralnej i Wschodniej czujecie na plecach oddech HP. Czym tłumaczyć taki stan rzeczy? Patrząc na wyniki EMC w Polsce, możemy powiedzieć zupełnie coś innego. Według IDC sprzedaż naszych produktów wzrosła w 2013 roku o ponad 25 procent przy niskim wzroście całego rynku, bo zaledwie o 4,2 procent, a to oznacza, że osiągnęliśmy swój wynik przede wszystkim kosztem konkurencji. W dużym stopniu przyczyniła się do tego szybko rosnąca sprzedaż rozwiązań klasy midrange (przedział od 25 do 250 tys. dol.) – wzrost o ponad 60 procent w porównaniu z rokiem poprzednim. Polski oddział EMC coraz lepiej poczyna sobie na rynku publicznym. Które grupy produktów generują największą sprzedaż dla tej grupy odbiorców? Instytucje państwowe oraz agencje szczebla centralnego poszukują wydajnych platform pamięci masowej, które będą w stanie sprostać wymogom związanym z obsługą złożonych systemów bazodanowych. Stąd też klienci z sektora publicznego najczęściej pytają o rozwiązania klasy enterprise z serii VMAX oraz systemy backupowe reprezentowane przez technologie Data Domain czy Networker. Czy do Polski zawitała już moda na systemy all-flash? Jacy klienci wykazują największe zainteresowanie tego typu rozwiązaniami? W 2014 roku mocno skupiliśmy się na popularyzacji w Polsce systemów macierzy all-flash. Znaczna część naszych klientów już rozważa wdrożenie tego typu rozwiązań. Całkowicie zmieniają one podejście i ekonomię środowisk informatycznych. W niedalekiej przyszłości, być może nawet już w najbliższym roku, możemy się spodziewać znacznego wzrostu popytu na systemy all-flash, porównywalnego do tego, jaki w swoim czasie obserwowaliśmy przy platformach typu PBBA (purpose build backup appliance – np. EMC Data Domain). nr 1-2 (259-260) • styczeń 2015

EMC zapowiada zmiany w programie partnerskim, chcecie m.in. ograniczyć liczbę złotych i srebrnych partnerów. Czym podyktowane są wymienione działania? Wprowadzone zmiany będą się skupiać na uproszczeniu zasad oraz wprowadzeniu bardziej przewidywalnych sposobów wynagradzania partnerów za zrealizowane transakcje. Nowy program partnerski promuje integratorów i resellerów specjalizujących się w różnych obszarach. Business Partner Program (BPP) łączy wszystkie wcześniejsze programy dla partnerów EMC, aby ich współpraca z naszą firmą przebiegała w sposób prosty i przewidywalny oraz zapewniała oczekiwane zyski. Program oferuje większą elastyczność i swobodę wyboru, a także lepszy dostęp do rozwiązań i usług, które pozwolą partnerom odegrać czołową rolę w obszarze rozwijającej się trzeciej platformy. Nowy program dla partnerów EMC ma również zwiększyć możliwości sprzedaży rozwiązań i usług EMC. Partnerzy będą mieli dostęp do pięciu nowych, specjalnie przygotowanych udogodnień, które pomogą im zawierać transakcje o wyższej wartości w takich segmentach, jak chmura, wielkie zbiory danych i bezpieczeństwo. Jaki będzie 2015 rok na rodzimym rynku storage? Czy możemy spodziewać się wielu niespodzianek? W nadchodzącym roku coraz częściej zakupy infrastruktury nie będą atomizowane, a pamięci masowe staną się spójną częścią budowanych infrastruktur konwergentnych i hiperkonwergentnych. Wierzę, iż organizacje IT polskich klientów będą migrować do modelu operacyjnego, gdzie cała infrastruktura traktowana jest jednorodnie, a doświadczenie zespołów wsparcia będzie się koncentrować na automatyzacji procesów i elastycznym świadczeniu usług, a nie utrzymywaniu standardów i architektur referencyjnych w obszarze infrastruktury. Stąd przewiduję wzrost zainteresowania takimi rozwiązaniami, jak Vblock, czy platformami związanymi z EVO:RAIL. Idąc dalej tropem automatyzacji, postępująca popularyzacja chmury obliczeniowej, zarówno w modelu publicznym, jak i hybrydowym, będzie powodować odejście od standardowego sposobu składowania danych

w stronę przetwarzania na platformach zewnętrznych dostawców. Krajowi dostawcy usług chmurowych będą musieli tutaj mocno rywalizować z globalnymi konkurentami, takimi chociażby jak Amazon. Ciekawą alternatywą w tym obszarze jest wykorzystanie i rozszerzenie sprawdzonej technologii VMware z zakresu vCloud o usługi z pakietu vCloud Air. Dzięki temu prywatna chmura obliczeniowa może być łatwo

W 2014 roku mocno skupiliśmy się na popularyzacji w Polsce systemów macierzy all-flash. Znaczna część naszych klientów już rozważa wdrożenie tego typu rozwiązań. Całkowicie zmieniają one podejście i ekonomię środowisk informatycznych. i szybko rozbudowana o zasoby (w tym storage) bezpośrednio z chmury publicznej firmy VMware bądź innych dostawców (także w Polsce) wykorzystujących interfejs API w technologii vCloud. Co się stanie z tradycyjnymi systemami dyskowymi? Pewna jest dalsza twarda konkurencja na rynku pamięci masowych w środowiskach, gdzie implementacja zasobów oraz zakupy realizowane są w tradycyjny sposób. Tutaj będą górować dostawcy walczący przede wszystkim ceną, a nie wizją oraz innowacyjnymi rozwiązaniami. Na szczęście potrzeba innowacji i poszukiwania konkurencyjności, w tym optymalizowanie procesów operacyjnych, będą powodować, iż tradycyjny sposób zakupów powierzchni dyskowej (w oderwaniu od dodatkowych wartości związanych z nowoczesnymi systemami przetwarzania) będzie odchodzić powoli do lamusa. Ewentualne ciekawostki będą się pojawiać raczej wokół konkretnych zastosowań rozwiązań informatycznych w wybranych branżach. Dla przykładu, systemy przetwarzania danych na bieżąco typu in-memory (jak SAP HANA) będą wymagały nowych rozwiązań pozwalających w inny sposób (z pominięciem tradycyjnych protokołów i stosów technologicznych) adresować natychmiastowo duże ilości danych. w iT Reseller

9


» PAMIĘCI MASOWE

Młode wilki na rynku storage Wojciech Urbanek

Młode firmy z Doliny Krzemowej stają się coraz bardziej zuchwałe. Ale czy są na tyle silne, żeby zagrozić liderom rynku IT?

W

ielkie koncerny IT nie czuły respektu wobec start-upów. Los mniejszych firm był z góry przesądzony – zamykały biznes lub padały łupem większych graczy. Tylko nielicznym udawało się wypłynąć na szerokie wody pod własną banderą. Jednak w ostatnim czasie wiatr zaczyna wiać młodym wilkom w żagle. – Rywalizacja się zaostrza, start-upy dzięki inwestycjom venture capital rozwijają skrzydła. W przeciwieństwie do wielkich koncernów, takich jak HP, IBM czy EMC, mogą się skupić na jednym, konkretnym rozwiązaniu – przyznaje Bob Plumridge z Hitachi Data System. Co słychać po drugiej stronie barykady? Jon Sakoda, zarządzający funduszem venture capital NEA, uważa, że podziały HP oraz Symanteca to odpowiedź na zmasowaną ofensywę nowych graczy. – W tym roku należy się spodziewać poważnych ruchów ze strony takich firm, jak EMC, VMware, Citrix czy Dell – dodaje Sakoda. Podczas kilkudniowego pobytu w Dolinie Krzemowej spotkałem się z kilkunastoma młodymi firmami. Cloudera, Diablo Technologies, Nimble Storage czy Scality mogą już wkrótce napsuć sporo krwi zasiedziałym vendorom, tym bardziej że inwestorzy pompują w ten sektor miliardy dolarów. – Fundusze venture capital zainwestowały od 2010 roku aż 6,7 miliarda dolarów w przedsięwzięcia związane z pamięciami masowymi i wielkimi zbiorami danych. To o 75 procent więcej niż w poprzedniej pięciolatce. Efekty są widoczne. W segmencie rozwiązań, gdzie liczy się szybki dostęp do danych, świetnie radzą sobie Atlantis Computing, Nimble Storage, Nutanix, Pernix Data, Pure Storage, Solidfire. Z kolei w dziedzinie systemów scale out oraz pamięci obiektowych sukcesy odnoszą Cleversafe, Isilon (który obecnie jest częścią EMC) czy moja firma Scality – mówi Jerom Lecat, CEO Scality.

Hybrydy ze Słonecznej Doliny Sunnyvale, blisko 132-tysięczne miasto, jest jednym z najważniejszych ośrodków w Dolinie Krzemowej. Zwykły turysta prawdopodobnie umarłby

10

iT Reseller

tutaj z nudów, aczkolwiek fani nowych technologii nie powinni narzekać. W Sunnyvale rozlokowały się takie tuzy, jak AMD, Lockhead Martin, Yahoo!, Juniper Networks czy NetApp. Wędrówkę rozpoczynam od wizyty w siedzibie Nimble Storage. Dział marketingu wręcza torbę z gadżetami, wśród których znajduje się duża naklejka z zabawną ilustracją. Obrazek przedstawia macierze dyskowe znanego producenta na tle wieży Eiffla i znamienny podpis „czas na emeryturę”. Nimble Storage to prawdziwy młodzieniaszek w porównaniu z takimi firmami, jak EMC czy NetApp. Założony w 2008 roku start-up postawił na rozwój macierzy hybrydowych i idzie mu całkiem nieźle. W trzecim kwartale 2014 roku baza klientów Nimble Storage liczyła 2117 rekordów. Plany dotyczące bieżącego roku są bardzo ambitne. – Przewidujemy, że na koniec trzeciego kwartału 2015 roku liczba użytkowników naszych systemów przekroczy 4300 – mówi Dan Leary, szef marketingu w Nimble Storage. Macierze trafiają do bardzo różnych grup odbiorców: instytucje finansowe (13 proc.), providerzy (12 proc.), edukacja (11 proc.) hi-tech (10 proc.), opieka zdrowotna (8 proc.), instytucje rządowe (8 proc.). Należy podkreślić, że rozwiązania start-upu doceniają analitycy. W raporcie Gartnera „Magiczny kwadrant macierzy dyskowych” Nimble Storage znalazł się wśród wizjonerów. Producent zawdzięcza to innowacyjnej architekturze CASL (Cache Accelerated Sequential Layout) oraz systemowi Infosight. CASL łączy wydajność odczytu danych z pamięci flash z unikalną strukturą danych zoptymalizowaną pod kątem zapisu. Zastosowane rozwiązania pozwalają na szybszy odczyt niż w wypadku systemów posługujących się metodą auto-tieringu. Z kolei Infosight to system bazujący na chmurze, który monitoruje funkcjonowanie urządzeń Nimble Storage. System wykrywa potencjalne źródła awarii, dzięki czemu administratorzy otrzymują informacje o symptomach nieprawidłowości macierzy, zanim pojawią się rzeczywiste usterki. Warto zaznaczyć, że Nimble Storage już pojawił się na polskim rynku, a jenr 1-2 (259-260) • styczeń 2015


go produkty oferują Infonet Projekt oraz Connect Distribution. – Poważnie myślimy o Europie Wschodniej, mamy tutaj kilku partnerów. Choć zdajemy sobie sprawę, że musimy bardziej zintensyfikować działania w tym regionie. To bardzo perspektywiczny obszar, z którym wiążemy duże nadzieje – mówi Dan Leary.

Pliki i bloki są passé Dla wielu młodych firm z Doliny Krzemowej macierze dyskowe to przeżytek. W Kalifornii nastała moda na pamięć obiektową, która ma być panaceum na lawinowy przyrost danych nieustrukturyzowanych. Ta technologia posiada nieograniczone możliwości w zakresie skalowania systemów. Co więcej, nie wymaga stosowania macierzy dyskowych, wykorzystując środowisko x86. Węzły tworzące klaster posiadają własne zasoby obliczeniowe oraz powierzchnię dyskową, a zwiększenie wydajności następuje wraz z dodaniem kolejnych jednostek. Przechowywanie danych w systemach pamięci obiektowej jest tańsze niż przy zastosowaniu macierzy SAN czy NAS. Jak łatwo się domyślić, pierwszoplanowe role w tym segmencie rynku odgrywają start-upy. Liderem raportu IDC poświęconego pamięci obiektowej jest firma Scality z San Francisco, która została wyżej oceniona niż EMC, HDS czy NetApp. Jej flagowym produktem jest oprogramowanie Scality RING. Aplikacja rozwiązuje problemy związane z magazynowaniem petabajtów danych, zapewniając jednocześnie wysoką wydajność. Oprogramowanie można uruchomić na standardowych serwerach x86. Start-up współpracuje z HP oraz Dellem, które dystrybuują Scality RING, a na liście jego klientów znajdują się Comcast, Time Warner Cable czy Dailymotion.

NAS czy pamięć obiektowa? Exablox to kolejny ciekawy gracz, pracujący nad rozwojem pamięci obiektowych. Przed spotkaniem w Sunnyvale, gdzie mieści się siedziba firmy, trafiam na publikację Forbesa. „Klient za petabajt danych płaci w Exablox 41 tysięcy dolarów, gdyby chciał kupić taką samą powierzchnię dyskową w NetApp, munr 1-2 (259-260) • styczeń 2015

siałby wyjąć z kieszeni około miliona dolarów – tłumaczy Doug Brocket, CEO Exablox”. Czy to możliwe? Doug Brocket oraz Tad Hunt, współzałożyciele start-upu, przez ponad dwie godziny opowiadają o trendach rynkowych i systemie OneBlox. – Lawinowy przyrost danych powoduje, że nie opłaca się inwestować w macierze oraz serwery od zasiedziałych vendorów. To produkty, które nie potrafią sprostać nowym wyzwaniom związanym ze skalowalnością i zarządzaniem. Wielu producentów sprzedaje powierzchnię dyskową na zapas. Exablox proponuje dużo bardziej elastyczne rozwiązanie – przekonuje Doug Brocket. Podstawowy system OneBlox wyposażony jest w OS Exablox, 8 slotów na dyski 3,5” oraz 4 porty 1 GbitE. Jego cena wyjściowa wynosi około 10 tysięcy dolarów. Użytkownik może stosować dowolne kombinacje nośników, pochodzących od różnych producentów. Węzły tworzące klaster posiadają te same uprawnienia. Maksymalna powierzchnia dyskowa pojedynczego urządzenia wynosi 48 TB. Istnieje możliwość łączenia setek OneBlox, np. system składający się z 300 węzłów z dyskami 6 TB pozwala stworzyć klaster o pojemności 14,4 petabajta. Tad Hunt zdradza

Alex Yost, prezydent Diablo Technologies, opowiada o Memory Channel Storage

jeszcze jedną tajemnicę. – Dla użytkownika system niczym się nie różni od serwera NAS, natomiast wewnętrzna architektura bazuje na technologii pamięci obiektowej. Takie rozwiązanie ma kilka zalet. Ludzie są przyzwyczajeni do prostej obsługi urządzeń NAS, ponadto są one kompatybilne z aplikacjami biznesowymi. Z kolei pamięć obiektowa zapewnia doskonałą skalowalność, łatwe zarządzanie zasobami czy takie funkcje, jak deduplikacja w locie, oraz ciągłą ochronę danych – tłumaczy. Exablox jak do tej pory sprzedał około 70 systemów, ale od bieżącego roku rozpoczyna ekspansję na rynek EMEA. – 100 procent sprzedaży realizujemy przez kanał partnerski, dlatego będziemy poszukiwać partnerów – dodaje Brocket.

Amazon i parki Najwyższy czas opuścić Sunnyvale. W poszukiwaniu kolejnego dostawcy pamięci masowych udaję się do 30-tysięcznego Foster City – jednego z najbardziej zielonych miast Kalifornii. Trudno uwierzyć, że w tej niewielkiej miejscowości znajduje się aż 19 parków. Zielone płuca i zielone papierki, które szerokim strumieniem płyną od inwestorów, najwyraźniej sprzyjają powstawaniu iT Reseller

11


» PAMIĘCI MASOWE

ciekawych idei. Najlepszym tego przykładem jest Cloudian. To firma, która swoją przyszłość wiąże z pamięcią obiektową i Amazonem. – Chmura hybrydowa, inteligentne przetwarzanie danych oraz efektywność to najważniejsze kierunki rozwoju na rynku pamięci masowych w 2015 roku. Nasze oprogramowanie HyperStore Software idealnie wpisuje się w powyższe trendy – tłumaczy Paul Turner, szef marketingu firmy Cloudian. Start-up oferuje rozwiązanie oparte na technologii P2P, które skaluje się od dwóch do tysięcy węzłów, obsługując petabajty danych. Wyróżnikiem HyperStore Software jest unikalna architektura pozwalająca wdrażać lokalną i hybrydową pamięć masową Amazon S3. Użytkownik może bezproblemowo przenosić dane między prywatnymi chmurami a Amazon S3. – Jesteśmy dwa razy tańsi od chmury publicznej i pięć razy od tradycyjnych macierzy dyskowych – wylicza Paul Turner. Cloudian adresuje swoje rozwiązanie do korporacji oraz lokalnych providerów. Firma pozyskała niespełna pięćdziesięciu klientów, w tym operatora NTT, jednego z największych na świecie dostawców usług telekomunikacyjnych.

Diabelskie prędkości W San Jose spotykam się z Diablo Technologies, firmą mogącą pochwalić się wyjątkowo długim stażem na rynku. Start-up działa od 2003 roku,

12

iT Reseller

jednakże produkt, który przyniósł mu rozgłos, pojawił się dziesięć lat później. Dolina Krzemowa jest kolebką macierzy all-flash. Pure Storage, Solidfire czy Violin Memory rzuciły rękawice największym potentatom. Ale firma Diablo Technologies oferuje rozwiązania jeszcze szybsze niż macierze nafaszerowane dyskami SSD. Nośniki flash przewyższają niemal pod każdym względem popularne „twardziele”. Niemniej możliwości dysków SSD ogranicza architektura stacji roboczych. Nośniki flash łączą się z płytą główną przez interfejsy SATA lub PCIe, a na drodze między danymi a procesorem i pamięcią RAM stają kontrolery wejścia/wyjścia. To powoduje opóźnienia, np. dla dysków SSD podłączanych przez SATA wynoszą kilkadziesiąt mikrosekund. Niby niewiele, ale w wypadku niektórych operacji ma to znaczenie. – Nasza unikalna technologia Memory Channel Storage pozwala podłączyć pamięć flash bezpośrednio do gniazd DIMM. W ten sposób eliminujemy opóźnienia generowane przez PCIe i SATA – tłumaczy Kevin Wagner, wiceprezydent ds. marketingu w Diablo Technologies. Memory Channel Storage to rozwiązanie adresowane przede wszystkim do firm, instytucji przeprowadzających szybkie transakcje. Idealnym przykładem są giełdy, gdzie o milionowych zyskach decydują czasami ułamki sekund. Diabelska technologia sprawdzi się również podczas wirtualizacji desk-

topów, w rozwiązaniach typu VSAN oraz analizie wielkich zbiorów danych. – Memory Channel Storage pozwala zrealizować w tym samym czasie o 20 procent więcej transakcji niż alternatywny układ PCIe. Ponadto SATA, SAS czy PCIe, kiedy rośnie IOPS, zwiększają opóźnienia. Nasza pamięć nie uznaje ma żadnych kompromisów – mówi Kevin Wagner. Architektura Memory Channel występuje w modułach pamięci ULLtraDIMM firmy SanDisk oraz Lenovo eXFlash DIMM. Układy, produkowane przy użyciu technologii 19nm, dostępne są w pojemnościach 200 GB oraz 400 GB. – Gniazdo PCIe nie jest najlepszym miejscem dla pamięci flash. Można je wykorzystać do innych celów. Serwer Lenovo x3850 X6 posiada od 4 do 9 slotów PCIe oraz do 96 gniazd DIMM – przekonuje Kevin Wagner. Diablo Technologies wierzy, że rolę systemów all-flash przejmą serwery. – Macierz wypełniona dyskami SSD ma dwie zasadnicze wady – wysokie koszty oraz nieefektywne skalowanie. Chris Mellor, znany ekspert od pamięci masowych, uważa, że działania wielkich koncernów przypominają postawę lemingów, które, stojąc tuż przed klifem, wysyłają sygnały: „Halo, Houston, mamy problem”, „Nasz nowy CEO nas ocali”. Jak zatem określić postawę start-upów? To młode wilczki, które poczuły krew i atakują z coraz większym impetem. W następnym wydaniu „IT Reseller” kolejna relacja z Doliny Krzemowej. w

nr 1-2 (259-260) • styczeń 2015


TB Phone Case etui na telefon

3D

nowość Dostępne w wielu kolorach i wzorach Iphone 5/5s, 6, Samsung Galaxy S3, S4, S5

Szukaj produktów na abonline.pl oraz alsen.pl


» PAMIĘCI MASOWE

Macierze hybrydowe – informatyczna symbioza Andrzej Janikowski

Macierze hybrydowe – łączące zalety dysków klasycznych i flash – stanowią optymalne rozwiązanie dla większości nowoczesnych organizacji. Eksperci nie mają złudzeń, że najbliższa przyszłość należy do hybryd.

J

eśli chodzi o kwestie techniczne, to w ostatnich latach rynek macierzy dyskowych dość mocno ewoluował. W rozwiązaniach dyskowych coraz częściej instalowane są pamięci typu flash, które pomału wypierają dyski obrotowe. Ograniczenia nośników HDD, wynikające głównie z ich fizycznej budowy, przez lata nie pozwalały na zwiększenie wydajności w takim stopniu, w jakim udało się to w wypadku innych komponentów, jak procesory czy pamięci DRAM. – Ze względu na wydajność i niezawodność dysków SSD, a także na spadek cen użytkownicy coraz chętniej stosują technikę flash w macierzach – mówi Artur Bałuta, Storage Sales Representative, Oracle Polska. – Jest ona implementowana albo jako cache, albo jako wydajna warstwa dodatkowa, czyli tier, co polepsza jej wydajność, czyli zwiększa liczbę operacji wejścia wyjścia w takiej macierzy.

Warstwa po warstwie Trzeba jednak powiedzieć, że oba rodzaje nośników mają swoje zale-

14

iT Reseller

ty. HDD są tańsze w przeliczeniu na jednostkę pojemności, ale dyski SSD są szybsze – biorąc pod uwagę oczywiście liczbę operacji wejścia/wyjścia (czyli IOPS). Macierze hybrydowe mają połączyć i zrównoważyć parametry obu. Zdaniem Jacka Siekińskiego, starszego inżyniera wsparcia sprzedaży w EMC, głównym czynnikiem, który przyczynia się do popularyzacji macierzy hybrydowych, jest to, że wprowadzenie niewielkiej liczby dysków SSD (od 2 do 5 proc. całkowitej pojemności systemu składowania danych) może podwoić wydajność mierzoną w IOPS i obniżyć czas odpowiedzi z ponad 10 ms do około 3–5 ms. Specjaliści mocno wierzą w rozwój macierzy hybrydowych. Na przykład Artur Bałuta, powołując się na dane IDC, przewiduje, że światowy rynek macierzy opartych tylko na HDD będzie się kurczył w tempie około 8 procent w skali roku, przy czym rynek macierzy hybrydowych będzie rósł w tempie 23 procent rocznie. To dość optymistyczne szacunki, zwłaszcza jeśli weźmie się pod uwagę wciąż wysoką cenę dysków SSD.

Ceny dysków SSD są wprawdzie ciągle wysokie, ale systematycznie spadają, a na dodatek klienci z roku na rok coraz lepiej zdają sobie sprawę z korzyści płynących ze stosowania rozwiązań warstwowych. Producenci mówią o rozwoju mechanizmów macierzowych umożliwiających efektywne wykorzystanie powierzchni SSD oraz sprawnej obsługi warstwowego składowania danych. Macierze hybrydowe to de facto klasyczne macierze, w których stosowane są zarówno dyski mechaniczne, jak i SSD. Zalety macierzy hybrydowych i architektury warstwowej to przede wszystkim wydajność, bo dane najczęściej odczytywane znajdują się na wydajnych dyskach SSD. – Poza tym dają one tak pożądaną oszczędność energii i miejsca – mówi Jacek Siekiński. Możliwość klasyfikacji danych ze względu na ich wykorzystanie umożliwia przechowywanie sporadycznie wykorzystywanych bloków danych na dyskach, np. SATA/NL-SAS, o bardzo dużych pojemnościach, co ogranicza liczbę wykorzystywanych napędów nr 1-2 (259-260) • styczeń 2015


Cztery argumenty za macierzą hybrydową lub all-flash Hybryda

All-flash

Zróżnicowany, nieprzewidywalny charakter obciążeń

Wymagane opóźnienie rzędu mikrosekund

Priorytetem jest optymalizacja kosztów

Wymagane jest QoS

Zróżnicowane opóźnienia nie stanowią problemu

Priorytetem jest wydajność

Budżet nie pozwala na zakup all-flash, a istnieje potrzeba zwiększenia wydajności

Zapotrzebowanie na pamięć flash jest wyższe niż zastosowanie warstwy w systemie hybrydowym

dyskowych. Mniejsza liczba dysków to, oczywiście, mniej zajętego miejsca i mniej zużytej mocy. Mniejsza konsumpcja prądu wynika także z zastosowania dysków SSD, których pobór prądu jest znacznie mniejszy od dysków mechanicznych. Umieszczanie w jednej macierzy kilku dysków o różnej wartości na jednostkę pojemności okazuje się efektywne ekonomicznie. Poza tym wykorzystanie takich mechanizmów, jak na przykład auto-tiering, obniża koszt zakupu macierzy hybrydowej w porównaniu z macierzą dyskową wykorzystującą tylko jeden typ nośnika. Wszystkie te czynniki doprowadziły do dużego wzrostu popularności macierzy hybrydowych. – Obecnie sprzedaż macierzy dyskowych wyposażonych jedynie w dyski mechaniczne stanowi margines konfiguracji oferowanych klientom – mówi Siekiński.

Tylko krzem? Stosunkowo niedawno zaobserwowano wzrost zainteresowania macierzami dyskowymi typu AFA (All-Flash-Array). To urządzenia wyposażone jedynie w dyski typu SSD i zaprojektowane od podstaw – w odróżnieniu od ma-

nr 1-2 (259-260) • styczeń 2015

cierzy hybrydowych, czyli klasycznych macierzy przystosowanych do obsługi nośników flash. Na razie rynek tego typu urządzeń jest stosunkowo niewielki, ale producenci są zdania, że już wkrótce zacznie się to zmieniać. Artur Bałuta, ponownie wskazując na badania IDC, szacuje, że rynek macierzy all-flash będzie rósł o ponad 55 procent rocznie, osiągając poziom około 3,2 miliarda dolarów w 2017 roku. Z innego badania tej firmy, przeprowadzonego w zeszłym roku, wynika, że połowa respondentów planowała zakup macierzy all-flash. – W praktyce macierze dyskowe typu hybrydowego oraz AFA nie stanowią dla siebie konkurencji i mogą być stosowane komplementarnie – twierdzi Jacek Siekiński. – Każda z tych technologii ma określone właściwości, a przez to i miejsce, w którym można je stosować. Obsługa dysków SSD w celu podniesienia ich wydajności i żywotności wymaga zastosowania zupełnie innych algorytmów obsługi. Wynika to z charakterystyki pracy tych nośników. w

Rewolucja, na którą rynek czekał od lat Macierze hybrydowe potrafią sprostać wymaganiom baz danych i aplikacji. Obecnie nawet małe macierze, kwalifikowane jako sprzęt dla rynku SMB, możemy określić mianem hybrydowych. Macierz hybrydową cechuje możliwość: qm ieszania różnych typów dysków, np. SSD, SAS, FC NL SAS, w ramach pojedynczej półki dyskowej q z astosowania dysków SSD jako pamięci cache dla poprawy wydajności I/O – Fast Cache q z astosowania dysków SSD dla tzw. auto-tieringu – technologia Fast VP q zastosowania technologii Thin Provisioning. Każda z tych technologii poprawia wydajność macierzy. Obecnie model VNXe 3200 dla rynku SMB wyposażony został w technologię Fast Cache i Fast VP. Hybrydowość macierzy na stałe zagościła w macierzach serii EMC VNX. Nikt już nie buduje wydajności przez zwielokrotnianie ilości dysków SAS lub FC, których ilość I/O określana jest na poziomie 160–180, gdzie jeden dysk SSD może osiągać nawet do ok. 4500 IOPS. Resellerzy i integratorzy zwracają baczną uwagę na potrzeby wydajnościowe i pojemnościowe klienta. Duża konkurencja sprawia, że chętniej przyglądają się technologii SSD i rozwiązaniom hybrydowym, które mogą pozwolić im wygrać walkę o budowę rozwiązań u klienta. Macierze hybrydowe to trend, który na stałe zagościł już w świecie IT. EMC jako pionier tych rozwiązań dąży do udoskonalenia i ujednolicenia zarządzania macierzami, systemami do wirtualizacji przez ułatwienia integracji macierzy hybrydowych z technologiami do wirtualizacji hardware – EMC VPLEX, Continuos Data Protection – Recover Point oraz Software Define Data Center (wirtualnej serwerowni) EMC ViPR. Dzięki temu resellerzy mogą budować przewagę technologiczną, gwarantując klientom stabilny rozwój i prostotę zarządzania. Łukasz Olszak, S4E S.A.

iT Reseller

15


» PAMIĘCI MASOWE

Macierze dyskowe – czas na flash Wojciech Urbanek

Rywalizacja na rynku macierzy dyskowych all-flash budzi dużo emocji. To zrozumiałe, bowiem gracze rywalizują o coraz wyższe stawki.

Ś

wiat nowych technologii zmienia się niczym w kalejdoskopie. Coraz szybsze procesory, rosnąca przepustowość sieci czy postępująca miniaturyzacja otwierają nowe możliwości przed światem biznesu. Jednym z nielicznych bastionów konserwatyzmu pozostają nośniki danych, gdzie od lat prym wiodą dyski twarde. „Twardziele” swój rynkowy byt zawdzięczają niskim cenom i długiej żywotności, ich średni cykl życia oscyluje wokół 10 lat. Niestety wydajność HDD pozostawia wiele do życzenia. W ciągu ostatniej dekady dyski twarde zwiększyły swoją prędkość zaledwie o 30 procent. Konkurencyjne nośniki SSD są ponad 100 razy szybsze i 10 razy wytrzymalsze niż dyski mechaniczne. O ile na rynku konsumenckim wirujące talerze często przegrywają rywalizację z pamięciami flash, o tyle w wypadku rozwiązań korporacyjnych dzierżą zdecydowany prymat. Systemy all-flash jeszcze przez jakiś czas pozostaną produktem elitarnym, niemniej wraz z upływem czasu grono ich użytkowników będzie systematycznie się powiększać. Według IDC w 2012 roku dostawcy macierzy SSD sprzedali 31 PB danych, zaś w przyszłym roku osiągną wynik 611 PB. To jednak wciąż kropla w morzu. Dla porównania – w II kwartale 2014 roku producenci macierzy dyskowych upłynnili 11,5 EB danych. – Bieżący rok przyniesie dalszą ekspansję macierzy all-flash. Przedsiębiorstwa zaczną się pozbywać tradycyjnych macierzy. Systemy bazujące wyłącznie na SSD wyznaczają nowe standardy, opóźnienia liczone w mikrosekundach pozwalają zwiększyć jakość i wydajność obsługi każdej aplikacji – tłumaczy Vaughn Stewart z Pure Storage.

> purestorage

16

iT Reseller

Ale nie wszyscy podzielają tę opinię. Hu Yoshida z Hitachi Data Systems uważa, że całkowita migracja do pamięci flash nie zawsze jest rozsądnym krokiem. Zdaniem wiceprezydenta Hitachi Data Systems wdrażanie systemów all-flash oznacza tworzenie kolejnych silosów. Nie są one zintegrowane z innymi pamięciami masowymi w organizacji i wymagają oddzielnego zarządzania, ochrony czy replikacji. Dlatego Hu Yoshida radzi, by korzystać z systemów hybrydowych, obsługujących różne rodzaje nośników. Również specjaliści z EMC przekonują, że relatywnie mała ilość dysków SSD, tzn. około 5 procent łącznej pojemności systemu, pozwala zoptymalizować wydajność aplikacji wirtualnych. Ktoś powie, że to marketingowe formułki wygłaszane przez dinozaury broniące swoich pozycji. Niekoniecznie. Młodzi gracze – Nimble Storage, Tegile Systems czy Tintri także stawiają na rozwiązania hybrydowe.

Jak zwykle zaczęło się od start-upów Prekursorami macierzy all-flash są start-upy z Doliny Krzemowej. Ich losy potoczyły się różnie. Pure Storage, Solidfire, Nimbus Data i Violin Memory zachowały samodzielność i silne przyczółki na rynku. Z kolei Texas Memory Systems, XtremeIO, Whiptail oraz Skyera zostały połknięte przez rekiny branży IT, odpowiednio IBM, EMC, Cisco oraz Western Digital. Wejście do gry znanych vendorów wpłynęło na wzrost zainteresowania macierzami all-flash. Wcześniej wysokie ceny nośników i brak zaufania klientów do szerzej nieznanych marek ograniczały rozwój rynku. Ostra konkurencja doprowadziła do spadku cen pamięci, nr 1-2 (259-260) • styczeń 2015


Macierze all-flash na dobre zagościły na polskim rynku z początkiem 2014 roku. Zainteresowanie macierzami allflash, takimi jak XtremeIO i VNXAll-Flash, rośnie razem z rynkiem i zapotrzebowaniem, jakie najbardziej wymagający klienci, a w zasadzie ich kluczowe systemy, zgłaszają na macierze o ponadprzeciętnej wydajności. Dla porównania – ľXtremeIO w wersji 20 TB oferuje 250 tys. IOPS, a każdy dodatkowy klaster „xbrick” zwiększa tę wartość o kolejne 250 tys. IOPS, gdzie przeciętna macierz hybrydowa wyposażona w dyski SSD, tiering FAST VP osiąga ok 50 tys. IOPS. XtremeIO jest doskonałym rozwiązaniem dla technologii wirtualizacji desktopów VDI, baz danych i aplikacji. Jako dystrybutor z wartością dodaną staramy się, by nie były to tylko hasła. W zeszłym roku, wychodząc naprzeciw rosnącemu zainteresowaniu rozwiązaniem XtremeIO, pozyskaliśmy pojedynczy egzemplarz, który przeznaczony jest do testów dla naszych partnerów i ich klientów. Łukasz Olszak, S4E S.A.

opracowania nowych technologii redukcji danych w locie czy bardziej wydajnych kontrolerów. Walka w segmencie macierzy all-flash przypomina starcie Dawida z Goliatem. Na razie górą jest Goliat, aczkolwiek Dawid wcale nie stoi na straconej pozycji. Według magicznego kwadrantu Gartnera liderami rynku macierzy all-flash są EMC, IBM oraz Pure Storage. Dla osób mniej wtajemniczonych pewną niespodzianką może być obecność w tym doborowym gronie tej ostatniej firmy. – Pure Storage został już dawno zauważony przez głównych rozgrywających na rynku pamięci masowych jako zagrożenie ich interesów. Pure Storage wymusił na EMC czy HP implementację rozwiązań flash w swoich produktach. Uważam, że macierze tego producenta są lepsze i bardziej dojrzałe niż produkty konkurencji. Firma jako pierwsza wprowadziła redukcję danych w czasie rzeczywistym opartą na deduplikacji i kompresji oraz konstrukcję bazującą na tanich dyskach MLC – mówi Paweł Adamski z firmy Polcom, dystrybutora Pure Storage w Polsce. Jednym z pierwszych klientów Polcomu, którzy korzystają z macierzy Pure Storage, jest Unizeto. Urządzenie obsługuje infrastrukturę bazodanową klientów. Kwadrant Gartnera jest źródłem cennych informacji, ale najlepiej układ sił oddają wyniki globalnej sprzedaży macierzy all-flash opracowane przez IDC. W pierwszej połowie 2014 roku liderem w ujęciu wartościowym było EMC (112,3 mln dol.), kolejne pozycje zajęły Pure Storage (90,9 mln dol.) oraz IBM (82,9 mln dol.). – XtremIO jest macierzą, która powstała z myślą o współpranr 1-2 (259-260) • styczeń 2015

cy wyłącznie z pamięcią flash. System oferuje również szereg dodatkowych korzyści, jak np. stała przewidywalna wydajność i niski czas odpowiedzi przy zawsze włączonych usługach danych inline, takich jaľk deduplikacja, kompresja, thin provisioning, szyfrowanie danych czy snapshoty – tłumaczy Aleksander Kania z EMC. W klasyfikacji uwzględniającej sprzedaż powierzchni dyskowej przewodzi IBM – 22,8 PB przed EMC (13 4 PB), Pure Storage (7,6 PB), Nimbus Data (7,5 PB), Solidfire (7,5 PB) oraz Violin Memory (5,59 PB). Analitycy IDC sporządzili także zestawienie obejmujące średnie ceny za GB surowej pamięci flash. Okazuje się, że najdroższy jest Pure Storage – 12,03 dol./GB, nieco mniej zapłaci klient EMC – 8,38 dol./GB. Na drugim biegunie znajdują się produkty Solid Fire – 4,73 dol./73 GB, Nimbus Data – 4,57 dol. i… IBM – 3,64 dol./GB. Co ciekawe, IDC prognozuje, że na koniec przyszłego roku średnia cena pamięci flash w systemach korporacyjnych wyniesie 2,88 dolara.

Hybrydy, ale jakie? W 2014 roku łączne przychody ze sprzedaży czystych systemów SSD osiągnęły wartość 1,3 miliarda dolarów, zaś w wypadku hybryd 10 miliardów dolarów. Wyniki opublikowane przez IDC pokazują, że klienci preferują rozwiązania mieszane. Wiele wskazuje na to, że w najbliższych latach w tym zakresie niewiele się zmieni. Co ciekawe, również zwolennicy zawrotnych prędkości wierzą w hybrydy. Z tą różnicą, że nie widzą na nich miejsca dla dysków mechanicznych, a poszczególne warstwy zajmą pamięci SLC, MLC, DRAM czy TLC. w

LIDERZY RYNKU MACIERZY ALL-FLASH* W UJĘCIU WARTOŚCIOWYM (mln dol.) 112,3

EMC

90,9

82,9

Pure Storage

IBM

W UJĘCIU ILOŚCIOWYM (PB)

IBM

22,8

EMC

13,4

Pure Storage

7,6

Solidfire

7,5

Nimbus Data

7,5

Violin Memory

5,59

* I półrocze 2014. Dane IDC.

iT Reseller

17


» PAMIĘCI MASOWE

Obalamy trzy mity związane z pamięcią masową flash Michał Aleksander Kania, inżynier systemowy w firmie EMC

Od lat 60. XX w. moc obliczeniowa rośnie w tempie wykładniczym, dotrzymując kroku potrzebom biznesowym. Prawo Moore’a, zgodnie z którym moc obliczeniowa podwaja się co ok. 18 miesięcy, okazało się całkowicie i bezwzględnie słuszne. 18

iT Reseller

W

wypadku pamięci masowej, która w korporacyjnych środowiskach informatycznych jest równie istotna co moc obliczeniowa, krzywa wzrostu wydajności była w przeważającej części ostatnich 20 lat znacznie mniej stroma. Przedsiębiorstwa stwierdziły, że wraz z rosnącymi wymaganiami ich aplikacji coraz trudniej jest zbudować pamięć masową, która dotrzymałaby kroku instalowanej przez nie co roku szybszej mocy obliczeniowej. Wyobraźmy sobie następujące sytuacje: instytucja świadcząca usługi finansowe musi bezzwłocznie rozliczyć dużą liczbę płatności, w przeciwnym razie czeka ją kara nałożona przez regulatora. Sieć społecznościowa musi w czasie rzeczywistym analizować skuteczność reklam, aby utrzymać przewagę nad konkurencją. Kancelaria prawna musi wdrożyć pulpity wirtualne, aby zapewnić poufny charakter danych, a zarazem umożliwić pracę mobilną i realizację strategii BYOD. W tradycyjnej, opartej na dyskach pamięci masowej wszystkie te rozwiązania uruchamiane w środowisku informatycznym przedsiębiorstwa napotkają poważne, krytyczne wąskie gardła wydajności. Środowisko tego typu nie jest po prostu w stanie poradzić sobie

z olbrzymią liczbą interakcji wywoływanych przez te aplikacje, zachowując przy tym akceptowalne parametry wydajnościowe. W minionym roku znacząco zyskała na znaczeniu pamięć masowa flash. Wcześniej te systemy były wykorzystywane przede wszystkim w urządzeniach mobilnych i laptopach. Rozwiązania oparte na pamięci flash zaczynają wkraczać do korporacyjnych centrów przetwarzania danych, w których zapotrzebowanie na szybsze systemy pamięci masowej było od dawna odczuwalne. Choć macierze z HDD są w dalszym ciągu zdecydowanie dominującym nośnikiem pamięci masowej w centrum przetwarzania danych, popularność pamięci masowej typu flash nieprzerwanie rośnie. Uprzedzenia dotyczące historycznie wysokich kosztów, obawy o skalowalność i fakt, że pierwsza generacja urządzeń opartych w całości na technologii flash nie może pochwalić się historią potwierdzającą niezawodność sprawiają, że od czasu do czasu wśród dyrektorów ds. finansowych i technologicznych pojawiają się nadmierne obawy. Poniżej obalamy trzy mity związane z pamięcią masową flash, które powinien znać każdy perspektywicznie myślący dyrektor IT. nr 1-2 (259-260) • styczeń 2015


1

Mit numer jeden: pamięć masowa flash jest droższa q W ostatnich kilku latach wyraźnie spadł bezwzględny koszt pamięci masowej flash, względny koszt na terabajt pamięci masowej typu flash w zestawieniu z tradycyjną pamięcią masową stał się więc zdecydowanie atrakcyjniejszy. q Macierze typu flash oferują większą przepustowość, do obsługi tych samych obciążeń można więc wykorzystać mniej macierzy, zwłaszcza gdy firma skorzysta z zaawansowanych, niewpływających na wydajność technologii redukcji ilości danych w locie, które identyfikują i usuwają zbędne kopie tych samych informacji. Tradycyjne rozwiązania nie dysponują wydajnością pozwalającą uruchamiać tego typu oprogramowanie do deduplikacji w czasie rzeczywistym, środowisko potrzebuje więc większej pojemności do pracy z taką samą ilością danych. q Gdy obciążenia zaczynają wymagać większej przepustowości (mierzonej w liczbie operacji wejścia/wyjścia

2

na sekundę, czyli IOPS), wiele przedsiębiorstw stwierdza, że w wypadku ich obciążeń wskaźnik cena–wydajność oferowany przez technologię flash sprawdza się idealnie. q Oparte na technologii flash dyski SSD nie tylko ograniczają konieczność stosowania nadmiernej pojemności pamięci masowej, ale także potrzebują znacznie mniej energii, chłodzenia i przestrzeni fizycznej niż dyski twarde HDD, zwłaszcza gdy firma korzysta z deduplikacji i zainstalowała na początku mniejszą pojemność. Zasilanie w centrum przetwarzania danych to zwykle jeden z trzech głównych kosztów operacyjnych w środowisku informatycznym (obok kosztów personalnych i kosztów powierzchni ośrodka obliczeniowego), każde obniżenie tych wydatków oznacza więc dla przedsiębiorstwa istotne oszczędności. Technologia flash pozwala ograniczyć koszty we wszystkich trzech obszarach, co przynosi wielokrotne zyski.

q Wdrożenie pamięci masowej flash w macierzach stworzonych specjalnie z myślą o wykorzystaniu możliwości nośników tego typu pozwala ograniczyć administrowanie pamięcią masową. Rewolucyjna architektura wewnętrzna całkowicie eliminuje złożone konfigurowanie i dostrajanie, zapewniając jednocześnie maksymalną wydajność. Z uwagi na fakt, że wdraża się tu tylko jedną warstwę nośników opartych na technologii flash, nie trzeba zarządzać warstwami pamięci masowej i wyszukiwać słabych punktów w obszarze wydajności. Stosowanie pamięci masowej opartej w całości na technologii flash przynosi więcej korzyści niż tylko atrakcyjny całkowity koszt posiadania i niższe koszty operacyjne. Warto jednak zwrócić uwagę na aspekt finansowy, ponieważ pozwala wyeliminować jeden z powodów, który zniechęca firmy do zastanowienia się nad zmianą.

Mit numer dwa: to technologia nieprzetestowana w praktyce, która stwarza większe ryzyko niż tradycyjna pamięć masowa

Na pierwszy rzut oka to prawda: technologia flash jest w przedsiębiorstwach krócej niż tradycyjne platformy pamięci masowej. Warto jednak zaznaczyć, że EMC korzysta w swoich macierzach z nośników opartych na technologii flash od 2008 roku. Gdy zastanawiamy się nad wdrożeniem nowej technologii, należy oceniać kwestie podstawowe, a nie „nowość” rozwiązania – w przeciwnym razie żadna innowacja nie miałaby racji bytu. A oto wspomniane wyżej kwestie podstawowe: q Nośniki typu flash są pozbawione części ruchomych, a zużycie elementów fizycznych to ważna przyczyna awarii tradycyjnych dysków. W testach przeciążeniowych wskaźniki awaryjności dysków flash są znacznie niższe.

nr 1-2 (259-260) • styczeń 2015

iT Reseller

19


» PAMIĘCI MASOWE

Wkraczamy do nowej epoki, w której pamięć masowa będzie sterowana programowo, skoncentrowana na technologii flash, zautomatyzowana i łatwiejsza do zarządzania.

3

q Brak elementów ruchomych sprawia również, że tego typu pamięć masowa jest mniej podatna na zmiany parametrów środowiska, takich jak temperatura, wilgotność itp., które stanowią kluczowe punkty podatności na uszkodzenia tradycyjnych systemów informatycznych. To również dlatego te rozwiązania lepiej sprawdzają się w bardziej zróżnicowanych sytuacjach, choćby w mobilnych zasobach obliczeniowych (stąd ich szybkie wdrożenie w telefonach komórkowych). q K ażdy element architektury, algorytmów i oprogramowania dla tej technologii tworzy się z myślą o minimalizacji zjawiska wzmożenia zapisu (ang. write amplification) i liczby operacji zapisu w pamięci flash, a także optymalnym równoważeniu zużycia (to proces pozwalający wydłużyć czas eksploatacji urządzeń pamięci masowej z dyskami SSD).

Mit numer trzy: to wydajność, w którą nie warto inwestować

Są to trzy najczęściej pojawiające się uprzedzenia, z którymi spotykam się podczas rozmów z naszymi klientami. Moim rozmówcom coraz trudniej jest jednak kwestionować fakt, że macierze pamięci masowej flash już dziś oferują firmom korzystającym z tej technologii nowe możliwości. Przejście na technologię flash jest po prostu zbyt logiczne i zbyt atrakcyjne. Wkraczamy do nowej epoki, w której pamięć masowa będzie sterowana programowo, skoncentrowana na technologii flash, zautomatyzowana

20

iT Reseller

Powinno być już jasne, że bardzo niewiele aplikacji nie skorzystałyby z wyższej wydajności oferowanej przez pamięć masową flash. Aktualna generacja napędów SSD zapewnia ok. 100-krotnie szybsze działanie, elastyczność wykorzystania tej wyższej wydajności jest więc olbrzymia. q Po pierwsze, wyższą wydajność można wykorzystać do obsługi „obciążeń nowej generacji”, czyli aplikacji, które wymagają niezwykle szybkich reakcji, minimalnych opóźnień lub dużej przepustowości. Mogą to być systemy do obsługi handlu wysokich częstotliwości, giełdy, platformy gier, sieci społecznościowe, infrastruktura pulpitów wirtualnych w dowolnej branży, internetowe platformy handlowe, platformy bankowości mobilnej, platformy do analizy danych itp. q Po drugie, firma może przeprojektować swoją drugą platformę aplikacji pod kątem znacznie większej efektywności i wydajności. Wyższa przepustowość sprawia, że można tu z dobrym skutkiem uruchomić deduplikację i zmieścić większe możliwości w mniejszym systemie pamięci masowej zajmującym mniejszą powierzchnię fizyczną. Pozwala to również odpowiednio obniżyć koszty operacyjne. q Po trzecie, pamięć masowa flash oferuje niezrównane poziomy elastyczności. Przedsiębiorstwa każdej wielkości muszą wdrażać nowe platformy, aby poradzić sobie z dynamicznymi zmianami na rynku. Muszą mieć pewność, że wykonywane przez nie zadania nie generują nadmiernych kosztów i nie narażają ich na niewygodne ryzyko. Niezależnie od tego, czy firma zdecyduje się na skalowanie pionowe, poziome czy na oba modele – pamięć masowa musi się dostosować do wprowadzanych zmian. Wykorzystanie technologii flash minimalizuje wpływ i poziom zakłóceń funkcjonowania w całym środowisku informatycznym.

i łatwiejsza do zarządzania. Otworzy to przed firmami wiele nowych możliwości i zmieni środowisko informatyczne z operacyjnej konieczności w strategiczną funkcję. Dostrzegamy gwałtowny wzrost zainteresowania tą technologią zarówno wśród firm, które chcą obsługiwać obciążenia nowej generacji, jak i wśród przedsiębiorstw zmagających się z wyzwaniem, jakim jest zapewnienie wydajności i efektywności operacyjnej tradycyjnych obciążeń w obliczu coraz większego napływu danych.

Na moim stanowisku łatwo jest popaść w nadmierny entuzjazm, gdy widzi się przełomową technologię zdobywającą popularność w branży, lecz macierze oparte w całości na technologii flash naprawdę mają rewolucyjny potencjał. Rozwiązania te zmienią działalność biznesową w przyszłości, a dzięki postępom w zakresie oprogramowania – które ułatwiają zarządzanie pamięcią masową flash i jej ochronę – transformacja ta zdobywa coraz większe poparcie myślących przyszłościowo dyrektorów ds. informatycznych. w nr 1-2 (259-260) • styczeń 2015


Młoty na dane Wojciech Urbanek

Demagnetyzery nie mają najmniejszej litości dla dysków twardych. Urządzenia w ciągu kilkudziesięciu sekund potrafią pozbawić życia nośnik wraz z danymi. nr 1-2 (259-260) • styczeń 2015

L

aptop nie reagował na moje polecenia. Nie wytrzymałem, straciłem cierpliwość, uderzyłem go otwartą dłonią i przestał działać, dlatego proszę o pomoc. – To zeznanie trafiło do jednego z rodzimych serwisów komputerowych. Specjaliści po wnikliwej analizie urządzania odnaleźli ofiarę bestialskiego ataku. Był nią dysk twardy. Choć cios uszkodził głowicę i zarysował talerze, ludzie z Kroll Ontrack odzyskali 50 procent kluczowych danych. Powyższy przykład pokazuje, że całkowite unicestwienie nośnika to nie lada wyzwanie. Kłopot z kompletnym unieszkodliwieniem dysku wraz z danymi miałby też prawdopodobnie Mike Tyson, bowiem w Kroll Ontrack chwalą się, że potrafią odzyskać zasoby z rozczłonkowanego nośnika.

Oprogramowanie czy sprzęt? Taśmy oraz dyski twarde należące do firm i instytucji stanowią prawdziwe skarbnice wiedzy, zawierają cenne dane finansowe, księgowe czy osobowe

klientów itp. Dziś już chyba nikomu nie trzeba tłumaczyć, że zasoby cyfrowe podlegają ochronie prawnej. Ale nie wszyscy wiedzą, że także usuwanie danych jest uregulowane licznymi aktami ustawodawczymi i wykonawczymi. – Na przestrzeni ostatnich kilku lat świadomość na temat niszczenia danych wyraźnie się poprawiła. Firmy inwestują w oprogramowanie i sprzęt do niszczenia danych. Choć wciąż istnieją przedsiębiorcy, którzy próbują robić to na własną rękę – mówi Jakub Stępniak, Key Account Manager, DISKUS Polska. Istnieje kilka sposobów usunięcia zasobów cyfrowych z nośnika. Do najbardziej popularnych metod należy formatowanie przy użyciu specjalistycznego oprogramowania. Proces polega na wielokrotnym nadpisywaniu danych. Niemniej aplikacje są podatne na błędy, a sam proces usuwania informacji może zająć nawet kilka dni. Specjaliści podkreślają, że nadpisywanie nie gwarantuje całkowitego pozbycia się iT Reseller

21


» PAMIĘCI MASOWE

ZDANIEM EKSPERTA

JAKUB STĘPNIAK Key Account Manager, DISKUS Polska

22

iT Reseller

Niszczenie nośników danych to biznes, który cieszy się rosnącą popularnością. W ostatnim roku odnotowaliśmy 20-procentowy wzrost sprzedaży urządzeń oraz usług. Wszystko wskazuje na to, że w bieżącym roku korzystny trend zostanie podtrzymany. Jest to zasługa zarówno przyrostu archiwizowanych danych cyfrowych, jak i zwiększającej się świadomości konieczności profesjonalnego podejścia do tematu niszczenia i utylizowania posiadanych nośników z firmowymi danymi. Firmy oraz instytucje oczekują stuprocentowej gwarancji utylizacji nośnika danych. Taką możliwość zapewniają jedynie rozwiązania sprzętowe, w tym demagnetyzery. ProDevice ciągle rozwija linię tych urządzeń, czego najlepszym przykład stanowi model ASM120. Produkt posiada kilka unikalnych cech, takich jak możliwość podłączenia do komputera PC i wygenerowania raportów. To pozwala sprawdzić, czy proces utylizacji został przeprowadzony prawidłowo. Demagnetyzer generuje bardzo silne pole magnetyczne o mocy 11 tys. gausów, a czas kasowania nośnika wynosi około 30 sekund. Szczególnie ważna jest siła pola magnetycznego, bowiem dyski mają coraz większą pojemność, co wymaga zastosowania silniejszego impulsu magnetycznego. Nasza oferta jest na tyle interesująca, że spotkała się z dobrym przyjęciem wśród zagranicznych klientów. Poza granicami Polski mamy partnerów w 28 krajach, a nasz demagnetyzer sprzedaje się prawie na wszystkich kontynentach. Najwięcej urządzeń trafia do klientów we Francji oraz Ameryce Południowej. Gorąco zachęcamy do współpracy również rodzimych resellerów. Sprzedaż urządzeń nie jest złożonym procesem i nie wymaga przeprowadzania długich prezentacji u klientów. Poza tym zawsze oferujemy partnerom wsparcie podczas demonstracji produktów. Magnesem powinna też być marża ze sprzedaży urządzeń, wynosząca 20–25 procent. Istnieje także możliwość wypożyczania urządzenia klientom.

danych. Większą skuteczność zapewniają rozwiązania sprzętowe – demagnetyzery, niszczarki mechaniczne oraz metody termiczne i chemiczne.

Siła demagnetyzera Duże przedsiębiorstwa, instytucje finansowe, placówki służby zdrowia często wykorzystują do usuwania danych demagnetyzery (degaussery). To urządzania wytwarzające silne pole magnetyczne, dezorganizujące w ten sposób ustawienia domen magnetycznych nośnika. Warto zaznaczyć, że demagnetyzery niszczą dane zarówno z dysków twardych, jak i taśm oraz kart magnetycznych. Obsługa urządzenia nie wymaga żadnej tajemnej wiedzy. Nośnik przeznaczony do demagnetyzacji wkłada się w specjalną wysuwaną kieszeń urządzenia i wystawia na działanie krótkiego i bardzo mocnego impulsu magnetycznego. W ten sposób talerze dysku tracą swoje właściwości magnetyczne i zapisane na nich dane. Na rynku dostępne są urządzenia o różnej sile oraz szybkości pracy, ale zazwyczaj czas kasowania nośnika wynosi około 30 sekund. Rodzimi przedsiębiorcy najchętniej kupują sprzęt marki ProDevice, Mediaeraser. Nieco mniej zwolenników mają produkty importowane – Kroll Ontrack, Garner czy VS Security Products. – W skali roku sprzedajemy około 50 sztuk naszych urządzeń ProDevice

> demagnetyzery potrafią w ciągu kilkudziesięciu sekund pozbawić życia nośnik wraz z danymi.

nr 1-2 (259-260) • styczeń 2015


oraz okazjonalnie kilka sztuk produktów Garner i VS Security Products. Przewiduję, że w bieżącym roku zwiększymy przychody o mniej więcej 20 procent. W porównaniu z rokiem 2010 poziom sprzedaży demagnetyzerów wzrósł pięciokrotnie – wyjaśnia Jakub Stępniak. Ceny najpopularniejszych degausserów kształtują się w granicach 20–25 tysięcy złotych. Urządzenia cechują się dużą wytrzymałością, a ich możliwości techniczne pozwalają na zniszczenie kilkudziesięciu tysięcy nośników. W praktyce oznacza to, że przeciętny demagnetyzer może pracować w firmie przez 5–6 lat bez konieczności kalibracji i testów wydajności. Co ważne, nie wymaga specjalnej opieki serwisowej, częstych przeglądów czy wymiany podzespołów. – Pierwszy przegląd urządzenia zalecamy po demagnetyzacji pięciu tysięcy dysków twardych – radzi Jakub Stępniak.

Niszczenie jako usługa Niektórzy menedżerowie wychodzą z założenia, że inwestycja w demagnetyzer to niepotrzebny wydatek. Niemniej przepisy obligują firmy i instytucje do całkowitego niszczenia danych. Co więcej, osoby, które nie niszczą skutecznie danych, narażają się na odpowiedzialność karną. Co zatem zrobić? Na rynku można znaleźć urządzenie ASM120 marki ProDevice. To pierwszy na świecie degausser oparty na technologii PPMS (Pre-Paid Management System). – Wielu naszych partnerów kupuje demagnetyzery, a następnie wypożycza je swoim klientom, którzy płacą za ilość skasowanych nośników. Niestety usługobiorcy nie zawsze są uczciwi, niszcząc więcej, niż zadeklarowali w umowie wypożyczenia. Pre-Paid pozwala wyeliminować ten problem – mówi Jakub Stępniak. Degausser marki ProDevice posiada możliwość zaprogramowania dozwolonej ilości cykli kasowania, po przekroczeniu której następuje automatyczna blokada urządzenia, dzięki czemu klient nie wykorzysta większej ilości cykli, niż zdeklarował w zamówieniu. W razie potrzeby istnieje możliwość zdalnego doładowania ilości cykli. Dodatkowo urządzenie posiada oprogramowanie raportujące, które zapewnia dostęp do danych historycznych, takich jak data kasowania, nr 1-2 (259-260) • styczeń 2015

numer cyklu oraz ocena prawidłowości wygenerowanego impulsu.

Nowe dyski, nowe wyzwania W świecie nośników następuje zmiana warty – dyski SSD powoli zastępują HDD. To proces, który potrwa prawdopodobnie wiele lat, nikt nie wierzy w to, że popularne „twardziele” znikną z dnia na dzień ze sklepów. Aczkolwiek już wkrótce zacznie się pojawiać zapotrzebowanie na utylizację dysków SSD. W wypadku pamięci flash demagnetyzery są całkowicie bezbronne, co oczywiście wynika z odmiennej konstrukcji nośników. – Na razie niewielka grupa klientów jest zainteresowana urządzeniami do niszczenia dysków SSD ze względu na ich bardzo wysoki koszt. Proponujemy im metody mechanicznego rozdrobnienia dysków flash przy użyciu profesjonalnych niszczarek. Już wkrótce DISKUS Polska uruchomi usługę mobilnego niszczenia nośników danych. W tym celu wykorzystamy nasz samochód – laboratorium, umożliwiający wygodną i bezpieczną utylizację nośników danych w dowolnej lokalizacji, bez konieczności wywożenia ich z siedziby klienta. Mobilne laboratorium MobileITlab będzie dysponowało wszystkimi zaawansowanymi rozwiązaniami niszczenia nośników dostępnymi na rynku (demagnetyzacja, fizyczne niszczenie, mielenie, programowe nadpisywanie) – wyjaśnia Jakub Stępniak. w

> niszczarka

Ceny najpopularniejszych degausserów kształtują się w granicach 20–25 tysięcy złotych. Urządzenia cechują się dużą wytrzymałością, a ich możliwości techniczne pozwalają na zniszczenie kilkudziesięciu tysięcy nośników.

> demagnetyzer iT Reseller

23


» WYWIAD

Asus – przebijemy konkurentów jakością Z Sebastianem Sierzpowskim, Commercial Business Division Manager w Asus Polska, rozmawia Krzysztof Polak Czy Asus jest usatysfakcjonowany swoją stosunkowo mocną pozycją na konsumenckim rynku pecetów w Polsce? – Jak najbardziej, przynależność do trójki liderów satysfakcjonuje. Jednak bycie numerem jeden na tym rynku oznacza niezwykle ciężką pracę i ogromny wkład finansowy. Zajmujemy dobrą pozycję, cieszymy się znaną i uznaną marką, jesteśmy cenieni za innowacje, np. to Asus dostarczył na polski rynek pierwsze komputery 2 in 1. Pamiętajmy, że na tym rynku istotną rolę odgrywa cena poszczególnych produktów – i pod tym względem wychodzimy zwycięsko z konkurencji z innymi markami. Rok 2014 zamykamy jako bardzo udany i rozpoczynamy nowy, kreśląc so-

24

iT Reseller

bie bardzo ambitne cele. Zamierzamy w dalszym ciągu zaskakiwać rynek nowościami i innowacjami produktowymi, m.in. smartfonami, notebookami. Rynek nabywców biznesowych jest wymagający i zdecydowanie węższy niż konsumencki. Zdobycie sobie na nim miejsca oznacza podjęcie konkurencji z takimi dostawcami, jak Lenovo, HP, Dell. Jak Asus zamierza sobie radzić w zmaganiach o klienta biznesowego? – Stawiamy na jakość. Pragniemy, by za parę lat marka Asus kojarzyła się z nienaganną jakością. Nasi konkurenci działają na rynku biznesowym od długiego czasu. Wydaje się, że wypracowali sobie na nim stabilną pozycję. Naszym atutem jest to, że dopiero bę-

dziemy go zdobywać. Nasi konkurenci próbują obecnie się wzmacniać, optymalizując koszty i szukając oszczędności, co niestety odbija się na jakości. To dodatkowo utwierdza nas w przekonaniu, że nasza strategia rynkowa, przyjmująca jakość jako główny oręż w zmaganiach z konkurentami, jest trafna. Wyśrubowane normy jakościowe – to jest karta, którą rzucamy na stół. Przykład? Trzy lata gwarancji, jaką dajemy na nasze produkty dostępne w Polsce, i to w trybie on site (naprawy na miejscu wskazanym przez klienta). Mało tego – gwarancję będzie można rozszerzać do pięciu, a w niektórych wypadkach nawet do siedmiu lat. Na co gwarancja? Na cały produkt i na części, z jakich jest zbudowany. Tylko ten przykład pokazuje nr 1-2 (259-260) • styczeń 2015


bezkompromisowość, z jaką podchodzimy do jakości. Z drugiej strony nie przewidujemy, by ta dobra jakość wiązała się z wysoką ceną i budziła w klientach wrażenie niedostępności czy trudnej dostępności. Nie, nawet nasz notebook, kosztujący dwa tysiące złotych brutto, powinien być przez klientów odbierany jako o klasę lepszy niż tyle samo kosztujące produkty konkurentów. Czy wobec tego jest to zapowiedź walki cenowej? – W pewnym sensie również. Jednak to nie cena powinna przyciągać do nas klientów, lecz lepsze wykonanie naszego produktu, zapewnienie wyższych wartości użytkowych czy choćby trzy lata gwarancji na baterie. I dlatego stawiamy na tradycyjne kanały sprzedaży – na dystrybutorów i resellerów. Nie zależy nam na partnerstwie z teleoperatorami i ofertach typu „urządzenie + abonament”. Jakość i cena naszych produktów sprawią, że klienci przedłożą te wartości nad oferty typu „produkt + usługa” – dostrzegą, że wybierając je, oszczędzą na abonamencie. Jaką rolę mają do odegrania resellerzy w realizacji tej strategii Asusa na rynku klienta biznesowego? – Stawiamy na siłę małych partnerów, którzy świetnie znają lokalne uwarunkowania i klientelę w gminach, miastach i miasteczkach. Tego typu sprzedawców chcemy traktować jako głównych partnerów w realizacji naszej strategii. Na dużej liczbie takich partnerów będziemy budować stabilny wzrost. Najpierw ich, a potem klientów końcowych chcemy przekonać, że Asus jest marką, którą warto brać pod uwagę z myślą o zastosowaniu komputerów w małych i średnich firmach, ale także w dużych. Mikroprzedsiębiorstwom zaoferujemy komputery z systemem Bing, czyli z przeglądarką i zestawem chmurowych aplikacji, które w pełni zaspokoją potrzeby obsługi małych podmiotów gospodarczych. Dlaczego Asus w swojej strategii bardziej skłonny jest liczyć na współpracę z lokalnymi resellerami niż z dużymi i szeroko znanymi firmami mającymi kontakt z masowym klientem? nr 1-2 (259-260) • styczeń 2015

– Tradycyjne podejście przyjmuje, że siła tkwi w narodzie. Jednak współpraca z dużymi sprzedawcami (retailerami) oznacza, że wpadamy z naszymi produktami do cenników i jesteśmy zmuszeni podejmować konkurencję głównie na polu cenowym. Klient, który chce kupić notebooka, w dużym sklepie tonie w natłoku informacji i ofert. W efekcie na ogół przyjmuje kryterium ceny jako rozstrzygające przy wyborze. To nam nie odpowiada, bo przecież stawiamy głównie na jakość. Produkty konsumenckie niech będą dostępne na rynku masowym (retail), ale te adresowane do biznesu muszą być w tzw. otwartym kanale. Jeśli chodzi o produkty dla biznesu, o wiele lepszym partnerem jest dla nas mały reseller, który szuka pomysłu na rozwój swojego biznesu. Jest to z reguły firma ambitna i rynkowo waleczna, co jest bardzo ważne, bo rynek się zmienia i kurczy, a przetrwają na nim tylko podmioty prowadzące dobrze przemyślane działania. Asus, zamierzający zbudować swoją pozycję na rynku odbiorców biznesowych, powinien być dla nich ciekawym partnerem, który daje możliwości zaoferowania jakościowego produktu i zarobku lepszego niż inni. Stabilne wzrosty osiągnięte we współpracy z dużą liczbą małych resellerów są drogą nie tylko do zaistnienia na rynku odbiorcy biznesowego, ale i do stopniowego zdobycia go. Na czym polega obietnica, że z Asusem „wszyscy zarobią”? Jak to będzie możliwe? – Sytuacja przypomina stan, jaki znamy z pierwszej prezentacji produktów, gdy już je opisują media, a specjaliści testują, ale one jeszcze nie trafiły do obrotu i nie są zaopatrzone w cenę. To moment, w którym sprzedawcy znający rynek i jego możliwości zaczynają oceniać potencjał biznesu, jaki zrobią z pomocą prezentowanych produktów. Na tym etapie rozwoju obecności na rynku odbiorcy biznesowego znajduje się obecnie Asus. Sygnalizuje resellerom, że nowe produkty dają im szansę na zarobek. Jak? Dzięki produktom dobrej jakości po przystępnej cenie czy dłuższym niż normalnie okresom gwarancji. Asus w Polsce to zespół doświadczonych ludzi (część z nich zdobywała

umiejętności, pracując u naszych obecnych konkurentów), którzy znają z praktyki grę rynkową i wiedzą, jak tę grę wygrać oraz jakie pułapki trzeba na tej drodze umiejętnie ominąć. Nowe pomysły na stopniowe zdobycie rynku i duży zasób praktycznej wiedzy zespołu Asusa sprawiają, że nasza strategia ma wszelkie dane na powodzenie w realizacji. Ze wszystkich krajowych oddziałów Asusa to właśnie polska dywizja zrobiła najwięcej w przygotowaniu do wejścia na rynek. Dziś inne oddziały uczą się od nas, co potwierdza, że cały wypracowany przez nas model biznesowy jest dobrze skonstruowany. Nie sposób nie zapytać o produkty. Co będzie wyróżniało komputery Asusa dla biznesu na tle konkurencji? – Na rynku odbiorcy biznesowego najważniejszym produktem jest wciąż notebook. Wstrzelimy się tu w luki, jakie stworzyli nasi konkurenci. Nasze maszyny będą pracowały na bateriach po 13 godzin i dłużej, a będzie je można odróżnić po wyposażeniu w moduły TPM (trusted module platform), umożliwiające

Stawiamy na jakość. Pragniemy, by za parę lat marka Asus kojarzyła się z nienaganną jakością. użytkownikom korzystanie ze wszystkich zaawansowanych funkcji zabezpieczeń, takich jak np. szyfrowanie dysków z funkcją BitLocker. Ekrany o wielkości od 12,5 cala, a ceny nawet poniżej dwóch tysięcy złotych brutto. Oczywiście zaproponujemy nie tylko notebooki, ale też 2 in 1, All in One oraz desktopy i mini-PC w litowych obudowach o poborze mocy od 4 do maksymalnie 20 watów. Startujemy z ogromną ofertą monitorów i terminali, w tym tzw. cienki klient (zero client) wielkości 22–24 cali z przeznaczeniem do obsługi środowisk zwirtualizowanych. W czwartym kwartale tego roku, jak wszystko będzie się dobrze układało, zaproponujemy też serwery. w iT Reseller

25


» MARKETING

Uniwersalny żołnierz Andrzej Janikowski

Poczucie dyscypliny product managera nie powinno ograniczać jego kreatywności. Wiadomo, w firmie dystrybucyjnej jest on przecież człowiekiem od wszystkiego.

26

iT Reseller

N

ie ma jednej definicji menedżera produktu, nie ma też żadnych polskich badań, które opisałyby jego samego. Z rozmów z dystrybutorami wynika, że jest to osoba bardzo zapracowana, w wieku około trzydziestu kilku, czterdziestu lat. Liczne obowiązki, którymi obciąża go pracodawca, sprawiają, że musi mieć umiejętności z pogranicza różnych dziedzin. Pożądanymi cechami są z pewnością przedsiębiorczość, otwartość na innowacje, doświadczenie w pracy w zespole, odpowiedzialność za kolejne przedsięwzięcia oraz zdolności organizacyjne i umiejętność analizy rynku. – Dobrze, żeby menedżer produktu miał też doświadczenie jako handlowiec – mówi Bartek Boczkaja, wiceprezes Konsorcjum FEN do spraw rozwoju.

– Dzięki temu może też udzielać wsparcia działowi handlowemu. Można też powiedzieć, że dzięki swej wszechstronności menedżerowie produktu są trzonem firmy dystrybucyjnej, choć jest ich stosunkowo niewielu. Boczkaja szacuje, że udział product managerów w ogólnej liczbie wszystkich pracowników firmy dystrybucyjnej wynosi od trzech do ośmiu procent. W mniejszych firmach, jak np. Konsorcjum FEN, ten udział jest bliżej górnej granicy. Spowodowane jest to tym, że w dużych hurtowniach działają informatyczne systemy sprzedażowe.

W pionie i w poziomie W zależności od specyfiki różnych firm zadania PM-ów mogą bardzo się różnić. Jarosław Słowiński, purchasing director w AB, mówi, że do ich obowiązków nanr 1-2 (259-260) • styczeń 2015


leży zarządzanie produktami, ustalanie strategii cenowej, sprzedaż produktów i nadzór nad gospodarką magazynu. Mogą też prowadzić działania marketingowe, a nawet szkolenia produktowe. Widać, że PM powinien być osobą komunikatywną i umieć nawiązywać oraz utrzymywać długotrwałe relacje z producentami i kluczowymi klientami firmy. – Praca na tym stanowisku wymaga różnych umiejętności – podsumowuje Słowiński. Uniwersalność PM-a jest w pewnym stopniu konsekwencją postępowania producentów. Bartek Boczkaja zauważa, że dystrybutorzy mają do czynienia z dwiema sytuacjami. Pierwsza to ta, kiedy producent ma w danym kraju lokalne biuro, w którym zatrudnia licznych specjalistów od marketingu, wsparcia technicznego, sprzedaży itd. W takim układzie rola PM-a jest względnie prosta – jest on typowym specjalistą od logistyki i na dobrą sprawę uzupełnia działania wytwórcy: współpracuje z handlowcami, przygotowuje akcje marketingowe lub po prostu przystosowuje pomysły producenta do możliwości firmy dystrybucyjnej. Jeśli jednak vendor nie ma własnego biura, wtedy PM powinien przejąć na siebie funkcje kierownika kanału, ale po części także świadczyć usługi wsparcia inżynierskiego. – Producent może mieć dedykowanego PM-a, to znaczy zajmującego się tylko jego liniami produktowymi – mówi Bartek Boczkaja. – Wtedy jednak taka osoba musi się skoncentrować na urządzeniach danego wytwórcy. W Konsorcjum FEN osoby o takim zakresie obowiązków nie ma, ale wiem, że u innych dystrybutorów takie rozwiązania są często akceptowane. Poznański dystrybutor dodaje, że PM-owie mogą zarządzać biznesem pionowo, czyli zajmować się różnymi segmentami produktowymi, jak urządzenia sieciowe, okablowanie czy monitory, lub też poziomo, to znaczy np. zarządzać jedną grupą urządzeń, ale różnych producentów. – Niezależnie od tego, który model przyjmie firma, zawsze może to rodzić problemy związane z dużym bogactwem oferty – mówi szef Konsorcjum FEN. Z kolei Barbara Jędrychowska, HR manager w Veracomp, mówi, że w jej firmie menedżer produktu reprezentuje nr 1-2 (259-260) • styczeń 2015

daną markę, więc przynajmniej w teorii powinien mieć dogłębną wiedzę na temat rozwiązań, rynku i konkurencji. PM musi rozumieć też i znać prawo gospodarcze, a także mieć predyspozycje analityczne.

Na ścieżce rozwoju Z oczywistych względów hurtownicy niechętnie patrzą na migrację tak wartościowych pracowników między dystrybutorami. Tłumaczą, że zbyt duża rotacja PM-ów nie jest dobra dla firmy, bo obniża wiarygodność w oczach producenta, który chce mieć stały punkt kontaktu, a najlepiej osobę, która dobrze zna strukturę dystrybutora. Taką, która wie, w jaki sposób wykorzystywać procedury do prowadzenia projektów, ale potrafi też maksymalnie skrócić czas podjęcia decyzji w sytuacji, kiedy potrzebne jest niestandardowe działanie. – Potrzeba czasu, aby poznać procesy zachodzące zarówno u producenta, jak i wewnątrz firmy – twierdzi Barbara Jędrychowska. – A co jeszcze ważniejsze, aby zbudować relacje z ludźmi, dzięki którym można zrealizować założone cele. Rzecz oczywista każdy product manager musi też wzbogacać wiedzę, ale może to robić na kilka sposobów. Niektórzy dystrybutorzy uważają, że rozwój osobisty prowadzony systematycznie w ramach jednej organizacji jest najlepszy. Jest to zrozumiałe z ich punktu widzenia – dystrybutor utrzymuje w swoich szeregach coraz lepiej wykształconego pracownika, który może realizować coraz więcej zadań. Jednak hurtownicy przekonują, że takie podejście jest też optymalne dla PM-a. Dzięki temu menedżer może zaplanować i realizować własną ścieżkę rozwoju, wykorzystując zasoby firmy. – Firma daje do dyspozycji cykliczne szkolenia, wewnętrzną bazę wiedzy, no i najlepsze praktyki wypracowane przez lata – twierdzi Jędrychowska. – Poza tym stwarza szanse na współdzielenie wiedzy z doświadczonymi pracownikami.

Wirtualna sprzedaż, realne zyski Zdarza się, że mniejsi dystrybutorzy współpracują z wielkimi hurtownikami, to znaczy zawierają umowy sprzedaży wybranych grup produktowych albo

produktów określonych producentów. Do porozumienia dochodzi zazwyczaj wtedy, kiedy mniejsza firma ma rynek zbytu, odpowiednich fachowców, ale niewystarczający potencjał do podpisania umowy dystrybucyjnej z jakimś producentem. Wtedy sprzedaż odbywa się za pośrednictwem tzw. wirtualnego product managera. Na tej właśnie zasadzie Konsorcjum FEN współpracuje z Action i z AB. – W przeciwnym rzazie nie moglibyśmy sprzedawać niektórych urządzeń – mówi Boczkaja. – Mamy własnego product managera, któremu nieobce są problemy logistyczne i który oczywiście biegle posługuje się Excelem. To warunki konieczne, ale nie wystarczające. Nasz wirtualny PM musi interesować się poziomem zapasów magazynowych, uzupełniać braki, ale też opracować strategię produktową. Mniejsze firmy godzą się na takie układy ze względów finansowych. Niewielcy dystrybutorzy zatrudniają mniej sprzedawców, czyli mniej zarabiają. Wirtualny menedżer pozwala im zwiększyć przychody bez konieczności rozbudowy magazynów.

Kwestie strategiczne Jednym z ważnych problemów jest podział zadań. Sławomir Harazin, wiceprezes zarządu Action, uważa, że w różnych firmach o odmiennych obszarach działalności zakres obowiązków product managerów będzie się nieco różnił. W segmencie dystrybucji PM powinien przede wszystkim odpowiadać za skonstruowanie operacyjnego planu działań związanego z danym produktem, umieć ocenić jego zasadność, a także opłacalność. To praca na styku środowisk biznesowego i technicznego, dlatego bardzo ważne jest to, żeby menedżer produktu rozumiał mechanizmy rządzące oboma. – Główne zadania określa jednak business unit manager – mówi Sławomir Harasin. – To on ma wizję, którą potem, wspólnie z product managerami, zamienia na konkretne działania, wspólnie z nimi formułuje także cele biznesowe, a także plan strategiczny. Business unit manager pilnuje dyscypliny i organizacji, co pozwala doprowadzić do pożądanego efektu końcowego, ale co najważniejsze, wspiera swoich PM-ów i jest dla nich kimś w rodzaju mentora. w iT Reseller

27


» MARKETING

Menedżer produktu, czyli człowiek orkiestra Wojciech Urbanek

Wprowadzenie programu do fakturowania online było całkowicie nowym doświadczeniem dla firmy Streamsoft. To zadanie powierzono też nowemu pracownikowi, o starannie określonym profilu. Czy ryzyko się opłaciło?

28

iT Reseller

F

lagowym produktem polskiej firmy Streamsoft jest oprogramowanie ERP. Ponad dwa lata temu producent zdecydował się rozszerzyć portfolio o rozwiązanie Firmino.pl. Streamsoft zaangażował do realizacji projektu nowego pracownika, wywodzącego się spoza organizacji. Czym podyktowana była taka decyzja? Firmino.pl, aplikację do fakturowania online, opracowywano z myślą o mikro i małych firmach, a poziom złożoności produktu wyraźnie odbiegał od rozbudowanych systemów ERP. Menedżerowie Streamsoftu uważali, że w tym wypadku potrzebne będzie spojrzenie osoby z zewnątrz, niezwiązanej z linią produktów ERP. Wymagania wobec menedżera produktu Firmino.pl obejmowały kompetencje z zakresu sprzedaży, marketingu oraz wiedzy technicznej. – Poza wiedzą z kilku dziedzin ważne były też cechy charakteru – samodyscyplina, determinacja w dążeniu do celu, zaangażowanie. Od kandydata oczekiwaliśmy kreatywności oraz zdolności analitycznych i oczywiście zamiłowania do nowych technologii, a także samodzielności. Jednym słowem człowiek orkiestra – uśmiecha się Jola Uździcka, dyrektor działu marketingu w Streamsoft. Znalezienie odpowiedniej osoby, posiadającej wszystkie te cechy, okazało się wyjątkowo trudnym zadaniem, mimo że na ogłoszenie odpowiedziało ponad 600 osób. Po żmudnej selekcji wybrano kandydata, który obok zakresu obowiązków otrzymał kilka cennych prerogatyw, w tym możliwość ustalania z Zarządem kluczowych decyzji dotyczących rozwoju produktu. Bardzo ważne było wypracowanie modelu współpracy z działami marketingu, sprzedaży oraz programistami. – Można dzisiaj powiedzieć, że Firmino.pl

była dla nas wtedy jak start-up. Dlatego za kluczowe uznaliśmy, by menedżer produktu odpowiedzialny za Firmino.pl potrafił samodzielnie zaproponować i zrealizować działania marketingowe, ocenić ich efekty i konkretnie powiedzieć nam, co się klientom podobało, a co nie. Ważne było również to, aby na bazie zdobywanych doświadczeń menedżer Firmino.pl potrafił określać właściwy kierunek rozwoju produktu. Chcieliśmy uniknąć sytuacji, kiedy menedżer produktu przychodzi do działu marketingu i mówi: zaproponujcie działania, które sprawią, że mój produkt będzie dobrze się sprzedawał – tłumaczy Jola Uździcka. Menedżer produktu Firmino.pl jest też łącznikiem między klientem i programistami. – Z jednej strony, dzięki doskonałej znajomości produktu, wspiera klientów (potrafi odpowiedzieć na każde pytanie dotyczące funkcjonalności i wsparcia technicznego), a z drugiej strony spotyka się z programistami, dostarczając im wiele cennych wskazówek pochodzących od użytkowników. Według tych wskazówek ustalany jest rozwój funkcjonalny produktu. To pozwala idealnie dostosować aplikację do potrzeb klientów – wyjaśnia dyrektor marketingu firmy Streamsoft. Czy menedżer produktu w nowej roli zdał egzamin? – Dziś z perspektywy ponad dwóch lat możemy stwierdzić, że tak. Udało się stworzyć program w chmurze, który w łatwy i przejrzysty sposób łączy fakturowanie, kalendarz spotkań i inne zadania. Co najważniejsze, sukces tego produktu, wyrażony wzrostem jego popularności wśród klientów, to również sukces naszego działania w zakresie wyznaczenia nowej roli dla menedżera produktu menedżera – ocenia Jola Uździcka. w nr 1-2 (259-260) • styczeń 2015


Marketing automation – nowa kategoria do resellingu IT 100-procentowy wzrost wynagrodzeń dla resellerów w nowym programie partnerskim SALESmanago – zwiększaj przychody i rozwijaj swój biznes wokół marketing automation.

A

ż 50 proc. od wartości sprzedanych licencji mogą zarobić resellerzy w nowym przebudowanym programie partnerskim SALESmanago, największego europejskiego systemu klasy marketing automation, z którego korzysta ponad 2000 firm w ponad 30 krajach. Producentem systemu jest polska firma Benhauer, która od trzech lat regularnie powiększa swoje przychody o 100 proc. Według firmy analitycznej Gartner marketing automation jest aktualnie najszybciej na świecie rosnącym segmentem oprogramowania w kategorii CRM. Spółka Benhauer została założona w 2011 roku, a jej klientami są największe polskie firmy i globalne korporacje, takie jak Orange, Getin Bank, Yves Rocher, Rainbow Tours, Merlin.pl, Aviva, oraz tysiące małych i średnich firm. Inwestorem w spółce jest Rafał Brzoska, szef i założyciel firmy InPost i Paczkomatów. W programie partnerskim uczestniczy aktualnie ponad 200 firm, wśród których są największe agencje marketingowe w Polsce i liczna grupa integratorów IT oraz dystrybutorów IT. – Bardzo się cieszymy, że po zbudowaniu samodzielnie, praktycznie od zera, rynku marketing automation w Polsce i pokazaniu proof of concept na bezpośredniej sprzedaży systemu SALESmanago dołączyła do nas grupa partnerów, którzy razem z nami rozwijają sprzedaż naszego systemu – mówi Grzegorz Błażewicz, założyciel i prezes firmy Benhauer. – W nowym otwarciu nr 1-2 (259-260) • styczeń 2015

programu partnerskiego pragniemy, aby jego konstrukcja umożliwiała budowanie i rozwijanie firmy partnera praktycznie w całości oparte na sprzedaży i obsłudze systemu SALESmanago marketing automation. Dotychczasowa stawka prowizyjno-rabatowa dla partnera przy sprzedaży w modelu SaaS wynosiła 25 proc. od wartości comiesięcznej fakturacji klienta końcowego. W nowym programie partnerskim partner już przy podpisaniu umowy otrzymuje 30 proc. prowizji lub rabatu na zakup i może z łatwością osiągnąć poziom 40 proc. przy realizacji określonych działań marketingowych na rzecz SALESmanago. Po przekroczeniu progu 5 tys. złotych obrotu miesięcznie partner działa na łącznej stawce 45 proc. prowizji lub rabatu, jeśli podpisuje umowę bezpośrednio z klientem. Przy sprzedaży wdrożeń w modelu dedykowanym dzięki połączeniu stawki za sprzedaż systemu i stawki za działania marketingowe partner otrzymuje prowizję lub rabat wynoszący 50 proc. W tym modelu, przy sprzedaży zaledwie ośmiu wdrożeń systemu i sprzedaży usług dodanych, partner osiąga roczny obrót na poziomie ponad 1 mln złotych. Partner otrzymuje prowizję od sprzedaży licencji przez cały okres obowiązywania umowy z klientem. Dodatkowo może świadczyć różnorodne usługi dodatkowe w zakresie consultingu, marketingu i wsparcia programistycznego oraz hostingu.

Grzegorz Błażewicz, założyciel i prezes firmy Benhauer

Firma Benhauer zapewnia kompleksowe wsparcie w procesie sprzedaży dla każdego partnera oraz szkolenia sprzedażowe i szkolenia z obsługi systemu. System SALESmanago Marketing Automation identyfikuje i monitoruje osoby pojawiające się na stronie WWW klienta i dzięki bezpośredniej integracji z systemami CRM/ERP klienta buduje kompletne profile behawioralno-transakcyjne klientów i potencjalnych klientów. Na tej podstawie system generuje automatyczne personalizowane 1-to-1 akcje marketingowe i dostarczanie oferty we wszystkich dostępnych kanałach marketingowych: e-mail, strona WWW, mobile, social media, sieci reklamowe i w kanale sprzedaży bezpośredniej (call center). w

JAK ZOSTAĆ PARTNEREM SALESmanago? Aby dołączyć do programu partnerskiego SALESmanago, wystarczy napisać do nas na adres partner@salesmanago.pl – skontaktujemy się z Państwem, aby przedstawić program.

iT Reseller

29


» RYNEK

Nowa bańka na rynku IT? Krzysztof Polak

Bańka spekulacyjna na rynkach IT? Analitycy polskiego oddziału IDC uważają, że nie ma takiego tematu. Jednak można znaleźć obserwatorów i znawców rynku IT, którzy dostrzegają groźne zjawiska i utrzymują, że one doprowadzą do krachu.

U

czestnicy polskiego rynku IT strzygą uszami, gdy słyszą pytania, czy dochodzi na nim do pompowania bańki spekulacyjnej i kiedy ona pęknie. Proszą o powtórzenie pytań, jakby już ich nie usłyszeli lub by zdobyć pewność, że zadający pytanie się nie pomylił i rzeczywiście pyta o zjawiska, które nie są im znane. Rynek IT w Polsce ma swoje wyzwania i bolączki, ale nie należy do nich obawa o wystąpienie jakiegoś trzęsienia ziemi, które gruntownie zmieni znany nam dziś porządek. Jednocześnie zapytywani przyznają, że gdyby doszło do jakiejś zapaści na rynku nowych technologii w USA, to taka zmiana wywoła reperkusje również nad Wisłą. Czy nie czas pomyśleć, co w takiej sytuacji mogłoby się wydarzyć w Polsce? Raczej warto to zrobić, bo w USA podnoszonych jest coraz więcej obaw o nadchodzący krach. Z opublikowanej we wrześniu ubiegłego roku ankiety przeprowadzonej wśród profesjonalnych użytkowników serwisu Bloomberga wynika, że 42 proc. respondentów dostrzega już bańkę w segmencie spółek internetowych i społecznościowych.

30

iT Reseller

Kolejne 38 proc. sądzi, że bańki jeszcze nie ma, ale już się formuje…

Po wzrostach są spadki – Już niedługo indeks spółek technologicznych Nasdaq na Wall Street dotknie potężna korekta – zapowiada Marc Faber, znany inwestor i wydawca popularnego za oceanem periodyku „Gloom, Boom, and Doom”. Dlaczego? Bo w amerykańskim sektorze technologicznym ponownie powstała bańka spekulacyjna. Szczególnie są nią dotknięte akcje największych mediów społecznościowych – Facebooka, Twittera, Google’a. – Akcje spółek z branży mediów społecznościowych są bardziej przewartościowane niż akcje dotcomów w roku 2000 – zwraca uwagę Marc Faber i radzi zarówno dużym, jak i drobnym inwestorom ograniczenie zainteresowania nimi. Bo, biorąc pod uwagę dobrą wartość, nie zapewniają one stabilnego wzrostu w perspektywie długoterminowej. Przeciwnie – prędzej czy nieco później zostaną poddane korekcie, która będzie bolesna dla inwestorów. Również Katie Benner, ceniona dziennikarka Bloomberga, która opisuje za-

leżności zachodzące między rozwojem nowych technologii a innymi sektorami gospodarki, wskazuje na znaczne przegrzanie branży technologicznej i duże wystąpienia prawdopodobieństwo dotkliwej korekty. Najbardziej niepokojącym objawem wspomnianego przegrzania są nieprzerwane cztery lata ciągłych wzrostów akcji takich korporacji, jak Salesforce.com. Notowania tej firmy znajdują się obecnie w pobliżu historycznych maksimów, a przecież ona nie osiąga nawet przyzwoitych zysków. I to, zdaniem Katie Benner, jest charakterystyczne dla czasu poprzedzającego krach – wyceny są nieracjonalne, a mimo to rosną. Nierównoważony wzrost jedynie pogłębia szaleństwo banków i inwestorów goniących za zyskiem. W efekcie dokonują zakupów po jeszcze wyższych cenach. W Dolinie Krzemowej nigdy nie brakuje pieniędzy na innowacje i rozwój oraz przekonania, że jest dużo, dużo pieniędzy do zarobienia. Nikt nie chce, by obecny boom się skończył. Jednak utrzymywanie inflacyjnej bańki poza granicami racjonalnych wycen i zasad inwestowania musi się kiedyś skończyć. nr 1-2 (259-260) • styczeń 2015


Benner wskazuje, że wszystkie ekonomiczne cykle są do siebie bardzo podobne – po okresie systematycznych wzrostów przychodzą gwałtowne spadki, które prowadzą do – właśnie! – pęknięcia baniek spekulacyjnych i znacznych przetasowań na rynku.

3

pytania do… PAWŁA OLSZYNKI

Krach jest nieunikniony – Ciągły wzrost cen akcji na rynkach może spowodować powstanie niebezpiecznych baniek spekulacyjnych – ostrzegał niedawno na głównej stronie web serwisu Reutersa Robert Shiller, ekonomiczny noblista z 2013 roku. – Najmocniej martwi mnie ciągły boom na amerykańskim rynku akcji. Również dlatego, że fundamentalnie nasza gospodarka jest słaba i bezbronna – podkreślił amerykański ekonomista, zaliczany do grona stu najbardziej wpływowych ekonomistów na świecie wg IDEAS. Zdaniem Shillera najbardziej przewartościowane są akcje przedsiębiorstw z sektorów technologicznego i finansowego. Ekonomiści Goldman Sachs twierdzą, że „najlepszy z najgorszych” scenariuszy dalszego wzrostu cen akcji na Wall Street będzie trwał przez rok 2015. Dlaczego? Bo FED (Rezerwa Federalna) zapowiada, że do września tego roku nie podniesie stóp procentowych. Przynajmniej do czasu, gdy amerykański wzrost pozostawi zdecydowanie w tyle europejskie gospodarki, starające się odbić z recesji. Według ich prognoz w 2015 roku. Stany Zjednoczone zanotują 3 proc. wzrostu PKB przy 5 proc. stopy bezrobocia, podczas gdy wzrost PKB w strefie euro nie powinien przekroczyć 1,2 proc. przy stopie bezrobocia na poziomie 11,4 proc. – Możliwe, że czeka nas jeszcze kilka kwartałów rozwoju świata technologicznych produktów z Doliny Krzemowej. Jednak dalsze pompowanie tej bańki jest niebezpieczne dla właścicieli spółek i inwestorów. Nie tylko dlatego, że będą kupować po zawyżonych cenach. Wejdą na rynek ze swoimi pieniędzmi w ostatniej fazie cyklu – przyłączą się do tańca zbyt późno i wpadną w poważne tarapaty, gdy nagle muzyka przestanie grać, a tancerze znikną – ostrzega Peter Schiff, inny ceniony amerykański ekonomista, który znany jest z tego, że przewidział nadejście kryzysu finansowego w USA w latach 2007–2008. w nr 1-2 (259-260) • styczeń 2015

analityka rynku ITC w PMR Poland

Rozmawiał Krzysztof Polak

Na polskim rynku IT nie zanosi się na katastrofę Czy na rynku IT narasta bańka spekulacyjna, która może pęknąć, podobnie jak pękła tzw. bańka internetowa na początku poprzedniej dekady? – Przede wszystkim ważne jest, by ten temat nieco usystematyzować. Po pierwsze, obecnie biznes internetowy nie jest tym samym biznesem co kilkanaście lat temu. A przecież o tym głównie mówimy, odwołując się do krachu dotcomów sprzed kilkunastu lat. Mówiąc o bańce inwestycyjnej, z całą pewnością nie mamy na myśli polskich spółek szeroko rozumianego rynku IT, w tym dostawców sprzętu i usług, integratorów czy producentów oprogramowania, bo tu nie znajdujemy żadnych oznak groźnego dla całego rynku przeinwestowania. Natomiast biznes internetowy wyraźnie okrzepł w ciągu ostatnich kilkunastu lat i dziś odpowiada na realne trendy i potrzeby użytkowników. Również w nim trudno jest dopatrzyć się jakichś symptomów niebezpiecznych spekulacji. A jednak w USA narastają obawy, czy wkrótce nie wydarzy się jakiś krach, który spowoduje znaczną przecenę wartości spółek technologicznych. Czy my w Polsce nie musimy się obawiać takiego scenariusza? – Wiele czynników i wskaźników potwierdza, że nie ma ucieczki od internetu i od tzw. internetu rzeczy (internet of things) czy internetu wszechrzeczy (internet of everything). Gdy takie koncerny jak Cisco, HP, Intel, Microsoft, SAP i inne mówią, że w tę stronę będzie podążać rozwój technologii i usług technologicznych, to są to raczej rzetelne prognozy, a nie przekaz, który moglibyśmy krytycznie na-

zwać „sprzedawaniem marzeń” czy procesem „pompowania bańki spekulacyjnej”. Symptomy występowania wspomnianych tendencji obserwujemy również w Polsce, choć na rodzimym rynku nie mamy tak dużych i zasobnych kapitałowo spółek, które miałyby odpowiednią masę i możliwości do prowadzenia inwestycyjnych spekulacji na tym polu. Nie ulega wątpliwości, że dziś e-commerce jako kanał komunikacji marketingowej i sprzedaży rozwija się bardzo dynamicznie. Trzeba jednak pamiętać, że jego udział w handlu detalicznym ogółem w Polsce to nie więcej niż 5 procent, a więc wciąż jest relatywnie mały. A przecież mówimy nie o jednej spółce, ale o 20 tysiącach e-sklepów działających na naszym rynku. A jakie zmiany czekają nasz rynek IT w razie załamania się indeksów technologicznych za oceanem? – To prawda, że polski rynek nie działa w próżni. Bez wątpienia jeśli rynek amerykański się załamie, to my również to odczujemy. Jednak generalnie prognozowanie takich scenariuszy na rynkach jest niezwykle trudne. Jeśli ktoś się tego podejmuje, to łatwo może się skompromitować, chyba że ze względu na pozycję, doświadczenie i dorobek wieszcza należy jego zapowiedź wziąć pod uwagę i szerzej podyskutować o prawdopodobieństwie jej realizacji. Uważam, że nie czeka nas żadna katastrofa na rynku IT. Już prędzej możemy się doczekać wystąpienia tzw. efektu jo-jo, czyli kolejnego załamania na rynkach finansowych, niż kolejnego krachu dotcomów bądź dramatycznego załamania indeksów na rynkach technologicznych. w iT Reseller

31


» RYNEK

Trudne wybory Mieczysław T. Starkowski

Krajowe Biuro Wyborcze wymaga gruntownych zmian. Podobnie jak Państwowa Komisja Wyborcza. Na razie jesteśmy świadkami kompletnego bałaganu. Niektórzy dopatrują się innych przyczyn katastrofy.

N

ad wyborami nikt nie panuje, słyszymy dziś powszechną opinię. A raczej jakieś ciemne moce, głosi jedna z teorii spiskowych. I święte oburzenie jest mocno przesadzone, bowiem – jak pokazuje życie – wszystko może się zdarzyć. Pamięć ludzka jest niesłychanie zawodna. Po wielu nieprawidłowościach związanych z wyborem systemu teleinformatycznego przed głosowaniem 16 listopada ubiegłego roku część obserwatorów podkreślała, że stało się tak po raz pierwszy. A to nieprawda. Mieliśmy już do czynienia z takim przypadkiem 12 lat wcześniej. W kwietniu 2003 roku Najwyższa Izba Kontroli stwierdziła, że do awarii systemu informatycznego wspomagającego wybory samorządowe zarządzone na 27 października 2002 roku przyczyniły się nieprawidłowości i błędy popełnione w fazie: – planowania oraz organizacji i zarządzania projektem informatycznym – finansowania tego przedsięwzięcia – produkcji oprogramowania oraz konfiguracji systemu informatycznego.

Spóźnione ustawy Choć trzeba przyznać, że czynnikami niezależnymi od Krajowego Biura Wyborczego, które miały wpływ na opóźnienia w przygotowaniu wsparcia informatycznego wyborów, były wtedy zmiany w przepisach prawnych regulujących zasady przeprowadzenia wyborów samorządowych, a szczegól-

32

iT Reseller

nie wejście w życie ustawy z 20 czerwca 2002 roku o bezpośrednim wyborze wójta, burmistrza i prezydenta miasta oraz ustawy z 26 lipca 2002 roku o zmianie ustawy Ordynacja wyborcza do rad gmin, rad powiatów i sejmików województw oraz o zmianie niektórych innych ustaw. Z przepisów tych wynikały dodatkowe wymagania wobec realizowanego systemu informatycznego. Oznacza to, że wyjątkową niefrasobliwością wykazali się posłowie. Absurdalnie krótki termin między uchwaleniem przepisów a datą wyborów niesłychanie utrudnił realizację projektu wsparcia informatycznego. Lista błędów popełnionych w procesie przygotowania i realizacji projektu informatycznego wspomagania wyborów była porażająca. Do podstawowych inspektorzy Najwyższej Izby Kontroli zaliczyli brak opracowanej, przed przystąpieniem do realizacji systemu informatycznego, specyfikacji wymagań oraz nieprawidłową organizację i zarządzanie projektem. Krajowe Biuro Wyborcze zawarło umowy o realizację systemu z kilkoma podwykonawcami i nie ustaliło generalnego wykonawcy odpowiedzialnego za realizację przedsięwzięcia. W tej sytuacji ciężar koordynacji prac między wykonawcami, zgodnie z podziałem kompetencji i zadań w KBW, spoczął na Zespole Informatyki Wyborczej, który nie opracował, a więc i nie egzekwował od podwykonawców spójnej koncepcji technologicznej oraz harmonogramu realizacji zadań.

Bez informatyka W ZIW było zatrudnionych pięć osób (łącznie z dyrektorem), z których żadna nie była zawodowym informatykiem. Zdaniem inspektorów NIK w tych warunkach nie było możliwe egzekwowanie od wykonawców spójnej koncepcji technologicznej (architektury systemu) oraz sprawowanie nadzoru nad realizacją zadań, zwłaszcza że odpowiedzialność nie była jasno określona w umowach. ZIW był wspomagany przez niezależnych ekspertów, którzy nie byli pracownikami Krajowego Biura Wyborczego ani nie otrzymywali wynagrodzenia w innej formie. Powodowało to nieprzejrzystość struktury organizacyjnej i rozmywało odpowiedzialność. Brak generalnego wykonawcy (zarządzającego lub głównego architekta) spowodował, iż żaden z wykonawców projektu nie był odpowiedzialny za koncepcję, logikę, architekturę projektu, mimo że wszyscy uczestniczyli w wypracowaniu kształtu projektu już w okresie jego nieformalnej realizacji, to jest przed zawarciem umów. Również w czasie realizacji projektu nie było dokumentacji określającej ogólną koncepcję systemu, a także uzgodnionego harmonogramu prac. Prace były wykonywane według wewnętrznych harmonogramów poszczególnych podwykonawców, co powodowało, że budowa systemu nie była prowadzona w ramach zdefiniowanego procesu projektowego, lecz doraźnych potrzeb. nr 1-2 (259-260) • styczeń 2015


Z wolnej ręki W ocenie inspektorów NIK Krajowe Biuro Wyborcze w sposób nierzetelny dokonało wyboru wykonawców systemu informatycznego. Nie stworzono bowiem równych warunków wszystkim potencjalnym wykonawcom systemu. Realizacja zadań została zlecona z wolnej ręki na podstawie zgody Prezesa Urzędu Zamówień Publicznych. KBW skierowało wniosek do Prezesa UZP 29 sierpnia 2002 r. (dwa miesiące przed wyborami), uzasadniając to pilną potrzebą wykonania prac. Pozytywna decyzja w tej sprawie została wydana 12 września, a umowy z wykonawcami poszczególnych elementów systemu podpisywano między 19 a 23 września. Czyli około miesiąca przed terminem wyborów. Natomiast firmy uczestniczące w realizacji projektu rozpoczęły prace nad nim już w lipcu, to znaczy przed rozpoczęciem procedury wyłaniania wykonawców. A zatem w okresie, kiedy formalnie dokonywano wyboru wykonawców, tylko one były zaawansowane w realizacji przedsięwzięcia. NIK nie podziela stanowiska KBW, że dopiero rozporządzenie Prezesa Rady Ministrów z 21 sierpnia 2002 roku w sprawie zarządzenia wyborów do rad gmin, rad powiatów i sejmików województw, Rady m.st. Warszawy i rad dzielnic w m.st. Warszawie oraz wyborów wójtów, burmistrzów i prezydentów miasta mogło stanowić podstawę wystąpienia do ministra finansów o przeniesienie wydatków nr 1-2 (259-260) • styczeń 2015

przewidzianych na sfinansowanie kosztów przygotowania i przeprowadzenia wyborów samorządowych z rezerw celowych do części 11. (Krajowe Biuro Wyborcze), a następnie rozpoczęcia prac nad wykonaniem systemu informatycznego. Przybliżony termin wyborów – podkreślają inspektorzy – był znany z 4-letnim wyprzedzeniem. Zaś uruchomienie środków z rezerwy celowej, co potwierdził Jan Czekaj, podsekretarz stanu w Ministerstwie Finansów, mogło być dokonane przed ogłoszeniem daty wyborów.

Brak specyfikacji Inspektorzy stwierdzili, że w umowach zawartych przez KBW z wykonawcami systemu informatycznego nie ustalono specyfikacji wymagań wobec systemu, relacji oraz wzajemnych zobowiązań pomiędzy wykonawcami. Na przykład w kontrakcie ze Związkiem Miast Polskich nie określono harmonogramu realizacji zadań. Natomiast do umowy z firmą Prokom Software został wprowadzony nieco zmodyfikowany harmonogram z dokumentu dotyczącego wspomagania informatycznego wyborów parlamentarnych, mimo że projekty te miały odmienny charakter. Ponadto w umowach nieprecyzyjnie określono odpowiedzialność za zadania realizowane przez poszczególnych wykonawców, w tym zwłaszcza za terminowe przekazywanie fragmentów systemu na poszczególnych etapach przedsięwzięcia. Wymagania ustalane

były dopiero w czasie roboczych spotkań z wykonawcami projektu. Sprowadzały się do stwierdzenia, że funkcjonalność oprogramowania wspierającego pracę PKW, komisarzy wyborczych, terenowych oraz obwodowych komisji wyborczych jest określona ustawami, aktami wykonawczymi oraz uchwałami i instrukcjami PKW. Umowa z Prokomem zawiera ogólnikową klauzulę, że przedmiotem zamówienia będzie między innymi adaptacja oprogramowania centralnego i centralnej bazy danych dla potrzeb PKW oraz adaptacja oprogramowania dla potrzeb komisarzy wyborczych. Faktycznie, jak potwierdzają wykonawcy oraz powołani przez Najwyższą Izbę Kontroli biegli, opracowane zostało nowe oprogramowanie, gdyż przyjęta dla wyborów samorządowych architektura systemu informatycznego nie pozwalała na adaptację dotychczasowych programów. Inspektorzy NIK przedstawili długą listę błędów i nieprawidłowości zaistniałych przed wyborami w 2002 roku. Jak się okazuje, w ciągu 12 lat w zasadzie nic się nie zmieniło. Porównanie stanu ówczesnego i ubiegłorocznego prowadzi do wniosku, że zawodzi cały system, począwszy od sejmu. Szczególnie o instytucjach bezpośrednio związanych z wyborami (Państwowa Komisja Wyborcza i Krajowe Biuro Wyborcze) nie da się powiedzieć nic dobrego. Bałagan, brak wizji, odpowiedzialności i nadzoru to najłagodniejsze określenia. w iT Reseller

33


» RYNEK

Nowe szaty notebooka Krzysztof Polak

Stylistyka laptopa to tylko z pozoru mniej istotna cecha. W praktyce handlowej największym powodzeniem cieszą się właśnie urządzenia przełamujące dotychczasowe standardy – cienkie, lekkie, wytrzymałe, szczelne, ze specjalnym podświetleniem czy umożliwiające użytkownikowi obracanie ekranu.

34

iT Reseller

S

tylistyka komputera jest ważna. Co zyska producent z umieszczenia we wnętrzu urządzenia najlepszych podzespołów – procesora, dysku, karty graficznej, kamery – jeśli jego wygląd nie przykuwa uwagi? Design komputerów zmienia się i rozwija. Proces ten przebiega jeszcze szybciej niż rozwój poszczególnych części, które również są stale poprawiane i doskonalone.

Parametry monitora Jeszcze kilka lat temu na rynku królowały laptopy klasycznie skonstruowane, z czarnymi bądź grafitowymi obudowami, z zaokrąglonymi lub ostrymi krawędziami. Wciąż tak wyglądające urządzenia są proponowane przez czołowych dostawców: Asus, Dell, HP, Lenovo, MSI, Samsung, Sony czy Toshiba. Zmiana proponowanych linii laptopów nastąpiła stopniowo i w kilku płaszczyznach. Pierwsze, co w ostatnich latach zaczęto zmieniać, to wielkość przekątnej wyświetlacza – pojawiły się konstrukcje 14-, 13- a nawet 11-calowe. – O ile rynek ostrożnie zareagował na laptopy z ekranami mającymi 14 cali, o tyle mniejsze, bardziej mobilne urządzenia szybko zyskały uznanie klientów – zauważa Tomasz Szymański, marketing manager w Acer Eastern Europe. Obecnie nabywcy mogą znaleźć na rynku również przenośne komputery z malutkimi ekranami o wielkości 10, 11 i 12 cali. Równie ważną cechą monitora co jego wielkość jest jakość wyświetlania. Od kilku lat w sprzedaży prym wiodą

laptopy z matrycami błyszczącymi, które gwarantują żywsze kolory i lepszy kontrast – przez to cieszą się większym powodzeniem nabywców niż ekrany matowe. Wraz z ogłoszeniem i upowszechnieniem wyników poważnych badań naukowych, z których wynikało, że ludzkie oczy są lepiej przystosowane do odbioru obrazów w formacie panoramicznym, producenci zaczęli stopniowo zmieniać proporcje wyświetlaczy. Obecnie przeważają urządzenia z ekranami o proporcjach 16:10 i 16:9. Producenci proponują nabywcom coraz lepsze techniki i rozdzielczości wyświetlania. Zdecydowanie łatwiej można znaleźć na średniej półce cenowej laptopa z panelem umożliwiającym komfortowe oglądanie obrazów z różnych (szerokich) kątów widzenia, w wysokiej rozdzielczości Full HD (1920 × 1080) i z dodatkowym podświetleniem matrycy. Na polskim rynku największy wybór tego rodzaju urządzeń proponują Acer, HP, Lenovo i Toshiba. Najlepsze monitory są zaopatrzone w czujnik światła zewnętrznego – dzięki niemu możliwe jest automatyczne dopasowanie świecenia matrycy do warunków, w jakich ona pracuje. Tym, co wyróżnia urządzenia i przykuwa uwagę nabywców, jest też przemyślane wzornictwo, np. podświetlanie pokrywy laptopa czy klawiatury, które ma niebagatelną wartość dla użytkowników korzystających z komputera w miejscach niedoświetlonych.

Waga i obudowa Jeszcze w poprzedniej dekadzie producenci walczyli o zejście z wagą laptopa poniżej 2 kg. Dziś waga poniżej nr 1-2 (259-260) • styczeń 2015


2 kg staje się powoli standardem. By skłonić producentów do przyjęcia tego wymogu, Intel stworzył definicję ultrabooka, czyli komputera przenośnego, który nie waży więcej niż 2 kg, nie jest grubszy niż 21 mm (a jeśli ma grubość sięgającą 23 mm, to powinien umożliwiać obracanie ekranu, tak by komputera można było też używać jako tabletu) i charakteryzuje się długą żywotnością baterii, przekraczającą 5 godzin, a najlepiej oscylującą w granicach 8–9 godzin. W ubiegłym roku polski rynek zawojowały ultrabooki Acer, Asus, Dell, HP, Lenovo, Samsung i Toshiba oraz niszowo Apple. Ultrabooki to nowa, wyższa jakościowo generacja komputerów przenośnych. Świadczą o tym nie tylko lepsze parametry podzespołów, które w takich komputerach są bardziej wydajne. Wskazuje na to również to, że w większości przypadków urządzenia są wykonane z aluminium – raz w postaci gładkiej powierzchni, ale w innym szczotkowanej. Zdarzają się połączenia aluminium z tworzywem sztucznym. Wciąż rynkowym przebojem są ultrabooki z obudową wykonaną z włókna węglowego, które cechują się lekkością i wyjątkową wytrzymałością. Intel, oceniając pozytywnie przyswajanie sobie przez producentów wyjściowych standardów ultrabooka, podwyższa wymagania, np. postuluje, by kolejne generacje maszyn przechodziły ze stanu hibernacji do stanu gotowości do pracy w czasie krótszym niż 3 sekundy. Obowiązuje też obecność w komputerach najnowszych technologii do bezprzewodowego przesyłania danych. Kolejną atrakcją i poszerzeniem funkcjonalności komputerów przenośnych jest łączenie w nich możliwości użytkowania w postaci tabletu (po odłączeniu monitora od klawiatury) lub notebooka (przy łącznym użyciu monitora i klawiatury, która w takiej sytuacji odgrywa także rolę stacji dokującej). – Niektóre modele komputerów hybrydowych są wyposażone w magnetyczne zaczepy, które pozwalają użytkownikowi w prosty sposób przełączać się między wybieranymi trybami pracy – wskazuje Daniel Malak, Consumer Sales Manager Lenovo Polska. w nr 1-2 (259-260) • styczeń 2015

WAŻNE JEST, BY LAPTOP BYŁ LEKKI I SMUKŁY

DANIEL MALAK Consumer Sales Manager Lenovo Polska

CZASY, W KTÓRYCH UŻYTKOWNIKA INTERESOWAŁA przede wszystkim specyfikacja laptopów, mamy dawno za sobą. Procesory, karty graficzne i pamięci są obecnie na tyle wydajne, że w każdej konfiguracji są w stanie obsłużyć standardowe zadania realizowane na laptopie. To, czym producent może się wyróżnić na rynku wśród wielu konkurentów, to innowacyjne rozwiązania konstrukcyjne, które poprawiają efektywność pracy na laptopie oraz – a może przede wszystkim – design urządzenia. Firma Lenovo już na etapie projektowania laptopa zwraca szczególną uwagę na to, aby podobał się on przyszłym nabywcom. Pod uwagę brane są nie tylko najnowsze trendy w projektowaniu, ale też gusta klientów. Obecnie ważne jest to, by laptop był lekki i smukły. Nabywcy poszukujący dla siebie sprzętu ze średniej półki są zazwyczaj konserwatywni jeśli chodzi o kolor obudowy. Przede wszystkim szukają czarnych lub srebrnych laptopów. Nabywcy urządzeń z segmentu premium zwracają uwagę na to, by sprzęt wyróżniał się kolorem. Laptopami z portfolio Lenovo, które najlepiej i przykładnie pokazują innowacyjne rozwiązania z zakresu designu są urządzenia z serii Yoga: Lenovo Yoga 3 Pro, czy też poprzednik Lenovo Yoga 2 Pro. Lenovo Yoga 3 Pro charakteryzuje się niezwykle lekką i płaską konstrukcją Zawdzięcza ją nowemu zawiasowi zbudowanemu przez Lenovo z ponad 800 elementów stalowych i aluminiowych. Design to również wygoda użytkowania – to dlatego w naszych komputerach można znaleźć klawiaturę AccuType, która charakteryzuje się nowoczesnym wzornictwem i zapewnia większą precyzję oraz komfort pisania.

DOBRY WYGLĄD BUDZI ZAINTERESOWANIE

TOMASZ SZYMAŃSKI Marketing Manager w Acer Eastern Europe

DLA ACER DESIGN MA KLUCZOWE ZNACZENIE. Na bardzo konkurencyjnym rynku jest to jedna z niewielu cech, jaką można się wyróżnić. Początkowo w modelach klasy premium, typu Aspire S7 czy Aspire R7, zaczęły się pojawiać materiały inne niż plastik, nawet aluminium oraz nowe, innowacyjne konstrukcje typu zawias Ezel™ umożliwiający obrót ekranu o 180 stopni. Stopy magnezu, łączące lekkość z dużą wytrzymałością oraz wzmacniane szkło Gorilla Glass również odpowiadają na potrzeby użytkowników mobilnych. Stopniowo szlachetne materiały są wprowadzane w tańszych urządzeniach, jak Aspire V3-371 z aluminiową pokrywą, którego ceny zaczynają się od 2000 zł. W Aspire Switch 10, którego cena wynosi od 1300 do 1700 zł, również zastosowano aluminiowe elementy. Kolejne zmiany dotyczyły kolorystyki czy faktury obudów. Świetne wrażenie na recenzentach oraz klientach wywiera obudowa Aspire V Nitro – wydajnego notebooka przeznaczonego dla profesjonalistów i graczy. Jego pokrywa została wykończona nanodrukowaną litografią, czyli unikalnym wzorem. Technologia NIL do tej pory była wykorzystywana do produkcji układów scalonych, ale świetnie sprawdza się też w wytwarzaniu detali estetycznych. Urządzenia wyróżniające się wyglądem coraz lepiej radzą sobie na rynku. Nowe podzespoły to za mało, by zachęcić klienta do zakupu. Tu wszelkie dodatkowe elementy odnoszące się do użyteczności czy estetyki są bardzo dobrze przyjmowane.

iT Reseller

35


» DEBATA

Pamięci masowe – więcej za mniej? Rozmowę prowadzi Wojciech Urbanek

Rynek pamięci masowych staje się jednym z najciekawszych obszarów IT. Przyrost danych, coraz szybsza adaptacja pamięci flash czy nowa rola oprogramowania, zmieniają reguły gry w segmencie storage. Czy podobne tendencje występują na rodzimym rynku? W dyskusji uczestniczą: Jerzy Adamiak – Storage Systems Consultant, Alstor; Maciej Kaczmarek – VAR Account Manager, NETGEAR; Mirosław Karwasz – Architekt Rozwiązań, IT expert; Dzianis Kaszko, pełnomocnik Zarządu ds. Rozwoju, Comtegra; Kornel Kundzicz – Architekt Systemów Informatycznych, Infonet Projekt, a ze strony „IT Resellera” Wojciech Urbanek.

36

iT Reseller

Wojciech Urbanek: Na rynku pamięci masowych mamy do czynienia z paradoksem. Szybko rośnie popyt na przestrzeń dyskową, tymczasem przychody ze sprzedaży macierzy dyskowych maleją. Według IDC w pierwszych dwóch kwartałach ubiegłego roku wartość sprzedaży była nawet niższa aniżeli w 2013 roku. Jak wytłumaczyć to zjawisko? Dzianis Kaszko: To prawda, że przychody na rynku pamięci masowych nie rosną tak szybko, jak można było się spodziewać. Jeśli jednak spojrzeć na wartość sprzedaży wolumenowej, tacy vendorzy, jak EMC, NetApp czy HDS, odnotowali wzrosty sprzedaży. To pokazuje, że jest coraz mniej miejsca dla graczy niszowych. Duzi vendorzy dysponują potężną siłą. Nie zmienia to faktu, że cena pojedynczych petabajtów staje się coraz niższa. W Polsce zauważamy dwa obszary, gdzie bardzo szybko rośnie sprzedaż wolumenowa dysków. To sektor medyczny oraz HPC. Jednak w obu przypadkach wystarczą macierze o okrojonej funkcjonalności bądź półki dyskowe dołączane do serwerów. Z punktu widzenia sprzedanej powierzchni dyskowej wygląda to imponująco, ale kwotowo już niekoniecznie.

je duże zainteresowanie wśród naszych klientów. To ciekawy system z punktu widzenia ekonomiki przetwarzania, wydajności tych rozwiązań, możliwości wykorzystania istniejących umiejętności do zarządzania środowiskiem wirtualnym. Klientom odpowiada zmniejszenie ilości zakupionych urządzeń. Niektórzy klienci dążą również do oszczędności poprzez zmniejszenie liczby dysków, wykorzystując takie mechanizmy, jak kompresja czy deduplikacja. Maciej Kaczmarek: Jako producent działamy na dwóch różnych rynkach: biznesowym oraz gospodarstw domowych. Szczególnie duży wzrost zauważamy wśród odbiorców kupujących dwudyskowe rozwiązania, które można wykorzystać w domu, biurze czy w średniej firmie. W przypadku dużych rozwiązań, gdzie konkurujemy m.in. z EMC, kładziony jest nacisk na rozwiązania bardzo zaawansowane. Widzimy, że klienci szukają również takich produktów. Ale wielkie zbiory danych nie są tak naprawdę niczym nowym, 15 lat temu też budowano bardzo duże bazy danych. To segment rynku, który się rozwija od jakiegoś czasu i będzie się rozwijał.

Kornel Kundzicz: Ilość zasobów, które składujemy, będzie rosnąć, to nieunikniony proces. Rzeczywiście idziemy w kierunku zmniejszenia sprzedaży powierzchni wyrażonej w liczbie dysków. Zauważamy, iż producenci przy promocji swoich produktów kładą duży nacisk na kompresję oraz deduplikację. Coraz częściej klienci oczekują rozwiązań, które pozwalają umieścić dużo większą ilość danych na takiej samej powierzchni dyskowej, a zaoszczędzone w ten sposób środki finansowe przeznaczyć na inne inwestycje. I na to zapotrzebowanie rynkowe odpowiadają deduplikatory. Dodatkowym atutem wykorzystania takich mechanizmów są wyraźne oszczędności w zużyciu energii elektrycznej oraz zmniejszenie zajmowanej powierzchni przeznaczonej na pamięci masowe.

Jerzy Adamiak: W najbliższych latach bardzo szybko będzie rosło zapotrzebowanie na pamięć w placówkach medycznych. Na razie widzimy, że średniej wielkości szpitale – powiatowe, miejskie – szukają rozwiązań niszowych, bo na takie znajdują środki finansowe. W ofercie firmy Alstor mamy rozwiązania firmy Infortrend. Nie są to rozwiązania mogące konkurować z najbardziej zaawansowanymi na rynku, natomiast doskonale sprawdzają się w wypadku średnich jednostek medycznych. Niestety, w wielu przypadkach nadal głównym czynnikiem wyboru rozwiązania w tej kategorii jest cena. Wydajność nie jest bardzo istotna, chyba że jest budowany nowy ośrodek z nowym centrum danych. Wtedy wchodzi w grę scentralizowana pamięć masowa dla wielu zastosowań, w tym wirtualizacji, a także przechowywania wyników badań medycznych.

Mirosław Karwasz: Jeśli rozpatrujemy rynek storage globalnie, należy wspomnieć o wyraźnym trendzie software defined storage. Te rozwiązania zagospodarowują przestrzenie dyskowe serwerów. Przykładem jest vSAN, który wywołu-

Wojciech Urbanek: Wspominacie panowie o rosnącej roli oprogramowania. Skoro jest ono na tyle ważne, czy klienci potrzebują markowych macierzy znanych producentów? Może wystarczy proste rozwiązanie od nr 1-2 (259-260) • styczeń 2015


» DEBATA

Specjaliści od pamięci masowych rozmawiali o najważniejszych trendach na rodzimym rynku. Od lewej: Jerzy Adamiak, Alstor; Maciej Kaczmarek, NETGEAR; Mirosław Karwasz, IT expert / partner S4E SA; Dzianis Kaszko, Comtegra / partner S4E SA; Kornel Kundzicz, Infonet Projekt

nieznanego producenta z Chin, tak jak na rynku serwerów, gdzie nieznani gracze zaczynają zdobywać coraz większe obszary rynku? Dzianis Kaszko: Nie do końca zgodzę się z tą opinią, bo jeśli popatrzymy na rynek serwerowy, to widzimy odwrotny trend. Rynek serwerowy mocno się konsoliduje. Obecnie mamy trzech graczy, którzy zdominowali rynek, a za chwilę może być ich tylko dwóch, jeżeli dojdzie do fuzji HP i Lenovo. Liderzy mają 80 procent rynku. O pozostałe 20 procent walczą mali gracze. Jeśli mówimy o rozwiązaniach typu enterprise, oprogramowanie przejmie pewne cechy. To sprawi, że vendorom coraz trudniej będzie wyróżnić się na rynku. Ale pojawią się inne czynniki, które nabiorą wartości. Mam na myśli kwestie związane z obsługą klienta, serwisem, SLA. Zauważam, że klientów coraz częściej interesują nie funkcjonalności bądź marka, lecz poziom świadczenia usług serwisowych. Mirosław Karwasz: Wydaje mi się, że dzisiaj w Polsce możemy jeszcze eksploatować rynek rozwiązań infrastrukturalnych – serwerów i macierzy dyskowych – poprzez budowanie dodatkowych wartości, wnoszonych przez cały proces sprzedaży, w tym również integratora. W dzisiejszej dyskusji rozmawiamy o terabajtach i dolarach, natomiast z punktu widzenia użytkownika istotne są wydajność i niezawodność tych rozwiązań. Możemy dostarczyć wysokiej jakości nr 1-2 (259-260) • styczeń 2015

serwis dla często psujących się twardych dysków w rozwiązaniach hybrydowych czy all-flash. Ale w ten sposób zaprzepaścimy przyszłą sprzedaż tego typu rozwiązań. Przecież to właśnie integratorzy mają wiedzę pozwalającą na optymalny dobór rozwiązań. Dlatego proponujemy systemy eliminujące problem, na które natrafi użytkownik eksploatujący urządzenie, bez wsparcia profesjonalnej firmy. Co do kwestii producentów sprzętu, rzeczywiście obserwujemy zjawisko polegające na tym, że vendorzy wchodzą na rynek z rozwiązaniami dedykowanymi dla dostawców usług cloud. Wyprzedzamy te ruchy, świadcząc usługi rodzimym klientom. Są to lokalne rozwiązania chmur hybrydowych, czyli coś innego niż oferują wielcy providerzy. Maciej Kaczmarek: To, co mówił mój przedmówca na temat gwarancji, wsparcia przedsprzedażowego i posprzedażowego, jest bardzo ważne. To właśnie na urządzeniach funkcjonują aplikacje, które sprzedajemy wspólnie z rozwiązaniem. W ciągu ostatnich dwóch lat znacznie zmieniliśmy aplikacje. Cała branża się rozwija i rynek kładzie duży nacisk na to, żeby aplikacja była przystępna i łatwo konfigurowana. Jeżeli administrator ma ograniczone moce czasowe i osobowe, a urządzenie posiada intuicyjny interfejs, to dla wielu takich użytkowników jest to element nie do przecenienia. Co do rynku urządzeń domowych, aplikacje rozwijają się tak samo żywo na macierzach, jak

w sklepie App Store czy w Google Play. Wiele aplikacji jest tworzonych przez samych użytkowników, większość jest wymieniana za niewielkie pieniądze albo wręcz bezpłatna. Zgadzam się, że to użytkownicy wymieniają się wiedzą, wymieniają też aplikacje przez interfejs NAS-a. Oczywiście rynek urządzeń biznesowych, gdzie klient oczekuje dużo większego wsparcia dla aplikacji, rozwija się zupełnie inaczej. Na tym rynku jako producent oferujemy sprofilowane rozwiązania. Dostarczamy aplikacje gotowe dla urządzenia, odpowiadając za ich zakres i funkcje, nie liczymy na twórczość użytkownika, lecz na wykorzystywanie sprawdzonych mechanizmów. Niezależnie od zmian na rynku rozwiązanie sprzętowe w takim czy innym kształcie będzie funkcjonować. Konrad Kundzicz: Vendor odgrywa bardzo ważną rolę w procesie zakupowym klienta. Tak naprawdę to integratorzy edukują klientów, doradzają, wskazując zalety i ułomności rozwiązań dostępnych na rynku. Czy dla klientów ostatecznie będzie miało znaczenie, kto jest producentem rozwiązania? Wydaje się, że tak. Klienci, którzy przekonali się do polecanych przeze mnie rozwiązań, przyznają, że urządzenia działają sprawnie, a czas poświęcony na weryfikację poprawności działania oraz asystę serwisową został ograniczony do minimum. Nie byłoby to możliwe, gdyby nie solidny producent, silny brand, za którym stoją wysoki poziom kompetencji, niezawodiT Reseller

37


» DEBATA

W najbliższych latach bardzo szybko będzie rosło zapotrzebowanie na pamięć w placówkach medycznych. Na razie widzimy, że średniej wielkości szpitale – powiatowe, miejskie – szukają rozwiązań niszowych, bo na takie znajdują środki finansowe. W ofercie firmy Alstor mamy rozwiązania firmy Infortrend.

Wyniki, które osiągają macierze z dyskami SSD, są imponujące. Niemniej, aby wykorzystać ich potencjał, firma musi korzystać z krytycznych aplikacji o wysokiej wartości dla organizacji. Korzyści biznesowe płynące z wdrożenia takiego rozwiązania muszą być opłacalne. To jest zwykły rachunek zysków i strat.

Jerzy Adamiak

Dzianis Kaszko

na technologia oraz wydajność sprzętu. Wniosek zatem jest prosty – rozwiązanie odpowiednio skomponowane pod potrzeby i środowisko klienta przysłuży się obu stronom – i klientowi, i dostawcy, który finalnie także oszczędza czas na obsłudze serwisowej. W procesie doradztwa oprócz niezawodności sprzętu musimy też wziąć pod uwagę funkcjonalności, których oczekuje klient. Tutaj rola integratora i jego profesjonalnego wsparcia determinuje ostateczny wybór rozwiązania. Podobnie jest na rynku serwerów. Wydaje się, że graczem, który powoli rozpycha się w tym obszarze, jest Hitachi Data Systems. Posiada on w swojej ofercie rozwiązania z funkcjonalnościami, które do tej pory były zarezerwowane tylko dla serwerów z rynku enterprise. Jedną z takich funkcjonalności jest partycjonowanie fizycznych serwerów na jego logiczne instancje. Opierając to na procesorach z rodziny x86, stworzono unikalny mechanizm w tym segmencie rynku. W Polsce trudno jest przebić się przez głównych graczy – HP, IBM, Lenovo (po przejęciu gamy produktów IBM). Ale nie ma rzeczy niemożliwych. Potrzeba jedynie czasu na edukację, tym bardziej że ciekawych rozwiązań na rodzimym rynku nie brakuje. Jerzy Adamiak: Chciałbym wspomnieć o zagadnieniu trochę jakby obok pamięci masowej, o backupie i odtwarzaniu danych. Jest ono nieodłącznie zwią-

38

iT Reseller

zane z tym zagadnieniem, szczególnie w kontekście SLA. Backup i odtwarzanie są przez wielu użytkowników niedoceniane. Tutaj istnieje duże pole do popisu dla vendorów, także niszowych. Są przecież użytkownicy, na przykład szpitale, którzy stoją przed wyborem zupełnie nowego systemu. Użytkownicy budżetowi mają ograniczone możliwości finansowe i szukają najtańszego rozwiązania. Nie mogą skorzystać z rozwiązań tych największych vendorów, które gwarantowałyby, że będą mieć SLA poniżej minuty. Są jednak rozwiązania, które oferują sensowny SLA przy skromniejszych środkach. Mniejsze firmy, które będą w stanie zapewnić ciekawe rozwiązania za rozsądne pieniądze, uzyskają dostęp do rynku pamięci masowych. Wojciech Urbanek: W świecie pamięci masowych coraz głośniej mówi się o macierzach flash. Rynek wysyła różne komunikaty. Start-upy, takie jak Pure Storage, Solid Fire, zachęcają klientów do kupowania systemów wyposażonych wyłącznie w dyski flash. Ale zasiedziali vendorzy mocniej promują rozwiązania hybrydowe. Kogo słuchać? Czy zauważacie wśród klientów wzrost zainteresowania systemami all-flash? Dzianis Kaszko: Zauważamy duże zainteresowanie klientów macierzami all-fla-

Jeśli rozpatrujemy rynek storage globalnie, należy wspomnieć o wyraźnym trendzie software defined storage. Te rozwiązania zagospodarowują przestrzenie dyskowe serwerów. Przykładem jest vSAN, który wywołuje duże zainteresowanie wśród naszych klientów. Mirosław Karwasz

sh. Niestety ciągle pozostajemy na etapie zainteresowania. W pierwszej kolejności barierą są dyski flashowe. Są już coraz tańsze; w porównaniu z rokiem 2011 staniały prawie trzykrotnie. Jeśli porównać cenę dysku na gigabajt, w roku 2011 wynosiła dwa euro i 20 centów. Obecna cena oscyluje wokół 0,8 euro na gigabajt. Ceny pierwszych systemów all-flash dochodziły do kwot milionowych. W tej chwili przyzwoite rozwiązanie lidera rynku EMC można kupić na za 150 tys. dolarów. Wyniki, które osiągają macierze z dyskami SSD, są imponujące. Niemniej, aby wykorzystać ich potencjał, firma musi korzystać z krytycznych aplikacji o wysokiej wartości dla organizacji. Korzyści biznesowe płynące z wdrożenia takiego rozwiązania muszą być opłacalne. To jest zwykły rachunek zysków i strat. Trochę to przypomina sytuację z roku 2008, 2007, kiedy schodziły monitory CRT i przychodziły monitory LCD. Tak samo mieliśmy rozwiązanie typu hybrydowego. W pierwszym momencie pojawiły się także bardzo drogie ekrany plazmowe, odpowiednik SLC, czyli wysokiej klasy dysków flash. Były nieprawdopodobnie drogie. Stopniowo rynek zaczął się zmieniać. Uważam, że przyszłość będzie należała do macierzy typu flash. Dzisiaj świat nie jest jeszcze gotowy na all-flash. Trochę to przypomina błędne koło, bo gdyby vendorzy sprzedawali więcej tego typu systemów, ceny spadałyby szybciej. Jeśli technologia nie zostanr 1-2 (259-260) • styczeń 2015


nie dofinansowana, może się zdarzyć, że macierze all-flash spotka los telewizorów plazmowych. Mirosław Karwasz: Zauważam zainteresowanie tymi rozwiązaniami wśród naszych klientów. Są to duże banki czy firmy z sektora paliwowego. Ale zazwyczaj szczegółowa analiza biznesowa i potrzeb technicznych skłania klientów do przemyśleń, czy nie podążać raczej w kierunku rozwiązań hybrydowych. Sam się nad tym zastanawiam, ponieważ widzę obszar dyskowy jako najsłabiej rozwinięty element składowy komputera. Z informacji dotyczących opracowywania rozwiązań NVM (ang. non-volatile memory), jak np. HP memoristor, wynika, że w przyszłości nastąpi eksplozja możliwości takich rozwiązań. Rozwój tej technologii niewątpliwie pociągnie za sobą spadek cen standardowych dysków SSD, zatem technologia będzie coraz bardziej dostępna. Jedynym problemem, jaki widzę na polskim rynku, jest umiejętność wykorzystania możliwości tych urządzeń w praktyce. Przypadki użycia i business case’y, które jesteśmy w stanie wykreować, często nie podążają za możliwością technologii. Świetnie wyglądają prezentacje dostawców, którzy opowiadają, ile danych może spływać z silników odrzutowców lub ile danych przyrasta w portalach społecznościowych. Rodzi się tylko pytanie: czy jesteśmy w stanie na tym zarobić? Czy jesteśmy w stanie wykorzystać dane, a następnie przedstawić klientowi interesujący business case, który skłoni go do inwestycji? Ważne, żebyśmy budowali wartość biznesową, wykorzystując dostępną technologię. Maciej Kaczmarek: NETGEAR nie posiada w swojej ofercie systemu all-flash. Natomiast oferujemy macierze hybrydowe. Dziewięćdziesiąt procent klientów korzysta właśnie z tych urządzeń, ponieważ są bardzo korzystne i efektywne cenowo. Często zdarza się, że klienci próbują rozwiązać swoje problemy biznesowe, szczególnie dotyczące warstwy oprogramowania, tanim kosztem. Często myślą, że wstawiając macierz flash, rozwiążą swoje problemy. Niestety, to bardzo często nie działa, bo okazuje się, że problem tkwi w samej aplikacji. Co z tego, że mamy maszynę, która jest w stanie dostarczyć dwa miliony IOPS, jeżeli tak naprawdę system jest w stanie wygenerować maksymalnie 150 tys. nr 1-2 (259-260) • styczeń 2015

Trzeba się zastanowić, który proces jest wąskim gardłem, jak ustawić kolejność. Oczywiście pomagamy w tym zakresie naszym klientom. Właśnie ze względu na ich potrzeby i oczekiwania wprowadziliśmy usługę służącą do analizy. Konrad Kundzicz: Musimy sobie uświadomić, że rozwiązania all-flash mogą mieć różną architekturę. W koszyku rozwiązań all-flash znajdują się urządzenia oparte wyłącznie na płytkach flash oraz te, których podsystem dyskowy jest stworzony za pomocą dysków SSD. Obydwa twory często różnią się możliwościami wydajnościowymi, a więc i ceną. Oczywiste jest, że producenci systemów all-flash opartych na natywnych modułach flash, np. IBM, Hitachi, którzy ponieśli duże koszty na wymyślenie, wyprodukowanie i opatentowanie swoich technologii, chcą te pieniądze odzyskać, stąd takie rozbieżności w cenach. W ostatecznym rozrachunku okazuje się, że nie zawsze najszybsze rozwiązania są odpowiednią propozycją dla klienta. Macierze oparte na dyskach SSD często okazują się wystarczające w zetknięciu z problemami w środowisku klienta. Zazwyczaj elementem, którego brakuje w środowisku klienta, jest monitoring wydajności podsystemu dyskowego oraz switchy FC i kart FC w serwerach. Monitoring ułatwiłby dostawcom oszacowanie realnych potrzeb, a klientowi dokonanie świadomego wyboru i nieprzepłacanie za przeskalowane podsystemy dyskowe. W ofercie Infonet Projekt posiadamy produkt 7eyesight, który monitoruje ruch na wymienionych elementach. Produkt ten występuje w różnych modelach sprzedaży. Na podstawie wyników z monitoringu dopasowujemy rozwiązanie do rzeczywistych potrzeb klienta, nie namawiamy klientów bez uzasadnienia na macierze typu all-flash. Reasumując, dla produktów z grupy all-flash jest miejsce na rynku, ale według mnie mają rację bytu jako element wirtualizacji pamięci masowych. Przy takim podejściu zyskujemy na elastyczności w alokowaniu zasobów all-flash pod systemy produkcyjne, co ma też swoje walory kosztowe. Jerzy Adamiak: Rzeczywiście główną barierą, którą zauważamy w zastosowaniu all-flash, jest cena dysków SSD. Mieliśmy dość humorystyczne zdarzenie: bardzo duży klient nie uwierzył, że te dyski mogą być drogie. Kupił więc bar-

dzo tanie dyski SSD, konsumenckie. Wystarczyły mu tylko na jeden dzień. Zadzwonił do nas i powiedział: „rzeczywiście, nie stać nas na tanie dyski SSD, macie rację”. Systemy all-flash to nie są produkty ogólnego zastosowania. Zobaczymy, co się stanie z tymi produktami, na razie spadek cen pamięci flash przeznaczonych dla systemów korporacyjnych wcale nie jest tak znaczny. Wprawdzie prognozy na temat przyszłości pamięci SSD pokazują, że ich ceny będą spadać, ale nadal będzie to zbyt duża bariera do przeskoczenia. Wiele problemów można rozwiązać, niekoniecznie korzystając z pamięci SSD. Wystarczy kilka nośników SSD, trochę więcej RAM, który nie jest w tej chwili bardzo drogi, i mamy trzypoziomową hybrydę. W ten sposób uzyskujemy wydajność większą niż w macierzach flash, oczywiście o ograniczonej pojemności. Chciałbym nawiązać do tego, co mówił przedmówca o poszukiwaniu wąskich gardeł w systemach informatycznych, zwłaszcza w środowiskach interfejsowych. Podczas rozmów z klientami bardzo rzadko zauważamy rzeczywisty problem techniczny związany z wydajnością macierzy; jeśli istnieje, dotyczy raczej konfiguracji całości środowiska. Mamy w ofercie rozwiązanie firmy Imation. To rozwiązanie hybrydowe wykorzystujące różne rodzaje pamięci. Jako wyspecjalizowany dystrybutor staramy się rozglądać na rynku i szukać nowości. Działamy w inny sposób niż partnerzy, którzy próbują zaoferować to, co ich zdaniem jest najlepsze z całej dostępnej oferty na rynku. Chcemy znaleźć coś ciekawego dla klientów, unikalnego, a jednocześnie spełniającego ich potrzeby. Wojciech Urbanek: Z naszej rozmowy wynika, że wierzycie w siłę znanych marek. Tymczasem wielcy vendorzy wydają się być zagubieni. Symantec i HP się dzielą. Niektóre produkty EMC i VMware konkurują ze sobą, zaś IBM spadają przychody. Może przyszedł czas na zmianę układu sił? Dzianis Kaszko: To jest pytanie natury filozoficznej. Gdybym każdemu z panów zadał pytanie: czy wiecie, czym będziecie się zajmować za cztery lata, to czy ktoś odpowie? Czy ktoś jest na tyle świadomy, że wie, co będzie robił w dzisiejszym zmieniającym się świecie? Kiedyś żyliśmy w fazie planowania, iT Reseller

39


» DEBATA czom. Mamy satysfakcję, że nas zauważają, mam tutaj na myśli nie tylko rynek pamięci masowych. Wielcy vendorzy zaczynają nas szanować i nie wypowiadają się z butą. Naszą zaletą jest elastyczność. Potrafimy się szybko zmieniać, co nie jest łatwe dla konkurencji, bo nikt nie lubi zmian. Dopiero kilka lat temu uzyskaliśmy miliardowe (w dolarach) obroty, co pokazuje, że cały czas jesteśmy graczem walczącym o swoje miejsce na rynku.

Jako producent działamy na dwóch różnych rynkach: biznesowym oraz gospodarstw domowych. Szczególnie duży wzrost zauważamy wśród odbiorców kupujących dwudyskowe rozwiązania, które można wykorzystać w domu, biurze czy w średniej firmie. Maciej Kaczmarek

Zauważamy, iż producenci przy promocji swoich produktów kładą duży nacisk na kompresję oraz deduplikację. Coraz częściej klienci oczekują rozwiązań, które pozwalają umieścić dużo większą ilość danych na takiej samej powierzchni dyskowej, a zaoszczędzone w ten sposób środki finansowe przeznaczyć na inne inwestycje. Kornel Kundzicz

które polegało na tym, że siadał zarząd i mówił: To jest ścieżka naszego rozwoju na pięć lat i my idziemy tą ścieżka, dążymy do tego celu. Mamy wyniki, kamienie milowe. Teraz jest tak, że my nie wiemy, jaka będzie koniunktura gospodarcza w przyszłym roku. Tak samo jest z vendorami. Różnica między wielkim vendorem a małym start-upem jest taka, że duży jest postacią medialną. I każdy jego błąd jest wyraźnie pokazywany. Z drugiej strony oczywiście możemy wskazać Nokię, która mając jakiś obszar, została na nim i się nie rozwijała. Niektórzy vendorzy, nie chcąc kanibalizować swojego rynku, nie podejmują pewnych działań, które ostatecznie będą skutkować utratą udziałów, albo podejmują kroki w niewłaściwym kierunku. Tak zrobił kiedyś Symantec, który uważał, że będzie coraz więcej w IT warstwy bezpieczeństwa, a coraz mniej warstwy dostępowej. Okazało się, że to wygląda zupełnie inaczej. IBM odchodzi od infrastruktury, przechodzi w świat oprogramowania. Czy to jest dobre, czy nie? EMC z jednej strony ma VIPER, a z drugiej rywalizuje z VMware. Nie ma tu jednoznacznej odpowiedzi. Na pewno jest im łatwiej, bo stać ich na określone straty. Jeżeli okaże się, że EMC wydało miliard dolarów na niepotrzebną inwestycję, to będzie bolało. Skutkiem będzie spadek akcji, pewnie znowu zmienią menedżera, ale pozostaną

40

iT Reseller

na rynku. Gdybyśmy wydali miliard dolarów na niepotrzebną inwestycję, pewnie nie byłoby nas tutaj. Mirosław Karwasz: Uważam, że będąc integratorem na polskim rynku, trzeba spojrzeć na własne doświadczenia i zaufać własnym relacjom z klientami, jeśli myślimy o adresowaniu ich potrzeb, rozwiązywaniu ich problemów. Oglądając się oczywiście na środowisko technologiczne i na to, w co działy marketingu danej korporacji inwestują pieniądze. I na ile to odwzorowuje rzeczywiste potrzeby naszych klientów. Myślę, że w taki sposób można sobie poradzić z tym, że wielcy gracze próbują ustawiać ten świat. Zawsze będzie miejsce dla firm lokalnych, które mają bliski kontakt z klientem. Maciej Kaczmarek: Ważne jest to, o czym wspomniał kolega. Swoje spostrzeżenia z polskiego rynku muszę skonfrontować z tymi z Australii czy Ameryki, gdzie jesteśmy obecni od dawna i mamy znaczące miejsce. W Wielkiej Brytanii NETGEAR ma duży udział w edukacji, zdecydowanie większy niż w Polsce. Ale rodzimy rynek dopiero się rozwija i niewykluczone, że w przyszłości pomogą nam programy pilotażowe. Jesteśmy średnim producentem na polskim rynku i generalnie staramy się uprzykrzać życie tym większym gra-

Kornel Kundzicz: Mówiąc o możliwościach poszczególnych producentów, jeżeli chodzi o zmianę rynku i tworzenie nowych mechanizmów, oczywiste jest, że większy producent może sobie pozwolić na większe ryzyko. Producenci swoimi działaniami pokazują, że uwzględniają w swoich kosztach możliwe straty, które mogą ponieść po przejęciu młodych, mniej stabilnych, ale innowacyjnych firm z potencjałem. Z kolei małe firmy, z mniejszym kapitałem, nie mogą sobie pozwolić na złe, a tym samym kosztowne inwestycje. Muszą dostosować się do trendów na rynku. Start-upy natomiast wchodzą na rynek dynamicznie, często na przekór obowiązującym trendom, i albo przebiją się z innowacyjną myślą i będą budować swoją pozycję, albo zainteresują sobą stabilnego na rynku dużego producenta. Dodatkową trudnością, z którą muszą zmierzyć się start-upy w takich krajach jak nasz, jest brak rozwiniętej siatki wsparcia technicznego, co z kolei nam, dostawcom, utrudnia proponowanie ich rozwiązań. Klient w Polsce jest wymagający, a systemy produkcyjne wymagają szybkiej reakcji na występujące awarie. Jerzy Adamiak: Chciałbym przytoczyć inny przykład firmy CA. Firma sprzedała swój bardzo znany dział oprogramowania Arcserve. Cała otoczka wielkiej firmy powodowała, że brak było nacisków na rozwój. Tu nie chodzi o bardzo duże inwestycje, to jest software i trzeba raczej inwestować w potencjał ludzki i ewentualnie w ośrodki testowe. Nowo powstała firma Arcserve potrafi działać dużo bardziej efektywnie. W ciągu dwóch miesięcy od chwili powstania opracowała nową wersję swojego oprogramowania, które konkuruje z oprogramowaniem Veeam do backupu maszyn wirtualnych. Ten przykład pokazuje, że na rynku jak najbardziej jest miejsce dla małych firm. w nr 1-2 (259-260) • styczeń 2015


» TECHNOLOGIE

Smart City – miasta dla ludzi Mieczysław T. Starkowski

Inteligentne miasto może mieć wiele różnych znaczeń. Celem jest zapewnienie mieszkańcom wyższego komfortu życia. Wykorzystuje się przy tym zaawansowane rozwiązania teleinformatyczne.

nr 1-2 (259-260) • styczeń 2015

O

d pewnego czasu furorę robi inteligencja systemów teleinformatycznych. Dlatego niemal każdy dostawca promuje dziś między innymi inteligentne rozwiązania dla miast. Nie ustają przy tym dyskusje, co to w zasadzie oznacza. Ogromne wątpliwości budzi określenie inteligentne miasto (smart city). Na ogół przyjmuje się intuicyjnie, że chodzi o organizm zapewniający mieszkańcom wyższy komfort życia przy wykorzystaniu rozmaitych skomplikowanych rozwiązań teleinformatycznych. Ale jaki poziom przesądza już o owej inteligencji miasta? Czy wystarcza na przykład zaawansowana karta miejska, jak chcą niektórzy? Czy musi zostać wdrożonych kilka systemów? A jeżeli tak, to ile i jakie? W najbliższym czasie z pewnością będziemy w Polsce świadkami wielu rozmaitych projektów smart city. Tak wynika z ankiet i rozmów z przedstawicielami samorządów. Wśród rozwiązań, które ich zdaniem są najbardziej potrzebne, znalazły się inteligentne systemy transportowe (Intelligent Transportation Systems – ITS) oraz zarządzanie komunikacją miejską, w tym wspomniana inteligentna karta miejska, a także dynamiczna informacja pasażerska. Wielu ekspertów zwraca ponadto uwagę na wtórną rolę technik informacyjnych. Priorytetem są kwestie ludzkie (społeczne). Najważniejsze zadania to określenie potrzeb ludzi i sposoby ich zaspokajania. Poza tym władze miasta muszą dobrze wiedzieć, do czego dążą. – W ubiegłym roku w Dzienniku Urzędowym Unii Europejskiej została opu-

blikowana opinia Komitetu Regionów „Inteligentne miasta i społeczności – europejskie partnerstwo innowacyjne” (nr 2013/C 280/06) – przypomina profesor Andrzej Sobczak, kierownik Zakładu Zarządzania Informatyką w Instytucie Informatyki i Gospodarki Cyfrowej Szkoły Głównej Handlowej. – W opracowaniu tym wskazano, że jednym z największych wyzwań, przed jakimi stoi UE, jest przekształcenie miast w inteligentne i zrównoważone środowiska życia. W tym kontekście określono konieczność integracji i interoperacyjności systemów jako warunek tworzenia inteligentnych miast. Ważne jest przy tym dodanie pojęcia społeczności. W dokumencie zaznaczono szczególną rolę samorządów terytorialnych. To one są szczeblem władzy najbliższym obywatelom i odgrywają decydującą rolę w ustalaniu i przedstawianiu ich potrzeb. Te kluczowe relacje obejmują

Komitet Regionów Komitet Regionów jest organem doradczym reprezentującym samorządy lokalne i regionalne w Unii Europejskiej. Jego zadaniem jest wypowiadanie się na temat aktów prawnych UE z perspektywy lokalnej i regionalnej. Komitet sporządza w tym celu sprawozdania (opinie) dotyczące wniosków legislacyjnych Komisji. Komisja, Rada i Parlament są zobowiązane do zasięgania opinii Komitetu Regionów przed przyjęciem decyzji UE w sprawach dotyczących samorządów lokalnych i regionalnych (na przykład w kwestii polityki zatrudnienia, środowiska, edukacji czy zdrowia publicznego).

iT Reseller

41


» TECHNOLOGIE

PRZEDE WSZYSTKIM TRANSPORT W najbliższym czasie z pewnością będziemy w Polsce świadkami wielu rozmaitych projektów smart city. Tak wynika z ankiet i rozmów z przedstawicielami samorządów. Wśród rozwiązań, które ich zdaniem są najbardziej potrzebne, znalazły się inteligentne systemy transportowe (Intelligent Transportation Systems – ITS) oraz zarządzanie komunikacją miejską, w tym wspomniana inteligentna karta miejska oraz dynamiczna informacja pasażerska.

między innymi wysłuchania i skuteczne mechanizmy uczestnictwa na poziomie lokalnym. W praktyce zapisy te podkreślają konieczność realizacji idei otwartego rządu (Open Government) na szczeblu lokalnym. Komitet z zadowoleniem przyjął przewidziany przez Komisję długoterminowy cel inicjatywy IMiS (Inteligentne Miasta i Społeczności) polegający na tym, by do 2020 roku zaproponować i upowszechnić co najmniej 20 przełomowych innowacyjnych rozwiązań łączących w sobie technologie energetyczne, transportowe i informacyjno-komunikacyjne. Podkreślono, że bardzo ważne jest stworzenie odpowiednich warunków, by innowacyjne rozwiązania mogły zostać przyjęte i wykorzystane w wielu miastach Unii. Szczególnie istotna rola przypada technologiom teleinformatycznym, które mają między innymi doprowadzić do poprawy efektywności energetycznej miast. W ramach nowego programu „Horyzont 2020” powinny być przewidziane na poziomie UE wystarczające środki, aby inicjatywa IMiS mogła przyczynić się do realizacji celów określonych przez Komisję. Jednocześnie podkreślono, że realizacja tych założeń nie może wiązać się z ograniczaniem finansowania z innych wdrażanych obecnie programów wspomagających samorządy lokalne w staraniach na rzecz tworzenia inteligentnych miast i społeczności. Zwłaszcza że programy te bardzo dobrze sprawdziły się na poziomie lokalnym. – Komitet docenił znaczenie przyjęcia całościowego podejścia do wsparcia finansowego Unii Europejskiej dla IMiS oraz innych źródeł finansowania UE, zwłaszcza takich jak Europejski Fundusz Strukturalny na rzecz Inwestycji, instrument „Łącząc Europę” i program LIFE 2014–2020 – zwraca uwagę profesor Sobczak. – Komitet przyjął z zadowo-

42

iT Reseller

leniem zalecenie Komisji, by państwa członkowskie udostępniły środki finansowe na wspieranie działań dotyczących tworzenia i rozpowszechniania innowacyjnych rozwiązań w ramach IMiS. Jak zwykle przed konkretnymi działaniami powstrzymuje ludzi bariera psychologiczna. W naszym kraju zbyt wiele czasu pochłaniają jałowe dyskusje. Ale jest już kilka inicjatyw zapowiadających wykorzystanie zaawansowanych rozwiązań teleinformatycznych w miastach. Do najciekawszych należą prawdopodobnie prace prowadzone w Krakowie. – Smart city nie oznacza kupowania technologii przez miasto – twierdzi Wojciech Przybylski, dyrektor Działu Rozwoju w Krakowskim Parku Technologicznym. – Takie rozumienie tego pojęcia ma 20 lat i na świecie już tak się nie działa. Kluczem jest umiejętne spięcie zasobów ludzkich, technologicznych oraz przestrzennych w ten sposób, aby w zakresie usług publicznych uzyskać możliwie dużą synergię, czyli podnieść standard usług i jakość życia w mieście albo płacić za dotychczasowy standard i jakość mniej niż dotychczas. W największym skrócie inteligentne miasto to partycypacja plus międzysektorowość plus technologie. W diagnozie zrealizowanej w ramach krakowskiego projektu SMART_KOM wskazano kilkanaście rekomendacji o różnym poziomie ogólności. Chodzi między innymi o przełamanie silosów w zarządzaniu miastem, a także zwrócenie szczególnej uwagi na wy-

godę użytkowników korzystających z e-usług publicznych. Idea smart city powinna być wykorzystana jako dźwignia rozwoju gospodarczego miasta. Muszą brać w niej udział różni partnerzy – zarówno start-upy, jak i duże przedsiębiorstwa. Wymaga to jednak zmiany paradygmatu działania i konsekwentnego zamawiania, a potem włączania technologii w tkankę miejską. Zdaniem Wojciecha Przybylskiego podstawą są działania horyzontalne (a nie silosowe). Miasto jest bowiem organizmem o dużej gęstości i nie ma wymiarów, które są funkcjonalnie niezależne. Mobilność łączy się ze środowiskiem, środowisko i mobilność z planowaniem przestrzennym, wszystkie trzy z rozwojem gospodarczym miasta i tak dalej. W polityce miejskiej potrzebne są zatem nowe mechanizmy koordynacji (zarówno proceduralne, jak i instytucjonalne). Musi wreszcie zwyciężyć podejście metropolitalne. Niestety, nie ułatwiają tego brak ustawy metropolitalnej i ustrojowa konstytucja polskiego samorządu. Ale nie da się zamknąć w granicach administracyjnych problemów i wyzwań, przed jakimi stoi Kraków (a także inne polskie wielkie miasta). Trzeba dążyć do jak najlepszego wykorzystania potencjału gospodarczego miasta. Kraków ma drugi po Warszawie ośrodek naukowy w kraju, a świetnie rozwija się sektor BPO/SSC. Oznacza to między innymi konieczność zmian w promocji gospodarczej miasta i większą synergię z działalnością regionu oraz innych partnerów. – Należy zmienić podejście do partycypacji społecznej. Nie traktować jej jako obowiązku konsultacji, tylko jako sposób zarządzania miastem. Bo przecież wiele problemów można rozwiązać w zaskakująco prosty sposób, trzeba tylko dać ludziom narzędzia – podsumowuje Wojciech Przybylski. w

UMIEJĘTNE SPIĘCIE Smart city nie oznacza kupowania technologii przez miasto. Kluczem jest umiejętne spięcie zasobów ludzkich, technologicznych oraz przestrzennych w ten sposób, aby w zakresie usług publicznych uzyskać możliwie dużą synergię, czyli podnieść standard usług i jakość życia w mieście albo płacić za dotychczasowy standard i jakość mniej niż dotychczas.

nr 1-2 (259-260) • styczeń 2015


Trendy technologiczne na 2015 rok Jeremy Burton, prezes firmy EMC, odpowiedzialny za dział nowych produktów i marketingu

Wiele lat temu na pytanie, czy „usługi internetowe” będą kolejnym wielkim hitem, Larry Ellison odpowiedział: „Spędziłem zbyt dużo czasu we Włoszech, aby nie wiedzieć, że mody nie można ignorować”.

S

ektor technologiczny uwielbia nowe trendy – wszyscy wiemy, że moda ma znaczenie, dlatego chętnie podążamy za nowinkami. Jako branża okazaliśmy się mistrzami w rozdmuchiwaniu nowych trendów, stawianiu im nadmiernych oczekiwań, a czasem, gdy już opadnie kurz, zarabianiu na wypromowanych w ich ramach rozwiązaniach. Jakie są megatrendy technologiczne na rok 2015? Oto moja prognoza…

1. Elektronika do noszenia Fanatycy produktów marki Apple z całego świata oczekują, że po pojawieniu się inteligentnego zegarka iWatch elektronika do noszenia stanie się codziennością. Nie jestem tego taki pewien. Spójrzmy prawdzie w oczy: kto z ludzi poniżej 35. roku życia nosi jeszcze dzisiaj zegarek? Niemal wszyscy korzystają ze swoich smartfonów. Wiele urządzeń elektronicznych do noszenia się nie przyjmie; podporą dla rynku będą pasjonaci, którzy przez cały dzień nie rozstają się ze słuchawką Bluetooth. Nie każda technologia do noszenia poniesie jednak klęskę. Samodzielne, niszowe urządzenia elektroniczne, które pozytywnie poruszyły branżę – np. bransoletki FitBit czy Jawbone do monitorowania funkcji życiowych i aktywności fizycznej – będą w dalszym ciągu świetnie sobie radzić i trafiać do odzieży, obuwia i sprzętu sportowego.

2. Klienci „złapani na gorącym uczynku” Urządzenia mobilne to siła napędowa zmian w niemal każdej branży. Firmy, nr 1-2 (259-260) • styczeń 2015

które dopasowują się do tego trendu i wprowadzają swoje usługi na platformy mobilne, mogą nawiązać z klientem bezpośrednią relację. To idealna sytuacja dla specjalistów do spraw marketingu – mają szansę złapać klientów niejako na gorącym uczynku (czyli podczas zakupów) i skierować ich uwagę na odpowiednie produkty i usługi. Pomyślmy o sprzedawcach detalicznych, którzy znają lokalizację klienta w sklepie, lub o producentach odzieży sportowej, którzy znają układy ćwiczeń i stan zdrowia swoich klientów – taka wiedza to prawdziwa żyła złota! Klienci są jednak kapryśni i niecierpliwi. Wiele firm od lat pracuje nad rozwiązaniami w tym zakresie, sądzę jednak, że narzędzia tego typu zaczną być stosowane na szerszą skalę. Oznacza to konieczność przetwarzania olbrzymich strumieni danych w czasie rzeczywistym, co przyczyni się do gwałtownego wzrostu popularności takich technologii, jak bazy danych pracujące w pamięci operacyjnej (in-memory) i pamięć masowa flash.

3. Oprogramowanie! W ciągu mniej więcej ostatnich dziesięciu lat większość firm porzuciła pisanie oprogramowania. Działy informatyczne zapełniły się ekspertami w dziedzinie zarządzania infrastrukturą centrów przetwarzania danych i wdrażania systemów ERP. W ciągu najbliższej dekady niemal każda branża zostanie zdefiniowana na nowo właśnie przez oprogramowanie. Większa część tego oprogramowania pojawi się na urządzeniach mobilnych – i to

nie tylko na smartfonach i tabletach, ale także w samochodach, silnikach samolotowych, butach do biegania i nas samych! Pomyślmy choćby o firmie Tesla. Jej produkt to coś więcej niż samochód elektryczny – to samochód sterowany programowo. Marka Tesla zrobiła z jazdą samochodem to, co Apple zrobiło z korzystaniem z telefonu komórkowego – samochód stał się platformą oprogramowania, na bazie której można wprowadzać kolejne innowacje. Przedsiębiorstwa, które takich nie tworzą, nie przetrwają długo na rynku. Ten trend nie ominie też naszej branży, czyli sektora infrastruktury dla centrów przetwarzania danych (w którym działa EMC). Macierze pamięci masowej, serwery, sieci i całe ośrodki obliczeniowe będą w przyszłości obsługiwane i zarządzane przez oprogramowanie inteligentne.

4. Zwinne tworzenie oprogramowania + pokolenie Y = nowa technologia IT W najbliższej dekadzie transformacja biznesowa będzie stymulowana przez nowe, zróżnicowane oprogramowanie działające na urządzeniach mobilnych. Oprogramowanie to nie będzie jednak pisane tak jak 20 lat temu. Większość informatyków z mojego pokolenia – czyli ludzi po czterdziestce – w szkole uczyła się, że wprowadzanie zmian na późnym etapie cyklu tworzenia oprogramowania jest kosztowne. Musieliśmy więc wcześnie, z wyprzedzeniem, zamknąć listę wymagań i nie dopuszczać do zmian. Zmiany były czymś złym. Wielu z nas poświęciło dużą iT Reseller

43


» TECHNOLOGIE część swojej kariery zawodowej na pracę nad projektami, które trwały całymi latami, a w efekcie przyniosły nie to, co trzeba – na tym polega magia tworzenia oprogramowania w modelu kaskadowym. Jeśli ma nadejść transformacja biznesowa, będzie za nią stał obszar biznesowy, w który często będą włączeni informatycy (programiści). Tworzenie oprogramowania będzie procesem iteracyjnym, w którym wykorzystywane będą techniki zwinne, a określone początkowo priorytety prac będą się zmieniać co kilka tygodni w oparciu o sprzężenie zwrotne z użytkownikami biznesowymi. Mówimy tu o nowym modelu IT, który zapewnia niemal natychmiastową satysfakcję – to idealny model dla wchodzącego na rynek pracy pokolenia Y. Rok 2015 może być początkiem decentralizacji środowiska IT – same operacje informatyczne pozostaną scentralizowane, lecz tworzenie oprogramowania zacznie przechodzić do odpowiednich jednostek biznesowych.

5. Wykłady akademickie do lamusa Rok 2015 otworzy nową erę w edukacji. Będziemy świadkami początku końca wykładów. Tak, wykłady prowadzone przez profesorów jako forma nauczania to przeżytek. Testy przeprowadzone na czołowych uczelniach dowodzą, że podczas 40-minutowego wykładu przeciętny student koncentruje się na treści przez mniej więcej siedem minut. Gdy wykład trwa godzinę, skupienie studentów jest jeszcze słabsze! Na uczelniach, na których wykłady przeniesiono do internetu, liczba egzaminów poprawkowych spadła z niemal 50 proc. do wskaźników jednocyfrowych. A to niejedyna dobra wiadomość – przeniesienie zawartości do trybu online nadaje treściom edukacyjnym zasięg globalny. Wyobraźmy sobie świat, w którym wszyscy mają dostęp do tych samych materiałów, z których nauczają najbardziej prestiżowe uniwersytety! Następnym razem, gdy zobaczymy nasze dzieci przeglądające stronę internetową Akademii Kahna (która udostępnia wykłady w formie klipów w serwisie YouTube), warto sobie uświadomić, że właśnie oglądamy przyszłość edukacji w praktyce. w

44

iT Reseller

Firma Avnet otrzymała autoryzację na dystrybucję produktów Lenovo Enterprise Products w Polsce FIRMA AVNET TECHNOLOGY SOLUTIONS, światowy lider w dystrybucji rozwiązań branży IT i grupa operacyjna Avnet, Inc. (NYSE: AVT) otrzymała autoryzację na dystrybucję w Polsce serwerów Lenovo System x (x86) wraz z powiązanymi rozwiązaniami, włączając w to BladeCenter oraz Flex Systems. Decyzja ta jest konsekwencją przeniesienia biznesu serwerów IBM System x do Lenovo, co nastąpiło 1 października 2014 roku. Avnet był już wcześniej autoryzowanym dystrybutorem serwerów Lenovo System x i powiązanych z nimi rozwiązań w Ameryce Północnej, Łacińskiej, na Karaibach i na terenie Azji w rejonie Pacyfiku. Od 1 stycznia 2015 roku, we współpracy z firmą Lenovo, Avnet rozpoczął dystrybucję serwerów blade i switch’y System x, BladeCenter oraz Flex System, zintegrowanych systemów x86-based Flex, serwerów NeXtScale oraz iDataPlex wraz z dedykowanym dla nich oprogramowaniem sieciowych rozwiązań typu blade i usług utrzymania. Zgodnie z postanowieniami umowy Avnet będzie oferować wymienione serwery i rozwiązania firmy Lenovo w Austrii, Belgii, Chorwacji, Czechach, Niemczech, Mołdawii, Holandii, Polsce, Rumunii, Serbii, Słowacji, Słowenii, Szwajcarii, Turcji, na Węgrzech oraz w Wielkiej Brytanii. W celu zapewnienia partnerom firmy możliwie najbardziej kompleksowej oferty rozwiązań end-to-end Avnet będzie nadal świadczyć szeroką gamę tradycyjnych usług, takich jak logistyka, sprzedaż, marketing, finansowanie czy serwis techniczny, strategicznie powiązanych z usługami z zakresu obsługi biznesowej, IT, cyklu życia produktu i szkoleń. – Oferta Lenovo pozwoli firmie Avnet dotrzeć do nowych klientów i nowych rynków. Lenovo jest marką rozpoznawalną wśród klientów, którzy do tej pory nie współpracowali z Avnet. Z kolei Avnet stanowi wartość dodaną dla Lenovo, ponieważ ma bogate, poparte sukcesami doświadczenie w prowadzeniu dużych i skomplikowanych projektów. Dzięki takiemu obrotowi sprawy obydwie strony będą odnosiły wymierne korzyści ze współpracy – mówi Andrzej Bugowski, IBM i Lenovo Business Unit Manager w Avnet. w

nr 1-2 (259-260) • styczeń 2015


Nie tylko o IT mówi Józef Szajter CEO w firmie Eptimo Jak się zaczęła Pana przygoda z IT? – Komputerami interesowałem się od szkoły średniej, na początku typowo sprzętowo. Lubiłem je rozbierać i składać. Z czasem znałem się na tym bardzo dobrze. Wybór kierunku studiów był kontynuacją moich zainteresowań. Wtedy też zafascynowałem się kryptografią. Od dawna wiedziałem, że będę pracował w tej branży, nie wiedziałem jedynie na jakiej konkretnie pozycji. Komu zawdzięcza Pan swoje największe sukcesy zawodowe? – Nie uważam, że odniosłem już jakieś większe sukcesy. Mam nadzieję, że takie jeszcze przede mną. Staram się patrzeć na swoje działania perspektywicznie, a nie osiadać na laurach. Wierzę, że to nasze decyzje, a nie inne osoby, pozwalają osiągać kolejne cele. Zdecydowanie pomaga w tym mój uparty charakter oraz samozaparcie w dążeniu do tego, co sobie w danym momencie założę. Najgorsza i najlepsza rada biznesowa, którą Pan otrzymał? – Najlepsza rada, jaką otrzymałem, brzmiała: Myśl nieszablonowo, nie przyzwyczajaj się do sytuacji, ponieważ wszystko się zmienia i będzie się zmieniać. Wartością nie jest wiedza, lecz umiejętność jej pozyskania. Najgorsza rada biznesowa to ta zachęcająca, by robić tak jak inni i powielać nr 1-2 (259-260) • styczeń 2015

pomysły, które się już udało zrealizować. Ale w praktyce okazuje się, że wtedy już jest zdecydowanie za późno. Trzeba zawsze mieć coś innowacyjnego, co pozwala nam się wyróżniać na tle innych. Na czyje wsparcie może Pan liczyć w trudniejszych chwilach? – Jak jest naprawdę ciężko, to zwracam się do najbliższej rodziny. Wartości rodzinne traktuję priorytetowo, dlatego w najtrudniejszych sytuacjach tam szukam wsparcia. Jaki był Pana pierwszy komputer? – 386 DX, pamiętam, jak programowałem na nim w Turbo Pascalu. Ulubione aplikacje na smartfonie? – Nie klikam całymi dniami na telefonie, wręcz przeciwnie – staram się tego unikać. Dlatego korzystam z aplikacji typowo użytkowo. Są to przede wszystkim mapy, wyszukiwarka, odtwarzacz muzyki oraz, co najśmieszniejsze, aplikacja latarki (bardzo często się przydaje!). Co lepsze – rower czy narty? – Zdecydowanie narty, jestem entuzjastą tego sportu. Kot czy pies? Którego z czworonogów wziąłby Pan pod opiekę? Dlaczego?

– Wybieram psa. Bardziej się przywiązuje do człowieka i to lojalność właśnie cenię u tych czworonogów. Ulubiony bohater filmowy? – Sherlock Holmes – za kreatywne podejście do rozwiązywania problemów i błyskotliwość. Książka, do której lubi Pan wracać? – Jeśli wracam do czegoś, to z reguły są to pozycje naukowe, gdzie sięgam po jakieś informacje, które chcę sobie odświeżyć. Ostatnio sporo czytam o psychologii, zwłaszcza w kontekście biznesowym. Natomiast jeśli chodzi o książki z dziedziny literatury pięknej, to po jednokrotnym przeczytaniu pozycja staje się dla mnie nudna, ponieważ znam już jej zakończenie. Potrawa, której nie potrafi się Pan oprzeć? – Sushi, uwielbiam i nie potrafię sobie odmówić. Rada dla resellerów, którzy z niepokojem spoglądają w przyszłość. – Rynek się zmienia. Jednak nadal będzie wzrastał. Sprzedaż do klientów końcowych zamieni się w sprzedaż do wielkich centrów danych. Dlatego trzeba być elastycznym oraz rozsądnie reagować na zmiany na rynku. w iT Reseller

45


» FELIETON

WYBORY SAMORZĄDOWE 2014

Analog z gońcem Mieczysław T. Starkowski

Mam kilka wniosków osobowych. Do prezydenta: nagrodzić wysokim odznaczeniem prezesa firmy N. Do parlamentu: postawić przed najwyższym trybunałem członków poprzedniej centralnej komisji wyborczej. Do internautów i mediów: ogromnym koszem kwiatów – i brylantowym diademem – przeprosić panią Agnieszkę.

46

iT Reseller

U

zasadniam. Prezes firmy N. dokonał (prawie) niemożliwego. Wiem, wiem, prawie robi różnicę. A jednak pracownicy firmy N. – mimo wszystko – pokazali, jak wygląda rzeczywistość. Działając, jak mówi pewien mój znajomy, w skrajnie trudnych warunkach, dostarczyli system za realne pieniądze. Przyjęło się, że duży system dla administracji państwowej musi kosztować równowartość 50 milionów złotych. Tymczasem firma N. dostarczyła go za kwotę ponad 100 razy mniejszą. I nie wzbudziło to wcześniej wątpliwości u zamawiającego. Dlatego dostawca zasługuje na nagrodę. Najbardziej odpowiedni byłby chyba Order Białego Flaminga. Za katastrofę, jaka się wydarzyła, pełną odpowiedzialność ponosi centralna komisja wyborcza. Wbrew potocznym wyobrażeniom nie zbiera się ona raz na cztery lata, by jej dostojny przewodniczący mógł wygłosić kilka standardowych formułek, rozśmieszając ludność zgromadzoną przed telewizorami. Jest stałym organem wyborczym. Nie należy do dobrego tonu naśmiewanie się z bandy leśnych dziadków. Tak bowiem powszechnie nazywa się owych czcigodnych sędziów. Trudno się jednak dziwić reakcjom zwykłych ludzi, gdy obserwują sposób nadzorowania (?) pracy centralnego biura wyborczego. Również rzeczone biuro nie jest efemerydą uruchamianą trzy dni przed wyborami. Także pracuje w trybie ciągłym i zatrudnia kilkaset osób. To właśnie ono działa w tle, zwykle bez medialnego rozgłosu. Do niedawna… Przypomnijmy sobie: było miło, cicho i spokojnie. Życie biegło zwykłym sennym torem i nic nie zapowiadało nadzwyczajnych wydarzeń. I oto nagle latem 2014 roku okazało się, że jesienią mają się odbyć… jakieś wybory. Ludzie odpowiedzialni (?) wzięli się więc ostro do roboty. W try miga opracowali specyfikację istotnych warunków zamówienia na „Zaprojektowanie i wykonanie modułów do wyborów samorządowych 2014 r. wraz z administrowaniem i utrzymaniem”. Ogłoszenie zostało wysłane do biuletynu zamówień publicznych już 11 lipca. Termin wykonania podstawowych modułów oprogramowania wyzna-

czono na 17 października. Czyli w ciągu trzech miesięcy. I na cztery tygodnie przed wyborami. Godna podziwu, iście ułańska fantazja. Czy takie przedsięwzięcie miało prawo się udać? Teoretycznie – tak. Praktycznie zabrakło czasu. Na sprawdzenie, na poprawki. Na wszystko. Można oczywiście powiedzieć, że firma N. nie powinna się zgodzić na termin zaproponowany przez zamawiającego. Termin absurdalny, niemalże nierealny. A jednak dostawcy udało się go dotrzymać. I (znów) prawie… w całości wywiązać z przyjętych obowiązków. Jak mówi inny mój znajomy, w jednym miejscu w programie zabrakło kropki. Ten błąd popełniła wspomniana pani Agnieszka. Ale nie ma powodu, by poniewierać ją (z wymienianiem nazwiska) przed całym światem. Na nadchodzące wybory mam dla władz propozycję. Może warto skorzystać z doświadczeń pewnej dużej gazety. Wystarczy w noc powyborczą wysłać zaprzysiężonych urzędników do każdej z kilkudziesięciu tysięcy komisji, by spisali wyniki w obwodach. Potem trzeba je tylko przesłać faksem albo podyktować przez telefon do komisji terytorialnych, a następnie do centralnej. W ciągu kilku godzin otrzymuje się precyzyjne wyniki wyborów w całym kraju. Szybciej niż przy wykorzystaniu kłopotliwej teleinformatyki. Zwłaszcza że prezydent powiedział, iż odgrywa ona rolę wyłącznie pomocniczą. Byłbym zapomniał. Rzecz dzieje się za siedmioma rzekami, za siedmioma górami. Piękną Popslandię zamieszkują wspaniali ludzie, którzy mają jednak zupełnie inny system wartości niż my, zachodni Europejczycy. Dlatego nie zawsze potrafimy ich zrozumieć. w nr 1-2 (259-260) • styczeń 2015


Nowy CityTab Supreme 10” 3G Przyjazna generacja 3G

CityTab

Oddajemy do Twojej dyspozycji tablet z przyjaznym i intuicyjnym systemem Windows® 8.1 oraz niezawodnym procesorem Intel®. Rozpoczętą na komputerze pracę możesz kontynuować na tablecie dzięki pakietowi Office 365 Personal modemowi 3G i 10,000 GB+ przestrzeni w chmurze One Drive. Odkrywaj możliwości tabletu CityTab Supreme 10” 3G już od 749 złotych. Zawiera:

Wyłączny dystrybutor ABC Data S.A. ul. Daniszewska 14, 03-230 Warszawa. Więcej informacji na temat oferty produktowej: www.interlink.pl | www.colorovo.pl



Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.