VADEMECUM Var-ów i Integartorów

Page 1

ISSN 1640-9183

WYDANIE SPECJALNE

listopad 2016

Zarządzanie obiegiem dokumentów Papier wciąż nieśmiertelny str. 38

Backup i archiwizacja Najważniejsze to zdefiniować proces str. 20

Dane

w przedsiębiorstwie

– zarządzanie i ochrona Przechowywanie danych Rozwiązania dla firmy każdej wielkości str. 8


1-1 CRN.indd 1

10/31/16 10:16 AM


Dane – nowe złoto

Fot. Marek Zawadzki

G

dy kilka lat temu ludzie uświadomili sobie, jak wiele informacji na ich temat posiada Google, przez pewien czas byliśmy świadkami niemałej, także medialnej, nagonki na tę firmę. Krytykowano jej wścibskość oraz przedmiotowe traktowanie internautów. Nie zauważano przy tym dwóch rzeczy: większość indeksowanych informacji, świadomie bądź nie, przekazujemy sami, a z usług Google, tak skutecznych zresztą właśnie dzięki tym informacjom, korzystamy za darmo… Prawdopodobnie właśnie ten przypadek sprawił, że przedsiębiorcy zaczęli uświadamiać sobie, iż dzisiaj to dane są walutą nowoczesnej firmy. To na nich bazuje coraz więcej usług i dzięki nim powstają takie e-biznesowe rewolucyjne giganty jak Airbnb czy Uber, których jedynym zasobem i największą wartością są – odpowiednio – nie lokale ani samochody, ale informacje. Wizjonerzy wielu branż nie mają wątpliwości, że to właśnie posiadane informacje będą języczkiem u wagi, decydującym o przewadze konkurencyjnej. W branży motoryzacyjnej szybkie przetwarzanie danych umożliwi funkcjonowanie w ruchu drogowym autonomicznym samochodom. Przemysł coraz bardziej docenia możliwość szybszego prowadzenia symulacji różnych procesów, zaś handel – usprawniania łańcuchów dostaw. Także dla usługodawców niemożliwa do wyobrażenia staje się obsługa klienta bez udziału systemów IT. Według ekspertów od rynku pracy jednym z tzw. zawodów przyszłości będzie data scientist, a więc ekspert od danych. Ci, którzy będą potrafili w gąszczu bitów i bajtów znaleźć reguły i prawidłowości, a potem przetłumaczyć je na język biznesowy, będą przez zarządy firm noszeni na rękach.

W całej tej celebracji uwielbienia dla danych najbardziej dziwi to, jak wiele osób traktuje je wciąż bez należytego szacunku. Informacje księgowe i kadrowe, prezentacje prototypowch rozwiązań, dokumentacja projektowa, korespondencja z klientami i partnerami – w wielu firmach nie są zabezpieczane nie tylko przed ujawnieniem, ale też przed utratą. Zupełnie niezrozumiały jest brak refleksji odnośnie do konsekwencji braku możliwości uzyskania dostępu do tych danych. Spowolnienie lub chwilowe wstrzymanie pracy będzie jedną z łagodniejszych kar. Złość klientów i np. kryzys w mediach społecznościowych może wpłynąć na spadek zysków. Udziałowcy firmy mogą doprowadzić do zmiany zarządu, a sąd, po udowodnieniu działania niezgodnego z prawem, nałożyć karę, z więzieniem włącznie. Mimo nagłaśniania w mediach wielu przypadków utraty danych przez firmy najbardziej pojętnymi uczniami są ci, który doświadczyli tego na własnej skórze. Jest to jeden z tych obszarów, który resellerzy i integratorzy powinni jak najszybciej „wybadać” u swoich klientów. Mają zresztą nowego sprzymierzeńca. To unijne rozporządzenie o ochronie danych osobowych (GDPR – General Data Protection Regulation), które wejdzie w życie w 2018 r. Otóż nakłada ono drakońskie kary na przedsiębiorców, a także – uwaga! – na ich pracowników, którzy zbyt lekko podchodzą do ochrony danych. Firmy mają więc rok na przygotowanie się do nowej rzeczywistości prawnej. To biznesowa okazja, której nie można przegapić.

KRZYSZTOF JAKUBIK redaktor prowadzący

SPIS TREŚCI 4

Okrągły Stół CRN Polska Zarządzanie danymi i ich ochrona

46

Urządzenia mobilne Subtelny urok nadzorcy

8

Przechowywanie danych W poszukiwaniu kompromisu

50

Zapasowe centra danych Rosną centra danych

20

Backup i archiwizacja Ochrona danych ważniejsza niż kiedyś

56

Zarządzanie aplikacjami Oprogramowanie pod specjalnym nadzorem

32

Nośniki danych Ciężki żywot nośnika danych

64

Analiza danych Analityka dla każdego

38

Zarządzanie obiegiem dokumentów Na dokumentach można zarobić

68

Dane w przedsiębiorstwie Zarządzanie i ochrona VADEMECUM CRN listopad 2016

3


Zarządzanie danymi i ich ochrona

– szansa na dobry biznes Uczestnicy spotkania: Marcin Cichecki, Business Unit Director, Alstor Artur Cyganek, Country Manager, Acronis Bogdan Lontkowski, dyrektor regionalny na Polskę, Czechy, Słowację i kraje bałtyckie, LANDESK Software Damian Przygodzki, Senior Systems Engineer, ABC Data Bartłomiej Stępień, Business Development Representative, QNAP 4

VADEMECUM CRN listopad 2016


Ocena wartości posiadanych przez firmę danych należy wprawdzie do zarządu, ale to przeważnie informatycy zobowiązani są do dbałości o ich przechowywanie i zabezpieczanie. Niestety, przy rosnącej coraz szybciej ilości danych i liczbie zagrożeń, zadanie to często przerasta działy IT. Zdaniem uczestników debaty Okrągły Stół CRN Polska to olbrzymia szansa dla resellerów i integratorów. Ich wsparcie w zarządzaniu najcenniejszym zasobem klientów może okazać się bardzo intratnym biznesem.

Dane to pieniądz

ARTUR CYGANEK, ACRONIS W wielu firmach jest wiedza i świadomość, ale nie ma budżeCRN Czy dziś polscy przedsiębiorcy letów. Często też informatycy lub osoby odpopiej zdają sobie sprawę z wartości posiawiedzialne za zarządzanie informacją mają danych przez ich firmy danych? Przez pomysły na rozwój, tylko nie potrafią oddługie lata za najcenniejszy zasób czępowiednio przedstawić zarządowi korzyści i projekt upada. To może być szansa dla sto uznawano… sprzęt, na którym te daresellerów i integratorów, by wesprzeć adne się znajdują. ministratorów i wejść w rolę konsultanta, zaMARCIN CICHECKI, ALSTOR Niestety, syufanego doradcy. tuacja niewiele się poprawiła. Mniejsze BOGDAN LONTKOWSKI, LANDESK Rzeczywifirmy, których w Polsce jest zdecydowanie najwięcej, nadal bardzo nonszalancko ście, w Polsce jesteśmy dopiero na początku drogi, jeśli chodzi o szacunek do danych. podchodzą do ochrony własnych danych. Zupełnie bez refleksji, że utrata dostępu do Dziwne, że ludzie nie potrafią ocenić ich nich w biurze rachunkowym czy kancelawartości, a przecież gdyby jej nie miały, nikt by ich nie kradł… Dużym i często popełrii prawnej całkowicie uniemożliwi pracę. Nie mówiąc już o innych konsekwencjach, nianym błędem jest także postrzeganie za Artur Cyganek, wartościowe tylko danych osobowych, nieczasem nawet karnych. Natomiast im Acronis zwracanie uwagi chociażby na wypracowaną większa firma, tym jest lepiej. Zwłaszcza że coraz częściej zatrudniane są tam osoprzez firmę własność intelektualną czy inby odpowiedzialne za zapewnienie bezpieczeństwa informacji. formacje księgowe. Systemy CRM najczęściej służą do kontroKolejnego podziału można dokonać w zależności od źródła po- li sprzedawców, a nie do głębokiej analizy danych zebranych chodzenia kapitału. Firmy zagraniczne, których polskie oddziały o klientach. Myślę, że dużo się zmieni, gdy najwięksi usługonierzadko obowiązują podobne procedury jak w centrali, dość dawcy na świecie zaczną zbierać dane o wszystkim i wszystroztropnie podchodzą do ochrony danych. Natomiast postawę kich. Google już pokazał jak wiele informacji można wydobyć naszych rodzimych przedsiębiorców nadal często charaktery- z danych, gdy się je odpowiednio skoreluje. Microsoft i Amazon zuje ułańska fantazja… w tej dziedzinie mają równie agresywne plany. Za pewien czas BARTŁOMIEJ STĘPIEŃ, QNAP Paradoksalnie wiele zależy także od za przykładem tych trzech przedsiębiorstw inne zorientują się wieku firmy. Młodsze działają bardzo prężnie, korzystają z no- wreszcie, że umiejętność analizy danych wiąże się z ogromwoczesnych narzędzi analitycznych, dzięki którym zdobywają nymi zyskami. Ale też, co ciekawe, mimo wszystko jesteśmy więcej informacji. Starsze często dysponują ogromną wiedzą postrzegani na Zachodzie jako dość innowacyjny i szybko rozoraz historią sprzedaży, ale nie widzą w niej potencjału biz- wijający się naród. Gdy opowiadam kolegom z korporacji o pynesowego. Odwiedzając partnerów, sam miałem do czynienia taniach klientów oraz problemach, o których od nich słyszę, z 30-letnim polskim przedsiębiorstwem handlowym, które ma często wyrażają zdziwienie stopniem zaawansowania i dojrzaogromne doświadczenie, sprzedaje w sklepie internetowym, ale łości poruszanych kwestii. Gdyby nie ograniczały nas budżety, nie stara się na przykład przeprowadzić analizy sprzedaży w ce- w dziedzinie IT bylibyśmy jednym z najbardziej zaawansowalu poznania trendów zakupowych. nych rynków na świecie. VADEMECUM CRN listopad 2016

5


MARCIN CICHECKI, ALSTOR Polscy klienci są zainteresowani nowinkami – chętnie uczestniczą w spotkaniach i słuchają o innowacyjnych narzędziach, systemach hiperkonwergentnych, chmurze itd. Natomiast z finansowaniem bywa problem, szczególnie w przypadku najbardziej zaawansowanych produktów, które nie są tanie. Na szczęście sytuacja pod tym względem wolno, ale się poprawia. DAMIAN PRZYGODZKI, ABC DATA Dojrzałość w dziedzinie analizy i zabezpieczania danych polskie przedsiębiorstwa zyskają z czasem. Przykładem są banki, które na brak pieniędzy nie narzekają, dlatego pod względem zaawansowania technicznego są w światowej czołówce. Większość z nich tworzy już profile klientów i na tej podstawie rekomenduje produkty ze swojej oferty. Na pewno mechanizm ten zauważają przedsiębiorcy, którzy przecież także mają rachunki bankowe. Duży wpływ na rozwój infrastruktury ochronnej w firmach będą miały ujawniane przez media włamania do sklepów internetowych czy innych przedsiębiorstw świadczących e-usługi. Obecnie jest bardzo dobry moment dla resellerów i integratorów, aby zaczęli specjalizować się w niszowych dziedzinach, związanych m.in. z analityką, bo wkrótce z ich usług będzie chciała skorzystać znaczna większość polskich firm.

precyzyjne dane o profilach klientów, drudzy zaś zamawiać komunikację marketingową z tymi klientami. Natomiast bardzo ważne jest, aby analityka odbywała się automatycznie, bez udziału człowieka. ARTUR CYGANEK, ACRONIS Big Data to dziedzina, w której warto się specjalizować, chociaż oczywiście trzeba zdobyć zupełnie inne kompetencje niż w przypadku zajmowania się sprzętem lub sieciami. Natomiast z pewnością wyrośnie grupa ekspertów, która będzie doskonale żyła z nowej specjalizacji.

Dla dużych i dla małych

CRN Różnorodność rozwiązań na rynku ma tę zaletę, że można dziś dobrać odpowiednie dla firmy każdej wielkości. Ale czasami bywa to też wadą, bo na przykład nabycie niemożliwej do rozbudowania macierzy dyskowej okazuje się pomyłką, gdy firma klienta szybko urośnie i będzie potrzebowała więcej przestrzeni. Jak radzą sobie resellerzy i integratorzy z przekonywaniem kontrahentów do uruchomienia wyobraźni podczas prowadzenia inwestycji? ARTUR CYGANEK, ACRONIS Jest wiele doświadczonych firm partnerskich, które potrafią uzasadnić konieczność wyboru trochę CRN Czy to oznacza, że także w Polsce przyjmuje się trend większego lub dostosowanego do rozbudowy rozwiązania. NatoBig Data? Dostawcy tego typu rozwiązań wskazywali, że nie miast ci, którzy doświadczenia w tym zakresie nie mają, zawsze ma u nas tak dużych projektów, w przypadku których miało- mogą liczyć na pomoc producenta czy dystrybutora. Kwestia by sens stosowanie rozbudowanych narzędzi analitycznych… skalowalności jest powszechnym problemem, który w pewnym BOGDAN LONTKOWSKI, LANDESK U największych globalnych momencie dotyka każdego klienta. Dlatego wszystkie firmy pograczy, głównie z branży telekomunikacyjnej i finansowej, Big winny być na ten fakt przygotowane. Data funkcjonuje już od jakiegoś czasu, a ogromny potencjał BOGDAN LONTKOWSKI, LANDESK Niestety, kwestia inwestycji jest też w sektorze publicznym. Ale niekoniecznie trzeba posia- w skalowalne rozwiązania często skorelowana jest z możliwościadać ogromną ilość danych, żeby umieć wyciągać interesujące mi finansowymi nabywcy. Firmy wychodzą z założenia, że jeśli biznesowe wnioski z ich analizy. Dużo w tej dziedzinie zmieni nie mają pieniędzy na właściwe rozwiązanie, to kupią cokolwiek, spopularyzowanie się Internetu Rzeczy. Widzę też szansę na często bez sensu, bo nabyty system nie spełni ich oczekiwań, a taki powstanie rynku nowego rodzaju usług – jedni będą gromadzić klient w przypadku braku funduszy powinien raczej zastanowić się nad zmianą stylu myślenia i na przykład wykupieniem usługi rozliczanej abonamentowo. BARTŁOMIEJ STĘPIEŃ, QNAP Czasami można spotkać się z całkowitym brakiem wyobraźni i próbą bezsensownego oszczędzania za wszelką cenę. Kupując najtańszy przełącznik lub dysk sieciowy, trzeba zastanowić się, ile osób będzie z niego korzystało i jakie straty spowoduje ewentualny przestój w pracy. Najczęściej awaria takiego urządzenia przyczynia się do tak dużego spadku przychodów, że nabycie droższego i pewniejszego rozwiązania zwróciłoby się po kilkunastu lub kilkudziesięciu minutach przestoju. DAMIAN PRZYGODZKI, ABC DATA Dlatego warto spojrzeć również na dystrybutora, który nie tylko pełni rolę wyspecjalizowanego doradcy merytorycznego w projektowaniu rozwiązań i ich wdrażaniu, lecz także świadczy inne usługi. Może na Bartłomiej Stępień, Damian Przygodzki, przykład zapewnić resellerowi czy integratorowi QNAP ABC Data pomoc w finansowaniu danego projektu, dzięki cze-

6

VADEMECUM CRN listopad 2016


mu płatność odbędzie się w późniejszym okresie lub nawet w ratach. Ułatwia to klientowi zakup wysokiej jakości sprzętu, a następnie rozliczenie się. BOGDAN LONTKOWSKI, LANDESK Najczęściej rozwiązaniem takiego problemu są usługi świadczone w chmurze publicznej. Jeżeli tylko klient jest gotowy do takiej rewolucyjnej zmiany modelu finansowania, resellerzy powinni go w tym wesprzeć. Ważne jest, żeby nie ucierpiały na tym działania operacyjne usługobiorcy. Najlepiej byłoby, gdyby użytkownicy w pierwszym etapie w ogóle nie zorientowali się, że w pracy korzystają z zasobów zewnętrznego centrum danych.

CRN Chmura rzeczywiście rozwiązuje wieBogdan Lontkowski, Marcin Cichecki, LANDESK Software Alstor le problemów związanych ze skalowalnością i finansowaniem projektów, ale jednocześnie wprowadza niepokój w firmach z kanału dystrybucyjnego IT. Resellerzy podkreślają, że zyski z odsprzeda- trum danych są kopiowane jego pliki. Najważniejsze, poufne lub ży usług chmurowych są nieduże, a dystrybutorzy, że przez często wykorzystywane będą przechowywane w siedzibie firmy, licznych usługodawców są po prostu pomijani w konstruk- ale tysiące innych, m.in. archiwa czy backupy w zaszyfrowanej postaci, mogą znaleźć się w centrum danych usługodawcy. cji łańcucha dostaw… ARTUR CYGANEK, ACRONIS Taka postawa wynika z dość popular- DAMIAN PRZYGODZKI, ABC DATA Odsprzedaż usług chmurowych nego niezrozumienia podstaw biznesu związanego z chmurą. Po to też jedyna szansa dla wielu resellerów, którzy nie mają wiedzy prostu klasyczny model odsprzedaży rozwiązań IT i świadczo- technicznej w danej dziedzinie. Wystarczy, że zdobędą zdecydonych później usług ich utrzymania jest tak silnie zakorzeniony, wanie tańsze w pozyskaniu kompetencje sprzedażowe, a techże trudno się przestawić na inny sposób myślenia. Coraz częściej niczną obsługą zajmą się inżynierowie usługodawcy. Poza tym przedsiębiorstwa rezygnują z własnej księgowości i decydują się najwięksi gracze na rynku, którzy wprowadzili do oferty także na zewnętrzne biura rachunkowe. Wszyscy trzymamy pieniądze usługi chmurowe, praktycznie nie sprzedają ich bezpośrednio. w bankach i nie mamy problemu z przekazaniem firmom trzecim Stworzyli bardzo zaawansowane programy partnerskie i nadal tak wrażliwych informacji. Dlatego oczywiście główną blokadę oferują te usługi przez kanał dystrybucyjny, bo sami nie są w stastanowi mentalność decydentów i to nad jej zmianą wszyscy po- nie dotrzeć do wszystkich potencjalnych klientów. winniśmy pracować. ARTUR CYGANEK, ACRONIS Po prostu trzeba zupełnie zmienić spoMARCIN CICHECKI, ALSTOR Przeprowadzone analizy pokazują, że sób postrzegania biznesu. Na przykład w Czechach powstał dysdla bardzo wielu przedsiębiorstw, które chcą mieć stały i prze- trybutor, który w ofercie ma tylko usługi Software as a Service. widywalny przychód, podpisanie umowy abonamentowej jest W ogóle nie buduje sklepu internetowego, nie chce dystrybuo wiele korzystniejsze niż praca projektowa. Dzisiaj mogę zdo- ować zwykłych licencji ani współpracować z użytkownikami być projekt, ale jutro może zdobyć go konkurencja. Tymczasem, końcowymi. Specjalizuje się wyłącznie w reprezentowaniu progdy mam podpisaną umowę, przez długi czas będę świadczył ducentów podczas odsprzedaży usług resellerom. Ze względu na usługę lub czerpał zysk z jej odsprzedaży. Jednocześnie spadnie pojawianie się takich firm za pewien czas klasyczni dystrybutoryzyko wyboru innej firmy przez klienta, bo w przypadku usług rzy też będą musieli zastanowić się nad swoją strategią i rozwam.in. migracja danych jest trudniejsza. żyć możliwość odsprzedaży usług. BARTŁOMIEJ STĘPIEŃ, QNAP Wielu firmom, szczególnie z mniej- BOGDAN LONTKOWSKI, LANDESK Warto zauważyć, że strateszych miejscowości, nadal przeniesienie się do chmury utrud- gia wielu globalnych dostawców jest różna, w zależności od nia szybkość dostępnych łączy internetowych. Ma to znaczenie stopnia rozwoju rynku i jego dojrzałości. W krajach, gdzie jest szczególnie tam, gdzie przetwarzanych jest dużo danych, do niewielu potencjalnych klientów bądź brak resellerów o okrektórych trzeba mieć regularny dostęp. Ale zgadzam się, że ra- ślonych kompetencjach, mogą spróbować bezpośredniej sprzechunek ekonomiczny będzie miał decydującą rolę w podejmo- daży usług. W innych zaś będą oferowali je za pośrednictwem waniu decyzji. kanału partnerskiego. Takie same mechanizmy dotyczą zresztą MARCIN CICHECKI, ALSTOR Chmura zapewnia też wyjście kom- wprowadzania na rynek klasycznych rozwiązań IT. promisowe. Na przykład korzystając z niektórych usług typu ROZMAWIAŁ KRZYSZTOF JAKUBIK Storage as a Service, użytkownik może wybrać, do którego cenVADEMECUM CRN listopad 2016

7

Fot. Focus Images

Usługi w kanale


Fot. © mnirat – Fotolia.com

PRZECHOWYWANIE DANYCH

W poszukiwaniu kompromisu Kwestie związane z przechowywaniem firmowych danych często są nonszalancko traktowane przez przedsiębiorców. Tymczasem, gdyby zwrócili większą uwagę na posiadane pamięci masowe, być może rozwiązaliby wiele swoich problemów, np. z wydajnością środowiska IT. KRZYSZTOF JAKUBIK

O

tym, że w Polsce firmy nie przykładają należytej wagi do swoich systemów pamięci masowych, wiadomo nie od dziś. Od lat wszyscy główni dostawcy tych produktów podkreślają, że użytkownicy niemal zawsze wybierają urządzenia z dolnej półki. Chlubny wyjątek stanowią duże korporacje, które kupują sprzęt do swoich centrów danych i firmy świadczące

8

VADEMECUM CRN listopad 2016

usługi IT na dużą skalę. W pozostałych przypadkach przyczyną obecnego stanu rzeczy jest zwykle mała ilość przetwarzanych danych. Nie zmienia to faktu, że nawet mniejsi przedsiębiorcy powinni spojrzeć na zagadnienie szerzej. Bardziej rozbudowane systemy pamięci masowych umożliwiają budowę środowiska IT odpornego na awarie, w którym usterka sprzętu czy nawet katastrofa nie

spowodują przestoju. Markowy sprzęt gwarantuje też wysoką wydajność, czego nie zawsze można oczekiwać po najtańszych produktach. Kolejna kwestia wiąże się z „inteligentnym” oszczędzaniem. Pamięci masowe to bowiem jedno z niewielu rozwiązań IT, w przypadku których oszczędzać należy nie tyle w momencie ich kupowania, ile podczas późniejszej eksploatacji. Obsza-


rów, w których można ograniczyć wydatki, jest w tym wypadku wiele. Firmy, które potrzebują przechowywać zarówno pliki, jak i bloki (bazy danych), powinny rozważyć nabycie macierzy dyskowej typu unified, która umożliwia gromadzenie danych w obu postaciach. Urządzenia tego typu znajdują się w sprzedaży już od dekady, ale – co dziwne – nie są często stosowane przez administratorów. Zazwyczaj wolą oni kupić dwa oddzielne urządzenia – serwer NAS do przechowywania plików i zwykłą macierz, której pojemność jest udostępniana serwerom przez sieć SAN. Takie podejście ma sens tylko w przypadku bardzo dużych środowisk, gdzie ilość przetwarzanych danych liczona jest w dziesiątkach lub setkach terabajtów. W mniejszych spokojnie można wdrożyć macierz uniwersalną. Warto jednak zwrócić uwagę, w jaki sposób realizowany jest w niej dostęp do przechowywanych plików. Część oferowanych na rynku produktów to zwykłe macierze blokowe, do których dodawane jest oddzielne urządzenie (tzw. głowica NAS) zapewniające odczyt plików. Taka konstrukcja negatywnie wpływa na wydajność rozwiązania, a obecność dodatkowego sprzętu zwiększa prawdopodobieństwo przestoju systemu w chwili awarii. Dlatego warto rozważyć zakup macierzy z kontrolerem standardowo zapewniającym obsługę plików i bloków.

NOWOCZESNY SPRZĘT – MNIEJSZE KOSZTY Niemałe oszczędności można uzyskać w związku z wymianą macierzy na nowy model, chociażby ze względu na brak wystarczającej mocy obliczeniowej kontrolera lub rosnące ceny wsparcia technicznego. Proces ten z reguły jest dość skomplikowany i długotrwały. W ekstremalnych przypadkach tego typu migracja trwa nawet rok. Dlatego warto przyjrzeć się urządzeniom, które umożliwiają rozbudowę do nowszego modelu przez wymianę kontrolera macierzowego. Obudowa, zasilacze, wentylator i – co najważniejsze – twarde dyski z danymi pozostają te same (data in place). Bardzo ważne jest też zmniejszenie objętości przechowywanych danych

przez deduplikację i kompresję, dostępne w coraz większej liczbie macierzy dyskowych. Kompresja sprawdza się dobrze w przypadku każdego rodzaju danych, które nie są skompresowane z natury (tak jak pliki multimedialne czy zdjęcia), a szczególnie w bazach danych. Deduplikacja natomiast dobrze działa w środowiskach wirtualnych, a przede wszystkim przy wirtualizacji desktopów. W korporacji bowiem praktycznie każdy z nich bazuje na takim samym „złotym” obrazie systemu operacyjnego. Natomiast równoległe korzystanie z obu sposobów nie ma większego sensu, bo pożytek z odzyskanej przestrzeni będzie niewiele większy, niż gdyby klient

Wdrożenie macierzy dyskowej to dopiero początek drogi. korzystał tylko z jednego z dwóch rozwiązań. Poza tym zarówno deduplikacja, jak i kompresja wpływają negatywnie na wydajność macierzy. Warto więc stosować je głównie w bardziej wydajnych urządzeniach i tylko wtedy, gdy mamy pewien zapas mocy obliczeniowej. W przypadku macierzy zawierających dużą liczbę twardych dysków znaczny koszt stanowi też pobierana przez nie energia elektryczna. Jeżeli klient ze względów finansowych nie zdecyduje się na urządzenie typu all-flash, można mu zaproponować model wyposażony w mechanizm spowalniania pracy bądź wręcz wyłączania nieużywanych w danym momencie twardych dysków. – Takie rozwiązanie praktycznie wcale nie wpływa na spadek wydajności, a zapewnia duże oszczędności. Przy włączonym trybie pracy ekologicznej w skali roku spadek pobieranej mocy wynosi nawet 40 proc. – mówi Wojciech Wróbel, product manager ds. pamięci masowych w Fujitsu TS.

PROBLEMY ZE SKALOWALNOŚCIĄ Kupno i wdrożenie macierzy dyskowej to dopiero początek drogi. Prawdziwe wyzwanie pojawia się, gdy urządzenie przestaje wystarczać z powodu nadmiernego obciążenia lub braku możliwości dołożenia kolejnych dysków. Niemożność rozbudowy to ślepy zaułek i w takie urządzenia można inwestować wyłącznie wtedy, gdy firma ma niewielkie potrzeby, a sprzęt kupowany jest z bardzo dużym zapasem, zarówno mocy obliczeniowej, jak też przestrzeni na dodatkowe dyski. Macierze dyskowe można rozbudowywać na trzy sposoby. Podstawowy (scale-in) to dołożenie dodatkowych dysków lub kontrolerów wewnątrz głównej obudowy. Najbardziej popularny model (scale-up) to instalacja tzw. półek dyskowych z dodatkowymi napędami, ale bez kontrolerów, a więc bez zwiększania mocy obliczeniowej przekładającej się na wydajność. W ramach kolejnego modelu (scale-out) do urządzenia dokładane są półki dyskowe zawierające zarówno napędy, jak i kontroler, dzięki czemu zapewniona jest dodatkowa pojemność i wydajność. – Macierze, które można rozbudowywać w modelu scale-out, są coraz mniej popularne i obecnie powoli wycofywane z rynku – mówi Artur Capiga, inżynier wsparcia technicznego w ABC Data Value+. – Moc obliczeniowa kontrolerów instalowanych w macierzach jest dziś tak duża, że w większości przypadków model scale-up jest zupełnie wystarczający. Firmy, które potrzebują rozbudować wydajność macierzy, dodają dyski SSD, konfigurując je jako rozszerzenie pamięci cache lub też jako bardzo wydajną przestrzeń na dane. Korzystają również z możliwości wymiany kontrolerów na wydajniejsze albo kupują nowsze, bardziej wydajne urządzenie. Zdaniem niektórych firm rozwiązanie problemu skalowalności przyniesie model Software Defined Storage. W dużym uproszczeniu polega on na tym, że serwer z oprogramowaniem zarządzającym agreguje dostępne w firmowej sieci urządzenia dysponujące możliwą do zapisania przestrzenią. Należą do nich macierze, zainstalowane w serwerach dyski, karty PCIe z chipami flash, a czasem nawet pamięć operacyjna serwerów. Aplikacja SDS analizuje częstotliwość VADEMECUM CRN listopad 2016

9


PRZECHOWYWANIE DANYCH zapisu i odczytu poszczególnych informacji i w zależności od tego umieszcza je na wolniejszych lub szybszych nośnikach (automated storage tiering). W zamyśle twórców tego typu rozwiązań jest eliminacja konieczności kupowania nowych systemów sprzętowych. Zamiast tego proponują bardziej optymalne wykorzystanie już posiadanych i ewentualne uzupełnienie ich o karty PCIe, które gwarantują wzrost wydajności całego środowiska. Przeprowadzone testy, m.in. przez niezależną organizację Storage Performance Council, wykazały, że pod względem wydajności rzeczywiście jest to skuteczna metoda i, co ważne, najtańsza. Ale jej przeciwnicy wskazują, że wiąże się ona ze zbyt dużym rozdrobnieniem nośników ważnych firmowych informacji i powstaniem wielu pojedynczych punktów awarii.

W TROSCE O WYSOKĄ DOSTĘPNOŚĆ

Zapewnienie odpowiedniej wydajności systemu pamięci masowych gwarantuje możliwość korzystania z danych. W dużych środowiskach nagły spadek wydajności macierzy i związana z nim przerwa w pracy aplikacji traktowane są jak awaria sprzętu, gdyż w efekcie pracownicy nie są w stanie obsługiwać klientów. Dlatego część producentów zapewnia w macierzach mechanizmy Quality of Service (QoS) gwarantujące dostępność zasobów dla poszczególnych aplikacji. Ich konfiguracja przysparza jednak trochę problemów mniej doświadczonym administratorom. Pojawiły się więc urządzenia, w których to kontroler macierzowy i zainstalowane w nim oprogramowanie dba o rezerwację właściwej ilości zasobów, bazując na ciągłej obserwacji i analizie ich wykorzystania przez aplikacje (Auto QoS).

Maciej Kaczmarek VAR Account Manager, Netgear

Klientom warto proponować serwery NAS, które zapewniają integrację z usługami chmurowymi. Nawet jeśli firma na razie z chmury nie korzysta, powinna mieć tę furtkę otwartą. Żadna macierz dyskowa w serwerowni klienta nie zapewni tak taniego przechowywania danych jak dostępne dziś usługi. Dlatego, z czysto ekonomicznego powodu, wkrótce znaczna większość przedsiębiorstw będzie przechowywała swoje kopie zapasowe czy dane nieobjęte szczególną klauzulą poufności właśnie w centrach danych firm trzecich.

Ale rozwiązań, które związane są z zapewnieniem wysokiej dostępności, jest znacznie więcej. Przede wszystkim warto zainteresować się możliwością prowadzenia replikacji do drugiego urządzenia – w tej samej lub oddalonej serwerowni. Naturalnie wiąże się to z podwojeniem wydatków, ale rachunek ewentualnych strat wynikających z przestoju może pokazać, że to się opłaca. Warto też sprawdzić, czy dana macierz zapewnia replikację na drugie urządzenie tego samego producenta bez pośrednictwa dodatkowego serwera.

BŁYSKAWICZNE PAMIĘCI Od kilku lat rynek szturmem zdobywają nośniki z pamięcią flash. Twarde dyski bowiem pozostały ostatnim mechanicznym komponentem w urządzeniach IT (nie licząc wentylatorów oczywiście), a ich wydajność praktycznie nie wzrosła przez ostatnią dekadę. Kości flash najpierw były wykorzystywane głównie w urządzeniach konsumenckich, ze względu na wysoką cenę oraz zbyt niską trwałość, która nie wystarczała do profesjonalnych zastosowań. Finalnie jednak producenci, upatrujący w dyskach SSD szansy na wzrost wydajności macierzy, zdecydowali się na proponowanie ich klientom biznesowym.

Radomir Bordon dyrektor technicznego wsparcia sprzedaży, Dell EMC

Obecnie inwestycje w macierze hybrydowe z dyskami HDD i SSD mają największy sens tylko w przypadku składowania danych niestrukturalnych oraz najmniej krytycznych aplikacji. Natomiast dla wszystkich systemów transakcyjnych oraz aplikacji o kluczowym znaczeniu podstawowym rozwiązaniem stają się platformy macierzowe typu all-flash.

10

VADEMECUM CRN listopad 2016

Macierze all-flash można podzielić na trzy grupy. Pierwsza to zwykłe macierze dyskowe, do których producent dostarcza także dyski SSD. Zapewniają one znaczny wzrost wydajności, ale warto pamiętać, że w większości przypadków wydajność kontrolera była planowana z uwzględnieniem tylko twardych dysków. Po zainstalowaniu pamięci SSD w skrajnych przypadkach (przede wszystkim w mniejszych serwerach NAS) sytuacja może się odwrócić i to kontroler (a nie – jak wcześniej – twarde dyski), może stanowić wąskie gardło. Druga grupa urządzeń to macierze zaprojektowane od podstaw do pracy z dyskami SSD lub specjalnymi modułami pamięci flash. Gwarantują największą wydajność, bo ich kontrolery od początku były przystosowane do pracy z tego typu nośnikiem. Trzecia grupa to macierze ze zmodyfikowanym – pod względem wydajności – kontrolerem, w których można zainstalować zarówno dyski SSD, jak i HDD oraz automatycznie przenosić między nimi dane, w zależności od tego, jak często są wykorzystywane (tiering). Czynnikiem, który najbardziej odstrasza klientów zainteresowanych macierzami all-flash, jest cena. Nawet, gdy ich zakup jest uzasadniony ze względów wydajnościowych, wydatek rzędu kilkudziesięciu lub kilkuset tysięcy dolarów często przeraża. Dlatego twórcy kości flash nie ustają w modernizowaniu swoich produktów. Nowy standard 3D NAND TLC zapewnia dobrą wydajność za ułamek ceny wcześniej oferowanych pamięci. Niestety, odbywa się to także kosztem trwałości zapisanych danych. Dlatego wciąż trwają dysputy, czy nośniki te powinny być wykorzystywane do przechowywania najbardziej cennych danych.


All-Flash. Pełna kontrola nad wydajnością.

FUJITSU Storage ETERNUS AF Czas na macierze zapewniające bezkompromisową wydajność dla Twoich aplikacji. Wyeliminuj zbędne ryzyko i korzystaj z legendarnej japońskiej niezawodności. Przystępna cena technologii Flash gwarantuje zachowanie pełnej kontroli nad budżetem. Wszystkie korzyści ze stosowania pamięci masowych All-Flash są w zasięgu Twojej firmy. Elastyczność parametrów i zaawansowane funkcje klasy Enterprise w przystępnej cenie – takie możliwości oferują tylko nowe macierze FUJITSU ETERNUS AF. ■ Kontrola mocy obliczeniowej macierzy ETERNUS AF – unikalna wydajność operacji I/O i bezkonkurencyjne czasy dostępu do Twoich danych. ■ Kontrola priorytetów obsługi – swoboda selektywnego dopasowania parametrów pracy dla najbardziej wymagających platform i aplikacji, bez względu na złożoność środowiska IT. ■ Kontrola nad dynamiką danych – szybka i łatwa obsługa zaawansowanych funkcji QoS (Quality of Services) ■ Kontrola kosztów składowania danych – deduplikacja i kompresja danych zwiększające efektywnośc inwestycji.

Intel Inside®. Intel zapewnia potężne centrum danych. Odwiedź stronę bcs.pl.fujitsu.com i przekonaj się sam jak macierze FUJITSU ETERNUS AF wprowadzą bezpiecznie technologię Flash do Twojej firmy. Albo skontaktuj się z nami już dziś: e-mail: partner.pl@ts.fujitsu.com tel. +48 22 574 10 00

Procesor Intel® Xeon®

© Copyright 2016 Fujitsu Technology Solutions GmbH. Fujitsu, logo Fujitsu i nazwy marek Fujitsu są znakami towarowymi lub zarejestrowanymi znakami towarowymi Fujitsu Limited w Japonii i innych krajach. Nazwy produktów i usług innych firm mogą być znakami towarowymi lub zarejestrowanymi znakami towarowymi ich właścicieli, a ich użycie przez firmy trzecie do własnych celów może naruszać prawa ich właścicieli. Dane techniczne mogą ulec zmienie, dostawa towarów zależy od dostępności towaru. Wykluczona jest odpowiedzialność, że dane i ilustracje są kompletne, rzeczywiste lub poprawne. Intel, logo Intel, Xeon i Xeon Inside są znakami towarowymi firmy Intel Corporation w U.S.A. i w innych krajach.


PRZECHOWYWANIE DANYCH

Alstor: pamięci masowe dla każdego Alstor od prawie trzech dekad specjalizuje się w sprzedaży pamięci masowych, do dziś rozwiązania te stanowią trzon oferty dystrybutora. Znajdują się w niej zarówno systemy taśmowe, proste i rozbudowane macierze dyskowe, jak i nośniki oraz komponenty. Każdy reseller i integrator znajdzie sprzęt i oprogramowanie dostosowane do potrzeb klientów.

O

ferta firmy Alstor związana z przechowywaniem i zabezpieczaniem danych zawsze charakteryzowała się unikalnością. Nie tylko ze względu na szeroką gamę produktów, ale także ich uważny dobór. Dystrybutor regularnie wprowadza na rynek rozwiązania, które innowacyjnością wyprzedzają epokę. Przykładem może być oprogramowanie do wirtualizacji pamięci masowych firmy StarWind Software, która opracowała od podstaw własny system plików dla macierzy RAID zawierających dyski HDD i SSD (więcej na ten temat na str. 19). Alstor jest też jedynym dystrybutorem specjalizującym się w archiwizacji danych na nośnikach optycznych, stosowanej najczęściej w placówkach medycznych.

MACIERZE DO DUŻYCH PLIKÓW Wartym uwagi urządzeniem w portfolio produktów marki Promise Technology, dystrybuowanych przez Alstor, są macierze dyskowe VTrak serii E. Wykorzystuje się je w największych środowiskach obliczeniowych i backupowych na świecie. Mogą być stosowane w projektach Big Data, do przechowywania wirtualnych maszyn oraz obrazów w systemach wideomonitoringu. Doskonale sprawdzają się też w przemyśle filmowym, ponieważ gwarantują stałą, dużą wydajność, bez opóźnień i zgubionych klatek. Macierz VTrak E umożliwia stworzenie środowiska pamięci masowej wysokiej dostępności i bez pojedynczego punktu awarii dzięki zastosowaniu podwójnego kontrolera działającego w trybie active/active. Kontroler został przystosowany do obsługi aplikacji wymagających dużej liczby operacji wejścia-wyjścia przy zapisie sekwencyjnym dużych bloków. Wyposażono go w wydajne procesory Intel Xeon C3500 nowej generacji, a na karcie interfejsu umieszczono cztery porty Fibre Channel 8 Gb/s (gwarantują czterokrotnie większą wydajność niż w przypadku

12

VADEMECUM CRN listopad 2016

urządzeń poprzedniej generacji – do 5,5 GB/s podczas odczytu i 2,4 GB/s podczas zapisu). W macierzach VTrak można korzystać z dysków HDD i SSD 3,5 lub 2,5 cala (NL-SAS i SATA; dopuszczalne jest jednoczesne stosowanie napędów obu standardów). Promise Technology oferuje dwa modele – E630 i E830. Umożliwiają one instalację odpowiednio 16 lub 24 dysków. Użytkownicy potrzebujący większej pojemności (np. operujący w postprodukcji na nieskompresowanych materiałach w jakości HD) mogą skorzystać z modułów rozszerzających VTrak J630 (16 dysków), J830 (24 dyski) lub J930 (60 dysków). Do macierzy VTrak E można podłączyć ich aż dziewięć, co daje w sumie pojemność 564 dysków. Także w obudowach rozszerzających zapewniona została pełna redundancja, typowa dla rozwiązań klasy enterprise. Podwójne zasilacze i wentylatory minimalizują czas przestoju i zakłócenia w ciągłości działania biznesu. Twarde dyski i wszystkie komponenty można wymieniać, nie przerywając pracy urządzenia.

WYDAJNOŚĆ I NIEZAWODNOŚĆ Alstor ma także w ofercie macierze dyskowe EonStor DS 3000/2000/1000 firmy Infortrend. Wykorzystano w nich najnowsze technologie, dzięki czemu odznaczają się dużą skalowalnością pojemności (do 360 dysków), wysoką wydajnością


BACKUP DYSKOWY Z DEDUPLIKACJĄ

Firma ExaGrid jest producentem skalowalnego rozwiązania sprzętowego do backupu dyskowego z funkcją deduplikacji. To

Dodatkowe informacje: JERZY ADAMIAK, STORAGE SYSTEMS CONSULTANT, ALSTOR, J.ADAMIAK@ALSTOR.COM.PL VADEMECUM CRN listopad 2016

13

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ ALSTOR.

(1,3 mln operacji I/O) i sprawdzoną niezawodnością (redundantne komponenty sprzętowe wymieniane metodą hot-swap). Macierze EonStor DS ułatwiają ograniczenie kosztów funkcjonowania środowiska pamięci masowych. Wraz ze sprzętem dostarczana jest bowiem licencja na thin provisioning (dynamiczne przydzielanie przestrzeni dyskowej, dzięki czemu nie trzeba kupować pojemności na zapas). A zmniejszenie zużycia energii zapewniają wydajne zasilacze, inteligentne chłodzenie (prędkość wentylatorów dostosowana jest do obciążenia macierzy) i funkcja spowalniania dysków. Wiele funkcji wbudowanych w macierze Infortrend gwarantuje dużą integralność danych. Przeprowadzanie ich automatycznego skanowania w celu wykrycia ewentualnych błędów i naprawy odbywa się bez wpływu na wydajność, bo proces przebiega w tle i w czasie niższego nasilenia pracy macierzy. W rezultacie zapewniona jest niezbędna integralność nośnika, a ryzyko utraty danych znacząco zmniejszone. W macierzach serii DS 3000/2000/1000 zastosowano nowy, przyjazny interfejs użytkownika SANWatch 3.0, który ułatwia zarządzanie pamięcią masową. System EonStor DS gwarantuje znacznie szybszą odbudowę wolumenów niż konkurencyjne rozwiązania. Proces ten rozpoczyna się automatycznie, jak tylko jest to konieczne, bez kolejkowania lub priorytetyzowania zadań. EonStor DS przeprowadza tę operację bez zabierania przepustowości operacjom I/O, redukuje związane z tym procesem ryzyko obciążenia systemu i minimalizuje wpływ na wydajność. Dzięki temu odbudowa jest nie tylko szybsza, ale również nie blokuje pracy macierzy.

jedyne rozwiązanie stworzone specjalnie z myślą o wykonywaniu kopii zapasowych, które korzysta z unikalnej architektury zoptymalizowanej pod kątem skalowalności, wydajności i ceny. Zapewnia ono szybkie, sprawne tworzenie kopii zapasowych ze stałym oknem backupowym, które nie wydłuża się nawet w miarę zwiększania ilości danych. Odzyskiwanie utraconych informacji odbywa się błyskawiczne, niezależnie od tego, czy trzeba przywrócić pojedyncze pliki, cały system operacyjny, czy maszyny wirtualne (korzystając z funkcji ich natychmiastowego odtwarzania – instant recovery). Opatentowana przez ExaGrid deduplikacja strefowa (zone-level deduplication) równolegle wykonuje kopię zapasową i eliminuje powtarzające się bloki danych, co znacznie skraca czas potrzebny na przeprowadzenie backupu. Współczynnik deduplikacji wynosi od 10:1 do aż 50:1. Urządzenie firmy ExaGrid jest idealne dla firm, które chcą zrezygnować z backupu taśmowego. Pozwala zredukować czas tworzenia codziennych kopii zapasowych nawet o 90 proc. (z ok. 12 godz. do zaledwie 2–3 godz.). Przedsiębiorstwa, które korzystają z taśm, aby wywieźć nośnik z kopią danych poza swą siedzibę, mogą zastosować funkcję replikacji do bliźniaczego urządzenia ExaGrid, zainstalowanego w innym, odległym miejscu. ExaGrid obsługuje także topologię typu multi-site, w której dane można przesyłać z wielu różnych miejsc do centralnej serwerowni, aby umożliwić ich odzyskanie w razie awarii. Transfer danych jest wyjątkowo wydajny, ponieważ deduplikacją objęte są wyłącznie zmienione bloki, co minimalizuje potrzebną przepustowość. W ten sposób ExaGrid zapewnia znaczne ograniczenie lub nawet likwidację kosztów związanych z użytkowaniem, transportem i przechowywaniem nośników taśmowych. ExaGrid współpracuje z wszystkimi popularnymi aplikacjami do backupu, dzięki czemu firmy nie muszą zmieniać zdefiniowanych procedur ochrony danych przed utratą. Wystarczy przekierować istniejące zadania backupowe do urządzeń tej marki. W razie potrzeby aplikacja backupu może stworzyć kopie z systemu ExaGrid i przesłać je bezpośrednio np. do biblioteki taśmowej w innej lokalizacji. Urządzenia ExaGrid przechowują ostatni backup także w niezdeduplikowanej postaci. Zapewnia to błyskawiczne odzyskanie dostępu do informacji, ponieważ nie jest wymagane „składanie” danych z małych bloków ani użycie dużych tablic z sygnaturami bloków. Dostępnych jest 10 modeli urządzeń tej marki oferujących pojemność od 1 do 32 TB (przed deduplikacją). W ramach jednego środowiska backupu można połączyć ze sobą nawet 25 różnych urządzeń (struktura GRID). Rozbudowa odbywa się w trybie plug and play, wystarczy więc podłączyć nowy sprzęt i poczekać, aż oprogramowanie zarządzające siecią GRID zwirtualizuje nową pojemność puli backupu.


PRZECHOWYWANIE DANYCH BEZPIECZNE, NIEZAWODNE I WYDAJNE…

Uniwersalne macierze Infortrend Systemy dyskowe Infortrend EonStor GS umożliwiają przechowywanie i udostępnianie w sieci plików, bloków danych i obiektów, jak też są w stanie komunikować się z usługami chmurowymi.

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ INFORTREND.

W

budowanymi w macierze funkcjami umożliwiającymi automatyczne przesyłanie danych do chmury i zarządzanie nimi interesuje się coraz większa liczba klientów. Według analityków Gartnera w 2019 r. aż 80 proc. różnych funkcji zapewniających korzystanie z chmury będzie standardowo instalowanych we wszystkich produktach służących do przechowywania danych. Odpowiedzią firmy Infortrend na to zapotrzebowanie jest rodzina macierzy dyskowych EonStor GS przechowujących różnego typu dane w jednym uniwersalnym urządzeniu o wysokości 2U, 3U lub 4U. W przypadku większości konkurencyjnych rozwiązań uzyskanie tak dużej uniwersalności nie jest możliwe i trzeba kupić dodatkowy sprzęt, który nie tylko zabiera miejsce w serwerowni i wpływa na zwiększony pobór energii, ale także komplikuje zarządzanie systemem przechowywania danych i spowalnia jego pracę.

Z MACIERZY DO CHMURY Systemy dyskowe Infortrend EonStor GS wyposażono w komplet funkcji komunikujących się z zasobami w chmurze (usługi Alibaba AliCloud, Amazon S3, Google Cloud, Microsoft Azure oraz OpenStack Swift). Użytkownicy mogą przede wszyst-

14

VADEMECUM CRN listopad 2016

Darmowy bilet do chmury Do końca 2016 r. w Infortrend trwa promocja, w ramach której nabywcy macierzy EonStor GS mogą otrzymać bezpłatną licencję na wszystkie funkcje umożliwiające korzystanie z usług chmurowych.

kim wykorzystywać zasoby w centrum danych usługodawcy jako kolejną warstwę danych. Macierz EonStor GS automatycznie, bazując na obliczeniach wbudowanego, inteligentnego algorytmu, przenosi tam dane archiwalne lub te, z których dawno już nikt nie korzystał. Dzięki temu pojemność macierzy dyskowych staje się praktycznie nieskończona, co rozwiązuje wszystkie problemy ze skalowalnością. Przestrzeń w chmurze może być także wykorzystana do przechowywania kopii zapasowych zgromadzonych w macierzy danych. Ma to szczególne znaczenie dla firm, które nie dysponują własnymi zapasowymi centrami danych. W takiej sytuacji backup realizowany jest w modelu D2C (disk to cloud) oraz D2D2C (disk to disk to cloud).

W macierzach Infortrend zapewniono bardziej niezawodną niż w konkurencyjnych rozwiązaniach ochronę danych znajdujących się w pamięci cache. Zastosowano w nich tzw. superkondensator, który chroni dane, znajdujące się w kościach pamięci operacyjnej, przed utratą. W większości oferowanych na rynku macierzy stosowane są specjalne, podtrzymujące zasilanie moduły bateryjne, które co pewien czas wymagają wymiany, a w przypadku awarii mogą stanowić źródło ognia i doprowadzić do pożaru w serwerowni. Większą dostępność danych zapewnia także funkcja IDR (Intelligent Drive Recovery). Dba ona o ciągłą weryfikację aktualnego stanu twardych dysków i ostrzega administratorów o ryzyku wystąpienia problemów. Dzięki temu mogą oni działać proaktywnie i unikać stresującego procesu odbudowywania struktury macierzy RAID w przypadku całkowitej awarii jednego z napędów. Maksymalna wydajność macierzy EonStor GS, którą udało się uzyskać w testach, wynosi 450 tys. operacji wejścia-wyjścia na sekundę (IOPS). Bloki danych były zapisywane i odczytywane z maksymalną prędkością – odpowiednio – 6,4 oraz 11 Gb/s. We wszystkich modelach macierzy można wykorzystywać dyski SSD ( jako jedną z warstw lub w całości wypełnić nimi urządzenie, a także jako rozszerzenie pamięci cache). Istnieje też możliwość replikacji do innej macierzy znajdującej się w tym samym lub oddalonym centrum danych. Łatwość obsługi macierzy EonStor GS zapewnia panel administratora EonOne. Gwarantuje on dostęp do każdego rodzaju zapisywanych danych (plików, bloków, obiektów, chmury) oraz ułatwia monitorowanie stopnia wykorzystania urządzenia. Dystrybutorami urządzeń Infortrend w Polsce są Alstor i Veracomp.

Dodatkowe informacje: LUCIE KLAUDOVA, SALES ACCOUNT MANAGER, INFORTREND, LUCIE.KLAUDOVA@INFORTREND.COM


Bezpieczne przechowywanie danych w systemach actidata Niemiecka actidata nieustannie rozwija ofertę rozwiązań do przechowywania danych na taśmach magnetycznych. Rozbudowuje automatykę taśmową o pojemniejsze i wydajniejsze napędy (np. LTO-7) oraz wprowadza do sprzedaży nowe systemy. W ofercie producenta pojawiła się też nowa rodzina macierzy dyskowych. polega na dokładaniu kolejnych dysków lub półek dyskowych do istniejącego węzła albo dodawaniu kolejnych węzłów. Rozproszona architektura klastrowa systemu actiStore gwarantuje, iż wszystkie węzły mogą równolegle uczestniczyć w procesie zapisu i odczytu, co przekłada się na wysoką wydajność. W ten sposób eliminuje się także ryzyko „wąskiego gardła”, które mogłoby powstać z powodu przeciążonych węzłów, a także zapewnione zostaje efektywne wykorzystanie dostępnej przestrzeni dyskowej ( jest zapełniona w ponad 80 proc.).

SKALOWALNE I WYDAJNE

BEZPIECZEŃSTWO DANYCH

Wyznając zasadę, że w procesie zabezpieczania i archiwizacji danych nigdy nie należy ufać tylko jednej technologii, actidata wprowadziła do oferty nowe rozwiązanie actiStore, wykorzystujące węzły storage z zainstalowanymi dyskami HDD oraz SSD. W ramach tej wielofunkcyjnej platformy klient otrzymuje skalowalną przestrzeń dyskową m.in. do przechowywania archiwów, kopii zapasowych, w celu obsługi środowisk wirtualnych, repozytorium dla usług Active Directory oraz udostępniania i współużytkowania plików. Jedną z najważniejszych zalet actiStore jest wysoka skalowalność – pojedynczy węzeł o minimalnej pojemności 12 TB można rozszerzyć w bardzo prosty sposób aż do 512 PB w ramach jednego systemu. Bardzo szybka rozbudowa (ok. 60 s)

NIEZRÓWNANE actiStore ma architekturę rozproszoną (klastrową), w ramach której można wybrać poziom ochrony dla składowanych danych, w zależności od ich ważności. Dla systemu plików można np. wybrać ochronę w modelu N+1, gdzie dostępność danych będzie zachowana w przypadku awarii jednego węzła. Natomiast dla ważniejszych danych wybiera się poziomy N+2, N+3 itd., które gwarantują dostępność danych nawet w przypadku awarii wielu węzłów. Dane rozmieszczone w węzłach są widoczne dla serwerów jako jeden zasób i równomiernie balansowane. W zależności od wymagań ustalonych w umowie SLA, administrator definiuje stopień ochrony przechowywanych danych w obrębie grupy węzłów i/lub na pojedynczych węzłach.

Arthur Kilian Development and Sales Director, actidata CEE

Producenci systemów dyskowych nieustannie i bardzo chętnie rozgłaszają plotki o tym, że rozwiązania taśmowe są przestarzałe i już praktycznie zniknęły z centrów przetwarzania danych. Takie informacje są z pewnością bardzo przesadzone. Rzeczywiście, dzisiaj rzadziej taśmy są wykorzystywane do backupu danych i w tej dziedzinie zastępowane są przez dyski, ale nadal nie ma bardziej korzystnego finansowo nośnika do długotrwałej archiwizacji danych. Sprzedaż systemów taśmowych utrzymuje się na stałym poziomie i nic nie wskazuje, aby miało się to zmienić w najbliższej przyszłości.

W przypadku wystąpienia awarii wszystkie dostępne węzły uczestniczą w procesie odbudowy, co znacząco przyspiesza czas powrotu do pełnej sprawności urządzenia. Ze względu na rozproszoną architekturę klastrową actiStore umożliwia składowanie danych w kilku miejscach, dzięki czemu podnosi ogólny poziom bezpieczeństwa – nawet awaria w lokalizacji głównej nie powoduje utraty danych.

Dodatkowe informacje: ARTHUR KILIAN, DEVELOPMENT AND SALES DIRECTOR, ACTIDATA CEE, ARTHUR.KILIAN@ACTIDATA-STORAGE.COM VADEMECUM CRN listopad 2016

15

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMAMI ACTIDATA I DISKUS.

J

edną z tegorocznych nowości w ofercie actidata jest bardzo pojemna, łatwa w instalacji i konfiguracji biblioteka taśmowa actiLib 6U Kodiak. Urządzenie nie tylko zapewnia w podstawowej konfiguracji miejsce na 80 kaset i 6 napędów LTO, ale także umożliwia rozbudowę do aż 560 slotów i 42 napędów taśmowych. Biblioteka actiLib 6U Kodiak może być wyposażona w napędy LTO-6 i LTO-7 z interfejsami SAS i FC, a łączna pojemność zainstalowanych taśm może wynieść od 200 TB do aż 8,5 PB. Dane są zapisywane i odczytywane z prędkością nawet 45 TB/h (bez kompresji).


PRZECHOWYWANIE DANYCH

Ochrona danych z ABC Data Coraz więcej firm zaczyna dostrzegać zalety wynikające z wdrożenia zaawansowanych procedur ochrony danych bądź rozszerzenia już istniejących. Mimo że wciąż istnieje potrzeba uświadamiania przedsiębiorcom licznych korzyści płynących z backupu i archiwizacji danych, to rosnący popyt na związane z tymi obszarami sprzęt i usługi stanowi dla resellerów i integratorów szansę rozwoju prowadzonej działalności.

I

nżynierowie funkcjonującego w ABC Data Działu Rozwiązań Zaawansowanych Value+ zapewniają resellerom i integratorom wsparcie w sprzedaży i wdrażaniu rozwiązań z dziedziny m.in. pamięci masowych, wirtualizacji i chmury. Zakres oferowanej przez nich pomocy jest bardzo szeroki. Współpraca zaczyna się zwykle od analizy, której celem jest ocena obecnego środowiska klienta pod kątem właściwego doboru rozwiązań do zabezpieczenia danych. Na bazie pozyskanych informacji tworzone są propozycje strategii rozbudowy, usprawnień i optymalizacji w infrastrukturze klienta, które pozwolą wyeliminować ewentualne utrudnienia. Eksperci z Działu Value+ mogą wesprzeć resellerów i integratorów również podczas wdrożeń rozwiązań do back-

upu i odzyskiwania danych dla różnych platform – hostów fizycznych, środowisk wirtualnych, konwergentnych i hiperkonwergentnych. Integracja tych systemów powinna być każdorazowo zakończona stworzeniem mechanizmów automatycznego testowania poprawności odzyskiwania danych z kopii zapasowych. Także w tym zakresie partnerzy ABC Data mogą liczyć na wsparcie. Inżynierowie dystrybutora służą też pomocą w opracowywaniu polityki wykonywania backupu i archiwizacji dostosowanej do profilu działalności firmy i przyjętych poziomów dostępności usług IT (SLA).

PAMIĘCI MASOWE DLA KAŻDEGO Jednym z filarów oferty Działu Value+ są pamięci masowe. Dystrybutor zadbał, aby ich oferta uwzględniała potrzeby klien-

Oferta Value+ dla resellerów i integratorów W ramach współpracy przedsprzedażowej z partnerami Dział ABC Data Value+ proponuje: • regularne webinaria, seminaria oraz warsztaty techniczne, • dobór optymalnego rozwiązania do profilu działalności klienta oraz jego wymagań (pozycjonowanie i skala) na początku realizacji projektu, • wypożyczenie sprzętu bądź oprogramowania dla celów testowych (proof of concept) lub przeprowadzenia demonstracji proponowanego rozwiązania w firmie klienta, • webinaria prezentujące rozwiązania przygotowane na potrzeby określonego klienta.

16

VADEMECUM CRN listopad 2016

tów każdej wielkości – od mikrofirm aż po największe przedsiębiorstwa. – Użytkownicy końcowi wciąż rzadko zdają sobie sprawę, że to systemy pamięci masowych stanowią o „być albo nie być” przedsiębiorstwa – podkreśla Grzegorz Mieścicki, Systems Engineer w ABC Data Value+. – Niewłaściwy dobór takiego urządzenia może mieć wiele negatywnych konsekwencji, począwszy od braku możliwości zwiększania pojemności, przez niewystarczającą wydajność, brak redundancji, aż po utratę danych w wyniku awarii spowodowanej np. zewnętrznym czynnikiem fizycznym. Dlatego tak ważna jest analiza potrzeb i planów rozwoju klienta oraz weryfikacja środowiska IT, którym on dysponuje. Przedsiębiorstwa, które przetwarzają duże ilości danych, powinny zainteresować oferowane przez ABC Data zaawansowane macierze dyskowe. W tym zakresie dystrybutor proponuje przede wszystkim urządzenia Fujitsu ETERNUS DX. To jedne z najwydajniejszych macierzy na rynku, wyposażone w dziesiątki funkcji gwarantujących ciągłość dostępu do danych, m.in. wiele sposobów replikacji danych i możliwość automatycznego przełączania między macierzami w klastrze w przypadku awarii jednej z nich. Producent ma w ofercie także macierze all-flash, systemy do przechowywania bardzo dużych ilości informacji oraz rozwiązania do backupu.


Inżynierowie Działu Value+ służą pomocą w opracowywaniu polityki wykonywania backupu i archiwizacji. z centralnej konsoli. Ułatwia ona zarządzanie kopiami zapasowymi całego środowiska, zarówno fizycznego, wirtualnego, jak i mieszanego.

OCHRONA DANYCH OD LIDERÓW

Oferta oprogramowania do backupu i odzyskiwania danych w środowiskach fizycznych i wirtualnych, dystrybuowanego przez ABC Data, jest równie imponująca jak portfolio systemów pamięci masowych. – Proponujemy rozwiązania liderów rynku w swojej klasie – mówi Wojciech

Paweł Ryniewicz Sales and Marketing Director, ABC Data Value+

Wielu firmom coraz bardziej zależy na zagwarantowaniu nieprzerwanej dostępności aplikacji, usług i najważniejszych dla ich funkcjonowania danych. Kluczem do osiągnięcia tego celu jest odpowiednie zabezpieczenie danych przed zagrożeniami mogącymi powodować ich utratę. W dzisiejszym „cyfrowym” świecie każdy, kto tego doświadczył, wie jak ważne jest posiadanie chociażby najprostszego rozwiązania do wykonywania kopii zapasowych. Resellerzy powinni także uświadamiać klientom, że równie ważna jest dbałość o odpowiednie przechowywanie kopii zapasowej i weryfikacja jej integralności. Zapewnia to szybkie i poprawne przywrócenie systemu do pracy w razie wystąpienia ewentualnych problemów. ABC Data ma w tym zakresie wiele do zaoferowania swoim partnerom, zarówno jeśli chodzi o pamięci masowe, jak i backup w środowisku fizycznym i wirtualnym.

Kotkiewicz, Systems Engineer Manager w ABC Data Value+. – Firmom powinno zależeć, aby w ich środowisku funkcjonowały rozwiązania uniwersalne, które nie są ograniczone ani funkcjonalnie, ani możliwością współpracy z urządzeniami tylko jednego dostawcy. Jest to ważne, bo rynek IT rozwija się tak dynamicznie, że klienci nigdy nie mogą być pewni, z jakich rozwiązań będą korzystać w przyszłości. Dla przykładu dystrybuowane przez Value+ oprogramowanie Simpana firmy Commvault wyróżnia się na tle konkurencji tym, że w jednym pakiecie oferuje różnorodne funkcje związane z zarządzaniem danymi. Użytkownicy mogą prowadzić backup, archiwizację, efektywne przeszukiwanie zgromadzonych danych itd. Ochronie mogą podlegać zarówno dane w środowisku fizycznym, jak i maszyny wirtualne. Kolejnym wartym rozważenia produktem jest oprogramowanie firmy Veeam Software – lidera rynku rozwiązań gwarantujących wysoką dostępność wirtualnych maszyn w środowisku VMware i Microsoft. Rozwiązanie Veeam Availability Platform zapewnia czas przywrócenia działania usług krótszy niż 15 minut, niezależnie od rodzaju aplikacji i danych. Ułatwia także koordynowanie usuwania skutków awarii. Resellerom i integratorom dystrybutor proponuje również oprogramowanie firmy Veritas, która po podziale Symanteca wróciła na rynek rozwiązań do backupu i archiwizacji. ABC Data ma także w sprzedaży produkty firmy Dell Software.

GOTOWE DO PRACY W wielu przedsiębiorstwach nie ma rozbudowanych zespołów administratorskich, których pracownicy mogliby zaplanować od postaw i wdrożyć rozbudowaną strukturę serwerów, pamięci masowych i sieci, a następnie nią zarządzać. Dla takich firm powstały rozwiązania konwergentne i hiperkonwergentne, dzięki którym możliwe jest posiadanie w pełni funkcjonalnego centrum danych znajdującego się w jednej obudowie. Rozwiązania tego typu charakteryzują się budową modułową. Tworzy się je i rozbudowuje w zależności od potrzeb konkretnego klienta. Dzięki różnorodności dostępnych modułów bardzo łatwa jest też rozbudowa oraz zarządzanie – producenci gwarantują kompatybilność wszystkich komponentów oraz spójny interfejs do zarządzania całym rozwiązaniem. ABC Data ma w ofercie rozwiązania konwergentne trzech dostawców: Cisco, Dell i Fujitsu. Inżynierowie Działu Value+ służą pomocą w opracowywaniu polityki wykonywania backupu i archiwizacji.

Dodatkowe informacje: ABC DATA VALUE+, UL. DANISZEWSKA 14, 03-230 WARSZAWA, ABCDATA-VALUEPLUS@ABCDATA.EU, TEL. (22) 676-09-00 VADEMECUM CRN listopad 2016

17

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ ABC DATA.

Kolejną firmą w ofercie Value+, której produktami warto się zainteresować, jest NetApp – twórca docenianego od wielu lat na rynku storage’owego systemu operacyjnego ONTAP. Oprócz klasycznych macierzy dyskowych NetApp zapewnia też różnorodne rozwiązania typu all-flash (w tym urządzenia przejętej w bieżącym roku firmy SolidFire) oraz systemy do budowy usług chmurowych. Mniejszym przedsiębiorstwom Dział ABC Data Value+ oferuje macierze dyskowe firm Dell i Lenovo, a także serwery NAS dwóch liderów tego rynku – QNAP i Synology. – Warto pamiętać, że bezpieczeństwo danych zapewniają nie tylko urządzenia do ich właściwego przechowywania, lecz także odpowiednie oprogramowanie pozwalające w pełni zautomatyzować proces wykonywania kopii zapasowych czy definiowania retencji danych – przypomina Damian Przygodzki, Senior Systems Engineer w ABC Data Value+. – Dla administratora ważna jest również wygoda i prostota definiowania zadań backupu, a przede wszystkim odtwarzania danych


PRZECHOWYWANIE DANYCH

Serwery NETGEAR gotowe na nowe wyzwania

Do oferty NETGEAR trafiły dwie nowe serie serwerów NAS. Ich wydajność w porównaniu z wydajnością urządzeń poprzedniej generacji wzrosła aż ośmiokrotnie. Są przystosowane do przechowywania i udostępniania wirtualnych maszyn, plików graficznych o bardzo wysokiej rozdzielczości, a także materiałów wideo Ultra HD 4K i 8K.

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ NETGEAR.

S

erwery NETGEAR ReadyNAS 526X i ReadyNAS 626X to dwa sześciodyskowe modele biurkowe. Z serwera 526X może korzystać od 20 do 80 osób, a z urządzenia 626X – od 40 do 120 osób. Płynną transmisję danych zapewniają dwa porty sieciowe 10 Gb/s (z możliwością agregacji) oraz wbudowany w kontroler macierzowy bardzo szybki procesor serwerowy (dwurdzeniowy Intel Pentium D1508 2,2 GHz w modelu 526X i czterordzeniowy Intel Xeon D-1521 2,4 GHz w modelu 626X). Urządzenia są wyposażone odpowiednio w 4 i 8 GB pamięci RAM ECC DDR4 (można ją rozszerzyć do 64 GB). Po zainstalowaniu dysków 10 TB pojemność wzrośnie do 60 TB, a jeśli zostanie wykorzystana półka dyskowa EDA500 – nawet do 110 TB. Wbudowane trzy porty USB 3.0 lub jeden port eSATA zapewniają podłączenie zewnętrznych twardych dysków. Oba urządzenia można kupić bez twardych dysków albo z sześcioma napędami o pojemności 3, 4 lub 6 TB.

jących EDA4000 – aż do 600 TB. Podobnie jak w przypadku modeli biurkowych, wszystkie urządzenia można kupić bez twardych dysków albo z sześcioma napędami o pojemności 3, 4 lub 6 TB. W kontrolerach macierzowych nowych serwerów zainstalowano czterordzeniowe procesory Intel Xeon Enterprise Server 5. generacji (E3–1225v5 3,3 GHz w serwerze 3312 i E3–1245v5 3,5 GHz w serwerach 4312). Są one wyposażone także w odpowiednio 8 i 16 GB pamięci RAM ECC DDR4, z możliwością rozszerzenia do 64 GB. Serwer ReadyNAS 3312 ma cztery porty sieciowe 1 Gb/s, natomiast urządzenia 4312 – po cztery porty 1 Gb/s i dwa porty 10 Gb/s (gniazda 10GBase-T w modelu 4312X i moduły SFP+ w modelu 4312S).

NETGEAR DO SZAFY

WIELOPOZIOMOWA OCHRONA

Kolejne trzy modele serwerów NAS firmy NETGEAR przeznaczone są do montażu w szafach IT. Urządzenia ReadyNAS 3312, ReadyNAS 4312S/4312X mają wysokość 2U i w swojej podstawowej konfiguracji zapewniają przestrzeń dyskową o pojemności 120 TB, a po dołączeniu modułów rozszerza-

DANYCH

18

VADEMECUM CRN listopad 2016

W nowych serwerach NETGEAR zainstalowana została kolejna wersja systemu operacyjnego tego producenta – ReadyNAS OS 6. Rozbudowane w niej zostały funkcje zapewniające bezpieczeństwo danych na pięciu poziomach: 1. ochrona danych przed awarią dysku dzięki strukturze RAID, 2. wbudowane oprogramowanie antywirusowe, 3. przyrostowy backup z nielimitowaną liczbą kopii migawkowych (snapshotów),

4. ochrona przed utratą danych w wyniku degradacji trwałości nośnika, na którym są zapisane, 5. łatwa w konfiguracji replikacja do zasobów dostępnych w usługach chmurowych. Nową wersję systemu operacyjnego wyposażono w funkcję ReadyDR (Disaster Recovery), która zapewnia blokową replikację wszystkich przechowywanych na serwerze danych na drugi, bliźniaczy serwer ReadyNAS. Dzięki temu możliwe jest szybkie kopiowanie przez sieć także dużych plików i baz danych. ReadyNAS OS 6 zapewnia dwukierunkową synchronizację przechowywanych na serwerze danych z takimi usługami w chmurze publicznej jak Amazon Cloud Drive czy Dropbox. Oprócz tego wprowadzono nową funkcję ReadyCLOUD, która umożliwia bezpieczny, szyfrowany dostęp spoza siedziby firmy do znajdujących się na serwerze plików. Serwery NETGEAR ReadyNAS klasy biznesowej są objęte 5-letnią gwarancją, zapewniającą dostawę części zamiennych następnego dnia roboczego. Ich autoryzowanymi dystrybutorami w Polsce są: AB, ABC Data, Action i Veracomp.

Dodatkowe informacje: MACIEJ KACZMAREK, VAR ACCOUNT MANAGER, NETGEAR, MKACZMAREK@NETGEAR.COM


StarWind – lider

hiperkonwergentnej wirtualizacji Firma StarWind Software jest innowatorem w dziedzinie wirtualizacji pamięci masowych. Za cel stawia sobie nieustanne udoskonalanie produkowanych rozwiązań i tworzy koncepcje, które na globalnym rynku IT znajdują uznanie zwykle znacznie później.

PROSTOTA, OSZCZĘDNOŚĆ I WYDAJNOŚĆ

StarWind VSAN jest idealnym rozwiązaniem dla firm, które nie chcą ponosić wydatków na rozbudowane systemy

Główne cechy StarWind Virtual SAN • Obsługa wielu protokołów (m.in. SMB3, NFS v4.1, iSCSI) • Konfiguracja hiperkonwergentna lub konwergentna (współpraca z wirtualizatorami Hyper-V, vSphere i Xen) • Możliwości rozbudowy: scale-up i scale-out • Rozwiązanie niezależne sprzętowo • Synchroniczna i (opcjonalnie) asynchroniczna replikacja • Kopie migawkowe i automatyczna dystrybucja danych między warstwami (tiering) • Deduplikacja i kompresja • Funkcja wirtualnej biblioteki taśmowej (VTL)

wirtualizacji pamięci masowych. Potencjalnych klientów można znaleźć wśród małych i średnich firm, przedsiębiorstw posiadających wiele biur regionalnych oraz dostawców usług chmurowych i hostingowych. To rozwiązanie wysokiej dostępności (high availability) dla serwerów wirtualizacyjnych (hiperwizorów) uzyskane przez stworzenie lustrzanej kopii wewnętrznych dysków HDD i SSD zainstalowanych w połączonych siecią LAN serwerach. Taki model eliminuje potrzebę posiadania centralnej, współużytkowanej pamięci masowej, co – dzięki mniejszej ilości sprzętu – oznacza niższe koszty budowy infrastruktury IT i jej utrzymania. Zwiększony zostaje też współczynnik wykorzystania posiadanych urządzeń, więc każda wydana na architekturę złotówka jest wykorzystywana w 100 proc. Oprogramowanie StarWind VSAN, na tle innych rozwiązań typu Software Defined Storage, wyróżnia się łatwiejszym zarządzaniem, niższą ceną, wyższą wydajnością i bogatszym zestawem funkcji. Do stworzenia konfiguracji startowej wystarczą dwa węzły, nie ma konieczności zapewnienia quorum dyskowego czy prowadzenia arbitrażu (są to algorytmy decy-

dujące o tym, który węzeł w klastrze będzie nadrzędny). Do wydajnej pracy tego oprogramowania nie potrzeba też dużej ilości sprzętu – przełączników, pamięci flash, sieci 10 GbE ani dodatkowych serwerów. Do obsługi infrastruktury z dowolną liczbą węzłów wystarczą zaledwie dwa serwery StarWind VSAN z odpowiednią licencją. Oprogramowanie to zapewnia wiele funkcji niedostępnych w podobnych rozwiązaniach innych dostawców, m.in. replikację asynchroniczną, deduplikację in-line i off-line, log-structuring, obsługę wielu warstw pamięci RAM i pamięci podręcznej flash. StarWind jest niezależne od sprzętu, dzięki czemu jest proste w obsłudze i wydajniejne. Licencje tego oprogramowania są bezterminowe, a więc nigdy nie wygasną i nie wygenerują dodatkowych kosztów. Wyłącznym dystrybutorem oprogramowania StarWind w Polsce jest Alstor.

Dodatkowe informacje: JERZY ADAMIAK, KONSULTANT DS. SYSTEMÓW PAMIĘCI MASOWYCH, ALSTOR, J.ADAMIAK@ALSTOR.COM.PL VADEMECUM CRN listopad 2016

19

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMAMI STARWIND SOFTWARE I ALSTOR.

J

ednym z przykładów innowacyjności StarWind Software jest zaprojektowany od podstaw system plików LSFS (Log-Structured File System) przeznaczony dla rozwiązań typu all-flash oraz macierzy RAID działających w konfiguracji hybrydowej (dyski HDD i SSD). System zapewnia deduplikację, rejestrowanie wszystkich przeprowadzanych w nim operacji oraz wykonywanie kopii migawkowych Redirect-on-Write. Zastosowanie tego typu rozwiązania ma tym większe znaczenie we wszystkich środowiskach pamięci masowych wykorzystujących nośniki flash, że obecny nadal w systemach większości producentów kod przystosowany do obsługi tradycyjnych dysków twardych nie zapewnia wysokiej wydajności, charakterystycznej dla dysków SSD. StarWind jest też jednym z pierwszych producentów, którzy przenieśli bazujące na oprogramowaniu rozwiązania SDS (Software Defined Storage) z etapu badań i rozwoju do fazy produkcji, zdominowanej dotąd przez systemy sprzętowe (które z roku na rok będą coraz bardziej niszowe). To właśnie z myślą o użytkownikach, którzy chcą optymalnie wykorzystać posiadane już serwery, stworzono oprogramowanie StarWind Virtual SAN (VSAN). Natomiast firmom, które budują swoją infrastrukturę od podstaw i chcą skorzystać z zalet wirtualizacji, producent oferuje hiperkonwergentne urządzenie StarWind HCA HyperConverged Appliance. To kompleksowe rozwiązanie „pod klucz”, bazujące na oprogramowaniu StarWind Virtual SAN.


Fot. © Stuart Miles – Fotolia.com

BACKUP I ARCHIWIZACJA

Ochrona danych ważniejsza niż kiedyś

Wielu przedsiębiorców wciąż nie widzi sensu inwestowania w coś, co nie przynosi im zysków. A tak właśnie postrzegają ubezpieczenie, jakim jest backup. Aby zmienić takie podejście, może wystarczyć jedno słowo: ransomware. KRZYSZTOF JAKUBIK

Z

próbami pobierania okupu za odszyfrowanie danych branża IT spotykała się już wcześniej, ale dopiero od trzech lat to zjawisko nasiliło się na tyle, że konieczne jest uwzględnienie go w planowaniu strategii zabezpieczania firmowych informacji. Wszystko dlatego, że przestępcy poczuli się praktycznie bezkarni. Chodzi

20

VADEMECUM CRN listopad 2016

o możliwość pobierania okupu w cyberwalucie Bitcoin, co niemalże gwarantuje im anonimowość. Statystyki są alarmujące: według badań Kaspersky Lab na świecie liczba użytkowników Internetu, którzy zetknęli się ze złośliwym oprogramowaniem szyfrującym, zwiększyła się ponaddwukrotnie w III kwartale 2016 r. i wyniosła przeszło 820 tys. osób. Tak zna-

czący wzrost został odnotowany już trzeci kwartał z rzędu. Najlepszą, bo bezpłatną alternatywą płacenia okupu jest odzyskanie danych z kopii zapasowej. Jednak aby ta operacja się powiodła, trzeba postępować rozważnie. Projektując procedury backupowe, należy zwrócić uwagę, czy w czasie wykonywania kopii zabezpie-


czone wcześniej oryginalne pliki nie zostaną nadpisane przez te zaszyfrowane. Sytuację komplikuje fakt, że ransomware potrafi zaszyfrować nie tylko pliki znajdujące się na lokalnym dysku komputera, ale także w zasobach udostępnionych przez sieć, np. z serwera NAS. A wówczas wykonywanie kopii plików na serwer NAS, a następnie zewnętrzny dysk, niewiele pomoże. Jednym z rozwiązań w tej sytuacji jest pozostawianie podczas wykonywania backupu także kopii starych wersji plików. Pozwala na to większość pakietów oprogramowania do backupu, które wówczas zaszyfrowany plik traktuje jak nową wersję. Drugim sposobem jest wykonywanie od czasu do czasu kopii zapasowej na nośniku wymiennym (zewnętrznym twardym dysku, kasecie RDX czy taśmie LTO), odłączanym od głównego systemu przechowywania danych. Zresztą zgodnie z najlepszymi praktykami należy systematycznie dokonywać kopiowania na wymienny nośnik, który wywozi się z siedziby przedsiębiorstwa. Dzięki temu chroni się dane przez takimi katastrofami jak pożar, zalanie czy zawalenie się budynku.

STAWIĆ CZOŁA WYZWANIU Wykonywanie backupu nie należy dziś do najprostszych czynności. Jeszcze parę lat temu, przed spopularyzowaniem się ransomware’u, niektórzy wizjonerzy branży wskazywali, że być może już wkrótce w ogóle nie będziemy robić klasycznego backupu. Zaczął on bowiem sprawiać niemałe problemy. Danych do zabezpieczenia jest coraz więcej, a czas przeznaczony na przeprowadzenie backupu bez negatywnego wpływu na ciągłość pracy firmy (okno backupowe) kurczy się bądź nie ma go w ogóle. Alternatywy upatrywano w replikacji danych do zapasowych ośrodków przetwarzania danych (ochrona przed katastrofą) i przechowywaniu starszych wersji edytowanych plików w środowisku produkcyjnym (ochrona przed skasowaniem lub błędnie przeprowadzoną edycją pliku). Replikacja oczywiście będzie prowadzona nadal, mimo że nie zastąpi backupu. To najszybsza metoda zapewnienia

ciągłości pracy, gdy awarii ulegnie jeden z systemów IT w podstawowym centrum danych. Ale ze względu na rosnące ryzyko zarażenia się ransomware, rezygnacja z backupu jest w dzisiejszych czasach bardzo nierozważną decyzją. Zdecydowanie jednak musi się zmienić sposób zabezpieczania danych. Według statystyk jeszcze kilka lat temu tylko 10 proc. z nich miało dla firm kluczowe znaczenie, dziś współczynnik ten jest szacowany na 50 proc. Wiele przedsiębiorstw skarży się też, że nie jest w stanie całkowicie wstrzymać pracy swoich systemów, aby przeprowadzić backup. Do ważnych postulatów zgłaszanych przez użytkowników należy potrzeba tzw. granularnego odzyskiwania (ang. granular recovery) danych, czyli uzyskania dostępu do pojedynczych plików z wykonanej kopii bezpieczeństwa (także z maszyn wirtualnych) lub rekordów z bazy danych. Dlatego wielu klientów powinno być zainteresowanych wdrożeniem nowych wersji oprogramowania do backupu, które zapewniają zarówno tę funkcję, jak i inne, np. deduplikację. Deduplikacja jest najbardziej efektywna właśnie w przypadku backupu danych. Jej skuteczność sięga wtedy ponad 90 proc. W połączeniu z niską ceną twardych dysków czyni ekonomicznie sensownym przechowywanie backupu na napędach dostępnych online, a niekoniecznie wyłącznie na taśmie. Dzięki eliminacji duplikatów łatwiej można też wykonywać replikację na urządzenie znajdujące się w innym budynku (przez sieć lokalną) lub nawet mieście (przez Internet lub dzierżawione łącze).

STRATEGICZNY NOŚNIK Właściwy wybór nośnika backupu to jedna ze strategicznych decyzji, która będzie miała wpływ na wydajność całego procesu. Przez długie lata oczywisty był w takim przypadku wybór rozwiązań taśmowych, który ograniczał się do wskazania jednego z kilkunastu stosowanych na rynku standardów. Dziś w sprzedaży są praktycznie tylko rozwiązania zgodne ze standardem LTO (i kilka bardzo niszowych, przeznaczonych głównie do środowisk mainframe). Decyzja dotyczy więc tego, czy w ogóle korzystać z taśmy, czy wykorzystać inny nośnik. Najważniejsze zalety taśm pozostały niezmienne do dziś: bardzo duża pojemność i szybkość zapisu, a także możliwość wywiezienia nośnika z siedziby firmy. Jednak w systemach backupu taśmy przestały być doceniane, ze względu na podstawową wadę – bardzo długi czas odzyskiwania danych (w skrajnych przypadkach sięgający nawet kilku dni) i częsty brak dostępu do pojedynczych obiektów zapisanych na taśmie, co oznacza konieczność odzyskania całego backupu. Obie zalety taśm straciły na znaczeniu – pierwsza na skutek rozpowszechnienia się systemów deduplikacji i spadku cen dysków, a druga w efekcie stosowania replikacji coraz szybszymi łączami internetowymi. Dlatego rozwiązania taśmowe zostały wyparte przez backup dyskowy, w którym dane są kopiowane na podłączone do infrastruktury IT macierze. Kopię bezpieczeństwa danych ze stacji roboczych najczęściej wykonuje się przez sieć i umieszcza na udostępnionym w tym celu woluminie serwera

KORZYŚCI PŁYNĄCE ZE STOSOWANIA BACKUPU ONLINE* 6%

5% 31%

16%

Bezpieczeństwo danych Nieograniczona przestrzeń na dane Prostota wykonania Efektywne zarządzanie danymi Niższy koszt procesu Krótszy czas odzyskania danych

21% Źródło: Clutch

21% *Badanie przeprowadzone wśród 304 szefów działów w małych i średnich firmach w USA.

VADEMECUM CRN listopad 2016

21


BACKUP I ARCHIWIZACJA NAS. Wadą tego rozwiązania jest znacznie wyższy koszt oraz pobór prądu, ale zalety (szczególnie szybkie odzyskiwanie danych pozwalające uniknąć wizerunkowej katastrofy firmy) znacznie je przewyższają. Dostęp do utraconych danych uzyskuje się niemal natychmiast (niektóre programy do backupu zapewniają pracownikom samodzielne odzyskiwanie skasowanych plików lub ich wcześniejszych wersji), a dane z macierzy dyskowej w takim środowisku można replikować do pomieszczenia znajdującego się w innym budynku, co zastępuje wywożenie taśm poza siedzibę przedsiębiorstwa.

BACKUP WIRTUALNYCH MASZYN Wyzwania związane z backupem przynoszą także środowiska wirtualnych serwerów i desktopów. Pierwotnie podejmowano próby zabezpieczania danych przez agenta wewnątrz wirtualnej maszyny. Ten proces jednak był dość powolny, obniżał wydajność jej pracy i wymagał ciągłego nadzoru administratorów. Skuteczniejsze okazały się próby backupu całych wirtualnych maszyn z poziomu hypervisora. W tej sytuacji backup trwał jednak jeszcze dłużej (w rozwiązaniu tego problemu w dużym stopniu pomógł mechanizm deduplikacji), a odtworzenie pojedynczej wirtualnej maszyny pochłaniało nawet kilkanaście godzin. Dlatego producenci oprogramowania do backupu skupili się na zapewnieniu możliwości uruchomienia wirtualnej maszyny bezpośrednio z wykonanej kopii (oczywiście z pewnym uszczerbkiem dla jej wydajności) i równoległym jej odtworzeniu w środowisku podstawowym.

Grzegorz Bielawski Country Manager, QNAP

Obecnie już nawet małą firmę stać na zbudowanie systemu replikacji danych między dwoma budynkami oddalonymi o wiele kilometrów. Coś, co przez wiele lat było w zasięgu tylko średnich i dużych przedsiębiorstw, dziś jest dostępne dla każdego. Funkcję taką ma większość serwerów NAS. Wystarczy kupić dwa bliźniacze urządzenia, zainstalować w nich dyski o podobnej łącznej pojemności i skonfigurować tak, aby dane z serwera określonego jako podstawowy były systematycznie replikowane przez sieć lokalną lub Internet na serwer zapasowy.

BACKUP ONLINE – ROZSĄDNA OPCJA

Chociaż klienci wciąż obawiają się o bezpieczeństwo danych w chmurze, przechowywane w niej dane są zazwyczaj lepiej chronione niż w siedzibie przedsiębiorstwa. Dotyczy to przede wszystkim małych i średnich firm, w których często brakuje środków na zatrudnienie wykwalifikowanej kadry IT i sprzętu potrzebnego do ochrony danych. Natomiast dostawcy usług backupu w chmurze to wyspecjalizowane jednostki, posiadające niezbędne zasoby do bezpiecznego przechowywania danych. Emocje związane z backupem online już ostygły na tyle, że coraz więcej firm rozważa skorzystanie z tej metody zabezpieczania informacji. Różne są jed-

Tomasz Krajewski Presales Manager – Eastern Europe, Veeam Software

W firmach przetwarza się coraz więcej elektronicznych informacji, rośnie więc prawdopodobieństwo ich utraty. Konieczność przerwania pracy przedsiębiorstwa, spowodowana awarią systemu IT, jest dla większości firm bardzo bolesnym doświadczeniem. Integratorzy powinni wykorzystywać tego typu sytuacje do oferowania systemów chroniących przed przestojami. Doświadczenie dowodzi bowiem, że ludzie dzielą się na tych, którzy backup robią, i na tych, którzy będą go robili – po utracie danych.

22

VADEMECUM CRN listopad 2016

nak pomysły na jej implementację, tak jak różne potrzeby firm. Podstawowy podział jest wytyczany przez źródło danych do zabezpieczenia – może być nim firmowy serwer, ale też stacje robocze użytkowników. W obu przypadkach jednak usługa backupu online musi być znacznie bardziej zaawansowana niż jej odpowiednik do zabezpieczania danych z pojedynczej stacji roboczej. Musi zapewniać konsolę administracyjną pozwalającą na wdrożenie polityki wykonywania kopii i zarządzania nimi. Niezmiernie ważna jest też możliwość szyfrowania zabezpieczanych danych własnym kluczem. Przy backupie stacji roboczych należy także sprawdzić, czy istnieje możliwość wykonywania kopii zarówno samych danych, jak i całego systemu operacyjnego, co przyspieszy proces ich ewentualnego późniejszego odzyskania. Pracownicy powinni też mieć możliwość samodzielnego odzyskiwania straconych plików (lub ich wcześniejszych wersji), bez konieczności kontaktowania się z informatykami. Na świecie usługi backupu online świadczą dziesiątki tysięcy firm, ale w wyborze właściwej należy uwzględniać nie tylko funkcjonalność rozwiązania, lecz też reputację dostawcy i obowiązujące prawo. W większości przypadków backupowane dane będą zawierały dane osobowe, które – zgodnie z ustawą o ochronie danych osobowych – nie powinny opuszczać Unii Europejskiej. Dlatego zawsze trzeba sprawdzić, gdzie fizycznie znajduje się centrum danych, w którym wylądują dane klienta. Wielu klientów jest zainteresowanych współpracą w tym zakresie ze swoimi zaufanymi doradcami w dziedzinie IT. Dla integratorów to wyjątkowa szansa – mogą wykupić zasoby chmurowe w jednym z centrum danych specjalizujących się w tym zakresie, a do tego dokupić licencje oprogramowania do backupu umożliwiające świadczenie usług online (ma je w ofercie większość producentów profesjonalnego oprogramowania do backupu). W ten sposób stworzą dla swojego klienta usługę, która nie tylko będzie zgodna z jego wymaganiami, ale też świadczona przez najbardziej zaufany podmiot.


Backup – ostatnia linia obrony Ataki cyberprzestępców są coraz skuteczniejsze, co przyprawia zarówno zarządy firm, jak i administratorów o ból głowy. Dlatego każda strategia ochrony danych powinna uwzględniać fakt, że atak może się udać, a następnie przewidywać działania w celu przywrócenia pracy w przedsiębiorstwie.

Witold Żukowski szef działu Data Protection, Dell EMC

Dziś cyberprzestępcy zarabiają nie tylko na kradzieży i odsprzedaży cudzych danych, ale także na wymuszaniu okupu za odszyfrowanie informacji. Celem ataków typu ransomware może też być zniszczenie najważniejszych dla firmy danych na macierzach produkcyjnych oraz ich kopii backupowych. Odpowiedzią Dell EMC na te wyzwania jest IRS (Isolated Recovery Solutions), czyli zbiór procedur, procesów oraz produktów pozwalających na zabezpieczenie danych klienta w odizolowanym i w pełni autonomicznym środowisku. Rozwiązanie Data Domain, w połączeniu z dokładnie zdefiniowanymi procesami oraz procedurami, jest idealnym systemem do budowy takiego odizolowanego środowiska.

Łukasz Olszak S4Engineers Team Leader, S4E

Jako dystrybutor rozwiązań Dell EMC gwarantujemy naszym partnerom i klientom pełne wsparcie w budowaniu skutecznej strategii ochrony danych oraz zabezpieczeniu przedsiębiorstwa przed skutkami destrukcyjnych cyberataków. Jest to szczególnie ważne w obliczu przyjętej niedawno przez Parlament Europejski dyrektywy NIS (Network and Information Security), która nakłada na podmioty z sektorów strategicznych, takich jak energetyka, transport, bankowość, ochrona zdrowia czy usługi cyfrowe (wyszukiwarki, przechowywanie danych w chmurze), dodatkowe wymagania w zakresie strategii cyberbezpieczeństwa. Na warsztatach i szkoleniach omawiamy sposoby unikania cyberzagrożeń i pokazujemy najlepsze praktyki w doborze i konfiguracji rozwiązań Dell EMC.

Natomiast firmom, które korzystają ze środowiska VMware, Dell EMC poleca pakiet Data Protection Suite for VMware, umożliwiający zabezpieczanie i odtwarzanie danych znajdujących się w środowiskach wirtualnych, na serwerach fizycznych oraz na serwerach NAS. Dzięki ścisłej integracji z hiperwisorem możliwa jest skuteczna ochrona maszyn wirtualnych przez wykonywanie ich backupu i/lub replikacji, a także monitorowanie pracy tego środowiska. Administratorzy mogą również liczyć na łatwy w obsłudze, zautomatyzowany proces przywracania wirtualnych maszyn do pracy po wystąpieniu awarii. Pakiet Data Protection Suite for VMware jest licencjonowany na fizyczny procesor w zabezpieczanej maszynie i oferowany w bardzo atrakcyjnej cenie. Co więcej, pakiet sprzedawany jest wyłącznie przez kanał partnerski, a firmy IT mogą liczyć na dodatkowe bonusy premiujące wdrożenia.

Dodatkowe informacje: ŁUKASZ OLSZAK, S4ENGINEERS TEAM LEADER, S4E, LUKASZ.OLSZAK@S4E.PL

VADEMECUM CRN listopad 2016

23

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMAMI DELL EMC I S4E.

D

ell EMC zlecił przeprowadzenie ankiety (Global Data Protection Index Survey 2016), w której zapytano 2200 decydentów IT z 18 krajów o ich strategie ochrony danych. Połowa badanych stwierdziła, że nie jest przygotowana do zabezpieczania danych w chmurze, a aż 70 proc. nie jest pewnych, czy byłoby w stanie odzyskać dane po ataku lub awarii. Natomiast aż 36 proc. firm przyznało, że straciło dane wskutek ataku (średni koszt takiego incydentu – 914 tys. dol.). Jednocześnie szybko rośnie liczba nowych zagrożeń, takich jak destrukcyjne cyberataki i ransomware (ataki związane z wymuszaniem okupu). Dell EMC proponuje firmom pakiety Data Protection Suite, które zawierają zbiór unikalnych na rynku technologii, pozwalających klientowi tak dobrać rozwiązanie, aby zabezpieczyć wszystkie systemy i aplikacje na każdym poziomie wymaganym przez biznes. Data Protection Suite for Backup sprawdza się w każdym modelu przetwarzania danych: fizycznym, wirtualnym, hybrydowym oraz w chmurze. Pakiet oferowany jest w innowacyjnym modelu licencjonowania: klient może korzystać z różnego oprogramowania w zależności od aktualnych potrzeb i płacić tylko za ilość zabezpieczanych danych. Partnerzy oferujący Data Protection Suite for Backup mogą liczyć na atrakcyjne bonusy za każdy sprzedany pakiet.


BACKUP I ARCHIWIZACJA

QNAP – idealny serwer do backupu

Serwery QNAP Turbo NAS są z powodzeniem wykorzystywane przez wielu użytkowników jako centrum tworzenia kopii zapasowych. Zapewniają dostęp do dużej przestrzeni dyskowej w sieci i charakteryzują się szybkim transferem danych. Dzięki tym cechom bardzo dobrze wspomagają firmy w zabezpieczaniu ich informacji.

W

szystkie serwery QNAP Backupować można również wyposażone są w opropliki zgromadzone na serwerach gramowanie NetBak Turbo NAS. Jako nośnik docelowy ich kopii mogą posłużyć zewnętrzReplicator. To bezlicencyjne nane twarde dyski podłączone do porrzędzie dla systemu Windows do tu eSATA lub USB. Administratorzy tworzenia kopii zapasowych plimają dużą swobodę w konfiguroków i zapisywania ich na jednym SERWERY KLASY ENTERPRISE Z NOWEJ RODZINY QNAP TES-X85U waniu tej usługi. Mogą stworzyć lub wielu serwerach Turbo NAS w sieci. Umożliwia także kopiowaŚWIETNIE SPRAWDZAJĄ SIĘ JAKO ROZWIĄZANIE BACKUPOWE wiele zadań kopiowania plików nie danych na zdalne serwery przez DLA SERWERÓW ENTERPRISE ZFS NAS (QNAP ES1640DC). (m.in. wskazywać różne nośniki protokoły FTP i WebDAV. Jego dziadla poszczególnych katalogów), łanie jest bardzo proste – backup definiować harmonogram wykomoże zostać zdefiniowany i wykonywania backupu i zażądać ponany zaledwie kilkoma kliknięciami. wiadomienia e-mailem, gdy proces Narzędzie QNAP NetBak Replicabackupu z jakiegoś powodu się nie tor działa jako usługa w tle, nawet powiedzie. wtedy, gdy użytkownik nie jest zaBackupowi w firmie powinny podlegać nie tylko Dane na serwerze Turbo NAS mopliki. Ważna jest ochrona także innych kluczowych logowany do komputera. Może być gą być kopiowane w czasie rzeczydla funkcjonowania przedsiębiorstwa informacji, używane do tworzenia kopii miwistym na inny serwer Turbo NAS jak np. listy kontaktów. Dlatego QNAP udostępnił znajdujący się w odległym miejgawkowych wirtualnych maszyn aplikację Qcontactz, która użytkownikom serweoraz baz danych, a także zabezpiescu lub na serwer FTP za pomocą rów NAS tego producenta umożliwia bezpieczne czania danych z wirtualnych dysków usługi QNAP RTRR (Real-Time Reprzechowywanie praktycznie nieograniczonej licz(VHD/VHDX). mote Replication). Prowadzona by kontaktów, importowania (z kont Google, Yahoo, Oczywiście NetBak Replicator w ten sposób synchronizacja folOutlook oraz Apple, a także z plików CSV lub vCard derów pomiędzy jednostkami Turnie jest jedynym programem do 3.0) zarządzania nimi i przeszukiwania. Aplikacja bo NAS zapewnia, że dane na obu backupu, z którego mogą korzyQcontactz jest dostępna w Centrum Aplikacji QTS. stać użytkownicy serwerów Turbo serwerach będą zawsze identyczne. Oprogramowanie QTS oferuje NAS. Urządzenia te są kompatybilne z wieloma popularnymi pakietakże możliwość wykorzystania do tami do tworzenia kopii zapasowych, np. Acronis True Image, wykonywania backupu takich usług chmurowych, jak MicroARCserve Backup, Retrospect, Veritas Backup Exec LaCie soft Azure, Amazon Glacier, Amazon S3, ElephantDrive, Google SilverKeeper i Xopero. Drive, Dropbox oraz IBM SoftLayer. Może funkcjonować także w środowisku chmur prywatnych, kompatybilnych z OpenUNIWERSALNY BACKUP Stack Swift oraz WebDAV. QNAP zapewnia także wiele innych sposobów backupowania Autoryzowanymi dystrybutorami serwerów plików QNAP danych. Oprogramowanie QTS, zainstalowane na serwerach w Polsce są firmy: ABC Data, Action, EPA Systemy oraz NAS tego producenta, jest zgodne z usługą Time Machine znaj- Konsorcjum FEN. dującą się w systemie operacyjnym Mac OS X. Dzięki temu posiadacze komputerów Apple nie muszą korzystać z zewnętrznych twardych dysków do zabezpieczania swoich plików. AdministraDodatkowe informacje: torzy IT mogą też przypisywać określoną ilość powierzchni do GRZEGORZ BIELAWSKI, COUNTRY MANAGER QNAP, GBIELAWSKI@QNAP.COM każdej kopii zapasowej z komputerów Mac.

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ QNAP.

Ochrona także dla kontaktów

24

VADEMECUM CRN listopad 2016


Profesjonalna archiwizacja poczty elektronicznej Wysyłane wiadomości e-mail zawierają wiele cennych informacji, które warto archiwizować, np. w celu przedstawienia dowodów w ewentualnej sprawie sądowej.

Krzysztof Konieczny prezes zarządu Sun Capital

Firmy zainteresowane wdrażaniem oprogramowania MailStore zapraszamy do współpracy. Jako wyłączny dystrybutor gwarantujemy pomoc w obsłudze zapytań klientów i pierwszych wdrożeniach. Resellerzy zainteresowani tym rozwiązaniem mogą pobrać ze strony producenta wersję testową serwera MailStore lub bezpłatną wersję do archiwizacji jednej skrzynki pocztowej – do prywatnego użytku.

nych z pracy). Serwer MailStore pomaga firmom sprostać rosnącej liczbie przepisów dotyczących przechowywania poczty elektronicznej (eDiscovery) i innych aktów prawnych. Podczas archiwizowania wiadomości pocztowe poddaje się procesowi deduplikacji, dzięki czemu eliminowane są powtarzające się w nich załączniki. W efekcie zdecydowanie zmniejsza się baza danych zawierająca e-maile i znacznie przyspiesza proces przeszukiwania. MailStore Server zapewnia także zmniejszenie kosztów przechowywania wiadomości i tworzenia ich kopii zapasowych (oraz ewentualnego przywracania po wystąpieniu awarii), gdyż jego wdrożenie pozwala uniknąć rozbudowy serwerów e-mail, gdy ich moc obliczeniowa przestaje wystarczać.

BEZPIECZEŃSTWO I ELASTYCZNA OBSŁUGA

Oprogramowanie MailStore Server współpracuje z większością standardowych serwerów pocztowych, klientów poczty elektronicznej i chmurowych skrzynek pocztowych. Strategia tego procesu może być dostosowywana do konkretnych potrzeb firmy. Archiwizacji mogą podlegać wszystkie wiadomości – zarówno odbierane, jak i wysyłane. Po skopiowaniu mogą być usunięte ze skrzynek pocztowych, zgodnie z przyjętymi ustawieniami. Jedna instancja MailStore Servera zapewnia ochronę danych z ponad tysiąca skrzynek pocztowych. Wszystkie wiadomości są przechowywane w zaszyfrowanej postaci, co chroni je przez ewentualnym zafałszowaniem i zmianą treści. Użytkownik uzyskujący dostęp do archiwum może przeszukiwać zarówno pliki, jak i załączniki lub korzystać z oryginalnej struktury folderów. Wiadomości mogą być przywrócone do podstawowego

środowiska jednym kliknięciem bądź po prostu otworzone w celu udzielenia odpowiedzi lub przekazania innemu odbiorcy.

LICENCJE ZE WSPARCIEM Licencje MailStore Server sprzedawane są per użytkownik – pracownik, którego poczta ma być archiwizowana. Jedna paczka zawiera pięć licencji wraz z pakietem rocznego wsparcia technicznego. Możliwe jest przypisanie kilku skrzynek do jednego użytkownika, ale w większości przypadków liczba licencji jest równa liczbie pracowników wysyłających i otrzymujących wiadomości. W przedsiębiorstwach, w których jest duża fluktuacja kadr, istnieje możliwość przenoszenia licencji z byłych pracowników na ich następców. Nie powoduje to jednak usunięcia już stworzonego archiwum, po prostu nie będzie ono dalej uzupełniane, a dla nowego pracownika zostanie stworzone nowe. Oprogramowanie MailStore Server oferowane jest w dwóch wersjach – Standard oraz Premium, które różnią się wyłącznie rodzajem wsparcia technicznego. W wersji Premium zapytania użytkowników traktowane są priorytetowo, można również korzystać z pomocy technicznej przez telefon (w wersji Standard wsparcie techniczne udzielane jest tylko drogą e-mailową). Więcej informacji na stronie producenta (www.mailstore.com) oraz dystrybutora (mailstore.suncapital.pl).

Dodatkowe informacje: KRZYSZTOF KONIECZNY, PREZES ZARZĄDU SUN CAPITAL, KKONIECZNY@SUNCAPITAL.PL VADEMECUM CRN listopad 2016

25

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMAMI MAILSTORE SOFTWARE ORAZ SUN CAPITAL.

P

roducentem jednego z najbardziej zaawansowanych i wszechstronnych systemów do archiwizacji poczty elektronicznej jest niemiecka firma MailStore Software. Jej rozwiązanie MailStore Server wykonuje kopię wszystkich wiadomości e-mail z serwera poczty elektronicznej i oprogramowania klienckiego na komputerach użytkowników. Do stworzonego w ten sposób archiwum mają dostęp uprawnieni pracownicy – za pomocą oprogramowania Microsoft Outlook, przeglądarki internetowej (MailStore Web Access) oraz z urządzeń mobilnych (tabletów lub smartfonów z systemami iOS, BlackBerry OS, Android oraz Windows Mobile). Dzięki temu w proces odzyskiwania wiadomości nie muszą już być angażowani administratorzy. Archiwizacja za pomocą oprogramowania MailStore ułatwi wyeliminowanie takich zagrożeń jak utrata wiadomości e-mail z powodu błędów technicznych (uszkodzenia plików PST lub celowe usunięcie przez pracowników, np. zwolnio-


BACKUP I ARCHIWIZACJA

Uniwersalne zarządzanie danymi

z Commvault

Rozwiązania do ochrony danych – backupu, archiwizacji, replikacji, tworzenia kopii migawkowych i zapewniania wysokiej dostępności systemów IT – są często implementowane w ramach oddzielnych projektów. Tymczasem pożądanym przez administratorów celem powinna być unifikacja środowiska ochrony danych w rozwiązanie służące do pełnego zarządzania nimi.

C

ommvault jest producentem oprogramowania zapewniającego zabezpieczanie, archiwizowanie, indeksowanie i przeszukiwanie informacji. Ułatwia wykonywanie kopii danych do chmury w ramach procesu Disaster Recovery, a także przenoszenie ich między różnymi usługami w chmurze. Zapewnia różne okresy retencji dla różnych typów danych oraz ułatwia zapewnienie zgodności procesu ochrony danych z przepisami prawnymi oraz korporacyjnymi regułami polityki bezpieczeństwa. Wielofunkcyjność oprogramowania Commvault jest bardzo dobrze oceniana przez analityków – od sześciu lat niezmiennie platforma tego producenta plasowana jest w kwadrancie liderów w raportach Gartnera dotyczących rozwiązań backupowych. Oprogramowanie Commvault umożliwia zmniejszenie ryzyka przestoju firmy i obniżenie kosztów utrzymania środowiska IT. Rozwiązanie to jest konkurencyjne wobec wielu narzędzi wymagających żmudnej integracji i rozwiązujących problemy klientów w sposób punktowy. – Naszym zdaniem ochrona punktowa nie jest dobrą metodą, bo administratorzy oczekują całościowego podejścia. Nie mamy klienta, u którego jedynymi zabezpieczanymi danymi byłyby wirtualne maszyny, a zawsze istnieje potrzeba ochrony także środowiska fizycznego. Inwestując

26

VADEMECUM CRN listopad 2016

w produkt punktowy do ochrony środowiska wirtualnego, klient musi nabywać kilka dodatkowych elementów, nie tylko do backupu, ale np. także do deduplikacji – i to od różnych dostawców – mówi Przemysław Mazurkiewicz, dyrektor Działu System Engineering w regionie EMEA East w Commvault. Oprogramowanie tego producenta współpracuje z głównymi wirtualizato-

Polscy integratorzy cenią możliwość łatwej rozbudowy systemu o kolejne moduły. rami (VMware ESX, Microsoft Hyper-V, Citrix Xen, Oracle VM i innymi) oraz środowiskami chmury prywatnej i publicznej. Klienci nie mają także narzucanych żadnych konkretnych rozwiązań sprzętowych – platforma współpracuje z każdym rozwiązaniem pamięci masowych dostępnym na rynku.

FUNKCJONALNOŚĆ I OSZCZĘDNOŚCI

Wielofunkcyjność oprogramowania Simpana może zapewnić klientom znacz-

ne oszczędności. Dzięki wbudowanemu mechanizmowi deduplikacji i procesowi automatycznego kopiowania danych pomiędzy warstwami pamięci masowej (auto-tiering) możliwe jest ograniczenie inwestycji w rozbudowę posiadanych systemów pamięci masowych. Obsługa znajdujących się w macierzach dyskowych kopii migawkowych (snapshot) włączonych w proces backupowy umożliwia na przykład zabezpieczenie setek maszyn wirtualnych w ciągu kilku minut. Tak zaawansowana ochrona aplikacji jest dostępna zarówno dla środowisk fizycznych, jak i wirtualnych. Wiele korzyści klienci mogą czerpać także z szerokiego wsparcia dla procesów typu eDiscovery. Wyszukiwanie archiwalnych informacji, np. w związku z rozprawą sądową odbywa się bardzo szybko i w prosty sposób. Przeszukiwane są wszystkie zabezpieczone dane – pliki, poczta elektroniczna itd. Dla każdego rodzaju informacji można zdefiniować czas przechowywania (po którym są automatycznie usuwane) – zgodnie z prawem lub wewnętrznymi regulacjami bądź potrzebami biznesowymi. Możliwe jest także oznaczenie wybranych informacji, aby nigdy nie były skasowane, bo potencjalnie w przyszłości mogą być wykorzystane w postępowaniu sądowym (legal hold).


PRZEMYSŁAWA MAZURKIEWICZA, DYREKTORA DZIAŁU SYSTEM ENGINEERING W REGIONIE EMEA EAST, COMMVAULT CRN Commvault oferuje w ramach swojego rozwiązania wiele różnych funkcji, wśród których np. backup i archiwizacja niewiele mają ze sobą wspólnego, bo są to dwa zupełnie różne procesy. Czy takie podejście nie jest czasem uznawane przez klientów za wadę? PRZEMYSŁAW MAZURKIEWICZ Z pewnością nie. Dla nas nie są to rozdzielne procesy, ale kolejne fazy jednego, spójnego procesu zarządzania danymi. W wielu przedsiębiorstwach traktuje się jako archiwum przechowywane przez długi czas kopie backupów. Nie dość, że przy takim podejściu dane przechowywane są wielokrotnie, zarówno w środowisku produkcyjnym, jak i backupowym, to dodatkowo trudno je przeszukiwać. Między innymi dlatego połączyliśmy procesy wykonywania backupów i archiwizacji oraz dołożyliśmy właśnie funkcję zaawansowanego wyszukiwania i indeksowania danych. Przy takim podejściu zdecydowanie łatwiej zapanować nad coraz szybciej rosnącą masą informacji.

DLA KLIENTÓW I DO CHMURY W Polsce zainteresowanie firm IT współpracą z Commvault wynika przede wszystkim z możliwości łatwego rozszerzenia wdrożonego u klienta rozwiązania backupowego o kolejne moduły (archiwizacji, przeszukiwania, Disaster Recovery). Dzięki temu partnerzy producenta mogą oferować klientom więcej usług wdrożeniowych niż w przypadku prostych rozwiązań przeznaczonych tylko do środowisk wirtualnych. Sprzedaż rozwiązań Commvaulta w Polsce i całym regionie EMEA rośnie także dzięki dostarczanym przez partnerów usługom chmurowym, takim jak Backup as a Service, Archive as a Service, Disaster Recovery as a Service itd. Usługodawcy chętnie korzystają z oprogramowania Simpana, ponieważ zaszyte są w nim pewne funkcje nieobecne w innych rozwiązaniach, które w łatwy sposób pozwalają na dopasowanie oferty do potrzeb klientów. Dzięki temu rozwiązaniu możliwe jest m.in. stworzenie katalogu usług związa-

CRN Jakiej wiedzy oczekujecie od partnerów? PRZEMYSŁAW MAZURKIEWICZ Przede wszystkim dobrej znajomości biznesowych potrzeb i środowiska IT klientów. Powinni być świadomi założeń polityki dotyczącej ochrony danych w ich firmach, w tym takich informacji jak: częstotliwość wykonywania kopii zapasowych, potrzebna długość okna backupowego, wymagany czas przywrócenia dostępu do danych, wymogów prawnych w zakresie retencji informacji itd. CRN W tym roku rewolucyjną dla Commvaulta zmianą było udostępnienie interfejsu programistycznego API dla partnerów. Jakie nadzieje wiążecie z tą decyzją? PRZEMYSŁAW MAZURKIEWICZ Zaproponowaliśmy naszym partnerom współpracę w zakresie budowania aplikacji wykorzystujących silnik zarządzania danymi platformy Commvault. Pozwoli on na zbieranie danych, przenoszenie ich do archiwum, efektywną deduplikację oraz indeksowanie i przeszukiwanie. Liczymy na to, że firmy programistyczne, specjalizujące się w różnych niszowych dziedzinach, wykorzystają nasze rozwiązanie do rozbudowy funkcjonalności własnych aplikacji. Potencjalnych zastosowań jest bardzo wiele, bo praktycznie w każdej branży informacja zaczyna być najcenniejszym dobrem, więc trzeba o nią właściwie dbać. Według nas klienci chętniej wdrożą jedno rozwiązanie do zarządzania danymi, zamiast kilku punktowych i niezintegrowanych ze sobą.

nych z zarządzaniem danymi. Podczas ich definiowania można określić różne poziomy ochrony, czas odtworzenia danych itd. Dostępna jest też funkcja multi-tenancy, czyli pełne rozdzielenie danych różnych działów w jednej firmie lub różnych przedsiębiorstw – ma to szczególne znaczenie dla integratorów świadczących usługi kilku klientom. W ten sposób wyeliminowane zostaje ryzyko, że dane obsługiwanych firm mogą wpaść w niepowołane ręce. Dostępnych jest także wiele możliwości raportowania, co ułatwia późniejsze rozliczenie świadczonych usług. Oprogramowanie firmy Commvault przeznaczone jest dla średnich i dużych firm. Najlepiej sprawdza się tam, gdzie przedsiębiorcy doświadczają szybkiego, niekontrolowanego wzrostu ilości przetwarzanych danych. Producent wspiera partnerów podczas tworzenia ofert dla firm z różnych branż. Dla placówek ochrony zdrowia przygotował wręcz specjalną wersję pakietu Commvault, która ułatwia przeszukiwanie obrazowych da-

nych medycznych związanych z radiologią czy ultrasonografią. Podczas migracji danych ze starszych rozwiązań medycznych do nowszych rozwiązanie zapewnia ciągły dostęp do zgromadzonych informacji. W razie potrzeby specjaliści producenta pomagają partnerom w doborze odpowiedniej licencji, aby ekonomicznie była najbardziej korzystna dla klienta i żeby nie musiał kupować niepotrzebnych modułów. Commvault zapewnia również pełen cykl szkoleń i wsparcie podczas pierwszych wdrożeń. S4E jest jedynym autoryzowanym dystrybutorem oprogramowania Commvault w Polsce.

Dodatkowe informacje: RYSZARD REGUCKI, DYREKTOR KANAŁU SPRZEDAŻY NA REGION EUROPY WSCHODNIEJ, COMMVAULT, RREGUCKI@COMMVAULT.COM VADEMECUM CRN listopad 2016

27

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMAMI COMMVAULT I S4E.

Trzy pytania do…


BACKUP I ARCHIWIZACJA

Projekt stracony, a...

prowizja wypłacona! CTERA Networks specjalizuje się w systemach do backupu i ochrony danych dla firm każdej wielkości. Wraz z oferowanymi przez producenta urządzeniami dostarczane jest oprogramowanie do backupu stacji roboczych oraz serwerów.

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMAMI CTERA NETWORKS I EPA SYSTEMY.

F

irma CTERA Networks została założona we współpracy z Check Pointem, znanym na całym świecie producentem zapór sieciowych i systemów VPN. Urządzenia z rodziny CTERA Backup Solution umożliwiają zautomatyzowaną, bezpieczną synchronizację danych ze wszystkich komputerów i serwerów w przedsiębiorstwie. Jednym z ich podstawowych wyróżników jest cena, która odpowiada możliwościom nabywczym klientów z sektora małych i średnich firm oraz szeroko pojętego rynku administracji publicznej i szkolnictwa. Za niewielkie pieniądze mogą nabyć urządzenia z licznymi funkcjami, dotychczas dostępnymi tylko w najbardziej zaawansowanych systemach.

Łukasz Chęć Product Manager, EPA Systemy

Program partnerski z ochroną projektów istnieje od momentu, gdy EPA Systemy została wyłącznym dystrybutorem tego dostawcy w Polsce, a więc od 2011 r. Dzięki niemu firmy sprzedające systemy backupu tego producenta mają pewność, że ich praca zawsze zostanie wynagrodzona. Partner, który zarejestrował projekt i go stracił, może liczyć na minimum 18 proc. marży. W przypadku przekroczenia założonego dla danej firmy kwartalnego progu marża może sięgnąć nawet 28 proc.

28

VADEMECUM CRN listopad 2016

W ofercie producenta jest także platforma Cloud Attached Storage – hybrydowe rozwiązanie składające się z montowanego u klienta sprzętu do przechowywania danych oraz pakietu usług w chmurze. Dzięki temu resellerzy mogą szybko wdrażać u swoich klientów systemy typu „cloud storage”, bazujące na dwóch metodach zapisu backupowanych danych – lokalnej i zdalnej. Rozwiązania CTERA nie tylko zapewniają wykonywanie backupu i archiwizacji danych, ale również stanowią bardzo wydajną platformę do udostępniania plików w sieci lokalnej i zarządzania nimi. Urządzenia producenta pracują jak typowe dyski sieciowe o dużej wydajności – dane mogą być odczytywane z wykorzystaniem protokołów CIFS, Samba, NFS, AFP i iSCSI, dzięki czemu są dostępne dla różnych systemów operacyjnych jednocześnie. Są objęte roczną gwarancją, którą można przedłużać każdego roku. Pakiet gwarancyjny zapewnia aktualizację oprogramowania oraz możliwość wymiany uszkodzonego urządzenia w trybie NBD (Next Business Day).

PEŁNA OCHRONA PROJEKTÓW Urządzenia CTERA Networks objęto nowatorskim, wyróżniającym się na rynku programem partnerskim, o którego zaletach w ciągu ostatnich kilku lat mogło się przekonać wielu integratorów. Wprowadził go w Polsce wyłączny dystrybutor – firma EPA Systemy. Program partnerski producenta gwarantuje przede wszyst-

kim weryfikację i ochronę projektów, które są rejestrowane w ogólnoświatowym systemie, dzięki czemu są o nich informowani nawet dystrybutorzy z zagranicy. Pozwala to uniknąć konkurowania nie tylko z partnerami z Polski, ale również z Europy i całego świata. W programie partnerskim może uczestniczyć każdy reseller. Jedynym warunkiem jest ukończenie szkolenia produktowego w formie webinarium lub „na żywo” – w biurze partnera. Odbycie szkolenia uprawnia do uzyskania rabatów na poziomie od 20 do 30 proc., rejestracji w ogólnoświatowym CRM-ie oraz gwarancji wypłacenia prowizji za każdy zgłoszony projekt. CTERA Networks i EPA Systemy chcą, aby partnerzy otrzymywali wynagrodzenie za pracę włożoną w poszukiwanie klientów. Dlatego też w sytuacji, gdy partner zarejestruje projekt, ale klient końcowy kupi rozwiązanie CTERA od innej firmy, EPA Systemy wypłaca prowizję rejestrującemu partnerowi.

Dodatkowe informacje: ŁUKASZ CHĘĆ, PRODUCT MANAGER CTERA, EPA SYSTEMY, L.CHEC@EPASYSTEMY.PL


Veeam gwarantuje dostępność

danych w chmurze hybrydowej Dzięki rozwiązaniu Veeam Availability Platform for Hybrid Cloud firmy każdej wielkości mają zapewnioną ciągłość procesów przebiegających w fizycznych, wirtualnych i chmurowych środowiskach IT. Krzysztof Rachwalski Regional Director, Veeam Software

Według firmy IDC przedsiębiorstwa powinny korzystać z rozwiązań chmurowych nie tylko do uzyskania przewagi konkurencyjnej, ale wręcz do zapewnienia sobie przetrwania w przyszłości. Z przeprowadzonych badań wynika, że do 2019 r. większość podmiotów na całym świecie będzie musiała przeprowadzić migrację do chmury jako swojego głównego środowiska IT. Dlatego konieczne jest zagwarantowanie dostępności procesów przebiegających w firmach, niezależnie od tego, czy bazują na infrastrukturze IT znajdującej się w siedzibie przedsiębiorstwa, czy też do ich realizacji wykorzystywane są usługi w chmurze.

as a Service (DRaaS). Dzięki temu umożliwia integratorom i resellerom rozpoczęcie nowej działalności w charakterze dostawcy takich usług.

BACKUP VEEAM RÓWNIEŻ W OFFICE 365 W sierpniu bieżącego roku producent zaprezentował również rozwiązanie Veeam Backup dla Microsoft Office 365. Dzięki niemu firmy mogą tworzyć kopie poczty elektronicznej z Office 365 w swoich lokalnych środowiskach IT, a także szybko odzyskiwać pojedyncze wiadomości i efektywnie przeszukiwać archiwa e-mail (eDiscovery). Nowy produkt można zintegrować z rozwiązaniem Veeam Backup & Replication. Dzięki temu użytkownicy mogą w prosty sposób przenosić dane ze skrzynek pocztowych Office 365 na lokalny serwer Exchange. Usługa Veeam Backup dla Microsoft Office 365 ma zostać uruchomiona w IV kwartale 2016 r., a jej bezpłatna roczna subskrypcja będzie dostępna dla użytkowników wszystkich edycji Veeam Availability Suite oraz Veeam Backup & Replication. Natomiast użytkownicy wersji Enterprise Plus tych systemów otrzymają 3-letnią bezpłatną subskrypcję.

Dodatkowe informacje: SYLWESTER DERDA, MARKETING MANAGER POLAND, BALTICS & SEE, VEEAM SOFTWARE, SYLWESTER.DERDA@VEEAM.COM VADEMECUM CRN listopad 2016

29

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ VEEAM SOFTWARE.

D

la przedsiębiorstw najważniejsza jest gwarancja ciągłości biznesowej. Veeam Availability Platform zapewnia czas przywrócenia do pracy (Service Level Objective) krótszy niż 15 minut dla wszystkich rodzajów aplikacji i danych, umożliwia także koordynowanie procesu usuwania skutków awarii (Disaster Recovery). Platforma ułatwia bezproblemowe dostarczanie usług chmurowych, dzięki czemu przedsiębiorstwa mogą zapewnić sobie większą elastyczność działania i zoptymalizować inwestycje w IT. Użytkownicy mają też zagwarantowane prewencyjne monitorowanie, testowanie i dokumentowanie działania wykorzystywanych usług w celu zapewnienia zgodności z przepisami prawa i wewnętrznymi regulacjami. Rozwiązanie Veeam Availability Platform zapewnia stałą dostępność usług i danych na kilka sposobów. Najważniejszym jego elementem jest pakiet Veeam Availability Suite (składają się na niego Veeam Backup & Replication i Veeam ONE), gwarantujący dostępność procesów w chmurach prywatnych i środowiskach wirtualnych. W najnowszej wersji Veeam Availability Suite 9.5 pojawiło się ok. 100 nowych i ulepszonych funkcji. Wśród nich jest pełna integracja z tegorocznymi wersjami Microsoft Windows Server i Hyper-V. Dzięki temu ulepszeniu Veeam pomaga przedsiębiorstwom uzyskać wyższy stopień bezpieczeństwa i uprościć systemy IT. Zapewniona została także bezpośrednia współpraca rozwiązań Veeam z najpopularniejszym na świecie systemem operacyjnym, hiperwizorem oraz najczęściej używanymi aplikacjami korporacyjnymi. Dostępność procesów w chmurach publicznych i serwerach fizycznych zapewniana jest dzięki rozwiązaniom Veeam Agent dla Linuxa oraz Veeam Agent dla Microsoft Windows. Natomiast koordynację usuwania skutków awarii umożliwia rozwiązanie Veeam Availability Orchestrator. Ułatwia ono przywracanie danych z kopii zapasowych i replik całego środowiska w ramach zdefiniowanego planu Disaster Recovery, testowanie go pod kątem zgodności z polityką bezpieczeństwa, a także weryfikację zgodności z przepisami prawa dotyczącymi danego przedsiębiorstwa czy wewnętrznymi regulacjami. Nowością w platformie jest Veeam Availability Console – konsola administracyjna, która wykorzystuje rozwiązanie Veeam Cloud Connect do optymalizacji backupu i umożliwia łatwe zarządzanie nim w oddziałach i biurach firm oraz innych rozproszonych placówkach. Zapewnia także firmom oferowanie usług Backup as a Service (BaaS) i Disaster Recovery


BACKUP I ARCHIWIZACJA

Archiwizacja poczty z wartością dodaną Sprawne działanie przedsiębiorstw zależy często od skutecznego monitorowania procesów biznesowych oraz umiejętności błyskawicznego odszukania danych archiwalnych. Szczególnie ważne stało się też zachowanie zgodności z regulacjami prawnymi. Realizację tych zadań ułatwia oprogramowanie do archiwizacji poczty elektronicznej firmy Cryoserver. Najważniejszym narzędziem komunikacyjnym w przedsiębiorstwach niezmiennie pozostaje poczta elektroniczna. Przesyła się nią niemal 90 proc. informacji o decyzjach biznesowych, umów i dokumentów finansowych. Poza tym w wielu przypadkach firmy są zobowiązane przez prawo do przechowywania wiadomości elektronicznych przez określony czas. Wraz z rozwojem przedsiębiorstwa liczba e-maili gwałtownie rośnie, w dodatku najczęściej w niekontrolowany sposób. Chociaż firmy od dawna nie mają wątpliwości, że archiwizacja poczty jest niezbędna, w praktyce nie zawsze potrafią ten proces skutecznie przeprowadzić. Co więcej, mimo że narzędzia do przechowywania plików i zarządzania nimi (w tym oprogramowanie do archiwizowania e-maili) oferują coraz większe możliwości, przedsiębiorstwa wciąż nie potrafią się nimi właściwie posługiwać. Powszechnie bowiem interakcja, np. z systemem do archiwizowania poczty, kończy się na zainstalowaniu i skonfigurowaniu narzędzia, którego potem trudno użyć. Może to prowadzić do poważnych problemów z odzyskiwaniem danych. Tymczasem w nowoczesnej firmie jedynym wartościowym archiwum pocztowym jest takie, którego zarówno dział IT, jak i użytkownicy używają na co dzień.

SKRZYNKA O NIEOGRANICZONYM ROZMIARZE

Rozwiązanie Cryoserver zaspokaja potrzeby większości przedsiębiorstw, które borykają się ze stworzeniem i skutecznym egzekwowaniem reguł polityki

30

VADEMECUM CRN listopad 2016

zarządzania pocztą elektroniczną, przechowywania wiadomości e-mail oraz wykorzystywania treści w nich zawartych. Takiej, która spełniałaby wymagania zarówno biznesowe, jak i prawne. Oprogramowanie to służy do tworzenia archiwum o praktycznie nieograniczonym rozmiarze, do którego bezpiecznie kopiuje się w czasie rzeczywistym e-maile docierające do serwera pocztowego. Cryoserver umożliwia użytkownikom szybkie samodzielne odzyskiwanie e-maili z archiwum, co oszczędza czas i zmniejsza liczbę zapytań kierowanych do działów IT. Ogranicza także znacząco wykorzystanie zasobów przez serwer pocztowy, ponieważ kompresuje, deduplikuje i szyfruje e-maile na oddzielnym serwerze. W rezultacie oszczędność

przestrzeni dyskowej przeznaczonej dla serwera pocztowego może wynosić nawet 75 proc. Cryoserver przekształca zawartość dotychczas wykorzystywanych plików z wiadomościami z poczty elektronicznej w jedno łatwe do przeszukiwania archiwum. Dzięki temu spada ryzyko uszkodzenia bazy z e-mailami, na co szczególnie podatne są pliki PST. Produkt marki Cryoserver jest przeznaczony dla firm każdego rodzaju i wielkości – od małych i średnich do ISP. Może być instalowany w siedzibie klienta, ale jest też oferowany w modelu Software as a Service. W wersji do instalacji jest dostarczane jako appliance działający w trybie plug-and-play albo oprogramowanie wdrażane na sprzęcie klienta lub wirtualnym serwerze. Bez względu na to, jaką


72%

KOSZTÓW

OGRANICZANIE

40% Z PRZEPISAMI

ZACHOWANIE ZGODNOŚCI

52% RETENCJI DANYCH

ZAPEWNIENIE BEZPIECZNEJ

PROBLEM

organów o naruszeniu ochrony danych, bardzo ważna staje się możliwość szybkiego odszukiwania i odzyskiwania wiadomości e-mail. Na przedsiębiorstwa zostanie nałożony obowiązek przechowywania informacji przez zadany czas (zależny od typu danych) oraz niszczenia danych osoby chcącej skorzystać z prawa do bycia zapomnianym. Każdy będzie mógł także wystąpić z wnioskiem o dostęp do swoich danych, by dowiedzieć się, jakie informacje są w posiadaniu firm. Dlatego przedsiębiorstwom, które będą miały do czynienia z wieloma tego typu zleceniami, posiadanie szybkich i precyzyjnych narzędzi do przeszukiwania dużych baz danych zapewni znaczną oszczędność czasu.

Źródło: Cryoserver

cyfrowo (np. w postaci e-maili). Do zaostrzonych wymogów będą musiały dostosować się zwłaszcza takie sektory jak administracja państwowa, ochrona zdrowia oraz usługi finansowe i prawne. Nowe przepisy znacznie bardziej rygorystycznie traktują kwestię powiadamiania władz o naruszeniu ochrony danych osobowych. Niedopełnienie procedur będzie skutkowało niezwykle wysokimi grzywnami (dochodzącymi do 20 mln euro bądź 4 proc. całkowitego dochodu firmy). Nie powinno być zaskoczeniem, że najwięcej naruszeń ochrony informacji dokonują pracownicy odchodzący z przedsiębiorstw, wykorzystujący dane, do których mieli dostęp. Dlatego tak istotne staje się właściwe desygnowanie praw dostępowych oraz umiejętność ich audytu. Ponieważ firmy będą miały jedynie 72 godziny na poinformowanie odpowiednich

Robert Włodarczyk dyrektor handlowy, AKBIT

Większość klientów nie zdaje sobie sprawy z korzyści płynących z archiwizacji poczty elektronicznej. Najczęściej do incydentu wymagającego dostępu do poczty historycznej. Dopiero wtedy odkrywają, że możliwe jest uzyskanie bardzo szybkiego dostępu do informacji, której odnalezienie wcześniej trwało nawet kilka godzin. Ma to szczególne znaczenie wtedy, gdy w grę wchodzi czas i pieniądze, czyli np. w wypadku utraty danych pocztowych przez kluczowych pracowników firmy.

ARCHIWIZOWANIE POCZTY NAJWAŻNIEJSZE Gdy przepisy się zaostrzają, coraz więcej zależy od systemów zarządzania plikami, takich jak archiwizacja poczty. Skorzystanie z rozwiązania Cryoserver umożliwia zachowanie zgodności z regulacjami, bez względu na to, jak szybko będą przyrastać dane. Rozporządzenie GDPR sprawia, że rośnie znaczenie takiego rozwiązania do archiwizacji poczty, z którego łatwo korzystać. Dzięki temu pracownicy zyskują dostęp do potrzebnych danych bez kontaktowania się z działami IT. Te z kolei mogą ustalać reguły retencji wiadomości e-mail, by dane były usuwane w odpowiednim momencie. Mają też możliwość dokonywania kontrolnych przeszukiwań i usuwania efektów nadużyć w przypadku wykorzystywania dostępu do cudzych skrzynek pocztowych przez uprzywilejowanych użytkowników. Wyłącznym dystrybutorem rozwiązania Cryoserver w Polsce jest AKBIT.

Dodatkowe informacje: KRZYSZTOF MELLER, CEO, AKBIT, SALES@AKBIT.PL VADEMECUM CRN listopad 2016

31

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMAMI CRYOSERVER I AKBIT.

Jednym z najważniejszych argumentów za zainwestowaniem w rozwiązanie do archiwizacji poczty jest konieczność zachowania zgodności z przepisami prawnymi. To kryterium wyboru stało się jeszcze ważniejsze ze względu na nowe unijne rozporządzenie o ochronie danych osobowych, czyli General Data Protection Regulation. Jest ono obecnie jednym z najgorętszych tematów w branży IT, ponieważ wejdzie w życie już w 2018 r. W efekcie każde przedsiębiorstwo musi już dziś znacznie więcej uwagi poświęcić sposobom zabezpieczania informacji, także przesyłanych pocztą elektroniczną. GDPR obejmuje wszelkie formy działań związanych z danymi. Wprowadza przepisy dotyczące bezpieczeństwa informacji, odpowiedzialności za nie, retencji wiadomości e-mail i powiadomień o naruszeniu ochrony danych osobowych. Rozporządzenie wzmacnia mechanizmy ochrony prywatności, które mają być stosowane domyślnie, już w fazie projektowania procesów i rozwiązań IT. Dotyczy to m.in. prawa do bycia zapomnianym oraz do przesyłania danych między usługodawcami. W ten sposób GDPR wpłynie na działanie wszystkich przedsiębiorstw, a już szczególnie tych, których praca wiąże się z przetwarzaniem danych osobowych i informacji przechowywanych

Z JAKIMI MUSZĄ MIERZYĆ SIĘ DZIAŁY IT

WSKAZUJĄ KONKRETNY PROBLEM

UWAGA, NADCHODZI GDPR

NAJWIĘKSZE WYZWANIA,

PROCENT RESPONDENTÓW, KTÓRZY

wersję wybierze klient, Cryoserver zapewni ten sam poziom bezpieczeństwa i niezawodności oraz komfort użytkowania. Rozwiązanie umożliwia zdalny dostęp do archiwum, np. przy użyciu aplikacji mobilnych dostosowanych do urządzeń z systemami Android, iOS, Windows Mobile i BlackBerry OS.


Fot. © tashatuvango – Fotolia.com

NOŚNIKI DANYCH

Ciężki żywot nośnika danych

Czy i kiedy dyski HDD zostaną ostatecznie wyparte przez nośniki SSD? Czy rzekomo odchodząca w przeszłość taśma zacznie cieszyć się rosnącą popularnością? A może czarnym koniem okaże się niedoceniany w Polsce standard RDX? Na rynku nośników danych mamy obecnie więcej pytań niż odpowiedzi. WOJCIECH URBANEK

32

VADEMECUM CRN listopad 2016


R

ynek pamięci masowych rozwijał się przez długie lata w dość ślamazarnym tempie, ale w ostatnim czasie nastąpiło ostre przyspieszenie. Trwa ofensywa dysków SSD. Superszybkie nośniki znajdują coraz więcej zwolenników wśród konsumentów i klientów korporacyjnych. Wzrasta też zapotrzebowanie na dużą pojemność, co zapewnia względny spokój producentom dysków twardych. Swego rodzaju fenomen stanowią taśmy, które nie zamierzają pożegnać się z rynkiem. Wygląda na to, że w erze wielkich zbiorów danych każdy nośnik jest na wagę złota. To dobra wiadomość dla resellerów i integratorów, którzy będą pełnić rolę nie tylko sprzedawców, ale również doradców, pomagających klientom odpowiednio ułożyć optymalną dla nich układankę z rozmaitych nośników. Mogą zacząć od królującego w statystykach standardu LTO. Liczy sobie 16 lat i został opracowany przez konsorcjum firm HP, Quantum oraz IBM. Pod koniec ubiegłego roku do sprzedaży trafiła już siódma generacja LTO. Taśmy LTO-7 mają 6 TB fizycznej pojemności oraz zapewniają transfer danych na poziomie

Niektórzy producenci poszukują złotego środka, spajającego najlepsze cechy napędów taśmowych i dysków twardych. Dlatego oferują napędy RDX. 300 MB/s. Bardzo przyzwoite parametry wydajnościowe gwarantują także starsze wersje LTO-6 i LTO-5. Co istotne, począwszy od wersji LTO-5, użytkownicy mogą korzystać z otwartego formatu przechowywania danych LFTS, umożliwiającego wyszukiwanie pojedynczych plików i ich odtwarzanie. Taśma zawdzięcza swoją nieśmiertelność konkurencyjnym cenom i temu, że nie zużywa energii. Cieszy się też dłuższą

żywotnością. Eksperci obliczyli, że odpowiednio przechowywane taśmy mogą zostać odczytane nawet po kilkudziesięciu latach. Według informacji pochodzących od konsorcjum LTO w 2015 r. producenci sprzedali taśmy w tym standardzie o łącznej pojemności 76 tys. PB. To oznacza nie tylko wzrost o 17,8 proc. w ujęciu rocznym, ale również najlepszy wynik w całej historii standardu LTO. Warto dodać, że od 2000 r. firmy oraz instytucje kupiły nośniki LTO o pojemności przekraczającej 385 tys. PB. Nie wiadomo czy bieżący rok przyniesie kolejny rekord. Natomiast jedno jest pewne: warto zatrzymać taśmy w ofercie, bowiem w najbliższych lat przydadzą się w dużych firmach i instytucjach korzystających z długoterminowej archiwizacji offline.

DYSKI WYGRYWAJĄ Z TAŚMAMI Dostawcy taśm chwalą się ilościowymi przyrostami sprzedaży, aczkolwiek na tle sprzedaży dysków korporacyjnych prezentują się one dość skromnie. Według IDC w drugim kwartale 2016 r. producenci serwerów i macierzy sprzedali 30 819,79 PB powierzchni dyskowej. Nośniki HDD, jak i SSD idealnie nadają się do tworzenia układów macierzowych, dzięki czemu ich możliwości w zakresie przechowywania i archiwizowania danych są niemal nieograniczone. Należy się też liczyć z rosnącą rolą dysków mechanicznych w systemach backupu online i prostych rozwiązaniach do replikacji danych. Niestety, „twardziele” nie gwarantują danym nieśmiertelności. W przypadku zapisu magnetycznego na HDD zachodzi zjawisko zaniku ładunku magnetycznego. Wprawdzie proces przebiega dość wolno i wynosi ok. 1 proc. rocznie, ale w dłuższej perspektywie może zagrażać bezpieczeństwu danych. Dyski twarde zawierają także delikatne elementy mechaniczne, które są podatne na uszkodzenia. Zresztą czas życia „twardziela” jest swego rodzaju loterią. Dysk mechaniczny czasami potrafi pracować ponad dekadę, ale zdarzają się przypadki, że nie wytrzymuje nawet rocznej eksploatacji. Niektórzy producenci poszukują złotego środka, spajającego najlepsze cechy na-

Jak długo żyje dysk mechaniczny? Ciekawe dane na temat wytrzymałości dysków twardych przynoszą badania BackBlaze. Ta amerykańska firma, świadcząca usługi backupu online, co kwartał publikuje zestawienia awaryjności nośników. Usługodawca przechowuje zasoby cyfrowe na autorskich macierzach Storage Pod, w których instaluje dyski konsumenckie. Większość providerów unika tego typu praktyk, aczkolwiek BackBlaze w ten sposób obniża koszty. Według ostatniego raportu obejmującego roczną eksploatację nośników od 1 kwietnia ubr. do 31 marca br. najlepiej wypadły dyski HGST z awaryjnością na poziomie 1,03 proc., a druga lokata przypadła napędom Toshiby (3,06 proc.). Gorzej wypadły urządzenia dwóch największych producentów: Seagate (3,46 proc.) oraz WD (6,55 proc). Na uwagę zasługuje fakt, iż w przypadku Seagate’a wynik jest znacznie lepszy niż w poprzednim badaniu, kiedy to awaryjność jego dysków wynosiła 10,68 proc.

pędów taśmowych i dysków twardych, oferując napędy RDX. Rozwiązanie składa się ze stacji dokującej oraz przenośnych 2,5-calowych dysków twardych z wymienialnymi kasetami, chroniącymi nośniki przed wstrząsami i upadkami. Technologia wymiennej pamięci masowej RDX łączy mobilność i niezawodność taśm z szybkością odczytu i zapisu danych oraz prostotą obsługi dysków twardych. Pomimo tego, w Polsce nie cieszy się zbyt dużym powodzeniem. – HPE sprzedaje w Polsce niewiele rozwiązań RDX. Zazwyczaj kupują je hotelarze oraz małe firmy, które nie zatrudniają informatyków. Przedsiębiorstwa częściej wybierają zaawansowane technologie taśmowe LTO – tłumaczy Wojciech Kozikowski, Storage Solution Architect w HPE. W podobnym tonie wypowiada się Tomasz Filipów, prezes Diskus. Fakt, że w Polsce nośniki RDX nie cieszą się popularnością tłumaczy wysoką ceną, małymi nakładami marketingowymi producentów i niewielkim zainteresowaniem ze strony dystrybutorów i resellerów. VADEMECUM CRN listopad 2016

33


NOŚNIKI DANYCH - Zupełnie inaczej jest Niemczech, gdzie z produktów RDX korzystają małe firmy oraz osoby wykonujące wolne zawody – zauważa Tomasz Filipów.

SZYBKIE, ALE CZY TRWAŁE? Eksperci i analitycy prognozują, że w najbliższej przyszłości pierwszoplanową rolę na rynku pamięci masowych odgrywać będą dyski SSD. Są wydajne, energooszczędne, bezgłośne i praktycznie pod każdym względem biją na głowę mechanicznych kuzynów. Dyski HDD zawdzięczają ryn-

kowy byt cenie. Za nośnik SSD trzeba zapłacić 20–50 centów za 1 GB, w zależności od pojemności i rodzaju układu NAND. Natomiast cena zwykłego dysku twardego o wielkości 1 TB wynosi około 4 centów za 1 GB. Różnica wciąż jest zatem duża, ale będzie sukcesywnie maleć. Samsung zapowiada, że w 2020 r. klienci wydadzą na zakup napędu SSD 512 GB tyle, ile dziś przeznaczają na dysk mechaniczny o pojemności 1 TB. Spadek cen sprawia, że pamięci flash szybko zdobywają nie tylko rynek konsumencki, ale również rozwiązań kor-

Dane w walizce i sejfie Przewożenie danych w walizce może się wydawać w obecnych czasach anachronizmem. Jednak przykład usług Amazon Snowball pokazuje, że nawet dostawcy najnowszych technologii od czasu do czasu korzystają z klasycznych rozwiązań. Ten specyficzny dysk, o pojemności 80 TB, waży 25 kg i służy do przewożenia danych, najczęściej z siedziby klienta do data center lub odwrotnie. Nie wszyscy muszą korzystać z tak zaawansowanych rozwiązań do transportu danych, w większości wypadków wystarczą specjalne walizki. Wszystko wskazuje, że mimo rosnącej przepustowości sieci, wciąż trzeba będzie korzystać z tego typu akcesoriów. Walizki na nośniki wydają się być nieodzowne podczas składowania kopii zapasowych w nowym miejscu, przeprowadzki firmy czy przewożenia danych do zagranicznego oddziału. Dzielą się zazwyczaj na dwie kategorie: do dysków twardych i taśm. Taśmy mają stosunkowo dużą odporność na wstrząsy, nawet upadek z wysokości 1 m nie powinien być groźny. Natomiast dyski są dużo bardziej delikatne. Transportowane nośniki umieszczane są w wodoodpornych i pyłoszczelnych komorach, które mogą być cały czas monitorowane przez system GPS. Jeśli walizka zostanie otwarta przez osoby do tego nieupoważnione, system wyśle powiadomienie.

34

VADEMECUM CRN listopad 2016

Niektóre przedsiębiorstwa zaopatrują się w specjalne sejfy do przechowywania nośników danych. Cyfrowe zasoby często trzeba chronić nie tylko przed hakerami, ale również włamywaczami i rozmaitymi żywiołami. Sejfy na nośniki danych, oprócz tego, że posiadają specjalne przegrody do przechowywania taśm, dysków twardych, płyt DVD i CD, chronią też przed ogniem. Ta ostatnia właściwość ma szczególne znaczenie, bowiem nośniki są bardzo wrażliwe na wysoką temperaturę i mogą ulec zniszczeniu, kiedy osiągnie ona 55oC. Niektóre modele sejfów, zgodne z certyfikatem S 120 DIS, gwarantują 2 godziny odporności ogniowej. Inne właściwości zapewniają ochronę danych przed np. działaniem wody przez 4 godz. na głębokości 3 m. Sprzedaż walizek i sejfów przeznaczonych do przechowywania danych nie należy do najbardziej intratnych biznesów. Zdecydowana większość przedsiębiorców nie wykazuje tak dużej troski o dane, aby sięgać po specyficzne zabezpieczenia. Czasami nawet nie wiedzą o istnieniu takich produktów. Dlatego podczas sprzedaży macierzy dyskowej, serwera NAS, przenośnych dysków, a nawet usług chmurowych, warto wspomnieć o tych mniej znanych, aczkolwiek przydatnych rozwiązaniach.

poracyjnych. W II kwartale bieżącego roku przychody ze sprzedaży systemów all-flash osiągnęły poziom 1,1 mld dol., o 94,5 proc. więcej niż rok wcześniej. Dużym popytem cieszą się też rozwiązania hybrydowe, łączące nośniki SSD oraz HDD, które wygenerowały obrót w wysokości 2,3 mld dol., co daje im 26-proc. udział w rynku systemów pamięci masowych. W najbliższym czasie rodzimi resellerzy powinni bardziej skoncentrować się na sprzedaży rozwiązań hybrydowych. W Polsce wciąż niełatwo o klientów poszukujących „czystych” systemów flash. Warto zwrócić uwagę na fakt, że za prędkością odczytu i zapisu nie zawsze nadąża wytrzymałość. Producenci coraz częściej wkładają do swoich urządzeń, w tym również do macierzy, nośniki TLC NAND flash. W ubiegłym roku wykorzystano tę technologię w 50 proc. wyprodukowanych układów scalonych. Co to oznacza dla cyklu życia nośników? Poszczególne rodzaje pamięci różnią się ceną i żywotnością. W przypadku układów SLC NAND maksymalna liczba cykli kasowania i programowania pojedynczej komórki pamięci wynosi 100 tys. cykli, dla MLC NAND waha się między 3 a 10 tys., a dla TLC NAND – od 500 do 3 tys. Jak widać, optymalne możliwości w zakresie odczytu i zapisu gwarantuje SLC NAND, który mieści 1 bit danych w komórce. Ze względu na stan komórki SLC (może być pusta lub pełna) proces przebiega szybko. Niestety, układy są na tyle drogie, że stały się rozwiązaniem niszowym. Natomiast najbardziej pojemna komórka TLC NAND (mieści 3 bity danych) potrzebuje cztery razy więcej czasu na zapisanie oraz dwa i pół raza więcej czasu na odczytanie danych niż komórka SLC.

ODZYSKIWANIE DANYCH Klęski żywiołowe i wady techniczne nośników napędzają popyt na usługi odzyskiwania danych. W Polsce ten obszar zagospodarował Kroll Ontrack. Niemniej jednak podobne usługi oferują również HD Lab, Mediarecovery oraz Data Lab. Jacek Ruszkowski, koordynator kontraktów z Comp, zwraca uwagę na malejący popyt na usługi odzyskiwania danych ze strony klientów korporacyjnych.


Mirosław Chełmecki, dyrektor Działu Serwerów i Pamięci Masowych, Veracomp Rafał Nowogrodzki, Product Manager Servers & Storage, AB

MIROSŁAW CHEŁMECKI Wybór odpowiedniej metody zabezpieczania i przechowywania danych to bardzo istotna kwestia. Każda firma powinna posiadać właściwą strategię zarządzania nimi. Należy przy tym pamiętać, że w przedsiębiorstwie mamy do czynienia z dwoma rodzajami danych. Pierwsze to dane krytyczne, do których musimy mieć stały dostęp. Drugą grupę stanowią dane używane sporadycznie, przechowywane ze względu na regulacje i różnorakie aspekty prawne. W wyborze nośnika należy uwzględniać takie cechy jak: pojemność, cena rozwiązania z uwzględnieniem napędów, „żywotność” i ewentualna kompatybilność wstecz, podatność na zniszczenie, rozmagnesowanie itp. RAFAŁ NOWOGRODZKI Resellerzy powinni uważnie śledzić zmiany na rynku nośników, także tych z kategorii taśm magnetycznych. Równolegle warto zainteresować się nowszymi rozwiązaniami, takimi jak nośniki magnetyczne (dysk HDD, RDX) i pamięci flash. Rolą resellera powinno być doradztwo w wyborze najbardziej adekwatnego rozwiązania dla klienta, ponieważ takie podejście gwarantuje długofalowe i partnerskie relacje. To z kolei przełoży się na efekty sprzedażowe.

Jerzy Adamiak, konsultant ds. systemów pamięci masowej, Alstor

Piotr Biela, członek zarządu netology

– Zauważamy niesłabnące zainteresowanie usługami odzyskiwania danych głównie wśród osób prywatnych, a także instytucji publicznych i małych przedsiębiorstw. Znacznie rzadziej trafiają do nas nośniki z dużych przedsiębiorstw, gdzie na szeroką skalę wdrożone są systemy zabezpieczające krytyczne dane. Na rynku pojawiają się coraz bardziej dostępne cenowo rozwiązania zapewniające zabezpieczanie danych – mówi Jacek Ruszkowski. Choć w dużych firmach poziom wiedzy w tym zakresie jest wyższy i korzysta się z systemów, w których awaria jednego czy dwóch napędów nie powoduje utraty danych, ich odzyskiwanie pozostanie lukratywnym przedsięwzięciem. Wciąż nie brakuje ludzi bezmyślne obchodzących się ze sprzętem, a przyrastająca ilość danych sprawia coraz więcej kłopotów z ich nośnikami. Niewiadomą jest też wytrzymałość dysków SSD, w tym dopiero wchodzących na rynek modeli z pamięciami 3D NAND.

JERZY ADAMIAK Taśma jest jedynym dostępnym nośnikiem wymiennym, gwarantującym niezawodność przechowywania danych w długim okresie – przez minimum 30 lat. Resellerzy powinni mieć w ofercie taśmy, gdyż dla wielu użytkowników pozostają jedynym wyborem. Jednakże cena pojedynczego nośnika jest dużo niższa niż dysku mechanicznego, nie wspominając o macierzach i serwerach NAS. W związku z tym sprzedaż taśm nie przynosi zbyt dużych profitów. PIOTR BIELA Jeszcze rok czy dwa lata temu, kiedy była mowa o długoterminowym składowaniu dużych ilości danych lub zadaniach archiwizacyjnych, taśma magnetyczna wydawała się naturalnym wyborem. Decydowała o tym dojrzałość tej technologii i całkiem dobra relacja pojemności do ceny. Dzisiaj nie jest to już takie oczywiste. Miejsce „na tronie” zaczynają zajmować zbudowane w modelu SDS obiektowe systemy pamięci masowych, które już teraz oferują porównywalne parametry cenowe (TB/PLN). Jednocześnie zapewniają dostęp do funkcji niedostępnych dla napędów LTO: weryfikacji dostępności i spójności danych, deduplikacji, replikacji do lokalizacji zdalnych czy możliwości integracji z chmurowymi usługami składowania danych. Wszędzie tam, gdzie potrzeba wysokich wydajności, rządzi technologia Flash.

– Możliwość oferowania usług odzyskiwania danych ma także znaczący wpływ na budowanie lojalności dotychczasowych kontrahentów. Aż 89 proc. naszych certyfikowanych partnerów stwierdziło, że dzięki dostarczeniu profesjonalnej usługi odzyskiwania danych otrzymali od klienta dodatkowe zamówienia – dodaje Adam Kostecki, dyrektor ds. sprzedaży w Kroll Ontrack.

ZABIJANIE DANYCH Na firmowych taśmach i dyskach spoczywa wiele cennych informacji. W sytuacji gdy przedsiębiorstwo likwiduje lub naprawia sprzęt, polskie prawo wymaga od niego bezpowrotnego kasowania danych z urządzeń i nośników elektronicznych. Można to zrobić na dwa sposoby: sformatować dysk przy użyciu specjalistycznego oprogramowania lub zniszczyć nośnik razem z danymi, wykorzystując do tego demagnetyzer, niszczarkę bądź metodę

chemiczną. Oprogramowanie stosuje się, aby skasować dane, ale zachować sprawność dysku lub taśmy. Eksperci zalecają posługiwanie się aplikacjami posiadającymi międzynarodowe certyfikaty wydane przez NATO czy Departament Obrony Stanów Zjednoczonych. Bardziej inwazyjnie działają demagnetyzery, które kasują dane i niszczą nośnik w ciągu niespełna minuty. W sprzedaży są też dostępne urządzenia, które wyposażono w mechanizm przedpłat Pre-Paid Management System (PPMS). Mają one zastosowanie w sytuacji gdy klient nie zgadza się na wywiezienie dysków z jego siedziby, ale też proces niszczenia jest rozciągnięty w czasie, np. kilka nośników dziennie. Wówczas firma świadcząca usługi niszczenia danych może takie urządzenie odpłatnie wypożyczyć, ale jednocześnie ustawić maksymalną liczbę cykli kasowania, po której przekroczeniu następuje blokada. VADEMECUM CRN listopad 2016

35


NOŚNIKI DANYCH

Dyski Seagate

do zadań specjalnych Serwery NAS oraz rejestratory wideo zapisują dane na twardych dyskach w charakterystyczny dla nich sposób. Z tego powodu powinny być tam instalowane napędy specjalnie zaprojektowane do tego typu urządzeń.

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ SEAGATE.

S

eagate od ponad dekaSeagate ma w ofercie takdy ma w ofercie twarde że dyski zaprojektowane spedyski przeznaczone do cjalnie do zastosowania w cyserwerów NAS. Dzięki wzmocfrowych rejestratorach do monionym częściom mechanicznitoringu wizyjnego (SDVR) nym są przystosowane do pracy Mechanika wszystkich twardych dysków została zaprojektowana i rejestratorach sieciowych w taki sposób, aby były w stanie pracować z określonym obciąże(NVR). Napędy z nowej rodziprzez całą dobę. Nowa rodzina niem. Znaczenie mają przede wszystkim takie parametry jak liczba produktów IronWolf została ny SkyHawk mają pojemność godzin pracy (dziennie i w ciągu roku) oraz ilość zapisanych daod 1 do 10 TB. Dzięki ich wyzaprojektowana do wykorzynych. Roczny współczynnik obciążenia wyrażany jest uśrednioną sokiej wydajności zapewniony stania w serwerach mieszcząliczbą terabajtów zapisywanych i odczytywanych danych w ciągu cych od 1 do 8 dysków (wkrótce jest równoczesny zapis obrazu 12 miesięcy. Można go obliczyć, korzystając z następującego wzoru: do oferty producenta trafią naz 64 kamer wysokiej rozdzielroczny współczynnik obciążenia = (ilość pędy IronWolf Pro do serczości. Wbudowany firmware zapisanych danych + ilość odczytanych werów 16-dyskowych). ImagePerfect dba, aby dysk danych) x (8760 / liczba godzin pracy Maksymalna pojemnie stanowił wąskiego gardła eksploatacji). ność nowych napędów dysku w ciągu jego eksploatacji) w rejestratorze wideo – odto 10 TB, a pamięć cache W przypadku oferty Seagate roczny limit powiednio kolejkuje dane do o pojemności 64–256 MB obciążenia różni się dla poszczególnych zapisu, aby nie utracić żadnej przyspiesza odczyt najgrup dysków i wynosi: klatki nagrania. W tych napęczęściej wykorzystywa– zwykłe dyski desktopowe – 60 TB/rok, dach również zastosowano – dyski wysokiej pojemności do zastosonych danych. sensor kompensujący wibracje, wań specjalnych (w tym do serwerów NAS Nowe dyski mają wbuw które wpadają czasami dyski i rejestratorów wideo) – 180 TB/rok, dowane oprogramowanie zainstalowane w cyfrowych re– dyski klasy biznesowej – 550 TB/rok. AgileArray,, które niejestratorach wideo. ustannie weryfikuje, czy Napędy SkyHawk charaktew zainstalowanym w maryzują się małą emisją ciepła cierzy napędzie nie doszło do błędnego zapisu lub odczytu da- i niskim poborem prądu, dzięki czemu zapewniają instalatorom nych. Usprawniono także zarządzanie zasilaniem dysku, a napędy systemów nadzoru dużą elastyczność w projektowaniu rozwiąo pojemności 4, 6, 8 i 10 TB wyposażono w sensory wykrywające zań dla klientów. Aby oszczędzać energię, dyski zwalniają, gdy nienaturalne wibracje (charakterystyczne czasami dla serwerów żaden ruch nie jest wykrywany przez kamery, ale błyskawicznie wracają do pracy na pełnych obrotach zawsze wtedy, gdy uruNAS) i kompensujące je. chomi się kamera nadzoru. WIĘCEJ ZAPISU, MNIEJ ODCZYTU Opisane dyski Seagate są objęte 3-letnią gwarancją. WytrzyW systemach monitoringu wideo nie jest zalecane stosowanie mują maksymalne roczne obciążenie wynoszące 180 TB (trzyklasycznych dysków ze względu na specyficzną proporcję liczby krotnie większe niż w przypadku zwykłych napędów). Ich cykli zapisu i odczytu. W systemach nadzoru ok. 90 proc. trans- autoryzowanymi dystrybutorami w Polsce są: AB, ABC Data, feru stanowi zapis danych, a odczyt – tylko 10 proc., zaś w trady- Also i Tech Data. cyjnych macierzach, serwerach czy stacjach roboczych proporcje te są odwrotne. Poza tym dyski do systemów monitoringu powinny być przystosowane do ciągłej pracy w trybie 24/7 (konDodatkowe informacje: MARCIN KACZOR, TERRITORY SALES REPRESENTATIVE, SEAGATE, strukcja zwykłych napędów zapewnia ich trwałość przy pełnym obciążeniu nieprzekraczającym 8 godzin dziennie). MARCIN.KACZOR@SEAGATE.COM

36

VADEMECUM CRN listopad 2016

Roczny współczynnik obciążenia


Pendrive może być bezpieczny

J

uż w 2018 r. w Unii Europejskiej zacznie obowiązywać nowe rozporządzenie o ochronie danych osobowych (GDPR). Zastąpi ustawę z 1995 r. Jego celem jest długofalowe zabezpieczenie systemów ochrony danych osobowych w UE oraz ujednolicenie prawa w państwach członkowskich. Co ważne, będzie obowiązywało również pozaunijne przedsiębiorstwa, które przetwarzają dane obywateli unii. Według zapisów nowego rozporządzenia każda firma, w której dojdzie do naruszenia bezpieczeństwa danych, zostanie ukarana grzywną w wysokości do 4 proc. rocznego globalnego dochodu lub 20 mln euro. Będzie musiała też poinformować o tym fakcie krajowy organ nadzorczy. Konsekwencje poniosą również pracownicy – projekt polskiej ustawy przewiduje także dla nich karę w wysokości 15 tys. euro. Wystarczy, że zostaną przyłapani na przenoszeniu danych osobowych bez zabezpieczenia. Aby firmy, których pracownicy korzystają z pamięci USB, mogły uniknąć kar, wystarczy przechowywane dane zaszyfrować. W takim przypadku, gdy nastąpi kradzież lub zgubienie urządzenia, dochodzi do naruszenia na poziomie zabezpieczeń, a nie danych, czyli nie trzeba będzie zgłaszać tego faktu organom nadzorczym.

JAK UNIKNĄĆ KŁOPOTÓW? Kingston ma w ofercie kilka modeli pamięci flash USB, które gwarantują bezpieczeństwo firmowych danych. Wszystkie zapewniają sprzętowe szyfrowanie przechowywanych plików 256-bitowym kluczem AES. Urządzenia są zgodne ze standardem USB 3.0, a dzięki wzmocnionej konstrukcji są wodoodporne i mogą pracować w temperaturze nawet 60o C. Urządzenie DataTraveler Vault Privacy 3.0 (DTVP 3.0) zmusza użytkowników do stosowania skomplikowanego hasła, a dodatkowym zabezpieczeniem jest blokowanie i formatowanie pamięci po 10 nieudanych próbach jego wpisania. Pamięć oferuje także tryb dostępu tylko do odczytu w celu wyeliminowania ryzyka wgrania na nią złośliwego oprogramowania. Administratorzy mogą wymusić też stosowanie podwójnego hasła, określić jego minimalną długość i liczbę prób wprowadzenia oraz przy-

dzielić nośnikom własne numery seryjne. W ofercie producenta są pendrive’y DTVP 3.0 o pojemności: 4, 8, 16, 32 i 64 GB. Dostęp do pamięci urządzenia DataTraveler 2000 firmy Kingston jest niemożliwy bez wprowadzenia kodu PIN za pomocą wbudowanej klawiatury. Funkcja automatycznej blokady pamięci włącza się po jej odłączeniu od urządzenia, a klucz szyfrowania zostaje wymazany po 10 nieudanych próbach wprowadzenia hasła. Ochrona ta jest niezależna od stosowanego przez użytkownika systemu operacyjnego, a szyfrowanie odbywa się w urządzeniu, a nie w komputerze, dzięki czemu w systemie nie pozostaje żaden ślad kodu PIN. Na rynku dostępne są pendrive’y DataTraveler 2000 o pojemności: 16, 32 i 64 GB. Nowym urządzeniem w ofercie Kingston jest IronKey D300. Zastosowano w nim zaawansowane metody ochrony wrażliwych danych, z których znana była firma IronKey, kupiona przez Kingston na początku 2016 r. Pamięć ma certyfikat FIPS 140–2 Level 3, uzyskany m.in. dzięki temu, że jako dodatkowe zabezpieczenie zastosowano w niej wzmocnioną, wodoszczelną konstrukcję obudowy z cynku, uszczelnioną żywicą epoksydową, która uwidacznia próby ingerencji. IronKey D300 wyposażono też w cyfrowo podpisane oprogramowanie sprzętowe, gwarantujące odporność na próby odczytania metodą BadUSB oraz wymuszające stosowanie skomplikowanego hasła. Także ten pendrive jest blokowany i formatowany po 10 nieudanych próbach wprowadzenia hasła. Działy IT w dużych firmach mogą dodatkowo zainwestować w oprogramowanie IronKey EMS by DataLocker, które służy do definiowania parametrów bezpieczeństwa związanych z użytkowaniem pamięci IronKey D300. W ofercie producenta są modele o pojemności: 4, 8, 16, 32, 64 i 128 GB. Autoryzowanymi dystrybutorami szyfrowanych pamięci Kingston w Polsce są: AB, ABC Data, Action, Also, Alstor i Tech Data.

Dodatkowe informacje: ROBERT SEPETA, BUSINESS DEVELOPMENT MANAGER, KINGSTON, TECHNOLOGY, RSEPETA@KINGSTON.EU VADEMECUM CRN listopad 2016

37

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ KINGSTON TECHNOLOGY.

Coraz częściej pamięci USB są wykorzystywane do przenoszenia firmowych danych. Tym samym zwiększa się ryzyko ich ujawnienia, co może narazić na szwank reputację firmy, a wkrótce przyczynić się także do nałożenia ogromnych kar finansowych.


ZARZĄDZANIE OBIEGIEM DOKUMENTÓW

Na dokumentach można zarobić

Rozwiązania informatyczne usprawniają obieg dokumentów i informacji w firmach, ale jednocześnie nie widać wyraźnego odwrotu od papieru. Dla resellerów to dobra wiadomość. W tej sytuacji można bowiem zarobić zarówno na urządzeniach drukujących, jak i na rozwiązaniach usprawniających obsługę procesów. RAFAŁ JANUS

38

VADEMECUM CRN listopad 2016


Gdzie szukać klientów Rozwiązania do zarządzania obiegiem dokumentów można sprzedać praktycznie każdej firmie. Nawet małe, kilkuosobowe przedsiębiorstwa są coraz bardziej świadome korzyści płynących z optymalizacji środowiska druku i digitalizacji danych. Do branż, które wykazują popyt większy od przeciętnego, zaliczają się: – sektor medyczny, co wynika z ustawowego obowiązku wprowadzenia systemu EDM (Elektronicznej Dokumentacji Medycznej); – branża geodezyjna, np. Powiatowe Ośrodki Dokumentacji Geodezyjnej i Kartograficznej – w tym przypadku urzędy również są zobligowane przepisami do przeniesienia swoich papierowych archiwów do postaci cyfrowej; – firmy świadczące usługi rachunkowe, ze względu na wysoką wrażliwość danych, z którymi pracują.

Fot. © ninun – Fotolia.com

W

brew prognozom sprzed paru lat, zapowiadającym biuro bez papieru, drukowane dokumenty wciąż nie zostały wyeliminowane z firm. Technika w zasadzie umożliwia już obecnie całkowite przejście na elektroniczny obieg dokumentów, ale ludzkie przyzwyczajenia są po prostu silniejsze. Poza tym prawo w wielu przypadkach nadal wymaga archiwizowania dokumentów, np. finansowych, w postaci papierowej. Do tego podpis elektroniczny, choć można z niego korzystać od lat, nie jest powszech-

nie używany i nie widać oznak, żeby w ciągu kilku najbliższych lat na dobre zagościł w urzędach i przedsiębiorstwach. Jeśli dokładnie przeanalizujemy cykl życia dokumentu w przeciętnej firmie, na którymś jego etapie znajdziemy drukarkę. Z reguły jest to urządzenie MFP (Multi Function Printer), które pełni rolę łącznika między elektroniczną a fizyczną formą dokumentu. Integrator może czerpać przychody nie tylko ze sprzedaży urządzeń wielofunkcyjnych, ale również (a w wielu przypadkach przede wszystkim) z ich serwisu i dodatkowo świadczonych usług (np. utrzymania systemu). W przypadku sprzętu drukującego atrakcyjną i coraz popularniejszą alternatywą tradycyjnego modelu sprzedaży jest leasing lub wynajem. Dzięki nim można zachęcić klienta do realizacji projektów, które wymagają zainwestowania większych kwot, nawet jeśli nie dysponuje w danej chwili środkami finansowymi. Oprócz tego, że skorzystanie z takiej formy płatności nie wymaga od klienta wysokiego początkowego nakładu finansowego, ważny jest też fakt, że ułatwia mu długofalowe planowanie wydatków, a integratorowi zapewnia rozłożone w czasie przychody. Integrator może także czerpać przychody z usług serwisowych, pobierając za nie z góry umówioną opłatę, w ramach której klient ma pełne wsparcie w zakresie utrzymania sprzętu oraz modyfikacji infrastruktury IT. Bardzo podobny do leasingu jest wynajem. Na mocy umowy najmu klient nie ponosi kosztów napraw i części zamiennych (w przypadku leasingu koszty te obciąża-

ją leasingobiorcę). Do opłaty za wynajem trzeba doliczyć tylko koszty materiałów eksploatacyjnych.

MPS TAKŻE DLA MAŁYCH I ŚREDNICH

Innym sposobem na uzyskiwanie regularnych przychodów jest świadczenie usług zarządzania i optymalizacji druku, czyli Managed Print Services. Obejmują one głównie ocenę potrzeb danego przedsiębiorstwa w zakresie drukowania (efektem może być np. zalecenie wymiany dotychczas używanego sprzętu) oraz dostarczenie usług, części zamiennych i materiałów eksploatacyjnych potrzebnych do zapewnienia sprawnego działania drukarek. Usługodawca m.in. sprawdza, jak urządzenia są używane, i wykrywa ich awarie, co umożliwia szybką reakcję. Umowy na usługi MPS są rozliczane według kosztu jednej strony i zobowiązania klienta do konkretnej, minimalnej liczby wydrukowanych kartek. Usługi zarządzania drukiem mogą oferować zarówno resellerzy z niewielką wiedzą fachową, jak też integratorzy urządzeń wielofunkcyjnych, którzy mają duże doświadczenie w tym zakresie. Oferta producentów obejmuje bowiem proste pakiety MPS i zaawansowane, modułowe rozwiązania. Wynika to z dużego zróżnicowania oferowanych na rynku drukarek i urządzeń wielofunkcyjnych. Małym firmom można zaproponować podstawowe pakiety, obejmujące dostawę urządzeń i materiałów eksploatacyjnych oraz usługi serwisowe. Dla większych VADEMECUM CRN listopad 2016

39


ZARZĄDZANIE OBIEGIEM DOKUMENTÓW

ZNACZENIE USŁUG ZARZĄDZANIA DRUKIEM DLA CYFROWEJ TRANSFORMACJI PRZEDSIĘBIORSTW W NAJBLIŻSZYCH DWÓCH LATACH nieważne 3%

bardzo ważne 40%

PLANOWANE WYDATKI

PRZEDSIĘBIORSTW NA USŁUGI ZARZĄDZANIA DRUKIEM NA ŚWIECIE wzrost wydatków 51%

nie wiem 1% spadek wydatków 15%

umiarkowane 9%

utrzymanie dotychczasowego poziomu 33%

ważne 48%

klientów właściwa będzie kompleksowa oferta, połączona z konsultingiem i wsparciem technicznym. Taka propozycja może składać się m.in. z audytu dotychczasowego systemu drukowania u klienta, posiadanych przez niego urządzeń i używanych materiałów eksploatacyjnych, opracowania propozycji zmian i usprawnień oraz ich wdrożenia. Co więcej, producenci stale rozszerzają ofertę, np. o narzędzia do zarządzania flotą drukującą, kontami użytkowników czy drukiem, dzięki czemu partnerzy mogą proponować klientom

Źródło: Quocirca, 2016

coraz to nowe usługi związane z drukiem i cyfrowym obiegiem dokumentów.

OBIEG DOKUMENTÓW I OBRÓBKA DANYCH

W przedsiębiorstwach dokumenty drukowane coraz częściej funkcjonują równolegle z elektronicznymi, z reguły w jednym zintegrowanym systemie. Dlatego producenci oferujący sprzęt drukujący kierują swoją uwagę na systemy obiegu dokumentów i obróbki danych. Według badań IDC ze stycznia 2016 r. zdecydowana

Zdaniem integratora  Piotr Golis, zastępca dyrektora Działu Produkcji Systemów ERP w Asseco Business Solutions Po stronie klientów najczęściej wyrażaną obawą przed wdrożeniem rozwiązania do cyfrowego obiegu dokumentów jest utrata kontroli nad tym procesem, czy też samymi dokumentami. Papier zawsze gdzieś się fizycznie znajduje, ma swoje archiwum, którym ktoś się opiekuje i jednocześnie steruje procesem obiegu. W przypadku obiegu cyfrowego trudno wskazać takie fizyczne miejsce oraz jedną osobę. Ostatecznie jednak klienci dają się przekonać do tego typu rozwiązań, ponieważ dostrzegają korzyści polegające na sprawniejszym i szybszym zarządzaniu obiegiem dokumentów.  Tomasz Dominiak, konsultant systemu ECM, Comarch Dziś coraz rzadziej należy przekonywać zarządzających w firmach o konieczności wdrożenia systemu do elektronicznego obiegu dokumentów. Przedsiębiorstwa chętniej korzystają z tego typu rozwiązań, mając świadomość płynących z tego korzyści. Redukcja pracy manualnej, eliminacja błędów oraz pozbycie się papieru wpływają na znaczne obniżenie kosztów w firmach.

40

VADEMECUM CRN listopad 2016

większość europejskich firm korzysta obecnie z dwóch równoległych obiegów dokumentów – cyfrowego i papierowego. Na pełną cyfryzację i implementację automatycznych procesów biznesowych zdecydowana jest zaledwie 1/3 przedsiębiorstw. Światowy rynek rozwiązań do zarządzania obiegiem dokumentów nieustannie rośnie i według prognoz agencji TechNavio w 2019 r. osiągnie wartość 5,5 mld dol. Do tego czasu ich sprzedaż ma się zwiększać średnio o prawie 29 proc. rocznie. Jest to więc bardzo perspektywiczny segment. Ważne, że do potencjalnych odbiorców należą nie tylko podmioty z sektora prywatnego, ale również instytucje administracji publicznej. W elektronicznym obiegu dokumentów można wydzielić następujące etapy: skanowanie, indeksowanie, przechowywanie, odtwarzanie i archiwizację. Obsługa każdego z tych procesów wymaga stosowania innych narzędzi i aplikacji. Po zeskanowaniu dokument trafia do obróbki za pomocą oprogramowania OCR i odpowiednich algorytmów, dzięki którym rozpoznawany jest zawarty w nim tekst i wydobywane są słowa kluczowe. Dane te z reguły są dołączane do zeskanowanego obrazu. Czasem skany nie są potrzebne, wówczas w bazie przechowywane są wyłącznie informacje wydobyte z przetworzonych dokumentów. Skanery uchodziły do niedawna za peryferia komputerowe, ale dzisiaj stały się ważnym ogniwem w procesie archiwizacji i obiegu danych. Normą jest, że producenci wyposażają je w funkcje współpracy z systemami zarządzania obiegiem informacji. Rynek skanerów nie oparł się też wpływom mobilności. Efektem jest m.in. ich integracja z usługami chmurowymi, takimi jak Evernote czy Dropbox, które zapewniają szybki dostęp do zeskanowanych dokumentów z dowolnego miejsca. Warto dodać, że sprzedaż skanerów oraz oprogramowania do automatycznej obróbki dokumentów i usług serwisowych szybko rośnie. Według agencji MarketsandMarkets światowy rynek oprogramowania do automatycznej obróbki skanowanych obrazów osiągnie w 2020 r. wartość aż 30 mld dol. Do tego czasu średni roczny wzrost ma wynosić 19,1 proc. Ważne, żeby mieć w ofercie nie tylko skanery, ponieważ w przetargach często


BEZPŁATNA PRENUMERATA

Daniel Gajkowski

Korzystaj z naszej wiedzy

specjalista produktu, Ricoh

Od producenta rozwiązań do zarządzania dokumentami resellerzy powinni oczekiwać wartości dodanej w postaci długofalowego wsparcia w zakresie dostępu do wiedzy dotyczącej oferowanych produktów i usług. Na polskim rynku pracy podaż ekspertów IT jest zbyt mała i to najczęściej producenci zatrudniają najwyższej klasy specjalistów, na pozyskanie których resellerzy nie mogą sobie pozwolić. Fachowcy po stronie vendorów powinni więc być do stałej dyspozycji partnerów.

wymogiem jest dostarczenie oprogramowania, np. do automatycznej obróbki obrazu. Dlatego warto rozszerzyć portfolio o takie właśnie produkty. Kompletne rozwiązanie – skaner w parze z oprogramowaniem – to dobra alternatywa dla urządzeń wielofunkcyjnych. Skanowane dokumenty można przesyłać do różnych systemów informatycznych, np. serwerów FTP czy pocztą e-mail, gdzie będą dalej przetwarzane. W ten sposób integrator zarobi nie tylko na dostawie urządzeń, ale również na usługach wdrożeniowych związanych z instalacją, szkoleniami i opieką posprzedażową (serwis, wydłużona gwarancja). Zarówno skany pism, jak i odczytane z nich informacje należy odpowiednio zabezpieczyć. Tu z pomocą przychodzą pamięci masowe. Wybór rozwiązań zależy od ilości danych do przechowywania i przewidywanego tempa ich przybywania. Jeśli prawdopodobieństwo częstego wykorzystywania przechowywanych informacji spada, można dokonać ich archiwizacji, przenosząc je na tańsze nośniki. Warto zatem, oferując rozwiązania do zarządzania

Tomasz Wieczorek Solutions Product Manager CEE, Sharp Electronics Europe

Rolą producenta jest pomoc partnerom w rozmowach z klientem, przeprowadzeniu audytu czy negocjacjach, a nawet w realizacji wdrożenia. Natomiast zadaniem resellera pozostaje serwis rozwiązania i to jest obszar, z którego może on czerpać profity.

i rozwijaj swój biznes z CRN Polska, najlepiej poinformowanym pismem B2B IT!

dokumentami, mieć w asortymencie odpowiednie systemy pamięci masowych.

ARGUMENTY SPRZEDAŻOWE Według badań ICM na poszukiwanie ważnych dokumentów polscy pracownicy tracą dziennie od 25 do 30 minut, co daje łącznie aż 90 godzin rocznie. Dzięki nowoczesnym technikom można z powodzeniem wprowadzić cyfrowe odpowiedniki drukowanych materiałów. Dokonanie tej zmiany napotyka jednak na mentalny opór kadry kierowniczej i właścicieli przedsiębiorstw. Ci, którzy się na nią zdecydują, zyskają bezpieczeństwo i wyższą wydajność pracowników, a co za tym idzie – przewagę nad konkurencją. Poza oszczędnościami, związanymi ze zwiększeniem wydajności pracy, za cyfrowym obiegiem dokumentów przemawiają dwa ważne czynniki. Pierwszy to optymalizacja wykorzystania przestrzeni przeznaczonej na archiwizację pism. Drugim jest bezpieczeństwo przechowywania danych. Obieg dokumentów, który choćby w części polega na przekazywaniu papierowych kopii, jest dużo bardziej zagrożony „wyciekiem” danych lub ich utratą niż obieg w całości cyfrowy. Zakres potrzeb firm w zakresie druku i zarządzania obiegiem informacji jest bardzo różny. Właściwe zarządzanie dokumentami jest znacznie ważniejsze, jeśli od tego zależy działalność biznesowa przedsiębiorstwa i nie chodzi tylko o wystawianie faktur. Jednak każda firma powinna rozważyć inwestycję w tym obszarze, aby ograniczyć koszty, usprawnić działalność i zapewnić bezpieczeństwo. Biorąc pod uwagę fakt, że koszty związane z drukiem stanowią średnio 2–3 proc. przychodów firm, warto wspólnie z klientem przyjrzeć się jego wydatkom na ten cel.

Załóż konto na stronie CRN.pl

wypełniając odpowiedni formularz Prenumerata jest aktualna przez 12 miesięcy. Pod koniec tego okresu wysyłane jest przypomnienie o możliwości jej przedłużenia.

Więcej informacji:

Andrzej Janikowski, 22 44 88 485, prenumerata@crn.pl VADEMECUM CRN listopad 2016

41


ZARZĄDZANIE OBIEGIEM DOKUMENTÓW

Czy drukowane w firmie dokumenty są bezpieczne? Procedury zapewniające ochronę firmowych danych najczęściej pomijają urządzenia drukujące. Tymczasem to właśnie w nich zebrana jest ogromna, często poufna wiedza.

O

ferowane obecnie na rynku podłączone do sieci zaawansowane urządzenia wielofunkcyjne ewoluowały z tradycyjnych drukarek. Być może dlatego wiele osób nie zdaje sobie sprawy, że z technicznego punktu widzenia coraz bardziej przypominają zwykłe komputery. Też mają twarde dyski, porty USB, są podłączone do firmowej sieci lub korzystają z usług w chmurze. Wszystkie te aspekty przyczyniają się do osłabienia bezpieczeństwa danych znajdujących się na tych urządzeniach.

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ SHARP ELECTRONICS.

DANE NA DYSKU Aby zneutralizować ryzyko ujawnienia poufnych danych przechowywanych na twardych dyskach w urządzeniach wielofunkcyjnych firmy Sharp, można poddać je szyfrowaniu. Gdy proces ten zostanie zainicjowany, wymontowanego dysku nie da się użyć w innym urządzeniu niż to, w którym został oryginalnie zaszyfrowany. Kolejnym zalecanym działaniem jest czyszczenie dysku po zakończonym dniu pracy. Proces różni się od zwykłego kasowania tym, że odpowiedni algorytm nadpisuje wszystkie sektory dysku, w których znajdowały się drukowane danego dnia pliki (podczas zwykłego kasowania

dostęp do niektórych funkcji (np. kopiowania w kolorze) oraz liczbę stron drukowanych przez poszczególnych użytkowników.

DANE W CHMURZE

dane znajdujące się w pliku nie są nadpisywane i można je odzyskać).

DANE W SIECI Cała komunikacja sieciowa z urządzeniami wielofunkcyjnymi Sharp jest zaszyfrowana za pomocą bezpiecznego protokołu SSL/IPsec. Istnieje również funkcja filtrowania adresów IP i/lub MAC urządzeń, z których wykonywane są wydruki. Ponadto dzięki oprogramowaniu Sharp Job Accounting II klienci otrzymują precyzyjne i szczegółowe dane, które zapewniają analizę całego środowiska druku, w tym możliwość dokładnej kontroli sposobu wykorzystania urządzeń drukujących w firmie. Administratorzy zyskują wiedzę o tym, kto, kiedy i jakie zadania wykonywał, korzystając z urządzeń wielofunkcyjnych. Oprogramowanie ogranicza

Szymon Trela Product Manager, Sharp Electronics CEE

Klienci oczekują coraz więcej nie tylko od producentów, ale także od resellerów i integratorów, z którymi bezpośrednio współpracują. Poszukują rozwiązań, które zaspokoją ich potrzeby biznesowe i będą wsparciem w codziennej pracy. Sprzęt firmy Sharp łączy to, co popularne, z wieloma innowacjami niedostępnymi nigdzie indziej. O tym, że jest to najlepsza oferta rozwiązań zabezpieczających środowisko druku, nasi partnerzy biznesowi i ich klienci mogą przekonać się w warszawskim showroomie firmy Sharp. Na wizytę w nim można umówić się pod adresem info.sep@sharp.eu.

42

VADEMECUM CRN listopad 2016

Rosnąca popularność usług chmurowych oraz modelu pracy BYOD spowodowały, że osoby odpowiedzialne za bezpieczeństwo informacji w firmach muszą kontrolować, w czyje ręce trafiają firmowe dokumenty i czy możliwe jest odczytanie znajdujących się w nich danych przez osoby postronne. Oferowana przez Sharp usługa współużytkowania informacji w chmurze – CloudPortal Office – zapewnia wszystkim członkom zespołu bezpieczny dostęp do danych, których potrzebują, natychmiast i niezależnie od miejsca, gdzie przebywają. Usługa CPO została stworzona z uwzględnieniem przede wszystkim bezpieczeństwa. Dane klientów są szyfrowane w taki sposób, by nawet w najczarniejszym scenariuszu ich nieautoryzowane odczytanie, również z fizycznych dysków, było niemożliwe. Nawet firma Amazon, która zarządza serwerami przechowującymi pliki jej użytkowników, nie zna kluczy szyfrujących dane.

WIĘCEJ INFORMACJI O OPROGRAMOWANIU

JOB ACCOUNTING II

Dodatkowe informacje: SZYMON TRELA, PRODUCT MANAGER, SHARP ELECTRONICS CEE, SZYMON.TRELA@SHARP.EU


Bezpieczne dokumenty w pudełku Box to zaawansowana, bardzo łatwa w użytkowaniu platforma wspólnej pracy z dokumentami, ich wymiany i kontroli wersji. Gwarantuje bezpieczeństwo danych, przejrzystość komunikacji i możliwość sprawowania kontroli nad ich przepływem.

Andrzej Berdowski Enterprise Content Management Sales, IBM

Twórcy usługi Box rozumieją, że bezpieczeństwo danych użytkowników musi wykraczać poza szyfrowanie i fizyczną ochronę serwerów w centrum danych. Dlatego wprowadzili wiele dodatkowych zabezpieczeń, które gwarantują, że poufne firmowe dane nie wpadną w niepowołane ręce.

ją z zasobów w chmurze, tworzenia reguł polityki bezpieczeństwa i egzekwowania ich. Co ważne, reguły te obejmują urządzenia, z których następuje próba odczytania przechowywanych w chmurze danych, także wyprodukowane przez firmy trzecie, korzystające z udostępnionego dla platformy Box interfejsu API (używają go także dziesiątki innych systemów, m.in. SAP, Salesforce czy Microsoft Office).

BEZPIECZEŃSTWO TREŚCI I UŻYTKOWNIKÓW

Ochrona treści zaczyna się od ich zaszyfrowania 256-bitowym kluczem AES już w momencie przesyłania do chmurowych zasobów usługi Box. Szyfrowany jest każdy plik, niezależnie od tego, od którego użytkownika pochodzi i z jakiego urządzenia został przysłany. Do transferu plików wykorzystywany jest standard TLS i 2048-bitowe certyfikaty klucza publicznego. Dzięki usłudze Box KeySafe użytkownicy mogą skorzystać ze swoich własnych kluczy szyfrujących (szczegóły na stronie www.box.com/business/keysafe). Administratorzy Box dbają także, aby serwerownia, w której przechowywane są dane klientów, posiadała wszystkie najnowsze certyfikaty w zakresie ochrony danych. Twórcy usługi Box zapewnili dodatkowe warstwy ochrony danych, np. wykrywanie prób wgrania do chmury plików zawierających poufne informacje, m.in. wrażliwe dane osobowe (np. numery ubezpieczenia społecznego) lub numery kart kredytowych. Algorytm ochronny dysponuje też listą podejrzanych domen internetowych i ostrzega użytkowników, gdy próbują udostępnić przechowywany w chmurze plik odbiorcy z takiej domeny. Możliwe jest zintegrowanie usługi z rozwiązaniami DLP dostarczanymi przez takich producentów jak:

Symantec, Skyhigh Networks, Netskope, Cipher Cloud i Code Green Networks. Użytkownicy, którzy próbują uzyskać dostęp do zasobów Box, automatycznie są obejmowani rygorystycznymi zasadami dotyczącymi weryfikacji uprawnień. Każ-

W usłudze Box użytkownicy udostępniają w bezpieczny sposób co tydzień ponad 100 mln nowych plików. demu z nich można przypisać aż siedem różnych poziomów dostępu – od pełnej swobody działania po całkowitą blokadę. Administratorzy mogą skorzystać z integracji z systemami do zarządzania uprawnieniami (Active Directory, LDAP, ADFS 2), również z systemami pojedynczego logowania (Single Sign-On) oraz przypisać prawo dostępu danego użytkownika do konkretnego urządzenia (PC, notebooka, tabletu). Restrykcyjnymi zabezpieczeniami można objąć poszczególne dokumenty (tylko dla współpracowników, członków danej domeny, określonych grup itd.).

Dodatkowe informacje: ANDRZEJ BERDOWSKI, ENTERPRISE CONTENT MANAGEMENT SALES, IBM, ANDRZEJ.BERDOWSKI@PL.IBM.COM MARIUSZ STRZEMIECKI, PRODUCT MANAGER – IBM SOFTWARE, AVNET MARIUSZ.STRZEMIECKI@AVNET.COM VADEMECUM CRN listopad 2016

43

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ AVNET.

R

ygorystyczne wymagania odnośnie do bezpieczeństwa danych stawiane przez dział IT i swoboda wykonywania obowiązków służbowych oczekiwana przez pracowników (co przekłada się na ich większą produktywność) – to naturalnie sprzeczne kwestie. Dlatego podczas projektowania systemu współpracy bazującego na chmurze publicznej konieczne jest odrzucenie rutynowych metod rozwiązywania problemów i spojrzenie na niego z nowej, unikalnej perspektywy. Właśnie takie podejście charakteryzowało działania twórców usługi Box. Zaprojektowali nowy model ochrony przechowywanych w chmurze zasobów, obejmujący m.in. bardzo restrykcyjne uwierzytelnianie użytkowników próbujących uzyskać dostęp do danych oraz zaawansowaną kontrolę aplikacji i urządzeń, za pomocą których ten dostęp jest realizowany. Zapewnili również przejrzystość procesu dla administratorów IT, którzy mają do dyspozycji narzędzia do centralnego zarządzania uprawnieniami użytkowników i osób, które korzysta-


ZARZĄDZANIE OBIEGIEM DOKUMENTÓW

Ricoh Smart Operation Panel

– wyższy poziom zarządzania dokumentami Aby móc usprawnić zarządzanie obiegiem dokumentów, zwłaszcza papierowych, niezbędne jest połączenie świata materialnego z wirtualnym. Idealnym do tego rozwiązaniem jest nowa linia urządzeń wielofunkcyjnych (MFP) firmy Ricoh, wyposażonych w Smart Operation Panel.

I

nnowacyjny panel operacyjny Ricoh całkowicie zmienia sposób korzystania z urządzeń MFP. Funkcjonalny ekran umożliwia użytkownikom prostsze, szybsze i efektywniejsze wykonywanie zadań. Wyświetlacz przypomina tablet i zapewnia dostęp do aplikacji poszerzających możliwości urządzenia oraz podnoszących wydajność zarządzania dokumentami. Dzięki nowej ofercie Ricoh wiele funkcji zarezerwowanych dotychczas dla zaawansowanych rozwiązań stało się dostępnych także dla małych firm. Układ i zawartość bazującego na systemie Android nowoczesnego panelu można dostosować do indywidualnych preferencji użytkowników, m.in. eliminując zbędne

Tomasz Nazaruk

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ RICOH.

CEO, Ricoh Polska

W 2016 r., już po raz szósty z rzędu, utrzymaliśmy pozycję lidera w raporcie IDC MarketScape „Worldwide Document Workflow Services Hardcopy Vendor Assessment”. Szczególnie wyróżnione zostało podejście do klientów, dokładne analizowanie ich potrzeb oraz tworzenie kompleksowych rozwiązań. Ricoh produkuje urządzenia, które zapewniają zapanowanie nad obiegiem dokumentów w firmie i odpowiednie zarządzanie nimi. Dzięki naszym rozwiązaniom klienci mogą kontrolować i obniżyć koszty druku, digitalizować dokumenty i je archiwizować, także w chmurze, oraz korzystać z urządzeń za pomocą sprzętu mobilnego.

44

VADEMECUM CRN listopad 2016

opcje oraz wybierając ustawienia i funkcje potrzebne użytkownikowi do wykonania pracy i odpowiedniego zarządzania dokumentami. Sam panel łatwo aktualizować, instalując nowe aplikacje ze strony Application Site. Dzięki nim możliwe jest szybkie dostosowanie urządzenia do wymagań użytkowników i rozszerzenie jego funkcji o te najbardziej przydatne. Wyświetlane ikony dają błyskawiczny dostęp do najbardziej typowych funkcji, takich jak skanowanie i kopiowanie. Panel jest kompatybilny z oprogramowaniem Streamline NX i GlobalScan NX, czyli zintegrowanymi aplikacjami do zarządzania dokumentami i skanowania. Dzięki systemowi Wireless Direct można połączyć urządzenia mobilne z MFP firmy Ricoh i drukować, skanować, kopiować lub faksować bez logowania się do intranetu. Jest to więc idealne rozwiązanie dla pracowników korzystających do realizacji zadań służbowych z własnych urządzeń lub dla gości. Na nowym panelu można nawet przeglądać strony internetowe i z nich bezpośrednio drukować pliki PDF. Użytkownicy mogą również m.in. drukować ze współużytkowanego folderu, przywołać z historii ustawienia poprzedniego zadania kopiowania, skanowania lub faksowania oraz przywracać ustawienia panelu z poprzednich konfiguracji. Ricoh oferuje klientom swoje rozwiązania za pośrednictwem dwóch grup firm: Office Automation oraz partnerów IT, czyli klasycznych resellerów. Autoryzowani partnerzy OA zaopatrują się w urządzenia MFP, części oraz materiały eksploatacyjne bezpośrednio u producenta, natomiast resellerzy IT współpracują z dystrybutorami (AB, ABC Datą, Incomem, Lamą, Max

Computers i Tech Datą). W stałym kontakcie z resellerami pozostaje grupa mobilnych przedstawicieli handlowych Ricoh, którzy odpowiedzialni są także za pozyskiwanie nowych partnerów. Do współpracujących z Ricoh firm kierowana jest komunikacja marketingowa (mailingi, telefony, promocje na portalu partnerskim Get Ready) bezpośrednio od producenta, a także za pośrednictwem dystrybutorów. Mają dostęp do m.in. informacji produktowych, filmów i zdjęć. We współpracy z resellerami organizowane są akcje marketingowe dla klientów końcowych. Partnerzy IT mogą liczyć na bezpośrednie wsparcie producenta (help desk oraz kontakt z product managerami, handlowcami i serwisem), podczas gdy partnerzy OA sami świadczą takie usługi jak sprzedaż, integracja oraz instalacja sprzętu lub jego serwis.

Dodatkowe informacje: RAFAŁ SZARZYŃSKI, REGIONAL SALES DIRECTOR, RICOH, RSZARZYNSKI@RICOH.PL


Współużytkowane pliki pod kontrolą Acronis Access Advanced to rozwiązanie, które zapewnia bezpieczne korzystanie z plików w środowisku korporacyjnym. Może zastąpić stosowane często przez pracowników popularne usługi udostępniania plików, które nie gwarantują poufności.

O

ferowane przez Acronis oprogramowanie Access Advanced umożliwia stworzenie w przedsiębiorstwie usługi dostępu do plików oraz ich synchronizację i współużytkowanie. Środowisko to jest praktycznie nieskończenie skalowalne – może obejmować dowolną liczbę serwerów i dziesiątki tysięcy użytkowników (w tym współpracowników, klientów, partnerów i dostawców firmy). Co najważniejsze, proces przechowywania i udostępniania danych jest objęty rygorystyczną polityką ochrony. Pracownicy mogą bezpiecznie korzystać z plików firmowych za pomocą dowolnych urządzeń.

ELASTYCZNY DOBÓR PLATFORMY

Artur Cyganek dyrektor polskiego oddziału Acronis

Jedną z największych bolączek firm na całym świecie jest nonszalanckie podejście pracowników do przechowywania i przesyłania poufnych danych. Bardzo często do ich udostępniania wykorzystywane są popularne usługi chmurowe, które nie zapewniają odpowiedniego poziomu bezpieczeństwa. Rozwiązanie Acronis Access gwarantuje pełną ochronę danych, a jednocześnie zapewnia takie same lub nawet rozszerzone funkcje usług chmurowych. W Polsce rozwiązanie to zostało wdrożone m.in. w banku PKO BP, gdzie z możliwości wymiany plików korzysta 5 tys. pracowników.

może pobierać dane z serwera Active Directory. Obsługujący to rozwiązanie administratorzy mają do dyspozycji także dwuskładnikowe uwierzytelnianie użytkowników.

MOBILNOŚĆ UŁATWIA PRACĘ Funkcjonalność Acronis Access wybiega daleko poza zwykłe udostępnianie plików. Możliwa jest synchronizacja z serwerami plików, urządzeniami NAS i rozwiązaniami do zarządzania treścią, takimi jak Alfresco, EMC Documentum czy Microsoft SharePoint. Użytkownicy mogą bezpiecznie tworzyć i edytować dokumenty Microsoft Office na swoich urządzeniach mobilnych oraz robić notatki w plikach PDF. Nie są do tego potrzebne żadne dodatkowe aplikacje firm trzecich. Możliwe jest również przeglądanie zawartości plików, zanim zostaną pobrane na urządzenie użytkownika. Jeżeli korzysta on ze sprzętu przenośnego, funkcja ta pozwala na oszczędność czasu i ogranicza transfer danych związany z pobieraniem niepotrzebnych informacji. Bardzo ważne jest także bezpieczeństwo przechowywanych w Acronis Access danych. Administratorzy mogą śledzić, co dzieje się z każdym plikiem – ile razy był pobierany, przeglądany, współużytkowany czy edytowany. Mogą też wymuszać usunięcie danego pliku z urządzenia mobilnego, gdy zostanie ono zgubione lub skradzione. Dodatkowo dane przechowywane w aplikacji mobilnej Acronis Access są szyfrowane, a dla systemu iOS producent uzyskał certyfikat FIPS 140–2 potwierdzający zgodność z restrykcyjnymi wymaganiami amerykańskiego rządu.

Dodatkowe informacje: BARBARA PODESZFA, PARTNER ACCOUNT MANAGER, ACRONIS, BARBARA.PODESZFA@ACRONIS.COM VADEMECUM CRN listopad 2016

45

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ ACRONIS.

Oprogramowanie Acronis Access Advanced uruchamiane jest na serwerze znajdującym się w firmowym centrum danych, dzięki czemu udostępniane przez nie zasoby chronione są korporacyjnym firewallem. Użytkownicy mają bardzo dużą swobodę korzystania z zasobów udostępnianych przez rozwiązanie Acronisu. Dzięki specjalnej aplikacji mają do nich dostęp za pośrednictwem telefonów i tabletów z systemami iOS (4.3 lub nowszym), Android (2.2 lub nowszym) i Windows Mobile, a także komputerów z systemami Windows XP Pro SP3, Vista, 7, 8 i 10 oraz Mac OS X (10.6 lub nowszym). Oprogramowanie Access Advanced można zintegrować z rozwiązaniem Microsoft Intune Mobile Application Management (MAM) oraz systemami do zarządzania urządzeniami mobilnymi (MDM), m.in. od takich dostawców jak MobileIron czy Good Technology. W celu dodatkowej autentykacji użytkowników


URZĄDZENIA MOBILNE

Subtelny urok nadzorcy Przedsiębiorstwa krok po kroku dążą do urzeczywistnienia wizji zunifikowanego systemu, który umożliwi im kontrolowanie wszystkich prywatnych urządzeń i aplikacji podłączonych do firmowych sieci. ANDRZEJ JANIKOWSKI

46

VADEMECUM CRN listopad 2016

że BYOx to prosta droga do infiltracji użytkowników przez firmy. Specjaliści IT są innego zdania. – Nie chodzi o to, aby umożliwić przedsiębiorstwom szpiegowanie kogokolwiek, ale o efektywne zarządzanie oprogramowaniem i sprzętem. Służy temu opcja rozdzielenia danych firmowych od prywatnych – mówi Roch Norwa, Lead System Engineer w VMware. Sebastian Kisiel, Senior Sales Engineer w Citrix Systems, dodaje, że pomysł ten nie ma nic wspólnego z inwigilacją, raczej wiąże się z ochroną danych. Systemy mają wprawdzie funkcje śledzenia produktów, ale stosuje się je wtedy, kiedy urządzenie zostało utracone, np. zgubione. Wtedy można je zlokalizować, a kiedy się to nie uda, selektywnie lub całkowicie wykasować dane. – Wszystko zależy od potrzeb i sytuacji – twierdzi specjalista Citrixa. – Przedsiębiorstwo może usunąć wszystkie dane z pamięci, kiedy istnieje uzasadnione podej-

rzenie, że sprzęt został skradziony. Oznacza to powrót do ustawień fabrycznych. W innych przypadkach można wykasować tylko informacje korporacyjne.

PRAWIE JAK DROPBOX Oprócz bezpieczeństwa model BYOx, przynajmniej teoretycznie, poprawia efektywność pracy użytkowników. Wyobraźmy sobie, że pracownik został poproszony o wysłanie plików, które przechowuje na komputerze stacjonarnym. Jeśli znajduje się w siedzibie przedsiębiorstwa, sprawa jest prosta – wystarczy włączyć sprzęt, przejrzeć katalogi na dysku twardym i wysłać e-mail z załącznikiem. Gorzej, kiedy znajduje się poza firmą. Jeśli jednak przedsiębiorstwo wdrożyło także system współużytkowania plików, który świetnie wpisuje się w programy typu BYOx, można dość łatwo uporać się z problemem. Za pośrednictwem telefonu wyposażonego w odpowiednią aplikację pracownik

Fot. © ake1150 – Fotolia.com

A

ngielski termin Bring Your Own everything, czyli w skrócie BOYx, dotyczy nie tylko sytuacji, kiedy różnego rodzaju prywatne urządzenia są podłączone do systemu IT firmy czy instytucji. To również kwestia prywatnych aplikacji zainstalowanych na służbowym sprzęcie przenośnym. Mówimy zatem o pojęciu bardzo pojemnym, które de facto mieści w sobie kilka różnych koncepcji. Niektóre już jakiś czas temu na dobre zagościły w słownikach administratorów IT, chociażby Bring Your Own Devices czy też Bring Your Own Apps. Pozostałe, do których należy Bring Your Own Wearables, dopiero zaczynają trafiać do świadomości potencjalnych użytkowników. Niezależnie od modelu działania przedsiębiorcy chcieliby mieć kontrolę nad wszystkimi urządzeniami w firmowej sieci. To kwestia kluczowa dla bezpieczeństwa służbowych danych. W związku z tymi „zakusami” pojawiają się opinie,


przesyła link do pliku, który ma na swoim komputerze. Po prostu jego dane są zdublowane na dyskach macierzy firmowych lub w chmurze. – Usługa przypomina trochę Dropbox, tylko w wersji korporacyjnej – wyjaśnia Sebastian Kisiel. – Przy czym w tym modelu to dział IT określa ramy bezpieczeństwa. Informatycy decydują, czy użytkownik może wysyłać dane, jak długo ich odbiorca będzie mieć do nich dostęp, a także gdzie są składowane. Kolejna kwestia: czy dostęp do określonych informacji ma być możliwy po zalogowaniu, czy też nie. Administrator może skonfigurować system w taki sposób, aby każdy pracownik korporacji mógł wysłać link, ale nie każdy kto go odbierze uzyskiwał dostęp do danych. Co więcej, link może być aktywny tylko na jedno kliknięcie albo przez dzień lub tydzień. System EFSS, zgodny z BYOA, zapewnia także pracę offline. Pliki można więc edytować w miejscu, w którym nie ma dostępu do Internetu, np. w samolocie. Po wylądowaniu, gdy znów pojawia się zasięg sieci, system kopiuje dane na centralny storage.

DOBRAĆ SIĘ DO UBRANIA W BYOx uwzględniono też możliwość kontrolowania różnych urządzeń, także przenośnych. Dzięki założeniom BYOW, można zarządzać produktami wearable w taki sam sposób jak smartfonami. Specjaliści ze środowiska IT uważają, że urządzenia noszone zmieniają sposób funkcjonowania przedsiębiorstw, np. firm przemysłowych, które zatrudniają specjalistów korzystających z biurka nieregularnie, natomiast wykonujących sporo prac manualnych na terenie zakładu. W takim przypadku przydatne wydają się chociażby inteligentne okulary, które usprawniają pracę i przynoszą znaczne oszczędności. Jednak do pełnego wykorzystania potencjału tego rodzaju sprzętu potrzebne są wiarygodne i niezawodne rozwiązania do zarządzania nim oraz do jego integracji z innymi urządzeniami mobilnymi.

Etapy wdrożenia systemu BYOx 1. Instalacja rozwiązań, które umożliwiają rozpoczęcie pracy mobilnej. 2. Wzbogacenie ich o potrzebne aplikacje. 3. Pomysł na zabezpieczenie środowiska IT i zarządzanie nim. 4. Ostateczne scalenie systemu mobilnego i BYOx, co zapewni pracę na wirtualnych desktopach i z aplikacjami za pośrednictwem dowolnego urządzenia przenośnego, prywatnego lub służbowego (w zabezpieczonej sieci).

kilka przyczyn tego stanu rzeczy. W opinii Rocha Norwy koncepcja BYOx nie stanie się popularna, dopóki firmy nie zaadaptują systemów wirtualizacji stacji roboczych. Pozwoli to połączyć tradycyjne aplikacje i metody pracy z nowoczesną mobilnością. – To może potrwać. Firmy muszą wspierać aplikacje starego typu, zwłaszcza całą spuściznę systemu Windows. Trzeba będzie ponieść spore koszty modernizacji sieci i przeniesienia danych do chmury – mówi specjalista VMware. – Poza tym konieczna jest zmiana mentalności osób podejmujących ważne decyzje. Dotychczas firmy koncentrowały się na zabezpieczaniu swoich siedzib, czyli miejsc, w których przechowuje się większość danych. Teraz, kiedy coraz więcej informacji jest rozproszonych na urządzeniach pracowników, bezpieczeństwo powinno obejmować także zdalne punkty. Z kolei zdaniem Sebastiana Kisiela decyduje o tym przede wszystkim brak zaufania do chmury. Poza tym w Polsce są jeszcze pewne uwarunkowania prawne, które nie ułatwiają adaptacji systemów BYOx. Rodzący się polski rynek tego typu rozwiązań ogranicza się na razie właściwie tylko do instytucji finansowych. – Są wdrożenia poza sektorem bankowym, ale z pewnością BYOx nie zainteresuje wszystkich firm – uważa przedstawiciel Citriksa.

KILKA MAŁYCH „ALE”

CZAS SIANIA, CZAS ZBIERANIA

Takie rozwiązania już istnieją, ale przynajmniej na razie nie cieszą się popytem na polskim rynku. Specjaliści wymieniają

Trudno w tej chwili powiedzieć, ilu wdrożeniowców i kiedy zarobi większą gotówkę na integrowaniu rozwiązań w ramach

modelu BYOx. I to mimo że realizacja takich projektów w wersji podstawowej nie jest bardzo trudna. To zadanie dla każdej firmy, która ma doświadczenie w instalowaniu rozwiązań sieciowych i rozumie niuanse systemów operacyjnych i oprogramowania do zarządzania nimi. – Moim zdaniem o sukcesie integratora w takim samym stopniu decyduje wiedza, jak i znalezienie właściwej osoby w firmie, która takiego systemu potrzebuje – utrzymuje Sebastian Kisiel. Wdrożenia powinny być podzielone na różne etapy. Najpierw trzeba zainstalować rozwiązania, które pozwalają na rozpoczęcie pracy mobilnej. W kolejnym kroku należy je wzbogacić o różne aplikacje. Następnie warto przemyśleć sposób zabezpieczenia środowiska i zarządzania nim. Na końcu – dokonać ostatecznego scalenia systemów mobilnego i BYOx. Umożliwi to pracę na wirtualnych desktopach i z aplikacjami za pośrednictwem dowolnego urządzenia przenośnego, prywatnego lub służbowego. Co ważne, w zabezpieczonej sieci. Specjaliści zwracają uwagę, że taka strategia daje integratorowi przede wszystkim możliwość uzyskania przychodów ze sprzedaży licencji. Integrator może też zaoferować klientowi świadczenie usług konsultingowych, a także konserwacji i utrzymania rozwiązań, np. zabezpieczających firmowe sieci lub pozwalających na korzystanie z wirtualnych zasobów. Zrozumienie przez wdrożeniowców, na jakim etapie dana firma się znajduje, oraz umiejętne doradztwo, z pewnością przełożą się na korzyści finansowe. Producenci zachęcają integratorów, aby proponowali klientom rozwiązania do zarządzania mobilnością w pakietach z innymi produktami, np. do wirtualizacji stanowisk pracy użytkowników. Podsumowując, polski rynek BYOx AD 2016, to rynek, na którym powstały już ciekawe rozwiązania, ale któremu jeszcze daleko do stabilności. Tak często bywa, kiedy ciągłe zmiany technologiczne zderzają się z oczekiwaniami i obawami użytkowników. Niemniej jednak obecny, pionierski etap to szansa dla tych, którzy jako pierwsi zdobędą właściwe kompetencje i zaczną edukować klientów. Jeśli będą to robić skutecznie, już wkrótce może zacząć się czas żniw. VADEMECUM CRN listopad 2016

47


URZĄDZENIA MOBILNE

BYOD vs COPE – w potrzasku między różnorodnością a bezpieczeństwem Po stosunkowo długim okresie, w którym obowiązywały służbowe telefony a ich udostępnianie pracownikom było benefitem, korporacyje płynnie przeszły do modelu BYOD. Oba modele mają swoje wady i dlatego specjaliści HP polecają model będący złotym środkiem.

P

oczątek koncepcji BYOD jest silnie powiązany z trendem komercjalizacji – powszechnego stosowania urządzeń konsumenckich do celów biznesowych. Wynika to z większej wygody korzystania z nich, na czym zyskują obie strony. Pracownik nie jest zmuszony do używania niewygodnego i systemowo ograniczonego sprzętu. Odwdzięcza się przedsiębiorstwu efektywniejszą pracą, korzysta bowiem z urządzeń, które zna i o które dba. Oprogramowanie smartfona lub laptopa jest zwykle niezwłocznie aktualizowane przez samego użytkownika. Nie występuje także potrzeba przyuczania ani nakłaniania pracowników do korzystania z konkretnych urządzeń. Z barków pracodawcy spada więc zarówno konieczność ponoszenia wydatków na zakup nowego sprzętu mobilnego, jak i obowiązek dbania o jego serwis. Nadal jednak odpowiedzialność m.in. za bezpieczną integrację sprzętu z firmową infrastrukturą informatyczną spoczywa

48

VADEMECUM CRN listopad 2016

na przedstawicielach działu IT. Dlatego obecnie model BYOD coraz częściej porównywany jest z polityką COPE (Corporate Owned, Personally Enabled), w której firmy widzą sensowną alternatywę.

SPRZĘT FIRMOWY CZY WŁASNY? Dzięki popularyzacji modelu BYOD pracownicy zaczęli wykorzystywać do zadań służbowych nie tylko prywatne smartfony i laptopy, ale także nośniki danych, a nawet bezprzewodowe punkty dostępowe poszerzające zasięg firmowej sieci. W celu zmniejszenia ryzyka naruszenia polityki bezpieczeństwa, a co za tym idzie – wykradzenia kluczowych zasobów przedsiębiorstwa, np. własności intelektualnej, przez włamanie do sieci, nieodzowne stało się podwyższenie poziomu kontroli. W związku z tym sprawne zarządzanie urządzeniami mobilnymi w korporacyjnej sieci jest nie tyle przydatnym elementem, co pilną koniecznością. W efekcie wzrostu popularności BYOD codziennością firmowych informatyków stało się dbanie o bezpieczeństwo integracji używanych przez pracowników urządzeń z korporacyjną infrastrukturą IT. Jest to jednak znacznie trudniejsze niż w sytuacji, gdy sprzęt należy do pracodawcy. Dział IT nie ma bowiem wpływu na to, jakie urządzenia

będą wykorzystywane. Bogactwo oferty sprzętu mobilnego sprawia, że mimo zwiększonego nakładu pracy informatycy nie są w stanie przygotować się na każdą ewentualność. – Z powodu otwartości na nowe trendy w IT, chęci zaspokojenia potrzeb pracowników, czy po prostu odniesienia korzyści biznesowych wiele firm odebrało już surową lekcję po wdrożeniu polityki BYOD. Przekonały się dobitnie, że oszczędności płynące z integrowania prywatnych urządzeń z firmową siecią w celu zyskania dostępu do korporacyjnych zasobów mają swoją cenę – podkreśla Jacek Żurowski, dyrektor zarządzający polskim oddziałem producenta.

NOWE ROZWIĄZANIA TO NOWE WYZWANIA

Wyzwań przed działem IT, pragnącym zapewnić bezpieczeństwo zasobów informatycznych – w tym także danych przedsiębiorstwa – stoi bardzo wiele. System zarządzania sprzętem mobilnym musi być przygotowany do obsługi urządzeń o różnej specyfikacji, z zainstalowanymi rozmaitymi wersjami systemów operacyjnych oraz aplikacji. Rodzi to problemy w tak podstawowych kwestiach jak współpraca osób korzystających z niekompatybilnych rozwiązań czy tworzenie kopii zapasowych lub odzyskiwanie utraconych danych, a nawet w zakresie zgodności z regulacjami prawnymi.


ZŁOTY ŚRODEK: MODEL COPE W modelu COPE to przedsiębiorstwo jest właścicielem i zarządcą sprzętu przenośnego, proces zabezpieczania utraconych urządzeń – a tym samym integralności firmowych danych, zostaje więc skrócony. Przeciwnie jednak niż znany model LDD (Locked Down Device), COPE ma z perspektywy użytkownika wiele zalet. Zamiast bowiem zamykać urządzenia przed ingerencją pracowników, firma zachęca ich do korzystania ze sprzętu także w celach prywatnych. Między innymi dopuszczane jest instalowanie dowolnych aplikacji zgodnych z polityką pracodawcy oraz pochodzących z legalnych źródeł. Przedsiębiorstwo nie ogranicza też adresów DNS, z którymi może się łączyć pracownik przez przeglądarkę. Do użytkownika należy też wybór usług, z których chce prywatnie korzystać za pośrednictwem służbowego urządzenia. Przewagą maszyn działających w modelu COPE jest jednak możliwość – podobnie jak w przypadku laptopa HP Elitebook Folio G1 czy smartfona HP Elite x3 – wyposażenia ich w szereg zabezpieczeń wymaganych przez korporację. Niewielki, bardzo atrakcyjny komputer przyczynia się do ochrony firmowej sieci i umieszczonych w niej zasobów. Pomagają w tym takie zabezpieczenia jak HP Client Security Software Suite, Trusted Platform Module, HP Sure Start with Dynamic Protection (sprawdza czy kod BIOS-u nie został zmieniony np. w wyniku działania złośliwego oprogramowania, a w przypadku wykrycia zmian przywraca oryginalny kod) czy wreszcie sprzętowy czytnik linii papilarnych. Korzystanie z dostarczanych przez firmę komputerów to także znaczne ułatwienie zarządzania flotą maszyn. Dzięki zastosowaniu w nich takich rozwiązań jak chmurowy HP Touchpoint Manager

Trzy pytania do… JACKA ŻUROWSKIEGO, DYREKTORA ZARZĄDZAJĄCEGO HP INC. CRN Jakie przesłanki towarzyszyły firmie HP Inc. przy tworzeniu urządzeń, które rekomendowane są do wykorzystania w modelu BYOD lub COPE? JACEK ŻUROWSKI Konieczność korzystania w pracy z komputera nie musi oznaczać automatycznej rezygnacji ze sprzętu, który oprócz wymaganej wydajności oraz spełniania korporacyjnych norm bezpieczeństwa cechuje także lekka konstrukcja i atrakcyjny wygląd. Dlatego stworzyliśmy takie urządzenia jak HP Elite x2 1012 – elegancką hybrydę dla biznesu oraz HP EliteBook Folio G1 – najsmuklejszy i najlżejszy na świecie laptop klasy biznesowej z charakterystyczną dla rozwiązań konsumenckich obsługą przy pomocy dotyku. Charakteryzuje się bardzo ładną konstrukcją typu premium, skrywającą profesjonalne urządzenie spełniające wszelkie wymogi dotyczące bezpieczeństwa oraz integracji z korporacyjnym systemem informatycznym. CRN Dlaczego polecacie firmom przede wszystkim model COPE? JACEK ŻUROWSKI Polityka dopuszczająca korzystanie przez pracowników z urządzeń niebędących własnością firmy niesie ze sobą bagaż kontrowersji związanych z bezpieczeństwem. Z praktycznej strony problemem staje się np. ochrona danych przechowywanych w pamięci zgubionego bądź skradzionego urządzenia. Jeśli smartfon jest własnością korporacji, firmy administrator IT może zdalnie wyczyścić dane i zablokować zaginiony sprzęt, zapobiegając utracie danych. Jeśli urządzenie należy do pracownika, proces ten jest bardziej skomplikowany i w większym stopniu naraża zasoby firmy. CRN Pracownicy często jednak niechętnie korzystają ze służbowego urządzenia do prywatnych celów… JACEK ŻUROWSKI Koronnym argumentem przeciwko modelowi COPE jest obawa, czy pracodawca nie ma zbyt dużego wglądu w zasoby pracownika znajdujące się w pamięci telefonu. W przypadku prawidłowo realizowanej polityki COPE są one bezpodstawne. Relacje między pracodawcami a pracownikami zawsze jednak w pewnym zakresie bazować będą na zaufaniu jednych do drugich. Nie powstało jeszcze idealne rozwiązanie do zarządzania urządzeniami mobilnymi, z jakich korzystają pracownicy, które w pełni satysfakcjonowałoby obie strony. Wydaje się jednak, że w epoce post-BYOD dominować będzie właśnie model COPE.

(umożliwiający optymalizację sprzętu za pośrednictwem sieciowego panelu), diagnostyczny HP Image Assistant czy Intel Core vPro, proste staje się także zdalne zarządzanie danymi przechowywanymi na tych urządzeniach oraz poziomem ich ochrony. Zapewnia to obniżenie kosztów obsługi IT, a jednocześnie zachowanie jej wysokiej jakości oraz odpowiednie zabezpieczenie danych przedsiębiorstwa.

Dodatkowe informacje: WARSAW.RECEPTION@HP.COM

VADEMECUM CRN listopad 2016

49

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ HP INC.

Nawet po zwiększeniu nakładów na obsługę IT pozostaje jeszcze jedna bariera. Oprócz mnogości typów urządzeń kluczowym czynnikiem utrudniającym zarządzanie urządzeniami mobilnymi jest prawo do ingerowania w sprzęt, związane z kwestią jego własności.


ZAPASOWE CENTRA DANYCH

Rosną centra danych Zakres biznesu integratorów wykorzystujących ofertę data center może być bardzo szeroki. Począwszy od obsługi klientów przy użyciu własnej infrastruktury, utrzymywanej na zasadach kolokacji w zewnętrznym centrum danych, po pakietowanie i sprzedawanie różnych usług chmurowych, dodatkowo obudowanych własnymi rozwiązaniami. TOMASZ JANOŚ

W

edług najnowszego raportu firmy PMR „Rynek centrów danych w Polsce 2016. Analiza rynku i prognozy rozwoju na lata 2016–2021”, wartość krajowego rynku data center wzrosła w ubiegłym

50

VADEMECUM CRN listopad 2016

roku o 15 proc. W tym samym czasie powierzchnia centrów danych zwiększyła się o ponad 10 tys. mkw, wliczając zarówno przestrzeń serwerową, jak i całą infrastrukturę niezbędną do funkcjonowania obiektów. Z danych analityków wynika, że

w nadchodzących sześciu latach wartość rynku data center w Polsce sięgnie ponad 1,5 mld zł. Ma to związek z ogromnym postępem projektów wykorzystujących infrastrukturę informatyczną, w szczególności w modelu chmurowym.


Według innego raportu – Telko Trendy 2016, przygotowanego przez TNS Polska na zlecenie 3S – 28 proc. przedstawicieli tych polskich firm, które posiadają własną serwerownię, rozważa korzystanie z usług zewnętrznego centrum danych. Według ankietowanych pracowników IT takiej postawie sprzyjają wysokie koszty utrzymania własnej infrastruktury oraz ryzyko utraty danych. – Firmy pozbawione zastrzyku unijnych funduszy ostrożnie podchodzą do wydatków. Zamiast kupować, wolą wydzierżawić sprzęt lub oprogramowanie, zwłaszcza że wynajem infrastruktury jest jedną z najszybszych i najbardziej opłacalnych metod dostępu do technologii IT – tłumaczy Krystian Fydrych, kierownik ds. produktu w Dziale Marketingu i Rozwoju Biznesu ATM. Powodów, dla których oferta zewnętrznych centrów danych staje się coraz bardziej atrakcyjna, jest znacznie więcej. Ważne staje się chociażby uzyskanie większej elastyczności i szybkości reagowania na zmiany. Kolejna kwestia to dostęp do nowoczesnych rozwiązań i know-how usługodawcy, jak też zapewnienie ciągłości biznesu dzięki redundancji. Wreszcie dla przedsiębiorców spore znaczenie ma zachowanie wymogów zgodności z regulacjami branżowymi i prawnymi. Obecnie zewnętrzne centra danych to już nie tylko prosta kolokacja i hosting serwerów oraz innego sprzętu. Ich operatorzy rozwijają nowe usługi, wykorzystując wirtualizację i cloud. Tworzą przy tym ofertę pod kątem disaster recovery i rozwiązań hybrydowych, jak też proponują możliwość tworzenia zapasowego centrum danych. Ofertę rynkową dopełniają dostawcy chmury publicznej, w tym ci, którzy działają na skalę globalną.

Fot. © vladimircaribb – Fotolia.com

PRZEDE WSZYSTKIM DUŻE MIASTA

Choć część operatorów centrów danych twierdzi, że położenie geograficzne obiektu nie ma obecnie większego znaczenia, to powszechną praktyką wśród klientów jest przechowywanie danych w tym samym mieście, w którym znajduje się główna siedziba ich firmy (ewentualnie jej polski oddział). Dlatego – jak

PODMIOTY ZAINTERESOWANE USŁUGAMI CHMUROWYMI W LATACH 2016-2017 W POLSCE* 65%

MAŁE I ŚREDNIE FIRMY

50%

KORPORACJE

48%

DUŻE PRZEDSIĘBIORSTWA

31%

MIKROPRZEDSIĘBIORSTWA

13%

ADMINISTRACJA PUBLICZNA ADMINISTRACJA SAMORZĄDOWA

8%

*Na podstawie ankiety przeprowadzonej wśród 111 polskich dostawców usług cloud computingu

podaje PMR – trzydzieści największych, pod względem powierzchni netto przeznaczonej na szafy, komercyjnych CPD mieści się w naszym kraju w dziewięciu miastach. Prawie dwie trzecie działa w Warszawie, zaś pozostałe świadczą usługi w Krakowie, Poznaniu, Toruniu, Łodzi, Wrocławiu, Katowicach, Bydgoszczy i Szczecinie. Z badania PMR wynika także, że argumentem przemawiającym za wyborem serwerowni w innym mieście jest najczęściej aspekt bezpieczeństwa i chęć posiadania centrum zapasowego czy zasobów serwerowych w alternatywnej lokalizacji. Jest jeszcze inny powód powstawania data center poza dużymi ośrodkami. Chodzi o szansę na dofinansowanie unijne, znacznie większą niż w obszarach o największej koncentracji biznesu.

Źródło: PMR, 2016

CENTRUM DANYCH, CZYLI CHMURA

Integratorzy, jako partnerzy i klienci centrów danych, mogą skorzystać z oferty kolokacji, czyli możliwości podłączenia własnych serwerów do profesjonalnej infrastruktury technicznej. Jeśli natomiast nie brać pod uwagę kolokacji, to rozróżnienie między pojęciami „usługi centrum danych” i „chmura obliczeniowa” przestaje mieć znaczenie. Dostawca takich usług może mieć bardzo kompleksową ofertę, złożoną z różnych rozwiązań spełniających definicję jednej z chmurowych kategorii. Może to być IaaS (czysta infrastruktura w postaci mocy obliczeniowej i zasobów pamięciowych), PaaS (infrastruktura obudowana środowiskiem systemowym z dodatkowymi usługami), bądź SaaS (w tym przypadku operator

Zdaniem integratora  Wojciech Muras, prezes netology (firma oferuje własne usługi chmurowe pod marką netosphere) Tworząc ofertę usług netosphere, słuchaliśmy potrzeb klientów, którzy w latach 2011–2012 deklarowali zmniejszanie budżetów przy jednoczesnym zwiększeniu zapotrzebowania na infrastrukturę IT. Teraz możemy zaspokajać ich specyficzne potrzeby dużo taniej, niż mieliby to robić własnymi siłami. Nasza chmura ma też konkretny, fizyczny adres. Osobiście odpowiadamy za to, żeby dane klientów były bezpieczne i dobrze zarządzane. Chmury globalne takich gigantów, jak Amazon czy Microsoft, są w dużej mierze „anonimowe”. My mamy 24-godzinną obsługę, klienci wiedzą, gdzie są przechowywane ich dane, a to wszystko jest bezpośrednio połączone światłowodem z naszą siedzibą, a więc bez punktu styku z ogólnodostępnym Internetem. Firmy i instytucje bardzo sobie to cenią.

VADEMECUM CRN listopad 2016

51


ZAPASOWE CENTRA DANYCH centrum danych pełni rolę brokera dla dostawcy oprogramowania). W każdym wariancie klient jest także użytkownikiem usług telekomunikacyjnych. Z badań analityków wynika, że zgodnie z globalnymi trendami na polskim rynku coraz większe znaczenie będzie mieć chmura publiczna. W tej czy innej formie zaczyna być ona wykorzystywana przez wszystkich klientów, bez względu na wielkość firmy. Choć duże przedsiębiorstwa wciąż deklarują chęć posiadania przede wszystkim własnej infrastruktury, to tegoroczna ankieta przeprowadzona przez PMR pokazuje, że obecnie 25 proc. przedsiębiorstw zatrudniających 250 i więcej pracowników korzysta z usług przetwarzania danych w chmurze. Tym samym coraz więcej dużych firm wybiera model hybrydowy i przenosi cześć zasobów do chmury (zwykle tych mniej istotnych dla funkcjonowania biznesu) lub wykorzystuje ją jako element strategii HA/DR (High Availability/Disaster Recovery). Na znacznie większą skalę chmura publiczna będzie przyciągać klientów z małych i średnich firm. Zdaniem analityków perspektywy sprzedaży choćby najprostszych rozwiązań, adresowanych do tego segmentu w modelu publicznym, są obecnie znacznie lepsze niż możliwości oferowania przez centra danych zasobów większym przedsiębiorstwom.

INTEGRATORZY CHMUR Jak w tej sytuacji mogą odnaleźć się integratorzy? Może się wydawać, że dostawcy chmury publicznej o wielkiej skali działania, oferujący samoobsługowe proste narzędzia, mogą stanowić zagrożenie dla biznesu VAR-ów, podobne do tego, jakie niesie licencjonowanym taksówkarzom Uber. Jednak operatorzy chmury publicznej uspokajają partnerów, twierdząc, że są tylko dostawcami elementów do budowy kompletnych rozwiązań. To właśnie integratorzy mają zająć się złożeniem ich w pełni funkcjonalny projekt, który będą mogli zaoferować klientowi, a następnie nim zarządzać. Przy czym poszczególne składowe projektu najczęściej nie będą podchodzić od jednego dostawcy chmury, tylko od wielu. Ich liczba, różnorodność i złożoność sprawią, że klient będzie potrzebował kogoś, kto to wszystko dopasuje do siebie, będzie tym administrował i wystawi jedną fakturę. Integrator jako partner dostawcy chmury może i powinien dodać do usług infrastrukturalnych swoją wartość dodaną, chociażby rozwiązania programowe, np. automatycznego backupu czy archiwizowania. A klienci mogą w takim modelu nawet nie być świadomi tego, że korzystają z tej czy innej chmury, dostając zintegrowany pakiet stworzony przez partnera pod jego marką. Usługi integratora nie muszą dotyczyć tylko obszaru infrastruk-

PROGNOZA ROZWOJU INFRASTRUKTURY IT NA ŚWIECIE W RÓŻNYCH MODELACH WDROŻENIA

100% 80% 60% 40% 20%

TRADYCYJNE CENTRUM CHMURA PRYWATNA

52

VADEMECUM CRN listopad 2016

20 20

20 19

20 18

20 17

20 16

20 15

0%

tury. Wręcz przeciwnie, dobrze gdy obejmują także inne rozwiązania(w tym np. bezpieczeństwo „as a service”, narzędzia analityczne, aplikacje) i tworzą mniej lub bardziej kompletny system IT klienta. Przykładem dostawcy chmury współpracującego z siecią partnerów jest OVH. Jak wyjaśnia Robert Paszkiewicz, dyrektor sprzedaży i marketingu tej firmy, dla integratorów, którzy mają rozmaite kompetencje, usługi operatora chmury stanowią uzupełnienie ich oferty. Firmy różnią się pod względem skali i budżetów projektów, jakie przeprowadzają, a warunki każdego kontraktu są ustalane indywidualnie, bo brany jest pod uwagę charakter danego wdrożenia. Partnerzy mogą wybrać, czy decydują się na zakup usługi bezpośrednio w OVH i następnie jej refakturowanie czy przedstawiają ofertę klientowi, który sam dokonuje zakupu. – Każda z firm, z którymi współpracujemy, jest promowana na stworzonej w tym celu stronie internetowej. Resellerzy mogą liczyć nie tylko na przekazanie kontaktów biznesowych, ale również wsparcie i doradztwo we wdrożeniach. Wspólnie rozmawiamy o tym, jakie są oczekiwania klientów, a następnie proponujemy najlepszy pakiet usług – mówi Robert Paszkiewicz. Ważną rolę w modelu integrowania usług chmurowych chcą odgrywać dystrybutorzy. Kolejne miesiące przynoszą informację o uruchamianych przez nich platformach typu Cloud Marketplace. Partnerzy dystrybutorów, wykorzystując specjalnie stworzone do tego portale, mogą udostępniać klientom usługi i zarządzać nimi. Mogą z nich tworzyć dopasowane do potrzeb konkretnych klientów pakiety, dodatkowo uzupełnione własnymi rozwiązaniami. Co więcej, mogą sprzedawać je pod własną marką, bo platformy udostępniają najczęściej funkcję brandingu. Ogólnie Cloud Marketplace najczęściej umożliwia resellerom zakup usług, ich dostarczenie klientom, zarządzanie subskrypcją i fakturowanie. W ten sposób ułatwia obsługę klientów, przede wszystkim małych i średnich firm, w nowym modelu biznesowym.

MNIEJSI SIĘ JEDNOCZĄ

CHMURA PUBLICZNA Źródło: IDC

Polscy i europejscy dostawcy usług centrów danych, chcąc zwiększyć swoje szanse w konkurencji z globalnymi


>> ZDANIEM SPECJALISTÓW Piotr Pawłowski, członek zarządu ds. handlowych, 3S

PIOTR PAWŁOWSKI Dla integratora trzy najważniejsze sprawy przy korzystaniu z usług centrum danych to: bezpieczeństwo, telekomunikacja oraz udogodnienia dla partnerów. Jeśli bezpieczeństwo, to przede wszystkim energetyczne. Kluczowa jest także dostępność łączy telekomunikacyjnych wielu operatorów oraz ich redundancja. Udogodnienia obejmują możliwość wydzielenia szafy lub powierzchni dla integratora z indywidualną kontrolą dostępu, a także np. monitoring pracy serwerów, wsparcie w migracji zasobów czy też usługa „remote hands” (czyli zdalnego wsparcia). ROBERT PASZKIEWICZ Na co dzień współpracujemy z partnerami typu VAR. Firmy te oferują własny produkt wykorzystujący naszą infrastrukturę, np. tworząc aplikacje internetowe na zamówienie klienta. Dzięki chmurze zachowują one niezależność od parametrów i możliwości sprzętu wykorzystywanego przez użytkownika. W tym przypadku nasze usługi stanowią fundament produktu, a nie są produktem samym w sobie. Jako VAR-owie, partnerzy zarabiają przede wszystkim na doradztwie, wdrożeniu i utrzymaniu projektu oraz marży własnej na produkcie czy oprogramowaniu.

Robert Paszkiewicz, dyrektor sprzedaży i marketingu, OVH Michał Furmankiewicz, architekt rozwiązań chmurowych, Microsoft

chmurowymi gigantami, np. AWS czy Microsoft, zawiązują koalicje. Na krajowym rynku pojawił się właśnie Polish Data Center Association – pierwszy w Polsce związek skupiający ośrodki przetwarzania danych. W jego skład wchodzą: Talex, Infomex, Tauron, Beyond.pl, Onet, 3S Data Center, DCPG, ATM, Sinersio Polska, WCSS oraz Polcom. Misją Polish Data Center Association ma być dbanie o dobre interesy polskich ośrodków przetwarzania danych oraz zachęcanie firm i instytucji państwowych do korzystania z outsourcingu IT w krajowych DC. Firmy członkowskie PDCA posiadają łącznie ponad 9 tys. szaf rackowych, co stanowi ok. 64 proc. wykorzystywanej w Polsce przestrzeni serwerowej (dane według badań Audytela z 2016 r.). – Jednym z naszych celów jest też wzmocnienie pozycji polskich centrów danych a na konkurencyjnych rynkach zewnętrznych oraz wobec międzynarodowych dostawców oprogramowania, którzy świadczą swoje usługi w Polsce – podkreśla Jacek Szczepanek, prezes PDCA. Na rynku europejskim natomiast, nowo utworzona organizacja CISPE (Cloud In-

MICHAŁ FURMANKIEWICZ Jest wiele mitów na temat chmury. Najczęściej powtarzany to: „nie wiem, gdzie są moje dane”. Prawda jest taka, że przynajmniej w przypadku największych dostawców chmury doskonale wiadomo, gdzie są one przechowywane. Można to zresztą skontrolować, chociażby z pomocą audytora, który sprawdzi, czy określone dane są tam, gdzie być powinny. Co więcej, firmy mogą zdecydować, gdzie chcą je umieścić i czy mają mieć kopie w innym centrum na terenie UE. To samo dotyczy nie tylko danych, ale także usług.

frastructure Services Providers in Europe) zrzesza ponad 20 dostawców usług chmurowych z tego regionu. Niedawno CISPE ogłosiła wprowadzenie kodeksu postępowania w dziedzinie ochrony danych. Zgodnie z nim dostawcy usług infrastruktury chmurowej zobowiązani są do oferowania klientom możliwości przetwarzania i magazynowania danych wyłącznie w obrębie terytorium Unii Europejskiej oraz Europejskiego Obszaru Gospodarczego. CISPE ogłosiła, że jej kodeks wyprzedza wprowadzenie nowego unijnego rozporządzenia o ochronie danych osobowych – General Data Protection Regulation. Dokument ten ma na celu przede wszystkim „oddanie obywatelom kontroli nad ich danymi osobowymi oraz uproszczenie otoczenia prawnego dla międzynarodowego biznesu poprzez ujednolicenie ustawodawstwa w obrębie UE”.

POLSKA, EOG CZY „BEZPIECZNY PORT”? Są klienci, którzy, powierzając swoje dane zewnętrznemu centrum, wymagają, aby nie opuszczały one granic naszego

kraju. Warto jednak pamiętać, że polskie prawo nie narzuca specjalnych ograniczeń, jeśli chodzi o przetwarzanie danych na terenie EOG, czyli Europejskiego Obszaru Gospodarczego (obecnie należy do niego 31 krajów, w tym wszystkie państwa UE oraz Norwegia, Islandia i Liechtenstein). Aby dane były chronione zgodnie z zaleceniami GIODO, klient (zwłaszcza podmiot publiczny), który zdecyduje się na przekazanie choćby części swoich zasobów do chmury, musi uzyskać od dostarczyciela usługi pełną informację o wszystkich fizycznych lokalizacjach serwerów, na których są lub mogą być przetwarzane dane. Warto pamiętać, że od lipca bieżącego roku obowiązuje nowa umowa EU-US-Privacy Shield, znana też jako Safe Harbour 2.0, której wejście w życie poprzedziły długie miesiące sporów o jej kształt. Ma ona ułatwiać organizacjom po obu stronach Atlantyku transfer danych obywateli Unii Europejskiej bez łamania stosowanych na terenie UE surowych przepisów o ich ochronie. Na razie jednak trudno przewidzieć, jak to w praktyce będzie wyglądać. VADEMECUM CRN listopad 2016

53


ZAPASOWE CENTRA DANYCH

IBM Aspera – sposób na szybki transfer dużej ilości danych Rozwiązania IBM Aspera zapewniają szybki i bezpieczny transfer dużych ilości danych do dowolnego miejsca na świecie. Możliwe jest nawet stukrotne skrócenie czasu transmisji, a dzięki temu np. wyeliminowanie konieczności budowy lokalnego centrum danych.

N

owoczesne zastosowania IT, takie jak Big Data, zaawansowana analityka, obliczenia w chmurze i aplikacje mobilne, obnażają słabości sposobów przesyłu danych, które w zdecydowanej większości bazują na protokole TCP, zaprojektowanym w latach 70. ubiegłego wieku. Sprawdzał się w tamtych czasach, ale nie przystaje do dzisiejszych wyzwań ani nie jest w stanie wykorzystać potencjału nowoczesnych technik sieciowych. Coraz więcej klientów zmaga się z problemem przesyłania dużych ilości danych na znaczne odległości (np. do chmury), a stosowane obecnie protokoły (http, ftp, scp, rsync itd.) nie są w stanie wykorzystać dostępnego pasma, przez co transfer trwa zdecydowanie za długo. By rozwiązać ten problem firma Aspera (od 2014 r. będąca częścią IBM) opracowała protokół fasp, który gwarantuje pełne wykorzystanie dostępnego pasma transmisji, niezależnie od odległości i jakości łącza.

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ AVNET.

PROTOKÓŁ FASP W PRAKTYCE IBM ma w ofercie kilka rozwiązań bazujących na protokole fasp. IBM Aspera faspex to oprogramowanie zapewniające szybkie przesyłanie dużych plików do dowolnego odbiorcy na świecie za pomocą wygodnego interfejsu WWW. Umożliwia łatwe wysyłanie danych w sytuacji, gdy ze względu na rozmiar ich przesyłanie e-mailem jest niemożliwe albo niepraktyczne. Co ważne, pliki mogą wysyłać lub odbierać także użytkownicy nieposiadający licencji oprogramowania Aspera – do transferu wykorzystają darmową wtyczkę do przeglądarki Aspera Connect. IBM Aspera Shares to rozwiązanie umożliwiające globalne współużytkowanie plików z wielu miejsc. Zapewnia centralny rejestr zasobów i autoryzację

54

VADEMECUM CRN listopad 2016

Przykłady przyspieszenia transferu przy użyciu IBM Aspera Firma X potrzebuje przesyłać codziennie 1 TB danych między ośrodkami obliczeniowymi dysponującymi łączem 10 Gb/s (RTT 10 ms, Packet Loss 0,001 proc.) – Maksymalna przepustowość protokołu TCP: 370 Mb/s – Przepustowość z wykorzystaniem protokołu fasp: 10 Gb/s – Minimalne okno transferu z wykorzystaniem protokołu TCP: 6 godzin – Czas transferu za pomocą IBM Aspera: 13 minut 20 sekund Firma Y potrzebuje przesyłać codziennie 100 GB danych między centrami danych w Pradze i Warszawie dysponującymi łączem 100 Mb/s (RTT 30 ms, Packet Loss 0,05 proc.) – Maksymalna przepustowość protokołu TCP: 17,4 Mb/s – Przepustowość z wykorzystaniem protokołu fasp: 100 Mb/s – Minimalne okno transferu z wykorzystaniem protokołu TCP: 12 godzin 46 minut – Czas transferu za pomocą IBM Aspera: 2 godziny 13 minut Źródło: asperasoft.com/performance-calculator

dostępu, a dzięki protokołowi fasp użytkownicy mogą pobierać pliki z pierwotnych lokalizacji z maksymalną prędkością – niezależnie od odległości. Z kolei IBM Aspera Sync umożliwia szybką i automatyczną replikację plików między urządzeniami znajdującymi się w oddalonych miejscach. Dzięki wykorzystaniu protokołu fasp do transmisji danych i lokalnych baz przechowujących informacje o zreplikowanych plikach rozwiązanie zapewnia utrzymanie spójności danych na serwerach – niezależnie od odległości między nimi oraz liczby i wielkości plików. Nowością w ofercie producenta jest IBM Aspera Files – oprogramowanie oferowane jako usługa (SaaS), umożliwiające szybki transfer i współużytkowanie plików bez instalowania własnej infrastruktury sprzętowej. W celu skorzystania z tej usługi wystarczy zarejestrować się na stronie files.asperasoft.com.

Rozwiązania IBM Aspera mogą być używane do różnych zadań. Najczęściej służą do przesyłania dużych plików (multimedia, dane medyczne, backup) między odległymi od siebie centrami danych oraz replikacji serwerów plików do zapasowych centrów danych lub usług w chmurze (są certyfikowane do współpracy z usługami firm Amazon, IBM, Google i Microsoft). Mogą też służyć do przesyłania wysokiej jakości obrazu wideo z wykorzystaniem łączy WLAN, 3G i 4G.

Dodatkowe informacje: WŁODZIMIERZ DYMACZEWSKI, CLOUD SOLUTIONS ARCHITECT, IBM, DYMACZEWSKI@PL.IBM.COM ANDRZEJ BUGOWSKI, IBM & LENOVO BUSINESS UNIT MANAGER, AVNET, ANDRZEJ.BUGOWSKI@AVNET.COM


TMZC – przyszłość

bezpiecznego mobilnego biznesu Terminal Toshiba Mobile Zero Client to urządzenie klienckie, które pozwala użytkownikom w nieskrępowany sposób korzystać z firmowej infrastruktury wirtualnych pulpitów (VDI).

Jak działa Toshiba Mobile Zero Client? 1. Uruchomienie – w chwili startu urządzenie łączy się z prekonfigurowaną przez administratora siecią przewodową lub Wi-Fi. 2. Zgoda na wczytanie systemu operacyjnego – usługa Toshiba Boot Control Service weryfikuje uprawnienia użytkownika. 3. Wczytanie systemu TMZC – po potwierdzeniu uprawnień obraz systemu operacyjnego urządzenia (bazującego na systemie Linux) jest wczytywany do pamięci RAM i tam rozpakowywany. 4. Uruchomienie systemu – urządzenie jest gotowe do podłączenia się do wskazanego przez użytkownika wirtualnego desktopa.

czemu żadne dane nie są w nim przechowywane. Eliminuje to możliwość zainstalowania w urządzeniu złośliwego oprogramowania i minimalizuje ryzyko wycieku informacji w wyniku zgubienia lub kradzieży komputera.

PRZEDE WSZYSTKIM BEZPIECZEŃSTWO

TMZC zapewnia wyjątkowo bezpieczne przechowywanie danych i dostęp do nich. Po włączeniu wymaga dodatkowego potwierdzenia uprawnień przez użytkownika, co stanowi kolejną barierę, na wypadek gdyby urządzenie wpadło w niewłaściwe ręce (narzędzie uwierzytelniające Toshiba Boot Control Service jest obsługiwane przez serwery autoryzacyjne działające w ramach usługi Microsoft Azure). Tak skonstruowany mechanizm uruchamiania systemu nie pozwoli na włączenie zagubionego lub skradzionego urządzenia, czyniąc je bezużytecznym (tym bardziej że zainstalowanie i uruchomienie w nim tradycyjnego systemu ope-

racyjnego jest niemożliwe). Weryfikacja uprawnień ma miejsce przy każdym uruchomieniu i co jakiś czas w trakcie pracy, w celu wymuszenia zdalnego wyłączenia urządzenia, kiedy zajdzie taka potrzeba. Dodatkowy poziom ochrony został zapewniony przez zaprojektowany i samodzielnie wyprodukowany przez Toshibę BIOS. Wymusza on, aby połączenie TMZC z serwerem zarządzającym było możliwe jedynie po potwierdzeniu uprawnień dostępu, a próby uruchamiania na nim systemu operacyjnego, np. z zewnętrznych urządzeń lub nieautoryzowanych sieci, były odrzucane. Autoryzowanymi dystrybutorami firmy Toshiba w Polsce są firmy AB i ABC Data.

Dodatkowe informacje: MICHAŁ SZYNAL, CHANNEL MANAGER B2B, TOSHIBA, MICHAL.SZYNAL@TOSHIBA-TEG.COM VADEMECUM CRN listopad 2016

55

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ TOSHIBA.

P

racownicy coraz częściej wykonują swoje obowiązki zdalnie, co przynosi firmom wiele korzyści – zapewnia bardziej efektywną pracę, przyczynia się do mniejszego zużycia energii elektrycznej i umożliwia bardziej optymalne wykorzystanie zarezerwowanej dotychczas na stałe przestrzeni biurowej. Dzięki wirtualnym desktopom administratorzy IT mogą zagwarantować pełne bezpieczeństwo firmowych danych, a jednocześnie nie wprowadzać wielu ograniczeń charakterystycznych dla zamkniętych środowisk IT. Ważne jest jednak, aby zapewnić użytkownikom wygodny i chroniony dostęp do wirtualnej infrastruktury. Rosnąca liczba rozwiązań IT wykorzystywanych w przedsiębiorstwach niesie ze sobą niespotykane dotychczas ryzyko powstawania luk w systemie bezpieczeństwa. Zagrożenie może stanowić zarówno wyciek danych i atak hakerski, jak i zwykła kradzież urządzenia. Jednym z największych wyzwań dla firm jest obecnie jednoczesne zapewnienie ochrony danych i swobody wyboru urządzeń pracownikom, którzy potrzebują nieograniczonego dostępu do tych danych. Toshiba Mobile Zero Client przeznaczony jest do obsługi wirtualnych desktopów przechowywanych i uruchamianych na serwerach w centrum danych przedsiębiorstwa, w ramach infrastruktury VDI stworzonej z wykorzystaniem oprogramowania do wirtualizacji firm Citrix i VMware. Może być połączony z firmową siecią zarówno w sposób przewodowy, jak i bezprzewodowy. Urządzenie jest pozbawione systemu operacyjnego, twardego dysku i portów USB, dzięki


ZARZĄDZANIE APLIKACJAMI

Oprogramowanie pod specjalnym nadzorem,

czyli sposób na piractwo Wydatki na oprogramowanie mogą stanowić nawet 40 proc. firmowych budżetów. Odpowiednie zarządzanie aplikacjami pozwala zredukować je o kilkadziesiąt procent. Warto klientów przekonywać, że to znacznie lepszy sposób na oszczędności, niż używanie pirackich kopii. WOJCIECH URBANEK

56

VADEMECUM CRN listopad 2016


czyć się resellerzy oraz integratorzy, tym bardziej że ten segment rynku jest wciąż słabo zagospodarowany. Sprzedawcy zarobią nie tylko na sprzedaży i wdrożeniu oprogramowania, ale też na jego integracji z innymi rozwiązaniami. Dlatego warto zdobywać w tej dziedzinie doświadczenie i wiedzę, aby wykorzystać ją w specjalistycznych projektach wspierających procesy zarządzania software’em. Wprawdzie poziom korzystania z nielegalnego oprogramowania w Polsce wynosi 48 proc., co nie jest powodem do dumy, ale warto podkreślić, że dekadę temu był o 10 proc. wyższy. Niestety, wciąż daleko nam do standardów europejskich. W Niemczech czy Wielkiej Brytanii wskaźnik ten sięga 22 proc. – Firmy działające w Europie Zachodniej wypracowały określone mechanizmy i przyzwyczaiły się do systematyki działania w zakresie licencjonowania oprogramowania. Niestety, w Polsce dzieje się inaczej. Inwentaryzacje licencji są przeprowadzane raz na dwa lata lub w ogóle ich brak – tłumaczy Grzegorz Filarowski, CEO firmy LOG System.

BÓL POSIADANIA

Fot. © enzozo – Fotolia.com

W

edług danych BSA oraz The Software Alliance przedsiębiorcy i użytkownicy domowi przyłapani w ubiegłym roku na piractwie komputerowym musieli zapłacić 4,4 mln zł z tytułu ugód i wyroków sądowych. Dla porównania w 2014 r. wartość odszkodowań przekroczyła 1,3 mln zł. Czego możemy spodziewać się w 2016? W pierwszym półroczu łączna wartość kar za korzystanie z nielegalnego oprogramowania w Polsce wyniosła 900 tys. zł. Prawdopodobnie więc w tym roku nie pobijemy niechlubnego rekordu.Nie zmienia to faktu, że wciąż istnieją firmy, które nie płacą za oprogramowanie, wychodząc z złożenia, że prawdopodobieństwo wykrycia przestępstwa jest bliskie zeru. To krótkowzroczne myślenie, bowiem wcześniej czy później znajdzie się pracownik, który z róż-

nych powodów będzie chciał wziąć odwet na szefie i poinformuje np. BSA o występujących w firmie nieprawidłowościach dotyczących używanego oprogramowania. Nie wszystkie firmy kradną oprogramowanie z premedytacją. Natłok zajęć czy złożone procesy decyzyjne w korporacjach sprawiają, że kwestie związane z licencjonowaniem i aktualizacją oprogramowania schodzą na dalszy plan. Niewiele lepiej sytuacja przedstawia się w mniejszych przedsiębiorstwach, które zazwyczaj nie zatrudniają specjalistów IT. Brak fachowców powoduje, że nie potrafią poruszać się w labiryncie różnych wersji i rodzajów używanych aplikacji, więc często popełniają błędy. Tutaj pojawia się zadanie w zakresie edukacji dla takich organizacji jak BSA, a także producentów oprogramowania. W proces powinni aktywnie włą-

Analitycy i eksperci związani z rynkiem IT są zgodni, że najbliższych latach świat nowych technologii zostanie zdominowany przez software. Według Gartnera w bieżącym roku klienci biznesowi oraz instytucje wydadzą na niego 332 mld dol. Oprogramowanie firmowe obejmuje różne grupy produktów, począwszy od popularnych aplikacji biurowych aż po narzędzia przeznaczone do specjalistycznych zastosowań. Część z nich pracuje w chmurze, inne w środowisku lokalnym. Ten swoisty mętlik sprawia, że firmy nie radzą sobie z zarządzaniem, gubiąc się w labiryncie licencji i uaktualnień. Specjaliści z Deloitte obliczyli, że 58 proc. przedsiębiorstw płaci za oprogramowanie, z którego nie korzysta, a 22 proc. zakupionych aplikcji nigdy nie zostaje wdrożone do użytku. Alarmujące dane przynosi raport firmy 1E, zgodnie z którym przedsiębiorcy w USA wydali w 2015 r. aż 30 mld dol. na nieużywane oprogramowanie. Krzysztof Bączkiewicz, specjalista od zarządzania zasobami przedsiębiorstwa, VADEMECUM CRN listopad 2016

57


ZARZĄDZANIE APLIKACJAMI

>> ZDANIEM SPECJALISTÓW Mariusz Ustyjańczuk, Senior Manager, Deloitte

ILONA TOMASZEWSKA Procesy Software Asset Management zyskują coraz większą popularność. To zjawisko jest efektem rosnącej świadomości przedsiębiorców, którzy przestają uznawać SAM za sprawdzanie legalności, a zaczynają postrzegać jak sposób na obniżanie kosztów funkcjonowania firmy przez spójne zarządzanie infrastrukturą IT. Zrealizowanie projektu SAM u klienta to zaledwie początek. Następnie resellerzy i integratorzy zaczynają rozmowy z klientem o tym, jakie procesy można usprawnić w jego firmie, jakich procedur brakuje, jakie licencje wymagają ujednolicenia, jakie najnowsze technologie mogłyby mieć u niego zastosowanie itd.

Ilona Tomaszewska, dyrektor ds. ochrony własności intelektualnej w polskim oddziale Microsoft Hubert Ortyl, Business Development Manager Security Solutions, Advatech

Agnieszka Pajdowska, właściciel, Softil

w poradniku „Zarządzanie oprogramowaniem. To da się zrobić”, określa zjawisko nadmiaru aplikacji jako ból posiadania. Na czym polega ta specyficzna dolegliwość? Infrastruktura składająca się z kilkuset komputerów, często znajdujących w różnych miejscach wymaga podejścia systemowego, czyli zastosowania odpowiednich narzędzi do zarządzania zasobami. Aczkolwiek to nie koniec problemów związanych z posiadaniem infrastruktury IT. Oprogramowanie wiąże się, z punktu widzenia korzystającej z niego firmy, z przynajmniej kilkoma zagrożeniami. Obecnie najwięcej słyszy się o problemie ochrony informacji. – Przedsiębiorstwa przeznaczają większe środki finansowe na bezpieczeństwo

58

MARIUSZ USTYJAŃCZUK Nie spotkaliśmy się z działaniem, które nosiłoby znamiona świadomego łamania warunków licencyjnych. Najczęściej wykorzystanie oprogramowania niezgodnie z uprawnieniami jest wynikiem kłopotów ze zrozumieniem skomplikowanych warunków licencyjnych lub ze złą koordynacją działań zakupowych i ewidencji posiadanych uprawnień licencyjnych z działaniami typowo operacyjnymi IT. Administratorzy, instalując oprogramowanie, niejednokrotnie nie znają ograniczeń wynikających z umów licencyjnych. W wielu firmach brakuje osoby na stanowisku software asset managera, który mógłby te działania skoordynować.

VADEMECUM CRN listopad 2016

HUBERT ORTYL Najczęściej potrzeba wdrożenia systemu zarządzania aplikacjami ujawnia się w momencie istotnych zmian w przedsiębiorstwie, np. fuzji lub przejęcia. Wówczas firmy dysponują większą liczbą licencji aniżeli pracowników. W takiej sytuacji należy przeprowadzić wnikliwą inwentaryzację posiadanego oprogramowania i ustalić sposób oraz częstotliwość używania aplikacji przez poszczególnych pracowników. Chyba najbardziej adekwatny jest tutaj przykład pakietu Microsoft Office. AGNIESZKA PAJDOWSKA Sprzedażą oprogramowania SAM zajmuję się od niemal dekady i zauważam, że zainteresowanie tego typu rozwiązaniami rośnie z roku na rok. Firmy i instytucje państwowe mają coraz większą wiedzę na temat wdrożenia polityki SAM. Jeszcze kilka lat temu klienci nie zdawali sobie sprawy z wagi zarządzania licencjami w firmie, nie znali też przeznaczonych do tego narzędzi. W ostatnim czasie to się zmieniło. Choć zajmujemy się sprzedażą wielu rozwiązań z dziedziny IT, m.in do zabezpieczenia sieci oraz danych firmowych, w ostatnich latach zauważyliśmy, że sprzedaż oprogramowania SAM jest znacznie większa niż w przypadku innych grup produktów. Uważam, że popyt będzie wzrastał, m.in. ze względu na coraz częstsze kontrole przeprowadzane przez BSA i urzędy skarbowe.

sieci niż aplikacji, co ma fatalny wpływ na produktywność biznesu – zauważa Ireneusz Wiśniewski, dyrektor zarządzający w F5 Networks. Tymczasem bilans powinien być co najmniej zrównoważony. Z badań przeprowadzonych przez Ponemon Institute wynika, że aplikacje stają się ulubionym celem hakerów. Prawie połowa respondentów sądzi, że warstwa aplikacyjna atakowana jest częściej, a 58 proc., że ataki są poważniejsze niż w warstwie sieciowej. Kolejny ważny element układanki stanowi bezpieczeństwo prawne. Pod tym pojęciem kryje się sposób wykorzystania sprzętu i zgodność z licencjami oprogramowania. Nieodpowiednia polityka w tym

zakresie może ściągnąć na przedsiębiorstwo masę kłopotów, w postaci mandatów i kar, a w najbardziej drastycznych przypadkach prowadzi do blokady zasobów informatycznych. Jeśli przypadek zostanie nagłośniony w mediach, ucierpi reputacja firmy. Jak widać, ból posiadania może być nad wyraz nieprzyjemny. Jak go uśmierzyć? Eksperci zalecają stosowanie specjalistycznego oprogramowania SAM (Software Asset Management), ITAM (IT Asset Management) lub SLO (Software License Optimization). Ważne, że większość potencjalnych pacjentów nie neguje potrzeby sięgnięcia po „medykament”. Aż 81 proc. przedsiębiorstw, które brały


udział w badaniu Flexera Software, zadeklarowało, że zarządzanie licencjami jest dla nich bardzo istotne.

CZAS NA SAM O ile większość podmiotów gospodarczych korzysta z antywirusów i systemów CRM, o tyle takie produkty jak SAM czy ITAM dopiero przecierają szlak na rynku. Przyszłość aplikacji do zarządzania oprogramowaniem rysuje się jednak w jasnych barwach. Za tą tezą przemawia nie tylko rosnąca funkcjonalność oferowanych rozwiązań, ale również potrzeby świata biznesu w zakresie nadzoru nad lawinowo przyrastającym software’em. Do kluczowych zadań aplikacji SAM należy badanie legalności, zarządzenie portfelem aplikacji, monitoring zmian w sprzęcie i oprogramowaniu oraz ewidencja zasobów. Analitycy obliczają, że wdrożenie rozwiązania typu Software Asset Management redukuje koszty związane z zarządzaniem i obsługą oprogramowania o 20–40 proc. System eliminuje do minimum ryzyko kar z powodu braku odpowiednich licencji. Nie wszyscy zdają sobie sprawę, że SAM chroni również przedsiębiorstwo przed cyberatakami. Inwentaryzacja oprogramowania pozwala sprawdzić poziom bezpieczeństwa i tym samym wyeliminować luki zwiększające podatność na ataki. Potencjalni nabywcy aplikacji do zarządzania licencjami mają do wyboru dwie opcje: zakup samodzielnego produktu lub pakietu zawierającego m.in. moduł SAM. Klienci częściej decydują się na drugi wariant, co akurat powinno cieszyć resellerów i integratorów. – Dla użytkowników korzystniejsze jest kompleksowe rozwiązanie, gdyż wszystkie składowe są ściśle zintegrowane i mogą wymieniać się informacjami. Naszą wartością dodaną są mechanizmy automatyzacji, np. odinstalowania niewykorzystywanego oprogramowania. Nie zamykamy się na integrację z innymi systemami – wyjaśnia Krzysztof Krawczyk, Business Unit Director w Alstorze. Stosunkowo niewielka popularność SAM jest pochodną kilku czynników: względnie wysokich cen, złożoności

Oprogramowanie SAM – korzyści dla klientów • Zapewnienie kontroli nad dystrybucją, rozwojem i utrzymaniem oprogramowania • Kontrola rzeczywistego wykorzystania software’u • Zmniejszenie ryzyka wykorzystania oprogramowania zawierającego luki bezpieczeństwa lub podatnego na różnego rodzaju złośliwy kod itp. • Możliwość prognozowania przyszłych kosztów zakupu aplikacji na bazie dokładnej analizy rzeczywistych potrzeb licencyjnych

systemów, a także niewielkiego zainteresowania produktami, zarówno wśród klientów, jak i samych resellerów. Ci ostatni często uważają oprogramowanie za mało atrakcyjne i nie mają pomysłu na jego sprzedaż. Niemniej jednak wraz z premierami nowych systemów przed sprzedawcami otwierają się nowe możliwości. Najnowsze aplikacje są bardziej przyjazne w obsłudze, oferują dodatkowe funkcje, np. w postaci zaawansowanych kalendarzy. Zmienia się też sposób ich

W Polsce inwentaryzacje licencji są przeprowadzane raz na dwa lata lub w ogóle się ich nie przeprowadza. sprzedaży. Producenci nie straszą klientów konsekwencjami wynikającymi z posiadania nielegalnego oprogramowania, lecz pokazują oszczędności i poziom bezpieczeństwa, które można uzyskać dzięki wdrożeniu SAM. Niewykluczone, że rynek ożywi sprzedaż aplikacji w modelu chmurowym. – Oprócz edukacji i woli podnoszenia kompetencji, warunkiem rozwoju SAM jest, rzecz jasna, także bogata oferta narzędzi oraz ich przystępność cenowa. To jedna z zasadniczych zalet oprogramowania w chmurze. Kolejną stanowi wysoki poziom bezpieczeństwa informatycznego

– mówi Bartłomiej Witucki, przedstawiciel BSA w Polsce. Na przestrzeni ostatnich lat cele i zadania działów IT uległy zmianie. Skuteczne zarządzanie oprogramowaniem staje się jednym z priorytetów każdego przedsiębiorstwa. Nie tylko ze względu na liczbę aplikacji, ale również na ich rosnącą rolę. Specjaliści z firm doradczych przewidują, że w nieodległej przyszłości audyty legalności będą rutynowym działaniem dostawców. Większość przedsiębiorców ma się czego obawiać, bo według analityków Deloitte aż 68 proc. podmiotów boryka się z brakami licencyjnymi. Rolą integratora jest uchronić przed tym klientów. Zwłaszcza że można na tym zarobić. Należy także zwrócić uwagę na fakt, że przedsiębiorcy, którzy rzekomo oszczędzają na wszystkim, często nie radzą sobie z prowadzeniem sensownej polityki w zakresie kosztów oprogramowania. Im więcej aplikacji, komputerów, serwerów i pracowników, tym większy chaos w infrastrukturze IT. W efekcie miliardy dolarów i miliony złotych rocznie trafiają do sprzedawców oprogramowania… bez sensu. Oczywiście można powiedzieć, że z punktu widzenia producentów i ich partnerów to dobra wiadomość. Jednak czy rzeczywiście? Po pierwsze, coraz bardziej zyskują integratorzy, którzy stają się rzetelnymi doradcami biznesowymi. Jeśli dzięki ich poradom klient zaoszczędzi, to wprawdzie oni sami mniej zarobią na oprogramowaniu, ale przywiążą do siebie klienta. Po drugie, kiedy okaże się, że optymalizacja zakupów oprogramowania i zarządzania licencjami oznacza wyraźnie niższe koszty, spada pokusa korzystania z pirackich wersji. Przynajmniej teoretycznie. VADEMECUM CRN listopad 2016

59


ZARZĄDZANIE APLIKACJAMI

LANDESK zapewni porządek w aplikacjach Zarządzanie licencjami oraz zainstalowanymi na stacjach roboczych aplikacjami to wielowymiarowe zagadnienie, które jest istotnym elementem całościowego systemu bezpieczeństwa w przedsiębiorstwie. W procesie tym pomogą rozwiązania oferowane przez LANDESK Software.

J

ednym z głównych narzędzi, którym powinni zainteresować się resellerzy, jest LANDESK Management Suite. Zapewnia ono szeroko pojęte zarządzanie infrastrukturą IT. Pomaga w automatyzacji procesu instalacji systemów operacyjnych i aplikacji, inwentaryzacji posiadanych zasobów IT oraz rozwiązywaniu różnego typu problemów związanych z komputerami i urządzeniami mobilnymi. LANDESK zachęca firmy do obejmowania monitoringiem właśnie tabletów i smartfonów – w ramach obowiązującej promocji na jedną licencję LDMS dla komputera użytkownikowi przyznawane są dwie darmowe licencje na urządzenia przenośne. Wbudowany w Management Suite moduł Software License Monitoring gwarantuje stałe monitorowanie posiadanych przez klientów licencji oraz umożliwia porównywanie ich listy z rzeczywiście zainstalowanymi aplikacjami. Mechanizm ten działa w sposób inteligentny, jest np. w stanie wykryć, czy użytkowany przez klienta Word lub Excel został kupiony jako oddzielna aplikacja, czy też jest częścią pakietu Microsoft Office. Sprawdza też, czy użytkownik może korzystać z zainstalowanego oprogramowania, bazując na prawie do downgrade’u (starsza wersja aplikacji niż w posiadanej na nią licencji). License Manager umożliwia wprowadzenie do swojej bazy zasad licencjonowania oprogramowania stworzonego na potrzeby danego klienta, które zostaje objęte monitoringiem.

60

VADEMECUM CRN listopad 2016

Analiza obejmuje także korzystanie z aplikacji przez użytkowników i można określić czas (np. 180 dni), po którym nieużywane oprogramowania zostaje automatycznie odinstalowane – wówczas licencja wraca do puli.

BEZPIECZNE APLIKACJE W ofercie firmy LANDESK znajduje się także pakiet narzędzi Security Suite. Zapewnia on wielowarstwową ochronę zasobów firmy, ułatwia ocenę ryzyka wystąpienia zagrożenia oraz gwarantuje zgodność środowiska IT z regułami polityki bezpieczeństwa, bazującej zarówno na wewnętrznych regulacjach (np. częstotliwość zmiany haseł), jak i przepisach prawa (szyfrowanie danych, legalność oprogramowania itd.). W ramach ochrony przed złośliwym kodem możliwe jest także zablokowanie instalowania oprogramowania przez użytkowników.

Jednym z najbardziej istotnych elementów dotyczących bezpieczeństwa z punktu widzenia LANDESK jest automatyzacja procesu aktualizacji (automated patching). Narzędzie Patch Manager – dostępne w Security Suite oraz jako dodatek do Management Suite – gwarantuje wymuszenie aktualizacji systemów operacyjnych i aplikacji na wszelkiego typu urządzeniach stacjonarnych i przenośnych. Także tych, które rzadko są podłączane bezpośrednio do lokalnej sieci, ponieważ posługują się nimi często podróżujący użytkownicy. Skraca również czas potrzebny na aktualizowanie oprogramowania na poszczególnych urządzeniach końcowych. Dzięki funkcji Peer Download łatki nie są pobierane za każdym razem z Internetu, ale dystrybuowane wewnątrz firmowej sieci z lokalnego serwera, co przyspiesza całą operację nawet 20-krotnie. Połączenie Management

Obszary związane z profesjonalnym zarządzaniem aplikacjami 1. Zarządzanie licencjami (compliance). 2. Audyt faktycznie zainstalowanych aplikacji. 3. Wyeliminowanie oprogramowania, z którego użytkownicy nie korzystają (reclamation) w celu uzyskania oszczędności. 4. Korzystanie z aplikacji zgodnie z polityką bezpieczeństwa. 5. Aktualizowanie systemów operacyjnych i aplikacji. 6. Zapewnienie ochrony aplikacji i danych przed złośliwym oprogramowaniem.


DLA KAŻDEJ FIRMY Oprogramowanie LANDESK oferowane jest wyłącznie przez kanał partnerski. Większość aplikacji do zarządzania infrastrukturą IT w firmach jest dość prosta we wdrożeniu i obsłudze, więc poradzi sobie z nimi większość resellerów. Dostępne są też dla nich licencje, dzięki którym mogą świadczyć tego typu usługi swoim klientom. Rozwiązaniami do zarządzania licencjami i cyklem życia aplikacji są najczęściej zainteresowane firmy średnie, które mają swoje działy IT, ale nie jest w nich zatrudnionych na tyle dużo osób, aby można było jednej z nich przypisać rolę license managera. Co więcej, w wielu takich przedsiębiorstwach kwestie odpowiedzialności za oprogramowanie są rozproszone pomiędzy różnymi działami, co jeszcze bardziej utrudnia zapanowanie nad licencjami. Poziom zaawansowania oprogramowania LANDESK nie ogranicza jednak możliwości wykorzystania go także przez najmniejsze firmy, posiadające np. tylko 50 komputerów. Wśród klientów producenta są m.in. takie przedsiębiorstwa, których pracownicy często pracują zdalnie w różnych miejscach – w lokalnych biurach, w czasie podróży, w siedzibach klientów czy z domu. Dzięki narzędziom oferowanym przez LANDESK administratorzy mogą zdalnie połączyć się z ich komputerami, aby

Trzy pytania do… BOGDANA LONTKOWSKIEGO, DYREKTORA REGIONALNEGO LANDESK SOFTWARE NA POLSKĘ, CZECHY, SŁOWACJĘ I KRAJE BAŁTYCKIE

CRN Dlaczego firmy powinny zwracać baczną uwagę na zarządzanie aplikacjami? BOGDAN LONTKOWSKI Jest to ważne, ponieważ dotyczy bezpośrednio finansów firmy. Licencje na oprogramowanie to taki sam zasób jak komputer czy serwer. Wyeliminowanie nieużywanych aplikacji umożliwia oszczędności z tytułu opłat serwisowych lub abonamentowych w przypadku usług chmurowych. Świadomość tego, kto i w jakim stopniu korzysta z danych aplikacji, może wpłynąć na decyzję o wymianie ich np. na bardziej zaawansowane wersje, a przez to wzrost produktywności danego pracownika. Do tego dochodzą też kwestie bezpieczeństwa – przyczyną większości zarażeń złośliwym kodem są niezaktualizowane na czas systemy operacyjne i inne oprogramowanie. Skutki, np. zaszyfrowanie danych przez ransomware i żądanie okupu przez przestępców, mogą być dla firmy bardzo przykre. CRN Czy wystarczy zatem po prostu zainwestować w oprogramowanie do zarządzania aplikacjami? BOGDAN LONTKOWSKI To jest tylko jeden z kroków, bo zarządzanie aplikacjami to proces, podobnie jak backup czy dbałość o bezpieczeństwo środowiska IT. Konkretne produkty są tu tylko narzędziami wspomagającymi i automatyzującymi pewne działania, ale bardzo ważna jest też kwestia konsekwencji i ciągłości realizacji tego procesu. W świadomie zarządzanych przedsiębiorstwach działania te opisane są w postaci najlepszych praktyk biznesowych IT Asset Management i IT Software Management. Usługi w zakresie zarządzania aplikacjami to doskonała przestrzeń dla integratorów. Mogą pomagać w tym procesie szczególnie w firmach średniej wielkości, gdzie zespoły IT są małe i niewydolne, a zasoby na tyle duże, że nie należy pozostawiać bez kontroli kwestii licencji na oprogramowanie i sposobu korzystania z niego. CRN Jakie zadanie w tej dziedzinie bierze na siebie LANDESK? BOGDAN LONTKOWSKI Oferujemy komplet narzędzi do zarządzania aplikacjami w całym środowisku IT – w serwerach, maszynach wirtualnych oraz urządzeniach klienckich, takich jak komputery, notebooki, tablety i smartfony. Oprogramowanie to jest bardzo rozbudowane i swoją funkcjonalnością obejmuje dużo więcej zasobów niż tylko aplikacje. Mamy systemy do zarządzania całą infrastrukturą IT, zabezpieczania jej oraz zapewniania zgodności środowiska IT z przyjętą polityką bezpieczeństwa i cyklem życia zasobów w przedsiębiorstwie.

rozwiązać problem lub wymusić aktualizację oprogramowania. Co ważne, tacy użytkownicy zawsze mają zagwarantowany bezpieczny dostęp do firmowych zasobów. Wyłącznym autoryzowanym dystrybutorem oprogramowania LANDESK Software w Polsce jest Alstor.

Dodatkowe informacje: BOGDAN LONTKOWSKI, DYREKTOR REGIONALNY NA POLSKĘ, CZECHY, SŁOWACJĘ I KRAJE BAŁTYCKIE, LANDESK SOFTWARE, BOGDAN.LONTKOWSKI@LANDESK.COM VADEMECUM CRN listopad 2016

61

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ LANDESK SOFTWARE.

Suite i Security Suite pozwala na ochronę przed rozpowszechniającym się zagrożeniem typu ransomware. LANDESK prowadzi własne repozytorium łatek oprogramowania, zawierające aktualizacje większości aplikacji najpopularniejszych producentów. Stanowi ono dodatkowy bufor, dzięki któremu weryfikowana jest poprawność pracy wszystkich łatek. W rezultacie eliminowane jest ryzyko przestoju w pracy firmowych komputerów wskutek np. błędu programistycznego. Klienci producenta mogą dodawać do tego repozytorium aktualizacje dla niszowych aplikacji oraz opracowane dla oprogramowania stworzonego przez własne zespoły deweloperskie.


SZKOLENIA

Profesjonalna wiedza z Centrum Kompetencyjnym AB W wielu przedsiębiorstwach brakuje świadomości dotyczącej np. skutecznego zwalczania zagrożeń, które wystawiają firmowe dane na ryzyko utraty lub kradzieży. Kluczem do zmiany tej sytuacji, poza wdrażaniem różnego typu rozwiązań ochronnych, są działania edukacyjne.

F

unkcjonujący w AB Dział Presales & Solution Design (P&SD), w którego skład wchodzi Centrum Kompetencyjne, został stworzony, aby wspierać sprzedaż projektową od strony technicznej i operacyjnej. Struktura tego działu jest przygotowana tak, aby maksymalnie wykorzystać wiedzę, potencjał i doświadczenie pracowników w pomocy partnerom. Kompetencje specjalistów tego działu umożliwiają zaoferowanie wsparcia resellerom i integratorom współpracującym z AB podczas całego projektu – od analizy i zdefiniowania potrzeb klienta przez audyt istniejącej infrastruktury, opracowanie koncepcji i projektów technicznych nowego rozwiązania, przygotowanie dokumentacji technicznej, wycenę, aż po wdrożenie i szkolenia. Na życzenie partnerów, korzystając z dostępnych zasobów demo (sprzętu i oprogramowania), inżynierowie Działu P&SD mogą przygotować środowisko testowe proponowanego rozwiązania. Kompetencje pracowników tej jednostki są potwierdzone wieloma certyfikatami, a ich szeroka wiedza jest wykorzystywana w procesie edukacyjnym. Każdy z inżynierów jest trenerem Centrum Kompetencyjnego AB i dzięki temu ma możliwość dzielenia się wiedzą podczas prowadzonych tam szkoleń. Jedną z najciekawszych usług udostępnionych niedawno partnerom jest program ABDEMO.lab. Jego główną ideą jest

62

VADEMECUM CRN listopad 2016

zapewnienie samodzielnego zapoznania się z najnowszymi rozwiązaniami takich producentów jak: HPE, Sophos, Fujitsu, VMware, Lenovo i Microsoft. Zasoby laboratorium są intensywnie wykorzystywane podczas szkoleń, webinariów oraz prezentacji. Jest to możliwe dzięki implementacji w architekturze ABDEMO.lab tak zwanych sandboxów, czyli izolowanych, bezpiecznych i kontrolowanych środowisk zapewniających dostęp do wymaganych zasobów (sprzętu i opro-

Jednym z cykli webinariów cieszących się dużą popularnością wśród klientów Centrum Kompetencyjnego AB są „Pi@tki z Technologią”. gramowania). Wewnątrz każdego z nich znajduje się kompletne środowisko laboratoryjne, odwzorowujące rzeczywiste scenariusze. Dodatkowo, już po szkoleniu, użytkownik może samodzielnie przećwiczyć jeszcze raz cały materiał. Dzięki ścisłej współpracy z producentami sprzętu i oprogramowania, Centrum Kompetencyjne prowadzi szkolenia

i warsztaty techniczne m.in. z zakresu szeroko pojętego bezpieczeństwa danych i przetwarzania informacji, zarządzania systemami operacyjnymi, wirtualizacji, budowy, konfiguracji, zarządzania infrastrukturą serwerową i składowania danych, projektowania i tworzenia bezpiecznych sieci oraz administrowania nimi. Niedawno jednostka uzyskała autoryzację firmy Sophos, czego efektem jest pierwsze autoryzowane szkolenie Sophos Certified Engineer – UTM ( jest już w regularnej ofercie). Przeznaczone jest dla specjalistów technicznych, którzy będą demonstrować i wdrażać UTM-y marki Sophos. Program szkolenia zawiera przegląd oferty produktowej, w tym informacje o głównych funkcjach i konfiguracji urządzeń producenta. Składa się z prezentacji i praktycznych ćwiczeń laboratoryjnych.

PROGRAM DOSTOSOWANY DO WYMAGAŃ PARTNERÓW

Centrum prowadzi nie tylko szkolenia autoryzowane. W ofercie są też warsztaty autorskie, które są odpowiedzią na potrzeby klientów AB. Należy do nich bardzo ciekawe i cieszące się dużą popularnością szkolenie dotyczące konfiguracji i administrowania macierzami Fujitsu. To warsztat praktyczny – zdecydowanie więcej w nim ćwiczeń niż teorii i slajdów. Również w przypadku innych producentów prowadzone są takie spotkania,


czego przykładem jest szkolenie dotyczące konfiguracji i zarządzania macierzami HPE 3PAR. Centrum organizuje również szereg warsztatów dotyczących wirtualizacji i połączenia infrastruktury serwerowni z rozwiązaniami chmurowymi.

NA ODLEGŁOŚĆ

Warsztaty i szkolenia stacjonarne to niejedyny sposób przekazywania wiedzy. Partnerzy mogą również wziąć udział w webinariach prowadzonych przez wykwalifikowanych inżynierów AB oraz przedstawicieli producentów rozwiązań. Jednym z cykli cieszących się dużą popularnością są „Pi@tki z Technologią”, czyli autorskie webinaria tworzone przez inżynierów AB we współpracy z czołowymi producentami zaawansowanego sprzętu. Bardzo dużym zainteresowaniem cieszył się również cykl siedmiu webinarów dotyczących Office 365, na których certyfikowany przez Microsoft trener przedstawił uczestnikom – krok po kroku – możliwości i funkcje platformy, jej stronę administracyjną, konfigurację urządzeń klienckich oraz rozwiązanie Exchange Online. Centrum Kompetencyjne AB organizuje również webinaria na zlecenie firm: Fujitsu, Dell, HPE, Lenovo oraz Aruba.

NOWOCZESNE ZAPLECZE TECHNICZNE

Centrum Kompetencyjne AB ma trzy ośrodki szkoleniowe zlokalizowane we Wrocławiu, Chorzowie i Warszawie. Każdy z nich dysponuje własnymi salami wykładowymi oraz specjalistycznymi i dobrze wyposażonymi laboratoriami. Główna placówka jest zlokalizowana we Wrocławskim Parku Technologicznym – miejscu, gdzie swoje biura ma wiele firm ściśle związanych z rynkiem IT. Wszystkie sale laboratoryjne są wyposażone w najnowocześniejszy sprzęt komputerowy i zapewniają dużą elastyczność podczas budowy środowisk szkoleniowych. Aktualna oferta edukacyjna oraz informacje o nowościach są zamieszczane na stronie www.ck.ab.pl. Centrum prowadzi również własny blog pod adresem blog.ck.ab.pl, na którym jego inżynierowie dzielą się wiedzą z zakresu zaawansowanych rozwiązań IT.

JOANNY OWCZAREK, KOORDYNATORA CENTRUM KOMPETENCYJNEGO AB CRN Dla kogo głównie przeznaczone są prowadzone przez centrum warsztaty? JOANNA OWCZAREK Organizujemy przede wszystkim szkolenia techniczne z zakresu zaawansowanych rozwiązań dla współpracujących z AB resellerów i integratorów lub ich klientów. Nasi inżynierowie znają potrzeby obu tych grup dzięki temu, że są z nimi w stałym kontakcie, np. podczas tworzenia ofert czy budowania rozwiązań. Są więc w stanie zaprojektować kurs „szyty na miarę”. Co do formy, stawiamy głównie na warsztaty, które są najskuteczniejszym sposobem przekazywania wiedzy. Popularyzujemy także webinaria gwarantujące szybki i łatwy dostęp do wiedzy, a to przekłada się na duże audytorium aktywnych uczestników. CRN Jakie szkolenia są zaplanowane na najbliższy okres? JOANNA OWCZAREK Dużą popularnością cieszą się warsztaty dotyczące pamięci masowych Fujitsu ETERNUS. Są one przeznaczone głownie dla inżynierów presales, inżynierów sprzedaży, osób zajmujących się wdrożeniami i pracujących z klientami końcowymi. Zdobyta podczas nich wiedza ma ułatwić zdanie egzaminu na portalu Fujitsu FIOLA. Prowadzimy też warsztaty dotyczące architektury macierzy HPE 3PAR dla pracowników technicznych i architektów rozwiązań, kursy obejmujące narzędzia konfiguracyjne, np. Fujitsu System Architect i HPE Sales Builder, a także technologie sieciowe, np. Aruba i TP-Link. Jako autoryzowany ośrodek mamy stale w ofercie szkolenia dotyczące oferty firm Microsoft i Sophos. CRN Jakie macie plany na przyszłość? JOANNA OWCZAREK Zamierzamy w dalszym ciągu rozwijać ofertę rozwiązań, które proponujemy jako dystrybutor. Słuchamy naszych partnerów i przy okazji konstruowania szkoleń autorskich staramy się odpowiadać na ich potrzeby. Chcemy także wspierać partnerów w obsłudze ich klientów, dlatego coraz częściej przyjmujemy na warsztaty użytkowników końcowych. Jesteśmy aktywni w mediach społecznościowych, mamy m.in. profil na Facebooku oraz LinkedIn. Jako zespół pasjonatów nowoczesnych technologii tworzymy wspólnie blog. W tej chwili pracujemy nad nowym projektem skierowanym do wszystkich osób interesujących się nowościami w świecie IT. Jego premiera odbędzie się wkrótce i jestem pewna, że spotka się z dużym zainteresowaniem odbiorców.

WWW.CK.AB.PL

Dodatkowe informacje: JOANNA OWCZAREK, KOORDYNATOR CENTRUM KOMPETENCYJNEGO AB, SZKOLENIA@AB.PL BARTŁOMIEJ BOJARSKI, BUSINESS UNIT MANAGER PRESALES & SOLUTION DESIGN, AB, BARTLOMIEJ.BOJARSKI@AB.PL VADEMECUM CRN listopad 2016

63

ARTYKUŁ POWSTAŁ WE WSPÓŁPRACY Z FIRMĄ AB.

WEBINARIA, CZYLI WIEDZA

Trzy pytania do…


Analityka danych dla każdego

Od pewnego czasu w szybkim tempie postępuje proces „demokratyzacji” oprogramowania do analizy biznesowej.

J

eszcze nie tak dawno krąg osób umiejących posługiwać się BI ograniczał się do tzw. power userów. Tylko oni mogli przygotowywać analizy i raporty oraz przedstawiać ich wyniki niewtajemniczonym. Obecnie platformy analityczne stają się „lżejsze” – nie tracąc przy tym na efektywności – i dostępne dla większej grupy użytkowników. Zmiany te

64

VADEMECUM CRN listopad 2016

TOMASZ JANOŚ

podążają za reorganizacją funkcjonowania przedsiębiorstw. Zachodzi „demokratyzacja” dostępu do wyników BI – nowe, samoobsługowe i intuicyjne narzędzia umożliwiają wgląd w informacje różnym działom firmy i pracownikom różnego szczebla. Ważną ich częścią stają się samoobsługowe narzędzia do raportowania i realizacji zapytań ad hoc, które

zapewniają użytkownikom biznesowym łatwy dostęp do raportów, a także proste i szybkie ich tworzenie oraz modyfikowanie. Sposób działania wspomnianych rozwiązań w coraz większym stopniu opiera się na metodzie „przeciągnij i upuść”, operowaniu myszką oraz dostosowywaniu wizualizacji danych do rodzaju poszukiwanej informacji.

Fot. © bizvector – Fotolia.com

ANALIZA DANYCH


Jednak „demokratyzacja” nie polega tylko na możliwości wykorzystania narzędzi analitycznych przez coraz szerszy krąg użytkowników w przedsiębiorstwie, ale przede wszystkim na dostępności BI także dla mniejszych firm. Edyta Kosowska, Senior Research Analyst Software z IDC Poland, zauważa, że jeszcze kilka lat temu zakupy BI były domeną największych podmiotów, zwłaszcza z takich branż jak finanse, bankowość i telekomunikacja. Obecnie rozwiązania te cieszą się coraz większym zainteresowaniem wśród małych i średnich przedsiębiorstw. – Oczywiście BI dla MŚP jest znacznie bardziej uproszczony, ale z reguły zaspokaja wszelkie potrzeby mniejszych firm i skutecznie zastępuje nadal najbardziej popularne narzędzie do analityki w Polsce, a więc arkusze kalkulacyjne. Jednym z czynników sprzyjających wykorzystaniu BI przez MŚP jest możliwość ich zakupu w modelu chmury obliczeniowej, co pozwala uniknąć wysokich kosztów wstępnych – wyjaśnia Edyta Kosowska. Także specjaliści Gartnera zauważają, że analityka staje się strategicznym rozwiązaniem dla większości rodzajów biznesu i zaczyna pełnić w nich centralną rolę. Ich zdaniem każdy biznes i proces biznesowy nadaje się do analizowania, a każdy pracownik nowoczesnego przedsiębiorstwa może być użytkownikiem BI. Okazuje się, że mniejszym firmom zastosowanie jakiejś formy BI może przynieść szybko widoczny efekt. Niewielkie przedsiębiorstwo jest bowiem zwykle bardziej skupione na projektach niż duże i może szybciej definiować czynniki prowadzące do sukcesu oraz podstawowe wskaźniki. Wynika to z faktu, że jego procesy biznesowe obejmują mniejszą liczbę zaangażowanych stron, więc rozwiązywanie problemów staje się łatwiejsze.

SPOSÓB NA KONKURENCYJNOŚĆ Kto pierwszy znajdzie użyteczne informacje i potrafi je umiejętnie wykorzystać, ten wygrywa. Raporty analityków i ekspertów rynku BI nie pozostawiają złudzeń: wiedza stała się źródłem przewagi konkurencyjnej i sposobem optymalizacji działań biznesowych. Dostęp do odpowiedniej informacji we właściwym czasie

jest dzisiaj źródłem sukcesu i gwarancją utrzymania wysokiej pozycji rynkowej. Zaawansowana analityka i uczenie maszynowe, analizy Big Data, rozwiązania IoT to obecnie domena krajów i podmiotów rozwiniętych technicznie. Na szczęście, co podkreśla Radosław Łebkowski, Data Platform Technology Solution Professional w Microsofcie, polska gospodarka stara się nadążać za trendami. Inwestycje skupione są w dużej mierze na najnowocześniejszych narzędziach do analityki biznesowej. Warto podkreślić, że nierzadko to sposób głównie na optymalizację działania firm czy instytucji. Najlepszym przykładem są podmioty, które z założenia nie mają celów komercyjnych. – Tak się dzieje choćby w przypadku Ministerstwa Finansów, które zbiera dane Jednolitego Pliku Kontrolnego. Odpowiednio przetwarzane informacje umożliwiają efektywniejsze łatanie systemu podatkowego. Wsparte dodatkowymi danymi ze źródeł zewnętrznych, dają ogromną wiedzę, która zapewnia szybkie i sprawne przeciwdziałanie naruszeniom systemu podatkowego – mówi ekspert z Microsoftu.

To właśnie wykorzystanie źródeł zewnętrznych staje się dominującym trendem w zakresie przetwarzania danych. Dopiero rozszerzenie wiedzy o informacje pobrane z zewnątrz daje pełny obraz rzeczywistości biznesowej. Dziś rozwiązania analityczne pozwalają badać zachowania i emocje klientów oraz dokładniej identyfikować odbiorców nowych produktów i usług. W efekcie można lepiej i szybciej dostosowywać ofertę do oczekiwań i potrzeb klientów, a jednocześnie minimalizować koszty operacyjne. W dużych podmiotach przynosi to ogromne oszczędności. Zwiększenie skuteczności konwersji lub przychodów firmy nawet o kilka procent przekłada się na dodatkowe miliony dolarów, a koszt wdrożenia narzędzi BI dających taką przewagę konkurencyjną szybko się zwraca. Eksperci od BI dostrzegają, że choć polskie firmy nie posługują się jeszcze tak efektywnie zgromadzonymi i przetworzonymi danymi jak przedsiębiorstwa w krajach bardziej rozwiniętych technicznie, to początki są obiecujące. Nadal najpopularniejszy pozostaje arkusz kalkulacyjny,

Czym jest BI? Co to Big Data? BUSINESS INTELLIGENCE można zdefiniować jako proces analizowania dużych ilości danych produkowanych w przedsiębiorstwach najczęściej przez systemy CRM, ERP czy finansowe. Analiza ma na celu odkrycie niewidocznych trendów i wzorców w morzu informacji oraz kontrolę wskaźników wydajnościowych przedsiębiorstwa, by wspomóc podejmowanie decyzji biznesowych opartych na danych uzyskiwanych także w czasie rzeczywistym. Z marketingowego punktu widzenia można BI opisać jako systemowe narzędzie do zarządzania, które ma ułatwić osobom decydującym o biznesie planowanie, zarówno bieżące oraz taktyczne, jak i długofalowe oraz strategiczne. Narzędzia BI zapewniają wgląd w aktualne i przyszłe trendy rynkowe, co daje szczegółową wiedzę o możliwościach przedsiębiorstwa i ukazuje jego biznesowe otoczenie pod kątem szansy na zwiększenie potencjału konkurencyjnego. BIG DATA natomiast obiecuje dostarczenie odpowiedzi również na pytania, które… nawet nie zostały jeszcze sformułowane. Do ich uzyskania wykorzystuje także informacje gromadzone w celu niezwiązanym bezpośrednio z kierunkiem poszukiwań. Jako technika stosowana do analizy wielkich zbiorów danych, pochodzących z bardzo wielu źródeł, wymaga użycia olbrzymich mocy obliczeniowych, zapewnianych przez rozproszone systemy HPC (klastry serwerowe), a także chmurę obliczeniową. Tradycyjne rozwiązania BI wykorzystują ustrukturyzowane dane, zorganizowane w kolumny i wiersze, dostarczane przez dobrze zdefiniowane źródła. Big Data jest zaś z natury nieustrukturyzowane i wymaga pracy programistów, którzy stworzą mechanizmy umożliwiające interpretowanie gromadzonych danych najróżniejszego pochodzenia i typu.

VADEMECUM CRN listopad 2016

65


ANALIZA DANYCH lecz firmy coraz częściej stają się świadomymi użytkownikami narzędzi BI.

ŚWIADOMOŚĆ ROŚNIE,

Radosław Łebkowski Data Platform Technology Solution Professional w Microsoft

ALE POMOC WCIĄŻ POTRZEBNA

Dziś przedsiębiorstwa lepiej znają swoje potrzeby. Chcą np. monitorować efektywność sprzedaży produktów albo świadczonych przez siebie usług. Na podstawie danych spływających od klientów chcą ustalić ich preferencje i poznać zachowania, by szybko i skutecznie na nie reagować. Analityka biznesowa sprawdza się zwłaszcza w tych zastosowaniach, w których dużo zależy od czasu i szybkiego działania zmierzającego do poprawy wskaźników. BI może mierzyć w zasadzie wszystko i w każdej branży, ale ponieważ większość firm jest dziś „klientocentryczna”, najczęściej mierzonymi wartościami są wskaźniki sprzedaży, koszty, efektywność i marże. Przeprowadzana przy użyciu BI analiza może dotyczyć nie tylko klientów zewnętrznych, ale także procesów wewnętrznych. Na przykład w podmiotach, w których funkcje wsparcia skonsolidowano w formie jednostki określanej jako centrum usług wspólnych (Shared Services Centre). Takie rozwiązanie organizacyjne stosowano pierwotnie w sektorze prywatnym, w przedsiębiorstwach o rozproszonej strukturze. Coraz częściej znajduje zastosowanie w sektorze publicznym, także w jednostkach samorządowych. W przypadku analityki kluczowe znaczenie ma możliwość integrowania informacji z różnych, dotąd trwale rozdzielonych źródeł. Nierzadko przedsiębiorstwa, zwłaszcza te, w których brakowało długofalowej strategii rozwoju środowiska informatycznego, wchodziły w posiadanie wielu różnych systemów, rozproszonych

To klienci często decydują o sukcesie wdrożenia narzędzi analitycznych. Jeśli system okaże się łatwy i intuicyjny w obsłudze, a przy tym spełni kluczowe potrzeby użytkowników, to będzie przez nich wykorzystywany. A to podstawowy wyznacznik pomyślnego wdrożenia. Znam wiele bardzo kosztownych wdrożeń systemów BI, które z powodu skomplikowanego interfejsu użytkownika, błędnego modelu danych lub ograniczonego zakresu przechowywanych informacji po prostu nie były używane. Wysoka cena rozwiązania nie zawsze jest gwarancją pomyślnego wdrożenia. Zastosowanie prostych w obsłudze narzędzi analitycznych oraz ścisła współpraca z użytkownikami na każdym etapie realizacji projektu zwiększa szanse na sukces.

po różnych działach. Takich, których najczęściej nie można ze sobą skomunikować, więc potrzebne jest narzędzie, które połączy je i zaprezentuje wyniki analizy zbieranych przez nie danych. Chociaż w interfejsach narzędzi analitycznych narasta trend coraz większej intuicyjności i samoobsługi, wciąż korzyści z BI będą w największej mierze zależeć od dobrze zdefiniowanych potrzeb klienta. Ostatecznie to użytkownik musi wiedzieć, co chce monitorować i analizować, ustalając zakres eksplorowania danych i sposób interpretowania wyników wpływających na decyzje biznesowe.

– Nierzadko klienci mają wizję swych potrzeb, ale nie są pewni, czy ich zaspokojenie jest możliwe. Oczekują od partnerów pomocy w zweryfikowaniu celów i podania najlepszego sposobu na ich osiągnięcie – mówi Bogdan Lontkowski, dyrektor regionalny LANDESK Software na Polskę, Czechy, Słowację i kraje bałtyckie. Firma oferująca i wdrażająca systemy BI nie może pełnić roli tylko odsprzedawcy rozwiązania. Integrator powinien być partnerem dostawcy i dysponować odpowiednimi kompetencjami. Z jednej strony muszą to być kompetencje potrzebne podczas wdrożenia, a więc znajomość oferowanego oprogramowania, z drugiej – wiedza o biznesie i potrzebach klienta, niezbędna do sukcesu wdrożenia, którego miarą są realne korzyści ze stosowania BI przez klienta. Istotą rozwiązań analitycznych jest również to, aby efekty ich zastosowania były widoczne jak najszybciej. Dlatego najlepiej wdrażać je małymi krokami i na bieżąco pokazywać korzyści, jakie przynosi ich stosowanie. Dzięki iteracyjnemu podejściu integrator szybciej uzyska opinię klienta na temat funkcjonalności systemu. Szybciej może uwzględnić jego sugestie oraz skorygować ewentualne błędy i rozbieżności. W ten sposób zwiększa szanse na pomyślne zakończenie wdrożenia. Poza tym, jeśli pokaże szybkie efekty i przydatność narzędzi dla biznesu, nie będzie mieć problemu z przekonaniem klienta do dalszego finansowania wdrożenia.

LICZY SIĘ CZAS I JAKOŚĆ DANYCH

Tempo zmian, nowe formaty i zbiory danych, a także szybkozmienne modele

DUŻE ZNACZENIE DLA KLIENTÓW MA MOŻLIWOŚĆ KORZYSTANIA Z NARZĘDZI ANALITYCZNYCH NA URZĄDZENIACH MOBILNYCH (FOTO: MICROSOFT).

66

VADEMECUM CRN listopad 2016


biznesowe, będące przekleństwem analityków, wymusiły na twórcach rozwiązań BI rozszerzanie ich możliwości, aby nadążały za oczekiwaniami użytkowników. Ogromne ilości danych muszą być efektywnie korelowane i analizowane, często w czasie rzeczywistym. Jeszcze do niedawna budowa hurtowni danych to był proces na wiele lat. Często na końcu drogi okazywało się, że przez ten czas biznes zmienił się tak bardzo, iż pierwotnie założony model już nie spełnia potrzeb przedsiębiorstwa. Obecnie narzędzia BI pozwalają reagować niemal natychmiast na zmiany rynkowe. Proste w użyciu samoobsługowe narzędzia BI, łatwość prototypowania modeli danych oraz elastyczne podejście do projektowania systemów informacyjnych pozwalają zaspokoić oczekiwania firmy, nawet jeśli zachodzą w niej szybkie zmiany. Ze względu na mnogość źródeł danych wyzwaniem jest pozyskiwanie wiarygodnych i użytecznych danych do analiz. Najbardziej pracochłonną czynnością nadal jest proces czyszczenia i sensownego łączenia informacji z wielu źródeł tak, aby były użyteczne. Ważne staje się dostarczanie informacji z minimalnym opóźnieniem. Technologie Big Data, potencjał i skalowalność usług chmurowych, klastry obliczeniowe, analiza danych strumieniowych, cognitive services i przetwarzanie in-memory zapewniają dzisiaj szybkie przetwarzanie wielkich zbiorów danych. Można natychmiast reagować na anomalie i nadużycia, przewidywać awarie urządzeń dzięki czujnikom IoT czy automatycznie dostosować ofertę do konkretnego klienta odwiedzającego sklep lub oddział firmy.

DYLEMATY Z BIG DATA Z badań Intela wynika, że w Europie z Big Data korzysta już średnio co czwarte przedsiębiorstwo. Z kolei nad Wisłą jedynie 18 proc. firm deklaruje wykorzystywanie rozwiązań z zakresu analityki wielkich zbiorów danych. To najniższy wskaźnik w regionie Europy Środkowej. Pod tym względem wyprzedzają nas Czechy, Słowacja oraz Węgry. Mimo to polscy przedsiębiorcy w oficjalnych wypowiedziach twierdzą, że w Big Datę inwestują. Co więcej, uważają jej ignorowanie za

Szansa na duży zarobek, ale niełatwy W przypadku BI nie ma mowy o prostej sprzedaży licencji na oprogramowanie. Trzeba się raczej przygotować na świadczenie profesjonalnych usług. Aby zarobić, sprzedawca rozwiązań do analityki biznesowej musi połączyć w jedną ofertę usługi doradcze, sprzedaż produktu, jego wdrażanie i różnego rodzaju usługi posprzedażne. Ponieważ nie ma rozwiązań uniwersalnych, poza wiedzą na temat produktu trzeba też posiąść umiejętność rozpoznawania potrzeb klienta. Tak, aby móc dostosować oprogramowanie do konkretnego przypadku. Dopiero, gdy integrator będzie rozumiał biznes klienta i posiadał doświadczenie we wdrażaniu BI, będzie w stanie podpowiedzieć klientowi, jakich informacji powinien szukać poprzez analizowanie danych, by odnieść największe korzyści z zakupu rozwiązania.

poważny problem, w efekcie którego firma może przestać być konkurencyjna. – Firmy na całym świecie odmieniają dziś Big Data przez wszystkie przypadki. Zewsząd słyszymy, że przedsiębiorstwa wykorzystują wielkie zbiory danych. Jednak deklaracje i medialna popularność często nie korespondują z rzeczywistością biznesową. Widać to choćby w badaniu Gartnera, który szacuje, że do końca przyszłego roku nawet 60 proc. przedsięwzięć związanych z Big Data spali na panewce – mówi Piotr Prajsnar, CEO Cloud Technologies, warszawskiej spółki, która stworzyła platformę On Audience do Big Data marketingu.

Analiza BI może dotyczyć nie tylko klientów zewnętrznych, ale także procesów wewnętrznych. Zdaniem szefa Cloud Technologies wciąż nikła implementacja narzędzi do analityki Big Data spowodowana jest tym, że firmy nie wiedzą, jak przystąpić do analizy tak dużych ilości informacji i wyselekcjonować spośród nich te najcenniejsze biznesowo. Nie posiadają również know-how, które pozwalałoby im przetworzyć i zmonetyzować uzyskane dane. Tymczasem stosowane dotychczas przez firmy klasyczne systemy typu Business Intelligence nie są już w stanie sprostać obecnej skali produkcji danych w Internecie, która w dodatku ogromnie wzrośnie wraz z rozwojem Internetu rzeczy.

Ostatnie prognozy analityków nie są zgodne co do tempa rozwoju i wdrażania metod eksploracji oraz wykorzystania wielkich zbiorów danych. Według IDC światowe wydatki na rozwiązania Big Data będą nadal rosły w tempie dwucyfrowym, by osiągnąć z początkiem następnej dekady 200 mln dol. Z kolei największy konkurent IDC w branży analiz rynkowych, czyli Gartner, przewiduje spowolnienie rozwoju Big Data w ciągu najbliższych kilku lat. Zdaniem analityków liczba klientów inwestujących w tego typu projekty będzie rosła, ale już nie tak szybko. W dodatku wielu z nich zatrzyma się z wdrożeniami na fazie pilotażowej. Ogólnie, jeśli chodzi o połączony światowy rynek BI i Big Data prognozy IDC mówią o mocnym wzroście w tym roku (o 11,3 proc., do wartości 130,1 mld dol.). Przez następne lata ma być równie dobrze, a nawet lepiej, bo średni roczny wzrost jest szacowany na 11,7 proc., co ma przełożyć się w 2020 r. na dochody przekraczające 203 mld dol. Firma analityczna przewiduje, że sektorami szczególnie stymulującymi rozwój Big Data i odpowiedzialnymi za połowę sprzedaży na tym rynku będą finanse, telekomunikacja, produkcja przemysłowa, administracja centralna oraz usługi profesjonalne. Jeśli chodzi o wielkość przedsiębiorstw wykorzystujących Big Data, to będą to przede wszystkim korporacje i firmy z kategorii mid-market. W 2020 r. ponad 76 proc. dochodów, czyli 154 mld dol., ma pochodzić z firm zatrudniających 500 i więcej pracowników. I może to tłumaczy niski poziom wykorzystania Big Data w Polsce, która małym biznesem stoi. VADEMECUM CRN listopad 2016

67


Dane w przedsię b Ochrona danych – priorytety RECOVERY POINT OBJECTIVE Tygodnie

Dni

Godziny

Minuty

RECOVERY TIME OBJECTIVE

Sekundy

Sekundy

Tygodnie

Odtworzenie całego systemu z backupu

Odtworzenie pojedynczych danych z backupu

Rozwiązania klastrowe

Replikacja synchroniczna

Replikacja asynchroniczna

Replikacja periodyczna

Serwery działu badań i rozwoju Serwery internetowe Produkcja Handel internetowy

danych lub informacji płynących ze sklepów internetowych utrata danych nawet sprzed godziny może skutkować rysą na wizerunku przedsiębiorstwa.

CZAS POTRZEBNY NA PRZEPROWADZENIE OPERACJI

52%

ZASPOKOJENIE ROSNĄCYCH POTRZEB

42%

ZWIĄZANYCH Z POJEMNOŚCIĄ

ZASPOKOJENIE SPECYFICZNYCH POTRZEB

25%

DOTYCZĄCYCH APLIKACJI

23%

ROSNĄCE KOSZTY

21%

BACKUP ŚRODOWISK WIRTUALNYCH BACKUP DO ODDALONYCH LOKALIZACJI

18%

BACKUP TAŚMOWY

18%

OCHRONA ZABEZPIECZANYCH DANYCH WSPARCIE PRODUCENTÓW I ZARZĄDZANIE LICENCJAMI INNE

VADEMECUM CRN listopad 2016

Dni

Bazy danych HR

(ANKIETOWANI MOGLI WYBRAĆ MAKS. TRZY ODPOWIEDZI)*

68

Godziny

Serwery wydruku

NAJWIĘKSZE WYZWANIA ZWIĄZANE Z WYKONYWANIEM BACKUPU

*Ankieta przeprowadzona wśród 1000 administratorów w USA i Europie Zachodniej.

Minuty

AWARIA

Backup

S

trategia zabezpieczania danych i priorytety z nią związne zależą od biznesowych decyzji właścicieli firmy – najczęściej jej zarządu. Będą miały wpływ na wybór sposobu wykonywania backupu, jako że ten powinien być uzależniony od ilości danych, które można utracić, oraz planowanego czasu odtworzenia danych. Czynniki te są określane precyzyjnie przez dwa parametry: RPO i RTO. Recovery Point Objective określa punkt w przeszłości, w którym po raz ostatni została wykonana kopia danych, czyli moment w działalności firmy lub użytkownika, do którego będzie można wrócić. Dla jednych wystarczająca będzie kopia z dnia poprzedniego, inni zaś potrzebują danych sprzed kilkunastu sekund. Na dłuższe czasy RPO (rzędu kilku dni) można sobie pozwolić np. w przypadku serwerów, których konfiguracja zmienia się rzadko (serwerów wydruku, DNS, Active Directory). Dla plików i serwerów internetowych wskazana będzie kopia z ostatniej nocy. W przypadku baz

16% 9% 4% Źródło: Storage and Server IO Group

Recovery Time Objective to maksymalny czas po awarii potrzebny do przywrócenia działania aplikacji, systemów i procesów biznesowych. Jeśli wznowienie pracy musi nastąpić w ciągu sekund lub minut, należy zbudować system ochrony danych z wykorzystaniem rozwiązań klastrowych. Natomiast jeśli administrator ma do dyspozycji kilka godzin, może ręcznie odzyskiwać pojedyncze pliki lub maszyny wirtualne. Dopiero gdy brak dostępu może potrwać cały dzień, należy rozważać pełne odtworzenie całego systemu z backupu. Czasy RPO i RTO są wyznaczane w wyniku kompromisu między potencjalnymi stratami a kosztami rozwiązania umożliwiającego jak najszybsze odtworzenie stanu sprzed awarii i jak najmniejszą utratę danych. To element ryzyka biznesowego, którego oceny powinien dokonywać nie tylko dział IT i świadczący usługi konsultacyjne integrator, ale przede wszystkim zarząd firmy. On bowiem finalnie będzie brał odpowiedzialność za straty – zarówno finansowe, jak i wizerunkowe.


ę biorstwie

– zarządzanie i ochrona

Zarządzanie danymi zgodnie z prawem

25

maja 2018 r. zacznie obowiązywać w całej Unii Europejskiej tzw. rozporządzenie ogólne o ochronie danych z dnia 27 kwietnia 2016 r. (General Data Protection Regulation). Zawiera ono nowe przepisy o ochronie osób fizycznych w związku z przetwarzaniem danych osobowych oraz przepisy o swobodnym przepływie danych osobowych. Celem powstania dokumentu było doprowadzenie do pełnego ujednolicenia prawa w ramach UE i swobodnego przepływu danych osobowych. W momencie wejścia w życie rozporządzenie zacznie obowiązywać w krajach członkowskich UE bezpośrednio, bez potrzeby wydawania aktów prawnych wdrażających je do porządku krajowego.

Oto wybrane najważniejsze zmiany, które wprowadzi nowe rozporządzenie o ochronie danych 1. PRZETWARZANIE DANYCH PRZEZ GRUPY PRZEDSIĘBIORSTW

W rozporządzeniu pojawia się pojęcie współadministratorów danych. Wcześniej podmioty te występowały jako odrębni administratorzy danych, z tymi samymi prawami i obowiązkami. Dzięki nowym przepisom możliwy jest podział obowiązków pomiędzy poszczególne podmioty. Rozporządzenie dostrzega też grupy kapitałowe i ułatwia im przetwarzanie danych, w tym międzynarodową wymianę danych osobowych.

2. ZGŁASZANIE INCYDENTÓW DO GIODO Nowością jest obowiązek zgłaszania wycieku danych do GIODO. Administrator danych ma obowiązek zrobić to w czasie do 72 godzin od wystąpienia wycieku. Jeśli naruszenie jest poważne, należy o nim poinformować również osoby, których dane są przetwarzane w ramach tego podmiotu.

3. DOPASOWANIE WYMAGAŃ DO SKALI PRZEDSIĘBIORSTWA

Rozporządzenie uzależnia stawiane przedsiębiorstwom wymogi od ich wielkości i rodzaju prowadzonej działalności. Przykładowo małe organizacje nie muszą powoływać inspektora ochrony danych ani prowadzić tzw. rejestru przetwarzania.

4. DUŻY NACISK NA OCHRONĘ PRYWATNOŚCI – KONCEPCJA „PRIVACY BY DESIGN” Podczas projektowania systemu ochrony danych osobowych należy wdrażać takie środki, by od samego początku właściwie chronić przetwarzane dane i prywatność osób, których dane dotyczą. Zgodne z tym wymogiem ustawienia aplikacji lub serwisów społecznościowych domyślnie powinny udostępniać minimalną ilość informacji o użytkowniku. Poszerzenie zakresu udostępnianych danych może nastąpić jedynie na podstawie zmiany ustawień dokonanych przez samego użytkownika.

5. REJESTROWANIE CZYNNOŚCI PRZETWARZANIA

Rozporządzenie wprowadza obowiązek prowadzenia przez przedsiębiorców dokumentacji czynności przetwarzania. Powinni oni również na bieżąco analizować i przewidywać skutki przetwarzania. Jeśli okazałoby się, że może ono nieść za sobą duże zagrożenie dla prywatności osób, których dane dotyczą, przed rozpoczęciem przetwarzania należy skonsultować się z GIODO i poprosić o poradę. Rejestrowanie czynności przetwarzania ma zastąpić obecną rejestrację zbiorów.

6. ZNACZNIE WIĘKSZE KARY Nowe przepisy wprowadzają dużo wyższe niż obecnie kary za nieprzestrze-

ganie przepisów dotyczących ochrony danych. Sankcje mogą sięgać nawet 20 mln euro lub 4 proc. obrotu przedsiębiorstwa. Każdy przypadek ma być jednak rozpatrywany indywidualnie, w zależności od stopnia winy, naprawienia szkody, tego, czy podobne sytuacje w danym przedsiębiorstwie miały już miejsce w przeszłości itp.

7. INSPEKTOR OCHRONY DANYCH ZAMIAST ADMINISTRATORA BEZPIECZEŃSTWA INFORMACJI

(ABI)

Rozporządzenie wprowadza nową nazwę dla administratora bezpieczeństwa informacji, który stanie się inspektorem ochrony danych. Inspektor będzie musiał ściśle współpracować z GIODO. Nowością jest możliwość kontaktowania się z inspektorem przez osoby, których dane są pod jego opieką przetwarzane.

8. ŁATWIEJSZA PROCEDURA SKŁADANIA SKARG

Obecnie, aby złożyć skargę do GIODO, należały wnieść opłatę skarbową w wysokości 10 zł. Rozporządzenie likwiduje wszelkie opłaty. Co więcej, ze względu na obowiązek ścisłej współpracy między organami odpowiedzialnymi za nadzór nad ochroną danych osobowych we wszystkich krajach Unii Europejskiej – skargę można złożyć w dowolnym kraju. VADEMECUM CRN listopad 2016

69


Indeks firm 3S Data Center......................................................53 AB ...........................18, 35, 36, 37, 44, 55, 62, 63 ABC Data....4, 9, 16, 17, 18, 24, 36, 37, 44, 55 Acronis..................................................................4, 45 actidata .......................................................................15 Action...........................................................18, 24, 37 Adaptec.....................................................................72 Advatech...................................................................58 Akbit......................................................................30, 31 Also .......................................................................36, 37 Alstor .............4, 12, 13, 14, 19, 35, 37, 59, 61, 72 Amazon .........................................5, 42, 51, 53, 54 Apcon .........................................................................72 Apple ...........................................................................24 Arcserve ....................................................................72 Aruba...........................................................................63 ASRock Rack .........................................................72 Asseco Business Solutions ..........................40 ATM........................................................................51, 53 Avnet ..................................................................43, 54 Avocent......................................................................72 Beyond.pl..................................................................53 Broadcom ................................................................72 BSA.......................................................................57, 59 Cisco..............................................................................17 CISPE...........................................................................53 Citrix Systems ........................................46, 47, 55 Cloud Technologies ...........................................67 Comarch...................................................................40 Commvault................................................17, 26, 27 Comp.......................................................................... 34 Cryoserver.........................................................30, 31 Ctera.............................................................................28 Data Lab ................................................................... 34 DCPG...........................................................................53 Dell ..........................................................................17, 63 Dell EMC .............................................................10, 23 Dell Software ...........................................................17

Diskus ...................................................................15, 33 Dropbox .................................................. 40, 46, 47 Emerson Network Power ..............................72 EPA Systemy.............................................2, 24, 28 Evernote ...................................................................40 ExaGrid................................................................ 13, 72 F5 Networks ...........................................................58 Flexera Software..................................................59 Fujitsu TS ...........................9, 11, 16, 17, 62, 63, 72 Good Technology .............................................. 45 Google .................................................................. 5, 54 HD Lab....................................................................... 34 HGST....................................................................33, 72 HP Inc .................................................................48, 49 HPE .............................................................. 33, 62, 63 IBM ...............................................................33, 43, 54 Incom..........................................................................44 Infomex ......................................................................53 Infortrend.....................................................12, 14, 72 Intel................................................................................67 Kaspersky Lab......................................................20 Kingston ....................................................................37 Konsorcjum FEN .................................................24 Kroll Ontrack.................................................. 34, 35 Lama ...........................................................................44 LANDESK Software .....................4, 60, 61, 66 Lantronix ...................................................................72 Lenovo..........................................................17, 62, 63 LOG System............................................................57 MailStore ...................................................................25 Max Computers...................................................44 Mediarecovery...................................................... 34 Microsoft ......................................................................... .......................5, 17, 51, 53, 54, 58, 62, 63, 65, 66 MobileIron................................................................ 45 NetApp .......................................................................17 Netgear ................................................................10, 18 netology .............................................................35, 51

COMPUTER RESELLER NEWS POLSKA WYDANIE SPECJALNE, 9 listopada 2016 ISSN 1640-9183

KIEROWNIK PROJEKTU VADEMECUM: Jacek Goszczycki, tel. (22) 360-36-78 jacek.goszczycki@burdamedia.pl

REDAKCJA: 02-674 Warszawa, ul. Marynarska 15 tel. (22) 360-38-00, redakcja@crn.pl, www.CRN.pl

ŁAMANIE I GRAFIKA: Hubert Karasiewicz, Aneta Mikulska

Tomasz Gołębiowski (redaktor naczelny) tomasz.gołebiowski@crn.pl, tel. (22) 44-88-488 Krzysztof Jakubik (redaktor prowadzący) krzysztof.jakubik@crn.pl, tel. (22) 244-29-23 Dorota Smusz (sekretarz redakcji) dorota.smusz@crn.pl, tel. (22) 44-88-350 Andrzej Janikowski, andrzej.janikowski@crn.pl Tomasz Janoś, tomasz.janos@crn.pl Rafał Janus, rafal.janus@crn.pl Wojciech Urbanek, wojciech.urbanek@crn.pl

70

ILUSTRACJA NA OKŁADCE: © the_lightwriter – Fotolia.com FOTOGRAFIE: Focus Images Tomasz Pisiński, Marek Zawadzki, archiwum KOREKTA: Lidia Sadowska-Szlaga KIEROWNIK PRODUKCJI: Tomasz Gajda, tomasz.gajda@burdamedia.pl KOORDYNATOR PRODUKCJI: Jan Kutyna, jkutyna@burdamedia.pl PRENUMERATA: Andrzej Janikowski, andrzej.janikowski@crn.pl, prenumerata@crn.pl

VADEMECUM CRN listopad 2016

Onet..............................................................................53 Open-E.......................................................................72 Overland Storage................................................72 OVH ......................................................................52, 53 Polcom .......................................................................53 Polish Data Center Association (PDCA) ......................................................................53 Promise Technology ...................................12, 72 QNAP ...............................................4, 17, 22, 24, 72 Qsan ................................................................................2 Quantum...................................................................33 Ricoh ....................................................................41, 44 Rimage .......................................................................72 S4E................................................................23, 26, 27 Samsung .................................................................. 34 Seagate ............................................................. 33, 36 Sharp Electronics Europe.......................41, 42 Sinersio.......................................................................53 Softil .............................................................................58 Solarflare ...................................................................72 Sophos .............................................................. 62, 63 StarWind Software ...............................12, 19, 72 Storage Performance Council.....................10 Sun Capital...............................................................25 SuperMicro ..............................................................72 Synology ....................................................................17 Talex..............................................................................53 Tandberg Data ......................................................72 Tauron .........................................................................53 Tech Data ..................................................36, 37, 44 Toshiba .......................................................33, 55, 72 TP-Link .......................................................................63 Veeam Software ....................................17, 22, 29 Veracomp...................................................14, 18, 35 Veritas ..........................................................................17 VMware................................17, 23, 46, 47, 55, 62 WCSS ..........................................................................53 WD ................................................................................33

WYDAWCA: Burda Communications Sp. z o.o. 02-674 Warszawa, ul. Marynarska 15 ZARZĄD: Chief Executive Officer: Alexander Sorg General Director Poland: Justyna Namięta Chief Financial Officer: Dobrosława Snarska-Pełka Doradca Zarządu ds. Edytorskich: Krystyna Kaszuba Dyrektor Zarządzająca segmentów: popularnonaukowy, podróżniczy, IT oraz psychologiczny: Edyta Pudłowska Brand Manager: Ewa Korzańska, tel. (22) 360-36-55, ewa.korzanska@burdamedia.pl REKLAMA: Burda Media Polska Sp. z o.o. 02-674 Warszawa, ul. Marynarska 15 tel. (22) 360-36-03, faks (22) 360-39-80 Commercial Director of Advertising Sales, Sales Director Men & Special Interest: Katarzyna Nowakowska

HANDLOWCY: Head of Sales: Agata Myśluk, tel. (22) 360-36-75, agata.mysluk@burdamedia.pl Account Executive: Szymon Zięborak, tel. (22) 360-36-76, szymon.zieborak@burdamedia.pl PROJEKTY SPECJALNE: Senior Marketing & Sales Development Manager: Jacek Goszczycki, tel. (22) 360-36-78 jacek.goszczycki@burdamedia.pl Reklamy przyjmowane są w siedzibie wydawnictwa. Za treść ogłoszeń redakcja nie ponosi odpowiedzialności. © Copyright 1998 Burda Communications sp. z o.o. Wszelkie prawa zastrzeżone. Computer Reseller News Polska contains articles under license from CMP Media Inc. © 1998 CMP Media Inc. All rights reserved. Burda Communications należy do: Ogólnopolskiego Stowarzyszenia Wydawców i Izby Wydawców Prasy


Przekręty przy bankructwie Nortela?

Samsung wstrzymuje produkcję Galaxy Note 7 Lenovo może przejąć biznes PC Fujitsu

ZIPSEE ustawa o VAT do korekty

Dell nie ma limitu dla partnerów

NAJLEPIEJ POINFORMOWANY PORTAL B2B W BRANŻY IT

CRN.pl.do.Vademecum.indd 1

10/28/16 11:02 AM


W Alstor oferujemy sprawdzone rozwiązania renomowanych producentów:

Macierze RAID renomowanych producentów

Urządzenia NAS, DAS

Biblioteki taśmowe i optyczne, urządzenia RDX

Oprogramowanie do backupu i archiwizacji

Duplikatory nośników pamięci: CD/DVD/ Blu-ray/USB/SD/HDD

Platformy serwerowe

Akcesoria i komponenty: dyski HDD i SSD, kontrolery RAID i HBA

Rozwiązania Software Defined Storage

ALSTOR sp.j. 03-244 Warszawa, ul. Wenecka 12 tel. 22 510 24 00, faks: 22 675 43 10

CRN Vademecum - Alstor (2016-10).indd 1

www.alstor.pl

2016-10-28 12:32:03


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.