Issuu on Google+

ISSN 1429-8945

www.crn.pl maj 2013

Serwery coraz bardziej wirtualne str. 8

Pamięci masowe chmura im nie zagraża str. 14

Zasilanie i klimatyzacja dbają o efektywność energetyczną str. 28

Chmura prywatna czy w małej firmie ma sens? str. 37

Centrum danych

w małej i średniej firmie

Więcej szczegółów na temat aktualnej oferty znajdziesz na: www.azlan.pl

EDYTORIAL

Czy chmura nas wzmocni? J

aki wpływ będzie miała chmura na biznes resellerski i integratorski? Czy wielkie korporacje, będące do tej pory partnerami rozproszonych po całym świecie firm IT, zostawią je na lodzie i  przejmą ich klientów? I wreszcie – komu zaufają sami klienci: wielkim markom czy znanym od kilku lub kilkunastu lat swoim lokalnym dostawcom? Takie – dość dramatyczne pytania – stawia sobie coraz więcej firm obecnych na rynku IT. Pewien niepokój wzbudza też brak precyzyjnej, wyraźnie nagłośnionej informacji ze strony dostawców o postawionych granicach – w jakim obszarze je-

Indeks firm 1&1 Internet ....................................43 AB ............................11, 17, 27, 30, 39 ABC Data....11, 17, 27, 30, 35, 39 ABS....................................................43 Acronis.............................................. 17 Action .....8, 10, 11, 17, 27, 30, 35, 39 Adaptec........................................... 17 A-LAN..............................................47 Alcatel-Lucent............................27 Allied Telesis.................................27 Alstor ...................................17, 19, 30 AMD ..............................................9, 12 Arkeia ................................................ 17 Arrow ECS ...........11, 13, 17, 27, 39 Aruba Networks........................27 Asbis .................................................. 17 Asigra ................................................ 17 Asseco .....................................41, 42 Asus......................................................11 Atempo............................................ 17 Avnet ..............................11, 17, 27, 39 Beyond.pl.................................4, 46 BlueCoat.......................................... 17 Brocade ..........................................27 CA........................................................ 17 Cisco Systems .....9, 11, 17, 27, 39 Citrix Systems ................................... ........................17, 22, 24, 27, 39, 43 Clico.............................................17, 27 CommVault ................................... 17 Computerlinks.................... 27, 39

Connect Distribution ...... 17, 22 C&C Partners Telecom..........26 Dagma .............................................. 17 DataCore Software ...........17, 22 Dell ....................................9, 12, 14, 16 Diskus ................................................ 17 D-Link..................................14, 17, 27 Eaton Power Quality .............30 eD’ system...............................17, 27 EET...................................................... 17 EMC ................. .........14, 15, 16, 17, 21 Emerson Network Power ......... .......................28, 29, 30, 31, 34, 35 Emiter...............................................26 Emulex.............................................. 17 Enterasys........................................27 EPA Systemy................................ 17 Evault.................................................16 Ever................................... 30, 32, 33 Exagrid ............................................. 17 Extreme Networks ..................27 F5 Networks ................................27 FalconStor...................................... 17 Fideltronik Inigo........................30 Format.............................................. 17 Fortinet............................................27 Fujitsu ................8, 10, 11, 14, 17, 39 GDS Distribution ....................... 17 HGST.................................................. 17 Hitachi Data Systems.............................. ...............................................14, 15, 16, 17

COMPUTER RESELLER NEWS POLSKA VADEMECUM VAR-ów i integratorów, 15 maja 2013 ISSN 1640-9183 © Burda Communications sp. z o.o. REDAKCJA: 00-342 Warszawa, ul. Topiel 23 tel. (22) 320-19-00, tel./faks (22) 320-19-01 e-mail: redakcja@crn.pl, www.CRN.pl Tomasz Gołębiowski (redaktor naczelny) tomasz.gołebiowski@crn.pl, tel. (22) 320-19-41 Dorota Gutkowska (sekretarz redakcji) dorota.gutkowska@crn.pl, tel. (22) 320-19-32 Krzysztof Jakubik (redaktor prowadzący) krzysztof.jakubik@crn.pl, tel. 660-73-30-90 Tomasz Janoś, tomasz.janos@crn.pl Rafał Janus, rafal.janus@crn.pl KIEROWNIK PROJEKTU VADEMECUM: Jacek Goszczycki, tel. (22) 44-88-358 jacek.goszczycki@burdamedia.pl ŁAMANIE I GRAFIKA: Aneta Mikulska

steśmy partnerami, a gdzie konkurentami. Taka sytuacja rodzi głównie nieporozumienia i  nie zachęca do prowadzenia wspólnego biznesu. Obserwując tę komunikacyjną lukę, redakcja CRN Polska stworzyła nowy projekt: Vademecum VAR-ów i integratorów. Regularnie w Waszym imieniu będziemy pytać dostawców o ich ofertę, która ulega nieustannym modyfikacjom w okresie technologicznej transformacji. Będziemy obserwować rynkowe trendy, wyszukując obszary, w których wciąż można zrobić dobry biznes. Wspólnie zastanowimy się nad kierunkami zmian stra-

HP...4, 9, 11, 14, 16, 17, 27, 39, 40, 42 Huawei......................................25, 27 IBM ..4, 11, 13, 14, 16, 17, 38, 39, 41 Imation...............................................17 Incom.............................11, 17, 30, 39 Infortrend.........................................17 InsERT................................................41 Intel.........................................9, 13, 20 Juniper Networks................17, 27 K2 Internet.......................................12 Konsorcjum FEN ....11, 17, 27, 39 LenovoEMC/Iomega..14, 15, 17, 18 LSI .........................................................17 Meru Networks ...........................27 Microsoft ...............4, 17, 22, 39, 41 Mozy....................................................16 NetApp ......................................16, 17 Netgear ...............14, 17, 20, 25, 27 Nimble Storage............................17 Oktawave........................12, 44, 45 Oracle/Sun...11, 14, 17, 22, 38, 39, 41 Overland Storage.......................17 Oxycom ............................................41 Passus ................................................17 Promise .............................................17 Qlogic.................................................17 QNAP ...................................14, 17, 23 Quantum..........................................17 Radware ...........................................17 Rittal ..................................................30 Riverbed ....................................17, 27 RRC..........................11, 17, 27, 30, 39

FOTOGRAFIA NA OKŁADCE: © marrakeshh – Fotolia.com FOTOGRAFIE: Marek Zawadzki, archiwum KOREKTA: Agnieszka Rytel, Katarzyna Winsztal KIEROWNIK PRODUKCJI: Tomasz Gajda tomasz.gajda@burdamedia.pl KOORDYNATOR PRODUKCJI: Jan Kutyna jkutyna@burdamedia.pl PRENUMERATA I BAZY DANYCH: prenumerata@crn.pl WYDAWCA: Burda Communications Sp. z o.o. 00-342 Warszawa, ul. Topiel 23 tel. (22) 320-19-00, tel/faks (22) 320-19-01 ZARZĄD: Justyna Namięta, Christian Fiedler PROKURENT/DYREKTOR FINANSOWY: Tomasz Dziekan Sekretariat: tel. (22) 44-88-301 DORADCA ZARZĄDU DS. EDYTORSKICH: Krystyna Kaszuba

S4E............................14, 15, 17, 21, 27 SAP ......................................................41 Schneider Electric/APC .............. ..............................28, 29, 30, 36, 48 Seagate ......................................16, 17 Sepaton.............................................17 Sequence........................................27 Socomec........................................30 Sunnyline.........................................27 Supermicro...................................... 11 Symantec..................................16, 17 Symform ..........................................16 Synology ............................14, 17, 24 S-Cabling ........................................27 Tandberg Data ......................17, 27 Tech Data / Azlan............................ .......................2, 11, 17, 27, 30, 39, 40 Thecus ........................................14, 17 Thomas Krenn ............................... 11 Tintri.....................................................17 Toshiba ..............................................17 TP-Link .............................................27 Veeam................................................17 Veracomp.11, 17, 25, 26, 27, 30, 39 Versim ...............................................27 Virsto...................................................16 VMware..4, 12, 16, 22, 24, 37, 39 Western Digital ............................17 World IT Systems ......................27 Zenith ARCA .................................17 Zycko...........................................17, 27 ZyXEL .........................................17, 27

tegicznych, które powinni przeprowadzić resellerzy i integratorzy. Mamy już pierwszy sukces! Podczas redakcyjnego spotkania z cyklu Okrągły Stół reprezentujący branżę IT zaproszeni goście sami przyznali, że wciąż zbyt mocno skupiają się na swoich produktach, zamiast wspólnie z kanałem dystrybucyjnym rozmawiać o potrzebach jego klientów. Razem doszliśmy do wniosku, że tylko usługi uratują branżę (co jest oczywiste), ale że to właśnie w gestii dostawców jest pomoc resellerom i integratorom w zbudowaniu oferty tych usług i świadczeniu ich klientom. Efektem, który chcemy uzyskać, będzie stabilna sytuacja firm IT na polskim rynku. Wierzymy, że wspólnie nam się uda. Zapraszam do lektury!

KRZYSZTOF JAKUBIK redaktor prowadzący

SPIS TREŚCI 4

Okrągły Stół: Chmura niesie rewolucję dla resellerów

8

Wirtualizacja stawia serwery na zakręcie

14

Chmura jeszcze nie zagraża pamięciom masowym

25

Sieci coraz bardziej inteligentne

28

Centrum danych – od efektywności do oszczędności

37

Czy chmura w małej firmie ma sens?

41

Zarobić na usługach w chmurze

DYREKTOR WYDAWNICZY: Michał Helman P.O. DYREKTOR MARKETINGU: Izabela Skonieczna Brand Manager: Ewa Korzańska, tel. (22) 44-88-404 REKLAMA: Burda Media Polska Sp. z o.o. 00-034 Warszawa, ul. Warecka 11A tel. (22) 44-88-000, faks (22) 44-88-003 HANDLOWCY: Account Executive: Piotr Ciechowicz, tel. (22) 44-88-491 piotr.ciechowicz@burdamedia.pl Account Executive: Dominik Ulański, tel. (22) 44-88-471 dominik.ulanski@burdamedia.pl Junior Account Executive: Mariusz Szemis, tel. (22) 44-88-455 mariusz.szemis@burdamedia.pl SENIOR ADVERTISING MANAGEMENT: Senior Advertising Manager: Konrad Gacki, tel. (22) 44-88-470 Senior Advertising Manager: Małgorzata Gurbała, tel. (22) 44-88-380

Senior Advertising Manager: Agnieszka Kieszczyńska, tel. (22) 44-88-351 Sekretariat Biura Reklamy: tel. (22) 44-88-347 ONLINE SALES: Online Sales Manager: Agnieszka Sass-Szczepkowska, tel. (22) 44-88-497 Online Sales & Traffic Manager: Paweł Kopacki, tel. (22) 44-88-494 CREATIVE SALES: Creative Sales Director: Anna Zabłocka, tel. (22) 44-88-398 Project Manager: Monika Szeroczyńska, tel. (22) 44-88-430 Reklamy przyjmowane są w siedzibie wydawnictwa. Za treść ogłoszeń redakcja nie ponosi odpowiedzialności. © Copyright 1998 Burda Communications sp. z o.o. Wszelkie prawa zastrzeżone. Computer Reseller News Polska contains articles under license from CMP Media Inc. © 1998 CMP Media Inc. All rights reserved. Burda Communications należy do: Ogólnopolskiego Stowarzyszenia Wydawców Izby Wydawców Prasy

3

OKRĄGŁY STÓŁ CRN POLSKA

Chmura

niesie rewolucję dla resellerów Rynek rozwiązań IT dla firm zmienia się bardzo dynamicznie. Wielu resellerom i integratorom zmiany mogą uświadomić ich biznesowy potencjał, a nawet okazać się życiową szansą. O ewolucji na rynku IT, która powoli zmienia się w rewolucję, rozmawiali goście Okrągłego Stołu CRN Polska: – JAROSŁAW MORAWSKI, DYREKTOR DZIAŁU SPRZEDAŻY I WSPÓŁPRACY Z PARTNERAMI, BEYOND.PL, – MACIEJ RAK, PRODUCT MANAGER DATA CENTER INFRASTRUCTURE, HP, – STANISŁAW DANILUK, MANAGED SERVICE PROVIDERS SALES LEADER, IBM, – MARCIN SOWIŃSKI, BUSINESS DEVELOPMENT MANAGER, MICROSOFT, – ANDRZEJ KONTKIEWICZ, REGIONAL SE MANAGER EASTERN EUROPE, VMWARE. PROFESJONALNA SERWEROWNIA W MAŁEJ FIRMIE CRN Małe i  średnie firmy zaczynają mieć podobne oczekiwania, jakie jeszcze kilka lat temu miały wyłącznie duże korporacje. Wysoka dostępność systemów IT jest już potrzebna nie tylko w trakcie godzin pracy, ale coraz częściej przez całą dobę. Firmy chcą też mieć gwarancję ciągłości pracy w  przypadku ewentualnych zdarzeń losowych. Jedną z dróg do spełnienia tych oczekiwań jest inwestycja w profesjonalną infrastrukturę IT oraz serwerownię. Na to jednak często ich nie stać. Jakimi radami mogą im służyć przedstawiciele rynku IT, aby poprawić tę trudną sytuację? ANDRZEJ KONTKIEWICZ, VMWARE Potwierdzam, że oczekiwania małych i średnich firm rosną i są dziś znacznie większe niż kilka lat temu. Jednak spełnianie tych oczekiwań odbywa się przy znacznie mniejszych nakładach finansowych – przedsię-

4

VADEMECUM CRN maj 2013

MARCIN SOWIŃSKI, MICROSOFT

biorstwa te zatrudniają zwykle tylko jednego informatyka bądź korzystają z usług konsultacyjnych firm zewnętrznych, ale jednocześnie oczekują, że ich infrastruktura IT będzie niezawodna i zawsze dostępna. Taki wymóg automatycznie wymusza profesjonalne podejście, bowiem na dostępność systemów IT ma wpływ chociażby bezpieczeństwo fizyczne, a więc zasilanie, klimatyzacja lub ochrona pomieszczenia z serwerami przed niepowołanym dostępem. Siłą rzeczy te serwery nie mogą stać w przypadkowym miejscu. STANISŁAW DANILUK, IBM Jeżeli w małej lub średniej firmie jednym z czynników sukcesu jest posiadanie własnej infrastruktury IT, to oczywiście wszyscy powinni o nią szczególnie dbać, aby zagwarantować bezpieczeństwo przetwarzania i przechowywania danych. Dzisiaj stworzenie profesjonalnej serwerowni nie jest już takim wyzwaniem jak kilka lat temu. Dzięki możliwości wirtualizacji i dużej koncentracji sprzętu w jednej szafie przemysłowej można umieścić infrastrukturę IT zdolną do obsłużenia nawet kilkuset pracowników. MARCIN SOWIŃSKI, MICROSOFT Natomiast jeśli dla danej firmy rozwiązania informatyczne nie są aż tak ważne, a stanowią tylko proste narzędzie do wykonywania innych obowiązków, to jako przedstawiciele rynku IT powinniśmy pracować nad uświadamianiem klientom, że są dostępne też alternatywne rozwiązania, dzięki którym można outsource’ować praktycznie całe środowisko informatyczne, pozostawiając w rękach pracowników tylko urządzenia dostępowe. Tu pojawia się duże zadanie dla resel-

lerów i integratorów, którzy – zamiast zarabiać na tradycyjnej marży – mogą zacząć zarabiać na usługach, ale najpierw muszą przedstawić swoim klientom alternatywne rozwiązanie. My, jako producenci, przyjęliśmy na siebie zadanie wyedukowania resellerów – pomocy od strony sprzedażowej, technologicznej czy marketingowej. ANDRZEJ KONTKIEWICZ, VMWARE Druga opcja jest o tyle ciekawa, że taki klient wówczas w ogóle przestaje myśleć o IT jako technologii. Potrzebuje wyłącznie aplikacji do realizacji swoich celów biznesowych, a więc dla niego idealny jest model Software as a Service. Natomiast rolą resellera jest rozmowa z klientem i identyfikacja jego potrzeb oraz ewentualna współpraca przy implementacji oprogramowania i dostosowania go do potrzeb firmy. JAROSŁAW MORAWSKI, BEYOND.PL Jednak nierzadko resellerzy spotykają się z kuriozalnymi utrudnieniami. Dla przykładu: kilka popularnych programów księgowych do pracy wymaga aktywacyjnego sprzętowego klucza USB. Teoretycznie do wirtualnego serwera nie da się włożyć sprzętowego klucza. My rozwiązaliśmy ten problem dla współpracujących z nami resellerów – kupiliśmy wiele hubów USB i emulujemy porty, żeby móc uruchomić takie oprogramowanie dla klientów. Podejmujemy jako Beyond.pl dodatkowy wysiłek związany z zarządzaniem tymi kluczami, jednak dzięki temu nasi partnerzy mogą sprawniej pracować w całkowicie wirtualnym środowisku IT. Wierzę jednak, że to tylko kwestia czasu, a rynek dostosuje się do tych nowych modeli funkcjonowania. MACIEJ RAK, HP Żeby dobrze wybrać, trzeba wiedzieć, spośród czego wybieramy – to dotyczy zarówno resellerów, jak też ich klientów. Potwierdzam zatem, że bardzo ważną rolą dostawców IT jest edukacja. Systemy informatyczne nadal często są traktowane jako obciążenie finansowe dla firmy, a nie jako narzędzie do generowania zysku. Pojawienie się wirtualnych rozwiązań być może tę sytuację zmieni, bo upodobni świadczenie usług IT do modelu dostarczania usług telekomunikacyjnych czy energetycznych, a to znacznie ułatwi mentalną akceptację. Finalnie bowiem każde przedsiębiorstwo musi się rozwijać i zdobywać przewagę konkurencyjną, a systemy informatyczne mają zapewniać wsparcie w tym zakresie. Sposób dostarczania tych zasobów jest często sprawą drugorzędną.

MACIEJ RAK, HP Zastanawiam się czasem, czy rolą resellera lub integratora jest w ogóle świadczenie usług, chociaż na razie trudno o lepsze słowo. Mi usługa kojarzy się z nawiązaniem na krótki czas pewnej relacji, sprofilowanego powiązania, aby zaspokoić określoną potrzebę. Tymczasem klienci po prostu chcą się czuć bezpiecznie, a stan ten trudno jest wywołać konkretną usługą jako narzędziem, a bardziej sposobem ich doboru, wdrożenia i późniejszego utrzymania. Klienci poszukują takich osób, które nie będą mówiły językiem produktów czy usług, a będą posługiwały się argumentami związanymi z korzyściami i realizacją przyjętej przez danego klienta strategii w pewnej perspektywie czasowej. Jako partnerzy powinni wspólnie się zastanawiać nad problemami do rozwiązania, planami, wizjami itd. Tymczasem nawet my jako dostawcy często łapiemy się na tym, że do klienta idziemy z ofertą danego produktu, a nie ofertą rozwiązania jego problemu. CRN Jednak w Polsce – na obecnym etapie rozwoju – wśród małych i średnich firm widzę taki problem, że ich właściciele często chcą mieć pełną kontrolę nad posiadanymi rozwiązaniami, ponieważ – co jest oczywistą nieprawdą – tylko w ten sposób będą w stanie zapewnić im bezpieczeństwo. Jest wiele mitów, z którymi trzeba walczyć. I oczywistą wydaje się konkluzja, że firmy zamiast mówić o sobie, powinny więcej słuchać klientów, ale jakoś trudno mi jest wyobrazić sobie taką sytuację… Ale może ten, kto pierwszy skręci w ten zakręt, odniesie gigantyczny sukces? JAROSŁAW MORAWSKI, BEYOND.PL Dokładnie tak. Niestety, w dzisiejszym świecie głównym celem małych i części średnich firm jest przetrwanie pierwszego, a później każdego kolejnego roku funkcjonowania. Inwestycje w długoterminowe projekty wiążą się z ryzykiem ich niespłacenia w przypadku braku powodzenia w biznesie. Wyjściem temu naprzeciw są usługi z przejrzystymi zasadami i kosztami. Popytem cieszy się oferta dająca możliwości eliminowania ryzyka. MACIEJ RAK, HP Nietrudno zauważyć, że jesteśmy w  przełomowym momencie, kiedy pewne modele funkcjonowania i oferowania rozwiązań IT straciły swój blask. Stały się dojrzałe, przegrzane, a świat potrzebuje iść dalej i się rozwijać.

ŚWIADOMOŚĆ WŁASNYCH MOŻLIWOŚCI CRN Wygląda więc na to, że resellerzy i integratorzy będą mogli liczyć na sukces, jeśli będą potrafili zrozumieć potrzeby swoich klientów i dostosować do nich swoją ofertę… JAROSŁAW MORAWSKI, BEYOND.PL My w ramach wsparcia dla naszych partnerów oferujemy możliwość edukacji. W mniejszych miejscowościach, gdzie oferta lokalnych resellerów i małych integratorów nie jest rozbudowana, oprócz wiedzy technologicznej dajemy wsparcie w zakresie umiejętności rozmowy z klientem i przekładania jego potrzeb na narzędzia IT. Wskazujemy niszową możliwość, jaką jest odciążenie właścicieli mniejszych firm w zakresie IT. To zadaniem opiekuna IT takiej firmy jest rekomendacja najlepszego funkcjonalnie i kosztowo rozwiązania oraz wdrożenie go.

JAROSŁAW MORAWSKI, BEYOND.PL

VADEMECUM CRN maj 2013

5

OKRĄGŁY STÓŁ CRN POLSKA Większość firm na rynku IT już powiedziała słowo „chmura”, wprowadzając tym samym niepewność wśród przedsiębiorców. Przez ostatnich kilkanaście miesięcy zastanawiają się oni, jak ten nowy model może wpłynąć na funkcjonowanie ich przedsiębiorstw, ale te analizy bazują głównie na symulacjach dostarczanych przez dostawców. Jeszcze większy problem mają nasi partnerzy, bo oni niejako muszą płynąć w wytyczonym przez dostawców kierunku i chwilowo mogą czuć się zdezorientowani. Ale zapewniam, że dokładnie teraz jest właściwy moment, aby wziąć ster w swoje ręce i podjąć działania, żeby wyróżnić się na rynku i osiągnąć sukces. Dzisiaj wizja IT w przyszłości jest trochę nieukonstytuowana na poziomie operacyjnym czy sprzedażowym, ale to właśnie od kreatywnych integratorów i dostawców usług będzie zależało, jak ten rynek się rozwinie. CRN Dostawcy usług w chmurze powinni być jednak świadomi konsekwencji płynącej ze skali, którą nagle mogą osiągnąć oferowane przez nich usługi. Muszą umieć zasymulować sytuację, gdy nagle zamiast dotychczasowych 20 klientów z ich usługi zacznie korzystać dwa tysiące osób, bo jakaś telewizja pokazała o tej usłudze ciekawy reportaż. Mniejsze firmy nie są w stanie nawet przetestować swoich rozwiązań pod kątem tak dużej skali… ANDRZEJ KONTKIEWICZ, VMWARE Od strony infrastruktury nie jest to duży problem, ponieważ dzięki wirtualizacji można skalować ją liniowo i nie wiąże się to z koniecznością wyłączania usługi dla klientów. Natomiast realnym wyzwaniem pozostaje zapewnienie odpowiedniej skalowalności samej aplikacji. STANISŁAW DANILUK, IBM Za każdym razem, gdy rozmawiam integratorami i twórcami oprogramowania, pytam ich o to, czy ich produkty można także udostępnić w chmurze. Większość deklaruje już, że tak. Część nad tym modelem aktywnie pracuje, bo widzi, że w modelu usługowym może mieć większy zysk: utrzymuje klienta na stałe przy sobie, pracuje nad rozpoznawaniem jego potrzeb i może lepiej dostosować do nich ofertę. Natomiast jeśli nagle jakaś firma odniesie gigantyczny sukces, to też jesteśmy w stanie pomóc, a wręcz wziąć część ryzyka na siebie. Możemy zaproponować przeniesienie części tego wzmożonego ruchu do naszej chmury obliczeniowej i obsługę klientów

MACIEJ RAK, HP

6

VADEMECUM CRN maj 2013

ANDRZEJ KONTKIEWICZ, VMWARE

naszego partnera – albo na stałe, albo do momentu, gdy poradzi sobie z tą sytuacją, bądź minie okres szczytu i związane z nim większe zainteresowanie.

CENTRUM DANYCH U INTEGRATORA CRN Efektem omawianych zmian rynkowych jest to, że coraz więcej integratorów decyduje się na budowę własnego centrum danych, aby nie korzystać w tym zakresie z firm zewnętrznych. To może zaś spowodować kompletną rewolucję w modelu funkcjonowania dostawców, bo – zamiast dotychczasowych milionów klientów na świecie – będą mieli ich raptem kilkanaście czy kilkadziesiąt tysięcy, gdy model chmury obliczeniowej zatryumfuje i większość użytkowników rozwiązań IT z niego skorzysta… MACIEJ RAK, HP Pewnych zjawisk nie da się powstrzymać, możemy jedynie się zastanawiać, jak mądrze w takiej sytuacji postąpić. To nadal jest ewolucja, która trwa, mamy za sobą dopiero pierwsze wdrożenia i pierwsze doświadczenia. Ale na przestrzeni czasu dynamika tych zmian i rozwoju może znacznie wzrosnąć. Na pytanie, czy w tej branży lepiej mieć wielu małych klientów czy niewielu dużych, chyba dziś nie ma jeszcze dobrej odpowiedzi… STANISŁAW DANILUK, IBM My takie przeobrażenie rynku widzimy jako szansę. Wspieramy naszych partnerów w dążeniach do zostania dostawcami usług zarządzanych. W ramach programu współpracy z nimi oferujemy na przykład pomoc w projektowaniu, budowaniu i finansowaniu własnych centrów danych oraz ich promocji. Pokazujemy, jakie inne usługi na bazie Software as a Service można zaoferować klientom. Uczymy, jak sprzedawać, robić marketing oraz promować się w sieci i mediach społecznościowych. CRN W takim rozkroku stanął też Microsoft – jednocześnie chce sprzedawać licencje na oprogramowanie, a w tym samym czasie oferuje to samo oprogramowanie w postaci usług w chmurze… MARCIN SOWIŃSKI, MICROSOFT Zgadza się, oferujemy te dwa modele, uważnie obserwując, którym klienci są bardziej zaintere-

sowani. I oczywiście dla poszczególnych usług te proporcje są różne, chociaż jeszcze za wcześnie na wyciąganie wniosków. Natomiast do tego typu zmian na rynku trzeba się przyzwyczaić. Producenci serwerów już od kilku lat narzekają, że z powodu coraz popularniejszej wirtualizacji sprzedają mniej maszyn. Ale trzeba też być fair wobec klientów, który bez wirtualizacji nie wykorzystaliby nawet małego ułamka mocy obliczeniowej produkowanych dziś serwerów. W efekcie liczba wykorzystywanych przez nawet małe firmy usług będzie systematycznie rosła, zapewniając dodatkowe przychody ich dostawcom, nastąpi więc też wzrost w skali całego rynku. Dla producentów może to wiązać się z pewnymi efektami ubocznymi, ale widzę, że dla lokalnych resellerów i integratorów, jak też dla firm świadczących usługi w chmurze jest to niebywała szansa, jeśli tylko podejmą ryzyko wprowadzenia zmian do swoich modeli biznesowych. JAROSŁAW MORAWSKI, BEYOND.PL Zakładam, że na najbliższych parę lat jest to największa szansa dla resellerów. Rynek resellerów zmienił się w ostatnich latach, do czego zresztą przyczyniło się wielu dostawców. Sprzęt trafił do sklepów wielkopowierzchniowych i internetowych, oprogramowanie jest pobierane w legalny sposób z Internetu, a wielu producentów samodzielnie robi wdrożenia bezpośrednio u klientów. Szanse rynkowe otwierają się dla tych resellerów, którzy odpowiednio przygotują ofertę swoich usług, korzystając z szerokiego portfolio integratorów IT. ANDRZEJ KONTKIEWICZ, VMWARE W całej tej sytuacji istotne jest to, że obecnie na rynek pracy wchodzi pokolenie, które wychowało się z dostępem do Internetu, a korzystanie z rozwiązań w chmurze jest dla niego rzeczą oczywistą. To z pewnością przyczyni się do rozwoju tego rynku. MARCIN SOWIŃSKI, MICROSOFT Mam wrażenie, że wiele osób zostało po prostu przestraszonych hasłem „chmura” i widzi w tym kolejną technologię, której będą musieli się uczyć. Natomiast tu po prostu chodzi o usługi, do których naturalnym kanałem dostępu będzie Internet, chociaż oczywiście możemy też mówić o hostowanej chmurze prywatnej, czyli infrastrukturze klienta ulokowanej w centrum danych zewnętrznej firmy trzeciej i dostępie do niej przez bezpieczne, wydzielone łącze.

STANISŁAW DANILUK, IBM

MACIEJ RAK, HP W komunikacji związanej z chmurą widzę jeszcze jeden brak. Jedną z obaw klientów jest to, czy po przeprowadzeniu wirtualizacji będą mogli wrócić do stanu poprzedniego. I chociaż to jest przypadek mało prawdopodobny, to powinniśmy być gotowi do udzielenia takiej informacji klientowi i rozwiania jego wątpliwości. Zaczynają także pojawiać się pytania, czy po wykupieniu infrastruktury w chmurze publicznej u jednego dostawcy, będzie można bez przerw w pracy przenieść ją do drugiego, na przykład w przypadku niewłaściwego świadczenia usługi. W tym obszarze nie ma jeszcze wypracowanych standardów, chociaż pewnie wkrótce też się pojawią.

SZKOLENIA NIE TYLKO Z PRODUKTÓW CRN W naszej dyskusji często pojawiała się kwestia edukacji. Większość producentów oferuje klientom i  partnerom zaawansowane szkolenia, ale dotyczą one głównie samych produktów. Nie widać szkoleń miękkich, dotyczących np. rozmów z  klientem i  poprawiania skuteczności sprzedaży… STANISŁAW DANILUK, IBM Prowadzimy dwa rodzaje warsztatów – techniczne i sprzedażowe. Pokazujemy, jak budować usługi na bazie technologii i jak rozmawiać klientami o usługach. Warsztaty sprzedażowe są organizowane indywidualnie w  ramach programu wsparcia marketingowego. Partnerzy biznesowi korzystają również z programów certyfikacyjnych, które obejmują zagadnienia sprzedażowe i techniczne. Dużo ciekawych informacji, w tym opisy typowych biznesowych problemów, pytania, jakie należy zadać klientom w trakcie rozmowy, przykłady wartości biznesowych rozwiązań oraz nagrane webcasty, są też dostępne w portalu partnerskim IBM-a i mediach społecznościowych. MACIEJ RAK, HP Umiejętność sprzedaży produktów jest kluczowa dla każdej firmy. Przy czym trzeba umieć rozróżnić proces obsługi sprzedaży od prawdziwej sprzedaży, która jest pewną umiejętnością nakłaniania klienta do wyboru danego rozwiązania. W ofercie HP Edukacja rzeczywiście dominują szkolenia dotyczące danych produktów lub rozwiązań, co wynika głównie z realizacji standardów korporacyjnych. Ale w naszej ofercie są też szkolenia ułatwiające nakłonienie klienta do zakupu. Te warsztaty są przygotowywane za każdym razem indywidualnie przez współpracującą z nami firmę i tworzone pod kątem danego produktu. ANDRZEJ KONTKIEWICZ, VMWARE Oczywiście my też prowadzimy odpowiednie szkolenia, chcę jednak zwrócić uwagę na ciekawą, oddolną inicjatywę, którą są tzw. VMware User Groups. To nieformalne organizacje użytkowników końcowych, którzy dzielą się swoimi doświadczeniami podczas mniej lub bardziej formalnych spotkań. Wiedza przekazana w ten sposób bywa czasem cenniejsza niż ta wyniesiona z oficjalnego szkolenia, gdyż pochodzi od osób, które znają swoje potrzeby najlepiej, czyli od klientów.

ROZMAWIAŁ KRZYSZTOF JAKUBIK VADEMECUM CRN maj 2013

7

SERWERY

ie

Wirtualizacja

c ę stawia serwery n a z a k r

Od lat serwery odgrywają w centrum danych najważniejszą rolę. Analitycy Gartnera szacują, że pochłaniają one aż 60 proc. budżetu na sprzęt w centrum danych. Jest więc o co powalczyć, ale – z drugiej strony – rynek serwerów zrobił się bardzo konkurencyjny i trudno na nim o wysokie marże. TOMASZ JANOŚ

S

ystematycznie ograniczane budżety działów IT w  firmach oraz rosnące koszty energii sprawiają, że szczególną wagę przywiązuje się do konsolidowania infrastruktury serwerowej. Głównym narzędziem przy takich projektach jest wirtualizacja, której poziom popularności w firmach stale wzrasta. Na sprzedaż serwerów wpływa kryzys ekonomiczny, ale też przetwarzanie w chmurze. Dlatego analitycy z IDC i Gartnera prognozują jedynie niewielki wzrost sprzedaży serwerów w bieżącym roku. Opinię tę potwierdzają przedstawiciele producentów i dystrybutorów. – Rynek zdecydowanie stygnie, a prognozy mówią, że sprzedaż w bieżącym roku nie przekroczy wyników osiągniętych

w 2012 r. – twierdzi Adam Dyszkiewicz, Servers Product Manager w Fujitsu Technology Solutions. Jednak według Marka Jaszczuka, dyrektora działu Enterprise w Actionie, kryzys na naszym rynku nie jest na razie szczególnie ważnym czynnikiem wpływającym na biznes serwerowy. Rok 2012 w Actionie zamknął się wzrostem sprzedaży serwerów – zarówno pod względem wartościowym, jak i ilościowym. Marek Jaszczuk wskazuje też na fakt, że Polska jest na etapie przejściowym pomiędzy dwoma wieloletnimi budżetami unijnymi. To oznacza, że część dużych projektów może być chwilowo wstrzymana. Nie spowoduje to jednak spadku popularności serwerów oferowanych małym i średnim firmom.

– Bardziej zastanawia rosnąca konkurencja cenowa między oficjalnym a tzw. brokerskim kanałem sprzedaży oraz idąca za tym erozja marż i brak kontroli producentów nad kanałem na rynkach lokalnych – podsumowuje przedstawiciel Actionu.

WIRTUALIZACJA NIE BUDZI JUŻ WĄTPLIWOŚCI

Przewidując to, co nastąpi na rynku, można założyć, że poziomy wirtualizacji i konsolidacji będą nadal rosły, obejmując nie tylko serwery, ale też pamięć masową oraz sieci. Klienci zaczną tworzyć chmury prywatne łączące ich centrale i oddziały, a także korzystać z chmury w modelu hybrydowym.

LICZBA SERWERÓW FIZYCZNYCH I WIRTUALNYCH NA ŚWIECIE (W MLN)

7,752

18,600 7,440 2,232

2,424

7,104 2,088

1,848

1,704

6,672

6,864

10,104 1,584

6,480

5,712 7,248 1,200

7,056 6,360

7,104 4,056

1,200

2

0,648 0 ,648 8

4

1,008

8 6

1 968 1,968

6,984

12 10

12,072

16 14

14,088

18

16,392

20

20,832

22

2013 2013* 13 3*

2014 2014* 14*

2015 2015* 15* 5*

0 2006 20 2 00 06

8

2007 200 00 07

2008 200 08

2009 20 2 009 0 09 0

2010 20 010 0 110

2011 201 0111

SERWERY

S SERWERY

M MASZYNY

NIEZWIRTUALIZOWANE

Z ZWIRTUALIZOWANE

W WIRTUALNE

maj 2013

20 2012 012 0 12

*prognoza Źródło: IDC

GŁÓWNE WYZWANIA DOTYCZĄCE INWESTYCJI W SERWEROWNIE W 2012 R. W EUROPIE ŚRODKOWO-WSCHODNIEJ 18%

WYMIANA PRZESTARZAŁEGO SPRZĘTU ROZSZERZENIE MOŻLIWOŚCI SERWEROWNI

15%

BEZ JEJ ZMIANY

ZWIĘKSZENIE PRZEPUSTOWOŚCI

15%

SIECI SERWEROWNI

POPRAWA AUTOMATYZACJI I

ZARZĄDZANIA SYSTEMAMI W SERWEROWNI

11%

WIRTUALIZACJA SERWERÓW I /ALBO

11%

PAMIĘCI MASOWYCH

KONSOLIDACJA, REDUKCJA SKOMPLIKOWANIA SERWEROWNI

WDROŻENIE INFRASTRUKTURY CHMURY W SERWEROWNI

INNE

10% 9% 11% Źródło: IDC

Tymczasem –  skoro rządzą konsolidacja i oszczędzanie – to serwery, które mają znaleźć nabywcę, powinny być efektywne energetycznie, cechować się dużą wydajnością i skalowalnością, a przy tym wysoką dostępnością. Świadomość tego, co się kupuje, znacznie wzrosła w segmencie małych i średnich przedsiębiorstw. Decydując się na kupno nowej infrastruktury bądź modernizację już posiadanej, firmy zwracają uwagę na oferty przekładające się na większy zwrot z inwestycji. Resellerzy i integratorzy powinni mieć na uwadze przede wszystkim to, że wirtualizacja jest „na celowniku” każdego administratora, bez względu na rozmiar systemu informatycznego. Serwery są kupowane w celu wdrażania nowych aplikacji, a  te są uruchamiane najczęściej w maszynach wirtualnych. Dlatego specjalizowanie się w optymalizacji i wirtualizacji środowiska IT powinno dawać przewagę konkurencyjną i wymierne dochody. Coraz częstszymi użytkownikami serwerów będą się stawać także małe i średnie firmy, które zaczną korzystać z systemów ERP i CRM.

STELAŻOWY X86 LIDEREM NIE NA ZAWSZE

Od kilku lat największą popularnością cieszą się serwery x86. Ich sprzedaż w ze-

szłym roku dodatkowo stymulowało m.in. pojawienie się intelowskich procesorów o architekturze Sandy Bridge. IDC utrzymuje, że przychody ze sprzedaży platformy x86 w ostatnim kwartale 2012 r. wyniosły aż 66,2 proc. wartości światowego rynku serwerów. Był to już czwarty z kolei kwartał z tak rekordową sprzedażą tego typu urządzeń. Powodów popularności platformy x86 należy upatrywać w oferowanych przez nią najlepszych możliwościach optymalizacji kosztów względem obecnego zapotrzebowania na moc obliczeniową. Jednak palmy pierwszeństwa nie zdobyły raz na zawsze, ponieważ dalsze zwiększanie wydajności przy zachowaniu oczekiwanej energooszczędności staje się na platformie x86 technologicznie niemożliwe. Dlatego czołowi pro-

GRZEGORZ DOBROWOLSKI dyrektor sprzedaży Data Centre & Virtualization w Cisco Systems

Klienci pozostawiają we własnych centrach danych wszystkie kluczowe aplikacje oraz systemy. Chmura traktowana jest bardziej jako usprawnienie operacji wewnętrznych i przekształcenie modelu działania IT wewnątrz organizacji.

ducenci zarówno chipów (Intel, AMD), jak i  wykorzystujących je serwerów (HP, Dell) bardzo aktywnie pracują nad implementacją w serwerach układów ARM, Atom czy Tesla, znanych z rozwiązań mobilnych. Analizując wielkość sprzedaży serwerów różnych typów, można zauważyć, że konsolidacja oznacza coraz większe wykorzystanie serwerów do montażu w szafach przemysłowych i systemów kasetowych (blade). Te pierwsze już od dłuższego czasu dominują na rynku, odchodzi się natomiast od serwerów typu wieża i wolno stojących. Małe firmy, które dotąd wykorzystywały mniejsze serwery tego rodzaju, mogą teraz (dzięki szybkim łączom) korzystać z mocy obliczeniowej udostępnianej przez główne centrum danych przedsiębiorstwa bądź z chmury. Poza tym już nawet małe firmy powszechnie korzystają z 19-calowych szaf przemysłowych. – W Polsce wciąż najbardziej popularnym typem jest serwer stelażowy, jako najbardziej uniwersalny – mówi Grzegorz Dobrowolski, dyrektor sprzedaży Data Center & Virtualization w Cisco Systems. Jego zdaniem pod względem liczbowym duże znaczenie mają maszyny z  tylko jednym gniazdem na procesor, jednak wirtualizacja przesunęła środek ciężkości w stronę większych maszyn, o dużej liczbie pamięci i rdzeni. Rośnie też znaczenie serwerów wysokiej gęstości, zaprojektowanych z myślą o dużej efektywności i skalowalności (i to nie tylko z powodu koniunktury u dostawców usług). Dla swoich zwirtualizowanych środowisk informatycznych coraz częściej systemy kasetowe wybierają także przedsiębiorstwa. Zdaniem Grzegorza Dobrowolskiego pierwsze generacje serwerów kasetowych nie cieszyły się jednak dużym zainteresowaniem klientów w Polsce, w odróżnieniu od Europy Zachodniej i wybranych krajów Europy Środkowej, np. Węgier. – Nowe architektury systemów kasetowych wprowadziły nową jakość i funkcjonalność, zmieniając postrzeganie tych platform także przez klientów w  Polsce – mówi przedstawiciel Cisco. Wśród firm rośnie też świadomość tego, czym są zintegrowane platformy maj 2013

9

SERWERY obliczeniowe (fabric computing) umożliwiające łączenie serwerów, pamięci masowych i urządzeń sieciowych – na zasadzie bloków – w jeden zoptymalizowany system. Taką ofertę mają praktycznie wszyscy liczący się na rynku producenci serwerów i sprzętu dla centrów danych. Grzegorz Dobrowolski twierdzi, że ten trend cieszy się coraz większym zainteresowaniem wśród klientów, również w Polsce. Spowodowane jest to obniżeniem kosztów operacyjnych związanych z utrzymaniem czy implementacją rozwiązania oraz poprawą niezawodności i ciągłości działania systemów dla aplikacji o kluczowym znaczeniu dla firmy.

RACHUNKI ZA ENERGIĘ CORAZ WAŻNIEJSZE

Szacunki Gartnera pokazują, że w centrum danych energia dostarczana do sprzętu IT jest w największym stopniu konsumowana przez serwery (45 proc. wobec 29 proc. dla pamięci masowych i 26 proc. dla sieci). Natomiast w czasach, gdy najważniejszym hasłem staje się cięcie kosztów, czynnikiem równie ważnym jak wydajność stają się oszczędności uzyskiwane dzięki nowym generacjom sprzętu. Na czym polega to w przypadku serwerów i jakie ekonomiczne argumenty trafiają do klientów? Zdaniem Adama Dyszkiewicza wydajność w przypadku serwerów nadal ma ogromne znaczenie. Zauważa on jednocześnie, że zaczęto trochę inaczej podchodzić do jej liczenia – dziś coraz ważniejszy staje się stosunek wydajności rozwiązania do ilości zużywanej energii. Przez ostatnie lata w kolejnych generacjach serwerów parametr ten bardzo się poprawiał. Z myślą o wirtualizacji oraz poprawie efektywności zarządzania i utrzymania systemu Cisco Systems zaprojektowało rozwiązanie UCS (Unified Computing System). Umożliwia ono centralne zarządzanie systemem kilkuset serwerów (zarówno kasetowych, jak i  stelażowych), usprawnienie komunikacji z  pamięcią i interfejsami I/O (dla środowisk fizycznych i wirtualnych) oraz znaczące zmniejszenie liczby aktywnych komponentów dzięki wprowadzonym zmianom konstrukcyjnym.

10

maj 2013

WŁASNE SERWERY KONTRA USŁUGI

Badania doradczo-analitycznej fi rmy Audytel wykazują, że tylko w szczególnych przypadkach budowa własnego centrum danych bywa finansowo opłacalna. Argumentem przemawiającym za taką decyzją jest wielka skala potrzeb (przekładająca się na powierzchnię od 1000 m2). Drugim powodem budowy własnego centrum danych mogą być – według Audytela – unikalne wymagania biznesowe (z bardzo wyśrubowanym SLA albo niestandardowymi sprzętem i parametrami). W każdym innym przypadku korzystniejsze jest wynajmowanie mocy obliczeniowej i przestrzeni dyskowej, a już na pewno wtedy, gdy skala potrzeb w tym zakresie nie jest duża, są one zmienne w czasie oraz gdy na wdrożenie danego systemu czy aplikacji jest mało czasu. Zdaniem analityków Audytela rynek centrów danych w Polsce dojrzewa. Świadczy o tym podaż powierzchni, która na koniec zeszłego roku wynosiła ok. 50 tys. m2 (drugie tyle zajmą obecnie budowane lub rozbudowywane). Oferta rynkowa obejmuje ponad 60 komercyjnych centrów danych o bardzo różnych parametrach jakościowych, cenach i zakresach usług. Jak natomiast z punktu widzenia dostawców serwerów przebiegają wybory

ADAM DYSZKIEWICZ Servers Product Manager, Fujitsu Technology Solutions

Dzisiaj jeden serwer może zapewnić moc obliczeniową 4–5 serwerów podobnej klasy wyprodukowanych 3–4 lata temu. Taka konsolidacja daje znaczne oszczędności zużycia energii potrzebnej do zasilania serwera, ale również chłodzenia serwerowni.

klientów? Czy stawiają oni na wynajem sprzętu i usług w chmurze, czy raczej wolą mieć wszystko pod kluczem i kontrolą we własnym centrum danych? Dzieląc się swoimi doświadczeniami, Marek Jaszczuk przyznaje, że na co dzień Action ma do czynienia i z jednym, i drugim rodzajem klientów. Można przy tym zakładać, że duża firma, która ma własne centrum danych, prędzej czy później uruchomi prywatną chmurę. Wtedy pozostaje już tylko krok do hybrydy, czyli połączenia z chmurą publiczną. Z kolei mniejsze przedsiębiorstwa zaczynają dostrzegać zalety braku posiadania infrastruktury przy jednoczesnej możliwości wynajęcia jej jako usługi.

RYNEK SERWERÓW W POLSCE WEDŁUG RODZAJU PROCESORA (MLN USD) 2002

2012

wartość 211,25 mln dol.

wartość 230,8 mln dol.

x86 32,53%

CISC 8,86%

RISC 58,61%

x86 76,90%

RISC 14,95% CISC 3,16%

EPIC 4,99% Źródło: IDC

– To trochę tak, jak przesiadka na samochód z automatyczną skrzynią biegów – zdecydowana większość kierowców już nie wraca do ręcznej, chociaż paradoksalnie nadal większość nowych aut na naszych drogach to manuale – podsumowuje Marek Jaszczuk. Adam Dyszkiewicz uważa, że wielu polskich klientów podchodzi sceptycznie do chmury, szczególnie publicznej. Wzmożone zainteresowanie Fujitsu odnotowuje natomiast w segmencie rozwiązań automatyzujących pracę zwirtualizowanej serwerowni, dzięki czemu powstaje chmura prywatna. Co ciekawe, Grzegorz Dobrowolski uważa, że o zagadnieniach związanych z chmurą mówi się teraz mniej. Przyznaje jednak, że cloud computing znalazł swoje miejsce na rynku i pojawia się coraz więcej jego implementacji. Podkreśla też, że chmura obliczeniowa to bardziej model świadczenia usług niż technologia sama w sobie.

JEŚLI NIE SPRZEDAŻ SERWERÓW, TO MOŻE CHMURA? Są klienci, którzy wolą posiadać własną infrastrukturę, jak też zwolennicy wynajmowania zasobów w chmurze. Firm korzystających z drugiej opcji będzie przybywać. Najwięksi dostawcy serwerów coraz chętniej działają na obu frontach. Oprócz sprzedaży urządzeń budują swoje chmury. To może być ryzykowna gra, zaczynają bowiem w ten sposób kopiować biznes swoich największych klientów. Niemniej jednak HP, Dell i IBM uruchomiły publiczne chmury wykorzystujące platformę OpenStack, by zarabiać na oferowaniu korporacyjnych rozwiązań hybrydowych. Swoją chmurę oferuje też Fujitsu. Z drugiej strony dostawcy –  broniąc się przed ofensywą chmury publicznej – próbują rozszerzyć ofertę w kierunku chmury prywatnej. Co ciekawe, Amazon, największy gracz na rynku publicznej chmury, dowodzi, że wymierne korzyści ze stosowania tego modelu znikają w chmurze prywatnej. Natomiast chmura publiczna na świecie według przewidywań Gartnera ma być warta w 2017 r. 131 mld dol.

Jak w takich warunkach, gdy producenci sprzętu coraz głębiej wchodzą w  chmury, powinni się zachować ich partnerzy – przygotowywać się do zostania także brokerami usług w chmurze publicznej? Marek Jaszczuk nie wyklucza takiego modelu, uważając, że włączenie do własnego portfolio dobrze zdefiniowanych i bezpiecznych usług świadczonych w chmurze wydaje się dość prostym i biznesowo uzasadnionym krokiem dla integratora. Pozostaje tylko kwestia marży. – Należy postawić sobie pytanie: czy rzeczywiście więcej zarobię, przekonując swojego klienta do zakupu usług w chmurze producenta X, czy instalując i obsługując mu rozwiązanie sprzętowo-aplikacyjne dostarczone we własnym zakresie – podsumowuje. Jego zdaniem pierwsza opcja pozwoli obsłużyć większą liczbę firm posiadających małe własne zasoby obliczeniowe. Z kolei drugą będą raczej wybierać klienci, którzy już dysponują dobrze rozwiniętym zapleczem technicznym i oczekują zwrotu z tej inwestycji.

PRZYSZŁOŚĆ SERWERÓW I CENTRUM DANYCH Konsolidacja oznacza większe wykorzystanie systemów o dużej gęstości. Jednak coraz wyższy poziom nasycenia rynku serwerów wirtualizacją nieuchronnie przybliża moment, w którym zyski z konsolidacji infrastruktury osiągną granice swoich możliwości. Co będzie wtedy napędzało technologiczny rozwój centrum danych? Coraz większe skomplikowanie środowisk wirtualnych już zaczyna być nowym wyzwaniem dla obsługi centrów danych. Kolejnym krokiem jest więc zastosowanie rozwiązań do automatyzacji

MAREK JASZCZUK dyrektor działu Enterprise, Action

Jeszcze długo będziemy zarówno unowocześniać obecne centra danych, jak też stawiać nowe. Ale i tak za 2–3 lata trzeba będzie je wszystkie modernizować.

pracy środowiska serwerowego, umożliwiających kontrolę nad skomplikowanymi środowiskami złożonymi z wielu różnych systemów operacyjnych i wirtualizatorów oraz zarządzanie zarówno warstwą sprzętową (serwery, pamięci masowe, przełączniki), jak też warstwą wirtualizacji i systemów operacyjnych. Ze strony konsumenckiej rozwój centrów danych będzie napędzała szybko rosnąca – względem mocy obliczeniowej procesorów – ilość danych. Za ten wzrost będą odpowiedzialni też klienci biznesowi, ale oni dodatkowo będą coraz bardziej wymagać maksymalnego bezpieczeństwa zasobów oraz nieprzerwanej w blisko 100 proc. dostępności danych i aplikacji. Konsolidacja i wirtualizacja są jedynie doskonałym sposobem na poprawę efektywności wykorzystania infrastruktury, a rozwój centrum danych napędzają aplikacje i usługi oraz generowana przez nie olbrzymia ilość danych. Firma Gartner wśród 10 najważniejszych trendów technologicznych w obszarze centrum danych (oprócz wirtualizacji) wymienia m.in.: Big Data oraz rozwój systemów Business Intelligence, usługi chmury w modelu hybrydowym, architekturę blokową (fabric computing), automatyzację i uproszczenie infrastruktury.

WYBRANI PRODUCENCI SERWERÓW I ICH DYSTRYBUTORZY NA POLSKIM RYNKU ACTINA: ACTION ADAX: INCOM ASUS: AB, ACTION CISCO SYSTEMS: ABC DATA, KONSORCJUM FEN, RRC, TECH DATA FUJITSU TECHNOLOGY SOLUTIONS: AB, ABC DATA, TECH DATA, VERACOMP

HP: AB, ABC DATA, ACTION, TECH DATA, VERACOMP IBM: ARROW ECS, AVNET, RRC, TECH DATA ORACLE/SUN: ARROW ECS SUPERMICRO: ACTION, AVNET THOMAS KRENN: SPRZEDAŻ BEZPOŚREDNIA TRILINE: AB maj 2013

11

SERWERY

K2 Internet rozwija

superchmurę

Oktawave z Dell Jak szacuje Gartner, wartość światowego rynku cloud computingu ma sięgnąć 150 mld dol. już w 2013 r. Z danych CSA wynika również, że aż 75 proc. firm jest zainteresowanych przenoszeniem danych do chmury w perspektywie najbliższych kilku lat.

MATERIAŁ POWSTAŁ WE WSPÓŁPRACY Z DELL.

W

iąże się to z  wzrastającym trendem rozszerzania portfolio usług interaktywnych przez przedsiębiorstwa z wielu różnych branży. Jednym z  rodzimych przykładów, stanowiących odpowiedź na ten trend, jest chmura obliczeniowa Oktawave – platforma stworzona przez firmę K2 Internet i wykorzystująca w części infrastrukturę Dell. Grupa K2 od ponad 16 lat zajmuje się zastosowaniem nowych technologii w rozwoju biznesu. Pracując z największymi organizacjami i  firmami w  Polsce, wykorzystuje Internet i nowe media w działaniach z obszarów marketingu, sprzedaży oraz obsługi klienta. Od początku istnienia głównym obszarem biznesowym K2 były usługi e-marketingu, jednak w 2012 r. firma zaczęła poszukiwania nowych źródeł przychodów. W ten sposób zrodziła się koncepcja Oktawave, która odpowiadała rosnącemu zapotrzebowaniu rynku na przenoszenie zasobów informatycznych, zarówno serwerów jak

Kluczowe korzyści z wdrożenia Dell dla K2  Skalowalne rozwiązanie zapewniające prostą i oszczędną ścieżkę dla dalszego rozwoju biznesu,  Oszczędność czasu i energii,  Niski koszt wdrożenia w porównaniu do oferty konkurencji.

12

maj 2013

i  oprogramowania, do chmury. Oferta komercyjna spółki zawierać miała skalowalne instancje serwerów, obiektowy storage, bazy danych, a także aplikacje w modelu usługowym. Podstawowym wyzwaniem dla rozwoju nowego biznesu było stworzenie odpowiedniej infrastruktury sieciowo-sprzętowej, a także aplikacyjnej dla Oktawave. Analizując różne możliwości rozwoju, K2 zwróciło uwagę na serwery rackowe i kasetowe w połączeniu z infrastrukturą sieci, współpracującą z  rozwiązaniami wirtualnej sieci lokalnej. Dla realizacji założenia, jakim było dostarczenie najlepszej w swojej klasie infrastruktury dla chmur, K2 poszukiwało m.in.: – obsługi zwirtualizowanego środowiska VMware, – szybkich połączeń sieciowych, – elastycznej architektury danych, – implementacji usług wirtualnej sieci lokalnej. K2 zdecydowało się na wybór oferty Dell. Początkowo rozważano rozwiązanie oparte na serwerach rackowych i przełącznikach Dell Force10. Następnie dokonano oceny współpracy przełączników Dell Force10 z przełącznikami środowiska wirtualnego i przeprowadzono testy implementacji, które zakończyły się pomyślnym wynikiem. Ostatecznie K2 zdecydowało się na rozwiązanie kasetowe, bazujące na serwerach Dell PowerEdge, wyposażonych w przełączniki Dell Force10 MXL oraz M6220 i M4001Q. Wybór podyktowany był wyjątkową wydajno-

OBUDOWA DELL M1000E

ścią systemu przy zachowaniu przystępnej ceny. Wyróżniającym elementem rozwiązania były przełączniki Dell Force10 MXL, pierwsze na rynku w standardzie 40GbE. Finalne rozwiązanie zostało oparte na dwóch obudowach M1000e, zawierających po 16 serwerów kasetowych Dell PowerEdge M915 oraz podwójnych parach przełączników MXL, M6220 i M4001Q. Główną przewagą infrastruktury opartej na serwerach kasetowych PowerEdge M915 jest energooszczędność, wydajność i  elastyczność centrum danych, dzięki zastosowaniu 64-rdzeniowych procesorów AMD o wysokiej przepustowości oraz łatwemu zarządzaniu systemem. Z kolei przełączniki Dell Force10 MXL 10/40GbE pozwalają na efektywne skonsolidowanie środowiska wirtualizacji i zwiększenie przepustowości najważniejszych połączeń sieciowych. Lokalizacja serwerów w  Warszawie daje firmie przewagę nad ofertą globalnych konkurentów na rodzimym rynku. System działa bowiem zgodnie z polskimi i unijnymi przepisami w obszarze ochrony danych osobowych. Klienci mają także dostęp do dodatkowych zasobów obliczeniowych w ciągu kilku minut i płacą tylko za ich wykorzystanie z dokładnością do godziny. Dzięki mechanizmowi monitorowania zapotrzebowania na moc obliczeniową, Oktawave w dynamiczny sposób zmienia parametry świadczonej usługi. Oktawave Cloud Storage umożliwia natomiast przechowywanie ogromnych ilości danych oraz błyskawiczny dostęp dla wszystkich użytkowników.

Dodatkowe informacje: ADRIAN SŁOJEWSKI, COHN & WOLFE, ADRIAN.SLOJEWSKI@COHNWOLFE.PL

SERWERY

IBM Flex System – lider systemów kasetowych IBM, projektując rozwiązanie IBM Flex System, skorzystał z dziesięcioletniego doświadczenia w tej dziedzinie. Usprawnił wszystkie elementy systemu kasetowego – serwery, obudowę, pamięć masową, układ wejścia-wyjścia, funkcje sieciowe i moduł zarządzania.

IBM 

Flex System to propozycja dla firm, które potrzebują niestandardowej konfiguracji serwerów, dostosowanej do swoich potrzeb, wykorzystując najbardziej zaawansowany na rynku serwer kasetowyy z procesoremi x86 oraz IBM Power i pamięcią o maksymalnej wydajności. Rozwiązanie to daje możliwość podwojenia gęstości aplikacji na tej samej powierzchni centrum danych oraz obniżenia kosztów konsumowanej przez urządzenia energii nawet o 40 proc.

W serwerach kasetowych Flex System można zainstalować dwa 2,5-calowe dyski SAS/SATA/SSD lub do ośmiu 1,8-calowych dysków SSD.

WĘZŁY OBLICZENIOWE

OBUDOWA

Serwery kasetowe składające się na węzły obliczeniowe Flex System (x220, x240 i x440) wyróżniają się dużą elastycznością, wydajnością procesorów i pojemnością pamięci. Można kupić konfigurację z dwoma lub czterema procesorami Intel Xeon E5– 2400, E5–2600 lub E5–4600 oraz maks. 768 GB (serwery z dwoma gniazdami CPU) lub 1,5 TB (serwery z czterema gniazdami) pamięci operacyjnej DDR3. Flex System pozwala na łączenie dwóch światów systemów komputerowych – rozwiązań o znaczeniu krytycznym, najczęściej wykorzystujących technologię RISC oraz serwerów aplikacji x86. W portfolio kasetowych serwerów klasy RISC znajdują się dwugniazdowe serwery p24 L, p260 oraz czterogniazdowy moduł p460, który pozwala na tworzenie wewnętrznie nadmiarowego środowiska za pomocą funkcjonalności dual Virtual I/O Server (VIOS).

Obudowa IBM Flex System została zaprojektowana z myślą o urządzeniach nowych generacji. Jest w niej 14 wnęk o połówkowej lub 7 o pełnej szerokości węzłów obliczeniowych, umożliwiających instalację dowolnych kombinacji węzłów pamięci masowej i węzłów rozszerzeń. Dodatkowe 4 wnęki są przeznaczone na skalowalne, szybkie przełączniki (standard Ethernet – od 1 Gb do nawet 40 Gb). Konstrukcja obudowy zapewnia rezerwową przestrzeń, która może zaspokoić zapotrzebowanie na energię i chłodzenie w przyszłości. Łącznie można w niej zainstalować sześć zasilaczy 2500 W (z nadmiarowością wielokrotną N+N lub pojedynczą N+1) oraz maksymalnie osiem skalowalnych wentylatorów. Zapewniona jest też pełna nadmiarowość zasilaczy, wentylatorów, układu wejścia-wyjścia i innych głównych komponentów.

PAMIĘĆ MASOWA I UKŁAD WEJŚCIA–WYJŚCIA W rozwiązaniu IBM Flex System można wykorzystać różne rodzaje pamięci masowych. Podstawową jest wbudowany moduł IBM Flex System Flash, który w każdym węźle Flex System zapewnia maks. 1,6 TB na ośmiu dyskach SSD klasy enterprise. Dyski są podłączone do kontrolera IBM ServeRAID 1 GB Flash zoptymalizowanego pod kątem pracy z dyskami SSD i wspomaganego przez superkondensator. Może on przetworzyć nawet 475 tys. operacji wejścia-wyjścia na sekundę, co zapewnia znakomitą wydajność baz danych z rozproszonymi aplikacjami, wykonujących zadania z zakresu inteligentnej analizy danych biznesowych, przetwarzaana nia transakcji i strumieniowej transmisji mu multimedialnej. Druga możliwość to wykorzystanie D wb wbudowanej macierzy dyskowej IBM Sto Storwize V7000 z  maksymalnie dwunas nastoma 3,5-calowymi dyskami HDD (o łącznej pojemności maksymalnie 36 TB) (o ł bądź dwudziestoma czterema 2,5-calowybąd mi dyskami SSD lub HDD. Rozwiązanie to umożliwia wirtualizację pamięci masowej um IBM i innych producentów oraz migrację infrastruktury pamięci masowej bez przerywania pracy systemu.

Dostarczane z rozwiązaniem Flex System oprogramowanie IBM Flex System Manager umożliwia łatwe zdalne zarządzanie całym systemem za pomocą jednego interfejsu. Zapewnia zarządzanie wszystkimi zasobami fizycznymi i wirtualnymi, dzięki czemu (względem tradycyjnych systemów) koszty zarządzania mogą być obniżone nawet o 50 proc., proces konfiguracji systemu przyspieszony o 66 proc., a przydzielanie pojemności pamięci masowych potrzebującym aplikacjom skrócone nawet o 98 proc.

Dodatkowe informacje: RAFAŁ GOSZYK, PURELAB MANAGER, ARROW ECS, RAFAL.GOSZYK@ARROWECS.PL maj 2013

13

MATERIAŁ POWSTAŁ WE WSPÓŁPRACY Z ARROW ECS.

ZARZĄDZANIE SYSTEMAMI

PAMIĘCI MASOWE

Chmura Chmura jeszcze nie zagraża pamięciom masowym

Sytuacja na rynku pamięci masowych jest znacznie lepsza niż na serwerowym. Mimo że obroty w czasie kryzysu też spadły, producenci mogą być spokojni o przyszłość, jako że ilość generowanych danych rośnie wykładniczo. Analitycy szacują wręcz, że wynalazczość w dziedzinie przechowywania danych będzie musiała postępować w podobnym tempie. KRZYSZTOF JAKUBIK

W

iele technologii staje się popularnych w  Polsce z  pewnym opóźnieniem, co z jednej strony można uznać za wadę i brak odwagi osób odpowiedzialnych za IT na polskim rynku, a  z drugiej za zaletę –  nie inwestujemy w niepewne, niesprawdzone technologie, czekamy na opinie i uwagi pierwszych użytkowników oraz reakcję producentów tych rozwiązań. Ten trend widać szczególnie na rynku pamięci masowych. Przykładem jest deduplikacja, czyli proces analizy danych i eliminowania duplikatów, głównie w  celu

EWELINA KURZEJA Product Manager EMC, S4E

Często zdarza się, że użytkownicy w mniejszych firmach do przechowywania wszystkich danych kupują najtańsze na rynku macierze, z niecertyfikowanymi dyskami i bez gwarantowanego pełnego wsparcia. Później szybko żałują, bo wydajność takich urządzeń, szczególnie przy obsłudze środowiska wirtualnego, okazuje się niewystarczająca, a awaryjność – dość duża. Tymczasem wystarczy przemyślana decyzja na początku inwestycji, aby zyskać gwarancję bezpieczeństwa danych w rozsądnej cenie.

14

maj 2013

oszczędności miejsca. Chociaż na świecie takie rozwiązania pojawiły się już w połowie ubiegłej dekady, to w Polsce ich aktywna sprzedaż trwa dopiero od paru lat. Deduplikacja jest najbardziej efektywna przy backupie danych, jej skuteczność sięga wtedy ponad 90 proc. Wzrostowi jej popularności w Polsce pomogło pojawienie się tanich macierzy dyskowych, na które mogą sobie pozwolić także małe i średnie firmy. Deduplikacja w połączeniu z niską ceną za jeden gigabajt pozwalają na przechowywanie backupu na dostępnych online dyskach, a niekoniecznie wyłącznie na taśmie. Dzięki eliminacji duplikatów łatwiej można też wykonywać kopię zapasową danych (replikację) na urządzenie znajdujące się w innym budynku (przez sieć lokalną) lub nawet w innym mieście (przez Internet lub dzierżawione łącze).

WALKA O RYNEK TOP-SMB Nietrudno zauważyć, że od paru lat praktycznie wszyscy dostawcy macierzy dyskowych rozpoczęli walkę o rynek firm średnich i trochę mniejszych (50– –200 stanowisk komputerowych). Efektem jest wysyp macierzy dyskowych do montażu w szafie przemysłowej mieszczących 12–15 napędów. Takie urządzenia do oferty wprowadzili najwięksi dostawcy (Dell, EMC, Fujitsu, Hitachi Data Systems, HP, IBM, Oracle), jak też ci, których oferta do niedawna koncentrowała się na rynku odbiorców prywatnych, SOHO

i małych firm (D-Link, Iomega, Netgear, QNAP, Synology, Thecus). Przy dostępnych dziś dyskach Serial ATA o pojemności 4 TB takie macierze dają możliwość udostępnienia w firmowej sieci nawet 48 TB przestrzeni, co jest limitem naprawdę trudnym do osiągnięcia przez większość firm (a tę pojemność często można rozbudować poprzez dołożenie kolejnych półek dyskowych). Pozostaje kwestia wydajności – do pracy jako tradycyjny serwer plików czy repozytorium mniejszej bazy danych takie macierze nadają się idealnie. Bez problemu obsłużą też kilka lub kilkanaście wirtualnych serwerów (co też jest liczbą wystarczającą dla większości małych i średnich firm), jednak próba uruchomienia większej liczby wirtualnych maszyn może już poskutkować znacznym spadkiem wydajności. Użytkownicy takich macierzy powinni być zadowoleni z coraz większej liczby wprowadzanych do nich funkcji (szczególnie w ofercie tych firm, które wyrosły z rynku małych rozwiązań). Realizowana jest koncepcja All-in-One, dzięki czemu takie macierze oferują już nie tylko możliwość przechowywania i udostępniania danych w postaci plików i bloków (protokoły NFS/iSCSI), ale też mogą służyć jako cyfrowe rejestratory systemów monitoringu wideo, serwery poczty elektronicznej i stron internetowych (włącznie z możliwością uruchomienia systemu zarządzania treścią na stronie), serwery drukarek, autentykacyjne itd. Producenci uruchamiają

też „sklepy” z aplikacjami, które można zainstalować na macierzy, dostosowując ich funkcjonalność do potrzeb firmy.

NIE BĘDZIE BACKUPU? Rosnąca wykładniczo ilość danych powoduje, że przed nami rewolucja w obszarze zarządzania przechowywaniem i zabezpieczaniem danych. Hubert Yoshida, wizjoner branży pamięci masowych i wiceprezes Hitachi Data Systems, już rok temu prognozował, że lada chwila kłopoty zacznie sprawiać zwykły backup. Jego zdaniem danych do zabezpieczenia jest zbyt dużo, a okna backupowe kurczą się albo całkowicie znikają. Wszystko więc wskazuje na to, że w przyszłości nie będziemy w  stanie wykonywać backupu – ani lokalnego, ani tym bardziej zdalnego do oddalonego centrum danych. Dane zaś będą zabezpieczane w czasie rzeczywistym poprzez replikację, a nieprzerwany dostęp do nich będą zapewniały profesjonalne rozwiązania połączone w klastry, gwarantujące ciągłą pracę nawet w wypadku wystąpienia zdarzeń losowych. Dziś praktycznie wszystkie systemy backupu umożliwiają przechowywanie poprzednich wersji plików, ale wkrótce ta funkcjonalność ma pojawić się też w zwykłych serwerach plików, co ostatecznie ma wyeliminować konieczność sporządzania backupu. Będzie za to potrzeba umiejętnego oddzielenia danych od aplikacji. Dane, szczególnie archiwalne, nie będą ulegały zmianom –  musi być zapewniona możliwość ich odczytania nawet po wielu latach. Natomiast aplikacje będą się zmieniały i coraz częściej będą dostarczane w postaci wirtualnej (w chmurze prywatnej lub publicznej). Do tej opinii z pewnym dystansem podchodzi Ewelina Kurzeja, Product Manager EMC w firmie dystrybucyjnej S4E. – Z backupem na pewno szybko się nie pożegnamy – wciąż prowadzimy bardzo dużo takich projektów, a każdy z nich jest zakończony wdrożeniem. To zazwyczaj inwestycja na kilka lat, przy planowanym rozwoju środowiska i  skalowalności zaproponowanego rozwiązania. Natomiast faktycznie koncepcja backupu ewoluuje, obserwujemy masowe przechodzenie na backup dyskowy, ponieważ klienci chcą

przede wszystkim skrócić czas odtworzenia danych. Realnym zagrożeniem dla backupu, szczególnie w małych firmach, może być backup online – twierdzi. Czy opisana sytuacja oznacza rychły koniec systemów backupu na taśmy? Jako ich podstawowe zalety były wskazywane niski koszt przechowywania danych i możliwość wywiezienia nośników z firmy. Korzyści płynące z obu tych zalet nie są już tak duże – przyczyniły się do tego możliwość prowadzenia deduplikacji, coraz tańsze dyski oraz replikacja za pośrednictwem szybkich łączy internetowych. Dostawcy rozwiązań taśmowych jednak nadal się bronią. Słusznie wskazują, że tego typu systemy wciąż świetnie sprawdzają się tam, gdzie zachodzi potrzeba archiwizowania dużych ilości informacji i przechowywania przez długi czas. Konieczne jest oczywiście przegranie danych na nośnik w nowszym standardzie średnio co 7–10 lat i zapewnienie logicznej kompatybilności wstecznej. Naturalne też jest, że z tego modelu archiwizacji korzystać będą głównie największe przedsiębiorstwa, można więc założyć, że w małych i średnich firmach koniec zastosowania taśm jest bliski.

BACKUP DO CHMURY Dużo emocji w ostatnich latach wywołała koncepcja backupu online. Zaczęło się od tradycyjnych obaw związanych z bez-

ROBERT GRZYB National Key Account Manager, Iomega NAS Division, Lenovo

Klienci bardzo cenią możliwość replikacji danych przez Internet do innych lokalizacji, bez konieczności wdrażania jakiejkolwiek dodatkowej infrastruktury. W ten sposób małe i średnie firmy mogą tworzyć własne standardy disaster recovery, systemów dystrybucji danych z centrali do oddziałów (lub na odwrót) oraz zarządzania archiwizacją danych nie tylko na poziomie lokalnego data center, ale globalnie – na poziomie całej firmy.

pieczeństwem (czy u usługodawcy siedzi administrator i przegląda sobie moje dane?) po kwestie rzeczywistej gwarancji dostępności danych przechowywanych w zewnętrznej firmie. Emocje już opadły na tyle, że coraz więcej firm rozważa ten pomysł. Oczywiście, różne są sposoby na jego implementację, jak i  różne potrzeby firm. Podstawowy podział jest wytyczany przez źródło danych do zabezpieczenia – może być nim firmowy serwer, jak też stacje robocze użytkowników. W obu przypadkach jednak usługa backupu online musi być

maj 2013

15

PAMIĘCI MASOWE ŚWIATOWY RYNEK MACIERZY DYSKOWYCH

KRZYSZTOF CELMER dyrektor polskiego oddziału NetApp

Dzisiaj wiele nawet dość małych firm zbiera różnego rodzaju dane, z których – po odpowiedniej analizie – mogłyby zrobić użytek biznesowy i przekuć wnioski na zyski. Dane te ułatwiają przeanalizowanie, czy klienta można obsłużyć efektywniej lub wprowadzić w firmie dodatkowe oszczędności. Branża dostawców serwerów i pamięci masowych jest już na to gotowa – dostępnych jest wiele ciekawych, bardzo wydajnych i niedrogich rozwiązań, z których może skorzystać nawet bardzo mała firma.

16

maj 2013

23,4%

23,4% 9,0%

8,6%

11,4%

15%

11,6%

16,0%

17,6%

20%

16,2%

25%

16,4%

30%

24,0%

35%

22,5%

znacznie bardziej zaawansowana niż jej odpowiednik do backupu pojedynczej stacji roboczej – musi zawierać konsolę administracyjną zapewniającą wdrożenie polityk wykonywania kopii i zarządzania nimi. Niezmiernie ważna jest też możliwość zaszyfrowania zabezpieczanych danych własnym kluczem. Przy backupie stacji roboczych należy też sprawdzić, czy istnieje możliwość wykonywania kopii zarówno samych danych, jak też całego systemu operacyjnego, co przyspieszy proces ewentualnego późniejszego ich odzyskania. Pracownicy powinni też mieć możliwość uzyskania samodzielnego dostępu do utraconych plików (lub ich wcześniejszych wersji), bez konieczności kontaktowania się z informatykami. Systemów backupu online są już dziesiątki tysięcy. Jak wybrać ten właściwy? Przede wszystkim kierując się funkcjonalnością i możliwością zaspokojenia potrzeb firm, reputacją dostawcy i wymogami prawa. W większości przypadków backupowane dane będą zawierały jakieś dane osobowe, a te – zgodnie z ustawą o ochronie danych osobowych – nie powinny opuszczać Unii Europejskiej. Z tego powodu zawsze należy sprawdzić, gdzie fizycznie znajduje się centrum danych, w którym wylądują nasze dane. O ile trudno zdobyć taką informację dla usługi prywatnego backupu online, o tyle przy usłudze dla firm jest ona podawana bez problemu.

10% 5% 0%

EMC MC

BM IBM

IIV KW. 2011

HP

DELL

NETAPP

INNI

IIV KW. 2012 Źródło: IDC

O  usługi backupu online rozszerzają ofertę dostawcy sprzętu. EMC jest właścicielem usługi Mozy, jednej z najbardziej popularnych w tym segmencie. Z kolei specjalizująca się w backupie korporacyjnym firma Evault, należąca do Seagate’a, wskazuje na korzystne ceny swoich usług dzięki możliwości preferencyjnego nabywania nośników. Swoją usługę ma też Symantec, jeden z liderów rynku oprogramowania do backupu i zarządzania danymi. Pojawiają się też ciekawe pomysły usługodawców, którzy chcą się wyróżnić w obszarze backupu online. Symform proponuje usługę rozproszonego backupu na pamięciach masowych… innych użytkowników usługi. Pojemność większą niż 10 GB możemy kupić lub dostać za darmo pod warunkiem przeznaczenia części własnej przestrzeni na dane innych użytkowników. Serwery Symform tak zarządzają przepływem danych, aby awaria pamięci masowych jednego z dostawców lub ich zwyczajne odłączenie od Internetu nie spowodowały utraty danych. Oczywiście wszystkie dane są też szyfrowane.

PAMIĘCI TEŻ MOŻNA WIRTUALIZOWAĆ

W firmach, gdzie danych jest dużo, a ich ilość niebezpiecznie rośnie, zachodzi konieczność wprowadzenia narzędzia automatyzującego zarządzanie nimi. Zresztą tam, gdzie jest dużo danych, pojawia się też potrzeba zapewnienia ich wysokiej dostępności, nawet podczas prac serwi-

sowych. Odpowiedzią na te wyzwania jest wirtualizacja maksymalnie dużej ilości zasobów w centrum danych. Jej główną zaletą jest umożliwienie rozbudowy infrastruktury IT bez konieczności wyłączania działającej na niej usługi (co w wielu systemach o kluczowym znaczeniu można porównać do wymiany uszkodzonego silnika w lecącym samolocie). O ile z wirtualizacją serwerów (i częściowo desktopów) wielu administratorów IT już się oswoiło, o tyle wirtualizacja pamięci masowych wciąż czeka na zdobycie należnej jej popularności. Przy szybko rosnącej ilości danych macierze dyskowe cały czas trzeba wymieniać na szybsze i coraz bardziej pojemne –  proces ten odbywa się dziś średnio co trzy lata. Dzięki wirtualizacji możemy dołączyć do systemu kolejną macierz i powoli przenieść na nią dane, nie tracąc do nich dostępu. Gdy wszystko będzie w porządku, można wyłączyć i wyeliminować stare urządzenie. W  dużych środowiskach wymagających zwirtualizowania macierzy dyskowych stosuje się sprzętowe wirtualizatory, dostępne w ofercie EMC, Hitachi Data Systems i IBM. Dla MSP taka inwestycja będzie jednak zbyt droga i po prostu niepotrzebna. W sprzedaży dostępne są alternatywne rozwiązania programowe – do niedawna oferowała je firma Virsto (parę miesięcy temu została kupiona przez VMware’a i jej produkty zostaną włączone do oferty tego producenta), a na polskim rynku najpopularniejszym dostawcą tego typu rozwiązań jest DataCore Software.

IDZIE NOWE Na rynku pamięci masowych coraz częściej można spotkać nowe firmy, które próbują zmieniać zastane modele przechowywania i  zabezpieczania danych oraz wyszukać dla siebie dobrą do zagospodarowania niszę. W efekcie otrzymujemy ciekawe rozwiązania, które są przystosowane do pracy z konkretnymi rodzajami danych. Nimble Storage stworzył macierze dyskowe gotowe do przeprowadzania ciągłego backupu głównie wirtualnych środowisk i  baz danych na dyski SSD. Oprogramowanie macierzy oparto na architekturze CASL (Cache Accelerated Sequential Layout), która zapewnia kompresję danych w  czasie rzeczywistym, inteligentne indeksowanie danych oraz możliwość szybkiej replikacji danych z macierzy poprzez sieć WAN. Kolejną godną zainteresowania ofertę ma firma Tintri, która stworzyła macierze dyskowe przeznaczone wyłącznie do współpracy z wirtualnymi maszynami. Zostało opracowane specjalne oprogramowanie gotowe do pracy z głównymi wirtualizatorami i wirtualnymi dyskami. Umożliwia ono monitorowanie środowiska wirtualnych maszyn, ale też dosto-

JAROSŁAW RAĆKOWICZ Channel Manager, Hitachi Data Systems

Hitachi od zawsze w Polsce prowadzi sprzedaż przez kanał partnerski, także małym i średnim firmom. Poszukujemy nowych partnerów, którzy dobrze czują się w tym segmencie rynkowym. Oczekujemy od nich, że będą dla swoich klientów partnerami merytorycznymi – nie ograniczą się tylko do sprzedaży i wdrożenia sprzętu, ale również pokażą, jak zoptymalizować obecne zasoby pamięci masowych i doprowadzić do zmniejszenia kosztów TCO. W zamian mogą liczyć na rozwój kompetencji i odpowiednio wysoką marżę.

sowuje strumień danych do aktualnych potrzeb wydajnościowych środowiska wirtualnego, bez konieczności używania pośredniego oprogramowania zarządzającego fizyczną i wirtualną infrastrukturą. Budując środowisko wirtualne, warto zadbać o szybki dostęp do wirtualnych

maszyn z urządzeń uzyskujących połączenie przez Internet. Pomogą obecne na polskim rynku już od kilku lat rozwiązania do przyspieszenia transmisji danych w sieciach rozległych. Ich głównym zadaniem jest optymalizacja dostępu do centralnych zasobów i  aplikacji, wykorzystujących w swym działaniu przede wszystkim protokół TCP, ale także systemy plików (CIFS i  NFS), dostęp web (HTTP, HTTPS), komunikację pocztową (Microsoft Exchange, Lotus Notes), transfer plików (FTP), zdalny dostęp (Citrix ICA, RDP) itd. Największą ofertę akceleratorów ma Riverbed (lider tego rynku), ale takie rozwiązania można też znaleźć w ofercie firm BlueCoat, Cisco Systems, Citrix i Juniper Networks. Firmom integratorskim zainteresowanym rozszerzeniem oferty w zakresie pamięci masowych i ochrony danych zdecydowanie można polecić poszukiwanie ciekawych niszowych rozwiązań. Większość nowych w tym obszarze przedsiębiorstw jest zainteresowanych podjęciem współpracy z nowymi partnerami, w tym na rynku Europy Środkowo-Wschodniej. To szansa na wyróżnienie się swoją ofertą i zdobycie możliwości wdrożenia tam, gdzie wiele innych firm nie dało rady.

WYBRANI PRODUCENCI PAMIĘCI MASOWYCH I ICH DYSTRYBUTORZY NA POLSKIM RYNKU SPRZĘT ADAPTEC: ACTION, ALSTOR D-LINK: AB, ABC DATA, ACTION, S4E, TECH DATA, VERACOMP EMBEDOS: PASSUS EMC: ARROW ECS, S4E EMULEX: AVNET, EPA SYSTEMY EXAGRID: ZYCKO FUJITSU TECHNOLOGY SOLUTIONS: AB, ABC DATA, TECH DATA, VERACOMP HITACHI DATA SYSTEMS: AVNET HGST: ASBIS, AVNET, TECH DATA HP: AB, ABC DATA, TECH DATA, VERACOMP IBM: ARROW ECS, AVNET, RRC, TECH DATA IMATION: ACTION, ALSTOR, DISKUS, VERACOMP INFORTREND: ALSTOR, ASBIS, EPA SYSTEMY, VERACOMP LENOVOEMC/IOMEGA: AB, S4E, TECH DATA, VERACOMP LSI: ALSTOR, ASBIS, AVNET

NETAPP: ARROW ECS NETGEAR: AB, ABC DATA, ACTION, TECH DATA, VERACOMP ORACLE/SUN: ARROW ECS OVERLAND STORAGE: ALSTOR, ZYCKO PROMISE: ALSTOR, ASBIS, FORMAT QLOGIC: ASBIS, AVNET, VERACOMP QNAP: EPA SYSTEMY, KONSORCJUM FEN, VERACOMP QUANTUM: S4E, VERACOMP RADWARE: CLICO, VERACOMP SEAGATE: AB, ABC DATA, ASBIS, AVNET, GDS DISTRIBUTION, INCOM SEPATON: S4E SYNOLOGY: AB, EPA SYSTEMY, VERACOMP TANDBERG DATA: ABC DATA, ACTION, ALSTOR, VERACOMP THECUS: AB, EET, EPA SYSTEMY TOSHIBA (DYSKI): AB, ABC DATA, ACTION, ALSTOR, ASBIS, AVNET WD: ABC DATA, ACTION, INCOM, TECH DATA

ZENITH ARCA: S4E ZYXEL: AB, ACTION, ED’ SYSTEM, RRC OPROGRAMOWANIE ACRONIS: CLICO ARKEIA: DAGMA ASIGRA: ZYCKO ATEMPO: S4E CA: ALSTOR, VERACOMP COMMVAULT: ALSTOR, AVNET DATACORE SOFTWARE: AVNET, CONNECT DISTRIBUTION EMC: ARROW ECS, S4E FALCONSTOR: AVNET, S4E, ZYCKO HP: AB, ABC DATA, TECH DATA, VERACOMP IBM: ARROW ECS, AVNET, RRC, TECH DATA NETAPP: ARROW ECS SYMANTEC: AB, ABC DATA, ARROW ECS, TECH DATA, VERACOMP VEEAM: AVNET, VERACOMP

maj 2013

17

PAMIĘCI MASOWE

LenovoEMC LifeLine 4.0 – system NAS nowej generacji Nowe oprogramowanie do macierzy dyskowych marki LenovoEMC zapewnia zmienione i rozbudowane mechanizmy bezpieczeństwa, umożliwiające łatwe i efektywne przechowywanie, współdzielenie i zabezpieczanie danych.

W

edług niektórych specjalistów większość systemów operacyjnych do serwerów NAS dla małych i średnich firm oraz oddziałów przedsiębiorstw jest do siebie bardzo podobna, a  różnice występują w dodatkowych – mniej lub bardziej potrzebnych – aplikacjach, które możemy doinstalować do systemu. Z całą pewnością nie dotyczy to systemu operacyjnego LifeLine dla macierzy dyskowych Iomega, który powszechnie uważany jest nie tylko za jeden z najbardziej łatwych w obsłudze, ale również zawierający najwięcej funkcji biznesowych. Najnowsza wersja systemu, zaprezentowana przez firmę LenovoEMC w kwietniu 2013 r., to LifeLine 4.0. Jest dostępna dla właścicieli serwerów plików NAS z serii ix oraz px w formie pliku do pobrania ze strony. Oczywiście będzie też preinstalowana na wszystkich nowych, pojawiających się od maja br. w sprzedaży serwerach plików Iomega i LenovoEMC.

MATERIAŁ POWSTAŁ WE WSPÓŁPRACY Z LENOVO.

LIFELINE – CO NOWEGO? Wśród nowych i  uaktualnionych funkcji LifeLine 4.0 znalazły się m.in. kopie migawkowe woluminów, które są wykonywane podczas zapisu danych przez urządzenie, a także mechanizm SSD Caching (zarządzanie pamięcią podręczną), wspomagający zarządzanie dyskami SSD w  celu przyspieszenia operacji zapisu i odczytu danych. Umożliwia on też automatyczne buforowanie w pamięci podręcznej macierzy często zapisywanych i  odczytywanych plików oraz ochronę danych w trybie RAID. Nowa funkcja IVX (Integrated Virtualization Technology) umożliwia uruchamianie wielu maszyn wirtualnych na

18

maj 2013

macierzach stelażowych Iomega px12– –400r oraz px12–450 r. Mogą one działać pod kontrolą systemu Linux lub Windows, a także korzystać z własnego wirtualizowanego sprzętu, takiego jak karty sieciowe, dyski oraz karty graficzne. Dzięki temu możliwe staje się uruchomienie wielu rodzajów usług bezpośrednio na serwerze pamięci masowych, w tym: Windows Active Directory, Windows Security (ACL, Kerberos), serwer DHCP, Linux Apache Web Server i serwer My SQL. Kolejną nowością jest mechanizm Active Directory Hybrid Authentication, który umożliwia wykonanie lokalnej autentykacji, jeśli zdalny kontroler domeny nie jest dostępny. Natomiast funkcja Active Directory High Availability pozwala na podłączenie macierzy do wielu kontrolerów domeny i dostęp do drugiego kontrolera, jeśli podstawowy nie jest osiągalny. LifeLine 4.0 umożliwia zwiększenie bezpieczeństwa danych udostępnianych przez Internet za pomocą wbudowanych funkcji, dzięki którym tylko wyznaczone katalogi lub pliki mogą być dostępne w sieci. Dostępny jest również serwer mediów Twonky Media Server 7 zgodny z DLNA / UPnP, z funkcją Twonky Media Beam do obsługi mediów z poziomu urządzeń mobilnych.

CO ZYSKUJĄ RESELLERZY SPRZEDAJĄCY PAMIĘCI MASOWE

LENOVOEMC? Każdy reseller, który podejmie współpracę w  zakresie sprzedaży macierzy LenovoEMC, zyskuje możliwość skorzystania z  opieki polskojęzycznego Centrum Wsparcia Technicznego. Uczestnictwo w Ioclub Premier Partner Program gwarantuje dodatkowe korzyści, w tym bardzo wysokie bonusy sprzedażowe. Partnerzy zyskują też dostęp do przejrzystego, jasnego systemu rejestracji projektów gwarantującego bezpieczeństwo transakcji oraz wysoki poziom marży. Użytkownicy końcowi natomiast mogą samodzielnie przekazywać uszkodzone urządzenie do serwisu LenovoEMC, bez konieczności angażowania w ten proces sprzedawcy.

Dodatkowe informacje: ROBERT GRZYB, NATIONAL KEY ACCOUNT MANAGER STORAGE DIVISION LENOVO TECHNOLOGY, RGRZYB@LENOVO.COM

1-1 CRN.indd 1

4/25/13 12:50 PM

PAMIĘCI MASOWE

Nieskończone kopie migawkowe w serwerach ReadyNAS NETGEAR zmodernizował ofertę w zakresie serwerów plików NAS oferowanych pod marką ReadyNAS. Pojawił się nowy interfejs użytkownika oraz lepsze parametry sprzętowe.

N

owa seria serwerów plików firmy NETGEAR to odpowiedź na coraz silniejszą konkurencję produktów pochodzących z Państwa Środka. Spowodowały one znaczny wzrost zainteresowania wielofunkcyjnymi serwerami plików, mimo że – oferując wiele możliwości – nie były w stanie sprostać oczekiwaniom dotyczącym wydajności. NETGEAR wprowadził na rynek trzy nowe serie urządzeń zaprojektowanych zupełnie od początku. Zmianie uległo oprogramowanie, które teraz jest bardziej estetyczne oraz łatwiejsze w  obsłudze. Zostało zaprojektowane przez najlepszych specjalistów od optymalizacji interfejsów użytkowych. Ale nie tylko interfejs użytkownika uległ zmianie. Nowe serie to również rozbudowany sprzęt. Każda seria otrzymała dwa razy więcej pamięci RAM

w porównaniu z poprzednikami – urządzenia z serii 100 mają 512 MB, a z serii 300 i 500 – 2 GB. Dodatkowo serwery wyposażono w  nowocześniejsze procesory, a w przypadku serii 300 i 500 umożliwiono również rozbudowę o dodatkową półkę dyskową, zwiększając tym samym skalowalność rozwiązania nawet do 84 TB w przypadku modelu RN516.

PEŁNA OCHRONA DANYCH Do nowości w serwerach ReadyNAS należy również darmowy antywirus, który – w przeciwieństwie do rozwiązań konkurencyjnych – działa w czasie rzeczywistym, a nie według ustalonego wcześniej harmonogramu. Daje tym samym szansę na wykrycie szkodliwego oprogramowania, gdy tylko plik zostanie przeniesiony na urządzenie NAS. Kolejną ważną cechą

MATERIAŁ POWSTAŁ WE WSPÓŁPRACY Z NETGEAR.

NOWA RODZINA SERWERÓW PLIKÓW NETGEAR ReadyNAS 102

ReadyNAS 104

ReadyNAS 312

ReadyNAS 314

ReadyNAS 316

ReadyNAS 516

Procesor

Marvell Armada 370 1,2 GHz

Marvell Armada 370 1,2 GHz

Intel Atom 2,1 GHz dual-core

Intel Atom 2,1 GHz dual-core

Intel Atom 2,1 GHz dual-core

Intel Ivy Bridge i3-3220 3,3 GHz dual-core

Pamięć

512 MB

512 MB

2 GB

2 GB

2 GB

4 GB ECC

2

4

2

4

6

6

SATA/ /SSD 2,5”/3,5”

SATA/ /SSD 2,5”/3,5”

SATA/ /SSD 2,5”/3,5”

SATA/ /SSD 2,5”/3,5”

SATA/ /SSD 2,5”/3,5”

SATA/ /SSD 2,5”/3,5”

1

1

1

2

2

3

8 TB / / brak

16 TB / / brak

8 TB / / 28 TB

16 TB / / 56 TB

24 TB / / 64 TB

24 TB / / 84 TB

1

2

2

2

2

2

1x2.0, 2x3.0

1x2.0, 2x3.0

1x2.0, 2x3.0

1x2.0, 2x3.0

1x2.0, 2x3.0

1x2.0, 2x3.0

Maks. liczba dysków Typy dysków Liczba portów eSATA Maks. pojemność / / z EDA500 Liczba portów Gigabit LAN Porty USB

20

maj 2013

jest możliwość wykonania kopii zapasowej w sposób zdalny z komputera Apple wyposażonego w system operacyjny Mac OS. Do tej pory kopie mogły być sporządzane tylko lokalnie. Użytkownicy mogą też tworzyć nieograniczoną liczbę kopii migawkowych. Migawka, czyli obraz struktury plików wykonany w konkretnym czasie, umożliwia odtworzenie tych plików bez wykorzystywania dużych przestrzeni dyskowych. Dzięki temu użytkownik może sporządzać kopię zapasową nawet co godzinę. NETGEAR jako pierwszy opracował system umożliwiający przechowywanie w praktyce nieograniczonej liczby kopii migawkowych. Dodatkowo w połączeniu ze zdalną replikacją zarządzaną z poziomu chmury użytkownik uzyskuje niespotykany dotąd poziom bezpieczeństwa danych. Zmienił się również system instalacji dodatkowych aplikacji. W serwerach ReadyNAS z nowej serii NETGEAR znajdzie się bazar pozwalający użytkownikom na pobieranie darmowych oraz odpłatnych dodatków bezpośrednio na urządzenie. To, co nie uległo zmianie, to wysokiej jakości serwis oraz wsparcie. Tak jak w przeszłości, tak i teraz klient ma zagwarantowany w cenie odbiór uszkodzonego sprzętu przez kuriera i dostarczenie pod ten sam adres. Do dyspozycji jest też bezpłatna pomoc telefoniczna.

Dodatkowe informacje: MACIEJ KACZMAREK, VAR ACCOUNT MANAGER, NETGEAR, MKACZMAREK@NETGEAR.COM

PAMIĘCI MASOWE

Bezpieczne dane w każdej firmie N

ikomu, kto chociaż raz doświadczył utraty danych, nie trzeba przypominać o ich ochronie. Coraz większa dostępność systemów backupu, jak też ich coraz niższe ceny odbierają możliwość usprawiedliwiania się niewielkimi budżetami. Jednocześnie rosnąca potrzeba szybkiego dostępu do zabezpieczonych danych w przypadku awarii podstawowego systemu coraz częściej skłania firmy do inwestycji w rozwiązanie do backupu na macierzach dyskowych, zamiast na nośnikach wymiennych. Takie rozwiązanie, na które stać nawet najmniejsze firmy, zaprezentował EMC. Macierze dyskowe firmy EMC z  serii VNXe umożliwiają konsolidację posiadanych zasobów oraz objęcie całego środowiska przechowywania danych bezproblemowym i prostym zarządzaniem. Pozwalają one na łatwą integrację z istniejącym środowiskiem klienta poprzez protokoły NAS i  iSCSI. Systemy VNXe wyposażone są standardowo w  łącze 1 Gb/s Ethernet dla NAS i iSCSI, możliwe jest też rozbudowanie interfejsu sieciowego do prędkości 10 Gb/s. System obsługuje zarówno szybkie dyski SAS 10/15 tys. obrotów na minutę, jak i pojemne dyski NearLine SAS. Pozwala to na konsolidację zasobów o zróżnicowanych wymaganiach wydajnościowych i pojemnościowych. Nowym aplikacjom łatwo udostępnić istniejące pule pamięci czy rozszerzyć pule o nowe dyski twarde. Seria VNXe została zaprojektowana jako produkt gwarantujący wysoką dostępność. Jest wyposażona w zdublowaną pamięć podręczną i dwa kontrolery, co eliminuje pojedyncze punkty awarii. Dane w pamięci podręcznej zapisu macierzy VNXe są bez-

piecznie przechowywane w pamięci flash, co eliminuje potrzebę posiadania dodatkowych źródeł zasilania bateryjnego. W  ostatnim czasie macierze z  serii VNXe zostały rozbudowane o możliwość instalowania w nich dysków SSD z interfejsem SAS 6 Gb/s. Mogą być one stosowane w aplikacjach wymagających bardzo szybkiego dostępu do najczęściej wykorzystywanych danych, a także do obsługi wirtualnych maszyn.

BACKUP Z NETWORKEREM EMC oferuje także oprogramowanie EMC NetWorker, które umożliwia centralizację, automatyzację oraz przyspieszenie procesów tworzenia kopii zapasowych i odtwarzania danych w całym środowisku informatycznym. Dane, do których chcemy w szybki sposób uzyskać dostęp, mogą być odtworzone dzięki wbudowanym w EMC NetWorker zaawansowanym funkcjom wyszukiwania. W najnowszej wersji udoskonalono też funkcje raportowania, inteligentnej korelacji kopii zapasowych oraz analizy wpływu, które pozwalają na lepsze monitorowanie środowiska, tworzenie kopii zapasowych, szybsze rozwiązywanie problemów z kopiami zapasowymi i odtwarzaniem danych.

EMC DATADOMAIN WYELIMINUJE DUPLIKATY

Rodzina macierzy dyskowych EMC DataDomain znana jest z najwydajniejszego w  branży procesu deduplikacji (eliminowania przechowywania dublujących się danych), dzięki któremu redukuje ilość danych niezbędnych do przechowywania i zabezpieczenia nawet 10–30-krotnie. Dzięki temu pamięci

dyskowe mogą stanowić ekonomiczną alternatywę dla systemów pamięci taśmowej. Dane przechowywane na dyskach są dostępne w trybie online przez dłuższy okres, a proces odtwarzania danych jest szybki i niezawodny. Przechowywanie na dyskach jedynie unikalnych bloków danych oznacza także, że można je niedrogo replikować do zdalnych lokalizacji w ramach realizacji zadań disaster recovery oraz centralizacji składowania kopii bezpieczeństwa. Systemy DataDomain mogą współpracować z najpopularniejszymi rozwiązaniami backupowymi i archiwizacyjnymi. Mogą też łatwo integrować się z istniejącą infrastrukturą pamięci masowej, bez konieczności wprowadzania drastycznych zmian infrastruktury w centrach danych lub zdalnych oddziałach. Korzystając z zaprezentowanych rozwiązań, można stworzyć kompletny system składowania i  ochrony danych, zapewniający zarówno niski koszt ich przechowywania, jak też wysokie bezpieczeństwo. Marka EMC gwarantuje, że będzie to dobra inwestycja.

Dodatkowe informacje: EWELINA KURZEJA, PRODUCT MANAGER EMC, S4E EWELINA.KURZEJA@S4E.PL maj 2013

21

MATERIAŁ POWSTAŁ WE WSPÓŁPRACY Z EMC I S4E.

Przeznaczone dla małych i średnich firm urządzenia i oprogramowanie EMC do ochrony danych gwarantują łatwość implementacji w środowisku IT oraz integracji z platformami wirtualizacyjnymi i aplikacjami.

PAMIĘCI MASOWE

Wysoka dostępność dzięki wirtualizacji Wirtualizacja pamięci masowych realizowana poprzez oprogramowanie oferuje ej funkcji u cj niż sp ęto e wirtualizatory za ułamek ich ceny. więcej sprzętowe

MATERIAŁ POWSTAŁ WE WSPÓŁPRACY Z DATACORE SOFTWARE.

O

soby decydujące o  rozwoju firmowych systemów przechowywania danych mają niemały dylemat. Muszą ciągle zwiększać pojemność i wydajność systemów pamięci masowych, gwarantując tym samym nieprzerwany dostęp do firmowych danych. Jednocześnie nieustanna presja na oszczędności często uniemożliwia inwestycję w systemy pamięci masowych w pełni zgodne z już posiadanymi przez firmę urządzeniami w  centrum danych i nakazuje kupno tego, co w danym momencie jest najtańsze na rynku. Kompromisowe wyjście z tej trudnej sytuacji znalazła amerykańska firma DataCore Software. Oferuje oprogramowanie, które łączy wszystkie posiadane przez firmę systemy przechowywania danych w jeden centralny organizm, tworząc środowisko tzw. wirtualizacji pamięci masowych. Dodatkowo gwarantuje, że awaria jednego z urządzeń przechowujących informacje nie spowoduje ani ich utraty, ani nawet przerwy w  dostępie do ważnych danych. Umożliwia też administratorom lepsze wykorzystanie pojemności i zwiększenie wydajności, często odsuwając w czasie konieczność kupowania następnych systemów przechowywania informacji.

WIRTUALIZACJA Z SANSYMPHONY-V Oprogramowanie SANsymphony-V – działające na podobnej zasadzie jak hypervisor przy wirtualizacji serwerów – stanowi warstwę pośrednią między serwerami i macierzami dyskowymi. Integruje pojemność i funkcjonalności macierzy dyskowych, czyniąc całe środowisko bardziej

22

maj 2013

elastycznym i wydajnym, niż gdyby funkcjonowało w tradycyjnym modelu. Oprogramowanie SANsymphony-V można uruchomić na fizycznych lub wirtualnych serwerach. Świetnie sprawdza się też przy projektach wirtualizacji serwerów i desktopów. Zapewnia gwarancję nieprzerwanego dostępu do obrazów wirtualnych maszyn znajdujących się w zasobach dyskowych w  sieci Storage Area Network. DataCore współpracuje w tym zakresie ze wszystkimi głównymi dostawcami rozwiązań do wirtualizacji – Citrix, Microsoft, Oracle i VMware. Oprogramowanie DataCore jest alternatywą dla obecnych na rynku sprzętowych wirtualizatorów pamięci masowych przeznaczonych do bardzo dużych środowisk i ograniczonych pod względem rozbudowy. Rozwiązania sprzętowe są jednocześnie kilkunastokrotnie droższe niż oprogramowanie oferowane przez DataCore.

Autoryzowanym partnerom i dostawcom usług DataCore Software udostępnia także pakiet oprogramowania SANsymphony-V Disk Migration Suite, dzięki któremu mogą uzupełnić ofertę o usługi migracji środowisk IT bez konieczności przerywania pracy produkcyjnej. Na pakiet składają się licencje oprogramowania SANsymphony-V oraz dostęp do działu wsparcia DataCore, który może poprowadzić dostawcę usług przez każdy proces migracji. Dodatkowo, zamiast kupować oprogramowanie SANsymphony-V, dostawcy usług migracji mogą skorzystać z 30-dniowych licencji, które będą wykorzystane tylko do procesu migracji środowiska IT lub danych. SANsymphony-V Disk Migration Suite może być wykorzystywany podczas wymiany sprzętu (np. macierzy dyskowych) na nowe urządzenia. Pakiet należy uruchomić na oddzielnych serwerach umieszczonych pomiędzy hostem a systemami pamięci masowych. Po prostej konfiguracji można przeprowadzić migrację, nie przerywając dostępności żadnego z systemów.

ELASTYCZNE FORMY FINANSOWANIA

DataCore Software aktywnie angażuje się we współpracę z partnerami. Między innymi prowadzi program dla dostawców usług IT w chmurze (Cloud Service Provider Program), w ramach którego mogą oni wynajmować oprogramowanie DataCore SANsymphony-V, płacąc za nie w miesięcznym modelu abonamentowym. Wysokość opłaty zależy od pojemności pamięci masowych objętych wirtualizacją. Taki model opłaty za rzeczywiście wykorzystaną przestrzeń umożliwia dostawcom usług dokładne jej rozliczanie, ułatwiając także budowanie oferty dla klientów.

DATACORE SOFTWARE WSPÓLNIE Z AUTORYZOWANYM DYSTRYBUTOREM CONNECT DISTRIBUTION ZAPRASZA FIRMY ZAINTERESOWANE SPRZEDAŻĄ OPROGRAMOWANIA DO WIRTUALIZACJI PAMIĘCI MASOWYCH NA SPOTKANIA DLA FIRM PARTNERSKICH. ODBĘDĄ SIĘ ONE:

– 11 CZERWCA W POZNANIU, – 12 CZERWCA WE WROCŁAWIU, – 13 CZERWCA W GDAŃSKU. Szczegółowych informacji udziela: SŁAWOMIR KARPIŃSKI, CHANNEL MANAGER, CONNECT DISTRIBUTION, S.KARPINSKI@CONNECTDISTRIBUTION.PL

qnap crn 9-10_2013.indd 1

4/23/13 12:05 PM

PAMIĘCI MASOWE

Storage

na miarę każdego biznesu Macierze dyskowe Synology z serii XS+ zapewniają wyjątkową wydajność, niezawodność i skalowalność. Są przystosowane do pracy z dużymi obciążeniami, jak też do przechowywania maszyn wirtualnych.

M

acierze dyskowe z  serii XS+ (zarówno modele wolno stojące z  serii DiskStation, jak też do montażu w szafie przemysłowej – RackStation) to najbardziej zaawansowane urządzenia w ofercie Synology. Są przeznaczone do pracy w wydajnych środowiskach przetwarzających dziesiątki, a nawet setki terabajtów danych.

WYDAJNOŚĆ

MATERIAŁ POWSTAŁ WE WSPÓŁPRACY Z SYNOLOGY.

NAJWYŻSZEJ KLASY

Dzięki mechanizmowi agregacji łączy oraz możliwości zastosowania kart 10GbE i  dysków SSD pamięci masowe Synology z serii XS+ oferują wysoką wydajność z przepustowością ponad 2 GB/s oraz 400 tys. IOPS. Oba modele tej serii są wyposażone w  procesor Quad Core 3,3 GHz oraz 8 GB pamięci DDR3 ECC RAM i obsługują dyski SSD oraz SATA (model RackStation RS10613xs+ można też wyposażyć w dyski SAS). Zaawansowana technologia flash oraz połączenie dysków twardych i  pamięci podręcznej SSD zoptymalizowanej pod kątem odczytu skutecznie zwiększają przepustowość. Dzięki opcji rozszerzenia pamięci ECC RAM do 32 GB Synology XS+ to rozwiązanie idealne dla aplikacji intensywnie przetwarzających dane i solidna podstawa do realizacji zadań o znaczeniu kluczowym dla firmy.

NIEZAWODNOŚĆ I SOLIDNOŚĆ Nieprzerwaną pracę serwerów z serii XS+ zapewniają nadmiarowe ścieżki transmisji danych, redundantne zasilacze i wen-

24

maj 2013

tylatory systemowe oraz porty sieciowe z obsługą przełączania awaryjnego. Bezpieczeństwo serwera podczas wymiany dysków podnosi funkcja Globalny Hot Spare – zapasowe dyski twarde można wymieniać w dowolnym typie lub grupie macierzy RAID. Bezwentylatorowy radiator procesora oraz technologia pasywnego chłodzenia eliminują ryzyko wystąpienia awarii spowodowanej przez pojedyncze urządzenie. Moduły pamięci ECC RAM wykrywają i korygują błędy występujące podczas transmisji danych.

SKALOWALNOŚĆ NA ŻĄDANIE

Łączna pojemność serwera RS10613xs+ może wynosić nawet 424 TB. Dodatkowe jednostki rozszerzające dla modeli z serii XS+ zawsze można dokupić, jeśli tylko zajdzie taka potrzeba. Model RS10613xs+ umożliwia rozbudowę o osiem dodatkowych półek rozszerzających Synology RX1213sas, podłączonych podwójnymi łączami SAS w celu zwiększenia przepustowości i uzyskania nadmiarowego połączenia. Z  kolei serwer RS3413xs+ jest w stanie obsłużyć dwie dodatkowe jednostki rozszerzające –  RX1211 lub RX1211RP.

tualnych i  przenoszenie ich pomiędzy serwerami, eliminując przestoje i zakłócenia w dostarczaniu usług użytkownikom. W związku z tym zarządzanie jest mniej złożone, bardziej wydajne i efektywne dzięki odciążeniu serwera od zadań związanych z przechowywaniem danych.

SYNOLOGY HIGH AVAILABILITY Kluczowym celem dla firm jest nieprzerwana dostępność danych. Rozwiązanie Synology High Availability (SHA) zapewnia ciągłość działania i zwiększa ochronę infrastruktury IT. Umożliwia połączenie dwóch serwerów pamięci masowej w klaster z  mechanizmem automatycznego przełączania awaryjnego. Po utworzeniu klastra dane są nieprzerwanie replikowane z aktywnego serwera na serwer pasywny za pomocą dedykowanego łącza sieciowego, określanego mianem heartbeat. Jeśli wystąpi awaria jednego z serwerów, drugi automatycznie przejmie jego zadania, aby zapewnić działanie najważniejszych usług firmy bez przestojów. Synology High Availability to potężne narzędzie dla firm z sektora MSP oraz dużych przedsiębiorstw.

GOTOWE DO WIRTUALIZACJI

Seria XS+ może pracować w  środowiskach wirtualnych dzięki prostej integracji z VMware, Citrix i Windows Server 2012 z  Hyper-V.  Jako scentralizowana pamięć środowiska wirtualizacji seria XS+ umożliwia migrację maszyn wir-

Dodatkowe informacje: RENATA KRAJEWSKA, ODPOWIEDZIALNA W SYNOLOGY ZA SPRZEDAŻ NA RYNKU POLSKIM RENATAK@SYNOLOGY.COM

SIECI

Sieci coraz bardziej inteligentne Zmiany zachodzące w świecie komunikacji i cyfrowych danych oznaczają dla integratorów konieczność budowy i łączenia ze sobą sieci, które coraz lepiej zaspokajają potrzeby nowego typu użytkowników i nowych rodzajów aplikacji. Co zrobić, by były niezawodne, a jednocześnie sprostały coraz większym technicznym wyzwaniom? TOMASZ JANOŚ

S

ieć komputerowa jest często traktowana jak każdy inny system dostarczający media. Najlepiej, jak działa bez żadnych awarii, a wtedy staje się dla użytkowników… niewidzialna. Jaką sieć powinien budować integrator, by jej użytkownik miał taki luksus, że niemal zapomni o jej istnieniu?

SIEĆ TAK DOBRA, JAKBY JEJ NIE BYŁO

Sieć powinna stanowić prosty w  administracji, bezpieczny system, który jest w stanie zapewniać różne metody dostępu użytkowników (np. sieć przewodowa, bezprzewodowa i  dostęp zdalny VPN) oraz obsługiwać różne typy ruchu w sposób jak najbardziej przejrzysty, niewidocz-

MARIUSZ KOCHAŃSKI dyrektor Działu Systemów Sieciowych, Veracomp

Ze względu na obsługiwane aplikacje: telefonię IP, maile, systemy przyjmowania zamówień od klientów i kontroli produkcji, sieć w firmie staje się medium krytycznym dla działania biznesu. Jej niezawodność i bezpieczeństwo wpływają na wyniki finansowe firmy – wystarczy przypomnieć przypadki włamań do sieci firm Sony czy RSA.

ny i ujednolicony dla użytkowników. Gdy cała polityka bezpieczeństwa sieci jest wspólna i spójna dla wszystkich urządzeń ją tworzących, niezależnie od tego, czy jest to przełącznik sieci LAN, kontroler sieci WLAN czy też koncentrator tunelu VPN, to administrator może zapomnieć o szczegółach implementacyjnych sieci i zastosowanych w niej urządzeniach. Jeśli chodzi o działanie sieci, to przede wszystkim musi ona zapewniać transmisję danych na wymaganym poziomie. Przepustowość musi być na tyle duża, aby przenosić bez opóźnień wszystkie usługi, w tym backup i transmisje wideo. Równie ważna jest jakość transmisji, bowiem wnoszone przez sieć opóźnienie powinno być nieistotne dla użytkowanych aplikacji oraz stałe w czasie (brak tzw. jittera), a poziomy przekłamań czy gubienia pakietów powinny być na tyle niskie, aby aplikacje (zwłaszcza te multimedialne, wykorzystujące usługę UDP), mogły płynnie działać. Dobrze utrzymywana sieć powinna być zabezpieczona pod wieloma względami: gwarancyjnym, wsparcia technicznego i odporności na awarie. Ponieważ sieci nie kupuje się na chwilę, to klienta przekonają te oferty, które nie budzą obaw dotyczących bezawaryjnego działania systemu. Przy wyborze urządzeń sieciowych ważna jest więc nie tylko cena, ale i gwarancja jakości działania. Istotne, by sieć zapewniała też mechanizmy minimalizujące ryzyko jej niedostępności w razie awarii któregoś z elementów. Najlepiej, gdy dzia-

PIOTR GŁASKA Senior Product Manager, Huawei

Słuchając większości producentów, można dojść do wniosku, że główne trendy na rynku sieci komputerowych to obecnie chmura, SDN czy BYOD. Tymczasem działy IT po prostu inwestują w rozwiązania od różnych dostawców, dywersyfikując posiadane zasoby.

łają w ten sposób, że nie będzie wymagana interwencja administratora. Według Macieja Kaczmarka, VAR Account Managera w polskim oddziale Netgeara, ważnym aspektem w tym względzie jest budowa infrastruktury backupowej, co oznacza, że kluczowe elementy sieci mają swoje elementy zapasowe gwarantujące ciągłość pracy. – Infrastruktura dzięki obecnej technologii, przy niewielkim nakładzie dodatkowych środków, daje pełne bezpieczeństwo i luksus „niewidzialności”, a elementy wrażliwe wymieniane są w czasie pracy urządzenia bez przerw w działaniu sieci – mówi.

NOWE SIECIOWE WYZWANIA Rozwój sieci komputerowych przez ostatnie lata był w pewnym zastoju. Jednak maj 2013

25

SIECI bardzo dużo dzieje się obecnie, gdy centra danych i znajdujące się w nich serwery oraz pamięci masowe są poddawane wirtualizacji, pojawiła się chmura obliczeniowa, wyzwania związane z mobilnością i konsumeryzacją IT (trend Bring Your Own Device). Dzisiaj budując sieci, trzeba mieć świadomość trendów, które wynikają ze zmian zachowań użytkowników końcowych i sposobów dostarczania informacji. Tym, co kształtuje obecnie rynek sieci klasy enterprise, jest mobilność urządzeń, wykorzystanie aplikacji w  modelu cloud, potrzeba obsługi dużej ilości ruchu wideo oraz zapewnienia bardzo wysokiego poziomu bezpieczeństwa rozwiązań sieciowych przy zachowaniu wysokiej produktywności działów IT. Wyzwaniem jest też coraz większe natężenie przesyłu danych multimedialnych. W wyścigu o klienta głównym kryterium do tej pory były podstawowe atrybuty sieci, jak przepustowość, dostępność i jakość transmisji. Teraz, gdy z zasobów udostępnianych przez sieć korzystają także podmioty zewnętrzne, jak też dane często są

DOMINIK MIKOŁAJCZAK kierownik ds. okablowania strukturalnego Multimedia Connect MMC, C&C Partners Telecom

Wirtualizacja serwerów powoduje, że z tego samego łącza nie korzysta już jedno urządzenie, ale kilka serwerów wirtualnych, które łącznie generują większy przypływ danych. Dlatego okablowanie musi zapewniać odpowiednią przepustowość. Uwzględniając dzisiejsze potrzeby, ale również przyszły wzrost zapotrzebowania serwerów na pasmo transmisyjne, należy dobierać okablowanie o najlepszych parametrach. W części optycznej należy stosować światłowody zapewniające transmisję do 100 Gb/s, czyli jednomodowe lub wielomodowe kategorii OM3 lub OM4. W części miedzianej najbardziej zasadne jest dobieranie okablowania spełniającego wymogi transmisji 10 Gb/s, czyli kategorii 6A, 7 lub 7A.

26

maj 2013

Wirtualizacja stawia nowe wymagania wobec sieci lokalnych. przesyłane poza siedzibę firmy, rosną wymogi dotyczące bezpieczeństwa. Zwiększone zapotrzebowanie na zdalny backup czy wideokonferencje stawiają przed mechanizmami bezpieczeństwa sieci nowe wyzwania – muszą one pracować w czasie rzeczywistym i w tempie adekwatnym do prędkości świadczonych usług. – W dobie powszechnego outsourcingu następuje wzrost zainteresowania klientów szybkością konfiguracji sieci, zwłaszcza replikacji stworzonego środowiska pracy (tzw. provisioningu) oraz monitoringiem jakości świadczonych usług – zauważa Mariusz Kochański, dyrektor Działu Systemów Sieciowych w Veracompie. Wpływ wirtualizacji na wymagania wobec sieci jest bardzo duży. Zwirtualizowana infrastruktura jest dużo bardziej złożona od tradycyjnej i wymaga więcej pasma, lepszych narzędzi zarządzania oraz mechanizmów odporności na awarie. Te ostatnie wynikają z prostego faktu: jeśli teraz na jednym fizycznym hoście działa wiele maszyn wirtualnych, to awaria pojedynczej karty sieciowej oznacza kosztowną przerwę w  działaniu znacznie większej liczby aplikacji niż kiedyś. Jednak nagroda za wysiłek zbudowania sprawnej sieci dla wirtualnego centrum danych jest niebagatelna: oszczędności wynikające z konsolidacji infrastruktury, wyjątkowa skalowalność systemu i uproszczone disaster recovery. W odpowiedzi na potrzeby zwirtualizowanych środowisk powstała koncepcja sieci sterowanych programowo (SDN – Software Defined Networks) i związany z nią model network fabric (w uproszczeniu: skalowalne, bardzo szybkie i  inteligentne przełączanie ruchu). Chociaż model ten powstawał z myślą o stworze-

niu otwartego środowiska, które będzie niezależne od producenta, to w praktyce takie sieci są tworzone przy użyciu mniej lub bardziej zamkniętych firmowych rozwiązań, co nie sprzyja współpracy w jednym środowisku produktów różnych dostawców. To w  połączeniu z  faktem, że sieć coraz bardziej konsoliduje się z resztą infrastruktury, może oznaczać, że integratorowi trudniej będzie dowolnie dobierać elementy sieci i centrum danych od różnych dostawców (na zasadzie „najlepszych” bądź „najtańszych” w swojej klasie produktów).

FUNDAMENTALNE KABLE Fundamentem działania sieci komputerowej przedsiębiorstwa wciąż pozostaje system okablowania strukturalnego. Stworzony z zachowaniem norm powinien umożliwiać bezproblemową transmisję dużych ilości danych, także multimedialnych. Często nabywca okablowania strukturalnego kupuje system z myślą nieomal o „całym życiu” swojej firmy czy instytucji (a przynajmniej o dającej się przewidzieć przyszłości). Postrzega je przez analogię do instalacji elektrycznej – raz położonej i już zawsze spełniającej swoje zadania. Czy integrator jest dziś w stanie oferować okablowanie strukturalne, które przez lata będzie w stanie podołać coraz większym wyzwaniom nowych technologii? Odpowiedź na to pytanie nie jest prosta. Zdaniem Krzysztofa Strzody, zastępcy dyrektora handlowego w Emiterze, niemożliwe jest przewidzenie, jakie aplikacje będą używane w przyszłości lub jakie będą wymagania odnośnie do wydajności i prędkości łączy. – Nie ma jednego wzorca przedsiębiorstwa. Nie można także wyciągać wniosków w oderwaniu od ekonomii. Gdyby tak było, to należało by od razu przyjąć, że najlepszym systemem będzie ten, który umożliwi pracę najszybszym protokołom. Tym niemniej można określić, jakie wymagania powinno spełnić okablowanie, aby pełniło także swoje funkcje za 5, 10 czy 15 lat. I nie należy mylić okresu wykorzystywania okablowania w przedsiębiorstwie z okresem gwarancyjnym – dodaje Krzysztof Strzoda. Są rzeczy, które mają bezdyskusyjny wpływ na przedłużenie życia okablo-

LICZBA SPRZEDANYCH NA ŚWIECIE PORTÓW W SERWERACH (W MLN) 30 25

100 MB

1 GB

20

40 GB

1100 GB

110 GB

15 10 5

20 17

20 16

20 15

20 14

20 13

20 12

20 11

20 10

09 20

08 20

20 07

6 20 0

5 20 0

4 20 0

20 03

02 20

20 01

20

00

0

Źródło: Discerning Analytics

dużo lepsza niż wymagają normy, każą sobie słono płacić za takie rozwiązania.

MACIEJ FLAK Product Sales Specialist, Cisco Systems

OKABLOWANIE I WYMAGAJĄCE APLIKACJE

Sieć (przełączniki, routery, radiowe punkty dostępu i kontrolery) muszą „rozumieć”, jaki ruch przesyłają, i być wyposażone w mechanizmy do szybkiej diagnostyki wszelkich nieprawidłowości w działaniu aplikacji multimedialnych.

wania. Wśród specjalistów panuje pełna zgoda co do tego, że antidotum na szybkie „przeterminowanie się” systemu jest standaryzacja. Aby korzystać w przyszłości z teraz instalowanej infrastruktury, musi być ona zgodna z normami dotyczącymi okablowania strukturalnego. Powinno ono też zapewnić zgodność interfejsów, czyli wykorzystywać zestandaryzowane i powszechnie uznawane za zgodne (i dostępne) interfejsy przyłączeniowe. – Nawet okablowanie wykraczające daleko poza normy nie gwarantuje, że będzie ono stosowane w przyszłości i że znormalizowane rozwiązania (np. w zakresie sprzętu aktywnego) nie pójdą w innym kierunku – mówi Wojciech Nowaczyk, CEO w S-Cabling. Poza tym producenci, którzy szczycą się, że oferowana przez nich infrastruktura jest

XXI wiek przyniósł duże technologiczne zmiany w systemach informatycznych. Najpierw nastąpiła konwergencja sieci komputerowej i telefonicznej. W jej wyniku do danych wędrujących przez okablowanie strukturalne dołączył ciężki i wymagający ładunek transmitowanego przez protokół IP dźwięku, a następnie wideo. W ostatnich kilku latach serwerownie i centra danych opanowała wirtualizacja, dająca – najprościej mówiąc –  możliwość jednoczesnego działania wielu systemów i aplikacji przy użyciu tych samych, współdzielonych zasobów sprzętowych. Wirtualizacja oznacza ko-

losalny wzrost ilości danych transmitowanych przez to samo okablowanie. Centra danych są więc w fazie gwałtownego rozwoju, który przekłada się na więcej i więcej: serwerów, pamięci masowej, sieci, zasilania i chłodzenia. Żeby to wszystko było ekonomiczne, musi być maksymalnie skondensowane, a więc powstaje potrzeba skorzystania z niezawodnego okablowania. Firmy mają wybór między kablami miedzianymi a światłowodem, chociaż cały system najczęściej jest budowany w modelu hybrydowym. Światłowody, jako najszybsze połączenia, są optymalnym wyborem, gdy chodzi o szkielet sieci, komunikację z pamięcią masową oraz jedyną opcją na dystansie ponad 100 m. Na światłowody będą też stawiać użytkownicy, którzy chcą się zabezpieczyć na przyszłość, kiedy potrzebne będą łącza o szybkości 100 Gb/s.

WYBRANI PRODUCENCI URZĄDZEŃ SIECIOWYCH I ICH DYSTRYBUTORZY NA POLSKIM RYNKU ALCATEL-LUCENT: VERACOMP ALLIED TELESIS: ACTION, KONSORCJUM FEN, RRC ARUBA NETWORKS: CLICO, VERACOMP BROCADE: AVNET CISCO SYSTEMS: ABC DATA, KONSORCJUM FEN, RRC, TECH DATA CITRIX SYSTEMS: ARROW ECS, COMPUTERLINKS D-LINK: AB, ABC DATA, ACTION, S4E, TECH DATA, VERACOMP ENTERASYS: VERSIM EXTREME NETWORKS: VERACOMP

F5 NETWORKS: CLICO, VERACOMP FORTINET: VERACOMP HP: ABC DATA, TECH DATA, VERACOMP HUAWEI: S4E, SEQUENCE JUNIPER NETWORKS: AVNET, CLICO MERU NETWORKS: KONSORCJUM FEN NETGEAR: AB, ABC DATA, ACTION, TECH DATA, VERACOMP RIVERBED: WORLD IT SYSTEMS, ZYCKO TP-LINK: AB, ABC DATA, SUNNYLINE, VERACOMP ZYXEL: AB, ACTION, ED’ SYSTEM, RRC maj 2013

27

ZASILANIE I KLIMATYZACJA

Centrum danych – od efektywności do oszczędności

Jeszcze kilka lat temu, gdy nikt poważnie nie myślał o kryzysie, triumfowało hasło „Green IT”. Cięższe czasy sprowadziły je do mniej idealistycznych, za to dających się zmierzyć pojęć. Gdy ceny energii zaczęły systematycznie rosnąć, zaczęła rządzić energetyczna efektywność centrum danych. Jest więc duża szansa na wzrost sprzedaży wspomagających ją rozwiązań. TOMASZ JANOŚ

P

rzez lata w  Polsce nie zwracano uwagi na efektywność energetyczną, nie uwzględniając jej w priorytetach. Sytuacja zmieniła się, gdy uwolniono ceny energii elektrycznej dla sektora komercyjnego. – Wówczas rachunki za energię elektryczną, która stanowi główny element kosztów

SŁAWOMIR KUBICZEK dyrektor sprzedaży rozwiązań chłodnictwa i klimatyzacji precyzyjnej w polskim oddziale Schneider Electric

Jeszcze do niedawna standardem w projektowaniu było przyjmowanie 2 kW obciążenia cieplnego na szafę przemysłową. Dziś szafy z serwerami kasetowymi mogą generować ponad 20 kW energii cieplnej. Daje to dziesięciokrotny wzrost obciążenia przy zachowaniu tej samej powierzchni. Dlatego istotny jest fachowy audyt energetyczny, dzięki któremu doświadczony konsultant będzie mógł wybrać rozwiązanie najbardziej optymalne do danej aplikacji. Wszystko po to, by z jednej strony sprostać nieustannie rosnącym wymaganiom sprzętowym i oczekiwaniom klientów dotyczących bezpieczeństwa danych, z drugiej – mieć na uwadze portfele właścicieli centrów danych.

28

maj 2013

operacyjnych, wzrosły o  100  proc. Jeden z naszych klientów odnotował wzrost opłat za energię elektryczną z 6 do 12 mln zł rocznie. Kolosalna kwota – mówi Bartosz Biernacki, dyrektor sprzedaży ds. klientów kluczowych w Emerson Network Power. Przedsiębiortwa zaczęły przywiązywać coraz większą wagę do energetycznej efektywności swoich centrów danych. A główne elementy zużywające energię elektryczną w centrum danych to sprzęt IT (przede wszystkim serwery) oraz systemy chłodzenia i zasilania gwarantowanego. Dlatego kluczowe znaczenie mają zmiany dotyczące tych trzech elementów. Efektywność serwera można określić poprzez ilość energii zużywanej na wykonanie konkretnej pracy obliczeniowej. Im bardziej efektywny serwer, tym mniej ciepła wydziela i mniej potrzebuje chłodzenia. Postęp w  technologiach układów scalonych pokazuje, że wiele można w tym zakresie osiągnąć. Jednak blisko 50 proc. energii w centrum danych zużywają zasilanie i chłodzenie. Dlatego najlepszym rozwiązaniem na poprawienie jego efektywności energetycznej jest optymalizacja tych właśnie systemów. – Zastosowanie w centrum danych urządzeń typu green umożliwia zredukowanie całościowego zużycia energii w firmie o 20, a nawet 30 proc. – twierdzi Sławomir Kubiczek, dyrektor sprzedaży rozwiązań chłodnictwa i klimatyzacji precyzyjnej w polskim oddziale Schneider Electric.

Na efektywność energetyczną centrów danych ma też wpływ poziom wykorzystania sprzętu IT, odpowiednie rozmieszczenie go w  pomieszczeniu oraz w szafach przemysłowych i stosowanie energooszczędnego oświetlenia.

WIELKI WYŚCIG DO MITYCZNEJ JEDYNKI

Współczynnik PUE (Power Usage Effectiveness) stał się de facto standardem mierzenia efektywności energetycznej centrum danych. PUE jest stosunkiem całkowitej energii dostarczanej do centrum danych do energii wykorzystywanej przez sprzęt IT (serwery, pamięci masowe i sieć komputerową). Idealną, choć praktycznie nieosiągalną wartością PUE jest 1 – w takim przypadku cała dostarczona energia jest zużywana przez sprzęt IT. Jednak część dostarczonej energii musi być zużyta przez system chłodzenia, zasilania gwarantowanego, oświetlenie i inne rozwiązania wspomagające infrastrukturę centrum danych. Dlatego dość typową wartością PUE dla tradycyjnego centrum danych jest 2 – zużywane jest wówczas dwa razy więcej energii, niż potrzebują jej same serwery. Nowsze, zwirtualizowane centra danych są już bardziej efektywne – mają PUE o wartości poniżej 2. PUE jest prostym i przemawiającym do wyobraźni współczynnikiem. Dzięki

niemu można łatwo porównywać ze sobą centra danych. Te największe rywalizują ze sobą, starając się jak najbardziej zbliżyć do mitycznej jedynki (np. centrum danych Facebooka w Prineville szczyci się osiągnięciem wartości 1,09!). Czy jest to więc idealny wskaźnik efektywności? Zdaniem Sławomira Kubiczka prostota PUE ułatwia manipulacje tym wskaźnikiem, by uzyskać jak najniższy współczynnik. – Dlatego PUE nie jest odpowiednim narzędziem do oszacowania efektywności centrum danych. Firmy chcą za wszelką cenę przedstawić się w jak najlepszym świetle, wpływają różnymi sposobami na zminimalizowanie wartości PUE, poprzez pomiary robione w zimie, bez oświetlenia i nie uwzględniając wielu innych aspektów wpływających na ten współczynnik. Okazuje się też, że skupiając się tylko na wpółczynniku PUE, gubi się istotne elementy efektywności energetycznej centrum danych. – Tak naprawdę można spokojnie udowodnić, że centrum danych o lepszym współczynniku PUE może mieć mniejszą moc obliczeniową. Rozpatrywanie współczynnika PUE w oderwaniu od mocy obliczeniowej (np. w Tflops) powoduje powstanie nieprzejrzystego obrazu centrum danych. Emerson Network Power kilka lat temu wdrożył program Energy Logic 2 dla oceny efektywności

centrum danych w połączeniu z mocą obliczeniową – twierdzi Bartosz Biernacki.

MIEĆ MOCNE ARGUMENTY W dążeniu do wymiernych oszczędności największe sukcesy odnosi się w centrum danych zbudowanym od zera – według najnowszych zasad. Jak jednak nakłonić do zastosowania nowych technologii tych, którzy zarządzają istniejącymi od dawna centrami danych i serwerowniami? Czym można ich przekonać? Mocnym argumentem za poprawą sprawności i niezawodności starych serwerowni mogą być wyniki coraz częściej przeprowadzanych audytów, w których efektywność energetyczna jest na pierwszym planie. Audytem w centrum danych powinny być objęte takie elementy infrastruktury, jak systemy chłodzenia, UPS-y, sprzęt IT (wraz z poziomem jego wykorzystania), a także oświetlenie, ochrona przeciwpożarowa i zabezpieczenia fizyczne. – W Emerson Network Power praktycznie dla każdego obiektu przed przedstawieniem oferty inwestorowi przygotowujemy kilka wariantów technicznych o  różnym koszcie inwestycyjnym i różnym wpływie na kolejne etapy inwestycji, co jest bardzo ważne w biznesie kolokacyjnym. Następnie do takiego rozwiązania technicznego przygotowujemy analizę uwzględniającą

koszty operacyjne wszystkich elementów serwerowni, koszty inwestycyjne, energii elektrycznej oraz serwisu systemów. Uwzględniamy również inflację oraz – na życzenie klienta – wzrost cen energii elektrycznej ponad inflację. Tu wyniki często są zaskakujące, a efekty – piorunujące. Często nasi klienci wybierają rozwiązania nawet do 40 proc. droższe od najtańszych proponowanych przez nas wariantów, za to z czasem zwrotu nieprzekraczającym 18 miesięcy – podkreśla Bartosz Biernacki. Coraz popularniejsza staje się także możliwość zarządzania energią w centrum danych przez strony WWW, dzięki czemu operator może osiągnąć znaczną redukcję kosztów. Przydatne są różnego rodzaju aplikacje, które pozwalają monitorować centrum danych pod kątem właściwych parametrów zasilania, chłodzenia itp. Takie narzędzia mogą zawiadamiać administratorów o błędach, mogą sugerować rozwiązanie problemów, a te bardziej zaawansowane nawet automatycznie je eliminować.

DOBRZE SCHŁODZONE CENTRUM DANYCH

System chłodzenia jest –  po sprzęcie IT – największym „prądożercą” w centrum danych. Tym samym możliwe jest uzyskanie w  tym obszarze dodatkowych oszczędności. Czy można dużo

ZUŻYCIE ENERGII W CENTRUM DANYCH NA 100 W SKONSUMOWANYCH PRZEZ CENTRUM DANYCH TYLKO 2,5 W JEST UŻYTE NA CELE OBLICZENIOWE.

Źródło: Rocky Mountain Institute

maj 2013

29

ZASILANIE I KLIMATYZACJA DYNAMICZNY FREE COOLING CIEPŁO UWALNIANE DO ATMOSFERY

PRZEPŁYW POWIETRZA SCHŁODZONA WODA

SPIRALA CHŁODZĄCA

TRAFIA DO SPIRALI CHŁODZĄCEJ LUB CHŁODNICY URZĄDZENIA

CENTRUM DANYCH

HYBRYDOWY CRAC

CRAC PAROWNIK

DRY COOLER (SUCHA CHŁODNICA)

GORĄCA WODA WRACA Z URZĄDZENIA CRAC

CHŁODNICA

KOMPRESOR Źródło: dcsg.bcs.org

zaoszczędzić na odpowiednio zaprojektowanym chłodzeniu i jak to zrobić? Sławomir Kubiczek twierdzi, że w klimatyzacji centrum danych kryje się duży potencjał ograniczenia poboru energii, a co za tym idzie – niższych opłat za prąd. – Warto zauważyć, że w źle zaprojektowanej serwerowni tylko 40  proc. energii

BARTOSZ BIERNACKI dyrektor sprzedaży ds. klientów kluczowych w Emerson Network Power

Przez dziesiątki lat energooszczędność nie była priorytetem, skupiano się na bezpieczeństwie. Dzisiaj zaś można powiedzieć: co z tego, że mam bezpieczny system, skoro mój biznes jest na krawędzi opłacalności? Takie pytania zaczęły nurtować wielu naszych klientów po uwolnieniu cen energii elektrycznej. Dlatego obecnie energooszczędność jest najważniejszym tematem – zaraz po bezpieczeństwie serwerowni. Polski rynek, na którym stosunkowo późno – w porównaniu do Stanów Zjednoczonych czy Europy Zachodniej – pojawił się biznes centrów danych, ma pewną specyficzną i ciekawą cechę: klienci wybierają najnowsze technologie. Co do nasycenia rynku, to jeszcze jest spory potencjał.

30

maj 2013

zużywane jest przez sprzęt IT, resztę pochłania system chłodzenia, zasilania, wentylacji i klimatyzacji. Optymalne rozwiązania umożliwiają wykorzystanie energii przez IT na poziomie nawet 70–80 proc., co w efekcie pozwala na zredukowanie całościowego zużycia energii na zasilanie i chłodzenie o 20 do 30 proc. Jeżeli spojrzymy na koszty, to jest to od kilkunastu do kilkudziesięciu tysięcy złotych realnych oszczędności rocznie – mówi przedstawiciel Schneider Electric. Aby znacząco poprawić bilans energetyczny centrum danych, wymyśla się nowe techniki chłodzenia (czasami bardzo zaskakujące) oraz przemodelowywuje te już istniejące. Kiedyś czas pomiędzy skokami technologicznymi w  klimatyzacji wynosił 5–8 lat, obecnie według specjalistów jest to 12 miesięcy. Każda z nowości ma swoich zwolenników i przeciwników. Jednym ze stosowanych rozwiązań jest eliminowanie w centrum danych podłogi podniesionej, wykorzystywanej przez lata do dostarczania schłodzonego powietrza szafom przemysłowym. Jej rolę w chłodzeniu

przejmują kontrolowany obieg powietrza w  rzędach między szafami i  skuteczna separacja ciepłych i zimnych stref. Centra danych zaczęły także eksperymentować z podnoszeniem temperatury w pomieszczeniu z serwerami. Ta metoda w dużej mierze wykorzystuje postęp w dziedzinie układów scalonych – przedstawiciele Intela przekonują, że serwery wyposażone w najnowsze układy producenta mogą pracować nawet w 35oC bez wpływu na ich niezawodność. A podniesienie temperatury o stopień może dać nawet 4 proc. oszczędności na energii zużytej przez system chłodzenia w serwerowni. Kolejną nową i ważną techniką jest free cooling ( już w nazwie niosącą obietnicę darmowego chłodzenia), która wykorzystuje zimne powietrze z zewnątrz do schładzania wody stosowanej przez systemy klimatyzacji serwerowni. Zwłaszcza to rozwiązanie – gdy pomyślimy o jakże długiej w tym roku zimie – obiecuje wymierne oszczędności na chłodzeniu. W naszej szerokości geograficznej na potrzebną do tego aurę możemy przecież liczyć.

GŁÓWNI PRODUCENCI SYSTEMÓW ZASILANIA I KLIMATYZACJI ORAZ ICH DYSTRYBUTORZY NA POLSKIM RYNKU EVER: AB, ABC DATA, ACTION, INCOM, APC BY SCHNEIDER ELECTRIC: AB, ABC DATA, RRC, TECH DATA, VERACOMP TECH DATA EATON POWER QUALITY: AB, ABC DATA, ACTION, FIDELTRONIK INIGO: AB, ABC DATA, ACTION ALSTOR, TECH DATA RITTAL: SPRZEDAŻ BEZPOŚREDNIA EMERSON NETWORK POWER: ABC DATA, ACTION SOCOMEC: SPRZEDAŻ BEZPOŚREDNIA

(

 F S P .  FU

ons for ntinuit y IT Soluti ritical Co -C s s e in Bus

S F X P 1  L PS X U F /  FSTPO

XJUI&N

&RPRJÄŠ]URELĂźDE\ ]ZLÄŠNV]\Ăź7ZRMHSU]\FKRG\"

8Ī\ZDMąF(PHUVRQ1HWZRUN3RZHUGR]LQWHJURZDQ\FK UR]ZLą]DĔ,7UR]V]HU]DV]VZRMHSRUWIROLRSURGXNWRZH ]\VNXMHV]ZLHNV]HPRĪOLZRĞFLPDUĪĊRUD]VNXWHF]QRĞß

-JFCFSUˆ14"

-JFCFSUˆ141

=DEH]SLHF]HQLH]DVLODQLD 1DMOHSV]DRFKURQD]DVLODQLD NRPSXWHUyZVWDFMRQDUQ\FK NRPSXWHUyZVWDFMRQDUQ\FK LVSU]ĊWXELXURZHJR LXU]ąG]HĔSHU\IHU\MQ\FK

5FDI4VQQPSU

F-FBSOJOH 1MBUGPSN

/FXTMFUUFS

-JFCFSUˆ14*

-JFCFSUˆ(95

:\VRNRZ\GDMQ\]DVLODF]836R NRQÂżJXUDFMLV]DIDZROQRVWRMÄ…F\ GR]DEH]SLHF]HQLD]DVLODQLDVLHFL

:\VRNRZ\GDMQ\]DVLODF]836 RNRQÂżJXUDFMLV]DIDZROQRVWRMÄ…F\ GR]DEH]SLHF]HQLD]DVLODQLDVLHFL

0OMJOF $POGJHVSBUPS

&NFSTPO/FUXPSL1PXFS4Q[PP1PMTLB Ul. Szturmowa 2A PL – 02-678 Warszawa Tel.: +48 22 458 92 60 | Faks: +48 22 458 92 61 Emerson, Business-Critical Continuity and Liebert are trademarks of Emerson Electric Co. or one of its affiliated companies. Š2013 Emerson Electric Co.

1-1 CRN.indd 1

5/6/13 11:40 AM

ZASILANIE I KLIMATYZACJA

EVER – polski lider na rynku UPS EVER jest pierwszoplanowym graczem na rodzimym rynku UPS. Wysoka pozycja firmy to zasługa innowacyjnych rozwiązań oraz wprowadzenia systemów zasilania do 600 kVA.

P

olskie firmy z branży IT rzadko są utożsamiane z innowacjami. Większość nowości technologicznych powstaje gdzieś daleko za oceanem. Ale również nad Wisłą można znaleźć producentów wprowadzających nietuzinkowe rozwiązania. Takim przykładem jest EVER – w ciągu ponad dwóch dekad firma sprzedała ponad 2,5 miliona urządzeń. Zasilacze awaryjne z logo EVER pracują zarówno w mieszkaniach prywatnych, rodzinnych firmach, jak i wielkich korporacjach.

DLACZEGO WARTO WSPÓŁPRACOWAĆ Z FIRMĄ

EVER? Od początku działalności EVER przywiązuje wagę do budowania dobrych relacji w  kanale partnerskim. Działania producenta zmierzają do tego, aby współpraca była oparta na dokładnym precyzowaniu oczekiwań związanych z  jakością, ceną czy zakresem usług. Ważną rolę w kontaktach z partnerami pełni polityka informacyjna.

32

maj 2013

EVER przesyła systematycznie aktualne informacje o nowościach oraz akcjach promocyjnych, a o prawidłowe relacje z resellerami dba specjalnie wyznaczony do tego celu pracownik. Trzystopniowy program partnerski premiuje najlepszych partnerów, którzy mogą liczyć na dofinansowanie sprzedaży oraz działań reklamowych. W przypadku zaawansowanych produktów, a do takich należą zasilacze awaryjne dużych mocy, istotne jest wsparcie techniczne ze strony producenta. EVER oferuje m.in. pomoc przy opracowywaniu ofert przetargowych oraz doradztwo energetyczne – od fazy projektu aż do montażu. Resellerzy najlepiej sprzedają produkty dobrze im znane, stąd EVER kładzie dyży nacisk na edukację. Firma organizuje cykliczne szkolenia, czasami wspólnie z producentami sprzętu obsługiwanego przez zasilacze awaryjne. Atutem oferty polskiego producenta są konkurencyjne i stabilne ceny, niepodlegające wahaniom kursów walutowych. Firmy sprzedające pr produkty marki EVER m mają dostęp do szerokiej gamy urządzeń. Systemy małej mocy mo przeważają w strukturze sprzew stru daży pod p względem ilościowym. Handel ilościo tego typ typu rozwiązaniami daje zyski z z marży. Jednak większ większe możliwości w  zakresie powiększania powię przychodów niesie ze so sobą sprzedaż zasilaczy średniej i dużej m mocy. O ile niemal każdy użytkownik do domowy czy też

MARIUSZ PIĄTKIEWICZ dyrektor ds. handlu i marketingu, EVER

We wszelkich działaniach dążymy do doskonałości. Wysoka jakość produktów, nowoczesne oprogramowanie, innowacyjne rozwiązania, szybki serwis i okres gwarancji nawet do 5 lat są filarami, na których zbudowaliśmy ofertę handlową. Nasi partnerzy zawsze mogą liczyć na atrakcyjne warunki współpracy i silne wsparcie merytoryczne.

biznesowy łatwo poradzi sobie z podłączeniem urządzenia małej mocy, o tyle w przypadku większych rozwiązań sprawy się komplikują. W tym segmencie rynku sprzedaż rządzi się swoimi prawami. Dealer, oprócz przychodów ze sprzedaży, otrzymuje pieniądze za instalację oraz serwis. Istnieje też możliwość wydłużenia okresu gwarancyjnego bądź skrócenia czasu reakcji serwisu. Do tego często dochodzą przeglądy techniczne, sprzedaż dodatkowych opcji serwisowych i wymiana akumulatorów na nowe.

DLACZEGO PRODUKTY MARKI EVER? Producent opracowuje zasilacze awaryjne z myślą o zapewnieniu maksymalnego poziomu ochrony oraz racjonalnym gospodarowaniu energią. Urządzenia zawierają szereg innowacyjnych rozwią-

EVER TO TAKŻE EKOLOGIA Ciekawym rozwiązaniem jest programowalny tryb pracy ECO, umożliwia-

EVER udziela 5 lat gwarancji na systemy średniej i dużej mocy. nastu jący oszczędności nawet do kilkunastu tysięcy złotych w skali roku. Użytkowkownik może zaprogramować automatycztyczne przejście urządzenia w tryb ECO, O, na przykład po godzinach pracy lub w dni wolne, jednocześnie zachowując pełną ochronę podłączonego sprzętu przed rzed zanikami napięcia. Innym nowatorskim skim rozwiązaniem, zastosowanym w  serii POWERLINE GREEN 33, jest kompenpensacja mocy biernej. Znajduje ono zastoastosowanie w środowisku dużego poboru b mocy, przyczyniając się do obniżenia kosztów zużycia energii elektrycznej. W przypadku zasilaczy o  mocy 60–140  kVA oszczędności w  skali roku mogą sięgać 36,5 tys. złotych. Zasilacze POWERLINE mogą pracować przy szerokim zakresie napięcia wejściowego, a  także w  trybie hybrydowym, co znacznie wydłuża czas funkcjonowania w trybie rezerwowym oraz trwałość eksploatowanych akumulatorów. EVER opracował też redundantne rozwiązania dla średnich i dużych mocy zasilania awaryjnego, zwiększające stopień ochrony systemów. Firma nie zapomina o mniejszych odbiorcach. W  drugiej połowie ubiegłego roku swoją premierę miały produkty ECO LCD o zakresie mocy 500–1000 VA. Charakterystyczne cechy tych zasilaczy to: łatwa wymiana baterii, wyświetlacz informujący o statusie pracy, obsługa za pomocą wielofunkcyjnego przycisku oraz tryb oszczędzania energii.

PROGNOZY NA PRZYSZŁOŚĆ W najbliższych latach rynek zasilaczy awaryjnych będzie sukcesywnie rosnąć –  zapewniają analitycy z  renomowanych firm badawczych. W 2015 r. war-

tość światowego rynku UPS osiągnie blisko 10 mld dol. Duże zapotrzebowanie na zasilacze awaryjne będzie wśród średnich i dużych przedsiębiorstw. Według danych Frost and Sullivan wartość sprzedanych zasilaczy awaryjnych przeznaczonych do podtrzymania zasilania w dużych centrach danych osiągnie w 2017 r. 4,55 mld dol., zaś w mniejszych – 2,76 mld dol. Rozwój nowoczesnych technologii, takich jak cloud computing, wirtualizacja czy strumieniowe przesyłanie mediów, stawia przed producentami systemów zasilania gwarantowanego nowe wyzwania. EVER z uwagą śledzi rozwój wypadków, na bieżąco i elastycznie dostosowując swoją ofertę do oczekiwań użytkowników.

Dodatkowe informacje: MARIUSZ PIĄTKIEWICZ DYREKTOR DS. HANDLU I MARKETINGU EVER SP. Z O. O. 62-020 SWARZĘDZ UL. GRUDZIŃSKIEGO 30 TEL. (61) 65-00-404 M.PIATKIEWICZ@EVER.EU maj 2013

33

MATERIAŁ POWSTAŁ WE WSPÓŁPRACY Z EVER.

zań docenianych zarówno przez klientów, jak i niezależne instytucje. Instytut Nauk Ekonomicznych PAN umieścił producenta na liście 500 najbardziej innowacyjnych polskich przedsiębiorstw. Opracowywanie nowatorskich systemów nie byłoby możliwe bez doświadczonej kadry fachowców. Inżynierowie pracujący w EVER podejmują się tworzenia wielu nietypowych rozwiązań zasilania awaryjnego. Firma korzysta też z  wiedzy rodzimych naukowców, współpracując z zewnętrznymi ośrodkami badawczo-naukowymi, m.in. Politechniką Poznańską. Warto podkreślić, że urządzenia producenta uwzględniają specyfikę polskiej sieci energetycznej i spełniają najbardziej restrykcyjne normy jakościowe. EVER jako pierwszy producent na świecie opracował zasilacze UPS oparte na technologii superkondensatorowej. Obecnie dominującym elementem przy magazynowaniu energii używanym w urządzeniach zasilania gwarantowanego są akumulatory żelowe. Mają one kilka mankamentów, takich jak ograniczona żywotność, liczba cykli ładowania i rozładowania oraz podatność na uszkodzenia. Superkondensator umożliwia skrócenie czasu ładowania z  kilku godzin do kilku minut. Zasilacze SINLINE EVOLUTION są bardzo odporne na warunki zewnętrzne i działają bez żadnych problemów w temperaturach od -40 do +60 stopni Celsjusza. EVER sukcesywnie rozwija grupę urządzeń z serii SINLINE EVOLUTION, wyposażonych w superkondensatory. Producent rozbudowuje także ofertę w  zakresie systemów dużej mocy. Przykładem jest rodzina zasilaczy POWERLINE 33 (moc 60–140 kVA). To urządzenia w architekturze on-line z  podwójnym przetwarzaniem oraz sinusoidalnym napięciem wyjściowym o  najwyższej jakości parametrów VFI-SS-111. Cechuje je wysoka sprawność energetyczna na poziomie 98  proc., bardzo wysoka odporność na udary oraz prądy zwarcia.

ZASILANIE I KLIMATYZACJA

Profesjonalne rozwiązania dla

małych i średnich firm Emerson Network Power jest globalnym liderem technologicznym w zakresie rozwiązań gwarantowania ciągłości funkcjonowania systemów o krytycznym znaczeniu dla przedsiębiorstw. W swojej ofercie ma rozwiązania dla przedsiębiorstw każdej wielkości.

Na 

potrzeby małych i średnich firm powstał system Liebert SmartAisle zapewniający ciągłość pracy infrastruktury. W skład rozwiązania wchodzą systemy zasilania gwarantowanego, klimatyzacji precyzyjnej, szafy przemysłowe wraz z  zabudową zimnych korytarzy, listwy zasilające i  systemy zdalnego dostępu (KVM) oraz oprogramowanie do monitorowania i zarządzania infrastrukturą fizyczną oraz IT. SmartAisle może obsługiwać małe systemy o obciążeniu od kilku kilowatów. Można go rozbudować, zapewniając bezproblemową obsługę także systemów większej skali.

ELASTYCZNE I SKALOWALNE Najważniejszymi kryteriami, którymi należy kierować się przy budowie infrastruktury krytycznej, są bezpieczeństwo oraz ciągłość funkcjonowania, skalowalność, energooszczędność i możliwość dopasowania do dynamicznie zmieniających się obciążeń. Zapewnienie wysokiego poziomu dostępności następuje dzięki nadmiarowości urządzeń z zakresu klimatyzacji precyzyjnej oraz zasilania gwarantowanego. Najczęściej spotykanym poziomem redundancji systemów krytycznych jest N+1, tzn. układ, w którym N urządzeń zapewnia poprawne funkcjonowanie serwerowni przy 100-procentowym obciążeniu, a urządzenie lub moduł nadmiarowy stanowi rezerwę na wypadek awarii lub konieczności wyłączenia któregoś z komponentów. Zasilacz UPS APM zastosowany w systemie SmartAisle umożliwia modułową rozbudowę w zakresie 30–600 kW mocy przy zachowaniu nadmiarowości w postaci jednego modułu. Wymiernymi korzyściami eksploatacyjnymi z użytkowania

34

maj 2013

tego zasilacza są wysoka sprawność pracy w trybie podwójnej konwersji (do 96 proc. w zakresie 20–100 proc. obciążenia), dynamiczne dopasowanie do aktualnego obciążenia, rozbudowa typu hot-swap (kolejne moduły mocy mogą być dodawane bez konieczności zatrzymywania pracy modułów już pracujących) oraz symetryczny współczynnik mocy PF=1, co oznacza, że 1 kVA=1 kW zarówno dla obciążeń indukcyjnych, jak i  rezystancyjnych. Dla każdego z modułów zasilających przygotowane są moduły bateryjne, które mogą być instalowane w obudowie zasilacza lub w osobnej szafie bateryjnej o tych samych wymiarach. Czas podtrzymania baterii definiowany jest przez użytkownika i wynosi najczęściej 10–15 minut. KLIMATYZACJA PRECYZYJNA

Bezpieczeństwo pracy serwerów jest zapewnione także dzięki utrzymaniu odpowiedniej temperatury i  wilgotności powietrza w centrum danych. W odróżnieniu od klimatyzacji biurowej lub mieszkalnej, systemy klimatyzacji w serwerowni muszą zapewnić precyzyjną regulację temperatury i wilgotności po stronie zimnej serwerów (22oC przy wahaniach +/-2oC, 40–60  proc. wilgotności względnej) przez cały rok, niezależnie od zewnętrznych warunków pogodowych. Dodatkowym wymogiem dla tego typu systemów jest możliwość płynnego dostosowania wydajności chłodniczej do aktualnego zapotrzebowania serwerów wynikającego ze zmiennego charakteru pracy aplikacji (wirtualizacja, chmura obliczeniowa) lub stopniowej rozbudowy obiektu. Ze względu na konieczność utrzymywania ściśle określonej wilgotności w  pomieszczeniu serwerowni ważnym

elementem jest współczynnik SHR, który oznacza stopień wykraplania wilgoci przez układ klimatyzacji. Powinien on być równy 1, bowiem wykraplanie i uzupełnianie wilgoci jest niepotrzebnym kosztem eksploatacyjnym. Dla optymalnej pracy systemu zalecane jest wydzielenie strefy zimnej i gorącej w serwerowni poprzez zabudowanie korytarza zimnego, zaślepienie miejsc w szafach przemysłowych niezajętych przez serwery, uszczelnienie przejść kablowych w podłodze technicznej. Dodatkowo, aby nie tworzyć nadciśnienia w przestrzeni zamkniętego korytarza, konieczne jest zastosowanie regulacji ilości powietrza nawiewanego w zależności od zmiennego zapotrzebowania serwerów. Wydzielenie stref równoważy ilość powietrza nawiewanego do strefy zimnej z ilością powietrza pobieranego przez serwery, dzięki czemu podnosimy efektywność energetyczną systemu klimatyzacji oraz nie obniżamy żywotności serwerów (zaleca się pracę serwerów przy nadciśnieniu nie wyższym niż 0–4 Pa). Wszystkie komponenty zabudowy korytarzy (szafy przemysłowe o wysokim stopniu perforacji oraz systemowych zaślepkach dystrybucji powietrza, drzwi przesuwne lub wahadłowe, dach, kratki nawiewne i uszczelnienia podłogi technicznej) dostępne są w ramach standardowych rozwiązań systemu SmartAisle. W ramach rodziny klimatyzacji precyzyjnej SmartAisle dostępne są rozwiązania do zabudowy rzędowej (Liebert CRV) lub szafy klimatyzacji precyzyjnej Liebert HPM z nadmuchem pod podłogę techniczną. Dostępne są też rozwiązania freonowe (zalecane do systemów IT zużywających do 150 kW mocy) lub wykorzystujące wodę lodową z zewnętrznymi, monoblokowymi

LIEBERT SMARTAISLE – KOMPLEKSOWE ROZWIĄZANIE INFRASTRUKTURY KRYTYCZNEJ DLA MAŁYCH I ŚREDNICH PRZEDSIĘBIORSTW ZABUDOWA

ZASILANIE GWARANTOWANE

SZAFY RACK

ZIMNYCH KORYTARZY

LIEBERT HPC

KNÜRR DCM MIRACEL

LIEBERT APM

ZARZĄDZANIE INFRASTRUKTURĄ IT

MONITORING

LIEBERT CRV LIEBERT HPM LIEBERT RMS

LISTWY ZASILAJĄCE W przypadku, gdy serwerownia służyć będzie do celów kolokacyjnych lub konieczne jest rozliczanie kosztów pomiędzy różnymi działami przedsiębiorstwa, zaleca się zastosowanie listew zasilających z możliwością monitorowania i zarządzania na poziomie całej listwy lub nawet poszczególnych gniazd zasilających. W systemie SmartAisle dostępne są listwy monolityczne typu Liebert MPH ( jedno- i trzyfazowe, do 32 A na fazę) oraz modułowe listwy Liebert MPX ( jedno- i trzyfazowe, do 63 A na fazę) z możliwością rozbudowy i zmiany konfiguracji listwy w trybie hot-swap. Użytkownicy mogą także monitorować wszystkie parametry urządzenia i zarządzać nimi z dokładnością do każdego gniazda. Wszystkie listwy są przeznaczone do pracy w temperaturze do +55oC (co jest szczególnie istotne w  przypadku systemów z zabudowanymi korytarzami oraz serwerami wysokiej gęstości). Dokładność pomiaru do +/-1 proc. oraz możliwość połączenia do 4 listew pod jednym numerem IP umożliwia optymalizację kosztu licencji oprogramowania do zarządzania infrastrukturą. Oprogramowanie tego typu (Data Center Infrastructure Management, DCIM) umożliwia zarządzanie infrastrukturą fizyczną serwerowni z wykorzystaniem protokołu SNMP (Liebert NForm), ułatwiając analizowanie trendów, śledzenie komunikatów, ostrzeżeń i  alarmów, generowanie trapów SNMP lub zdalnych komunikatów dla administratora (SMS, mail). Do zarządzania warstwą IT dostępne

KLIMATYZACJA PRECYZYJNA

AVOCENT SERIAL CONSOLE

RACK PDU

AVOCENT KVM SWITCH

AVOCENT SERVICE PROCESSOR MANAGER

AVOCENT DATA CENTER PLANNER AVOCENT DS VIEW

KONSOLA KVM

LIEBERT ICOM

DETEKTORY

CZUJNIKI

są rozwiązania Avocent Data Center Planner oraz systemy zdalnego dostępu Avocent KVM, KVM Switch, Serial Console.

SPRZEDAŻ EMERSONA W POLSCE W 2013 r. Emerson Network Power rozpoczął sprzedaż poprzez polskich dystrybutorów – ABC Datę oraz Action. Kanał dystrybucyjny jest dla Emerson Network Power jednym ze strategicznych obszarów w regionie EMEA. Dla tej grupy odbiorców producent przygotował specjalną ofertę urządzeń zasilających małej mocy. W Europie wprowadzono ją na rynek włoski, francuski, rosyjski i brytyjski, obecnie jej zasięg jest rozszerzany o Polskę, Hiszpanię, Afrykę i Środkowy Wschód. W pierwszej kolejności w ofercie dystrybutorów znalazły się UPS-y jednofazowe o mocy od 500 VA do 10 kVA z serii off-line (Liebert PSP), line-interactive (Liebert PSA, Liebert PSI) oraz serii on-line (Liebert GXT3). Każda z serii wprowadzonych do dystrybucji charakteryzuje się inną funkcjonalnością i przeznaczeniem. Służą zarówno do zastosowań domowych, firmowych, jak i bezpiecznego zasilania małych

LIEBERT NFORM

KNÜRR LIEBERT MPX LIEBERT MPH AVOCENT PM

serwerowni. Od maja 2013 r. ABC Data poszerzyła ofertę o UPS-y trójfazowe z serii NXC 10–40 kVA oraz szafy przemysłowe marki Knürr, należącej do grupy Emerson Network Power. Na wszystkie produkty z oferty dystrybucji przygotowane są liczne promocje cenowe. Można zapoznać się z nimi na stronach dystrybutorów. Emerson Network Power wspiera swoich klientów największą globalną organizacją serwisową w branży, posiada ponad 150 punktów serwisowych na całym świecie. Za ich pośrednictwem zapewnia usługi projektowe, instalacje, uruchomienie, obsługę gwarancyjną, konserwację prewencyjną, zdalne monitorowanie w trybie 24/7, usługi awaryjne oraz kontrolę na miejscu instalacji urządzenia.

Dodatkowe informacje: PAWEŁ UMIŃSKI, REGIONAL SALES MANAGER AC POWER, EMERSON NETWORK POWER, PAWEL.UMINSKI@EMERSON.COM maj 2013

35

MATERIAŁ POWSTAŁ WE WSPÓŁPRACY Z EMERSON NETWORK POWER.

agregatami chłodniczymi Liebert HPC ze zintegrowaną funkcją freecooling. Efektywność systemu klimatyzacji precyzyjnej jest jednym z najważniejszych elementów z punktu widzenia kosztów eksploatacji serwerowni, mającym znaczący wpływ na całkowity koszt użytkowania (TCO – Total Cost of Ownership) tego typu obiektów. Klasyczne rozwiązania klimatyzacji precyzyjnej odpowiadają nawet za 35 proc. całkowitego zużycia energii serwerowni. Opisane wyżej systemy klimatyzacyjne Emerson Network Power ograniczają ten koszt o ponad 60 proc., co może znacząco poprawić wynik finansowy przedsiębiorstwa.

ZASILANIE I KLIMATYZACJA

Klimatyzacja centrów danych

MATERIAŁ POWSTAŁ WE WSPÓŁPRACY Z SCHNEIDER ELECTRIC.

S

POMIESZCZENIE

ARCHITEKTURA DLA SZAF

Fizyczne rozmieszczenie urządzeń klimatyzacyjnych z grupy Computer Room Air Conditioning (CRAC) może być różne. Mogą one obejmować całe pomieszczenie, ale też być przypisane poszczególnym rzędom szaf przemysłowych lub wręcz pojedynczym szafom.

Urządzenia CRAC mogą być przymocowane bezpośrednio do szaf lub zamontowane w ich wnętrzu. W porównaniu z innymi architekturami ścieżki przepływu powietrza są tu jeszcze krótsze i dokładniej określone, co przekłada się na ich całkowitą odporność na zmiany w instalacji i ograniczenia związane z układem pomieszczenia. Można wykorzystać pełną znamionową moc urządzeń CRAC i osiągnąć jej najwyższą gęstość (maks. 50 kW na szafę).

ARCHITEKTURA DLA CAŁYCH

ARCHITEKTURA MIESZANA

POMIESZCZEŃ

Nic nie stoi na przeszkodzie, aby architektury chłodzenia całego pomieszczenia, rzędów i pojedynczych szaf mogły być zastosowane łącznie w tej samej instalacji. W praktyce często takie mieszane rozwiązanie jest bardzo korzystne – szczególnie w centrach danych, w których występuje szeroki zakres gęstości mocy.

Skuteczne chłodzenie systemów IT gwarantuje ich nieprzerwaną pracę. ystem klimatyzacji w każdym centrum danych pełni dwie kluczowe funkcje: zapewnia dostarczenie mocy oraz powietrza do urządzeń IT. Całkowita moc chłodzenia systemu klimatyzacji (podawana w kilowatach) jest taka sama dla wszystkich systemów chłodzenia – musi pokrywać całkowitą moc obciążenia (kW) urządzeń IT. Technologie służące do spełnienia tej funkcji są jednakowe niezależnie od tego, czy system chłodzenia zaprojektowano dla pojedynczego pomieszczenia, rzędu szaf czy pojedynczej szafy. Główna różnica pomiędzy sposobami chłodzenia tkwi w sposobie dostarczania powietrza do klimatyzowanych urządzeń. W odróżnieniu od zasilania, gdzie przepływ ogranicza się do przewodów i jest wyraźnie widoczny jako element całej konstrukcji, przepływ powietrza jedynie z grubsza ogranicza konstrukcja budynku, natomiast nie jest on widoczny i w różnych pomieszczeniach może zachodzić w zupełnie inny sposób. Skuteczne sterowanie przepływem powietrza to główny cel różnych rozwiązań konstrukcyjnych systemów chłodzenia.

trza są krótsze i wyraźniej określone oraz znacznie bardziej przewidywalne. Dzięki temu można w nich wykorzystać pełną znamionową moc urządzeń CRAC i osiągnąć jej większą gęstość.

Architektura obejmująca całe pomieszczenie może się składać z  jednego lub wielu klimatyzatorów dostarczających chłodne powietrze przez kanały, przepustnice, otwory wentylacyjne itp. Doprowadzanie i odprowadzanie powietrza może być częściowo ograniczone systemem podniesionej podłogi lub umieszczoną w  górnej części pomieszczenia komorą powrotną.

ARCHITEKTURA DLA RZĘDÓW Urządzenia CRAC dla poszczególnych rzędów szaf mogą być zainstalowane pomiędzy szafami ze sprzętem IT w górnej części pomieszczenia lub pod podłogą. W porównaniu z architekturą dla całych pomieszczeń ścieżki przepływu powie-

RZĄD

SZAFA

ROZWIĄZANIA HYBRYDOWE Dostępne są także inne technologie chłodzenia o  własnościach uniemożliwiających zaklasyfikowanie ich do którejkolwiek z  opisanych architektur i mające cechy każdej z nich. Przykładem mogą być kanałowe systemy wydmuchiwania powietrza wylotowego, które przechwytują ogrzane powietrze z szafy i zawracają je kanałami bezpośrednio do systemu chłodzenia całego pomieszczenia. Takie rozwiązanie ma pewne zalety systemu chłodzenia szafy, lecz może zostać zintegrowane z istniejącym lub planowanym systemem chłodzenia całego pomieszczenia.

Dodatkowe informacje: SŁAWOMIR KUBICZEK, ARCHITEKTURA SYSTEMU CHŁODZENIA DLA CAŁYCH POMIESZCZEŃ, RZĘDÓW I POJEDYNCZYCH SZAF PRZEMYSŁOWYCH. NIEBIESKIE STRZAŁKI SYMBOLIZUJĄ GŁÓWNE ŚCIEŻKI DOPROWADZANIA CHŁODZENIA.

36

maj 2013

DYREKTOR SPRZEDAŻY ROZWIĄZAŃ CHŁODNICTWA I KLIMATYZACJI PRECYZYJNEJ, SCHNEIDER ELECTRIC POLSKA, SLAWOMIR.KUBICZEK@SCHNEIDER-ELECTRIC.COM

y z C

?

CHMURA PRYWATNA

chmura w małej firmie ma sens Dzięki wirtualizacji małe i średnie przedsiębiorstwa mogą ograniczyć wydatki na IT, jednocześnie uzyskując wysoką dostępność i poprawiając bezpieczeństwo danych. Korzyści te pojawiają się jednak dopiero przy pewnej skali środowiska informatycznego. RAFAŁ JANUS

T

echnologia IT jest już rozwinięta w takim stopniu, że nie stanowi bariery dla budowania środowisk wirtualnych czy chmurowych. Pozostaje pytanie, czy w małej lub średniej firmie warto budować taki system samemu, czy nie lepiej skorzystać z coraz szerszej oferty usług dostępnych w sieci. Rozwikłanie tego dylematu ułatwi raczej księgowy niż dyrektor IT. Im droższa jest godzina przestoju firmowej aplikacji, tym wyższego poziomu gwarancji oczekuje się od dostawcy usługi, co podnosi wysokość jego wynagrodzenia. Jednak dopiero po przekroczeniu pewnej wielkości środowiska i poziomu bezpieczeństwa tańsze okazuje się utrzymanie własnej infrastruktury. Jako osobną kwestię należy rozważyć bezpieczeństwo danych i zgodność wybranego modelu z regulacjami prawnymi – tu koszt ryzyka bywa wysoki i może szybko przechylić szalę na korzyść budowy chmury prywatnej. Dlatego jest ona dobrym rozwiązaniem dla przedsiębiorstw, które z różnych powodów (np. ze względu na ścisłą ochronę danych osobowych) nie mogą przekazywać i przechowywać pozyskiwanych informacji poza swoimi siedzibami. Możliwe jest też budowanie środowisk hybrydowych, w których część zasobów jest przechowywana lokalnie, dzięki temu zapewniona jest zgodność z wymaganiami ustawy o przetwarzaniu danych osobowych, a pozostałe zostają przeniesione do chmury publicznej. Chmura hybrydowa staje się coraz popularniejsza,

gdyż umożliwia firmom optymalne wykorzystanie chmury prywatnej i publicznej w  zależności od zmieniających się warunków biznesowych. Korzystające z chmury hybrydowej przedsiębiorstwa mają do dyspozycji środowisko dopasowane do różnych rodzajów działalności. Jednak wyzwaniem pozostaje utrudniona integracja usług z powodu braku spójności danych.

JAK SPRZEDAĆ CHMURĘ? Wirtualizacja i prywatne chmury umożliwiają lepsze wykorzystanie infrastruktury IT. W przypadku typowej implementacji chmury prywatnej przedsiębiorstwa konsolidują rozproszone zasoby IT, co przekłada się na zwiększenie poziomu ich wykorzystania czy niższe koszty utrzymania oraz zarządzania. Motywy, które najczęściej skłaniają firmy do wdrożenia wirtualizacji, a w kolejnym etapie – chmury prywatnej, nie sprowadzają się tylko do oszczędności. Redukcja kosztów jest oczywiście siłą napędową wirtualizacji, ale tuż za nią plasuje się chęć zapewnienia ciągłości biznesowej oraz elastyczności. Badania firm analitycznych wykazują, że przedsiębiorstwa, które zostały odcięte na około 48 godzin od infrastruktury IT, bardzo często w ciągu roku zamykały działalność, co wynikało bezpośrednio ze strat poniesionych w czasie awarii. Korzyści płynące z chmury prywatnej są ewidentne, ale często trudno mierzalne. Zmniejszenie liczby problemów z infra-

strukturą, zapewnienie wysokiej dostępności i ciągłości pracy, a także zapewnienie bezpieczeństwa danych i pewność, że systemy komputerowe będą stale wspierać działalność biznesową –  te argumenty mogą skutecznie przekonać klienta do zainteresowania się wirtualizacją i cloud computingiem. Warto wskazywać na elastyczność infrastruktury, co przekłada się na szybkość realizacji projektów IT. Z kolei automatyzacja procesów podniesie niezawodność i ograniczy koszty związane z przestojami i usuwaniem awarii. Chmura prywatna przesuwa IT z pozycji centrum kosztów w kierunku dostawcy usług biznesowych i generatora zysków (IT as a Service).

ANDRZEJ KONTKIEWICZ Regional SE Manager Eastern Europe, VMware

Oczekiwania małych i średnich przedsiębiorstw w kwestii IT nie różnią się znacznie od oczekiwań wielkich korporacji. Najistotniejsze są dla nich minimalizacja nakładów finansowych na budowę i utrzymanie własnej infrastruktury. Wprowadzenie wirtualizacji umożliwia redukcję kosztów i uniknięcie wielu problemów. Jest to też pierwszy krok do zbudowania prywatnej chmury i automatyzacji zarządzania, co w efekcie ułatwi korzystanie ze środowiska. maj 2013

37

CHMURA PRYWATNA W czasie rozmów z  klientem końcowym na temat chmury prywatnej istotnym elementem jest szeroko rozumiane bezpieczeństwo oferowanego środowiska. Należy przy tym brać pod uwagę nie tylko bezpieczeństwo związane z oferowanym sprzętem IT (serwery, macierze, sprzęt sieciowy), ale całego środowiska, w tym bezpieczeństwo fizyczne. Decyzja o wyborze chmury prywatnej powinna być w każdym przypadku poprzedzona szczegółową analizą wymagań biznesowych.

rów, którzy dostarczają zarządzane usługi hostingowe lub chmury dla takich klientów. Nie ma przy tym generalnej recepty rozstrzygającej, kiedy budowa chmury prywatnej jest uzasadniona, a w których przypadkach można skorzystać z hostowanych rozwiązań współdzielonych. Chmura prywatna daje większą gwarancję ochrony informacji i dostępności mocy obliczeniowej, która nie jest współdzielona przez wielu użytkowników. Z drugiej strony – im bardziej dedykowane środowisko, tym mniejsze są zalety korzystania z chmury.

SKALA OPŁACALNOŚCI Osiągnięcie omówionych korzyści jest możliwe, gdy przedsiębiorstwo dysponuje infrastrukturą o odpowiedniej wielkości. Nie ma sensu przekonywać do budowania własnej chmury firmy, która ma np. dwa serwery i kilka aplikacji. W większości takich przypadków nie byłoby to rozwiązanie efektywne ekonomicznie. Powodem jest konieczność poniesienia wysokich nakładów początkowych na stworzenie infrastruktury oraz jej rozbudowy w przypadku rozwoju istniejących rozwiązań. – W przypadku średnich przedsiębiorstw możemy mówić o budowie prywatnej chmury, jeżeli środowisko IT takiej firmy wymaga częstych zmian i wprowadzenia łatwego rozliczania kosztów IT wewnątrz firmy – podpowiada Stanisław Daniluk, Managed Service Providers Sales Leader w polskim oddziale IBM. – Małe firmy mogą wykorzystać rozwiązania oferowane przez reselle-

WIRTUALIZACYJNE BARIERY Interesujące jest zestawienie korzyści z  wirtualizacji z  barierami wdrożenia tej techniki. Z badań przeprowadzonych przez firmę Canalys wśród resellerów z  regioniu EMEA wynika, że do głównych barier dalszego rozwoju wirtualizacji wśród małych i średnich firm należą koszty wstępne oraz niezaliczanie wirtualizacji do priorytetów krótkoterminowych. Trzecim decydującym czynnikiem jest brak zrozumienia, co sugeruje, że producenci i ich partnerzy powinni lepiej uświadamiać klientom, co dokładnie może zaoferować im wirtualizacja. Obserwacje polskiego rynku prowadzą do podobnych wniosków. Natomiast takie korzyści, jak ciągłość biznesowa czy elastyczność infrastruktury, nie w każdej organizacji są łatwe do przełożenia na zyski finansowe. Zaś barie-

ZBIGNIEW SWOCZYNA szef zespołu wsparcia sprzedaży Oracle Hardware, Oracle

Obecnie klienci przede wszystkim liczą pieniądze – te, które chcą wydać, i te, których nie chcą stracić. Decyzja związana z tworzeniem własnej infrastruktury IT lub powierzeniem jej zewnętrznej firmie jest związana głównie z twardą kalkulacją ekonomiczną. I jest ona wielowymiarowa – zawiera się w niej cena infrastruktury, cena utrzymania i szybkość reakcji na zmiany w „moim IT”.

ry w dużej mierze mają podłoże finansowe. Można je przełamywać poprzez uświadamianie pożytków płynących z rozwiązań w chmurze. Warto też dodać, że aż 86 proc. respondentów w badaniu Canalys uznał, iż wirtualizacja i przetwarzanie w chmurze są powiązane.

NIEWAŻNE, GDZIE STOI CHMURA Budowanie serwerowni w siedzibie firmy to szereg wyzwań, niektórym można podołać, korzystając z usług kolokacji czy hostingu. I nadal będzie to chmura prywatna, bo według wielu definicji jest to także taki typ chmury hostowanej, która zbudowana jest na bazie zasobów

POPULARNOŚĆ CHMUR PRYWATNYCH, PUBLICZNYCH I HYBRYDOWYCH WŚRÓD PRZEDSIĘBIORSTW prywatne

publiczne

już używa 25,3%

brak decyzji 21,6%

brak decyzji 31,1%

hybrydowe

już używa 22,6%

brak decyzji 36,9%

obecnie wdraża 12,6%

obecnie wdraża 6,8%

nie będzie używać 9,5%

38

planuje używać 28,9% maj 2013

obecnie wdraża 14,7%

nie będzie używać 25,8%

planuje używać 13,7%

już używa 12,6%

planuje używać 16,3% nie będzie używać 21,6%

Źródło: IDC, 2012

fizycznych wydzielonych do wyłącznego wykorzystania przez jednego klienta. A zatem elementem różnicującym jest nie lokalizacja ( jeśli u siebie, to chmura prywatna, a gdy na zewnątrz, to publiczna), lecz braku współdzielenia zasobów fizycznych przez wiele firm. Tak rozumiana chmura prywatna budowana na zewnątrz będzie dobrą propozycją dla mniejszej lub średniej firmy. Obniża próg inwestycji w  przygotowanie pomieszczenia na serwerownię i  w  sprzęt (firma hostingowa również może go zapewnić). Jednocześnie takie podejście powinno rozwiać obawy klienta o  bezpieczeństwo danych, bo nie są one przechowywane na współdzielonej infrastrukturze, tak jak w chmurze publicznej. W ten sposób łączone są zalety chmury prywatnej i publicznej – zachowana pełna kontrola nad środowiskiem IT przy zapewnionym bardzo wysokim bezpieczeństwie. Możliwe będzie też przekształcenie kosztów kapitałowych (zakup sprzętu) na operacyjne (opłaty o charakterze subskrypcyjnym). Dostawcy oferują gotowe hostowane rozwiązania chmurowe przeznaczone dla sektora małych i średnich firm, które doskonale zaspokajają potrzeby IT tego segmentu, umożliwiając obniżenie kosztów i szybką reakcję na zmieniające się warunki rynkowe. Takie podejście daje przedsiębiorstwom większą elastyczność działania, możliwość skupienia się na prowadzeniu biznesu, a uzyskana w ten sposób łatwość dostosowania się do rynkowych realiów może ułatwić osiągnięcie przewagi konkurencyjnej. – Dla małych i średnich przedsiębiorstw w  wielu przypadkach najkorzystniejszy może być model hybrydowy, gdzie kluczowe usługi (np. przestrzeń dyskowa) są świadczone w modelu chmury prywatnej, a pozostałe są współdzielone w celu osiągnięcia optymalnego kosztowo rozwiązania – uważa Michał Grzegorzewski, Managed Services Manager w Fujitsu.

BARTŁOMIEJ MACHNIK System Center & Windows Server Product Manager w polskim oddziale Microsoft

Chmura prywatna we własnym centrum danych klienta przyniesie korzyści, jeśli zarządzana przez nią infrastruktura będzie złożona, a samodzielne zarządzanie taką infrastrukturą – po prostu nieefektywne. Gdy jednak liczba aplikacji i fizycznych serwerów ogranicza się do kilku, to wówczas wdrażanie chmury prywatnej nie będzie uzasadnione ani kosztowo, ani wzrostem efektywności infrastruktury.

chmurę prywatną o mniejszej skali – tłumaczy Bartłomiej Machnik, System Center & Windows Server Product Manager w polskim oddziale Microsoft. Podobnie jest w przypadku firmy Oracle. Klient może dziś budować niektóre usługi IT, korzystając z oprogramowania tej firmy w różnych modelach licencjonowania. Może nabyć tradycyjną platformę wielowarstwową lub prekonfigurowany i kompletny system, może wreszcie kupić wyspecjalizowane urządzenie z rodziny „engineered systems”. Ma również możliwość wyboru: nabyć licencje na własność lub korzystać z aplikacji Oracle udostępnionych w chmurze.

NA CZYM MOŻNA ZAROBIĆ? Można je dopasować do potrzeb danego przedsiębiorstwa, i to bez względu na jego wielkość. Inaczej mówiąc, producenci oferują swoim klientom – niezależnie od wielkości ich firm – te same rozwiązania. Można to dobrze zobrazować na przykładzie oferty VMware’a. Klienci, od najmniejszych do największych, korzystają z hypervisora VMware ESX, natomiast funkcjonalność całego rozwiązania można rozszerzać w miarę potrzeb, dokupując potrzebne moduły. Stąd brak u większości producentów propozycji przeznaczonych dla małych i średnich firm. Jednakże dostawcy z reguły przygotowują dla tego sektora specjalną ofertę cenową. Przykładowo mogą to być tańsze licencje zawierające pewne ograniczenia, np. dotyczące wielkości środowiska, w którym mogą być wykorzystane. Potwierdzają to wypowiedzi producentów. – Nie mamy osobnych wersji narzędzi „chmurowych” dla przedsiębiorstw małych i dla dużych, ale od strony kosztów licencji środowisko skalowane jest liniowo, a zatem mniejsza firma będzie potrzebowała po prostu mniej licencji, aby zbudować

Chmura prywatna daje możliwość stworzenia różnego rodzaju ofert. W  przypadku chmury prywatnej zbudowanej w firmie klienta zysk najczęściej pochodzi z marży ze sprzedaży sprzętu i oprogramowania. Można też wesprzeć klienta merytorycznie i zarobić na usługach wdrożeniowych czy szkoleniach. Taką ofertą można zainteresować nie tylko firmy, które nadal korzystają z infrastruktury serwerowej w tradycyjnym, nie wirtualnym modelu. Do dalszych inwestycji należy również przekonywać klientów, którzy już zwirtualizowali swoje centrum danych. Wizja posiadania własnej chmury prywatnej, będącej kolejnym etapem wirtualizacji oraz automatyzacji i usprawnienia zarządzania, powinna przekonać do projektu klientów dążących do przekształcenia działu IT z jednostki generującej koszty w jednostkę usługową. Gdy mówimy o chmurach prywatnych hostowanych w chmurze publicznej, model zarobkowania jest podobny. Reseller może pośredniczyć w sprzedaży takiej usługi pomiędzy jej dostawcami a klientem końcowym, zarabiając na marży.

WYBRANI DOSTAWCY ROZWIĄZAŃ DO BUDOWY CHMUR PRYWATNYCH OBECNI NA POLSKIM RYNKU

OFERTA DLA MAŁYCH I ŚREDNICH FIRM Dostępne na rynku rozwiązania przeznaczone do budowy chmur prywatnych i wirtualizacji są elastyczne i skalowalne.

CISCO: ABC DATA, KONSORCJUM FEN, RRC, TECH DATA CITRIX SYSTEMS: ARROW ECS, COMPUTERLINKS FUJITSU: AB, ABC DATA, TECH DATA, VERACOMP HP: AB, ABC DATA, ACTION, TECH DATA, VERACOMP

IBM: ARROW ECS, AVNET, RRC, TECH DATA MICROSOFT: AB, ABC DATA, ACTION, ARROW ECS, INCOM, TECH DATA ORACLE: ARROW ECS VMWARE: ARROW ECS, AVNET maj 2013

39

CHMURA PRYWATNA

HP CloudSystem Matrix HP ma w ofercie pełne, elastyczne rozwiązanie do budowy chmury – platformę, której cechy doceniają wszyscy: szefowie działów IT, administratorzy i dostawcy usług. Tym rozwiązaniem jest HP CloudSystem Matrix.

HP 

CloudSystem Matrix łączy w sobie serwery, pamięci masowe, urządzenia sieciowe oraz bezpieczeństwo. Współpraca tych komponentów została zautomatyzowana. W ten sposób powstało rozwiązanie, które daje firmom możliwość świadczenia usług z niespotykaną dotąd wydajnością i niezawodnością w chmurze prywatnej, publicznej i hybrydowej.

MATERIAŁ POWSTAŁ WE WSPÓŁPRACY Z HP I AZLAN.

KONWERGENTNA CHMURA Rozwiązanie HP CloudSystem Matrix zostało zbudowane zgodnie z przyjętą przez HP filozofią konwergentnej chmury (HP Converged Cloud). Umożliwia ona budowanie, zarządzanie, ochronę i użytkowanie usług zarówno w chmurze prywatnej i publicznej, jak też w tradycyjnym środowisku IT. Konwergentna chmura bazuje na otwartych standardach i jest heterogeniczna. Zgodne z nią rozwiązania są w stanie współpracować ze sprzętem i oprogramowaniem (w tym wirtualizatorami i systemami operacyjnymi) od wielu innych dostawców. Podstawowe cechy HP CloudSystem Matrix: – usługi mogą być dostępne już w ciągu kilku minut dzięki inteligentnej automatyzacji obejmującej zarówno infrastrukturę, jak i aplikacje,

ANDRZEJ KOWALSKI inżynier systemowy, Tech Data Polska / Azlan

Administratorzy potrzebują bogatych funkcjonalnie systemów, ale jednocześnie bardzo prostych w obsłudze. Takich, które będą wykorzystywały standardowe komponenty, ale zajmowały coraz mniej miejsca w serwerowni. Nie bez znaczenia pozostaje też automatyzacja zarządzania, aby administratorzy nie musieli odrywać się od swoich podstawowych obowiązków.

– pełne zarządzanie cyklem życia aplikacji – od ich wdrożenia do wycofania z użytku, – integracja i  wsparcie świadczone przez jednego dostawcę, co pozwala uniknąć zrzucania odpowiedzialności w  środowiskach wymagających wielu współpracujących ze sobą partnerów, – dostępne szablony usług i narzędzia (np. Cloud Maps), które pomagają dostawcom spersonalizować i zautomatyzować świadczone przez nich usługi, – możliwość dostarczania usług w modelach IaaS, PaaS i SaaS, – pełne wsparcie dla wszystkich modeli wdrożenia chmury (prywatna, hostowana prywatna, publiczna), co pozwala na dostosowanie środowiska do aktualnej wielkości firmy.

zarówno użytkownicy końcowi oraz hosterzy, jak też integratorzy, którzy po etapie wdrożenia opiekują się u  klientów wdrożonym rozwiązaniem. Na czas wdrożenia platformy można wykupić usługę dodatkowego wsparcia – HP CloudSystem Matrix Enablement Service. Zapewnia ona zwiększenie szybkości wdrożenia nowego środowiska, pozwalającego na świadczenie usług IT wewnątrz firmy lub klientom zewnętrznym. W ramach usługi wsparcia HP przeznacza do dyspozycji klienta specjalistę z działu technicznego, pomocnego przy implementacji rozwiązania oraz odpowiedzialnego za weryfikację, czy zostały spełnione wszystkie wymagania określone przez producenta. W ten sposób zagwarantowane jest dotrzymanie założonego czasu przeprowadzenia wdrożenia, a pracownicy działu IT mogą skupić się na swoich podstawowych obowiązkach. Dla wszystkich rozwiązań HP z rodziny Matrix można wykupić także 3-letni pakiet HP Support Plus 24 Care Pack Services. Gwarantuje on pełne techniczne wsparcie w trybie 24/7 zarówno dla sprzętu (obudowy, serwerów, zasilaczy, przełączników sieciowych itd.), jak też oprogramowania. W skład pakietu wchodzi także prawo do otrzymywania aktualizacji takich pakietów oprogramowania, jak Insight Dynamics, HP Insight Control Suite oraz HP Virtual Connect Enterprise Management. Korzystający z  pakietu Support Plus 24 mają zapewniony bardzo szybki dostęp do ekspertów HP z dziedziny rozwiązań Matrix.

DODATKOWE USŁUGI DLA HP CLOUDSYSTEM MATRIX Dla platformy HP CloudSystem Matrix dostępnych jest wiele rodzajów usług z zakresu wsparcia – zarówno podczas wdrożenia, jak też późniejszego użytkowania. Z  usług tych mogą korzystać

40

maj 2013

Dodatkowe informacje: ANDRZEJ KOWALSKI, INŻYNIER SYSTEMOWY, TECH DATA POLSKA / AZLAN HP@AZLAN.PL

CHMURA PUBLICZNA

Zarobić na usługach

TRZY RODZAJE USŁUG Bogaty rynek usług można podzielić na trzy grupy, w zależności od tego, na jakim poziomie są udostępniane zasoby chmury: – SaaS (Software as a Service – oprogramowanie jako usługa), – PaaS (Platform as a Service – system operacyjny jako usługa), – IaaS (Infrastructure as a Service – infrastruktura jako usługa), W każdej z tych grup znajdziemy usługi, w  sprzedaży których może pośredniczyć reseller. Najbardziej różnorodna oferta jest w kategorii Software as a Service. Swoje oprogramowanie w chmurze oferuje wielu producentów, w tym: Microsoft, Asseco, InsERT, Oracle, IBM, SAP czy Oxycom. PaaS należy rozumieć jako system operacyjny oferowany w formie usługi, na którym klient może zdalnie pracować. Dobrym przykładem tego rodzaju usługi są wirtualne serwery (VPS). Ostatnia grupa to popularne usługi hostingu, w których użytkownik otrzymuje do dyspozycji własną infrastrukturę, np. dzierżawiony serwer. Rozstrzygnięcie, który wariant może przynieść więcej korzyści biznesowych, zależy od preferencji samego resellera i rynku, na którym działa.

w chmurze

Firmy zaczynają interesować się korzystaniem z usług w chmurze bardziej niż inwestowaniem we własną infrastrukturę IT. Na szczęście dla resellerów w miejsce charakteryzujących się coraz mniejszą sprzedażą rozwiązań IT można zaproponować klientom coraz szerszy wachlarz usług świadczonych w modelu cloud. RAFAŁ JANUS tam przeniesiona, ponieważ nie wszystkie przedsiębiorstwa wymagają funkcjonalności i korzyści, jakie daje cloud computing. Część odbiorców nadal będzie prowadziła działalność IT w modelu tradycyjnym, jeszcze inni wykorzystają model hybrydowy, przenosząc do chmury tylko te zasoby, w przypadku których jest to uzasadnione.

ZAKRES ODPOWIEDZIALNOŚCI USŁUGODAWCÓW I UŻYTKOWNIKÓW CHMUR PUBLICZNYCH

APLIKACJE

SYSTEMY OPERACJNE

APLIKACJE

APLIKACJE

APLIKACJE

DANE

DANE

ŚRODOWISKO URUCHOMIE-

ŚRODOWISKO URUCHOMIE-

ŚRODOWISKO URUCHOMIE-

NIOWE

NIOWE

DANE

SYSTEMY OPERACJNE

WIRTUALIZACJA

WIRTUALIZACJA

SERWERY

SERWERY

DYSKI

DYSKI

SIEĆ

SIEĆ

ODPOWIEDZIALNOŚĆ OD DPOWIEDZ DPO DZ ZIALNOŚ OŚĆ USŁU USŁUIGODAWCY SŁU UIGOD DA DAWCY

NIOWE

CHMURY SAAS

SYSTEMY OPERACJNE WIRTUALIZACJA SERWERY DYSKI SIEĆ

ODPOW WIEDZIAL WI ALNOŚĆ ŚĆ Ć U USŁUIGODAWCY USŁUIGO IGO ODAW WCY ODPOWIEDZIALNOŚĆ

ŚRODOWISKO URUCHOMIE-

CHMURY PAAS

NIOWE

SYSTEMY OPERACJNE WIRTUALIZACJA SERWERY DYSKI

ZAR ARZĄDZANE RZĄDZAN NE PRZEZ EZ USŁU USŁUGODAWCĘ UGODAWC UGO WC CĘ

DANE

ODPOWIEDZIALNOŚĆ ODPOW OW WIEDZIAL LNOŚĆ KL LNO KLIENTA IENTA

WANIE

CHMURY IAAS

KL LIENT L IE KLIENT

TRADYCYJNE OPROGRAMO-

ZARZĄDZANE Ą PRZEZ UŻYTKOWNIKA

A

nalizując możliwość zarobienia na chmurze publicznej, trzeba rozróżnić dwa scenariusze: budowę własnej chmury publicznej lub pośredniczenie w sprzedaży usług chmurowych świadczonych przez inne firmy. Pierwszy stanowi duże wyzwanie i jest możliwy do zrealizowania tylko przez firmy dysponujące odpowiednim zapleczem finansowym i kompetencjami. Drugi to model dobrze znany firmom, z tą różnicą, że zamiast pudełek odsprzedaje się klientowi usługi. Firmy operujące chmurami publicznymi są otwarte na współpracę z partnerami handlowymi, chociaż zdecydowana większość nie decyduje się wyłącznie na sprzedaż przez kanał, ale prowadzi również sprzedaż bezpośrednią. – W filozofii naszej sprzedaży najwięcej uwagi poświęcamy kanałowi partnerskiemu, z myślą o którym budowane są przede wszystkim produkty –  mówi Krzysztof Jański, kierownik działu marketingu w Oxycomie. – Nie oznacza to jednak, że klient, który przyjdzie bezpośrednio do nas, zostanie odprawiony z kwitkiem. W takim lub podobnym modelu działają nie tylko polskie firmy, ale również międzynarodowe korporacje. Mimo rosnącego znaczenia usług w  chmurze warto też uświadomić sobie, że pewna część zasobów nie zostanie

SIEĆ

maj 2013

41

CHMURA PUBLICZNA 95

ŚWIATOWY RYNEK USŁUG ŚWIADCZONYCH W CHMURACH PUBLICZNYCH (MLD DOL.) 83

100 90

61

71

80

18 8

24

28 8

33

43 4 24

2,2 2 6,5

2,2 2 4,4

3,3 5,5

13

16

20 0 9 1,1 1 3,3

10

6 0,5 0 2,1

13 4 0,5 1,7

11 1 3 0,5 1,3

20

35

3 31

30

9 39

43 9 29

27

40

34

50

48 8

53

70 60

0 2011 2 01

2010 20 2 010 0 0

20 2013 013 3** 3 2013*

REKLAMY

USŁUGI REALIZACJI PROCESÓW

Z CHMURY

BIZNESOWYCH

INFRASTRUKTURA JAKO USŁUGA (IAAS)

PLATFORMA JAKO USŁUGA (PAAS)

PLATFORMA

20 014 014 4** 2014*

USŁUGI ZARZĄDZANIA I BEZPIECZEŃSTWA

RAFAŁ MRÓZ dyrektor ds. Asseco WAPRO ERP w Asseco Business Solutions

BUDOWA CHMURY PUBLICZNEJ

Od lat administratorzy mogą wirtualizować serwery – umieszczać je w maszynach wirtualnych działających na współdzielonej infrastrukturze fizycznej. Wirtualizacji mogą być poddane praktycznie wszystkie serwerowe systemy operacyjne. Oferując klientowi takie rozwiązanie, można zarobić nie tylko na marży, ale także na usługach wsparcia przy migracji istniejącego środowiska, np. maszyn wirtualnych do chmury. Odpowiednio zaplanowana migracja może zostać przeprowadzona w sposób nieodczuwalny dla końcowego użytkownika i z zachowaniem ciągłości pracy przedsiębiorstwa.

Usługę Asseco WAPRO online oferujemy bezpośrednio oraz poprzez sieć partnerów handlowych na terenie całego kraju. Koszt takiej usługi zaczyna się od ok. 150 zł netto. Oczywiście resellerzy, którzy z nami współpracują, otrzymują produkty w chmurze na preferencyjnych warunkach, aby pewien zysk mogli wypracować także dla siebie. maj 2013

2015 2 015 5** 2015*

20 016 0 6* 2016*

APLIKACJA JAKO USŁUGA (S ( AAS)

Z technicznego punktu widzenia nie ma praktycznie żadnych ograniczeń. Istotnym aspektem wpływającym na szybkość zmian w  firmowym IT pozostają oczywiście koszty wcześniejszych inwestycji poniesione przez klienta. Jeżeli kupił on w ostatnim roku nową infrastrukturę serwerową, która nie uległa jeszcze amortyzacji, raczej nieuzasadnione będzie przejście na rozwiązanie chmury publicznej. Nie oznacza to oczywiście, że taki klient nie może czerpać korzyści z zalet cloud computingu. Wciąż pozostaje wiele scenariuszy, którymi reseller może zainteresować klienta, np. wykorzystanie chmury publicznej jako zapasowego środowiska na wypadek awarii sprzętu, klęski żywiołowej itp. lub rozszerzenie centrum danych klienta na wypadek nieprzewidzianego przeciążenia infrastruktury.

JAKO USŁUGA

42

20 2 012 0 2 2012

Jeśli reseller zamierza zarabiać na świadczonych samodzielnie usługach, potrzebuje własnej chmury publicznej. Taka inwestycja wiąże się z bardzo wysokimi kosztami, zarówno jeśli chodzi o wydatki na sprzęt, jak i konieczność zatrudnienia doświadczonych specjalistów. Pomocą w pokonaniu tej bariery mogą być dotacje z Unii Europejskiej, która przeznacza pokaźne fundusze na dofinansowanie tego typu rozwiązań.

* prognoza Źródło: Gartner, luty 2013

DOROTA GRUDZIEŃ-MOLENDA Cloud Business Development Manager, HP

Wartość sprzedaży na rynku chmury obliczeniowej utrzymuje się na wysokim poziomie i nic nie wskazuje na to, aby w najbliższych 2–3 latach sytuacja ta miała ulec zmianie. Obecnie dynamika wzrostu wynosi ok. 35 proc. Cloud computing staje się standardem i coraz więcej użytkowników korzysta z tego modelu.

Aby osiągnąć zwrot z  inwestycji w  świadczenie usług chmury obliczeniowej, konieczne jest zachowanie odpowiednio dużej skali. Niezwykle istotne dla powodzenia procesu jest stworzenie ciekawej oferty, dobrze zaprojektowanego katalogu usług wykraczającego poza udostępnienie infrastruktury i baz danych. Taka oferta będzie szczególnie atrakcyjna dla mniejszych firm, które nie mają środków lub potrzeby, by tworzyć własny dział IT. Dla nich idealnym rozwiązaniem może okazać się skorzystanie z chmury publicznej dostarczonej przez firmę zewnętrzną, np. zaufanego partnera. Szczególnie jeśli w tym środowisku dostępne będzie dodatkowo

oprogramowanie w  modelu SaaS, potrzebne danej instytucji. Ważny jest też sukcesywny rozwój oferty. Klienci są coraz bardziej świadomi, a ich wymagania nieustannie rosną. Dlatego dostawcy usług muszą liczyć się z  koniecznością ponoszenia dużych nakładów –  zarówno finansowych, jak i pracy. Kolejnym newralgicznym czynnikiem jest stworzenie odpowiedniej bazy klientów, którzy zapewnią wystarczającą liczbę zamówień. W  tej chwili rynek usług w  chmurze intensywnie się rozwija; realizowanych jest wiele inwestycji związanych z  budową centrów przetwarzania danych oraz świadczeniem usług typu IaaS. Ten wzrost konkurencyjności, w połączeniu z sezonowością chmury (szczególnie publicznej) i dużą rotacją klientów, spowoduje odsianie najsłabszych dostawców tych usług.

dowisko aplikacji biznesowych, korzystając z gotowych usług dostępnych na rynku. Technologie chmury obliczeniowej mogą również pomóc w rozwiązaniu problemów związanych z zarządzaniem i zabezpieczaniem szybko rosnącej liczby urządzeń mobilnych. Dla przedsiębiorstw jest to istotne wyzwanie, ponieważ pracownicy coraz częściej korzystają z własnych urządzeń (trend BYOD) i  pracują poza biurem. Popularyzacja usług w chmurze stymuluje popyt na sprzęt, zarówno w  odniesieniu do tworzenia chmur prywatnych, jak i chmury publicznej. Jednocześnie rodzi obawy, że większość resellerów na tej wzmożonej rynkowej aktywności nie skorzysta. Firmy budujące duże chmury publiczne mogą realizować takie wdrożenie, nabywając niezbędne komponenty bezpośrednio od producentów. Oczywiście zależy to od polityki danego producenta – są tacy, którzy mają własny kanał partnerski, ale w przypadku grupy dużych korporacyjnych klientów sprzedaż prowadzą bezpośrednio. Ponadto większe, intratne kontrakty będą zapewne przejmowane przez największych graczy w kanale sprzedaży oraz przez dużych integratorów.

Oferta usług w chmurze powinna być dostosowana do potrzeb MSP.

PERSPEKTYWY W CHMURZE Rynek usług w chmurze jest jak śniegowa kula – zaczyna się rozpędzać i rośnie coraz szybciej. Według firmy badawczej 451 cały rynek usług cloud (SaaS, PaaS oraz IaaS) rośnie w tempie 25 proc. rocznie. Co istotne, jeśli z tego zestawienia wyłączymy SaaS, to dla usług PaaS oraz IaaS otrzymamy średnie roczne tempo wzrostu na poziomie 60 proc. Te dwa segmenty na świecie przyniosły w 2010 r. 964 mln dol. przychodów, a prognoza na 2013 r. zakłada, że będą to prawie 4 mld dol. Wciąż lwią część tego tortu będą stanowić usługi IaaS, ale producenci oprogramowania wiążą duże nadzieje z modelem SaaS. Wraz z  rosnącym zainteresowaniem usługami online wśród klientów biznesowych i konsumentów na rynku pojawiło się niedawno wielu nowych dostawców. Oferty w tym zakresie zmieniały się bardzo dynamicznie na przestrzeni ostatnich paru lat, ale technologia chmury jest już tak rozwinięta, że można zbudować całe śro-

RICHARD STEVENSON ekspert firmy 1&1 Internet

Przyszłością polskiego rynku są niewątpliwie rozwiązania dedykowane i cloud computing. Rozwój w obu tych obszarach następuje najszybciej. W sprzedaży usług cloud zdecydowanie widzimy miejsce dla resellerów i zapraszamy ich do współpracy. Mamy program partnerski, dzięki któremu można zarobić spore sumy na prowizjach od poleconych lub zarejestrowanych przez siebie klientów.

MONIKA KARPIŃSKA Corporate Account Manager, Citrix Systems

W przypadku naszych partnerów popularyzacja chmury niesie obopólną korzyść, ponieważ oferując różnorodne oprogramowanie, posiadamy w ofercie także rozwiązania do łączenia firmowego IT z chmurą zewnętrzną, a także produkty do budowy środowisk w chmurze u klientów. Z kolei jeden z naszych kluczowych partnerów, firma ABS, poza sprzedażą rozwiązań Citrix, za pośrednictwem własnego rozbudowanego centrum danych od kilku lat oferuje zasoby innym firmom w modelu chmurowym.

JAK NA TYM ZAROBIĆ Resellerzy mają kilka możliwości zarabiania na chmurze publicznej. Najprostszym jest pośredniczenie w sprzedaży usług oferowanych przez inne podmioty. Pojawia się też możliwość zarabiania na doradztwie i wsparciu technicznym klienta, gdy w grę wchodzi proces migracji istniejącego środowiska IT do chmury publicznej. Ostatni wariant, najbardziej wymagający, to budowa własnej chmury i sprzedaż jej zasobów w modelu SaaS, PaaS czy IaaS. Klienci coraz częściej sami poszukują alternatywy dla własnej infrastruktury, gdyż dostrzegają korzyści płynące z usług i rozwiązań chmurowych. Aby przekonać sceptyków, warto przedstawić takie argumenty, jak brak kosztów inwestycyjnych na początku projektu, automatyczne skalowanie, zwiększone bezpieczeństwo, niezawodność oraz płacenie wyłącznie za wykorzystane zasoby. Firma badawcza IDC przewiduje, że w 2013 r. nastąpi duży wzrost wykorzystania usług chmurowych wśród małych i średnich firm. Jako przykład został podany rynek amerykański, na którym 50  proc. firm tej wielkości korzystało z  usług chmurowych w  2012  r. W  bieżącym roku odsetek ma wzrosnąć aż do dwóch trzecich. Dlatego ofertę dotyczącą usług w chmurze należy stworzyć tak, żeby trafiała w potrzeby firm tej wielkości. maj 2013

43

CHMURA PUBLICZNA

Chmura obliczeniowa Oktawave dla integratorów systemów IT Chmura obliczeniowa Oktawave pomoże integratorom zwiększyć marżę oraz rozbudować portfolio usług.

Ch

mura niesie ze sobą wiele ciekawych rozwiązań, które zmieniają sposób dostarczania usług informatycznych do firm. Integratorzy systemów IT również mogą – a z uwagi na obecny kierunek rozwoju usług IT należy wręcz powiedzieć, że powinni – z nich korzystać. Oktawave to obecnie najszybsza infrastruktura chmury obliczeniowej na świecie, oferująca wydajne i elastyczne instancje serwerowe, obiektowe pamięci masowe, zarządzalne bazy danych i aplikacje. W przeprowadzonych testach wydajności Oktawave osiąga wyniki lepsze od usług udostępnianych przez takie firmy jak Amazon czy Rackspace. Prace nad Oktawave trwały trzy lata. Ich efektem –  oprócz wyjątkowej wydajności –  jest kompletny system uruchamiania i zarządzania infrastrukturą IT. Warto też dodać, że Oktawave oferuje wartości, na które czekało wielu użytkowników dotychczasowych rozwiązań: unikatową szybkość i wydajność przetwarzania informacji, bezpieczeństwo, centrum danych zlokalizowane w Polsce oraz konkurencyjne ceny.

16 VCPU (w trakcie testu random read), jak też 3  GB/s w przypadku ciągłego transferu danych (dla odczytu i zapisu). To oznacza, że standardowa instancja Oktawave oferuje wydajność od kilkuset do kilku tysięcy razy większą od obecnych na rynku rozwiązań dostarczanych np. przez Amazon czy Rackspace. Dlaczego jest to ważne? Ponieważ pozwala rozwiązać problem wąskiego gardła obliczeniowego, dotyczący choćby rozwiązań bazodanowych. Procesor nie musi już „czekać” na dysk, co gigantycznie podnosi wydajność całego systemu. Drugą przewagą jest usługa Autoskaler, który działa w dwóch trybach – wertykalnym i horyzontalnym. W pierwszym z nich Autoskaler w czasie rzeczywistym dodaje bądź odejmuje zasoby obliczeniowe serwera (RAM i CPU), w zależności od aktualnych potrzeb obliczeniowych działającego systemu. W trybie horyzon-

talnym Autoskaler będzie klonował serwery i uruchamiał na nich load balancing sprzętowy, tak by zapewnić maksymalną wydajność. Co warte podkreślenia, Autoskaler działa w obie strony – w górę (dodaje zasoby lub serwery), ale także w dół (wyłącza zbędne serwery lub obniża ich parametry), a klient płaci jedynie za czas wykorzystania określonych zasobów z dokładnością do godziny.

OKTAWAVE DLA INTEGRATORÓW Oferta Oktawave skierowana do integratorów obejmuje między innymi następujące usługi: • Oktawave Cloud Instances – To podstawowa usługa serwera w  chmurze, która umożliwia wykorzystywanie w  łatwy sposób zasobów chmury obliczeniowej do tworzenia i rozbudowywania skalowalnych rozwiązań dla klientów końcowych. Dzięki rozliczaniu jedynie za

Komponenty infrastruktury chmury Oktawave  Serwery dostępne na żądanie (dowolnie duża infrastruktura – składająca się nawet z kilkuset maszyn – może być uruchomiona w 120 s)

PRZEWAGI OKTAWAVE Obecnie – oprócz standardowych komponentów chmury obliczeniowej – Oktawave wyróżniają dwa elementy, które stanowią przewagę konkurencyjną nie tylko na polskim, ale również na światowym rynku cloud computingu. To wydajność pamięci masowych oraz Autoskaler. W zakresie dostępu do danych podczas testów w  środowisku laboratoryjnym udało się osiągnąć wydajność na poziomie 1 000 000 IOPS dla pojedynczej instancji wyposażonej w 32 GB RAM oraz

44

maj 2013

 Wydajne blokowe pamięci masowe oraz maksymalnie oszczędne obiektowe pamięci masowe

 API (wszystkie operacje można wykonać z poziomu zewnętrznej aplikacji)  Sieci prywatne i VLAN-y  Autoskaler (automatyczne i bezprzestojowe dołączanie zasobów – pamięci RAM oraz procesorów – do serwera, a także klonowanie serwerów i włączanie load balancingu)

 Moduł kontroli nad wszystkimi parametrami serwerów, sieci czy Autoskalera  Automatyka administracyjna w postaci tzw. schedulerów  Moduł dostępu z poziomu panelu administracyjnego, root, API lub CLI  Kilkadziesiąt obrazów gotowych systemów operacyjnych, systemów bazodanowych, aplikacji online czy frameworków programistycznych

 Zapewniający bezpieczeństwo system fizycznie izolowanych węzłów pamięci masowych

Fot. © Scanrail – Fotolia.com

ZWIĘKSZ SWOJĄ MARŻĘ! Korzystając z usług Oktawave, integratorzy mogą zwiększyć swoją marżę oraz wyprzedzić konkurencję i pozyskać nowych klientów. Kluczowe dla osiągnięcia większych zysków przez firmy integratorskie są następujące elementy: • Mniejsze koszty – Dzięki wybraniu chmury zmniejszą się koszty dla klienta końcowego, co w czasie kryzysu ma ogromne znaczenie. Firmy, szukając oszczędności, wybiorą tańszą formę zapewnienia sobie infrastruktury IT. • Większa elastyczność – Zwiększona będzie zarówno szybkość dostarczania usługi, jak i różnorodność tego, co można dostarczać klientom końcowym. Mowa tu o naprawdę znaczącej poprawie – już w kilka minut klient będzie miał dostęp do dowolnie dużej infrastruktury. • Więź z klientem – Integratorzy mogą liczyć na stałą, korzystną współpracę, ponieważ klient nie będzie (tak jak to wygląda

obecnie w większości przypadków) generował wyłącznie jednorazowego zysku. Zamiast tego będzie płacił w rozliczeniu miesięcznym, co zapewni przewidywalny stały zysk, nawet przez wiele lat. W praktyce takie rozwiązanie opłaca się bardziej niż standardowy model ( jednorazowej opłaty za sprzęt i instalację). • Szersza oferta dla klienta – Na bazie relacji z dostawcami oprogramowania oraz Oktawave integratorzy mogą sami tworzyć nowe usługi dla swoich klientów (nawet jeśli wcześniej zapewnili już im infrastrukturę). Mogą to być np. usługi typu Disaster Recovery on Demand czy też Remote Backup. • Koniec z obsługą gwarancyjną – Firmy dostarczające sprzęt komputerowy muszą liczyć się z tym, że ten czasami zawodzi, a klientowi trzeba zapewnić obsługę gwarancyjną. Często winą za uszkodzony sprzęt obarczani są dostawcy, co negatywnie wpływa na atmosferę współpracy. Dzięki Oktawave może się to zmienić – usługodawca troszczy się o sprzęt, dzięki czemu klient nie odczuje nawet, że była jakaś awaria.

• Zadowolony klient – Wysoka skalowalność chmury Oktawave gwarantuje, że klient zawsze dostanie odpowiedni poziom mocy obliczeniowej i przestrzeni dyskowej – to sprawi, że będzie zawsze zadowolony ze świadczonej usługi integratorskiej. Rynek chmur obliczeniowych rośnie z roku na rok o kilkadziesiąt procent. Chmura jest szybsza, wygodniejsza i bardziej niezawodna dla końcowego użytkownika, dlatego klienci coraz częściej o nią pytają. Chmura obliczeniowa to nie konkurencja dla integratorów systemów, ale świetne narzędzie w ich rękach, które pomoże im z jednej strony zwiększyć marżę, a z drugiej – zacieśni więź z dotychczasowymi i nowymi klientami.

Dodatkowe informacje: JAN LEKSZYCKI, DYREKTOR ROZWOJU BIZNESU OKTAWAVE, JAN.LEKSZYCKI@OKTAWAVE.COM maj 2013

45

MATERIAŁ POWSTAŁ WE WSPÓŁPRACY Z OKTAWAVE.

wykorzystane zasoby integratorzy ograniczają koszty, równocześnie zachowując zdolność do błyskawicznego dostosowania infrastruktury do zmieniających się potrzeb klientów. • Szkolenia – Integratorzy nie muszą się martwić brakiem specjalistycznej wiedzy – inżynierowie Oktawave pomagają w  zrozumieniu przewag technologicznych i biznesowych chmury obliczeniowej. Już teraz w  bazie wiedzy (http:// kb.oktawave.com) znajdują się odpowiedzi na wiele konkretnych pytań, a już wkrótce dla klientów zostaną opublikowane webinaria, które będą świetnym źródłem informacji. • Dedykowany architekt – Niektórzy integratorzy obawiają się, że nie podołają zadaniu zaprojektowania chmury dla swojego klienta. Również na tym polu firmy mogą liczyć na pomoc konsultantów Oktawave. Oddelegowany architekt systemowy jest do dyspozycji integratorów i pomoże w zaprojektowaniu odpowiedniego rozwiązania. • Program referencyjny – Dla partnerów został przygotowany program referencyjny, który jest świetnym uzupełnieniem innych korzyści płynących z przejścia na chmurę Oktawave.

CHMURA PUBLICZNA

Aplikacje

prosto z chmury Oferta Beyond.pl pomogła firmie programistycznej ograniczyć wydatki i uzyskać przewagę konkurencyjną.

S

zybkość reagowania na zmiany, innowacyjny rozwój technologiczny i nieustanna optymalizacja środowiska IT są obecnie jedyną drogą do osiągnięcia sukcesu. Niezwykle istotnym elementem konkurencji rynkowej jest cena świadczonych usług. To szansa dla małych i  średnich firm, którym zaradność, mobilność i racjonalny stosunek ceny oferowanej usługi do jej jakości umożliwiają znalezienie dochodowych niszy rynkowych. Firmy te potrzebują jednak wsparcia stabilnych i kompetentnych integratorów IT, wyposażających je – również za racjonalną cenę – w dostosowane do potrzeb rozwiązania, które dzięki pośrednikom mogą dotrzeć do szerokiego rynku odbiorców.

INTEGRATOR IT I LIDER RYNKU

MATERIAŁ POWSTAŁ WE WSPÓŁPRACY Z BEYOND.PL.

CENTRÓW DANYCH

Jeśli integrację IT rozumiemy jako stworzenie jednego, spójnego systemu łączącego wysokiej jakości sprzęt, oprogramowanie i myśl techniczną, to Beyond.pl jest doskonałym przykładem tego nurtu. Oferując najbardziej nowoczesne centrum danych w Polsce, łączy zaplecze technologiczne, szerokie portfolio kompetencji zespołu i najnowsze oprogramowanie w harmonijną całość, aby zoptymalizować działania swoich klientów. Współpracuje z firmami, które szukają zarówno oferty kolokacji, jak i administracji systemami, aplikacjami, bazami danych oraz audytów i projektów infrastruktury IT. Jedną z kluczowych usług Beyond.pl są optymalizujące koszty rozwiązania z  zakresu chmur obliczeniowych. Firma zrealizowała między innymi pierwsze w  Polsce wdrożenie systemu SAP w chmurze dla uznanej marki VOX Meble oraz zdalny system sprzedaży dla Concor-

46

maj 2013

JAROSŁAW MORAWSKI dyrektor działu sprzedaży i współpracy z partnerami, Beyond.pl

Działania przeprowadzone dla ITM to przykład naszej oferty, w której zdejmujemy z klienta potrzebę angażowania się w obsługę infrastruktury. Przejmujemy zadanie integracji IT, dzięki czemu nasi partnerzy mogą skoncentrować się na tym, co dla nich strategicznie najważniejsze: dostarczaniu atrakcyjnej oferty i pozyskiwaniu klientów.

dia Ubezpieczenia. Jednak najciekawsze wdrożenia pochodzą z rynku małych i średnich firm.

CHMURA DLA APLIKACJI ITM Business to niewielka, ale nowatorska firma z branży IT, specjalizująca się w tworzeniu autorskich aplikacji przeznaczonych dla klientów z różnych sektorów gospodarki. Są one dystrybuowane m.in. z wykorzystaniem modelu Software as a Service. Przemysław Szajek, właściciel firmy ITM Business, podkreśla: – Dajemy firmom z sektora MSP dostęp do najnowszych rozwiązań technologicznych za rozsądną cenę. Do niedawna korzystaliśmy z usług OVH, głównie ze względu na ich niską cenę. Jednak jedną z wad tego rozwiązania była mała stabilność i ograniczone możliwości skalowania zasobów. Poszukując alternatywy, zarząd firmy ITM Business zwrócił się między innymi do Beyond.pl. – Od Beyond.pl dostaliśmy produkt ze znacznie wyższej półki. Okazało się to nie

tylko lepszym, ale i bardziej atrakcyjnym cenowo rozwiązaniem – twierdzi Przemysław Szajek. Wybór padł na migrację infrastruktury do prywatnej chmury Beyond Corporate Cloud. Przemawiały za nim m.in.: innowacyjność usługi oraz pewne zaplecze techniczne, lepsze wskaźniki wydajności niż w rozwiązaniach OVH, atrakcyjna cena oraz dynamiczne skalowanie uzależnione od obciążenia i potrzeb. Migracja była prosta i przeprowadzono ją szybko. – Jesteśmy pod wrażeniem nie tylko czasu reakcji Beyond.pl, ale i  tego, jak szybko możemy dostarczoną infrastrukturę dopasowywać do naszej zmieniającej się sytuacji – chwali właściciel ITM Business. –  Teraz oferujemy naszym klientom technologię nowoczesnego centrum danych za racjonalną cenę w dogodnym systemie rozliczenia.

STABILNOŚĆ I SPRAWDZONE ROZWIĄZANIA DLA MSP Chmura Beyond Corporate Cloud bazuje na sprawdzonym rozwiązaniu VMware. Michał Kwiatkowski, Cloud Computing Specialist, odpowiedzialny za utrzymanie infrastruktury serwerowni Beyond.pl, podkreśla, że tak zbudowane środowisko chmury obliczeniowej jest tak samo ( jeśli nie bardziej) bezpieczne jak większość systemów samodzielnie zarządzanych przez firmy. Do budowy usługi Beyond Corporate Cloud są wykorzystywane zasoby sprzętowe przeznaczone na wyłączność dla użytkującej je firmy, dzięki czemu może ona sprawować większą kontrolę nad stworzoną w  ten sposób architekturą chmury. Dodatkowo małe i średnie firmy IT, wybierając rozwiązanie w serwerowni o wysokim standardzie, decydują się tym samym na nowe technologie, umożliwiające lepsze sprostanie wciąż zmieniającym się potrzebom ich klientów.

Dodatkowe informacje: JAROSŁAW MORAWSKI, DYREKTOR DZIAŁU SPRZEDAŻY I WSPÓŁPRACY Z PARTNERAMI, BEYOND.PL, J.MORAWSKI@BEYOND.PL

1-1 CRN.indd 1

4/19/13 11:32 AM

0XVLV]G]LDĂĄDĂźSU]H]JRG]LQ\QDGREÄŠ1RZH QDGPLDURZH]DVLODQLHLFKĂĄRG]HQLHFHQWUXPGDQ\FK Z]DVLÄŠJX7ZRMHJREXGÄŞHWX

,7MHVWMXÄŞZ\VWDUF]DMÄ…FR VNRPSOLNRZDQÄ…EUDQÄŞÄ… 3RWU]HEXMHV]VSUDZQHJR UR]ZLÄ…]DQLDFHQWUXPGDQ\FK RGNRQFHSFMLSRZGURÄŞHQLH

%L]QHVL,7FLÄ…JOHVLÄŠ UR]ZLMDMÄ…=DSHZQLM EH]SUREOHPRZH]DVLODQLH LFKĂĄRG]HQLHQRZ\FKVHUZHUyZ

Nareszcie Twoje centrum danych moşe rozwijać się wraz ze wzrostem Twojej firmy! Tylko InfraStruxure realizuje gwarancję 3 korzyści: nieprzerwanej dostępności , dynamiki i efektywności energetycznej. Wzrost firmy

Przedstawiamy InfraStruxure nowej generacji 1LH]DOHÄŞQLHRGWHJRF]\7ZRMDILUPDSRGZRLĂĄDVSU]HGDÄŞOXE]DWUXGQLHQLH7\PXVLV]]DJZDUDQWRZDĂź ÄŞHFHQWUXPGDQ\FKEÄŠG]LHZVSLHUDĂźDQLHKDPRZDĂźMHMUR]ZyM&]ÄŠVWRKDPXOFHPUR]ZRMXVWDMHVLÄŠ ,7LREVĂĄXJXMÄ…FDMHLQIUDVWUXNWXUD&]\V]DI\EÄŠGÄ…ZVWDQLHREVĂĄXÄŞ\ĂźZLÄŠNV]Ä…OLF]EÄŠVHUZHUyZ"&]\GRVWÄŠSQD PRF]DVLODQLDEÄŠG]LHZVWDQLHVSURVWDĂźZLÄŠNV]HPXREFLÄ…ÄŞHQLX,7"']LVLDMILUPD$3&ÂŒE\6FKQHLGHU(OHFWULFÂŒ HOLPLQXMHWHSU]HV]NRG\G]LÄŠNLVSUDZG]RQHPXZ\VRNRZ\GDMQHPXVNDORZDOQHPXLNRPSOHNVRZHPX UR]ZLÄ…]DQLXDUFKLWHNWXU\FHQWUXPGDQ\FK,QIUD6WUX[XUHÂŒ

Centra danych InfraStruxure to biznes! 0\PyZLP\ÄŞHFHQWUDGDQ\FK,QIUD6WUX[XUHWREL]QHV$OHFRWR]QDF]\GOD&LHELH"2GSRZLHGĨMHVWSURVWD &HQWUXPGDQ\FKWREL]QHVNLHG\MHVW]DZV]HGRVWÄŠSQHQDQDMZ\ÄŞV]\PSR]LRPLHSU]H]JRG]LQ\GQL ZW\JRGQLXSU]H]FDĂĄ\URNUR]ZLMDVLÄŠZUD]]G\QDPLNÄ…G]LDĂĄDOQRÄžFLXPRÄŞOLZLDSRGQRV]HQLHZ\GDMQRÄžFL EH]ORJLVW\F]Q\FKSU]HV]NyG QSKDUPRQRJUDP\SUDF MHVWFRUD]EDUG]LHMHIHNW\ZQHHQHUJHW\F]QLH ÂąRGSODQRZDQLDSRRSHUDFMHLURÄžQLHZUD]]ILUPÄ…&RZLÄŠFHM,QIUD6WUX[XUHWR]LQWHJURZDQHUR]ZLÄ…]DQLH NWyUHPRÄŞH]RVWDĂź]DSURMHNWRZDQH]JRGQLH]7ZRLPLSRWU]HEDPLDMHGQRF]HÄžQLHGRVWRVRZ\ZDĂźVLÄŠ GR]PLHQLDMÄ…F\FKZ\PDJDÄ”EL]QHVRZ\FK7ZRMHMILUP\ZSU]\V]ĂĄRÄžFL

Gwarancja trzech korzyści płynących z wdroşenia InfraStruxure

Skalowanie centrum danych lata

Centra danych InfraStruxure to biznes! Dostępność: Na poziomie 24/7/365 jest moşliwa dzięki najlepszemu w branşy zasilaniu awaryjnemu z modułowymi listwami zasilającymi, bezpośredniemu chłodzeniu i proaktywnemu oprogramowaniu do monitorowania. Szybkość: Wdroşenie odbywa się szybko i bezproblemowo, poniewaş wszystkie komponenty systemu zostały dostosowane pod kątem współpracy jako gotowe rozwiązanie a on sam moşe być rozbudowywany w tempie rozwoju firmy. Sprawność: Wymierna efektywność i oszczędność energetyczna osiągana, dzięki nowoczesnej konstrukcji obejmującej trzystopniowe falowniki zasilaczy UPS oraz urządzeniom chłodniczym wyposaşonym w wentylatory o zmiennej prędkości.

5R]ZLą]DQLH,QIUD6WUX[XUHVSHåQLDQDV]ąJZDUDQFMĊWU]HFKNRU]\ĞFLGRW\F]ąF\FKQDMZ\ĪV]HMMDNRĞFL ]DSHZQLDMąFHMPDNV\PDOQąGRVWĊSQRĞßG\QDPLNLSR]ZDODMąFHMQDV]\ENLHLåDWZHGRVWRVRZDQLH,7GRSRWU]HE EL]QHVRZ\FKRUD]RV]F]ĊGQRĞFLG]LĊNLHIHNW\ZQRĞFLHQHUJHW\F]QHM&]\PRĪQDWUDIQLHMSRMPRZDßEL]QHV"

Zarządzalność: Pakiet oprogramowania do zarządzania InfraStruxure zapewnia wgląd i zarządzanie poziomami wydajności i nadmiarowości chłodzenia, zasilania oraz przestrzenią szaf przez co gwarantuje optymalną sprawność centrum danych.

%XVLQHVVZLVH)XWXUHGULYHQ™

Elastyczność: Gwarantowana, dzięki kompatybilności obudów z urządzeniami wszystkich producentów sprzętu IT oraz skalowalnemu zasilaniu i chłodzeniu systemu.

)LUPD$3&E\6FKQHLGHU(OHFWULFÂŒMHVWSLRQLHUHPPRGXĂĄRZHMLQIUDVWUXNWXU\FHQWUXPGDQ\FKLLQQRZDF\MQHMWHFKQRORJLL FKĂĄRG]HQLD-HMSURGXNW\LUR]ZLÄ…]DQLDZW\P,QIUD6WUX[XUHVWDQRZLÄ…LQWHJUDOQ\HOHPHQWRIHUW\6FKQHLGHU(OHFWULF,7

Data Center Projects: Growth Model

> Executive summary

Contents 1 2

Ściągnij dokumenty White Paper przez następne 30 dni ZA DARMO i weź udział w losowaniu iPhon-a 5!

7 7 9 10

2GZLHGĨVWURQĊZZZ6(UHSO\FRP .RGS 7HOHIRQ‡)D[

Š2013 Schneider Electric. All Rights Reserved. Schneider Electric, APC, InfraStruxure, and Business-wise, Future-driven are trademarks owned by Schneider Electric Industries 3!3ORITSAFFILIATEDCOMPANIES!LLOTHERTRADEMARKSARETHEPROPERTYOFTHEIRRESPECTIVEOWNERSWWWSCHNEIDER ELECTRICCOMs ?!?0,?#

1-1 CRN.indd 1

4/22/13 10:53 AM


VADEMECUM Var-ów i Integartorów