Page 1

Ausgabe Dezember 4| 2015 CHF 8.–

professional

COMPUTING Das Schweizer Fachmagazin für ICT im Business

Cloud Computing

der Treiber für die Digitalisierung der IT


WUXH6LJQ =HQWUDOHU6LJQDWXUVHUYHU ƒ 8QWHUQHKPHQVXQGUHFKWVJ¾OWLJHHOHNWUR QLVFKH6LJQDWXUHQI¾U'RNXPHQWH9HUWU¦ JH/DQJ]HLWDUFKLYLHUXQJ5HFKQXQJHQXQG :RUNȵRZ ƒ 3')$;0/('Ζ)$&7062ɝFH0DNURV &RGH6LJQDWXUHQ

www.keyon.ch info@keyon.ch

'DWD&ODVVLȴFDWLRQ 3URWHFWLRQ ƒ 'DWD/HDNDJH3UHYHQWLRQDXI%DVLVYRQ 0LFURVRIW5LJKWV0DQDJHPHQW ƒ (΍HNWLYHU6FKXW]YRQ'DWHQ RQSUHPLQGHU&ORXGXQGI¾U0RELOH ƒ $XWRPDWLVLHUWH.ODVVLȴ]LHUXQJ XQG9HUVFKO¾VVHOXQJYRQ'DWHQ

www.keyon.ch info@keyon.ch


EDITORIAL

3

Cloud Computing gibt der Zusammenarbeit zwischen Business und IT eine neue Qualität hier für die IT-Sicherheit benötigt. Die Bedrohung durch Cyberkriminalität wächst, zumal, nutzen immer mehr Unternehmen cloud-basierte Dienste und offene APIs. So sieht Gartner den Anwendungsselbstschutz sowie Verhaltensanalysen von Nutzern als Grundstein für ein adaptives Sicherheitssystem, das individuell auf Bedrohungen reagiert. Jörg Schelling Chefredaktor

Pascal Tobler Anzeigenverkauf

Severin Schumacher Anzeigenverkauf

IT-Manager sind heute in der Pflicht, ihre IT zum Cloud-Service-Anbieter umzubauen. Die immer kürzeren Innovationszyklen erfordern eine grundsätzliche Neuausrichtung der IT-Landschaft. Alte, unflexible organisatorische Abläufe müssen neu organisiert und flexibel den Bedürfnissen der Fachabteilungen angepasst werden. Die unterschiedlichen Veränderungsgeschwindigkeiten bei Produkten und Dienstleistungen sowie bei der internen IT, führen heute dazu, dass die Fachabteilungen auf fremde Cloud-Lösungen zugreifen. Die so entstehende «Schatten-IT» wird stark unterschätzt. Das Problem wird sich noch verschärfen mit der Zahl der Geräte, die wir täglich nutzen werden; diese steigt in Zukunft. Gartner nennt dies «Device-Mesh» (Geräte-Mix). Bisher isoliert genutzte Geräte werden immer mehr miteinander vernetzt werden. Smartphones, Wearables und Autos werden mehr miteinander kommunizieren, das heisst, die unterschiedlichen Geräte müssen besser untereinander vernetzt und die Daten wirksam geschützt werden. All dies stellt auch Fragen der Sicherheit ins Zentrum. Adaptive Security-Architekturen werden

Die Entwicklung von modernen IT-Lösungen wird sich mehr an den individuellen Bedürfnissen der Nutzer ausrichten und in der Lage sein, seine Wünsche zu erkennen. Das zeigen uns, die in den verschiedensten Betriebssystemen mitgelieferten virtuellen Assistenten wie Google Now, Apples Siri oder Cortana von Microsoft, die mit jeder neuen Version immer besser werden. In Zukunft werden wir nicht mehr scrollen oder Buttons anklicken müssen, sondern wir werden mit den Geräten sprechen. Mit dem autonomen Auto fordern ITRiesen wie Google die Automobilbranche heraus. Das Internet der Dinge (IoT) gibt mit der Vernetzung von Alltagsgegenständen und Maschinen, der Zusammenarbeit zwischen Business und IT eine neue Qualität. Ein spannendes IT-Jahr, geprägt durch viele neue Innovationen, geht zu Ende. Auch im nächsten Jahr werden wir für Sie wieder aktuelle Themen im Professional Computing aufgreifen. Wir bedanken uns für Ihr Vertrauen und wünschen Ihnen und Ihren Angehörigen ein besinnliches Weihnachtsfest und einen erfolgreichen Start ins neue Jahr. Jörg Schelling joerg.schelling@utk.ch

Impressum Ausgabe September 2015, 19. Jahrgang. Internet: www.professional-computing.ch. Abopreis: Einzelpreis: CHF 8.– Jahresabonnement: CHF 30.–. Erscheinung: 4-mal jährlich März/Juni/September/Dezember. Herausgeber: UTK Media GmbH, 9434 Au. Verlag: UTK Media GmbH Sonnenstrasse 8, 9434 Au, Telefon +41 71 966 60 80, info@utk.ch. Anzeigenverkauf: UTK Media GmbH: Pascal Tobler, pascal.tobler@utk.ch, Telefon +41 71 966 60 03, Severin Schumacher, severin.schumacher@utk.ch, +41 71 966 60 80. Redaktion: Jörg Schelling, joerg.schelling@utk.ch. E-Mail für Pressemitteilungen: redaktion-pc@utk.ch. Layout: schellingmedia: info@schellingmedia.com. Druck: international media solutions IMS AG, www.imsag.ch Titelbild: Sergey Nivens/shutterstock.com © Alle Rechte vorbehalten. Nachdruck, auch auszugsweise, nur mit ausdrücklicher Genehmigung des Verlages. Das Magazin wird klimaneutral gedruckt.


Dezember 2015 INHALT

TeleNetfair

®

Wir führen Technologien zusammen

Die grösste Datenübertragungsmesse der Schweiz führt Technologien zusammen!

Hauptsponsor

© carlos castilla/shutterstock.com

6. – 8. September 2016 in Luzern

Cloud Computing Reine Cloudspeicherlösungen sind (noch) nicht gefragt Eine Hybrid Cloud ist die Zukunft der Unternehmens-IT Das Beste aus zwei Welten Mit HPE 3PAR StoreServ Systemen macht die galledia-Gruppe Druck Das 24/7-Netzwerk

10 12 14 16 18

Sicherheit Sechs Backup-Tipps für die Datenflut Preisgekrönte SaaS vereinfacht Filesharing Synchronized Security: Teamwork ist Trumpf «Ein Tanz auf dem Vulkan» Kleine Daten, grosse Gefahr classify or die Cyber Defence – wir brauchen Sicherheit, die mitdenkt Verfügbarkeit: eine Frage der Strategie

20 22 23 24 26 28 31 32

Patronat

Bleiben Sie über aktuelle ICT-Themen informiert und abonnieren Sie das wöchentliche Infomail. www.telenetfair.ch

www.professional-computing.info


INHALT Dezember 2015

Qualitätssicherung Global Application Quality as a Service

34

Produkte & Lösungen Security Heartbeat: Jetzt sprechen Firewall und Endpoints miteinander

35

Job & Karriere Hewlett Packard Enterprise ist neuer PiBS-Praxispartner Unternehmen zählen auf duales IT-Studium Agenda

36 36 37

Firmenverzeichnis

38

Einfach ECM Folgen Sie uns auf:

Dokumenten-Management Archivierung Workflow

www.elo.ch


6

Business-News ICT-FOCUS

Business-News

ICT-Focus Trend Micro hat erstmals einen Country-Manager für die Schweiz Mirko Casarico ist in der neu geschaffenen Position zum einen verantwortlich für die Erarbeitung und Umsetzung neuer Strategien sowie die Weiterentwicklung der Vertriebskanäle, zum anderen für die Akquisition neuer sowie Unterstützung bestehender Kunden und Partner. Der japanische IT-Sicherheitsanbieter ist hier seit längerem auf Wachstumskurs: Die Zahl der Mitarbeiter ist inzwischen auf elf gestiegen, und vor knapp eineinhalb Jahren wurde ein Büro in Lausanne eröffnet, während sich die Niederlassung in Glattbrugg bei Zürich nach wie vor um die Belange des deutschsprachigen Landesteils kümmert.

KYOCERA Document Solutions steigt in den Wachstumsmarkt ECM ein KYOCERA Document Solutions Inc. übernimmt die in Bielefeld ansässige Ceyoniq-Gruppe. Damit steigt KYOCERA Document Solutions aktiv in den Wachstumsmarkt «Enterprise-Content-Management (ECM)» ein. Die Ceyoniq-Gruppe mit ihren vier Gesellschaften bildet die gesamte ECM-Wertschöpfungskette ab. Mit «nscale» hat das Unternehmen eine flexible und skalierbare ECM-Plattform am Markt etabliert. Damit lassen sich Arbeitsabläufe in Unternehmen automatisieren und somit effizienter und sicherer gestalten. Auch kollaboratives, teamübergreifendes Arbeiten wird durch die Ceyoniq Produkte ermöglicht. Ceyoniq ist in den vergangenen Jahren kontinuierlich gewachsen. Der Umsatz, den die 160 Mitarbeiter erwirtschaften, lag im vergangenen Jahr bei 16,7 Millionen Euro.

Equinix: neuer Sales Director für die Schweiz

Equinix hat Urs Bürgisser zum Sales Director für die Schweizer ernannt. Bürgisser ist bereits seit über 20 Jahren in verantwortlichen Positionen in der Schweizer IT-Landschaft tätig – sowohl in den Bereichen Business Development, Marketing und Verkauf, als auch extern als Consultant. Bevor er zu Equinix wechselte, war der 47-jährige Schweizer unter anderem für Siemens Schweiz, Lexmark, Bechtle und Cisco Systems tätig. Zuletzt kümmerte er sich als Managing Partner um die Geschäfte der CMP AG.

Für die besten 17 junge Cyber Talente galt es ernst: Am Schweizer Finale der European Cyber Security Challenge 2015 in Sursee traten sie in unterschiedlichen Disziplinen zum Thema ITSicherheit gegeneinander an. Aus dem Wettkampf resultierte ein Team mit den 10 besten JungHackern der Schweiz. Diese bilden die Nationale Delegation für die European Cyber Security Challenge, an der Teams aus sechs europäischen Ländern teilnehmen. Bild: Swiss Cyber Storm

Die besten Schweizer Jung-Hacker gekürt In kleinen Teams mussten die jungen Hacker unter Zeitdruck Sicherheitslücken in Webanwendungen finden, verschlüsselte Dokumente knacken oder sich Zugang zu einem geschützten System ergattern. Doch nicht nur das technische Geschick wurde bewertet: In die Gesamtbeurteilung flossen auch Soft Skills wie Teamfähigkeit oder Präsentationsstil ein. «Es reicht nicht, ein Sicherheitsproblem nur zu finden. Eine Lösung im Team zu erarbeiten und nach aussen kommunizieren zu können ist für einen ‹guten Hacker› genauso wichtig», erklärt Ivan Bütler, Jurymitglied und Inhaber einer IT-Sicherheitsfirma.


ICT-FOCUS Business-News

7

Canon: Christian Mossner neuer Channel Director Partner & Distribution

«Wir wollen mit innovativen Produkten an der Spitze dabei sein und wettbewerbsfähig bleiben sowie unsere Strategien und Produkte stetig weiterentwickeln. Mit Begeisterung nehmen wir die Herausforderung an, jetzt und in Zukunft Mehrwert zu schaffen. So wie gerade jetzt mit dem weiteren Schritt, in dem wir die zertifizierte Service Plattform für SAP HANA ausbauen – auch das ein Novum von Econis in der Schweiz.» Toni Fuchs, Geschäftsführer Econis.

Econis wird erster Schweizer «Cisco Master Service Provider» und überdies zum Cloud Partner of the Year 2015 gekürt. Mit der Zertifizierung zum «Master Service Provider» bestätigt Cisco die Fähigkeit von Econis zur Erbringung von innovativen Cloud- und Managed Services. Damit unterstützt Econis die Unternehmen dabei, rasch und agil auf neue Businessanforderungen zu reagieren und die Kosteneffizienz der IT erheblich zu steigern. Die Zertifizierung durch Cisco würdigt die weitsichtigen Investitionen von Econis in die eigene Private Cloud und attestiert ihr die Kompetenz in der prozessorientierten Erbringung von professionellen und innovativen Services mit hohem Kundennutzen. Dieser umfasst: die Minderung des Ertragsdrucks durch Kosteneffizienz; die Weiterentwicklung der IT durch die Nutzung aktuellster Infrastruktur ohne eigene Investitionen; verkürzte Time-to-Market sowie die Steigerung der Flexibilität, Transparenz und Skalierbarkeit.

Seit kurzem sind das Verkaufs- und das Marketingteam von OKI Schweiz wieder komplett. Neu an Bord sind Alessandro Rizzo (li.) als Key Account Manager und Beat Schärli (re.) als Regional Sales Manager.

Neuer Wind im Schweizer Team von OKI Mit Beat Schärli ist ein bekannter Branchenkenner neu im OKI Team. Er wechselte von ALSO Schweiz AG, wo er mit Zwischenstationen bei Tech Data und Sun Microsystems insgesamt 15 Jahre verschiedene Positionen bekleidete zum Spezialisten für LED-Drucklösungen und Managed Document Services. Schärli ist bei OKI der neue Regional Sales Manager. Alessandro Rizzo, der als Key Account Manager neu bei OKI angefangen hat, ist Eidg. Verkaufskoordinator und arbeitete zuvor als Verkaufsleiter bei ISL Online DACH GmbH und als Senior Sales Engineer bei Keyence, einem führenden Hersteller für Sensoren, Messsysteme, Lasermarkiersystemen, Mikroskopen und Bilderverarbeitungssystemen.

Der bisherige Marketing Director Christian Mossner übernahm per 1. Oktober den Bereich Partner & Distribution Channel der Canon (Schweiz) AG. Mossner ist seit Februar 2002 als Marketing Director & Consumer Products & Business Solutions bei Canon (Schweiz) AG tätig. Er hat in dieser Zeit das Product- und Channel Marketing des Unternehmens geprägt und weiterentwickelt. Neben seiner Funktion im Marketing engagiert sich Christian Mossner im Bereich Aus- und Weiterbildung: er ist sowohl Dozent für crossmediale Kommunikation an der Hochschule für Wirtschaft Zürich (HWZ), wie auch an der Fachhochschule Nordwestschweiz (FHNW).

Citrix: Sherif Seddik neuer Vice President EMEA

Citrix hat Sherif Seddik zum Managing Director und Vice President für die Regionen Europa, Naher Osten und Afrika (EMEA) ernannt. Er ist ab sofort für die Expansion und Entwicklung des Citrix-Geschäfts in der EMEA-Region verantwortlich. In seiner neuen Funktion berichtet Sherif Seddik direkt an Carlos Sartorius, Senior Vice President Worldwide Sales and Services bei Citrix. Sherif Seddik verfügt über mehr als 27 Jahre Erfahrung in der IT-Industrie – in den Bereichen Vertrieb, Marketing und Management – und hat in dieser Zeit in acht Ländern und auf drei Kontinenten gelebt und gearbeitet. Ab 2002 war er bei Microsoft beschäftigt. Die letzten fünf Jahre hat er als General Manager die Enterprise & Partner Group in Westeuropa geleitet, die für den Vertrieb von Software, Devices und Online-Services an Grosskunden und strategisch wichtige Kunden zuständig ist.


8

Technik-News ICT-FOCUS

Technik-News

ICT-Focus Ontrexx führte Windows 10 Packaging Powerworkshop durch Beim Powerworkshop zu Windows 10 ging es vor allem ums Eingemachte auf technischer Ebene; einschneidende Änderungen, Vorbereitungsaufgaben sowie speziell auf die Anforderungen zu Paketierungs- und Anpassungsaufgaben zugeschnittene Tipps und Tricks des neuen Betriebssystems. Die Teilnehmer profitierten von Erfahrungen und Projekten aus dem hauseigenen Ontrex-Paketierungsatelier, die bei Windows 10 Migrationen zu berücksichtigen sind. Live-Demos mit Schwergewicht APP-V 5.1, zum Kollisions- und Kompatibilitätsmanagement sowie zur 7-Schritt-Methode DIRROCI von Raynet veranschaulichten Paketierungs- und Vorbereitungsszenarien für bevorstehende Projekte in Unternehmen. Windows 10 Readiness-Check Wer vor der Migration des Betriebssystems testen will, ob die im Unternehmen eingesetzten Anwendungen auch unter Windows 10 einwandfrei funktionieren, erhält mit dem unter www.win10ready.com zur Verfügung gestellten Onlinetest die notwendige Gewissheit. Der Test beinhaltet zusätzlich einen umfassenden Bericht mit einer Auflistung aller Regeln, auf die im Rahmen des Quick Check getestet wurde und zeigt die entsprechenden Ergebnisse an; «passed», «warning», «error». Bei Warnungen und Fehlern wird direkt auf die Stelle hingewiesen, an der Konflikte auftreten können. www.ontrex.ch

VMware und EMC kündigen neues Unternehmen für Cloud Services an Virtustream, Anbieter von Cloud-Software und -Services, geht in den gemeinsamen Besitz von VMware und EMC über für das branchenweit umfassendste Hybrid Cloud-Portfolio. Das neue Unternehmen wird sich zu gleichen Anteilen im gemeinsamen Besitz von VMware und EMC befinden und unter der Marke Virtustream von CEO Rodney Rogers geführt werden.

Schweizer gewinnen 1. Platz beim EuroCloud Award in Barcelona Die swiss cloud computing ag, ein junger Schweizer Cloud-Provider mit Sitz in Cham, hat bei der Verleihung der EuroCloud Europe Awards in Barcelona den 1. Platz gewonnen. Nach dem Sieg des EuroCloud Swiss Award im Juli ist die gewonnene Auszeichnung auf europäischer Ebene eine bedeutende Bestätigung für die Qualität der Lösung von swiss cloud computing ag. Die Dienstleistung hilft Unternehmen, Zeit und Kosten zu sparen – unter anderem beim Aufsetzen und Bewirtschaften von Computer-Arbeitsplätzen. www.swisscloudcomputingag.ch

Rackspace: Einfach Container erstellen mit Carina Rackspace stellt ab sofort die Beta-Version von Carina bereit, einer einfach nutzbaren und sofort verfügbaren Container-Umgebung. Dies gab das Unternehmen gestern auf dem OpenStack Summit bekannt. Carina ist ein Container-Cluster-Service, der Bare-Metal-Performance, Docker Engine, native Container-Werkzeuge und Docker Swarm zur Orchestrierung nutzt. Aufgrund der hohen Portabilität und einfachen Nutzung können Anwender damit einen Cluster für Container-basierte Anwendungen schneller erzeugen und installieren als mit manuellen Prozessen. Mit Carina erstellen Entwickler, Data Scientists und Betriebsteams auf einfache Weise Container-Cluster, ohne eigene Infrastruktur bereitstellen zu müssen. Denn Rackspace-Experten verwalten die Infrastruktur und DockerUmgebung für die Kunden. Dieser Ansatz erhöht die Effizienz, da Unternehmen keine Zeit mehr für den Aufbau, die Verwaltung und die Aktualisierung ihrer Container-Umgebung benötigen. Container-Technologie ist heute eines der am schnellsten wachsenden Software-Entwicklungstools in der Computerbranche. Sie bietet zahlreiche Vorteile wie verbesserte Portabilität von Applikationen über Entwicklungs-, Testund Produktionsumgebungen hinweg. Container benötigen einen Bruchteil der Ressourcen typischer virtueller Maschinen. Dies ermöglicht fast sofortige Verfügbarkeit, Anwendungsskalierung und höhere Anwendungsdichte, damit Kunden Zeit und Geld sparen. www.getcarina.com


ICT-FOCUS Technik-News

9

Cisco-Studie: Viermal mehr Daten in der Cloud bis 2019 Bis Ende 2019 wird sich der weltweite Cloud-Traffic mehr als vervierfachen, von 2,1 auf 8,6 Milliarden Terabyte (1 Milliarde Terabyte entspricht 1 Zettabyte (ZB)). In Westeuropa steigt der Cloudbasierte Datenverkehr auf knapp das Vierfache, von 0,39 ZB auf 1,5 ZB. Das zeigt der fünfte jährliche Cisco Global Cloud Index (2014–2019). Damit erhöht sich der Datenverkehr in der Cloud noch stärker als im Rechenzentrum. Zu den Faktoren, die den Cloud-Traffic und die Cloud-Nutzung antreiben, gehören persönliche Services für mobile Geräte, das schnelle Wachstum von Public Cloud Services für Unternehmen, vermehrte Maschinezu-Maschine (M2M)-Verbindungen sowie ein höherer Virtualisierungsgrad von Private Clouds, der zu dichteren Workloads führt. Ein Workload ist ein integrierter Protokollstapel aus Middleware, Anwendung, Datenbank und Betriebssystem, der eine bestimmte Berechnungsaufgabe durchführt.

Der Traffic von Konsumenten von und zu Cloud-Speichern wird pro Nutzer und Monat 1,6 GB betragen, im Vergleich zu 992 MB 2014

www.cisco.ch

SBB vergibt SAP-Vertrag an T-Systems Die Schweizerischen Bundesbahnen (SBB) haben mit T-Systems als einem von drei strategischen Partnern im Bereich Konzeption, Entwicklung, Umsetzung und Support von SAP-Core-Anwendungen einen Rahmenvertrag über 60 Monate abgeschlossen. Unterstützt wird T-Systems hierbei von ihrer Tochterfirma, dem Full-ServiceProvider T-Systems Data Migration Consulting, welche bereits seit 2007 strategischer Partner der SBB im SAP-CRM-Umfeld ist.

IBM C-Suite Studie: Die Angst vor der «Uberization» Nach einer aktuellen Studie des IBM Institute for Business Value (IBV) ist der Trend der «Uberization», mit dem das Aufweichen von Branchengrenzen durch neue Wettbewerber umschrieben wird, eine der Hauptsorgen in den Vorstandsetagen. Der Anteil an Führungskräften, die erwarten, sich immer stärker gegen branchenfremde Mitbewerber behaupten zu müssen, ist innerhalb der letzten beiden Jahre um mehr als ein Viertel gestiegen – von 43 Prozent im Jahr 2013 auf heute 54 Prozent. Für die Studie «Redefining Boundaries: Insights from the Global C-suite Study» wurden in über 70 Ländern rund 5200 CEOs, CMOs, CFOs und CIOs aus öffentlichen und privaten Unternehmen in 21 Branchen befragt. Die Studie kann unter http://wp.me/ p3OPLv-2je heruntergeladen werden. www.ibm.ch

Der abgeschlossene SAP-Vertrag wird in den nächsten fünf Jahren in Form von Personalverleih, Projekt oder Werkvertrag umgesetzt und dient der SBB bei der Durchführung von Projekten und im Betrieb von einzelnen Applikationen. «Ich freue mich über die weitere Zusammenarbeit» sagt Iris Dellsperger, Bereichsleiterin IT-SCF-Logistics bei der SBB, und fügt hinzu: «Wir schätzen T-Systems als strategischen und pragmatischen Partner. Letztendlich konnte uns T-Systems in dieser Ausschreibung mit ihrer Expertise, den Referenzen und durch den Einsatz ihrer Experten überzeugen.» www.t-systems.ch


10

Interview CLOUD COMPUTING

Reine Cloudspeicherlösungen

sind (noch) nicht gefragt Alte Strukturen und Denkweisen in den IT-Abteilungen müssen auf dem Weg zur serviceorientierten IT überwunden werden. Wir sprachen mit Frank Thonüs, Managing Director, EMC Schweiz, über die Wege dahin. Aktuell beschäftigt uns gerade die Frage: Welche Auswirkungen hat die Übernahme von EMC durch Dell auf EMC selbst und speziell für die EMC Schweiz? Frank Thonüs: Kurzfristig wird es keine Auswirkungen haben. Bis zum 15. Dezember passiert gar nichts, erst dann ist die Bieterperiode abgeschlossen. Wir planen das Jahr 2016 als selbständiges Unternehmen ohne Dell. Längerfristig wird es schon grössere Veränderungen geben. Dell wird sein Server-Geschäft in das EMC Datacenter-Geschäft integrieren.

In fünf Jahren wird es keine klassischen Speichersysteme mehr geben. Flash-Speicher wird die klassischen Speichersysteme ablösen.

Was können die Kunden vom Zusammenschluss erwarten? Der Hardwaremarkt wird in den nächsten Jahren zurückgehen. Die aktuelle Richtung, in die sich der Markt bewegt, erfordert Flexibilität. Durch den Zusammenschluss mit Dell werden wir einer der weltweit grössten IT-Hardwareanbieter werden. Dies erlaubt uns, alles auf der Ebene der Speichergeräte, der Systemebene und der Serviceebene aus einer Hand anzubieten. Dadurch profitiert auch der Kunde direkt vom Zusammenspiel der Produkte und kann dadurch auch Kosten sparen. Wie sehen Sie in Zukunft das Storage-Geschäft? Allgemein ist, dass das Hardware- so auch das Storage-Geschäft weltweit unter Druck sind und in den nächsten zehn Jahren rückläufig sein werden. Dies bedeutet für uns, dass wir unsere Kunden bei der Digitalisierung mit smarten Lösungen unterstützen können müssen. Hier werden mehr Beratungsleistungen und Softwarelösungen gefragt sein. Wir machen schon heute rund 30 % des Umsatzes mit Software. Wie sehen Sie die Entwicklung im Bereich Speicher in den nächsten Jahren? Welche Trends werden sich durchsetzen? All-Flash-Arrays geraten zunehmend ins Blickfeld der Anwender – nicht zuletzt da auch die Preise der Flash-Technologie permanent fallen. Zudem ermöglichen All-Flash-Arrays neue Funktionen

wie Inline-Block-Deduplikation, die zum Beispiel im Datenbankumfeld extreme DeduplizierungsRaten erreichen. Konventionelle Speicherlösungen würden unzählige normale Disks für die gleiche Speicherkapazität benötigen, die ein Vielfaches an Energieverbrauch und Managementkosten verursachen. Persönlich glaube ich, dass es in fünf Jahren keine klassischen Speichersysteme mehr geben wird. Flash-Speicher wird die klassischen Speichersysteme ablösen. Hier setzen wir z.B. mit EMC XtremIO All-Flash-Array neue Massstäbe – ideal für VDI (Virtual Desktop Infrastructure), virtuelle Server und Datenbankumgebungen. Nebst den technologischen Entwicklungen im Hardwaresektor wird auch die Cloud eine entscheidende Rolle im Speicherumfeld spielen. Wir haben heute bereits die Situation, dass dank der Cloud günstig Speicher eingekauft werden kann. Wird es in absehbarer Zeit reine Cloudspeicherlösungen in Unternehmen geben? Wie wir heute in den verschiedensten Kundenprojekten sehen, läuft es nach wie vor darauf hinaus, dass es keine reinen Cloudspeicherlösungen geben wird. Einerseits gibt es noch viele Fragen, die heute nicht geklärt werden können: Was passiert dann zum Beispiel mit den Daten, wenn ein heutiger Cloudanbieter vom Markt verschwindet oder übernommen wird? Kann ich dann die gesetzlichen Vorschriften noch einhalten? Oder auch die Ungewissheit, wo die Daten sich wirklich befinden. Das hat alles Einfluss auf die verschiedenen Compliance-Vorschriften und gesetzlichen Regulatorien. Hier sind Entwicklungen für Unternehmen schwer vorhersehbar. Daher setzen Unternehmen immer noch auf eigene Speicherlösungen in ihren Datacentern. Wir hätten zwar Lösungen, die es erlauben Speicher, gänzlich in die Cloud zu verschieben, aber die Nachfrage ist hier nicht da. Zukünftig wird aber dem Management, den Data Services und der Automatisierung in diesem Bereich eine grosse Bedeutung zukommen. Hier wol-


11

CLOUD COMPUTING Interview

len wir als EMC unsere Kunden noch intensiver unterstützen.

«Die IT muss neue Wege finden, zur Wertschöpfung des Unternehmens beizutragen.»

Bremsen die vielen Sicherheitsbedenken in den Unternehmen die Cloud im Bereich Speicherlösungen aus? Wir Schweizer sind sehr auf die Sicherheit bedacht. Auf der anderen Seite haben wir einen Gesetzgeber, der sehr viele Regulatorien geschaffen hat, die sehr viele Einschränkungen mit sich bringen. Ich denke, diese Kombination zeigt unsere Sicherheitskultur, und dies führt dazu, die Cloud kritisch zu betrachten. Im Zusammenhang mit Cloud hört man immer wieder das Schlagwort der «Schatten-IT». Was sind die Folgen? Ich glaube, die «Schatten-IT» wurde in den Unternehmen in den letzten Jahren unterschätzt. Dies erleben wir oft in Gesprächen mit unseren Kunden. Die häufigsten Gründe, die Fachabteilungen dazu veranlassen, eigene Lösungen zu entwickeln, sind eine schlechte organisatorische Abstimmung von IT und Fachabteilung, keine eindeutigen Verantwortlichkeiten bei der Betreuung der Fachabteilungen durch die IT sowie unflexible, langatmige organisatorische Abläufe. Die steigende Technologie-Affinität der Mitarbeiter fördert zudem die Entwicklung von «Schatten-IT». Dazu kommt, dass in vielen Unternehmen die interne IT nicht in der Lage ist, schnell und flexibel auf die Bedürfnisse der Fachabteilungen zu reagieren und zu allem Überfluss auch noch viel teurer ist, als ein professioneller Cloudanbieter. Dies führt automatisch dazu, dass auf externe Lösungen zugegriffen wird. Wir haben in unseren Analysen gesehen, dass viele CIOs die Probleme im Hinblick auf Datensicherheit, -integrität und -schutz sowie die Grösse und den Wichtigkeitsgehalt der Information, die sich auf externen Systemen befinden, unterschätzen. Compliance-Konflikte sind hier vorprogrammiert. Die «Schatten-IT» kann zur Etablierung von Prozessen führen, die bestehende Compliance-Regeln verletzen, und stellt selbst einen Verstoss gegen unternehmensinterne Regeln dar. Hier sind die IT-Manager gefordert, sich Gedanken zu machen: Wie kann ich einfache Prozesse den Fachabteilungen schnell, unkompliziert und preisgünstig zur Verfügung stellen? Es ist eine Umorientierung der IT hin zu Cloud-ServiceBereitstellungsmodellen erforderlich, alte Strukturen und Denkweisen in den IT-Abteilungen müssen dabei überwunden werden. Wie unterstützt EMC ihre Kunden bei der Cloudplanung?

Frank Thonüs, Managing Director, EMC Schweiz

Die IT muss neue Wege finden, zur Wertschöpfung des Unternehmens beizutragen. Dabei muss sie der zunehmenden Forderung nach einer schnellen und flexiblen Bereitstellung herkömmlicher Unternehmensanwendungen Rechnung tragen und zugleich die Kosten senken und Risiken mindern. Wir unterstützen hier unsere Kunden mit unserer EMC Federation, die aus VMware, Pivotal, Virtusstream und im Sicherheitsbereich RSA als eigenständiger Bereich innerhalb der EMC besteht. Die in den EMC Federation Labs entwickelte, integrierte und getestete Lösung Federation Enterprise Hybrid Cloud umfasst erstklassige Technologien, automatisierte Workflows und Anwendungsvorlagen, die unseren Kunden helfen, die verschiedenen Cloudlösungen und -anbieter wirksam zu verbinden und einfach zu managen. Dank Automatisierung und Selfservice können Anwender die benötigten Unternehmensanwendungen und IT-Services in die hierfür geeignete Cloud in der lokalen oder einer externen Umgebung verschieben und dabei die Infrastruktur wählen, die auf ihre Vorgaben für Kosten, Sicherheit, Zuverlässigkeit und Performance abgestimmt ist. Immer mehr Cloud-Services verlangen nach mehr Kapazität. Wird die Dichte an Rechenzentren in der Schweiz in den nächsten Jahren noch weiter zunehmen? Nein, ich glaube, dass die Rechenpower, die wir in der Schweiz haben, zu den weltweit besten zählt. Ich sehe in Zukunft nicht, dass es mehr Rechenzentren geben wird, sondern, dass die bestehenden, zur Verfügung gestellten RZ-Flächen weiter ausgebaut werden. Die kleinen Rechenzentren, die heute fast jedes Unternehmen im Keller hat, wird es in Zukunft kaum noch geben. Unternehmen werden vermehrt dazu übergehen, DatacenterServices von spezialisierten Anbietern in Anspruch zu nehmen.

Die steigende Technologie-Affinität der Mitarbeiter fördert zudem die Entwicklung von «Schatten-IT».


12

Trends CLOUD COMPUTING

Eine Hybrid Cloud ist die Zukunft

der Unternehmens-IT Unternehmen müssen ihre Strategien, IT-Infrastrukturen und Technologien den Anforderungen der Märkte anpassen. Ein hybrider Ansatz, der Private und Public Clouds kombiniert, bietet ein stabiles, zukunftsfähiges Fundament. Eine Hybrid Cloud bietet das Beste aus beiden Welten. Sie kombiniert die Services eines PublicCloud-Providers mit denen einer Private-CloudPlattform. Durch eine geschickte Aufteilung der Daten auf diese beiden Ressourcen können Unternehmen ihre IT-Lösungen optimieren und erzielen eine höhere Effizienz. E-Mail ist ein typischer Kandidat für die Public Cloud, denn darum muss sich dann die interne IT-Abteilung nicht mehr kümmern. Eine wichtige Rolle in diesem Zusammenhang spielt die Kontrolle, indem Unternehmen eine Entscheidung treffen, welche Daten sie in die Public Cloud auslagern beziehungsweise welche Services sie von dort beziehen, und welche sensitiven Daten sie in einer Private Cloud vorhalten. Damit können sie die jeweiligen Vorteile einer Public und einer Private Cloud optimal nutzen und sollten gleichzeitig die Freiheit besitzen, im Laufe der Zeit ihre IT-Ressourcen flexibel und skalierbar aufteilen zu können. Herausforderungen bei der Umsetzung Was die Umsetzung einer neuen Technologiestrategie angeht, gibt es keinen einfachen Weg, und das gilt auch für eine Hybrid Cloud. Bei jedem ITProjekt gibt es Vorgaben beispielsweise bezüglich Zeitrahmen, einer Übergangphase und dem Enduser-Support. So gilt es etwa bei Big-Data-Anwendungsszenarien in einer Hybrid-Cloud-Umgebung darauf zu achten, wo die Daten für einen schnellen Zugriff am besten untergebracht werden, ohne das Netzwerk für andere Anwendungen zu blockieren.

Bild: nopporn/shutterstock.com

Märkte befinden sich in einem kontinuierlichen Wandel. Cloud Computing stellt dafür ein breites Spektrum von Möglichkeiten bereit.

Die Mehrheit der Unternehmen nutzt zur Datenspeicherung aktuell sowohl Public als auch Private Clouds. In einer Public Cloud befinden sich die Unternehmensdaten auf den Servern eines Providers, und als Konsequenz daraus reduzieren sich für den Auftraggeber die Kosten für Wartung und Betrieb. Auf der anderen Seite entsteht dadurch ein gewisses Mass an Abhängigkeit. Kommt es bei dem Provider zu einem Stromausfall oder zu schwerwiegenden Hardwarefehlern, stehen die Daten zumindest vorübergehend nicht zur Verfügung. Auch der Providerwechsel kann sich im schlimmsten Fall als massives Problem erweisen. Eine Private Cloud dagegen wird von einem Unternehmen selbst betrieben und verwaltet. Die Stärke dieser Variante besteht darin, dass die Betreiber die Private Cloud individuell an ihre Bedürfnisse anpassen können. Als Schwäche erweist sich aber sehr schnell der zusätzliche Aufwand für Wartung, Pflege und Weiterentwicklung der Private Cloud.

Bei allen IT-Investitionen spielen Kostenaspekte heute eine herausragende Rolle. Viele Systeme und Anwendungen haben einen Lebenszyklus von fünf Jahren – manchmal sogar länger. Durch Investitionen in die IT-Infrastruktur einer Private Cloud legen sich Unternehmen langfristig fest. Die Server- und Storage-Kapazitäten in einer Public Cloud dagegen bieten Unternehmen eine hohe Flexibilität, denn sie lassen sich problemlos innerhalb kürzester Zeit erweitern und – bei Bedarf – anschliessend auch wieder reduzieren.


CLOUD COMPUTING Trends

Anforderungen an die IT-Sicherheit stehen heute bei jedem IT-Projekt im Vordergrund, insbesondere in Anbetracht der stetig steigenden Zahl von Cyber-Attacken auf Unternehmen. Lange Zeit galt eine Public Cloud als riskant – bei Angriffen auf dessen IT-Infrastruktur konnte keiner der Kunden auf seine Daten zugreifen. Das eigene unternehmensinterne Rechenzentrum dagegen galt als deutlich sicherer. In der Zwischenzeit hat sich die Situation geändert. Die Public-Cloud-Provider haben umfangreiche Security-Investitionen getätigt und können sich bei einem grossen Kundenkreis auch das dazu notwendige IT-Fachpersonal leisten, um ihre IT-Infrastruktur immer auf dem neuesten Stand zu halten und sich so wirksam vor aktuellen Gefahren zu schützen. In vielen Unternehmen stellt sich die Situation anders dar, denn sie tun sich bei stagnierenden IT-Budgets und verbreitetem Fachkräftemangel zunehmend schwer, die nötigen Personal- und Sachressourcen für eine optimale IT-Sicherheit bereitzustellen. Vieles spricht daher für eine Verlagerung von IT-Sicherheitsaufgaben an einen Public-Cloud-Provider. Nicht zuletzt ist auch das Management der Hybrid Cloud ein Aspekt, der frühzeitig abzuklären ist. Das gilt umso mehr, wenn Unternehmen Services von mehr als einem Public-Cloud-Provider nutzen. Hier empfiehlt sich der Einsatz einer zentralen Managementkonsole, mit der sich die Private und Public Clouds – inklusive IaaS-Services und Applikationen – verwalten lassen. Eine solche Funktionalität bietet beispielsweise der Dell Cloud Manager.

KOSTENLOS

1

Zusammenfassend bleibt festzuhalten, dass eine Hybrid Cloud vielfältige Vorteile bietet und als kosteneffiziente Lösung implementiert werden kann, die sich nahtlos in eine vorhandene IT-Infrastruktur einbinden lässt. Gerade dort, wo vorhandenes Equipment am Ende des Lebenszyklus angelangt ist, entscheiden sich Unternehmen immer häufiger für den Wechsel zu einer Hybrid Cloud, mit der sie in der Lage sind, heutige Anforderungen zu meistern und die ihnen gleichzeitig ein solides Fundament für künftiges Wachstum bietet.

woche Schnelligkeit, auf die Sie sich verlassen können High Definition Mono- und Farbdruck Überragende Medienflexibilität Höchst zuverlässige LED-Technologie

FRIENDL CO

L

LO

GY

Y

O KI

ED

DE SI

TURE IN FU

E

Geringe Gesamtbetriebskosten

THE

Autor: Andreas Bisang, Enterprise Field Marketing Manager Dell | Enterprise Marketing – Austria & Switzerland

TECHNO

FE

AT U R E S


Trends CLOUD COMPUTING

© carlos castilla/shutterstock.com

14

Das Beste

aus zwei Welten Immer mehr Unternehmen nutzen Cloud Computing, um Prozesse effizienter zu gestalten. Spitzenreiter ist dabei weder die Private noch die Public Cloud. Es sind Hybrid-Cloud-Modelle, die die Nase vorn haben. Cloud Computing hat sich in den letzten Jahren zu dem am stärksten wachsenden Bereich des ITMarktes in der Schweiz entwickelt. Insbesondere Hybrid-Cloud-Modelle gewinnen immer mehr an Bedeutung. Sie sind eine Kombination aus Private- und Public-Cloud-Lösungen. Private Cloud bedeutet, Cloud-Computing-Dienste ausschliesslich firmenintern zu betreiben. Dies erfolgt typischerweise im eigenen Rechenzentrum oder jedoch in einer dedizierten Umgebung, die durch ein Drittunternehmen exklusiv bereitgestellt wird. Public Cloud bedeutet, dass sämtliche Cloud Computing Services von einem externen Dienstleister angeboten und betrieben werden. Das Unternehmen kann diese Services auf einer variablen, nutzungsabhängigen Basis beziehen, teilt sich aber die Anwendung und Infrastruktur mit anderen Kunden des

Dienstleisters. Die Hybrid Cloud ist eine Kombination dieser beiden Bereitstellungsmodelle. Flexibilität und Kontrolle durch Hybrid Cloud Der Einsatz von Hybrid-Cloud-Lösungen erlaubt einem Unternehmen die grösstmögliche Flexibilität und Kontrolle über die betriebsunterstützenden IT-Dienste. Diese können dank Public Cloud Services ohne grossen Investitionsaufwand schnell an neue Businessanforderungen und Marktsituationen angepasst werden. Das Unternehmen behält die Kontrolle darüber, welche Services und Daten wann in eine Public Cloud verschoben werden – und damit auch die Möglichkeit, Risikoüberlegungen zu berücksichtigen und eine schrittweise Einführungsstrategie zu fahren. Darüber hinaus bieten Hybrid-Cloud-Systeme die Möglichkeit,


CLOUD COMPUTING Trends

durch eine einfache Integration von Private und Public Cloud Services eine ganzheitliche IT-Umgebung zu betreiben, die einfach zu verwalten und auszubauen ist. Einmal im Einsatz, können die ITDienste schnell erweitert und skaliert werden und neue Services können ohne viel Aufwand hinzugefügt werden. Ein Beispiel für die Vorteile hybrider Cloud Services ist Microsoft Office 365. Viele Unternehmen setzen in einem ersten Schritt die Public-CloudDienste E-Mail und Office (Word, Excel, Powerpoint) im Betrieb ein. Damit die Mitarbeitenden wie gewohnt arbeiten können, wird die bestehende firmeninterne Zugriffsberechtigung – zum Beispiel in Active Directory umgesetzt – verwendet. Die Zugriffsinformationen werden aus der eigenen IT-Umgebung zum Microsoft Cloud Service synchronisiert. So hat das Personal stets Zugriff in beiden Welten: Office 365 in der Cloud und Services im eigenen Unternehmen. Einmal für die Mitarbeitenden eingerichtet, können anschliessend weitere Services wie beispielsweise Skype for Business, Datenablage oder auch SharePoint ohne grossen Aufwand in die Office 365 Cloud verschoben werden – und selbstverständlich auch wieder zurück, wenn dies aufgrund von Risikoüberlegungen erforderlich sein sollte. Zusätzlich können Public Cloud Services von mehr als 2000 Drittanbietern nahtlos integriert werden, sodass Office 365 für die Mitarbeitenden nun eine Art Tür zur Welt darstellt. Sie können flexibel und unter sicherer Kontrolle des Unternehmens alle angebundenen Services nutzen. Die übergreifende Zugriffsverwaltung ist kritisch Der wirtschaftliche Einsatz von Diensten einer Hybriden Cloud bedingt ein Nebeneinander interner IT-Dienste mit Public Cloud Services. Damit dies funktionieren kann, muss eine Brücke zwischen den beiden Welten geschaffen werden. Zentrales Element dieser Brücke ist die Verwaltung der Zugriffsberechtigungen, auch Identity Management genannt. Wird diese Verwaltung als Verbindungsstück realisiert, so wird nicht nur ein einheitlicher Zugang auf verschiedenste Cloud Services gewährleistet. Auch werden Public Cloud Services zusätzlich einheitlich abgesichert. Diese Absicherung ist kritisch, da Public Cloud Services direkt aus dem Internet erreichbar sind. Eine mögliche Lösung für ein durchgängiges Identity Management ist beispielsweise Microsoft Azure Active Directory. Es erweitert ein bestehendes internes Active Directory, um es für Cloud Services skalierbar und nutzbar zu machen. Darüber hinaus

15

stellt Microsoft Azure Active Directory eine Vielzahl hilfreicher Funktionen bereit, wie beispielsweise die «Multi-Faktor-Authentifizierung», «Passwort Reset» und «Identity Federation». So können Mitarbeitende bei einer Anmeldung an einen Public Cloud Service, der von einem Drittanbieter bereitgestellt wird, über das bestehende Active Directory authentifiziert werden. Kluge Planung, transparente Abläufe und Know-how sind gefragt Der erfolgreiche Einsatz einer Hybrid-Cloud-Lösung setzt eine kluge Planung, gute Kenntnisse der internen Abläufe und solides Know-how voraus. Die Einführung einer Hybrid-Cloud-Lösung muss auf einer intern gut abgestützten Strategie basieren. Auf strategischer Ebene müssen Unternehmen festlegen, welche Anwendungen und Daten auf jeden Fall intern gehalten werden sollen, beispielsweise in einer Private Cloud, und welche Kandidaten für den Betrieb externer Public Cloud Services sind. Die Auswahl des passenden Hybrid-CloudSystems und eines passenden Providers wird so deutlich einfacher. Bei sorgfältiger Prüfung des Angebots sind Aspekte wie die Verfügbarkeit, die Integrität und die Seriosität des Anbieters zentral. Mit der Einführung einer Hybrid-Cloud-Lösung werden Daten zwischen internen Diensten und externen Cloud Services ausgetauscht und Prozessabläufe erstrecken sich über mehrere Bereiche. Damit eine so optimierte IT als Ganzes funktioniert, müssen Unternehmen einen scharfen Blick nach innen werfen. Ohne genaue Kenntnisse der Prozesse und Informationsflüsse steht jede noch so innovative Technologie auf wackeligen Füssen. Die meisten Unternehmen werden sich im Hinblick auf Hybrid-Cloud-Systeme noch auf Neuland bewegen. In vielen Fällen verdeckt die Vielzahl der möglichen Umsetzungsvarianten von HybridCloud-Lösungen den möglichen Nutzen. In diesem Fall kann externe Beratung mit Erfahrung und Kompetenz hilfreich sein. Sie kann Hand bieten und ein Unternehmen von der Strategieentwicklung über die Planung und die Auswahl der besten Lösung bis hin zur Umsetzung und Betrieb der Lösung begleiten.

Autor: Christoph Höinghaus ist CEO des IT-Dienstleistungsunternehmens Trivadis.

Hybrid-CloudModelle gewinnen immer mehr an Bedeutung. Sie sind eine Kombination aus Private- und PublicCloud-Lösungen.


16

Storage CLOUD COMPUTING

Mit HPE 3PAR StoreServ Systemen macht die

galledia-Gruppe Druck Nur Unternehmen, die sich erfolgreich im Online- und Mobile-Markt positionieren, ihr Angebot diversifizieren und eine kritische Masse in der PrintProduktion erreichen, überleben im Schweizer Druck- und Verlags-Umfeld.

«Die Professionalität und das persönliche Engagement des TopixTeams haben uns in jeder Phase des Projektes restlos überzeugt.» Felix Signer, Leiter IT-Services galledia ag

Felix Signer, Leiter IT-Services galledia ag, und Sven Kugler, Projektleiter Topix AG

Die galledia-Gruppe gehört zu den Gewinnerinnen dieses Strukturwandels. Dies nicht zuletzt dank einer leistungsfähigen IT-Infrastruktur, welche standardisierte Prozesse bei Redaktion, Produktion und Publikation der Online-, Mobile- und Print-Produkte ermöglicht. Der Storage-Teil der Infrastruktur wurde kürzlich mithilfe des IT-Partners Topix AG aus St.Gallen und auf der Basis von Hewlett Packard Enterprise Storage- und Server-Systemen erfolgreich konsolidiert und modernisiert. Ausgangslage: Fusionen führen zu heterogener IT-Infrastruktur Die dynamische Entwicklung der galledia-Gruppe stellte das Team von IT-Leiter Felix Signer vor grosse Herausforderungen. Fusionen und Zukäufe von Drittfirmen führten zu einer heterogenen IT-Infrastruktur, die in etlichen Bereichen auch nicht mehr dem Stand der aktuellen Technik entsprach. Gleichzeitig wuchsen die Anforderungen – insbesondere im Storage-Bereich – durch die immer stärkere Digitalisierung der Workflows für Kreation, Redaktion, Produktion, Publikation und Vertrieb. Komplett digitale Redaktions- und Publikations-Systeme, der vermehrte Einsatz von Video und neue Online- und Mobile-Anwendungen wie zum Beispiel Tablet-Publishing brachten die vorhandene Infrastruktur und nicht selten auch die IT-Mitarbeitenden an die Grenzen. «Spätestens mit dem Auslaufen der Supportverträge kam für uns der Zeitpunkt, um im Storage-Bereich gründlich Remedur zu schaffen», hält der galledia-IT-Leiter fest. «Wir wollten den historisch gewachsenen

«Selbst unerwartete 3 TB zusätzlicher Daten bewältigen wir heute mühelos.» Felix Signer, Leiter IT-Services galledia ag Wildwuchs bei den Storage-Systemen durch eine konsolidierte, skalierbare, sichere und optimal in unsere VMware-Infrastruktur integrierte SpeicherGesamtlösung ersetzen, die uns Luft für die Weiterentwicklung des Unternehmens verschafft.» Bei der Evaluation wurde bewusst nicht auf ein detailliertes Pflichtenheft gesetzt. Felix Signer: «Unsere Eckdaten waren die Skalierbarkeit, die Technologie und maximale Sicherheit. Auf dieser Basis haben Die Lösung im Überblick Hardware HPE Server DL380 G7 bestehend HPE Server DL380 G8 HPE SAN Switches 2x HPE Storage 3PAR 7200 Software HPE 3PAR OS Suite HPE 3PAR App Suite for VMware HPE 3PAR Replication Suite VMware vSphere Enterprise Edition Dienstleistungen Partner Beratung Konzeption Projektleitung Umsetzung


CLOUD COMPUTING Storage

wir uns den Markt angeschaut und uns in einer zweiten Phase Lösungskonzepte führender Storage-Hersteller und deren Partner zeigen lassen». Lösung: Überzeugende Lösung der Topix AG Bei dieser Evaluation schwang die Partner-Hersteller-Kombination Topix AG und Hewlett Packard Enterprise obenauf. Die St.Galler IT-Spezialisten präsentierten eine Lösung mit zwei über Glasfaserkabel verbundenen Rechenzentren an den galledia-Hauptstandorten Flawil und Berneck. In beiden RZ kommen modernste HPE 3PAR StoreServ Storage Systeme und HPE ProLiant Server zum Einsatz, die je eine voll virtualisierte ServerInfrastruktur (VMware) beherbergen. Für maximale Sicherheit werden sämtliche Daten im Viertelstundentakt zwischen den beiden Standorten repliziert. Die CRM-, ERP-, Fibu- und Collaboration-Lösungen der ganzen galledia-Gruppe, aber auch alle Terminal-Server-Lösungen, Produktions-Systeme, Ausgabe-Workflow- und Steuerungs-Systeme sind so stets gespiegelt vorhanden und stehen selbst bei grösseren Störfällen über die transparente Failover- und Failback-Funktion der HPE 3PAR StoreServ Systeme fast unterbruchsfrei zur Verfügung. Eine Kombination von Widestripingund Thin-Provisioning-Funktionen ermöglicht die wirtschaftliche Ausnutzung der vorhandenen Speicherkapazitäten, gleichzeitig reduziert sie die Datenmenge bei der Replikation zwischen den beiden Rechenzentren. Resultat: Bereit für neue Business-Herausforderungen «Wir sind von der Lösung begeistert. Sowohl, was die Technologie der Hewlett Packard Enterprise Storage-Systeme betrifft, als auch hinsichtlich der Zusammenarbeit mit unserem Partner Topix», resümiert IT-Leiter Felix Signer. «Heute verfügen wir gruppenweit über eine homogene, hoch skalierbare Storage-Lösung mit modernster Technologie. Die im Zusammenhang mit den HPE 3PAR StoreServ Arrays häufig gehör-

17

te Aussage ‹Enterprise Features zum MidrangePreis› kann ich vollauf bestätigen.» Das IT-Team der galledia-Gruppe kann mit den modernen HPE 3PAR-Systemen, die von Beginn weg für den Einsatz in virtuellen Umgebungen konzipiert wurden, viel schneller auf neue Business-Anforderun- «Die im Zusammenhang mit den HPE 3PAR gen reagieren. Felix Storage Systemen häufig gehörte Aussage Signer: «Ein riesiger ‹Enterprise Features zum Midrange-Preis› kann Vorteil in unserem sehr ich vollauf bestätigen.» dynamischen Mark- Felix Signer, Leiter IT-Services galledia ag tumfeld. Wir haben seit der Umstellung bestimmt schon gegen 25 neue virtuelle Server im Einsatz und verfügen über flexible Leistungsreserven. In den nächsten Wochen werden durch die Integration eines externen Produktionsstandortes in Berneck allein wieder gegen 3 TB zusätzliche Daten anfallen. Das hätte uns früher schlaflose Nächte bereitet. Heute bewältigen wir das mühelos.» Zur Zusammenarbeit mit dem HPE Partner Topix meint der IT-Verantwortliche: «Die Professionalität und das persönliche Engagement des Topix-Teams haben uns in jeder Phase des Projektes restlos überzeugt. Dank der hervorragenden Vorarbeit von Topix konnten wir die Umstellung ohne die geringste Beeinträchtigung des laufenden Betriebes bewerkstelligen. Unsere User haben nichts mitbekommen – und das ist eigentlich das Beste, was bei einem solchen Projekt passieren kann.» Die Topix AG betreut die StorageLösung der galledia-Gruppe im 2nd-Level-Support und ist als Partnerin für weitere IT-Projekte des Medienhauses gesetzt. So sollen beispielsweise die kürzlich übernommenen Luzerner UD Medien demnächst in die bestehende galledia-IT-Infrastruktur integriert werden.

www.hpe.com/ch


18

Netzwerk CLOUD COMPUTING

Das

24/7-Netzwerk Bessere Netzwerkauslastung mit virtuellen WAN-Lösungen steigern die Zuverlässigkeit von Anwendungen und senken gleichzeitig die Netzwerkkosten. Bei der standortübergreifenden Zusammenarbeit sind Unternehmen heute mehr denn je auf gut funktionierende Wide Area Networks (WAN) angewiesen. Sie sorgen dafür, dass geschäftskritische Anwendungen, reibungslos laufen – egal ob es virtuelle Desktops, Videokonferenzen oder CRMAnwendungen sind. Folglich können bereits kleinere Störungen fatale Folgen auf die Produktivität und damit das Geschäft haben. Ein Verbindungsproblem kann etwa dazu führen, dass essenzielle Applikationen und Daten nicht verwendet werden können. Mitarbeiter sind von wichtigen Diensten abgeschnitten; die Arbeit kommt zum Erliegen. Selbst kurzzeitige Netzwerkprobleme beeinflussen das Tagesgeschäft. Nicht immer handelt es sich dabei um hohe Latenzzeiten oder technische Probleme. Auch die tägliche Nutzung von Video-, Chat- oder Musikangeboten generiert Traffic, der wichtige Businessanwendungen behindert – je mehr Verzögerung, desto grösser der Frust beim Anwender: Prozesse ziehen sich ewig hin, schwankende Performance lässt die Kundschaft an der Qualität des Services zweifeln. Anwender verstehen zudem nicht, warum ein und dieselbe Aktion plötzlich länger dauert. Am Ende leiden sowohl Produktivität als auch Reaktionsfähigkeit darunter. Die Folge: Die gesamte Organisation eines Unternehmens gerät ins Stocken.

Data Center

MPLS

Bislang hatten IT-Verantwortliche versucht, solche kritischen Momente mit WAN-Optimierungslösungen in den Griff zu bekommen. In der Realität sieht es jedoch so aus: Viele Applikationen mit hohem Bandbreitenbedarf wie VoiP, Musik- oder Videostreaming-Dienste lassen nicht viel Spielraum für Optimierungen zu. WAN-Bandbreite durch MPLS-Dienste zu regulieren ist kostspielig und benötigt Monate an Vorbereitung. Nicht selten zieht das langwierige Verhandlungen und jahrelange Vertragsbindungen mit Providern nach sich. Einen Ausweg aus dieser Situation bietet die WANVirtualisierung. Sie stellt eine qualitativ hochwertige Konnektivität zur Verfügung. Dabei werden MPLS- und Breitbandverbindungen logisch in einem einzelnen virtuellen WAN zusammengeführt. Dadurch entsteht eine grössere und flexiblere Bandbreite, die eine einzelne Verbindung nicht hergibt. Ein virtuelles WAN bietet drei Schlüsselfunktionen: Netzwerkverknüpfung – mehrere MPLS- und Breitbandleitungen werden gemeinsam zu einem einzelnen virtuellen WAN gebündelt. Dies ermöglicht es Unternehmen, teure MPLS-Verbindungen mit günstigeren Breitbandlösungen zu ergänzen, um einen maximalen Durchsatz zu erreichen. Die Möglichkeit mit mehreren WANLeitungen führt dazu, kritischen Datenverkehr MPLS

Active MPLS

Remote Office

Cable

Backup Broadband

DSL

In einem typischen Szenario mit einer Verbindung vom Rechenzentrum zu einer Zweigstelle wird das Breitband-Internet nur für Backup-Zwecke oder für Anwendungen mit niedriger Priorität verwendet, da es nicht zuverlässig ist.


19

CLOUD COMPUTING Netzwerk

MPLS

Data Center

Cable

MPLS

Remote Offices With Appliance (”Virtual Path Service”)

Active MPLS DSL

MPLS

Active Broadband

Cable

No Appliance (”Intranet Service”)

DSL

CloudBridge InfiniWAN von Citrix ermöglicht es z.B. Unternehmen Standorte ohne einer Appliance mittels WAN-Virtualisierungsfunktionen Services wie «Intranet» mit Traffic-Shaping, Load Balancing und Failover auszustatten.

Amazon AWS Virtual Appliance

Data Center

Cable

Remote Office

Broadband DSL MPLS

MPLS

MPLS

Public und Private Clouds integrieren: Eine virtuelle Appliance bietet Visibilität und Kontrolle von Traffic zu Amazon Web Services(AWS)-Umgebungen

gleichzeitig übertragen zu können. Dies hilft dabei, die Anzahl verlorener Pakete zu minimieren und Ausfallzeiten zu beseitigen. Intelligente Pfadauswahl – ein virtuelles WAN kann auf Basis einzelner Pakete Netzwerkpfade in beide Richtungen auswählen, um eine optimale Bandbreitennutzung zu erlauben. Anwendungserkennung – durch das Erkennen und Priorisieren aufgabenkritischer Datenmengen garantiert ein virtuelles WAN den wichtigsten Applikationen Zugang zu den leistungsstärksten WAN-Verbindungen. Sollten ein oder mehrere Pfade ausfallen, können wichtige Anwendungen kurzerhand auf die restlichen zurückgreifen und eine ungestörte Produktivität gewährleisten. Ein virtuelles WAN bietet mehr Flexibilität und Belastbarkeit gegenüber einem herkömmlichen Netzwerk. Zudem lässt es sich fliessend erweitern. Um beurteilen zu können, ob ein virtuelles WAN für das eigene Unternehmen geeignet ist, helfen folgende sechs Fragen: Benötigen die Mitarbeiter des Unternehmens Zugang zu zentralisierten oder gehosteten Applikationen via Remote-Zugriff?

Werden für die Kommunikation Voice-over-IPDienste verwendet? Muss die Nachfrage nach mehr Bandbreite abgedeckt werden, ohne dabei die Kosten eines MPLS-Upgrades zu tragen? Kam es bereits zu einem Netzwerkausfall, der finanzielle Folgen nach sich zog? Besteht mit einem Netzanbieter ein Langzeitvertrag, der bald erneuert werden muss? Werden Backup-WAN-Verbindungen verwendet, die ausschliesslich bei einem Netzwerkfehler zum Einsatz kommen? Ist die Antwort auf diese Fragen «Ja», dann unterstützt ein virtuelles WAN dabei, die Performance zu steigern, die Bandbreite zu skalieren und die Netzwerkkosten zu senken. Denn jeder ausgegebene Cent für ein MPLS-Upgrade, ist eine verpasste Chance das Netzwerk zu modernisieren. Autor: Thomas Vetsch Country Manager Schweiz bei Citrix

«Wie Sie die Zuverlässigkeit von Anwendungen steigern, die Bandbreite skalieren und gleichzeitig Netzwerkkosten senken.» Das Whitepaper von Citrix zum Thema WAN-Virtualisierung. www.citrix.ch


20

Sicherheit CLOUD COMPUTING

Sechs Backup-Tipps

für die Datenflut Was bedeutet es für die Datensicherung, wenn immer mehr Daten entstehen und alles aufgehoben werden soll?

Daten sind das neue Öl.

Die Erstellung von Sicherungen darf daher nach der erstmaligen Konfiguration kaum noch Zeit kosten.

Unternehmen mussten schon immer Daten aus verschiedensten Gründen für sehr lange Zeit aufbewahren. In der Geschäftswelt ist das Datenwachstum deshalb seit Jahren ein Dauerthema. Was sich aber gerade ändert: Heute wollen Unternehmen alle Daten behalten. Absichtliches Löschen wird zum Ausnahmefall. Niemand will sich Chancen verbauen, die beispielsweise Big-Data-Analysen alter Datenbeständen bieten. So wie im Ölrausch sich jeder erst einmal seinen Claim absteckte, in der Hoffnung, dass sich der Bodenschatz dort schon finden lassen werde, wird im Datenrausch aus vager Hoffnung vorsorglich fast alles aufgehoben. Die Konsequenz: Die gesamte heute verfügbare Speicherkapazität wird laut IDC schon im Jahr 2020 nur noch für gut 15 Prozent aller Daten ausreichen. Was bedeutet das für die Datensicherheit? Lässt sich sie sich mit bisherigen Backup-Strategien noch gewährleisten? Das Internet der Dinge, Industrie 4.0, Smartphones, Wearables und das Smart Home produzieren Unmengen an Daten. Um die Sache noch komplizierter zu machen, liegen diese Informationen grösstenteils unstrukturiert vor. Traditionelle Backupsysteme arbeiten mit Vollsicherungen auf Offline-Speichermedien. Die zukünftigen Anforderungen hinsichtlich Speicherbedarf und Wiederherstellungszeit wird dieser Ansatz jedoch nicht mehr erfüllen. Das massive Datenwachstum würde die verfügbaren Backupfenster sprengen und die Kosten würden durch die nötigen Speicherkapazitäten völlig aus dem Ruder laufen. In der Realität stossen schon heute die Sicherungssysteme vielerorts an ihre Grenzen. Das Backup dauert zu lange, das Volumen wird zu gross, die Hardware zu teuer, das Management zu aufwändig. Und noch schneller verlängert sich die Wiederherstellungszeit. Denn die Bandbreite für den Datentransfer hält schlichtweg nicht mit dem Datenwachstum Schritt. Wie lange darf es höchstens dauern, bis die Systeme wieder produktiv laufen? Und wie viel Datenverlust toleriert ein

Unternehmen? Um die in früheren Zeiten angestrebten Ziele, Recovery Time Objective (RTO) und Recovery Point Objective (RPO), zu erreichen, muss sich angesichts der Datenflut die Geschwindigkeit von Backup-Prozessen vervielfachen. Diese Beschleunigung ist durchaus zu erreichen. Mit den folgenden sechs Tipps halten Administratoren ihr Backup fit für das Zeitalter des Datenrauschs. 1. Tipp: Automatisierung statt Handarbeit Administratoren haben eine immer komplexere IT-Architektur zu verwalten. Die Erstellung von Sicherungen darf daher nach der erstmaligen Konfiguration kaum noch Zeit kosten. Sie muss vollständig automatisiert ablaufen und so einfach wie möglich gestaltet sein. Im Falle von Datenverlust soll das System dem Admin ermöglichen, mit wenigen Klicks nicht nur einzelne Server oder Clients sondern sogar einzelne Ordner oder Dateien wiederherzustellen. Dies ist heute möglich dank disk-basierten Backups und dezidierter BackupAppliances. Mit ihnen können auch die obligatorischen Wiederherstellungstests mit überschaubarem Aufwand durchgeführt werden. 2. Tipp: Globale Inline Deduplizierung statt Speicher- und Bandbreitenverschwendung Die Erstellung von Backups ist bei Backup Appliances erst dann richtig performant, wenn Daten auch intelligent übertragen und gesichert werden. Unverzichtbar, um das Datenwachstum unter Kontrolle zu bekommen, ist Deduplizierung. Das heisst, redundante Daten werden im Backup nur ein einziges Mal physisch gespeichert. Der Königsweg ist die «globale Deduplizierung». Das heisst, eine Deduplizierung über die Backup-Daten aller Standorte des gesamten Unternehmens hinweg. Da zum Beispiel viele Clients das gleiche Betriebssystem nutzen, kann alleine die Deduplizierung dieser Datenblöcke die Backup-Kapazität stark entlasten. Auch in vielen anderen Bereichen lässt sich das Volumen auf einen Bruchteil reduzieren. Eher sinnfrei ist allerdings eine Architektur, die zunächst die Daten vollständig überträgt, speichert


21

CLOUD COMPUTING Sicherheit

und erst anschliessend dedupliziert (Post Process Deduplication). Dies wäre wie eine Fussballmannschaft, die erst nach dem Abpfiff die Tore schiesst. Systeme mit Inline Deduplication stellen bereits vorab fest, welche Daten ins Backup übertragen werden müssen und sparen so Bandbreite und Speicherkapazität. 3. Tipp: Inkrementelles Backup statt Vollbackups Früher war es üblich, zumindest gelegentlich mit Vollbackups sicherzustellen, dass man eine konsistente Datenbasis hat. Doch ein Vollbackup kann selbst in kleineren Unternehmen Netzwerke tagelang beeinträchtigen. Inkrementelle Sicherungen mit Deduplizierung an der Backup-Quelle stellen sicher, dass nur die tatsächlich benötigten Daten überhaupt übertragen werden. Heute reicht es, einmal zu Beginn ein Vollbackup vorzunehmen. Danach werden immer nur die Änderungen des Datenbestandes übertragen. Moderne BackupTechnologie kann die Konsistenz der Daten durch Prüfsummen sicherstellen und die Backup-Daten ohne manuelles Eingreifen des Administrators zu konsistenten Vollbackups konsolidieren. Nur mit einer inkrementellen Backup-Strategie ist es möglich, die Dauer des Backups kurz zu halten. 4. Tipp: Archivierung statt überladener Produktivsysteme Unternehmen können Unternehmen die Grösse von Mail- oder Fileservern durch Archivierung massiv reduzieren. Im Gegensatz zu den Produktivdaten verändern sich die Archive wenig. Selbst Archive, die sehr grosse Datenbestände aufweisen, bedeuten daher nach dem ersten Backup kaum noch eine Belastung des Backup-Systems. Damit bleiben sowohl Speicherbedarf als auch Backupdauer im Rahmen. 5. Tipp: Disaster Recovery günstig in der Cloud statt teuer im eigenen Haus Die Cloud eignet sich hervorragend, um die Anforderung eines Offsite-Backups für Katastrophenfälle (Disaster Recovery) kostengünstig abzubilden. Egal ob es sich um eine Public Cloud handelt oder eine aus fertigen Komponenten aufgebaute Private Cloud beim Dienstleister – sie spart erheblich Zeit und Geld für die Implementierung und den Betrieb eines eigenen Disaster-Recovery-Systems. Diese Spareffekte sollte man nutzen, wenn man bedenkt, dass eine komplette Wiederherstellung aller Systeme, etwa bei Naturkatastrophen oder Unglücksfällen, in der Praxis sehr selten passiert. Viel häufiger ist das versehentliche Löschen einzelner Ordner, das Überschreiben von Dateien oder der Verlust eines Endgerätes. Um abseits des Ka-

tastrophenfalls bei punktuellen Datenverlusten Daten schnell wiederherstellen zu können, bleibt es unverzichtbar, ein lokales Backup vorzuhalten. 5. Tipp: Cloud-to-Cloud Backup statt Abhängigkeit vom Cloud-Dienstleister Je mehr Unternehmen ihre Infrastruktur in die Cloud auslagern, desto wichtiger wird ein Backup dieser Ressourcen. Dies sollte immer bei einem zweiten Cloud-Anbieter stattfinden, damit Unternehmen nicht einem einzigen Anbieter ausgeliefert sind. Wer das sogenannte Cloud-to-Cloud-Backup nutzt, hat höchste Gewissheit, jederzeit auf alle Daten Zugriff zu behalten, auch wenn einer der Dienstleister seine Verträge nicht einhält oder mit technischen Schwierigkeiten kämpft. 6. Tipp: Schnelle Recovery in der Cloud statt Geschäftsunterbrechung Gerade wenn Server oder Clients durch Unfälle, Diebstähle, Verlust oder Unglücksfälle nicht mehr verfügbar sind, bietet Virtualisierung ganz neue Recovery-Optionen. So ist es möglich, zum Beispiel das Backup eines Servers, der physisch nicht mehr zur Verfügung steht, direkt aus dem Backup als virtuelle Maschine in den produktiven Betrieb zu nehmen. Auch die Cloud bietet ganz neue Recovery-Optionen: Unternehmen können ihre in der Cloud gesicherten Daten direkt in der Cloud in einem Sync&Share-Service veröffentlichen. Dies ermöglicht Mitarbeitern im Self Service sehr schnellen Zugriff über den Browser auf ihre Daten. Und es bietet auch die Möglichkeit der Wiederherstellung von Daten auf dem Client für Mitarbeiter, die nicht in einer Niederlassung sind, sondern zum Beispiel auf Reisen oder im Home Office. «Data Mining» ist kein zufällig entstandenes Wort. Daten sind heute wertvolle Rohstoffe und sie müssen besser gesichert werden als je zuvor. Traditionelle Backup-Architekturen sind mit den heutigen Datenmengen überfordert. Um den BackupDurchbruch zu schaffen, müssen grundlegend neue Backup-Strategien und -Strukturen entwickelt werden. Globale Deduplizierung, inkrementelle Sicherung und die Nutzung von diskbasierten Backup-Appliances sind die Grundlage zeitgemässer Backup-Strategien. Die Cloud und Virtualisierung erweitern diese Möglichkeiten um spannende neue Optionen. Autor: Stefan Schachinger ist Consulting System Engineer – Data Protection bei Barracuda Networks

Wer das sogenannte Cloudto-Cloud-Backup nutzt, hat höchste Gewissheit, jederzeit auf alle Daten Zugriff zu behalten, auch wenn einer der Dienstleister seine Verträge nicht einhält oder mit technischen Schwierigkeiten kämpft.


22

Sicherheit CLOUD COMPUTING

Preisgekrönte SaaS

vereinfacht Filesharing Die mehrfach ausgezeichnete Schweizer Cloud-Lösung «SecureSafe» schützt Unternehmensdaten vor Industriespionage und ermöglicht durch sicheren und einfachen Austausch eine effiziente Team-Arbeit. Fatale Hacker-Angriffe auf prominente ITUnternehmen wie Adobe, Apple und Sony haben viele Unternehmen veranlasst, die Sicherheit ihrer Daten zu hinterfragen. Trotz der wachsenden Sensibilität greifen viele beim Schutz ihrer Daten aber immer noch auf Lösungen zurück, die das tägliche Datenmanagement zwar vereinfachen, aber kaum vor Datendiebstählen schützen. Mit der Schweizer Cloud-Lösung SecureSafe behalten die Nutzer nicht nur zu 100 Prozent die Kontrolle über die Unternehmensdaten – sondern profitieren gleichzeitig von einer benutzerfreundlichen Lösung, welche die tägliche Arbeit mit Dateien optimal unterstützt. Diese Kombination von Sicherheit und Benutzerfreundlichkeit wurde von den Lesern des renommierten Online-Magazins «Storage-Insider» jüngst mit der Platin-Auszeichnung in der Kategorie «Enterprise Filesharing» honoriert.

Testen Sie SecureSafe 30 Tage kostenlos: https://www. securesafe.com/ apps/teamsignup. html#lang=de

Sicherer Zugriff und Austausch rund um die Uhr Der effiziente Austausch von Daten zwischen Mitarbeitern, Partnern und Lieferanten ist für die Wettbewerbsfähigkeit von essenzieller Bedeutung. Alle Beteiligten benötigen jederzeit und an jedem Ort Zugriff auf die aktuellen Versionen sämtlicher für ihre Arbeit relevanten Dateien. Um dieser Herausforderung zu begegnen, bietet SecureSafe sogenannte Team-Spaces für den Datenaustausch innerhalb und ausserhalb des Unternehmens. Anzahl

Mitglieder, Laufzeit und Speicherplatz pro TeamSpace kann flexibel gestaltet und so kosteneffizient eingerichtet werden. Als Teil des Paketes werden ausserdem eine Dateisynchronisierungssoftware mit Ende-zu-EndeVerschlüsselung sowie hochsichere Funktionen für den Versand und die Anzeige von Dateien angeboten. Abgerundet wird das Angebot von SecureSafe durch iOS- und Android-Apps, welche gewährleisten, dass auch unterwegs stets auf die Daten zugegriffen werden kann. Daten werden dreifach gesichert Beim Verlust von Dateien gehen wichtige Informationen möglicherweise unwiderruflich verloren. Dies verringert nicht nur die Effizienz des Teams oder Unternehmens, sondern kann, abhängig von der Art der verlorenen Informationen, hohe Kosten nach sich ziehen. Auch hier bietet SecureSafe Mehrwert indem sämtliche Dateien mit dreifacher Redundanz in zwei Hochsicherheits-Datenzentren in der Schweiz gespeichert werden. «Mit dieser Lösung möchten wir unseren Kunden einen optimalen Schutz vor Datenverlust bieten» erklärt CEO, Tobias Christen. «Dank unseres Ansatzes zur verschlüsselten und mehrfach redundanten Dateispeicherung können wir mit Stolz sagen, dass wir bisher keinerlei Kundendaten verloren haben» so Tobias Christen weiter. Erfahren Sie mehr unter: www.securesafe.com/de/securesafe-for-teams

DSwiss AG Badenerstrasse 281, 8003 Zürich T. +41 44 515 11 11 www.securesafe.com/de


CLOUD COMPUTING Sicherheit

23

Synchronized Security:

Teamwork ist Trumpf Endpoint und Netzwerk-Sicherheitslösungen müssen endlich miteinander kommunizieren. Der Security Heartbeat macht’s möglich – einfach und effektiv Effizient Die Lösung muss die Arbeitslast des Teams verringern und zugleich den Schutz verbessern. Sie darf keine weitere Schicht zur Technologie und zur Arbeitslast hinzufügen. Effektiv Die Lösung muss die heutigen Bedrohungen über die gesamte Bedrohungsfläche hinweg effektiv verhindern, erkennen, untersuchen und beheben können. Einfach Die Lösung muss einfach zu kaufen, einfach zu verstehen, einfach zu installieren und einfach anzuwenden sein.

Seit Jahrzehnten hat die IT-Sicherheitsbranche Netzwerk- und Endpoint-Sicherheit als zwei komplett unterschiedliche Bereiche betrachtet. Das ist so, als ob man einen Mitarbeiter für Gebäudesicherheit außerhalb des Gebäudes und einen anderen im Gebäude positioniert, ohne dass die beiden miteinander kommunizieren können – ein absurder Gedanke. Genau hier setzt unsere neue, synchronisierte Sicherheit an: Sie sorgt dafür, dass die beiden Mitarbeiter miteinander sprechen. Hierfür benötigen wir ein System, das folgende Eigenschaften erfüllt: Auf das gesamte Ökosystem konzentriert Wir müssen Datenverluste im gesamten IT-Ökosystem verhindern, erkennen und stoppen können; dazu ist es notwendig, dass wir über alle Vorgänge im System Bescheid wissen.

Diese Liste liest sich wie eine kaum lösbare Aufgabe. Die heute verfügbaren IT-Sicherheitsprodukte sind das Gegenteil: auf die Bedrohung konzentriert, komplex, nicht umfassend, ressourcenintensiv und insgesamt nicht so koordiniert wie die Angriffe, gegen die sie helfen sollen. Ganz klar sind Innovationen erforderlich, um erfolgreich zu sein. Um zu einer solchen Lösung zu gelangen, benötigt man eine innovative Technologie – den Sophos Security Heartbeat. Synchronisierte Sicherheit ermöglicht es den Endpoint- und Next-Generation-Netzwerksicherheitslösungen, wichtige Informationen untereinander auszutauschen, wenn sie verdächtige Verhaltensweisen im IT-Ökosystem bemerken. Durch eine direkte und sichere Verbindung – den sog. Heartbeat – entsteht ein integriertes System. Dieses System ermöglicht es Unternehmen, Bedrohungen praktisch in Echtzeit zu verhindern, zu erkennen, zu analysieren und zu beseitigen, ohne dass zusätzliche Mitarbeiter benötigt werden. Mehr Informationen unter

Umfassend Die Lösung muss umfassend sein und unser gesamtes IT-System mit mehreren Plattformen und Geräten abdecken; nur so kann sie uns effektiv gegen Angreifer schützen.

www.sophos.ch


24

Bild: Rainer Albiez/shutterstock.com

Sicherheit CLOUD COMPUTING

«Ein Tanz

auf dem Vulkan» Sie wissen, es ist gefährlich, und sie könnten viel verlieren. Dennoch sind die meisten Unternehmen nicht angemessen auf schwere Sicherheitsvorfälle vorbereitet. Der «Global Threat Intelligence Report 2015» des Sicherheitsspezialisten NTT Com Security zeigt auf, dass dringender Handlungsbedarf bei der Gefahrenprävention in den Unternehmen besteht. Lesen Sie hier, warum traditionelle Ansätze zur Gefahrenabwehr keinen wirklichen Schutz mehr für Unternehmensnetze bieten, und wie eine neue Generation von Lösungen selbst schärfste Attacken bereits im Keim erstickt. Sie spielen mit dem Feuer und verbrennen dabei viel Geld: Milliarden USD jährlich verlieren die Volkswirtschaften weltweit durch Cyber-Angriffe. Vor allem den kleineren und mittleren Organisationen fehlt es oft an den notwendigen Sicherheitsstrukturen, sie gehen in punkto Sicherheitsmassnahmen und -konzepte hohe Risiken ein. Nur die Spitze des Eisbergs Dabei drohen mehr Gefahren, denn je: Der «Security Report 2015» des Sicherheitsexperten Check Point etwa belegt, dass 81% der rund 700 weltweit untersuchten Unternehmen wenigstens einen

Fall von Datenverlust haben hinnehmen müssen, bei 83% der Organisationen wurden bestehende Bot-Infektionen festgestellt. Und wenn schon im vergangenen Jahr eine wahre Explosion an unbekannter Malware zu beobachten war, so war dies – aus heutiger Sicht – nur die Spitze des Eisbergs. Derzeit ist die Frequenz von Zero-Day-Attacken und unbekannter Malware geradezu massiv. Kein Zweifel also, dass sich die Organisationen besonders gegen Schadsoftware und Zero-Day-Attacken besser wappnen müssen, wollen sie den zunehmenden und künftigen Risiken probate Mittel entgegen setzen. Erfolgreiche Schädlingsbekämpfung Mit althergebrachten Methoden ist jedoch gegen die heute bis zu 100 000 täglich neuen Malware-Varianten kaum noch etwas auszurichten. Erfolgreicher in der Schädlingsbekämpfung sind dagegen neu entwickelte Mittel wie «Threat Emulation» und «Threat Extraction»: Sie blockieren selbst unbekannte Bedrohungen, noch bevor das Geschäftsnetz infiziert werden kann. Hierfür prüft


CLOUD COMPUTING Sicherheit

die Lösung heruntergeladene .exe-Dateien und gängige E-Mail-Anhänge wie PDFs und OfficeDateien innerhalb einer Sandbox. Dort kann das Verhalten der Dateien beobachtet werden. Erkennt die Lösung atypische Aktivitäten oder normwidrige Veränderungen, stoppt sie die Auslieferung der Datei noch am Gateway. Die Threat Extraction-Technologie geht noch einen Schritt weiter: Sie entfernt potentiell schadhafte Funktionen wie Makros oder eingebettete Objekte aus den Dateien, hauptsächlich OfficeDokumenten, noch bevor diese zum User gelangen. Von möglichen Bedrohungen befreit, wird das Dokument anschliessend rekonstruiert und dem Anwender mit ausschliesslich sicherem Inhalt zur Verfügung gestellt. Threat Extraction arbeitet auf Gateway-Ebene. Es entfernt die schädlichen Inhalte und repariert die Dokumente bereits im Netzwerk, bevor sie die Anwender im Unternehmen erreichen. Dies ist ein neuer Ansatz zur Bedrohungsabwehr: Statt herauszufinden ob eine Datei schädlich ist oder nicht, reinigt Threat Extraction sie, bevor sie in das Unternehmen eintritt. TIPP: So sorgen Sie für besseren Schutz Um unbekannte Malware und Zero-DayAttacken zu adressieren, müssen Sie in der Lage sein, sie innerhalb des Betriebssystems und darüber hinaus zu identifizieren. Das Ziel: Nehmen Sie nicht nur die Bedrohungen selbst ins Visier, sondern adressieren Sie auch die Umgehungstechniken. Check Point empfiehlt einen dreischichtigen Ansatz: eine Kombination aus Betriebssystem- und CPU-Level-SandboxFunktionalitäten mit Threat Extraction. Diese Faktoren sollten Sie bei der Auswahl einer guten Sandbox-Lösung in Betracht ziehen: Die Fähigkeit, Attacken zu blockieren, und sie nicht nur zu erkennen Die Fähigkeit, Umgehungen zu verhindern Schnelle und präzise Erkennung Die Fähigkeit, SSL zu entschlüsseln Die Fähigkeit, gängige Dateitypen zu unterstützen Die Fähigkeit, Web-Objekte zu unterstützen, wie z.B. Flash

Autor: Sven Gerlach ist Senior Practice Manager Secure Infrastructure bei NTT Com Security


26

Sicherheit CLOUD COMPUTING

Kleine Daten,

grosse Gefahr IT-Hacks werden meist nur dann öffentlich bekannt, wenn grosse Konzerne wie zuletzt United Airlines, JP Morgan oder Sony betroffen sind. Daher wähnen sich kleine und mittelständische Unternehmen häufig in Sicherheit.

Die Investitionen in die IT steigen – und damit auch die Angriffsfläche Die IT-Ausgaben insgesamt steigen derzeit und es werden ständig neue Investitionen – etwa der Einkauf mobiler Technologien – getätigt. Doch mit der Zahl der vernetzten Geräte wächst auch die Verwundbarkeit, denn die bislang bestehende Grenze zwischen der internen Firmen-IT und dem Internet existiert nicht mehr. So gab es 2014 über 43 Mil-

lionen registrierte Angriffe über das Internet. Dies bedeutet mehr als 117 000 Attacken täglich. ITSicherheit ist noch unverzichtbarer geworden – zum Schutz des Unternehmens, der Mitarbeiter und des geistigen Eigentums. Vor allem kleine und mittlere Unternehmen stehen damit aber vor einer Herkules-Aufgabe. Denn sie können die Absicherung ihrer immer komplexer werdenden IT-Landschaft kaum mehr aus eigener Kraft leisten. Der Aufwand dafür ist immens und das erforderliche Know-how extrem hoch. Sie müssen sich in erster Linie auf ihr Kerngeschäft fokussieren – Kunden bedienen, Aufträge generieren und dabei Herr über den Verwaltungsaufwand bleiben. Für IT-Sicherheit fehlen dann schlicht die Ressourcen. Risikofaktor Mitarbeiter Hinzu kommt, dass sich Mitarbeiter im Umgang mit mobilen Endgeräten und Lösungen oft sehr unbekümmert verhalten. Das AVG Partner-Unternehmen Centrify hat herausgefunden, dass ein

Bild: EtiAmmos/shutterstock.com

IT-Sicherheit ist noch unverzichtbarer geworden – zum Schutz des Unternehmens, der Mitarbeiter und des geistigen Eigentums

Ein Irrtum, der fatale Folgen haben kann. Denn Hacker nehmen keineswegs nur die Grossen ins Visier. Auch KMU verfügen über wertvolle Daten wie Informationen über Kunden, Mitarbeiter, Finanzen und geistiges Eigentum. Für Betrüger sind sie als Ziel oft sogar doppelt attraktiv: Zum einen sind die Zugriffshürden aufgrund mangelnder Expertise im Bereich IT-Sicherheit oft leichter zu überwinden als bei den Weltkonzernen. Zum anderen fehlt es vielfach an den notwendigen Budgets, um die IT-Infrastruktur adäquat abzusichern.


27

CLOUD COMPUTING Sicherheit

Drittel der Nutzer seine Geräte gar nicht sichert. Andere verwenden lediglich elementare, leicht erratbare Passwörter und gefährden so die wertvollen Unternehmensdaten. Das ist umso bedenklicher, da Hacker mit immer raffinierteren Maschen agieren. So bewegen sie etwa mit Social-Engineering-Techniken Mitarbeiter dazu, realistisch anmutende, aber betrügerische E-Mails oder gefälschte Webseiten zu öffnen. Viele Unternehmen setzen auf ein Mobile Device Management (MDM), um sich vor den wachsenden Gefahren aus dem Netz zu schützen. Darüber sind alle mobilen Geräte der Mitarbeiter zentral autorisiert. Zudem müssen die Mitarbeiter eine Reihe von IT-Vorschriften akzeptieren, bevor sie auf Unternehmensressourcen oder -daten zugreifen können. Im Gegenzug erhalten IT -Administratoren die nötigen Privilegien, um Sicherheitsverfahren anzuwenden. Dazu gehört etwa, ein Gerät remote zu lokalisieren, es zu sperren, Daten zu löschen oder zu prüfen, ob spezielle Geräte, Netzwerke und VPN den Unternehmensrichtlinien entsprechen. Doch auch ein MDM birgt Risiken: Mitarbeiter können sich in ihrer Arbeit behindert sehen und auf eigene Faust gefahrenträchtige Lösungen suchen. Best-Practices für KMUs Dabei gibt es auch für kleine Unternehmen, die noch keine IT-Komplettlösung integrieren können, einige Best Practices zum Schutz der sensiblen Daten. Zum einen sollten Unternehmen ihre Mitarbeiter zum Thema IT-Sicherheit schulen und sie über aktuelle Bedrohung informieren. Ebenso sollten die Unternehmensdaten in verschlüsselten Datenbanken gespeichert werden. Jeder Zugang zu einer Datenbank mit Kundendaten sollte mit einem sicheren Passwort versehen sein, welches in regelmässigen Abständen geändert wird. Weiterhin ist es wichtig, dass die Unternehmen eine Malware Detection Software auf allen Servern und Arbeitsplätzen nutzen und sicherstellen, dass diese regelmässig gepatcht und upgedatet wird. Standardisierte Netzwerksicherheits-Kontrollen erhöhen zusätzlich die IT-Sicherheit im Unternehmen. Weiterhin sollten Unternehmen sicherstellen, dass ihr Krisenmanagement oder Krisenplan auch Vorgehensweisen bei einer eventuellen Datenschutzverletzung beinhaltet. Managed Service Provider als Helfer der KMU Zudem können sich Unternehmen auch externe Unterstützung zur Absicherung ihrer Systeme holen – denn dank Cloud sind Mangaged Security Services heute auch für KMU bezahlbar. Schliesslich ist durch die Bereitstellung wichtiger Sicherheitsfunktionen wie Malware-Schutz, Content-

Filterung, Backup und E-Mail-Schutz über die Cloud keine Investition mehr im Vorfeld notwendig. Für Kunden fallen nur Kosten bei tatsächlicher Nutzung an. Der Schlüssel dazu liegt in Remote Monitoring- und Management-Lösungen. Diese arbeiten auf Protokollebene und kommen dadurch ohne lokal installierte Agenten aus. Damit kann der Service-Provider alle Geräte im Netzwerk des Unternehmens inventarisieren und überwachen, Fehler und Probleme frühzeitig erkennen und mit geringem Aufwand beseitigen. So können auch KMU Leistungsmerkmale der IT-Security nutzen, die bislang aus Kostengründen oder wegen den damit verbundenen Aufwänden kaum sinnvoll vor Ort implementierbar waren oder Grossunternehmen vorbehalten blieben, wie etwa Single Sign-On. Denn auch diese Technologie bieten viele Anbieter heute schon als Cloud-basierten Service an und erhöhen damit die Nutzbarkeit, Sicherheit und Compliance über alle mobilen Geräte hinweg – einschliesslich traditioneller Windows und OSX Laptops. Zeit zu Handeln Angesichts der steigenden Bedrohungen können KMU es sich schlichtweg nicht leisten, erst dann in IT-Sicherheit zu investieren, wenn sie als Opfer von Datendiebstahl in die Schlagzeilen geraten. Abgesehen vom finanziellen Verlust eines solchen Vorfalls ist der Image-Schaden unkalkulierbar – und das hart erarbeitete Kundenvertrauen unwiderruflich beschädigt. Allerdings fehlt es gerade kleineren Unternehmen oft an dem notwendigen Know-how und Ressourcen, um ihre System adäquat abzusichern. Grosse Unternehmen wollen den enormen Aufwand immer häufiger nicht selbst leisten. Daher ist jetzt ein neuer Ansatz für die IT-Sicherheit erforderlich. Sie muss vor allem bezahlbar und beherrschbar bleiben. Komplexe Best-of-Breed-Angebote, die vor Ort beim Anwender betrieben werden, gehören damit der Vergangenheit an. Flexibilität und Skalierbarkeit sind Trumpf. Daher werden immer mehr Unternehmen zukünftig ihre Security-Funktionen über die Cloud beziehen. Die IT-Infrastruktur wird dann komplett remote über Monitoring- und Management-Lösungen verwaltet. Die dafür nötigen Tools sind bereits am Markt verfügbar.

Autor: François Tschachtli ist Sales Director DACH & Benelux bei AVG Business

Viele Unternehmen setzen auf ein Mobile Device Management (MDM), um sich vor den wachsenden Gefahren aus dem Netz zu schützen.


28

Sicherheit CLOUD COMPUTING

classify or die Über die Notwendigkeit der Klassifizierung von Daten als Voraussetzung für Sicherheit und den Schritt in die Cloud. Provokation oder Notwendigkeit? Zugegeben, der Titel dieses Artikels ist etwas provokativ. Dennoch wiederspiegelt er in Etwa unsere Erfahrungen, die wir in den letzten Monaten und Jahren in vielen Gesprächen mit Unternehmensvertretern und Experten sammeln konnten. Um sensible Daten effizient zu schützen, müssen diese erst identifiziert und gekennzeichnet (klassifiziert) werden. Zudem muss verstanden werden, wer die Daten in den jeweiligen Geschäftsprozessen wo und mit welchen Hilfsmitteln verarbeitet. Evergreen Klassifizierung Über die Notwendigkeit der Klassifizierung ist man sich wohl einig. Die meisten Unternehmen verfügen auch über Klassifizierungsrichtlinien, die festlegen, welche organisatorischen und technischen Massnahmen in Bezug auf Verarbeitung, Übermittlung oder Speicherung von Daten umgesetzt werden müssen. Die Richtlinien unterteilen die Klassifizierung typischerweise in die Stufen Public, Intern, Vertraulich und Geheim. Viele Unternehmen haben sich bisher aus Mangel an technischen Möglichkeiten schwer getan,

Die Klassifizierungs- und Verschlüsselungsverfahren müssen Plattformneutral sein und auf unterschiedlichen Applikationen und Geräten verfügbar sein.

Unternehmensweite Klassifizierungen einzuführen und durchzusetzen. Oftmals wurden Klassifizierungen nur in spezifischen Applikationen wie beispielsweise SharePoint oder Archivsystemen eingeführt. Die jeweiligen Klassifizierungsstufen gingen ausserhalb solcher Systeme aber oftmals verloren und konnten nicht mehr maschinell ausgewertet werden. Die strategische Lösung Das Klassifizieren und Verschlüsseln von Daten sind Schlüsseltechnologien, um diese effizient on prem oder in der Cloud zu schützen. Die Klassifizierungs- und Verschlüsselungsverfahren müssen Plattformneutral sein und auf unterschiedlichen Applikationen und Geräten verfügbar sein. Microsoft bietet mit Rights Management (AD RMS oder Azure RMS) ein entsprechendes Verschlüsselungsverfahren. Secure Islands hat mit dem IQ Protector eine automatisierte Klassifizierungs- und Verschlüsselungslösung auf Basis von Microsofts Rights Management angeboten. Mit der Akquisition von Secure Islands treibt Microsoft die Integration und Verbreitung dieser automatisierten Klassifizierungs- und Verschlüsselungs-


29

CLOUD COMPUTING Sicherheit

verfahren als Teil der «Mobile First, Cloud First» Strategie voran. Auf Basis dieser etablierten Technologien wurden schon viele Klassifizierungs- und Verschlüsselungslösungen nationaler und internationaler Unternehmen umgesetzt.

schlüsselung von Daten. Der Benutzer soll effizient und transparent mit Klassifizierungsstufen und Verschlüsselung arbeiten können. Dies wird über automatisierte Prozesse und intuitive grafische Benutzerschnittstellen sichergestellt.

Rights Management Mit Rights Management können sensible Daten vor unberechtigtem Zugriff effizient geschützt werden. Im Unterschied zu anderen Technologien ist die Klassifizierung und Verschlüsselung untrennbar mit den jeweiligen Daten verbunden und bietet somit einen fortwährenden und für den Benutzer transparenten Schutz, unabhängig von der Datenübermittlung oder vom Speicherort. So ist es beispielsweise möglich, die Zugriffsberechtigung von SharePoint direkt auf die Daten zu replizieren. So wird sichergestellt, dass auch ausserhalb von SharePoint nur berechtigte Personen Zugriff auf die Daten haben.

Document Tracking Rights Management bietet die Möglichkeit, den Zugriff auf Dokumente nachzuverfolgen und zu jedem Zeitpunkt steuern. Abhängig von den zur Verfügung stehenden Informationen kann beispielsweise aufgezeichnet werden, wer wann und wo versucht hat, ein bestimmtes Dokument zu öffnen, zu entschlüsseln oder neu zu klassifizieren.

Die Berechtigungen einzelner Benutzer und Gruppen können dynamisch verwaltet werden. Mit Anwendung von unterschiedlichen Profilen können ganze Gruppen oder Organisationseinheiten voneinander getrennt werden.

Fazit Mit Rights Management von Microsoft können Daten automatisiert und für den Benutzer transparent klassifiziert und verschlüsselt werden. Dies ist eine wesentliche Voraussetzung für die sichere und effiziente Verarbeitung von Daten on prem oder in der Cloud.

Automatisierung ist Key Rights Management bietet die plattformneutrale, technische Basis für die Klassifizierung und Ver-

Planlos? Macht nichts ... ... denn mit unseren Lösungen für die operative Unternehmensplanung bekämpfen wir effektiv Planlosigkeit. ■ ■ ■

Agil Pläne entwickeln Flexibel Anforderungen integrieren Einfach Teilpläne konsolidieren

planung.cubeware.com

Autor: René Eberhard CEO Dipl. El.-Ing. HTL, Betriebswirtschaftsingenieur FH NDS, Softwareingenieur FH NDS


Gehen Sie Ihren eigenen Weg – Mit mobilen Lösungen von MFiles!

Individuell |KƉƟŵĂů| Wunschgemäss NEU

/Śƌ^WĂƵĐŚŵŽďŝů ĞŝŶĨĂĐŚΘŐƺŶƐƟŐ

ab 15.–/Monat

MFiles GmbH | CH-3322 Urtenen-Schönbühl | +41 (0)62 823 82 83 | www.mfiles.ch


31

CLOUD COMPUTING Sicherheit

Cyber Defence – wir brauchen

Sicherheit, die mitdenkt Signaturbasierte Sicherheitsverfahren stossen bei der Erkennung aktueller APT-Angriffe an ihre Grenzen. Moderne Threat-Management-Lösungen erkennen Cyber-Angriffe durch maschinelle Lernansätze in Echtzeit. Die Anzahl gezielter Hackerangriffe steigt rasant an. Unternehmen müssen heute davon ausgehen, dass auch ihre Systeme bereits infiltriert sind. Sie dürfen sich deshalb nicht allein auf signaturbasierte und präventionszentrierte Sicherheitsmethoden am Perimeter verlassen. Gelingt es einem Angreifer, in ein UnEin Unternehmen muss heute davon aus- ternehmens-Netzwerk gehen, dass seine Systeme bereits infilteinzudringen, kann er riert sind – und erfahrungsgemäss dauert sich unbemerkt völlig frei bewegen und unes rund 225 Tage bis dies erkannt wird. behelligt Daten klauen. Deswegen braucht es heutzutage neue, mitdenkende Sicherheitsmodelle. Trotzdem sollte man nicht auf signaturbasierte Lösungen verzichten, immerhin erkennen sie die Anzeichen bereits zuvor identifizierter Bedrohungen. Nur wer Hacker versteht, kann sich auch richtig schützen Professionelle und erfahrene Hacker sind darauf bedacht, ihre Attacken stets zu modifizieren, um eine Aufdeckung zu vermeiden. Deswegen lässt sich Malware einfach verändern oder verschlüsseln, um sicher zu stellen, dass sie keiner bekannten elektronischen Signatur entspricht. So sind Angreifer zwar in der Lage, die Erscheinung der Malware neu zu verpacken, nicht aber das Ziel der Angriffe: nämlich das Ausspionieren, die Verbreitung und Diebstähle in Netzwerken der Opfer. Diese Verhaltensweisen sind elementar und von grundlegender Bedeutung für eine Attacke - und sie lassen sich beobachten. Hier schlägt die Stunde des Cyber Threat Managements. Dabei handelt es sich um ein völlig neuartiges Verteidigungssystem gegen APT-Angriffe. Diese Technologie setzt da an, wo die PerimeterSicherheit aufhört. Nämlich mit der Bereitstellung einer kontinuierlichen Analyse des internen und Internet-Netzwerkverkehrs, was die automatische Erkennung aller Phasen eines unbefugten Zugriffs ermöglicht. Mit Hilfe von Data Science, maschinellem Lernen und Verhaltensanalysen ist es möglich,

die grundlegenden Methoden und Aktionen eines Angriffs zu erkennen, wodurch jene Bedrohungen aufgedeckt werden, die die grössten Risiken darstellen. Unternehmen sind somit schneller in der Lage, Schaden zu verhindern oder zu begrenzen. Cyber Defence kommt aus der Schweiz Dank dem verhaltensbasierten Cyber Threat Management in Kombination mit dem InfoGuard Cyber Defence Center Services erhalten Unternehmen nebst der APT Detection & Incident Response, der Cyber Threat Intelligence und systematischen Analyse von Bedrohungen umfassende Cybersecurity aus der Hand von Experten. Dank der fundierten Branchenkenntnis, der interdisziplinären Kompetenz zwischen offensiver und defensiver Cyber Security und der grossen Erfahrung im Bereich Penetration Testing und Ethical Hacking können sie einschätzen, welche Sicherheitsbedrohungen auf das jeweilige Unternehmen zutreffen und frühzeitig Massnahmen einleiten. Autor: Reinhold Zurfluh ist Head of Marketing bei InfoGuard AG

InfoGuard AG ist spezialisiert auf umfassende Informationssicherheits- und innovative Netzwerklösungen. Zu Ihren Kompetenzen zählen massgeschneiderte Dienstleistungen nach internationalen Sicherheitsstandards sowie die Entwicklung und Implementierung technischer Sicherheits- und Netzwerklösungen. InfoGuard ist Mitglied der Schweizer «The Crypto Group». InfoGuard ist ISO/IEC 27001:2013 zertifiziert.

www.infoguard.ch


32

Sicherheit CLOUD COMPUTING

Verfügbarkeit:

eine Frage der Strategie Digitalisierung ist seit Jahren ein Trendthema und ein Ende ist nicht abzusehen. Schon jetzt hat sie die Anforderungen an die Unternehmens-IT radikal verändert. Nutzer erwarten mittlerweile, dass sie auf Daten und Services rund um die Uhr zugreifen können. Sind diese nicht verfügbar, kann das gravierende Folgen haben: Kunden wandern ab zu einem konkurrierenden Dienst, Mitarbeiter können ihre Arbeit nicht erledigen, Partnerunternehmen erleiden Einbussen und im schlimmsten Fall steht vielleicht sogar die Produktion still. Denn Unternehmensprozesse sind mit IT-Systemen oft eng verzahnt – Stichwort Industrie 4.0. In diesem Fall kann ein ausgefallener Server gleich ganze Systeme lahmlegen. Dass keine Infrastruktur zu hundert Prozent sicher ist, zeigte der Ausfall eines belgischen GoogleRechenzentrums im August. Auch wenn Google äusserst ausgereifte Sicherungssysteme eingesetzt hatte, hielten diese der Wucht mehrerer Blitzeinschläge nicht stand. Betroffene Nutzer konnten bis zu vier Tage nicht auf ihre Daten zugreifen, ein kleiner Teil ging ganz verloren. Gegen gewisse Risiken kann man sich nicht absichern, das wissen Versicherungsfachleute schon lange. Dennoch kann man sich mit einer durchdachten Wird die ganze Infrastruktur lahmgelegt, Verfügbarkeitsstrategie auch auf unvorhergeseist das Backup meistens genau so hene Situationen vorbebetroffen wie das Produktivsystem. reiten. Datenverfügbarkeit: jede Sekunde zählt Backups sind das Mittel der Wahl, um Datenverlusten vorzubeugen und im Notfall mit einem Ersatz-Server den Betrieb wiederaufzunehmen. Dabei ist Schnelligkeit entscheidend: Jede Sekunde Downtime kostet Geld und Ansehen. Im Idealfall beträgt nach einem Ausfall das Recovery Time and Point Objective (RTPO), also die Wiederherstellungsdauer und der Zeitabstand für die Datensicherung, nicht mehr als 15 Minuten. Backup ist dabei nicht gleich Backup. Je nachdem, welche Technologie zum Einsatz kommt und wie es aufbewahrt wird, eignet es sich mehr oder weniger gut für einen bestimmten Zweck. Im Rah-

men einer umfassenden Verfügbarkeitsstrategie sollten Entscheider mehrere Faktoren berücksichtigen. Zum einen kommt es auf die Erreichbarkeit der Sicherungskopie an. Entscheidend ist auch das Sicherungsintervall. Und schliesslich muss die Qualität des Backups garantiert sein. Beim Thema Erreichbarkeit und einfaches Handling setzen die meisten Nutzer nach wie vor auf die Speicherung vor Ort, entweder auf einer externen Festplatte oder auf Langzeit-Speichermedien wie Tape. Die Vorteile: On-site gesicherte Daten sind im Bedarfsfall schnell zur Hand. Besonders bei geschäftskritischen und sensiblen Daten spielen Sicherheit und Aufbewahrungspflichten zusätzlich eine Rolle. Problematisch wird es allerdings, wenn ein physischer Schaden auftritt, etwa durch Blitzschläge wie im Fall Google. Wird die ganze Infrastruktur lahmgelegt, ist das Backup meistens genau so betroffen wie das Produktivsystem. Wie man sich dagegen schützt, erklärt die 3-2-1 Regel. Sie besagt, dass zu einem umfassenden Verfügbarkeitskonzept mindestens drei Datenkopien gehören, die auf mindestens zwei unterschiedlichen Medien gespeichert werden, von denen eine extern aufbewahrt wird. Damit beheben Nutzer das Problem des kompletten Datenverlustes, falls ein Standort ganz ausfällt. Die Diversifizierung bei den Speichermedien schafft eine Rückfalloption, falls ein Backup beschädigt oder die Technologie nicht mehr kompatibel ist. Erfolgsfaktoren Erreichbarkeit, Aktualität, Qualität Bei der externen Speicherung stellen Cloud-Services wie die von Google mittlerweile eine ernsthafte Alternative zu einem physischen Standort dar, bieten sie doch erhebliche Vorteile bei Skalierbarkeit und Kosten. Auch wenn diejenigen, die dem Cloud Computing skeptisch gegenüber stehen, sich durch den Vorfall in Belgien bestätigt fühlen, sollten Cloud-Kunden nicht übereilt ihre Daten ins eigene Rechenzentrum zurückholen. In Sachen Sicherheit und Redundanz ist Google vorbildlich,


33

Bild: Hedzun Vasyl/schutterstock.com

CLOUD COMPUTING Sicherheit

kaum ein Unternehmen kann es sich leisten, dieselben hohen Standards am eigenen Standort zu implementieren. Anwender, die sich für eine Cloud-Backup-Lösung entscheiden, sollten allerdings ihre Anforderungen genau kennen und auch hybride Modelle in Betracht ziehen. Private, Public und Managed Cloud lassen sich flexibel kombinieren, um der Bedürfnislage jedes Kunden Rechnung zu tragen. So können kritische Daten und Arbeitslasten im Unternehmen verbleiben, andere hingegen kostensparend ausgelagert werden. Neben umfassender Verschlüsselung, um die Integrität der Daten zu gewährleisten, ist darauf zu achten, dass der Datentransfer in die Cloud das Unternehmensnetzwerk nicht mehr als nötig strapaziert. Abhilfe schaffen zum Beispiel Lösungen für die WAN-Beschleunigung. Kommt es zu einem Ausfall, reicht es nicht, dass das Backup schnell zur Verfügung steht. Es muss auch aktuell sein. Komplettsicherungen erfordern viel Zeit und Speicherplatz, sie lassen sich allenfalls täglich erstellen. Was nach der letzten Sicherung hinzugekommen ist oder verändert wurde, ist im Fall aller Fälle verloren. Nutzer mit einer virtualisierten IT-Umgebung können allerdings mit Hilfe inkrementeller Backups kontinuierlich sichern. Dabei werden stets nur die aktuellen Veränderungen ins letzte vollständige Backup eingeschrieben. Mit entsprechenden Backup-Tools lassen sich auf diese Weise RTPOs erheblich senken. Um eine solche Aktualität auch für externe Backups zu gewährleisten, bieten sich neben der Spiegelung in einem dedizierten Ausweich-Rechenzentrum auch Cloud-Modelle an, die eine Echtzeit-Aktualisierung zulassen. Voraussetzung für beide Lösungen sind ausreichend Bandbreite und moderne Technologien für die WAN-Beschleunigung und -Optimierung. Hochverfügbarkeit auch für den Mittelstand Ein weiterer wichtiger Punkt bei der Datensicherung, der jedoch zu selten Beachtung findet, ist die

Qualität der Backups. Dass hier eine entscheidende Schwachstelle in der Umsetzung lauert, zeigen Daten aus dem Veeam Data Center Availability Report 2014, eine Umfrage unter IT-Entscheidungsträgern auf der ganzen Welt. Diese ergab: Jedes sechste Backup lässt sich gar nicht wiederherstellen. Bei durchschnittlich 13 Ausfällen, die Unternehmen pro Jahr verzeichnen, gehen somit in zwei Fällen Daten endgültig verloren. Um dies zu vermeiden, gehört zu einem Verfügbarkeitskonzept auch die automatische Prüfung der Wiederherstellbarkeit. Dass dies bisher selten gemacht wird, ist vor allem eine Frage des Aufwands. Ältere Systeme unterstützen eine solche Prüfung nicht ohne weiteres, die manuelle Prüfung kostet jedoch viel Zeit und Geld. Mittlerweile sind allerdings Lösungen auf dem Markt, die entsprechende Funktionen bieten. Wer seine Backup-Infrastruktur modernisieren will, sollte bei der Wahl der Lösung diesen Punkt unbedingt berücksichtigen. Lange war Verfügbarkeit eine kostspielige Angelegenheit, die sich nur Grossunternehmen für ihre kritischen Daten und Anwendungen leisteten. Doch dank neuer Technologien lassen sich heute alle Daten und Systeme schützen, und zwar zu Kosten, die auch für kleine und mittlere Unternehmen tragbar sind. Moderne Backup-Technologien wie inkrementelles Backup, automatische Qualitätskontrolle oder WAN-Optimierung unterstützen die Einhaltung kurzer RTPOs, ohne dass Nutzer hohe Investitionen und laufenden Aufwand fürchten müssen. Voraussetzung ist eine virtualisierte Umgebung. Unternehmen, die sich den Herausforderungen des Always-On Business stellen wollen, haben also gute Gründe, ihre IT-Infrastruktur zu modernisieren. Autor: Gerald Hofmann ist Vice President Central EMEA, Veeam Software. www.veeam.de

Den Veeam Data Center Availability Report 2014 finden Sie unter: http:// www.veeam.com/de/wpavailability-report-2014. html


Qualitätssicherung CLOUD COMPUTING

34

Global Application

Quality as a Service Kurzfristig, flexibel, bedarfsgerecht: Cloud-Lösung zur Sicherung der Applikationsqualität vor dem Rollout und im laufenden Betrieb. Firmen aller Branchen wickeln Ihr globales Business heute IT-basiert ab. Rund um die Uhr müssen Nutzer an weltweit verteilten Standorten auf leistungsstarke Applikationen wie SAP, Webanwendungen oder Citrix-Terminal-Services zugreifen.

Performance weltweit entspannt im Griff. Application Quality as a Service.

Für das IT-Management wird die Aufgabe, solche businesskritischen Anwendungen in der geforderten Verfügbarkeit und Performance für die Anwender zu liefern, zunehmend anspruchsvoller und umfangreicher. Moderne Applikationen werden über komplexe, verteilte Infrastrukturen mit zahlreichen internen und externen Service Delivery-Einheiten bereitgestellt. Darüber hinaus erfordern Unternehmensstrukturen im Wandel und eine zunehmende Dynamisierung der Geschäftsabläufe eine kontinuierliche Anpassung der IT-Infrastruktur und stellen IT-Manager kurzfristig vor wechselnde Herausforderungen: In China wird eine neue Webpräsenz aufgebaut. Der neue Produktionsstandort in Brasilien wird in das unternehmensweite SAP-System eingebunden. Die Vertriebsniederlassung in Wien bezieht ein CRM-System von einem externen Anbieter. In Standorten im nahen Osten wechselt das Unternehmen den Netzprovider. Für den Webshop ist ein internationaler Relaunch geplant, darüber hinaus wird das Portal in den USA an die aktuelle Weihnachtspromotion angepasst.

Für die bereits mit dem Kerngeschäft ausgelasteten IT-Verantwortlichen schaffen solche Projekte «on Top» zusätzlichen Druck, häufig sind die personalen und zeitlichen Kapazitäten überstrapaziert. Trotzdem darf die Qualitätssicherung an dieser Stelle nicht zu kurz kommen, denn fehlerhafte ITProjekte kosten Zeit und Geld. Um inhouse Ressourcen zu schonen und kurzfristige IT-Projekte dennoch fehlerfrei durchzuführen lohnt es sich, ein projektbegleitendes Application Quality Management an einen spezialisierten Lösungsanbieter zu delegieren. Die ServiceTrace GmbH bietet mit Quality as a Service eine Cloud Solution für die anwendernahe Qualitätssicherung von Applikationen vor dem Rollout und im Betrieb an, über die Sie flexibel und kurzfristig für einen definierten Zeitraum zum Festpreis verfügen. Die Lösung steht über eine global verteilte, ausfallsichere Infrastruktur bereit und und misst 24/7 Verfügbarkeit und Performance Ihrer businesskritischen Anwendungen, alarmiert Applikationsverantwortliche umgehend beim Erreichen kritischer Werte und erstellt automatisiert Reports für das IT-Service-Management. Entscheiden Sie sich für das IaaS-Modell, mit dem Sie die einfach handhabbare Software temporär selbstständig konfigurieren und nutzen, oder, noch bequemer: Lassen Sie die Profis für sich arbeiten und buchen Sie Quality as a Service als Fully Managed Service. Wir machen das für Sie. Weitere Informationen zur Lösung und Technologie unter www.servicetrace.de und zu den ServiceTrace Cloud Solutions & Managed Services unter www.servicetrace.com/qaas

ServiceTrace GmbH Feldbergstrasse 80, 64293 Darmstadt T. +49 6151 950 46 01, F. +49 6151 950 46 99 info@servicetrace.de, www.servicetrace.de


PRODUKTE & LÖSUNGEN Sicherheit

Security Heartbeat: Jetzt sprechen Firewall und Endpoints miteinander Sophos, realisiert den ersten Synchronized-Security-Schutz gegen die immer raffinierteren Cyberattacken. Plattform dafür ist die neue Next Generation Firewall «Sophos XG Series», die den Sophos Security Heartbeat™ als zentrales Kommunikationselement einführt. Diese Technologie sorgt für eine direkte Verbindung zwischen Next Generation Firewalls mit Endpoint-Sicherheitslösungen der nächsten Generation. Die Systeme teilen also ihr Wissen und ermöglichen eine bedeutend schnelleres Aufdecken von Attacken, die automatische Isolation infizierter Geräte sowie eine schnellere Behebung des Problems. Auf diese Weise ermöglicht Security Heartbeat Unternehmen und Organisationen jeder Grössenordnung, ihre Abwehrketten gegen die zunehmend versierten Attacken zu stärken

– und das mit wesentlich weniger Zeit- und Mitarbeiteraufwand, als bislang zur Untersuchung und Lösung von Sicherheitsvorfällen notwendig war. Der Sophos Security Heartbeat pulsiert ständig im System und übermittelt zwischen Endpoints und der Firewall Informationen über verdächtiges Verhalten einzelner Geräte oder bösartige Attacken in Echtzeit. Indem diese traditionell bislang getrennten Produkte nun die Möglichkeit bekommen, direkt miteinander zu kommunizieren, kann Security Heartbeat eine sofortige Aktion einleiten, um eine Malwareausbruch oder Datendiebstahl zu unterbinden. Dabei nutzt die Sophos XG Firewall Daten von Sophos Endpoint Protection, um Geräte zu isolieren oder Zugriffsrechte einzuschränken, während die Endpoint-Lösung sich darum kümmert, den potentiell entstandenen Schaden zu beheben. Auf diese Weise können IT-Verantwortliche von den Möglichkeiten der Advanced Threat Protection profitieren, ohne zusätzliche Agenten, komplexe Management-, Logging- oder Analysetools anschaffen zu müssen. Security Heartbeat ist als Teil der Sophos XG Firewall und in mit Sophos Cloud gemanagten Endpoint-Protection-Lösungen automatisch integriert und sofort einsatzbereit. www.sophos.de

Maximale Verfügbarkeit dank integrierter Lösungen für Data Center Zuverlässige, sichere und effiziente Data Center – von der Planung bis zur Umsetzung

Ob im Eigenbetrieb oder im Outsourcing – Data Center sind für die meisten Branchen kritische Anlagen. Doch Data Center sehen sich vielen verschiedenen Herausforderungen gegenüber – vom Management komplexer Anlagen über die Optimierung der Energieeffizienz bis zur genauen Einhaltung von Sicherheitsund Betriebsanforderungen.

Der Schutz kritischer Daten ist ebenso wichtig wie die Betriebssicherheit und Verfügbarkeit: Unsere integrierten, massgeschneiderten Lösungen und Leistungen tragen dazu bei, verschiedenste Ereignisse, welche die Prozesskontinuität und Rentabilität eines Data Center gefährden können, zu erkennen und zu behandeln – immer in Übereinstimmung mit gesetzlichen Vorschriften.

www.siemens.ch/datacenter


Weiterbildung JOB&KARRIERE

36

Hewlett Packard Enterprise ist neuer PiBS-Praxispartner Die FFHS bietet seit diesem Spätsommer als erste Fachhochschule der Schweiz ein praxisintegriertes Bachelor-Studium in Informatik an. Angesichts des zunehmenden Fachkräftemangels im ICT-Bereich ist das neue duale Studienmodell eine Chance für Unternehmen und Institutionen, hochqualifizierte Nachwuchskräfte im eigenen Betrieb auszubilden. Es richtet sich an gymnasiale Maturanden, die ein Hochschulstudium mit der Berufspraxis kombinieren möchten. Neben namhaften Unternehmen wie die Post und Swisscom bietet nun auch Hewlett Packard Enterprise als Praxispartner zwei PiBSStudienplätze an ihrem Standort in Zürich an. Weitere Praxispartner im Raum Zürich gesucht Die Bewerbungen für den ersten dualen Bachelor in Informatik kamen aus der ganzen Schweiz, weshalb nun per Herbstsemester 2016 nebst der Klasse in Bern auch eine zusätzliche in Zürich starten soll. Entscheidendes Element bei der Umsetzung von PiBS sind die mitwirkenden Unternehmen. «Dass

wir mit dem ersten Jahrgang erfolgreich starten konnten, verdanken wir dem grossen Engagement der Praxispartner», erläutert Anja Bouron, Projektleiterin PiBS an der FFHS. «Wir freuen uns daher über weitere Firmen, vornehmlich aus dem Raum Zürich, die mit uns gemeinsam ihre hochqualifizierten Fachkräfte von morgen ausbilden wollen.» Ohne Zwischenjahr an die Fachhochschule Das PiBS ermöglicht gymnasialen Maturanden den direkten Einstieg ins Berufsleben, ohne dabei auf einen Hochschulabschluss verzichten zu müssen. Die Studierenden sammeln während zwei bis maximal drei Tagen in der Woche Praxiserfahrung im Unternehmen und absolvieren daneben das Bachelor-Studium an der FFHS. Interessierte Maturanden finden unter www.ffhs.ch/partner eine Übersicht der Unternehmen mit Kontaktangaben, um sich zu bewerben. Der nächste PiBS-Jahrgang startet im August 2016. www.ffhs.ch/pibs

Unternehmen zählen auf duales IT-Studium Mit dem Herbstsemester 2015 startete auch das schweizweit einmalige praxisintegrierte Bachelorstudium (PiBS) an der Fernfachhochschule Schweiz (FFHS). Der neu eingeführte Studiengang in Informatik integriert Berufspraxis vollständig ins Studium und bietet Unternehmen die Chance, hochqualifizierten IT-Nachwuchs inhouse auszubilden. Zahlreiche Unternehmen haben zunehmend Schwierigkeiten, Hochschulabsolventen aus dem MINT-Bereich zu rekrutieren. Das an der FFHS neu gestartete Praxisintegrierte Bachelorstudium (PiBS) in Informatik bietet gymnasialen Maturanden ein Studium mit direktem Einstieg ins Berufsleben. Während der vierjährigen Ausbildung zum Bachelor of Science sind die Studierenden an zwei bis drei Tagen pro Woche im Unternehmen tätig. Die Abwechslung von Theorie und Praxis soll die Attraktivität des IT-Studiums erhöhen und das sonst eher theoretisch ausgerichtete Studienfach für Jugendliche interessanter machen. Post und Swisscom als Praxispartner Das PiBS in Informatik deckt die Bedürfnisse der Unternehmen nach hochqualifizierten Nach-

wuchskräften insbesondere im ICT-Bereich ab. Zahlreiche renommierte Firmen wie Swisscom, Post/PostFinance, Hewlett Packard, Schindler sowie verschiedene KMU arbeiten als Praxispartner mit der FFHS zusammen. «Wir sind sehr zufrieden, dass wir bereits nach kurzer Zeit zwei Drittel der angebotenen Ausbildungsplätze im neuen PiBS besetzen konnten. Für den Jahrgang 2016 suchen wir weitere interessierte Unternehmen, die diese neue Studienausbildungsform anbieten möchten», sagt Anja Bouron, Projektleiterin PiBS an der FFHS. Chance für gymnasiale Maturanden Die Bewerbungen für das Programm kamen aus der ganzen Schweiz. Das zeigt, dass das Angebot eines dualen Bildungswegs der heutigen Zeit entspricht. Das Praxisintegrierte Bachelorstudium wurde im Rahmen der Fachkräfteinitiative des Bundes bewilligt und ist eine Möglichkeit für die Schweizer Wirtschaft, im Zusammenhang mit dem MINT- Fachkräftemangel neue, attraktivere Bildungswege zu gestalten.

Sie suchen talentierte Fachkräfte, die mit Praxis und Theorie gleichermassen vertraut sind – und dies ausserdem branchenspezifisch auf Ihr Unternehmen anzuwenden wissen? Das PiBS ermöglicht Ihnen, als Praxispartner der FFHS gemeinsam Ihre Mitarbeitenden von morgen auszubilden! Erfahren Sie mehr auf: www.ffhs.ch/pibs

Fernfachhochschule Schweiz (FFHS) Zürich, Basel, Bern, Brig Tel. 027 922 39 00, info@ffhs.ch, www.ffhs.ch


JOB&KARRIERE Agenda

37

Agenda 2016 Weitere Veranstaltungshinweise sind unter www.professional-computing.ch zu finden.

Anlass

Datum

Thema

Information Anmeldung

Business Intelligence Agenda 2016

7. und 8. März

4. Jahrestagung Business Intelligence Agenda 7. März 2016 – Seminare 8. März 2016 – Konferenz und Fachausstellung

www.businessintelligenceagenda.ch

TechDays 2016

29. Februar und 1. März

Die grösste Technologieveranstaltung von Microsoft Schweiz

www.techdays.ch

Cebit 2016

14. bis 18. März

Die CeBIT ist die weltweit wichtigste Veranstaltung für Digitalisierung.

www.cebit.de

Professional Learning 2016

12. und 13. April

Fachmesse für trainings to business, Personalentwicklung und E-Learning sowie für Personalmanagement.

www.professionallearning.ch

ELECTRO-TEC 2016 (Bern)

18. und 19. Mai

Fach- und Messetage für Kommunikations-, Gebäude-, Licht- und Installationstechnik

www.electro-tec.ch

Topsoft

30. und 31. August

Der grösste Schweizer Event für Business Software bietet eine umfassende Übersicht über sämtliche Lösungen von Geschäfts-Software.

www.topsoft.ch

Telenetfair 2016

6. bis 8. September

Die grösste Schweizer Messe für Datenübertragung für Netzwerker, Kommunikationstechniker, Systemtechniker, Systemadministratoren, Gebäudeleittechniker und Installateure.

www.telenetfair.ch

Carriers Lunch

8. Januar 5. Februar 3. März

Hochkarätige Netzwerkplattform für die gesamte ICTBranche in der Schweiz in Bern, Zürich und Genf

www.carrierslunch.ch

Big Data Analytics | Data Driven Enterprises | Predictive Analytics | Data Science Labs 4. Jahrestagung Konferenz, Fachausstellung und Vertiefungsseminare 7. und 8. März 2016, Zürich Marriott Hotel

ets ick tist line a r G n 20 tzt o ben Je wer e b

Eine Veranstaltung von businessintelligenceagenda.ch


38

www.professional-computing.ch FIRMENVERZEICHNIS

DOKUMENTEN-MANAGEMENT

HOSTING

SICHERHEIT VISIONARY with Business PASSIONATE with Technology

• Web-Hosting • Mail-Hosting • Serverinfrastruktur

www.brainloop.ch

BUSINESS SOFTWARE

www.ctp.com

www.webstyle.ch

INFRASTRUKTUR Wir machen, was Sie wollen: das WunschDatenkabel in Schweizer Qualität! Länge, Material, Farbe, Beschriftung: Wählen Sie aus – und wir fertigen das Patchkabel nach Ihren Wünschen.

your cable solutions HOWAG Kabel AG · Dintikon · www.howag.ch

Data Center- & Office-Cabling

F-Secure GmbH Zielstattstrasse 44, 81379 München Tel: +49-89-787-467-00, Fax: +49-89-787-467-99 vertrieb-de@F-Secure.com, www.F-Secure.com

www.rdm.com www.datacenter.rdm.com CONNECT, TRANSACT AND GROW Join your community

Meer info:

interxion.com

Datensicherheit ohne Kompromisse www.green.ch

IT-LÖSUNGEN • Microsoft & SAP • CloudStrategie • Internet of Things • Managed Services Alegri AG Dufourstr. 77 8008 Zurich Tel 043 311 41 00 www.alegri.ch

Lösungen sind unsere Stärke!

SWISS INFORMATION SECURITY & NETWORK EXPERT infoguard.ch

Ihr Distributor für Kommunikation, IT und Alarmierung

OBT www.combridge.ch / info@combridge.ch

ENTERPRISE CONTENT MANAGEMENT (ECM)

Cloud

Sicheres und ISO 27001 zertifiziertes Rechenzentrum für Cloud-Lösungen OBT AG | www.obt.ch/informatik

Sichere IT Lösungen und Dienstleistungen für KMU Levantis AG „ Airport Business Center 64 „ 3123 Belp Phone +41 31 981 20 60 „ www.levantis.ch

www.securesafe.com/de


FIRMENVERZEICHNIS www.professional-computing.ch

SICHERHEIT

39

WEITERBILDUNG

SERVER & NETZWERK

GLSO:LUWVFKDIWVLQIRUPDWLNHULQ GLSO7HFKQLNHULQ,QIRUPDWLN+) GLSO,QIRUPDWLNHULQ1'6+) GLSO:HE(QJLQHHU ,&7$SSOLNDWLRQVHQWZLFNOHULQ www.hbu.ch, 044 943 64 22

,&76\VWHPWHFKQLNHULQ

(LQ$QJHERWGHU%HUXIVIDFKVFKXOH8VWHU ZHLWHUH)DFKPRGXOH,QIRUPDWLN XQGGHU+|KHUHQ)DFKVFKXOH8VWHU

Telecom & Test Solutions

www.isatel.ch

Ihr Spezalist für die Telecom-Messtechnik

.HLQ1HW]

usv.ch





USV-LÖSUNGEN

CTA Energy Systems AG 3110 Münsingen Tel. 031 720 15 50 www.usv.ch

UNIFIED COMMUNICATION

Ferrari electronic AG Ruhlsdorfer Str. 138 | 14513 Teltow | Germany www.ferrari-electronic.de

Sie möchten Ihre Firma crossmedial hier präsentieren? Nutzen Sie die Gelegenheit für CHF 990.– Verzeichnis Firmenprofil (Laufzeit 12 Monate) Button-Inserat Print, im Professional Computing Firmenprofil online, Mini-Rectangel (300x125 px) auf www.professional-computing.ch Pascal Tobler, Tel.: +41 71 966 60 03, pascal.tobler@utk.ch und Severin Schumacher, Tel.: +41 71 966 60 80, severin.schumacher@utk.ch beraten Sie gerne.


Hochleistungsfähiges 10-GbE-Quad-Core-NAS

TS-x63U Turbo NAS Serie

Built-in SFP+ 10GbE Port

High-Speed 10GbE Konnektivität mit hardwareoptimierter Verschlüsselungsleistung

Quad-Core 2.0GHz

768 76853

4VZLWFK Kostengünstige 10 GbE Netzwerk Verbindungs-Funktion

AES-NI hardwarebeschleunigte Verschlüsselung

Integrierte 10-GbE-Konnektivität für höhere Leistung

TS-x63U mit hardwarebeschleunigter Verschlüsselungs-Engine bietet unübertroffene Verschlüsselungsleistung in seiner Klasse mit bis zu 822 MB/s mit AES-256-Bit Full-NAS-Volume-Verschlüsselung. Steigert die Systemleistung und Sicherheit bei gleichzeitigem Schutz von sensiblen Geschäftsdaten.

Die TS-x63U Serie bietet 10-GbE-Netzwerkverbindung mit dem Single-Port SFP + Netzwerkadapter, dieser liefert extrem geringer Latenzzeit und echte Industriequalität, Hochleistungsdurchsatz für Embedded I/O-Anwendungen und Virtualisierungsbeschleunigung.

Maximierung der Netzwerk-Erreichbarkeit ohne zusätzliche Kosten

Mehrere Betriebssysteme mit Virtualization Station 2.0

Mit Qswitch unterstützt die TS-x63U Serie 1-Gigabit- und 10-Gigabit-Netzwerke wie ein Netzwerk-Switch. Zur Einrichtung einer 10-GbE-Arbeitsumgebung für Datenübertragung ohne den Kauf eines teuren 1/10-Gb/s-Ethernet-Switch.

Virtualization-Station macht die Bereitstellung von PaaS, SaaS und VDI einfacher als je zuvor. Führen Sie mehrere Windows / Linux / UNIX / Android-basierte virtuelle Maschinen aus und stellen Sie fertig virtualisierten Container bereit, um Ihre Kosten zu reduzieren!

76[86HULH 76 [86HULH

TS-463U / TS-463U-RP

TS-863U / TS-863U-RP

Copyright © 2015 QNAP Systems, Inc. Alle Rechte vorbehalten.

www.qnap.de

TS-1263U / TS-1263U-RP

QNAP Deutschland

Professionalcomputing 4 dez15  

Professional Computing Ausgabe 4 2016 Thema Cloud Computing

Read more
Read more
Similar to
Popular now
Just for you