Symposia Journal Edition 03/2011

Page 1

// Informativ // Qualitativ // Unabh채ngig

Edition 03/2011 Cloud Computing

Mobile Computing

Events

Technologien

www.symposiajournal.de



Informativ | Qualitativ | Unabhängig Liebe Leser, die Aufregung über die Ausfälle bei einigen großen Cloud Anbietern in diesem Jahr hat sich nun langsam gelegt und schon steht das nächste Großereignis vor der Tür. Ankündigungen von Apple werden zunehmend herbeigefiebert. Anfang Juni wurde mit iCloud nun auch Apples Weg ins Zeitalter des Cloud Computing für Herbst diesen Jahres gemeldet. Zunächst soll iCloud nur den bisherigen Synchronisationsdienst MobilMe ersetzen. Damit wird neben E-Mails, Kalender und Kontakte ebenfalls das Dateisystem eines Benutzers inkl. Bildern, Musik, Anwendungen, Einstellungen usw. auf Servern von Apple gespeichert und dort ebenfalls einem Backup unterzogen. Hierüber soll dann auch der Datenaustausch zwischen den unterschiedlichen Endgeräten wie dem iPhone oder iPad stattfinden. Wer nun jedoch auf ein "Cloud"-Wunder von Apple gewartet hat wird sich enttäuscht zeigen. In der jüngsten Vergangenheit wurde auf unterschiedlichen Kanälen gemeldet, dass Apple für iCloud auf Ressourcen von Windows Azure sowie den Amazon Web Services zugreifen soll und damit über keine eigene Cloud Infrastruktur verfügt. Auf der einen Seite ist dieser Ansatz sehr lobenswert, verfolgt Apple damit eine Multi-Vendor-Strategie, um Ausfälle vorzubeugen. Auf der anderen Seite haben sich die meisten Experten aber wohl doch eine echte Apple Cloud gewünscht. In dieser Ausgabe widmen wir uns wieder den unterschiedlichsten Themen aus dem Bereich des Cloud Computing und lassen auch die mobile Welt dabei nicht außen vor. So erfahren Sie etwas über den Bereich Mobile Device Management, was insbesondere durch die aufkommende Strategie "Bring your own device" an Bedeutung gewinnt. Lernen Sie u.a. zudem, wie Cloud Computing Biowissenschaftlern das Leben einfacher macht und das der Einsatz des Cloud Computing immer aus der Sicht des aktuellen Use Cases betrachtet werden sollte. Viel Spaß beim Bilden wünschen Björn Böttcher & René Büst


Inhalt

03/2011

4

SymposiaJournal


Inhalt

03/2011

SymposiaJournal

5


Veranstaltungen

03/2011

SecTXL '11 | Hamburg

Ein Rückblick auf den 11 .08.2011 Cloud Computing und die Themen Sicherheit & Datenschutz sind nicht voneinander zu trennen. Zu hoch sind die Bedenken, Daten in der Cloud zu verlieren oder schlimmer in die Hände unbekannter Dritter zu geben. Die SecTXL '11 | Hamburg am 11 .08.11 in der Bucerius Law School konzentrierte sich mit Ihrem Leitsatz “Juristische und Technische Sicherheit für die Cloud!” auf exakt diese Bereiche und Themen und betrachtete damit den Bereich der Cloud Computing Sicherheit ganzheitlich. Neben fachlichen Vorträgen von Rechtsanwälten und Experten aus den Bereichen des Datenschutzes und der Datensicherheit wurden ebenfalls die technischen Probleme und deren Lösungen von IT-Architekten vorgestellt. Somit wurden Möglichkeiten aufgezeigt, wie sich Unternehmen in Zeiten des Cloud Computing aus dem Blickwinkel der Sicherheit verhalten müssen. Für eine Festigung und Vertiefung des während der Vorträge vermittelten Wissens fand im Anschluss an die Vortragsreihe nur einer von zwei vor der Veranstaltung angekündigten Workshops statt, da eine Referentin krankheitsbedingt leider kurzfristig absagen musste. Dennoch ging der Referent Ulf Feger während seines Workshops detailliert auf das von ihm vorgestellte Thema ein und erläuterte und erarbeitete weitere Ansätze und nahm zu den Fragen aus dem Publikum Stellung. Die Organisatoren der SecTXL '11 (Symposia 360°) blieben sich wie angekündigt ihrer harten Linie treu, keine Sales Pitches (Marketing Präsentationen) zu dulden, was ein Referent schmerzlich erfahren musste, als dessen Vortrag durch den wieder sehr gut aufgelegten Moderator Mark Masterson kurzerhand beendet wurde. „Nur so können wir sicherstellen, dass die Qualität der Vorträge und der Veranstaltung nicht leidet. Schließlich organisieren wir teilnehmerorientierte Veranstaltungen, aus denen das Publikum deutlich mehr mitnehmen soll, als nur bunte PowerPoint Folien und Kaufargumente für ein Produkt!“, so René Büst - Managing Director von Symposia 360°. 6

SymposiaJournal


Veranstaltungen

03/2011

Im Anschluss der Veranstaltung wurden die SecTXL Awards verliehen, mit denen die Referenten für ihre Leistungen ausgezeichnet wurden. Dazu stimmten alle Teilnehmer während der Veranstaltung für ihren Favoriten aus den Bereichen Datenschutz, Juristische Sicherheit sowie Technische Sicherheit ab. Als Gewinner kristallisierten sich letztendlich Sven Thomsen (Datenschutz) sowie Dr. Markus Wulf (Juristische Sicherheit) und Markus Mertes (Technische Sicherheit) heraus.

Stimmen zur SecTXL '11 | Hamburg sven_thomsen: "Ha! Hier werden Sales Pitches tatsächlich abgebrochen. Sehr gut. #nosalespitches #sectxl" - Referenz Simone Winkler: "Das war wirklich eine hochinteressante Veranstaltung! Vielen Dank an die Redner und die Veranstalter!" - Referenz Andreas Weiss: "Die SecTXL 11 in Hamburg war eine gelungene Veranstaltung!" Referenz: (Über Xing) Ulf Feger: "Thanks for the very interesting day @ SecTXL'11, Bucerius Law School, Hamburg" - Referenz: (Über Xing) Roland Judas: Im Gegensatz zu den meisten kommerziellen Kongressen, die

überwiegend aus Werbevorträgen der Sponsoren bestehen, wurden die Vortragenden im Vorfeld per Code of Conduct auf die Werbefreiheit ihre Vorträge verpflicht. Eine Bedingung deren Einhaltung der wie immer gut gelaunte und diskussions-freudige Cloud-Experte Mark Masterson (@mastermark) überwachte und auch tatsächlich in einen Fall per virtueller gelber Karte aktiv durchsetzte. Dieses Konzept war der Grundstein für eine rundum gelungene Veranstaltung, deren Agenda die wichtigsten Aspekte des Thema Technische und Juristische Sicherheit des Cloud Computings abdeckte. Vor allem die konstruktiven Diskussionen, die um die meist 15 bis 20 Minuten langen Vorträge entstanden, hatten es in sich. - Referenz

SymposiaJournal

7


03/2011

8

Geek and Poke

SymposiaJournal


Cloud Computing Meinung

03/2011

Node.js Ein kommender Cloud Standard? von Björn Böttcher Über keine der aktuellen Programmiersprachen ist in der letzten Zeit soviel gesprochen worden wie über Node.js. Aber warum ist dies der Fall? Dieser Artikel versucht eine Einordnung, einen Überblick und einen Ausblick zu geben. Die Grundlagen

Prinzipiell ist es für Programmierer einfach eine neue Programmiersprache zu erlernen, wenn man bereits eine Sprache zur Gänze durchdrungen hat. Professoren nutzen gerne auch eine Aussage wie "Gute Programmierer können in jeder Sprache programmieren, denn wenn man einmal weiß, wie man programmieren muss, dann ist der Rest nur eine Frage der Syntax". Bei Node.js ist die Sachlage sogar noch ein wenig komfortabler, da viele Web Programmierer bereits mit Javascript vertraut sind und in den letzten Jahren kaum andere Programmiersprachen nutzen mussten, da die Frameworks und Erweiterungen der Sprache dies nicht notwendig machten. Dies ist ein Grund, warum gerade der Sprung für viele Programmierer von Javascript zu Node.js relativ leicht ist. Die Hürde sich mit einer neuen Syntax beschäftigen zu müssen entfällt nahezu. Wir halten fest: +1 für Node.js

Ein Blick auf Node.js

In letzer Zeit wurden so einige Blogeinträge über Node.js verfasst. Darum soll dieser Abschnitt nur einen nitty-gritty-Überblick geben. Tiefergehende Artikel und Blogs finden Sie in den Quellenangaben zu diesem Artikel. Node.js basiert auf der Google V8 Javascript Engine und ermöglicht das Schreiben von Server-seitigen, Event-basierten und asynchronen Anwendungen mit Hilfe von Javascript. Die V8 Engine von Google wurde in C++, Javascript und Assembler verfasst, welches die Performance der Engine Rechnung trägt. Der in Javascript verfasste Code wird vor der Ausführung in nativen Maschinencode übersetzt. Weitere Feinheiten, wie Inline Caching erhöhen noch die Performance. Man kann also sagen, dass die Geschwindigkeit des Grundgerüst von Node.js Vorfreude bereitet. SymposiaJournal

9


03/2011

Cloud Computing Meinung

Eines der erklärten Ziele von Node.js ist es, eine Sprache zu komponieren, die das einfache Erstellen von skalierbaren netzwerkfähigen Programmen ermöglicht. Dies sind gleich mehrere harte Herausforderungen für eine Programmiersprache. Ein netzwerkfähiges Programm zu erstellen ist per se nicht schwierig und auch in der ein oder anderen Programmiersprache recht einfach und effizient. Und eine einfach zu erlernende Sprache zum Lösen von netzwerkorientierten Problemen auf Serverseite ist sicherlich für jeden Web Programmierer ein Gewinn. Diesen Anspruch kann und wird Node.js sicherlich erfüllen. Doch wie sieht es mit der so wichtigen Skalierung aus?

Kampf der Nebenläufigkeit

Betrachten wir zunächst ein einfaches Beispiel aus dem Alltag. Stellen wir uns einmal vor, wir möchten einen kleinen Imbiss in einem Fastfood Restaurant zu uns nehmen. Dazu begeben wir uns zunächst in das präferierte Restaurant und stellen uns die Warteschlange. Wie lang diese ist, ist sicherlich je nach Tageszeit und bedingt durch andere Einflüsse, wie etwa Urlaubszeiten unterschiedlich. Die Thread-basierte Methode das Restaurant zu betreiben würde bedeuten, dass ein Kunde aus der Warteschlange (FIFO) bedient wird, sobald er an die Theke vorgerückt, also die notwendigen System-Ressourcen einmal zugewiesen bekommen hat. Je nach Implementierung des Kunden ( :-) ) kann dieser Vorgang nun wenige Sekunden dauern, oder auch Minuten. Solange jedoch der Kunde die Ressourcen besitzt, gibt er diese auch nicht mehr ab. Das würde zu einem starken Anwachsen der Warteschlange führen, wenn man nicht entsprechende Maßnahmen ergreift. Dies würde bedeuten, dass ich einen weiteren Verkäufer (Thread) hinzufügen müsste, um meine Blockierung etwas zu entschlacken und die Warteschlange möglichst klein zu halten. Dies führt in unserem Beispiel jedoch zu einer starken finanziellen Aufwendung, die auch nicht an die Dynamik der Anfragen gekoppelt ist und uns somit eine prinzipielles Problem aufwirft. Dies wird besonders deutlich wenn der Ansturm an Kunden besonders gering ist. Es gibt sicherlich viele Möglichkeiten dieses Problem mit Thread-basierten Lösungsansätzen in den Griff zu bekommen und eine möglichst effiziente, Ressourcenschonende und skalierbare Implementierung zu entwickeln. In der asynchronen und ereignisbasierten Welt würde der Kunde in das Restaurant gehen und sich in die Warteschlange einreihen. Beim Zuteilen der Ressourcen bekäme der Kunde jedoch eine Liste mit den zu erledigenden Dingen, wie z.B. eine Speisekarte und optionalen Features auswählen; sich für den Verzehr vor Ort oder Auswärts entscheiden, Ketchup, Mayonnaise oder Extra Käse wählen - die üblichen zeitfressenden Fragen bei einer Bestellung. Der Kunde würde daraufhin die Warteschlange verlassen und sich erst wieder einreihen, wenn er eine Bestellung ohne Rückfragen des Kellners abgeben kann. Persönliche Bemerkung an dieser Stelle: Ich versuche dies seit Jahren in die Realität umzusetzen. Es funktioniert jedoch nur, wenn die Prozesse des Unternehmens, bei dem ich eine Bestellung aufgebe wohl definiert sind, die Mitarbeiter bestens geschult sind und ich die Speisekarte und die Features selbst bestens kenne. Denn dann ist es in der Tat möglich den Bestellvorgang auf eine Guten Tag-Ihre Bestellung bitte-Das macht dann-Auf Wiedersehen-Zyklus zu begrenzen, der wenige Sekunden dauert. Dies ist jedoch nicht immer möglich. Doch zurück zu unserer asynchronen Welt. Der Kunde (Prozess) würde also wieder zurück an die Theke kommen, wenn er meint alle Anfragen an die Bedienung korrekt stellen zu können. 10

SymposiaJournal


Cloud Computing Meinung

03/2011

Doch wie sieht es in diesem Fall mit der Skalierbarkeit aus? Sicherlich kann man auch in diesem Fall eine weitere Bedienung im Falle eines zu starken Anwachsens der Warteschlange hinzufügen. Jedoch ist es nicht so komfortable, wie die Thread-basierte Lösung. Vorteile dieser asynchronen und nicht blockierenden Methode gibt es viele, einer ist zum Beispiel, dass die Bedienungen nicht durch einen Kunden blockiert werden. Wir gehen in diesem vereinfachten Modell von einem sauber implementieren System auf Seiten des Restaurants aus. Wenn der Kunde die Anfrage nicht korrekt formuliert, dann muss er sich wieder zurückziehen und es später erneut versuchen. Dies wiederholt sich, bis der Bestellvorgang abgeschlossen ist. Doch wie sieht es in diesem Fall mit der Skalierbarkeit aus? Sicherlich kann man auch in diesem Fall eine weitere Bedienung im Falle eines zu starken Anwachsens der Warteschlange hinzufügen. Jedoch ist es nicht so komfortable, wie die Thread-basierte Lösung. Vorteile dieser asynchronen und nicht blockierenden Methode gibt es viele, einer ist zum Beispiel, dass die Bedienungen nicht durch einen Kunden blockiert werden. Welcher der beiden Ansätze ist nun jedoch der Bessere? Nun darüber streiten sich die Fachlektüren rauf und runter und dies nicht erst seit gestern. Aus der Prozesstheorie für Arbeitsabläufe in Firmen könnte man zum Beispiel anführen, dass es wesentlich effizienter ist, wenn sich ein Mitarbeiter zu 1 00% auf eine Tätigkeit konzentriert und diese ohne Störung und Unterbrechung abarbeitet. In der Realität, könnte man jedoch gegenargumentieren, z.B: Kommt es aber zu Unterbrechungen, wie ein Telefonanruf? Schön wäre es, doch alle Vorteile beider Welten zu kombinieren und einzusetzen. Doch genau da sind wir an der Schwachstelle von Node.js angekommen. Momentan ist das Ziel nur die asynchrone und nichtblockierende Implementierung voranzutreiben. Damit hat man keinerlei Möglichkeit mehr auf Änderungen in dem Workload, der Anwendung oder der Performance durch einen Wechsel oder eine Vermischung von beiden Modellen, wie es in anderen Sprachen wie C++ oder Java möglich ist.

Neue Software für eine neue Welt?

Die Frage, welche man sich heute stellen muss, ist jedoch, ob es notwendig ist diese Modelle zu mischen. Ist es in Zeiten des Cloud Computing nicht vielmehr notwendig über grundlegende Prinzipien nachzudenken? Was ist Skalierung? Was bedeutet AutoSkalierung? Wie wird es heutzutage betrieben? Sind die aktuellen Anwendungen überhaupt Cloud-fähig oder müssen nicht vielmehr viele Anwendungen überarbeitet oder gar neu implementiert werden? Cloud Computing in seiner jetzigen Form unterstützt beide Welten und auf dem Weg zu neuen skalierbaren Applikationen ist es notwendig über die grundlegenden Modell einmal in Ruhe nachzudenken. Betrachten wir doch einmal die aktuellen Infrastrukturen als Dienst eines Anbieters. In der Regel bieten sie beginnend von einer kleinen Maschine, welche in Ausstattung und Performanz gerade einmal einem Netbook entspricht. Um nun den vollen Nutzen aus einer solchen kleinen Maschine zu ziehen, um Skalierung und Kosten im Griff zu haben, müssen wir uns fragen, wie die Skalierung unseres Systems aussehen könnte und wie wir die beste Performanz erreichen? Im Vergleich dazu haben wir auf der Enterprise IT Seite hochperformante Systeme mit enormen Speicher und Mehrkernsystemen. Auf den ersten Blick dürfte jedem auffallen, dass es zwischen den beiden Welten einen Unterschied gibt, der sich sehr wahrscheinlich auch auf das Programmiermodell niederschlagen dürfte. Mit dynamischen Ansätzen kommen wir auf den Enterprise IT Maschinen sehr gut zurecht. SymposiaJournal

11


03/2011

Cloud Computing Meinung

Mal benötigt man mehr Thread-basierte Lösungen und mal kippt das Programm mehr zu einer asynchronen und nicht-blockierenden Lösung. Bei unseren kleinen Cloud Computing Maschinen ist dies anders. Wir haben es hier mit einer kleinen Single Core CPU zu tun. Und diese sollte möglichst gut ausgelastet werden. Wenn wir die CPU jedoch auslasten möchten und diese für unsere Paar Cent ideal nutzen wollen, sollten wir dann nicht versuchen die Last so hoch wie möglich zu bekommen? Und ist dies nicht der Fall, wenn die I/O Operationen nicht blockierend sind? Denn nur wenn möglichst viele Prozesse die Chance haben die Ressource zugeteilt zu bekommen, dann kann die CPU auch beschäftigt gehalten werden. Wenn wir noch tiefer hineinschauen, dann stellen wir fest, dass die Architektur von Infrastruktur als ein Dienst in Datenzentren so aufgebaut ist, dass viel I/O Kommunikation stattfinden muss, um beispielsweise Prozesse zu synchronisieren.

Fazit

Node.js ist ein vielversprechender Kandidat für eine Standardsprache im Cloud Computing. Jedoch ist abzuwarten, wie die Skalierung der kommenden Systeme funktionieren wird. Mit C++ als Grundgerüst ist auf jeden Fall Performanz und Skalierbarkeit gegeben: Man denke nur an OpenMP. Mit mehr als 2500 Repositorien, welche bereits von der Gemeinde implementiert worden sind, ist auf jeden Fall ein weiterer Grundstein gelegt. Ferner ist die Sprachsynchronität auf der Seite von Client und Server ein nicht zu unterschätzender Vorteil, auch wenn Web Dienste generische Schnittstellen bereitstellen und damit die Sprachabhängigkeiten verschwinden lassen sollten. Jedoch ist die Implementierung der Applikationen in der Realität nicht weit genug darauf abgestimmt und auch Standards wie WSDL 2.0 haben sich noch nicht in den Anwendungen durchgesetzt. Wie immer ist technologisch vieles schöner vorhanden. Was sich jedoch durchsetzen wird ist wie immer unklar. Ich denke das die Möglichkeiten, welche Node.js mit sich führt überwiegen dürften. Auch werden in Zukunft die Programme sauberer entwickelt werden, da der Client- bzw. Web Client-Entwickler nun auch die Serverseite implementieren kann. Dies ist insofern entscheidend, als dass sich die Entwickler besser austauschen und verständigen können und der Code in einer anderen Programmiersprache immer nicht so gut ist, wie in der Haussprache eines Entwicklers. Hinzu kommt, dass sich die Art wie Programme auf Cloud Computing Infrastrukturen entwickelt werden deutlich in Richtung von Technologien wie Node.js verlagern dürfte. Auch ist die momentan betriebene automatische Skalierbarkeit nicht wirklich schön gelöst. Vielleicht hat Node.js auch dafür in der Zukunft eine Lösung bereit. Wir dürfen gespannt sein.

12

SymposiaJournal


Cloud Computing Meinung

03/2011

Über Björn Böttcher Björn Böttcher war als Microsoft Student Partner an der Technischen Universität Hamburg-Harburg tätig und hat sich schon während seines Studiums als Freelancer in vielen Projekten aktiv in der Wirtschaft um informationstechnologische Umsetzungen gekümmert. Nach seinem Abschluss als Diplom Informatik-Ingenieuer promoviert er bei der Parallel Computing Group an der TUHH im Cloud und Grid Umfeld.

Quellenangaben [1 ] Node.js (nodejs.org) [2] Google‘s V8 JavaScript Engine (en.wikipedia.org) [3] 2500+ repositories for Node.js related code (github.com) [4] Why Node.js is Important for Windows Azure (http://bit.ly/qLUiql) [5] Understanding Event-driven Programming (http://bit.ly/pZrzLj) [6] Why Node.js is a Great New Technology for the Cloud (http://bit.ly/oN9Di6) [7] Node and Scaling in the Small vs Scaling in the Large (http://bit.ly/r6TIjN) SymposiaJournal

13


03/2011

Cloud Computing Meinung

Cloud Computing ist eine Frage des Use Case von René Büst

Hat Cloud Computing wirklich seine Daseinsberechtigung? Geht es nach den Pessimisten: Nein, denn es ist nur alter Wein in neuen Schläuchen! Geht es nach dem Marketing: Ja, neue Buzzwords lassen sich immer gut verkaufen! In der Regel schauen beide Seiten jedoch niemals hinter die Kulissen und betrachten nicht den tatsächlichen Mehrwert bzw. den Nutzen oder auch nicht-Nutzen. An die Pessimisten: Cloud Computing ist kein alter Wein neuen Schläuchen. Gewiss, einige Technologien und Ideen die das Gesamtkonzept Cloud Computing ergeben, existieren bereits seit den 1 960er. Aber genau das Wort “Gesamtkonzept” ist hier der entscheidene Faktor. Erst die Kombination vieler Technologien, wie SOA, Virtualisierung, ASP, Web Services und Grid Computing plus das Multi-Tendancy Konzept ermöglichen erst das Paradigma, das wir Cloud Computing nennen. Hinzu kommt das Geschäftsmodell (on Demand, Pay per use, Building Blocks, usw.) bzw. die Geschäftsmodelle, die erst auf Grund des Cloud Computing entstehen konnten. Betrachten wir die letzten Monate und Jahre, konnten neue Unternehmen und Geschäftsmodelle nur dadurch entstehen, da sie auf Grund des Cloud Computing unkompliziert, flexibel und kostengünstig auf die dafür benötigten IT-Ressourcen zugreifen konnten. Der Unterschied zum klassischen Outsourcing oder auch den Managed Services ist ebenfalls sehr deutlich. Beim Outsourcing existiert kein skalierbarer, flexibler und abrechnungsgenauer Bezug von Ressourcen. Statt Cloud Computing hätte es genauso gut Dynamic Computing Services oder on Demand Computing Services genannt werden können. Aber Cloud Computing ist auf Grund des Ressourcenbezugs über das Internet nun einmal die beste Beschreibung. An das Marketing: Bitte bei der Wahrheit bleiben! Ca. 70% der klassischen Webhoster sind bereits auf den Cloud Computing Zug aufgesprungen. Die einen mehr, die anderen weniger Cloud. Sehr beliebt ist, einfach ein bestehendes Produkt zu „vercloudifizieren“. Heißt: Gleiches Produkt mit einem neuen Namen, z.B. Cloud Server. Das es sich dann nur um einen virtuellen Server handelt, der auch noch für eine monatliche Grundgebühr zu beziehen ist und über keine (automatisierte) Skalierbarkeit verfügt, wird außer acht 14

SymposiaJournal


Cloud Computing Meinung

03/2011

acht gelassen. Positiv überraschen die etablierten IT-Konzerne. Das Konzept Cloud Computing wird, insbesondere in Deutschland und Europa, zwar teilweise neu interpretiert. Das ist auf Grund der Zielgruppe (etablierte Unternehmen) und dem Einsatzgebiet (kritische Produktivumgebungen) aber durchaus verständlich. So befinden sich hier vermehrt (sichere) Virtual Private Clouds im Portfolio. In den USA herrschen derzeit noch die Public Clouds.

Der Glaubenskrieg Hier beginnt auch schon der Kampf um die “beste” Cloud. Fakt ist: Es gibt keine gute oder schlechte Cloud und schon gar nicht die beste Cloud. Aber es gibt individuelle Bedürfnisse und Anforderungen. Neben den Public, Private und Hybrid Clouds, werden die Beschreibungen immer granularer. So existieren mittlerweile unterschiedliche Cloud Level, zu denen auch die Public und Hybrid Cloud gehören. Diese Cloud Level machen sich aber besonders im Umfeld der Private Cloud bemerkbar. Es gibt daher nicht mehr nur die Private Cloud im eigenen Rechenzentrum, sondern nun auch die sogenannte Dedicated Private Cloud oder auch Virtual Private Cloud. Führen die Public Clouds auf Grund ihres unkomplizierten Zugriffs zu Innovationen und neuen Geschäftsmodellen, haben die “X Private Clouds” die Aufgabe, die Heimat von Produktivsystemen zu werden und Unternehmen darüber den flexiblen on Demand Bezug von Ressourcen auf einer Pay per use Basis in einem privatem und not shared Umfeld zu ermöglichen. Unternehmen erhalten damit die Gelegenheit, eine eigene Private Cloud, inkl. allen Methoden und Konzepten des Public Cloud Computing (bis auf die Kreditkarte), aufzubauen, ohne einen Cent in eigene Rechenzentrumskapazitäten zu investieren. Damit umgehen sie der Komplexitäts- und Kostenfalle der eigentlichen Private Cloud, erhalten aber dennoch Ressourcen wenn sie benötigt werden. Wie ich jedoch eingangs erwähnte gibt es keine gute oder schlechte Cloud. Die eigene Private Cloud kann im Einzelfall durchaus Sinn ergeben, um den eigenen Bezug der IT-Ressourcen zu flexibilisieren.

Der Einzelfall entscheidet Grundsätzlich muss immer der Einzelfall betrachtet werden, wo Cloud Computing Sinn macht und wo nicht, bzw. welche Art von Cloud Computing hilfreich ist. Beim Cloud Computing sprechen wir von X-as-a-Service, genauer Software-as-a-Service (SaaS), Platform-as-a-Service (PaaS) und Infrastructure-as-a-Service (IaaS). SaaS erzielt in nahezu 99% aller Fälle den gewünschten Nutzen und hilft Unternehmen dabei, Anwendungen zu nutzen wenn sie benötigt werden, ohne dabei langfristig in teure Softwarelizenzen und Infrastruktur zu investieren und je nach Mitarbeitersituation immer ausreichend Anwendungen zur Verfügung zu haben. Darüber hinaus entfallen die Installation und Wartung der Software, da der Zugriff über den Standard Webrowser stattfindet und der Anbieter für den aktuellen Stand und der Funktionsfähigkeit der Software zuständig ist. Entscheidend ist letztendlich die Analyse der eigenen Situation und der Anforderungen sowie die Evaluation der geeigneten Software sowie deren möglicherweise notwendigen Integration mit den restlichen Systemen. SymposiaJournal

15


03/2011

Cloud Computing Meinung

PaaS spielt besonders im Entwicklerumfeld seine Stärken aus. Die Bereitstellung von skalierbarer Rechenleistung ist ein teures Vergnügen. Ebenso die Wartung der dafür benötigten Infrastruktur in Form von Hardware, Netzwerkkomponenten, aber auch Betriebssysteme und die restlichen Softwarestacks. Speziell die Bereitstellung vollständig vorkonfigurierter und gewarteter Softwarestacks helfen einem Entwickler bei der schnellen Umsetzung seiner Ideen. Ein kleiner Nachteil besteht in der Regel durch die Entscheidung für eine einzige Programmiersprache, wodurch die Portabilität der Anwendung leidet. Dabei handelt es sich jedoch um ein je nach Situation durchaus zu vernachlässigendes Problem. Vor allem für das “mal eben ausprobieren” einer Idee eignet sich PaaS besonders gut. Aber ebenfalls der langfristige produktive Einsatz und das Hosting der Anwendung auf einer skalierbaren und gewarteten Infrastruktur sind sehr attraktiv, wenn vorab die benötigten Anforderungen und das Programmiermodell geklärt worden sind. IaaS bietet je nach Einsatzgebiet in vielen Bereichen Vorteile. Kann aber durchaus auch zur Kostenfalle werden. Soll bspw. eine Webseite auf einer Instanz aus der Cloud 7/24/365 betrieben werden, wird schnell deutlich, dass die Kosten dafür einfach nicht tragbar sind. Für diesen Zweck reicht ein gewöhnlicher virtueller Server (was eine Instanz aus der Cloud letztendlich auch nur ist) von einem traditionellen Webhoster mit einer monatlichen Grundgebühr völlig aus. Damit ist die Kosten- als auch die technische Seite gut abgedeckt. Anders verhält es sich bei einer Webseite die einer nicht unmittelbar vorhersagbaren Dynamik oder saisonalen Einflüssen unterlegen ist. Hier hilft der Einsatz einer Cloud Infrastruktur, wenn sie dann richtig genutzt wird und die Methoden und Konzepte des Cloud Computing, wie z.B. Skalierbarkeit und Hochverfügbarkeit durch den Einsatz von Skripten oder anderweitiger Tools, berücksichtig wird. IaaS ist daher, je nach Bereich, kostentechnisch nicht für den Langzeitbetrieb geeignet, sondern vielmehr für den periodischen Ausgleich von Anfragen und dadurch entstehende Lasten. Auch bzgl. der Nutzung einer Public Cloud oder einer Virtual Private Cloud gibt es unterschiedliche Einsatzszenarien. Eine Public Cloud ist bspw. ideal für kleine Unternehmen und Startups, die eine Web- oder Mobile Anwendung mit Backend anbieten möchten oder Entwickler die schnell eine Idee umsetzen wollen und dafür entsprechende Ressourcen benötigen. Eine Virtual Private Cloud hingegen bietet etablierten Unternehmen die Möglichkeit ihre Produktivumgebungen skalierbarer und flexibler auszulagern und zu betreiben. So wären z.B. mögliche Use Cases die Migration des ERP Systems oder die Virtualisierung der Desktops und die damit verbundene Umstellung von Fat auf Thin Clients.

Fazit Es gibt keine gute oder schlechte Cloud! Und schon gar nicht die beste Cloud. Wie seit jeher in der IT notwendig, muss immer die eigene Situation betrachtet werden und die Entscheidung individuell getroffen werden. Der einzige sinnvolle Rat zu Beginn kann daher nur lauten: Augen auf und genau überlegen in welche Richtung die Reise gehen soll, welches die Ziele sind und was damit erreicht werden soll. Ein erster unabhängiger Marktüberblick inkl. Angebotsanalyse wird dabei helfen Klarheit zu schaffen und mögliche Produkte und Services für die eigene bedarfsgerechte Nutzung zu identifizieren. 16

SymposiaJournal


Cloud Computing Meinung

03/2011

Über René Büst René Büst ist Cloud Computing Experte & Berater sowie IT-Analyst & Autor in den Bereichen Cloud/ Mobile Computing und modernes Arbeiten. Darüber hinaus ist er Managing Director von Symposia 360° und Gründer des Cloud Computing Portal CloudUser.org. René Büst hat einen Abschluß als Master of Science im Bereich IT-Management von der FHDW Paderborn und als DiplomInformatiker (FH) von der Hochschule Bremen.

SymposiaJournal

17


03/2011

18

Geek and Poke

SymposiaJournal


Cloud Computing Meinung

03/2011

Cloud - zwischen Versprechen und Wirklichkeit von Dr. Michael Pauly & Dr. Martin Reti

Cloud Computing wird – wie wir alle wissen – die nächsten 20 Jahre der IT-Industrie bestimmen – zumindest sagte das Frank Gens, der IDC-Analyst, 201 0. Gemeinsam mit Larry Ellisons „It´s complete gibberish“ aus unserer Sicht das wichtigste Zitat im Zusammenhang mit Cloud Computing. Beide Zitate markieren perfekt die beiden Pole, zwischen denen das Spannungsfeld des Cloud Computing aufgespannt wird. Himmelhochjauchzend, zu Tode betrübt – oder anders formuliert: Visionär mit Revolutionspotenzial vs. nutzlose Luftblase. Die Wahrheit wird – und dafür muss man kein Philosoph sein – dazwischen liegen. Doch näher an welchem der beiden Pole? Bestimmend für die nächsten 20 Jahre? Eine doppelbödige Aussage: Sie könnte vordergründig bedeuten, dass der Cloudtrend tatsächlich 20 Jahre überleben wird und wir wie der alte Methusalix in unseren alten Tagen immer noch auf das Konzept anstoßen werden: „Damals in der Cloud [“. Es könnte aber auch bedeuten, dass die IT-Industrie 20 Jahre brauchen wird, um das Konzept des Cloud Computing tatsächlich so umzusetzen, wie wir es heute erträumen. Jaja, der Weg von der Theorie in die Praxis ist weit ;-). Dabei unterstellen wir natürlich, dass es eine Cloud-Theorie gibt. Aber ist das wirklich der Fall? Complete Gibberish? Es war – Larry Ellison hin oder her – schon ein mutiger Schritt so gegen das neue Sourcingkonzept zu wettern und natürlich bekommt man damit Klicks und eine bleibende Prominenz im Thema. Markige Sprüche zählen halt immer noch. Aber je länger Cloud Computing uns beschäftigt, desto häufiger ist Ellison im Recht: Zu viele Dinge werden umetikettiert und Cloud-gewaschen. Jeder Dienst, der auch nur im entferntesten nach einem der NIST-Kriterien riecht, wird plötzlich als eine Neuschöpfung der Cloud präsentiert. Und dann stellen wir die Frage: „Warum fliegen die potenziellen Nutzer, insbesondere im Mittelstand, nicht auf Cloud?“ Vielleicht weil sie sich verunsichert oder gar veralbert fühlen? Oder aber haben sie – wie man es aus den Kommentaren einiger entnehmen kann – nur noch nicht richtig verstanden? ;-) SymposiaJournal

19


03/2011

Cloud Computing Meinung

Ein weithin beliebtes Argument der Anbieter, mit dem sie gerne den schwarzen Peter für die noch nicht ausreichende Akzeptanz an die potenziellen Kunden zurückgeben.

Erwartungen über Erwartungen Was wir von Cloud Computing erwarten, das spiegeln die verschiedenen Definitionen wider, deren Zahl 2011 Legion sein dürfte. Erstaunlich ist, dass sich noch keine Definition als die einzig wahre heraus kristallisiert hat. Wo doch viele von sich behaupten, die einzig wahre Cloud zu besitzen bzw. zu betreiben. Wir hören von Nutzen statt Besitzen, wir erwarten „pay as you use“, Verfügbarkeit und Skalierbarkeit „on demand“ oder dynamische IT, die sich an dynamischem Business orientiert oder auch Komplettfunktionalitäten, die „as a Service“ erbracht werden. Populär auch die Erklärung, dass Dienste nicht mehr lokal, sondern in weit entfernten Rechenzentren unbekannter Provider erbracht werden – und das ist die Basis erbitterter Compliance-, Rechts-, Datenschutz- und Sicherheitsdispute. Manche fordern Standards, Offenheit, Ausfallsicherheit oder Wahlfreiheit – aber diese Ansprüche scheinen schon nicht mehr mehrheitsfähig. Es ist immer der Nutzen, der Gewinn, der einen möglichen Nutzer von einem Dienst überzeugt. Besonders einsichtig ist dieser (persönliche) Gewinn, wenn ich die kostenlos verfügbaren Dienste im Internet nutze. Die Geschwindigkeit, der Komfort, die Einfachheit und die Kostenlosigkeit – in Verbindung mit der Ansicht, im großen Schlaraffenland für ITNutzer gelandet zu sein, in dem für jeden ein passendes Eckchen ist und in dem es noch viel mehr Interessantes zu entdecken gibt, das kann eine euphorisierende Mischung sein. Letztendlich lässt sich die Cloud-Welt in zwei Hälften teilen. Für die einen dreht sich die Cloud um das Business. Für die anderen dreht sich das Business um die Cloud. Lassen sich diese Fälle voneinander trennen?

„Cloud ist Remote Access“ – Servicenutzung über Netze Längere Diskussionen über eine nicht-lokale, also entfernte Serviceerbringung anderswo („remote“, evtl. delokalisiert), wobei die Dienste über – wie auch immer geartete – Netze verfügt werden, sollten wir von der Legitimierungsliste eines Cloud Service streichen. Es ist ein sine qua non, eine Bedingung, ohne die wir gar nicht erst anfangen, über Cloud zu reden. Auf der anderen Seite ist es heute schon Usus, sowohl bei Privatleuten als auch in Großunternehmen, dass vielerlei Applikationen nicht lokal auf dem Rechner, sondern in Rechenzentren erbracht werden, deren genaue örtliche Lage, den Nutzer in der Regel auch gar nicht interessiert. Es sei denn, er sei ein Rechtsanwalt, ein Auditor oder ein Industriespion ;-).

20

SymposiaJournal


Cloud Computing Meinung

03/2011

„Darf´s ein Pfund mehr sein?“ - Pay as you use Wann immer das Gespräch auf Cloud Computing kommt, ist man schnell beim „pay as you use“. Mancher Anbieter modifiziert das dann zu „pay as you order“ – du zahlst, was Du bestellst, auch wenn Du es nicht nutzt. Tatsächlich gibt es Anbieter, die den originären Anspruch erfüllen, und denen darf auch der „Orden für eine seriöse Umsetzung des Cloudgedankens“ angesteckt werden. Andere hingegen verstehen Cloud Computing als ein betriebswirtschaftliches Modell, das mit reinen Rechenspielchen – aber ohne die notwendige zugrunde liegende Technik und das IT-Management – in Kosten/Nutzungsrechungen realisiert wird. Und da entstehen dann Blüten wie Basisgebühren oder Aussagen wie „Lieferung erst ab einer bestimmten Menge“. Und dabei spielen natürlich fehlende dynamische Lizenzierungsmodelle seitens der SoftwareAnbieter auch eine entscheidende Rolle. Oder aber Preise, in denen alle möglichen Auslastungsausfälle eingepreist sind und bei denen die Nutzer für die Nichtnutzer mitbezahlen. Oder es wird ganz simpel ein klassischer Preis in Chargen zerlegt und Mindestlaufzeiten sichern den Anbieter gegen kurzfristig wegbrechende Kundennachfrage ab. Da ist das Angebot einer Flatrate vielleicht gar nicht der dümmste Einfall, weil man dadurch wieder eine Kostenkontrolle bekommt, die „pay as you use“ nur dann hergibt, wenn man sich selbst entsprechend bezähmt. Vergessen wir aber in der ganzen Diskussion nicht, dass Cloud Computing ursprünglich deswegen so erfolgreich ist, weil Dienste über das simpelste denkbare Abrechungsmodell „eingekauft“ werden: Sie sind (in bestimmten Grenzen) kostenlos.

„Ich weiß, wo Deine IT wohnt“ - Transparenz Interessant ist zu beobachten, dass IT-Verantwortliche nicht mehr so sehr den Kostensenkungsaspekt an Cloud Computing wahrnehmen, sondern vielmehr die Transparenz als Vorteil preisen. Das scheint tatsächlich ein Sprung voran zu sein, weil etablierte inhouse-Landschaften gerade in großen Unternehmen mit der Zeit unübersichtlich geworden sind und im Dickicht von Abschreibungen, Dutzenden verschiedener Managementtools und Umorganisationen der Überblick schon lange verloren ging. Hier ist Cloud Computing eine zweifache Antwort: Zum einen kann man wie Jaguar Landrover den großen Schnitt machen und mit einem Schlag eine Standardisierung und Vereinheitlichung herbeiführen, zum anderen kann im gleichen Zug ein Monitoring zur Kosten- und Nutzungskontrolle eingeführt werden. Doch ist das typisch für Cloud Computing? Etablierte Serviceanbieter müssen ihren Kunden schon seit Langem genau auflisten, wofür jener sein Geld überweist. Ein ausführliches Monitoring mit einem Monatsreporting ist dafür Usus. Genauso wie die unzähligen Konsolidierungsprojekte, in denen die Anzahl der Plattformen und RZStandorte regelmäßig reduziert wird.

SymposiaJournal

21


03/2011

Cloud Computing Meinung

„Von der Stange“ - Standards Dabei ist das Monitoring standardisierter Services, die aus Ressourcenpools im Multimandantenmodus erbracht werden, natürlich einfacher (weil industrialisierter) zu handhaben, als in heterogenen, gewachsenen Landschaften. Standardisiertes Angebot und eine standardisierte Serviceerbringung gehören also zum Wesen von Cloud Computing. Leider kann man Standardisierung aber auch anders verstehen. Denn in der Cloud gilt meist: „Wenn schon ein Standard, dann meiner“. Und das führt dann zu einem neuen Potpourri von Standards. Wahlfreiheit des Nutzers? Weitgehend Fehlanzeige. Nicht zu Unrecht fürchten viele, in einer neuen Welt der Cloud in Abhängigkeiten von Dienstleistern zu geraten. Was schon mit der Frage beginnt, wie man im Falle des Falles seine Daten ins eigene Haus zurückbekommt. Nicht mal auf der Ebene des IaaS ist es bislang gelungen, ein „Tankstellenmodell“ zu etablieren, das den Nutzern eine tagesaktuelle Auswahl des Providers erlaubt. Obwohl hier natürlich im Rahmen einer zeitlich begrenzten (ad hoc) Nutzung auch kein Bedarf besteht. PaaS und SaaS? Kein Wunder, dass angesichts dieser Sachlage die alte Diskussion über offene Standards auch in der Cloud ausgetragen wird. Aber eigener Standard ist nicht nur eine Attitüde des Anbieters, sondern genauso der Nutzerseite. „Wir wollen zwar einen Service aus der Cloud, aber für uns kommt ein Standardangebot nicht in Frage“. Dann wird ein individuelles Kundenprojekt aufgesetzt, das in einer individuellen Lösung mündet. Und das wird dann als erfolgreiches Cloudprojekt vermarktet. Genauso wie das nächste Kundenprojekt, das eine eigene Plattform benötigt, aber ein „pay as you use“-Abrechnungsmodell hat.

„Get into the Pool“ - Skaleneffekte, Elastizität, Ausfallsicherheit Ressourcenpools sind – neben den Netzen – das Rückgrat oder, wenn man so will, das Gehirn der Cloud. Sie erwecken den Eindruck unendlicher Ressourcen, die schnelle Adaption der Ressourcen an die Last auf der Anwendung (Skalierung). Doch wie weit geht der Pooling-Gedanke? Möchten Großunternehmen beispielsweise dieselbe Plattform mit ihrem Wettbewerber oder Privatkunden teilen? Oder bevorzugt man dann nicht eher eine „dedizierte“ Cloud für die unternehmenseigenen Belange? Und wenn das jeder möchte, wo ist dann der Pooling-Gewinn – insbesondere was die vielfach beschrienen grünen Aspekte angeht? Ressourcenpools leben vom Mitmachen aller – auch der Nutzer. Jeder, der nicht mitmacht, schmälert den möglichen Nutzen. Dafür gibt es nachvollziehbare Gründe, die in der Regel einem hohen Sicherheitsdenken geschuldet sind. Aber durch die „mein eigenes sicheres Häuschen“-Haltung wird der Gedanke der Cloud massiv untergraben. Skaleneffekte entstehen so nur in bedingtem Umfang – auch wenn manches Großunternehmen genügend Manövriermasse dafür hat. Im Fall der eigenen „Cloud im Keller“ darf man dann auch die Frage stellen, wie es mit der Skalierbarkeit steht. Nachvollziehbar erscheint vor diesem Hintergrund die Vereinbarung einer Maximal- bzw. 22

SymposiaJournal


Cloud Computing Meinung

03/2011

Minimallast, die evtl. sogar noch zeitlich verzögert ist. Eine „natürliche“ Konnotation zu Ressourcenpools hat die Ausfallsicherheit. Der Gedanke dahinter ist ebenso einfach wie brillant: Wenn man aus Pools auch eine Hoch-und-RunterSkalierung realisieren kann, können natürlich ausgefallene Systeme blitzschnell ersetzt werden. Intakte Systeme übernehmen, ohne dass die Nutzer es merken, die Arbeit der abgetretenen – womöglich sogar über verschiedene Erdregionen hinweg. Eine optimierte Ressourcenauslastung nach dem „Follow the Sun“-Prinzip wird beschworen. Das hat was Borgisches, wenn dem System kein Schaden zugefügt werden kann. Angesichts des jüngsten Ausfalls im irischen Amazon-RZ mit tagelangen Aufräumarbeiten darf diese Hoffnung doch mit gestiegener Skepsis gehegt werden.

„Drück aufs Gas“ - Geschwindigkeit Zuletzt noch ein Streifzug über DAS Killerargument für Cloud Computing: die Geschwindigkeit. Noch vor möglichen Kostenersparnissen rangiert die Geschwindigkeit der Verfügung als einer der Top-Nutzen von Cloud Computing. Und das zu Recht. Sieht man die andere Seite der Medaille, ist das natürlich ein Armutszeugnis. IT ist mit dem Anspruch angetreten, das Geschäft schneller und dynamischer zu machen. Und entdeckt nun – im fortgeschrittenen 21 . Jahrhundert – endlich die Option selber dynamisch zu werden. Wo bisher das Bestellen eines Servers Wochen und Monate in Anspruch nahm, machen die Internet-bekannten Webbestell- und Liefervorgänge Hardware-Kapazitäten und komplette Applikationen in Minutenschnelle verfügbar – User Self Service. Müssen die Ressourcen allerdings per Mail, per Telefon oder womöglich mit Rückantwort per Fax geordert werden, je nach Compliance, die im eigenen Hause gilt oder müssen Bestellvorgänge die Einkaufsprozesse in großen Häusern durchlaufen, ist der Spaß an IT aus der Dose schnell dahin. Auch wenn mancher Lieferant vielleicht – durchaus aus guten Gründen – noch mit Modellen des letzten Jahrhunderts agiert, so muss doch das Nutzerunternehmen bereit sein für den Umgang mit Cloud Computing: Prozesse, Organisation und Kultur müssen sich einer Nutzung von Cloud Computing genauso stellen wie der Nutzung von Web 2.0.

Schlussakkord Auch nach Jahren der Diskussion wissen wir immer noch nicht endgültig, was Cloud Computing ist. Und wir werden es wahrscheinlich auch nie wissen. In unseren Köpfen entstehen – je nach Nutzen und (negativen/positiven) Erfahrungen – Bilder von Cloud Computing. Der Mehrwert der „Technologie“, des Sourcingkonzepts, des Geschäftsmodells [ wird sich im konkreten Fall erweisen müssen. Und wenn der Einsatz auf Basis unbedachter Rahmenbedingungen (beispielsweise Latenzen) fehlschlägt, will das womöglich nur bedeuten, dass Cloud Computing in diesem konkreten Fall, unter diesen Rahmenbedingungen, mit diesem Provider, mit diesem Service oder mit diesem Nutzer nicht funktioniert. Vielleicht kann man ja diese Herausforderung ganz klassisch lösen? Was auf der Kehrseite bedeutete, dass man wirklich nicht überall ein Cloudetikett anhängen muss, sondern mal einfach auf den Nutzen schauen kann, den Anbieter SymposiaJournal

23


03/2011

Cloud Computing Meinung

und Nutzer gemeinsam erzielen können. Da wir uns aber 2011 erst im Jahr 1 der von Frank Gens prophezeiten 20-Jahresperiode befinden, haben wir ja noch 1 9 Jahre Zeit, um unsere Städte in den Wolken zu bauen. Und complete gibberish ist vielleicht doch ein bisschen fehlbewertet. Man darf weiterträumen. Fest steht: Derjenige, der es als erster schafft, die großen Kundenträume aus der Cloud wahr zu machen, wird gewinnen – wenn er selbst konsequent und konsistent „in die Cloud geht“. Ach ja, was sich jetzt um was dreht, das ist in der Cloud wie im Universum eine Frage des Standpunktes. Bin ich in der Wolke oder außerhalb? Betrachte ich das Ganze aus dem Business heraus oder aus der IT? Damit bleibt alles so „unklar“ bzw. cloudy wie zuvor. Nur eines ist sicher: Es dreht sich doch! Michael Pauly & Martin Reti p.s.: Vor etwas 20 Jahren kam das erste Windows-Betriebssystem auf den Markt. Wenn wir dieses mit dem heute aktuellen vergleichen, dann können wir etwa erahnen, was uns erwarten wird. Natürlich alles nur noch viel schneller.

Über Dr. Michael Pauly Dr. Michael Pauly ist promovierter Elektroingenieur und Wirtschaftsingenieur. Er arbeitet bei T-Systems als Consultant mit Fokus auf Dynamic Services und Cloud Computing. Michael Pauly agiert als einer der Sprecher für Cloud Computing von T-Systems und vertritt das Thema auf diversen Veranstaltungen und Konferenzen.

Über Dr. Martin Reti Dr. Martin Reti, ein digitaler Imigrant, arbeitet im Solution Marketing von T-Systems und verfolgt das Thema Cloud Computing intensiv. Der Kommunikationsmann ist einer der Autoren des BitkomLeitfadens "Cloud Computing – Evolution in der Technik, Revolution im Business".

24

SymposiaJournal


Geek and Poke

SymposiaJournal

03/2011

25


03/2011

Cloud Computing Science

Cloud Computing drives faster innovation in life sciences by Matt Wood

Scientists explore a new world where access to technology infrastructure is instant and affordable - It’s the year 2000. A research group at an EU based pharmaceutical company discusses an edgy and ambitious project involving whole genome RNA sequencing. Like many nascent research projects, the informatics requirements are steep. The cost and process burdens of acquiring infrastructure for terabytes of data and teraflops of compute power to be used in an undefined number of use cases and methods could dampen the spirits of even the most enthusiastic team. Without extra funding, the idea will likely sit on the backburner until the next fiscal year. Now fast forward and add cloud computing to the mix. Resource constraints are replaced with enabling technologies such as scalable storage, elastic compute and dynamic analysis platforms. Where IT procurement and lengthy technical reviews once cast long shadows over research, organisations are now accessing on-demand technology infrastructure with no upfront cost or negotiations. With a cloud computing strategy in hand, the lab funds the project out of discretionary budgets. The project begins by sending samples to a sequencing service provider, who ships the results to a secure cloud environment. The necessary storage is available ondemand with a pay-as-you-go pricing model, meaning the researchers pay nothing until the first byte is written or after the final file is removed. The collaborators get straight to work performing large scale, distributed computations. Sharing results becomes as easy as sending an email. This is one of hundreds of examples of how cloud computing has changed the way organisations have acquired IT in the past three decades. The new world, where scientists are living today, is much different. Researchers in industry and academia are using computers in continuously increasing quantities for molecular simulation, virtual screening and DNA and protein sequence analysis. In the past, organisations purchased expensive, purpose-built cluster resources 26

SymposiaJournal


Cloud Computing Science

03/2011

and data management systems. This requires significant upfront investment and labs were often surprised by the management costs associated with running dedicated infrastructure. Those unable to afford hardware would use shared infrastructure, often at supercomputing centres, and wait in long queues for an opening weeks later. These pressures have scientists earnestly exploring scalable and on-demand IT infrastructure that can meet the unpredictable demands of research and development. In six months, a project’s technology requirements may have changed three to four times (or more), so nimble technology is key. Scientists are also benefitting from IT resources that provide an affordable model for global collaboration, similar to The 1 ,000 Genomes Project, the largest study of genetic differences between people to date. The project offers a comprehensive resource on human genetic variation and involves participants from Europe, North America, South America and Asia who are sharing data and analysis in real time. To make data more available to a broader audience and to further innovation on genomic research, The 1 ,000 Genomes Project can also be accessed through the cloud. This means scientists with less advanced computers and infrastructure have the same access to the raw data as those with supercomputer technology. This is the type of sharing and collaborative model life science professionals are getting excited about today. A simple way to explain cloud computing is that instead of buying, owning, and maintaining your own datacenters or servers, you purchase compute power and storage services from third party infrastructure providers on an as-needed basis. Database, messaging infrastructure and content distribution services are also available in the cloud. The provider manages and maintains the entire infrastructure in a secure environment and users interact with resources via the Internet. Capacity can grow or shrink instantly. For an offering to truly be cloud computing, it must have the following characteristics: No upfront capital expenditure, pay-as-you-go services, elastic capacity, fast time to market (think server capacity in minutes) and the ability to remove undifferentiated heavy lifting. All of this must comply with regulatory needs and without sacrificing data security. An example of a company that has taken advantage of the on-demand nature and scalability of cloud computing is Cambridge based Eagle Genomics, a bioinformatics services and software company specialising in genome content management. Eagle Genomics store and analyse large quantities of genomic data for its customers. Recent projects have included biomarker discovery, microarray probe mapping and genome assembly from next-gen sequencing data. At the heart of Eagle’s analysis projects lies an adapted version of the eHive workflow management system. Eagle’s modifications enable eHive to scale automatically by starting up and spinning down resources in response to capacity demands. This is something that Eagle could only do cost effectively by having its technology infrastructure in the cloud. This avoids the expense of purchasing and maintaining HPC hardware in-house and avoids underutilised resources. Another life sciences organisation taking advantage of cloud computing is the European Bioinformatics Institute (EBI). The EBI is the home of cutting edge research using computers to study life science problems. SymposiaJournal

27


03/2011

Cloud Computing Science

One of the largest projects currently underway at the EBI is the genome browser, Ensembl - www.ensembl.org. Ensembl is a central tool used in worldwide bioinformatics research. When working as a global team, latency can become an issue. The EBI has reduced the latency of accessing the Ensembl service for their US collaborators, by moving the service to the cloud. This is making the large amounts of information hosted in the genome databases more readily available to researchers around the world to spend more time making discoveries and less time on accessing the information. Yet another example is Galaxy, an open source web application and analysis platform designed to allow reproducible, sharable science. The team recently made Galaxy available as a cloud optimised and deployable solution to allow researchers anywhere in the world to run exactly the same pipelines and share data and results without investing in hardware or worry about managing servers. Cloud Indicators. These examples show innovative uses of the cloud, but how quickly is this catching on in the life science industry? All signs point to rapid adoption. Through discussions with scientists, engineers, developers, CIO’s and CTO’s of start-ups and enterprises, I’ve consistently heard why the cloud is a growing part of their future plans. The most frequently cited reasons include: IT consolidation is on the rise. Driven by a need to optimise expenses and gain efficiencies, the biopharma industry is consolidating IT to focus on core expertise and reduce capital expenditure. This includes IT infrastructure, which most do not see as a competitive advantage. As organisations grow and work is distributed to scientists across the globe, technology infrastructure running in the cloud will improve efficiencies and utilisations in tandem with growth. Agility is becoming necessary. If purchasing dedicated hardware, it can take organisations months to procure, provision and make resources available to users. That can feel like years in the fast-moving scientific world and make innovating on the science nearly impossible. IT managers and CIOs have discovered that with the cloud’s ability to rapidly provision resources, scientists can do their job with minimal resource contention. Organisations get to say no less and support more projects. New methods lead to new collaborations. Science is all about collaboration, increasingly so as scientists start investigating biology at a systems level and collaborating with experts in specialised research functions. This has led to more distributed partnerships, both public-private and collaborations between academic institutions and companies. The availability of shared data spaces with easy access to on-demand computing resources makes the cloud very attractive today. Public access to data sets and associated data analysis tools are creating an ecosystem for data sharing and analysis that could portend a larger trend in scientific collaboration. Scientific practices are evolving. From its early days, cloud computing has enabled new business models. Many start-ups have flourished because access to cloud services 28

SymposiaJournal


Cloud Computing Science

03/2011

empowered them to create innovative solutions that take advantage of massively distributed architectures without having to invest the capital to build resources. Life sciences are following a similar trend. We can expect to see more start-ups emerge to provide analysis and data support roles. Instrument and service providers are also leveraging the cloud to distribute data and provide on-demand access to computing pipelines. Of course, this is all happening at a scale and lower cost than possible outside of the cloud. Computing paradigms have shifted. Large scale modelling and simulation, and especially large scale data analysis, challenge existing infrastructure and workflow methodologies. Data-intensive workloads require massively parallel frameworks that are ideally built on top of commodity hardware. Such systems, like Hadoop and non-relational databases, are becoming part of the solution for difficult computing challenges. These frameworks are now tuned to successfully run in the cloud. The availability of dynamic cluster computing resources in the cloud has multiplied the capabilities researchers can access to solve scientific problems at massive scales. Before cloud computing, these problems remained untouched or were addressed at scales that limited utility. A cloudy, data-driven future.

Economics, a desire to foster more collaboration and the need for faster innovation cycles are leading the life science industry to a new world where scientists have instant access to infinitely scalable resources. In the next few years, third generation sequencing, massive metagenomics sequencing projects, and an increased availability of molecular diagnostics are going to produce unprecedented amounts of data at relatively low costs. Cloud computing will play a key role in providing the technology infrastructure that will drive the data-driven future of life science.

About Matt Wood Matt Wood is a Technology Evangelist for Amazon Web Services. In his role Matt educates customers on the technical and business aspects of cloud computing, mentors start-ups and coaches developers throughout Europe. Before joining Amazon Matt worked in the field of life sciences and built webscale search engines at Cornell University, sequenced DNA in Hinxton and developed analytics software in Cambridge. He is a frequent speaker at international conferences, a blogger and published author.

SymposiaJournal

29


03/2011

30

Geek and Poke

SymposiaJournal


Mobile Computing

03/2011

Enterprise Mobile Device Management Strategien und Trends von Ralf Jan Schaefer Immer leistungsfähigere und vollständig vernetzte Smartphones werden unsere Arbeits- und Lebensweise in den nächsten Jahren nachhaltig verändern. Und obwohl wir zur Zeit eine explosionsartige Zunahme an mobilen Endgeräten erleben – Google CEO Larry Page verkündet im Juli 550.000 neue Android Devices täglich im Vergleich zu 200.000 im Vorjahr – sind einige Hürden zu nehmen um eine Integration der neuen Geräte in die Infrastruktur eines Unternehmens erfolgreich zu meistern. Seit einem Jahrzehnt ist das Blackberry Smartphone in vielen Unternehmen etabliert. RIM ist immer noch der einzige Hersteller der OS, Hardware, (PIM-) Applikationen und viele Security Services aus einer Hand entwickelt und für seine Geschäftskunden bereitstellt. Während die Blackberry Services heute bereits die Grundlagen für ein sicheres mobiles Ökosystem im Unternehmen bilden, müssen für die populären mobilen Geräte erst notwendige Tools und Services evaluiert und eingeführt werden. Dieser Artikel betrachtet neben dem Mobile Device Management (MDM) wichtige Aspekte die das mobile Ökosystem beeinflussen und vermittelt eine MDM Strategie auf der Grundlage der Datensicherheit. bzw. dem Schutz von Unternehmensdaten. Dabei geht es weniger um die Entwicklung neuer Mobility (Web-) Services oder hybriden Applikationen aus den Bereichen der Anwendungsentwicklung, sondern um die Beschaffung, den sicheren Zugriff, Betrieb und Verwaltung der mobilen Geräte in der IT Infrastruktur des Unternehmens.

Business Value – Wo ist mein ROI? Jede Investition in Mobile Services hängt u.a. von zwei Fragen ab: Welchen geschäftlichen Nutzen habe ich von Investitionen im Bereich Tooling, Anwendungen, Services und Delivery? SymposiaJournal

31


03/2011

Mobile Computing

Wann stellt sich ein ROI ein? Bei der Entwicklung eines Business Case sind nicht nur Investitionen im Bereich Infrastruktur/Tooling, Enduser Support Services und Mobile Application Development zu berücksichtigen. Ein Business Case muss auch dem atemberaubenden Wandel und Innovationen in der mobilen Welt entsprechen und ein ausgewogenes Verhältnis vom schnellen experimentieren (Innovationen) und etablierten Geschäftsprozessen und Planungsvoraussetzungen beinhalten. Dabei ist es wichtig neben den quantitativen Methoden (Ziele für Kosteneinsparungen/Effizienz) auch qualitative Methoden zu verwenden um den Business Impact der neuen, technischen Möglichkeiten zu bestimmen. Ein flexibler Ansatz ist nötig, z.b. eine „Day in the life“ Technik um das Bild von der vereinfachten Arbeitsweise eines Mitarbeiters zu vermitteln und Prozesse & Technologien in diesem Bild zu verschmelzen. Betrachten wir das Mobile Device Management im speziellen, sind im Business Case quantitativ die Reduzierung von OPEX zu bewerten. Bis zu 80% Einsparungen sind für Rollouts/Erstinstallation, Helpdesk, Deskside Services und der zeitnahen Bereitstellung von Applikationen möglich. Bei den anwednern durch notwendige Iteraktionen bei Updates oder Ausfall des Gerätes sind es noch mehr.

Bring your own device (BYOD) – Fluch oder Segen? Anfangs waren die Mobility Services in der Vergangenheit meist nur bei Führungskräften oder im Vertrieb zuhause, bringen immer mehr einfache Angestellte diverse Geräte vom Smartphone, Tablet oder Netbook mit ins Unternehmen und verlangen Zugriff auf die IT. BYOD verbindet mehrere Trends: Die Grenzen zwischen privater und beruflicher Nutzung verschwinden. Es wird gemailt, geskyped, in den sozialen Netzwerken Kontakte gepflegt, der nächste Flug gebucht oder das Navigationssystem im Auto für den nächsten Termin über Google Maps programmiert. (Roaming-) Flatrates der Telco Provider, Breitband Verbindungen, immer leistungsfähigere Geräte und Gadgets führen dazu, dass Mitarbeiter ohne Zusatzkosten und Qualitätseinbußen auf IT Ressourcen seines Unternehmens zugreifen können. Durch die Cloud entwickeln sich Software Services (SaaS) die früher nur im eigenen Unternehmen nutzbar waren. Dabei gibt es beim BYOD unterschiedliche Interpretationen: Vom Mitarbeiter der sein Gerät, ggf. auch seinen Vertrag und Verbindungen selbst bezahlt, bis zum Unternehmen welches seinen Angestellten ein Budget zum Kauf von Hardware zur Verfügung stellt. Es ist es schon erstaunlich und nur durch den aktuellen Hype zu erklären, wie viele Angestellte zur Zeit die strengen Nutzungsbedingungen und (Security-) Einstellungen ahrem privaten Smartphone akzeptieren. Ein breites Spektrum deckt Bereiche wie, nicht angekündigten „Remote Wipe“, Password Richtlini wie auf dem Desktop oder eine deaktivierte Kamera ab. Dazu gesellt sich noch lokale Security und VPN Software, welche einen erheblichen Einfluss auf die sowieso schon kurzen Akku-Laufzeiten der modernen Geräte hat. 32

SymposiaJournal


Mobile Computing

03/2011

Ein Unternehmen mit einer BOYD Strategie sollte sich darüber im Klaren sein, daß nicht alle Mitarbeiter in Zukunft selbst Geld ausgeben möchten aber gleichzeitig Einschränkungen auch für die private Nutzung akzeptieren. Übergreifende, bzw. neue „Standard“ Services lassen sich so nicht erfolgreich etablieren. Mittelfristig wird die BOYD Problematik durch neue innovative Lösungen entschärft werden. Hersteller wie VMWARE haben bereits Prototypen von „Dual-Persona“ Devices auf Android Basis vorgestellt. Daten, Anwendungen und Verbindungen können isoliert betrieben werden. Der lokale Anwender kann komfortabel zwischen der privaten & geschäftlichen Instanz wechseln.

Anforderungen an ein (Enterprise-) Mobile Device Management Eine moderne Lösung zum Management von mobilen Endbenutzer Geräten sollte mindestens folgende Anforderungen erfüllen: • Support aller neuen Plattformen (Android, iOS, Symbian, Windows 7 Phone) • Bestandsverwaltung (Inventory, Discovery, Schnittstelle zum Asset Mgmt) • Passwort Richtlinien • Remote Lock/Wipe • Management von Applikationen (z.b. Bereitstellung, Black/White Listing) • Konfigurations- Management (z.b. VPN, Kamera, Encryption) Der Markt will heute aber schon mehr als nur Remote Wipe & Inventory. Das neue Schlagwort heißt Enterprise Mobile Management (EMM). Dies beinhaltet auch erweiterte Funktionen wie Daten- (Roaming)Management oder Enterprise Application Stores. Viele Kunden wünschen sich Remote Access Lösungen für mobile Endgeräte in Verbindung Trusted Device Identification, Akku schonende SSL Gateways und Richtlinien für die berechtigte Nutzung bestimmter Ressourcen und Applikationen im Unternehmen. Die „Eierlegende Wollmilchsau“ gibt es in diesem Bereich nicht, noch nicht einmal bei den Pure Playern. Die traditionellen Anbieter für Client Lifecyle Management Software springen gerade erst auf den Zug auf und versprechen ihren Kunden in naher Zukunft erweiterte MDM Funktionen. Wer keinen Druck hat sollte noch ein wenig warten und die Entwicklung auf dem aktuell sehr dynamischen Markt beobachten. Wer nicht warten kann oder will, darf im Zweifel zu einer Kombination aus verschiedenen Lösungen greifen, sollte sich aber nicht unbedingt langfristig an einen Hersteller binden.

SymposiaJournal

33


Mobile Computing

03/2011

Unified Device Management – Vom Desktop PC zum Smartphone Gardner bestätigt in seinem PCCLM Magic Quadrant vom Januar 2011 folgenden Trend: • “Organizations are starting to treat smartphones (and now tablets) the same way they treat PCs” • Organizations[would prefer to use the same tools across PCs, tablets and smartphones, because it's increasingly the same people who support those device types” • “An increasing number of organizations are supporting mobile devices with the desktop group” Für die MDM Pure Player wird es zukünftig - trotz des explodierenden Marktes und guter Geschäftschancen - schwieriger sein gegen Wettbewerber zu bestehen, die ein einheitliches Management über alle Endbenutzer Geräte bieten. Aus Security Sicht haben die Beobachtungen von Gardner einen versteckten Treiber: Ihre Daten sind nicht weniger wert, wenn sie auf einem Smartphone liegen (im Vergleich zu einem Desktop). Sie sind aber einem größerem Risiko ausgesetzt! Viele Unternehmen haben einen Daten fokussierten Ansatz auf die Sicherheit. Ob nun confidential oder der Umgang mit personenbezogenen Informationen (SPI), jede Klassifizierung erfordert einen bestimmten und verpflichtenden Umgang mit den Daten. Daher ist es nur folgerichtig entsprechende Security Richtlinien über alle Endgeräte mit einheitlichen Tools, Methoden und Verantwortlichkeiten durchzusetzen zu wollen.

2011 ist das Jahr der mobilen IT Durch den enormen Zuwachs an Smartphones wird in diesem Jahr immer mehr Business mobil erledigt. Die IT muss eine Strategie entwickeln, den Angestellten und Ihre diversen mobilen Geräten den Zugriff zu Daten und Applikationen im Unternehmen zu ermöglichen. Mit oder ohne BYOD, aber ganz bestimmt über die klassischen E-Mail Grenzen hinweg. Mobile Device Management oder Enterprise Mobile Management sind dabei das Fundament für die zukünftige Bereitstellung und Nutzung von mobilen IT Services im Unternehmen.

Über Ralf Jan Schaefer Ralf Jan Schaefer ist IT Architekt der IBM Deutschland GmbH. In den Bereichen Systems und Service Management unterstützt er seit über 1 0 Jahren viele nationale und internationale IT Projekte in den Branchen Finance, Automotive & Transportation. Im Unternehmensbereich Strategic Outsourcing war er bis zu seinem Wechsel zu IBM Sales & Distribution im Februar 2011 Mitglied der Design Authority und verantwortlich für die Services im Bereich Systems Management Infrastruktur. Aktuell arbeitet er als Technical Sales im IBM Cloud Competence Team und unterstützt seine Kunden auf Ihrem Weg zu dynamischen Infrastrukturen und neuartigen IT Services. 34

SymposiaJournal



03/2011

Impressum

Impressum

Symposia 360° GbR Schützenstr. 11 21 266 Jesteburg Tel.: 041 83 / 94 89 40 Fax: 041 83 / 77 39 30 E-Mail: verlag@symposia360.com Internet: http://www.symposia360.com

Matt Wood, Ralf Jan Schaefer, Dr. Martin Reti, Dr. Michael Pauly, Björn Böttcher, René Büst

Herausgeber & Verlag

Autoren dieser Ausgabe

Anzeigenleitung Dipl.-Ing. Björn Böttcher E-Mail: bjoern@symposia360.com M.Sc., Dipl.-Informatiker (FH) René Büst E-Mail: rene@symposia360.com

Redaktion

Cover & Design Björn Böttcher & René Büst

Photos SecTXL '11 | Hamburg Symposia 360° GbR

Karikaturen Oliver Widder Internet: http://geekandpoke.typepad.com

Björn Böttcher, René Büst

Symposia Journal 04/2011 erscheint am 1 2.1 2.2011 Redaktionsschluss: 28.11 .2011 Anzeigenschluss: 05.1 2.2011

Copyright © 2011 Symposia 360° GbR 36

SymposiaJournal




Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.