Issuu on Google+

Informativ | Qualitativ | Unabhängig

APIs impact for Cloud Computing

Rückblick auf das CloudCamp Hamburg

Cloud Computing – Stein der Weisen 201 0? und vieles mehr...

Edition 01 /201 0 http://symposiajournal.de


Informativ | Qualitativ | Unabhängig Lieber Leser, das Jahr 201 0 neigt sich dem Ende und die Welt ist um ein Magazin reicher geworden. Das Symposia Journal hat das Licht der Welt erblickt. Damit ist das einzige zweisprachige, digitale Fachmagazin mit dem Fokus auf Cloud Computing, Mobile Computing, Web-Worklife und zukünftigen Technologien geboren! Die Inhalte entstehen dabei in enger Verbindung zu den weltweit führenden Communitys. Wir haben uns dazu entschieden, ein vollständig digitales Magazin zu publizieren, da der Trend der iPads, Kindles etc. nicht aufzuhalten ist. Und das ist auch gut so, denn mit dem Symposia Journal sind Sie von Anfang an dabei, wenn es darum geht, ein hochprofessionelles Stück IT-Journalismus immer und überall dabei zu haben! Neben den Grundlagen, professionellen Texten und Tutorials zu den oben genannten Bereichen enthält das Symposia Journal ebenfalls einen besonderen Bereich, den wir speziell den Studenten/innen widmen werden. Hier wird es die Möglichkeit geben, Facharbeiten u. ä. zu veröffentlichen. Werte Unternehmer, seien Sie an dieser Stelle dazu eingeladen, nach neuen, vielversprechenden Mitarbeitern Ausschau zu halten! Das Symposia Journal erscheint vierteljährlich in einer zweisprachigen Ausgabe. Das bedeutet, dass neben deutschen ebenfalls englische Texte im Magazin zu finden sind. Neben den vier Ausgaben im Jahr erscheinen zusätzlich Sonderausgaben über das Jahr verteilt. Ihnen fällt spontan ein Thema für eine Sonderausgabe ein?! Ihr Unternehmen ist so eine Sonderausgabe wert?! Ihnen fehlt ein umfassender Überblick zu einem speziellen Thema?! Wir sind schon jetzt gespannt auf Ihre Idee! Diese Ausgabe widmen wir durchweg dem Thema Cloud Computing, da das Jahr 201 0 ganz im Zeichen der Cloud stand. Dass Cloud Computing schon lange kein Hype mehr ist, sondern der Megatrend der Zukunft bzw. Realität, zeigt eindeutig das Marketing eines großen Softwareherstellers aus Redmond, der mit dem Slogan "Auf in die Cloud" auch den Massenmarkt von den Vorteilen überzeugen möchte. Solche Aktionen und die Ereignisse in diesem Jahr sollten damit auch den letzten Kritiker verstummen lassen. Viel Spaß beim Bilden wünschen Björn Böttcher & René Büst


Inhalt 6 6 8 10 12

13 16 19 21 24 29 32 34 36 38 39

4

Veranstaltungen CloudCamp Hamburg ­ Ein Rückblick CloudCamp Hamburg ­ Feedback CloudCamp Hamburg ­ Location Moderator No Cloud without automation (Key Note) Reasons to use a Private Cloud Launching a Cloud­Based Business Save big bucks with Cloud Computing Clouds: Wie prüfen? Wie zertifizieren? Cloud Computing & Datenschutz: Ein Überblick zur Rechtslage Cloud Computing from the trenches – experiences from running on EC2 Windows Azure project facts OCCI – developing your application for the Cloud CloudCamp ­ Tweet­Life CloudCamp Hamburg ­ Snapshots


Inhalt 42 42 44

51

51 56 58

60

Interview APIs impact for Cloud Computing Private Cloud Computing

Cloud Computing Cloud Computing – Stein der Weisen 201 0? Wir brauchen eine transparente Cloud! Cloud Computing und die rechtlichen Hintergrßnde

Editorial

5


Veranstaltungen

CloudCamp Hamburg Ein Rückblick

Am 1 7.09.201 0 stand Hamburg ganz im Zeichen der “Cloud”. Organisiert von Björn Böttcher und René Büst (beide von Symposia Concepts) versammelte sich die deutsche und internationale Cloud Computing Szene mit einem hochkarätigen Line-Up und Themen aus den Bereichen “Business / Benefit”, “Infrastructure / Services”, “Security / Data Privacy” sowie “Open Source / Cloud Science” in den Räumlichkeiten der Universität Hamburg. Moderiert von einem lustigen und fachlich sehr kompetenten Mark Masterson startete das CloudCamp Hamburg in den Abend. Chris Boos (CEO, arago AG) eröffnete mit seiner Key Note “No Cloud without automation” das Cloud Camp Hamburg, gefolgt von Christoph Streit (CTO, ScaleUp Technologies) mit dem ersten Lightning Talk zum Thema “Reasons to use a Private Cloud”, der zugleich den Bereich “Business/Benefit” einläutete. Anschließend gab sich Max-Michael Mayer (Managing Director, Propertybase GmbH) die Ehre und erläuterte auf Basis seines Unternehmens das Thema “Launching a Cloud-Based Business”. Mit Matt Rechenburg (CEO, openQRM Enterprise) und seinem Vortrag “Save big bucks with Cloud Computing” wurde der erste Themenbereich abgeschlossen. Sven Thomsen (CTO, Unabhängiges Landeszentrum für Datenschutz SchleswigHolstein) eröffnete mit seinem Thema “Clouds: How to audit, how to certify?” den nächsten Themenbereich “Security / Data Privacy”, nach dem eine Pause folgte, die von dem Auditorium und allen Referenten zur Stärkung und zum Smalltalk genutzt wurde. Mit seinem Vortrag “Cloud Computing & Datenschutz: Ein Überblick zur Rechtslage” begann Dr. Hans Markus Wulf (Partner, Kanzlei Praetoria) den zweiten Teil des CloudCamp Hamburg. Ihm folgte Jonathan Weiss (CEO, Peritor GmbH) mit dem Bereich “Infrastructure / Services” und

6


Veranstaltungen

seinem Thema “Cloud Computing from the trenches – experiences from running on EC2”, sowie anschließend Dr. Ingo Laue (Technology Consultant, Microsoft GmbH) mit dem Vortrag “Windows Azure project facts”. Charlton Barreto (Technology Strategist &Principal Architect, Intel) präsentierte im Anschluss den Bereich “Open Source / Cloud Science” mit seinem Vortrag “OCCI - developing your application for the Cloud”, gefolgt von der abschließenden “Revolverpräsentation” (88 Slides in 5 Minuten) von Sam Johnston (Technical Program Manager, Google) und seinem Thema “Open Cloud Initiative (OCI) launch update”

Die Referenten Dr. Michael Pauly von T-Systems, sowie Jurg van Vliet von 9apps aus den Niederlanden konnten krankheitsbedingt leider kurzfristig nicht teilnehmen. Auf Basis der Lessons Learned aus vergangenen CloudCamps haben Björn Böttcher und René Büst erfolgreich gegen die gefürchteten “Sales Pitches”, mit einem erstmalig bei einem CloudCamp vorhandenen “Code of Conduct”, entgegengewirkt. Die so genannten “Sales Pitches” haben den Charakter, anstatt über ein wesentliches Thema zu referieren, immer wieder das Produkt in den Fokus zu bringen und es anzupreisen. Referenten, die auf dem CloudCamp Hamburg ihren Vortag präsentierten, versicherten zuvor, sich an den “Code of Conduct” zu halten, der folgende Inhalte umfasste:

• NO sales pitch presentation! • Talk about the benefits of Cloud Computing. • Talk about use cases of Cloud Computing. • Talk about business cases of Cloud Computing. • Talk about Lessons Learned.

7


Veranstaltungen

CloudCamp Hamburg Feedback

Twitter...

@tomrules: On the way back home from #cchh. Great event - great orga! http://twitter.com/tomrules/status/24796285387 @jweiss: Heading home after a great day in Hamburg, topped by CloudCamp Hamburg. Great event hope to see you all at CloudCamp Berlin next month #cchh http://twitter.com/jweiss/status/247949551 80 @sven_thomsen: OK. Cloudcamp-Hamburg hat sich gelohnt. Ich habe das erste Mal seit 2 Jahren die Bookmark-Funktion meines Browsers wieder benutzt.... #cchh http://twitter.com/sven_thomsen/status/247831 78463 @ksan: So far #CloudCamp #Hamburg is worth it to spend a Friday evening at a conference #cchh http://twitter.com/ksan/status/24775377663 @mastermark: Big shout out to @ReneBuest & Bjoern & @CloudCampHH for a very professional, smooth, fun event last night. Kudos, gr8 job! #cloudcamp #cchh http://twitter.com/mastermark/status/248281 20506

Blogs ... ... Wie zu den guten alten Dot-Com-Zeiten gab es ein reichhaltiges Bßffet und fast mehr Sponsoren als Vortragende. Alles in allem ein gelungener Abend. ... (Uwe Voelker) ... Actually there was nothing wrong with Cloud Camp Hamburg as an event. It was perfectly organized with speakers talking about stuff they where well prepared to talk about, lot’s of smart people also in the audience, held at a nice location, completed with awesome catering and all that for free. ... (Philipp Strube, CEO cloudControl) ... It is my opinion that CloudCamps here in Germany (and other events) need to be used to educate people first. And I think that the CloudCamp Hamburg did a good job about educating people about the different aspects of Cloud Computing. (Christoph Streit, CTO ScaleUp

Technologies)

8


Veranstaltungen

CloudCamp Hamburg Location

Das CloudCamp Hamburg fand im Westflügel, genauer im Raum 221 , der Universität Hamburg statt. Der Raum verfügt über einen sehr guten Klang, sowie eine flexible Bestuhlung für bis zu 1 50 Teilnehmer und ist damit für eine Veranstaltung wie das CloudCamp die ideale Location.

Auf diesem Weg möchten wir uns noch einmal für die sehr gute Zusammenarbeit mit dem Marketing Team der Universität Hamburg, insbesondere bei Frau Hilke Schürmann, bedanken.

Weitere Bilder des CloudCamp Hamburg 201 0:

http://www.flickr.com/photos/symposiamedia/sets/721 5762526092091 0

10


Veranstaltungen

Mark Masterson Moderator

About Mark Masterson So-called “enterprise architect” and selfappointed resident troublemaker, Mark is the Innovation Lead for CSC’s Financial Services vertical in EMEA. He splits his time between working with clients, working for the CTO’s office on product and services strategy and contributing to the Leading Edge Forum’s Executive Programme. He has worked as a parasite of the financial services industry in Frankfurt and London for the last 20 years. He has spent the last several years researching, and working with clients of all sizes on cloud computing, SaaS and Enterprise 2.0. He is co-author of the recently released LEF report, Doing Business In The Cloud (http://www.csc.com/features/stories/31 506the_future_of_it_doing_business_in_the_cloud) , a founding member of the 2.0 Adoption Council (http://www.20adoptioncouncil.com), on the advisory board of the Enterprise 2.0 Summit (http://www.enterprise2.0-summit.de), instigator of CloudCamp Frankfurt (http://www.cloudcamp-frankfurt.de), and is a frequent public speaker and published author on the topics of cloud computing and Enterprise 2.0. He also writes a blog (http://jroller.com/MasterMark), popular in certain circles, where he tries to broker peace between geek and enterprisey worlds. Other research interests and development experience are focused on BPM and distributed systems in enterprisey organisations, as well as systems management and performance engineering

12

In a previous life, Mark was a UNIX sys admin, and has the scars to prove it.

He also jumped out of helicopters, and drove trucks full of missiles around in the dark whilst going entirely too fast in the first Gulf War. Known for a lack of respect for the status quo, Mark is one of those people who spent their formative years being told that they have a “problem with authority figures”, and he loathes bios.


Veranstaltungen

Chris Boos

No Cloud without automation (Key Note)

About Chris Boos

Board member of arago AG. One of three founding members of the Frankfurt, Germany-based arago Institut für komplexes Daten-management AG. Author of many academic and business publications, focusing on automation in IT operations as well as information modeling, IT security and sourcing solutions. Recent winner of the John F. Kennedy National Leadership Award awarded by the Economic Forum Deutschland for exceptional achievements in the IT sector. Studied computer sciences at ETH Zürich and the Technical University Darmstadt. R&D efforts are focused on distributed computing (graph theory) and rule engines (deductive logic). Both approaches are consistent with the notion of the network being a global area for computation and storage. Similarly they deal with the problem of ever growing information flows and with the desire to find intuitive ways of allowing businesses and their users to be in control of information and knowledge.

Summary of the Lightning Talk

The Problem With Legacy Computing

With his key note “No Cloud without automation” Chris opened the CloudCamp Hamburg 201 0 and answered the question why Cloud Computing will be an epic fail without automation.

• The Number of IT Systems and Thus the Dependency on IT Systems Increases Constantly. • Operating Cost of IT Has Grown Exponentially. • (Today 53% of Cost is Infrastructure). • Unfortunately, IT Budgets Are Capped! • The IT We Have Is Vastly Oversized! • And Most of Our IT Guys Even Like this “Buffer Capacity”.

13


Veranstaltungen

Why Is Cloud Computing So Appealing ? 1 . Distribution Eliminates Overcapacity 2. Real-time Scalability Supports Business

If Everything Went into the Cloud, budget constraints Would Be Met, Innovation Would Be Boosted and IT Would Become Green!

What Are the Current Cloud Toipcs? Outside Germany

SaaS Is Accepted. IaaS and PaaS Are In Focus For the Transition Phase and Workload Diversity Is the Big Question.

In Germany

1 . SaaS In Focus, Driven by Vendors. 2. Delays Due to Security Concerns. 3. Cloud Still For Startups Only?

The Surprises We Encounter When Implementing Clouds 1 . Not Everything Can Go into the Cloud 2. Operational Staff Expenses Increase 3. Most Things Are Not Cloudable! • Standardization Required! • Reimplementation Required!

What Is Cloudable

1 . R&D 2. Number Crunching 3. None Differentiating Applications

More Than 70% ofAll Business Critical IT Systems and Applications are not cloudable yet!

Operational Expense Grows

1 . Parallelization Increases Complexity 2. Dynamic Scaling Increases Complexity 3. Dynamic Distribution Increases Complexity

Clouds Still Overcompensate Savings through Increase in Operational Cost.

So How Can We Fix That and Make Full Use of the Cloud? • Get Virtualized In a Private Cloud • Not Moving Is NOT an Option.

14


Veranstaltungen

And Mainly, Learn How to Run Your Clouded IT Automatically Today We Believe That Automation Means Creating “a Script” In One Way or the Other. To Perform a Task All You Do Is Recombine What You Already Know an Autopilot will evaluate a situation stepby-step recombining available knowledge to fulfill the task at hand.

Unlocking the Cloud With Autopilot for IT Operation “The Autopilot unlocks the Cloud because it allows for none standard images as well as constant change and dynamic reallocation”

“Lazy, unproductive “dead wood” people who can now hide behind complex IT language and let their fellow team members do all the work!”

The whole Presentation http://www.slideshare.net/symposiamedia/chris-boos1 00920022052phpapp01

15


Veranstaltungen

Christoph Streit

Reasons to use a Private Cloud About Christoph Streit Christoph Streit is founder and CTO of ScaleUp Technologies. He is responsible for technology and product development. Christoph supports ScaleUp with his deep technological knowledge and assures operation of the ScaleUp grid infrastructure. Besides his position at ScaleUp, Christoph is founder of German based Internet Service Provider internet4YOU GmbH & Co. KG.

But where are the needs for building an internal Cloud infrastructure? In Christophs opinion the main reasons focus on separating the data: • Privacy considerations • Security requirements • Or you need total control of location and structure of data

Christoph has a degree as business economist.

Summary of the Lightning Talk Starting from the “pole position” with his Lightning Talk, Christoph differentiated the Terms Public Cloud, Private Cloud and Hybrid Cloud at first following with the question “Why consider a Private Cloud?”

At first it is easy to put a bunch of cloud services together like: • An email account • Online Office Environment (Google Docs) • Group Collaboration • CRM System (Salesforce)

After talking discussing the Private Cloud DNA Christoph switched on the layer above and pointed out the main benefits for using Cloud Computing: • Billing is usage-based • Scalability / rapid expansion of infrastructure • Virtualization of infrastructure • Infrastructure consolidation • Physical and application level security • Standardization of SaaS applications

16


Veranstaltungen

Regarding a Public Cloud all characteristics mentioned above are true. While costs may be reduced when you outsource to a Public Cloud, all of these characteristics are also true for a Private Cloud!

So what are the main differences between Private and Public? Using a Public Cloud you have elasticity built-in. Your Cloud Service Provider has all the resources and you can scale on-demand Using a Private Cloud you scale through physical provisioning. This is done by either your Cloud Service Provider or your internal IT-Department adding more hardware ressources. Or you can expand further into a Public Cloud

Regarding the topic of Christophs Lightning Talk of course he amplied on the benefits of a Private Cloud. In a Public Cloud you cannot put your finger on a cluster, a single server or a disk where your data is actually located. For a lot of applications, this might not be a problem. But if you handle personal information and data, for which the handling is regulated by your country (BDSG) or in your industry (banking, insurance)... Your are at risk (best). You violate security or privacy laws (worst). In a Private Cloud you do know where your data is. Imagine a disk from the Public Cloud being removed for maintenance. It may still contain some parts of your data. In a private cloud environment that disk belongs to you. In a Private Cloud you have a better control of the connectivity. You may have a direct WAN connection into your own cloud

Christophs conclusion Private Cloud are NOT better than Public Clouds and vice versa. There are reasons, where a Private Cloud has its benefits and sometimes may the better choice. Especially data privacy and control concerns. But the best is: you can mix and match Private and Public Cloud solutions to form your own Hybrid Cloud solution.

The whole Presentation http://www.slideshare.net/symposiamedia/christoph-streit1 009200221 02phpapp01

18


Veranstaltungen

Max-Michael Mayer

Launching a Cloud-Based Business About Max-Michael Mayer

Max-Michael Mayer is Managing Director and Co-Founder of Propertybase, the leading real-estate CRM solution built entirely on the Force.com “software as a service” platform. Propertybase is the first company in Europe which has secured venture capital for a business model on this platform. Prior to Propertybase, Max-Michael has held leadership positions in various SaaS companies which include Vice President Sales Eastern Europe and North Africa of Aconex, the largest provider of online collaboration for construction and engineering projects, and Director Business Development of conject, the European leader of On Demand ILM solutions for the real estate industry, where he was responsible for developing the market in the Middle East and Gulf region. He also was Managing Director of APSIS AZ, Germanys leading project cost controlling solution for Architects and Engineers. Previously, he was co-founder and managing partner of a business consulting firm, where he was responsible for real estate and technology consulting. Among his clients were consulting companies like Accenture and various global Financial and Investment companies. A trained banker, Max-Michael Mayer studied economics and worked in the corporate finance division of the State Bank of Baden-Württemberg.

Max-Michael Mayer is also co-Founder, President and Member of the Board of leanCRM AG, an independent CRM consulting company with it’s headquarter in St. Gallen, Switzerland.

Summary of the Lightning Talk Based on his own business Max gave a nice roadmap on how you shall start your own business (in the cloud).

The Idea!

• Is there a need for your product? • What is the benefit of using your app? • How is your app different? • Is the market big enough?

The Team

• Get the best! …you know.

Get started!

• Spend your money wisely… • You don’t have a lot when you start.

19


Veranstaltungen

Office

• Short term rental agreements • Be humble –no state of the art office • Share the space with other and lower costs

Equipment

• Use cloud apps!

Money

• Venture Capital or not? A detailed financial plan is a must anyway!

Make Sales & Marketing Transparent • Start with SEO & SEM asap!

Be flexible!

• You will change your plans more often as you think.

The whole Presentation http://www.slideshare.net/symposiamedia/max-michaelmayer1 009200221 23phpapp01

20


Veranstaltungen

Matthias Rechenburg

Save big bucks with Cloud Computing About Matthias Rechenburg Matthias Rechenburg is project manager of the openQRM project and CEO of openQRM Enterprise, the main sponsor and support company behind the open-source Data-Center Management and Cloud Computing platform. Since many years he is involved in all kinds of DataCenter related open-source projects like high-performance and high-availability clustering, consolidation, network and enterprise storage management. Currently, his most serious interests are the different virtualization technologies, their features and capabilities and integration by a unified virtualization layer. He lives in Bonn, Germany, enjoys to code in his home-lab but also likes traveling, meeting other Linux-people and joining all kinds of Linux-related events and congresses.

Summary of the Lightning Talk The main part of Matts 5 minute presentation discussed how to save money with Cloud Computing. In this case he identified three main factors which focused Datacenters today. • Datacenter providing Services. • Datacenter have different Requirements. • Running a Datacenter Costs money. Furthermore he shows typical pitfalls you faced with while running a Datacenter.

Datacenter require physical space

• Datacenter consists of physical server • Physical server consuming power • Physical server consuming climate

All those requirements scaling up linear by the number of physical Server.

Service Requirements

• Installation of new Server • Configuration of Services • Network Administration • High-Availability • Monitoring • Backup/Restore • Updates

21


Veranstaltungen

All those requirements normally require lot of man (sysadmin) power and are scaling up exponential by the number of managed systems. Systemadministrators are the bottleneck in large Datacenters By the way, this was the most discussed sentence at this evening. And how the topic of his presentation promised, Matt showed up, how we could save money by using Cloud Computing. Automate your complete Infrastructure! This saves your sysadmin time. Make the sysadmins more efficient! Provides more sysadmin time. Use CloudComputing when it makes sense! Production with workload-peaks, QA, Development, Does not consume sysadmin time. Use ”intelligent” HA to save hot-standby's. ”N to 1” fail-over Use power management to power off unused resources in your DC automatically! Directly saves power costs.

The whole Presentation http://www.slideshare.net/symposiamedia/matt-rechenburg1 00920022111 phpapp01

22


Veranstaltungen

Sven Thomsen

Clouds: Wie prüfen? Wie zertifizieren? Über Sven Thomsen

Warum prüfen?

Sven Thomsen is Head Of Technical Department of the Unabhängiges Landeszentrum für Datenschutz (ULD) where he is consulting and auditing of processing of sensitive or privacy-related data in german federal state “Schleswig-Holstein”. He is also project lead for several audits in complex, heterogenuos IT-systems with focus on WideArea-Networks, critical infrastructure on federal level. Furthermore Sven Thomsen is technical lead for privacy-related issues in a EU-funded project on security and scalability of cloud computing. He held a licensed auditor (01 83-2008) for ISO-27001 -audits based on IT-Grundschutz (german security standard published by BSI.

Konzept der Verantwortlichkeit der Daten verarbeitenden Stelle.

Zusammenfassung des Lightning Talk Nach einer kurzen persönlichen Vorstellung ging Sven Thomsen in seinem Vortrag auf die folgenden Themen ein: Warum muss ich einen Dienst in der Cloud "vor" der Nutzung prüfen? Wie prüft man einen Dienst in einer Cloud? Wie zertifiziert man aktuell einen CloudDienst? Wie sollte man einen Cloud-Dienst zertifizieren?

24

Verantwortlichkeit kann nicht per Vertrag auf Anbieter eines cloud-basierten Dienstes übertragen werden. Angebote vorab auf Sicherheitsmaßnahmen prüfen.

angemessene

"Vertrauen" gibt es im Bereich Datenschutz und Datensicherheit nicht, an die Stelle von Vertrauen treten Nachweise einer ordnungsgemäßen Datenverarbeitung schon.


Veranstaltungen

Wie prüft man einen Cloud-Dienst? ORIENTIERT AN SCHICHTEN Auf der Infrastrukturebene (Räume, Gebäude, Klima, Brandschutz etc.) mit der klassischen Vorgehensweise (vgl. Trusted Site, Infrastructure, Uptime Data Center Tiers). NETZWERKEBENE Router, Switches, Paketfilter, Proxies etc. Nutzung von etablierten Prüfmethoden zur Perimetersicherheit und Trennung interner Datenströme BASIS-SYSTEME Best-Practices und Security-Guides der Herstelle und, CommonCriteria-evaluierte Konfigurationen. Prüfung der Virtualisierungsschicht ist kompliziert, da die Hypervisor-Sicherheit relativ neu ist. VMWare und Xen sind momentan Vorreiter. Für die AppEngine , Azure etc. existieren derzeit keine etablierten Vorgehensweisen. SICHERHEITSMANAGEMENT Nutzung etablierter Standards wie ISO27001 , BSI-Standards 1 00-1 bis 1 00-4. Wir müssen erprobte Prüfvorgehen auf cloud-basierte Dienste anwenden, brauchen aber spezielle Prüfkriterien für die Virtualisierungsschicht.

Wiederverwendung von Prüfergebnissen? PRÜFUNGEN SIND AUFWÄNDIG Erste Erfahrungen des ULD: Prüfung einer kleinen, private Cloud (IaaS) ~ 1 0 PT

Wie kann man die Investition in eine Überprüfung mehrfach nutzen? Als Aufsichtsbehörde? unter Aufsichtsbehörden? Als Anbieter eines cloud-basierten Dienstes? Als potentieller Kunde?

25


Veranstaltungen

Bisheriger Ansatz: Zertifizierungen ISO27001 , BSI GRUNDSCHUTZ, TSI, EUROPRISE, ULD-SIEGEL,… Hierbei handelt es sich um öffentliche Kurzgutachten, sowie detaillierte Beschreibungen des Target Of Evaluation (ToE) mit regelmäßigen Rezertifizierung und Prüfungen während der Laufzeit des Audits. Das Qualitätsmanagement erfolgt über vergebene Zertifikate und interne Fortbildung der Prüfer. Dennoch ist die Prüfung der Prüfung weiterhin aufwändig, da Kenntnisse über die Prüfstandards erforderlich sind und das TOE ebenfalls überprüft werden muss.

Idee: „Elektronische Prüfsiegel“ • Maschinenlesbare Prüfkataloge (Was ist zu prüfen?) • Maschinenlesbare Prüfberichte (Was wurde geprüft?) • Maschinenlesbare Bewertungen (Mit welchem Ergebnis?) • Maschinenlesbare Nachweise (Womit nachgewiesen?) • Maschinenlesbare Zertifikate (Wie lange gültig?, ToE?)

Ziele Die Ziele müssen darin bestehen, durchgeführte Prüfungen und Zertifizierungen elektronisch ausverwertbar zu machen und Nachweise automatisiert zu führen. Weiterhin muss das Sicherheitsniveau cloud-basierter Dienste nachvollziehbar gestalten werden.

Die gesamte Präsentation http://www.slideshare.net/symposiamedia/sven-thomsen1 009200221 25phpapp01

26


Geek & Poke

27


Geek & Poke

28


Veranstaltungen

Dr. Hans Markus Wulf

Cloud Computing & Datenschutz: Ein Überblick zur Rechtslage Über Dr. Hans Markus Wulf Hans M. Wulf studierte Rechtswissenschaften an der Universität Hamburg. Vor dem Studium lebte er ein Jahr in den USA und erwarb dort die Hochschulreife. Nach Zulassung zur Anwaltschaft im Jahre 2000 promovierte Dr. Wulf an der Universität Hamburg zum Thema „UN-Kaufrecht und eCommerce“, gründete im Jahre 2001 die Kanzlei Wulf & Laabs, welche ab 2004 als Kanzlei Dr. Wulf fortgeführt wurde. Er war im September 2007 einer der ersten deutschen Fachanwälte für IT-Recht und fusionierte im Februar 2009 mit den IT-Anwälten Gronau und Laupichler zu Praetoria Rechtsanwälte. Hans M. Wulf ist verheiratet und hat 3 Kinder. Er betreibt zur Information der Mandanten seit dem Jahr 2003 das Rechtsportal www.IT-rechtsinfo.de. Zu den Arbeitsschwerpunkten von Hans M. Wulf gehört die Beratung von Unternehmen in allen Fragen des IT-Wirtschaftsrechts. Er berät im IT-Recht (insbesondere zu Softwareverträgen), Datenschutzrecht und hält Vorträge zum Thema IT-Compliance. Innerhalb der Kanzlei ist Dr. Wulf zudem Ansprechpartner zu den Rechtsgebieten Gesellschaftsrecht und Arbeitsrecht. Er ist außergerichtlich und gerichtlich tätig.

Zusammenfassung des Lightning Talk Dr. Hans Markus Wulf schilderte umfassend die rechtlichen Hintergründe in Bezug auf Cloud Computing und kam zu einem harten Ergebnis: “Cloud Computing ist nach der aktuellen Rechtslage in Deutschland und Europa unzulässig.” Während seines Vortrags ging er hierzu auf die folgenden Fragestellungen ein:

Welche Rechtsvorschriften sind anwendbar? Welche Grundpflichten treffen den Unternehmer? Wann ist der Datentransfer innerhalb der EU zulässig? Wann ist der Datentransfer außerhalb der EU zulässig? Welche Anforderungen enthält § 11 BDSG? Welche weiteren Inhalte muss ein § 11-Vertrag aufweisen?

29


Veranstaltungen

Welche Rechtsvorschriften sind anwendbar? EU-DATENSCHUTZRICHTLINIE 95/46/EG Richtlinie zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten und zum freien Datenverkehr. Die Mitgliedstaaten haben die Anweisung zur Umsetzung ins nationale Recht. Daher sind unterschiedliche Auslegung in den Mitgliedsstaaten möglich. BUNDESDATENSCHUTZGESETZ (BDSG) Umsetzung von EU-Richtlinie 95/46/EG, aber nur anwendbar auf personenbezogene Daten.

Welche Grundpflichten treffen jeden Empfänger? I. TECHNISCHE UND ORGANISAT. SICHERHEITSMAßNAHMEN § 9 BDSG Zutrittskontrolle, Zugangskontrolle, Zugriffskontrolle, Weitergabekontrolle, Eingabekontrolle, Auftragskontrolle, Verfügbarkeitskontrolle und Trennungskontrolle II. DATENVERMEIDUNG, DATENSPARSAMKEIT, ANONYMISIERUNG § 3 BDSG III. ZULÄSSIGKEIT DER DATENVERARBEITUNG §§ 11 , 28 FF. BDSG, Z.B. Für die Verarbeitung ist ein Vertragsverhältnis mit dem Betroffenen erforderlich, bzw. es besteht ein berechtigtes Interesse an der Verarbeitung. Ist obsolet, wenn die Daten ohnehin bereits öffentlich zugänglich sind.

Wann ist der Datentransfer innerh. der EU zulässig? I. KEINE ERWEITERTEN ANFORDERUNGEN ZUM DATENTRANSFER § 4B I BDSG II. ERLAUBNISNORM FÜR ÜBERMITTLUNG ERFORDERLICH • § 28 BDSG nicht anwendbar, da Auslagerung nicht erforderlich • § 11 BDSG Auftragsdatenverarbeitung III. ZWISCHENERGEBNIS • Datentransfer an Dienstleister innerhalb von EU nur zulässig, wenn • Voraussetzungen des § 11 BDSG erfüllt sind

30


Veranstaltungen

Wann ist der Datentransfer außerh. der EU zulässig? I. TRANSFER AN SICH ZULÄSSIG Der Transfer an Empfänger außerhalb der EU ist nur erlaubt, wenn in dem betreffendem Land ein angemessenes Datenschutzniveau herrscht, § 4b II BDSG; festgestellt von EU-Kommission für Guernsey, Isle of Man, Argentinien, Kanada, Schweiz. • Transfer in die USA: Safe Habour Abkommen • Transfer innerhalb von Konzern: Binding Corporate Rules (Zulassung Behörde) • Transfer in übrigen Fällen: EU-Standardvertragsklausel II. ZUSÄTZLICH: ERLAUBNISNORM FÜR ÜBERMITTLUNG ERFORDERLICH • § 11 BDSG analog?

Welche Anforderungen enthält § 11 BDSG? I. SORGFÄLTIGE AUSWAHL DES DIENSTLEISTERS, INSBES. ÜBERPRÜFUNG DER TECHNISCHEN UND ORGANISATORISCHEN MAßNAHMEN § 9 BDSG (S.O.) II. SCHRIFTLICHER VERTRAG MIT MINDESTENS FOLGENDEN INHALTEN • Gegenstand/Dauer des Auftrags • Umfang/Art/Zweck der Datenverarbeitung Einzelmaßnahmen nach § 9 BDSG • Berichtigung/Löschung/Sperrung, • Sicherstellung von Kontrolle nach §§ 4f, 38 BDSG, • Subunternehmer, Kontrollrechte des Kunden (Duldung/Mitwirkung des Anbieters) • Mitteilungspflichten, Umfang Weisungsbefugnisse • Rückgabe von Datenträgern und Datenlöschung nach Vertragsende III. DOKUMENTIERTE, REGELMÄßIGE ÜBERPRÜFUNG DURCH KUNDEN AUF • Einhaltung obiger Maßnahmen (zumindest durch Sachverständigen mit Prüfbericht)

Welche weiteren Inhalte muss § 11 -Vertrag aufweisen? Die Unverzügliche Meldepflicht gegenüber Aufsichtsbehörde und Betroffenen bei unrechtmäßiger Übermittlung (§ 42a BDSG). Optionsangebote als Ausgleich für das eingeschränkte Weisungsrecht (z.B. Auswahl bestimmter Ressourcen, Orte/Länder, Sicherheitsniveaus sowie sonstiger Anbieterund Nutzungsmerkmale). Schadensersatzregelung gemäß § 7 BDSG. Rechtsfolgen der Insolvenz oder des Verkaufs des Cloud-Anbieters. Umsetzung von Rechten der Betroffenen gemäß §§ 33 ff. BDSG. Bestehen von dokumentiertem Datenschutzmanagement

Die gesamte Präsentation http://www.slideshare.net/symposiamedia/201 0091 7vortragcloudcomputing1 00920024655phpapp01

31


Veranstaltungen

Jonathan Weiss

Cloud Computing from the trenches – experiences from running on EC2 About Jonathan Weiss Jonathan Weiss is the CEO of Peritor GmbH from Berlin, Germany. Apart from working on Scalarium, an EC2 management platform that automates provisioning and deployment, he contributes to Ruby on Rails and several Ruby tools. He is the creator of the Open Source deployment tool Webistrano.

Summary of the Lightning Talk After a short description about Amazon EC2 Jonathan talks about the project he implemented using EC2.

Browser game hosted on EC2

• 2.7 million Monthly Active Users (MAU) • ~ 1 00 servers • ~ 90.000 requests per minute on average Regarding this project he showed up the flexibility and scalability capabilities of Cloud Computing and his lessons learned from the project named above.

Plan for failure

Amazon is not immune to network problems. But at least you have the means to react.

Automate, Automate, Automate

Benefits are greatest, when your infrastructure is completely automated. Think about configuration and deployment too!

32

Eventual Consistency

Things are not always immediate. Sometimes it takes a while for resources to be available (again).

Use Reserved Instances!

The whole Presentation http://www.slideshare.net/symposiamedia/cl oudcomputingfromthetrenchesjonathanweis s-1 00920023852phpapp02


Veranstaltungen

Dr. Ingo Laue

Windows Azure project facts Über Dr. Ingo Laue Dr. Ingo Laue, age 44 studied physics at TU Braunschweig. Afterwards he worked in the areas of consulting, pre-sales and marketing for companies like EDS and Oracle in Germany. Thereby he focused on middleware solutions and service oriented applications. Since september 2008 he is responsible for universities (supporting teaching areas) in the division of academic relations at Microsoft Deutschland GmbH. Dr. Ingo Laue holds a PhD in physics of TU Braunschweig.

Zusammenfassung des Lightning Talk Dr. Ingo Laue startete seinen Vortrag mit einer kurzen Einführung zu Windows Azure, gefolgt von grundsätzlichen Fragen, die man sich bei der Nutzung von Cloud Computing stellen muss. Was genau will ich mit Cloud Computing erreichen? Wie messe ich die Erreichung meiner Ziele? Welche Anwendungen, Daten möchte ich in die Cloud auslagern? Was wären gute Pilotanwendungen? Wie erfolgt der Migrationspfad? Architekturmodell mit Cloud Apps / „On Premise“-Apps

34

Er zeigte des Weiteren Ideale Szenarien auf, für die Cloud Computing eingesetzt werden sollte.

Temporärer Ressourcenbedarf

• Temporärer Bedarf (z.B. Batch Jobs) • Verschwendung vorgehaltener Kapazitäten • Zeitintensiver Auf- und Abbau von Kapazitäten

Schnelles Wachstum

• Schnelle Skalierung von Diensten erforderlich • Herausforderung bei schnellem Wachstum • Komplexe, zeitintensive Installationen

(Un)regelmäßige Lastspitzen

• (Un)erwartete/(un)geplante Lastspitzen • Auswirkungen auf Performanz zu Spitzenzeiten • Vorhaltung von Kapazitäten für Spitzen unmöglich

Zugriff immer und überall

• Dienste mit regional bzw. weltweit verteilter Last • Durchgehende, weltweite Verfügbarkeit (24x7) • Globales Angebot auf einer Plattform


Veranstaltungen

Im Anschluß erhielten die Teilnehmer einen Überblick zu aktuellen Microsoft Azure Projekte. Aktuell handelt es sich um 70 Referenzkunden die primär Windows Azure einsetzen, insbesondere SQL Azure. Bei einigen größeren Unternehmen kommt zudem Azure AppFabric zum Einsatz.

3M

• 3M Visual Attention Service (VAS) • Rechenintensive Algorithmen • Unregelmäßige Peak-Times • Verfügbarkeit für Kunden im Design-Prozess in der Cloud

Siemens IT-Solutions and Services

• Software Management und Installation • Lösung: Software-Distribution-System über Windows-Azure • TCO auf ein Zehntel reduziert.

T-Systems

• Lösung für Smart-Metering für Neubauten (Stromboxx) • Ermöglicht Kunden auslesen der Verbrauchsdaten in Real Time • Web-Anwendung in Windows Azure • Nutzt außerdem SQL Azure und AppFabric Service Bus.

KIA Motors

• Zwei Wochen an Azure-Anwendung für Marketing-Kampagne gearbeitet • Internet-Anwendung beinhaltet BLOBs (Videos) • Schnelle Skalierung nach Oben nach Start der Kampagne • Ca. 1 00.000 US-$ CapEx gespart.

Associated Press

• Eine der größten Nachrichtenagenturen • Neue Umsatzmöglichkeiten durch Einbettung von Media Content in 3rd Party Offerings • Kapazitätsplanung ein großes Problem • Lösung: News werden über Windows Azure als Hosted App zur Verfügung gestellt.

Die gesamte Präsentation http://www.slideshare.net/symposiamedia/azure1 709201 0-1 00920024749phpapp02

35


Veranstaltungen

Charlton Barreto

OCCI – developing your application for the Cloud About Charlton Barreto Entrepreneur, technology strategist, evangelist and expert in Cloud Computing, Web, Rich Internet Applications, SOA and BPM, including standards. Key contributor to the strategy, design and management of products using these technologies. Managed cross functional requirements for development teams and partner relationships in developing and delivering specifications and technologies.

Summary of the Lightning Talk Charlton gave a introduction of the “Open Cloud Computing Interface (OCCI)” which is now a Protocol and shall become an API soon. It is designed to be modular and extensible. OCCI has a also vivid communtiy with chairs from commercial providers. It consists of four modules. Core (REST, CRUD + Categories, Links,Registries), OCCI Infrastructure (Kinds, Actions, Attributes for IaaS), HTTP Header (A HTTP rendering) and RDF/RDFa (A RDFa rendering), which is in progress. Summarized, the OCCI provides features to identify, link and operate on „dumb“ RESTful Resources.

Decisions

The OCCI based on a REST/HTTP because it works pretty well, especially with firewalls. It’s easy to use in all programming languages and at least HTTP is the defacto standard of the Internet. They did not chose XML, JSON, OVF etc. to prevent a lock-in and gives the freedom for PaaS and SaaS. Also, the HTTP Header is very easy and good for interop! The attributes (key-value) are simple to use for customization of existing templates

Outlook OCCI is available for implementation (and is implemented). The focus of work is now on refinements, Extensions (Billing etc), RDFa, and an API). It can be used for not only IaaS but also PaaS/SaaS.

36


Veranstaltungen

Roadmap OCCI • RDFa/XHTML5 rendering EXTENSIONS • Collections • Monitoring • (Snappshotting, Advanced Reservation) IMPLEMENTATIONS • Demonstrate 2 interoperable implementations • 5 implementations presently COLLABORATION WITH OTHER GROUPS • DMTF • DRMAAv2, WS-Agreement, ...

The whole Presentation http://www.slideshare.net/symposiamedia/charlton-barreto1 00920022059phpapp01

37


Weitere Bilder des CloudCamp Hamburg 201 0:

http://www.flickr.com/photos/symposiamedia/sets/721 5762526092091 0


Interview

APIs impact for Cloud Computing An interview with Guillaume Balas

Guillaume Balas is Chief Marketing Officer at 3scale. In this interview he talks about APIs and their impact for Cloud Computing. Symposia Journal : What’s the special of a cloud api comparing a “normal” api?

Guillaume: APIs come in a variety of flavors:

from language APIs which allow programmers to use high level functions and modules in most programming languages, to Web APIs which can be called remotely across the public Internet. From a cloud perspective the focus is often on (1 ) infrastructure API - which give direct access to raw hardware and network resources, (2) platform APIs - which provide access to application specific data objects and functions and (3) Web APIs which provide access not to local but remote resources such as data, content or services.

Symposia Journal : What’s your opinion

regarding a transparent cloud concerning a cloud api?

Guillaume: Two aspects of transparency are

important for cloud platform. The first is the ability to "reach through" layers of abstraction to lower level resources - often higher-level resources abstractions make life easier but don't always fill every needs. In 3scale's infrastructure we often find ourselves reaching through layers to get the maximum performance out of the resources we use having this access blocked would be a big negative for a platform.

42

The second area of transparency is potentially in pricing and payments - API accessible resources of all types (from infrastructure to data) provide the opportunity for providers to provide metered access to resources - and match their own costs with resale prices to their users. In doing this it's important that providers match the metrics which contribute to their own costs to their pricing plans. Obfuscating this relationship leads to inefficiencies and unhappiness in the long run!

Symposia Journal : Most companies are afraid

of Cloud Computing due to a vendor lockin. Could a open proprietary cloud api reassure that?

Guillaume: Given how much lock-in there has

traditionally been with Enterprise software to date (and the difficulty of managing large changes in self hosted data centers) this concern always seems a little overblown for cloud platforms. However it's certainly a help to have standard cloud management APIs emerging - this reduces friction and costs for everybody by making it easier to build tools and services around compliant clouds.

Symposia Journal : What kind of influence will

a cloud api management utility have for the acceptance of Cloud Computing?

Guillaume: Service such as Rightscale already have a great impact on driving adoption - they provide peace of mind of an additional layer on top of multiple providers.


Interview

Solutions like Abiquo also make it possible to migrate instances between VMs - the more flexible these tools become the better. We often switch resources for customers transparently between customers on Amazon EC2 (between zones) - if you had explained this to someone 5 years ago they would have thought you has lost your mind.

Symposia Journal : Do you think a standard is important in Cloud Computing?

Guillaume: 3scale's business is in helping

companies open up their APIs for partners and other users to access - this often provides massive value and helps build new ecosystems. In many of the areas we work in we see similarities emerging between APIs (there are only so many ways to structure a blogging API) and we're convinced that there will be convergence in the long run. Cloud infrastructure APIs may be amongst the first since so many people rely on them but it will happen across the whole stack. What we're less convinced about is the creation of de-jure standards up front - often this involves a lot of technical effort which gets bypassed by the real world and some coevolution is valuable to have.

Symposia Journal : What do you think about initiatives like the Open Cloud Initiative or the OCCI (Open Cloud Computing Interface) from the OGF?

happening is also a good thing - and in the end will feed back into these efforts.

Symposia Journal : What is the most important thing for a cloud api management utility?

Guillaume: At 3scale we certainly take reliability,

scalability and security extremely seriously and these form the core of any infrastructure tool people rely on. Features come and go but you need to know appropriate steps are always being taken that everything stays up, running and safe. That's something all providers need to work hard on constantly.

About Guillaume Balas Guillaume is CMO at 3scale. He has previously been a senior strategy consultant with Oliver Wyman, advising clients across Europe, the Middle East and Latin America. His responsibilities along his 7 years experience as consultant for OW, and previously Devoteam, focus on business development, strategic planning and operations management in the IT and Telecom sectors. Guillaume holds an Industrial engineering degree from ENSAM, Paris, France and a MBA from ESADE Business School, Barcelona, Spain.

Authorpage

http://sj.symposiaconcepts.de/author/guillaumebalas

Guillaume: Some of our team has been

involved with OGF in the past and it's an impressive effort - it's certainly shared a huge amount of technical knowledge and created practical solutions to interoperability problems. However unfortunately sometimes big-group decision making gets bogged down and having some unfettered invention

43


Interview

Private Cloud Computing

Ein Interview mit Matthias Rechenburg Matthias Rechenburg ist Projektmanager von openQRM und CEO der openQRM Enterprise. Im Interview spricht er über das Thema Private Cloud Computing und wie damit die Effizienz des Rechenzentrums verbessert werden kann. Symposia Journal : Eine Private und eine Public Cloud haben prinzipiell dieselbe DNA. Was sind die Eigenschaften, die den Unterschied ausmachen?

Matt: Die Grenzen zwischen Private und Public Clouds sind fließend. In einer Private Cloud werden die verfügbaren Cloud-Ressourcen (z.B. virtualisierte Hosts) “in-house” betrieben. Das heißt, ein in der eigenen Firma beschäftigter Systemadministrator oder die ITAbteilung kümmert sich um die Verwaltung und Administration der Cloud. Ein Pool firmeneigener Server wird mithilfe einer Private Cloud den Mitarbeitern flexibel und dynamisch zur Verfügung gestellt.

Im Gegensatz dazu werden in Public Clouds “öffentliche” Ressourcen angeboten, die von “externen” Systemadministratoren des Public Cloud Anbieters zur Verfügung gestellt werden. Hierbei muss man speziell den Aspekt der Datensicherheit beachten, da firmeneigene Daten auf “extern” verwalteten Systemen gespeichert werden. Eine Vermischung von Private und Public Clouds findet statt, wenn eigene und öffentliche Ressourcen verwendet werden. Man spricht dann von Hybrid Cloud Computing.

44

Symposia Journal : Böse Zungen behaupten,

dass die Kostenvorteile, die man durch eine Public Cloud erhält, mit einer Private Cloud obsolet sind. “Es handelt sich dabei doch nur um Virtualisierung!” Wie stehst Du dazu?

Matt:

Die Private Cloud verbindet Virtualisierung mit kompletter Automation. Die Automation macht die Dynamik in der Cloud erst möglich. Eine Private Cloud ermöglicht es dem Betreiber, seine vorhandenen Ressourcen (Server Systeme) effizienter zu nutzen und die Zeit, die es benötigt, um ein neues System betriebsfertig bereitzustellen, erheblich zu reduzieren. Auch werden dank dem Cloud Abrechungssystem Ressourcen wieder freigestellt und können für andere Zwecke weitergenutzt werden. Das spart die Anschaffung neuer Server Systeme durch bessere Ausnutzung der vorhandenen Ressourcen. Des Weiteren geht es beim Private Cloud Computing um den Betrieb von eigenen Systemen. Das heißt, der Cloud Betreiber muss sich nicht nur um die Virtualisierung kümmern, sondern um den kompletten Betrieb des Data-Centers. Hierbei lässt sich mithilfe von Standardisierung, die von der Cloud vorgegeben wird, und Automatisierung eine erhebliche Kostenersparnis erzielen. Z.B. bieten einige Cloud Systeme auch die Integration mit Out-of-Band Management (http://en.wikipedia.org/wiki/Out-ofband_management), die automatisch Server, die momentan nicht benötigt werden, ausschalten und bei Bedarf wieder “wecken”.


Die möglichen Kostenersparnisse mittels Private Cloud Computing verteilen sich also auf unterschiedliche Aspekte : • bessere Ausnutzung vorhandener Hardware • effizientere Administration durch Standardisierung • Zeiteinsparung durch Automation • weniger Stromverbrauch durch intelligentes und automatisiertes Out-of-Band Management

Hier bietet Private Cloud Computing eine Lösung. Eine Private Cloud passt z.B. perfekt in ein jedes QA- und Entwickler Team. Mittels effektiver Ressourcenplanung und optimierter Nutzung der vorhandenen Systeme lässt sich die Effizienz beider Teams erheblich steigern. Ein QA Mitarbeiter kann sich so zu jeder Zeit ein “frisches” Test-System bestellen und direkt nutzen, ohne auf Arbeiten des Systemadministrators warten zu müssen.

Symposia Journal :

Nachdem in den vergangenen Jahren zahlreiche Anläufe unternommen wurden, um eine Definition für Cloud Computing zu finden, wird sich nun auf den Unterschied zwischen einer Public Cloud und einer Private Cloud gestürzt. Wie würde die Definition einer Private Cloud von Dir lauten?

Symposia Journal : Welches ist Deiner

Matt: Eine Private Cloud ist eine Abstraktion

Cloud Computing verwendet, hängt immer stark davon ab, was man überhaupt bewerkstelligen möchte. Bessere Effizienz der eigenen Ressourcen bietet uns die Private Cloud. Lastverteilung und die Verwendung von extern verwalteten Ressourcen bietet uns die Public Cloud. Speziell für alle Anwendungen und Services, die hohe Lastspitzen (“peaks”) in der Ressourcen Nutzung aufweisen (z.B. Shopsysteme zum Weihnachtsgeschäft), sind speziell die Public Clouds eine gute Möglichkeiten diese Lastspitzen abzufangen ohne weiter eigene Ressourcen anschaffen zu müssen.

von “eigenen” Data-Center Ressourcen mittels eines “ Service”.

Symposia Journal : Mittlerweile setzen eine

Vielzahl von Unternehmen auf Virtualisierung, um ihre Server zu konsolidieren und damit Platz einzusparen und Kosten zu reduzieren. In welchen Fällen sollte man weiterhin eine klassische Virtualisierung verwenden und wann zu einer Private Cloud wechseln?

Matt: Mit Virtualisierung und klassischer Administration stößt man schnell auf Grenzen der Administrierbarkeit. Die Konsolidierung mithilfe von Virtualisierung hat normalerweise zur Folge, dass man nun viel mehr Systeme verwalten muss als zuvor. Der Systemadministrator ist bei der Verwaltung und dem Betrieb großer Rechenzentren immer noch das “Bottleneck”.

46

Meinung nach der richtige Weg zur Nutzung einer Public Cloud? Sollte man mit einer Private Cloud beginnen, dann eine hybride Cloud betreiben und dann erst komplett in eine Public Cloud wechseln? Oder lieber konkrete Projekte direkt in eine Public Cloud verlagern?

Matt: Ob man Private-, Public-, oder Hybrid-

Nicht nur auf Grund der vollen Flexibilität, aber vor allem um den sogenannten “Vendor-lockin” in der Cloud zu vermeiden, ist Hybrid Cloud Computing ein sehr wichtiger Aspekt.


Interview

Hybrid Cloud Computing bietet die Möglichkeit, jederzeit Dienste zwischen einer Private in einer Public Cloud zu migrieren aber auch verschiedene Public Cloud Anbieter nutzen zu können. Das heißt, man ist nicht mehr an einen speziellen Public Cloud Anbieter gebunden.

Symposia Journal : Wie stehst Du generell zu dem Einsatz von hybriden Clouds?

Matt: Meiner Meinung nach ist der Aspekt des

Hybrid Cloud Computing sehr wichtig. Nicht nur um einen “Vendor-lockin” zu vermeiden, aber auch um die volle Flexibilität für den Endbenutzer zu gewähren. Hybrid Cloud ermöglicht es, Dienste in der Privaten Cloud zu entwickeln und sie in der Public Cloud zu betreiben.

Symposia Journal: Das Thema Schnittstellen,

vor allem offene Schnittstellen, wird im Cloud Computing heiß diskutiert. Speziell beim Einsatz einer Private Cloud ist das ein wichtiges Thema, wenn es darum geht, Services von einer Public Cloud zu adaptieren, um damit eine Hybrid Cloud aufzubauen. Wie siehst Du dort derzeit die vorhandenen Systeme und Angebote am Markt?

Matt: Zitat John Willis : “Every Cloud needs an

API” (jede Cloud benötigt eine ProgrammierSchnittstelle) Die Schnittstellen von Clouds (APIs) werden hauptsächlich dafür genutzt, dem Cloud Betreiber eine Möglichkeit zu geben die Cloud Mechanismen in seine vorhandenen Geschäftsprozesse zu integrieren.

Der Quasi-Standard wird von den Amazon Web Services, dem momentan größten Public Cloud Anbieter, vorgegeben, an denen sich eine Vielzahl von weiteren Cloud Projekten orientiert. Eine gute API macht jedoch noch lange keine Hybrid Cloud!

Symposia

Journal :

Ein Unternehmen entscheidet sich dazu, eine Private Cloud aufzubauen. Sollten Sie sich für eine Open Source Variante entscheiden und auf den Support der Community setzen oder für eine proprietäre Variante (Closed Source), bei der ein Unternehmen 24x7 professionellen Support anbietet?

Matt: Das hängt natürlich davon ab, ob das

Unternehmen über eigene Systemadminstratoren und/ oder einer ITAbteilung mit dem notwendigen Know-How verfügt, um eine Private Cloud selbst zu installieren. Open-Source hat auf jeden Fall immer den Vorteil der Unabhängigkeit meist gepaart mit der Option eines professionellen Support.

Symposia Journal: Wie kann Cloud

Computing generell die Effizienz eines Rechenzentrums erhöhen?

Matt: Generell sollte man sich die Frage

stellen, ob man überhaupt ein eigenes Rechenzentrum betreiben möchte. Die derzeitigen Public Cloud Dienste bieten eine Vielzahl von Möglichkeiten ohne eigene Server auszukommen. Betreibt man eigene Rechenzentren, bietet eine Private Cloud die Verbesserung der Effizienz der eigenen Systeme durch Standardisierung und Automation.

47


Interview

Ist ein Unternehmen Lastspitzen ausgesetzt, sollte es in jedem Fall eine Public Cloud in Betracht ziehen. Durch die Integration von intelligenten Data-Center Management Systemen lassen sich zudem noch erhebliche Stromkosten einsparen ohne an Hochverfügbarkeit zu verlieren.

Symposia Journal :

Wie können sich Unternehmen vor dem gefürchteten VendorLockin schützen?

Matt: Meiner Meinung nach liegen die

Beständigkeit und größtmögliche Flexibilität in freier open-source Software und offener, gut dokumentierter API's.

Über Matthias Rechenburg Matthias Rechenburg ist Projektmanager des openQRMProjekts und Geschäftsführer der openQRM Enterprise GmbH. Stellen Sie ihm eine beliebige Frage zu den tiefsten openQRM-Interna Matthias wird sich freuen Ihnen die technisch fundierteste Antwort geben zu können. Seit vielen Jahren ist er in eine Vielzahl OpenSource-Projekte involviert, die sich mit hochverfügbaren Cluster-Lösungen, Serverkonsolidierung, Netzwerk- und StorageManagement beschäftigen. Sein Hauptinteresse liegt in den verschiedenen VirtualisierungsTechnologien, deren Funktionalität und deren Integration in eine generische Virtualisationsschicht für moderne Datacenter. Matthias lebt mit seiner Frau in Bonn, liebt es selbst zu entwickeln, reist gern und genießt es sich an Open-Source-Veranstaltungen und Kongressen zu beteiligen.

Autorenseite

http://sj.symposiaconcepts.de/author/matthiasre chenburg

48


Geek & Poke

49


Geek & Poke

50


Cloud Computing Meinung

Cloud Computing – Stein der Weisen 201 0? von Dr. Michael Pauly

Seit dem Entwachsen aus ihren Kinderschuhen, einer Zeitspanne von einigen Jahrzehnten, sucht die IT das ultimative Konzept, den großen Wurf, der gleichzeitig Geschäft optimal unterstützt und Kosten rapide senkt. In neuester Zeit gesellt sich der Anspruch hinzu, dass dies auch noch nachhaltig, d.h. ressourcenschonend erfolgt. Unter dem Strich entspricht dieser Anspruch nicht mehr und nicht weniger als einer modernen Suche nach dem Stein der Weisen, dem Top-Forschungsthema der Alchemisten des Mittelalters. In dieses Konglomerat von Ansprüchen an IT hinein klingt die Ankündigung von IDCs Frank Gens wie das berühmte Heureka des Archimedes: „Das Cloudmodell wird das IT-Markt-Wachstum und seine Expansion für die nächsten 20 Jahre antreiben“. 20 Jahre? Eine gewagte These. Sind doch in der IT-Welt bislang schon fünf Jahre eine halbe Ewigkeit gewesen. Ein Konzept, das die IT für einen so langen Zeitraum bestimmen wird, darf mit gutem Gewissen als Stein der Weisen tituliert werden. Doch reflektieren die 20 Jahre die Bedeutung des Konzepts oder den zeitlichen Horizont, den wir brauchen werden, um Cloud Computing im bedeutsamen Ausmaß real werden zu lassen? Vor den Erfolg haben die Götter bekanntlich den Schweiß gesetzt oder, um es einfach zu sagen: „Von nichts kommt nichts“.

Get ready for the Cloud Wer Auto fahren will, der muss zunächst mal einen Führerschein erhalten. In der Cloud gilt es eher fliegen zu können. Doch auch dafür sollte man einen Flugschein erwerben – und das ist noch weitaus aufwändiger.

Quelle: Wikipedia

Das bedeutet dann für den Cloudstart, dass man sich Gedanken über den Flug macht, bevor man den Motor anwirft. Sprich: Erst sollte man sich über einige grundsätzliche Fragestellungen klarwerden. Diese folgende Auflistung erhebt keinen Anspruch auf Vollständigkeit. Hier ist jedes Unternehmen gefragt, branchenspezifische oder gar individuelle Anforderungen,

51


Cloud Computing Meinung beispielsweise hausinterne Compliance-Vorgaben, zu berücksichtigen. Vorauszuschicken ist darüber hinaus, dass hier ausschließlich Szenarien in der Public Cloud adressiert werden.

1 . Die Entscheidung für die Nutzung eines Cloud-Service beinhaltet, dass die gesamte

Kommunikation aller Systeme miteinander nicht wie bisher im eigenen LAN erfolgt. Gleiches gilt auch für den Zugriff auf den Service. Der Datenfluss wird ins Internet bzw. „in die Cloud“ verlagert. Das setzt voraus, dass zum einen eine entsprechend leistungsfähige WAN-Anbindung vorhanden ist. Zum anderen müssen die Anwendungen bzw. die Nutzer tolerant gegenüber möglichen Latenzzeiten sein, die hierbei auftreten können. Eine Erfahrung, auf die uns der Umgang mit privaten Mailpostfächern schon vorbereitet hat.

2 . Oft wird beim Werben um neues Cloudklientel in der Unternehmenswelt eines vergessen: Bei

den meisten eingesetzten IT-Services – egal, ob diese im Eigenbetrieb produziert oder vom Outsourcer des Vertrauen bezogen werden – handelt es sich um komplexe, miteinander verwobene Systeme. Soll nun ein Teil dieses Systems aus der Cloud bezogen werden, müssen die Schnittstellen sorgfältig analysiert und ausgewählt werden. Neben dem konkreten IT-Service bzw. IT-System, welches in die Cloud migriert werden soll, sollte man auch betrachten: • die Kommunikation und Abhängigkeiten mit anderen Systemen • die betroffenen Geschäftsprozesse • die Security- und Complianceanforderungen

3 . Mit der Nutzung eines Cloud-Service geben Unternehmen einen Teil ihrer Kontrolle über Daten

und Systeme ab. Welche möglichen rechtlichen Auswirkungen auf das jeweilige Unternehmen ergeben sich daraus? Interessant ist in diesem Zusammenhang ebenfalls die Frage: Wer darf was? Also: Wer darf bei Bedarf die zusätzlichen Ressourcen bestellen? Ist dies die Fachabteilung, die mit dem Cloud-Service arbeitet oder die IT-Abteilung, die alle IT-Services verantwortet oder ist es der Einkauf? Hier bildet sich ein neues Spannungsfeld innerhalb der Unternehmen aus. Und wenn der Service womöglich automatisch skaliert. Wie behält der Nutzer die Kostenkontrolle? Entgegen der Nutzung von Cloud-Services im privaten Umfeld, müssen im Unternehmensumfeld bereits im Vorfeld eine Vielzahl von Punkten betrachtet werden. Fazit: Das Unternehmen muss sozusagen „cloud-ready“ sein, bevor es in die Wolke startet.

Quelle: Webshots.com

52


Cloud Computing Meinung Sicherheit ist nicht alles Während im letzten Jahr eine Vielzahl von Vorträgen und Berichten sich der Frage widmeten, ob es sich beim Cloud Computing nun um einen Hype handelt oder die Cloud bereits Realität sei, steht in diesem Jahr das Thema Sicherheit bei allen Beteiligten hoch im Kurs. Dabei folgen die Bewertungen nicht immer nur objektiven Kriterien. Cloud Computing ist per se ein OutsourcingModell: IT-Services werden außerhalb des eigenen Unternehmens produziert und von außerhalb bezogen. Damit lassen sich die Errungenschaften aus dem OutsourcingUmfeld durchaus auf Cloud Computing Szenarien übertragen. Neu ist jetzt jedoch neben der stärkeren Delokalisierung der hohe Grad der Standardisierung. Und damit reduziert sich der Einfluss der Unternehmen auf den Services (der jeweiligen Erbringung). Damit greifen die bis dato verwendeten Methoden nicht mehr. Der Anwender kann die genutzten Services nicht mehr kontinuierlich verbessern. Die IT-Produktion und die zugrunde liegenden Prozesse unterliegen komplett dem Verantwortungsbereich des Anbieters; für den Nutzer stellen sie sich als „Black Box“ dar. Bei der Auswahl des für das Unternehmen „richtigen“ Providers ist eine Vielzahl von jeweils individuellen Kriterien zu berücksichtigen. Passt das Geschäftsmodell des Providers zu mir? Wie sieht es mit der Zuverlässigkeit und Erreichbarkeit – nicht nur in Standardsituationen – aus? Welches (Landes-)Recht kommt zur Anwendung?

Wo ist der Gerichtsstand, wenn es mal zu Unstimmigkeiten kommen sollte? Dies sind nur einige der Fragen, auf die eine Antwort gefunden werden sollte. Ist der „richtige“ Provider gefunden, das eigene Unternehmen cloud-ready und es gibt einen passenden Cloud-Service, der die alle Wünsche und Unternehmensanforderungen abdeckt, dann steht dem Gang in die Wolke nichts entgegen.

Endstation Cloud … Mancher behauptet: „Wer einmal in den Wolken war, der will nicht mehr in den Keller, d.h. das eigene Rechenzentrum, zurück“. Über diese Aussage ließe sich trefflich vertiefen. Aber wie sieht es mit dem Wechsel zu anderen, vergleichbaren Cloudangeboten aus? Auch hier ist es hilfreich, wenn bereits vor Vertragsabschluss geklärt ist, wie Daten zurückgegeben werden. Welche Mitwirkungspflicht hat beispielsweise der Kunde, in welcher Form werden die Daten rücküberführt? An dieser Stelle stößt man auf eines der ungelösten Paradoxa der Cloud. Steht sie doch eigentlich für Flexibilität und Dynamik – wenn es darum geht, einen Provider gegen einen anderen auszutauschen, sucht man sie vergeblich. Nicht umsonst machen sich viele Nutzer Gedanken über einen Vendor Lock-in. Die beworbene Flexibilität scheint es nur innerhalb der von einem Provider angebotenen Produkte zu geben. Und damit wären wir in Realität bei einer Form von Flexibilität, wie wir sie bislang schon von Suitenanbietern kennen. Eigentlich kein ganz unbekanntes Phänomen.

53


Cloud Computing Meinung Ähnliche Erfahrungen kann man machen, wenn unterschiedliche Cloud Services miteinander kombiniert werden sollen. Die dabei auftretenden Herausforderungen im Bezug auf Schnittstellen und Kommunikation der einzelnen Services sind ebenfalls aus dem Outsourcing bekannt. Hier wurden diese meist im Rahmen der Due Dilligence detailliert betrachtet. Denn die möglichen Probleme können sich drastisch auf die Leistungsfähigkeit des Gesamtsystems auswirken.

… und was kommt dann? Cloud Computing in der heutigen Form ist auf jeden Fall noch nicht das Ende der Entwicklung, sondern erst der Anfang. Aber in 20 Jahren kann ja auch noch viel passieren. Die Idee „IT wie Strom aus der Steckdose“ wird sich sicher noch deutlich weiter entwickeln. Nichtsdestoweniger hat die aktuelle Diskussion um Cloud Computing hier wichtige Impulse geliefert. Bereits heute hat der Hype um die Wolke eine ganze Reihe von Errungenschaften hervorgebracht: Virtualisierung, Automatisierung und Standardisierung. Aber, der Stein der Weisen ist Cloud Computing zurzeit noch nicht. Aber keine Bange: Die Alchemisten haben genauso wenig Gold erzeugt, wie sie das Wasser des Lebens fanden. Aber das Porzellan und den Phosphor haben sie beispielsweise entdeckt. Beim Cloud Computing wird es ähnlich sein. Was da noch kommen wird, das können wir jetzt noch nicht erahnen. Nur eines ist sicher. Es wird unser Alltags- und Geschäftsleben deutlich verändern. Wir sind schließlich auch vom Mittelalter in die Postmoderne gekommen.

54

Über Dr. Michael Pauly Dr. Michael Pauly ist promovierter Elektroingenieur und Wirtschaftsingenieur. Er arbeitet bei T-Systems als Consultant mit Fokus auf Dynamic Services und Cloud Computing. Michael Pauly agiert als einer der Sprecher für Cloud Computing von T-Systems und vertritt das Thema auf diversen Veranstaltungen und Konferenzen.

Autorenseite http://sj.symposiaconcepts.de/author/michael pauly


Cloud Computing Meinung

Wir brauchen eine transparente Cloud! von René Büst

Stellen wir uns das folgende Szenario vor: Wir haben unsere IT Infrastruktur erfolgreich in die Cloud eines Anbieters migriert. Alles bestens - wir sagen uns: “Super, alles funktioniert einwandfrei! Wir senken unsere Kosten. Unsere Infrastruktur ist nun so skalierbar, dass sie unseren Anforderungen immer gerecht wird. Uns stehen immer die aktuellen Softwareversionen zur Verfügung und wir können von jedem Ort unabhängig von den lokalen Systemen miteinander kollaborieren.” Was machen wir aber, falls wir uns nun doch dazu entscheiden, wieder in das eigene Rechenzentrum zurückzukehren oder den Cloud Anbieter zu wechseln, weil dieser z.B. günstiger ist? Oder gehen wir noch einen Schritt weiter: Wie können wir unsere gesamten Geschäftsprozesse in der Cloud über mehrere Anbieter hinweg verteilt abbilden? Stellen wir uns vor, dass ein Anbieter den Prozess A verarbeitet, ein weiterer den Prozess B. Ein dritter Anbieter verarbeitet den Prozess C und nutzt dabei die Prozesse A und B. Oder wir verwenden eine Vielzahl voneinander unabhängiger Services von unterschiedlichen Anbietern und integrieren diese zu einem einzigen Service. Wie wir sehen, sind der Komplexität keine Grenzen gesetzt. Ein vermeintlich einfacheres Beispiel: Unsere Daten sind bei dem Anbieter A gespeichert und ein Anbieter B soll diese Daten verarbeiten.

Ist das möglich? Ein weiterhin sehr kritischer Punkt des Cloud Computing ist das Fehlen von Standards. Jeder Anbieter verwendet unterschiedliche Technologien und kocht innerhalb seiner Infrastruktur seine eigene Suppe. Die meisten Anbieter versuchen in

Quelle: Wikipedia

Die meisten Anbieter versuchen in der Regel mittels des gefürchteten Vendor-Lockin ihre Kunden “an sich zu binden”. Denn leider haben es bisher die Wenigsten verstanden, Kunden über guten Service und weitere Dienstleistungen von sich zu überzeugen und an sich zu binden.

56


Cloud Computing Meinung Aus diesem Grund ist jede Beziehung zwischen einem Anbieter und seinem Kunden anders und eine anbieterübergreifende Zusammenarbeit – die für einen Kunden in vielen Fällen unerlässlich ist – kann nicht stattfinden.

Wir brauchen eine transparente Cloud! Ein möglicher Ansatz wäre libcloud (http://libcloud.org). Dabei handelt es sich um eine StandardBibliothek u.a. für Anbieter wie Amazon, Rackspace oder Slicehost, die eine einheitliche API bereitstellt. Sie ist in Python implementiert und kostenlos (Apache License 2.0) zu nutzen, um mit unterschiedlichen Cloud Anbietern zu kommunizieren. Allerdings ist die libcloud Bibliothek nur ein Ansatz. Wir müssen uns, wenn wir von Cloud Standards reden, auf eine noch wesentlich tiefere Ebene begeben. Was ich damit sagen will ist, dass ein Cloud Anbieter sich selbst in die Pflicht nehmen muss, seine Schnittstellen so offen und sorgfältig zu dokumentieren, dass ein Wechsel oder eine Integration unterschiedlicher Services, Prozesse etc. zwischen verschiedenen Anbietern ohne weiteres möglich ist. Ein Kunde muss mit einem guten Gefühl seine Daten, Prozesse usw. zu einem Cloud-Anbieter auslagern, weil er sich sicher sein kann, über diese frei zu verfügen und einen Wechsel sowie eine Integration sorgenfrei vornehmen zu können.

Über René Büst René Büst ist Cloud Computing Evangelist & Strategist, Managing Director von Symposia Concepts & Symposia Integrations und Gründer & Autor von CloudUser | Ξxpert. Er hat ein Informatik Diplom der Hochschule Bremen und ist Cand. M.Sc. in ITManagement an der FHDW Paderborn.

Autorenseite http://sj.symposiaconcepts.de/author/renebuest

57


Cloud Computing Basics

Cloud Computing und die rechtlichen Hintergründe von René Büst

Beim Einsatz von Cloud Computing gilt es, rechtliche Fragen zu klären. Sind die wichtigsten allerdings bekannt und können diese beantwortet werden, steht dem rechtlich sicheren Einsatz von Cloud Computing nichts mehr im Weg. In einer Public Cloud haben die Benutzer nicht mehr die vollständige Kontrolle und den Überblick, wo ihre Daten tatsächlich gespeichert sind. Wo allerdings keine Kontrolle herrscht, kann auch nicht gesteuert werden. Die nicht mehr vorhandene Hoheit der Daten führt in diesem Fall zu rechtlichen Problemen. Hier sollte zunächst der Ansatz verfolgt werden, keine personenbezogenen Daten in die Cloud zu verlagern, da diese dort nicht den deutschen Datenschutzbestimmungen unterliegen. Werden allerdings doch personenbezogene Daten in der Cloud gespeichert, muss hier in jedem Fall die Zustimmung aller betroffenen Personen vorliegen. Des Weiteren kann der Speicherort der Daten auf eine bestimmte Region festgelegt werden. In diesem Fall werden die Daten z.B. ausschließlich in Deutschland gespeichert, wodurch automatisch die deutschen Datenschutzbestimmungen gelten. Dabei sollte vorher natürlich vertraglich festgehalten werden, dass die Daten ausschließlich in dieser bestimmten Region abgelegt werden und nicht über mehrere verteilt sind. Eine mögliche “Lücke” erhalten Cloud Anbieter mittels des Paragraphen 11 des

58

Quelle: Wikipedia

Bundesdatenschutzgesetzes (BDSG). Dieser regelt die sogenannte Auftragsdaten -verarbeitung. Dabei erhält der Cloud Anbieter durch den Auftrag seines Kunden das Recht, die personenbezogenen Daten zu verarbeiten. Das impliziert natürlich, dass eine Verarbeitung der Daten nur dann vorgenommen werden darf, wenn der Kunde explizit die Rechte für das Erheben, Nutzen und Verarbeiten hat. Das Ganze funktioniert natürlich nur, wenn der Kunde auch der Herr dieser Daten ist, also volle Kontrolle darüber hat. Allerdings widerspricht dies genau dem eigentlichen (organisatorischen) Sinn und Hintergrund des Cloud Computing, da in diesem Modell die Daten per se überall verteilt gespeichert sind. Hinzu kommt, dass die Auftragsdatenverarbeitung nur im Wirtschaftsraum der europäischen Union (EU) so umgesetzt werden kann. Außerhalb der EU gelten andere Gesetzt zur Verarbeitung personenbezogener Daten.


Cloud Computing Basics Weiterhin ist zu beachten, dass die Daten in der Cloud verschlüsselt gespeichert sind, aber im Falle der Verarbeitung entschlüsselt werden müssen. Hier müssen noch technische Lösungen gefunden werden. Abgesehen davon müssen Anbieter von Cloud Services, speziell für Angebote in Deutschland, das BDSG und hier insbesondere den Paragraphen 9 beachten. In diesem sind alle Anforderungen festgehalten, die benötigt werden, um die technischen und organisatorischen Vorschriften des BDSG einzuhalten. Dazu gehört ebenfalls, wie der physische Zutritt, der Zugriff, die Eingabe und die Weitergabe der Daten nach Datenschutz- und Compliance-spezifischen Vorgaben zu erfolgen haben. Wichtig bei der Verlagerung der Infrastruktur in die Cloud sind – nicht nur rein rechtlich – die Leistungsübergabepunkte. An diesen Punkten wird u.a. die Verfügbarkeit eines genutzten Services festgelegt und gemessen.

Hier gilt es also mittels eines Service Level Agreement (SLA) vertraglich festzulegen, welche Pflichten ein Cloud Anbieter gegenüber seinen Kunden zu erfüllen hat. Dazu gehören u.a. das Vorhandensein von Notfallplänen, die Verfügbarkeit der Services, aber auch die Möglichkeit für den Kunden, die im Vertrag festgehaltenen Pflichten mittels eines Audits zu überprüfen. SLAs sollten hinsichtlich der Art des spezifischen Services definiert werden, realistisch messbar sein und vor allem die tatsächlichen Leistungsanforderungen reflektieren. Für den Fall, dass ein Service Level nicht eingehalten wird, müssen entsprechende (hohe) Strafzahlungen für den Cloud Anbieter vorgesehen werden.

Über René Büst René Büst ist Cloud Computing Evangelist & Strategist, Managing Director von Symposia Concepts & Symposia Integrations und Gründer & Autor von CloudUser | Ξxpert. Er hat ein Informatik Diplom der Hochschule Bremen und ist Cand. M.Sc. in ITManagement an der FHDW Paderborn.

Autorenseite http://sj.symposiaconcepts.de/author/renebuest

59


Editorial

Impressum

Impressum

Symposia Concepts GbR Schützenstr. 11 21 266 Jesteburg Tel.: 041 83 / 94 89 40 Fax: 041 83 / 77 39 30 E-Mail: verlag@symposiaconcepts.de Internet: http://www.symposiaconcepts.de

Chris Boos, Christoph Streit, Max-Michael Mayer, Matthias Rechenburg, Sven Thomsen, Dr. Hans Markus Wulf, Jonathan Weiss, Dr. Ingo Laue, Charlton Barreto, Guillaume Balas, Dr. Michael Pauly, René Büst

Anzeigenleitung

Emine Arslan & Karel Mette

Dipl.-Ing. Björn Böttcher E-Mail: bjoern.boettcher@symposiaconcepts.de Dipl.-Informatiker (FH) René Büst E-Mail: rene.buest@symposiaconcepts.de

Photos CloudCamp Hamburg

Redaktion

Karikaturen

Björn Böttcher, René Büst

Oliver Widder Internet: http://geekandpoke.typepad.com

Herausgeber & Verlag

Autoren dieser Ausgabe

Cover & Design

Stefan van Lier Internet: http://www.vanlier.biz

Symposia Journal 01 /2011 erscheint am 1 4.03.2011 . Redaktionsschluss: 28.02.2011 Anzeigenschluss: 07.03.2011

Copyright © 201 0 Symposia Concepts GbR

60



Symposia Journal Edition 01/2010