Tauchen Sie mit uns ein in die Welt der Wolke!

Cloud Computing ermöglicht Online Anwendungen flexibel und kosteneffizient in einer skalierbaren und fehlertoleranten Infrastruktur zu betreiben. Wir geben in unserem neuen Whitepaper einen Überblick über die wichtigsten Cloud Computing-Ansätze.

Markus Tressl, Senior Principal Consultant und Head of Content Technologies bei Namics hat den Autor Simon Loesing dazu befragt.

(mehr …)

E-Procurement – die andere Seite des E-Commerce

eprocurement

Wenn man Publikationen oder Beiträge über E-Commerce liest, dann rückt zumeist die Verkaufsseite in den Fokus. Häufig geht es z.B. primär um die Auswahl geeigneter Online-Shop-Lösungen wie hybris  oder Magento, die Optimierung von Conversion Rates oder auch die Auswahl geeigneter … Weiterlesen

Das Trainingsevent Jax on Tour – Architecture 2012

How Cloud is different

Letzte Woche waren wir auf der Jax on Tour in Wiesbaden von und für Software Architekten. Hier wurde von erfahrenen Architekten viel Praxiserfahrung vermittelt, typische Herausforderungen verdeutlicht und bewährte Praktiken vorgestellt. Hier sind einige Eindrücke zusammengefasst. Cloud Computing war eines … Weiterlesen

Quo vadis Cloud Computing

Inzwischen hat das Buzz-Word Cloud Computing den ersten Hype überstanden und nähert sich der Commodity an. Es bestehen weiterhin Vorbehalte, so dass die Einsatzgebiete bei unseren Kunden allzu oft eingeschränkt bleiben. Dabei bewegt sich aktuell technisch und konzeptionell einiges, so dass in naher Zukunft der Einsatz für in vielen Bereichen attraktiv werden wird.

Anbieter von Cloud Computing stellen Rechenzeit und Speicher nach Zeit und Datendurchsatz bzw. Speicherbelegung abrechenbar zur Verfügung. Das bekannteste Beispiel ist AWS (Amazon Web Services) mit den Virtuellen Maschinen EC2 (Elastic Computing Cloud) und dem Speicher S3 (Simple Storage Service). Auf dieser Plattform basiert beispielsweise der Streaming-Anbieter schnee von morgen webTV, die mit dem Portal dtcp eines derzeit größten Streaming-TV Angebote über AWS realisieren und mehrere Terabyte pro Monat aus den S3 über den Äther pumpen.

Nun stellt sich die Frage, wie sich so eine Plattform im Kontext von Enterprise Content Management oder E-Commerce etablieren kann. Naheliegend ist die verbrauchsgenaue Abrechnungsmöglichkeit und dazu der Wegfall vom Betrieb der Hardware. Dem gegenüber stehen leider ungenügende SLAs und die Unkenntnis des genauen Ortes der Datenablage und die damit verbundenen rechtlichen Aspekte.

Unter dem Strich leider Kriterien, die einen vollständigen Betrieb von datensensiblen Systemen in der Cloud unmöglich machen. Noch.

Wachsender Markt und wachsende Anwendungsmöglichkeiten

Gartner hat in dieser Woche eine Studie herausgegeben, in der die Steigerung des Umsatzes von Cloud Computing Anbietern im letzten Jahr um 16,6% auf $68,8 Milliarden gestiegen ist.

„We are seeing an acceleration of adoption of cloud computing and cloud services among enterprises and an explosion of supply-side activity as technology providers maneuver to exploit the growing commercial opportunity,“ said Ben Pring, research vice president at Gartner. „The scale of application deployments is growing; multi-thousand-seat deals are increasingly common. IT managers are thinking strategically about cloud service deployments; more-progressive enterprises are thinking through what their IT operations will look like in a world of increasing cloud service leverage. This was highly unusual a year ago.“Gartner Says Worldwide Cloud Services Market to Surpass $68 Billion in 2010

Der Markt und die Einsatzfreude von Cloud Computing Systemen wachsen und ein Umdenken setzt langsam ein. Die bestehenden Hürden sind nicht unüberwindbar, so dass sich die konkreten Einsatzgebiete mehr und mehr herauskristallisieren. Gefördert wird dies über technische Ansätze seitens der Herstellen von Softwaresystemen, die ihre Technik auf Cloud Computing anpassen.

Verschlüsselung der Datenablage

So beispielsweise die TAE (Transparent Attribute Encryption) der Multichannel Commerce und PCM Plattform hybris. TAE erlaubt dem Betreiber des Systems, die Daten auf dem Speicher zu verschlüsseln. Dies erfolgt für die Datenhaltung und den Application-Server vollständig transparent, so dass einerseits die Datensicherheit gewährleistet ist und andererseits keine Nachteile für den Benutzer oder gar zusätzliche Systemanforderungen entstehen.

Noch weiter geht ein Ansatz der zwei Forscher Smart und Vercauteren der Universitäten Bristol und Leuven: die voll homomorphe Verschlüsselung. Diese Verschlüsselung erlaubt mathematische Operationen an verschlüsselten Daten, welche sich direkt auf den Inhalt auswirken. D.h. zukünftig könnten sämtliche Verarbeitungsschritte (Auslieferung von Webseiten oder das Hinzufügen eines Artikels zu einem Warenkorb in einem Online-Shop) auf verschlüsselten Daten ausgeführt werden, ohne dass die Daten vorher entschlüsselt werden müssten. Erst im Client werden die Daten im Klartext lesbar.

Die Sicherheit der Datenverkehrs stellt bereits heutekein Problem mehr dar, da über SSL-Verschlüsselung zum Browser oder per Amazon Virtual Private Cloud eine verschlüsselte Punkt-zu-Punkt Verbindung zum Rechennetzwerk hergestellt werden kann.

Damit kann über das TAE und hoffentlich in naher Zukunft vollständig über voll homomorphe Verschlüsselung die Verarbeitung von Daten in der Cloud entsprechend der Datenschutz-Richtlinen (Beispiel Deutschland) gelingen.

SLA im Cloud Computing

Die Service Level Agreements (z.B. S3 SLA und EC2 SLA) sind jedoch weiterhin ein Manko. Die Zusicherung seitens Amazon beruht auf der Rückzahlung von Speicher oder Computing-Kosten, wenn die Verfügbarkeit unter 99,5% fällt. Ansprüche durch Umsatzausfall sind ausgeschlossen.

Die technische Sicht zeigt jedoch etwas anders. Beispielsweise hat Amazon gerade „billigen“ S3 Speicher (Reduced Redundancy Storage) veröffentlicht. Hier kostet das Gigabyte pro Monat nur $0,10 während der teure Speicher mit $0,05 mehr ins Gewicht fällt ($0,15/GB). Der Unterschied ist die Zuverlässigkeit, die beim „teuren“ Speicher bei 99,999999999% liegt (9 Nachkommastellen, d.h. auf 100 Jahre gerechnet, ist der Speicher drei Sekunden nicht erreichbar), der „billige“ Speicher hat eine Zuverlässigkeit von 99,99% (zwei Nachkommastellen, d.h. im Monat etwas mehr als sieben Minuten nicht erreichbar). Grundsätzlich gilt wie im eigenen Rechenzentrum, dass die Zuverlässigkeit der Computing-Systeme stets über Clustering erhöht werden kann.

Mit eCommerce und Cloudcomputing ins Weinachtsgeschäft

Als Fazit stehen nun diverse Anwendungsmöglichkeiten unter Vorbehalt der rechtlichen Aspekte im Raum:

  • Auslagerung nichtsensitiver Daten wie Downloads oder Streaming-Daten auf S3
  • Vollautomatische Skalierung für Kampagnen (z.B. im E-Commerce das Weihnachtsgeschäft) auf Basis des eigenen Rechenzentrums
  • vollständiger Betreib mit verschlüsselten Daten (mit entsprechender Software wie z.B. hybris)
  • Entwicklungs-Systeme und Prototypen
  • Systeme für Lasttests
  • Leistungshungrige Datenverarbeitung (Import/Export von Produktinformationen)
  • u.v.a.

Der Betreib eines oder mehrer Services in der Cloud wird sich zukünftig noch weiter durchsetzten. Die frühen Anbieter wie SalesForce im Bereich SaaS, Google AppEngine als PaaS und AWS mit IaaS werden ihre Systeme weiter ausbauen und durch mehr Funktionalitäten noch attraktiver werden.

Wie genau solche System konzipiert, integriert und betrieben werden hängt wie immer von den individuellen Anforderungen des Kunden ab. Wir gehen mit der Zeit und sind auf zukünftige Projekte mit absoluter Kostenkontrolle und den vielfältigen Möglichkeiten einer solchen Plattform gespannt.

Devoxx. Tag 1. Cloudcomputing.

Wie bereits im meinem früheren Post angekündigt, sind verschiedene Vertreter von Namics in Antwerpen an der devoxx. Dabei versuchen wir, die Schwerpunkte des jeweiligen Tages etwas zusammenzufassen und dies in einen Blogeintrag zu giessen. Der erste Tag stand – wie der Titel vielleicht verraten mag – unter dem Themenschwerpunkt Cloudcomputing.

Im ersten Vortrag von John M. Willis wurde das Thema aus historischer Sicht (wobei hier die Historie zum Glück nicht so lang ist) etwas aufgearbeitet. John hat die Geschichte von Gridcomputing zum Cloudcomputing sehr schön zusammengefasst, wobei hier noch angfügt werden muss, dass John ursprünglich aus dem IT Operation kommt. Aus seiner Sicht wurde bereits seit einger Zeit das Agile Manifesto auf die Entwicklung von Software angewandt, jedoch die IT Operation davon komplett aussen vor gelassen wurde. Agil entwicklen ja… aber agil betreiben… lieber nicht oder noch nicht. Agile Operation existiert in den Firmen eigentlich noch gar nicht. Ein witziges Beispiel hier war die eines Pharmakonzerns, in dem die Forschungsabteilung kurzfristig massive Rechenpower benötigt hätte, dessen Beschaffung intern jedoch 8 Wochen gedauert hätte. Was haben die Forscher gemacht? Sie haben sich die Rechenpower einfach bei Amazon EC2 mit ihrer persönlichen Kreditkarte innerhalb von 8 Minuten beschafft. Und dass der Markt dies fordert und wünscht, zeigen die Zahlen von Amazon auf eindrückliche Art und Weise (bis zu 200’000 neue Instanzen werden pro Tag eingerichtet und gestartet), alles vollautomatisch und via Webservices gesteuert. Agile Operation – dass soll jetzt Cloudcomputing richten. Wo nur bleibt dann da das Agile Budgeting?

Im zweiten Vortrag erklärte Chris Richardson, wie robuste Applikationen für die Amazon EC2 gebaut werden können. Er führte anhand eines Beispiels Applikation durch die unterschiedlichen Services der EC2. Elastic IP Addresses in Kombination mit Elastic Loadbalancer und Autoscaling und die verschiedene Zonen führen zu einem hochverfügbarem System (99.95%). Die S3 Datastore, die Simple Query Service (SQS) bietet mit dem Cloudfront eine effiziente globale Content Delivery Infrastruktur. Amazon implementiert die volle Pallette einer sogenannten Infrastructure as a Service (IaaS). Der nächste Layer wäre eine Platform as a Service (PaaS). Diese wird von cloudfoundry.com als Layer auf einer EC2 geboten. Es lassen sich Spring und Grails Applikationen direkt in der Amazon Cloud deployen. Aktuell wird dieser Layer auch auf die hauseigene vCloud portiert. Auch wenn es noch einige Einschränkungen in der Entwicklung von Cloud Applikationen gibt, sieht das ganze sehr erfolgversprechend aus. Die Preismodelle von EC2 sind jedoch genau so durchsichtig (oder eben nicht) wie die bei einem Mobiltelefon, was das Durchrechnen eines konkreten Business-Cases erschwert.

Es bleibt also spannend… über oder besser gesagt in den Wolken… :-)