Railswaycon 2010 in Berlin

Letzte Woche durften Christian Felder und ich die Railswaycon in Berlin besuchen (danke Namics!). Auch wenn neben Yehuda Katz vielleicht die eine oder andere Grösse mehr hätte anwesend sein können, waren die Talkthemen sehr interessant. Hier eine kurze Zusammenfassung von ausgewählten Talks:

Push it to the limit – An intro to Websockets and Rails applications
Michael Johann zeigte, wie die Zukunft von real-time Applikationen aussehen kann. In HTML5 kann das bisher gängige Polling durch Websockets abgelöst werden. Dabei wird im Browser eine bidirektionale Verbindung zum Server aufgebaut, mit welcher der Server den Client per Push über Updates informieren kann. Ebenfalls erwähnenswert ist PubSubHubbub. Mit Hilfe von Websockets implementiert es ein Publish Subscriber System, basierend auf Atom und RSS.

Cross-Browser testing in the real World
Die Browservielfalt macht das Leben jedes Webentwicklers schwer. Martin Kleppmann stellte eine Landkarte der vielen vorhandenen Tools vor. Capybara steuert Selenium 2 via Webdriver und Watir, womit man auf Chrome, Firefox, Internet Explorer und Safari automatisiert testen kann. Mit Celerity kann zusätzlich noch Headless (hierbei wird kein Browser geöffnet) getestet werden. Anschliessend wurden 10 praktische Probleme und Lösungsansätze vorgestellt. Ziemlich komplex, wenn man alles abdecken will.

Small is Sexy – We need Components in Rails!
Nick Sutterer ist der Überzeugung, dass wir in Ruby on Rails Views Komponenten brauchen. Cells bietet gekapselte View-Objekte, welche sich kontextunabhängig selbst rendern können. Auf Wunsch können diese mit dem eventgetriebenen Aptomo auch stateful sein. So kann z.B. für eine Warenkorb-View einiges an Logik strukturiert werden. Laut Yehuda Katz werden einige Zeilen der Cells Codebase vielleicht in Rails 3 einfliessen.

Mongodb and Mongomapper 4 real!
Realational ist out, denn Document Storages sind da! Jan Krutisch zeigte wie der No-SQL Ansatz mit MongoDB verfolgt werden kann. Daten werden bei Document Storages wie der Name schon sagt in Form von Dokumenten geschrieben. Somit gibt es kein festes Schema der Datenbank mehr und es können nahezu beliebige Konstrukte gespeichert werden. Klarer Vorteil gegenüber relationalen Datenbanken ist die Performance. Statt einer Query Language wie SQL werden in Javascript so genannte Map- / Reduce-Funktionen geschrieben.

Rails 3: Dashing to the Finish
Die Merb Ikone Yehuda Katz zeigte an vielen Beispielen wie Rails 3 sich im Vergleich zu Rails 2 weiterentwickelt und verändert hat: Schneller, aufgeräumter, modularer und besser erweiterbar. Es gibt einige radikale Änderungen, womit eine Migration bestehender Applikationen etwas aufwändiger wird. Der grösste Teil ist jedoch bis Rails 3.2 rückwärtskompatibel. Ein wichtiger Bestandteil ist dabei die vollständige Implementierung des Rack Ansatzes. Zudem ermöglicht Bundler endlich gutes Dependency Management von gems.
Rails 3 kicks ass!

Ruby and Redis – Simple meets Awesome
Mathias Meyer berichtete von seinen Erfahrungen bei der Erweiterung einer Mysql-basierten Applikation mit Redis. Redis ist ein unglaublich schneller (mehrere 10000 Reads/Writes pro Sekunde), persistenter Key-Value-Store. Anhand diverser Beispiele wie Caching, Session storage, Statistiken, Who’s online, etc. wurde die Anwendung von Redis klarer und klarer. Umdenken ist angesagt!

Natürlich ist das nur ein kleiner Auszug der Themen. Wer mehr erfahren will, kann die Slides zu den meisten Tracks bei der schweizer Rails Usergroup finden.

Neben guten Vorträgen gab es in Berlin natürlich auch lecker Currywurst, heiter Sonnenschein und das ein oder andere gemeinsame Feierabendbier.

Social Media kann zaubern – erfolgreiche PR ohne Journalisten

solche Aussagen erinnern mich an den „alten Sende-Mechanismus“ der PR. Auch bei Namics diskutieren wir gelegentlich über den Wert der sogenannten klassischen Public Relations. Warum Fach-Medien, wenn doch mit Social Media so viel geht? Meine Idee von Social Media in der PR ist anders.

PR 2.0:

Oft bemühe ich den Satz: Public Relations ist endlich public und nicht mehr nur Press Relations. (die Quelle kenne ich leider nicht, sorry) Public meint alle Menschen. Punkt. Besonders, wenn sie öffentlich über Unternehmen, Marken, Produkte etc. diskutieren oder könnten. Bedenke ich die vielen Blogs, Plattformen und Netzwerke, ist die Gruppe der potenziellen Kommunikationspartner sehr (!) gross geworden. Doch die Rollen der Akteure wechseln und wir sollten diese Tatsache in der Praxis nicht übersehen. Ein Mensch kann sein:

Morgens Mitarbeiter
mittags Blogger
abends Freund
heimlich „Feind“
teilzeit Kunde
immer Wettbewerber
Feierabend Journalist .. und noch mehr.

Die früher definierten Bezugsgruppen und deren Wichtigkeit für die Unternehmenskommunikation sind passé. Wir PR-Leute tauschen uns „nur noch“ mit Menschen aus. Wir geben Informationen, bekommen sie und vermitteln. (übrigens eine schlaue Überlegung von M.C.Schindler: wo gehört die Stelle hin im Unternehmen)

PR 2.0 ohne Journalisten?

Für mich ein klares NEIN. Ein bisschen mehr Auf-die-Brusttrommeln, Zielgruppen ausschliessen und Kommunikationserfolge in Visits berechnen – Auch das gehört für mich in die alte PR „senden statt kommunizieren“ und ist keine Web 2.0 Kultur „Lars Hinrichs, erreichte mit einem Tweet und E-Mailing 100’000 Visits… Er verzichtete auf kostspielige klassische PR Massnahmen“.

Aja? Was sind die kostspieligen PR Massnahmen, frage ich?
Eine Medienmitteilung (oder klassische Agentur, die die Pressekontakte pflegt) ist weit günstiger, als eine Person für die Beziehungspflege im Social Media.

Sind Journalisten nicht public? Was ist mit den vielen Menschen, die im Zug oder sonstwo Zeitungen lesen? Was ist mit Journalisten, die twittern, bloggen UND für ein Fachmagazin schreiben. Haben diese es plötzlich nicht mehr verdient, in unsere public Definition zu gehören? Selbstverständlich schätze ich Social Media sehr in der PR. Bitte versteht mich nicht falsch.

Aber ich wünsche mir, das besonders PR-Fachleute ein gutes Handwerk pflegen statt zaubern zu wollen. PR 2.0 kommuniziert mit den Menschen in den Medien, die die Leute selbst wählen und macht keine Unterschiede zwischen beruflichen Rollen, wie Blogger, Journalist etc. Am Ende können sich doch alle wieder am Dialog beteiligen. (Und dabei möchte ich keinen verärgerten Journalist haben….) Nur mal zum Nachdenken.

1832-dilbert-thumb-500x393-1831.png

Bildquelle

Intranets im Spitalumfeld – Von der Nutzung und den Bedürfnissen der Mitarbeitenden (Teil 3)

Wie nutzen Spitäler ihr Intranet? Dieser Frage ging ich im Rahmen meiner Masterarbeit nach. Als dritter Teil einer Serie (Teil 1Teil 2) stelle ich in diesem Beitrag die Ergebnisse aus der Online-Befragung der Spitalmitarbeitenden vor.

Die Studie zeigt unter anderem, dass die Spitalmitarbeitenden das Intranet mehrheitlich täglich bis mehrmals täglich nutzen. Nie wird es nur von insgesamt neun Personen genutzt. Allerdings gibt es bei der Häufigkeit der Nutzung des Intranets Unterschiede je nach Arbeitsort und Berufsgruppe. Bei den Berufsgruppen sind es die Mitarbeitenden der Verwaltung, die das Intranet am häufigsten nutzen, wie die untenstehende Grafik zeigt. Dagegen sind es die Pflegefachpersonen, die das Intranet am umfassendsten, das heisst für viele verschiedene Bereiche nutzen. Zudem dient es ihnen als Plattform, um auf wichtige Arbeitsinstrumente zurückzugreifen, wie beispielsweise auf Richtlinien, Reglemente, Standards oder Weisungen.

1823-Blog3_IntranetnutzungBerufsgruppe-thumb-500x312-1822.png

Ausserdem hat sich herausgestellt, dass es Unterschiede je nach Arbeitsort und dem dort verfügbaren Intranet gibt. Sprich: Intranets, die aufgrund der Online-Inhaltsanalyse mehr Kriterien erfüllen als andere werden von den Nutzern auch häufiger genutzt, wie diese Grafik zeigt:

Blog3_IntranetreifeHäufigkeitNutzung.png

Gleichzeitig werden diese Spitalmitarbeitenden bei der Arbeit stärker durch das Intranet unterstützt als andere. Auch gesamthaft zeigt sich ein Zusammenhang zwischen der Häufigkeit der Intranetnutzung und dem Ausmass der Arbeitsunterstützung durch das Intranet. Dieser Sachverhalt ist einerseits eine logische Folge der Häufigkeit der Intranetnutzung, zeigt andererseits aber auch, dass Intranets im Spitalumfeld viel Potential haben die Mitarbeitenden bei der täglichen Arbeit zu unterstützen, dieses aber momentan nicht ausgeschöpft wird.

Blog3_IntranetnutzungArbeitsunterstützung.png

Bezüglich der Bedürfnisse der Spitalmitarbeitenden lässt sich festhalten, dass die Spitalmitarbeitenden grundsätzlich mit ihrem Intranet zufrieden sind. Einzig zur Suche sowie zur Struktur der Intranets äussern sich die Spitalmitarbeitenden kritisch. Sie wünschen sich eine bessere Suchfunktion sowie eine übersichtlichere und benutzerfreundlichere Struktur. Im nächsten Beitrag werden die Resultate zum Stand der Intranets im Spitalumfeld vorgestellt.

Trends im E-Commerce: Wrap Up 2010

Am diesjährigen Lago-Event der Namics stand neben den Top 10 Internet-Trends von Marcel Albertin und Jürg Stuker und den Ausführungen von Michael Rottmann zum Thema Social Media Monitoring ein Wrap Up über die neusten E-Commerce-Trends 2010 auf dem Programm.

Trend 1: User Centered Methods
Bei Konzeption, Technologiewahl und der Optimierung von E-Commerce-Sites müssen die Bedürfnisse der Besucher und Kunden im Zentrum stehen.
In der Konzeptphase hat sich das Arbeiten mit Personas bewährt. Sie geben der definierten Zielgruppe ein konkretes Gesicht und eine fassbare Identität.
Mittels A/B-Testings lassen sich mit vergleichsweise geringem Aufwand direkte Feedbacks der Benutzer einholen, in dem abweichende Varianten eines Prozessschrittes angeboten werden. Die Benutzersessions werden abwechselnd auf die Varianten verteilt und können so nach einer gewissen Laufzeit aufgrund ihrer Conversion Rate gemessen werden. Nur diejenige Variante, mit der besten Performance, bleibt aktiviert.
Guided Search & Navigation Tools ermöglichen es, auf dem Online Shop nach allen (vorhandenen) Produktattributen zu navigieren. Egal mit welchem kognitiven Modell der Benutzer im Shop navigieren will, er finden die entsprechenden Begriffe. Durch den Einsatz solcher Tools ist gewährleistet, dass einerseits diese Attribute in einem logischen Zusammenhang stehen (keine Null-Resultate mehr!) und andererseits über alle Wege durch das Online-Angebot Konsistenz besteht (Suche, Navigation, Auswahlmenüs, Tag Cloud etc.).
Trend 2: Broad Design
Der Hauptgrund, warum Benutzer ein Online Shop besuchen, ist das konkrete Produkt. Diesem gilt, zumindest in der ersten Phase des Verkaufsprozesses, die grösste Aufmerksamkeit. Das Design kann das wirkungsvoll unterstützen, in dem die Fläche, die dem Produkt gewidmet ist, möglichst grosszügig gestaltet wird. Auch mittels Augmented Reality-Anwendungen kann erreicht werden, dass das Produkt möglichst nahe zum Benutzer kommt und so seine Entscheidungssicherheit erhöht wird.

Trend 3: Dashboards
Zu häufige Seitenwechsel im Online Shop schmälern das Kauferlebnis erheblich. Auf jeder neuen Seite muss sich der Benutzer neu orientieren. Dazu kommt die Ladezeit, die den Flow durch den Shop behindert. Der One-Page-Check-Out im Olypic Store Vancouver 2010 verzeichnet durch das Vermeiden von Seitenwechseln nur gerade halb so viel Prozess-Abbrüche wie der Check Out über mehrere Seiten.
Mittels Layern wird dem Benutzer nur diejenige Information neu geladen, die er anfordert. Bei konsequentem Einsatz von Layern eröffnet sich „mit der Tiefe“ eine dritte Dimension des Online Shops und ermöglicht auch so, lästige Seitenwechsel zu verhindern.
Trend 4: New Tranparency
Die durch Drittanbieter wie Toppreise, Comparis, etc. erzeugte Preis- und Produkttransparenz stellen neue Herausforderungen dar für die Betreiber von Online Shops. Zusätzlich nimmt die Bereitschaft von Käufern zu, öffentlich über ihre Erfahrungen mit dem Produkt zu berichten. Damit wird der Kaufentscheid inzwischen nur noch zu einem geringen Teil vom Unternehmen beeinflusst. Diesem Trend kann das Unternehmen offensiv entgegentreten, in dem diese neue Transparenz nicht alleine Drittanbietern überlassen wird. Dies kann im eigenen Shop durch Q&A’s, Reviews, Empfehlungen etc. erfolgen. Damit erhöhen sich die Glaubwürdigkeit zum Anbieter und das Vertrauen in das Produkt und die Entscheidungssicherheit von Benutzern wird damit positiv beeinflusst.

Weitere Ausführungen zu den vier Trends und viele Beispiele:

Und direkt als Download Trends im E-Commerce: Wrap Up 2010 [pdf, 12,3MB]

Jazoon 2010 – Tag 3

Bettina Polasek und Marco Cicolini zeigten in ihrer Session „Essentials of Testing“ wie AdNovum die Qualität ihrer Software sicherstellt und welche Tools dazu eingesetzt werden.
Andrew Lombardi präsentierte den Zuhörern wie einfach und schnell man mit Apache Wicket eine Webanwendung entwickeln kann. Mehrmals zeigte er die Einfachheit von Wicket im Vergleich zu JSF auf.
Dass mit Spring Roo die Produktivität von Entwicklern gesteigert werden kann, zeigte Eberhard Wolff in einer live gehaltenen Demo.

1798-jazoon_1-thumb-500x333-1797.jpg

Quelle: http://www.flickr.com/groups/jazoon10/

Fazit
In drei parallelen Sessions trugen die Sprecher ihr fundiertes Fachwissen vor – eine geballte Ladung an Informationen. Die Keynotes waren alle hervorragend und auch die Mischung der Sessions und ihre Qualität waren gut. Natürlich gab es bei der Fülle von Vorträgen auch den einen oder anderen, der die Erwartungen nicht ganz erfüllte. Alles in allem ist die Jazoon aber eine empfehlenswerte und wirklich internationale Java Konferenz, die Lust auf das nächste Jahr macht.

Jazoon Tag 1
Jazoon Tag 2

Jazoon 2010 – Tag 2

Ken Schwaber, Mitbegründer von Scrum, sprach über „Total Cost of Ownership and Return on Investment“.

1795-ken_schwaber-thumb-500x333-1794.jpg

Quelle: http://www.flickr.com/groups/jazoon10/

Er betonte die Wichtigkeit einer klaren, verständlichen „Done“-Definition. Fehlen in dieser Definition z.B. Testpläne oder die Integration von anderen Komponenten, so steigt die Menge von „Undone work“ nicht linear sondern exponentiell an. Dieser Effekt wiederum führt am Ende einer Iteration (Sprint) zu einer sehr aufwendigen Stabilisierung der Software.

Peter Lubbers erläuterte in seinem kurzweiligen Vortrag HTML 5 WebSockets.
Um den Nutzern heutzutage ein „Realtime“ Web-Erlebnis zu bieten, werden Techniken wie Comet oder Reverse Ajax verwendet. Die Simulation der bidirektionalen Kommunikation über einen HTTP-Browser hat jedoch negativen Einfluss auf den Datendurchsatz und die Latenz.
Mit HTML 5 WebSockets ist nun eine Full-Duplex-Kommunikation über nur ein Socket möglich. Anhand einer Online-Poker-Applikation mit mehreren Spielern demonstrierte er eindrücklich das Realtime-Erlebnis.
Browsersupport:

  • Chrome 4.0 +
  • WebKit Nightly Builds
  • Geplant für Opera und Firefox
  • IE kein Support in naher Zukunft

Beispiele für den Einsatz von WebSockets sieht Lubbers in RIA’s wie Echtzeit-Finanz-Anwendungen oder Online Games.

Jazoon Tag 1

Code-Metriken auf dem Prüfstand

Wie lässt sich die Qualität von Code bestimmen? Welche Kriterien sollen dafür hinzugezogen werden?
Eine mögliche Antwort könnte sein: „So gut wie die Abnahme-Testresultate des Kunden“… Stimmt, aber das würde erstens bedeuten, dass die Qualität des Codes erst gegen Ende des Projekts hin gemessen würde und dies auch nur als Momentaufnahme. Und zweitens, ein Abnahme-Test kann aus Zeit/Budget-Gründen nie das Gesamtsystem testen. Obwohl das eigentliche Testing einen sehr wichtigen Beitrag zum Erfolg eines Projektes beiträgt, ist es – was die Qualität des Codes betrifft – nicht unbedingt alles.

Eine der zentralen Herausforderungen, welche sich bei der Entwicklung von Software stellt, ist die, dass das gesamte System eigentlich nie in den Blick zu bekommen ist. Ein Entwickler sieht immer nur einen sehr kleinen Ausschnitt davon im Editor seiner Entwicklungsumgebung. Um es zu vergleichen… wie gut würde wohl ein Auto/Haus/Brücke/etc., wenn jeder der Beteiligten während des gesamten Entwicklungszeitraums den zu konstruierenden Gegenstand immer nur durch eine kleine Öffnung von sagen wir 20cmx20cm sehen würde? Ich möchte nicht als erster über die Brücke… :-) Und genau hier unterscheidet sich die Konstruktion von Software von der Konstruktion von anderen realen Dingen.

Die Frage, die sich also weiter stellt ist: „Wie bekomme ich eine einheitlichere Sicht auf die gesamte Codebasis, welche ein Softwaresystem ausmacht?“… und das bitte so, dass es die Entwickler in keinster Art und Weise stört. Genau in diese Presche springen Werkzeuge, welche Metriken und Codeüberprüfungen über den entwickelten Code erstellen. Sonar von Sonarsource ist so ein Werkzeug, welches a) Opensource ist und b) für Java-Projekte verwendet werden kann. Bei Namics haben wir im Januar ein Pilotprojekt gestartet, bei welchem von Beginn weg Code-Metriken erfasst und ausgewertet wurden. Diese Erfassung erfolgt automatisch und zeitgesteuert durch den Bamboo-Server , welcher als Continuous Integration Server bei Namics fungiert. Und es werden nicht nur Code-Metriken erfasst. Sonar bietet auch die Möglichkeit, neben Metriken den Code auch auf allgemein bekannte Programmierfehler hin zu überprüfen (Abschliessende Features siehe http://www.sonarsource.org/features/).

Das Fazit nach fast sechs Monaten fällt für mich durchwegs positiv aus. Die anfängliche Skepsis gegenüber einem weiteren Werkzeug, welches im Softwareentwicklungsprozess integriert ist, hat sich definitv „in Luft aufgelöst“. Wir haben die Codemetriken mind. nach jedem dreiwöchigen Sprint im Team (mit dem Kunden) angeschaut und Massnahmen ergriffen wo notwenig. Gefunden haben wir einiges… Neben klassischen Programmierfehler (z.B. in einer Klasse equals() nicht jedoch hashCode() implementiert) haben wir auch zyklische Abhängigkeiten in Java-Packages entdeckt, welche sich mit der Zeit in einem grösseren Entwicklungsteam einschleichen.

Qualität beginnt auf unterster Stufe und das ist der Code, welcher im Projekt geschrieben wird. Und über die Zeit (z.b. Codebasen, in welchen über mehrere Jahre entwickelt wird) fällt jedes System tendenziell auseinander (siehe zweite Regel der Thermodynamik). Dieser Entropy des Codes kann mit Werkzeugen durchaus etwas entgegengehalten, die Tatsache jedoch nicht aufgehalten werden (nicht umsonst werden Softwaresysteme immer wieder neu geschrieben). Mittels Metriken und Codestyle-Checks lässt sich jedoch eine gute Basis für gesunden Code und die weiteren höherliegenden Qualitäts-Massnahmen legen.

Wer interesse an Sonar hat, kann unter http://nemo.sonarsource.org Beispielprojekte einsehen.

E-Commerce will vermarktet werden – aber wie? (Internet-Briefing-Vortrag)

Eines ist klar: Wenn ich die Zauberformel für E-Commerce-Vermarktung gefunden hab, arbeite ich nur noch aus Spass und zum Zeitvertreib. Momentan bin ich immer noch auf der Suche nach dem Grahl. Mein Zwischenergebnis auf diesem Weg habe ich am Mittwoch auf dem Internet Briefing Bern vorgestellt.

1789-Modell-thumb-500x228-1788.png

Das Thema ist nicht neu, aber das was sich tut schon
Natürlich beginnt der Vortrag mit Bannern, stellt aber die Forderung auf, dass es bei Banner nicht reicht, sich nette Animationen auszudenken. Spass, Interaktion und Mehrwert sind viel mehr die Faktoren, die man berücksichtigen sollte, um nicht im allgemeinen „Sumpf“ unterzugehen – oder „ausgeblendet“ zu werden.

Facebook ist wiedermal anders als die anderen
Mit den Facebook Ads hat die Plattform eine Art Adwords geschaffen, die aber auch mit Bildern funktionieren. Interessant ist aber v.a. die Performance dieser Werbeform: Durch Targeting und die „Unverbrauchtheit“ der Werbeform erzielt man hier (noch) überzeugende CPCs und damit eine hohe Werbeeffizient. Und wenn man sich vorstellt, dass fast jeder 3. Schweizer auf Facebook registriert ist, wirds für alle Werber spannend.

Weiter gehts mit Bewegtbild und Video Ads, auch keine neue Themen, aber Mittel, die immer besser funktionieren. Über eine Kurzsequenz lassen sich Emotionen leichter hervorrufen und „Stories“ erzählen. Und: Die Plattformen sind ein Stück schlauer geworden, wie sie mit Video Ads umgehen sollen und wie sie diese in ihre Seiten einbinden können.

Und dann kommen Mobile, iPad und Social Media
Das sind die „Newcomer“ im Marketing-Mix. Eine iPad App oder noch besser: ein iPad Shop (wie bspw. Gilt) sind per se schon Vermarktung, weil man damit (noch) Aufmerksamkeit erregen und sich differenzieren kann. Und abgesehen davon: Man kann einfach einm faszinierendes Shop-Erlebnis kreiieren, wie der Gilt-Shop auf dem iPad zeigt. Als spezielle Art der (viralen) Vermarktung darf man selbstverständlich das Thema Social Commerce und Social Media nicht auslassen. Ganz zu schweigen vom Potenzial das mobile Anwendungen nach wie vor bringen – nicht zuletzt durch Location Based Services, Mobile Shopping oder Scanning Services. Im Grunde ist das auch die Medienbrücke, die ein geschlossenes Erlebnis vom Home-Shopping bis zum Einkauf im Laden ermöglicht. Mehr dazu im Vortrag.

Neben diesen Themen ging es auch um die „Neue Normalität“ (amazon verkaufte im Dezember 2009 mehr eBooks als physische Bücher) und eine Budgetplanung, die sich mit dieser neuen Realität deckt. Es ging um viele Beispiele und: um Inspiration.

Die anschliessende Diskussion hat gezeigt, dass das Thema nach wie vor hoch-spannend, emotional und oft auch sehr subjektiv ist. Wenn wir akzeptieren, dass die 20-Minuten von Seite 1-3 Werbung zeigt, heisst das noch lange nicht, dass wir im Internet akzeptieren, dass vor einem Videobeitrag eine Spot kommt.

Laden Sie sich die

Internet-Briefing_Namics-Vortrag_E-Commerce-Vermarktung_20100602_v1-0_handout.pdf

herunter und sagen mir Ihre Erfahrung oder Meinung zum Thema. Übrigens: Kürzlich kam der neue „E-Commerce-Report 2010″ für die Schweiz heraus, der spannende Inputs auch zu diesem Thema liefert.

Social Commerce – Levi’s machts vor

Social Commerce ist die Kombination von eCommerce mit Social Media. Social Commerce hat viele Facetten, aber die wichtigste ist wohl, dass ich meine Kaufentscheidung im Online-Shop aufgrund von Empfehlungen meines Social Graphs fälle, also aufgrund von Empfehlungen meiner Freunde, und nicht aufgrund von Empfehlungen von fremden Personen wie z.B. bei amazon.com. Wie im richtigen Leben.

Spannend dabei ist, dass die grossen eCommerce-Plattformen wie z.B. amazon.com seit langem versuchen, ein soziales Netz um Ihren Shop zu spannen, die Social Media Plattformen wie z.B. Facebook nun aber den Spiess umdrehen, und ihrerseits versuchen, eCommerce auf die Social Media Plattformen zu bringen. Auf Facebook schiessen die Online Shops denn auch bereits überall aus dem Boden, z.B. hat die US Elektronikhandelskette Best Buy seit geraumer Zeit einen Facebook-Shop – leider noch ohne

1784-like button facebook-thumb-500x245-1783.png

-Button, aber immerhin mit dem Share-Button. Mit der Payvement App hat man einen Facebook Front Store denn auch in ein paar Minuten aufgesetzt, inkl. Social Recommendation Features. Leider noch ohne Massen-Import von Produkten, aber das ist wohl nur noch eine Frage der Zeit.

Die zweite Variante ist, dass man die Social Networks in seinen eigenen Shop integriert und sich so den Social Graph der potentiellen Käufer zu Nutzen macht. Levi’s machts mit dem Friend’s Store vor:

1781-Picture 6-thumb-500x176-1780.png

Sobald ich den „Facebook-Connect“-Button geklickt habe, sehe ich im Levi’s Friend Store, welche Produkte meine Facebook-Freunde auch „ge-liked“ haben. Im Bild oben beispielsweise Michael Rottmann. Ich warte eigentlich noch auf den „bought“-Button – aber das ist wohl nur eine Frage der Zeit ;). Wenn ich nämlich wüsste, welche Produkte meine Freunde wirklich gekauft haben, dann wüsste ich definitiv, wo ich Fragen sollte vor meinem eigenen Kauf. Das würde ich mir übrigens anstelle der „anonymen“ recommendations auf amazon.com wünschen…

Das Schöne bei der ganzen Sache ist, dass ich damit zusätzlich noch enorm viel Zeit für Produktrecherche und Produktevergleiche einspare – denn das hat ja vielleicht schon einer meiner Freunde gemacht. Ich muss nur wissen, dass er das Produkt gekauft hat und ihn kurz anfragen.

Schauen wir mal was die Zukunft bringt und ob die Datenschützer dem sozialen Treiben keinen Einhalt gebieten. Wenn nicht, dürfte Social Commerce wohl ein ziemlich spannendes Thema werden.

Jazoon 2010 – Tag 1

1792-jazoon-thumb-500x166-1791.jpg

Die Eröffnungs-Keynote, „Java SE and JavaFX: The Road Ahead“, der diesjährigen Jazoon hielt Danny Coward von Oracle. Er zeigte deutlich den Unterschied zwischen der Java Plattform SE 7 und der entsprechenden Implementierung JDK 7 auf.
Am 24. Mai feierte Java seinen 15. Geburtstag. Nach einer Übersicht über die Evolution der letzten 15 Jahre, zeigte Coward ein interessantes Video des Star7 PDA Prototyps. Java vor 1995: Wirklich erstaunlich was dieses etwas zu gross geratene Gadget schon alles konnte!!

Zu den neuen Features des JDK 7 gehören unter anderem die Unterstützung von Parallelisierungen, die Fork/Join API sowie ein neuer Garbage Collector. Auch JavaFX erhielt ausser Performance Verbesserungen viele andere Neuerungen: Zusätzliche UI-Komponenten, einen neuen Grafik-Stack Prism und einen verbesserten TV-Emulator.

Eine weitere interessante Session hielt Stefan Tilkov von innoQ über RESTful SOA. Hauptsächlich wurden die Vorteile einer REST-basierten Architektur gegenüber SOAP aufgezeigt. Folgend einige Empfehlungen von ihm:

  • Ensure your web apps are RESTful. Every application is better if its only RESTful
  • Expose machine readable information via HTTP GET. Very simple and easy
  • Manage your metadata with RESTful HTTP
  • Use WS-* for read/write interactions if politics or legacy force you. They may be good reasons
  • Draw your own conclusions watching the adoption of WS-* vs. RESTful HTTP

Zum Abschluss des Tages sprach Kevlin Henney über sein Buch „97 Things Every Programmer Should Know“.
Auf einige Ratschläge aus dieser Liste wie „code in the language of the domain“, „learn to estimate“, oder „comment only what the code cannot say“ ging er auf sehr unterhaltsame Art und Weise vertiefter ein.