Die Zukunft von Corporate Communications

Das .HarbourClub. Syposium startet mit einem Beitrag von Prof. Manfred Schwaiger der LMU Universität München über „Die Zukunft von Corporate Communications“.

Startpunkt respektive Herausforderung ist die Aussage, dass sich der Marktwert eines Unternehmens wohl kaum aus materiellen Werten erklären lässt. Zu den „tangible assets“ kommen Aspekte wie Marken, Patente, Mitarbeiterwissen, Vertrauen oder Netzwerke. Oder einfacher gesagt: „Der Grund, weshalb sie eine Firma kaufen, liest sich immer weniger in der Bilanz“. Genau diese immateriellen Werte hat die Finanzkrise auch am stärksten angegriffen. Schliesslich seien ja auch keine Mauern eingerissen worden…

2691-reputation-firmenwert-thumb-500x544-2690.jpg

Der Fokus der folgenden Ausführungen richtet sich auf Vertrauensbildung und somit die Reputation. Also der Blick auf die relevanten Stakeholder: Kunden, Mitarbeiter, Investoren, Politik/Gesellschaft und Lieferanten. Mit den Beispielen von Nestlé und Vattenfall zeigt Schwaiger, dass gewisse Firmen „robuster“ sind.

These: Vertrauensbildung (Vertrauen als „Vorläufer“ der Reputation) wird in der Zukunft noch wichtiger sein als es (ohnehin) bereits war. Dies, weil Stakeholder kritischer und besser informiert sind. Auch die Medien (inkl. Social Media) erzeugen mehr Druck. Das einzige was man tun kann, ist im Vorfeld an der Vertrauensbildung zu arbeiten. Zu was Reputation taugt, soll uns diese Darstellung zeigen.

2694-reputation-positiv-stakeholders-thumb-500x260-2693.png

Als Definition für Reputation hält der folgende Satz her: „Generelle Einschätzung eines Unternehmens durch die verschiedenen Stakeholder, umfasst sowohl kognitive als auch emotionale Aspekte. Reputationsurteile basieren auf direkten Erfahrungen und auf verarbeiteten Kommunikationsbotschaften.“

Doch wie lässt sich Reputation messen? Sowohl das Abkanzeln andere Ansätze wie auch die Erklärung des eigenen, empirischen Ansatzes überlasse ich einer Publikation über den ECRS-Ansatz [pdf, 1MB].

Und nun zur Steuerung der Reputation. Das grundsätzliche Modell wird wie folgt erklärt.

2697-reputation-management-thumb-500x307-2696.png (Treiber)analyse > Massnahmen > messen“ class=“mt-image-none“ style=““ />

Interessant aus meinem Blick ist, dass die Erhebung nach Stakeholdern aufgeschlüsselt wird und sich somit mögliche Aktionsfelder zumindest nach den Empfängern gewichten lassen. Da mir der Teil — ausser einem anonymes Beispiel („stellen sie sich ein europäischer Flugzeughersteller vor“) — zu wenig Inhalt drin hat, schreite ich gleich zu Abschluss des Vortrages.

Schwierig sei es dem CFO zu erklären, wer er für Reputation bezahlen soll, da sich der Einfluss auf den Aktienkurs im Einzelfall kaum beweisen lässt (im Rahmen einer Portfolio-Analyse aber eher). Als Lösungsansatz präsentiert Schwaiger, dass sich Steering Committees anders zusammensetzen müssten. Die Kommunikationsleute müssen rein und der CEO muss ihnen Rückendeckung bieten.

Und nun noch die letzten These die mir sehr gut gefällt: „Emotion wird wichtiger als Information“. Emotion sein einfacher aufzunehmen und schwieriger zu kopieren.

Als Beispiel die „Evian Roller Babies“ verbunden mit der Aussage, dass die „Leitungsdaten“ von Virals bestechend ist und Social Media in der Kommunikationsarbeit sehr bedeuten wird… jetzt fühle ich mich mit Namics wieder „ganz zu Hause“ ;-)

Ergebnis der CMS Evaluation, Showtime!

**Für mich kommt nun der spannendste Teil der CMS Evaluation, schliesslich haben in den vorangehenden Schritten Theorie, teilweise abstrakte Anforderungen und viele Zahlen in Bewertungstabellen das Bild geprägt.**

Das Bedürfnis nach einem neuen CMS, Workshops zur Erhebung von funktionalen, nicht-funktionalen und Business Anforderungen sowie die eigentliche Bewertung und Evaluation der CMS haben wir bereits in den vergangenen Posts behandelt. Nun haben wir eine Rangfolge von Produkten und deren Erfüllungsgrad der Kundenanforderungen.

Wie weiter?
Die Rangfolge der Systeme kann nun interpretiert und erklärt werden. Aufgrund der Standardabweichung in den Ergebnissen lassen sich die Ausreisser-Systeme identifizieren und die Stärken und Schwächen der einzelnen Produkte argumentieren.

2602-Ranking-thumb-500x329-2601.png

So kommen wir zu einer Short-Short-List von maximal drei Produkten, welche die Kundenanforderungen nahezu optimal erfüllen. Auf dieser Basis lassen sich nun durch uns und den Kunden TCO Berechnungen erstellen, was die Einführung des einzelnen CMS über 3 Jahre hinweg unter Annahme eines bestimmten Projektvolumens kostet. Hier kommen nun zum ersten Mal auch die Lizenzkosten der einzelnen Content Management Systeme ins Spiel. Das Bild der Short-Short-List kann sich also auch sehr schnell wieder ändern, falls Lizenzkosten schlussendlich den Ausschlag für oder gegen ein Produkt geben.

Nach der TCO Berechnung ist die Evaluation eigentlich abgeschlossen. Es gibt aber noch zwei Variablen, die wir bisher noch nicht näher berücksichtigt haben: Die Projektkomplexität und den Hersteller an sich.

Warum also nicht anhand eines konkreten Lastenhefts für das vorliegende Projekt den Hersteller sein Produkt präsentieren lassen? Und zwar auf Basis von konkreten (und möglicherweise komplexen) Anforderungen, welche später durch das gewählte CMS erfüllt werden müssen? So lernen sich unser Kunde und der Hersteller bereits kennen, und man erhält einen detaillierteren Einblick in das System. Und zwar auf Basis von echten Anforderungen.

Gerne möchte ich an dieser Stelle zur Diskussion auffordern: erkennt sich jemand anhand des gezeigten Vorgehens oder der gezeigten Situationen wieder? Wer steht vor der Entscheidung für ein neues Content Management System? Hat jemand diesen Prozess bereits durchgemacht und was waren die Erfahrungen?

Vielleicht können meine Kollegen und ich an der einen oder anderen Stelle in Zukunft bei konkreten Fragestellungen helfen!

Sie haben einen Teil unserer Serie ‚CMS Evaluation‘ verpasst? Hier finden Sie nochmals alle Beiträge dazu:

* Ein neues CMS?
* Business Requirements an ein CMS
* Funktionale und nicht-funktionale Requirements an ein CMS
* Bewertungs-Prozess einer CMS Evaluation

Opensource CMS: Drupal und TYPO3 – Ein Vergleich

Namics hat in der Vergangenheit im Opensource Content Management Umfeld verschiedene CMS Systeme wie TYPO3, Drupal, Magnolia sowie Webapplikationen mit dem Framework Ruby on Rails erfolgreich umgesetzt.

Bekanntester Vertreter im Opensource CMS Umfeld (LAMP Architektur) ist dabei oft TYPO3. Neuerdings erreichen uns aber auch vermehrt Anfragen für Drupal. Die Auswahl des „richtigen“ Systems ist eine Kernkompetenz von Namics und basiert auf einer Systemevaluation – in diesem Falle einer sogenannten CMS Evaluation. Auf eine genauere Erläuterung des Vorgehens verzichte ich in diesem Post explizit. Mein Ziel ist es, die Systeme Drupal und TYPO3 bezüglich 3 Punkten zu vergleichen. Eines vorneweg: Beides sind „vollwertige“, freiverfügbare Opensource Content Management Systeme.

1 Community Sites vs. Corporate Websites
TYPO3 wie auch Drupal verwalten im Kern Inhalte von Websites. Drupal fokussiert dabei klar auf Community-Sites, also überall dort wo User aktiv mit Kommentaren oder eigenen Beiträgen den Inhalt einer Website beeinflussen.

Bei TYPO3 handelt es sich im Gegensatz dazu um ein „klassisches CMS“. Speziell ausgelegt auf das Verwalten grösserer Corporate Websites (selbstverständlich auch denkbar für Intra- oder Extranets). Es bestehen umfangreiche Möglichkeiten, eine oder mehrere Sites zu verwalten. Am Beispiel des Energieproduzenten Repower sind „Sites“ als eigene Länderauftritte zu verstehen . Also jeweils 1 unabhängiger Seitenbaum für Schweiz (ch), Deutschland (de), Gruppe (group) und Mittel- und Osteuropa (cee):
repower.com/de/ch
repower.com/de/de
repower.com/de/group
repower.com/de/cee

In jedem Land können Inhalte beliebig verwaltet werden. Dies gilt natürlich auch für Sprachen und Funktionen.

2 Wo werden Inhalte erstellt und editiert? Frontend vs. Backend
Wie bereits erwähnt ist Drupal massgeschneidert für Community Sites, d.h. ein Grossteil des Inhalts entsteht in der Regel durch die User selber. Demnach gibt es eine Verschmelzung zwischen Front- und Backend, wie man dies von Community Sites wie Facebook und co. gewöhnt ist. Ein Backend sucht man bei Drupal in der Basisinstallation vergebens: Alles spielt sich im Frontend ab, was für einfache inhaltliche Anpassungen sehr angenehm ist. Backend Themes für Autoren können bei Bedarf installiert werden.

TYPO3 unterscheidet deutlich zwischen einem Front- und Backend. Autoren verwalten Inhalte zu einem grossen Teil direkt im Backend. Neuere TYPO3 Releases folgen dem Trend, Inhalte direkt auf der Seite, also im Frontend zu editieren.

3 Hierarchische Seiten vs. kategorisierter Inhalt
TYPO3 basiert auf Seiten (Pages) die in einer hierarchischen Strukur einen Seitenbaum (=Site) ergeben. Am Beispiel einer Versicherung wären dies beispielsweise einzelne Produktseiten. Hier am Beispiel Page „Hausrat-Versicherung“. Einzelne Pages können wiederum Seitenelemente wie z.B. eine Spalte für Teaser im rechten Randbereich umfassen. Ein Seitenbaum sieht in TYPO3 wie folgt aus:

2684-Typo3-backend-thumb-500x508-2683.jpg

Drupal fährt einen stark modularen Ansatz. Im Gegensatz zu TYPO3 kommen sogenannte Nodes zum Einsatz. Zurück zu unserem Beispiel der Versicherung: Für die Abbildung der Produktseite „Hausrat-Versicherung“ wird ein Node „Hausrat“ eingesetzt. In diesem Node sind relevante Informationen wie der Titel, Produktinformationen, Bilder, Preisinformationen etc. gespeichert. Nodes sind nicht hierarchisch angeordnet. Die Struktur ist flach resp. ergibt sich über die Kategorisierung einzelner Nodes, Eine Seitenbaumansicht gemäss TYPO3 gibt es demnach nicht, vielmehr werden Nodes über Filter kategorisiert (siehe Screenshot).

2681-Drupal_kategorisierung-thumb-500x358-2680.jpg

Im Kern geht es also darum,

> wer (User oder Autoren) hauptsächlich die Inhalte eines Webauftritts erstellt,
> wie oft Inhalte an verschiedenen Stellen wiederverwendet werden und natürlich
> welche Art von Webauftritt (Tendenz zu vielen Community Features oder Corporate Website mit weniger dynamischen Inhalten) realisiert werden soll?

Fahren Sie lieber Mercedes oder BMW?

Länderzuordnung bei der Google-Suche: Geotargeting

In Projekten immer wieder gefragt: Wie entscheidet Google bei der Einschränkung der Suche nach Land ob ein Inhalt in der Trefferliste erscheint? Hier vorab ein Beispiel:

i) Suche nach „facebook blogger star“ auf www.google.de (ohne Einschränkung)

2655-facebook-blogger-star-DEohne.jpg

ii) Suche nach „facebook blogger star“ auf www.google.de (Einschränkung: Seiten aus Deutschland)

2656-facebook-blogger-star-DEmit.jpg

iii) Suche nach „facebook blogger star“ auf www.google.ch (ohne Einschränkung)

2657-facebook-blogger-star-CHohne.jpg

iv) Suche nach „facebook blogger star“ auf www.google.ch (Einschränkung: Seiten aus der Schweiz)

2658-facebook-blogger-star-CHmit.jpg

Hier meine Interpretation dazu, wie Google die Zuordnung erledigt:

– Macht der User keine Einschränkung, so zeigt Google die Treffer abhängig von der geschätzten Relevanz, unabhängig davon auf welcher Länderdomäne von Google gesucht wird. Hier gelten die „normalen“ Optimierungsregeln (unser Archiv mit SEO- und SEM-Tipps).

– Macht der User einer Einschränkung auf ein Land, so werden die Treffer (resp. die durch Google erschlossene Kollektion) genau einem Land zugeordnet. Dafür wird nicht der reale Traffic genutzt (denn wir hätten mehr Besucher aus Deutschland als aus der Schweiz) aber eine Heuristik welche u.a. den Domänennamen und den Standort des Server signifikant in die Gewichtung einfliessen lässt.

Und nun zum Titel es Posts: Die explizite Zuordnung eines Angebotes zu einem Länderfilter bei der Google-Suche. Der Kern der Information stammt dabei aus einem Help-Artikel bei Google.

1) Es gibt nur zwei Möglichkeiten die Länderzuordnung zu machen entweder für eine ganze Domäne oder für einen vollständigen Teilbaum der URL-Struktur (der Informationsarchitektur). Das Länderkonzept muss dies vorgehen.

a. Möglichkeit „Domäne“

2661-Sika-Laender.jpg

PS: Eine andere (schönere) Variante wären eigene Länderdomänen wie www.sika.de oder www.sika.fr doch diese müssen vorhanden sein und erzeugen zusätzliche Kosten.

b. Möglichkeit „vollständiger Teilbaum“

2660-Phonak-Laender.jpg

2) Je nach Variante muss nun jede Domäne resp. jeder Teilbaum in den Webmaster-Tools von Google als eigene Site angelegt werden

3) In den Webmaster-Tools kann nun die Zuordnung zu (nur) einem Land gemacht werden

2659-Webmaster_Tools-Geotargeting.jpg

Facebook killed the Blogger Star

Seit der Erfolgswelle von Facebook, Twitter und Co. sinken die Aktivitäten auf den Blogs. Weniger Beiträge, weniger Kommentare – Führt der Social Media Trend zum Aussterben der Blogs?

2653-Lomo Portrait - Felix in Facebook-thumb-500x333-2652.jpg

Lomo Portrait – „Felix in Facebook“

Facebook gibt Vollgas. In der jüngeren Vergangenheit hat Facebook Web 2.0 Konzepte kopiert, die gute Akzeptanz gefunden haben. Von Twitter stammt die Idee mit den Status Updates, von Gowalla und Foursquare die Idee zu Plazes, den Geolocation Updates. Wird es diese Dienste früher oder später verdrängen? Wir werden es sehen.

Trend – Direkt publizieren von unterwegs
Fakt ist, dass den Bloggern eine Flut von neuen niederschwelligen Instrumenten und Plattformen zur Verfügung stehen, um Inhalte, Gedanken, Fotos, Videos und Links zu veröffentlichen. Die zunehmende Miniaturisierung von HD Foto- und Videokameras, die erstmals einigermassen akzeptablen Datenkosten für Mobiltelefone und die wachsende App-Welt machen die Handys zu mobilen Produktionsstudios. Viele Inhalte können bereits von unterwegs erstellt und publiziert werden und benötigen keinen Umweg über den PC zu Hause. Das Blog ist nicht länger die Plattform Nummer eins. Ein kurzer Gedanke, ein Youtube Video, ein spannender Artikel waren bis vor kurzem noch einen Blogpost wert. Heute bieten sich andere Plattformen an, Kleinstinhalte schneller und effizienter zu veröffentlichen und zu teilen.

Die Qual der Wahl
Wo soll ich nur meine Inhalte veröffentlichen oder sogar gleichzeitig auf verschiedenen Plattformen wie Facebook, Twitter, Tumblr, Flickr, Youtube, Foursquare? Jeder entwickelt so seine eigene Strategie, welche Plattformen er zu welchem Zweck einsetzt; von den banalen Status Updates über die nervigen Checkins bis hin zum elaborierten Fachartikel. Für den ambitionierten Blogger und Social Median stellt sich nun eher das Problem, wie alle diese Aktivitäten wieder gebündelt und überschaubar dargestellt werden können. Und da bieten sich das Blog und Facebook wieder sehr gut an.

User Generated Content hebt ab
Wir reden schon einige Jahre über Web 2.0 und User Generated Content. Aber richtig in Fahrt kommt das Thema erst dank Facebook, iPhone bzw. Digitalkameras in den Handys. Es sind nicht nur mehr die Blogger, die Inhalte produzieren sondern auch viele Privatpersonen, die sich eigentlich gar nicht bewusst sind, dass sie Teil der Medien werden und dass sie Inhalte „produzieren“. Schon ein Status Update ist Content. Vor allem aber Digitalfotos, Videos und nicht zuletzt eine Link Empfehlung ist ein Beitrag für die (Teil-) Öffentlichkeit. Privatpersonen werden zu Inhaltsproduzenten für ihre Freunde und Leser, die nun selbst entscheiden, ob sie Inhalte auf den Online Newsplattformen, Papier oder eben aus ihrem Freundesnetzwerk lesen.

Die Medien entdecken die Blogs und Social Media

Aber auch die Medien entdecken Blogs und User Generated Content und haben diesen zu einem integralen Bestandteil der Online Plattformen werden lassen. Die NZZ hat einige Blogs integriert. So gut, dass man fast nicht mehr merkt, dass es sich um Blogs handelt. Der Tagi hat mit dem Mammablog oder Sweethome erfolgreich zwei schöne Themenblogs lanciert und belässt diese in blogtypischer Form.

Andererseits nutzen die Verlagshäuser Social Media, Blogs und Twitter bewusst als Echtzeitquellen (auch wenn sie es mit der Nennung der Quellen nicht immer ganz so genau nehmen). Ein weiteres Phänomen: Es vergeht kaum eine Woche ohne Beiträge von „Leserreportern“, die Zeugen von Unfällen oder Demonstrationen werden und umgehend Bilder oder Videos an die Redaktionen übermitteln. Der Leserreporter ist offenbar salonfähig geworden.

Mit einer gewissen Genugtuung stelle ich fest, dass sich die Diskussion „Blogger vs. Journalisten“ weitgehend erledigt hat. Schlussendlich zählen der Inhalt, die Relevanz, die Aktualität und natürlich die Qualität unabhängig davon, ob der Inhalt von einem Journalisten, einem Blogger oder einem Twitternutzer stammt. Ein weiterer Beweis: Blogger landen vermehrt auf den PR Verteilern und werden gleichberechtigt und gleichzeitig mit Journalisten mit Informationen versorgt und zu Presseevents eingeladen.

Weniger ist mehr
Es ist nicht nur gefühlt. Die Anzahl aktiver Blogs und die Publikationsfrequenz nehmen ab. Nur glaube ich nicht, dass es sich dabei um Blogsterben in Raten handelt, sondern um eine qualitative Konsolidierung. Die Blogs die bestehen bleiben, haben oftmals eine Nische besetzt, die nicht mehr von den Medienhäusern abgedeckt wird oder eine ausserordentlich hohe Fachkompetenz auf einem bestimmten Thema.

Für diese Blogs sind die sozialen Netzwerke und neuen Plattformen denn auch weniger eine Gefahr, sondern effektive Marketinginstrumente. Das Einbinden von Videos, Facebook Buttons, Flickr Slideshows, e-Papers oder Slideshare-Präsentationen machen Blogposts attraktiver, multimedialer und sind gleichzeitig Multiplikatoren. Das gezielte Publizieren der Blogposts auf Facebook und Twitter erhöht die Reichweite, die Leserzahlen und viel wichtiger noch: es ermöglicht den Dialog mit Lesern, die sonst nicht unbedingt Blogs lesen würden. Also wäre der passende Titel eher „Facebook enables the Blogger Star“ gewesen…

Diesen Beitrag habe ich für die aktuelle Ausgabe des WordPress Magazins geschrieben als schriftliche Ergänzung zum meinem Vortrag am Blogcamp Switzerland.

Vortrag am Blogcamp Switzerland

Eindrücke zur Kinect für XBOX360 Demo

Gestern Abend hatte ich Dank BloggingTom die Chance Microsofts neuestes Spielzeug (nicht das Windows Phone 7) auszuprobieren.
Nachdem meine Wii schon lange nicht mehr am Fernseher angeschlossen ist, und ich auch nur noch sporadisch auf meiner Playstation 3 spiele, war das mal wieder eine gute Gelegenheit zum Daddeln.

Wer mit Nintendos Wii gespielt hat kennt bereits das körperlich aktive Teilnehmen an Spielen. Auch für Sony gibt es mit Playstation Move und EyeToy schon länger Spiele mit Körpereinsatz im Angebot.
In den USA und ab dem 10. November in der Schweiz kann man mit Kinect auch auf der XBox 360 „controller-free“ spielen.

Die Kinect Hardware vereint Tiefensensoren, Kamera und 3D-Mikrofon und wird, an der XBox 360 angeschlossen, unter dem Fernsehgerät platziert.
Die Erkennung von bis zu zwei Spielern erfolgt umgehend, Bewegungen des ganzen Körpers werden sehr genau auf das virtuelle Skelett übertragen.

Folgende Aspekte fand ich bei den gezeigten Spielen (Dance Central, Kinect Sports, Kinect Adventures und Kinectimals) im Bezug auf die User-Experience interessant:

  • Die Interaktion durch Gesten mit den Menüs erinnert an den immer wieder zitierten Film Minority Report. Menüs werden mit einer vertikalen Wischer-Geste des ausgestreckten Armes durchblättert, ein horizontales Wischen nimmt einen Eintrag und verschiebt in sozusagen in einen Auswahl-Slot. Funktioniert sehr gut. Die Affordance im User Interface fehlt jedoch zum Teil. Vor allem wenn man am Anfang noch etwas „bewegungsunfähig“ zu Spielen beginnt weiss man nicht so recht wie man ohne Joystick durch die Menüs navigieren soll.
  • Orientierungshilfe leisten Geisterhände die auf dem Bildschirm erscheinen.
  • Zur Teilnahmebestätigung an Spielen müssen die Spieler ihre Arme auf eine Gewisse Höhe anheben. Das fühlt sich ein wenig wie eine Begrüssung und ein Warm-up an.
  • Nach den Spielrunden werden die Highlights als Foto oder Video wiedergegeben und auch vom Spiel passend zu Bewegung kommentiert. Das ganze lässt sich dann umgehend auf Facebook laden.
  • Die Bewegung im Raum ist weiterhin problematisch, Rennen findet auf der Stelle statt, man kommt einfach nicht vom Fleck.

Fazit: Lustig war es, aber der Wow-Effekt, den die Wii einst auf mich hatte, blieb aus. Allerdings bin ich gespannt, ob nicht bald das Produkt gehackt und damit noch andere Anwendungen abseits von Games entstehen werden.


Ein paar Impresisonen

Vortrag am Finance Forum: Trends im Web, Chancen und Risiken für eine Bank

Pascal Dürr, Leiter Distribution bei Raiffeisen Schweiz, und ich haben am Finance Forum gemeinsam einen Vortrag zu Basis-Trends im Internet gehalten, welche unseres Erachtens auch relevante Auswirkungen auf die Banking-Branche haben. Hier die Zusammenfassung in Textform und unten die Präsentation:

Der zukünftige Bankkunde…

  • informiert sich online
  • vertraut eher seinen Freunden als dem Bankberater
  • braucht die Filiale selten bis gar nicht
  • verbringt 95% seiner Kontaktzeit zur Bank „online“
  • hat eigenes Finanzwissen
  • Will jederzeit und überall Zugriff auf die wichtigsten Bank-Services haben

Trend 1: Social Media
Das Internet wird sozial, resp. viele Personen sind inzwischen auf der einen oder anderen Social Networking Plattform, wie z.B. Facebook, XING oder Twitter vernetzt und tauschen sich dort auch rege aus. Der Informationsfluss zwischen den Bankkunden wird dadurch beschleunigt und die publizierten Informationen werden über Suchmaschinen im Zusammenhang mit der Marke auffindbar. Dieser neuen Direktheit resp. Transparenz sollte man als Bank Rechnung tragen. Wir schlagen dazu folgende konkreten Massnahmen vor:

  • Online Kommunikation im Sinne eines Online-Dialogs zwischen der Bank und den Kunden in der Organisation verankern
  • Aufbau eines Online Reputation Monitorings
  • Erstellung von „Social Media Guidelines“ für die eigenen Mitarbeiter

Trend 2: Self Service
Der Trend zum „Self Service“ im Internet hält an. Es gibt immer mehr „Online Beratungs Applikationen“, wie z.B. Hypothekenrechner, Pensionsrechner, Vergleichsrechner, etc., und natürlich auch das etablierte klassische Online Banking.
Diese „Online Services“ werden laufend umfangreicher und lassen sich immer einfacher bedienen. Das führt dazu, dass die Kontaktzeit zwischen Bank und Kunde sich mehr und mehr vom realen Beratungsgespräch hin zum „Online-Kontakt“ verschiebt.
Zusätzlich hat das zur Folge, dass wenn dann doch einmal ein persönliches Beratungsgespräch stattfindet, der Kunde meist schon sehr gut informiert ist, was die Sache für die Berater natürlich nicht einfacher macht.
Eine weitere zu beobachtende Entwicklung sind neue Firmen, welche sich auf den Banking-Service-Bereich fokussieren. Sie versuchen, Banking-Services von verschiedenen Banken in einer standardisierten Form anzubieten und so eine Banking-Metaebene zu generieren. Zu nennen wären hier als Beispiele mint.com (Budgetplanung) oder Paypal.com (Zahlungsverkehr). Sollten sich solche Plattformen in Zukunft durchsetzen, wäre der direkte Online-Kontakt zwischen Bank und Kunde stark gefährdet, resp. der Kunde würde dann nur noch diese „Umbrella-Services“ nutzen, und nicht mehr auf „seiner“ Bankenplattform arbeiten. Das hätte zur Folge, dass die Banken mehr und mehr im Hintergrund agieren würden, und die Aussenwahrnehmung stark reduziert würde.
Im Zahlungsverkehr bei Online-Shops ist es heute schon so, dass die klassischen Banken keine direkte Rolle spielen und das Feld den Kreditkartenunternehmen und Paypal überlassen.
Um den Trend „Self Service“ stärker Rechnung zu tragen schlagen wir folgende konkreten Massnahmen vor:

  • Laufender Ausbau der Online Beratung (Applikationen, Kontaktmöglichkeiten)
  • Erweiterung des eBankings um Online Beratungs-Services
  • Verfolgung der Vision einer „Online Bank“ mit welcher man 95% der Kundenbedürfnisse online abdecken kann.

Trend 3: Mobile
Internet-taugliche Smartphones sind seit der Lancierung des iPhones anno 2007 state-of-the-Art und immer weiter verbreitet. Damit hat auch die Erwartungshaltung der Kunden in Bezug auf die mobil angebotenen Services zugenommen – natürlich auch im Banking Sektor. Es stellt sich die Frage, ob es in Zukunft „Mobile Banking“ braucht oder ob es nur ein Hype ist. Wir sind der Meinung, dass Banking definitiv mobil wird und die Kunden in Zukunft erwarten, auch unterwegs Saldi abfragen zu können oder Transaktionen zu tätigen. Jederzeit und überall.
Um diesem Trend stärker Rechnung zu tragen, schlagen wir folgende konkreten Massnahmen vor:

  1. eBanking für mobile Browser optimieren (kleine Bildschirmauflösungen, wenig neue Security-Issues)
  2. Native Mobile Banking Applikationen entwickeln (iPhone, Android, etc.)
  3. Zusätzliche Mobile-Services anbieten (z.B.: Budget-Planning inkl. Synchronisation zu eBanking)
  4. Mobile Zahlungsverkehr à la Paypal mit einheitlichem CH-Standard.

Hier die Präsentation dazu:

Bewertungs-Prozess einer CMS Evaluation

**Der Prozess hinter einer CMS Evaluation klingt oftmals nach Voodoo und Willkür, vor allem wenn Zahlen und Bewertungen im Spiel sind. Da am Ende der Evaluation aber das für den Kunden individuell passende Content Management System stehen soll, beziehen wir unsere Kunden in den Bewertung-Prozess ein.**

Auf Basis der gemeinsam erhobenen Anforderungen und Bedürfnisse werden funktionale und nicht-funktionale Cluster der Anforderungen erstellt. Der Kunde nimmt nun aus Sicht seiner Stakeholder eine Bewertung der Anforderungen vor. Jede erhobene Anforderung wird dabei in drei Dimensionen bewertet.

2600-Kriterienbewertung-thumb-500x211-2599.png

Die tatsächliche Wichtigkeit der Anforderung beschreibt, wie hoch deren Stellenwert innerhalb der Evaluation ist. Beispielsweise kann die Integration eines Shop-Systems als business-kritisch bewertet werden, wenn dies den Zielen entspricht. Auf der anderen Seite kann visuelles Bearbeiten von Digital-Assets als ‚nice-to-have‘ in die Bewertung einfliessen, wenn dies entsprechend weniger wichtig erscheint.

Ein weiterer Schritt ist die Gewichtung der Anforderungs-Cluster. Dabei wird innerhalb der funktionalen, nicht-funktionalen und Business Anforderungen eine weitere Priorisierung festgelegt. Sollen Community-Funktionalitäten wie Benutzerprofile und User Generated Content bei der Produktwahl wichtig sein, wird dieser Cluster im Verhältnis zu den anderen Anforderungen sehr hoch bewertet.

Schlussendlich werden Soll- und Muss-Kriterien festgelegt, ohne deren Erfüllung ein CMS Produkt nicht die Endauswahl erreichen kann.

Auf Basis unserer Erfahrung aus vielen CMS Projekten und dem Knowhow unterschiedlichster Produkte bewerten wir die zur Evaluation stehenden Produkte im Hinblick auf die oben erwähnten Anforderungen. Um Unabhängigkeit und Objektivität sicherstellen zu können, wird diese Bewertung unter Leitung eines Namics Consultant und Hinzunahme von Namics Produkt-Spezialisten vorgenommen. Der Hersteller bleibt hier absichtlich aussen vor. Die Bewertungen erstrecken sich von ‚nicht realisierbar‘, über ‚mit Aufwand machbar‘, ‚out-of-the-Box‘ bis hin zu ‚ausgewiesene Produktstärke‘. Wichtig ist uns, dass die Bewertungen durch ein und dieselbe Person durchgeführt werden, da die Auslegung des Erfüllungsgrades einzelner Anforderungen nie komplett objektiv erfolgen kann.

Welche Content Management Systeme werden überhaupt evaluiert und bewertet? Grundsätzlich nur solche, die wir kennen und unseren Kunden Mehrwert bieten. Und natürlich sollten bereits grundlegende, nicht-funktionale Anforderungen erfüllt werden. Doch schlussendlich bestimmt der Kunde, wie sich die zu evaluierende Produkte-Longlist bei der CMS Evaluation überhaupt zusammenstellt. Und oft ist das Spektrum wesentlich breiter, als zunächst angenommen.

Verpasst, was es sich mit den ganzen Anforderungen auf sich hat? Hier der Rest unserer Serie zur CMS Evaluation:

* Ein neues CMS?
* Business Requirements an ein CMS
* Funktionale und nicht-funktionale Requirements an ein CMS

Ein Gorilla am Finance Forum

2647-gorilla-am-finance-forum-thumb-500x375-2646.jpg

Heute waren wir, Sarah (der Gorilla), Andri (der Experte) und ich (der Berater) am Finance Forum. Wir waren eingeladen, an einem der Speaker Corner unser Glück in einem 15-minütigen Kurzvortrag zu versuchen.

Wir hatten dafür die Ergebnisse von 14 Bankenwebseiten vor uns liegen, deren Hypothekenrechner und Themenseiten zur Immobilienfinanzierung wir jüngst getestet haben.

Die wichtigsten Themen darin waren zum einen die Erkenntnis, dass unsere Tester bei der Berechnung von Finanzierungskosten einer Hypothek oft am Detail scheiterten, z.B. an falsch verstandenen Eingabefeldern oder Schiebereglern. Und zum anderen das das häufig verwendete Fachvokabular Menschen mit wenig Finanzwissen schnell stresst und zu einer negativen Einstellung gegenüber dem Thema, der Website und damit der Bank bringt.

Diese wollten wir also in den 15 Minuten einmal unseren Zuhörerinnen und Zuhörer zur Kenntnis bringen. Da wir schon ahnten, dass die dort anwesenden Herren (und auch mal Damen) nicht so leicht aus der Fassung zu bringen sind, versuchten wir es mit Gorilla Marketing (siehe Bild).

In Kombination mit einem Film der am schlimmsten gescheiterten Benutzertests konnten wir immerhin den einen oder anderen Zuhörer zu einem dezenten bis lauten Schmunzeln bewegen. Und die Bananen konnten wir am Ende auch alle unter die Menschen bringen.

Die Studie „Nutzung und Erfolg von Online Hypothekenrechnern“ mit allen Ergebnissen, hilfreichen Erkenntnissen und Hinweisen werden wir in Kürze hier veröffentlichen. Wer also weiterhin unseren Namics Blog liest sollte daran nicht vorbeikommen. Gerne setzen wir Sie aber auch (bei Angabe Ihrer Kontaktdaten) auf die Liste der Menschen, die etwas früher als andere die wichtigen Informationen auf dem Tisch liegen haben möchten.

Sollten Sie zum Lesen eigentlich keine Zeit haben, dann kommen Sie uns vielleicht einfach in Zürich besuchen. Wir sind am 18.11. zum Thema „Usability verbessern – warum sich das lohnt.“ am Convention Point der Swiss Exchange und zeigen Ihnen das Thema an einem Vormittag von 4 Seiten betrachtet. Anmeldung und alle Informationen dazu finden Sie unter:

www.namics.com/usability

Wir versprechen viele spannende und unterhaltsame Einsichten!

Webseiten Device Detection – Boost your mobile web!

Viele Unternehmen verfügen neben ihrem eigentlichen Internetauftritt auch über eine Mobile-Webseite. Optimalerweise bieten sie darauf ihren Besuchern für mobile Endgeräte optimierte Inhalte an, welche insbesondere hinsichtlich Inhalt und Darstellungsform (Templates) entsprechend aufbereitet werden. Leider sind viele Mobile-Webseiten aber nur über einfache Links im Inhalt oder der Navigation auf den regulären Unternehmenswebseiten verlinkt und somit nur suboptimal zugänglich (Accessibility!).
In der Konsequenz führt dies dazu, dass die Mobile-Webseite entsprechend wenig besucht wird und sich bereits getätigte Investitionen oder Investitionen in künftige Mobile-Vorhaben nur schwierig erklären und verkaufen lassen.

Für genau dieses Problem schafft die so genannte Device oder auch User Agent Detection Abhilfe!

Als User Agent wird das Client-Programm bezeichnet, mit dem ein Netzwerkdienst genutzt wird. Der User Agent ist somit die Schnittstelle zur Webseite, die die Inhalte darstellt und mit welcher der Benutzer interagiert. Beispiele für User Agents sind Webbrowser, E-Mail-Programme oder Newsreader. Alle mobilen Endgeräten übertragen mit ihrem User Agent ihren Namen/Art (beispielsweise iPhone, Acer PRO80, Blackberry) und weitere device-spezifische Informationen (bspw. Bildschirmgrösse) in den Header-Zeilen bei Anfragen (Requests) an den Webserver. Die Webseiten Device Detection liest dabei diese Informationen aus und leitet den User in Abhängigkeit seines User Agents auf die entsprechende Webseite weiter. Dadurch wird der Benutzer eines iPhones beispielsweise beim Aufruf von www.gkb.ch automatisch auf www.mobile.gkb.ch weitergeleitet. Würde der Benutzer aber mit seinem Laptop oder Desktop ebenfalls www.gkb.ch aufrufen, würde ihn die Detection nicht weiterleiten, sondern ihm die reguläre Webseite (www.gkb.ch) anzeigen, da er ja nicht mit einem mobilen Endgerät auf die Webseite zugreift.

2617-UAD_Schema-thumb-500x397-2616.png