Mehr Umsatz im E-Commerce durch Performance Management!

Geringe Ladezeit, keine Wartezeit, hohe Geschwindigkeit. In den letzten Jahren wird immer häufiger über den erfolgskritischen Faktor für e-Commerce Plattformen gesprochen. Google hat die Webseiten-Ladezeit im Jahr 2006 öffentlich thematisiert (siehe Grafik) und mit der Integration in Google Analytics und … Weiterlesen

Vortrag bei der IHK zu SEO-Texten

Am vergangenen Donnerstag war ich auf Einladung der IHK Regensburg als Referent bei der Veranstaltungsreihe „Sieben Schritte zum erfolgreichen Web-Angebot„. Am Themennachmittag Online Marketing wollten die interessierten Zuhörern erfahren, wie Texte nicht nur für deren Zielgruppen, sondern auch für Suchmaschinen aufbereitet werden können. 

Suchmaschinen versuchen, menschliches Verhalten möglichst exakt abzubilden und fundieren diese Behaviour Matchings mit komplexen Algorithmen. Das klare Ziel aller Suchmaschinen: die korrekte Sortierung der Suchresultate nach inhaltlicher Relevanz für den jeweiligen Nutzer (und nebenbei ein paar Klickprovisionen zu erhalten ;-) ). Hierzu werden Crawler auf die Reise geschickt, um möglichst vollständig Informationen über Webinhalte zu sammeln. Während Google&Co häufig und öffentlichkeitswirksam (Panda, Penguin) an Änderungen der Algorithmen arbeiten, werden parallel auch die Crawler auf „Effizienz“ getrimmt. Mit ein paar Kniffen schaffen es Webmaster, Ihre Inhalte so aufzubereiten, dass Informationen a) vollständig und b) schnell gesammelt werden können.

Auf die meisten Punkte sind wir an dieser Stelle bereits eingegangen, deswegen möchte ich eine an sich kleine Möglichkeit besonders herausstellen: die Textstrukturierung. Wir können bei der aktuellen Veränderung des menschlichen Leseverhaltens davon ausgehen, dass bereits Texte ab 200 Zeichen (entspricht 1,43  Tweets) ein Mindestmaß an Strukturelementen benötigen (man kennt die kaum mehr leserlichen Texte ohnepunktundkommaineinigenforendieserwelt).

Texte mit einem gewissen redaktionellen Umfang können/sollten folgende Strukturelemente beinhalten- jedes dieser Elemente kann durch Suchmaschinen interpretiert werden.

  • Headlines (H1-H6)
  • Anker
  • Bullet Points (Unsorted Lists)
  • Aufzählungen (Sorted Lists)
  • Zitate
  • Links
  • Absätze mit Zwischenüberschriften
  • Introtext (Überblick)
  • Outrotext (Fazit)

Mit dem Aussterben von Pressemitteilungen sind die Intro- und Outrotexte etwas aus der Mode gekommen. In hochwertigen Beiträgen in digitalen Themenmagazinen kommen diese jedoch wieder häufiger vor- mit gutem Grund, denn: Leser scannen und scrollen mehr denn je, so dass Inhalten am Anfang und Ende der Seite eine besondere Aufmerksamkeit zuteil wird. Diese Aufmerksamkeit fließt wie selbstverständlich in die Bewertungssystematik von Suchmaschinen ein.

Fazit

Machen Sie die Extrameile für Ihre Kunden und strukturieren Sie Ihre Texte so, wie diese sie erwarten. Belohnen Sie Ihr Unternehmen durch größere Leseintensität, höheren Transport von Informationen und vielleicht auch dem einen oder anderen Pluspunkt bei den Suchmaschinen.

 

Private Banking und Social Media – eine Love-Story?

Vermögen und Diskretion – das assoziiert man mit Privatbanken. Social Media scheint dazu die Antipode zu sein: Alles ist öffentlich, alles ist kostenfrei, alle helfen allen. Aus diesem Grund möchte man meinen, dass Social Media und Privatbanken nicht zusammen passen.

Weit gefehlt, wie aktuelle Beispiele zeigen

Pictet, Julius Bär, Hyposwiss, Bank Vontobel, Notenstein oder Bankhaus Mertzler sind nur einige Beispiele von Privatbanken, die bereits heute soziale Medien nutzen. Dabei ist es nicht lange her (Sommer 2011), dass die Branche Social Media negiert hat. Seit Ende 2011 hat sich das Bild verändert. Innerhalb weniger Monate hat bspw. Pictet die wichtigsten Kanäle aufgebaut und ist der Branche – fast unbemerkt – voraus geeilt:

Julius Bär nähert sich von einer anderen Seite. Was hier bemerkenswert ist: Auch sie haben den Wert von gutem Content erkannt und stellen Themen in den Vordergrund, statt über die eigene Dienstleistung zu sprechen. Das Thema „Next Generation“ wird multimedial als iPad App und Magazin aufbereitet:

Der Innovator ging verloren

Und in der gleichen Zeit, in der Pictet, Julius Bär, aber auch Bank Vontobel, Hyposwiss, Bankhaus Mertzler und andere die neue Kommunikation für sich entdecken, ist die bis dahin aktivste Privatbank von der Oberfläche verschwunden: Mit dem Wegfall von Wegelin ist ein Branchenvorreiter verschwunden, der bereits vor 3-4 Jahren mit Social Media begonnen hatte.

So what?

In vielen Kundengesprächen werde ich nach dem Sinn von Social Media für Privatbanken gefragt. Berechtigt. Hier sind meine Gedanken dazu:

  1. Die Zielgruppe gewöhnt sich an Social Media
    Die Hauptzielgruppe von Privatbanken ist 65+ Jahre alt – eine Altersstufe, in der der Gebrauch von Social Media mittlerweile zwar stark zunimmt, aber noch nicht zum Alltag gehört. Eine Altersstufe darunter (45-60 Jahre) sieht das Bild schon anders aus, denn diese Gruppe gehört zu den wachstumsstärksten Gruppen in Social Media. Und vor allem sind viele 45-60 Jährigen noch in der Phase des Vermögenswachstums (und viele von Ihnen sind Affluents). Eine Möglichkeit, diese Gruppe (auf neue Art) zu erreichen.
  2. Next Wealthy Generation
    Viele Privatbanker bestätigen ausserdem, dass in Kundengeschäfte vermehrt auch die „nächste“ Generation involviert ist, wobei wir in diesem Umfeld von 30+ Jahre sprechen. Und dass diese Personengruppe in Social Media aktiv ist, muss ich kaum erwähnen. Und dass sie ihre Partner auch über die neuen Kanäle beurteilen, liegt auf der Hand.
  3. Offenheit tut der Branche gut
    Gerade in Zeiten der grossen Kritik am Finanzsystem und an Finanzinstituten sind Massnahmen, die die Branche menschlicher und ehrlicher machen, sicher nicht verkehrt. Ich bin davon überzeugt, dass Social Media eine Möglichkeit bietet, sich von dieser Kritik zu distanzieren und näher an „die Menschen“ (und damit an den Kunden) zu gelangen. Der Killer:  Ein Gespenst, das alle Diskussionen um Social Media im Keim erstickt: der vielgefürchtete „Shitstorm„. Was dabei übersehen wird: Kritik ist Chance.
  4. Recruiting ist immer ein guter Grund
    Gerade die Finanzindustrie lebt von Menschen, oder: It’s a people’s business. Es ist für diese Branche (wie auch für andere) essenziell, die richtigen Nachwuchskräfte zu finden. Dieser Nachwuchs ist zum grossen Teil gleichzusetzen mit der Gruppe der Digital Natives, eine Zielgruppe, die ihren potenziellen Arbeitgeber mit anderen Massstäben beurteilt. Zum Beispiel: „Wie verhält sich das Unternehmen in den sozialen Kanälen?“ Warum ist das so interessant? Weil sich hieraus sehr viel der Unternehmenskultur ableiten lässt und damit die Frage: „Wie geht man in diesem Unternehmen miteinander um?“
  5. Potenzial von Content Marketing
    Und nicht zuletzt haben Social Media sehr viel mit sehr authentischem und wirkungsvollen Eigenmarketing zu tun. Social Media lebt von mehrwertigen Inhalten. (Deswegen scheitern übrigens auch so viele Social Media Aktivitäten…) Diese Inhalte werden von Menschen: gelesen, ge-like-t, ge-retweet-et, ge-recommend-et, verlinkt,… und mit jedem Like, Retweet, etc. steigt der Wert für das Unternehmen, denn so verbreitet sich der Inhalt viral. Aber vor allem auch das Ranking in Suchmaschinen verbessert sich. Und wie wichtig Suchmaschinen (auch für Privatbanken) sind, wissen wir.

Alles nichts wert

Viele Gründe, die alle nichts wert sind wenn die Entscheidungsträger nichts von Social Media halten. Aber alles Gründe, die überzeugend klar sind, um Entscheidungsträger zu überzeugen. Und um das Thema abzuschliessen (und gleichzeitig komplett zu öffnen) hier mein persönlicher Tipp, wie man 3 Minuten sinnvoll einsetzen kann:

Wie Google Traffic-Ströme beeinflusst

Wie Google Traffic-Ströme beeinflusst

Seine bedeutende Marktstellung verdankt Google der nach wie vor hohen Nutzerakzeptanz seines zentralen Services, der Google-Suche. Höchstes Gebot beim US-Suchmaschinenriesen ist daher die weitere Verbesserung und Entwicklung von neuartigen Suchergebnissen – mit immer weitreichenderen Folgen für globale Trafficströme. Convenience Search … Weiterlesen

A Study in … Viagra

Sherlock Holmes zum Zweiten. Der Blogpost von Jürg über gehackte TYPO3-Seiten hat viel Staub aufgewirbelt worauf mehrere SOS-Rufe von betroffenen Seitenbetreibern bei uns eingetroffen sind. Das Problem war, dass einige ältere TYPO3 Betreiber plötzlich unwissentlich potenz-steigernde Pharmazeutika verkauften. Seit wir auf dieses Problem aufmerksam geworden sind, stossen wir regelmässig auf neue Opfer des „Pharmahacks“. TYPO3 ist dabei übrigens bei weitem nicht das einzige geplagte System. Perfiderweise ist der Hack auf den ersten Blick nicht sichtbar – er wird nur wirksam, wenn der Surfer via Google auf die Seite stösst. Dann wird server-seitig neuer Text in die Webseite gerendert und beim Klick auf den Link von Google aus, gelangt der Kunde nicht auf die eigentliche Seite, sondern wird auf eine (meist russische) Seite weitergeleitet. Die verkauft Viagra – oder etwas anderes blaues.
Neulich erhielten ich erneut den Auftrag, den Verkauf blauer Pillen auf der Seite eines Dritten zu unterbinden. Diesmal wurde das Problem mit „Medikamentenhack“ beschrieben.

Hier folgt ein Bericht meiner Spurensuche in der Hoffnung, dass Anderen mit den selben „Krankheitssymptomen“ geholfen werden kann.
Als erstes habe ich mich auf dem System, im TYPO3 Backend und auf dem Server etwas umgesehen. Dabei handelte es sich nicht um eine „verwahrloste“ Webseite sondern um eine recht gut ausgebaute Plattform mit einem relativ aktuellen TYPO3 Core und einem sauberen Aufbau und umfangreicher Funktionalität. Ein eher grosser Auftritt.

Gefährliche Extensions

Auf Anhieb sind mir jedoch einige potenziell (sehr) gefährliche Extensions aufgefallen, die auf einem Live-System nichts verloren haben: „t3quixplorer“ – erlaubt die Navigation auf dem Filesystem mehr oder weniger uneingeschränkt und ermöglicht das Bearbeiten von PHP-Scripts direkt über das Webinterface – der reinste Security-Alptraum. Es ist nicht auszuschliessen, dass diese Extension von einem der Angreifer installiert wurde. „devlog“ ist eine Extension welche zu Entwicklungszeiten nützlich sein kann – jedoch nicht in einem Live-System. Ein anderer Kandidat, welcher jedoch nicht installiert war, ist die „phpmyadmin“ Extension, welche oft aus Bequemlichkeit installiert wird. Auch diese Extension stellt ein beträchtliches Sicherheitsrisiko dar. Im übrigen beinhaltete das System einige „handgemachte“ Extensions – schnell zu erkennen an fehlenden Icons und der aussagekräftigen Versionsnummer 0.0.0 – Stable? Ja genau!

Backend-User

Ich habe ausserdem alle Backend-User überprüft und mit dem Kunden zusammen sichergestellt, dass keine unbekannten Nutzer registriert waren. Sollte dies der Fall sein, würde ich empfehlen, alle User neu anzulegen und neue, sichere Passwörter zu vergeben.

Spurensuche im Dateisystem

Danach habe ich mich etwas vertieft auf die Spurensuche gemacht. Aus Erfahrung weiss ich mittlerweile, wonach ich suchen muss. Eine Suche im Filesystem nach „base64_decode(“ führt meist zu verdächtigen Code-Zeilen oder Dateien:

find . -name "*.php" -print | xargs grep "eval(base64_decode("

Meist sind infizierte Dateien im Ordner typo3conf/ zu finden. Darin befinden sich die von TYPO3 auszuführenden Extensions. Der Code darin kann potenziell schädlich sein.
Auf diese Weise bin ich auf zwei verdächtige Dateien gestossen. Eine Datei war in einer nicht öffentlichen, für Kundenbedürfnisse entwickelten Extension enthalten. Die andere im ./uploads/ Ordner der bekannten Newsletter-Extension tx_directmail.

./uploads/tx_directmail/trololo.php:<?php eval(base64_decode("ZXZhbChiYXNlNjRfZGVjb2RlKCJaWFpoYkNoaV
lYTmxOalJmWkdWamIyUmxLQ0phV0Zwb1lrTm9hVmxZVG14T2FsSm1Xa2RX
YW1JeVVteExRMHBoVjBad2IxbHJUbTloVm14WlZHMTRUMkZzU20x…

In beiden Fällen war es dem Angreifer möglich, über ein ungenügend geschütztes Formular PHP-Dateien auf das System zu laden. Geschieht dies, und sind diese Dateien auch ausführbar, hat man verloren.
Bei genauerem Hinsehen habe ich in der handgestrickten Extension gleich noch mehr zerstörerische Dateien gefunden welche die unscheinbaren Namen „class.php“ und „footer.php“ trugen. Ich musste erst beim Dienstleister des Kunden nachfragen, um sicher zu stellen, dass es sich wirklich um bösartige Dateien handelte. In diesen Fällen hatten die Angreifer ganze Arbeit geleistet – auch das Erstelldatum war ein weit zurückliegendes. Oft kann man im System auch einfach nach Files suchen, die im Zeitraum des Hacks verändert wurden. Ich konnte diesen durch verdächtige Files auf etwa 76 Tage zurückliegend vermuten und bin mit dem Befehl

find . -iname "*.cache" -mtime -77 -mtime +75 -type f

auf weitere verdächtige Dateien gestossen. Da im Ordner typo3conf während dem Betrieb eigentlich keine Dateien geändert werden sollten, sind dies zumindest dort, nur eine Hand voll. Mein Tipp: in typo3conf/ext/ darf auf einem Live-System gar nichts geändert werden können. Dem Server (Apache) sollen also alle Schreibrechte auf typo3conf/ext/ entzogen werden. Auch localconf.php darf nie verändert werden – damit wird es für einen Angreifer sehr schwer, nachträglich Extensions zu installieren, ohne dass er Serverzugriff hat.

Bereits erwähnte class.php war mehrfach base64 encoded und nachdem ich diese mehrfach decodiert hatte wurde ihr Zweck offensichtlich. Sie leitet die Benutzer welche von viagra-verseuchten Google-Resultaten kommen auf die russischen Verkaufsseiten weiter:

Ja ist denn heut‘ schon Weihnachten?

Bei der Analyse von ./uploads/tx_directmail/trololo.php wurde ich leicht überrascht. Ebenfalls nach mehrmaligem encoden kam folgendes zum Vorschein:


Ein ausgewachsenes Backdoor! Inklusive Passwortschutz. Klar russischen Ursprungs. Mit diesem Tool kann man auf einem Server so ziemlich alles machen. Dateien erstellen, löschen, bearbeiten, Rechte setzen. Damit kann man die localconf.php auslesen – dort steht (meist) der MySQL User und das Passwort im Klartext. Somit kann der Angreifer auch auf die Datenbank zugreifen. Doppelt dumm, wenn der gleiche User auf mehrere Datenbanken Zugriff hat. Wenn man localconf.php nicht schreibgeschützt hat, kann er ausserdem ein neues Install-Tool Passwort erstellen. Damit kann er sich dann einen Backend-Administrator erstellen – etwas einfacher als direkt über die DB. Netterweise nennt TYPO3 bei einer missglückten Anmeldung am Install-Tool auch gleich den dazu benötigten MD5 Hash den man dann nur noch im localconf.php eintragen braucht.
Das Backdoor in Action:

Und weiter geht’s…

Nachdem ich die Suche bereits abbrechen wollte – es war mittlerweile schon spät – bin ich im fileadmin/ in den Templates der Webseite auf eine weitere mysteriöse Datei gestossen – eine PHP Datei unter den CSS Files; en.php
Diese enthielt neben den verdächtigen base64 Codes auch noch folgenden aufschlussreichen Text:

Codz by angel(4ngel)
Make in China
Web: http://www.4ngel.net

Die Chinesen waren also auch am Werk! Nach erneut mehrmaligem Encodieren und Entfernen eines Passwortschutzes wurde offensichtlich, dass die Chinesen den Russen mittlerweile – zumindest im Design – voraus sind. Ebenfalls eine mächtige Hintertüre – einmal in schön.

Fazit, Suche, Massnahmen

Abschliessend konnten wir den Grossteil des Hacks wohl innerhalb einiger Stunden finden und entfernen. Nach dem der übliche Selbstheilungsprozess von Google eingesetzt hatte sind nun die Suchresultate wieder frei von Viagra. Für die Suche nach infizierten Files benutzen wir die Dateisystemsuche nach den Begriffen eval() und base64_decode(), Datumsangaben, verdächtige PHP-Dateien an unüblichen Orten – PHP-Files im uploads Ordner oder in andern Ordnern mit normalerweise statischen Inhalten. Auch eine Hilfe für das schnelle Finden von Schadcode kann sein, wenn die TYPO3 Temp-Files im typo3conf/ Ordner nach base64_decode durchsucht werden. Diese Dateien werden von Typo3 geladen und enthalten einen Zusammenzug vieler ausgeführter Dateien. Oft sieht man dort schnell, ob, und wo ungefähr, ein System vom „Pharmahack“ befallen ist. Handgemachte Extensions die nie den Weg ins TYPO3 Repository gefunden haben sind ein erhöhtes Sicherheitsrisiko. Alle Formulare mit Upload-Funktionalität sind ein möglicher Angriffspunkt. Auch in die Datenbank sollte man einen Blick werfen. Es kann sein, dass in den Tabellen von RealURL unerwünschte Weiterleitung enthalten sind. Auch in tt_content oder in der pages Tabelle kann nach Viagra gesucht werden. Ausserdem sollte man alle Cache-Tabellen leeren.

Die befallenen Dateien und Extensions werden gesäubert oder entfernt. Nicht (mehr) benötigte Extensions sollten vom System gelöscht werden – nicht nur deaktiviert! Unnötige Backend- und Frontend-User sollten ebenfalls gelöscht und die Passwörter sicherheitshalber angepasst werden.
Alle Schreibrechte für den Server sollten auf typo3conf/ext und auf der localconf.php entfernt werden. Dies gilt selbstverständlich auch für den ganzen TYPO3-Core. Sicherheitshinweise von TYPO3 sollten ernst genommen werden:

Das Install-Tool kann auf dem Live-System entfernt werden und der Zugriff auf das Backend nur für einen bestimmten IP-Range, vielleicht über eine spezielle Sub-Domain und zusätzlich mit einem .htaccess Schutz, versehen werden. Auch HTTPS für das Backend schadet kaum.
Natürlich sollte darauf geachtet werden, dass TYPO3 und verwendete Extensions auf einem aktuellen Stand sind. TYPO3 Bug-Fix Releases sollten wenn möglich immer installiert werden da diese Security-Fixes enthalten und normalerweise problemlos zu installieren sind.

Google bestraft sich selbst

Die von Danny Sullivan dokumentierte Geschichte ist sowohl technisch wie auch aus Compliance-Sicht interessant: Google bestraft den Page Rank von http://www.google.com/chrome während 60 Tagen.

Und so lief es. Eine Abteilung bei Google laciert eine Online-Kampange mit dem Ziel, die Dowloadseite des Chrome Browsers bekannter zu machen – als logische Konsequenz wurde/(sollte) damit auch deren Ranking in der organischen Trefferliste verbessert (werden). Ein profilierter Blogger schreibt darüber und in der Folge stellt eine andere Abteilung von Google (das Spam-Team) fest, dass die Aktion (wahrscheinlich nur mit einem einzigen Blog-Post der ganzen Aktion) gegen die Paid Links-Richtlinien von Google verstösst und spricht daher eine Strafe gegen http://www.google.com/chrome aus. Und so klingt es, wenn ein Jurist von Google zugibt, dass sie einen Sch.. gemacht haben (ohne irgendwas zuzugeben):

We’ve investigated and are taking manual action to demote www.google.com/chrome and lower the site’s PageRank for a period of at least 60 days.

We strive to enforce Google’s webmaster guidelines consistently in order to provide better search results for users.
While Google did not authorize this campaign, and we can find no remaining violations of our webmaster guidelines, we believe Google should be held to a higher standard, so we have taken stricter action than we would against a typical site.

Ziemlich realitätsnah ist zudem, dass Matt Cutts der sonst offizielles Sprachrohr in solchen Angelegenheiten ist, grad in den Ferien weilt und kommunikatorisch hinten nach schiesst.

Gemäss der Beobachtung von Danny Sullivan ging es danach sehr schnell. Innert Stunden verschwand die genannte Seite bei den Suchbegriffen chrome, google chrome, browser, web browser oder internet browser mit Rängen grösser 50 faktisch aus der Google Trefferliste. Und bei spezifischen Suchbegriffen (chrome, google chrome) rückte anstelle der „schönen“ Downloadpage…

…ein nicht sehr stylischer Eintrag aus dem Support-Forum an die erste Stelle.

Nachdem die Geschichte öffentlich war, hatte Google wohl keine Alternative als ihre eigenen Regeln auch bei sich selbst anzuwenden. Dennoch ist es beruhigend zu sehen, dass sie mit demselben Salz würzen, welches auch wir im Küchenschrank stehen haben. Was ich gerne sehen würde ist der Einfluss auf die Zugriffsstatitik der betroffenen Seite. Und auch bei dem internen Meeting mit der externen Agentur die es verbockt hat wäre ich saugerne dabei ;-)

Hier alle die Details bei searchengineland.

Vortrag in Zürich: SEO-Projektmanagement

Am 06.12. konnte ich beim Internet-Briefing in Zürich die schlimmsten SEO-Fehler vorstellen und vier Ansätze und Methoden zeigen, die diese Fehler heilen. Im Folgenden findet sich eine kurze Zusammenfassung des Vortrags sowie der Foliensatz. Weiterlesen

Die 10 besten Tipps für Suchmaschinenoptimierte Texte – Vortrag bei den Netzblicken der IHK München

Die 10 besten Tipps für Suchmaschinenoptimiertes Texten - Vortrag von Markus Groiß

Am gestrigen Donnerstag konnte ich bei den IHK Netzblicken zum Thema „Suchmaschinenoptimierte Texte“ sprechen. Im Folgenden findet sich eine kurze Zusammenfassung des Vortrags. Das semantische Web als Schmelztiegel für Web Content.  Content steckt in jedem Ihrer Touchpoints im Web wie … Weiterlesen

Mit aktuellen Inhalten bei Google punkten

Freshness-Update fordert Online-Redakteure in Unternehmen

Google sorgt in der SEO-Welt für Wirbel: Das so genannte Freshness-Update betrifft rund 35 % aller Suchanfragen und ist somit eine der größeren Algorithmusänderungen in der Google-Geschichte. Die wichtigste Frage: Was bedeutet diese Frischeanforderung an Content für Webmaster und Unternehmen? Wie können sie mit aktuellen Inhalten bei Google punkten?

4149-484408_R_K_by_Lilo-Kapp_pix-thumb-500x375-4148.jpg

Frische Paprika, Foto: Lilo Kapp/pixelio.de

Nach der jetzigen Entwicklung profitieren Nachrichtenportale, die ohnehin schon auf Aktualität ihrer Inhalte hohen Wert legen, ganz besonders. Der überarbeitete Google-Algorithmus soll auch die aktuellsten News-Stories sowie Web-Trends einbeziehen. Das Update basiert auf Googles Caffeine-Index. 2010 eingeführt, ermöglicht er die schnellere Auffindung von aktuellen Informationen.

Auch für Unternehmen eröffnen sich offenbar neue Chancen. Denn auf der eigenen Website für Nachrichtenfrische zu sorgen, ist eigentlich ganz leicht, sofern man über die entsprechenden Ressourcen und ein wenig journalistisches Know-how verfügt. Online-Redakteure und Content-Manager in Unternehmen sind daher nun stärker denn je gefordert, ihre redaktionellen Inhalte mit Blick auf aktuelle Entwicklungen zu pflegen und zu aktualisieren.

Themen rund um das Kerngeschäft aufspüren

So könnte eine auf Vorsorgethemen spezialisierte Versicherung mit einem Ratgeber-Inhalt zum Thema „Patientenverfügung“ eine gute Position bei den Google-Treffern erlangen, wenn sie unmittelbar nach der Verabschiedung eines Gesetzes im Bundestag den Text suchmaschinenoptimiert aktualisiert und mit entsprechenden weiterführenden Links und Downloads wie etwa einer Mustervorlage versieht.

Eine Biosupermarktkette könnte mit einem ausführlichen Beitrag zum aktuellsten Lebensmittelskandal, den Food-Watch aufgedeckt hat, Nutzer auf die Unternehmensseite ziehen, die nie zuvor von der Biosupermarktkette gehört hatten und nun positiv von der Aktualität der Website und der Professionalität der Inhalte überrascht sind. Auch so lassen sich neue potentielle Kunden gewinnen …

Themenplanung über den Unternehmens-Tellerrand hinaus
Die Devise für die Zukunft sollte also auch für Unternehmen lauten: Folgen Sie einem aktuellen Trend mit einem interessanten Beitrag in Ihrem Webangebot, möglicherweise in einem Corporate Blog, das der Unternehmens-Website angeschlossen ist. Im Grunde genommen bedeutet das für die Verantwortlichen in der Unternehmenskommunikation nichts anderes, als so zu arbeiten, wie es die großen Nachrichtenportale unlängst tun.

Online-Redakteure und Kommunikationsverantwortliche sollten ihre Unternehmensthemen auf zukünftige Trends oder Ereignisse hin prüfen und eine langfristige Themenplanung machen – so sind automatisch die passenden Inhaltsseiten mit den aktuellsten Aspekten online, wenn Nutzer sie bei Google suchen. Themenplanung mit aktuellem Bezug ist bei Journalisten längst tägliche Praxis. Und nichts anderes garantiert auch Unternehmen einen Aktualitäts-Schub, der sich positiv auf das Google-Ranking auswirkt.

Jetzt heißt es aber erst einmal Warten: Wann das Update kommt und ob es wie Panda zuerst in den USA oder gleich weltweit eingeführt wird, scheint noch unklar.

Googles letztes gravierendes Update: Der Panda ist los. Spam kommt in den Zoo.