Slash the web – Suchmaschine mit User-Involvement

Semantische Intelligenz würde die Ergebnisse jeder Suchmaschine extrem verbessern. Doch woher nehmen? Vom User! So macht es jedenfalls Blekko. Die Benutzer sollen also die gefunden Seiten kategorisieren, kommentieren und filtern. Dies geschieht u.a. durch das Setzen von sog. „slashtags“. Das Prinzip ähnelt quasi der Verwendung von ‚#‘ auf Twitter.

Durch dieses User-Involvement will Blekko seine Datenbasis erweitern und letztlich bessere, passendere Ergebnisse als Google liefern. Und das gelingt auch: Die Ergebnislisten unterscheiden sich in Abhängigkeit des gesetzten Filterwortes.

Ein derzeitiger Nachteil: Es werden fast ausschließlich englische slashtags verwendet. Aber zum Glück kann ja jeder (nach Anmeldung) selbst mitmachen und fleissig slashtags (z.B. auf Deutsch) setzen.

Ein weiterer Nachteil: Der Grundgedanke hinter Blekko setzt erstens voraus, dass genügend Leute mitmachen und zweitens, dass mit den Slashtags kein Unfug getrieben wird.

Ein Blekko-Highlight für SEO-Interessierte: Ein Klick auf den entsprechenden Link unterhalb des Seitentitels auf der Ergebnisseite liefert eine Vielzahl nützlicher Informationen.

3110-blekko_seo-thumb-500x78-3109.jpg

Und da Links bekanntermaßen sehr wichtig sind, freut sich der geneigte SEO sehr über die Infos, die Blekko auf die Schnelle liefert.

3113-blekko-SEO-links-thumb-500x716-3112.jpg

So erhält man z.B. eine Übersicht über alle (in diesem Beispiel) 18.688 Seiten, die auf Footlocker verlinken.

3116-blekko-linkliste-thumb-500x672-3115.jpg

Im Rahmen eines SEO Quick-Checks sicher eine nicht zu verachtene Annehmlichkeit!

Es gilt nun abzuwarten abzuwarten, ob der Gedanke hinter Blekko im Web auf entsprechende Resonanz stößt, da eine Suchmaschine doch eher verwendet wird, um „schnell mal etwas zu finden“. Selbst aktiv zu werden, um die Ergebnisse für Andere zu verbessern, mag für viele Suchende zu wenig Anreiz zum Mitmachen bieten. Das wäre schade!

Backlink-Management birgt grosses SEO-Potenzial

Dass ca. 30% des Traffics einer Website über Google & Co. kommen, können wir abhaken. Auf dem Weg, möglichst viele und relevante Besucher über Suchmaschinen anzulocken, ist der erste Schritt die Optimierung der eigenen Inhalte. Und wenn man sich dann noch mit seiner Technik versteht, holt man aus der Programmierung noch weiteres Potenzial raus… Keywords, URLs, Meta, Page titles, Alt-Texte, usw. das alles sind die SEO-Klassiker, die man in jeder SEO-Tippliste nachlesen kann.

Was bei all diesen Massnahmen aber vergessen wird: Damit haben wir erst 25% des Potenzials ausgeschöpft – wenn wir alles richtig machen! Denn der wichtigste Faktor, wie relevant eine Website für Suchmaschinen ist, kommt von den sog. Backlinks oder Incoming Links oder Inlinks. D.h.: Je mehr Referrer (auf meine eigene Website linkende Seiten) ich habe, umso höher interpretieren Suchmaschinen die Relevanz meiner Seite und umso höher wird meine Seite im Ranking dargestellt. Die Bedeutung von Backlinks: ca. 75% des Rankings wird von der Linkstärke meiner Seite bestimmt:

2556-NAM-Blog_Siemens-Building-Technologies_SEO-thumb-500x296-2554.png

Warum das Thema jedoch meist vernachlässigt wird? Es ist schlicht mühsam und mit viel Handarbeit (und Kosten) verbunden. Denn das Vorgehen im Backlink Management ist dabei vielschichtig:

  1. Bestehende Backlinks finden und analysieren (v.a. richtige URL, sinnvoller Linktext)
  2. Backlinks optimieren (Soll-Zustand für falsche URLs und Linktexte bestimmen)
  3. Webmaster kontaktieren (personalisierte Mails mit den Anpassungsvorschlägen verfassen)
  4. Tracken, ob die Backlinks angepasst wurden
  5. Weiteres Backlink-Potential identifizieren
  6. Weitere Webmaster kontaktieren…

Ein langer, aufwendiger Prozess. Vor allem, weil es dabei nicht bleiben darf – die Arbeit beginnt an dieser Stelle erst. Nun gilt es, diese Anpassungen zu tracken, immer wieder neue Potenziale zu identifizieren und Webmaster immer wieder kontaktieren.

Neben anderen Kunden, betreuen wir hierbei derzeit Siemens Building Technologies, Dienstleister für Gebäudetechnik, Feuerschutz und Sicherheit. Und obwohl nicht Consumer Goods oder ähnliches B2C Business im Fokus, betreibt Siemens das Backlink-Thema bereits auf hohem Niveau. Neu ist nun: Im Zuge dieses Projekts haben wir den ganzen Prozess soweit wie möglich automatisiert und optimiert, denn Siemens hat derzeit mehrere Tausend Backlinks, die es zu überprüfen, zu optimieren und zu überwachen gilt.

Nun: Bringt der automatisierte Prozess den gleichen Erfolg? Was spart man wirklich über diesen Weg? Auf was ist dabei zu achten? Wir werden es herausfinden. In späteren Beiträgen werde ich mehr über die Learnings dieses neuen Vorgehens berichten. Also: Stay tuned…

Google ist mit „Caffeine“ jetzt noch wacher

Im offiziellen Google Blog wurde am 8.6.2010 verkündet, dass das neue Indexierungssystem „Caffeine“ jetzt fertig gestellt sei. Da stellt sich natürlich die Frage: „Und? Was ist jetzt anders, bzw besser?“ Laut Google ist der Index nun 50 Prozent aktueller, d.h. neuer Content wird schneller in den Index aufgenommen und man findet „frischere“ Ergebnisse. Damit trägt Google zum Einem Diensten wie Twitter & Co. Rechnung, die ja von ihrer Aktualität leben. Zum Anderen kann man mit dem neuen System der Erfassung von komplexen, multimedialen Webseiten besser Herr werden.

1862-caffeine-thumb-500x214-1861.png

Das obige Bild soll den Unterschied erklären: Der alte Index bestand aus mehreren Schichten, die von unterschiedlicher Aktualität waren. Der Haupt-Layer wurde zwar alle paar Wochen aktualisiert, aber um eine der unteren Schichten aufzufrischen wurde laut Google das gesamte Web durchsucht…was natürlich eine Weile dauert.

Mit Caffeine wird das Web nun in kleinen Abschnitten durchforscht und neue bzw. aktualisierte Seiten wandern direkt in den Index. Dazu muss Caffeine extrem große Datenmengen verarbeiten. Zur Veranschaulichung hat Google ein paar Zahlen genannt: Eine Caffeine-Datenbank speichert fast 100 Million Gigabyte. Das sind 625.000 iPods aneinander gereiht! Und diese Menge kommt täglich hundertausend-fach hinzu.

Und welche Auswirkungen hat Caffeine nun auf SEO? „Veraltete“ Seiten können Gefahr laufen, von den vorderen Plätzen (und nur die zählen ja bei Google) durch neue, aktuellere Seiten verdrängt zu werden. Es gilt also mehr denn je, den Content up to date zu halten! Außerdem könnte es sein, dass Multimedialität auch mehr Gewichtung bei der Ranking-Entscheidung bekommt.

Google Sitelinks beeinflussen

Seit etwa 3,5 Jahren versieht Google Trefferzitate von populären Treffern mit Direktlinks. Diese Dinger (Pfeil im Bild unten) heissen Sitelinks und da immer wieder mal Fragen dazu bei mir aufschlagen ein paar Gedanken dazu.

1126-namics-com-sitelinks-alt-thumb-500x224-1125.png

Die häufigste Frage ist ob (und wie) man die Erstellung von Sitelinks beeinflussen resp. beschleunigen kann. Nein. Sowohl die Existenz von Sitelinks wie auch deren Auswahl erfolgen statistisch. Google entschiedet aufgrund der Such- und Klickhäufigkeit einer Site, ob das Anbieten von Sitelinks der Platz auf der Trefferliste wert ist. Und wie immer braucht die Site ein gewisses Mindestalter und/oder Pagerank (aber genau gesehen, ist es ja dasselbe: Reputation). Will ich Sitelinks, so muss ich mich also um die Besuchsfrequenz und -häufigkeiten meiner Site kümmern und nicht um Google.

Welche Links ausgewählt werden hängt auch an der Nachfragehäufigkeit. Nun bleibt noch, wie diese benannt sind. Auch wenn Google dazu keine offiziellen Aussagen macht, so ist es zumindest im Fall von Namics ziemlich klar. Die Kandidaten/Begriffe für/der Sitelinks sind häufige Suchbegriffe vermengt mit spezifischen Worten auf der Site. Also Begriffe die auffällig vorkommen (URL-Teile, Seiten-Titel), prominent verlinkt sind (Distanz 1 ab der Homepage) und gleichzeitig auch trennscharf sind. Im Beispiel also nicht Namics oder Menschen (weil nicht trennscharf resp. zu häufig) aber Jobs oder Nachname.

Und nun noch ein „echter Tipp“. Gibt es nämlich ein Sitelink, den ich als Betreiber für nicht geeignet halte, so kann ich diesen unterdrücken. So ist es im Beispiel oben nett, dass unsere Referenz für die Klubschule Migros gezeigt wird, doch dies entspricht kaum der Funktion von Sitelinks.

In den Google Webmaster Tools gibt es eine Funktion, mit welcher ich bestehende Sitelinks unterdrücken kann. Ich habe diese Funktion auf die Klubschul-Referenz (den untersten Eintrag) angewendet.

1129-namics-com-sitelinks-webmaster-tools-thumb-500x431-1128.png

Nach einem Tag war der Platz bei den Sitlinks leer und nach ein paar Tagen wurde dieser durch einen neuen Link auf die Fachartikel aufgefüllt. Sehr nett.

1132-namics-com-sitelinks-neu-thumb-500x220-1131.png

Website umziehen, Relaunch, „Moving your Site“

Sei es eine technische Änderung oder sei es ein umfassender Relaunch mit einer komplett neuen Site. Die Aufgabenstellung ist möglicherweise selten, aber sehr wichtig. Da ich diesen Augenblick bereits einige Male miterlebt habe, fasse ich Erfahrungen und Form von einer Serie mit Tipps zum „Website umziehen“ zusammen.

Ziel der Serie ist eine bessere Planung, damit der Zeitpunkt der System-Umstellung nicht (noch) mehr Hektik erzeugt als unbedingt notwendig. Als unnötige Hektik verstehe ich beispielsweise nicht mehr funktionierende eingehende Links (z.B. Druckmaterialen), defekte Links auf meine Angebot in Suchmaschinen oder lähmend langsame Umschaltfristen auf die neue Site („ich sehe noch immer die alte Site…“).

Ziel der Umstellung ist es, dass ihre Besucher nichts nachteiliges feststellen. Weder im Bezug auf die Qualität des Angebotes (was ich nicht behandeln werde) noch im Bezug auf die technische Funktion ihrer Site. Auf die folgenden Posts können Sie sich gefasst machen:

Besucher, -quellen und Inlinks kennen
– Technische Vorbereitungen vor einem Website-Relaunch
– Redirects/Weiterleitungen nach einem Relaunch
– Die gute 404-Seite (page not found)
– Was tun mit externen Suchmaschinen bei einem Relaunch
DNS-Umstellung (schnell und mit doppeltem Netz)
– An die Statistik denken

SEO (Search Engine Optimization) Starter Guide von Google

Fast jede Woche bekomme ich Angebote, Aussagen etc. mit dem Worten „…besseres Ranking in Suchmaschinen…“ drin. Landläufig auch SEO (Search Engine Optimization) genannt. Meist sind die Angebote aber hochgradig unseriös und die Aussagen falsch.

Aus diesem Grund bemühe ich mich seit Jahren über Vorträge und Publikationen Legenden aus dem Weg zu räumen und anwendbare Tipps weiterzugeben: Ganz ehrlich, 90% der Optimierung ist (wenn Technologie nicht im Weg steht) sehr einfach und „dreht“ sich im Ergebnis um den folgenden Dreiklang:

Vollständigkeit (resp. Selektivität) der Seiten im Index der Suchmaschine
Aktualität der Seiten im Index der Suchmaschine
Seiteninhalte und Trefferzitate

Interessant ist, dass die „Spezialisten“ die behaupten Google und Co. überlisten zu können nicht nur über ein Delisting öffentlich betraft werden, aber deren behauptete Dienstleistung über (personen)individuelle Trefferlisten der Suchmaschinen ab absurdum geführt werden.

Der Post heute ist einem kompakten Dokument von Google gewidmet, welches dieselben Ziel Legenden auszuräumen und Tipps zu vermitteln verfolgt: „Search Engine Optimization Starter Guide“

Eine gute Zusammenfassung (wenn jemand nicht unser ganzes SEO/SEM-Archiv lesen will) und bei Namics in der Zwischenzeit die Grundlagenbibel in jedem Site-, Text- und Styleguide-Projekt. Auch für Könner: Lesenswert.

Da will ich rein (Video Sitemap)

i-a1967c298bd1600a0bb9bf8c4960e2fc-video-in-google-serp_r-thumb.png

Schon eine alte Geschichte, aber immer wieder erweitert: Sitemaps.

Die Sitemap-Initiative stammt ursprünglich von Google ist aber herstellerneutral und wird auch von Yahoo! und Microsoft unterstützt. Dabei kann ein Informationsanbieter URLs von Seiten die er indexiert haben will, an die Suchmaschinen inkl. einem geschätzten Änderungsintervall etc. übermitteln.

Was damit passiert resp. Vorteil/Sinn aus Sicht der Suchmaschienenbetreiber haben Uri Schonfeld und Narayanan Shivakumar an der WWW2009 mit ihrer Präsentation „Sitemaps: Above and Beyond the Crawl of Duty“ ausführlich gezeigt. Interessant finde ich insb. die Hinweise auf die genutzten Ansätze von Google um zu crawlende URLs über PageRank zu priorisieren (ist eigentlich logisch, macht die GSA/Mini aber nicht so). Und dann die Tatsache, dass auch Sitemaps häufig Fehler aller Art drin haben. Also „nur“ eine weiter Quelle um die Crawl-List zu füttern und es werden weiterhin Heuristiken benötigt, um Abdeckung zu optimieren. Also versprechen die Suchmaschinen auch nicht, die übermittelten Seiten aufzunehmen. Interessant die die Aussage, dass in der Stichprobe (ca. 35 Mio. Sitemaps) fast 80% der URL zuerst über Sitemaps entdeckt wurde.

Zudem ist auch das Problem der Duplikate ist mit einer Sitemap nicht systematisch beseitigt… dafür hilft übrigens Canonical URLs. Aber ich sollte nicht alles verraten. Prädikat des Papers: lesenswert.

Was ich aber erzählen wollte ist, dass das Sitemap-Protkoll um Video-URLs erweitert wurde. Als Seitenbetreiber habe ich somit die Möglichkeit Video-Inhalte inkl. der Seite auf der diese eingebettet sind, dem Vorschaubild. einem Link auf den Player etc. übermitteln.

Ursprünglich sagte Google diese Daten „nur“ in die Suche auf video.google.com aufzunehmen. Mit dem Universal Search-Ansatz bin ich aber ziemlich sicher, dass der Index mit bei einer normalen Volltextsuche mit genutzt wird.

Hier die Startseite der Google Hilfe zu dem Thema Video Sitemap: http://google.com/support/webmasters/bin/topic.py?topic=10079

Also sicher einen Versuch wert und ich freue mich auf Feedback.

Einzigartig: Canonical URLs

Das Problem kennen wir als Anbieter von Informationen, als Consultat auf Projekten und von der Konzeption von Suchlösungen. Identische Inhalte/Seiten werden an verschiedenen Orten gezeigt. Dies obschon Links eindeutig und für immer stabil sein sollten.

Suchtrefferlisten werden „verunreinigt“ (mehrfache Treffer, die keine zusätzliche Information einbringen), unterschiedliche Links zeigen auf inhaltlich vergleichbare Ziele oder identische Seiten, die über verschiedene Domänen zu erreichen sind, werden als Spam klassifiziert. Die Erkennung identischer Inhalten (Duplikate) und fast identischer Inhalten (Similikate) ist ein aufwändiger Job für Suchmaschinenbetreiber. Also kommt Google und überträgt die Aufgabe den Menschen die Inhalte anbieten: Specify your canonical.

Ein Link-Tag in der -Sektion gibt an, welches die richtige/autoritäre Adresse des gezeigten Inhaltes ist. Als Anbieter kann ich überflüssige Parameter entfernen und zusammenhängende Seite auf eine Adresse zurückführen. Praktisch.

Als Beispiel soll der Bilder-Dienst Flickr dienen. Da die Zugehörigkeit zu „Sets“, „Groups“ etc. in REST-URLs codiert wird, gibt es viele Links zu einem einzelnen Bild (welches in einem anderen Kontext gezeigt wird). Im Quellcode steht aber die eineindeutige Quellangabe mit dem Link-Tag.

> Unser Visitenkartenbild in verschiedenen Kontexten
http://www.flickr.com/photos/jstuker/3612838135/in/photostream/
http://www.flickr.com/photos/jstuker/3612838135/in/set-72157619315980060/
http://www.flickr.com/photos/jstuker/3612838135/in/pool-namics
http://m.flickr.com/#/photos/jstuker/3612838135/
(Die URls bei Flickr sind vorbildlich gut gemacht. Dennoch: Wie soll der Suchcrawler wissen, welcher Link die „beste“ ist?)

> Der Link-Code im header

<link rel=“canonical“ href=“http://www.flickr.com/photos/jstuker/3612838135/“ />

> Die kanonische URL ist also:
http://www.flickr.com/photos/jstuker/3612838135/

3-2-1-los an die Konzeption ;-)

PS: Auch funktionieren tut http://flic.kr/p/6vfJUF aber jetzt ist das Ding wieder nicht mehr kanonisch ;-) Und hier der Trick dafür.

Corporate Filme: schlau, Abzocke oder teures SEO?

Dass Google & Co. Filme mögen, weiss ich. Und ich mag sie auch, besonders wenn sie nur 3 Minuten dauern.

Kürzlich hörte ich von Daniele Gabonio, was Cityguide TV in Sachen Film für Marketer anbietet. Ich kannte bisher Cityguide als ein (print) Nachschlagewerk für KMUs, Restaurants und allerlei Regionales.

Weil er mich im Telefonbuch mit meiner Mini-Yogaschule fand (ja es gibt ein Leben neben namics und ja es gibt auch noch systematische Telefonbuch-Verkäufer) sprach er mich an, ob ich an einem sogenannten Web-Referenzfilm für eben diese interessiert bin. Klar wollte ich wissen, wie das geht. Und habs bei einem Mittagessen in Oerlikon rausgefunden:

Die Leute machen eine sogenannte Reportage und schneiden sie auf erträgliche 3 Minuten. Das kostet richtig ! Geld. Wir renden hier von mehr als 10’000 Franken. Aber:
Bei einem Referenzfilm entfallen diese Produktionskosten und ich muss monatlich nur um die 200 Franken bezahlen. Und zwar dafür, dass meine Website in den einschlägigen Suchmaschinen nach oben katapultiert wird und zwar mit einem charmanten Video, das ich ja auch anderweitig verwenden könne.
Cityguide TV trägt den Film mit einer Art Visitenkarte in verschiedensten „Katalogen“ zum Beispiel local.ch ein. Diese sorgen für ein „natürliches“ Nachobenkommen in den Suchmaschinen.

Beispiel: Ich suche in Bern Möbel. Google findet 50’000 Möglichkeiten und zeigt auf der Trefferseite Utiger Möbel- und Bettenhaus, (eins der Geschäfte mit Film) auf Platz 1.

bern%20m%C3%B6bel%201.jpg

Geh ich dann auf ‚lokale Branchenergebnisse‘ wieder Utiger.

bern%20m%C3%B6bel.jpg

Komisch zwar, das auf der Website selbst der Film nicht eingebunden ist, aber ja… Offensichtlich ist es lukrativ für beide Geschäftspartner. Ausserdem bleibt der Film unter der URL http://cms.cityguide.com (aha!)

Ich bekomme leider keinen Film, weil ich zu geizig für die monatliche Gebühr, zu faul für Verhandlungen bin und Google mein Yoga auch so mag.

Nettes Detail, gestern hat ein anderer Mitarbeiter von Cityguide das Angebot auch meiner Marketingkollegin Nicole für namics vorgestellt. Brauchen wohl viiiiele Referenzfilme, um irgendwann mal die horrenden Kosten fürs Filmen verlangen zu können. Höchste Zeit also für diesen Post, auch wenn ich immer noch nicht weiss, ob ichs in die Kategorie clever oder Abzocke packe.

ps. sorry verlinken auf die besagte Nebenbeschäftigung outet mich als Hobby-cms-ler, namics konnte ich mir als Agentur nicht leisten ;)

Mein Firefox hat immer noch kein Flash…

…und ist damit ein gutes Testwerkzeug um Sites darauf zu testen, ob auch an Suchmaschinen und Menschen gedacht wird, für die Flash nicht zugänglich ist oder sie dieses nicht wollen.

Heute dazugelernt, dass gewisse Agenturen, die behaupten sich auf Mobile zu spezialisieren nicht immer an Mobile denken (oder mit der Arbeit noch nicht fertig sind). Oder in anderen Worten kann ich das Angebot für das iPhone von Swisscom mit dem iPhone gar nicht anschauen — weil dieses kein Flash anzeigen kann (so wie fast alle Handies). Es gibt das Angebot nämlich nur in Flash resp. sieht es in meinem Firefox (Version 3)i-52b6c6acc24bb901b48e1f3e547f634f-swisscom-iphone-thumb.png

Unschön. Und gleichzeitig habe ich gelernt, dass www.live.ch die Site noch nicht kennt, www.yahoo.ch die Funktion site: in der Schweiz zur Zeit gard nicht anbietet (komisch) und dass Google zwei Seiten (der umfassenderen Site) kennt und meta name=“description“ für das Trefferzitat nutzt. Dies, da keine Text-Assets auf dem Flash lesbar sind.

i-d26b3446703c2cecbefe293604ae529a-swisscom-iphone-goog-thumb.png