Mit nahezu 90% Marktanteil weltweit ist Google der unangefochtene Suchmaschinen-Riese. In China sieht dies allerdings ganz anders aus: Dort ist Baidu klarer Marktführer mit 56% Marktanteil, gefolgt vom Konkurrenten Quihoo, der in den letzten Jahren den mobilen Trend für sich … Weiterlesen
Schlagwort-Archive: Suchmaschinenoptimierung
Am 06.12. konnte ich beim Internet-Briefing in Zürich die schlimmsten SEO-Fehler vorstellen und vier Ansätze und Methoden zeigen, die diese Fehler heilen. Im Folgenden findet sich eine kurze Zusammenfassung des Vortrags sowie der Foliensatz. Weiterlesen
Freshness-Update fordert Online-Redakteure in Unternehmen
Google sorgt in der SEO-Welt für Wirbel: Das so genannte Freshness-Update betrifft rund 35 % aller Suchanfragen und ist somit eine der größeren Algorithmusänderungen in der Google-Geschichte. Die wichtigste Frage: Was bedeutet diese Frischeanforderung an Content für Webmaster und Unternehmen? Wie können sie mit aktuellen Inhalten bei Google punkten?
Frische Paprika, Foto: Lilo Kapp/pixelio.de
Nach der jetzigen Entwicklung profitieren Nachrichtenportale, die ohnehin schon auf Aktualität ihrer Inhalte hohen Wert legen, ganz besonders. Der überarbeitete Google-Algorithmus soll auch die aktuellsten News-Stories sowie Web-Trends einbeziehen. Das Update basiert auf Googles Caffeine-Index. 2010 eingeführt, ermöglicht er die schnellere Auffindung von aktuellen Informationen.
Auch für Unternehmen eröffnen sich offenbar neue Chancen. Denn auf der eigenen Website für Nachrichtenfrische zu sorgen, ist eigentlich ganz leicht, sofern man über die entsprechenden Ressourcen und ein wenig journalistisches Know-how verfügt. Online-Redakteure und Content-Manager in Unternehmen sind daher nun stärker denn je gefordert, ihre redaktionellen Inhalte mit Blick auf aktuelle Entwicklungen zu pflegen und zu aktualisieren.
Themen rund um das Kerngeschäft aufspüren
So könnte eine auf Vorsorgethemen spezialisierte Versicherung mit einem Ratgeber-Inhalt zum Thema „Patientenverfügung“ eine gute Position bei den Google-Treffern erlangen, wenn sie unmittelbar nach der Verabschiedung eines Gesetzes im Bundestag den Text suchmaschinenoptimiert aktualisiert und mit entsprechenden weiterführenden Links und Downloads wie etwa einer Mustervorlage versieht.
Eine Biosupermarktkette könnte mit einem ausführlichen Beitrag zum aktuellsten Lebensmittelskandal, den Food-Watch aufgedeckt hat, Nutzer auf die Unternehmensseite ziehen, die nie zuvor von der Biosupermarktkette gehört hatten und nun positiv von der Aktualität der Website und der Professionalität der Inhalte überrascht sind. Auch so lassen sich neue potentielle Kunden gewinnen …
Themenplanung über den Unternehmens-Tellerrand hinaus
Die Devise für die Zukunft sollte also auch für Unternehmen lauten: Folgen Sie einem aktuellen Trend mit einem interessanten Beitrag in Ihrem Webangebot, möglicherweise in einem Corporate Blog, das der Unternehmens-Website angeschlossen ist. Im Grunde genommen bedeutet das für die Verantwortlichen in der Unternehmenskommunikation nichts anderes, als so zu arbeiten, wie es die großen Nachrichtenportale unlängst tun.
Online-Redakteure und Kommunikationsverantwortliche sollten ihre Unternehmensthemen auf zukünftige Trends oder Ereignisse hin prüfen und eine langfristige Themenplanung machen – so sind automatisch die passenden Inhaltsseiten mit den aktuellsten Aspekten online, wenn Nutzer sie bei Google suchen. Themenplanung mit aktuellem Bezug ist bei Journalisten längst tägliche Praxis. Und nichts anderes garantiert auch Unternehmen einen Aktualitäts-Schub, der sich positiv auf das Google-Ranking auswirkt.
Jetzt heißt es aber erst einmal Warten: Wann das Update kommt und ob es wie Panda zuerst in den USA oder gleich weltweit eingeführt wird, scheint noch unklar.
Googles letztes gravierendes Update: Der Panda ist los. Spam kommt in den Zoo.
Der US-Suchmaschinenriese Google hat durch diverse Updates in den vergangenen Jahren seinen Suchindex auf das Maximale erweitert, was mittelfristig der Toröffner schlechthin war für Spam. Nachdem in der dritten Februarwoche das sogenannte „Panda-Update“ in den USA ausgerollt wurde, kam dieses gestern auch im deutschsprachigen Raum an und sorgt bereits für großen Schrecken-schließlich sind und werden die SEO-Auswirkungen des Panda-Updates bei betroffenen Seiten relativ drastisch sein.
Was ist das Panda-Update?
Das Algorithmus-Update ist Googles ernstgemeinter Versuch, „low quality“ Seiten aus guten Rankingpositionen abzuwerten. Hierzu werden nahezu alle Web-Inhalte neu klassifiziert (Document Classifier-Prinzip) und nach erneuerten Qualitätskriterien bewertet. Obwohl soziale Signale (Shares, Likes, +1’s, etc.) bzw. Signale zum Nutzerverhalten (Bounce Rates, Verweildauer, etc.) bereits seit 2010 eine Rolle spielen, dürften diese nun eine weit zentralere Bedeutung haben. Zum ersten Mal nach dem „Caffeine“-Update, welches den Index drastisch erweiterte, wird ebendieser bewusst verkleinert- die Crawlingtiefe von sogenannten „Scraper-Sites“ wird stark abnehmen. War das erste „Panda-Update“ noch eine konkrete Kampfansage an „Content-Farms“, sind die in der Folge ausgerollten Updates an Inhalte adressiert, die gegen Googles Qualitätskatalog verstoßen.
Was sind die Auswirkungen des Updates?
Betroffene Seiten verzeichnen drastische (extern gemessene) Sichtbarkeitsverluste bis hin zu -90%. Analog zu den Erfahrungen aus UK, gibt es auch bereits auf deutschen Sites die ersten Verlierer. Auf dem Searchmetrics-Blog wurde-möglicherweise etwas vorschnell- eine Liste mit den größten Gewinnern/ Verlierern veröffentlicht; obwohl sich an den absoluten Zahlen noch einiges verändern wird (auch, weil die Verlierer nahezu „gezwungen“ sind, Veränderungen vorzunehmen), sind einige Dinge recht auffällig.
Große Verlierer sind beispielsweise Preisvergleiche wie kelkoo.de oder geizkragen.de. Neben dem klassischen Problem aller Preisvergleichsseiten (Uniqueness der Produkttexte) leiden die genannten Seiten sehr stark unter der Zugänglichkeit der Inhalte– diese sind zum Teil mit Werbung überfrachtet. Verlierer wie gutefrage.net dürften insbesondere unter einer fehlenden stilistischen und orthographischen Korrektheit des dort präsentierten User Generated Content leiden; man könnte den etwas verzögerten globalen Panda-Rollout teils damit herleiten, dass der Algorithmus für diverse Sprachvarianten feinjustiert werden musste. Aggregierende Nachrichten/Meldungsplattformen wie rss-nachrichten.de laborieren an mehreren Problemen (wie zum Beispiel: Verhältnis von Werbung zu Inhalt), aber bestimmt am Problem der fehlenden Relevanz. Diese führt zu negativem Userfeedback und in der Folge zu einer Abstrafung von Rankings.
Wie löst man Panda-Fesseln?
Mit viel Arbeit und in mehreren Schritten. Implementieren Sie in Ihre Web-Aktivitäten einen fundierten SEO-Prozess/Zyklus, damit Sie Veränderungen so schnell wie möglich erkennen und nachsteuern können. Versuchen Sie, jede einzelne Seite systematisch zu verbessern und Ihre Präsenz durch Mehrwert für den Nutzer aufzuwerten. Überhaupt: Erstellen Sie Inhalte für Nutzer, nicht für Suchmaschinen. Sorgen Sie folglich dafür, dass Inhalte ihrer Seite
• zeitliche und inhaltliche Relevanz haben
• einen hohen Grad an Uniqueness besitzen
• strukturell gepflegt, formell korrekt beschrieben und ausgezeichnet sind
• Sie Ihre Leser in die Inhaltserstellung einbeziehen
• durch Sie qualitativ moderiert werden.
Fazit
It’s all about Content, because he’s king.
Für Unternehmen ist der Umgang mit Online-Inhalten oft eine neue Herausforderung (siehe auch „Die neue Bedeutung von Web-Content„): Heute werden Texte aus Print-Broschüren oder Katalogen 1:1 auf Corporate-Websites kopiert. Webmaster sind aber oftmals nur für das Publizieren der Inhalte zuständig; was fehlt sind Redaktions-Ressourcen, Prozesse und das Wissen über Online-Texte.
In unserem heutigen Aiciti-Vortrag zum Thema Web-Content geben wir Tipps und Anregungen zu diesen und anderen Themen:
- Auch wenn Sie es von sich selbst nicht glauben, aber jedes Unternehmen hat Themen zu verbreiten
- SEO und Web-Texten sind verzahnte Themen
- Web-Content ist Marketing (und geldwert)
- Web-Content erfordert Ressourcen
Und hier die Folien zum Vortrag:
Was sind Personas?
Die Diversität und Intensität der Anforderungen von Internet- und Intranetprojekten verursacht in Konzeptionsprojekten häufig einen hohen Grad an Komplexität. Um diese zu reduzieren bzw. strukturieren, wird bei Namics oftmals das Konzept der „Personas“ eingesetzt.
Personas sind fiktive Nutzer, denen User-kennzeichnende Eigenschaften (demographische Daten, Persönlichkeitsmerkmale, Ziele, Hobbies etc.) attribuiert werden. Auf Grundlage der dadurch entstehenden Profile werden Maßnahmen konzipiert, die gewährleisten, dass die Anforderungen der unterschiedlichen Nutzer- und Zielgruppen abgedeckt werden. Momentan beschränkt sich das digitale Anwendungsgebiet für Personas stark auf die Entwicklung von nutzerzentrierten Web-Konzepten. Dabei bietet sich diese Methode eigentlich auch in anderen Bereichen an-immer dann, wenn es darum geht, auf individuelle Anforderungen einer oder mehrerer Empfänger zu optimieren.
Das ist auch an anderer Stelle der Websitekonzeption der Fall: bei der Optimierung der Sichtbarkeit von Websites in Suchmaschinen (SEO). „Empfänger“ des „nutzerzentrierten“ Vorgehens mittels Personas wären hier die Crawler- also die Programmalgorithmen der Suchmaschinen, welche Webseiten durchsuchen und relevante Inhalte auf Sucherergebnisseiten indexieren.
Wie sieht die
„Nutzerperspektive“ von Crawlern aus?
Personas helfen Ihnen, die Perspektive Ihrer Nutzer
einzunehmen. Die „Nutzerperspektive“ eines Web-Crawlers auf einer Webseite könnte
in etwa wie folgt aussehen:
Diese Perspektive kann man schnell selbst einnehmen:
entweder durch Verwendung des „Nur-Text“-Modus oder wie hier durch einen
textbasierten Browser wie Lynx. Schließlich versucht der Bot, html (und
partiell AJAX und JS) zu lesen und übergibt anschließend an die Datenbank, in
der die gefundenen Inhalte gespeichert werden.
Wie lässt sich das
Persona-Konzept auf Crawler anwenden?
Im folgenden Beispiel findet sich exemplarisch ein kurzer
Steckbrief des Google Bots, um ein Gefühl dafür zu erhalten, wie das Konzept
der Personas für SEO-Zwecke umgesetzt werden könnte und welche Anforderungen
sich daraus ergeben.
Die Skizze lässt erkennen: Die Beschreibung des Crawlers als
Persona funktioniert erstaunlich gut. Es ließen sich bereits aus dieser noch eher
vagen Beschreibung einige Maßnahmen ableiten, die zu einer besseren Optimierung
auf Suchmaschinen führen. Je höher der Detailgrad der Beschreibung, umso
effektiver werden die Maßnahmen sein, die man für Optimierungen einsetzen kann. Unterschiede im „Verhalten“ der wichtigsten Crawler müssen im Detail in die Steckbriefe integriert werden, so dass beurteilt werden kann, wie spezifische Maßnahmen zur Optimierung umgesetzt werden können. Von dieser Detaillierung sind mehrere Ebenen betroffen. Einerseits muss zwischen den einzelnen Crawlern der Suchmaschinen unterschieden werden (also bspw. zwischen dem MSNBot und dem GoogleBot), andererseits können die Crawler intern diversifiziert werden (bsp. Bots für Newssuche und Bildersuche).
Schritt. Ebenso nötig und sinnvoll ist eine stetige Aktualisierung der Bot-Profile-
schließlich werden die Such-Parameter und das Verhalten anderer
Systemkomponenten in kurzen Updatezyklen verändert.
Der Steckbrief ist
fertig. Was kommt nun?
Personas als Methode sind „nur“ Mittel zum Zweck der
Konversion der Nutzer. Für Suchmaschinen müssen vollkommen andere
Konversionsziele definiert werden. In einem ersten Ansatz habe ich für den
Google-Bot das Konversionsziel „Erfassung der Zielseite XY“ festgelegt und zum
Vergleich die unterschiedlichen Schritte von Nutzern und Bots im Conversion
Funnel gegenüber gestellt.
Wird der Zugang zur Website für Crawler nicht explizit ausgeschlossen,
werden erste Inhalte erfasst. Durch Links und die Anzeige weiterer Seiten und
Inhalte (bspw. über Sitemaps) vertieft der Bot das Crawling der Seite und
erreicht das Konversionsziel „Erfassung der Zielseite“. Analog zur Stufe „Fan“
kehrt er immer wieder zur Zielseite zurück und crawlt aktualisierte und neue Inhalte.
Fazit
Zusammenfassend ist es sehr hilfreich, die Perspektive zu
wechseln, um Suchmaschinen als Kunden bzw. Nutzer zu betrachten. So können Inhalte
für diese sehr spezielle „Zielgruppe“ noch besser optimiert werden. Ein
Mehrwert für Webprojekte entsteht bereits dadurch, dass die „Suchmaschinenvertreter“
während der gesamten Projektlaufzeit eine hohe Präsenz und alle
Projektbeteiligten die Anforderungen der Bots transparent dokumentiert haben.
Klar ist, dass man der Komplexität dieser Persona Tribut
zollen muss; so ist der Google Bot „nur“ das Instrument, das Websites crawlt.
Für die Aggregation, Entitätenbildung und Gewichtung für die Indexierung sind
andere Funktionalitäten verantwortlich, was auch in den Steckbriefen
entsprechend berücksichtigt werden sollte. Wenn Unterschiede zwischen Personas
(die hier verschiedene Bots wären) herausgearbeitet und eigenständige
Verhaltensweisen analysiert werden, können für jeden Spezialfall Maßnahmen (in
diesem Fall SEO) erarbeitet und realisiert werden. Die Sichtbarkeit der auf
diese Weise optimierten Website würde hiervon profitieren.
Suchmaschinenoptimierung ist oftmals vielschichtig und meistens komplex. Dennoch lassen sich mit gezielten und recht einfachen Maßnahmen Inhalte für Suchmaschinen so aufbereiten, dass Sie damit bereits elementare Bestandteile der OnSite-Optimierung Ihrer Website abdecken können. Weitere SEO-Maßnahmen können hieran anknüpfen und verstärkt Potenziale entfalten.
Im Folgenden beschreibe ich fünf einfache und effiziente Maßnahmen zur besseren Auszeichnung Ihres Contents.
1. Empfänger-orientierte Strukturierung der Inhalte
Im Kern sollten alle Inhalte, die im Web publiziert werden,
primär für den Empfänger (=Nutzer) der Information optimiert werden. Wird diese
Ausrichtung konsequent vollzogen, sind die Inhalte automatisch auch für
Suchmaschinen gut formatiert. Strukturieren Sie also ihre Inhalte so, wie Sie
es auch in Management Summaries oder Presseerklärungen machen würden: das
Wichtigste nach vorne und zum Schluss eine Zusammenfassung. Das „Wichtigste“
sind hier ihr(e) wichtigste(n) Keyword(s), die Sie an den Anfang Ihrer
semantisch höchsten Headline, der
setzen. Wird der Fließtext zu lange – die Maßstäbe sind im Web deutlich niedriger
als in der Print-Welt – empfiehlt es sich, Zwischenüberschriften (
bis
-Headlines) zu setzen
und den Text somit zusätzlich zu unterteilen. Alternierende Keywords betten Sie
in
und
ein und
binden diese formell korrekt in den Fließtext ein. Sehen Sie in Ihrem Artikel
eine Zusammenfassung vor, sollten Sie ebenfalls darauf achten, dass für Sie
relevante Keywords möglichst am Anfang und am Ende des Fazits erscheinen.
Strukturieren Sie -falls inhaltlich sinnvoll- Inhalte mit sortierenden Listen (auch hier
gilt: das Wichtigste nach vorne und an den Schluss). Oft wird geraten, wichtige
Textpassagen mit
oder
zu
fetten. Nach unserer Auffassung ergibt dies keine besseren Rankings. Sollten
Sie also Bold-Text einsetzen, machen Sie dies primär für die Lesbarkeit der
Texte und nicht aus SEO-Gründen.
2. Pflege der Metainformationen
der Seite
Mit dem Großteil an Metainformationen werden Sie Ihre
Rankings nicht wesentlich verbessern können. Allerdings haben Sie die
Möglichkeit, Ihren Content so auszuzeichnen, dass Sie bei relevanten Suchen
gefunden werden. Es gibt hier zwei ToDos für Sie, um Ihre Seite zu optimieren.
Einerseits sollten Sie in regelmäßigen Abständen prüfen, ob übergreifende
Metainformationen korrekt angelegt sind. Dies betrifft insbesondere die
Metainformationen
- zur Sprache (z.B.
<span style="font-size: 10pt; line-height: 115%;"><meta http-equiv="content-language" content="de"></span>
).
- für
die Search Engines (z.B.<span style="font-size: 10pt; line-height: 115%;" lang="EN-US"><meta name="robots" content="index,
follow"></span>).
- zum
Content Type (z.B.<span style="font-size: 10pt; line-height: 115%;" lang="EN-US"><meta http-equiv="Content-Type"
content="text/html; charset=utf-8" /></span>).
Prüfen Sie diese übergreifenden Informationen laufend und
justieren Sie nach, sofern Sie Abweichungen beobachten. Für Ihre tägliche
Arbeit sollten Sie darauf achten, detaillierte Metadaten korrekt zu erfassen
und diese durch Aktualisierungen zu pflegen. Vor allem den beiden folgenden
Metafeldern sollten Sie höchste Beachtung schenken:
-
<span style="font-size: 10pt; line-height: 115%;" lang="EN-US"><title></span>
-Element
-
<span style="font-size: 10pt; line-height: 115%;" lang="EN-US"><description></span>
-Element.
Ersteres sollte mit höchster Sorgfalt gewählt werden.
Berücksichtigen Sie, dass dieses Element mit der statischen URL korreliert. Ist
also der Titel der Seite „SEO im Contentbereich | Namics Deutschland GmbH“,
wäre eine URL der Form „namics.com/seo-im-contentbereich“ als unterstützende
Maßnahme denkbar. Limitieren Sie den Inhalt dieses Elements bei 60 bis maximal
70 Zeichen und gehen grundsätzlich von folgender Struktur aus: Primary Keyword &Secondary
Keyword|Unternehmensname.
Das
-Element ist insofern von Bedeutung, da die Inhalte in den meisten Fällen von
den Suchmaschinen als Indexierungstext in den Search Engine Result Pages (SERPs)
verwendet werden. Achten Sie darauf, 150 bis maximal 160 Zeichen nicht zu
überschreiten. Da dieses Element Ihre Rankings nicht forcieren dürfte, können Sie den Text nutzen, um beim Nutzer Neugierde zu wecken. So kann man wie im folgenden Beispiel dem Nutzer eine Frage stellen, um sein Interesse zu wecken.
Redundante Inhalte in den Metainformationen
sollten Sie hingegen unbedingt vermeiden.
3. Optimierung von
Bildern fürs Web
Bilder bieten aus SEO-Sicht zwei Vorteile. Einerseits machen
Sie Texte lesenswerter, was Ihnen langfristig Backlinks und somit ansteigende
Besucherzahlen aufgrund besserer Rankings einbringt. Andererseits generieren
Bilder eigenständig Traffic auf Ihre Seiten- beispielsweise über die Google
Bildersuche. Bilderoptimierung (lange Zeit ein Stiefkind der SEOs) lohnt sich,
gerade weil sie so einfach ist. Sie sollten daran denken, dass
- Sie für jedes Bild einen eindeutigen Dateinamen
gewählt haben, der relevante Keywords inkludiert. Trennen Sie Worte im
Dateinamen mit einem Bindestrich in der Form primarykeyword-secondarykeyword.jpg.
- der umliegende Fließtext, in den das Bild
eingebettet ist, höchste Themenrelevanz für das Bild besitzt.
- das ALT-Attribut jedes Bildes mit relevanten
Keywords belegt ist.
- das Bildformat (möglichst *.JPG und *.PNG.
Letzteres für Grafiken und Bilder verwenden.) und die Bildergröße (Richtwert
bei Contentbildern: <80kb) webtauglich sind.
- Sie das Bild mit weiteren Inhalten der Seite zu
verlinken.
4. Aufbereitung von
Dokumenten (z.B. PDFs) für Suchmaschinen
Hochwertig erstellte Dokumente sind wichtiger Bestandteil
qualitativen Web-Contents und werden bei guter Aufbereitung von Suchmaschinen
bestens indexiert. Grundsätzlich gilt bei der Aufbereitung von Dokumenten Ähnliches
wie bei der Optimierung für Bilder. Achten Sie folglich darauf, einen
aussagekräftigen Dateinamen zu setzen, ALT-Attribute für Bilder innerhalb des
Dokuments zu verwenden und Links zu relevanten Seiten zu setzen. Ebenso sollten
PDFs immer im Themenkontext eingebunden werden. Denken Sie daran, in Dokumenten keine im Vergleich zu Website redundanten Informationen zu hinterlegen. Falls dies doch nötig sein sollte, schließen Sie die Indexierung von Dokumenten bei Suchmaschinen aus. Sollen PDFs nicht indexiert werden, lässt sich dies schnell via robots.txt und dem Befehl disallow: /*.pdf umsetzen.
Zusätzlich bieten gerade PDFs noch
weitere Möglichkeiten, Suchmaschinenrelevanz zu erzeugen. Richten Sie in ihren
Dokumenten einen Schreibschutz ein und pflegen Sie die Metadaten.
Im Beispiel finden sich die Felder, die Sie mindestens
ausfüllen sollten. Diese sind:
- der Titel des PDFs.
- Informationen zum Autor mit etwaiger Ergänzung
um den Unternehmensnamen.
- der Betreff analog zum html-Metatag
<span style="font-size: 10pt; line-height: 115%;"><description></span>
.
- Keywords, die im Gegensatz zum html-Metatag
<span style="font-size: 10pt; line-height: 115%;"><keywords></span>
von
Suchmaschinen interpretiert werden.
5. Interner
Linkaufbau
Das Linkbuilding ist mit Sicherheit die Königsdisziplin der
Suchmaschinenoptimierung; internes Linkbuilding ist nur ein kleiner Teilbereich
davon, den Sie allerdings vollkommen autark auf Ihrer Seite umsetzen können. Grundsätzlich
verbinden sich zwei Ziele mit interner Linkstrategie: einerseits das
Bekanntmachen jeder Inhaltsseite in den Suchmaschinen und zweitens das gezielte
Pushen einzelner Contentseiten. Erreicht man mittels kluger
Informationsarchitektur und kleiner Hilfsmittel (robots.txt, sitemap.xml,
Footer-Sitemap, etc.) das erste Ziel relativ einfach, muss man für die gezielte
Förderung einzelner Seiten deutlich mehr investieren.
Analog zur Informationsarchitektur sollten Sie vor allem bei
größeren Web-Präsenzen versuchen, Inhalte thematisch zu konzentrieren und hierfür
Landing Pages mit Verteilerfunktion einzusetzen. Diese sollten wesentliche
Links zu zentralen Themeneinstiegen auf ihrem Auftritt beinhalten und via Links
reziprok erreichbar sein. Auf den Inhaltsseiten der niedrigsten Stufe sollten
Sie weiterführende Seiten verlinken,
damit Zusatzinformationen effizient an den Nutzer adressiert werden. Dies kann
in den meisten Fällen über visuelle Helfer der IA, wie beispielsweise Teaser
erfolgen. Hierüber führen Sie Nutzer gezielt in die Konversionsstrecke. Sie
verbessern diesen Effekt durch Auszeichnung der Links, indem Sie Linktexte und
Linkbeschreibungen setzen. Sowohl über die Positionierung als auch über die
Frequenz des Einbaus können Sie zielgerichtet einzelne Seiten priorisieren. Achten
Sie darauf, den Text bestens lesbar zu halten. Ein Maximum von 20 internen
Links auf einer Seite ist empfehlenswert; keinesfalls sollten Sie 100 kumulierte Links
(intern und extern) überschreiten. Möchten Sie bestimmte Inhaltsseiten
verlinken, diese aber nicht bewusst in den Rankings pushen, markieren Sie entsprechende
Links mit
-Attribut.
Fazit:
Nutzen
Sie Potenziale im Contentbereich und optimieren Sie mit einfachen
Hausmitteln. Nur auf Ihrer Seite können Sie mit relativ geringem Aufwand
Erfolge bei der Suchmaschinenoptimierung erzielen.
Anregungen, Bemerkungen und Fragen können gerne in den Kommentaren diskutiert werden.