Köder für Crawler

Immer wieder Google… Neu können Anbieter von Webangeboten Google in einer XML-Sitemap mitteilen, welche Seiten gecrawlt werden sollen: Google Sitemap. Der Bereich der technischen Suchmaschinen-Optimierung (v.a. bei generierten Inhalten mit „?“ und „&“ in der URL) ist somit weitgehen vereinfacht. Wurde aber nun Cloaking nicht grad ein bisschen einfacher?

Die Inhalte (Tags) sind sehr einfach: Wie häufig besucht werden soll (changefreq), das Änderungsdatum (lastmod), die URL und eine Priorität im Set (priority). Hier ein Beispiel einer solchen Sitemap:

i-1e78ba28bd19d166913663caf6e1214c-google_sitemap_example.gif

Und nun ans programmieren (oder zum Generator von Google in Python).

Ein Gedanke zu “Köder für Crawler

  1. Wieso nicht gleich wie beim favicon.ico oder robots.txt eine Datei definieren, in der man die sitemap anbietet? dann hätten die anderen suchmaschinen auch was davon ;) und man müsste nicht immer die site generieren und rum schicken, sondern kann sie generieren lassen.

    Das wär doch ein geschäftsmodell für einen standard ;o)

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*

*

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>