Web 2.0: Die grundlegenden Konzepte im Zusammenspiel [Vortrag]

Ich bin eingeladen an der Konferenz iico.de (Top-Trends im Internet) einen Vortrag über Web 2.0 zu halten.

Einen Fokus habe ich auf die echten Veränderungen aus geschäftlicher Sicht gelegt (und ganz wenig Technik zu Illustration). Dies sind: Umkehrung der Informationspyramide inkl. der Philosophie, dass jede(r) das eigene Tool nutzt, die Verbreitungsmechanismen, der Dialog mit resp. die Teilhabe des Konsumenten und schlussendlich Anhaltspunkte für geschäftsrelevante Sachen entlang des Long Tails.

Download: Web 2.0: Die grundlegenden Konzepte im Zusammenspiel [pdf, 2,2MB]

[Nachtrag: Hier eine nette Erwähung beim Schockwellenreiter, Jörg Kantel]

Ansätze für eine bessere Relevanzgewichtung (und Vortrag: Wie funktioniert eigentlich eine Suchmaschine?)

Bei meinem Post über den Begriff der Relevanz, versprach ich die Verbesserungsmöglichkeiten für Suchmaschinen noch genauer zu beschreiben. Gleichzeitig habe ich einen Vortrag vorbereitet, den ich heute in Winterthur halten werden: „Wie funktioniert eigentlich eine Suchmaschine?“. Neben Erklärungen die Checklisten für Suchmaschinen-Optimierung auf dem neustem Stand [pdf, 2,2MB]

Das folgende Bild dient zur Übersicht über die Generationen von Ansätzen. Wichtig ist der weinrot herhorgehobene Teil in jedem Block.

i-83b9402973c01037ad729016a0473e3d-einfluss_auf_relevanz-thumb.png

>> 1. On Page
– Allererste Generation. Gibt es bei einer Internetsuche kaum noch; Zumindest nicht ohne Kombination mit anderen Ansätzen.
– Suchmaschine extrahiert (nur) den Inhalt der Zielseite und gewichtet die Textkomponenten nach Auffälligkeit: Begriff im Domänennamen, URL und im HTML Page Titel sehr hoch, H1 hoch, H2 bisschen weniger hoch etc. Je weiter oben auf der Seite desto höher das Gewicht als unten etc.
– Typischer Algorithmus: Tf-idf (Termfrequenz über inverse Dokumentfrequenz)
– Sehr anfällig auf Manipulationen der Zielseiten („weisser Text auf weissen Grund“)

>> 2. Off Page (Reputation)
– Die war mal das Alleinstellungsmerkmal von Google. Die Verlinkung einer Seite macht eine Aussage über deren Wichtigkeit und der Linkkontext (Anchor, den den Link umgebenden Text oder der im im DOM-Tree nächsten Text) wird der Zielseite zugerechnet.
– Jede Seite hat einen Gesamtwert (normiert auf maximal 100), welcher an alle abgehenden Links verteilt wird.
– Entspricht dem Reputationssystem von wissenschaftlichen Papers (je öfters zitiert, desto wichtiger) aber auch einem Random Surfer (wenn eine Site häufiger und/oder von häufig besuchten Sites verlinkt ist, so kommt ein zufälliger Surfer auch häufiger vorbei).
– typischer Algorithmus: PageRank von Google oder HITS.
– Qualität der Resultate und die Stabilität gegenüber Beeinflussung ist vom „jungen“ Google bekannt.

>> 3. Mehr vom Suchenden wissen
– Ab hier wird versucht, den Suchenden bei der Beantwortung einzubeziehen. Ziel sein subjektives Informationsbedürfnis herauszufinden.
– Nach der Query wird nachgefragt. Z.B. suche ich nach „Bank“, so könnte das System fragen, ob die etwas für den Garten suche oder ein Finanzinstitut. Ein sehr schönes Beispiel sind die „disambiguations“-Seiten bei Wikipedia. Z.B. wenn ich nach Läufer suche.
– Das selbe Ziel verfolgt die Entitätenerkennung. D.h. das Suchsystem vermutet einen semantischen Umstand erkannt zu haben und zeigt Direkttreffer an, die der Suchende einfach auswählen kann – auch eine Art der Nachfrage. Beispiele die Yahoo Shortcuts oder Google Web Search Features.
– Andere Ansätze mit Spracherkennung (Linguistik) u.a. sind im Einsatz.

>> 4. Mehr über den Suchenden wissen
– Das ist zur Zeit im Trend. Suchmaschinen sammeln Query-, Klick- und Surf-Daten und ordnen diese Usern zu. Und zwar „big time“.
Google Desktop bietet an, gar den Index meiner Festplatte zu Google zu schicken und Yahoo kauft Dienste wie http://del.icio.us/ um an mehr gute Daten zu kommen. Yahoo 360 speichert den Inhalt meiner Seiten die ich als Bookmarks abgelegt habe (zur Analyse) und kennt auch Leute, die ich als Freude verbunden habe und deren Links/Websites.
– Hier hängt das die ganze Identiy-Diskusson hinten dran
– Klar sichtbar ist, dass Google immer weiter weg geht von 2. und immer mehr Popularität (auf Basis der konsolidierten gesammelten Daten) macht. D.h. nicht die Verlinkung aber die realen Anzahl der Besuche einer Site ergeben deren Wichtigkeit. Also weniger Arbeit für Suchmaschinenoptimierer und mehr gute und auch regelmässig frische Inhalte bitte.

>> 5. Nicht abgebildet, da noch weiter weg sind Microformats resp. Systems der Bottom-Up Klassifizierung, welche Inhalte semantisch ergänzen. Beispielswiese über Tags. Wichtig aber aus meiner Sicht eigentlich Teil von 1.

Vertrauen der User gewinnen im Internet [Vortrag]

Morgen halte ich an den Telematiktagen in Bern um 13:45 Uhr einen Vortrag. Thema ist Vertrauen im Internet. Nicht verkaufen jetzt und hier aber Kunden langfristig gut beraten, ehrlich sein, da sein für Kunden u.s.w. So wie im echten Leben, aber halt Online. Die Tipps sind „einfach“ aber sehr oft missachtet:

– Die Website funktioniert technisch (mit gebräuchlichen Web Browsern).
– Das Angebot ist verfügbar.
– Die Website ist einfach benutzbar (Usability).
– Die Inhalte sind für duie Zielgruppe relevant.
– Der Nutzer versteht die textlichen Inhalte (niveaugerechte Sprache).
– Die Inhalte sind aktuell.
– Der Dialog der User mit dem Absender ist möglich.
– Die visuelle Gestaltung ist mediengerecht.
– Das Angebot stimmt mit anderen unternehmensspezifischen Kontaktpunkten überein.
– Die Website ist suchmaschinentauglich.

Da ich parallel zum Vortrag zusammen mit Marco auch einen Artikel für den Organisator geschrieben habe, gibt es den Vortrag sozusagen auch im Volltext.

> Präsentation der Telematiktage „Vertrauensförderung im Internet – Ihr Schlüssel zum langfristigen Erfolg.“ [pdf, 1,7 MB]

> PDF des Artikel im Organisator „Website: Vertrauen der User gewinnen“ [pdf, 159KB]

> HTML des Artikel auf der Website des Organisators.

Blindflug

Wir alle haben es erlebt, langweilige, dröge und nie enden wollende Powerpoint-Präsentationen. Und sind wir ehrlich, wir alle waren auch schon die Verursacher. Schnell noch was „zusammenklopfen“ und es kann losgehen.

Die Idee einer Berliner Agentur ist nahe liegend – Powerpoint-Karaoke – man sucht im Internet irgendwelche ganz üble Powerpoint-Machwerke, sucht sich zudem Freiwillige, die sich gerne messen möchten (gewisse Stand-up Comedy Erfahrung von Vorteil) und der Spass beginnt.

i-498ada4871e987e2c8e802ef4628ca08-powerpoint karaoke.jpg

Der Clou an der Sache, die Vortragenden haben die Präsentationen vorher nie gesehen. Das Publikum lacht sich schief und scheckig. Einigen bleibt das Lachen freilich ab und an im Halse stecken, denn die Situation kommt einem leider allzu vertraut vor, mindestens denen, die ehrlich sind.

Also, ein verspäteter Neujahrsvorsatz: Wir geloben alle feierlich keine drögen Vorträge mehr zu halten.

Top 10 Internet Standards der Zukunft 2002 [Vortrag]

Die Top 10 Internet-Trends aus dem Jahre 2002, so wie am 20. Januar 2002 zusammen mit Andreas Göldi an der damaligen Internet-Expo erzählt:

– MMS
– WAP 2.0
– J2ME / Embedded Java
– XML Security
– Web Services
– Neue DNS Features
– JXTA
– Device Independence
– Universal Usability
– Flash-Erweiterungen

Präsentation als Download:

Die Internet-Standards der Zukunft 2002 [pdf, 3MB]

Top 10 Internet Standards der Zukunft 2001 [Vortrag]

Die Top 10 Internet-Trends aus dem Jahre 2000, so wie am 7. Februar 2001 an der damaligen Internet-Expo erzählt:

– UML
– .NET/C#
– SOAP
– P2P
– DivX ;-)
– UMTS
– RDF
– Micropayments
– XForms
– Spracherkennung/VoiceXML

Präsentation als Download: Die Internet-Standards der Zukunft 2001 [pdf, 1,7MB]

Top 10 Internet Standards der Zukunft 2000 [Vortrag]

Die Top 10 Internet-Trends aus dem Jahre 2000, so wie am 2. Februar 2000 an der damaligen Internet-Expo erzählt:

– XML (eXtensible Markup Language)
– J2EE (Java 2, Enterprise Edition)
– PKI (Public Key Infrastructure)
– XHTML
– Macromedia Flash
– Open eBook
– MP3
– WAP
– xDSL (Digital Subscriber Line)
– IPv6

Präsentation als Download: Die Internet-Standards der Zukunft 2000 [pdf, 1,7MB]