Über Jürg Stuker

Techie with tons of respect for creative people, interested in unconventional solutions and always curious. Aside that partner of Namics.

Schlicht, schnell und schmalbrüstig

Er ist da, der Webbrowser von Google namen Chrome und somit ein neuer Kandidat für unser Testing. Brauche ich einen neuen Browser? Nein, denn Firefox kann alles, ist perfekt erweiterbar und funktioniert.

Dennoch reizt ein Selbsttest von Google Chrome. Erster Eindruck: Schlicht und sehr schnell. Also besuche ich einige Sites die ich gut kenne und der Eindruck der guten Geschwindigkeit bestätigt sich. Auch die Kompatibilität scheint sehr gut, zumindest auf die Schnelle in meinen täglichen Anwendungen. Fast erschrocken bin ich, dass Lotus Dominio Web Access besser läuft als auf Safari (aber leider auch nur fast und das lite UI nicht), ausserdem ist Flash drin etc.

Alles in allem eine sehr aufgeräumte und qualitativ hochwertige Geschichte! Und was ist neu? Die Trennung der einzelnen Tabs scheint gut gemacht zu sein, beispielsweise beim asynchronen Download oder beim Öffnen einer externen Anwendung ist keine Blockierung zu spüren. Zudem ist der Modus „für anonymes Browsen“, das Inkognito-Fenster spannend und die visuelle „last viewed“ Seite ist nett gemacht (irgendwie erinnert es mich an Opera).

i-2faabfd9dbde68d483db45f77da189b7-google-chorme-day1-thumb.png

Ausserdem gibt es einige Funktionen die ich zuerst schätzen lernen muss, so beispielsweise die Eingabe von „allem“ in einem Feld (so wie ein kleiner Teil von Firefox Ubiquity), die Verlaufsanzeige im Google-Stil oder visuelle Hervorhebungen, welcher der guten Bedienung nützen. Intelligent ist auch die integrierte Rückmeldefunktion für Fehler an Google.

Enttäuschend ist, dass der Browser nicht mit Feeds (RSS / Atom) umzugehen weiss (keine Konkurrenz zu Google Reader?) und ich hätte mehr Google-Integration erwartet.. beispielsweise mit Google Applications oder mit anderen verbreiteten Diensten (so wie es Flock macht).

So bin ich also gespannt, wie er sich weiter entwickelt und wegen seiner Geschwindigkeit nutze ich das Ding mal vorläufig. Willkommen „Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US) AppleWebKit/525.13 (KHTML, like Gecko) Chrome/0.2.149.27 Safari/525.13“

Veröffentlicht unter Allgemein | Verschlagwortet mit

Drei mal vier macht zwölf namics Mitarbeiter

Transparenz ist für uns wichtig. So in der Projektarbeit für Kunden, aber auch im Bezug auf unsere Mitarbeiter: Die wichtige Ingredienz der namics-Leistung. Ergebnis dieses Grundsatzes ist, dass wir alle Mitarbeiterprofile bei uns auf der Website publizieren… Ein Graus für Personalberater, die uns immer wieder darauf hinweisen, dass wir Verstecken-Spielen sollen. Das sei alles viel zu gefährlich…

Einen Schritt weiter haben wir 12 Mitarbeiter quer durch die Organisation angefragt auf about.namics.com einen Post über ihre Erfahrungen resp. ihre Arbeit bei namics zu schreiben. Frei nach unserem Ansatz dass alle Mitarbeiter bloggen dürfen uns sollen.

Hier die Ergebnisse in der Kategorie „namics & ich“ auf about.namics.com. Oder hier als einzelne Links:

finanzen@namics (Patrick)
bye AWD, hello namics! (Simon)
30% Frontend 30% Backend und etwas dazwischen (Harto)
Vermittler zwischen den Welten (Andreas)
Was macht der Senior Consultant? (Julia)
Zwischen den Zeilen versteckt sich bei namics nur Gutes – Text@namics (Claudio)
Marketing – kännsch?! (Nicole)
Mit Menschen was bewegen (Martin)
Das Auge isst mit, aber deshalb muss der Rest nicht leer ausgehen (Jan)
Junior was? (Sara)
15 Monate bei namics… was bisher geschah (Yann)
Was macht der J.A.D? (Barbara)

Veröffentlicht unter Allgemein | Verschlagwortet mit

Wie kommen Seiten nicht in Google rein?

Alle reden davon, wie ein Betreiber möglichst viele Seiten in den Google-Index rein bekommen und dort möglichst oben auf der Trefferliste positioniert sind. So auch bei uns, es heisst Suchmaschinenmarketing (SEO + SEM).

Heute mal das Gegenteil: Wie stelle ich sicher, dass meine Seiten nicht im Google-Index landen. So einfach wie es ist, sich selbst aus Google auszuschliessen, so sehr frage ich mich, weshalb Verleger klagen dass Google Inhalte klaue (sie können diese selbst sperren).

FAQ1: Meine Seiten kommen nicht in den Index, denn niemand kennt die Adresse. Meist falsch, da beispielsweise der Google Toolbar Seiten zurückmeldet und somit durchaus auch „unbekannte“ URL gecrawled und indexiert werden.

FAQ2: Ist so was wichtig? Machen wir mal das folgende Spiel. Ich vermute bei jemandem Entwicklungssysteme oder will mich mal umschauen…

i) Suche in Google nach der Hauptdomäne bsp. mit der Query site:swisscom.com

ii) Nun beginnne ich Schritt für Schritt die Domänen auszuschliessen, die ich nicht sehen will mit -site. So lautet die zweite Query site:swisscom.com -site:www.swisscom.com und schon sehe ich interessante Kandidaten.. schauen sie selbst.

Also zurück zur Frage was ich für Möglichkeiten habe, dass Seiten nicht bei Google in Index landen.

> > Gruppe 1: Die Site / Seiten sollen öffentlich zugänglich sein

1) robots.txt Datei. Im Wurzelverzeichnis des Webserver kann ich mit der Datei robots.txt auf Stufe Verzeichnis festlegen, was der Suchmaschinencrawler besuchen soll. Der Grundsyntax (www.robotstxt.org) ist schon sehr lange stabil und lässt auch eine Differenzierung nach Suchmaschinen (User Agents) zu. Gewisse Suchmaschinen interpretieren auch einen erweiterten Syntax. Crawler die sich an die Regeln halten (alle „grossen“) erkennt man u.a. auch daran, dass sie die Datei zu Beginn einer Session anfordern (erzeugt einen Eintrag im Access-Log). Soll auf diesem Blog beispielsweise von keinem Crawler das Verzeichnis /mt/ nicht besucht werden, alle anderen aber schon, so lautet die Datei so:

User-Agent: *
Disallow: /mt/
Allow: /

Hier noch die Anleitungen bei Google, Yahoo und bei Microsoft.

2) META tags. Diese Tags gilt es auf Seitenbasis einzufügen und sie erlauben damit eine feinere Steuerung. Auch hier gibt es wieder einen von allen interpretierten Grundsyntax (www.robotstxt.org) sowie suchmaschinenspezifische Erweiterungen. In der Grundversion gibt es zwei Angaben i) soll die vorliegende Seite indexiert werden oder nicht (INDEX / NOINDEX) und ii) soll den Links in der Seite gefolgt werden (FOLLOW / NOFOLLOW). Somit sehen die Tags in etwas so aus:

<META name=“robots“ content=“noindex, follow“ />
<META name=“robots“ content=“index, nofollow“ />
<META name=“robots“ content=“noindex, nofollow“ />

3) X-Robots-Tag Header. Bei diesem Ansatz lieferte die angeforderte Seite in der HTTP Response den genannten Header. De Ansatz wurde von Google bekannt gemacht und unterstützt ihren erweiterten Befehlssatz. Zumindest Yahoo unterstützt den header auch. Die Befehle sind sehr ähnlich wie bei robots.txt also

X-Robots-Tag: noindex, follow
X-Robots-Tag: index, nofollow
X-Robots-Tag: noindex, nofollow

Grundsätzlich ist zu allen drei Ansätzen zu sagen, dass es effizienter ist den Crawler mit robots.txt grossflächig auszuschliessen, damit nicht alle Seiten ausgeliefert werden um festzustellen, ob diese indexiert werden sollen. Auf der anderen Seite ist META oder der Header zuverlässiger.

> > Gruppe 2: Die Site / Seiten ist nur für eine Gruppe von Leuten zugänglich (z.B. Entwicklungssysteme)

Auch ein häufiger Fall ist es, dass ich ein System vor dem Live-Gang für eine Testgruppe zugänglich machen möchte. Die Ansätze oben sind grundsätzlich möglich, aber zu unzuverlässig und auch aufwändig bei der Umstellung vor dem Livegang. Das allerbeste hier ist also ein Passwort und zwar sehr früh. Also nicht erst auf einer Formularseite (sonst wird diese indexiert) aber bereits mit einer HTTP Basic Authentication (also einem Login Windows des Browsers).

Kommt mir irgendwie bekannt vor

Wir haben intern eine Gallerie mit Plagiaten und Verwechslungen unseres visuellen Erscheinungsbildes. Zum Teil weit weg und wohl Zufall und zum Teil von Mitbewerbern die wohl meinen, dass wir was richtig machen (nahmen wir bis jetzt immer als Kompliment auf). Um der Gegenwart nicht zu Nahe zu treten ein Beispiel aus der delta-Zeit.

Alles lustig und da es häufig um das Logo geht, gibt es das EPS und die Regeln als Arbeitserleichterung auch auf diesem Blog.

Heute bekam ich wiedereinmal eine unaufgefordertes E-Mail (Hallo Absender: Das ist illegal) und irgendwas bekam mir dabei bekannt vor. Hier beim Koblenzer Forum für Business Software (KoFoBiS).

i-9c15b8132183da8887429e6c84c28afd-logoKoFoBis.jpg

Veröffentlicht unter Allgemein | Verschlagwortet mit

Unternehmenskommunikations zum Nachmachen

Ich finde die Idee charmant und nachahmenswert. Der Mittelwellensender des staatlichen Schweizer Radioprogrammes DRS wird am 28. Dezember 2008 abgeschalten. Die Kommunikation setzt kurzerhand einen (kostenloses) Flickr-Account auf und stellt Bilder mit Text so zur Verfügung. Simpel aber sympathisch mit schönen Bilder.

So einfach ist es. Ich frage mich natürlich, weshalb nicht die offizielle Bildgallerie genutzt wurde (aber vielleicht kenne ich ja das Upload-Interface nicht ;-) Jetzt könnten wir (als Steuerzahler) der Kommunikation DRS einen Flickr-Pro Account spenden. Nett fände ich, wenn die Bilder auch in höherer Auslösung als (800*600) verfügbar wären (bspw. für Bildschirmhintergrund). Und nun muss natürlich die (virale) Verteilung ausgekitzelt werden… die Arbeit steht für DRS noch an.

i-903ff0899fa715fa07a725da1cea3370-srdrs-auf-flickr-thumb.png

Veröffentlicht unter Allgemein | Verschlagwortet mit

refrain from clicking Continue for five minutes

Wenn ich zur Zeit nicht so aktiv schreibe, so liegt das wohl dran, dass ich anderweitig schreibe (und spreche und zeichne)… Das Projekt heisst BRAIN und es ist das neue Intranet von namics. Mehr dazu irgendwann hier.

Am Wochenende habe ich mich mit der Suche beschäftigt (wir betreiben verschiedene technische Systeme parallel um Infos für Beratung auf Projekten resp. einen realen Vergleich zu haben) und die neuste Version einer Google Search Appliance GSA-1001 aufgesetzt.

Google wählt einen praktischen Ansatz um den Systemunterbruch möglichst kurz zu halten. Im normalen Betrieb liefert das System Suchresultate auf Port 80 (http resp. 7800 als Alternative) und Port 443 (https). Wenn ich nun den Upgrade starte, so wird auf den Ports 7801 und 4431 ein zweites System aufgesetzt, vorerst mit einem leeren Index. Der Suchindex auf den alten Ports wird nicht mehr aktualisiert, das Delivery auf 7800 und 443 läuft aber ohne Einschränkung auf der alten Software-Version weiter. Im Version Manager sieht das so aus.

i-a465d41f8b8a34aa85919f69ddc121f9-gsa-two-versions-thumb.png

Nun kann ich den neuen Index mit der neuen Software-Version konfigurieren resp. mit dem Crawling beginnen etc. ohne dass der Betrieb gestört wird. Genau gesehen wird der Betrieb nur insofern gestört, dass die Ergebnisse der Trefferliste veralten, aber das ist in den meisten Fällen verkraftbar. Sobald ich mit A/B-Tests festgestellt habe, dass alles i.O. ist kann ich das System endgültig umstellen und nun werden die Ports wieder umgestellt und die Kiste läuft auf der neuen Version.

i-7cab839d011e91723ce000f27aa63159-gsa-version-confirm.png

In unseren Fall war der Systemunterbruch (mit einem Index von ca. 2 Mio. Dokumenten) maximal 5 Minuten. Ziemlich gut. Nun zum Titel des Posts, eine Möglichkeit den Unterbruch deutlich länger zu gestalten…

Google, die „Web-Gläubigen“, die alles in den Webbrowser verlegen wollen, haben ihr Hauptwerkzeug auch nur bedingt im Griff. So gibt es seit Version 4.x ein Problem, dass ich das System während dem Update abschiessen kann. Damit dies nicht passiert, gehört die Upgrade-Anleitung genau gelesen, da findet sich nämlich der folgende Passus.

i-a83a4e649793ac74b68642a5927249fa-refrain-from-clicking-Continue-for-five-minutes-thumb.png

Ich meine das müsste ich doch auch auf der Systemseite lösen lassen ;-)

Veröffentlicht unter Allgemein | Verschlagwortet mit

Was José fand, kann Román schon lange (in CSS)

Heute Schlagzeile: Auf einer spanischen EURO-Münze wurde das Konterfei des Königs „von einem Profi“ durch Homer Simson ersetzt. Glaubt man dem Papier, gefunden von Jose Martinez.

i-15a6d2da53a575884e29571984c193de-homer-simson-euro.jpg
Quelle: Welt Online

Offenbar scheint Spanien ein Faible für den Herrn S. zu haben, denn schon früher im Jahr „baute“ Román Cortés denselben in CSS. Online war wieder schneller. Hier das Original und hier animmiert bei Ned Batchelder.

i-6be83931a1c2df16e47b5225a20091fa-homer-simson-css.jpg

Einen schönen Tag mit überflüssigen Meldungen ;-)

Veröffentlicht unter Allgemein | Verschlagwortet mit

Swisscom Update für Huawei E220 (USB Unlimited Modem)

Eigentlich eher ein Inhalt für unser (internes) know.namics, da ich aber weiss, dass die folgenden zwei Artikel zur Zeit zu den meist gelesenen auf diesem Blog gehören, das ganze öffentlich:

Swisscom Unlimited USB (Huawei E220) unter Mac OS 10.5 (Leopard) installieren

Swisscom Unlimited USB (Huawei E220) auf ASUS Eee PC (xandros 2.6.21.4) installieren

Ich meinte ein Vista-Problem zu haben (abreissende Verbindung), doch in nachhinein lag es am instabilen Swisscom-Netzwerk… Damals wurde im Web fündig und machte einen Update der Firmware und der Windows-Anwendung auf dem Modem. Das klappte gut, auch wenn danach alles von Vodafone stammte. Genau genommen funktionierte es solange, bis Swisscom (nachträglich) die Vodafon-Software trotzt Swisscom-SIM sperrte (was sie heute noch ist). Also zurück zu Swisscom doch die Software finden war nicht so einfach, deshalb hier der Tipp.

Es gibt eine aktualisierte Firmware und eine aktualisierte Windows-Anwendung für das Huawei E220 von Swisscom. Vorteil sei „Top Speed 7.2 MBit/S“ davon habe ich aber noch nicht gemerkt. Hier die Links und bei mir hat alles bestens geklappt (auch nicht einer Woche Test). Das ganze lässt sich aber nur unter Windows installieren!

– „Anleitung“ für die Installation (dürftiges PPT): Instructions for the HSPA and software upgrade of the Unlimited USB Modem E220
[pdf, 419 KB]

– Firmware-Update (Ver. 11.117.09.00.00): http://www.swisscom-mobile.ch/scm/dlc/E220Update_11.117.09.00.00.B268.exe [exe, 13,9 MB]

– Update für den Unlimited Connection Manager (Ver. 11.002.03.08.103): http://www.swisscom-mobile.ch/scm/dlc/UTPS11.002.03.08.103_MAC11.201.03.01.103.B266.exe (exe, 22,5 MB)

Und so sieht es unter Windows mit dem neuen Swisscom-Logo aus (natürlich nicht animiert ;-)

i-03fdb6bee5086c4689b334d7fd1b885e-unlimited-software-thumb.png

PS: Spassig ist die MAC-Anleitung auf die ich sehr häufig angesprochen wurde insb. auch von Swisscom-Mitarbeitern, welche meine Anleitung selbst nutzen.

Veröffentlicht unter Allgemein | Verschlagwortet mit

Wo ist meine Zielgruppe – evt. im Fernsehen?

Die Frage danach, wo meine Zielgruppe ihre Zeit verbringt ist — offensichtlich — zentral wichtig für Werbung (oder wie es auch heisst um Reichweite oder noch lieber Konversion zu erzeugen). Also gibt es viele Studien und Firmen, welche genau das immer wieder messen (es zumindest versuchen) oder einfach nur darüber schreiben.

Da ich immer wieder über die Schweiz schreibe hier ein paar Links zu „solchen“ Daten in Deutschland: www.initiatived21.de, www.innovationsreport.de, www.agof.de, www.nonliner-atlas.de, www.bitkom.org, www.nielsen-netratings.com, www.bvdw.org, www.studie-deutschland-online.de, www.vdz.de, media.spiegel.de, www.agma-mmc.de, www.acta-online.de, www.bauermedia.com, www.agirev.de, www.destatis.de oder www.mediendaten.de (interne Wissensdatenbanken sind schon noch praktisch ;-)

Ich wollte aber über USA, über Fernsehen und über Alter schreiben. Ja, das teure und sehr reichweitenstarke Medium mit der fehlenden Interaktivität. Konkret über einen Artikel mit dem Titel: „TV viewers‘ average age hits 50“.

Das soll man sich mal auf der Zunge zergehen lassen. Der Median des Zuschaueralters von ABC, NBC, Fox, CBS und Univision war im letzen Jahr 50 Jahre. Interessant das die Studie das zeitverzögerte Schauen nicht mitzählt, auch das eine klare Aussage zur Präferenz jüngerer Zielgruppen und zur Abnahme der Lust auf Giesskanne, sorry: Broadcast. Wer sich die „Tonight Show With Jay Leno“ anschaut hat beispielsweise ein Medianalter von 54 Jahren…liegt vielleicht an der Schlaflosigkeit ;-) Ich weiss, USA, aber ist Europa wirklich so unterschiedlich…

Auf jeden Fall eine ziemliche Herausforderung für Medienagenturen (und „ähnlich“) die auf TV bauen und online meist (nur) in Bannern denken und meinen Page Impressions seien per se was wert…

PS: Ich wollte noch einen Artikel aus dem Tages Anzeiger verlinken darüber wie die Zürcher Partyszene über Facebook mobiliert… aber der Tagi ist grad offline. Und dank dem neuen Newsnetz sind auch gleich die Basler und die Berner Zeitung „down“…

Veröffentlicht unter Allgemein | Verschlagwortet mit

news1.ch, die übliche Neugier

Der Fall ist häufig: Irgendeine Site und ich will mehr darüber wissen. In diesem Fall die an allen Ecken und Enden in der Schweiz angekündigte Newsportal der Regionalverleger: www.news1.ch (ist das wohl der angekündigte Google News Killer?).

Die Site besteht aus ganz wenig (belanglosem) Text, einem PDF und einer Einschreibung zu einem Newsletter. Hmm…

1) Schauen wir mal das PDF an: Download und dann die Document Properties. Nicht spannendes mit Word 2007 auf Windows geschrieben und in PDF 6 umgewandelt. Der Autor heisst „ts“ und das Dokument „Microsoft Word – Medienmitteilung vom 06.08.2008.docx“. Häufig steht da was spannenderes.
i-00e8ccdde2f66f9ef10cdcc55c6a5a68-news-pdf-properties-thumb.png

2) Gibt es noch mehr Seiten auf der Domäne? Fragen wir Google mit: http://www.google.com/search?q=site:news1.ch. Auch hier Fehlalarm, nur eine Site und nicht vergessenes und keine Subdomäne zum Test.
i-c13c9b14e31663df478a1a8a44620e30-news-google-site-thumb.png

3) Auch die E-Mail Registrierung macht nicht. Ausser den Text „Ihre Registrierung wurde gespeichert! „.. nicht mal eine Bestätigung. Sehr dünn.

4) Schauen wir und mal den Quellcode an. Auch hier nicht spannendes. Kein clientseitiges Tracking und keine Metadaten. Das ganze ist hingegen zu 100% in Microsoft .NET gemacht (oder wer braucht für ein E-Mail-Formular einen Sessionstate?).

5) Also wo läuft der Rechner? Ich frage Netcraft mit http://toolbar.netcraft.com/site_report?url=http://www.news1.ch und sehe hier dass ein neu installierter Windows Server 2003 am Werk ist und dieser bei der Firma Netex AG im Netzwerk steht. Also kann ich nachschauen was die Netex AG so macht. Kaum ein Newsportal.

6) Etwas steht oben auch noch drin, nämlich das der Reverse DNS falsch (oder doppeldeutig) ist und auf smtp.youme.net lautet. Also ganz in der Nähe (auf demselben Rechner oder früher auf derselben IP) lief/läuft http://www.youme.net/. Diese Community-Site in in Microsoft .NET geschrieben… also evt. ein Teil von dem, was uns erwartet. Ich meine eher nicht.
i-5f423c57557f7b3caa5f8e48f3989ad0-news-netcraft-thumb.png

7) Auf den ist der Domänenname wohl zugelassen. Fragen wir Domaintools mit http://whois.domaintools.com/news1.ch. Aha. Der Organisatorische Kontakt ist Traber Francois bei der Meier + Cie AG in Schaffhausen. Der technische Kontakt ist Capobianco Michele bei Online Consulting AG in Wil/SG. Dort steht auch der DNS. Das eine sind die Schaffhauser Nachrichten mit den Chefredaktor Norbert Neininger und das andere ist eine IT-Firma bei der Norbert Neininger beteiligt ist.
i-a18b8df770a6e4d4a45dff33da9f141e-news-domaintools-thumb.png

So, so… ich könnte nun noch weitermachen, doch im Moment weiss ich genug und weiss auch, wen ich fragen muss für Infos ;-)

Veröffentlicht unter Allgemein | Verschlagwortet mit