Feed on
Posts
Comments

Schau mal, wer da optimiert!Besonders jene, welche sich an frühere Zeiten des WWW erinnern werden, ist das Wort Optimierung ein ganz besonderer Begriff. Auch heute noch trifft der User auf Webseiten, in denen ein Button oder ein textalischer Hinweis darauf deutet, dass die Site für z.B. den Internet Explorer oder den Firefox Browser optimiert wurden.

AOL-User wurden auf ganz spezielle Seiten geleitet. Dieses Verhalten blieb bis zur Stunde erhalten, nur die Motive haben sich ein wenig geändert. Heutzutage optimiert wohl kaum noch jemand für eine spezielle Sorte Browser, man optimiert nun für Suchmaschinen. Wer da nicht gefunden wird, ist scheinbar nicht vorhanden, unsichtbar oder generell minderwertig.

„Google hat mich nicht mehr lieb…“, „Google hat mich abgestraft…“ und weitere Horrormeldungen erreichen die Pupille beim Durchstöbern des Netz’. Zumindest weiß auch ein Neuling, dass einer Schuld hat und zwar Google. Das gesamte WWW scheint nur auf die Vorgaben von Google ausgerichtet zu sein, der User, der Surfer, der Verbraucher scheint keine Ansprüche zu besitzen.

Der User, der Surfer bzw. der Verbraucher will jedoch etwas finden, warum er schließlich eine SuMa* aufsucht. Was jedoch findet der Suchende auf den vorderen Plätzen der SERP**’s? Das muss es sein, diese Seite ist ganz vorne, da klickt man sich hin. Und dann erfährt der „Klicker“ die Enttäuschung, die er nicht haben wollte. Denn seine Zielseite beinhaltet so gut wie keine Information. Damit ist sie nutzlos.

Aber sie steht immerhin auf dem ersten Platz bei Google, diese Webseite; das Zauberwort heißt Suchmaschinenoptimierung. Kurz: SEO. Irgend ein Unfug wird „getunt“ und geschminkt, bis die erste Seite der google’schen SERP’s damit erreicht und als Beweis für seo-mäßiges Vorgehen nach google’schen Regeln trophäenartig durchs WWW transportiert wird.

Damit soll nun Schluss sein, denn Google lässt den PANDA frei. Websites sollen in Bälde auch in Deutschland nach Kriterien die SERB’s erreichen, welche sich nach diesem sich selbst zu stellenden Fragenkatalog (übersetzte Version) realisiert werden.

Welche Qualitätsansprüche ein Webseitenbetreiber dann besitzen wird und welche Folgen er bei schnödem Publizieren riskiert, zeigen die Einbußen bekannter Webseiten und deren Positionen aus dem benachbarten England. Wer also in den SERP’s stehen und im Netz gefunden werden will, hat Qualität abzuliefern.

* = Suchmaschine
** = SERP = Search Engine Result Pages = Suchmaschinenergebnisseiten

Print Friendly, PDF & Email

4 Responses to “Schau mal, wer da optimiert!”

  1. Hallo Lutz
    Genauso ist das. Die Leute haben die „Nase voll“ von Duplikaten im Netz, die durch einaches Copy & Paste produziert werden. Keiner möchte eine Nachricht 1:1 identisch auf mehreren Websiten finden.

    So soll es sein, dazu wird Panda eingesetzt, um endlich einmal die vorderen Plätze mit sinnvollem Content zu belegen. Tipp Nr. 1: „Schreibe für die Leser und optimiere für die Suchmaschinen“, dann klappts auch mit der Nachbarin!

  2. Lutz Spilker sagt:

    Hallo Dirk,

    nehmen wir einmal an, du hättest zu 100% Recht. Dann gäbe es zumindest in einigen Shops erhebliche Probleme. Nehmen wir als Beispiel einen Mobilfunk-Shop, in dem ein Handy der Marke X angeboten wird.

    Die Daten sind identisch mit denen, unzähliger anderer Shops, von der optischen Darstellung des Geräts einmal abgesehen. Wer linkt nun zu wem, wäre hier die Frage, denn der Hersteller Y stünde content-mäßig an erster Position und alle anderen sind nach deiner Aussage „nur“ Copy&Past’er?

    Dann wäre das System PANDA reif für den Müll, jedoch nicht für den Markt.

    Also unterscheidet sich das WWW rein inhaltlich. Text ist doch nicht = Text und somit wäre Content nicht = Content. Überdies „liest“ eine SuMa Webseiten anders, als das menschliche Auge.

    Besonders gepatchte Webseiten bei Blogs, also CMS in Reinkultur, „liest“ der (Ro-)Bot den Content nicht semantisch. Nur für das Auge stellt sich die Oberfläche einheitlich dar. Die Entwicklung der Halbintelligenz ist zwar den Dingen auf der Spur, jedoch noch nicht habhaft. Dies ist bitte zu beachten, denn Suchmaschinen sind und bleiben Maschinen.

    lG
    Lutz

  3. Da stimme ich dir ebenfalls zu. Es wird immer Möglichkeiten die „Maschinen“ sprich Bots zu „überlisten“. Ich bin aber fest davon überzeugt, dass Shops, die sich nichts einfallen lassen und lediglich (bleiben wir mal bei den Mobilfunkgeräten), die Beschreibung und die technischen Details 1:1 von anderen tausenden Websites übernehmen, auf der Strecke bleiben werden.

    Nicht zu vergessen, dass dort auch noch mit anderen Hilfsmitteln gearbeitet wird, wie z.B externe Verlinkung. Da es in solch einem Bereich nahezu unmöglich ist, Links von einer themenrelevanten Website zu erhalten, da Konkurrenz, werden nicht selten Satellitten Projekte für dieses Linkbuilding benutzt.

    Da werden ganze SEO Agentur Geschwader drauf angesetzt um den Markt zu erobern – da geht es schließlich um richtig „Kohle“.

    Aus diesem Grunde wird es niemals möglich sein, eine „Maschine“ vollkommen zu vermenschlichen.

  4. Lutz Spilker sagt:

    Hi Dirk, hallo zusammen,

    eine simple Überlegung, die allerdings gerne unterschlagen wird, sei mir zu diesem Thema noch gestattet.

    Machen wir es in der Manier eines Rezepts und benötigen daher: 1 Thema, 3 Web-Portale namens A, B und C. Zusammengießen, rühren und fertig…. nicht ganz.

    Portal A ist eine eher mäßig besuchte Webseite mit allerdings interessanten Inhalten. Diese Inhalte (Themen) werden, je nach Brisanz, per Agentur als PM* rausgegeben und zur freien Verfügung gestellt. In der Portalseite A erscheint die PM ebenfalls unter der Rubrik „Presse“.

    Nun landet sie im „Ticker“ und kann von dort aus genommen werden. Portal B nimmt sich der Meldung an und publiziert sie. Nun lesen diese Meldung schon erheblich mehr Personen, als vorher.

    Zu guter Letzt publiziert Portal C mit einer gigantischen Reichweite dieses Thema und erzielt überdies eine gute SERP-Position. 3 Publikationen in drei unterschiedlichen Portalen mit ein und derselben PM.

    Der Mensch ist unterschiedlich, will unterschiedlich sein, liest an den unterschiedlichsten Plätzen und wenn es sein muss publiziert man noch 200 Jahre lang die Reiseabenteuer eines Karl May. Wird man dessen nicht müde? Nein. Doppelter Content ist keine „Strafe“ wert, sondern eine Frage des Konsums.

    Wird der Content auf Portal A (wo er eigentlich her kommt…) nicht konsumiert, ist es kein Indiz dafür, dass er woanders nicht evtl. besser ankommt. Auch ist die Technik nicht gänzlich zu negieren. Die automatischen Pings und VÖ**’s auf Twitter, Facebook und weiteren Portalen, entstehen durch gezielten Einsatz guter Widgets (AddOns, PlugIns, etc.) und sind noch lange nicht in allen Webseiten zuhause und auch nicht jedem Webmaster bekannt.

    Das WWW ist individuell und unterliegt nur in sehr wenigen Bereichen einheitlichen Bestimmungen. Will man Webseitenbetreiber für ihre Defizite bestrafen? PISA-Studie fürs WebWorker? Dann stünde der Web-Führerschein als nächstes an.

    Ganz anders gesagt:
    Rennwagen werden nicht für die Garage gebaut, sondern für die Piste.

    * = Pressemeldung
    ** = Veröffentlichung

%d Bloggern gefällt das:

Durch die weitere Nutzung der Seite wird der Verwendung von Cookies zugestimmt. Weitere Informationen

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen. Wenn du diese Website ohne Änderung der Cookie-Einstellungen verwendest oder auf "Akzeptieren" klickst, erklärst du sich damit einverstanden.

Schließen