Übersicht Strategien 
Web-Site als
Marketinginstrument
Web-Site als Profit-Center
Portale
"Fraktale" Marketing-Strategie


Übersicht Online sein
Erfolgsfaktoren
Web-Promotion
Suchmaschinen
20 Tipps
Suchmaschinen-Optimierung


Übersicht Web-Controlling
Marketing-Controlling
Kostenrechnung


Sites zum Thema


 


Im Seminar suchen


Kontakt


eMail


Drucken


Sitemap


Hilfe 


Im Netlexikon suchen

Ihr aktueller Standort:

blättern

Seiten in dieser Rubrik


Weitere Texte


Links zum Thema

Website-Marketing

Nicht mogeln, bitte!

Neben der legitimen Nutzung aller Kenntnisse über Auswahl- und Bewertungsmechanismen der Suchmaschinen hat sich das schlaue Austricksen der Robots im Internet zu einer Art Volkssport entwickelt, Spamdexing genannt. Zwischen den Spamdexern und den Suchmaschinen gibt es einen fortwährenden Wettlauf. So werden die Tricks von heute zur Falle von morgen für den, der nicht ständig am Ball bleibt. 
Ein Beispiel unter Hunderten: 
Nachdem sowohl der simple Trick mit den unsichtbaren Texten (hunderte von wiederholten Keywords in der gleichen Farbe wie der Seitenhintergrund) als auch der Trick mit der
automatischen Weiterleitung von inhaltlich unsinnigen, Keyword-konzentrierten "Brückenseiten" (Doorway Pages) selbst von den "dümmsten" Suchmaschinen erkannt und geblockt worden war, ließen sich die Spammer einen ganz einfachen, für die Robots nicht erkennbaren Trick einfallen:
Sie entwarfen "Brückenseiten", die im oberen, auf dem Screen sichtbaren Teil einigermaßen "normale" Inhalte, "normal" designed, enthielten, im unteren, nicht sichtbaren (der Scrollbalken wurde "entfernt") Teil aber aus Keyword-Spam bestand. Diese Seite wurde zwar auch automatisch (Meta Refresh) weitergeleitet, aber erst nach 6-10 Sekunden - was von den Suchmaschinen aus gutem Grund toleriert wird.
Andererseits entfernen sich die Techniken der Web-Site Gestaltung und -Bearbeitung (z.B. durch Einsatz von Flash und Streaming Media, vor allem aber durch den Gebrauch von CMS und datenbank-gestützten Seitenaufbau) immer weiter vom simplen HTML-Format. Da bleibt dem Web-Site Betreiber kaum anderes übrig, als auf Tricks zurückzugreifen, nicht um die Suchmaschinen zu betrügen sondern im Gegenteil, um ihnen ihr "Geschäft" überhaupt zu ermöglichen.
Ein Dilemma, das im Endeffekt nur über eine Selbstverpflichtung aller Beteiligter auf ein "ethisch einwandfreies" Optimieren von Websites für die Suchmaschinen zu lösen ist. Der "Kategorische Imperativ" der Suchmaschinen-Optimierung heißt:
"Biete den Suchmaschinen nur solche Inhalte an, die Du genauso an gleicher Stelle Deinen Besuchern anbieten würdest."
90 Prozent aller Suchmaschinen-Anmeldungen sind SPAM!
Die Suchmaschinen haben in den letzten Jahren gewaltige Anstrengungen unternommen, den Spamdexern auf die Spur zu kommen und sie aus den Indizes auszuschließen. Wenn es richtig ist, was Suchmaschinen-Betreiber behaupten: 
  • 85-95 Prozent aller Anmeldungen sind SPAM und (so FAST) 20 von 30 Millionen erreichbaren Servern im Internet - also ein Zwei-Drittel aller Server - sind bereits als Spam-Server "entlarvt", 
dann ist die Energie, die in diesen Kampf investiert wird, durchaus verständlich.
Leider aber 
  • dauert es of sehr lange (manchen Suchmaschinen schaffen`s nie), bis eine Spam-Praxis nicht nur erkannt sondern auch gebannt wird. Das ist als automatischer Vorgang oft unmöglich (s.u. "Cloaking") und die Suchmaschinen sind daher auf Hinweise/Denunziationen aus der Nutzerschaft angewiesen,
  • treffen die Verteidigungs-Maßnahmen der  Suchmaschinen auch immer mehr Unschuldige. Wenn ganze Server, die ja oft genug mehrere Websites beherbergen, oder gar Service Provider auf die schwarzen Listen der Suchmaschinen wandern, kommt es zu einer Art "Sippenhaft". Die "sauberen" Websites trifft der Bannstrahl genauso wie die Spammer! Reparatur ist fast unmöglich - dazu fehlt den Suchmaschinen das Personal.
Spamdexing lohnt sich nicht 
Die Zeiten, wo man mit stereotypen Schlüsselwort-Anhäufungen, unsichtbarem (transparenten) Text, irreführenden Brückenseiten, die per Meta Refresh dem Auge des Nutzers erspart wurden, etc. sein Ranking in den Suchmaschinen verbessern konnte, sind längst vorbei. 
Andere, nicht weniger plumpe Tricks, wie der Einbau von 1-Pixel-Graphiken mit angehängten ALT-Texte oder gar unsichtbare 1-Pixel-Frames mit umfangreichen NOFRAME-Texten, scheinen heute leider noch in vielen Suchmaschinen zu funktionieren.
Unsichtbare Layer (CSS-Layer ausserhalb des sichtbaren Bereichs mit einer Keyword-gepackten Seitenbeschreibung), Cloaking (den Suchmaschinen andere Seiten als den Besuchern servieren), etc. zeigen schon die Verfeinerung - oder die Verwilderung? - der Sitten an.
Die Reaktion der Suchmaschinen auf diese Praktiken ist für alle gleich unangenehm: die Aufnahme in die Suchmaschinen-Indices und das Ranking werden immer unabhängiger von den Optimierungsbemühungen der Webmaster und Promotions-Agenturen.
Der seriöse Web-Promotor tut ohnehin gut daran, sich aus diesem Wettlauf herauszuhalten. Auf Dauer ist das Spamdexing konterproduktiv. Nicht nur die Suchmaschinen, die allen Tricks irgendwann einmal auf die Spur kommen, sondern - wichtiger - auch die übertölpelten Besucher, die unter falschem Vorwand (falsche Keywords, irreführende Description) auf die Seite gelockt wurden, reagieren sauer und sind auf immer verloren.
Die Schwarze Liste der Suchmaschinen
Außerdem naht der Tag, da sich die großen Suchmaschinen zusammentun und Spamdexer auf eine gemeinsame Schwarz Liste setzen. Die Site ist dann in allen wichtigen Suchmaschinen "gestorben". Bis dahin kann der Webmaster schon die expliziten Suchmaschinen-Spam-Standards einüben, z.B. bei Google und Yahoo!
In einem Dilemma befindet sich allerdings der Webmaster, der versucht, ganz korrekt und im Sinne der User und der Suchmaschinen die Inhalte seiner Web-Site auch dann an die Suchmaschine zu bringen, wenn diese eigentlich nicht in der Lage ist, diese Inhalte zu erfassen. Da müssen die Suchmaschinen zu ihrem eigenen Besten mit ein paar Handgriffen zu ihrem eigenen Glück gezwungen werden - wobei einige der Techniken (z.B. das sogenannte Cloaking) interessanterweise gleichzeitig auch als Schutz gegen die böse Konkurrenz eingesetzt werden kann. (-->mehr dazu unter Umleitungen für Sackgassen)
Kriminelle Methoden der Spamdexer - Wachsamkeit tut not!
Gefährlich, ja kriminell, sind allerdings die Tricks der Spamdexer, die sich direkt gegen die Suchmaschinen-Platzierungen der Konkurrenz richten. Nicht nur das komplette Kopieren erfolgreicher Konkurrenzseiten (“Site-Jacking”, oder harmloser: das simple Kopieren der Meta Tags von erfolgreichen Sites, "Meta-Jacking") sondern vor allem – weil es so leicht ist – die bewussten Regelverstöße im Namen der Konkurrenz, die zur “Abstrafung” durch die Suchmaschinen führen, können katastrophale Folgen haben.
Dagegen hilft nur das ständige Beobachten der Auf- und Ab-Bewegungen in den Suchmaschinen. Es ist ratsam, für die wichtigsten 10 Suchmaschinen und Kataloge eine Art Monitor mit monatlicher Berichterstattung einzurichten. 
Dafür gibt es auch hier wieder  Software und auch kostenlose Dienstleistungen (monatliche Benachrichtigung per Email über die Positionen in Suchmaschinen bei den wichtigsten Stichwörtern) im Internet selbst. So kann der Web-Promotor beim Abrutschen aus den Top Ten sofort reagieren. (-->mehr dazu unter Mother`s Litte Helpers und Marketing Controlling)
Spam-Dialog mit den Suchmaschinen
Viele der großen Suchmaschinen bieten inzwischen eine Möglichkeit, 
  • Spamdexer zu melden oder
  • sich gegen ungerechtfertigte Strafen für Spamdexing zu wehren.

Beispiele:
AltaVista: spam-support@altavista.com
Inktomi: spambuster@inktomi.com, spamcrusader@inktomi.com
Google: spamreport@google.com 
AllTheWeb: spam@fastsearch.com
Teoma: help@teoma.com
Dieses Thema wird auch im Zusammenhang eines  Schritt-für-Schritt-Tutorials zum Thema "Suchmaschinen-Optimierung" auf diesem Server aufgegriffen.
© lb medien 2004
http://www.e-publishing.de