Übersicht Strategien 
Web-Site als
Marketinginstrument
Web-Site als Profit-Center
Portale
"Fraktale" Marketing-Strategie


Übersicht Online sein
Erfolgsfaktoren
Web-Promotion
Suchmaschinen
20 Tipps
Suchmaschinen-Optimierung


Übersicht Web-Controlling
Marketing-Controlling
Kostenrechnung


Sites zum Thema


Hier können Sie die 50
Top-Sites zum Thema
"Suchmaschinen-Optimierung"

gezielt durchsuchen:


 


Im Seminar suchen


Kontakt


eMail


Drucken


Sitemap


Hilfe 


Im Netlexikon suchen

Ihr aktueller Standort:

blättern

Seiten in dieser Rubrik


Weitere Texte


Links zum Thema


Suchmaschinen-News

Suchmaschinen-Optimierung 
 
Schritt 1: Voraussetzungen schaffen – Site-Checks 

Wenn Sie bereits eine Website betreiben, dann ist der erste Schritt die Überprüfung der „technischen“ Voraussetzungen für eine gute Platzierung in den Suchmaschinen.
Mit der Einhaltung inzwischen etablierter Standards bei Design und Programmierung Ihrer Website , wie sie auf den Seiten der W3C (http://www.w3.org) und anderer Organisationen (z.B. http://www.webstandards.org) und Initiativen (z.B. http://useit.com, http://usableweb.com) definiert sind, bleiben Sie in jedem Fall auf der "sicheren Seite" bei der Accessibility ("Zugangsfähigkeit") und Usability ("Gebrauchsfähigkeit"), die gleichzeitig als wichtige Voraussetzung für die Aufnahme in die Suchmaschinen und das Ranking gelten kann.
Robots sind dumm
Die Suchmaschinen-Robots oder -Spider "beherrschen"  im wesentlichen nur einfaches HTML - anders als die modernen Browser können sie nichts anderes "lesen" und verzeihen auch keine Fehler (s. dazu die Beschreibung der "echten" Suchmaschinen). Das gilt - eingeschränkt - auch noch zu Zeiten, wo die "großen" Suchmaschinen immer mehr "Sprachen" verstehen, wie z.B. Flash und PDF.
Jede Abweichung von diesen Standards führt also dazu, dass die Seite teilweise oder ganz von den Suchmaschinen ignoriert wird. Es ist also wichtig zu analysieren, was die Robots tatsächlich "sehen" und in den Suchmaschinen-Index transportieren können.

Nun nehmen es die unten aufgeführten Analyse-Tools mit den Standards noch wesentlich genauer als die Suchmaschinen. Nicht alle dort angezeigten Fehler sind also wirklich relevant oder gar "tödlich". 
Noch empfindlicher reagieren Suchmaschinen auf Fehlfunktionen von Websites, seien es Server-Abstürze ("wenn der Robot zweimal klingelt" und keine Antwort erhält, ist die Site für ihn "gestorben") oder nicht funktionierende ("broken") Links. Auch extreme Ladezeiten können Robots zum Umdrehen bewegen.
Schließlich reagieren Suchmaschinen auch auf die Struktur einer Website. Beispiel: Seiten im Root-Verzeichnis bzw. generell weiter "oben" in der Verzeichnis-Hierarchie werden wichtiger genommen. Die Navigation und die Art der internen Verlinkung kann bei der Indizierung und Bewertung der Seiten eine entscheidende Rolle spielen etc. Mehr dazu auch hier wieder unter "Wie die Suchmaschinen Seiten bewerten" und in den "Tipps".

Die Tools

Hier also einige der nützlichsten Tools, mit denen Sie die "Suchmaschinen-Gängigkeit" Ihrer Website testen  (und ein paar, mit denen Sie einfach nur peinliche Fehler vermeiden) können:
(Fast) alle Tests in ein einem Interface
Eine Art "Schweizer-Messer" für fast sämtliche Funktionschecks ist Fagan Finder’s URLinfo-  ganz einfach zu bedienen und unglaublich nützlich:
http://www.faganfinder.com/urlinfo

Ähnlich "multifunktional" - wenn auch nicht ganz so reichhaltig - und alles auf einen Blick: die Webdeveloper-Extension für Firefox-Nutzer und die Accessibility-Toolbar für IE-Nutzer
addons.update.mozilla.org/extensions/moreinfo.php
www.nils.org.au/ais/web/resources/toolbar/index.html
Internet-Zugang (Accessibility) 
Server Down? Wann, wie oft, wie lange? Einer der wichtigsten Gründe, wenn Sie in der Suchmaschine überhaupt nicht gelistet sind.
http://www.watchmyserver.com
Accessibility-Alert per SMS
http://www.internetseer.com (E-mail Alert)
http://www.qwkmon.com
(E-mail Alert und alle verfügbaren Pager-Methoden)
http://bobby.watchfire.com (Grundlage ist u.a. die Richtlinien des World Wide Web Consortiums,W3C, Web Access Initiative, WAI)
Auch der "Umzug" der Website (andere URL/Domain, anderer Server) kann zum Verlust der Suchmaschinen-Position führen. Eine Redirect 301 (endgültiger Umzug) oder 302 (temporärer Umzug) verhindert den Verlust bei einer neuen Adresse. Beim Server-Wechsel sollten beide Server für einige Zeit (einige Tage) erreichbar sein, bevor endgültig gewechselt wird.
Wer häufiger eigene und fremde Sites/Seiten auf "Zugangsfähigkeit" hin überprüfen will/muss, ist am besten bedient mit dem kostenlos downloadbaren Web Accessibility Toolbar
http://www.nils.org.au/ais/web/resources/toolbar/
einem Set von Prüfinstrumenten für IE ab 5.0

DNS-Checkup
Von WhoIs über IP-Block-Checks ("Bin ich in schlechter Nachbarschaft?") bis zu Spam-Checks:
http://www.dnsstuff.com
Ladezeiten
http://de.webmasterplan.com
Vorschlägen für Verbesserung der Geschwindigkeit
http://www.websiteoptimization.com/services/analyze/
Gutes Analyse-Tool zur Optimierung der "Seitengewichte" und damit der Ladegeschwindigkeit.

Header-Check
HTTP-Viewer und Analyse
http://www.rexswain.com/httpview.html
HTML-Checks 
http://validator.w3.org 
http://www.htmlhelp.com/tools/validator/
 
http://watson.addy.com (auch "Rundum-Check")
http://www.nethero.de/htmltestindex.php3  http://www.nethero.de/urlfix.php3 
HTML testen und reparieren
Robots txt Checks 
http://www.kso.co.uk/cgi-bin/checkrobot.cgi 
CSS-Check
http://jigsaw.w3.org/css-validator
Broken Links
http://www.linkalarm.com
Linkcheck, dann regelmäßiges Monitoring aller Links auf der Site, detaillierte Analyse – sehr übersichtlich aber kostenpflichtig!
http://home.snafu.de/tilman/xenulink.html
Linkcheck, weniger übersichtlich dafür aber kostenloser Download
http://www.mylinkcheck.de
http://de.webmasterplan.com
http://www.seventwentyfour.com/trial.html
http://validator.w3.org/checklink
Was "sieht" der Robot, wenn er meine Seite "besucht"?
http://www.seointernational.com/simulator/

http://www.keywordsuccess.com

http://www.webmaster-toolkit.com

http://www.webconfs.com/search-engine-spider-simulator.php
http://www.1-hit.com/all-in-one/tool.search-engine-viewer.htm
Umfangreicher:
http://www.searchengineworld.com
Links auf den Seiten können verfolgt und analysiert werden - jeweils auch: "Keyword.Density"
http://tools.summitmedia.co.uk/spider/
Mit Tips für bessere "visibility"
Poodle Predictor:
http://www.gritechnologies.com/tools/spider.go
Mit diesem Tool sind eine ganze Reihe von Analysen gleichzeitig möglich: Wie sehen die Suchergebnisse für meine Site bei Google aus? Welche Links von meiner Seiten, welche davon "gebrochen"? Was "liest" der Google-Robot auf meiner Seite? Sind Title, MetaTags, Linktexte, ALT-Texte etc. genutzt? ...
http://tools.summitmedia.co.uk/spider
Ebenfalls verschiedene Analysen mit Kommentaren. Bewertung der Seite nach Punkten.
http://www.seekport.de/seekbot/
Die neue Deutsche Suchmaschine Seekbot stellt einen Service zur Verfügung, der die Seite "aus sicht des Robots" analysiert - sehr hilfreich!
Was sieht der Robot auf meinen Frame-Seiten?
http://www.kso.co.uk
Was "sieht" der Robot auf meinen Flash-Seiten?
http://www.searchguild.com/seflash.html
Auf französisch:
http://www.flash-moteurs.com
Wie erscheint meine Site/Seite in verschiedenen Suchmaschinen?
http://www.delorie.com/web/ses.cgi
http://www.anybrowser.com/EngineView.html

Zeigt, wie Google Ihre Seite darstellt (mit eine paar Extra-Diagnosen):
http://www.gritechnologies.com/tools/spider.go 
Dynamische Seiten in Google:
http://www.y2kinternet.com/spiderview.cfm
(Registrierung notwendig)
Browser-Kompatibilität (gehört genau genommen nicht mehr direkt zum Thema, aber da sich Suchmaschinen-Robots verhalten wie "einfachste" Browser...)
Browser Tests (Wie erscheint meine Site in verschiedenen - alten - Browsern):
http://www.delorie.com/web/lynxview.html
Lynx-Simulator 
http://www.dejavu.org
Historische Browser
http://www.netmechanic.com/announce/seppfbp1.htm
Mozilla Simulator
http://www.anybrowser.com/ScreenSizeTest.html
Wie erscheint meine Seite in verschiedenen Auflösungen?
Ist meine Site barrierefrei? (Z.B. auch für Behinderte lesbar)
http://www.barrierefinder.de
Welcher Server und welcher Besitzer?
http://www.nethero.de/servertest.php3 
http://www.netcraft.com
Hilfe und Expertise
http://www.w3.org/WAI
Die "Web Accessibility Initiative" mit Artikeln und Forum.
Checkliste:
http://www.w3.org/TR/WCAG10/full-checklist.html
Übrigens: Wenn Sie sich über bestimmte Themen auf ausserhalb diese Tutorials informieren wollen, benutzen Sie einfach die nebenstehende "search"-Box. Sie durchsuchen damit gezielt - dank "Gigablast" - die 50 u.E. "wichtigsten" Websites und Portale zum Thema "Suchmaschinen-Optimierung".

© lb medien 2004
http://www.e-publishing.de