Übersicht Strategien 
Web-Site als
Marketinginstrument
Web-Site als Profit-Center
Portale
"Fraktale" Marketing-Strategie


Übersicht Online sein
Erfolgsfaktoren
Web-Promotion
Suchmaschinen
20 Tipps
Suchmaschinen-Optimierung


Übersicht Web-Controlling
Marketing-Controlling
Kostenrechnung


Sites zum Thema


 


Im Seminar suchen


Kontakt


eMail


Drucken


Sitemap


Hilfe 


Im Netlexikon suchen

Ihr aktueller Standort:

blättern

Seiten in dieser Rubrik


Weitere Texte


Links zum Thema


Suchmaschinen-News

Website-Marketing

Real-Time Suchmaschinen

Die traditionellen Suchmaschinen können in der Regel dynamisch generierte Inhalte nicht erfassen und indizieren. Das gilt sowohl für Web-Seiten, die aus Datenbanken dynamisch erzeugt werden, also natürlich auch für Chat-Rooms, Online-Radio und TV.
Mit Hilfe neuer Such und Speicher-Technologien, wird diese Lücke in Kürze geschlossen sein.
Zwei Ansätze dazu: eNow und  gPulp
Direkt-Suche
Bei gPulp dem so genannten "General Purpose Location Protocol" sollen Informationen nicht mehr durch Robots gesammelt und in einem Index zur Suche bereit gehalten werden. Die neue Suchtechnologie soll es vielmehr möglich machen, die Informationen in Echtzeit über das gesamte Netzwerk hinweg zu suchen.
Diese Bestrebungen liegen im Prinzip auf der gleichen Linie wie neue Formen der direkten Verknüpfung von Computern und Usern im Internet ohne dazwischengeschaltete "Relais-" oder "Sammelstellen" - ein wenig wie in den Anfangstagen des Internet vor 20 Jahren.
P2P
Diese unter der Bezeichnung "Peer-to-Peer-(P2P)"Technologie zusammengefassten Versuche führten vor allem durch die Musik-Such-und-Tauschmaschine Napster im Frühsommer 2000 zu einer wahren Massenhysterie (und einer gigantischen Prozesslawine, ausgelöst von der geschockten Musik-Industrie).
Die Ausweitung des "Suchraums" aber löst natürlich nicht das zentrale "Relevanzproblem", zunächst mal: im Gegenteil.
Hier nun setzen Konzepte an, die die Relevanz eines Dokuments messen an der Häufigkeit, mit der dieses Dokument gewählt und an der Kompetenz dessen, der auf dieses Dokument verweist, wieder gemessen am Zuspruch.

Das Ganze soll funktionieren als eine Art Kombination aus P2P-Technologie, automatisiertem Experten-Guide (wobei die Experten von den "Peers" bestimmt/"gewählt" werden) à la about.com oder meome.de, geteilte Wissen um Dokumente und Fundstellen à la Oneview und einer an den Verfahren des "collborative filtering" orientierten Zuordnungs-Technik. Typischer Vertreter dieses Ansatzes (noch in der Probephase) ist Pandango.
Push-Suchmaschinen
Eine andere Form der "verteilten" Indizierung, angesiedelt zwischen den traditionellen Suchmaschinen und der P2P-Technologie, ist die derzeit im Probelauf befindliche Push-Indizierung.
(im Versuchsstadium: 360.com)
 Dabei wird die "Verantwortung" für das Auffinden und aktuelle Indizieren der Seiten auf einem Server nicht mehr den zentralen Suchmaschinen-Robots über lassen. Vielmehr bedient sich jede Web-Site eines eigenen "Agenten", um - täglich frisch - alle Seiten an den zentralen (gigantischen) Index zu melden. 
Dabei können alle Formate und dynamisch aus Datenbanken generierten Seiten erfasst und gemeldet werden - eine geschätzte Anzahl von 550 Milliarden Dokumente mit einem täglichen Neuzugang von fast 10 Millionen Dokumenten.
Diese Technologie scheint sich ganz besonders für Themen- und Community-Portale zu eignen, bei denen sich alle teilnehmenden Web-Sites auf die Nutzung dieser Technologie verständigt haben. Der Nutzer findet dann tagesaktuell alle (!) Seiten der als relevant definierten Partner-Sites. 
Die Relevanz der Fundstellen lässt sich, laut Hersteller, nach den erprobten Ranking-Algorithmen wie Link-Pupularität, Schlüsselwort-Dichte etc. bestimmen.

© lb medien 2001 - 2015
http://www.e-publishing.de