So arbeiten Suchmaschinen

Da es im Internet keine zentrale Anlaufstelle für die Registrierung von World-Wide-Web-Seiten gibt, stellt sich natürlich die Frage, woher die Suchmaschinen die Informationen über das verfügbare Angebot hernehmen. Im Laufe der Jahre haben sich verschiedene Strategien entwickelt, um das gesamte Wissen des World Wide Web in einer einzigen Datenbank zusammenzufassen. Jede Strategie hat Vor- und Nachteile.

Die meisten Datenbanken leben von den World-Wide-Web-Nutzern selbst. Jeder Autor, der im World Wide Web eine eigene Seite präsentiert, kann sein Angebot mit Hilfe eines speziellen Bildschirm-Formulars selbst in die Datenbank eintragen. Die Datenbank ist somit auf die Mithilfe der Web-Gemeinde angewiesen. Daneben gibt es Suchsysteme, die sich nicht allein auf den Menschen verlassen. Statt dessen machen sich digitale Roboter rund um die Uhr auf die Suche nach neuen Seiten, lesen den Inhalt des Angebots in die Datenbank ein und indizieren die Seite. Der Vorteil: Roboter-Datenbanken wie AltaVista sind wesentlich umfangreicher als manuell gepflegte Suchmaschinen. Allerdings leidet darunter auch die Qualität. Nach dem Motto „Masse statt Klasse“ enthalten die automatisch aufgebauten Datenbanken oftmals jede Menge „Datenmüll“. Die Suchergebnisse sind meist enttäuschend: Sofern das Suchkriterium nicht exakt definiert ist, spucken die Datenbanken nicht selten mehrere tausend Seiten als Ergebnis aus. Zuviel für eine effiziente Suche nach den gewünschten Informationen.

Aufgrund des hohen Datenvolumens des World Wide Web und den teilweise recht unbefriedigenden Suchergebnissen zeichnet sich ein neuer Trend ab. Weg von den emotionslosen Suchrobotern, hin zu redaktionell betreuten Suchdiensten. Statt einen Roboter auf die Suche zu schicken, machen sich Menschen aus Fleisch und Blut auf den Weg und nehmen interessante Seiten manuell in die Datenbank auf. Oftmals mit einer Kurzbeschreibung sowie einer subjektiven Wertung nach Inhalt, grafischer Aufbereitung und Nutzen.