- Datenmenge
Der Umfang der Ausgangsdaten ist kaum abschätzbar. Kontinuierlich werden neue
Informationen erzeugt und alte verschwinden. Die Qualität der Ausgangsdaten wird durch
Werbemüll und Webspam gezielt verringert.
- Aktualität
der Datenbasis
Eine Suchmaschine muss die Ausgangsdaten präventiv erfassen und vorverdichten. Zwischen
der Erfassung und der Anfrage verstreicht immer eine gewisse Zeitspanne, so dass die
Ergebnisse der Suchmaschinen in der Regel veraltet sein müssen.
- Verfügbare
IT-Technik
Die zu verarbeitenden Datenmengen und Anforderungen an Antwortzeiten und Verfügbarkeit
stellen die aktuelle Hard- und Software vor grosse Herausforderungen.
- Doubletten/Herkunft
Identische oder stark ähnelnde Inhalte sind oft an verschiedenen Stellen im Internet verfügbar.
Die Originalquelle ist nur noch selten erkennbar. Eine Bewertung der Information an Hand des
Autors ist nicht mehr möglich.
- Mehrdeutigkeit
der Suchanfragen
Eine Recherche "per Stichwort" ist ein iterativer Prozess, bei dem sich die Benutzer
schrittweise an die erwartete Antwort herantasten. Der Informationsgehalt der Frage ist oftmals
für eine korrekte Antwort zu gering.
- Bewertung
der Relevanz
Die Relevanz einer Antwort auf eine Frage hängt häufig auch von der Umwelt des Fragenden
ab. Die Definition einer objektiven Relevanz ist auf Grund der fehlenden Rahmendaten nur
schwer möglich.
- Juristische
Forderungen
Suchmaschinen sind Teil einer Gesellschaft und müssen sich den Regeln/Gesetzen der
Gesellschaft ihres Heimatlandes unterwerfen. Im Rahmen des Internets gelten diese Regeln
aber oft nur für einen Teil der Benutzer. Der andere Teil kennt die ursprünglichen Regeln
und
ihren Einfluss auf die Suchmaschine und ihre Ergebnisse nicht.
|
|
|
|