NetUse
 


   

"Eliminate the World Wide Wait!"
Rezepte gegen den Daten-Stau: Per Roboter durchs Internet

   

Zwei Dinge braucht der "Surfer": Eine ordentliche Leib- und Magen-Suchmaschine und einen Assistenten, der die gewünschten Web-Sites zur Offline-Betrachtung aus dem Netz fischt. Beides gibt es, sogar in Kombination.

Der erste Schritt führt zu den "Meta-Such-Diensten". Diese schicken eine Suchanfrage parallel zu mehreren Suchmaschinen und/oder Internet-Katalogen, sortieren die Ergebnisse und bieten auch die gleichzeitige Suche in Spezialverzeichnissen, beispielsweise für E-Mail-Adressen und Newsgroups. Hier hat sich seit den Zeiten von "SavvySearch" und "CUSI" einiges verändert; beide tun immer noch ihre guten Dienste (guaraldi.cs.colostate.edu:2000/form?lang=german und http://www.tu-chemnitz.de/misc/cusi.html).

Aber mächtige Konkurrenz lockt die User: "Accufind" (www.nln.com) zum Beispiel. Über zwei Dutzend Internet-Datenbanken lassen sich anzapfen; zudem bietet "Accufind" Themenrubriken (Business, Music, Movie, Medical, Shop etc.) mit entsprechend spezialisierten Suchmaschinen. Ähnlich ausgefuchst arbeitet "Webtaxi" (www.webtaxi.com) mit seiner parallelen Recherche in allen internationalen Suchmaschinen, dazu eine Vorsortierung nach Ländern oder Themen. Übrigens: Mit 250 ansteuerbaren Datenbanken zum All-in-one-Search prunkt "Power-Search" (www.power-search.com).

Zu den besten seiner Art und ernsthaften Rivalen des deutschen "CUSI" gehört "MetaGer" (meta.rrzn.uni-hannover.de), die Meta-Suche in 8 deutschsprachigen Datenbanken (von Dino-Online bis Web.de) und den deutschen Newsgroups. "MetaGer" bietet u.a. an, die gefundenen Links zu testen und so veraltete Informationen auszufiltern. Der Nutzer kann auch vorgeben, wie lange die Recherche längstens dauern darf.

Richtig schön wird das Online-Leben erst mit den "Agenten", den richtigen "Robotern". Das ist nun der zweite Schritt auf dem Weg in Cybersurfers Olymp.

Im Prinzip gibt es zwei Arten solcher "Agenten". Die einen suchen und liefern sortierte, manchmal auch schon geprüfte Hyperlinks ab; die anderen holen komplette Web-Sites samt Grafiken und Multimedia-Elementen auf die Festplatte des Benutzers und ermöglichen so bequemes und kostenloses "Offline-Surfen". Die besten dieser "Agenten" schalten sich automatisch ein und aus - auch tief in der Nacht und völlig selbständig. Diese Programme nutzen vorhandene Internet-Dienste, etwa die Such-Maschinen.

"Find what you need. Eliminate the World Wide Wait." So preist Surflogic (www.surflogic.com) den Roboter "Surfbot" in der dritten Generation an. In der Tat ist es einer der Vorzeige-Dienste in Sachen automatischer Web-Recherche. "Surfbot" lädt Web-Sites auf die Festplatte des Benutzers, sucht nach Online-Informationen, überwacht Seiten, die in den Bookmarks des Nutzers verzeichnet sind, aktualisiert bei Bedarf die offline gespeicherten Web-Sites - und das Programm arbeitet selbständig und automatisch zu einstellbaren Zeiten.

Den besonderen Pfiff bekommt "Surfbot" durch die unterschiedlichen Nutzerprofile, "agents" genannt. Man kann nicht nur selbst diese Profile definieren, sondern auch die Daten anderer Leute benutzen; auf der Surflogic-Web-Sites werden wöchentlich die neuesten "agents" zum Download präsentiert. Da gibt es dann zum Beispiel das "Ski and Snowboard"-Profil für Lift-Karten, Wetterberichte, Trainigstips und Modehinweisen - falls es dem "Surfer" am Rhein zu heiß wird.

Vergleichbar mächtig in den Funktionen sind die Produkte von ForeFront (www.ffg.com/internet.html), die aus fünf Einzel-"Roboter" bestehen: "Find it!" heißt das Motto für den "WebSeeker"; er recherchiert in über hundert Suchmaschinen, sortiert die Ergebnisse, entfernt Duplikate und bietet noch eine Reihe von Möglichkeiten, die Ergebnisse zu verwalten. "Get it!" gilt für "WebWhacker", der nach Wunsch einzelne Web-Seiten oder komplette Sites auf die Festplatte des heimischen Computers speichert und dann zum Offline-Browsen parat hält. "WebPrinter" und "ClickBook" helfen dabei, Internet-Seiten in ordentliche Form zu bringen, etwa als Booklets. Und "GrabNet" schließlich schnipselt und reorganisiert die aus dem Web gesammelten Informationen.

Auch "Robo Surfer" (www.robosurfer.com) glänzt mit ausgefeilten Details: Das Programm wertet zuerst sieben der großen Suchmaschinen aus, wählt jede Fundstelle an, "liest" die Web-Seiten dort und lädt nur solche Seiten auf die PC-Festplatte, die "wirklich die Informationen beinhalten, nach denen Sie suchen" (sagt die Werbung). Ganz so irrtumsfrei-schlau ist zwar selbst "Robo Surfer The Ultimate Offline Browser" nicht, aber der Versuch lohnt allemal, bevor man selbst alles abzuklappern muß.

Die Funktionen dieser Programme sind beeindruckend - aber Musterbeispiele für simple und bequeme Einrichtung sind diese Programme nicht. Wer Wert auf einfache Installation, Bedienung und Hilfelexikon legt und dennoch ansehnliche Ergebnisse haben will, ist mit dem derzeit einzigen deutschsprachigen Produkt, dem "Internet FastFinder" von Symantec (www.symantec.com/iff/), bestens bedient. IFF bedient bis zu sieben Suchmaschinen (die großen und besten), forscht nach einzelnen Dateien, meldet Änderungen auf den Lieblings-Web-Seiten des Nutzers und erleichtert die Navigation durch eine Task-Leiste, die sich in das Browserfenster einklinkt. Automatische Update-Suche, "EasyFTP" und ein ZIP-(De-)Komprimierungsprogramm helfen dem Surfer zusätzlich.

IFF holt aber keine Web-Seiten automatisch auf die PC-Festplatte. Das wird auch Quarterdecks neue Version des "WebCompass" nicht schaffen, der im Prinzip ähnlich wie IFF arbeitet und im Juli in englischer Sprache auch auf den europäischen Markt kommen soll (www.quarterdeck.com/qdeck/products/webcompass).

Da gibt es aber noch kleine "Roboter", die zwar keine Suchmaschinen abfragen können und auch sonst nicht unbedingt viel bieten, dafür aber spezialisiert darauf sind, einfach einzelne Seiten oder umfangreiche Web-Sites aus dem Netz zu holen.

"Got it!" (www.goahead.com) ist so ein Jäger und Sammler. Das Programm nistet sich im Browser ein, aktualisiert auf Wunsch im Hintergrund Web-Seiten, die beredits auf der Festplatte gespeichert sind, holt komplette Sites aus dem Netz und beschleunigt auch direkt das "Surfen", indem es schon mal vorsorglich weitere HTML-Seiten eines Web-Angebotes in den eigenen Speicher lädt, während der Benutzer noch auf der ersten Seite verweilt.

"Grab-a-Site" (www.bluesquirrel.com) ist ein vergleichsweise einfaches Programm: Der Nutzer gibt die Adressen der gewünschten Web-Seiten ein, und "Grab-a-Site" apportiert brav. Immerhin kann man vorgeben, wieviele Ebenen eingesammelt werden sollen. Auf Wunsch werden auch alle Grafiken mitgeliefert und einstellbare Filter dämmen die Bytefluten etwas ein.

Die "Agenten" funktionieren tatsächlich erstaunlich gut - sofern sie vom Benutzer ordentlich programmiert und gezielt eingesetzt werden. Wunder sollte man dennoch nicht erwarten. Die "Agenten" können eine Menge Routinearbeiten erledigen, perfekt sind sie natürlich auch nicht; sie bleiben selbst mitunter im Online-Stau hängen, kombinieren falsch oder ersticken am Info-Müll, den sie eigentlich filtern sollten.

[ulg]


Zurⁿck zur Einfⁿhrung