home *** CD-ROM | disk | FTP | other *** search
/ OS/2 Spezial / SPEZIAL2_97.zip / SPEZIAL2_97.iso / ANWEND / ONLINE / WSUCK991 / WSUCK.HLP (.txt) < prev   
OS/2 Help File  |  1997-03-02  |  10KB  |  348 lines

  1.  
  2. ΓòÉΓòÉΓòÉ 1. WebSucker ΓòÉΓòÉΓòÉ
  3.  
  4.                                 WebSucker 0.99.1
  5.  
  6. WebSucker can retrieve Web pages from a HTTP (WWW) server. It can be configured 
  7. to follow all hyperlinks on the page that lead to other pages on the same 
  8. server. Images on the pages can be retrieved as well. All pages are stored on 
  9. disk and can be viewed later using your web browser. 
  10.  
  11. WebSucker can make use of a proxy HTTP server, speeding up the whole procedure. 
  12. WebSucker requires at least one HPFS partition! 
  13.  
  14. Topics: 
  15.  
  16.       The main window 
  17.       Common tasks 
  18.       Command line options 
  19.       For the techies 
  20.       Contacting the author 
  21.  
  22.  
  23. ΓòÉΓòÉΓòÉ 1.1. The main window ΓòÉΓòÉΓòÉ
  24.  
  25. On the main window you find the following elements: 
  26.  
  27.      A drop down list where you enter the URL. The last 15 URLs are saved. 
  28.       You can quickly enter an URL here by dragging an URL object from a WPS 
  29.       folder to this entry field. 
  30.      "Start", "Stop" and "Skip" buttons. 
  31.      A log window. Its contents are also stored in the log file. 
  32.      A status line. Its contents are: 
  33.         -  the current URL 
  34.         -  total number of data bytes retrieved 
  35.         -  total number of data bytes of the current URL 
  36.         -  number of bytes retrieved of the current URL 
  37.         -  number of URLs retrieved 
  38.         -  number of URLs tried 
  39.         -  number of URLs queued for inspection (estimated). 
  40.  
  41.  
  42. ΓòÉΓòÉΓòÉ 1.2. Common tasks ΓòÉΓòÉΓòÉ
  43.  
  44. Here's how to perform some common task with WebSucker: 
  45.  
  46. I wan't to suck a complete web site. 
  47.  
  48. In the setup, enable "Follow links", "Inline images". Disable "Don't climb up". 
  49. Then enter the root URL of the site (e.g. "http://www.thesite.com/"), then 
  50. press "Start". 
  51.  
  52. I wan't to suck a subrange of a web site. 
  53.  
  54. In the setup, enable "Follow links", "Inline images" and "Don't climb up". Then 
  55. enter the URL of the site (e.g. "http://www.thesite.com/some/path/start.html"), 
  56. then press "Start". 
  57.  
  58. I wan't to suck a single web page with images, but only if it's changed. 
  59.  
  60. In the setup, disable "Follow links". Enable "Inline images" and "Modified 
  61. pages only". Then enter the URL of the page (e.g. 
  62. "http://www.thesite.com/pageofinterest.html"), then press "Start". 
  63.  
  64.  
  65. ΓòÉΓòÉΓòÉ 1.3. Command line options ΓòÉΓòÉΓòÉ
  66.  
  67. WebSucker can be run in automated mode, i.e. it takes one or more URLs as 
  68. program parameters, downloads these pages according to the program options, and 
  69. exits when finished. 
  70.  
  71. The command line syntax is: 
  72.  
  73. WSUCK.EXE [Options] [<url> | @<listfile>]*
  74.  
  75. In other words, you can specify 
  76.  
  77.      options, 
  78.      one or more URLs, and 
  79.      one or more list files. Each line in a list file is interpreted as URL. 
  80.       Empty lines and lines starting with ';' are ignored. 
  81.  
  82.  The following command line options are supported: 
  83.  
  84.  -T<dir>   Retrieved items are stored in the given directory. 
  85.  
  86.  -L-       No links are followed 
  87.  
  88.  -Ls       Only links to the same server are followed 
  89.  
  90.  -Ld       Only links that are not pointing upward are followed 
  91.  
  92.  -La       All links are followed 
  93.  
  94.  -E["extensions"] Only links with one of the given file extensions are followed 
  95.  
  96.  -I+       Inline images are downloaded 
  97.  
  98.  -I-       Inline images are not downloaded 
  99.  
  100.  -Ia       Inline images are downloaded, even those on different servers 
  101.  
  102.  -A+       Applets are downloaded 
  103.  
  104.  -A-       Applets are not downloaded 
  105.  
  106.  -Aa       Applets are downloaded, even those on different servers 
  107.  
  108.  -U+       Only items newer than local copies are downloaded 
  109.  
  110.  -U-       All items are downloaded 
  111.  
  112.  -S<size>  Restricts downloaded items to <size> bytes 
  113.  
  114.  -S-       Downloads are not restricted by size 
  115.  
  116.  -D<number> Restricts followed links to <number> steps 
  117.  
  118.  -D-       Downloads are not restricted by link depth 
  119.  
  120.  Note: Command line options override options given in the setup. For options 
  121.  not given in the command line, the setup options are used. So if an option is 
  122.  turned on in the setup, you must explicitly switch it off to deactivate it. 
  123.  It's not sufficient to just leave out the command line option! Stored options 
  124.  are not modified by command line options. 
  125.  
  126.  When finished, WebSucker returns one of the following ERRORLEVEL values: 
  127.  
  128.  0         Everything OK 
  129.  1         Invalid command line option 
  130.  2         Problem(s) with one of the list files 
  131.  10        Other error 
  132.  
  133.  
  134. ΓòÉΓòÉΓòÉ 1.4. For the techies ΓòÉΓòÉΓòÉ
  135.  
  136. Here's some technical information if you're interested: 
  137.  
  138.      WebSucker uses HTTP 1.0. HTTP 0.9 is not supported. If some web site is 
  139.       still using a HTTP 0.9 server, its contents may be just as outdated, so 
  140.       you might not miss anything. HTTP 1.1 server replies are recognized. 
  141.  
  142.      WebSucker only follows HTTP links, not FTP or others. 
  143.  
  144.      WebSucker counts <IMG SRC=...> and <BODY BACKGROUND=...> as inline 
  145.       images. 
  146.  
  147.      If the file name of a retrieved page isn't specified, it's stored as 
  148.       INDEX.HTML. 
  149.  
  150.      The "Last-Modified" timestamp is stored in the file's EAs. The EA name is 
  151.       HTTP.LMODIFIED and is of type EAT_ASCII. 
  152.  
  153.      Some characters in the URL are converted when building the path name of 
  154.       the file. However, no conversion to FAT (8.3) names is performed! 
  155.  
  156.      If a page is redirected, the redirection is automatically followed, but 
  157.       only if the new location is on the same server! 
  158.  
  159.      WebSucker has been developed on and tested with OS/2 Warp 4.0. It should 
  160.       also work with the following configurations: 
  161.  
  162.         -  Warp 3.0 with IAK 
  163.         -  Warp 3.0 with TCP/IP 2.0 
  164.         -  Warp 3.0 Connect (TCP/IP 3.0) 
  165.         -  Warp Server 
  166.  
  167.  
  168. ΓòÉΓòÉΓòÉ 1.5. Contacting the author ΓòÉΓòÉΓòÉ
  169.  
  170. WebSucker was developed by Michael Hohner. He can be reached electronically at: 
  171.  
  172.  EMail:              miho@osn.de 
  173.  Fidonet:            2:2490/2520.17 
  174.  
  175.  
  176. ΓòÉΓòÉΓòÉ 2. File menu ΓòÉΓòÉΓòÉ
  177.  
  178.  Exit 
  179.            Ends the program. 
  180.  
  181.  
  182. ΓòÉΓòÉΓòÉ 3. Setup ΓòÉΓòÉΓòÉ
  183.  
  184.  Options 
  185.            Specify all program options. 
  186.  
  187.  
  188. ΓòÉΓòÉΓòÉ 3.1. Servers ΓòÉΓòÉΓòÉ
  189.  
  190.  Proxy 
  191.            Enter the host name of a proxy HTTP server. You may also specify a 
  192.            port number for the proxy server. Check Enable to finally use the 
  193.            server. Contact your service provider to get this data. 
  194.  
  195.            Note: Only enter the host name, not the URL (e.g. "proxy.isp.com", 
  196.            not "http://proxy.isp.com:123/")! 
  197.  
  198.  User name 
  199.            Enter your user ID here if your proxy server requires 
  200.            authentication. 
  201.  
  202.  Password 
  203.            Password for proxy authentication. 
  204.  
  205.  Email address 
  206.            Enter your EMail address. It is included in every request. Don't 
  207.            enter anything here if you don't want your EMail address to be 
  208.            revealed. 
  209.  
  210.  
  211. ΓòÉΓòÉΓòÉ 3.2. Paths ΓòÉΓòÉΓòÉ
  212.  
  213.  Path for retrieved data 
  214.            Path where retrieved pages and images are stored. This path and 
  215.            subpaths are created automatically. 
  216.  
  217.  
  218. ΓòÉΓòÉΓòÉ 3.3. Logging ΓòÉΓòÉΓòÉ
  219.  
  220. These options control logging. 
  221.  
  222.  Log file 
  223.            Path and name of the log file. 
  224.  
  225.  Additional information 
  226.            Log additional (but somewhat optional) messages 
  227.  
  228.  Server replies 
  229.            Log reply lines by the server 
  230.  
  231.  Debug messages 
  232.            Log messages used for debugging purposes (turn on if requested). 
  233.  
  234.  
  235. ΓòÉΓòÉΓòÉ 3.4. Options ΓòÉΓòÉΓòÉ
  236.  
  237. These settings influence which items will be downloaded and how it'll be done. 
  238.  
  239.  Follow links 
  240.            If checked, hyperlinks in retrieved pages are followed. Otherwise, 
  241.            WebSucker retrieves one page only. 
  242.  
  243.            You can enter a set of extensions (separated by spaces, commas or 
  244.            semicolons) of items to retrieve. Links to items with other 
  245.            extensions are ignored. If you don't enter anything, all links are 
  246.            followed. 
  247.  
  248.            Example: With "htm html", WebSucker only follows links to other HTML 
  249.            pages, but does not download other hyperlinked files. 
  250.  
  251.  same servers 
  252.            Only links to items on the same server are followed. 
  253.  
  254.  don't climb up 
  255.            Hyperlinks to items that are hierarchically higher than the initial 
  256.            URL are not followed. Otherwise, all links to items on the same 
  257.            server are followed. 
  258.  
  259.            Example: 
  260.  
  261.            If you started with http://some.site/dir1/index.html, and the 
  262.            current page is http://some.site/dir1/more/levels/abc.html, a link 
  263.            that points to http://some.site/otherdir/index.html wouldn't be 
  264.            followed, but a link to http://some.site/dir1/x/index.html would. 
  265.  
  266.  all 
  267.            All links (even those to other servers) are followed. Be very 
  268.            careful with this option! 
  269.  
  270.  Inline images 
  271.            If checked, inline images are also retrieved. 
  272.  
  273.  from other servers 
  274.            If checked, inline images located on other servers are also 
  275.            retrieved. Otherwise only images from the same server are 
  276.            downloaded. 
  277.  
  278.  Java applets 
  279.            If checked, java applets are also retrieved. 
  280.  
  281.  from other servers 
  282.            If checked, applets located on other servers are also retrieved. 
  283.            Otherwise only applets from the same server are downloaded. 
  284.  
  285.  Retrieve modified items only 
  286.            An item is only retrieved if it's newer than the local copy. 
  287.            Strongly recommended! 
  288.  
  289.  Max link depth 
  290.            Limits the depth of links to follow to the specified number. A level 
  291.            of "1" specifies the initial page. 
  292.  
  293.            Example: 
  294.  
  295.            If page A contains a link to B, and B contains a link to C, A would 
  296.            be level 1, B would be level 2 and C would be level 3. A maximum 
  297.            link depth of "2" would retrieve pages A and B, but not C. 
  298.  
  299.  Max size 
  300.            Limits the size of items to download. If the server announces the 
  301.            size and it's larger than the number specified, the item is skipped. 
  302.            If the server doesn't announce the size, the item is truncated when 
  303.            the maximum size is reached. 
  304.  
  305.  
  306. ΓòÉΓòÉΓòÉ 3.5. Server list ΓòÉΓòÉΓòÉ
  307.  
  308. A list of base URLs is displayed. 
  309.  
  310. Press New to add a new URL with settings. 
  311.  
  312. Press Change to change the settings of the selected URL. 
  313.  
  314. Press Delete to delete the selected URL. 
  315.  
  316.  
  317. ΓòÉΓòÉΓòÉ 3.6. Server ΓòÉΓòÉΓòÉ
  318.  
  319.  Base URL 
  320.            Set of URLs (this item and all items hierarchically below) for which 
  321.            these settings apply. This usually specifies a directory on a 
  322.            server. 
  323.  
  324.            Example: 
  325.  
  326.            If you enter "http://some.server/basedir", these settings apply to 
  327.            "http://some.server/basedir/page1.html", but not to 
  328.            "http://some.server/otherdir/b.html". 
  329.  
  330.  User name 
  331.            User name or user ID used for basic authorization. 
  332.  
  333.  Password 
  334.            Password used for basic authorization. 
  335.  
  336.  
  337. ΓòÉΓòÉΓòÉ 4. Help menu ΓòÉΓòÉΓòÉ
  338.  
  339.  General help 
  340.            Provides general help 
  341.  
  342.  Product information 
  343.            Displays name, version number, copyright information etc. 
  344.  
  345.  
  346. ΓòÉΓòÉΓòÉ 5. About ΓòÉΓòÉΓòÉ
  347.  
  348. This page intentionally left blank.