home *** CD-ROM | disk | FTP | other *** search
/ OS/2 Shareware BBS: 35 Internet / 35-Internet.zip / url_util.zip / downurl.cmd next >
OS/2 REXX Batch file  |  1997-07-19  |  1KB  |  24 lines

  1. /*
  2.  *   DOWNURL.CMD by pardoz@io.com, July 16, 1997
  3.  */
  4.  
  5. /* Edit the value of "myfile" to point to the file where you want URLs
  6.  * to be downloaded written to.  This script will put each URL on a
  7.  * separate line, resulting in a file that can be fed into sslurp or
  8.  * any other Web page grabbing tool that can be invoked from the
  9.  * command line and accepts a file of URLs to fetch as a parameter.
  10.  * I call sslurp from the .CMD file I use to download mail and
  11.  * fetch new news with slrnpull.
  12.  * sslurp is a freeware Web grabber that can be found at
  13.  * ftp://hobbes.nmsu.edu/pub/os2/apps/internet/www/util/sslurpN.zip.
  14.  * where N is the latest version number (12 at the time of this writing).
  15.  * Installation: put geturl.cmd in your slrn directory and add the following
  16.  * line to your slrn.rc:
  17.  *    set non_Xbrowser "echo %s | downurl.cmd > nul"
  18.  * or call downurl using the picker S-Lang macro in this zipfile.
  19.  */
  20. parse pull foo
  21. myfile = 'e:\geturls'
  22. url = foo
  23. n=LINEOUT(myfile,url)
  24.