home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / comp / bbs / waffle / 4440 < prev    next >
Encoding:
Internet Message Format  |  1992-11-24  |  1.2 KB

  1. Path: sparky!uunet!iadpsa!iowegia!kjhoule
  2. From: kjhoule@iowegia.uucp (Kevin Houle)
  3. Newsgroups: comp.bbs.waffle
  4. Subject: Re: dupweed
  5. Message-ID: <1ZuPuB6w165w@iowegia.uucp>
  6. Date: Mon, 23 Nov 92 17:55:59 CST
  7. References: <10aLuB1w165w@eastwind.mcds.com>
  8. Distribution: world
  9. Organization: Iowegia Public Access Usenet/UUCP, Clive IA USA.
  10. Lines: 18
  11.  
  12. chorn@eastwind.mcds.com (Christopher Horn) writes:
  13.  
  14. > My solution is to kill the dupes, batch, and then go back and resequence.
  15. > Currently the dupe kill routine in my code assumes you get all your news
  16. > from a single upstream site. A painful restriction, but the result is some
  17. > VERY VERY fast code. And my directory recurse function uses very little
  18. > stack space, with no limit on subdirectories, etc..  It can handle 3000
  19. > files per directory, probably closer to 5000 if one wanted it too. I'm
  20. > currently trying to decide how to effectively clean dupes when getting
  21. > multiple feeds, as this does require every article file be opened since
  22. > identicle articles may have come via different paths. If anyone is
  23. > interested, let me know and I'll either post it or an announcement of
  24. > where/how to get it when I'm done.
  25.  
  26. Alright! A better mouse trap :) I'm interested.
  27.  
  28. --
  29. Kevin Houle     kjhoule@iowegia.uucp
  30.