home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #20 / NN_1992_20.iso / spool / comp / compress / 3269 < prev    next >
Encoding:
Internet Message Format  |  1992-09-13  |  1.3 KB

  1. Path: sparky!uunet!decwrl!btr!rem
  2. From: rem@btr.BTR.COM (Robert E. Maas  rem@btr.com)
  3. Newsgroups: comp.compression
  4. Subject: Re: Compressing English text to 1.75bits or better (80%)
  5. Keywords: FAQ
  6. Message-ID: <7990@public.BTR.COM>
  7. Date: 13 Sep 92 19:59:18 GMT
  8. References: <1992Sep12.103552.24873@rhrk.uni-kl.de> <1992Sep12.154713.14396@uwm.edu>
  9. Organization: BTR Public Access UNIX, MtnView CA. Contact: Customer Service cs@BTR.COM
  10. Lines: 17
  11.  
  12. markh@csd4.csd.uwm.edu (Mark) said:
  13. <<I have in mind an compression algorithm. It has a list of every
  14. single text that was produced anywhere, is being produced, or ever will
  15. be produced, and indexes each with a unique 64 bit number. This
  16. algorithm will compress every English text to 64 bits.>>
  17.  
  18. Your proposed algorithm would be useless for normal volumes of data,
  19. because the header to transmit that corpus of English would be so large
  20. it'd be bigger than the stuff you wanted to compress. Remember, when
  21. decompressing, all the software and data tables must be present, in
  22. addition to the actual compressed files, and the total of all that must
  23. be significantly smaller than the original files or the compression
  24. wasn't worthwhile. In your method all those tables are orders of
  25. magnitude LARGER than the original text most users would want to
  26. compress.
  27.  
  28. May I suggest such silly methods as yours not be posted in the future?
  29.