home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #18 / NN_1992_18.iso / spool / comp / ai / neuraln / 3202 < prev    next >
Encoding:
Internet Message Format  |  1992-08-15  |  6.4 KB

  1. Xref: sparky comp.ai.neural-nets:3202 can.ai:38 comp.ai:3107 comp.compression:3023 comp.theory:1768
  2. Newsgroups: comp.ai.neural-nets,can.ai,comp.ai,comp.compression,comp.theory
  3. Path: sparky!uunet!utcsri!torn!newshost.uwo.ca!gaul.csd.uwo.ca!koops
  4. From: koops@gaul.csd.uwo.ca (Luke Koops)
  5. Subject: Kolmogorov (Summary of responses)
  6. Organization: Computer Science Dept., Univ. of Western Ontario, London, Canada
  7. Date: Sun, 16 Aug 1992 06:32:13 GMT
  8. Message-ID: <1992Aug16.063213.15122@julian.uwo.ca>
  9. Keywords: kolmogorov, complexity, turing machine
  10. Sender: news@julian.uwo.ca (USENET News System)
  11. Nntp-Posting-Host: obelix.gaul.csd.uwo.ca
  12. Lines: 160
  13.  
  14. In article <1992Aug10.104156.25017@julian.uwo.ca> I wrote:
  15. >    I have been poring over the article [1], which seems to be an
  16. >excellent paper.  In it the definition of Kolmogorov complexity of a
  17. >finite string is given (pg. 353) as the smallest prefix turing machine
  18. >to generate the string (or infinite if no such turing machine exists).
  19. >Why is the smallest turing machine considered the measure of
  20. >complexity, and not the smallest boolean expression, or the smallest
  21. >decision tree, or the smallest neural network description, or the
  22. >shortest program in 6502 Assembly language?
  23. >
  24. >    I would prefer an answer which does not _just_ appeal
  25. >dogmatically to the fact that the Turing machine is a general
  26. >definition of computation, but has some explanatory content.  I would
  27. >also be interested in references that explain K-complexity (or its
  28. >applications) as simply as possible.
  29. >
  30. >-----
  31. >
  32. >1.    Ming Li, Paul M. B. Vitanyi, Inductive Reasoning and Kolmogorov
  33. >    Complexity, Journal of Computer and System Sciences.  44 (1992),
  34. >    343-384.
  35. >
  36. >-----
  37. >
  38. >-- 
  39. > Some newsreaders use proportional fonts!  
  40. >
  41. >   ||||<>////\\
  42. >- <>
  43. >\------
  44. >
  45. >So your signature looks like this ^^^^^     koops@csd.uwo.ca
  46.  
  47. The e-mail responses to this post follow:
  48.  
  49.  
  50.  
  51. From shallit@graceland.uwaterloo.ca Mon Aug 10 07:23 EDT 1992
  52. Organization: University of Waterloo
  53.  
  54. You might try sending mail to Ming Li here at Waterloo:  mli@math.uwaterloo.ca.
  55. He and Vitanyi are working on a book on the subject -- it is close to
  56. finished, as far as I know.
  57.  
  58. The short answer to your question is that it doesn't matter what model
  59. is used to define Kolmogorov complexity -- within reason, of course.
  60. The fundamental theorem says that complexity within all your models
  61. (with the possible exception of neural nets) is the same, within a constant
  62. additive factor.  This is well-explained in the book of Li & Vitanyi.
  63.  
  64. Jeff Shallit
  65.  
  66. [ ed.  I wrote to Ming Li and am awaiting a reply]
  67.  
  68.  
  69.  
  70. From congrunt!jbs@uu3.psi.com Mon Aug 10 19:31 EDT 1992
  71.  
  72.    Why is the smallest turing machine considered the measure of
  73.    complexity, and not the smallest boolean expression, or the smallest
  74.    decision tree, or the smallest neural network description, or the
  75.    shortest program in 6502 Assembly language?
  76.  
  77. It is a completely arbitrary choice.
  78.  
  79. Jeffrey Siegal
  80.  
  81.  
  82. From congrunt!jbs@uu3.psi.com Mon Aug 10 20:13 EDT 1992
  83. In-Reply-To: koops@obelix.gaul.csd.uwo.ca's message of 10 Aug 92 16:37:25 GMT
  84. Subject: Re: Kolmogorov Complexity
  85.  
  86. >I still have the same question, but perhaps it can be framed a bit
  87. >differently (assuming that my understanding is correct).  How come
  88. >turing machine length gives an unbiased estimate of the complexity
  89. >of a string, while other methods (like those listed above) do not?
  90.  
  91. It doesn't.  All the estimates are biased.  But the point is that you
  92. are only interested in the answer in general terms, like O(n) or
  93. O(n.logn).  All methods will give you the same answer.
  94.  
  95. Jeffrey Siegal
  96.  
  97.  
  98.  
  99. From wayne@mathematik.uni-Bremen.de Tue Aug 11 13:11 EDT 1992
  100. Organization: 250 Million Pet Rocks
  101.  
  102. In article <1992Aug10.104156.25017@julian.uwo.ca> you write:
  103. > {see top of post}
  104.  
  105.     It seems intuitive to me that the "Universality of Computation
  106. Machines" means not only that you can always _translate_ a program
  107. for one machine to run on another, but that the translation process
  108. (which, aside for neural network descriptions which I don't know about,
  109. involves "linear" string substitutions whenever you get down to atomic
  110. operations) "must" preserve complexity asymptotically.  A loose anlogy 
  111. would be with vector spaces, where all norms are equivalent and continuous
  112. mappings preserve the integrity of the norms, so a sequence which converges
  113. in the taxicab norm must converge in the sphere norm.
  114.  
  115.     At least that's how I would like to believe things.  Obviously,
  116. by the fuzziness of what I just said, I'm not a card-carrying complexity
  117. theorists, but I have been thinking about the complexity of algebraic
  118. computation somewhat and that's what the picture seems like it "should"
  119. be to me.
  120.  
  121.     Anyway it doesn't appeal to simple dogma; I would like to know
  122. if it turns out to be right.
  123.  
  124. --
  125. Wayne Tvedt                                     wayne@mathematik.uni-bremen.de
  126.                                               ...fold globally, expand locally
  127.  
  128.  
  129. From koops@gaul.csd.uwo.ca Tue Aug 11 14:14 EDT 1992
  130. To: wayne@mathematik.uni-Bremen.de
  131.  
  132. In article <1992Aug10.104156.25017@julian.uwo.ca> you write:
  133. > {see previous message}    
  134.  
  135. I don't know if it _is_ right, but it sounds right.  I found this principle in
  136. a book called "Handbook of Theoretical Computer Science, Volume A"
  137.  
  138. INVARIANCE THESIS "Reasonable" machines can simulate eachother within a
  139. polynomially bounded overhead in time and a *constant-factor overhead in
  140. space*.
  141.  
  142.     
  143.  
  144. From lima@ral.rpi.edu Fri Aug 14 16:08 EDT 1992
  145.  
  146.     According to my notes and the book 'Theory of Computation' by Derick 
  147. Wood, an algorithm must consist of a finite set of instructions but it doesn't
  148. necessarily have to halt. Wood divides algorithms in algorithms that halt
  149. and partial algorithms. 
  150.     To be more precise, one could call PROCEDURES to both algorithms 
  151. (that must halt) and partial algorithms (that do not terminate on all inputs). 
  152.  
  153.     According to Li's paper, the constant bias of the complexity of a
  154. Turing Machine relatively to another may be interpreted as an initial part
  155. of the input tape consisting of a code 0^n, where the # of zeros identify
  156. TM Tn, a separator 1 and then the original program p. The universal TM U
  157. simulates Tn on input p after it reads the 1. Thus, the idea that it doesn't
  158. matter to have a TM, a C interpreter or a Pascal interpreter (for example
  159. written in C) expressed by John Tromp, seems to me a good one.
  160.  
  161. Pedro Lima
  162. lima@ral.rpi.edu
  163.  
  164.  
  165.  
  166.    Thanks for contributing.
  167.  
  168.    -Luke Koops (koops@csd.uwo.ca)
  169. -- 
  170.  Some newsreaders use proportional fonts!  
  171.  
  172.    ||||<>////\\
  173. - <>
  174.