home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #30 / NN_1992_30.iso / spool / sci / physics / 21287 < prev    next >
Encoding:
Internet Message Format  |  1992-12-16  |  2.3 KB

  1. Xref: sparky sci.physics:21287 sci.math:17022
  2. Path: sparky!uunet!pipex!bnr.co.uk!uknet!ieunet!tcdcs!maths.tcd.ie!tim
  3. From: tim@maths.tcd.ie (Timothy Murphy)
  4. Newsgroups: sci.physics,sci.math
  5. Subject: Re: Chaitin's Omega and QM (was: Bayes' theorem and QM)
  6. Message-ID: <1992Dec16.025906.21295@maths.tcd.ie>
  7. Date: 16 Dec 92 02:59:06 GMT
  8. References: <1gh518INN9eo@chnews.intel.com> <SRCTRAN.92Dec14122532@world.std.com> <COLUMBUS.92Dec14142145@strident.think.com> <1992Dec14.223229.22348@galois.mit.edu>
  9. Organization: Dept. of Maths, Trinity College, Dublin, Ireland.
  10. Lines: 55
  11.  
  12. jbaez@riesz.mit.edu (John C. Baez) writes:
  13.  
  14. >I salute Michael Weiss' post introducing people to the literature on 
  15. >the number Omega, algorithmic information theory, algorithmic
  16. >randomness theory etc..  This stuff is seriously cool and should be
  17. >known by all those who love beautiful ideas.  Here is a nice
  18. >bibliography of stuff along these lines that was passed on to me by Dave
  19. >DeMers.  Unfortunately is doesn't have a reference to Martin-Loef, who
  20. >(along with Kolmogorov, Solomonoff, Chaitin and others) deserves a lot
  21. >of credit.  
  22.  
  23. Thank you very much for your bibliography,
  24. which I know I shall find very useful.
  25.  
  26. It seems to me that the central concept of Kolmogorov/Chaitin theory
  27. is _entropy_.
  28. As I see it,
  29. there have been 4 phases in the historical development of this concept --
  30. or perhaps one should say that the same term has been applied
  31. to 4 related concepts:
  32.  
  33. 1. Thermodynamics
  34.    Increase of entropy (S) as the measure of irreversibility.
  35.  
  36. 2. Statistical mechanics
  37.    S = -\sum p\log p
  38.  
  39. 3. Shannon's information theory
  40.    Entropy as a measure of information.
  41.  
  42. 4. Chatin/Kolmogorov algorithmic information theory
  43.    Entropy in the language of Turing machines.
  44.  
  45. But does entropy in the 4th sense
  46. completely dispace Shannon's definition?
  47. Can everything in Shannon theory
  48. be expressed in algorithmic terms?
  49.  
  50. Equally, one might have asked if statistical mechanics
  51. could be explained in terms of information?
  52. Are the 2 kinds of entropy really the same?
  53. Or is this simply to confuse 2 quantities
  54. because they are defined by similar formulae?
  55.  
  56. I'd be interested to know the world's views on this!
  57.  
  58.  
  59.  
  60.  
  61.  
  62. -- 
  63. Timothy Murphy  
  64. e-mail: tim@maths.tcd.ie
  65. tel: +353-1-2842366
  66. s-mail: School of Mathematics, Trinity College, Dublin 2, Ireland
  67.