home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #31 / NN_1992_31.iso / spool / rec / org / mensa / 8905 < prev    next >
Encoding:
Text File  |  1992-12-22  |  10.9 KB  |  199 lines

  1. Newsgroups: rec.org.mensa
  2. Path: sparky!uunet!spool.mu.edu!agate!linus!linus.mitre.org!boole.mitre.org!crawford
  3. From: crawford@boole.mitre.org (Randy Crawford)
  4. Subject: Re: Atheism and Intelligence
  5. Message-ID: <1992Dec22.063843.22344@linus.mitre.org>
  6. Sender: news@linus.mitre.org (News Service)
  7. Nntp-Posting-Host: boole.mitre.org
  8. Organization: The MITRE Corporation, McLean, VA
  9. References: <1992Dec16.231131.1173@umr.edu> <1992Dec18.062438.6456@linus.mitre.org> <1h5l7pINNd73@sal-sun53.usc.edu>
  10. Date: Tue, 22 Dec 1992 06:38:43 GMT
  11. Lines: 186
  12.  
  13. In article <1h5l7pINNd73@sal-sun53.usc.edu> ericjohn@sal-sun53.usc.edu (Eric Johnson) writes:
  14. >In article <1992Dec18.062438.6456@linus.mitre.org>, crawford@boole.mitre.org (Randy Crawford) writes:
  15. >|> In article <1992Dec16.231131.1173@umr.edu> S106495@UMRVMA.umr.edu writes:
  16. >|> >Another alternate logic I am
  17. >|> >speaking of is neural networks.  These are computer algortithms
  18. >|> >where the machine takes the factors toward a given conclusion,
  19. >|> >and thru trial and error perfects an algorithm to give a conclusion.
  20. >
  21. >NNs aren't 'alternate' logics, but (as you said) algorithms. Everything
  22. >that they do can be expressed in terms of starndard logics.
  23. >
  24. >|> Not `a' conclusion.  NNs can only lead you to `the' predetermined 
  25. >|> conclusion.  NNs are useful only when you know the goal state, but 
  26. >|> don't know how to get there.
  27. >
  28. >You are confusing the training of a neural net with it's operation. Yes, 
  29. >to train a NN, you must have a known goal state(s) handy, much as you 
  30. >would need a training example to teach a human to do something. The 
  31. >operation of a neural net isn't 'trial and error' at all; it uses 
  32. >the relations it learns in the training phase to come to a conclusion.
  33. >Unfortunately, these relations are expressed in a way that is not 
  34. >directly understandable to humans - using a NN, we *still* don't know
  35. >how to get there... Neural nets can be trained to perform logical
  36. >inferences and deductions... the one in my head is!
  37.  
  38. Two points.  You cannot divorce the operation from a neural net from its
  39. learning phase.  The entire process of a NN learning and then executing is
  40. equivalent to an A* search, either algorithm will amount to nothing without
  41. an evaluation function -- in the case of the NN, to decide whether it's
  42. learning, and in the case of the A*, to determine how far you are from the
  43. goal state.
  44.  
  45. This is similar to divorcing propositional or predicate logic from the
  46. acquisition of the given propositions on which they function.  Without
  47. the precedent truth values, all the method in the world will amount to nil.
  48.  
  49. Secondly, you assume a lot when you state that your brain is an NN.  I'm not 
  50. at all convinced that NNs and brains have much in common, because the more
  51. we have learned about each, the more different they appear to be.
  52.  
  53. >
  54. >|> In no way do NNs resemble _any_ form of logic equivalent.  Trial and 
  55. >|> error is not a form of reasoning -- it couldn't be.  In logic, you don't 
  56. >|> yet know the conclusion you need to reach.  You have confidence that in 
  57. >|> the use of the method (which you understand and can verify) and that you 
  58. >|> will reach a reproducible and valid conclusion.  In trial and error, you 
  59. >|> know the conclusion but not how to get there.  How then could you use 
  60. >|> trial and error to reach a logic-like conclusion when you can't tell at 
  61. >|> each step whether you have made any forward progress since you don't 
  62. >|> know what the conclusion is nor if you're approaching it?
  63. >
  64. >Even discounting the fact that neural nets don't use trial and error to 
  65. >solve problems, you are still wrong. Reasoning doesn't operate in a
  66. >vacuum - you attempt to prove or disprove conclusions, or at least to
  67. >derive conclusions which have certain desirable properties. Otherwise,
  68. >your reasoning process would never produce a result. Reasoning can be
  69. >viewed as a search problem through the space of possible conclusions, 
  70. >and generate-and-test is one possible search strategy. You could use
  71. >trial and error both to select likely conclusions to attempt to prove
  72. >or disprove, and also to guide your reasoning process each step of the
  73. >way to the solution.
  74.  
  75. Again this assumes that some magic force exists during the NN's learning 
  76. phase which knows the goal states and thereby directs the teaching of the 
  77. NN.  This is pretty different from logic, where the goal state is unknown.
  78. (Although I do agree, it isn't trial and error either.)
  79.  
  80. And discounting our disagreement as to the role of learning, I still disagree
  81. with you that generate-and-test is a viable search method unless you are given
  82. the goal state ahead of time.  Again, how do you know you've arrived when you
  83. don't know where you're going or how you'll know when you get there?  In
  84. trial and error, an external oracle is necessary to raise a flag and shout 
  85. `success!', just as in the learning phase of neural nets.  This is just not
  86. the case in logic.
  87.  
  88. In logic, you are trying to get somewhere unknown by applying axioms to
  89. known predicates.  You know your start state, the given predicates.  You know
  90. something of the relationships among the agents represented by the predicates.
  91. You don't know the goal state, nor how to get there.  You must choose among
  92. the available logical axioms to deduce new predicates and then evaluate them
  93. using the same predicates and axioms.  The choice of which axiom or predicate
  94. to use is arbitrary == random.  Ultimately you will run out of enabled axioms
  95. and predicates and then you've reached stasis.  If you don't know all you 
  96. needed to know by then, you are out of luck.  But by no means does this 
  97. resemble trial and error or the teaching and using of a neural net.
  98.  
  99. I am applying logical process as inherently forward chaining, proceeding from 
  100. given truth values for specific predicates to subsequent truth values for 
  101. other predicates based on (effectively) irrefutable axioms and lemmas.  
  102. Clearly, if you were to convert this to a backward chaining system the process
  103. would remain the same -- you begin with the goal state and apply the axioms
  104. in reverse to see which antecedent predicates are resolved.  Still, you don't
  105. know which they will be, nor do you especially care.  In the end, you will
  106. have an exhaustive set of antecedent predicates, which will serve your needs.
  107.  
  108. If you add an oracle to this system, in order to prune away the generation
  109. of all possible predicates and truth values, then you exceed the model which
  110. I am referring to as logic.  I'm trying to point out that you don't _need_ to
  111. know the goal state for logic to work.  But you do for neural nets or trial-
  112. and-error to work.  That's why I think they're different.
  113.  
  114. >|>
  115. >|> >Some balance must be struck
  116. >|> >between the two for many tasks, especially   creativity and problem
  117. >|> >solving.  There is no algorithm to come up with new ideas, but you can't
  118. >|> >just "use the force" to get them either.  Neural networks will probably
  119. >|> >be able to solve some problems using neither gut instinct nor syllogisms.
  120. >|> 
  121. >|> I don't think NNs have ever solved _any_ problems.  Nor will they ever.
  122. >|> Like genetic algorithms, they are simply a tool for finding your way 
  123. >|> blindly from a place you know to another place you know, via a path you 
  124. >|> don't know, and only when you can determine whether each step takes you 
  125. >|> nearer or farther from your destination.  You use them to search for 
  126. >|> something, not tell you what you are searching for.
  127. >|> 
  128. >|> This is not to condemn neural nets or genetic algorithms in any way.  
  129. >|> However they can never take the place of logic nor even supplement it.  
  130. >|> They are not reasoning methods; they are search methods.  Logic is a 
  131. >|> reasoning method -- the only one in which I have any experience or 
  132. >|> confidence.
  133. >
  134. >Again, reasoning is a search method! NN and GA wouldn't replace or 
  135. >supplement logic, but implement it.
  136.  
  137. I think you and are arguing semantics here.  I don't see logic simply as
  138. a search method.  Search implies that you know where you're going or when
  139. you've gotten there.  Logic doesn't.  It may be that logic isn't terribly
  140. useful (or purposeful) without direction, but even without guidance it 
  141. _can_ teach you new things, and that's something I'm unconvinced that NNs 
  142. or GAs (or pure search) can ever do.
  143.  
  144. >
  145. >I think the larger issue is partially a matter of perspective. Love is 
  146. >ultimately the result of an extremely complex physical process, which 
  147. >certainly follows logic. The fact that love can be reasoned about, however,
  148. >does not mean that it is itself the result of a reasoning process. 
  149. >Some of the factors influencing it are purely physical (perhaps the smell
  150. >of the loved one is physically pleasurable), some are the result of 
  151. >cognitive processes which are not reasoned (the smell triggers an 
  152. >association with some pleasurable past memory), some are the result of 
  153. >reasoning processes which occur below the conscious level (the loved one
  154. >thinks highly of you, which increases you self-esteem; thus s/he helps
  155. >to satisfy another high level 'drive'), and some are on the conscious level
  156. >("I respect his/her integrity"). There's plenty of interplay between 
  157. >levels, and since most of what's going on is not directly accessable to 
  158. >the conscious mind, it's easy to believe that there's no reason for it.
  159.  
  160. I agree that you may not arrive at love as a logical consequence, but I
  161. do believe that if you were fully cognizant of all the forces impingent
  162. on you as well as the relationships among these (like those you enumerated)
  163. you could explain love using logic.  If this were not so, then the scientific
  164. method would have failed and we must conclude that either we did _not_ have
  165. access to all the facts, did not understand all of the relationships among
  166. the facts, or else the mechanism of love is unobservable within this universe 
  167. -- it's magical.  And I'd be a lot more uncomfortable thinking that magic 
  168. was at work, than that love is just another predictable/understandable 
  169. physical process.
  170.  
  171. Otherwise, what kind of marriage counselor would you go to when the magic 
  172. was gone?
  173.  
  174. >
  175. >If we try to introspectively analyze the workings of some of our 
  176. >subconscious processes, we run up against a wall. 
  177.  
  178. Analyzing yourself, perhaps so.  But Freud and most psychoanalysts wouldn't
  179. agree that it's impossible to analyze your subconscious.  It's just harder
  180. than analyzing your conscious.
  181.  
  182. >It's easy to say 
  183. >that since these things just seem to appear in our minds, there's no
  184. >reason for them, they just are. This is like primitive men saying that
  185. >rain falls because it falls - there's no reason for it (until they 
  186. >invent a god to explain it). If there truly were no reason for love 
  187. >other than just because, why is it a persistant phenomenon? We don't
  188. >randomly fall in love and out of love with toasters and farm animals
  189. >every two minutes (well, most of at least :-)). 
  190.  
  191. Perhaps there's a magical or divine force at work.  That'll explain it 
  192. every time.
  193.  
  194. -- 
  195.  
  196. | Randy Crawford        crawford@mitre.org        The MITRE Corporation
  197. |                                                 7525 Colshire Dr., MS Z421
  198. | N=1 -> P=NP           703 883-7940              McLean, VA  22102
  199.