home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #16 / NN_1992_16.iso / spool / comp / ai / neuraln / 2975 < prev    next >
Encoding:
Internet Message Format  |  1992-07-27  |  7.5 KB

  1. Path: sparky!uunet!mcsun!uknet!warwick!str-ccsun!strath-cs!robert
  2. From: robert@cs.strath.ac.uk (Robert B Lambert)
  3. Newsgroups: comp.ai.neural-nets
  4. Subject: Re: Correctness of NNs
  5. Message-ID: <10091@baird.cs.strath.ac.uk>
  6. Date: 27 Jul 92 11:58:43 GMT
  7. References: <10088@baird.cs.strath.ac.uk> <arms.712022732@spedden>
  8. Organization: Comp. Sci. Dept., Strathclyde Univ., Glasgow, Scotland.
  9. Lines: 136
  10.  
  11. In article <arms.712022732@spedden> arms@cs.UAlberta.CA (Bill Armstrong) writes:
  12. >robert@cs.strath.ac.uk (Robert B Lambert) writes:
  13. >
  14. >>Surely to be able to state that network X is 100% reliable, the entire input 
  15. >>set must be known. From experience, any pattern recognition task which has a 
  16. >>fully defined input set with appropriate responses can most easily be solved 
  17. >>with a look-up table. 
  18. >
  19. >You are right, in theory, about table look up.  But try to do that for
  20. >a 32*32 grid of pixels.  You would have to store 2^1024 values, which
  21. >is not possible in this physical universe, and certainly is not
  22. >economical.  This is typical of high-dimensional problems.
  23. >
  24. >So you can't store all outputs, you have to do some things by
  25. >"generalization" of some kind, based on a stored state derived form
  26. >some "training set", say.
  27.  
  28. Interesting argument. If you have an input grid with 32x32 binary pixels, then
  29. indeed you have 2^1024 possible input patterns which is physically impossible
  30. to implement by a look up table. However, say we are recognizing handwritten
  31. characters and we have a database of 100,000 characters. We could use a look up
  32. table (size 12Mbytes) which would give 100% correct classification for each
  33. character in the database. If all future recognition is restricted to this set,
  34. the look up table provides the simplest (and probably cheapest solution).
  35.  
  36. However, such a system is virtually useless if new characters are presented. 
  37. A better solution is a system capable of generalization. Such a system can be 
  38. implemented which gives 100% correct classification for the 100,000 characters
  39. and gives a good classification rate for unseen characters. But what about 
  40. non-characters? Our original training set is a tiny percentage of all possible
  41. input patterns. If we fire random patterns at the input, what will the network
  42. do? 
  43.  
  44. Any neural network which can only classify inputs into a number of pre-defined
  45. categories will dramatically fail in the real world.
  46.  
  47. >>I had thought that the principal strength of neural networks (including the
  48. >>brain) was the ability to form adaptive responses/rules based on a subset of 
  49. >>all possible system inputs. If responses are wrong, a neural network has the
  50. >>ability to correct itself, whilst improving its response rate on subsequent
  51. >>new inputs.
  52. >
  53. >Sounds ok.  But, between the lines I read that you think you could
  54. >correct any errors on huge input spaces like the 2^1024  - sized one
  55. >above.  That can't be done, in general, simply because you don't have
  56. >enough memory to do it.  Certain functions you will never be able to
  57. >compute in our universe.
  58.  
  59. True, including the correctness of most computer software. However if a network
  60. is able to identify inputs which do not lie within expected ranges, appropriate
  61. action can be taken. ie, if the input is not a numeric character, do not attempt
  62. to categorize it.
  63.  
  64. >>With respect to safety in critical applications, how do you prove a system to
  65. >>be correct? You first have to determine every possible input to that system.
  66. >
  67. >I agree, you have to specify a superset of the inputs you can get.
  68. >
  69. >>It is never possible to eliminate errors from any real system no matter how
  70. >>good it looks on paper. The current approach to this problem is redundancy.
  71. >>Build a number of systems from different component running different software
  72. >>and make sure they all produce the same response during use. Is this not one
  73. >>of the strengths of NNs? If a cell fails or a connection is broken, the 
  74. >>degradation of the response to each input is slight.
  75. >
  76. >Sounds great, but doesn't work.  There is a probability greater than
  77. >zero in a large network that you will get very ungraceful behaviour.
  78. >
  79. >I think your statement about "slight" degradation is quite wrong.  You
  80. >Should be able to cook up cases where one connection being wrong
  81. >throws off a whole net.  For example, if an output unit has a weight
  82. >that erroneously acts twice as large as it should be, you may not have
  83. >such a graceful degradation.
  84.  
  85. Does this apply to the human brain? I think not. The human nervous system has
  86. massive redundancy with the expectation of component and connection failures
  87. over time.
  88.  
  89. Much of my arguments and reasoning is based on the study of the human brain.
  90. ANNs are currently very primitive and limited in their application. The current
  91. argument over analogue vs digital transmission of information is an excellent
  92. example of the problem neural network researchers face. The individual neurons
  93. in the brain are causal devices. Their state is based on the history of firing
  94. of the cell and the history of received pulses. BP nets try to model the net
  95. behaviour of each neuron by considering the effective output (ie output signal
  96. proportional to input). ALNs as with many other model the binary outputs of
  97. biological neurons.
  98.  
  99. It is to easy to get caught up with the workings of individual neurons and
  100. forget the connectivity. ANNs (inc ALNs) do not model the biological brain.
  101. There is strong evidence for cooperation between large number of neurons in the
  102. brain utilizing very high levels of feed-back. Such `groupings' act together
  103. to generate a global response to a given stimuli. For this cooperative grouping
  104. to fail, a large percentage of the neurons within the group must fail.
  105.  
  106. If we want networks to both solve real world problems and improve our 
  107. understanding of the human brain, we should be considering the higher level 
  108. behaviour and connectivity of networks and not their basic components.
  109.  
  110. >But how can you claim that x-technology is able to produce
  111. >sensible responses to new inputs as a general rule?  Show me a proof,
  112. >say that fuzzy logic always produces sensible responses to new inputs,
  113. >and I'll eat my hat.  First, there's a complete, all encompassing
  114. >definition of "sensible", then....
  115. >
  116. >For those who are just getting into the discussion: please do not
  117. >think that ALNs are safe but BP nets aren't.  Both can produce
  118. >unexpected values not detected by testing.  I intend to show that ALNs
  119. >can be used with a design methodology that will lead to safe systems.
  120. >I will leave it up to the BP people to worry about the safety of their
  121. >systems.  Up to now, it seems they won't even admit there is a
  122. >problem.
  123. >
  124.  
  125. I agree with you to a point. Simple NNs by there very nature are unreliable.
  126. My comments about sensible responses do not refer to any single network, but
  127. rather a principal we need to work towards. The human brain is capable of 
  128. identifying stimuli which do not conform to the norm. The action taken is based
  129. on higher level reasoning and experience and can usually be defined as sensible.
  130.  
  131. What is the future of ANNs? If they are to be used in any situation where a 
  132. fully definable input-output set exists, they have no future as this is the 
  133. application where conventional computer technology excels. If ANNs are to be
  134. used for real world control and recognition tasks we must face up to the fact
  135. that such networks while able to give the best performance can never be 100%
  136. reliable as it is simply not possible to account for all possible inputs.
  137.  
  138. If ANNs were used to replace drivers in cars and the number of fatalities were
  139. reduced (but not removed) would this be acceptable?
  140.  
  141. -------------------------
  142. Robert B Lambert
  143. University of Strathclyde
  144. Scotland, UK.
  145.  
  146. robert@cs.strath.ac.uk
  147.