home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #26 / NN_1992_26.iso / spool / bit / listserv / csgl / 1389 < prev    next >
Encoding:
Internet Message Format  |  1992-11-06  |  4.0 KB

  1. Path: sparky!uunet!know!hri.com!ukma!darwin.sura.net!paladin.american.edu!auvm!VAXF.COLORADO.EDU!POWERS_W
  2. From: POWERS_W%FLC@VAXF.COLORADO.EDU (William T. Powers)
  3. Newsgroups: bit.listserv.csg-l
  4. Subject: CONNECTIONISM AND hpct
  5. Message-ID: <01GQSJN2CGN600O5V1@VAXF.COLORADO.EDU>
  6. Date: 5 Nov 92 19:31:27 GMT
  7. Sender: "Control Systems Group Network (CSGnet)" <CSG-L@UIUCVMD.BITNET>
  8. Lines: 68
  9. Comments: Gated by NETNEWS@AUVM.AMERICAN.EDU
  10. X-Envelope-to: CSG-L@vmd.cso.uiuc.edu
  11. X-VMS-To: @CSG
  12. MIME-version: 1.0
  13. Content-transfer-encoding: 7BIT
  14.  
  15.  
  16.  [From Bill Powers (921104.2100)];
  17.  
  18.  Martin Taylor (921104.1340) --
  19.  
  20.  >Connectionism depends at root on the distribution of
  21.  >representation, not on whether some elements have a continuous
  22.  >rather than a discrete range of variation.  Your version of HPCT
  23.  >isolates the responsibility for the control of particular percepts
  24.  >to particular ECSs.  We would not do that, but would share the
  25.  >responsibility through overlapping quasi-modular groups of ECSs.
  26.  >Your version is to connectionist HPCT as classical AI is to
  27.  >connectionist classifiers.  And it leads to related kinds of
  28.  >problem.
  29.  
  30.  The difference you see depends on the dimension you're attending to.
  31.  For me, the difference between AI and connectionism is that
  32.  connectionist models let the signals representing variables be the
  33.  important thing, where in AI all variables had to be converted first
  34.  into symbols (words, mainly) before they could be operated upon, and
  35.  then the operations were carried out by rule-driven algorithms for
  36.  symbol manipulation instead of by computing devices that handle
  37.  signals directly. To me, that's the difference between analogue and
  38.  digital computing.
  39.  
  40.  To represent a system with fixed properties, it doesn't matter
  41.  whether you use a distributed network or an equivalent set of
  42.  individual funtions. BCP, p. 39:
  43.  
  44.  "It is convenient to think of the brain as a collection of localized
  45.  functions, and of neural signals as occurring in definite pathways
  46.  linking functions together. The model, however, will not be
  47.  invalidated if these elements prove some day to be distributed over
  48.  large volumes of the brain. The organizational properties of this
  49.  model do not depend on its geometrical properties."
  50.  
  51.  If we want to account for the way these functions come into being,
  52.  then the network representations will probably be necessary. During
  53.  maturation, axons grow in ways that depend on what the system is
  54.  doing, and even after maturation is complete, synapses appear, change
  55.  their properties, and disappear.
  56.  
  57.  I think that such networks have limited scope; the size of a sensory
  58.  or motor nucleus. On a larger scale there is clearly an architecture
  59.  composed of separate modules and separate layers. The types of
  60.  neurones are different in different modules of the brain; the brain
  61.  is not just one huge network composed of identical elements operating
  62.  by identical principles.
  63.  
  64.  The connectionist models I have seen do not impress me as much as
  65.  they impress their inventors. A great deal of subjective
  66.  interpretation is involved in saying that a network "classifies" its
  67.  inputs, or even that it "recognizes" a form. What these networks
  68.  actually do is a lot simpler than that: given a set of inputs, they
  69.  will produce certain outputs over a range of the inputs. To label
  70.  this process "classification" implies first that one already knows what
  71.  classification is, and second that there is no other kind of
  72.  perceptual operation of any importance. I reject both implications as
  73.  unwarranted, the first because there has been no careful
  74.  investigation of the elements of perception (of the kind I have tried
  75.  to develop) and the second because it is obvious, at least to me,
  76.  that a great deal more than classification goes on in perception. I
  77.  think that connectionists are trying to accomplish in one jump what
  78.  the real perceptual system does stage by stage. This may be possible,
  79.  to some extent, but this sort of modeling will necessarily fail to
  80.  account for perceptions of both lower and higher levels than
  81.  classifications: perception of motion, for example, or perception of
  82.  principles.
  83.