home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / bit / listserv / csgl / 2314 < prev    next >
Encoding:
Text File  |  1993-01-28  |  4.5 KB  |  98 lines

  1. Comments: Gated by NETNEWS@AUVM.AMERICAN.EDU
  2. Path: sparky!uunet!uvaarpa!darwin.sura.net!zaphod.mps.ohio-state.edu!uwm.edu!spool.mu.edu!howland.reston.ans.net!paladin.american.edu!auvm!VAXF.COLORADO.EDU!POWERS_W
  3. Return-Path: <@VMD.CSO.UIUC.EDU:POWERS_W%FLC@VAXF.Colorado.EDU>
  4. X-Envelope-to: CSG-L@vmd.cso.uiuc.edu
  5. X-VMS-To: @CSG
  6. MIME-version: 1.0
  7. Content-transfer-encoding: 7BIT
  8. Message-ID: <01GU0PM4TON60000EP@VAXF.COLORADO.EDU>
  9. Newsgroups: bit.listserv.csg-l
  10. Date:         Wed, 27 Jan 1993 16:14:18 -0700
  11. Sender:       "Control Systems Group Network (CSGnet)" <CSG-L@UIUCVMD.BITNET>
  12. From:         "William T. Powers" <POWERS_W%FLC@VAXF.COLORADO.EDU>
  13. Subject:      Language models
  14. Lines: 82
  15.  
  16. [From Bill Powers (930127.1430)]
  17.  
  18. Bruce Nevin (930127.0854) and
  19. Avery Andrews (930123.1350) --
  20.  
  21. Interesting. Here we are again. Operator grammar explains
  22. language. Generative grammar explains language. Pick one to
  23. believe, and the other is wrong. Obviously they can't both be
  24. right. What basis can there be for anyone to believe either side?
  25.  
  26. I think there's a fundamental difference between the way the PCT
  27. model is constructed and the way either Operator or Generative
  28. grammar models are constructed. In Operator grammar you need to
  29. know what words mean in order to distinguish operators from
  30. arguments; in Generative grammar you need a lexicon of usage in
  31. which word meanings have to be known to make any sense of it.
  32. Suppose I were to give proponents of either side a sentence like
  33. "Word1 Word222 Word17 Word9237 Word1403 ...". You couldn't even
  34. divide that sentence into NP and VP. A lexicon made of such words
  35. would be incomprehensible and useless. You couldn't make up a
  36. list of operators and arguments because you'd have no way to know
  37. whether a given word is an operator or an argument.
  38.  
  39. In a PCT model, however, we can speak of relationships among
  40. perceptual, reference, error, and output signals inside the
  41. system, and feedback functions and disturbances outside the
  42. system, without ever specifying what the variables mean. The
  43. model basically doesn't care WHAT is perceived or disturbed; the
  44. fundamental relationships in the control loop are context-
  45. independent. We can talk about control of input without ever
  46. saying WHAT input. We can talk about loop gain, about stability,
  47. about error sensitivity, about every parameter of control and
  48. every law of control behavior without any lexicon or any list of
  49. specific actions or controlled variables. Only when we test the
  50. model experimentally do we give meanings to the controlled
  51. variables, perceptual signals, output actions, and so forth. And
  52. we expect the model to work correctly no matter what specific
  53. meanings we give to these variables.
  54.  
  55. A model of language constructed in the same spirit as the PCT
  56. model would not need a lexicon or empirical data on the way
  57. specific words are used. Specific observations would be needed to
  58. arrive at such a model, but once the model was constructed it
  59. would no longer be cast in terms of specific observations.
  60. Instead, there would be underlying principles that apply to any
  61. way of hooking symbols to experiences, whatever the symbols and
  62. whatever the experiences. In fact I doubt that this underlying
  63. model would be a linguistic model at all: it would simply be one
  64. application of a single model of perceptual control, the same
  65. model that explains all behavior.
  66.  
  67. It's this concept of an underlying model that seems to me to be
  68. missing from both the Operator and the Generative approaches. If
  69. the apparent laws of language depend on specific word meanings,
  70. they are not laws of language but only happenstance. Any other
  71. laws would be just as likely, for all we can explain why they
  72. exist.
  73. ---------------------------------------------------------------
  74. Ed Ford (930127.1018) --
  75.  
  76. Those new rubber-band demos will take their place among the
  77. fundamental set. I think that Occam's Law saying that we should
  78. choose the simplest and most parsimonious explanation that covers
  79. the facts ought to be supplemented by Occam's Economic Law: the
  80. way of communicating the explanation should cost as little as
  81. possible. You have taken a demonstration that could be done on a
  82. $2000 computer and have managed to show every major point using
  83. about 10 cents' worth of equipment. Very, very nice.
  84. ----------------------------------------------------------------
  85. To subscribe to CSG-L:
  86.  
  87. send this message
  88.  
  89.  subscribe csg-l  lastname, firstname, where you are
  90.  
  91. to this address:
  92.  
  93. listserv@vmd.cso.uiuc.edu
  94. ----------------------------------------------------------------
  95. Best to all,
  96.  
  97. Bill P.
  98.