home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / bit / listserv / csgl / 2320 < prev    next >
Encoding:
Text File  |  1993-01-28  |  12.3 KB  |  261 lines

  1. Comments: Gated by NETNEWS@AUVM.AMERICAN.EDU
  2. Path: sparky!uunet!uvaarpa!darwin.sura.net!paladin.american.edu!auvm!CCB.BBN.COM!BNEVIN
  3. Return-Path: <@VMD.CSO.UIUC.EDU:bnevin@ccb.bbn.com>
  4. Message-ID: <CSG-L%93012810523974@VMD.CSO.UIUC.EDU>
  5. Newsgroups: bit.listserv.csg-l
  6. Date:         Thu, 28 Jan 1993 11:31:01 EST
  7. Sender:       "Control Systems Group Network (CSGnet)" <CSG-L@UIUCVMD.BITNET>
  8. From:         "Bruce E. Nevin" <bnevin@CCB.BBN.COM>
  9. Subject:      theories of language
  10. Lines: 249
  11.  
  12. [From: Bruce Nevin (Thu 930128 08:29:27)]
  13.  
  14. (Bill Powers (930127.1430) ) --
  15.  
  16. >Interesting. Here we are again. Operator grammar explains
  17. >language. Generative grammar explains language. Pick one to
  18. >believe, and the other is wrong. Obviously they can't both be
  19. >right. What basis can there be for anyone to believe either side?
  20.  
  21. Neither "explains language" in a way that is satisfactory from a
  22. PCT perspective.  Either could be used as a starting place for
  23. outlining a PCT explanation.  My argument is not so much that
  24. Generative theory is wrong, but that it is *much* more difficult
  25. to go anywhere using it as a starting place.  (I would argue that
  26. various flavors of Generative theory are wrong about certain
  27. things, but those things are by and large irrelevant or secondary
  28. to our concerns here.)
  29.  
  30. Let's go back to your (930126.0830) generalizations:
  31.  
  32. > One of the logical errors that's easy to make in learning control
  33. > theory is to suppose that because a particular state of the
  34. > environment is observed to be involved in control of a higher-
  35. > level perception, ONLY that state of the environment will result
  36. > when the perception is controlled.
  37.  
  38. > I've seen this in linguistics. In a top-down model, some global
  39. > feature of a sentence is specified. This feature is then
  40. > exemplified by some element of a specific sentence at a lower
  41. > level. But why that sentence, and not a totally different one
  42. > that is also an example of the higher form? In fact the detailed
  43. > sentences used as examples vary all over the place, so there is
  44. > clearly no constraint on which sentence is to be used as an
  45. > example. This is a major problem for top-down models (at least as
  46. > far as implementing them is concerned).
  47.  
  48. > A control-theoretic model of language production works the other
  49. > way: it selects sentences until one is found that can be
  50. > PERCEIVED as having a certain form matching a specified form.
  51. > None of the degrees of freedom of the sentence matter except the
  52. > combination that results in satisfying the reference-form; in all
  53. > other respects the sentence is free to vary. Any old words that
  54. > can be perceived as an NP will satisfy the requirement that an NP
  55. > appear in the final result in that position. But you can't go the
  56. > other way: you can't write an algorithm that will start with the
  57. > specification that a noun phrase be uttered, and come up with a
  58. > specific utterable noun phrase. The specification "NP" doesn't
  59. > care which noun phrase is found; therefore it can't specify ANY
  60. > noun phrase.
  61.  
  62. > You linguists out there have heard me harp on this before. So far
  63. > you haven't dealt with the basic problem. It's part of the same
  64. > problem that Rick is talking about.
  65.  
  66. The segue from your reply to Rick's (930125.1500) on output and
  67. perception "bushes" is actually a non-sequitur.  A
  68. phrase-structure tree with NPs, VPs, etc. is a structural
  69. description that applies to an indefinitely (but not infinitely)
  70. large set of sentences.  No one has ever claimed that one gets
  71. from a phrase-structure tree to a particular sentence in that
  72. set, top-down.  That is not what the term "generative" means.
  73. (Basically, it just means "explicit," aside from its role as a
  74. trademark.)  Indeed, that is one of the conceptual difficulties
  75. of "lexical insertion" in classical transformational-generative
  76. grammar.  How do the words come in, that is, with what
  77. motivation?
  78.  
  79. The bottom-up control-theoretic approach that you counterpose to
  80. this is I think what Avery has been proposing.  (Correct me if
  81. I'm wrong, Avery, or elaborate if you will.)  The words come up
  82. anyhow, in association with non-word perceptions.  There are
  83. certain dependencies among the words that are correlated with
  84. dependencies among the perceptions.  (These dependencies among
  85. the perceptions do not themselves all necessarily have to be
  86. perceived for such correlation to come about, I believe.)  But
  87. without further constraint they might come out in a way that was
  88. not English (or the given language).  This further constraint
  89. comes from perceptual control with reference to the syntactic
  90. structures.
  91.  
  92. (Penni proposed that you don't even need the syntactic
  93. structures.  This is because some aspects of structure,
  94. particularly discourse structure, follow from the correlation
  95. with dependencies among non-word perceptions.  You can seem to
  96. get away with it for simple texts like hers if you build in
  97. English word order without noticing that you have.  A simplified
  98. sublanguage like this could be of considerable practical value in
  99. computer applications prohibiting dialog or limiting the
  100. complexity of what the user could input.)
  101.  
  102. With a Phrase-Structure basis, the programs to generate all and
  103. only the permissible structures needed to provide these reference
  104. perceptions are quite complicated.  They require control of
  105. perceptions that are quite abstract.  It has been argued
  106. convincingly (translating into PCT idiom) that infants cannot
  107. possibly develop perceptual control of such complicated and
  108. abstract perceptions on the basis of generalization and
  109. abstraction from their observations of language in use around
  110. them, and that therefore the hairy parts of it must be hard-wired
  111. in the human genome.  This is known as the argument from paucity
  112. of data, or from paucity of stimulus.
  113.  
  114. With a word-dependency/reduction basis (operator grammar), there
  115. are no abstract structures.  Start with the word dependencies, as
  116. above.  The programs for reducing the output form of
  117. low-information words are simple.  The programs for doing so in
  118. conformity with current convention are a bit more complex in the
  119. places at which they are arbitrary, as are the programs for
  120. strategies to avoid various pitfalls, but no more complex or
  121. difficult to acquire than those for many sorts of nonverbal
  122. control.  The ill-defined and variable set of sentences results
  123. as a byproduct of these several kinds of perceptual control,
  124. rather than by control with respect to a well-defined set of
  125. abstract sentence structures.
  126.  
  127. A PCT explanation of language can be undertaken with either
  128. approach.
  129.  
  130. >                                In Operator grammar you need to
  131. >know what words mean in order to distinguish operators from
  132. >arguments
  133.  
  134. No, you don't.
  135.  
  136. >Suppose I were to give proponents of either side a sentence like
  137. >"Word1 Word222 Word17 Word9237 Word1403 ...".
  138.  
  139. No one can develop a grammar on the basis of one sentence.  This
  140. is in no way different from being handed something in a language
  141. you don't know, say, this sentence from an article on the front
  142. page of a Greek newspaper on my desk now:
  143.  
  144.         I apoxorisantes i ekdhyoxthendes ipurghi ke poli vuleftes
  145.         thetun evtheos ke aprokaluptos to erotema: pera apo
  146.         linovouleftikus tipus, pu dhinun iperoxi dhio psifon, me
  147.         pya praghmatiki pliopsifia kiverna ti xora o prothipurgos
  148.         k. K. Mitsotakis.
  149.  
  150. It is only by finding commonalities across many utterances,
  151. starting of course with short ones, that one distinguishes word
  152. classes, and that is on the basis of what can co-occur with what.
  153. One would find many instances words ending in -es in proximity,
  154. often with the word i or tis before them, and others ending in
  155. -os with o before, and so on.  One can identify affixes and words
  156. and their gross combinatorial possibilities (word classes)
  157. without any translation.
  158.  
  159. With a translation, one can use one's control of one's own
  160. language (and its metalanguage) as a basis for controlling the
  161. new one.  Naturally, this results often in conflict.  Infants are
  162. not troubled with this sort of conflict, and that, together with
  163. the fact that they work at it pretty near full time for a couple
  164. of years, integrated with learning all sorts of perceptual
  165. control, accounts for the difference between child language
  166. acquisition, and Genie, and adult second-language acquisition.
  167.  
  168. The partial order of word dependencies, operators over arguments,
  169. before imposition of a linear order of words, derives from
  170. control of meanings (correlation with dependencies among non-word
  171. perceptions).  But one's growing control of what words can be
  172. placed where in linearized order is based in large measure on
  173. language-specific convention (for the linearization of the
  174. operataor word with respect to its argument words, plus a few
  175. analogic extensions).  The remainder falls out as a byproduct of
  176. reductions.
  177.  
  178. >we expect the model to work correctly no matter what specific
  179. >meanings we give to these variables.
  180.  
  181. >A model of language constructed in the same spirit as the PCT
  182. >model would not need a lexicon or empirical data on the way
  183. >specific words are used.
  184.  
  185. The meanings are non-word perceptions with which words and some
  186. phrases (speaking loosely) are associated.  They are inside the
  187. model insofar as control involving the non-word perceptions is
  188. modelled.  The "lexicon" comprises the word-perceptions, the
  189. association of words with non-word perceptions, the control of
  190. reductions in word shapes (morphophonemics).  These are all
  191. perceptions whose control is modelled in the model.  If we model
  192. language learning, then empirical data are outside the model and
  193. inside the model.  They are
  194.  
  195. >                                                needed to
  196. >arrive at such a model, but once the model was constructed it
  197. >would no longer be cast in terms of specific observations.
  198. >Instead, there would be underlying principles that apply to any
  199. >way of hooking symbols to experiences, whatever the symbols and
  200. >whatever the experiences. In fact I doubt that this underlying
  201. >model would be a linguistic model at all: it would simply be one
  202. >application of a single model of perceptual control, the same
  203. >model that explains all behavior.
  204.  
  205. I still don't understand why you believe we disagree about this.
  206. Try again?
  207.  
  208. >It's this concept of an underlying model that seems to me to be
  209. >missing from both the Operator and the Generative approaches. If
  210. >the apparent laws of language depend on specific word meanings,
  211. >they are not laws of language but only happenstance. Any other
  212. >laws would be just as likely, for all we can explain why they
  213. >exist.
  214.  
  215. This concept of an underlying model can be added to either approach.
  216. The results in operator grammar do not depend on specific word
  217. meanings; rather, an account of meanings of words (and of
  218. sentences, and of texts) is a result in operator grammar, an
  219. account that fits well with PCT.  Some aspects of language
  220. structure are due to correlation of word-perceptions with
  221. non-word perceptions.  Is this what you are rejecting here?
  222.  
  223. In Generative Grammar, much has been made of the autonomy of
  224. linguistic form from meaning, though Chomsky has been backing
  225. away from that recently.  Still, it is not clear to me how you
  226. see that the "apparent laws of language" according to Generative
  227. theory depend upon specific word meanings.
  228.  
  229. (Avery Andrews 930128.1120) --
  230.  
  231. >There's something about the Harrissian approach that I just don't
  232. >get, & until I either get or it figure out what is wrong with it
  233. >I have no intention of saying much of anything against it.
  234.  
  235. >In general, I think that current linguistic theories should be regarded
  236. >as just being resources that are out there, and that from a PCT
  237. >perspective, one should just take whatever insights, if any, that
  238. >they might seem to offer.
  239.  
  240. Harris has been ignored for 40 years for (academic-)political
  241. reasons.  That's a shame.  It makes his work effectively
  242. unavailable as a resource and makes his insights invisible.  If
  243. you or anyone shows me something that is wrong with it, that will
  244. be a good outcome.  I'll just keep putting it out there and
  245. trying to make it as vulnerable as possible.  If you can outline
  246. what it is that you don't get, I might be able to help you expose
  247. it better.
  248.  
  249. >                          And, at the moment, I see Motor Control
  250. >as a *much* higher priority target.
  251.  
  252. I agree.  I don't see practical modelling of language being
  253. feasible unless control up to category level is modelled or
  254. simulated.  I doubt that practical modelling of control at
  255. category level or higher is feasible without modelling language
  256. or covertly smuggling language-borne understandings into the
  257. model.
  258.  
  259.         Bruce
  260.         bn@bbn.com
  261.