home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #26 / NN_1992_26.iso / spool / bit / listserv / csgl / 1402 < prev    next >
Encoding:
Internet Message Format  |  1992-11-08  |  28.2 KB

  1. Path: sparky!uunet!stanford.edu!bu.edu!wupost!darwin.sura.net!paladin.american.edu!auvm!CCB.BBN.COM!BNEVIN
  2. From: bnevin@CCB.BBN.COM (Bruce E. Nevin)
  3. Newsgroups: bit.listserv.csg-l
  4. Subject: language issues
  5. Message-ID: <CSG-L%92110613223540@VMD.CSO.UIUC.EDU>
  6. Date: 6 Nov 92 19:11:10 GMT
  7. Sender: "Control Systems Group Network (CSGnet)" <CSG-L@UIUCVMD.BITNET>
  8. Lines: 576
  9. Comments: Gated by NETNEWS@AUVM.AMERICAN.EDU
  10.  
  11. [From: Bruce Nevin (Mon 92112 07:38:16 through Fri 92116 14:05:06)]
  12.  
  13. Awfully hard getting any consecutive time to respond to all the
  14. interesting stuff going by.
  15.  
  16. (Avery Andrews 921026.0928) --
  17.  
  18. >I'd agree that this little story of mine would stand or fall on the
  19. >basis of careful examination of this kind of case.  But if this story
  20. >falls, we're probably left with something like GB as the best bet for
  21. >a theory of grammar!!.
  22.  
  23. Are the choices really so few and so constrained?
  24. This seems based upon an argument of the following form:
  25.  
  26.     Either A or B.
  27.     If A, then something like GB
  28.     If not (this little story of mine) then not B
  29.  
  30. Here, A is something like the claim that "learners don't have access to
  31. negative evidence," i.e. they are not provided with starred examples,
  32. and B is the claim that they are.
  33.  
  34. For non-linguists: in Generativist writings one puts an asterisk before
  35. examples that "you can't say" (at least according to the author).
  36. Hence, these are "starred" examples.  (I used to call them "asterisky.")
  37. For example, the linguist might consider sets of roughly equivalent
  38. sentences like this:
  39.  
  40.      1a     John gave the Ramadan bake sale money to the fund.
  41.       b     John gave to the fund the Ramadan bake sale money.
  42.       c     John gave the fund the Ramadan bake sale money.
  43.  
  44. On the basis of this and other sets of sentences, the linguist might
  45. postulate a rule that says you can move a "dative" phrase--"to x" after
  46. a verb with some kind of "give" meaning--to a position before the verb,
  47. and delete the preposition "to".
  48.  
  49. This rule predicts that the following sentences are also equivalent to
  50. each other:
  51.  
  52.      2a     John donated the Ramadan bake sale money to the fund.
  53.       b     John donated to the fund the Ramadan bake sale money.
  54.       c    *John donated the fund the Ramadan bake sale money.
  55.  
  56. However, for many English speakers (including Avery), (2c) is not
  57. acceptable, hence the asterisk or star.  Others, focussing on the
  58. meaning of (2c), may overlook the syntactic or stylistic anomaly; Bill
  59. is evidently among these, but it is possible that he represents a third
  60. set of others for whom (2c) is not anomalous at all.
  61.  
  62. Returning to the issue at hand:  the claim that language learners do not
  63. have access to negative evidence seems to amount to a claim that they do
  64. not experience error when they produce syntactically anomalous
  65. utterances.  The claim is usually that overt correction ("don't say X,
  66. say Y") is such a miniscule part of the language learner's experience,
  67. and covers so few of the possible errors, that it alone cannot account
  68. for the incredible amount of learning that takes place in such a short
  69. time (hence much of the structure of language cannot be learned at all
  70. and instead must be hard wired in the genome, etc, etc).
  71.  
  72. Several assumptions underly this claim.
  73.  
  74. Doesn't this assume that overt correction by other speakers is
  75. the only source of negative evidence?  It should be obvious to students
  76. of PCT that there are many occasions for experiencing error aside from
  77. attempts of others at social control.  For starters, consider the
  78. experience of not being understood and having to try again, or the
  79. experience of having the other paraphrase what one has said, either in
  80. confirmation or in replaying it to someone who did not understand
  81. clearly, both of which are *very* common experiences for children
  82. learning a language.
  83.  
  84. Generativists assume that the learner is faced with a range of
  85. alternative grammars, and that learning is a process of eliminating
  86. those that don't work.  On this view of how learning works,
  87. counterexamples have an enormously important and pervasive role.  GB
  88. (Government-[and-]Binding Theory, now being supplanted by Chomsky's
  89. latest "minimalist" proposals) carries this to an extreme.  UG
  90. (Universal Grammar), hard wired into the genome, provides for all
  91. possible languages.  Learning one particular language involves setting
  92. parameters in UG so that one possibility is admitted for that parameter
  93. and the others are precluded.  An example might be the choice of SOV
  94. (subject object verb) word order, as opposed to the alternatives.
  95. Having made that choice, certain other choices ripple out as entailed
  96. consequences (order of modifiers relative to modified words, etc.).
  97. Much ink has been spilled in a search for the minimal parameters whose
  98. settings cannot be predicted from the settings of other parameters, or
  99. which once set can be the basis for predicting a larger number of
  100. others, etc.  (In this research climate, language differences and
  101. variation are not always so closely investigated as they might be, but
  102. that can be only a secondary side comment here.)
  103.  
  104. Generativists also commonly perceive that language structure is so very
  105. complex and arcane as to defy a child learning it at all absent
  106. biological inheritance of much of the complexity in UG.  It is true that
  107. Generativist descriptions of language are very complex and arcane.  It
  108. is also true that not all ways of describing language are so.
  109.  
  110. None of these assumptions is very convincing to me, but they do keep a
  111. number of people employed as linguists (and a number of others not
  112. employed as linguists).  It also puts a great many properties of
  113. language in genetically determined UG and therefore outside the realm of
  114. perceptual control.
  115.  
  116. ********************
  117.  
  118. Returning to the examples, sentence (2c) is somewhat peculiar for me,
  119. but not completely unacceptable, so I mark it with a question mark
  120. rather than an asterisk:
  121.  
  122.      2c    ?John donated the fund the Ramadan bake sale money.
  123.  
  124. Contrast (2c) with an example that unequivocally merits an asterisk:
  125.  
  126.      3. *John fund the donated.
  127.  
  128. In operator grammar, the "to" may be zeroed with a verb after which it
  129. is so strongly expected as to be redundant.  (In some UK dialects, it
  130. need not be immediately after the verb, e.g. "John gave it me."
  131. Similarly in Danish.)  Thus, the reason given in Operator Grammar that
  132. (2c) is peculiar is that speakers of English do not have a sufficiently
  133. strong expectation of the preposition "to" occurring after "donate."
  134.  
  135. One might suppose this is because "donate to" simply is not used as
  136. frequently as "give to."  It is true that the dative reduction is more or
  137. less peculiar for many other verbs in the "give" set.  Call them the
  138. "donate" subset, including:
  139.  
  140. ? John administered [to] the fund the money
  141. ? John allocated [to] the fund the money
  142. ? John apportioned [to] the fund the money
  143. ? John communicated [to] the fund the money
  144. ? John consigned [to] the fund the money
  145. ? John contributed [to] the fund the money
  146. ? John conveyed [to] the fund the money
  147. ? John dealt [to] the fund the money
  148. ? John delivered [to] the fund the money
  149. ? John dispensed [to] the fund the money
  150. ? John distributed [to] the fund the money
  151. ? John entrusted [to] the fund the money
  152. ? John purveyed [to] the fund the money
  153. ? John relinquished [to] the fund the money
  154. ? John rendered [to] the fund the money
  155. ? John surrendered [to] the fund the money
  156. ? John transferred [to] the fund the money
  157. ? John transmitted [to] the fund the money
  158. ? John vouchsafed [to] the fund the money
  159.  
  160. But a considerable number of other verbs in the "give" set are
  161. acceptable with the transposed argument order and zeroed "to".  Call
  162. them the "give" subset:
  163.  
  164. John accorded [to] the fund the money
  165. John allotted [to] the fund the money
  166. John assigned [to] the fund the money
  167. John awarded [to] the fund the money
  168. John conceded [to] the fund the money
  169. John furnished [to] the fund the money
  170. John granted [to] the fund the money
  171. John handed [to] the fund the money
  172. John left [to] the fund the money
  173. John lent [to] the fund the money
  174. John offered [to] the fund the money
  175. John paid [to] the fund the money
  176. John presented [to] the fund the money
  177. John proffered [to] the fund the money
  178. John provided [to] the fund the money
  179. John sent [to] the fund the money
  180. John supplied [to] the fund the money
  181. John yielded [to] the fund the money
  182.  
  183. I don't think a "frequency of occurrence" argument holds up.
  184.  
  185. Now, according to Bill's intuitions about how language works, we use
  186. words because they are associated with perceptions that we are trying to
  187. get our audience to attend to (in the environment or in imagination).
  188. Examining these two lists, I don't see any obvious differences in some
  189. sort of "to" perception associated with one more strongly than the
  190. other.
  191.  
  192. Instead, the difference appears to be a pretty arbitrary, learned,
  193. socially shared perception that "to" is redundant after verbs in the
  194. "give" list, but not after those of the "donate" list.  Maybe someone
  195. else can pull out some generalization that I'm missing.
  196.  
  197. There is another factor, one that motivated my putting the modifier
  198. "Ramadan bake sale" in the examples of (1) and (2), and that is that by
  199. minimizing the distance between an operator and its arguments (distance
  200. in terms of intervening words that could also be candidates as
  201. arguments), we reduce the load on short-term memory for perception of
  202. operator-argument dependencies.  Thus, when we have alternative
  203. orderings for the arguments of an operator we prefer to put the shortest
  204. one first (counting all its modifiers):
  205.  
  206.     4a John handed the money over to the fund.
  207.      b ?John handed over to the fund the money.
  208.  
  209. Sentence (4a) is definitely better than the transposed version (4b).
  210. However, watch what happens when you lengthen "the money" with some
  211. modifiers:
  212.  
  213.     4a John handed the Ramadan bake sale money that Kathy had collected
  214.        from the first half of her list of groups over to the fund.
  215.      b John handed over to the fund the Ramadan bake sale money that
  216.        Kathy had collected from the first half of her list of groups
  217.  
  218. Now consider the original two sets of sentences without the modifier:
  219.  
  220.      1a'  John gave the money to the fund.
  221.       b' ?John gave to the fund the money.
  222.       c'  John gave the fund the money.
  223.  
  224.      2a'   John donated the money to the fund.
  225.       b'  ?John donated to the fund the money.
  226.       c' ??John donated the fund the money.
  227.  
  228. Notice that (1b') is a bit awkward but (1b) is more acceptable:
  229.  
  230.      1b' ?John gave to the fund the money.
  231.      1b      John gave to the fund the Ramadan bake sale money.
  232.  
  233. This is seen in the "donate" sentences as well:
  234.  
  235.      2b' ?John donated to the fund the money.
  236.      2b   John donated to the fund the Ramadan bake sale money.
  237.  
  238. The fronting of the second argument of "give" (with its argument-
  239. indicator "to") is motivated by its length with its modifiers in (2b),
  240. but there is no such motivation in (2b').
  241.  
  242. Control for minimizing the distance between operators and their
  243. arguments is presumably universal, but to say it was a property of
  244. Universal Grammar would be fatuous.  It is surely a universal property
  245. of control systems that are controlling for sequences that may be
  246. interrupted by other controlled sequences.  So likewise, I believe, many
  247. other claims for UG are really claims for the universality of control.
  248.  
  249. (Bill Powers (921024.0830) ) --
  250.  
  251. > Avery Andrews (921024.1519) --
  252.  
  253. > >So the non-occurrence of the second (a piece of `negative
  254. > >evidence') becomes accessible to the learning system.
  255.  
  256. > Control theory handles the non-occurrance in terms of a reference
  257. > signal that demands the occurrance. When there is a reference signal
  258. > spcifying that some perception occur, then as soon as the reference
  259. > signal is set there is an error, which persists until the perception
  260. > occurs. In this case it is not occurrance of the sentence that
  261. > matters, but of the meaning.
  262.  
  263. Maybe you've sorted it out by now.  You and Avery were operating at
  264. right angles to each other throughout much of this exchange.  In this
  265. instance, "non-occurrence" meant for Avery a starred example--something
  266. marked as not acceptable or not occurring in acceptable usage, or
  267. perhaps (by the reification that is normal in Generativist literature)
  268. not occurring in the grammar.  At issue above is the question who if
  269. anyone other than the linguist has a reference signal for such a thing
  270. occurring; and it is not the meaning of the sentence that matters, but
  271. whether or not you can express the given meaning in that particular way.
  272.  
  273. (Avery Andrews (921024.1519) ) --
  274.  
  275. >A further prediction is that the kind of optionality above will be
  276. >an inherently unstable feature of languages:  if two such forms are
  277. >used with no discernable difference in meaning, the language-
  278. >acquisition systems of the speakers will be constantly reorganizing
  279. >without being able to find an error-free configuration, &
  280. >presumably at some point one of the forms will other drop out, or
  281. >they will acquire subtly different meanings
  282.  
  283. Something like this was advanced by Kurylowicz, re the classic
  284. observation that "doublets" (specifically an inherited but "irregular"
  285. form alongside the form used by an innovating group, not necessarily a
  286. younger generation, that used analogy to create a more "regular" form)
  287. tend to become differentiated semantically.  I think this is part of a
  288. more general process whereby distinctions tend to be exploited as
  289. differences that make a difference, or else are no longer maintained.
  290. But this is a *social* process (i.e. ongoing negotiation of agreements
  291. about what a given distinction either constitutes or means).  Your
  292. formulation here does not differentiate between this social process and
  293. the processes of individual language learners, hence Bill's inference:
  294.  
  295. >The implication is that the mature speaker will come to express the
  296. >same meanings in the same words all of the time, never paraphrasing or
  297. >varying the wording. I'm not sure you would want to maintain that.
  298.  
  299. What prevents rapid closure, smoothing out all the bumps and ripples in
  300. the process of learning a language, is precisely the fact that it is not
  301. a process that any one person can carry out in isolation, but rather a
  302. social negotiation of agreements, and the prior commitments and
  303. motivations of the participants are not necessarily commensurate with
  304. each other.  Pronouncing "bird" as "boyd" constitutes a token of
  305. membership in a community that talks that way, and presenting oneself to
  306. others by using an ensemble of such tokens means different things to
  307. different people, and on different occasions.  A person who can and does
  308. pronounce "bird" both ways may in fact be motivated NOT to smooth out
  309. the difference.  (Use one in Brooklyn, use the other in my job as a
  310. newscaster.)
  311.  
  312. As you say,
  313.  
  314. >if two such forms are
  315. >used with no discernable difference in meaning
  316.  
  317. But this is to say that they are used without ever experiencing error,
  318. no matter which is used.  You suggest that the availability of
  319. alternative ways A and B of expressing meaning M, where A and B are not
  320. distinguished from one another (no A-circumstance where it is an error
  321. to use B, and vice versa), is itself an occasion for error.  But this
  322. is a sort of meta-error, of a different logical type from the the first
  323. that you proposed, as I understand it:
  324.  
  325. 1. A person hears utterance x
  326. 2. The person's "comprehension system" comes up with meaning m.
  327. 3. The person's "production system" generates in imagination a set of
  328.    utterances U = {w, y, z}, where each member of U expresses meaning m.
  329. 4. The absence of utterance x from U is occasion of an error signal.
  330.  
  331. Apparently, the person guesses at the meaning m.  There must have been
  332. some basis for this guess--word choice, context, part of x is like part
  333. of w, part is like y, and so on.  It seems to me that what one typically
  334. does with this sort of error is to perceive the other person's utterance
  335. x as an error of production or reception or both, perhaps as a repair or
  336. a change of syntactic horses in mid-sentence, etc.  One's conversational
  337. response (or one's strategy as a listener or reader) includes heightened
  338. attention to those elements (words, word dependencies) about which one
  339. is less certain.  One attends also to some alternative meaning m', and
  340. its alternative utterance set {p, q, r} also generated in imagination in
  341. parallel.  One of these may suddenly pop up to most favored status.
  342. Socalled "garden path sentences" provide simple examples of this
  343. process: "The horse raced past the barn fell down".
  344.  
  345. In the meta-error case, the person wishes to express meaning m and finds
  346. that there are alternative ways {w, y, z} for expressing it.  If there
  347. is some motivation for choosing one rather than another, some difference
  348. that makes a difference to the person, then the choice is obvious and
  349. there is no error.  Commonly, it seems to me, the unthinking preference
  350. is a repetition of words or of a syntactic construction recently used in
  351. the same discourse (conversation, speech, text, etc.).  A more polished
  352. speaker may make a different choice with deliberate artifice, perhaps
  353. for emphasis or simply for variety.  Again, so long as there is a basis
  354. for choice, I don't see any occasion for error.
  355.  
  356. Error may occur for example when choice w vs. choice y constitutes a
  357. token of social membership (like the different pronunciations of
  358. "tomato," "neither," and "economics").  This is not a difference of
  359. meaning in the sense that Bill intends, I think.  (That's why I say it
  360. "constitutes" instead of "means" social membership.  It's performative,
  361. in the same sense that "I hereby declare this a disaster area", spoken
  362. by a duly empowered official, constitutes a change to the status that
  363. the phrase "disaster area" by itself means.)
  364.  
  365. You (Avery) had specifically in mind examples like (2a') and (2c'):
  366.  
  367.       2a'  John donated the money to the fund.
  368.       2c' ?John donated the fund the money.
  369.  
  370. You propose that just because the learner's "production system" at time
  371. t produces both of these indistinguishably to express a given meaning,
  372. then every time the learner hears (2a') an error signal results.  The
  373. language learner's response, you proposed, is to eliminate that error by
  374. reorganizing, specifically, by altering the production system so that it
  375. no longer produces (2c').
  376.  
  377. I think that a one-step elimination, analogous to marking (2c')  with an
  378. asterisk (or question mark), will not do.  Such a mechanism must surely
  379. function to eliminate production of (1a') every time the learner hears
  380. (1c') and to eliminate production of (1c') every time the learner hears
  381. (1a'):
  382.  
  383.       1a'  John gave the money to the fund.
  384.       1c'  John gave the fund the money.
  385.  
  386. Instead, perhaps there is an incremental change in the expectability of
  387. one form or another.  Since there may be three or four or more
  388. alternative forms in some cases, the best move it would seem to me is in
  389. the opposite direction: to *raise* the expectability of the form that
  390. actually occurs, rather than lowering that of the ones that do not
  391. occur.  But no error signal is needed for this, and no reorganization.
  392.  
  393. In fact, I see no obvious reason to suppose that a construction such as
  394. (2c') could not hang around for the life of the language learner--one of
  395. many constructions predicted on analogy to forms that the learner has
  396. heard ("predicted by the rules of the grammar" in the customary
  397. hypostasis), but not itself actually encountered.  I think that it would
  398. be untenable to claim otherwise in the face of language novelty,
  399. language change, and our capacity for understanding the meaning of
  400. utterances across dialect variation, non-native usage, speaker error,
  401. difficulties of hearing, and so on.
  402.  
  403. This interpretation accords with the fact that the acceptability of
  404. sentences is not a binary, yes/no property, but rather a graded
  405. property, and probably complexly so (that is, on more than one graded
  406. parameter in parallel, e.g. differentiated by subject-matter domain for
  407. starters).
  408.  
  409. So I think there are other ways of showing that language acquisition,
  410. like all control processes, is guided by perceptual error ("negative
  411. evidence"), and that the alternatives are not limited to your proposal
  412. and GB.
  413.  
  414. -=+=-=+=-=+=-=+=-=+=-=+=-=+=-=+=-=+=-=+=-=+=-=+=-=+=-=+=-=+=-=+=-=+=-=+=-
  415.  
  416. (Bill Powers (921025.1900) ) --
  417.  
  418. >                              desired
  419. >                              meaning (nonverbal perception)
  420. >                                |
  421. >           perceived meaning-->COMP-------error --->
  422. >                |                                   |
  423. >                |                                   |
  424. >          input function                       output function
  425. >            |  |  |  |                           | | |  |
  426. >            sentences                         sentence-variations
  427. >               |                                     |
  428. >                <---Imagination or real words <-----
  429.  
  430. > Going up the left side, you perceive sentences, which then give rise
  431. > through some sort of input function to perceived meanings. The
  432. > perceived meanings (which are not in words, but in terms of
  433. > perceptions of the things that the words mean) are compared directly
  434. > with the desired meanings. The error acts through an output function
  435. > to vary the construction of sentences. These are the sentences that
  436. > are perceived, closing the loop.
  437.  
  438. This diagram makes the point about arriving at outputs by continuous
  439. control of perception rather than by top-down realization of some sort
  440. of archetype.  The actual flow of control is probably quite different.
  441.  
  442. Penni asks (penni sibun 921026):
  443.  
  444. >where are the symbol structures coming from?  why are any necessary?
  445. >what does meaning have to do with anything?  why can't speech actions
  446. >be just like other actions, which presumably aren't mediated by
  447. >``meaning''?
  448.  
  449. I would suggest that all perceptions "have" meaning, that is, any given
  450. perception is linked in associative memory to other perceptions.  I'm
  451. not sure precisely what you (penni) mean by the phrase "mediated by
  452. meaning".  Let me lay out a bit of what I think is going on.
  453.  
  454. Even before we consider meanings, language perceptions involve most of
  455. the proposed levels of the perceptual hierarchy, if not all.  Phonology
  456. alone runs from intensity level up to at least the event level, possibly
  457. the program and even principle levels if some ways of doing phonology
  458. survive the eventual PCT shakeout.  Morphemes and words are event
  459. perceptions in Bill's usual estimate of things.  (Bill: Is this
  460. problematic if syllables or semisyllables turn out to be events?  If so,
  461. word events would be constituted of syllable events.)
  462.  
  463. Nonverbal perceptions obviously involve all the proposed levels of the
  464. hierarchy, independently and in parallel to these language perceptions.
  465.  
  466. Event-level word perceptions are linked with nonverbal perceptions.
  467. Bill has suggested that the input of a category perception ECS can be
  468. satisfied by various nonverbal perceptions (glimpse wagging tail,
  469. barking sound ==> dog) or by a word ("dog") or both.  I have suggested
  470. that the link is in associative memory, and that it is not a simple 1-1
  471. correlation of words and categories.
  472.  
  473.     Nonverbal Perceptions           Word Events
  474.  
  475.     P1 P1' P1"              <---->      W1
  476.        P1' P16 P17          <---->      W2
  477.     P2 P3 P4 P5
  478.     P6 P6' P6"              <---->      W6
  479.     P7 P8 P9 P10 P11 P12
  480.     P13 P13' P13"           <---->      W13
  481.     P14 P15 . . .
  482.  
  483. Here, I represent word W1 as evoking perceptions P1, P1', and P1", word
  484. W2 evoking perceptions P1', P16, and P17, and so on.  This sort of
  485. partial overlapping and intersecting is typical of word meanings.
  486. ("Dog" links through one sort of perception back out to the word "hound"
  487. and through another sort of (sexist) perception back out to "broad."
  488. Each of these words evokes other perceptions, which in turn have yet
  489. other words associated with them.)  Conversely, perception P1' evokes
  490. both word W1 and word W2.
  491.  
  492. Now suppose I want to communicate perception P1' to someone.  I can pick
  493. either word W1 or word W2 (in our simplified universe here).  My choice
  494. might be determined in part by extraneous perceptions associated with
  495. one word but not the other.  As Penni and Avery have suggested, my
  496. choice is constrained by considerations that apply to the words qua
  497. words with respect to other words already spoken or planned to be
  498. spoken.
  499.  
  500. Among these considerations are the operator status of the word, the
  501. other words it requires as arguments.  Bill argues that these factors
  502. are determined by the perceptions (meanings) associated with the words:
  503. You can't have a "jump" perception without a perception of a thing
  504. jumping.  Against this is the proposition that there are only certain
  505. kinds of perceptions that you can talk about, namely, those provided for
  506. in your language and culture.  (You can talk about more inchoate
  507. perceptions, but only with difficulty, and with far less assurance of
  508. being understood.)
  509.  
  510. Also among these considerations are the reductions available when the
  511. word enters on its arguments.  This is determined largely by convention.
  512. Some redundancy allowing for reduction is determined by universal
  513. criteria such as word repetition, but as we saw earlier with respect to
  514. the "give" and "donate" lists of verbs some of it is learned convention,
  515. differing from one language to another, with a determinable history, and
  516. with many regular correspondences among the different languages spoken
  517. by people whose ancestors once spoke the same language.  One learns
  518. these idiosyncrasies and controls one's perceptions of one's behavioral
  519. outputs for conformity to them, for the sake of constituting one's
  520. membership in one social group or another.
  521.  
  522. >                              desired
  523. >                              meaning (nonverbal perception)
  524. >                                |
  525. >           perceived meaning-->COMP-------error --->
  526. >                |                                   |
  527. >                |                                   |
  528. >          input function                       output function
  529. >            |  |  |  |                           | | |  |
  530. >            sentences                         sentence-variations
  531. >               |                                     |
  532. >                <---Imagination or real words <-----
  533.  
  534. In this loop, you have to understand that the meanings are not on a
  535. higher level of the perceptual control hierarchy, they are in parallel
  536. nonverbal parts of the hierarchy.  The labels "input function" and
  537. "output function" conceal a great deal of complexity controlling for
  538. words as event perceptions, operator-argument dependencies, reductions,
  539. and "style" perceptions of many sorts (ranging from "that's a cliche" to
  540. "what kind of person talks this way").  And as Martin emphasizes, the
  541. "desired meaning" component probably equates to one's perception of
  542. the audience "getting it," in imagination or in the environment.
  543.  
  544. I'm sorry, I can't seem to do any better than that just now, and I see
  545. by my date stamp that it has taken me all week to get even this far.
  546. Maybe I can do better next week.
  547.  
  548. -=+=-=+=-=+=-=+=-=+=-=+=-=+=-=+=-=+=-=+=-=+=-=+=-=+=-=+=-=+=-=+=-=+=-=+=-
  549.  
  550. This is what I started with, but I'm putting it last as being of least
  551. interest to non-linguists.
  552.  
  553. (Avery Andrews 920211.1049) --
  554.  
  555. The terms S, NP, `noun phrase', and `clause', and the familiar tree
  556. structures (and rewrite rules, labelled bracketings, etc.) are elements
  557. of certain systems for describing language, based upon phrase-structure
  558. grammar.  Insofar as they are not elements of other systems for
  559. describing language, and absent any demonstration that the
  560. phrase-structure systems are "correct" and the other systems are
  561. "incorrect" with respect to the status of these elements, it seems that
  562. these things are not elements of language.
  563.  
  564. In operator grammar, these seeming elements are seen to be byproducts of
  565. relations and processes involving simpler elements.  Most perspectives
  566. agree that these simpler elements--e.g. words, morphemes, sequences of
  567. them-- are elements of language.  The relations are relations of word
  568. dependency (and word classes based on these dependencies), and the
  569. processes involve assertion ("predication") plus reduction of the
  570. actually pronounced form of a word when the gain on control for its
  571. being pronounced is reduced.  The two perspectives are in general
  572. agreement about much of this, though their ways of talking about it
  573. differ.
  574.  
  575. There are other ways of describing language that see S, NP, etc. and as
  576. byproducts of the simpler elements and relations that they do
  577. countenance.  However, these other systems are like the familiar
  578. phrase-structure-based systems in that they, too postulate ancillary
  579. metagrammatical elements and relations as somehow basic.
  580.  
  581. Harris's aim was a "least grammar", since any additional objects and
  582. relations can only obscure the objects and relations by which language
  583. "carries" information.
  584.  
  585.     Bruce
  586.     bn@bbn.com
  587.