home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #26 / NN_1992_26.iso / spool / bit / listserv / csgl / 1391 < prev    next >
Encoding:
Text File  |  1992-11-06  |  3.4 KB  |  74 lines

  1. Comments: Gated by NETNEWS@AUVM.AMERICAN.EDU
  2. Path: sparky!uunet!news.gtech.com!noc.near.net!mars.caps.maine.edu!news.yale.edu!yale!gumby!destroyer!sol.ctr.columbia.edu!zaphod.mps.ohio-state.edu!darwin.sura.net!paladin.american.edu!auvm!PARC.XEROX.COM!SIBUN
  3. X-Delivery-Notice:  SMTP MAIL FROM does not correspond to sender.
  4. X-else-reply-to: sibun@parc.xerox.com
  5. Fake-Sender: sibun@parc.xerox.com
  6. Message-ID: <92Nov5.124237pst.29192@hmmm.parc.xerox.com>
  7. Newsgroups: bit.listserv.csg-l
  8. Date:         Thu, 5 Nov 1992 12:42:31 PST
  9. Sender:       "Control Systems Group Network (CSGnet)" <CSG-L@UIUCVMD.BITNET>
  10. From:         Penni Sibun <sibun@PARC.XEROX.COM>
  11. Subject:      Re: language
  12. In-Reply-To:  marken@aero.org's message of Wed,
  13.               4 Nov 1992 14:47:23 -0800 <92Nov4.163443pst.12160@alpha.xerox.com>
  14. Lines: 58
  15.  
  16. (penni sibun 921105.1300)
  17.  
  18.    [From Rick Marken (921104.1400)]
  19.  
  20.    penni sibun (921103.1600) on the relation between her model and pct model
  21.  
  22.    >i think the major difficulty in mapping bet. yr model and mine is the
  23.    >``intended meaning'' part.
  24.  
  25.    I agree -- intentions (reference signals) ARE the ONE BIG difference
  26.    between PCT and ALL other models of living systems.
  27.  
  28. nonsense.  intentions are one of the many banes of traditional ai.
  29.  
  30. re: below.  i can't make much sense of yr cryptic equations.  i don't
  31. think you answered my question.  i didn't ask whether you thought
  32. there were hidden loops in my model.  i asked how you could make a pct
  33. model that accounted for the same phenomena.  obviously, i believe
  34. that the phenomena my model captures are important.  i'd like to see
  35. how you think pct could account for the same process.  could you
  36. please try again?
  37.  
  38.    > this is a basic sketch of my model: i cast
  39.    >the issue as deciding what to say next.
  40.    > another way to characterize this might be 1) where are we in the
  41.    >linguistic structure (ws) and 2) where are we in the structure of
  42.    >``meaning(s)'' (?) we are talking about.
  43.  
  44.    In order to be able to answer these two questions, doesn't the model
  45.    have to be able to perceive the state of ws and "where we are in
  46.    the structure of meanings"? That is, 1) and 2) describe perceptual
  47.    variables, right?
  48.  
  49. sure.  that's not the issue.  i'm not interested in quibbling whether
  50. something is a perception or a perception of a perception.
  51.  
  52.    >  ignoring the rest of the
  53.    >context for the nonce, what is said next is determined both by 1) and
  54.    >by 2).  this implies that it is *not* the case that the ``meaning'' is
  55.    >selected and then the linguistic structure is found to fit it, and the
  56.    >next bit of language is produced.
  57.  
  58.    Your second sentence is not a correct description of the PCT model of
  59.    meaning generation as I described it in my diagram; the PCT mdoel
  60.    says that a linguistic structure (ws) is generated which moves perceived
  61.    meaning into a match with reference (selected or intended) meaning.
  62.    You say that 1) and 2) [the questions quoted avove] determine what is
  63.    said next. To me, it sounds like the perception of 1) where you are in
  64.    the linguistic structure (call this p.ws) and 2) where you are in the
  65.    structure of meanings (call this p.m) determines what you say next
  66.    (call this o). So, your model seems to be o = f(p.ws,p.m) -- definitely
  67.    not a control model. But you may have a control model without knowing
  68.    it; what you say next may be ws and m rather than o -- so (p,m) =
  69.    f(p.ws,p.m) AND (p.ws,p.m) = g(p,m) -- closed loop.
  70.  
  71. cheers.
  72.  
  73.                 --penni
  74.