home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / bit / listserv / csgl / 2307 < prev    next >
Encoding:
Text File  |  1993-01-28  |  4.8 KB  |  103 lines

  1. Comments: Gated by NETNEWS@AUVM.AMERICAN.EDU
  2. Path: sparky!uunet!uvaarpa!darwin.sura.net!bogus.sura.net!howland.reston.ans.net!paladin.american.edu!auvm!VAXF.COLORADO.EDU!POWERS_W
  3. Return-Path: <@VMD.CSO.UIUC.EDU:POWERS_W%FLC@VAXF.Colorado.EDU>
  4. X-Envelope-to: CSG-L@vmd.cso.uiuc.edu
  5. X-VMS-To: @CSG
  6. MIME-version: 1.0
  7. Content-transfer-encoding: 7BIT
  8. Message-ID: <01GTZSQT7J5U0000EP@VAXF.COLORADO.EDU>
  9. Newsgroups: bit.listserv.csg-l
  10. Date:         Wed, 27 Jan 1993 00:32:57 -0700
  11. Sender:       "Control Systems Group Network (CSGnet)" <CSG-L@UIUCVMD.BITNET>
  12. From:         "William T. Powers" <POWERS_W%FLC@VAXF.COLORADO.EDU>
  13. Subject:      Language analysis as control process
  14. Lines: 87
  15.  
  16. [From Bill Powers (930126.2345)]
  17.  
  18. Avery Andrews (930127.1000)
  19.  
  20. >As for linguistics, what the grammars are supposed to do is
  21. >define a set of constraints, to which others can be added.
  22. >What these constraints do is give you a limited number of OK
  23. >pairings of overt strings (utterances) and semantic structures.
  24. >Then there can be additional constraints added, such that the
  25. >structure be one involving a certain overt string (that's
  26. >parsing) or semantic structure (that's production).
  27.  
  28. The key words here are SUCH THAT.
  29.  
  30. The constraints, if I understand you, are contained in the
  31. structure of notations like NP and VP and so on connected by
  32. lines showing dependencies (or whatever you call them). This
  33. structure certainly does not by itself suggest any particular
  34. sentences, does it? That is, you can't look at such a structure
  35. and be reminded that you forgot to stop off and buy some dog food
  36. on the way home.
  37.  
  38. You can, however, parse, meaning that given any specific
  39. sentence, there are manipulations or rules by which you can
  40. derive the diagram showing the formal classes to which various
  41. components of the sentence belong. Any one diagram would be valid
  42. for a great number of different sentences, so starting with the
  43. diagram you can't deduce which valid sentence is represented.
  44. Going from general diagram to specific sentences you have a
  45. divergent tree.
  46.  
  47. Going in the other direction, however, you have a convergent
  48. process; ideally any sentence will lead to a unique diagram of
  49. it, and a whole set of sentences will lead to the same diagram
  50. while other sets will lead to different diagrams (many of them
  51. unacceptable, like VP -> VP).
  52.  
  53. What I'm trying to suggest is that we view the diagrams (or the
  54. relationships represented by the diagrams) as a higher level of
  55. perception, and specific sentences as a lower level. The higher-
  56. level perception is a function of lower-level perceptions. The
  57. function is the process by which you derive the diagram from a
  58. specific sentence. It's a true function, in that multiple inputs
  59. lead to a unique output. If a particular input is among one set
  60. of sentences, the output is one diagram; if it's among another
  61. set, the output is a different diagram.
  62.  
  63. If this is how it works, you can now construct a sentence that
  64. fits a given reference-diagram. If I say "Give me an example of
  65. the form VP -> NP," you can certain think up endless examples.
  66. That's the closed-loop process: generating strings of words SUCH
  67. THAT they would be perceived, at the higher level, as VP -> NP.
  68. With no other constraints on the sentences, there could be a very
  69. large number of valid examples.
  70.  
  71. What this suggests to me is that you can take one of those
  72. diagrams with the VP--NP stuff at the top level and specific
  73. words at the bottom level, and simply reverse all the arrows so
  74. you begin with the bottom level and arrive at the top: the top
  75. level is the output, not the input.
  76.  
  77. Doing it this way, you start with the bottom level, derive the
  78. top-level structure, compare that structure with the intended
  79. structure, and on the basis of the error, reach down and around
  80. and adjust the bottom level words and look at the new top level
  81. that results, and keep doing this until you have the structure
  82. you intended. This would be my explanation of how, given a target
  83. structure, you can come up with a specific set of words in a
  84. specific arrangement that will indeed be an example of the
  85. desired structure. It will not be the ONLY such set of words, but
  86. that was not the task: the task was to come up with AN example,
  87. and this process will accomplish that.
  88.  
  89. I suspect that if you looked at the code of your parser and the
  90. way you use the lexicon, you will find all sorts of tests which
  91. amount to comparisons of inputs with reference conditions to see
  92. if the inputs satisfy some criterion. That would clearly be part
  93. of a closed-loop process, particularly if the process involves
  94. scanning through the available components to find those that meet
  95. the criteria. The scanning process is running inputs past a
  96. perceiver and the result is compared with the reference
  97. condition: when the error is zero, the scanning stops. Doesn't
  98. something like this happen in your program?
  99.  
  100. Guessing,
  101.  
  102. Bill P.
  103.