home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #20 / NN_1992_20.iso / spool / alt / hypertex / 735 < prev    next >
Encoding:
Text File  |  1992-09-08  |  8.4 KB  |  162 lines

  1. Newsgroups: alt.hypertext
  2. Path: sparky!uunet!psinntp!wrldlnk!usenet
  3. From: "Ernest Perez" <demoep@psilink.com>
  4. Subject: Re: Interaction with a hypertext
  5. In-Reply-To: <1992Sep6.224648.3218@memstvx1.memst.edu>
  6. Message-ID: <2924988206.0.demoep@psilink.com>
  7. Sender: usenet@worldlink.com
  8. Nntp-Posting-Host: 127.0.0.1
  9. Organization: Access Information Assoc., Inc.
  10. Date: Mon, 7 Sep 1992 22:51:23 GMT
  11. X-Mailer: PSILink (3.2)
  12. Lines: 148
  13.  
  14. Some more comments about dynamic hypertext and hypertext structuring -
  15.  
  16. In his article, Mark C. Langston <langston@memstvx1.memst.edu>, writes...
  17. >* If the HT structure is theory-determined or research-determined (as
  18. >  opposed to just thrown together, a very poor way to develop links),
  19. >  a strong indexing/inference engine would need to be incorporated into
  20. >  the sytem to correctly link user annotations/additions.
  21.  
  22. Unfortunately, it would seem that a "strong indexing/inference engine" just
  23. ain't in the realm of reasonably current possibility. E.g., the library &
  24. information science profession spent a *lot* of research time and money on
  25. that approach in the 70's and 80s. Their studies covered knowledge
  26. representation, knowledge structure, and special focus upon systems for
  27. automated indexing or indexing assistance. Their findings generally showed
  28. that it was not yet possible to build a subjective text/language interpreter
  29. with any reliable performance or predictability. Study after study showed that
  30. the indexing/classification was not comparable in quality to that produced by
  31. human indexers ("harmless drudges," wrestling with knowledge, like Dr.
  32. Johnson's lexicographers).
  33.  
  34. [Writing about another topic writer implies recognition of the poverty of 
  35. these systems...]
  36. >the computational power
  37. >required approaches that of natural-language understanding systems, and, I
  38. >fear, would work about as well.
  39.  
  40.    Anyone really going into this area should really take a look at the writing
  41. of Cyril Cleverdon, Wilfred Lancaster, A.C. Foskett, Tefko Saracevic, Donald
  42. Cleveland, and that crowd.
  43.  
  44.    [As an aside here, I am writing from the viewpoint of a librarian
  45. and information science professional. That is, after all, the discipline that
  46. has historically concerned itself with "putting stuff away in such a manner
  47. that you can dependably find it again." Yes, like Vannevar Bush pointed out,
  48. they developed all kinds of arcane schemes and classifications, but remember
  49. that they have been dealing with the problem for centuries, heretofore
  50. hampered by manual methods and physical knowledge representations. Also, those
  51. schemes *were* mostly standardized or community property conventions, just
  52. like ASCII and ISO.]
  53.  
  54.  
  55. >HT's in general are developed 'off-the-
  56. >cuff', with no empirical or theoretical basis (correct me if I'm wrong, it
  57. >would be welcome news).  If one assumes that the HT does have empirical/
  58. >theoretical foundations for links, a sensible approach would be the knowledge
  59. >annealing system addressed in a previous post.  However, one would hope that
  60. >the system could be more automated, and not require current updating by a
  61. >moderator.
  62.  
  63. I believe that the "in general" off-the-cuff development of HTs, is a pretty
  64. sloppy approach. It is sadly representative of an amateurish approach to
  65. the small systems that most HT and hypermedia researchers have produced
  66. or studied. I am not putting down their work, but they are approaching it: 1)
  67. with no real knowledge of classification or knowledge representation; and 2)
  68. pretty much dealing with dime store/economy-size knowledge or content
  69. collections.
  70.      Liora Alschuler wrote about the conversion of the Hypertext '87
  71. proceedings into three different hypertext systems, done by the developers of
  72. the systems themselves. ("Hand-crafted hypertext -- lessons from the ACM
  73. experiment," in _The Society of Text..._, 1989. ed. by Edward Barrett. p.
  74. 342-361) Alschuler noted: the inconsistency of implementation, the poor
  75. indexing, the disorganization of index lists, and the team reports of extreme
  76. difficulty.  She reports after talking with one of the principals, 
  77. "By the end of the project, they were 'practically fabricating' 
  78. meaningful connections in order to install more links." (p.358)
  79.      Not surprising, from my point of view. Would we expect the editors of the
  80. _Encyclopedia Britannica_ to produce a good index? No, they hire professionals
  81. to act as colleagues for that part of the editorial creation.
  82.      At Hypertext '91, Frank Halasz updated his "Seven Issues" for HT research
  83. emphasis. Automated search and query concerns predictably topped the earlier
  84. list (the computer jock brute force approach) approach. But he also
  85. prominently mentioned structure problems, ergo humanly-decipherable content
  86. representation. In the new list of priorities, he voiced two totally new
  87. concerns in the area of macro-scaled HT systems. They were 1) "User Interfaces
  88. for Large Information Spaces; and 2) [methods for controlling] Very Large
  89. Hypertexts. His platform response to an audience question of "How big is
  90. large?" went something like, "I don't know...maybe 1000, even 2000 nodes."
  91.      To the librarian/indexer professionals in the audience, it was hard not
  92. to snicker too loud. :-)
  93.  
  94. "Serious" or "big" systems are in production. Many of these tend to use
  95. classification hierarchies or indexing systems as a base. For example:
  96.  
  97.    ** _Facts on File_ is a standard printed library reference tool. They have
  98. translated a 12-year cumulation of the product into a CD-ROM hypermedia,
  99. including photos, maps, audio clips, and (I believe) video clips. For easy
  100. pinpoint or specific retrieval, they have a search engine producing dynamic
  101. link lists. BUT, they also translated/incorporated all the human editorial and
  102. indexing cross-references by linking the internal printed cross-references,
  103. and the standard printed index. A user can backtrack from a given article, to
  104. the index entries for that page, and thus see a map to related topics.
  105.    *** _McGraw-Hill Encyclopedia of Science & Technology_ - Yeah, they use
  106. search, but again they build on the intellectual investment in print product
  107. access points.
  108.    *** _Oxford English Dictionary_ - Read Robert Glushko's articles, for a
  109. real project engineering approach to exploiting the intellectual and the print
  110. format information access points.
  111.    *** _DaTa_ (Deloitte & Touche's internal CD-ROM-hypertext on Accounting/
  112. Auditing professional area. From another "pre-planned" approach, they use a
  113. complex taxonomy network, maintained with MaxThink's network-outliner
  114. software. This sophisticated "classification scheme" lays the groundwork for
  115. presenting a topical matrix used to give access to about 200meg of hypertext.
  116. Updated quarterly *by one guy*, a CPA professional, no less!
  117.  
  118.      Do remember, that for a *long* time to come, the majority of electronic
  119. information systems are going to be byproducts, spin-offs, from print product
  120. publishing. You wouldn't have Chem Abstracts database without _Chemical
  121. Abstracts_; the _New York Times_ online without the _New York Times_. And
  122. print publishing information access tools are not "off-the-cuff"; there's 500
  123. years of heuristics of how-to-do-it-good.
  124.  
  125.  
  126. [In regard to large domains and user annotation...]
  127. >...this raises the question of computational explosion....
  128.  
  129. True, but it moreso raises the question of "cognitive explosion." However,
  130. in a *large* system (Chemical Abstracts, Engineering Index, MedLine) that's
  131. the breaks, Charlie. Even in your friendly local library online (card?)
  132. catalog, you've got three or four "links" to each of anywhere from 50,000 to a
  133. couple of million books/"nodes". The problem is ameliorated by human intent;
  134. at any one time I'm only interested in 3,5, maybe 15, of those nodes. Same
  135. comment applies to the mention of user annotation. Okay, they may grow, but
  136. they're -
  137.   * not all gonna be on the same screen;
  138.   * not all going to appear to be of beckoning interest to me;
  139.   * not there with some rule that I've *got* to follow every link (Just Say
  140. No) :-)
  141.  
  142.  
  143. I believe that for the foreseeable future, it's gonna take human
  144. hyper-editorial and hyper-building talent to produce quality hypermedia
  145. systems.  Yeah, there will be authoring and system-building utilities. But I
  146. don't think we're going to have a magical "automated moderator" of any real
  147. performance ability or quality.
  148.  
  149. Cheers,
  150. ernest
  151.  
  152. ..............................
  153. Ernest Perez, Ph.D
  154. Access Information Associates
  155. 2183 Buckingham, Suite 106
  156. Richardson TX 75081
  157. 214-530-4800
  158. INTERNET: eperez@utdallas.edu
  159.   BITNET: eperez@utdallas
  160. ..............................
  161.  
  162.