home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / ont / events / 647 < prev    next >
Encoding:
Internet Message Format  |  1993-01-28  |  3.1 KB

  1. Path: sparky!uunet!spool.mu.edu!howland.reston.ans.net!news.ans.net!rpi!utcsri!relay.cs.toronto.edu!neat.cs.toronto.edu!cs.toronto.edu!veronica
  2. Newsgroups: ont.events,ut.dcs.seminars,ut.dcs.ai
  3. From: veronica@cs.toronto.edu (Veronica Archibald)
  4. Subject: Radford M. Neal, 11 February 1993: AI
  5. Message-ID: <93Jan28.124527est.47715@neat.cs.toronto.edu>
  6. Date: 28 Jan 93 17:46:02 GMT
  7. Lines: 52
  8.  
  9.  
  10.            Department of Computer Science, University of Toronto
  11.               (GB = Galbraith Building, 35 St. George Street)
  12.  
  13.        -------------------------------------------------------------
  14.  
  15.                                     AI
  16.                   GB221, at 11:00 a.m., 11 February 1993
  17.  
  18.                               Radford M. Neal
  19.            Department of Computer Science, University of Toronto
  20.  
  21.       " Learning Concepts with Hierarchical Latent Variable Models "
  22.  
  23.     To make sense of the world, we must learn how to describe the multitude
  24.     of things we sense using concepts that capture the underlying
  25.     structure that is present.  Often, we must do this in an unsupervised
  26.     fashion, without any external guidance as to what concepts are
  27.     appropriate.  Understanding and automating this process are major
  28.     challenges for AI.
  29.  
  30.     In scientific investigations, exploratory data analysis has a similar
  31.     aim, and has long been tackled using semi-automatic methods.  One
  32.     approach used explains the relationships among a number of independent
  33.     items by postulating unobservable "latent variables", associated with
  34.     each item, that determine the distributions for the observed
  35.     attributes.  The simplest such models employ a single, discrete "latent
  36.     class" variable.  Many of the similarities between individual animals
  37.     can be explained by the concept of a "species", for example.
  38.  
  39.     I will briefly describe work I have done on Bayesian latent class
  40.     analysis, which includes a radical approach to the vexing problem of
  41.     determining the appropriate number of latent classes.  I also describe
  42.     work on learning more general latent variable models expressed using
  43.     "belief networks", in which an item can be in more than one "class".
  44.     To explain the symptoms of patients in terms of underlying diseases,
  45.     for example, one must allow for the possibility that the patient has
  46.     more than one disease.
  47.  
  48.     Mostly, however, I will discuss a hierarchical generalization of
  49.     latent class models, in which similarities in the descriptions of
  50.     the various classes are expressed in terms of classes at a higher
  51.     level.  The practice in biology of grouping several species into
  52.     a "genus", several genera into a "family", etc. is an example of
  53.     such a model.  High-level classes can be defined in terms not only
  54.     of concrete similarities, but also on the basis of more abstract
  55.     characteristics, such as which attributes distinguish between the
  56.     low-level classes, and which are irrelevant.  Consequently, rather
  57.     than merely providing a coarser level of interpretation, such a
  58.     high-level class structure can also bias the construction of low-level
  59.     classes in favour of those with a coherent high-level structure.
  60.  
  61.