home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #1 / NN_1993_1.iso / spool / bit / listserv / csgl / 2112 < prev    next >
Encoding:
Text File  |  1993-01-11  |  11.1 KB  |  205 lines

  1. Comments: Gated by NETNEWS@AUVM.AMERICAN.EDU
  2. Path: sparky!uunet!zaphod.mps.ohio-state.edu!howland.reston.ans.net!paladin.american.edu!auvm!BEN.DCIEM.DND.CA!MMT
  3. Return-Path: <@VMD.CSO.UIUC.EDU:mmt@ben.dciem.dnd.ca>
  4. Message-ID: <9301111950.AA16705@chroma.dciem.dnd.ca>
  5. Newsgroups: bit.listserv.csg-l
  6. Date:         Mon, 11 Jan 1993 14:50:57 EST
  7. Sender:       "Control Systems Group Network (CSGnet)" <CSG-L@UIUCVMD.BITNET>
  8. From:         mmt@BEN.DCIEM.DND.CA
  9. Subject:      cross-post from A-LIFE via CYBSYS-L
  10. Lines: 193
  11.  
  12. [Martin Taylor 930111 14:45]
  13.  
  14. Here is a description of the meeting "Simulation of Adaptive Behaviour 92".
  15.  
  16. CSG-L readers may be particularly interested in the comments on the paper
  17. by Klopf, at the end of the highlights section.
  18. ---------------------
  19.  
  20. Dear ALifers,
  21.                 Here is a report on the recent SAB92 conference in Hawaii.
  22. Hope you can use it in your ALife email network.
  23.  
  24. Cheers,
  25.         Hugo de Garis.
  26.  
  27.                              SAB92 Report
  28.  
  29. Simulation of Adaptive Behavior SAB92 Conference, Hawaii, 7-11 Dec 1992.
  30.  
  31.                                   by
  32.  
  33.                             Hugo de Garis
  34.  
  35.                       Electrotechnical Lab (ETL)
  36.                                 Japan
  37.  
  38.  
  39. Its hard to imagine a more beautiful setting for a conference than Hawaii.
  40. As a postcard put it that I bought (showing moonlight reflecting off the water
  41. silouetted by palm trees) "Just another ho hum day in paradise : Hawaii".
  42. For many of us who attended this second SAB conference, it was our first visit
  43. to Hawaii, so the 12 am to 4 pm "siesta" period was most welcome. However, the
  44. beauty of the surroundings was offset by the distance to be travelled, hence
  45. numbers were down (100 people, half of whom were presenters) and nearly all
  46. were jet lagged, so the the first day or two were viewed through a mental
  47. fog.
  48.  
  49. The first SAB conference was held in Paris in Dec 1990 where the dominant
  50. theme seemed to be how ethologists and roboticists could help each other in
  51. elucidating the secrets of behavioral mechanisms. Biologists were noticably
  52. absent at this second SAB conference, dominated by computer and engineering
  53. types. This is probably to be expected as the field matures. The conference had
  54. a feel of "more of the same" rather than of the excitement of the
  55.  "qualitativelynew" of the first conference. I guess you have to be a Chris
  56.  Langton to be able
  57. to make successive conferences exciting. Still, one came away with the
  58. impression that some solid progress had been made since the Paris conference.
  59. The most impressive example is the appearance of a new MIT Press journal,
  60. "Adaptive Behavior", edited by the Frenchman, Jean-Arcady Meyer. Jean-Arcady
  61. and future SAB conference organizers now face the difficult task of defining
  62. a niche for the field which is narrow enough to distinguish itself from
  63. the highly overlapping fields of Neural Networks, Genetic Algorithms,
  64. Artificial Life, Parallel Problem Solving from Nature (PPSN), Robotics, etc
  65. yet not be so narrow that the field becomes overdefined and stagnates.
  66.  
  67. Roughly 40 oral and 20 poster papers were presented, with the following
  68. themes.
  69.  
  70. The Animat Approach to Adaptive Behavior.
  71. Perception and Motor Control.
  72. Action Selection and Behavioral Sequences.
  73. Cognitive Maps and Internal World Models.
  74. Learning.
  75. Evolution.
  76. Collective Behavior.
  77.  
  78. Highlights were (according to my own subjective view and that of one of the
  79. organizers) :-
  80.  
  81. Pattie Maes's talk on "Behavior Based Artificial Intelligence" (the
  82. first talk of the conference) which made the point that behavior based
  83. thinking should be extended beyond robotics to AI in general, but was
  84. more a statement of intent than of concrete results. Pattie's
  85. productivity seems to have dropped since she became an assistant prof
  86. at MIT. Its a pity that Europe and the US do not give enough "research
  87. only" positions to its best researchers. If the West doesnt watch out,
  88. it will lose its best to Japan, which has more sense that way by
  89. creating many positions with no teaching load.  Quoting Pattie's
  90. abstract - "This paper attempts to define Behavior-Based Artificial
  91. Intelligence (AI) as a new approach to the study of intelligence.  It
  92. distinguishes this approach from the traditional knowledge based
  93. approach in terms of the questions studied, the solutions adopted and
  94. the criteria used for success. It does not limit behavior based AI to
  95. the study of robots but rather presents it as a general approach for
  96. building autonomous systems that have to deal with multiple, changing
  97. goals in a dynamic, unpredictable environment".
  98.  
  99. Mark Ring's (Univ. of Texas) paper "Two Methods for Hierarachy Learning in
  100. Reinforcement Environments". His abstract read - "This paper describes two
  101. methods for hierarchically organizing temporal behaviors. The first is more
  102. intuitive : grouping together common sequences of events into single units
  103. so that they may be treated as individual behaviors. This system immediately
  104. encounters problems however, because the units are binary, meaning
  105. the behaviors must execute completely or not at all, and this hinders the
  106. construction of good algorithms. The system also runs into difficulty when
  107. more than one unit is (or should be) active at the same time. The second system
  108. is a hierarchy of transition values. This hierarchy dynamically modifies the
  109. values that specify the degree to which one unit should follow another. These
  110. values are continuous, allowing the use of gradient descent during learning.
  111. Furthermore, many units are active at the same time as part of the system's
  112. normal functioning".
  113.  
  114. Michael Littman's (Bellcore, CMU) paper "An Optimization-based Categorization
  115. of Reinforcement Learning". Abstract - "This paper proposes a categorization
  116. of reinforcement learning environments based on the optimization of a
  117. reinforcement signal over time. Environments are classified by the simplest
  118. agent that can possibly achieve optimal reinforcement. Two parameters, h and
  119. beta, abstractly characterize the complexity of an agent: the ideal (h, beta)-
  120. agent uses the input information provided by the environment and at most h bits
  121. of local storage to choose an action that maximises the discounted sum of the
  122. next beta reinforcements. In an (h, beta)-environment, an ideal (h, beta)-agent
  123. achieves the maximum possible expected reinforcement for that environment. The
  124. paper discusses the special cases when either h = 0 or beta = 1 in detail,
  125. describes some theoretical bounds on h and beta and re explores a well known
  126. reinforcement learning environment with this new notation".
  127.  
  128. Jing Peng's and Ronald William's (Northeastern Univ) paper "Efficient Learning
  129. and Planning within the Dyna Framework". Abstract -
  130. "Sutton's Dyna framework provides a novel and computationally appealing way to
  131. integrate learning, planning and reacting in autonomous agents. Examined here
  132. is a class of strategies designed to enhance the learning and planning power
  133. of Dyna systems by increasing their computational efficiency. The benefit of
  134. using these strategies is demonstrated on some simple abstract learning tasks".
  135.  
  136. Dave Cliff's et al (Sussex) paper "Evolving Visually Guided Robots" appealed
  137. most strongly to me, because it used (evolved) neural networks to control
  138. robots (my own line of work). Dave evolved a neural network which took visual
  139. input to control the motion of a robot. His abstract was too long to quote.
  140.  
  141. Hitoshi Iba (a colleague at ETL) presented a paper called "Evolutionary Learning
  142. of Predatory Behaviors Based on Structured Classifiers". Iba san has done some
  143. innovative work in extending Koza's Genetic Programming Paradigm (i.e.
  144. evolving tree structured Lisp programs) into Holland's Classifier Systems,
  145. and applying the results to the optimization of animal foraging strategies.
  146.  
  147. Geoffrey Miller's (Stanford) and Peter Todd's (Rowland Inst) paper
  148.  "EvolutionaryInteractions among Mate Choice, Speciation, and Runaway Sexual
  149.  Selection".
  150. This paper explored the effects of different mate choice mechanisms and modes
  151. of speciation on the dynamics of runaway sexual selection. Geoffrey showed how
  152. sexual selection could cause fitness levels to deviate from optimal values.
  153.  
  154. Long-Ji Lin's and Tom Mitchell's (CMU) paper "Reinforcement Learning with
  155. Hidden States". Abstract - "Reinforcement learning is an unsupervised learning
  156. technique for sequential decision making. Q-learning is a widely used
  157. reinforcement learning method. The convergence of Q-learning relies on the
  158. Markovian environment assumption, meaning that any information needed to
  159. determine the optimal action is reflected in the agents state representation.
  160. If some important state features are missing (or hidden) from the state
  161. representation, the true world states cannot be directly identified and optimal
  162. decisions cannot be made based on this state representation. This problem is
  163. known as the hidden state problem. A possible solution to the problem is to use
  164. history information to help uncover the hidden features. This paper studies
  165. 3 reinforcemnt learning architectures that learn to use history to handle
  166.  hiddenstates: window-Q, recurrent-Q, and recurrent model. Empirical study of
  167.  these
  168. architectures is presented. Their relative strengths and weaknesses are also
  169. discussed."
  170.  
  171. Harry Klopf's (Wright Lab) "Modelling Nervous System Function with a
  172. Hierarchical Network of Control Systems that Learn". (Part of) Abstract -
  173. "A computational model of nervous system function during classical and
  174. instrumental conditioning is proposed. The model assumes the form of a
  175. hierarchical network of control systems. Each control system is capable of
  176. learning and is referred to as an associative control process (ACP). Learning
  177. systems consisting of ACP networks, employing the drive reinforcement learning
  178. mechanism (Klopf 1988) and engaging in real time, closed loop, goal seeking
  179. interactions with environments, are capable of being classically and
  180. instrumentally conditioned, as demonstrated by means of computer simulations".
  181. This paper felt important, and that it made more than the usual incremental
  182. contribution to the field. Klopf's neural network hierarchies actually LEARN.
  183. If there had been a best paper award, my vote would have gone to Klopf.
  184.  
  185.                       ***   End of Highlights   ***
  186.  
  187.  
  188. Now for the down side. I found it most annoying that there was no proceedings
  189. ready at the conference. This was a point discussed in the feedback session
  190. on the second last day. The organizers said they would try to remedy this fault
  191. at SAB94 (which will be held very probably in the first week of August, at
  192. the University of Sussex, Brighton, England). There seems to be a growing
  193. tendency for conference organizers not to bother having a proceedings ready in
  194. time for the conference. The worst offender in this regard, is Chris Langton,
  195. who manages to come out with a book, a year after the conference, and worse,
  196. half of the oral papers do not even appear in the book, so these poor guys
  197. dont even get published. I would like to go on record as stating that
  198. conference organizers who do not bother having a proceedings in time for
  199. their conferences, should be BOILED IN OIL. (The SAB92 proceedings will be
  200. published by MIT Press and should appear in the spring of 93).
  201.  
  202.               See you at SAB94 in Brighton, England.
  203.  
  204.                            Hugo de Garis.
  205.