home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / comp / ai / neuraln / 4338 < prev    next >
Encoding:
Internet Message Format  |  1992-11-21  |  28.7 KB

  1. Path: sparky!uunet!zaphod.mps.ohio-state.edu!cis.ohio-state.edu!ucbvax!CATTELL.PSYCH.UPENN.EDU!neuron-request
  2. From: neuron-request@CATTELL.PSYCH.UPENN.EDU ("Neuron-Digest Moderator")
  3. Newsgroups: comp.ai.neural-nets
  4. Subject: Neuron Digest V10 #20
  5. Message-ID: <5312.722376316@cattell.psych.upenn.edu>
  6. Date: 21 Nov 92 20:05:16 GMT
  7. Sender: daemon@ucbvax.BERKELEY.EDU
  8. Reply-To: "Neuron-Request" <neuron-request@cattell.psych.upenn.edu>
  9. Distribution: world
  10. Organization: University of Pennsylvania
  11. Lines: 684
  12.  
  13. Neuron Digest   Saturday, 21 Nov 1992
  14.                 Volume 10 : Issue 20
  15.  
  16. Today's Topics:
  17.                           workshop announcement
  18.                         Call for Papers, NNSP'93
  19.                          Call for Participation
  20.                    NIPS 92 Workshop on Training Issues
  21.                 Post-NIPS Robot Learning workshop program
  22.  
  23.  
  24. Send submissions, questions, address maintenance, and requests for old
  25. issues to "neuron-request@cattell.psych.upenn.edu". The ftp archives are
  26. available from cattell.psych.upenn.edu (130.91.68.31). Back issues
  27. requested by mail will eventually be sent, but may take a while.
  28.  
  29. ----------------------------------------------------------------------
  30.  
  31. Subject: workshop announcement
  32. From:    Joachim Beer <beer@ICSI.Berkeley.EDU>
  33. Date:    Tue, 03 Nov 92 10:47:35 -0800
  34.  
  35.  
  36.  
  37.  
  38.     ***************************************************
  39.     *  Workshop on Software & Programming Issues for  *
  40.     *       Connectionist Supercomputers              *
  41.     ***************************************************
  42.  
  43.                     April 19-20, 1993
  44.  
  45.                           at
  46.  
  47.         International Computer Science Institute (ICSI)
  48.                     1947 Center Street
  49.                     Berkeley, CA 94704
  50.  
  51.  
  52.                      Sponsored by:
  53.  
  54.                  Adaptive Solutions, Inc.
  55.                          ICSI
  56.                       Siemens AG
  57.  
  58. The goal of this workshop is to bring together connectionist researchers
  59. to address software and programming issues in the framework of large
  60. scale connectionist systems. Scope and technical theme of the workshop is
  61. outlined below.  Due to space considerations the workshop will be by
  62. invitation only. Interested parties are encouraged to submit a one-page
  63. proposal outlinig their work in this area by January 31.  Submissions
  64. should be send to ICSI at the address above or by e-mail to
  65. beer@icsi.berkeley.edu
  66.  
  67. The increased importance of ANNs for elucidating deep conceptual
  68. questions in artificial intelligence and their potential for attacking
  69. real world problems warrant the design and construction of connectionist
  70. supercomputers. Several research labs have undertaken to develop such
  71. machines. These machines will allow researchers to investigate and apply
  72. ANNs on a scale which up to now was not computationally feasible. As with
  73. other parallel hardware, the main problem is adequate software for
  74. connectionist supercomputers.
  75.  
  76. Most "solutions" offer isolated instances which deal only with a limited
  77. class of particular ANN algorithms rather than providing a comprehensive
  78. programming model for this new paradigm.  This approach was acceptable
  79. for small and structurally simple ANNs. However, to fully utilize the
  80. emerging connectionist supercomputers an expressive, clean, and flexible
  81. software environment is called for. This is being recognized by the
  82. developers of the connectionist supercomputers, and an intergral part of
  83. these projects is the development of an appropriate software environment.
  84. While each connectionist supercomputer project has unique goals and
  85. possibly a focus on particular application areas, it would nevertheless
  86. be very fruitful to compare how the fundamental software questions that
  87. everybody in this field faces are being approached.  The following
  88. (incomplete) list outlines some of the issues:
  89.  
  90.       * Embedding connectionist systems in traditional 
  91.         software environments, eg. client/server models
  92.         vs. integrated "seamless" environments.
  93.  
  94.       * ANN description languages
  95.  
  96.       * Handling of sparse and irregular nets
  97.  
  98.       * Facilities for mapping nets onto the underlying
  99.         architecture
  100.  
  101.       * Handling of complete applications including embedded
  102.         non-connectionist instructions
  103.  
  104.       * Should there be a machine independent intermediate
  105.         language? What would be the disadvantages?
  106.  
  107.       * Software issues for dedicated embedded ANNs vs.
  108.         "general purpose" connectionist supercomputers.
  109.  
  110.       * Graphical user interfaces for ANN systems
  111.  
  112.       * System support for high I/O rates (while this is
  113.         a general question in comp. sci. there are nevertheless
  114.         some unique problems for ANN systems in dealing
  115.         with large external data sets).
  116.  
  117.  
  118.  
  119.  
  120. ------------------------------
  121.  
  122. Subject: Call for Papers, NNSP'93
  123. From:    "Gary M. Kuhn" <gmk@osprey.siemens.com>
  124. Date:    Wed, 04 Nov 92 12:33:46 -0500
  125.  
  126.  
  127.                           CALL FOR PAPERS
  128.                           _______________
  129.  
  130.     1993 IEEE Workshop on Neural Networks for Signal Processing
  131.             September 7-9, 1993 Baltimore, MD, USA
  132.  
  133.     Sponsored by the IEEE Technical Committee on Neural Networks 
  134.        in cooperation with the IEEE Neural Networks Council 
  135.  
  136. The third of a series of IEEE workshops on Neural Networks for Signal
  137. Processing will be held at the Maritime Institute of Technology and
  138. Graduate Studies, Linthicum, Maryland, USA, in September of 1993. Papers
  139. are solicited for, but not limited to, the following topics:
  140.  
  141. 1. Applications:
  142.    Image processing and understanding, speech recognition,
  143.    communications, sensor fusion, medical diagnoses, nonlinear adaptive
  144.    filtering and other general signal processing and pattern recognition
  145.    topics.
  146.  
  147. 2. Theory:
  148.    Neural network system theory, identification and spectral estimation,
  149.    and learning theory and algorithms.
  150.  
  151. 3. Implementation:
  152.    Digital, analog, and hybrid technologies and system development.
  153.  
  154. Prospective authors are invited to submit 4 copies of extended summaries
  155. of no more than 6 pages. The top of the first page of the summary should
  156. include a title, authors' names, affiliations, address, telephone and
  157. fax numbers and email address if any. Camera-ready full papers
  158. of accepted proposals will be published in a hard-bound volume by IEEE
  159. and distributed at the workshop.  Due to workshop facility constraints,
  160. attendance will be limited with priority given to those who submit
  161. written technical contributions.  For further information, please
  162. contact Karin Cermele at the NNSP'93 Princeton office,
  163. (Tel.) +1 609 734 3383, (Fax) +1 609 734 6565, (e-mail)
  164. kic@learning.siemens.com.
  165.  
  166.                   PLEASE SEND PAPER SUBMISSIONS TO:
  167.                           _______________
  168.  
  169.  
  170. NNSP'93
  171. Siemens Corporate Research
  172. 755 College Road East
  173. Princeton, NJ 08540
  174. USA 
  175.                   
  176.                               SCHEDULE
  177.                           _______________
  178.  
  179. Submission of extended summary:    February 15
  180. Notification of acceptance:        April 19
  181. Submission of photo-ready paper:   June 1
  182. Advanced registration, before:     June 1
  183.  
  184.                          WORKSHOP COMMITTEE
  185.                           _______________
  186.  
  187. General Chairs 
  188.  
  189. Gary Kuhn                          Barbara Yoon
  190. Siemens Corporate Research         DARPA-MTO
  191. 755 College Road East              3701 N. Fairfax Dr.
  192. Princeton, NJ 08540, USA           Arlington, VA 22203-1714 USA
  193. gmk@learning.siemens.com           byoon@a.darpa.mil
  194.  
  195. Program Chair                      Proceedings Chair
  196.  
  197. Rama Chellappa                     Candace Kamm
  198. Dept. of Electrical Engineering    Box 1910
  199. University of Maryland             Bellcore, 445 South Street
  200. College Park, MD 20742, USA        Morristown, NJ 07962, USA
  201. chella@eng.umd.edu                 cak@bellcore.com 
  202.  
  203. Finance Chair 
  204.  
  205. Raymond Watrous 
  206. Siemens Corporate Research 
  207. 755 College Road East 
  208. Princeton, NJ 08540, USA 
  209. watrous@learning.siemens.com  
  210.  
  211. Program Committee 
  212.  
  213. Joshua Alspector                   John Makhoul
  214. Les Atlas                          B.S. Manjunath
  215. Charles Bachmann                   Tomaso Poggio
  216. Gerard Chollet                     Jose Principe
  217. Frank Fallside                     Ulrich Ramacher
  218. Lee Giles                          Noboru Sonehara
  219. S.J. Hanson                        Eduardo Sontag
  220. Y.H. Hu                            J.A.A. Sorensen
  221. B.H. Juang                         Yoh'ichi Tohkura
  222. Shigeru Katagiri                   Christoph von der Malsburg
  223. S.Y. Kung                          Christian Wellekens
  224. Yann LeCun 
  225.  
  226.  
  227. ------------------------------
  228.  
  229. Subject: Call for Participation
  230. From:    "Dr. Francis T. Marchese" <MARCHESF%PACEVM.BITNET@BITNET.CC.CMU.EDU>
  231. Date:    07 Nov 92 16:28:14 -0500
  232.  
  233.  
  234.  
  235. *** Call For Participation ***
  236.  
  237. Conference on Understanding Images
  238.  
  239. Sponsored By
  240.  
  241. NYC ACM/SIGGRAPH 
  242.      and
  243. Pace University's 
  244. School of Computer Science and Information Systems
  245.  
  246. To Be Held at:
  247.  
  248. Pace University
  249. New York City, New York
  250. May 21-22,1993
  251.  
  252.  
  253.  
  254. Artists, designers, scientists, engineers and educators share the problem
  255. of moving information from one mind to another.  Traditionally, they have
  256. used pictures, words, demonstrations, music and dance to communicate
  257. imagery.  However, expressing complex notions such as God and infinity or a
  258. seemingly well defined concept such as a flower can present challenges
  259. which far exceed their technical skills.
  260.  
  261. The explosive use of computers as visualization and expression tools has
  262. compounded this problem.  In hypermedia, multimedia and virtual reality
  263. systems vast amounts of information confront the observer or participant.
  264. Wading through a multitude of simultaneous images and sounds in possibly
  265. unfamiliar representations, a confounded user asks: What does it all mean?
  266.  
  267. Since image construction, transmission, reception, decipherment and
  268. ultimate understanding are complex tasks strongly influenced by physiology,
  269. education and culture; and since electronic media radically amplify each
  270. processing step, then we, as electronic communicators, must determine the
  271. fundamental paradigms for composing imagery for understanding.
  272.  
  273. Therefore, the purpose of this conference is to bring together a breadth of
  274. disciplines, including, but not limited to, the physical, biological and
  275. computational sciences, technology, art, psychology, philosophy and
  276. education, in order to define and discuss the issues essential to image
  277. understanding within the computer graphics context.  To this end we seek
  278. proposals for individual presentations, panel discussions, static displays,
  279. interactive environments, performances and beyond.
  280.  
  281.  
  282. Submissions:
  283. Contributors are requested to submit a one page proposal by January 15,
  284. 1993.  Accepted presentations will be included in the proceedings.
  285.  
  286.  
  287. Direct all inquires and submissions to:
  288.   Professor Francis T. Marchese
  289.   Department of Computer Science
  290.   Pace University
  291.   New York, NY 10038  USA
  292.  
  293.   Email:  MARCHESF@PACEVM.Bitnet          
  294.   Phone:  212-346-1803
  295.   Fax:    212-346-1933
  296.  
  297.  
  298. ------------------------------
  299.  
  300. Subject: NIPS 92 Workshop on Training Issues
  301. From:    "Scott A. Markel x2683" <sam@vaxserv.sarnoff.com>
  302. Date:    Thu, 19 Nov 92 11:24:12 -0500
  303.  
  304. ****************************   NIPS 92  Workshop   ****************************
  305.  
  306.                  "Computational Issues in Neural Network Training"
  307.                  
  308.                                        or
  309.  
  310.                    Why is Back-Propagation Still So Popular?
  311.  
  312. *******************************************************************************
  313.  
  314. Roger Crane and I are are leading a NIPS '92 workshop on "Computational
  315. Issues in Neural Network Training".  Our workshop will be on Saturday, 5
  316. December, the second of two days of workshops in Vail.
  317.  
  318. The discussion will focus on optimization techniques currently used by
  319. neural net researchers, and include some other techniques that are
  320. available.  Back- propagation is still the optimization technique of
  321. choice even though there are obvious problems in training with BP: speed,
  322. convergence, ... .  Several innovative algorithms have been proposed by
  323. the neural net community to improve upon BP, e.g., Scott Fahlman's
  324. QuickProp.  We feel that there are classical optimization techniques that
  325. are superior to back-propagation.  In fact, gradient descent (BP) fell
  326. out of favor with the mathematical optimization folks way backin the
  327. 60's!  So why is BP still so popular?
  328.  
  329. Topics along these lines include:
  330.  
  331.    *  Why are classical methods generally ignored?
  332.  
  333.    *  Computational speed
  334.  
  335.    *  Convergence criteria (or lack thereof!)
  336.  
  337. Broader issues to be discussed include:
  338.  
  339.    *  Local minima
  340.  
  341.    *  Selection of starting points
  342.  
  343.    *  Conditioning (for higher order methods)
  344.  
  345.    *  Characterization of the error surface
  346.  
  347. If you would like to present something on any of these or similar topics,
  348. please contact me by e-mail and we can discuss details.
  349.  
  350. Workshops are scheduled for a total of four hours.  We're allowing for
  351. approximately 8 presentations of 10-20 minutes each, since we want to
  352. make sure that ample time is reserved for discussion and informal
  353. presentations.  We will encourage (incite) lively audience participation.
  354. By the way, none of the NIPS workshops are limited to presenters only.
  355. People who want to show up and just listen are more than welcome.
  356.  
  357. Scott Markel                   Computational Science Research
  358. smarkel@sarnoff.com            David Sarnoff Research Center
  359. Tel. 609-734-2683              CN 5300
  360. FAX  609-734-2662              Princeton, NJ 08543-5300
  361.  
  362.  
  363. ------------------------------
  364.  
  365. Subject: Post-NIPS Robot Learning workshop program
  366. From:    David Cohn <cohn@psyche.mit.edu>
  367. Date:    Wed, 04 Nov 92 15:52:45 -0500
  368.  
  369.  
  370.  
  371.                  PROGRAM FOR THE POST-NIPS WORKSHOP "ROBOT LEARNING"
  372.                         Vail, Colorado, Dec 5th, 1992
  373.  
  374. NIPS=92 Workshop:       Robot Learning
  375. =================
  376.  
  377.  
  378. Intended Audience:      Connectionists and Non-Connectionists in Robotics, 
  379. ==================      Control, and Active Learning
  380.  
  381. Organizers:
  382. ===========
  383.      Sebastian Thrun (CMU)     Tom Mitchell (CMU)       David Cohn (MIT)
  384.        thrun@cs.cmu.edu        mitchell@cs.cmu.edu     cohn@psyche.mit.edu
  385.  
  386.  
  387. Program:
  388. ========
  389.  
  390. Robot learning has grasped the attention of many researchers over the
  391. past few years. Previous robotics research has demonstrated the
  392. difficulty of manually encoding sufficiently accurate models of the robot
  393. and its environment to succeed at complex tasks. Recently a wide variety
  394. of learning techniques ranging from statistical calibration techniques to
  395. neural networks and reinforcement learning have been applied to problems
  396. of perception, modeling and control.  Robot learning is characterized by
  397. sensor noise, control error, dynamically changing environments and the
  398. opportunity for learning by experimentation.
  399.  
  400. This workshop will provide a forum for researchers active in the area of
  401. robot learning and related fields.  It will include informal tutorials
  402. and presentations of recent results, given by experts in this field, as
  403. well as significant time for open discussion.  Problems to be considered
  404. include: How can current learning robot techniques scale to more complex
  405. domains, characterized by massive sensor input, complex causal
  406. interactions, and long time scales?  How can previously acquired
  407. knowledge accelerate subsequent learning? What representations are
  408. appropriate and how can they be learned?
  409.  
  410. Although each session has listed "speakers," the intent is that each
  411. speaker will not simply present their own work, but will introduce
  412. their work interactively, as a launching point for group discussion on
  413. their chosen area. After all speakers have finished, the remaining
  414. time will be used to discuss at length issues that the group feels
  415. need most urgently to be addressed.
  416.  
  417. Below, we have listed the tentative agenda, which is followed by brief
  418. abstracts of each author's topic. For those who wish to get a head
  419. start on the workshop, we have included a list of references and/or
  420. recommended readings, some of which are available by anonymous ftp.
  421.  
  422. =====================================================================
  423. =====================================================================
  424.  
  425.                                 AGENDA
  426.  
  427. =====================================================================
  428. =====================================================================
  429.  
  430.         SESSION ONE (early morning session), 7:30 - 9:30:
  431.         -------------------------------------------------
  432.                 TITLE:  "Robot learning: scaling up and state of the art"
  433.         
  434.                 Keynote speaker:   Chris Atkeson  (30 min)
  435.                                    "Paradigms for Robot Learning"
  436.         
  437.                 Speakers:          Steve Hanson   (15 min)
  438.                                    (title to be announced)
  439.         
  440.                                    Satinder Singh (15 min)
  441.                                    Behavior-Based Reinforcement Learning
  442.         
  443.                                    Andrew W. Moore(15 min)
  444.                                    The Parti-Game Algorithm for Variable
  445.                                    Resolution Reinforcement Learning
  446.         
  447.                                    Richard Yee    (15 min)
  448.                                    Building Abstractions to Accelerate
  449.                                    Weak Learners
  450.         
  451.  
  452.         SESSION TWO (apres-ski session), 4:30 - 6:30:
  453.         ---------------------------------------------
  454.                 PANEL: "Robot learning: Where are the new ideas coming from?"
  455.         
  456.                 Keynote speaker:   Andy Barto     (30 min)
  457.         
  458.                 Speakers:          Tom Mitchell   (10 min each)
  459.  
  460.                                    Chris Atkeson
  461.  
  462.                                    Dean Pomerleau 
  463.  
  464.                                    Steve Suddarth 
  465.         
  466.  
  467. =====================================================================
  468. =====================================================================
  469.  
  470.                         ABSTRACTS
  471.  
  472. =====================================================================
  473. Session 1:      Scaling up and the state of the art
  474. When:           Saturday, Dec 5, 7:30-9:30 a.m.
  475. =====================================================================
  476. =====================================================================
  477. Keynote:        Chris Atkeson (cga@ai.mit.edu)
  478.  
  479. Title:          Paradigms for Robot Learning
  480.  
  481. Abstract: This talk will survey a variety of robot learning tasks and
  482. learning paradigms to perform those tasks.  The tasks include pattern
  483. classification, regression/function approximation, root finding,
  484. function optimization, designing feedback controllers, trajectory
  485. following, stochastic modeling, stochastic control, and strategy
  486. generation.  Given this wide range of tasks it seems reasonable to ask
  487. if there is any commonality among them, or any way in which solving one
  488. task might make other tasks easier to perform.  In our own work we have
  489. typically taken an indirect approach: our learning algorithms explicitly
  490. form models, and then solve the problem using algorithms that assume
  491. complete knowledge.  It is not at all clear which learning tasks are
  492. best dealt with using an indirect approach, and which are handled better
  493. with a direct approach in which the control strategy is learned
  494. directly.  Nor is it clear how to cope with uncertainty and incomplete
  495. knowledge, either by modeling it explicitly, using stochastic models, or
  496. using game theory and assuming a malevolent world.  I hope to provoke a
  497. discussion on these issues.
  498.  
  499. ======================================================================
  500. Presenter:      Satinder Pal Singh (singh@cs.umass.edu)
  501.  
  502. Title:          Behavior-Based Reinforcement Learning
  503.  
  504. Abstract: Control architectures based on reinforcement learning have
  505. been successfully applied to agents/robots that use their repertoire
  506. of primitive control actions to achieve goals in an external
  507. environment.  The optimal policy for any goal is a state-dependent
  508. composition of the given "primitive" policies (a primitive policy "A"
  509. assigns action A to every state). In that sense, the primitive
  510. policies form the "basis" set from which optimal solutions can be
  511. "composed". I argue that reinforcement learning can be greatly
  512. accelerated by redefining the basis set of policies available to the
  513. agent.  These redefined basis policies should correspond to
  514. "behaviors" that are useful across the set of tasks faced by the
  515. agent.  Behavior-based RL, i.e., the application of RL to
  516. behavior-based robotics (ref Brooks), has several advantages: it can
  517. drastically reduce the effective dimensionality of the action space,
  518. it provides a framework for incorporating prior knowledge into RL
  519. architectures, it provides a technique for achieving transfer of
  520. learning, and finally by restricting the rules of composition and the
  521. types of behaviors it may become possible to perform "robust"
  522. reinforcement learning. I will provide examples from my own work and
  523. that of others to illustrate these ideas.
  524.  
  525. (Refs 4, 5, 6)
  526.  
  527. ======================================================================
  528. Presenter:      Andrew W. Moore (awm@ai.mit.edu)
  529. Title           The Parti-Game Algorithm for Variable Resolution
  530.                 Reinforcement Learning
  531.  
  532. Can we efficiently learn in continuous state-spaces, while requiring
  533. only relatively few real-world experienvces during the learning stage?
  534. Dividing a continuous state-space into a fine grid can mean a
  535. tragically large number of unnecessary experiences, while a coarse
  536. grid or parametric representation can become stuck. This talk
  537. overviews a new algorithm which, in real time, tries to adaptively
  538. alter the resolution of a state space partitioning to be coarse where
  539. it can and fine where it must to be if it is to avoid becoming stuck.
  540. The key idea turns out to be the treatment of the problem as a game
  541. instead of a Markov decision task.
  542.  
  543. Possible prior reading:
  544. Ref 7 (Overview of some other uses of kd-trees in Machine learning)
  545. Ref 8 (A non-real-time algorithm which uses a different partitioning strategy)
  546. Ref 9 (A search control technique which Parti-Game uses)
  547. Refs 9, 10
  548.  
  549. ======================================================================
  550. Presenter:      Richard Yee, (yee@cs.umass.edu)
  551.  
  552. Title:          Building Abstractions to Accelerate Weak Learners
  553.  
  554. Abstract: Learning methods based on dynamic programming (DP) are
  555. promising approaches to the problem of controlling dynamical systems.
  556. Practical DP-based learning will require function approximation
  557. methods that are well-suited for learning optimal value functions,
  558. which map system states into numeric estimates of utility.  Such
  559. approximation problems are generally characterized by non-stationary,
  560. dependent training data and, in many cases, little prospect for
  561. incorporating strong {\em a priori\/} learning biases.  Consequently.
  562. this talk considers learning approaches that begin weakly (e.g., using
  563. rote memorization) but strengthen their learning biases as experiences
  564. accrue.  Abstracting from stored experiences should accelerate
  565. learning by improving generalization.  Bootstrapping such abstraction
  566. processes (cf.\ "hypothesis boosting") might be a practical means for
  567. scaling DP-based learning across a wide variety of applications.
  568. (Refs 1, 2, 3, 4)
  569.  
  570.  
  571. =====================================================================
  572. Session 2:      Where are the new ideas coming from?
  573. When:           Saturday, Dec 5, 4:30-6:30 p.m.
  574. =====================================================================
  575. =====================================================================
  576. Keynote:        Andrew G. Barto (barto@cs.umass.edu)
  577.  
  578. Title:          Reinforcement Learning Theory
  579.  
  580. Although reinforcement learning is being studied more widely than ever
  581. before, especially methods based on approximating dynamic programming
  582. (DP), its theoretical foundations are not yet highly developed. In
  583. this talk, I discuss what I percieve to be the current state and the
  584. missing links in this theory. This topic raises such questions as the
  585. following: Just what is DP-based reinforcement learning from a
  586. mathematical perspective? What is the relationship between DP-based
  587. reinforcement learning and other methods for approximating DP? What
  588. theoretical justification exists for combining function approximation
  589. methods (such as artificial neural networks) with DP-based learning?
  590. What kinds of problems are best suited to DP-based reinforcement
  591. learning?  Is theory important?
  592.  
  593. =====================================================================
  594. Presenter:      Dean Pomerleau
  595.  
  596. Title:          Combining artificial neural networks and symbolic
  597.                 processing for autonomous robot guidance
  598.  
  599. Artificial neural networks are capable of performing the reactive
  600. aspects of autonomous driving, such as staying on the road and avoiding
  601. obstacles.  This talk describes an efficient technique for training
  602. individual networks to perform these reactive driving tasks.  But
  603. driving requires more than a collection of isolated capabilities.  To
  604. achieve true autonomy, a system must determine which capabilities should
  605. be employed in the current situation to achieve its objectives.  Such
  606. goal directed behavior is difficult to implement in an entirely
  607. connectionist system.  This talk describes a rule-based technique for
  608. combining multiple artificial neural networks with map-based symbolic
  609. reasoning to achieve high level behaviors.  The resulting system is not
  610. only able to stay on the road, it is able follow a route to a
  611. predetermined destination, turning appropriately at intersections and
  612. stopping when it has reached its goal.
  613.  
  614. (Refs 11, 12, 13, 14, 15)
  615.  
  616. =====================================================================
  617. =====================================================================
  618.   References
  619. =====================================================================
  620. =====================================================================
  621.  
  622. (#1) Yee, Richard, "Abstraction in Control Learning", Department of
  623. Computer and Information Science, University of Massachusetts,
  624. Amherst, MA 01003, COINS Technical Report 92-16, March 1992.
  625. anonymous ftp:  envy.cs.umass.edu:pub/yee.abstrn.ps.Z
  626.  
  627. (#2) Barto, Andrew G. and Richard S. Sutton and Christopher J. C. H.
  628. Watkins, Sequential decision problems and neural networks, in Advances
  629. in Neural Information Processing Systems 2, 1990, Touretzky, D. S.,
  630. ed.
  631.  
  632. (#3) Barto, Andrew G. and Richard S. Sutton and Christopher J. C. H.
  633. Watkins", Learning and Sequential Decision Making, in Learning and
  634. Computational Neuroscience: Foundations of Adaptive Networks, 1990.
  635. anonymous ftp:  
  636. archive.cis.ohio-state.edu:pub/neuroprose/barto.sequential_decisions.ps.Z
  637.  
  638. (#4) Barto, Andrew G. and Steven J. Bradtke and Satinder Pal Singh,
  639. Real-time learning and control using asynchronous dynamic programming,
  640. Computer and Information Science, University of Massachusetts,
  641. Amherst, MA 01003, COINS Technical Report TR-91-57, August 1991.
  642. anonymous ftp:  
  643. archive.cis.ohio-state.edu:pub/neuroprose/barto.realtime-dp.ps.Z
  644.  
  645.  
  646. (#5) Singh, S.P.," Transfer of Learning by Composing Solutions for Elemental
  647. Sequential Tasks, Machine Learning, 8:(3/4):323-339, May 1992.
  648. anonymous ftp:  envy.cs.umass.edu:pub/singh-compose.ps.Z
  649.  
  650. (#6) Singh, S.P., "Scaling reinforcement learning algorithms by
  651. learning variable temporal resolution models, Proceedings of the Ninth
  652. Machine Learning Conference, D. Sleeman and P. Edwards, eds., July
  653. 1992.
  654. anonymous ftp:  envy.cs.umass.edu:pub/singh-scaling.ps.Z
  655.  
  656. (#7) S. M. Omohundro, Efficient Algorithms with Neural Network
  657. Behaviour, Journal of Complex Systems, Vol 1, No 2, pp 273-347, 1987.
  658.  
  659. (#8) A. W. Moore, Variable Resolution Dynamic Programming: Efficiently
  660. Learning Action Maps in Multivariate Real-valued State-spaces, in
  661. "Machine Learning: Proceedings of the Eighth International Workshop",
  662. edited by Birnbaum, L.  and Collins, G., published by Morgan Kaufman.
  663. June 1991.
  664.  
  665. (#9) A. W. Moore and C. G. Atkeson, Memory-based Reinforcement
  666. Learning: Converging with Less Data and Less Real Time, 1992. See the
  667. NIPS92 talk or else preprints available by request to awm@ai.mit.edu
  668.  
  669. (#10) J. Peng and R. J. Williams, Efficient Search Control in Dyna,
  670. College of Computer Science, Northeastern University, March, 1992
  671.  
  672. (#11) Pomerleau, D.A., Gowdy, J., Thorpe, C.E. (1991) Combining artificial
  673. neural networks and symbolic processing for autonomous robot guidance.
  674. In {\it Engineering Applications of Artificial Intelligence, 4:4} pp.
  675. 279-285.
  676.  
  677. (#12) Pomerleau, D.A. (1991) Efficient Training of Artificial Neural Networks
  678. for Autonomous Navigation. In {\it Neural Computation 3:1} pp.  88-97.
  679.  
  680. (#13) Touretzky, D.S., Pomerleau, D.A. (1989) What's hidden in the hidden
  681. units?  {\it BYTE 14(8)}, pp. 227-233.
  682.  
  683. (#14) Pomerleau, D.A. (1991) Rapidly Adapting Artificial Neural Networks for
  684. Autonomous Navigation. In {\it Advances in Neural Information Processing
  685. Systems 3}, R.P. Lippmann, J.E. Moody, and D.S. Touretzky (ed.), Morgan
  686. Kaufmann, pp. 429-435.
  687.  
  688. (#15) Pomerleau, D.A. (1989) ALVINN: An Autonomous Land Vehicle In a Neural
  689. Network. In {\it Advances in Neural Information Processing Systems 1},
  690. D.S.  Touretzky (ed.), Morgan Kaufmann, pp. 305-313.
  691.  
  692.  
  693. ------------------------------
  694.  
  695. End of Neuron Digest [Volume 10 Issue 20]
  696. *****************************************
  697.