home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #18 / NN_1992_18.iso / spool / comp / ai / neuraln / 3269 < prev    next >
Encoding:
Internet Message Format  |  1992-08-21  |  4.4 KB

  1. Path: sparky!uunet!usc!sdd.hp.com!swrinde!mips!mips!munnari.oz.au!network.ucsd.edu!sdcc12!cs!demers
  2. From: demers@cs.ucsd.edu (David DeMers)
  3. Newsgroups: comp.ai.neural-nets
  4. Subject: Re: Network Inversion
  5. Message-ID: <37125@sdcc12.ucsd.edu>
  6. Date: 21 Aug 92 23:48:34 GMT
  7. References: <BtCqHo.AtH.1@cs.cmu.edu>
  8. Sender: news@sdcc12.ucsd.edu
  9. Organization: =CSE Dept., U.C. San Diego
  10. Lines: 87
  11. Nntp-Posting-Host: beowulf.ucsd.edu
  12.  
  13. In article <BtCqHo.AtH.1@cs.cmu.edu> tjochem+@CS.CMU.EDU (Todd Jochem) writes:
  14. >I'm looking for references to network inversion papers. The basic idea
  15. >I'm interested in is presenting the network's output with a signal and
  16. >by back-propagating this signal though the layer(s), recreating an input
  17. >which could have created the applied output signal. I think that this could
  18. >be pretty tough to do with some network configs. because of underdetermined
  19. >linear equations, but would like pointers to any work that addresses this
  20. >topic anyway. I'll summarize to the net any responses I get. Thanks,
  21.  
  22. There has been a fair amount of work done on this.  Or at least 
  23. on the differential version; backpropagating errors to the inputs.
  24. Differentially, if you consider the network as computing y = f(x), 
  25. then by backpropagating an error through the network (dy) you get 
  26. dx = J^t(x) dy (where J^t(x) is the transpose Jacobian at x).
  27. There is a fairly standard control technique which uses this form.
  28. See Jordan, Michael I. & David Rumelhart, "Forward Models: Supervised
  29. Learning with a Distal Teacher" (probably in Cognitive Science
  30. early 1992, I have a preprint ...) where a NN is used for system ID
  31. purposes (to construct a forward model), then the model used
  32. to control a real physical system (e.g. inverse kinematics &
  33. dynamics).
  34.  
  35. Hal White and Ron Gallant have a paper in Neural Networks 5, no. 1
  36. "On Learning the Derivatives of an Unknown Mapping with Multilayer
  37. Feedforward Networks" where it is shown that the assumption of
  38. Jordan & Rumelhart in the above paper that the derivatives of
  39. the model (the NN) approximate the derivatives of the true function
  40. is reasonable, and that methods exist which guarantee (asymptotically)
  41. that one can approximate the derivatives arbitrarily well from
  42. (x,y) data. 
  43.  
  44. Oops, actually this is a follow up to 
  45. Hornik, Stinchecombe & White, "Universal Approximation of an
  46. unknown mapping and its derivatives using multilayer feedforward
  47. networks" Neural Networks 3, 551.
  48.  
  49. Mike Dyer and Risto Mikkulainen have also looked at the
  50. input deltas for some purpose which I've forgotten, also
  51. the cite, but should be easy to find...
  52.  
  53. Mike Rossen in NIPS 3 has a paper on closed form inversion
  54. of a feedforward network, but his methods are restricted to
  55. networks in which layer n has no more units than layer n - 1,
  56. and yields a pseudo-inverse solution (since the inverse
  57. problem is underconstrained, there will typically be an
  58. infinite number of solutions forming some submanifold
  59. in the input space).  I think his paper could be generalized,
  60. however.
  61.  
  62. I'm not sure how to do direct inversion by BP; how do you
  63. backpropagate a scalar signal?  
  64.  
  65. In any event, if the mapping is from R^n to R^n there
  66. will normally be a finite set of solutions (assuming
  67. the mapping is between compact manifolds), and if the
  68. mapping is from R^n to R^m where n > m then there will
  69. normally be a finite set of (n-m) dimensional manifolds
  70. as solutions to the inverse problem.
  71. See, e.g., Guillemin & Pollack, "Differential Topology"
  72.  
  73. So a global difficulty is to pick from the finite set,
  74. and a local problem is to pick one from the manifold.
  75.  
  76. I'm trying to invert what appear to be non-invertible functions 
  77. for my thesis...
  78.  
  79. What I do is analyze the forward function (from (x,y) pairs)
  80. assuming it is smooth, and split it up into a finite set of
  81. trivial fiber bundles, each of which can be parameterized and
  82. the inverses approximated directly.  The good news is that it
  83. works, the bad news is that it is at least exponential in
  84. the dimensionality of the input space (but what isn't?), more
  85. good news is that for robotics, as you know, 4 dimensions is
  86. useful (redundant positioner) and 7 really valuable (e.g. 
  87. Robotics Research K-1207, or similar redundant manipulator).
  88.  
  89. Please pass along other references & replies!
  90.  
  91. Thanks,
  92. Dave
  93.  
  94.  
  95. -- 
  96. Dave DeMers             ddemers@UCSD   demers@cs.ucsd.edu
  97. Computer Science & Engineering    C-014        demers%cs@ucsd.bitnet
  98. UC San Diego                    ...!ucsd!cs!demers
  99. La Jolla, CA 92093-0114    (619) 534-0688, or -8187, FAX: (619) 534-7029
  100.