home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #19 / NN_1992_19.iso / spool / comp / ai / neuraln / 3286 next >
Encoding:
Internet Message Format  |  1992-08-23  |  2.5 KB

  1. Path: sparky!uunet!gatech!purdue!mentor.cc.purdue.edu!noose.ecn.purdue.edu!lips.ecn.purdue.edu!kavuri
  2. From: kavuri@lips.ecn.purdue.edu (Surya N Kavuri )
  3. Newsgroups: comp.ai.neural-nets
  4. Subject: Re: Network Inversion
  5. Message-ID: <1992Aug23.181041.22790@noose.ecn.purdue.edu>
  6. Date: 23 Aug 92 18:10:41 GMT
  7. References: <BtCqHo.AtH.1@cs.cmu.edu> <arms.714522787@spedden>
  8. Sender: news@noose.ecn.purdue.edu (USENET news)
  9. Organization: Purdue University Engineering Computer Network
  10. Lines: 52
  11.  
  12. In article <arms.714522787@spedden>, arms@cs.UAlberta.CA (Bill Armstrong) writes:
  13. > tjochem+@CS.CMU.EDU (Todd Jochem) writes:
  14. > >I'm looking for references to network inversion papers. The basic idea
  15. > >I'm interested in is presenting the network's output with a signal and
  16. > >by back-propagating this signal though the layer(s), recreating an input
  17. > >which could have created the applied output signal.
  18. > This is intractable for a general multi-layer perceptron.
  19. > Proof: We have to show it for the special case of ALNs, which are
  20. > trees of nodes realizing AND, OR, LEFT and RIGHT functions, with
  21. > leaves connected to input bits and complements.  The same input bit or
  22. > complement may be sent to many leaves.  It will be enough to show it
  23. > for a two-layer tree, with ORs feeding into an AND.  Back-propagating
  24. > a 1 signal is just CNF-satisfiability, and is NP-complete.
  25. > Comment: the difficulty arises because back-propagating signals often
  26. > converge at the same node, either at the inputs (ALNs) or in hidden
  27. > layers (MLPs), and they are likely to have contradictory values when
  28. > they do.
  29. > --
  30. > ***************************************************
  31. > Prof. William W. Armstrong, Computing Science Dept.
  32.  
  33.  May be there are easier ways of explaining this :-)
  34.  
  35.  
  36.   
  37.  Inversion of a network may not return the exact input (that was 
  38.  perhaps used in the training) for an MLP.  This is because the
  39.  function developed by the network may not be invertible.  This
  40.  of course means that there are many possible inputs that 
  41.  can give you the same output.  Use gradient descent search to 
  42.  find any one of them or use genetic type multiple point 
  43.  search techniques to find more than one.
  44.  In general, the input you determined may not give the exact 
  45.  ouput you have (may be a local minima or may be the output 
  46.  can't be generated by your network).  So, in general you 
  47. have no guarantee to find the inversion.
  48.  
  49. Yo can see this another way:
  50. Since each node maps many inputs to a single value, you may be 
  51. able to find many inputs which give you the same node value.
  52.  
  53.  
  54.  
  55.  
  56.  
  57.  
  58. Surya Kavuri
  59.