home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #1 / NN_1993_1.iso / spool / comp / ai / neuraln / 4817 < prev    next >
Encoding:
Text File  |  1993-01-12  |  20.7 KB  |  401 lines

  1. Newsgroups: comp.ai.neural-nets
  2. Path: sparky!uunet!world!srctran
  3. From: srctran@world.std.com (Gregory Aharonian)
  4. Subject: Neural network patent abstracts posting
  5. Message-ID: <C0rEou.H94@world.std.com>
  6. Organization: The World Public Access UNIX, Brookline, MA
  7. Date: Tue, 12 Jan 1993 21:07:41 GMT
  8. Lines: 391
  9.  
  10.  
  11.     The following is my periodic posting of the abstracts and stat data
  12. for new neural network patents.  The full text and diagrams of any of these
  13. patents can be ordered from the patent office for $3 in printed form.  Also,
  14. for $20, I will provide a machine readable version of the abstract, text,
  15. claims and references for any neural network patent.
  16.  
  17. Greg Aharonian
  18. Source Translation & Optimization
  19. srctran@world.std.com
  20. 617-489-3727
  21. =============================================================================
  22.      For a very good article on the legal issues involving neural network
  23. patents, see the article "Intellectual Property Protection for Neural
  24. Networks" by Donald Wenskay, Neural Networks, 3, pp. 229-236, 1990.
  25. =============================================================================
  26.      For those interested in applying for a neural network patent, I freely
  27. provide a LaTeX template for a patent application.  Please email a request,
  28. and I'll send it to you.  Contains most of the boilerplate you need.
  29. =============================================================================
  30.      To date, I have yet to see any articles in the trade journals on either
  31. companies signing cross-licensing agreements to share their neural network
  32. patents, or patent infringement lawsuits dealing with neural network patents.
  33. To me, this means that no one is making much money with neural networks (other
  34. than selling software), and that the financial return on acquiring a patent
  35. is less than the cost of applying for and maintaining a patent.
  36.      If anyone hears of either occurrence, please let me know.
  37. =============================================================================
  38.  
  39. 5,168,352 [IMAGE AVAILABLE]   Dec. 1, 1992
  40.  
  41.   Coloring device for performing adaptive coloring of a monochromatic image
  42.  
  43. INVENTOR:      Motohiko Naka, Kawasaki, Japan
  44.                Mie Saitoh, Kawasaki, Japan
  45.                Takehisa Tanaka, Tokyo, Japan
  46.                Kunio Yoshida, Kawasaki, Japan
  47. ASSIGNEE:      Matsushita Electric Industrial Co., Ltd., Osaka, Japan
  48. APPL-NO:       07/480,456
  49. DATE FILED:    Feb. 15, 1990
  50. FRN-PRIOR:     Japan             1-36779                    Feb. 16, 1989
  51. INT-CL:        [5] H04N 9/02
  52. US-CL-ISSUED:  358/81, 82, 75; 382/15
  53. US-CL-CURRENT: 358/81, 75, 82; 382/15
  54. SEARCH-FLD:    358/81, 82, 75; 364/513; 382/14, 15
  55. REF-CITED: 
  56.                             U.S. PATENT DOCUMENTS
  57.      4,760,604    7/1988   Cooper                         364/715.01
  58.      4,926,250    5/1990   Konishi                        358/81
  59.  
  60.                              OTHER PUBLICATIONS
  61. "A Wafer Scale Integration Neural Network Utilizing Completely Digital
  62.   Circuits" by Moritoshi Yasunaga et al., IEEE International Joint Conference
  63.   on Neural Networks, Washington, D.C., Jun. 1989.
  64. Richard P. Lippmann, An Introduction to Computing with Neural Nets, IEEE ASSP
  65.   Magazine Apr. 1987.
  66.  
  67. ART-UNIT:      262
  68. PRIM-EXMR:     James J. Groody
  69. ASST-EXMR:     Sherrie Hsia
  70. LEGAL-REP:     Lowe, Price, LeBlanc & Becker
  71. ABSTRACT: 
  72. A coloring device includes an image sampling device for sampling an input
  73. signal block representing a group of n.times.m pixels of a monochromatic
  74. image and for outputting first signals representing the sampled pixels of the
  75. input signal block of the monochromatic image; and artificial neural network,
  76. a connection for providing to the artificial neural network, substantially
  77. simultaneously, pattern information on patterns to be contained in the
  78. monochromatic image and color information on first data indicating colors
  79. given to the patterns indicated by the pattern information prior to
  80. generation of a color image signal, the artificial neural network having
  81. internal state parameters which are adaptively optimized by using a learning
  82. algorithm prior to the generation of a color image, the artificial neural
  83. network operating for receiving data representing the first signal, for
  84. determining which of colors preliminarily and respectively assigned to
  85. patterns to be contained in the group of pixels of the monochromatic image
  86. represented by the input signal block is given to a pattern actually
  87. contained in the group of pixels represented by the input signal block and
  88. for outputting second signals representing second data on three primary
  89. colors which are used to represent the determined colors given to the
  90. patterns actually contained in the group of pixels represented by the input
  91. signal block; and a color image storing device for receiving the second
  92. signals outputted from the artificial neural network, for storing the
  93. received second signals in locations thereof corresponding to the positions
  94. of the pixels represented by the input signal block and for outputting third
  95. signals representing the three primary color component images of the pixels
  96. represented by the input signal block; wherein the image sampling device
  97. further functions for scanning the whole of the monochromatic image by
  98. generating successive input signal blocks representing successive groups
  99. n.times.m pixels to be sampled, thereby outputting third signals for all
  100. pixels of the monochromatic image.
  101.                10 Claims, 4 Drawing Figures
  102. EXMPL-CLAIM:   1
  103. NO-PP-DRAWING: 3
  104. ==============================================================================
  105. 5,168,550 [IMAGE AVAILABLE]   Dec. 1, 1992
  106.  
  107.    Neutral network with plural weight calculation methods and variation of
  108.                          plural learning parameters
  109.  
  110. INVENTOR:      Shigeo Sakaue, Takarazuka, Japan
  111.                Toshiyuki Kohda, Takatsuki, Japan
  112.                Yasuharu Shimeki, Suita, Japan
  113.                Hideyuki Takagi, Kyoto, Japan
  114.                Hayato Togawa, Tokyo, Japan
  115. ASSIGNEE:      Matsushita Electric Industrial Co., Ltd., Osaka, Japan
  116. APPL-NO:       07/481,330
  117. DATE FILED:    Feb. 20, 1990
  118. FRN-PRIOR:     Japan             1-43730                    Feb. 23, 1989
  119.                Japan             1-47610                    Feb. 28, 1989
  120. INT-CL:        [5] G06F 15/18
  121. US-CL-ISSUED:  395/23
  122. US-CL-CURRENT: 395/23
  123. SEARCH-FLD:    364/513; 395/23
  124. REF-CITED: 
  125.  
  126.                              OTHER PUBLICATIONS
  127. Improving the Learning Rate of Back-Propagation with the Gradient Reuse
  128.   Algorithm; Hush et al; IEEE Inter. Conf. on Neutral Networks; Jul. 24-27,
  129.   1988; pp. I-441 to I-446.
  130. Learning Internal Representations by Error Propagation; Rumelhart et al.;
  131.   Parallel Distributed Processing, vol. 1, Foundations; MIT Press; 1986; pp.
  132.   318-362.
  133. "Learning representations by back-propagating errors", David Rumelhart et
  134.   al.; Nature, vol. 323, Oct. 1986, pp. 533-536.
  135. DUTTA, "Bond Ratings: A non-conservative application of neutral networks",
  136.   IEEE International Conference on Neutral Networks, vol. 2, pp. 443-450,
  137.   Jul. 24, 1988.
  138. Watrous, "Learning algorithms for connectionist networks: applied gradient
  139.   methods of nonlinear optimization", IEEE First National Conference on
  140.   Neutral Networks, vol. 2, pp. 619-628, Jun. 21, 1987.
  141. JACOBS, "Increased rates of convergence through learning rate adaption",
  142.   Neutral Networks, vol. 1, No. 4, pp. 295-307, 1988.
  143.  
  144. ART-UNIT:      238
  145. PRIM-EXMR:     Allen R. MacDonald
  146. LEGAL-REP:     Stevens, Davis, Miller & Mosher
  147.  
  148. ABSTRACT: 
  149. An iterative learning machine uses, as a direction of changing iterative
  150. weight, a conjugate gradient direction in place of the conventional steepest
  151. descent direction, thereby saving time. Learning rates are set dynamically.
  152. Error calculation for plural learning rates, with respect to a certain weight
  153. changing direction, are accomplished by storing a product-sum of the input
  154. signals and weights in a hidden layer and a product-sum of the input signals
  155. and the weight changing direction in the hidden layer. When the learning
  156. falls into a non-effective state where further iteration does not effectively
  157. reduce an error, the weights are adjusted in order to restart the learning.
  158.                31 Claims, 18 Drawing Figures
  159. EXMPL-CLAIM:   1
  160. NO-PP-DRAWING: 17
  161. ==============================================================================
  162. 5,168,551 [IMAGE AVAILABLE]   Dec. 1, 1992
  163.  
  164.      MOS decoder circuit implemented using a neural network architecture
  165.  
  166. INVENTOR:      Ho-sun Jeong, Taegu, Republic of Korea
  167. ASSIGNEE:      Samsung Electronics Co., Ltd., Kyunggi-do, Republic of Korea
  168. APPL-NO:       07/573,408
  169. DATE FILED:    Aug. 28, 1990
  170. FRN-PRIOR:     Republic of Korea 90-4172                    Mar. 28, 1990
  171. INT-CL:        [5] G06F 15/18
  172. US-CL-ISSUED:  395/27, 24; 364/602, 807
  173. US-CL-CURRENT: 395/27; 364/602, 807; 395/24
  174. SEARCH-FLD:    307/201, 494, 498, 529; 395/24, 27; 364/602, 807
  175. REF-CITED: 
  176.                             U.S. PATENT DOCUMENTS
  177.      4,876,534   10/1989   Mead et al.                    340/825.95
  178.      4,904,881    2/1990   Castro                         307/201
  179.      4,956,564    9/1990   Holler et al.                  307/201
  180.      4,962,342   10/1990   Mead et al.                    307/201
  181.      4,978,873   12/1990   Shoemaker                      307/498
  182.      4,988,891    1/1991   Mashiko                        307/201
  183.  
  184.                              OTHER PUBLICATIONS
  185. McClelland et al., Explorations in Parallel Distributed Processing: A
  186.   Handbook of Models, Programs, and Exercises, The MIT Press, 1988, pp.
  187.   83-99.
  188. Walker et al., "A CMOS Neural Network for Pattern Association", IEEE Micro,
  189.   Oct. 1989, pp. 68-74.
  190. Salam et al., "A Feedforward Neural Network for CMOS VSLI Implementation",
  191.   Midwest Sympos. on Cir. Syst., 1990, pp. 489-492.
  192. Graf et al., "VLSI Implementation of a Neural Network Model", Computer, Mar.
  193.   1988, pp. 41-49.
  194. Tanenbaum, A. S., Structured Computer Organization, Prentice-Hall, Inc.,
  195.   1984, pp. 121-122.
  196. ART-UNIT:      238
  197. PRIM-EXMR:     Michael R. Fleming
  198. ASST-EXMR:     Robert Downs
  199. LEGAL-REP:     Cushman, Darby & Cushman
  200.  
  201. ABSTRACT: 
  202. A decoder circuit based on the concept of a neural network architecture has a
  203. unique configuration using a connection structure having CMOS inverters, and
  204. PMOS and NMOS bias and synapse transistors. The decoder circuit consists of M
  205. parallel inverter input circuit corresponding to an M-bit digital signal and
  206. forming an input neuron group, a 2.sup.M parallel inverter output circuit
  207. corresponding to 2.sup.M decoded outputs and forming an output neuron group,
  208. and a synapse group connected between the input neuron group and the output
  209. neuron group responsive to a bias group and the M-bit digital original for
  210. providing a decoded output signal to one of the 2.sup.M outputs of the output
  211. neuron group when a match is detected. Hence, only one of the 2.sup.M outputs
  212. will be active at any one time.
  213.                6 Claims, 6 Drawing Figures
  214. EXMPL-CLAIM:   1
  215. NO-PP-DRAWING: 2
  216. ==============================================================================
  217. 5,170,071 [IMAGE AVAILABLE]   Dec. 8, 1992
  218.  
  219.        Stochastic artifical neuron with multilayer training capability
  220.  
  221. INVENTOR:      Gregory A. Shreve, Redondo Beach, CA
  222. ASSIGNEE:      TRW Inc., Redondo Beach, CA (U.S. corp.) 
  223. APPL-NO:       07/716,717
  224. DATE FILED:    Jun. 17, 1991
  225. INT-CL:        [5] G06F 15/18
  226. US-CL-ISSUED:  307/20; 395/27
  227. US-CL-CURRENT: 307/201; 395/27
  228. SEARCH-FLD:    395/27; 307/201
  229. REF-CITED: 
  230.                             U.S. PATENT DOCUMENTS
  231.      3,341,823    9/1967   Connelly                       307/201 X
  232.      3,691,400    9/1972   Askew                          307/201
  233.      3,950,733    4/1976   Cooper et al.                  340/172.5
  234.      4,518,866    5/1985   Clymer                         307/201
  235.      4,591,980    5/1986   Huberman et al.                364/200
  236.      4,773,024    9/1988   Faggin et al.                  364/513
  237.      4,807,168    2/1989   Moopenn et al.                 364/602
  238.      4,809,193    2/1989   Jourjine                       364/513
  239.      4,893,255    1/1990   Tomlinson                      364/513
  240.      4,918,618    4/1990   Tomlinson                      364/513
  241.      4,989,256    1/1991   Buckley                        395/27 X
  242.  
  243.                              OTHER PUBLICATIONS
  244. Tomlinson, Jr., Walker and Sivilotti, "A Digital Neural Network Architecture
  245.   for VLSI", IJCNN 1990, Jun. 1990, San Diego, Calif.
  246. Walker and Tomlinson, Jr., "DNNA: A Digital Neural Network Architecture",
  247.   INNC, Jul. 9-13, 1990.
  248. P. C. Patton, "The Neural Semiconductor NU32/SU3232 Chip Set," the
  249.   Superperformance Computing Service Brief No. 36, Feb. 1990.
  250. R. Colin Johnson, "Digital Neurons Mimic Analog," Electronic Engineering
  251.   Times, Feb. 12, 1990.
  252. Nguyen, Dziem and Holt, Fred, "Stochastic Processing in a Neural Network
  253.   Application," IEEE First International Conference on Neural Networks, San
  254.   Diego Calif., Jun. 21-24, 1987, pp. 281-291.
  255. Gaines, Brian R., "Uncertainty as a Foundation of Computational Power in
  256.   Neural Neworks," IEEE First International Conference on Neural Networks,
  257.   San Diego Calif., Jun. 21-24, 1987, pp. 51-57.
  258. Van den Bout, David E. and Miller, T. K., "A Stochastic Architecture for
  259.   Neural Nets," pp. 481-488.
  260. Rumelhart, David E. et al., "Learning Representations by Back-Propagating
  261.   Errors," Nature, vol. 323, Oct. 9, 1986, pp. 533-536.
  262. Rumelhart, David E. et al., "Learning Internal Representations by Error
  263.   Propagation," Institute for Cognitive Science (ICS) Report 8506, Sep. 1985.
  264.  
  265. ART-UNIT:      259
  266. PRIM-EXMR:     David Hudspeth
  267. LEGAL-REP:     James M. Steinberger, G. Gregory Schivley, Ronald L. Taylor
  268.  
  269. ABSTRACT: 
  270. A probabilistic or stochastic artificial neuron in which the inputs and
  271. synaptic weights are represented as probabilistic or stochastic functions of
  272. time, thus providing efficient implementations of the synapses. Stochastic
  273. processing removes both the time criticality and the discrete symbol nature
  274. of traditional digital processing, while retaining the basic digital
  275. processing technology. This provides large gains in relaxed timing design
  276. constraints and fault tolerance, while the simplicity of stochastic
  277. arithmetic allows for the fabrication of very high densities of neurons. The
  278. synaptic weights are individually controlled by a backward error propagation
  279. which provides the capability to train multiple layers of neurons in a neural
  280. network.
  281.                8 Claims, 3 Drawing Figures
  282. EXMPL-CLAIM:   1
  283. NO-PP-DRAWING: 3
  284. ==============================================================================
  285. 5,170,463 [IMAGE AVAILABLE]   Dec. 8, 1992
  286.  
  287.                                Neuro-computer
  288.  
  289. INVENTOR:      Yoshiji Fujimoto, Nara, Japan
  290.                Naoyuki Fukuda, Nara, Japan
  291.                Toshio Akabane, Tenri, Japan
  292. ASSIGNEE:      Sharp Kabushiki Kaisha, Osaka, Japan
  293. APPL-NO:       07/885,239
  294. DATE FILED:    May 20, 1992
  295. REL-US-DATA:   Continuation of Ser. No. 456,649, Dec. 27, 1989, abandoned.
  296. FRN-PRIOR:     Japan             63-330971                  Dec. 29, 1988
  297.                Japan             1-24307                    Feb. 1, 1989
  298.                Japan             1-127274                   May 19, 1989
  299. INT-CL:        [5] G06F 15/16
  300. US-CL-ISSUED:  395/11, 24, 27; 364/DIG.2, DIG.1
  301. US-CL-CURRENT: 395/11; 364/DIG.1, DIG.2; 395/24, 27
  302. SEARCH-FLD:    395/11, 24, 27; 364/200, 900
  303. REF-CITED: 
  304.                             U.S. PATENT DOCUMENTS
  305.      4,514,807    4/1985   Nogi                           364/200
  306.      4,633,472   12/1986   Krol                           364/200
  307.      4,644,496    2/1987   Andrews                        364/513
  308.      4,660,166    4/1987   Hopfield                       364/807
  309.      4,709,327   11/1987   Hillis et al.                  364/513
  310.      4,739,476    4/1988   Fiduccia                       364/513
  311.      4,766,534    8/1988   De Benedictis                  364/513
  312.      4,796,199    1/1989   Hammerstrom et al.             364/513
  313.      4,809,193    2/1989   Jourjine                       364/513
  314.      4,811,210    3/1989   McAulay                        364/513
  315.      4,858,147    8/1989   Conwell                        364/200
  316.      4,891,782    1/1990   Johnson                        364/786
  317.      4,908,751    3/1990   Smith                          364/513
  318.      4,912,647    3/1990   Wood                           364/513
  319.      4,918,617    4/1990   Hammerstrom et al.             364/513
  320.      4,918,618    4/1990   Tomlinson, Jr.                 364/513
  321.      4,920,487    4/1990   Baffes                         364/200
  322.      4,942,517    7/1990   Cok                            364/200
  323.      4,951,239    8/1990   Andes et al.                   364/807
  324.  
  325.                              OTHER PUBLICATIONS
  326. The Computer Journal, vol. 30, No. 5, Oct. 1987, pp. 413-419; B. M. Forrest
  327.   et al: "implementing neural network models on parallel computers".
  328. Proceedings of the 1983 International Conference on Parallel Processing,
  329.   Columbus, Ohio, Aug. 1983, pp. 95-105. IEEE, New York US; T. Hoshino et al:
  330.   "Highly parallel processor array PAX for wide scientific applications".
  331. 1988 Cern School of Computing, Oxford, Aug. 1988, pp. 104-126; P. C.
  332.   Treleaven: "Parallel architectures for neurocomputers".
  333. IEEE Communications Magazine, vol. 26, No. 6, Jum. 1988, pp. 45-50; T. G.
  334.   Robertazzi: "Toroidal networks".
  335. Proceedings of the IEEE 1988 National Aerospace and Electronics Conference
  336.   NAECON '88, Dayton, May 1988, vol. 4, pp. 1574-1580; B. C. Deer et al:
  337.   "Parallel processor for the simulation of adaptive networks".
  338. D. A. Pomerleau et al, "Neural Network Simulation at Warp Speed: How We Got
  339.   17 Million Connections Per Second," Proceedings of the IEEE ICNN, San
  340.   Diego, Calif., Jul. 1988, vol. II, pp. 143-150.
  341. S. Y. Kung and J. N. Hwang, "Parallel Architectures for Artificial Neural
  342.   Networks," Proceedings of the IEEE ICNN, San Diego, Calif., Jul. 1988, vol.
  343.   II, pp. 165-172.
  344. S. Y. Kung and J. N. Hwang, "Ring Systolic Designs for Artificial Neural
  345.   Nets," Abstracts of the First Annual INNS Meeting, Boston, Mass., Sep.
  346.   1988, p. 390.
  347. G. Blelloch and C. R. Rosenberg, "Network Learning on the Connection
  348.   Machine," Proceedings of the IJCAI, Milano, Italy, Aug. 1987, pp. 323-326.
  349. A. Johannet et al, "A Transputer-Based Neurocomputer," Parallel Programming
  350.   of Transputer Based Machines: Proceedings of the 7th OCCAM User Group
  351.   Technical Meeting Grenoble, France, Sep. 1987, pp. 120-127.
  352. D. Suter and X. Deng, "Neural Net Simulation on Transputers," Australian
  353.   Transputer and OCCAM User Group Conference Proceedings, Royal Melbourne
  354.   Institute of Technology, Jun. 1988, pp. 43-47.
  355. Jim Baily and Dan Hammerstrom, "Why VLSI Implementation of Associative VLCNs
  356.   Require Connection Multiplexing," Proceedings of the IEEE ICNN, San Diego,
  357.   Calif., Jul. 1983, vol. II, pp. 173-180.
  358. M. Rundnick and D. Hammerstrom, "An Interconnect Structure for Wafer Scale
  359.   Neurocomputers," Abstracts of the First annual INNS Meeting, Boston, Mass.,
  360.   Sep. 1988, p. 405.
  361. T. Beynon and N. Dodd, "The Implementation of Multi-Layer Perceptron on
  362.   Transputer Networks," Parallel Programming of Transputer Based Machines:
  363.   Proceedings of the 7th OCCAM User Group Technical Meeting Grenoble, France,
  364.   Sep. 1987, pp. 108-119.
  365. ART-UNIT:      238
  366. PRIM-EXMR:     Allen R. MacDonald
  367. ASST-EXMR:     George Davis
  368. LEGAL-REP:     Nixon & Vanderhye
  369.  
  370. ABSTRACT: 
  371. A neurocomputer connected to a host computer, the neurocomputer having a
  372. plurality of processor elements, each of the processor elements being placed
  373. at each of node of a lattice respectively, the neurocomputer includes a
  374. plurality of first processor elements, each of the first processor elements
  375. being placed at a node of the lattice, capable of transmitting data from and
  376. to the host computer and capable of transmitting the data to one of adjacent
  377. processor elements, a plurality of second processor elements, each of the
  378. second processor elements being placed at a node of the lattice, capable of
  379. receiving the data from one of adjacent processor elements, and capable of
  380. sending the data to another adjacent processor elements from which the data
  381. is not outputted. The neurocomputer also includes a plurality of rectangular
  382. regions, each of the rectangular regions including a plurality of the
  383. processor elements, a plurality of physical processors, each of the
  384. processors being placed in each of the rectangular regions and connected with
  385. adjacent processors each other, each of the processors being capable of
  386. inputting and outputting to and from the host computer and having all
  387. functions of the processor elements included in the rectangular region, and a
  388. device for distributing the physical processors to one or a plurality of
  389. divided sections formed in the rectangular regions in such a manner that each
  390. of the sections is substantially equally assigned to each of the physical
  391. processors by permutation.
  392.                33 Claims, 55 Drawing Figures
  393. EXMPL-CLAIM:   1
  394. NO-PP-DRAWING: 45
  395. ==============================================================================
  396. -- 
  397. **************************************************************************
  398. Greg Aharonian
  399. Source Translation & Optimiztion
  400. P.O. Box 404, Belmont, MA 02178
  401.