home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #26 / NN_1992_26.iso / spool / comp / ai / neuraln / 4191 < prev    next >
Encoding:
Internet Message Format  |  1992-11-08  |  19.9 KB

  1. Path: sparky!uunet!charon.amdahl.com!pacbell.com!sgiblab!sdd.hp.com!hplabs!ucbvax!CATTELL.PSYCH.UPENN.EDU!neuron-request
  2. From: neuron-request@CATTELL.PSYCH.UPENN.EDU ("Neuron-Digest Moderator")
  3. Newsgroups: comp.ai.neural-nets
  4. Subject: Neuron Digest V10 #15
  5. Message-ID: <22697.721089431@cattell.psych.upenn.edu>
  6. Date: 6 Nov 92 22:37:11 GMT
  7. Sender: daemon@ucbvax.BERKELEY.EDU
  8. Reply-To: "Neuron-Request" <neuron-request@cattell.psych.upenn.edu>
  9. Distribution: world
  10. Organization: University of Pennsylvania
  11. Lines: 460
  12.  
  13. Neuron Digest   Friday,  6 Nov 1992
  14.                 Volume 10 : Issue 15
  15.  
  16. Today's Topics:
  17.      New version of Learning Vector Quantization PD program package
  18.                        Info on intelligent agents?
  19.             Economics and Neural Nets bibliography, addendum
  20.                     Effectiveness of the latest ANNSs
  21.                      Production scheduling systems?
  22.                      non-linear dynamical modelling?
  23.                             Modeling question
  24.                       Job at Booz, Allen & Hamilton
  25.                  Request for advice - sound localization
  26.               Algorithms for masssivley parallel machines?
  27.                          Postdocs at Rockefellar
  28.  
  29.  
  30. Send submissions, questions, address maintenance, and requests for old
  31. issues to "neuron-request@cattell.psych.upenn.edu". The ftp archives are
  32. available from cattell.psych.upenn.edu (130.91.68.31). Back issues
  33. requested by mail will eventually be sent, but may take a while.
  34.  
  35. ----------------------------------------------------------------------
  36.  
  37. Subject: New version of Learning Vector Quantization PD program package
  38. From:    lvq@cochlea.hut.fi (LVQ_PAK)
  39. Date:    Sun, 11 Oct 92 10:57:21 +0700
  40.  
  41.  
  42. ************************************************************************
  43. *                                                                      *
  44. *                              LVQ_PAK                                 *
  45. *                                                                      *
  46. *                                The                                   *
  47. *                                                                      *
  48. *                   Learning  Vector  Quantization                     *
  49. *                                                                      *
  50. *                          Program  Package                            *
  51. *                                                                      *
  52. *                   Version 2.1 (October 9, 1992)                      *
  53. *                                                                      *
  54. *                          Prepared by the                             *
  55. *                    LVQ Programming Team of the                       *
  56. *                 Helsinki University of Technology                    *
  57. *           Laboratory of Computer and Information Science             *
  58. *                Rakentajanaukio 2 C, SF-02150 Espoo                   *
  59. *                              FINLAND                                 *
  60. *                                                                      *
  61. *                         Copyright (c) 1991,1992                      *
  62. *                                                                      *
  63. ************************************************************************
  64.  
  65. Public-domain programs for Learning Vector Quantization (LVQ) 
  66. algorithms are available via anonymous FTP on the Internet. 
  67.  
  68. "What is LVQ?", you may ask --- See the following reference, then: 
  69. Teuvo Kohonen. The self-organizing map. Proceedings of the IEEE, 
  70. 78(9):1464-1480, 1990.
  71.  
  72. In short, LVQ is a group of methods applicable to statistical 
  73. pattern recognition, in which the classes are described by a 
  74. relatively small number of codebook vectors, properly placed 
  75. within each class zone such that the decision borders are 
  76. approximated by the nearest-neighbor rule. Unlike in normal 
  77. k-nearest-neighbor (k-nn) classification, the original samples 
  78. are not used as codebook vectors, but they tune the latter. 
  79. LVQ is concerned with the optimal placement of these codebook 
  80. vectors into class zones.
  81.  
  82. This package contains all the programs necessary for the correct
  83. application of certain LVQ algorithms in an arbitrary statistical 
  84. classification or pattern recognition task. To this package three 
  85. options for the algorithms, the LVQ1, the LVQ2.1 and the LVQ3, 
  86. have been selected.  
  87.  
  88. This code is distributed without charge on an "as is" basis.
  89. There is no warranty of any kind by the authors or by Helsinki
  90. University of Technology.
  91.  
  92. In the implementation of the LVQ programs we have tried to use as
  93. simple code as possible. Therefore the programs are supposed to
  94. compile in various machines without any specific modifications made on
  95. the code. All programs have been written in ANSI C. The programs are 
  96. available in two archive formats, one for the UNIX-environment, the
  97. other for MS-DOS. Both archives contain exactly the same files. 
  98.  
  99. These files can be accessed via FTP as follows:
  100.  
  101. 1. Create an FTP connection from wherever you are to machine
  102.    "cochlea.hut.fi". The internet address of this machine is 
  103.    130.233.168.48, for those who need it.
  104.  
  105. 2. Log in as user "anonymous" with your own e-mail address as password.  
  106.  
  107. 3. Change remote directory to "/pub/lvq_pak". 
  108.  
  109. 4. At this point FTP should be able to get a listing of files in this
  110.    directory with DIR and fetch the ones you want with GET. (The exact 
  111.    FTP commands you use depend on your local FTP program.) Remember 
  112.    to use the binary transfer mode for compressed files.
  113.  
  114. The lvq_pak program package includes the following files:
  115.  
  116.   - Documentation:
  117.       README             short description of the package 
  118.                          and installation instructions
  119.       lvq_doc.ps         documentation in (c) PostScript format
  120.       lvq_doc.ps.Z       same as above but compressed
  121.       lvq_doc.txt        documentation in ASCII format
  122.  
  123.   - Source file archives (which contain the documentation, too):
  124.       lvq_p2r1.exe       Self-extracting MS-DOS archive file
  125.       lvq_pak-2.1.tar    UNIX tape archive file
  126.       lvq_pak-2.1.tar.Z  same as above but compressed
  127.  
  128.  
  129. An example of FTP access is given below
  130.  
  131. unix> ftp cochlea.hut.fi (or 130.233.168.48)
  132. Name: anonymous
  133. Password: <your email address>
  134. ftp> cd /pub/lvq_pak
  135. ftp> binary
  136. ftp> get lvq_pak-2.1.tar.Z
  137. ftp> quit
  138. unix> uncompress lvq_pak-2.1.tar.Z
  139. unix> tar xvfo lvq_pak-2.1.tar
  140.  
  141. See file README for further installation instructions.
  142.  
  143. All comments concerning this package should be
  144. addressed to lvq@cochlea.hut.fi.
  145.  
  146. ************************************************************************
  147.  
  148.  
  149. ------------------------------
  150.  
  151. Subject: Info on intelligent agents?
  152. From:    Nick Vriend<VRIEND@IFIIUE.FI.CNR.IT>
  153. Date:    Mon, 12 Oct 92 16:16:48
  154.  
  155. Nick Vriend
  156. European University Institute
  157. C.P. 2330
  158. 50100 Firenze Ferrovia
  159. Italy
  160. EARN/Bitnet: <VRIEND@IFIIUE.FI.CNR.IT>
  161.  
  162. As a PhD student of economics at the European University Institute in
  163. Florence (Italy), finishing a thesis on 'Decentralized Trade', I am
  164. interested in getting contact with people who are working on the
  165. following topic: DECENTRALIZED TRADE WITH ARTIFICIALLY INTELLIGENT
  166. AGENTS.  Basic characteristic of decentralized economies is that each
  167. individual agent has a very limited knowledge of his relevant
  168. environment. Each agent acts and observes his outcomes in the market
  169. (which depend on the actions of the other participants). Thus, each
  170. individual agents learns independently, using only a success measure of
  171. his own actual performance (e.g. profits, utility).  
  172.  
  173. At the moment I am applying Classifier Systems and Genetic Algorithms to
  174. model the learning process of each individual agent, but (given the
  175. mentioned inherent problem of misspecification in decentralized
  176. economies) Neural Networks seem very promising. However, application of
  177. Neural Networks appears more complex, as in a decentralized economy
  178. nobody would be able to tell each agent what his "target" or "correct"
  179. decision would have been. Therefore, the machines have to learn
  180. unsupervised (as in e.g. Barto, Sutton & Anderson (1983): Neuronlike
  181. Adaptive Elements That Can Solve Difficult Learning Control Problems.
  182. IEEE Transactions on Systems, Man, and Cybernetics, 13).  Hence, the
  183. topic I am interested in might be restated as: REINFORCEMENT LEARNING BY
  184. INTERACTING MACHINES.
  185.  
  186.  
  187.  
  188. ------------------------------
  189.  
  190. Subject: Economics and Neural Nets bibliography, addendum
  191. From:    Duarte Trigueiros <dmt@sara.inesc.pt>
  192. Date:    Wed, 14 Oct 92 11:27:46 -0200
  193.  
  194. In addition to Paul Refenes list, I would like to mention mine and Bob's
  195. paper on the automatic forming of ratios as internal representations of
  196. the MLP. This paper shows that the problem of discovering the appropriate
  197. ratios for performing a given task in financial statement analysis can be
  198. be simplified by using some specific training schemes in an MLP.
  199.  
  200. @inproceedings( xxx ,
  201.      author        = "Trigueiros, D. and Berry, R.",
  202.      title         = "The Application of Neural Network Based Methods to the
  203.                       Extraction of knowledge From Accounting Reports",
  204.      Booktitle     = "Organisational Systems and Technology: Proceedings of the
  205.                       $24^{th}$ Hawaii International Conference on System
  206.                       Sciences",
  207.      Year          =  1991,
  208.      Pages         = "136-146",
  209.      Publisher     = "IEEE Computer Society Press, Los Alamitos, (CA) US.",
  210.      Editor        = "Nunamaker, E. and Sprague, R.")
  211.  
  212. I also noticed that Paul didn't mention Utans and Moody's "Senlecting
  213. Neural Network Architectures via the Prediction Risk: An Application to
  214. Corporate Bond Rating Prediction" (1991), which has been published
  215. somewhere and has, or had, a version in the neuroprose archive as
  216. utans.bondrating.ps.Z .This paper is especially recommended, as the early
  217. literature on financial applications of NNs didn't care too much with
  218. things like cross-validation. The achievements, of course, were
  219. appallingly brilliant.
  220.  
  221. Finally, I gathered from Paul's list of articles, that there is a book of
  222. readings entitled "Neural Network Applications in Investment and
  223. Finance". Paul is the author of an article in chapter 27. The remaining
  224. twenty six or so chapters can eventually contain interesting stuff for
  225. completing this search.
  226.  
  227. When the original request for references appeared in another list I
  228. answered to it. So, I must apologise for mentioning our reference again
  229. here. I did it, as Paul list of references could give the impression,
  230. despite him, of being an attempt to be extensive.
  231.  
  232.   ---------------------------------------------------
  233.   Duarte Trigueiros,
  234.   INESC, R. Alves Redol 9, 2. 1000 Lisbon, Portugal 
  235.   e-mail: dmt@sara.inesc.pt FAX +351 (1) 7964710
  236.   ---------------------------------------------------
  237.  
  238.  
  239. ------------------------------
  240.  
  241. Subject: Effectiveness of the latest ANNSs
  242. From:    Fernando Passold <EEL3FPS%BRUFSC.bitnet@UICVM.UIC.EDU>
  243. Organization: Universidade Federal de Santa Catarina/BRASIL
  244. Date:    Thu, 15 Oct 92 14:39:35 -0300
  245.  
  246.  
  247.     I would like to begin a little discussion questioning the effectiveness
  248. of the latest  Artificial Neural Networks Simulators (ANNSs).
  249.  
  250.     A majority of the ANNSs do a serial computation trying to emulate the
  251. process of the Natural (or biological) Neural Networks (NNNs).
  252.  
  253.     I would like to drive the attentions about the fact that the computation
  254. is doing serialy, or better, even in more improved ANNSs that profit parallel
  255. and/or concurrent processing, what is computing it's one synapse at time or
  256. in blocks (packets), different that occurs with NNNs. In a NNN, various
  257. potentials of activations of neurons (membrane voltage changes) are evoluate
  258. and processing at the same time (involving different latencies), and not the
  259. outcome of each synapse from time to time (like in conventionals ANNSs).
  260.  
  261.     The question that I would arise follows: Imagine that one of the neurons
  262. of an especific NNN suddenly presents a bigger latency in its response,
  263. compared with its neighbourhoods. Will it be that this 'failed' neuron, do
  264. not carry this network to a completely different result than it would be
  265. expected ? Will it be that the activation's timing (spike timing)
  266. between neurons of an especific network do not deserve too more attention
  267. than the mere emulating of the majority of ours latest ANNSs, even with
  268. parallel and/or concurrent processing ?
  269.  
  270.     Would not this synchronism (above mentioned) be responsible for our
  271. primitive intuitive notion of velocity and time (epistemological talking) ?
  272.  
  273.     Maybe this discussion would be of greater interest for the people of
  274. Construtivist IA (or Construtivist Connectionist IA).
  275.  
  276.     I would be glad in order to receive opinious and/or even outcomings
  277. form researchs (preferential via neuron-digest list) with this in mind
  278. (including 'neural-boards' using Analog implementations, DSPs inmplementations,
  279. neuron-chips or transputers outcomings).
  280.  
  281. Fernando Passold
  282. (Master degree student)
  283. Biomedical Engineering Group
  284. Santa Catarina Federal University
  285. BRAZIL
  286. E-mail: EEL3FPS@BRUFSC.BITNET
  287.  
  288.  
  289. ------------------------------
  290.  
  291. Subject: Production scheduling systems?
  292. From:    shim@educ.emse.fr
  293. Date:    15 Oct 92 20:03:48 +0000
  294.  
  295. Can anyone suggest some references or who have worked to apply on the
  296. production scheduling systems with neural networks.  And, could someome
  297. forward me Mr. Yoon-Pin Simon Foo's email address(I think he is(or was)
  298. in Univ. South Carolina.).
  299.  
  300. Thank in advance.
  301.  
  302.  
  303.  
  304. ------------------------------
  305.  
  306. Subject: non-linear dynamical modelling?
  307. From:    ABDEMOHA@th.isu.edu
  308. Organization: Idaho State University
  309. Date:    15 Oct 92 20:42:39 -0700
  310.  
  311. Dear Sir
  312. I would like to inquire about the use of neural networks in modelling
  313. non-linear dynamical systems. This may also include the ability of
  314. the neural networks to approximate systems governed by a pre-known
  315. partial differential equations?.
  316. Mohamed A. Abdel-Rahman
  317.  
  318.  
  319. ------------------------------
  320.  
  321. Subject: Modeling question
  322. From:    ABDEMOHA@th.isu.edu
  323. Organization: Idaho State University
  324. Date:    15 Oct 92 20:46:33 -0700
  325.  
  326. Dear Sir:
  327. I was trying to use the backpropagation neural network to approximate
  328. a certain function. I found out that the resulting network could
  329. approxiamte the high value output points more than the low value
  330. points. I think thos maybe dur to that the error surface is an
  331. absolute one. Have there been any trials to construct a relative
  332. error surface (i.e. |(Fa(w) - Fd(w))/Fa(w)|).
  333. Mohamed A. AbdelRahman
  334.  
  335.  
  336. ------------------------------
  337.  
  338. Subject: Job at Booz, Allen & Hamilton
  339. From:    brettle@picard.ads.com (Dean Brettle)
  340. Date:    Mon, 19 Oct 92 18:15:51 -0500
  341.  
  342.  
  343. NEURAL NETWORK DEVELOPERS
  344.  
  345. Booz, Allen & Hamilton, a world leader in using technology to solve
  346. problems for government and industry, has immediate openings for
  347. experienced neural network developers in our Advanced Computational
  348. Technologies group.
  349.  
  350. If chosen, you will help develop, implement and evaluate neural
  351. network architectures for image and signal processing, automatic
  352. target recognition, parallel processing, speech processing, and
  353. communications.  This will involve client-funded work as well as
  354. internal research and development.  To qualify, you must have
  355. experience in neural network theory, implementation, and testing;
  356. C/UNIX/X11; and parallel processing experience is a plus.
  357.  
  358. Equal Opportunity Employer. U.S. citizenship may be required.
  359. Candidates selected will be subject to a background investigation and
  360. must meet eligibility requirements for access to classified
  361. information.
  362.  
  363. ENTRY-LEVEL CANDIDATES should have a BS or MS degree in either
  364. computer science, applied mathematics, or some closely related
  365. discipline and experience implementing neural network paradigms.
  366.  
  367. MID-LEVEL CANDIDATES should have a BS or MS degree in either computer
  368. science, applied mathematics, or some closely related discipline with
  369. >3 years experience. Candidates must possess a working knowledge of
  370. popular neural network models and experience implementing several
  371. neural network paradigms.
  372.  
  373. SENIOR-LEVEL CANDIDATES should have an MS or Ph.D. degree in either
  374. computer science, mathematics, computational neuroscience, electrical
  375. engineering or some closely related discipline. Published work and/or
  376. presentations in the neural network field are highly desirable.
  377. Experience applying neural network technology to real-world problems
  378. and in developing neural network programs (including marketing,
  379. proposal writing, and technical & contractual management) is required.
  380.  
  381. Booz, Allen offers a competitive salary, excellent benefits package,
  382. challenging work environment and ample opportunities to advance your
  383. career.  Please send a resume to Dean Brettle either by email to
  384. brettle@picard.ads.com, fax to (703)902-3663, or surface mail to Booz,
  385. Allen & Hamilton Inc., 8283 Greensboro Drive, Room 594, McLean, VA
  386. 22102.
  387.  
  388.  
  389. ------------------------------
  390.  
  391. Subject: Request for advice - sound localization
  392. From:    net@sdl.psych.wright.edu (Mr. Happy Net)
  393. Date:    Tue, 20 Oct 92 02:17:24 -0500
  394.  
  395. Dear Sir,
  396.         At Wright State University, we are working on developing an
  397. artificial neural net model of human sound localization.  One of our
  398. objectives has been to show that ANN's adhere to the Duplex Theory of
  399. Localization in that they make use of high frequency intensity cues over
  400. low frequency intensity cues, and low frequency temporal cues over high
  401. frequency temporal cues.  We have chosen to use the backpropagation 
  402. algorithm distributed in the NeuralShell package available from Ohio
  403. State University (anonymous ftp quanta.eng.ohio-state.edu).
  404. One of our approachs has been to train ANN's with low, mid, or high band 
  405. filtered signals.  A problem with this is that in humans, our
  406. "net" learns to deal with broad band signals by selecting which portions 
  407. of the signal to base judegments on.  On the other hand, if we train an 
  408. ANN with broad band signals, we would like to uncover which portions of 
  409. the input spectrum are most heavily affecting the ANN's decisions.  This 
  410. is difficult to do because we cannot merely zero out portions of the 
  411. input spectrum and test the ANN's performance, as such provides false 
  412. cues indicating the signal is comming from either directly in front of 
  413. or behind the head.  I would greatly appreciate any suggestions on how 
  414. to analyze the "weighting" the net gives to different portions of its input.
  415.  
  416. Jim Janko
  417. net@sdl.psych.wright.edu
  418.  
  419.  
  420.  
  421. ------------------------------
  422.  
  423. Subject: Algorithms for masssivley parallel machines?
  424. From:    "Rogene Eichler" <eichler@pi18.arc.umn.edu>
  425. Date:    Wed, 21 Oct 92 12:13:49 -0600
  426.  
  427. I am looking for references describing optimization algorithms for
  428. backprop type networks on either the CM-200 or CM-5. i.e. What algorithms
  429. best exploit the massive parallelism?
  430.                                                 Thanks!
  431.                                                         - Rogene
  432.  
  433.                                                 eichler@ahpcrc.umn.edu
  434. ------------------------------
  435.  
  436. Subject: Postdocs at Rockefellar
  437. From:    Zhaoping Li <zl%venezia.ROCKEFELLER.EDU@ROCKVAX.ROCKEFELLER.EDU>
  438. Date:    Thu, 22 Oct 92 11:53:40 -0500
  439.  
  440.  
  441.  
  442.         ROCKEFELLER UNIVERSITY
  443.  
  444. anticipates the opening of one or two positions in Computational 
  445. Neuroscience Laboratory. The positions are at the postdoctoral level,
  446. and are for one year, renewable to two, starting in September 1993. 
  447. The focus of the research in the lab is on understanding the 
  448. computational principles of the nervous system, especially
  449. the sensory pathways. It involves analytical and computational approaches
  450. with strong emphasis on connections with real neurobiology.  Members 
  451. of the lab include J. Atick, Z. Li, K. Obermayer, N. Redlich, and
  452. P. Penev. The lab also maintains strong interactions with other labs at
  453. Rockefeller University, including the Gilbert, Wiesel, and the biophysics
  454. labs.
  455.  
  456. Interested candidates should submit a C.V. and arrange to have three 
  457. letters of recommendation sent to
  458.  
  459. Prof. Joseph J. Atick
  460. Head, computational neuroscience lab
  461. The Rockefeller University
  462. 1230 York Avenue
  463. New York, NY 10021 USA
  464.  
  465. The Rockefeller University is an affirmative action/equal opportunity 
  466. employer, and welcomes applications from women and minority candidates.
  467.  
  468.  
  469. ------------------------------
  470.  
  471. End of Neuron Digest [Volume 10 Issue 15]
  472. *****************************************
  473.