home *** CD-ROM | disk | FTP | other *** search
/ ProfitPress Mega CDROM2 …eeware (MSDOS)(1992)(Eng) / ProfitPress-MegaCDROM2.B6I / MAGAZINE / MICROCOR / ISSUE_51.ZIP / README < prev    next >
Encoding:
Text File  |  1989-09-18  |  6.1 KB  |  119 lines

  1.                 NEURAL NETWORK PC TOOLS
  2.  
  3.                  SOFTWARE USER'S GUIDE
  4.  
  5.      $Revision:   1.0  $            $Date:   18 Sep 1989  9:38:14  $
  6.  
  7.      INTRODUCTION
  8.  
  9.      The software described in this User's Guide is that described in the
  10.      chapter on Neural Network PC Tool Implementations in the book entitled
  11.      Neural Network PC Tools: A Practical Guide, to be published by
  12.      Academic Press in 1990.  This software may be copied and distributed
  13.      AS LONG AS IT IS NOT MODIFIED.  In particular, any problems with the
  14.      source code should be brought to the attention of the authors.
  15.  
  16.      If you use this software, consider it as shareware and please send
  17.      $5.00 to the authors at the following address:  Roy Dobbins, 5833
  18.      Humblebee Road, Columbia, MD 21045.  As additions are made to this
  19.      software diskette, such as including self-organizing (Kohonen)
  20.      networks, the price will increase.  It is anticipated that the price
  21.      for the diskette sold in conjunction with the book will be about $20.
  22.  
  23.      BACKGROUND
  24.  
  25.      Much excitement exists due to the apparent ability of artificial
  26.      neural networks to imitate the brain's ability to make decisions and
  27.      draw conclusions when presented with complex, noisy and/or partial
  28.      information.  This software is for the engineer or programmer who is
  29.      interested in solving practical problems with neural networks.
  30.  
  31.      It is a myth that the only way to achieve results with neural networks
  32.      is with a million dollars, a supercomputer, and an interdisciplinary
  33.      team of Nobel laureates.  There are some commercial vendors out there
  34.      who would like you to believe that, though.
  35.  
  36.      Using simple hardware and software tools, it is possible to solve
  37.      practical problems that are otherwise impossible or impractical.
  38.      Neural network tools (NNT's) offer a solution to some problems that
  39.      can't be solved any other way known to the authors.
  40.  
  41.      THE BACK-PROPAGATION NNT: BATCHNET
  42.  
  43.      This release contains both source and executable code for a "standard"
  44.      three layer back-propagation neural network.  The executable program
  45.      is called batchnet.exe; its source code is in the file batchnet.c.
  46.      The program for generating random weights used as input to the
  47.      training run is weights.exe; its source code is in weights.c.  These
  48.      files were compiled using Turbo C v 2.0, but can also be compiled in
  49.      Microsoft C.
  50.  
  51.      They were compiled using the 80x87 emulator mode, so that they will
  52.      run even if you don't have a co-processor.  If you have a coprocessor
  53.      and want batchnet to run faster, which may be especially important in
  54.      training, you can recompile batchnet.c using the 80x87 option. Always
  55.      use the compact model.
  56.  
  57.  
  58.      To run the batchnet program, you must specify the run file that it
  59.      will use.    Look at the demo.bat and demo.run files to see what we
  60.      mean.  Demo.bat also illustrates one of the options for batchnet; you
  61.      can specify the interval of iterations between error printout.  (The
  62.      error is the mean sum-squared error of the output nodes.)
  63.  
  64.      The other option for batchnet is to specify what sum-squared error is
  65.      required for the program to terminate training.  The default value is
  66.      0.04.  The default number of iterations between error printouts is
  67.      100.
  68.  
  69.      In the run file, you specify a number of things.  Look at demo.run in
  70.      detail to see what they are; there is explanation following the run
  71.      data for the two runs that tell what goes where.
  72.  
  73.      First, you specify the number of runs.  The demo has two.    This is
  74.      fairly typical.  You often have a training run followed by a test run,
  75.      as is the case in the demo.
  76.  
  77.      You then specify the filenames for a number of files: the output file
  78.      that gives the values of the output nodes for each pattern on the last
  79.      iteration (or the only iteration, if you are in testing mode and there
  80.      is only one iteration), the error file that gives you the average sum
  81.      squared error value each specified number of iterations, the source
  82.      pattern file (values normalized between 0 and 1), the input weights
  83.      file (generated by weights.exe for a training run, and consisting of
  84.      the output weights file from training for a testing run), and the
  85.      output weights file which gives you weight values after the last
  86.      iteration.
  87.  
  88.      Note that the pattern files have values for each input node followed
  89.      by values for each output node followed by an ID field that you can
  90.      use to identify each pattern in some way.    The input and output node
  91.      values should be between 0 and 1.
  92.  
  93.      Following filenames, you specify, for each run, the number of input
  94.      patterns, the number of epochs (iterations of entire pattern set), the
  95.      number of input nodes, number of hidden nodes, number of output nodes,
  96.      the value for the learning coefficient eta, and the value for the
  97.      momentum factor alpha.  The number of epochs varies a lot during
  98.      training, but often is in the range of 100-1000; during testing, you
  99.      only do one iteration.
  100.  
  101.      Sample files are given that you can run with demo.bat; the output
  102.      files you will get when you run the demo are already on the diskette
  103.      as mytest.out, mytrain.out, mytrain.wts, mytest.wts, mytrain.err, and
  104.      mytest.err.  You will get similar files without the "my" prefix when
  105.      you run the demo.bat program, and you can compare corresponding files
  106.      to see that they are the same.
  107.  
  108.      All you have to do is run "demo.bat" in order to both train and test
  109.      the batchnet artificial neural network on the patterns in the
  110.      train.pat and test.pat files.  These pattern files are built from
  111.      actual electroencephalogram (EEG) spike parameter data, and illustrate
  112.      the use of a parameter-based NNT.
  113.  
  114.      The training phase of the demo.bat will probably take about 45 minutes
  115.      on a 4.77 MHz 8088 PC with coprocessor. A 10 MHz Grid 80286 Laptop with
  116.      no coprocessor takes about 140 minutes. The coprocessor makes the
  117.      difference!
  118.  
  119.