home *** CD-ROM | disk | FTP | other *** search
/ Fish 'n' More 2 / fishmore-publicdomainlibraryvol.ii1991xetec.iso / disks / disk411.lzh / Mind / Mind.lzh / Theory2 < prev    next >
Text File  |  1990-11-21  |  164KB  |  2,678 lines

  1. Artificial Intelligence Theory Journal, Part Two of Three
  2.  
  3. (1977 - 1978)
  4.  
  5. Standard Technical Report Number:  MENTIFEX/AI-2
  6.  
  7. by Arthur T. Murray
  8.    Mentifex Systems
  9.    Post Office Box 31326
  10.    Seattle, WA 98103-1326 USA
  11.  
  12. (Not copyrighted; please distribute freely.)
  13.  
  14.                                                                  24 AUG 1977
  15.  
  16.      The theory  which we are developing is that of the establishment of the
  17. comparator as the mechanism basic to intelligence.
  18.      In continuation of yesterday's thoughts,  we  were  reasoning  just now
  19. about a  mental organism  momentarily deprived  of all input perception, but
  20. still consisting of memory and  a  kind  of  "central  processor."   Because
  21. lately we've  been reasoning that one's "level" of intelligence has a lot to
  22. do with how many associative inputs ("tags") are available simultaneously to
  23. impinge  serially  upon  one's  consciousness.    Because,  in  a  way,  how
  24. intelligent one is, is a function of how likely one is to make a tenuous but
  25. valid mental connection.
  26.      We could  give a mind an intelligence test of walking down a street and
  27. providing the names for all familiar human beings met on the street.
  28.      We suspect pretty  strongly  that  physical  knowledge  of  the outside
  29. world, such as of visual images, relies upon analysis by exact comparator at
  30. any  level  of  detail   or  refinement.     Because   a  visual   image  is
  31. incomprehensible unless  you start  dealing with  some small group of points
  32. upon it.
  33.      However, on the scratch-leaf  for this  paper of  today, we  wrote down
  34. what we  got as  a parallel idea:  that coded things do not require the same
  35. sort of comparator analysis, because coded structures are exact; they do not
  36. have the variations and vagaries of visual images.
  37.      So perhaps  the great  syncretism of  today Wednesday is to take up the
  38. idea that both those  two  elements  go  to  make  up  an  intelligent mind:
  39. comparators and coded structures.
  40.      Comparators  would  be  necessary  for  vision and coded structures for
  41. language.
  42.      The comparator  system is  that with  which we  come to  know the outer
  43. world; the  coded-structure system  is that with which we come to hold inner
  44. mental concepts.
  45.  
  46.                               Scratch-Leaf                       24 AUG 1977
  47.  
  48.      - Idea:  That coded things can be on any level of a base-three 
  49. expanding pyramid, because by definition they must be totally exact.  
  50. Therefore language can have twenty-six letters or umpteen sounds or 
  51. perhaps even 20,000 calligraphic characters.
  52.      - The self-concept of "I" is made possible by means of the "coded 
  53. structure."  Through the exact coded structure the word "I" has access to
  54. any of the myriad associations needed to transform the word into the
  55. concept.
  56.  
  57.  
  58.                                                                  26 AUG 1977
  59.  
  60.                     Organization of Nolarbeit File System
  61.  
  62. - master file
  63.      - not necessarily the original documents.
  64.      - typewritten as much as possible.
  65.      - Drawings and figures should be photocopied into the typewritten 
  66.        material.
  67. - manuscript storage file
  68.      - not necessarily a complete file of all Nolarbeit material
  69.      - serves as a Sammelpunkt for handwritten documents once their contents
  70.        have become typewritten for the master file.
  71. - safety file
  72.      - a copy of the contents of the master file
  73.      - to be kept at a place safely away from the master file, so that if 
  74.        either is lost, it can be replaced by copying the other.
  75. - attache file
  76.      - main working file for developing new material.
  77.      - to be carried about in attache case.
  78.      - along with the other complete Nolarbeit files, must be thoroughly 
  79.        indexed to facilitate new work.
  80.  
  81.  
  82.                                                                  26 AUG 1977
  83.  
  84.      Two days  ago we  figured out a duality of comparator-system and coded-
  85. structure theoretically necessary for high intelligence, that is, the use of
  86. language.
  87.      Today we were reading the work of 8 AUG 1976, and at a lot of points in
  88. there the new significance of coded-structure makes sense.
  89.      Although a brain gets to know the outer world through a geometric-logic
  90. comparator  system,  it  is  the coded-structure system which makes possible
  91. high-speed intelligent thought.   If  we  posit  this  theory,  we  attain a
  92. tentative  answer  to  the  age-old  question  of  whether or not thought is
  93. possible without using words.   The  answer  is  that,  over  a  spectrum of
  94. thought, words are needed for the most intellectual levels.  By using a word
  95. to name  any  outside  thing  or  action,  a  brain  establishes  a punctual
  96. collector of  any associative tags that deal with the outside item, and thus
  97. a concept takes root within the mind.  No matter  how long  the word  is, it
  98. still operates as a single point.
  99.      It  is  very  possible  that  the  "central  processor" of a mind would
  100. contain the coded-structure which  would provide  access to  words stored in
  101. memory along with their bundles of "valent" (stronger or weaker) associative
  102. tags.  Of course, in a coding system for words, the address of a word-memory
  103. is perhaps identical with its codical breakdown.
  104.      Now the use of a word as, say, noun or verb, or, subject or object, has
  105. to do  with a  processing structure.   Such  a processing  structure is like
  106. nodes which  can contain  any element ad libitum.  So we should consider the
  107. linguistic processor to be distinct from un-node-like memory.  It  may arise
  108. in the  human infant just by the laying down of memory traces, in similar or
  109. dissimilar material, but we don't know here yet.
  110.  
  111.  
  112.                                                                  27 AUG 1977
  113.  
  114.        O O O          O O O          O O O          O O O
  115.        O O O          X O O   ===>   O X O   =#=>   O O O
  116.        X X X   ===>   O X X          O X X          O X X
  117.  
  118.        L H R
  119.  
  120. - Everything moves in relationship to the head, "H."
  121. - We consider that the head wills and does the moving.
  122. - The head has two arms, left (L) and right (R).
  123. - It may have to have a way of "feeling" where an arm is at any time.
  124. - Each arm can be moved around among only three spaces relative to the head.
  125.   These spaces  are the side space, the front space, and the diagonal space 
  126.   in between.
  127. - The head can move an arm directly from side to front, or first to diagonal
  128.   and then to front.
  129. - The head can not move an arm behind its own back, so to speak.
  130. - The head  will probably have to have an imaginary eye which must always be
  131.   focused on some moveable point in the immediate image.
  132. - The eye-focus can stay on the same point while the body moves,  only under
  133.   certain circumstances.  The eye can not be caused to be looking behind the
  134.   body or outside of the allowed visible field.
  135. - There may perhaps be "sleep" during which the eye stops seeing.
  136. - The head can move, and when it does so, ceteris paribus, it moves the  
  137.   whole body, which retains its configuration.
  138. - The head can move to any adjacent point except those three "behind" it.
  139. - It would  be possible to make a logically valid mock-up of this microcosm 
  140.   or pseudocosm by having a flat array of light bulbs  that could illuminate
  141.   either points (or squares).  A lighted bulb would indicate the presence of
  142.   an object.  A human could move a  bulb-object by  means of  a kind  of    
  143.  "joystick," so  that pushing  the joystick forward or sideways would make   
  144.   the corresponding move on the array.  The orientation of  arms could  be    
  145.   controlled by  six pushbuttons,  three on each side of the joystick.  The   
  146.   operative pushbutton on each side could be lighted by an  inside bulb.      
  147.   Then if the arm configuration was to be changed during a move, the desired
  148.   new configuration could be entered by pushbutton while the joystick  were  
  149.   manipulated.
  150. - As one  step, the body can revolve 45 degrees at a time with the head as  
  151.   the axis, in either direction.
  152.  
  153.  
  154.                                                                  28 AUG 1977
  155.  
  156.      The  bouleumatic  system  for  the  speech  pseudo-organs  will  be the
  157. mechanism which engages in thought.
  158.      This seems to be an important theory.
  159.      Under  the  bouleumatic  theory  (q.v.)  both  motor  memory  and motor
  160. volition are necessary to  initiate  a  motor  action.    VERBAL  THOUGHT IS
  161. THEREFORE  THE  ACTIVATION  OF  VERBAL  MOTOR MEMORY WHILE WITHHOLDING MOTOR
  162. VOLITION.
  163.      One might  interject that  just to  run through  a train  of words from
  164. memory is a kind of volition.  However, Nommultic theory renders a different
  165. definition.  Under Nommultic theory an unspoken mental  thought which arises
  166. is  a  spontaneous  linking  of  associative  tags  summoning  quasi-unitary
  167. concepts or elements from  memory.    Therefore  a  nascent  thought  is not
  168. willed, but  rather it  is like  the topmost point of the iceberg of all the
  169. logical processing going on in the mind.
  170.      A  thought  can  become  will  (volition)  by  tipping   a  bouleumatic
  171. accumulator into  motor volition.   The accumulator prevents linear volition
  172. while implementing a kind of two-dimensional volition.  Come to think of it,
  173. that  reasoning  suggests  that  thought  is a linear component of volition.
  174. Volition,  however,  is  non-linear,  so  it  takes  what   you  might  call
  175. exponential thought to bring about motor volition.
  176.      In the  night we  were theorizing on how the verbal motor memory system
  177. would in itself constitute the mechanism of verbal thought in a brain.  That
  178. is, there  would not  be a  separate mechanism  conveying its results to the
  179. verbal motor system.  What we must now investigate is  whether or  not there
  180. would probably  be a  kind of  superstructure of  extra processing equipment
  181. involved with the verbal thought mechanism.
  182.      What we are looking for is what we might call a "habit" mechanism.  The
  183. human mind  has the  ability consciously or unconsciously to train itself to
  184. create sentences in manifold ways.
  185.      Under Nommultic theory, the basic semantic  ingredients for  a sentence
  186. just come willy-nilly to the conscious mind, from memory or from perception.
  187.      We observe a portion of the associative "tapestry" being able to govern
  188. or modify the  operation  of  the  associative  process  in  or  along other
  189. portions of  the tapestry.   For instance, a human speaker can easily insert
  190. an arbitrary syllable after  each word  in sentences,  such as,  "I-ay am-ay
  191. here-ay."   Such insertion  slows down but does not stop the creative verbal
  192. process which is thought.
  193.      However, we can carry the investigation  even  further.    It  looks as
  194. though the  "habit-mechanism" has  a kind of double access to verbal memory.
  195. The problem of noun-plurals serves as an example.  On the one  hand, perhaps
  196. the "habitmech"  knows the  usual way to form English noun-plurals.  So when
  197. emerging thought calls for a noun-plural, it would be easy for the habitmech
  198. to process  the retrieved  noun and  deliver it with the standardized plural
  199. ending.  Now there could be a delaying mechanism where  time is  allowed for
  200. either standard pluralization or else irregular override.
  201.      Any  associative  process  which  grows  complex  can  be  regarded  as
  202. consisting of a surface and a "subcorpus."  Suppose a habit-mechanism causes
  203. associations to  link together  into sentences  in certain  ways.  While the
  204. habit is not yet routine, many extra "nodes" in the associative formation of
  205. a sentence  will run  through the  consciousness.  However, when the process
  206. becomes smoothed out, only the end-product sentences will remain as surface,
  207. as  associative   chains,  and  the  strictly  processor  associations  will
  208. disappear down into the subcorpus.
  209.      We want to devise a way for all  kinds of  grammatical rules  to become
  210. operative in  the habit-mechanism and therefore in the subcorpus.  A grammar
  211. rule is a piece of associable information, but  it is  one which  can affect
  212. myriad other pieces as they are called out of memory and manipulated.
  213.  
  214.  
  215.                                                                  30 AUG 1977
  216.  
  217.                     Key Modules List for Nommultic Device
  218.  
  219.       _____________      _____________________           ______________
  220.      |             |    |                     |         |              |
  221.      | environment |--->| perception channels |         | Motor Output |
  222.      |_____________|    |_____________________|         |______________|
  223.  
  224.          ____________       __________________
  225.         |            |     |                  |
  226.         | Logic      |     | Coded-Perception |
  227.         | Comparator |     | Channels         |
  228.         |____________|     |__________________|
  229.  
  230.                 ___            ____________       ______
  231.                |   |          |            |     |      |
  232.                | M |          | Central    |     | M  M |
  233.                | E |          | Logic      |     | O  E |
  234.                | M |          | Processor? |     | T  M |
  235.                | O |          |____________|     | O  O |
  236.                | R |                             | R  R |
  237.                | Y |                             |    Y |
  238.                |___|                             |______|
  239.  
  240.         ___________                                    ___________
  241.        |           |   _________    _______________   |           |
  242.        | Passive   |  |         |  |               |  | Motor     |
  243.        | Coded     |  | Sensory |  | Motor         |  | Coded     |
  244.        | Memory    |  | Tagging |  | Habit Tagging |  | Memory    |
  245.        | Structure |  | System  |  | System        |  | Structure |
  246.        |___________|  |_________|  |_______________|  |___________|
  247.  
  248.  
  249.      It  may  be  that  there  are  two different tagging systems, a passive
  250. sensory tagging system and an active  or motor  habit tagging  system.  This
  251. idea came quite suddenly just now.
  252.      It may  be the  coded-structure system which bridges the passive-active
  253. polarity of the mind.  The coded-structure system  is one  where perceptions
  254. and motor output must obviously be involved with the same place.
  255.      When we hear a word, it filters right through an instantaneous decoding
  256. locator system to reach the associative  node which  pinpoints a  concept by
  257. holding all  the associated tags in one spot.  So what we hear goes straight
  258. to a conceptual node.
  259.      The motor output is more complicated.  It is clear  that a  verbal node
  260. is probably the strongest, surest associative link to any information stored
  261. in passive or active memory.  That is to say, the mind has all its memory at
  262. its fingertips when it is operating in the realm of a verbally coded system.
  263.      I suspect  that the verbal input code is automatically the address of a
  264. concept node.  I would suspect  that the  mind would  not even differentiate
  265. among different languages as to where a word was stored.
  266.      We  immediately  imagine  a  problem  because  we want all the physical
  267. addresses not to be encumbered with dozens or  hundreds of  associative tags
  268. getting in  the way  of the  very decoding  lines.   It's as  if we wanted a
  269. single line to  come  out  from  each  node  and  go  somewhere  else before
  270. branching out into all possible associations.
  271.  
  272.      Very likely  the decode-line comes out of the auditory address area and
  273. goes like the top of a "T" into the verbal motor output.  The  bottom of the
  274. "T" goes  to the  concept node.   If activated by volition, the motor memory
  275. for  any  discrete  word  probably  "avalanches"  onto  a  group  of muscle-
  276. activation bars,  so that  there need  be no picking and choosing of letter-
  277. sequences.  The verbal motor bars, before volition, probably also  feed back
  278. into coded sensory input, so that the mind can "hear itself think."
  279.  
  280.  
  281.                                                                  30 AUG 1977
  282.  
  283.    _______________________                          ________________
  284.   |                       |                        |                |
  285.   |  Perception Channels  |                        |  Motor Output  |
  286.   |_______________________|                        |________________|
  287.  
  288.               .*.                                         .*.
  289.             .*   *.                                     .*   *.
  290.           .*       *.                                 .*       *.
  291.         .*           *.                             .*           *.
  292.       .*            .* *.                         .* *.            *.
  293.      *            .*     *.                     .*     *.            *
  294.     /            *         *.                 .*         *            \
  295.    /            /            *               *            \            \
  296.   /    P       /            /                 \  Motor     \       M    \
  297.  *     A      /            /                   \            \      O     *
  298.  >     S     *            /                     \            *     T     <
  299.  :     S    >   Sensory  *                       *  Habit     <    O     :
  300.  :     I    :           >                         <           :    R     :
  301.  |     V    |           :                         :           |          |
  302.  |     E    |  Tagging  |                         |  Tagging  |    M     |
  303.  |          |           :                         :           |    E     |
  304.  :     M    :           >                         <           :    M     :
  305.  :     E    >   System   *                       *  System    <    O     :
  306.  >     M     *            \                     /            *     R     <
  307.  *     O      \            \                   /            /      Y     *
  308.   \    R       \            \                 /            /            /
  309.    \   Y        \           .*               *.           /            /
  310.     \            *.       .*                   *.       .*            /
  311.      *.            *.   .*                       *.   .*            .*
  312.        *.            *.*                           *.*            .*
  313.          *.         .*                               *.         .*
  314.            *.     .*                                   *.     .*
  315.              *. .*                                       *. .*
  316.                *                                           *
  317.  
  318.  
  319.                                                                  30 AUG 1977
  320.  
  321.                                          /|\
  322.                                           |  To concept nodes.
  323.                               |  |  |  |
  324.                               |  |  |  |
  325.                               |  |  |  |
  326.    Verbal   |  Individual   --+--)--)--)--   Individual     Avalanche
  327.    Sensory  |  Concept      -----+--)--)--   Word Motor     Speech Muscle
  328.    Decoder  |  Addresses    --------+--)--   Output         Control
  329.             |               -----------+--   Chains         Bars
  330.  
  331.  
  332.                                                                  31 AUG 1977
  333.  
  334.      Late  yesterday  we  were  considering  a  system  of decoding of heard
  335. language and motor generation of  words  connected  to  concept  nodes.   We
  336. imagined a "T" with the input and output across the top and with the concept
  337. node at the base.
  338.      Then we were reasoning  on  how  those  concept  nodes  really pinpoint
  339. everything:    the  audible  word,  the  generation of the word, and all the
  340. associations which flesh out the word as a concept.
  341.      Now we are figuring  out  how  concept-points  or  nodes  will interact
  342. within the  mind.   Obviously they can't interact as unitary points, because
  343. then they have no distinction.  They interact through the  features that are
  344. associated into them.
  345.      Thought  occurs  by  virtue  of the "coiled-spring function" of logical
  346. aggregates in the mind.
  347.      Any verb for a complex action is really reducible to  a list  of simple
  348. actions.
  349.      How can you express a subject, an action, and a direct object in purely
  350. logical terms?  There  is conditional  logic, but  is there  semantic logic,
  351. logic to correspond to what a transitive verb does in a sentence?
  352.      If we want to find semantic logic, we have to go into that small array-
  353. world where there are so few  points that  everything is  totally unique and
  354. totally describable.
  355.      The simplest transitive verb would be something like "touch," "hit," or
  356. "push."
  357.  
  358.      A verb (such as "hit") does not show  just one  arrangement of  all the
  359. dots in  the array.   I suppose it does show the arrangement of all the dots
  360. at the crucial instant, but,  as  an  action-word,  it  must  also  show the
  361. arrangement of the dots at a previous instant.
  362.  
  363.      We are able to express "touch," "hit," and "push" symbolically, or with
  364. dots, on our scratch-leaf for today, but we  have trouble  trying to  make a
  365. universally valid statement of semantic logic out of the triple sequences of
  366. arrays.  It may be necessary to use kind of a switcheroo.
  367.      First you express the verb on the dot-level so that the machine absorbs
  368. the  concept  in  unique  and  describable terms, with reference only to the
  369. dots.  Then you abstract the concept through re-expressions of the states in
  370. the sequence.
  371.  
  372.      With  just  three  dots,  you  can  have seven configurations.  So with
  373. sequences of three states, you can  have  343  different  things  happen, or
  374. reach 343 different words to describe unequivocally what happened.
  375.      The  simplest   language-relationships  correspond   to  summation  and
  376. subtraction.    Complex  language   relationships  are   reducible  to  such
  377. simplicity.
  378.  
  379.  
  380.  
  381. Diagram of Theoretical Model of the Human Mind                   10 SEP 1977
  382.  
  383.        ________________________________________________________________
  384.       /                                                                \
  385.      <                      E n v i r o n m e n t                       >
  386.       \________________________________________________________________/
  387.                 |                     |              /|\         /|\
  388.                 |                     |               |           |
  389.                 |                     |             __|__       __|___
  390.                 |                     |            |     |     |      |
  391.                 |                     | Internal   |  V  |     | G  M |
  392.                 |                     | Verbal     |  e  |     | e  o |
  393.                 |                     |<-----------|  r  |     | n  t |
  394.                 |                     | Perception |  b  |     | e  o |
  395.                 |                     | Line       |  a  |     | r  r |
  396.           ______V_______            __V__________  |  l  |     | a    |
  397.     _____|              |     _____|             | |     |     | l  M |
  398.    |     | Experiential |    |     | Auditory    | |  M  |     |    e |
  399.  __V___  | Associative- |  __V___  | Associative | |  o  |/### | M  m |/###
  400. |      | | Tagging      | |      | | Memory-     | |  t  |\### | u  o |\###
  401. | E  M | | Comparator   | | A  M | | Tagging     | |  o  |  ## | s  r |  ##
  402. | x  e | |              | | u  e | | System      | |  r  |  ## | c  y |  ##
  403. | p  m | |______________| | d  m | |_____________| |     |  ## | u    |  ##
  404. | e  o |       /##\       | i  o |      /##\       |  M  |  ## | l    |  ##
  405. | r  r |        ##        | t  r |       ##        |  e  |  ## | a    |  ##
  406. | i  y |        ##        | o  y |       ##        |  m  |  ## | t    |  ##
  407. | e    |        ##        | r    |       ##        |  o  |  ## | u    |  ##
  408. | n    |        ##        | y    |       ##        |  r  |  ## | r    |  ##
  409. | t    |        ##        |      |       ##        |  y  |  ## | e    |  ##
  410. | i    |/#######################################   |     |  ## |      |  ##
  411. | a    |\#######################################   |_____|  ## |______|  ##
  412. | l    |                  |      |       ##   ##     /|\    ##    /|\    ##
  413. |      |                  |      |/########   ##      |     ##     |     ##
  414. |      |                  |      |\########   ##      |     ##     |     ##
  415. |______|                  |______|            ##      |     ##     |     ##
  416.                                               ##      |     ##     |     ##
  417.                                 ################      |     ##     |     ##
  418.                                 ################      |     ##     |     ##
  419.                                 ##      Volition Line |     ##     |     ##
  420.                                 ##   /----------------'     ##     |     ##
  421.                                 ##   |     Volition Line    ##     |     ##
  422.                                 ##   |  /-------------------##-----'     ##
  423.                              __\##/__|__|_      ____________##_   _______##
  424.                             |             |    |               | |         |
  425.                             | Conceptual  ####\| Verbal Motor  | | General |
  426.                             | Address     ####/| Habit Tagging | | Motor   |
  427.                             | Nodes as    |    | System        | | Habit   |
  428.                             | Motor Coded ######################\| Tagging |
  429.                             | Memory      ######################/| System  |
  430.                             |_____________|    |_______________| |_________|
  431.                                 |   |                 /|\            /|\
  432.                                 |   |  Volition Line   |              |
  433.                                 |   \------------------'              |
  434.                                 |      Volition Line                  |
  435.                                 \-------------------------------------'
  436.  
  437.  
  438.                                                                  16 SEP 1977
  439.  
  440.      Our mind  is now  ready to  focus upon  the "Verbal Motor Habit Tagging
  441. System" in the diagram  of 10SEP1977.   In  the days  since then  we haven't
  442. really  been   forging  ahead,   because  we've  been  busy  typing  up  and
  443. photocopying much  previous  Nolarbeit  material.    Now  that  our  yen for
  444. theorizing has  casually turned  its attention to verbal motor, I think this
  445. is a good opportunity to record  and analyze  if any  creative process shows
  446. itself now.
  447.      The hopefully  creative process  is starting out with our mind thinking
  448. of a black-box mechanism for which it has a purpose but for which it can not
  449. yet describe  the interior  workings.  The purpose is partially that we want
  450. the VMHTS at its output to have control  of discrete  individual motor sound
  451. units, and  we want  the interior  VMHTS to group together those units as an
  452. avalanche string to go with any desired "conceptual address node" punctually
  453. representing a word which is really a string of motor sound units.  In other
  454. words, we want the single node, coupled with volition, to be able to produce
  455. rapidly the  whole string  of verbal sound units in the given word.  We want
  456. the automaton to be  able to  spend some  time learning  the "habit"  of the
  457. sound-string, and thenceforth to be able to pronounce it briskly and in such
  458. a way that the associated  verbal  habit  tagging  mechanism  functions only
  459. beneath  the  surface  and  does  not  intrude into the conscious process of
  460. uttering or thinking the word.
  461.      Our other partial purpose  is  that  we  may  want  the  same  VMHTS to
  462. incorporate the grammar structures of language.  At any rate, we expect that
  463. the learning and use of grammar  will be subject to some sort of motor habit
  464. tagging system,  but we are a little afraid that the grammar problem will be
  465. much more difficult than  the word-habituation  problem, simply  because the
  466. inputs to  a mechanism  of grammar-function will have to be discriminated so
  467. complicatedly as to such things as  what part  of speech  they are  and what
  468. function they are assuming.
  469.      For the  word-generation problem,  we envision right now an output that
  470. controls around forty different motor tags, a number we get  from the UNIFON
  471. alphabet published 29AUG1977 in the Seattle P-I.  It shows English as having
  472. sixteen vowels and twenty-four consonants.
  473.      So that's  where we  are now  - trying  to figure  out how  to stack up
  474. sounds on  a pull-string  and how then to submerge the system in a subcorpus
  475. so that only the habituated results appear during system operation.
  476.      We feel pretty optimistic about the VMHTS because we suspect in advance
  477. that  the  word-habituation  can  be  done quite automatically.  In fact, we
  478. should be  able to  design a  general-purpose habituation  device which will
  479. link  up  any  desired  sequence  of outputs with any single, nodular input.
  480. It's as if the mind can run through any sequence of outputs  slowly and then
  481. just decide to "freeze" them as a habit.
  482.      We do  worry about  designing such a cumbersome mechanism that it would
  483. be hard to imagine its analog  being  provided  genetically.    We  want our
  484. system  to  be  simple  or  straightforward  enough  that it could be formed
  485. embryonically according to genetic code.  We will  accept even  a cumbersome
  486. mechanism and then try to simplify it.
  487.      If we  actually do figure out a device which will habituate up to forty
  488. outputs, then I think it would be pretty  easy to  give even  an inexpensive
  489. automaton the  ability to  say words out loud.  We would just make the forty
  490. outputs go to an actual mechanism of sound-production.  It  could be perhaps
  491. bits of  voice-tape or  even some kind of digital memory.  That would really
  492. sound spooky,  to hear  the machine  pronouncing words  out loud.   It would
  493. probably sound  hiccupy or  rasping, but quite intelligible.  Later on in an
  494. expensive model we could give the machine a  superlative voice  such as that
  495. of actor Richard Burton.
  496.  
  497.                                    Scratch-Leaf
  498.  
  499. - Output of up to 40 units.
  500. - Input as  a node, but output must be compared with the sound series behind
  501.   the node.
  502. - Obviously, the build-up chain of the sound-series to be habituated  will  
  503.   start with  just finding  the initial sound in motor memory, and then it   
  504.   will just add on sounds.
  505. - For the auditory input, we may  have to  have a  kind of  slip-through    
  506.   comparison chain,  where sequences are kind of slid past each other to see  
  507.   if they match up anywhere.
  508. - For the auditory input, we might establish a kind of  "short-term memory."
  509.   By "short-term" we would mean memory that goes into a special register.
  510. - Whenever I  get the idea of building registers, I feel the urge to attach 
  511.   umpteen possible processing mechanisms to them.
  512. - Contemporary psychologists have researched  short-term  memory  quite     
  513.   thoroughly, so I could always read up on it.
  514. - When the  psychologists say  that seven  things can  stay in short-term   
  515.   memory, what they probably mean is seven different concept nodes.
  516.  
  517.  
  518.                                                                  20 SEP 1977
  519.  
  520.                     Mental Processing of Transitive Verbs
  521.  
  522.      When we say that "A" does a transitive action to "B," it is like having
  523. three  crucial  nodes  filled  in  a logical association-assigning apparatus
  524. within a mind.
  525.      It is like saying, "A nodes B."
  526.      Switch-wise, for a three-word sentence  of  subject,  verb,  and direct
  527. object to be understood by an automaton requires only that each of the three
  528. verbal concepts gets tagged  to the  three crucial  nodes on  the processing
  529. niveau of the language-understanding apparatus.
  530.             A  V  C
  531.             o  o  o
  532.             1  2  3
  533.      Subject "A" does verb-action "V" to direct object "C."
  534.  
  535.      If A-V-C, then H and R.
  536.  
  537.      "H" is a "How?" relating to A, and "R" is a result relating to C.
  538.      It is  further possible  that A-V-C  also implies a two-way associative
  539. memory link between A and C with some kind of reference to V.
  540.          ______________________        ____________________________________
  541.         |                      |      |                                    |
  542.         | AVC  -->  H   &  R   |  or  | AVC  -->  H   &  R   &  AVC-tag    |
  543.         |            A      C  |      |            A      C            AC  |
  544.         |______________________|      |____________________________________|
  545.  
  546.      Now comes the semantic nitty-gritty.
  547.      "A" is a concept because it is a  bundle of  associative tags collected
  548. at a node, and so is "C."
  549.      The verb-concept  "V," by  virtue of being a transitive verb, can cause
  550. tag ends to be delivered for "HA" and "RC."
  551.      When I say that A-V-C implies RC, a result with respect to "C," I mean
  552. that to  "C" is  now associatively  connected a  nodular tag that leads to a
  553. whole list of different result-memories associated with the concept "V."
  554.      For example, if "A kills C," then  a  whole  list  of  images  of death
  555. becomes associated to the nodular concept of "C."
  556.      Thought then  has transpired because the mind's concept of "C" has been
  557. altered radically.  The new list for "C" probably does not erase other items
  558. for C, but rather it probably overrides them in associative priority.
  559.      At the  same time,  if "A  kills C," then a whole list (HA) of possible
  560. "how's" of killing becomes  associated to  the nodular  concept of  "A."  Or
  561. maybe just the question of "killing-how?" becomes associated with A.  If the
  562. "how" is  actually stated  in the  sentence, that  can be  associated to "A"
  563. instead of just the question.  Of course, language always leaves some degree
  564. of possible question.
  565.      So we see that the nodular concepts "A" and "C" are both altered by the
  566. sentence  with  the  transitive  verb.    The  process is meaningful but not
  567. precise.  "V" just gives its result-list to "C" and its how-list to "A."
  568.      Probably  the  sentence  itself  as  a  percept  goes  into  memory  of
  569. experience.
  570.      Notice the  importance of  the idea  that a transitive verb carries the
  571. two lists (subnodes?), the "how" and  the "result."   A  transitive verb can
  572. link  the  result-list  to  the  direct-object  concept.   I suppose that an
  573. intransitive verb would link both lists right back to the subject.
  574.  
  575.  
  576.                                                                  27 SEP 1977
  577.                                                            [U.W. Engr. Lib.]
  578.  
  579.      We have theorized that it may be possible to determine the least amount
  580. of learning necessary to implant a usable concept in a brain.
  581.      When a  concept is being summoned, it is represented by a unitary node.
  582. However, if a brain is to make use of a  summoned concept,  then features of
  583. its informational or logical content must come into play.
  584.      The  concept  is  a  bundle  of  tags.    Tags  have a kind of "pop-up"
  585. priority.
  586.      Ultimate informational content is  very  particular;  it  gets  down to
  587. arrays of yes-or-no bits like in a truth-table or a visual dot-array.
  588.      Thought can  perhaps proceed  by a process of surface-skimming.  When a
  589. concept is summoned, it can come  along internal  memory paths corresponding
  590. to one  or more  of the senses.  (If it is fetched in correspondence to only
  591. one  sense,  still  it  can  quickly  associate  into  other  senses.)   The
  592. appearance of  the summoned  concept is  a kind  of pregnant occurrence.  We
  593. don't know in advance  what use  the brain  will make  of the  concept.  The
  594. brain starts getting a serial feed-through of the single associative tags in
  595. the conceptual bundle, starting with the  tag  of  the  highest  valence and
  596. going on down in a kind of scan or search for one or several highly relevant
  597. associative tags.
  598.      The semantic meaning introduced  by a  concept-word in  a sentence goes
  599. into memory  as the simple record of an occurrence, but it also plays a role
  600. in  subjective  conscious  thought.    If  a  thought  is  a   statement  of
  601. relationship,  then  the  chasing-around  of  concepts  in a mind causes the
  602. expression (statement) of relationships, or thought.
  603.      Internal verbalizing of the chase of relationships would  be the rather
  604. firm or  solid activation  of verbal  concept-nodes in their role as part of
  605. the structure of verbal motor memory.  That is to say, based on our model of
  606. the mind  as illustrated  on September  10th, the summoning of a concept can
  607. result in avalanche activation of the verbal motor  memory concept  node for
  608. that concept.   Some  relationships between  concepts get translated into or
  609. expressed as verbs, so  that sentences  arise.   We know  theoretically that
  610. relationships are  assigned by  tags, but  can we ever say that the tags are
  611. the relationships?  How does a mind fetch a verb to describe  a relationship
  612. it  is  thinking  about  or  even  perceiving?  Well, here also, associative
  613. taggings made  from either  the previous  thought or  the present perception
  614. must  fetch  the  concept  of  the  verb.    What  we might have here is the
  615. summation of tags until a specific  verb/concept  is  fetched.    After all,
  616. erudite  people  use  highly  specialized  verbs.    The  tags coming from a
  617. perceived or contemplated relationship would, as  it were,  "vote" for which
  618. verb is to express the relationship.
  619.      The refinements  of grammar  would have  to be  added on by a mechanism
  620. supervising the broad processes of verbal thought in sentences.   One way to
  621. do it  might be  to make  the deep-structure formulations subconscious, with
  622. their surface-structure transformations rising into the consciousness.  (See
  623. the ideas  on verbal motor habit-tagging systems.)  However, we mustn't rush
  624. to invoke the subconscious here, because we are theorizing that the chase of
  625. concepts is a conscious process, or are we?
  626.      It may  be that the verbal motor habit-tagging system, as an embodiment
  627. of grammar principles, affects the chase-summoning of word/concepts  in such
  628. a way that they are forced to emerge into the consciousness already put into
  629. their grammatical form which is proper for the sentence being generated.
  630.      Notice that we often  describe  a  past-time  scenario  in  the present
  631. tense:  "Hitler invades Russia.  The Russians counterattack."
  632.      There may  be something  like a  "forward-looking radar system" to make
  633. sure that  words enter  consciousness in  their proper  grammatical form and
  634. syntax.
  635.      Let's go  back towards  the first  part of  today's work.  The concept-
  636. chase  would  hardly  ever  have  to  get  down  to  "ultimate informational
  637. content."   So therefore verbal thought can get pretty abstract and still be
  638. logical and rational, even though it is pretty far removed from the ultimate
  639. yes-or-no constructions of logical information.
  640.      Those  ultimate  logical  constructions  were probably necessary in the
  641. infancy  of  the  organism.    Then  they  yielded  to  ever  more  abstract
  642. ratiocination,  so  that  in  the  mature  organism those microstructures of
  643. "ultimate informational content" are probably  not  necessary  any  more and
  644. could probably  be excised  from memory  with utterly no resulting damage or
  645. impairment.  What this  theory  says  is  that  you  have  to  go  through a
  646. minuscule gearing-up  for abstract thinking, but from then on you don't need
  647. the early structures.
  648.      So it looks as though we can't obtain what we were foolishly hoping for
  649. at  the  beginning  of  today's  paper:    a  read-only-memory  containing a
  650. standardized concept.  Because a concept  is inextricable  from the  mind in
  651. which  it  resides.    Because  the  content  of  a  concept  depends on the
  652. associations it makes both to sub-concepts and to other concepts.
  653.  
  654.  
  655.                                                                  28 SEP 1977
  656.  
  657.      We haven't yet really gone deeply into the  motor habit-tagging systems
  658. as envisioned  on September  tenth.   Instead we started off onto short-term
  659. memory and then yesterday onto concept association.
  660.      Some thoughts  have come  to mind  concerning motor  habit-tagging.  An
  661. intriguing way  to do  it would  be to  make some discrete functioning units
  662. which could operate together in indeterminately large groups.
  663.      I mean, we could outright design a system  to habituate  grammar, or we
  664. could design  basic units  which would  then organize themselves so as to be
  665. able to habituate grammar.
  666.      Habituation would probably have  to occur  during short-term rehearsal-
  667. type memory, and then be able to function over long-term memory.
  668.      It might  be important  to note  that the  barrage of words potentially
  669. coming  into  the  grammar  system  is  probably  thinned  out  whenever the
  670. consciousness  reviews  a  series  of  visual  images.  The review of visual
  671. images could qualify as "non-verbal thought," but of course features  of the
  672. images are  capable of  evoking associated words.  If they don't, it must be
  673. because of levels of dominance.
  674.      It's rather easy to  imagine that  the first  noun-phrase summoned into
  675. the grammar-system could automatically go into the "nominative case," unless
  676. there is a forward-looking system  which  is  able  to  determine  and apply
  677. grammatical usage before the word surfaces into consciousness.
  678.      A rough  general requirement  for the habituation system might be that,
  679. given any nodular verbal inputs, it shall modify  and assemble  those inputs
  680. into a  sentence conforming to the grammar rules as learned from the outside
  681. world.
  682.  
  683.  
  684.                                                                  29 SEP 1977
  685.  
  686.                          Towards a Theory of Grammar
  687.  
  688.      There may  develop  concepts  which  we  could  call  "invisible quasi-
  689. anonymous concepts."   Now,  these concepts may be so important for language
  690. that they become operationally linked to  the language  system, that  is, to
  691. the verbal motor habit-tagging system.
  692.      These concepts  exist, outside  of the  VMHTS, in the permanent memory,
  693. where they  can  always  be  immediately  linked  to  either  perceptions or
  694. thoughts that are going to give rise to language-sentences.
  695.      They are  "invisible" in  that we  don't become  actually aware of them
  696. when they are activated by association.  For instance, we  may know  that we
  697. are  seeing  either  one  fish  or  several fish, but our mind doesn't focus
  698. consciously on the singularity or plurality.
  699.      They are "quasi-anonymous"  in  that  we  don't  necessarily  give them
  700. names.    Their  silent  activation  does  not  make  us think of words like
  701. "singularity/plurality" or  "past/present/future" or  "subject/object."  Yet
  702. they govern  classifications which  are real  and which  are immanent in the
  703. external world, as perceived by us.
  704.      In this particular writing of theory  there is  hardly any  lag between
  705. new thoughts  and my  writing down  of thoughts.  I find it hard to keep all
  706. the  factors  in  mind  while  trying  to  develop  from  them  a  theory of
  707. linguistics.  However, the wellspring of ideas has not dried up.
  708.      I'm just  theorizing that  it may be good to have concepts in permanent
  709. memory linked operationally to the MVHTS.   You  see, there  seem to  be two
  710. levels of  habit-tagging to be done.  On the low, easy level, habituation of
  711. the sounds in words would be just  a  simple  comparison  problem.    On the
  712. higher level,  the habituation  required to set up a language system is much
  713. more complex because it actually involves getting concepts to operate.
  714.      We are tending to theorize now that the  VMHTS is  allowed to associate
  715. itself  directly  with  the  invisible  concepts  and  use them as important
  716. elements in the linguistic habituations which  it achieves.   Well,  yes, we
  717. might as  well posit  an ability  of the  VMHTS to  seek out  and attach any
  718. concept it needs.
  719.      Of course, I guess  it will  use those  concepts on  a yes-or-no basis.
  720. For instance,  when dealing  with "singularity/plurality" it will answer one
  721. or both of those questions with "yes" or "no."   Or it  may just  accept the
  722. association/activation line of the concept as an input calling for a certain
  723. learned (habituated) operation.   For  instance,  with "past/present/future"
  724. it's not an either-or operation, it's a question of which one.  Likewise the
  725. imperative mood might be just a single input.
  726.      But there is a fundamental difference  between the  concepts in general
  727. and the  habituation-linked concepts.   The  general ones just float around,
  728. and  when  they  are  summoned  (randomly)  they  must  so-to-speak identify
  729. themselves by bringing with them associative-tag bundles which influence the
  730. course of thought and,  by  so  doing,  constitute  the  functioning  of the
  731. concept as  a concept.   On the other hand, the invisible habituation-linked
  732. concepts are already pre-identified  any time  they go  into activation, and
  733. they don't  have a  direct, conscious  influence on thought, but rather they
  734. affect the generation of sentences in a predetermined (habituated) way.   We
  735. might say  that they  effect the  translation of a concept into a linguistic
  736. phenomenon.  For instance, the invisible concept of plurality makes us often
  737. add an "s" to English noun plurals.
  738.      The habituation  system might  function by rules of which the following
  739. would be an example:   "In  the presence  of a  plurality-signal and  in the
  740. absence of  an irregular-plural  signal, an English noun will follow the set
  741. rule to have its plural end in 's.'"
  742.      The neat thing here is that  the process  can be  quite automatic.   We
  743. have  shifted  the  burden  of  conceptuality  out of the VMHTS and into the
  744. perception system.
  745.      If we could devise a "discrete  habituation unit"  (DHU?) we  would not
  746. have to  program into the machine any of the intricate mechanisms needed for
  747. linguistic functioning.  Of course, we don't want here to build a programmed
  748. computer; we  want a  mind like that of an infant.  But we will want to know
  749. exactly what switching-function goes on for any given  operation, linguistic
  750. or not.   We don't want to build a machine whose wonderful function we don't
  751. even understand.
  752.      If we say that conceptual inputs  of  the  invisible  type  are  just a
  753. unitary nodular  line into  the VMHTS,  then we  can begin to search for the
  754. above-mentioned DHU by establishing various  parameters,  such  as  the idea
  755. that  they  should  be  able  to  handle  any human language and any typical
  756. complexity as long as  the DHU's  are present  in sufficient  numbers.  They
  757. have as  single units  such characteristics that their powers are multiplied
  758. as their numbers are multiplied.
  759.      It's a  lot easier  for genetics  to provide  a discrete  unit in large
  760. numbers, than to provide a ready-made mechanism of complex function.
  761.  
  762.                                                                  30 SEP 1977
  763.  
  764.      We now  want to  design a "discrete habituation unit" for language.  It
  765. may be impossible or unnecessary to design such  a unit,  but we  want to at
  766. least toy with the idea.  It will be wonderful if we can make a device which
  767. can handle greater complexities by coupling with identical units.
  768.      We can start with the "black-box method" by figuring out the inputs and
  769. outputs.   I guess for the first time in my Nolarbeit I've reached the point
  770. of designing a Turing machine.
  771.      The DHU's of the VMHTS must end up constituting a  system for sentence-
  772. generation,  but  first  they  must  be  able to self-organize in a way that
  773. builds up  that  system  for  sentence-generation.    In  other  words, they
  774. represent two important processes.
  775.      There are two classes of input, which we might for brevity call "nodes"
  776. and "signals."  A "node"  here  is  a  verbal  concept.    A  "signal"  is a
  777. grammatically relevant link from an "invisible quasi-anonymous concept."
  778.      The VMHTS  must learn  to process  the nodes  according to what signals
  779. they are coupled with.  The nodes will be freely  variable, and  the signals
  780. will be  constant and  invariable, except of course that they can be learned
  781. and unlearned.
  782.      It now begins to look as if we don't care how many nodes are coming in,
  783. whether  one  or  a  dozen  more.    Because  a node is just a word, and its
  784. grammatical role is determined by its signal or signals.
  785.      The changes that can be worked upon a node/word are changes with regard
  786. to its  sound-form and  its position  in a sentence.  The sound-form changes
  787. are changes in the so-to-speak  "reins"  or  control-units  of  verbal motor
  788. memory.   In our automaton we might incorporate forty such control-units for
  789. forty discrete sounds.  At any rate, the  verbal motor  control-units are at
  790. the mercy of the VMHTS.  The VMHTS sets them up to work in certain ways, but
  791. it is always at liberty to change those procedures, as  when learning  a new
  792. language.
  793.      So thus  far we  have a handful of nodes for input, forty control-units
  794. for output, and we still have to figure out the role of the signals.
  795.      Now a  node is  already a  set group  of identified  control-units.  In
  796. other  words,  the  node  itself  could  go through verbal motor memory as a
  797. spoken word.  But through the  linguistic VMHTS,  the mind  has a  chance to
  798. manipulate the nodes into language.
  799.      Remember, we're dealing with discrete sounds, not spellings.
  800.      Let's establish notation that nodes are called " " (theta), signals are
  801. called " " (delta), and control-units are called " " (sigma).
  802.      We will allow special signals  to  change  a  node/word  utterly.   For
  803. example, the nodular concept "I" can become expressed as the word "me."
  804.      Note that  we went  to the more difficult problem of language before we
  805. even tackled the simpler problem of the habituation  of words  as strings of
  806. discrete sounds.   Now  it looks as though we'll have to go back to the same
  807. beginnings, because  we'll  have  to  have  a  short-term  memory comparison
  808. system, so  that the  mind can  check itself  against examples  of what it's
  809. trying to achieve.
  810.  
  811.                               Scratch-Leaf
  812.  
  813. - Inputs will be nodular words extruded from the association process,  plus 
  814.   invisible-concept signals both relating to the nodular words and governing
  815.   the sentence-generation process.
  816.  
  817. - Pluralization:
  818.  
  819.            [Theta]-CAT + [Delta]-pluralization --> [Sigma]-CATS
  820.  
  821. - Past Tense:
  822.  
  823.            [Theta]-BLANK + [Delta]-preterite --> [Sigma]-BLANKED
  824.            [Theta]:BLANK + [Delta]:preterite --> [Sigma]:BLANKED.
  825.  
  826.  
  827.   + [Delta] \
  828.   + [Theta]  } --> [Lambda]
  829.   + [Beta]  /              [Sigma]
  830.  
  831.   [Delta]  = signal
  832.  
  833.   [Theta]  = word/node
  834.  
  835.   [Beta]   = volition ("boulema")
  836.  
  837.   [Lambda] = habit pattern (learning)
  838.  
  839.   [Sigma]  = discrete control-unit for a sound
  840.  
  841.      Of course, the learned  habit "[lambda]"  has to be in relation to some
  842. perceived or  imagined model,  for which  there must  be an additional input
  843. into the habituation process.
  844.      Therefore [psi]  = the model, or the information which is
  845.                         to be abstracted from each model
  846.                         of the given grammar phenomenon.
  847.      If necessary,  let gamma = a grammar rule as we know it when discussing
  848. it or stating it in English.
  849.  
  850.  
  851.                                                                   1.OCT.1977
  852.  
  853.   [Gamma]  = a grammar rule
  854.  
  855.   [Psi]    = information from a model
  856.  
  857.   [Delta]  = signal
  858.  
  859.   [Theta]  = word/node
  860.  
  861.   [Beta]   = volition
  862.  
  863.   [Lambda] = habit pattern (learning)
  864.  
  865.   [Sigma]  = discrete control-unit for a sound
  866.  
  867.      The  same  system  which  generates  sentences must be capable of being
  868. operated in reverse so as to understand sentences.
  869.      Recently we were theorizing that the mind understands a sentence, or at
  870. least  a  verb,  by  assigning  associative-tag  bundles  among the concepts
  871. invoked by the words in the sentence.  It was  fine to  do that  for a verb,
  872. but now  we need  to describe how it was done so that we can devise a system
  873. that can learn to handle any facet of grammar.
  874.      Typically you have a grammar  phenomenon  that  is  taking  place  as a
  875. model,  such  as  putting  person-endings  onto  a verb-stem, as in Latin or
  876. English.
  877.      One or more grammar concepts will have to provide the  Delta-signals to
  878. control the lambda-process  of habituating the formation of words containing
  879. any fitting stem plus the proper ending.
  880.      A theta-word is a word in its most storable form.   It is at an address
  881. equivalent  to  its  decoded  composition.    The  address is the word.  The
  882. address has a definite end, which is the last element of the word.
  883.      For example, in our  presently envisioned  automaton, addresses (words)
  884. may  start  with  forty  different  initial letters and then (theoretically)
  885. branch on to forty different second letters, and so on.
  886.      It seems obvious that memory-storage of  words is  double, because they
  887. are  stored  as  unique  addresses  and also within experiential memories of
  888. occurrences of words.
  889.      It is very likely that an address is tagged at the end of its  word, or
  890. perhaps at  the spot  just before  where inflection  would be  put on.  Thus
  891. perhaps an incoming compound word  can  activate  two  tags,  a subordinate,
  892. prefinal one and a main, final one.
  893.      So when a [theta]-word comes in it gains instant access to a conceptual
  894. bundle because its ultimate  element automatically  activates the  tag.  The
  895. non-ultimate elements would have just fallen into place.
  896.      So recognition  of words  goes by ultimate-tag, but how does generation
  897. go?
  898.      Remember, we recently theorized that  selection of a theta-word is done
  899. by a kind of cumulative "voting" of associative tags.
  900.      When we  perceive or  imagine something,  and seek to express the thing
  901. with a word, pre-positioned tags reach out to  activate the  address of that
  902. word and  thereby its conceptual bundle.  Obviously, they only need to go to
  903. the end of that address.
  904.      We are now getting into the  idea  in  today's  scratch-leaf  about the
  905. forty-element  train  or  channel.    Obviously,  an  easy  way  to transmit
  906. internally a complete [theta]-word would be to somehow activate each element
  907. of its address along a channel  having the same forty elements  as can be in
  908. the address.  Of course, the word would go serially through such a "[theta]-
  909. channel."  And naturally it came in from the ears along a similar channel.
  910.  
  911.  
  912.                                     A
  913.                                     B
  914.                               A     C
  915.                                     D
  916.  
  917.                                     A
  918.                                     B
  919.                               B     C
  920.                                     D
  921.  
  922.                                     A
  923.                                     B
  924.                               C     C
  925.                                     D
  926.  
  927.                                     A
  928.                                     B
  929.                               D     C
  930.                                     D
  931.  
  932.      - You can't  skimp any  further here;  you've got to do it like this so
  933. that you will have unique addresses.
  934.      - Some simple trigger such as a "pause-trigger" can  help to  make sure
  935. that the front of each incoming word goes first into the word-memory.
  936.      You know, a word to be spoken is not really a function of incoming-word
  937. memory.  It's really a function  of  the  VMHTS  or  some  memory associated
  938. therewith.
  939.      The foregoing  idea really gives us something to think about.  We don't
  940. want to be pushing  words around  backwards, as  non-biologic hardware might
  941. do.   No, perception memory and motor memory are separate, but they approach
  942. each other inasmuch as the motor memory learns to contain the same  words as
  943. are in perception memory.
  944.      It is  much more likely that a [theta]-channel of words to be generated
  945. would exist  in a motor area  rather than  in a perception area.  So let  us
  946. think of  a manipulable  and  even  programmable  (by habituation)  [theta]-
  947. channel  starting in some kind of static memory  and  stretching through the
  948. habituation system  on out  to the motor musculature  for making  the  forty
  949. sounds.
  950.      A word is a habit.
  951.  
  952.  
  953.       Associative Tag
  954.      (coming to a word) --> DMU  -->
  955.                                C
  956.                              |
  957.                             DMU  -->
  958.                                A
  959.                              |
  960.                             DMU  -->
  961.                                T
  962.  
  963.      Above, "discrete memory units" form the word "cat."
  964.  
  965.      At  this  stage,  we're  into  pretty  complicated material.  The above
  966. diagram shows how a tag could activate a word-memory and  cause its elements
  967. to move one-by-one down a forty-line theta-channel into verbal motor memory.
  968. But the material is  complicated because  we've got  to figure  out both the
  969. genesis and operation of word-habituation.
  970.      It's very  possible that  the "left" (See diagram of 10SEP1977) side of
  971. the mind becomes aware of individual "sounds" as if they  were concepts, and
  972. that thus each of the forty Sigma-sounds can be known on the left and tagged
  973. over to  the right,  where it  reaches some  agent capable  of uttering that
  974. sound.  Thus the VMHTS can attack a word just by starting quasi-conceptually
  975. with the first distinguishable sound, and by then going on through the whole
  976. word.
  977.  
  978.                                    Scratch-Leaf
  979.  
  980. -  Output is [SIGMA]1 to [SIGMA]40.
  981.  
  982.    Grammatically relevant concepts are [DELTA]'s.
  983.  
  984. -  We may  have to imagine a channel of forty [SIGMA]-lines going to several
  985.    different places.
  986.  
  987.           A  _______
  988.           B  _______
  989.           C  _______
  990.           D  _______
  991.  
  992.  
  993.  
  994. -  You know, if the channel into word-memory is a dead  end, then  pushing  
  995. things out backwards will cause them to be going forward again.
  996.  
  997.    Concerns involving word-habituation:
  998.  
  999. -  Is infant-like  "random dynamics"  necessary so that the automaton just
  1000. grows into the use of its speech-organs?
  1001.  
  1002.      Comparison of uttered words and model-words could be  done either  in a
  1003. register alongside  short-term memory,  or perhaps  directly inside address-
  1004. memory.
  1005.  
  1006.                                                             A
  1007.                Short-Term                         Address   B
  1008.                Memory &                           Memory    C
  1009.                Comparator                                   .
  1010.                 1  2  3                                     .
  1011.                 C  A  T                                     .
  1012.                                                             T
  1013.  
  1014.  
  1015.                                                                  2. OCT 1977
  1016.  
  1017.      One way to imagine the habituation  is as  follows.   First the random-
  1018. dynamics automaton develops quasi-concepts of the forty [SIGMA]-sounds.  (We
  1019. say "quasi-concept"  because of  course one  motor sound  is just  a unitary
  1020. information, not a concept.)
  1021.      Then the  automaton tries to imitate various heard words.  (We'll solve
  1022. this volition problem later, you see.)  (If a bird  can do  it, an automaton
  1023. can do  it.)  A model verb "reverberates" in short-term memory.  Now, here a
  1024. fine distinction must be made.  There are two ways for the  auditory channel
  1025. to "hear"  a word:   passively  and actively.   By "passively" I mean on the
  1026. left side of the  September  10th  diagram:    by  actual  perception  or by
  1027. associative activation  of a  passive memory  (short-term or long-term).  By
  1028. "actively" I mean on the right side: by inner motor  generation of  the word
  1029. so that it enters the receptive auditory channel on the left side.
  1030.      So when  the left  side is repeatedly referring by tag to a model word,
  1031. it is not strictly an act of volition, it is an act  of the  natural flow of
  1032. associations.
  1033.      The foregoing  paragraph is  not intuitively  convincing, but it agrees
  1034. with the theory that  the  left  side  is  passive  and  the  right  side is
  1035. volitional.  Of course, the theory also says that the volition arises as the
  1036. convictional  end-product  of  ratiocination,  which  is   the  free-flowing
  1037. interaction of  the concept-nodes  on the left side.  The left side declares
  1038. verisimilitude,  which  is  automatically  interpreted  as  volition  by the
  1039. bouleumatic accumulator system.
  1040.      Anyway, a reverberating word should be a unit with a proper tag over to
  1041. the motor system, but if it's just a new model, of course it doesn't  have a
  1042. conceptual tag yet, so the "trans-tagging" operation drops to a lower level,
  1043. lower in that it tags over to motor  not the  whole word,  but the elemental
  1044. quasi-conceptual tags of the constituent [SIGMA]-sounds of the model word.
  1045.      Now  we  assume  that  there  is a certain general volitional desire to
  1046. learn to say new words.  Each time the model reverberates,  it sends over to
  1047. motor a  serial volley of its constituent [SIGMA]-sounds.  These constituent
  1048. [SIGMA]-sounds  comprise   a  tentative   chain  or   concatenation  in  the
  1049. habituation area,  perhaps even  in a "motor short-term memory."  An impulse
  1050. of volition coursing through the tentative  concatenation can  then actually
  1051. send  the  [SIGMA]-sounds  into  motor-operation, either spoken or along the
  1052. "internal verbal perception line" of the diagram of 10SEP1977.
  1053.      Thus the right side responds to a model  by generating  its own attempt
  1054. at mimicry.   The  mimicry now comes into the perception side for corrective
  1055. comparison with its original model.   I  suppose  we  now  have  a classical
  1056. feedback  situation,  or  a  cybernetic  situation,  where  the  goal  is to
  1057. eliminate any differences showing up in the mimicry.
  1058.      At any rate, we somehow have to have an adjustment process on  the left
  1059. side so  that on  the right  side the correct concatenation will be lined up
  1060. when the habituator proceeds to "harden" its concatenation.
  1061.      Since the automaton is so strictly defined, how could any  errors enter
  1062. in?   Well, there is room for error if the low-level process of sending over
  1063. a volley of quasi-conceptual [SIGMA]-sounds is a particularly loose process.
  1064. Since the  sounds are  going separately, they may lose their proper sequence
  1065. during the cross-over, due perhaps  to  varying  lengths  in  the "neuronal"
  1066. pathways.
  1067.      We must  also keep  in mind that this process is designed as if it were
  1068. taking place in a very young child.  The quasi-conceptual  tags may  not yet
  1069. have been  accurately formed, or a word that is heard may somehow be garbled
  1070. in its newness and strangeness.  But I think the  very possibility  of error
  1071. fosters the possibility of perfection.
  1072.      Anyway,  when  the  mimicry  comes  back,  there  are  various  ways to
  1073. automatically diminish and eliminate error.  One easy  way would  be to keep
  1074. the  process  going  over  and  over  until  success  were  indicated by the
  1075. activation of an ultimate-tag in the address-memory.
  1076.      The trouble  is,  such  a  process  would  not  allow  for intermediate
  1077. corrections.    Obviously,  though,  there  should be a corrective mechanism
  1078. which starts with the front element in the word and goes through.
  1079.      One way to work it would be that, if the  mimicry came  through with at
  1080. least the front element correct, there would now be two associations calling
  1081. for the send-over of that quasi-conceptual element into  motor, because both
  1082. the model and the mimicry would tag the same first element, and likewise any
  1083. other elements that came through  correct.    But  if  any  elements  of the
  1084. mimicry  were  incorrect,  there  would  not be a double insistence upon the
  1085. tagging of each such element.  And we could arrange things so that the model
  1086. word reverberated  more frequently,  or perhaps  even that  the mimicry went
  1087. through only once and then tended to die out.  Thus correct mimicry elements
  1088. would  steer  the  modeling,  but  the strength of the model would gradually
  1089. override any incorrect elements of mimicry.
  1090.      A partial clash between model  and  mimicry  would  keep  the formative
  1091. process going  on until the clash disappeared.  At that point there could be
  1092. a  mechanism  such  that   the  habituator   would  "harden"   the  existing
  1093. concatenation.   As an  added benefit,  we might  establish that at the same
  1094. time the ultimate-tag would  be set  up in  address-memory.   After all, the
  1095. address has  to be  pinned down,  too, somehow,  because the  address is the
  1096. word.  And thirdly at  the  same  time,  the  conceptual  activation  of the
  1097. concept behind  the word  can henceforth evoke an immediate motor production
  1098. of the word.
  1099.      Thus we end up with the important things  tied together.   The address-
  1100. memory is  set up  for instant  decoding of  the heard  word to activate the
  1101. concept.   At the  same time,  if conscious  thought requires  it, the motor
  1102. system has available a conceptual [theta]-line ready to generate the word in
  1103. a volley of motor activation.
  1104.      During  this  discussion  I  haven't  really   gone  deeply   into  the
  1105. development of  certain things,  such as  the address-memory  and the actual
  1106. process of the hardening of the word-habituation system.  Their descriptions
  1107. are yet to be fully theorized, but they seem much less complicated than this
  1108. whole process of learning the rapid pronunciation of words.
  1109.      The neat thing about this theory  is that  it allows  a word  to have a
  1110. double  existence,   on  the   left  and   on  the  right  side.    The  two
  1111. representations of the word are joined  by a  kind of  concept node,  but at
  1112. that juncture  the whole  word does  not flow  back and  forth, but only its
  1113. identifier.
  1114.      This theory  allows conscious  verbal thought  to be  a motor function,
  1115. even though  the concepts  beneath the  words are in the province of passive
  1116. memory.  Of course, the flowing  results  of  conscious  motor  thought pass
  1117. through the  "internal verbal perception line" and thus become a part of the
  1118. historical record in  experiential  memory.    So  consciousness  feeds upon
  1119. itself, and  therein lies its power.  It can produce ideas, and then examine
  1120. its own ideas in  a lengthy  chain.   This circling  around of  ideas allows
  1121. complex logical processes to occur.
  1122.      The  same  sort  of  system  which habituates a word ought to habituate
  1123. grammar  structures.    However,  grammar  acquisition  is  more complicated
  1124. because concepts  of rules are involved rather than just linear data as with
  1125. a single word.
  1126.      Although an infant has to conceptualize  a lot  of things  utterly from
  1127. scratch, I  suspect that a human does not have to figure out for himself the
  1128. "invisible quasi-anonymous concepts" (See 29SEP1977) of  grammar, but rather
  1129. they are conveyed to him when he learns a traditional human language.
  1130.      In  the  beginning  comes  the  word.    The  infant  learns  words  by
  1131. habituating  them  into  his  motor  system.     However,   the  grammatical
  1132. inflections  and  other  rule-structures  must  initially  present a puzzle,
  1133. albeit not consciously.  Because word-endings will go  through weird changes
  1134. which are  not part of the basic word contained so precisely in the address-
  1135. memory.  But just as words  are conceptualized  because they  are associated
  1136. firmly with  bundles of  perception, so  the invisible grammar concepts will
  1137. also  develop  in  the  mind  because  the  mind  will  record  that certain
  1138. linguistic  phenomena  (such  as  word-endings) are always simultaneous with
  1139. certain classifiable or conceptualizable circumstances.
  1140.  
  1141.  
  1142.                                                                  3. OCT 1977
  1143.  
  1144.      It looks necessary to  describe  how  invisible  grammar  concepts will
  1145. develop in  a mind which is acquiring language.  First the mind would become
  1146. aware, in some measure, of the existence of a [gamma]-rule because of extra,
  1147. "unexplainable" information  involved with language inputs - typically word-
  1148. inputs.  For instance,  such extra  information might  be a  different word-
  1149. ending for various declension-cases.
  1150.      It is  an important idea that such enigmatic extra information actually
  1151. sets up the initial node  for  a  [gamma]-concept.    Because  it's  a clear
  1152. genesis:    if  you  have  an  enigma  that  has  to  be fit in, establish a
  1153. "Sammelpunkt" and let information accrete onto that point.
  1154.      We want the concept to come in, but  function somewhere  outside of the
  1155. realm of consciousness.
  1156.      I  know  that  I  personally  can  sling  inflections  of a new foreign
  1157. language around by picturing the written paradigm in my mind.  Of course, my
  1158. mind in advance makes a choice of what route to follow in the paradigm.  For
  1159. example, my mind automatically identifies a subject as being one  of the six
  1160. persons.
  1161.      You might  say that  it's a  non-consciously learned skill.  Perhaps it
  1162. grows like a crystal upon the  "seed" of  the "enigma-node."   "Enigma-node"
  1163. looks like  a good  term to call those extra elements in words which are put
  1164. there by grammar rules and puzzle  the mind  which has  not yet  learned the
  1165. grammar-rule.
  1166.      You know,  I can  see enigma-nodes  for passive  voice operating when a
  1167. subject is thought of and immediately thereafter a verb-action to which that
  1168. subject is subjected, with or without regard to an agent.  But that's how it
  1169. would work to generate sentences; how would it initially work  to comprehend
  1170. sentences?
  1171.      I am  going to theorize rather riskily now about how the mind sets up a
  1172. concept for an enigma-node.  Suppose  someone  walks  up  to  you stretching
  1173. forth a  closed fist  and says, "I have my kreds in my hand.  Do you want my
  1174. kreds?"  Now, "kreds" is a  nonsense-word that  I just  dreamed up.   Notice
  1175. that there's no way to suspect that it's plural or not, except by the "s" at
  1176. the end of the word.  Now, when  thinking of  such an  utterance, I  get the
  1177. mental image of a hand holding a bunch of small objects about one centimeter
  1178. long.  I actually get a couple of different possible images.  So I  am going
  1179. to theorize  something pretty  far-out now.   I suggest that a gamma-enigma-
  1180. concept is  actually a  kind of  list of  concrete examples  of the concept.
  1181. There is  probably a  point in  the development of each such concept where a
  1182. particular or group of particulars is suddenly transformed into a universal.
  1183. This universalization may perhaps happen (of necessity) in the extreme youth
  1184. of the organism, at the time when speech  is first  being acquired.   (After
  1185. all, isn't  there a rumor that children prevented from acquiring speech by a
  1186. certain age lose the  ability to  acquire speech?)   My  theory wants  it to
  1187. happen  in  the  youth  because  that  is  near or at the time when even the
  1188. concrete, non-universal, particular reality is first being perceived.   (You
  1189. know, we  never really  become infallible at recognizing members of a class,
  1190. anyway.)  Of course, the concept  may be  updated by  newer associations, as
  1191. long as the string of associations remains unbroken back to an origin.
  1192.      This theory  of invisible  concepts has  something to  do with an older
  1193. theory of mine, which I call the theory  of "virtuality."   If consciousness
  1194. can be  thought of  as a kind of whirling illusion where we never get to see
  1195. between the elemental components of our conscious processes, then we can say
  1196. that  we  are  perceiving  an  entity,  consciousness, by "virtuality."  For
  1197. example, the cinema shows  motion  only  by  virtuality.    Likewise,  if an
  1198. enigma-concept is a list of speedily consultable concrete examples, then the
  1199. mind can whiz through them at a speed so fast that they  blur into  a multi-
  1200. dimensional thing, a concept rather than a mere ordinary fact.
  1201.      After all, another definition of a concept is that a concept is what we
  1202. make of it.  If we use our enigma-concept of plurality to  act as  though we
  1203. are dealing with plural items, then the enigma-node has served its purpose.
  1204.      Our train  of thought  "skims" over  its concepts and uses them only to
  1205. the extent necessary to keep the train going.   If  called upon  to define a
  1206. concept, it stops and does verbally the best it can.
  1207.      Likewise  enigma  concepts  should  develop  for  "subject of verb" and
  1208. "direct object of verb."
  1209.      Rather  than  designing  every  conceivable  grammar  concept  into the
  1210. automaton, or  even figuring out how the machine itself would do it, I would
  1211. rather decide what I think is the general  process and  then just  watch the
  1212. machine do it.
  1213.      So we  have decided to just let the enigma-concepts develop in a freely
  1214. associative process based upon virtuality.  We can now go on to  discuss how
  1215. the  enigma  nodes  (or  gamma-nodes)  would  function  with  respect to the
  1216. grammar-habituation system.
  1217.      We theorize that a [gamma]-node sends a [DELTA]-line into the sentence-
  1218. generation  area  to  influence  the  generation  of sentences and make them
  1219. grammatical.
  1220.      We theorize that individual,  unaltered  words  are  evoked  from motor
  1221. memory by a [theta]-line.
  1222.  
  1223.                                                               (4. OCT. 1977)
  1224.  
  1225.      One part  of our  theory, which  we intuited  in Goettingen in 1972, is
  1226. that sentence-generation probably proceeds from a  single node/word.   Sure,
  1227. we have  Chomskian transformations  that we  can perform, but generating any
  1228. such sentence has probably got to be  like  yanking  on  a  string,  and the
  1229. yanked end  of the string is the concept/word which first comes to mind just
  1230. before we willy-nilly generate a sentence about it.  I suppose this idea has
  1231. to  do  with  [DELTA]-control  over  word-order.   If I'm going to develop a
  1232. theory of the habituation of grammar, I want  it to  be able  to handle even
  1233. the  most  complicated  grammar  structures,  and  word  order  seems  quite
  1234. complicated.
  1235.      In German there are  such strict  patterns of  word-order, depending on
  1236. what kind  of word  (by usage)  you choose to utter first.  So I guess there
  1237. are word-usage deltas and word-order deltas.
  1238.      I think there should be a hierarchy of at least three delta-lines going
  1239. into the VMHTS.
  1240.  
  1241.      S[delta]  =  part-of-speech delta
  1242.  
  1243.      I[delta]  =  irregularity delta
  1244.  
  1245.      U[delta]  =  usage delta.
  1246.  
  1247.      It looks  as though  the part-of-speech  deltas (S[delta])  will be the
  1248. ones which govern syntax.  One way to  do it  would be  to have  the machine
  1249. gradually learn  what other  S-deltas it  can add on when once it has seized
  1250. upon an initial S-delta.  This idea corresponds to our  pullstring theory of
  1251. sentence-generation.
  1252.      Questions  of   tense  will   probably  be   answered  by  usage-deltas
  1253. (U[delta]).  There can be a separate gamma-concept not just  for each tense,
  1254. but also  for each  mode of  expression of  a tense.   For example, note the
  1255. following two sentences.
  1256.           "John slept eight hours."
  1257.           "John was sleeping."
  1258. Each sentence seems to look at the action of the verb in a different aspect.
  1259.      You know, tense-deltas might really be  shared between  the subject and
  1260. the verb.
  1261.      I can  see how the concept of the ongoing, imperfect English verb might
  1262. call right away for a form of the verb "to be" plus a present  participle of
  1263. the  main  intended  action-verb.    Such  an  ongoing  verb  is  a  kind of
  1264. protracted-status verb.
  1265.      There may be a kind of gamma-concept which has to attach itself  to two
  1266. different  words  because  of  an  important  relationship between those two
  1267. words.  For instance, take a  gamma-concept  of  tense  between  subject and
  1268. verb, or a gamma-concept of the relationship between verb and direct-object.
  1269.      We might  even have  to say that all gamma-relationship between subject
  1270. and verb is expressed simultaneously with tense.  After all, if there has to
  1271. be a  relationship, and  tense will  always be  there, why  not just use the
  1272. tense-relationship by itself?
  1273.  
  1274.           S[delta]
  1275.  
  1276.           I[delta]
  1277.  
  1278.           U[delta]
  1279.  
  1280.      The U-delta (for usage)  just shows  specific modifications  of a word,
  1281. such  as  "s"  for  plural,  "ed"  for  past  tense,  and  "ing" for present
  1282. participle.  It  could  show  "er"  for  comparative  degree  and  "est" for
  1283. superlative.
  1284.      The  I-delta  (for  irregularity)  could  be  used to override a normal
  1285. process in favor of a required irregular process, such as when the plural of
  1286. "child" goes to "children."
  1287.      The S-delta (for part of speech) actually must organize the whole show.
  1288. The place of a word in syntax will  depend upon  what part  of speech  it is
  1289. functioning as.
  1290.      The  initial   push  to   generate  a   sentence  will  come  when  the
  1291. consciousness seizes upon a salient concept and associates a word.  In order
  1292. to pass into the VMHTS to start generating a sentence, the salient word/node
  1293. will first have to pass through a kind of screen  set up  by the habituation
  1294. of the S-deltas in the VMHTS.
  1295.      The S-delta-screen  would allow only certain parts of speech to start a
  1296. sentence.  I'm having trouble right now trying to think  of an  English part
  1297. of speech that thus would not be allowed to start a sentence, and I can only
  1298. cite that we rarely start a declarative sentence with a verb.   Sometimes we
  1299. say things like:  "Running!  He's running!"
  1300.      Whatever  part  of  speech  the  mind did successfully start with for a
  1301. sentence, the VMHTS would then have only certain  allowable continuances for
  1302. each part of speech used as an initial word.
  1303.      Now, one  way to  imagine the process after an initial word would be to
  1304. picture  a  whole   group   of   node-words   making   themselves  available
  1305. simultaneously  to  the  VMHTS.    Remember  that  some of them perhaps have
  1306. certain relationships already decreed by their gamma-concept.   At any rate,
  1307. the VMHTS  would tend  to take  those node-words most closely related to the
  1308. initial word, until it reached a juncture of fresh choice.  Then there could
  1309. perhaps be  a play-off  between certain  general syntactical expectations of
  1310. the VMHTS on the  one hand,  and associatively  available node-words  on the
  1311. other hand.   As  long as  associativity kept offering up the right [theta]-
  1312. words by  part of  speech, the  VMHTS would  not object.   But  if a somehow
  1313. unallowable  word  were  proferred,  the  VMHTS  might  stop and wait for an
  1314. allowable word.    Thus  randomness  and  habit  could  operate  together to
  1315. generate sentences.
  1316.      Eventually   we're   going   to   have   to  come  to  terms  with  the
  1317. transformational grammar which arose around 1957.
  1318.  
  1319.  
  1320.                                                                 10. OCT 1977
  1321.  
  1322.      F[delta], I[delta], M[delta]
  1323.  
  1324.      F[delta]  =  "function delta"
  1325.  
  1326.                =  functions or usages of a [THETA]-word in a  sentence, such
  1327.                   as:
  1328.  
  1329.                          - subject of verb
  1330.                          - (main) verb
  1331.                          - direct object of verb
  1332.                          - indirect object of verb
  1333.                =         - preposition hinging from another word
  1334.                          - object of preposition
  1335.                          - adverb
  1336.                          - adjective
  1337.                          - modifier of  the whole sentence, e.g.,           
  1338.                            "fortunately"
  1339.                          - conjunction between words.
  1340.  
  1341.      M[delta]  =  "modification-delta"
  1342.  
  1343.                =  modifications or changes that can happen to a [theta]-word
  1344.                   irregardless of  its function or usage in a sentence, such
  1345.                   as:
  1346.                          - singularity/plurality
  1347.                          - degree of comparison of adjectives.
  1348.  
  1349.  
  1350. Artificial Intelligence                                         11. OCT 1977
  1351.  
  1352.      Let's try  again to  establish the  basic rules  for the  inputs to the
  1353. habituated mechanism for grammar.
  1354.           1.  Function-deltas can control modification-deltas and perhaps
  1355.               also [theta]-words.
  1356.           2.  Modification-deltas can modify [theta]-words, usually         
  1357.               according to a habituated pattern contained in the VMHTS.
  1358.           3.  Irregularity-deltas can override a normal modification-pattern
  1359.               so as to modify a special [theta]-word in a special way.
  1360.           4.  A VMHTS-[lambda] (VMHTS-lambda) can  control function-deltas -
  1361.               for example, by arranging them in syntax.
  1362.           5.  Conscious volition can, theoretically, override and overrule
  1363.               everything in this discussion.
  1364.      Today's work, developed between late last night and  this afternoon, is
  1365. quite exciting to me because it presages the completion, on a certain level,
  1366. of the theoretical design  of  the  basic  modules  to  be  contained  in my
  1367. artificially intelligent  automaton.   I think now I should start heading my
  1368. papers with the words "Artificial Intelligence" rather than  "Nolarbeit," my
  1369. old, personal word stemming from teen-age years.
  1370.      Just  by  establishing  the  controlling inputs to the grammar-VMHTS, I
  1371. have made it easy to specify the inner workings.  The next step will then be
  1372. to  describe  the  habituation  process  itself,  but  that shouldn't be too
  1373. difficult, because  I  have  already  described  a  habituation  process for
  1374. [theta]-words.
  1375.      It looks  as though  I have a broad enough process being developed that
  1376. it will be able to handle many, if not all, human languages.   For instance,
  1377. I have  kept Latin  in mind  as a  highly inflected language, because I know
  1378. that English has some few, but  highly essential,  inflections.   In a Latin
  1379. declension-paradigm  for  a  noun  or  adjective,  modification-deltas would
  1380. select the proper case.  Of course, a  modification-delta could  have chosen
  1381. which of the five declensions to use for endings.
  1382.      Of course,  there is  no such thing in my theory as a "language-delta,"
  1383. but  we  could  say  that  a  "language-lambda"  applies  the  proper syntax
  1384. depending upon which language the speaker is using.  For instance, among the
  1385. five languages which I claim to know well, I have to use  different syntaxes
  1386. and different declension-paradigms for Latin, Russian, Greek, and German.  I
  1387. feel like I am "in" a language when  I am  using that  language to  think or
  1388. speak.
  1389.      So  if  a  person  knows  several  languages,  there  could be separate
  1390. "language-lambdas"  in  the  VMHTS  to  facilitate  speaking  each language.
  1391. Theoretically,  address-memory,  reality-concepts  and function-deltas would
  1392. work the same way for multiple languages in one mind.  (The Chomskians would
  1393. refer to "deep structure" here.)
  1394.      You know,  I find  it initially  a puzzle as to how we keep our flowing
  1395. words within the same language when we know  several languages.   I  get the
  1396. idea that it must be because of separate address-memories for the vocabulary
  1397. of  each  separate  language.    As   a  concept   in  my   mind  approaches
  1398. verbalization, perhaps  it goes to five different [theta]-nodes, but perhaps
  1399. the mind is able to keep the link-up  going to  node/words only  of the same
  1400. language.
  1401.  
  1402.                                           (sentence-delta)
  1403.          /-----------------S[delta] --------------------------------------->
  1404.          |
  1405.          |
  1406.          |
  1407.          |                                (function-delta)
  1408.          |       /---------F[delta] --------------------------------------->
  1409.          |       |
  1410.          |       |
  1411.          |       |
  1412.          |       |                        (modification-delta)
  1413.          |       |    /--- M[delta] --------------------------------------->
  1414.          |       |    |
  1415.          |       |    |
  1416.          |       |    |
  1417.          |       |    \---                (theta-word)
  1418.          |       \-------- [THETA] ---------------------------------------->
  1419.          \----------------
  1420.  
  1421.      There may have to be another control-line going from associativity into
  1422. the VMHTS:  a "sentence-delta"  (S[delta]),  which  would  direct operations
  1423. governing a sentence as a whole, as for instance whether a sentence is going
  1424. to be a statement, a question, a command,  or a  wish.   I had  thought that
  1425. eventually I  would have  to get around to dealing with the class of English
  1426. question-words, but I guess  it would  suffice to  posit a  whole "sentence-
  1427. delta"  to  deal  with  question-words  and such things as little words with
  1428. which languages like Polish and Japanese indicate questions.
  1429.      It bothers me a little to be gathering together so  many control-lines,
  1430. but I  guess they all are necessary to represent functions of the intellect.
  1431. The VMHTS itself does not select  concept-nodes, it  just arranges  them for
  1432. communication.
  1433.      Obviously, I  have heaped  a lot of the burden of sentence-generativity
  1434. into the associativity area.   That  is  to  say,  my  machine  can generate
  1435. sentences if concepts can activate the various control-nodes and word-nodes.
  1436.      I suppose we may feel free to go ahead in a rather unrestrained fashion
  1437. if we do the following.  Once we have determined exactly what inputs we will
  1438. allow,  we can  go  ahead  and  design  a  VMHTS capable of habituating  any
  1439. structure based on those inputs.  That way the VMHTS should be able to learn
  1440. most or  all human  languages, and  we will avoid built-in programming, as I
  1441. discussed in the work of 29SEP1977.
  1442.  
  1443.  
  1444.                Habituating a Sentence of Subject-Verb-Object
  1445.  
  1446. S[delta] ---------------------> declarative sentence
  1447.  
  1448. Let's say, "Maria amat Italiam."
  1449.              _
  1450.             /  S[delta]       ---> declarative sentence:    (a) certain word
  1451.            /                                                order(s)
  1452.           /                                                 subject  of verb
  1453.          /                                                  = nominative
  1454. Maria   <      F[delta]       ---> subject of verb:  nominative case
  1455.          \     M[delta]       ---> singular number
  1456.           \_   [theta]-word   ---> Maria:  first declension
  1457.              _
  1458.             /  S[delta]       ---> declarative sentence:  indicative mood
  1459.            /   F[delta]       --->   /  main verb
  1460.           /                          \  transitive
  1461.          /                           /  active voice
  1462. amat    <                           /   present tense
  1463.          \     M[delta]       ---> <    singular number
  1464.           \                         \   third person
  1465.            \_  [theta]-word   ---> amare (infinitive):  first conjugation
  1466.            _
  1467.           /    S[delta]       ---> declarative sentence
  1468.          /     F[delta]       ---> direct object of verb:  accusative case
  1469. Italiam <      M[delta]       ---> singular number
  1470.          \_    [theta]-word   ---> Italia:  first declension.
  1471.  
  1472.  
  1473.      One of the first problems of the VMHTS for a  Latin noun  as a [theta]-
  1474. word is  to get  at what declension it belongs to.  A language will not have
  1475. very many declensions, and obviously the forms of their endings  will reside
  1476. within the memory of the VMHTS.
  1477.      My  initial  dilemma  involves  whether  to  have  the  declension-clue
  1478. contained  within  the  [theta]-word  itself,  or  to  require   a  specific
  1479. communication to the VMHTS of which declension is involved.
  1480.      You could  perhaps tell  which declension were involved if the [theta]-
  1481. nodes dealt with genitive singular forms, because they  distinguish the five
  1482. Latin declensions,  except that the second and fifth declensions both end in
  1483. "i" in the genitive singular.
  1484.      I think we must  recognize  a  general  principle  that,  if  the VMHTS
  1485. habituates such a large array as a declension, then there really ought to be
  1486. at least some kind of modification-delta to reference  that array.   Now, we
  1487. already theorize  that the  cases in  any declension  will be  summoned by a
  1488. function-delta.
  1489.      No, as I was thinking further  about the  dilemma, I  realized that the
  1490. answer might lie in a third possibility.  The Latin noun "miles, militis" is
  1491. an example of a Latin noun where you can't get  either of  the nominative or
  1492. genitive from  the other.   But if you have both, you are clearly on the way
  1493. to declining a noun of the third Latin declension.
  1494.      Remember, whatever forms you  have going  out, have  to be recognizable
  1495. coming in.
  1496.  
  1497.  
  1498. Nolarbeit                                                       13. OCT 1977
  1499.  
  1500.                      Habituating Inflected Noun-Declensions
  1501.  
  1502.      A quandary has recently developed as to how the VMHTS ought to identify
  1503. the appropriate declension for a Latin noun.  Fortunately, we can attack the
  1504. problem by  looking at  its quasi-mirror-reflection in the address-memory of
  1505. the passive left side of the automaton.
  1506.      We  can  imagine  a  way  by  which  the   address-memory  could  quite
  1507. efficiently handle  an incoming  inflected Latin noun.  Under this idea, the
  1508. address-memory could have two different ultimate-tags for a Latin noun, such
  1509. as  "miles."    The  first  ultimate-tag  could,  if necessary, identify the
  1510. nominative form of a conceptual noun.  The other ultimate-tag would identify
  1511. the basic  stem of  the noun,  onto which  case-endings are  attached.  Thus
  1512. there could be one ultimate-tag for "m-i-l-e-s" and another for "m-i-l-i-t-"
  1513. as the  stem of  the genitive  form "militis."  There would have to be these
  1514. two separate ultimate-tags  if  the  stem  were  not  fully  present  in the
  1515. nominative, or were in an altered form.
  1516.      The nifty  value of  such a system lies in what we can then do with the
  1517. letters (sounds) remaining after the stem of a noun.  The activation  of the
  1518. ultimate-tag of  a stem  could cause the remaining sounds to go quickly back
  1519. to the  entry channel  into the  address-memory, so  that these case-endings
  1520. could now  themselves be  identified as to what case and function-delta they
  1521. represent.
  1522.      A major question now is, would such case-endings have to  be sorted out
  1523. as to  which of  the five declensions they belonged to?  Such sorting could,
  1524. of course, be done,  especially if  there were  some kind  of enigma-node or
  1525. modification-delta  to  link  each  concept-noun  permanently  to its proper
  1526. declension.  We don't  want  nouns  like  "servi,"  "militi,"  and  "rei" to
  1527. interfere with one another.
  1528.      I think  we should  keep in mind that the passive address-memory is one
  1529. of the most "cross-wired" and thoroughly  organized systems  in the putative
  1530. automaton.   There could be all kinds of gates established adjacent to it to
  1531. sort out classes of data, such as ending-groups for noun declensions.
  1532.      The various declension-endings would be brief  groups of [SIGMA]-sounds
  1533. lying pretty  near to  the entrance  to the address-memory channel.  (I just
  1534. got an idea:  What if we made the reverberating short-term memory a function
  1535. of  the  address-memory  channel?)    Their ultimate-tags could be logically
  1536. gated in conjunction with the declension-identifying  modification-deltas so
  1537. as to  associate the  proper function-deltas.  Now, there might have to be a
  1538. kind of system-wide notification-device in the address-memory to signal that
  1539. these declension-ending ultimate-tags are really secondary ultimate-tags.
  1540.  
  1541.  
  1542.                                                                  16 MAR 1978
  1543.  
  1544.                -O -- O -- O-
  1545.              /               \
  1546.             O    O - O - O    O
  1547.            /    /         \    \
  1548.           O    O     O     O    O
  1549.          /    /    O   O    \    \
  1550.         /    O   O       O   O    \
  1551.         |   /  O           O  \   |
  1552.         O  O  O             O  O  O
  1553.         |  |  |             |  |  |
  1554.         O  O  O             O  O  O
  1555.         |  |  |             |  |  |
  1556.         O  O  O             O  O  O                                /----(B)
  1557.         |  |  |             |  |  |                               |
  1558.         O  O  O             O  O  O                /------(B)-----+-----(I)
  1559.         |  |  |             |  |  |               |               |
  1560.         O  O  O             O  O  O               |                \----(U)
  1561.         |  |  |             |  |  |               |
  1562.         O  O  O             O  O  O               |                /----(B)
  1563.         |  |  |             |  |  |               |               |
  1564.         O  O  O             O  O  O     (B)-------+-------(I)-----+-----(I)
  1565.         |  |  |             |  |  |      |        |               |
  1566.         O  O  O             O  O  O      |        |                \----(U)
  1567.         |  |  |             |  |  |      |        |
  1568.         O  O  O             O  O  O      |        |                /----(B)
  1569.         |  |  |             |  |  |      |        |               |
  1570.         O  O  O             O  O  O      |         \------(U)-----+-----(I)
  1571.                            /  /  /       |                        |
  1572.                           O  /  /        |                         \----(U)
  1573.                          /  O  /         |
  1574.                         O  /  O          |                         /----(B)
  1575.                           /  /           |                        |
  1576.                          O  /            |         /------(B)-----+-----(I)
  1577.                            /             |        |               |
  1578.                           O              |        |                \----(U)
  1579.                                          |        |
  1580.   B  O-----------------------------------/        |                /----(B)
  1581.                                                   |               |
  1582.   I  O----------------------------------(I)-------+-------(I)-----+-----(I)
  1583.                                                   |               |
  1584.   U  O-----------------------------------\        |                \----(U)
  1585.                                          |        |
  1586.                                          |        |                /----(B)
  1587.                                          |        |               |
  1588.                                          |         \------(U)-----+-----(I)
  1589.                                          |                        |
  1590.                                          |                         \----(U)
  1591.                                          |
  1592.                                          |                         /----(B)
  1593.                                          |                        |
  1594.                                          |         /------(B)-----+-----(I)
  1595.                                          |        |               |
  1596.                                          |        |                \----(U)
  1597.                                          |        |
  1598.                                          |        |                /----(B)
  1599.                                          |        |               |
  1600.                                         (U)-------+-------(I)-----+-----(I)
  1601.                                                   |               |
  1602.                                                   |                \----(U)
  1603.                                                   |
  1604.                                                   |                /----(B)
  1605.                                                   |               |
  1606.                                                    \------(U)-----+-----(I)
  1607.                                                                   |
  1608.                                                                    \----(U)
  1609.  
  1610.  
  1611.                     Ideas to go with today's diagramming
  1612.  
  1613.      - There should  be lots  of auditory  short-term memory loops, and they
  1614. should exist in a kind of associative grid or network where each  loop has a
  1615. kind of attention-valence.  I've been puzzling over this problem for several
  1616. months, and now I think I see my way clear.
  1617.      Let me restate the  problem.    In  September  1977  I  had  worked out
  1618. hypothetically how language-words would enter the mature mind and succumb to
  1619. immediate decoding  through the  conceptual address  nodes.   It was obvious
  1620. that  words,  phrases,  and  even  whole  sentences would have to be able to
  1621. circulate in a short-term memory so that the brain would have the option and
  1622. capability of  submitting any  coded aggregate multiple times to the "front"
  1623. end of the conceptual address decoder.  Whenever the mind  perceived a break
  1624. at the end of an aggregate (word), it would automatically submit any ensuing
  1625. code to the front, on the assumption that  a new  word is  beginning.  Well,
  1626. one important  value to short-term memory circulation lay in the idea that a
  1627. word which was garbled  the first  time through  could be  resubmitted after
  1628. looping  through  short-term  memory.    Likewise  a  compound word could be
  1629. submitted slowly and deliberately,  in  hopes  that  the  conceptual decoder
  1630. would  glean  secondary  or  tertiary  meanings  from  the  elements  of the
  1631. compound.  By now one can imagine a line of poetry going  through many times
  1632. with all  kinds of  remote associations  coming out.   The problem was, what
  1633. would be the nature of the auditory short-term memory?  Would it be a really
  1634. long channel in which the oldest traces would constantly be dissolving?  Now
  1635. I think not.
  1636.      The solution  which I  have just  perceived this  evening is  to have a
  1637. whole "family"  of short-term  memory loops.  Their breadth would be that of
  1638. how many phonemes are within the language of the mind.   Their  length would
  1639. be some  apparently arbitrary  length depending on how long an utterance the
  1640. mind would be expected to remember all at once.   This length-question poses
  1641. no special  problem.   All we  have to  do is design it long enough to cover
  1642. those sentence-lengths that a  human  can  normally  remember  in short-term
  1643. memory.   I'm sure  that it  is an empirically available statistic, and many
  1644. conventional psychologists have probably worked on determining just what the
  1645. length is.   This  situation is just another case where our fullblown design
  1646. would be in accordance with the  human reality,  while our  prototype design
  1647. would be some severely limited simulation.
  1648.      But to  go on  with today's  solution.  There would be a typical short-
  1649. term memory loop of arbitrary length.   The  mind would  have a  "family" of
  1650. many of  these loops.  Now we get to a part of the description which is very
  1651. pleasing to the would-be designer.  We will say that the artificial mind has
  1652. to have  a "liminal" number of such loops, but above the liminal number more
  1653. loops just  make the  mind more  powerful -  if you  will, more intelligent.
  1654. That  feature  is  pleasing  to  the designer because it establishes an area
  1655. where he can plan to add more loops as permitted  by such  resources as time
  1656. and money.
  1657.      Now how  does the  family of loops operate?  Let's say there are thirty
  1658. loops.  Empty or "faded" loops have an automatic tendency to line  up at the
  1659. auditory  input  port  to  onload any next-arriving coded utterance, whether
  1660. from the outside world or from an interior thought-line.  Therefore there is
  1661. a kind  of "distributor"  which holds loops ready in queue to receive loads.
  1662. One after another the queued loops take on  loads.   A loaded  loop detaches
  1663. from the  reception-queue.   The family of loaded loops must exist on a kind
  1664. of "valence-topology."  By this I mean that there will always be one loaded-
  1665. loop  most  ready  to  recirculate  its load through the conceptual decoder.
  1666. Each loaded loop has a recirculation-valence derived from such things as the
  1667. perceived importance  of the  utterance, or  its novelty/shock value, or its
  1668. associability to circumambient thought  and experience.   This associability
  1669. notion is  pretty serious,  and I  should not  just blithely  claim it.  But
  1670. there could easily be temporary association lines as follows.  They would go
  1671. from the conceptual decoder to any qualifying one of the, say, thirty short-
  1672. term memory loops.  Any noun, any concept,  could be  temporarily linked (in
  1673. the short  term) between the concept-decoder and that short-term memory loop
  1674. in which the noun or concept occurred.  Say, we  could even  use this method
  1675. to keep  track of  the antecedents  of pronouns.   Anyway,  key words or key
  1676. concepts could  serve  associatively  to  bind  together  freshly remembered
  1677. utterances in the family of short-term memory loops.
  1678.      This same  associativity might  somehow play  a role  in the passage of
  1679. information out of short-term  memory into  long-term permanent  memory.  Of
  1680. course,  we  don't  usually  remember  statements  verbatim in our long-term
  1681. memory.  Therefore, an addition to permanent memory is more like the factual
  1682. alteration of  a large  corpus of belief or knowledge.  Memory of the events
  1683. in passage of time, instead of  being a  corpus, can  probably be  more of a
  1684. stringing effect,  where minutiae  of memory  are held  together by a serial
  1685. associative   string.      Yes,   we   could   establish   something  called
  1686. "chronomnemics" to  deal specifically  with this  operation of the stringing
  1687. together of memory-minutiae in temporal succession.
  1688.      Let us return to the family of  loops.    There  would  be  built  in a
  1689. tendency over  time for a loop to lose its load and return to the reception-
  1690. queue.  Such fade-out would occur if the load of any loop  is not refreshed.
  1691. Now, a decision has to be made here as to whether refreshment means that the
  1692. same  loop  with  the  same  contents  is  enhanced,  or  whether  just  the
  1693. information itself is enhanced by flowing into one or more additional loops.
  1694.      It  looks  to  me  as  though  refreshment  ("rehearsal") occurs by the
  1695. process of a memory going from one loop  into  a  new  loop.    Thus,  if we
  1696. refresh an utterance over and over in our mind, each time it would fill up a
  1697. new loop, so that gradually a whole group of loops could become  loaded with
  1698. the same  informational content.   Of course, this chosen process allows for
  1699. and  makes  possible  changes  such  as  conscious  alteration  or  gradual,
  1700. unconscious distortion.
  1701.  
  1702.  
  1703.                                                                  17 MAR 1978
  1704.       ___   ___   ___   ___   ___   ___   ___
  1705.      |   | |   | |   | |   | |   | |   | |   |
  1706.      | S | | T | | M | | L | |   | |   | |   |
  1707.      | H | | E | | E | | O | |   | |   | |   |
  1708.      | O | | R | | M | | O | |   | |   | |   |
  1709.      | R | | M | | O | | P | |   | |   | |   |                        ____
  1710.      | T | |   | | R | | S | |   | |   | |   |                   ____/    |
  1711.      |   | |   | | Y | |   | |   | |   | |   |              ____/         |
  1712.      |___| |___| |___| |___| |___| |___| |___|         ____/              |
  1713.       |||   |||   |||   |||   |||   |||   |||     ____/                   |
  1714.   _   |||   |||   |||   |||   |||   |||   |||    /         CONCEPTUAL     |
  1715.  |_|--((+---((+---((+---((+---((+---((+---((+---|                         |
  1716.  |_|--(+----(+----(+----(+----(+----(+----(+----|          ADDRESS        |
  1717.  |_|--+-----+-----+-----+-----+-----+-----+-----|                         |
  1718.                                                  \____     DECODER        |
  1719.                                                       \____               |
  1720.                                                            \____          |
  1721.                                                                 \____     |
  1722.                                                                      \____|
  1723.  
  1724.                                                                  17 MAR 1978
  1725.  
  1726.      There can  be no will without knowledge of the options available to the
  1727. will.  So  we  can  perceive  of  the  will,  for  one  thing,  as  having a
  1728. representation of  all the  available options.   Now, the will does not just
  1729. slide over a field governing all the individual  muscles.   Rather, the will
  1730. probably floats over a quasi-surface of very numerous nodes, where each node
  1731. can represent a conceptualized, habituated action consisting of  a string of
  1732. many activations of individual muscles.  There might be a node for reaching,
  1733. for bicycle-riding, for jumping, and  so  on.    Yet  the  will  can  not be
  1734. disassociated from its available options.
  1735.      We perceive  of the will as a motor function.  It has at least two main
  1736. subdivisions:  muscular sequence activation and verbal thought.
  1737.      One method would be to establish  a special  association-accumulator to
  1738. be known  as a  volition register.   The  volition register  would be like a
  1739. cylindrical pole having on itself nodes which would constantly be  trying to
  1740. initiate mental activity.  Instincts, bodily appetites, conscious plans, and
  1741. so on, could be represented on the volition register.  Each node  could have
  1742. a kind  of priority-valence  which would  determine how  frequently the node
  1743. fired out a demand for initiatory action.  For instance, as an  organism got
  1744. hungrier  and   hungrier,  the   appetite-node  would  fire  more  and  more
  1745. frequently.
  1746.      Of course, the above paragraph does not describe  a complete  will.  It
  1747. just describes  a mechanism  for focussing  the will.   Now  I would like to
  1748. suggest a quasi-two-dimensional bouleumatic accumulator system  for enabling
  1749. the  deliberate  execution  of  action  demanded  by  a node on the volition
  1750. register.
  1751.      On the volition register, the node of presently  highest priority would
  1752. become coupled  to a "volitional accumulator."  This volitional accumulator,
  1753. "VA," would accept both positive and  negative  inputs  in  a  process where
  1754. positive  accumulation  to  a  certain  satiety-point  would  actually cause
  1755. initiation of the action.  Thus  a decision-process  is stretched  over time
  1756. and  the  whole  mind  gets  to  watch and affect the decision taking shape.
  1757. Indeed we probably only need one such VA to serve as the seat of the will in
  1758. the  mind.    How  the  positive  and  negative  inputs arise is a different
  1759. question.  However, they would  be  the  result  of  the  processing  of all
  1760. available  related   knowledge  (belief).     We  could  say  that  positive
  1761. accumulation  in  the  VA  is  automatic  unless  contravened   by  negative
  1762. accumulation.   Now here's  a trick.   Negative accumulation could simply be
  1763. defined as any protracted, prolonged fetching  of related  associations.  In
  1764. other words,  we're not  really value-judging the inputs.  We're decreeing a
  1765. positive process which will just run its course unless you  stop it.   We're
  1766. saying that  any pause  to reflect is automatically negative.  After all, if
  1767. you haven't thought through the relevant  data, you  can't make  an informed
  1768. decision.
  1769.  
  1770.  
  1771.                                                                  18 MAR 1978
  1772.  
  1773.      To continue  with yesterday's  discussion of the mental will, so far we
  1774. have the Volition Register (VR) and the Volition Accumulator (VA).
  1775.      Every habituated muscle sequence  is a  potential target  of the mental
  1776. will.  Each sequence was developed with respect to a purpose.  Such purposes
  1777. can be very generalized, even though the action sequences are very specific.
  1778. For instance,  walking is  a very specific action sequence, but the purposes
  1779. for walking  can  be  infinitely  various.    So  a  purpose  can  be rather
  1780. conceptual and  abstract.   However, I  tend to  imagine a  purpose as being
  1781. analogous to  a  kind  of  osmotic  pressure.    That  visualization  is why
  1782. yesterday I  established the  notion of a Volition Register.  It was easy to
  1783. imagine bodily appetites and  instincts finding  their way  to expression on
  1784. the volition  register.   After all,  they can be genetically "hardwired" as
  1785. such.  It is harder to  figure  out  how  conscious  plans  would  reach the
  1786. Volition Register.
  1787.      One domain  that might  lend itself  to figuring  out is that of mental
  1788. curiosity.  I likened a purpose to osmotic pressure.  Well, I  can imagine a
  1789. quasi-osmotic  pressure  of  incomplete  information resulting in curiosity.
  1790. For instance, an organism perceives a container and immediately wonders what
  1791. is  inside  the  container.    Or,  better  yet,  the organism experiences a
  1792. physical blow or push  and immediately  wonders as  to the  causation of the
  1793. action.   Yes, causation  provides a  good source  for the disequilibrium of
  1794. curiosity.  It could be either  designed or  taught into  an artificial mind
  1795. that  it  should  generally  seek  to  discover  the  immediate causation of
  1796. perceived consequences.
  1797.      Now, how do we conceptualize causation-curiosity?  It is interesting to
  1798. note  that  with  humans  causation-curiosity  often  extends only a limited
  1799. number of steps off into murky terra incognita.   It  takes great physicists
  1800. like Einstein and Heisenberg to really pursue matters all the way unto first
  1801. principles.
  1802.      Having stopped and thought, I get this idea:  The desire to  discover a
  1803. cause for a consequence is basically the desire to find something with which
  1804. to associate a consequence.
  1805.      When a phenomenon presents  itself to  a mind,  I can  imagine the mind
  1806. querying  itself  as  to  logical  associations.    The  causation-curiosity
  1807. phenomenon could be quasi-two-dimensional  in the  following way.   The mind
  1808. perceiving  a  consequence  would,  on  the one hand, be seeking any logical
  1809. association to the consequence.  On the other  hand, the  mind would perhaps
  1810. have learned  to bring  in and  apply the concept of the immediate past as a
  1811. second dimension to its  search for  anything associated  with the perceived
  1812. consequence.   Thus I  imagine a  kind of  two-arrowed vectoring.   The mind
  1813. experiences two disequilibria in looking both for something  related and for
  1814. something immediately past.
  1815.      I often  have the  hunch that many mental phenomena are exponential and
  1816. nonlinear in the way just described.
  1817.      Now, these disequilibria of search are probably something to be handled
  1818. by  a  general  mechanism  of  associativity.    The  idea  goes as follows.
  1819. Percepts are to be synthesized into units as  much as  possible.   Then they
  1820. can be  handled by  unitary tags.  The General Associativity Mechanism (GAM)
  1821. has hold of tags governing unitary percepts laid down in memory.  Any memory
  1822. track would  have a GAM connected with it for the very purpose of organizing
  1823. the contents of  the  memory  track.    Associative  GAM-tags,  if activated
  1824. backwards to  the engram,  cause the memory percept to flow back through the
  1825. perception  channel.     During   flowback,  opportunity   arises  for  many
  1826. subassociations to  come into play.  Thus a single GAM-tag can fetch a bulky
  1827. memory aggregate,  but during  flowback the  aggregate can  be analyzed with
  1828. particular subassociations being looked for or expected.
  1829.      Now,  it  can  somehow  be  the  design  of the GAM to have a logically
  1830. compulsive need to associate  a perceived  consequence along  the two above-
  1831. mentioned vectors.   It  is easy  to imagine  the physical reality of such a
  1832. compulsion.  There would be, so to speak, three registers with which the GAM
  1833. would operate.  The Percept Register (PR) would contain momentarily the GAM-
  1834. tag,  or  even  many  subtags,  of  the  unitarily  perceived  happening  or
  1835. consequence.    The  Percept  Register  would  simultaneously hold a kind of
  1836. Substantiality Index (SI) or measure (SIM?)  relating to  and indicating the
  1837. degree of  logical complexity  and substantiality  inherent in the aggregate
  1838. percept momentarily being registered in the Percept Register.
  1839.      Secondly, the Lateral  Associand  Register  (LAR)  would  be  under the
  1840. above-mentioned quasi-osmotic pressure to come up with something that can be
  1841. associated with the contents of the Percept Register.  The pressure would be
  1842. towards  arriving  at  an  equilibrium  of  the Substantiality Index Measure
  1843. (SIM), there being an SIM connected with the  Percept Register  and also one
  1844. connected with the Lateral Associand Register.
  1845.      This compulsion  system would not require equality to exist between the
  1846. SIMs.  However, it  would require  significant correlation.   (I  don't mean
  1847. "correlation"  in  the  strict  statistical  sense.)    Now,  here  is where
  1848. volitional motivation comes in.  To whatever extent  the SIM  of the Lateral
  1849. Associand Register did not measure up to the presumably high value obtaining
  1850. in the SIM of the Percept Register, to that compulsive extent the  GAM would
  1851. send out  a signal  to a  node on  the Volition  Register, where in turn the
  1852. valenced or prioritized node would demand that attention be directed towards
  1853. discovering some  second phenomenon which could be logically associated with
  1854. the aggregate percept momentarily being registered in the  Percept Register.
  1855. Voila,  a  desire  to  know  something  has  been created and expressed as a
  1856. motivation of the system,  all done  with switching  circuits, quasi-osmotic
  1857. pressures, and the disequilibria of index measures.
  1858.      I have  not forgotten  the third  register in the GAM.  It would be the
  1859. Temporal Associand Register  (TAR),  and  it  would  constitute  that second
  1860. vector, which,  together with  the first vector of the LAR, would create the
  1861. exponential phenomenon of causation-curiosity.   The  TAR would  also have a
  1862. Substantiality Index  Measure (SIM),  and the compulsive need for it to rise
  1863. in value to meet the PR-SIM, just as the LAR-SIM is trying  to do,  would be
  1864. expressed as an analog signal to the Volition Register.
  1865.      Now, I haven't stated whether the TAR-SIM signal and the LAR-SIM signal
  1866. would go separately or jointly to the Volition  Register.   I would  like to
  1867. theorize them  as going to the same VR-node with a summation-effect upon the
  1868. priority or valence of the node.  After all, the  two signals  come from the
  1869. same GAM.
  1870.      We could  now have  a homeostatic effect.  Once the causation-curiosity
  1871. node achieves release-priority on the Volition  Register, then  the Volition
  1872. Accumulator (as  theorized yesterday) couples to the operant node and starts
  1873. accumulating towards a go-ahead signal for initiating action.   But  in this
  1874. case, what  action is to be initiated?  According to yesterday's theory, the
  1875. action to be initiated has to be already  expressed and  ready to  go at the
  1876. competent node  on the Volition Register.  The Volition Accumulator isn't an
  1877. enabling bridge; it's a firing mechanism.  So far in today's written thought
  1878. all we  have done  is bring a desire for causation-knowledge to the Volition
  1879. Register.
  1880.      A curiosity-GAM must therefore probably bring even more to the Volition
  1881. Register.    I  can  theorize  the  process as follows.  Perception GAMS are
  1882. obviously on the passive side of the mind, even though  we are  here and now
  1883. designing initiatory  mechanisms into them.  On the active side of the mind,
  1884. along with  muscle-sequences as  for walking,  there must  also be something
  1885. that we could call an Associative Motor Attention Mechanism (AMAM).  Just as
  1886. there would  be a  separate GAM  for each  perception track,  so there would
  1887. probably arise  a separate AMAM to correspond to each perception GAM.  There
  1888. would be an Associative  Motor  Attention  Mechanism  for  hearing,  one for
  1889. seeing,  one  for  each  sense.    Now,  each  perception-GAM  could have an
  1890. associative link to its corresponding AMAM in such a way that the AMAM would
  1891. be dynamically  represented conjunctively  with the causation-curiosity node
  1892. at the Volition Register.
  1893.      Now, after coupling but before go-ahead, the Volition Accumulator (here
  1894. is a  new part  of the  theory) would cause non-volitional, memory-only-type
  1895. associative impulses to flow through the involved parts  of the  Motor Habit
  1896. Tagging System (see diagram 10 SEP 1977).  In other words, the mind would be
  1897. pre-thinking whatever motor actions it were  thinking of  taking.   The pre-
  1898. thought of  each motor  action would  flow through consciousness, giving the
  1899. system its opportunity to  object  negatively  to  any  contemplated action.
  1900. Remember,   yesterday's   theory   says  that  any  prolonged  associational
  1901. occupation with the contemplated action automatically constitutes inhibition
  1902. or  interdiction  within  the  Volition  Accumulator.    However,  there can
  1903. obviously rage a battle  royal within  the mind,  where the  insistence of a
  1904. demand-node on  the Volition Register can keep forcing the issue, within the
  1905. Volition Accumulator, of a motor proposal  to which  the general associative
  1906. consciousness prolongedly  raises objections.  Thus we have a picture of how
  1907. a mind might engage in intense,  drawn-out deliberation  while contemplating
  1908. an  action.    We  can  see  how the Volition Accumulator becomes almost the
  1909. physical seat of consciousness and will,  because it  is within  the VA that
  1910. the  action-release-potential   waxes  and   wanes.    Truthfully,  however,
  1911. consciousness and the will are  spread  out  to  wherever  free associations
  1912. reverberate in the reaches of the mind.
  1913.      During  today's  written  discussion  I  have  formulated the idea that
  1914. specific motor sequences might be  linked  specifically  to  certain passive
  1915. memory  networks.    The  ontogenesis  of  such  links  would  probably be a
  1916. situation of side-by-side development.  After all, motor sequences had to be
  1917. tailored to  fit initial purposes.  So the thread of reference proceeds from
  1918. initial purposes down through subsequent purposes and applications.
  1919.      Come to think of  it, motor  attention-getting mechanisms  as described
  1920. today could  be the general key to remembering and bringing to bear even the
  1921. most general-purpose motor sequences.
  1922.      While reading back into today's work  above, I  thought of  an idea for
  1923. the general  representation of  conscious plans  in volition.   You see, the
  1924. work I just did on causation-curiosity  involved having  the mental organism
  1925. look  backwards  into  time  in  search  of  causation.  For general-purpose
  1926. volition, perhaps we should have the mind look  forward into  time in search
  1927. of solutions.
  1928.      A perceived  or even  thought-up phenomenon  could be  interpreted as a
  1929. problem if it set off a  rash or  burgeoning chain  of associative activity.
  1930. Say,  this  idea  even  tells  me  how  specific  motor  sequences might get
  1931. involved.  As I was  already  theorizing  today,  the  ontogenesis  of motor
  1932. sequences  results   in  specific   linkage  to   passive  memory  networks.
  1933. Therefore, if an emerging problem sets off an associative vortex,  that same
  1934. vortex will  elicit tags  referring directly  to motor sequences, and we can
  1935. design that the motor tags should  queue  up  at  the  problem  node  on the
  1936. Volition Register.
  1937.      Under this idea, just about everything that presents itself to the mind
  1938. could be interpreted as a problem.  However,  the prioritizing  mechanism of
  1939. the Volition  Register causes  the mind to treat as problems really only the
  1940. most pressing phenomena.
  1941.      This idea of each vortex being  handled as  an almost  palpable problem
  1942. seems especially  felicitous and  fortunate.   It is  a way for the focussed
  1943. mind to become specifically  attentive to  nonspecific happenings,  that is,
  1944. the general diffusion of dynamic associations.
  1945.      I  suppose  we  should  devise  something  to  be  called  the  Problem
  1946. Extraction Mechanism (PEM) and deposit it along with  causation-curiosity in
  1947. each General Associativity Mechanism (GAM).
  1948.      I  was  now  momentarily  tempted  to try to use the Problem Extraction
  1949. Mechanism to abolish the  need for  the mechanism  of causation-curiosity in
  1950. each  GAM.    However,  I  think  I realize that the mechanism of causation-
  1951. curiosity really is needed as essential  to the  whole domain  of attention-
  1952. getting.   In fact,  attention-getting can occur first, and then perhaps the
  1953. Problem Extraction Mechanism can  also  come  into  play.    After  all, the
  1954. functioning  of  the  mechanism  of  causation-curiosity  could in itself be
  1955. sufficient to set off the Problem Extraction Mechanism.
  1956.      Each GAM could have  something  analogous  to  a  summation-column that
  1957. would  measure  the  general  level  and  intensity  of associative activity
  1958. spreading out around a percept as  a  proto-problem.    We  could  call this
  1959. summation-mechanism the  Associativity Index  Measure (AIM), and it would be
  1960. similar to the Substantiality Index Measure (SIM) by which the  mechanism of
  1961. causation-curiosity  functioned.    However,  the  AIM would measure diffuse
  1962. activity spreading out, whereas the SIM would measure a centered, punctiform
  1963. phenomenon.
  1964.      A high AIM-level would cause a GAM to transmit an emerging problem to a
  1965. node on the Volition Register.   Simultaneously motor  proposals flushed out
  1966. by the  problem-vortex would queue up at the VR-problem-node for adoption or
  1967. rejection after consideration during operation of the Volition Accumulator.
  1968.      I am quite pleased (perhaps prematurely)  with yesterday's  and today's
  1969. working out of how a mind might exercise will.  I certainly had to translate
  1970. several phenomena into equivalent but unobvious interpretations.
  1971.      For  instance,  I  translated  the  notion  of  positive  and  negative
  1972. influences on  the will.   I  simply declared that all manifestations of the
  1973. will  start  out  as  positive  and  that  any  interfering  or  temporizing
  1974. associativity is  to be  interpreted as  negative.  Thus value is functional
  1975. rather than epiphenomenal.
  1976.      I  translated   intellectual   curiosity   into   the   homeostasis  of
  1977. disequilibria, and thence into a mechanism of attention-getting.
  1978.      Finally I translated the recognition of a problem into the detection of
  1979. any massive vortex of associativity.
  1980.      Gradually I think I am mapping out the operant regions of a functioning
  1981. mind.   The systems  which I  have described this week can become so complex
  1982. and recursive that I can almost  picture the  hum of  a mind  processing the
  1983. inexhaustible  material  of  external  perceptions  plus  its  own  internal
  1984. reflections.
  1985.      When the mind is  rather inactive,  it is  able to  daydream and follow
  1986. tenuous  chains  of  thought  because  there  are  no  higher  vortex levels
  1987. demanding attention and  action  at  the  Volition  Register.    However, if
  1988. something  important  is  suddenly  remembered  or  reasoned out, the raging
  1989. vortex of associativity galvanizes the problem-solving mind.
  1990.  
  1991.  
  1992.                                                                  24 MAR 1978
  1993.  
  1994.                     Creating a "Nommulta Information Index"
  1995.  
  1996.  
  1997.      I am amassing so many notes and especially so much  printed matter that
  1998. I  feel  compelled  to  take  a  large  cardboard  box with dozens of freely
  1999. obtained escrow envelopes  and  start  a  large  file  to  be  indexed  by a
  2000. "Nommulta Information  Index," or "Nominfo Index."  The Nominfo (Index) will
  2001. access the following areas, preceded below by their intended locations:
  2002.  
  2003. 1.  (PDF-box)  Nolarbeit Theory Journal, with index.  (Nolarbeit Theory     
  2004.     Index?)
  2005.      - master file; manuscript storage file; safety file; attache file.
  2006.      - extra papers file.
  2007.      - Note:   The Nominfo will access only the index to the Theory Journal,
  2008.        and then only partially, during cross-reference.
  2009.      - Note:  The safety file will be kept somewhere safely away from  the  
  2010.        other files.
  2011. 2.  (PDF-box)  Nolarbeit Hardware Journal.  (With index?, Nolarbeit Hardware
  2012.        Index?)
  2013. 3.  (PDF-box)  Nolarbeit Financial Ledger (= record of expenses).
  2014. 4.  (PDF-box)  Nolarbeit Topical Files.
  2015.      - Structured, organized files of work on specific topics  or projects. 
  2016.        Excerpts from the strictly date-serial Nolarbeit Theory Journal would
  2017.        not have to be date-serial in these topical files.
  2018.      - Perhaps topics should be indexed in the Nolarbeit Theory Index?
  2019. 5.  (PDF-box)  Publications/Documents File - "PDF."
  2020.      - Brochures, catalogs, clippings, correspondence,  manuscripts, memos, 
  2021.        photocopies, software as documented computer programs, etc.
  2022. 6.  (Bookshelves)  Nolarbeit Reference Library.  (With catalog?)
  2023. 7.  (Passim)  Extrinsic Reference Locations.
  2024.      - Public and  private libraries;  unheld periodicals;  persons as      
  2025.        consultants or authorities; data bases; vendors  and manufacturers;         
  2026.        institutions and agencies; existing systems and hardware.
  2027.  
  2028.  
  2029.                                                                   5 APR 1978
  2030.  
  2031.                               Machine/Brain Paralleling
  2032.  
  2033.      Recently I  have read  a series of four excellent articles on the brain
  2034. by Professor Kent in Byte magazine.  It  is important  to take  issue with a
  2035. lot of  points raised  in the  articles.   Right now  I just  want to record
  2036. general impressions and ideas.
  2037.      Kent wrote a lot about  how  lower  functions  of  the  central nervous
  2038. system  are  designed  to  run  independently if not interfered with from on
  2039. high.  I think he wrote that the rationale of  control is  for higher levels
  2040. to act  generally to  inhibit lower levels, which would operate massively on
  2041. their own if left  alone.   (I will  have to  re-examine this  notion in the
  2042. articles.)  Anyway, general ideas were put forth.  One idea was that nervous
  2043. mechanisms were pyramided by  evolution.   That numerous,  myriad mechanisms
  2044. run parallelly while subject to intervening control from on high.
  2045.      Well,  all  these  articles  (including  the  aphasia-article in "Human
  2046. Nature") cause novel reactions in me with my Nommultic viewpoint.
  2047.      One reactive notion I get is that the brain, which seems so monolithic,
  2048. is really  like a stick-forest of parallel components.  For instance, in the
  2049. various aphasias various abilities can be lost.  Yet an essentially integral
  2050. brain  remains  which  can  operate  around  the  losses if they are not too
  2051. severe.    So  that's  the  one  reaction  I  get  -  a  notion  of columnar
  2052. parallelism.
  2053.      However, to the first reaction (in the preceding paragraph) I get yet a
  2054. second reaction, namely the  suspicion that  the true  ultimate seat  of the
  2055. mind  rests  highly  independently  above  the  various automatic processing
  2056. mechanisms.
  2057.      By the "seat of  the mind"  I mean  the part  where the  mind thinks in
  2058. natural language and makes completely free decisions of volition.
  2059.      A  good  picture  of  the  free  conscious  mind is that of a mind just
  2060. thinking or  meditating, following  a line  of internal  thought rather than
  2061. responding   to   external   stimuli.     Nommultic  theory  says  that  the
  2062. consciousness can be  free  because  there  is  really  a  dichotomy between
  2063. elements of  high consciousness and elements of lower processing mechanisms.
  2064. I would hypothesize that  most  uncontrollable,  unpreventable  crossflow is
  2065. one-way,  in   the  direction   from  lower   mechanisms  across  into  high
  2066. consciousness.  (Exceptions might be blushing and sweating out of fear.)  In
  2067. other  words,   external  or  lower  stimuli  can  forcefully  impinge  upon
  2068. consciousness, but consciousness ensconces itself in its own  realm and does
  2069. not have to send out signals unless it is implementing volitional decisions.
  2070. Yet within its own realm the consciousness makes decisions as  to what train
  2071. of thought  to follow  and how long to meditate without initiating any motor
  2072. muscle actions.    Now,  there  is  some  uncertainty  as  to  whether these
  2073. associative happenings  are really  decisions or  just associative outcomes.
  2074. One further situation is  rather clear,  though.   When the  meditating mind
  2075. expresses its  desires and  decisions verbally, by thinking such words as "I
  2076. want...," it achieves a high  level  of  symbolic  abstraction,  of abstract
  2077. thought.   Whether or  not the  underlying associative process constituted a
  2078. decision, the symbolic formulation of  "I  want"  achieves  the higher-level
  2079. reality of  a formalized  decision, which  possesses an enhanced associative
  2080. dynamism and which can continue in existence as a trace in memory.
  2081.  
  2082.  
  2083.                                                                   6 APR 1978
  2084.  
  2085.                          Mindrealm versus Perceptflow
  2086.  
  2087.      The terms "mindrealm" and "perceptflow" are meant to refer respectively
  2088. to the mental consciousness/volition area and the total input sensorium.
  2089.      In Nommultic  theory I  maintain that  the quantitative  aspects of the
  2090. mindrealm and the perceptflow can be quite non-interdependent.
  2091.      A typical task of a mindrealm  is  to  know  the  external  world.   In
  2092. humans,  apparently  the  input  sensorium  can be quite drastically limited
  2093. while still the mindrealm is able  to know  the world  full well.   (In this
  2094. regard,  I  think  I  had  better  read the autobiography of Helen Keller in
  2095. search of insights.)  AI researchers lay so  much importance  on vision, yet
  2096. people's intelligence is not affected by blindness from birth.
  2097.      So what  I am  looking for  is a  way to use a minimal sensorium to get
  2098. information about the world into the associative memory of a  verbally adept
  2099. mindrealm.
  2100.      One extreme  would be  to try to imagine a grandiloquent mindrealm with
  2101. associative emptiness at every conceptual  address  node.    One immediately
  2102. jumps  to  the  idea  that  the  words  would refer to other words, but that
  2103. recursive idea can't work ("os lien mega to aitema"), because there can't be
  2104. any discriminating or prioritizing of associations if they all hold the same
  2105. value of zero.
  2106.      So the problem is one of discriminating.  Half in  jest, I  say that we
  2107. need not so much to know things truly as just to tell them apart.
  2108.      The abstract,  symbolic nature  of natural  language plays an important
  2109. role here.  Once things are  discriminated and  given individual  names, all
  2110. kinds of  memorable attributes can be tacked on to the pristine cognition of
  2111. each  named  entity  through  the  process  of  symbolic-level  reference in
  2112. sentences referring to the named entities.
  2113.  
  2114.  
  2115.                                                                   7 APR 1978
  2116.  
  2117.                          Conjecture on How We Know Things
  2118.  
  2119.      When I  contemplate an artificial mind which is supposed to get to know
  2120. the external world, I imagine a potentially very intricate linguistic system
  2121. just  waiting  to  associate  its  conceptual  nodes  with knowledge gleaned
  2122. through the senses.
  2123.      But what can we know?  Of the five main senses, taste  and smell convey
  2124. a lot  of information  but convey  it in  too narrow a fashion.  They convey
  2125. identifiers, not knowledge of essence.
  2126.      The sense of hearing is a serial sense,  not parallel.   As  such it is
  2127. excellent for  conveying coded  information, but perhaps not so good for the
  2128. all-at-once capturing of essence.
  2129.      Such elimination leaves us with touch and vision.  For  the purposes of
  2130. this treatise,  let us  consider vision  to be a special or enhanced case of
  2131. the sense of touch.
  2132.      Touch and vision both can convey  widespread, parallel, instantaneously
  2133. two-dimensional  knowledge.    Let  us  say  that  they  both convey "array-
  2134. knowledge" or "array-information."   Thus they  are distinct  from the other
  2135. three senses  mentioned above.   If the sense of balance is another sense in
  2136. its own right, it, too, is not an "array" sense.
  2137.      So I would like to speculate that an "array" sense is necessary for the
  2138. development of general knowledge about the world.
  2139.      Now,  I   know  that   the  professional  AI  researchers  are  working
  2140. energetically on visual pattern  recognition.   I also  know that  vision is
  2141. totally unnecessary for intelligence of the highest order.
  2142.      Such elimination  leaves us  with touch as the only essential sense for
  2143. epistemology.
  2144.      Now, for years I have been captivated by  the notion  that the simplest
  2145. geometric entities  of point,  line, and  curve contain some kind of central
  2146. key to the whole problem of epistemology.  It has seemed to me that  only on
  2147. the level  of these simplest geometricalities can we know the world directly
  2148. and unerringly.    We  cannot  without  prior  history  know  a  blob,  or a
  2149. confusion, or a plethora.
  2150.      The trouble  was, for a long time (as in August of 1976) I applied this
  2151. notion of geometricality mainly just to vision.  But vision at this stage is
  2152. perhaps too complicated for me.  Let me for a while in this treatise confine
  2153. myself to consideration of touch as an essential "array" sense.
  2154.      All the variations of a small  enough  array  can  be  known absolutely
  2155. thoroughly because  the small  number of  content-points permits only a very
  2156. limited number of variations.
  2157.  
  2158.                          Scratch-Leaf - from 7 APR 1978
  2159.  
  2160. - virtuality
  2161. - We can know utterly simple things directly.
  2162. - Mensch!  What if you had  a  mind  which  didn't  need  "knowledge gleaned
  2163.  through the senses," but which could deal directly and internally with pure
  2164.  logic, so that it could ascribe properties to simplest particles and thence
  2165.  decogitate whole universes deducible from the logic?
  2166.  
  2167.  
  2168.                                                                  10 APR 1978
  2169.  
  2170.      In recent theory I have concentrated on the senses of touch and vision.
  2171. Today I get a curious  idea  about  the  relative  importance  of  those two
  2172. senses:   that perhaps  touch is more important for the "infant" development
  2173. of intellect, and thereafter sight  is  more  important  because  it conveys
  2174. immensely more information.  Here follows reasoning behind the idea.
  2175.      Human vision  does not  seem actually  to get  down into point-by-point
  2176. characteristics.  Rather, as  I have  been reading  in Ernest  Kent's "Byte"
  2177. articles, human vision does a lot of feature extraction.
  2178.  
  2179.                     First Scratch-Leaf - from 10 APR 1978
  2180.  
  2181. - the time-dimension.
  2182. - multi-level:  arrays below, interconnecting language above.
  2183. - simplest geometry.
  2184. - interior organization of perception channels themselves.
  2185. - two-dimensional (or  multi-dimensional) up-and-down  cascading of feature-
  2186.   summation
  2187. - remember:  The perception array (eye; skin-surface) will probably have one
  2188.   central point of departure.
  2189. - Only the array-senses matter:  touch and vision.
  2190.  
  2191.                     Second Scratch-Leaf - from 10 APR 1978
  2192.  
  2193. - Perhaps acquisition  of intellect is in two stages:  bootstrap, by touch; 
  2194.   and ongoing, by vision.
  2195. - virtuality:  When the  eye looks  at a  scene, the  mind is  fooled by    
  2196.  "virtuality" into thinking that it is seeing the whole scene at once.
  2197.  
  2198.  
  2199.                                                                  12 APR 1978
  2200.  
  2201.      It  is  rather  obvious  that  there  must  be feature-summation in the
  2202. recognition of any aggregate, of  everything  with  more  than  one feature.
  2203. Therefore it  follows that  features, not  aggregates, are  what we know and
  2204. recognize.   If we  could not  perceive and  identify each  feature, then we
  2205. could not cumulatively sum up features to recognize aggregates.
  2206.      I can  imagine an  infancy where  the organism learns to know features,
  2207. and then a maturation where the  organism learns  myriad aggregates composed
  2208. of the various features.
  2209.      We  must  establish  a  Short-Cut  Principle  (SCP)  to  mean  that  an
  2210. originally  slow  and  cumbersome   mechanism   of   feature-summation  will
  2211. automatically follow all available short-cuts  in summation  to identify  an
  2212. aggregate.   In  other  words,  if  we  had  to  use  extremely "granulated"
  2213. features,  the  summation  mechanism  would  still  work,  but in a slow and
  2214. cumbersome way.   Perhaps  "leaps"  of  the  intellect  are  shortcuts  in a
  2215. summation process.
  2216.      We would probably not have to design the shortcuts into the machine; it
  2217. would find them itself.
  2218.      The question must be resolved of whether the perception memory channels
  2219. hold arrays of raw data or only feature-highlights.
  2220.      It  would  be  neat  (and  inexpensive)  to  design  a  perceptor  that
  2221. remembered (for touch and  vision) only  arrays or  registers of collective,
  2222. pre-processed  features.    That  is,  each  slice of perception would be an
  2223. engram remembering in a registered way just which  of all  possible features
  2224. were present  in the  original slice  of raw  perception.   (Don't forget to
  2225. consider the time-dimension.)
  2226.      Along this idea, when we remember a mental image, a registered slice of
  2227. features  is  resubmitted  to  the  highest echelon of our visual perception
  2228. system.  This highest echelon could  consist of  a framework  internally and
  2229. peripherally organized  to the  highest possible  degree.   Thus it might be
  2230. possible to bring even  our  visual  imagination  to  bear  upon  the summit
  2231. framework.    That  is,  while  we  are  recalling  an  engram of registered
  2232. features, we might use our imagination to fill in other features.   It might
  2233. be like having articulated, transparent layers.
  2234.      I like  the idea  of having a kind of "gate" along the optic perception
  2235. channel.  In advance of the gate, between the eyes and the gate, there would
  2236. be  all  the  considerable  apparatus  for the self-organizing of the visual
  2237. perception  system  and  for  the  infancy-stage  learning  of  the standard
  2238. features in a registered array.
  2239.      Postpositional to  the gate,  there would be the lengthy memory channel
  2240. with  the  oldest  memories  coming  first  and  with  new,  fresh  memories
  2241. constantly being  added on  at the  extremity of the memory channel.  I like
  2242. this notion  because  it  presents  an  elegant  sequence  for  the physical
  2243. positioning of  all that  goes on  in visual  perception and memory.  It may
  2244. bother someone to think that the oldest, perhaps outdated memories would lie
  2245. closest  to  the  recall-gate.    But  that  arrangement  is  not so bad; it
  2246. certainly would  be  difficult  to  have  the  most  recent  memories always
  2247. closest.
  2248.      There  is  more  detail  to  how  the  post-gate channel would operate.
  2249. Basically, the level  of  organization  prevailing  in  the summit-framework
  2250. recall-gate  would  not  be  improved  upon further down the memory channel.
  2251. Each (so highly significant)  point  in  the  gate  would  go  into  a line-
  2252. extension all  the way  down the postgate channel.  All the lines as a whole
  2253. would remain positionally "registered" just as they were in the summit-array
  2254. of the  recall-gate.   Now I  do not  necessarily mean  that the lines would
  2255. physically stay in order with respect  to  the  physical  geometry  of their
  2256. dimensional co-ordinates,  but rather  I intend an organizational order.  Of
  2257. course, a high degree  of physical,  locational order  could just  chance to
  2258. occur!
  2259.      Nor is  it hard  to imagine  a switching-network  or a synaptic growth-
  2260. process which  would continually  provide for  the proper  elongation of the
  2261. registered memory channel.
  2262.      The elongated  post-gate memory  channel is a transmission-channel.  An
  2263. incoming slice  of  perception  (probably  pulsed)  travels  to  its ongoing
  2264. extremity to be deposited as an engram-slice.
  2265.      For the  slices, we  must imagine  that at  regular, frequent intervals
  2266. each extension-line can branch off into  a memory-node.   The extension-line
  2267. itself is not a string of nodes (or is it?), but all along its length it has
  2268. slices of nodes that hold the same "register"  or array  as is  held both in
  2269. the recall-gate  and all  along the ordered memory channel.  Thus an instant
  2270. of visual memory  can  be  recorded  as  a  feature-image  on  a node-slice.
  2271. Because every element of the node-slice is in register with the channel, the
  2272. intact  image  can  be  "dumped"  onto  the  transmission   lines  and  thus
  2273. automatically show  up in the recall-gate in just the same array-order as it
  2274. was perceived minutes or years previously.
  2275.  
  2276.      Note:  When AI researchers say that we can recognize a shape  no matter
  2277. its size  or orientation,  they may be forgetting one thing:  most shapes we
  2278. have seen at one time or another in many different sizes and orientations.
  2279.      Small print is difficult to  read  for two reasons:   because, being
  2280. small, it  is difficult  to see,  and because  in our memory channels we are
  2281. unaccustomed to the small-size images.
  2282.  
  2283.  
  2284. Nolarbeit Theory Journal                                         12 APR 1978
  2285.  
  2286.  
  2287.                     Diagram of a Visual Memory Channel
  2288.  
  2289.                                  -------
  2290.                                /         \
  2291.                               |  Eyeball  |
  2292.                              \ \         / /
  2293.                               \  -------  /
  2294.                                 ---------
  2295.                                       /
  2296.                                      /
  2297.                                     |
  2298.                                     |
  2299.                                     | _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _
  2300.                                     |\
  2301.                                     | \
  2302.                                    /|\ \              Infancy-Stage
  2303.                                   / | \ \
  2304.                                  / /|\ \ \            Self-Organizing
  2305.                                 / / | \ \ \
  2306.                                / / /|\ \ \ \  _ _ _ _ _ _ _ _ _ _ _ _ _ _
  2307.                               / / / | \ \ \ \       
  2308.                              / / / /|\ \ \ \ \
  2309.                             / / / / | \ \ \ \ \       Feature Extraction
  2310.                            / / / / /|\ \ \ \ \ \
  2311.         - - - - - - - -  _/_/_/_/_/_|_\_\_\_\_\_\_  - - - - - - - - - - -
  2312.          "recall-gate"  |_________________________|  "summit framework"
  2313.         - - - - - - - -   | | | | | | | | | | | |   - - - - - - - - - - -
  2314.  oldest memory slice --> o|o|o|o|o|o|o|o|o|o|o|o|   Memory Slices
  2315.                           | | | | | | | | | | | |
  2316.                          o|o|o|o|o|o|o|o|o|o|o|o|   as Node-Arrays on
  2317.                           | | | | | | | | | | | |
  2318.                          o|o|o|o|o|o|o|o|o|o|o|o|   Transmission Lines
  2319.                           | | | | | | | | | | | | - - - - - - - - - - - -
  2320.                           | | | | | | | | | | | |
  2321.                           | | | | | | | | | | | |
  2322.                           | | | | | | | | | | | |
  2323.                           | | | | | | | | | | | | - - - - - - - - - - - -
  2324.                          x|o|x|o|x|x|x|o|x|x|o|x|   memory slices
  2325.                           | | | | | | | | | | | |
  2326.                          o|x|x|o|x|o|x|x|o|x|x|x|   with   some
  2327.                           | | | | | | | | | | | |
  2328.                          x|o|o|x|o|o|o|o|x|o|x|o|   nodes  occupied,
  2329.                           | | | | | | | | | | | |
  2330.                          x|x|x|o|x|o|o|x|x|o|x|x|   some unoccupied
  2331.                           | | | | | | | | | | | | - - - - - - - - - - - -
  2332.                           | | | | | | | | | | | |
  2333.                           | | | | | | | | | | | |
  2334.                           | | | | | | | | | | | |
  2335.                           | | | | | | | | | | | |
  2336.                          o|o|o|o|o|o|o|o|o|o|o|o|---- associative
  2337.                           | | | | | | | | | | | |
  2338.                          o|o|o|o|o|o|o|o|o|o|o|o|----------- tags
  2339.                           | | | | | | | | | | | |
  2340.                          o|o|o|o|o|o|o|o|o|o|o|o|------------------
  2341.                           | | | | | | | | | | | |
  2342.  newest memory slice --> o|o|o|o|o|o|o|o|o|o|o|o|-------------------------
  2343.                           | | | | | | | | | | | |
  2344.                           Extremity of Expanding
  2345.                           Channel
  2346.  
  2347.  
  2348.                                                                   4 MAY 1978
  2349.  
  2350.      "Virtuality" in visual perception.   In  the popular  culture there are
  2351. various  drawings  which  display  two  different image-patterns at the same
  2352. time.  Usually the one image  is rather  obvious (augenfaellig,  in German),
  2353. and the  other image  must be  searched for by the eye.  While searching for
  2354. but not yet finding the  hidden  image,  the  observer  certainly  fixes his
  2355. vision in  a haphazard  way upon many of the separate features of the hidden
  2356. image.  Suddenly the observer  sees  the  proper  configuration  of  all the
  2357. features into  the hidden  image.  Now the hidden image looks actually quite
  2358. obvious, and the observer can study it in detail.
  2359.      This trickery of hidden  images  gives  us  valuable  information about
  2360. visual perception.   Our  seeing of  large-scale objects is greatly involved
  2361. with "virtuality," the phenomenon  in  which  a  seemingly  solid  effect is
  2362. produced from rather chimerical and insubstantial substrata.
  2363.  
  2364.  
  2365.                                                                  12 OCT 1978
  2366.  
  2367.                     Development of Tactile Awareness and Memory
  2368.  
  2369.      How does  an organism  develop knowledge of the sensations arising from
  2370. the surface area of its own skin?   We are  posing this  question because we
  2371. now want  to tie the whole input sensorium together and figure out a way for
  2372. an organism to remember its multifaceted existence over time.
  2373.      Obviously, a skin-surface  is  analogous  to  just  a  grid  of sensory
  2374. points.   Of course, we know that important areas of the human skin, such as
  2375. the fingers, have many more sensory nerves than other, less important areas.
  2376.      We  have  long  relied  on  our  maxim,  "Whatever  information  can be
  2377. transmitted can  also be  recorded."   So we can imagine a large information
  2378. channel which  represented every  sensor-point on  the skin  of an organism.
  2379. But we would not want constantly to be taking slices out of that channel and
  2380. recording them.  Rather, we would  rather  have  a  kind  of self-organizing
  2381. time-stage in  which the  organism learned  about its  skin and from then on
  2382. just made any necessary use of its knowledge.
  2383.      In a way, knowledge of our skin is recursive, because each part  of our
  2384. world is  determined in  terms of  other parts, but our whole skin-knowledge
  2385. doesn't just collapse upon itself into unity, but  rather our skin-knowledge
  2386. branches out  into countless associations.  So we might say that each neuron
  2387. going to the skin is a potential building-fiber of knowledge.
  2388.  
  2389.  
  2390.                                                                  15 OCT 1978
  2391.  
  2392.      Over the last several days  I  have  been  reflecting  a  lot  upon the
  2393. problem of  tactile perception  and memory.   This  evening I  have begun to
  2394. crystallize a few ideas.
  2395.      Tactile  perception  must  probably   have   a   pre-positioning  stage
  2396. (embryonic),  a  self-organizing  stage  (infancy),  and  a lifelong record-
  2397. forming stage (maturity).
  2398.      The different human senses are requiring me to theorize different forms
  2399. of perception  and memory.   For  vision, I have thus far theorized a memory
  2400. slicing mechanism.  For auditory perception of words I have  had to theorize
  2401. a pyramidal  coded structure.   Now  for touch  I suppose I must theorize an
  2402. altogether different system in which the  individual perception  points come
  2403. into play only as needed (in the maturity-stage), rather than going along on
  2404. a Gestalt basis as in my theory for vision.
  2405.      In trying to devise an  as-needed  tactile  system,  my  attention goes
  2406. towards reflecting  upon the central memory train which chronicles the whole
  2407. life of the organism.  For this purpose I am imagining a  lifelong series of
  2408. associative discs, each of which for a particular moment constitutes the hub
  2409. of associative activity for the organism.
  2410.  
  2411.                                                                  16 OCT 1978
  2412.  
  2413.      Before I explain the discs,  let  me  approach  them  from  the tactile
  2414. system.
  2415.      The general  tactile nervous  transmission system  is laid down by pre-
  2416. positioning in the embryo.  As we know,  human embryonic  growth follows the
  2417. nerves.    But  such  pre-positioning  is  probably  not accurate enough for
  2418. individual perception points.  So we must imagine a self-organizing stage in
  2419. the infant  organism.   There are  probably masses of brain tissue which are
  2420. pre-positioned so as to  embody the  self-organizing of  the tactile sensory
  2421. reception  system.     In  other  words,  contiguity  on  the  skin  surface
  2422. establishes a logical contiguity  within  the  self-organizing  areas.   (It
  2423. doesn't  matter  if  the  fingertips play a massive information-transmitting
  2424. role; the principles remain  the same.)   In  yet more  other words,  we can
  2425. imagine the  process in  which an individual sensory point on the skin would
  2426. command the attention of  the  conscious  mind.    The  first  news breaking
  2427. rapidly  to  the  conscious  mind  would  be  that  of  which major sense is
  2428. signaling, namely, touch,  and  not  sight  or  hearing.    Rapidly, perhaps
  2429. subconsciously,  the  mind  would  associate  into which side of the body is
  2430. signaling, which major area or limb, and right on down  to the  most precise
  2431. point.   Probably at the same time certain motor associations would be being
  2432. suggested.  This quasi-chain-of-command structure from on top has to be kept
  2433. in  mind  as  we  theorize  about  the  organization  at  the lowest levels.
  2434. Assuming that a sensory impulse reaches the consciousness, it can  be traced
  2435. (consciously or  not) back  to its source only by much associative branching
  2436. down the tree.  The organism ultimately knows where the source is because at
  2437. each  level  the  live  transmission sets off extra-parietal associations to
  2438. lifelong knowledge.  In other words,  the hierarchical  tree itself  (of the
  2439. self-organized tactile  area) could  not pinpoint  a sensory  point, but the
  2440. "voting" extraparietal associations can.
  2441.      So the pre-positioning works embryonically from genetics, and the self-
  2442. organizing  works  by  physical  and/or  logical  contiguity.   But how does
  2443. tactile information reach the  main consciousness?   We  must return  to the
  2444. notion of the lifelong-memory associative discs.
  2445.      The notion  of the  disc is  just a lemma or tool for theorizing.  Over
  2446. some years I have devised systems for various senses (vision,  audition) and
  2447. motor effects.  All along I had in mind that there must be a central flow of
  2448. consciousness.  As a lemma I choose the image of  a flat,  coin-like disc so
  2449. that I can imagine both many peripheral connections and a lifelong series of
  2450. the discs to constitute  the central  tapestry of  lifelong personal memory.
  2451. The trouble  with such  a dynamic, forward-moving system is, how do you hook
  2452. up to it such static aggregates  as self-organized  tactile systems  or even
  2453. auditory coded-structure conceptual systems?
  2454.      One way to do it is to go by the double-edged idea that only used links
  2455. survive, and that survival is assured  because links  are used.   We already
  2456. wrote  today   that  pin-pointing   is  done   by  virtue  of  extraparietal
  2457. associations.  Well, we can have those very  same extraparietal associations
  2458. merge into  the consciousness  discs and provide a hierarchical thread which
  2459. moves along with the temporal progression of consciousness.
  2460.      We might theorize that often-used association lines become  thicker and
  2461. stronger,  perhaps  because  free-floating  transmission-material  tends  to
  2462. attach itself to links receiving heavy usage, thus  turning such  links into
  2463. "trunk lines."
  2464.      We might  also theorize  that two  links to the same node can, by heavy
  2465. usage, fuse and bypass that node to form a single, more direct link.
  2466.  
  2467.  
  2468.                                                                   8 NOV 1978
  2469.  
  2470.                                      _____________________________________
  2471.                                     |                                     |
  2472.                                     |  Immediate Motor Activation Memory  |
  2473.                                     |_____________________________________|
  2474.  
  2475.    ________                                               _______________
  2476.   |        |==================       _____________       |               |
  2477.   |  L  M  |==================       \           /       |  Habituating  |
  2478.   |  i  e  |==================        \   AVR   /        |               |
  2479.   |  f  m  |==================         \_______/         |  Motor        |
  2480.   |  e  o  |==================       _____________       |               |
  2481.   |  l  r  |==================       \           /       |  Sequencing   |
  2482.   |  o  y  |==================        \   AVR   /        |               |
  2483.   |  n     |==================         \_______/         |  Memory       |
  2484.   |  g     |==================       _____________       |               |
  2485.   |        |==================       \           /       |               |
  2486.   |  P     |==================        \   AVR   /        |               |
  2487.   |  e     |==================         \_______/         |  two-         |
  2488.   |  r     |==================       _____________       |               |
  2489.   |  c     |== time-pulsed ===       \XX         /       |  dimensional  |
  2490.   |  e     |== associative ===        \XXXXX    /        |               |
  2491.   |  p     |== tags ==========         \XXXXXXX/         |  plus         |
  2492.   |  t     |==================                           |               |
  2493.   |  i     |==================                           |  time-        |
  2494.   |  o     |==================                           |               |
  2495.   |  n     |==================                           |  dimension    |
  2496.   |________|==================                           |_______________|
  2497.  
  2498.    AVR = Accumulating Volition Register.
  2499.  
  2500.  
  2501.                                                                   8 NOV 1978
  2502.  
  2503.                An Accumulating (Integrating) Volition Register
  2504.  
  2505.      Late this evening I have  been  diagramming  and  theorizing  on  how a
  2506. Lifelong Perception Memory might link up with a Habituating Motor Sequencing
  2507. Memory.  I have assembled enough  ideas that  it is  time now  to write them
  2508. down.
  2509.      A Seattle  newspaper reported  recently (P-I, 25.OCT.1978) that we have
  2510. around 639 muscles.  At any rate, whatever number of  muscles there  were in
  2511. us or  in an  automaton, that  number would serve as direct activation lines
  2512. for Immediate  Motor Activation  Memory, which  could perhaps  be more aptly
  2513. termed as just neuronal hardware rather than memory.
  2514.      Coming from  Immediate Motor  Activation Memory I have in mind a habit-
  2515. channel consisting of segments of Habituating Motor Sequencing Memory.  Each
  2516. segment would represent a habituated motor sequence.
  2517.      Now and then I come upon surprising little conclusions which accelerate
  2518. the Nolarbeit.  One  such realization  today was  that at  the front  of any
  2519. habituated  motor  sequence  must  be  the tag from passive perception which
  2520. (tag) initiates the sequence.   In  other words,  habituated motor sequences
  2521. don't  develop  in  a  causeless,  sourceless  vacuum,  but  rather they are
  2522. assembled starting with and  in response  to a  passive experience stimulus.
  2523. In fact,  I suspect  that the  actual process  of assembling each habituated
  2524. motor sequence will consist of a  long series  of tentative memory-to-memory
  2525. link-ups, which  will go on in a quasi-searching way until the full, refined
  2526. sequence becomes  established  as  a  reliable  response  to  the particular
  2527. stimulus.    Before  this  evening's  theorizing, I had vaguely envisioned a
  2528. motor habituating mechanism which  would do  the iterative  work all  on the
  2529. motor side, but now I see that that would be a displacing of causation flow.
  2530.      Having described the original departure-point for each habituated motor
  2531. sequence, I must now  write down  my present  ideas for  the nature  of each
  2532. sequence.   Basically I  have in  mind either a kind of fan-out or a nodular
  2533. concatenation.  From the Immediate Motor Activation Memory  block would come
  2534. a  specific   number  of  lines,  each  of  which  would  directly  activate
  2535. musculature in an unrefined, unsequenced way.  These control lines would all
  2536. go down  through the  segmented channel  of the Habituating Motor Sequencing
  2537. Memory.  At each segment, though,  there  would  be  available  the neuronal
  2538. hardware necessary  for assembling  a superstructure  that would concatenate
  2539. control nodes in a firing sequence.  For each sequence  there might  even be
  2540. available "empty  nodes" for interspersing within a sequence so as to smooth
  2541. out the timing.  The relative impetus of each control  line within  a firing
  2542. sequence  might  be  established  by  using  more  than  one  firing  of the
  2543. particular node in a series or cluster of identical nodes.  That  is to say,
  2544. to emphasize a node just place it, say, three times in a row.
  2545.      There would probably not be a fan-out, but just a nodular concatenation
  2546. that gave the appearance of a fan-out.
  2547.                                              From After Midnight, 9 NOV 1978
  2548.  
  2549.      The motor habituation system which I am describing is not  very sparing
  2550. of neuronal hardware.  It builds up a refined sequence by endless trial-and-
  2551. error, and it just consumes  neuronal  hardware  used  up  in  the erroneous
  2552. trials.   However, the  system does perform an important function called for
  2553. in the Theory Journal  work on  motor ontogenesis  of 18MAR1978,  namely the
  2554. idea that  motor habituation should proceed in side-by-side development with
  2555. initial purposes residing in the passive  memory network.   However,  in the
  2556. present work we are tending to move the causation flow out of the motor area
  2557. and more  into the  passive memory  area.   We are  tending now  to say that
  2558. impulses won't  go into  the motor  area unless physical motor activation is
  2559. really supposed to occur.  One might say that we are removing  the "Volition
  2560. Lines"  from  the  system  diagram  of 10SEP1977.  Of course, the equivalent
  2561. substance of those volition lines is moving diagrammatically  leftwards (for
  2562. then and  now) into  the highly attuned knowledge of the Lifelong Perception
  2563. Memory.  From simultaneous passive experience the organism  knows quite well
  2564. the nature of any habituated motor sequence which it may contemplate.
  2565.      By the  way, this  present theorizing  sheds new  light on what happens
  2566. when we contemplate an action such as lifting  a hand.   Our  belief that we
  2567. know intimately  the feeling of the impending movements is not motor memory,
  2568. but passive memory of the chain of results of motor  memory.   Why, even now
  2569. in this  cold apartment,  my upper arm flinched a little when I contemplated
  2570. lifting my left hand as I began this paragraph.
  2571.      This present work on general motor habituation works out well enough on
  2572. paper that  we may  even apply it to the "Verbal Motor Habit Tagging System"
  2573. of 10SEP1977.
  2574.      Now we should  go  into  present  ideas  on  an  "Accumulating Volition
  2575. Register," which  concept has arisen out of the work beginning on 17MAR1978.
  2576. You see, it may  be  possible  to  have  a  combined  Volition  Register and
  2577. Volition  Accumulator.    Each  Accumulating  Volition  Register (AVR) would
  2578. actually just be a function of  the linkage-line  between the  passive motor
  2579. stimulus on  the diagrammatic  left and its habituated motor sequence on the
  2580. diagrammatic right.  Each linkage-line would  automatically tend  to be slow
  2581. to  fire,  depending  however  on  the  intensity and frequency-tempo of its
  2582. input.
  2583.      The selection of a motor action results from remembrance.   To remember
  2584. a motor  action is  to propose  performing it again.  Present thought in the
  2585. Lifelong Perception Memory can  associate  backwards  to  a  whole  gamut of
  2586. Passive  Motor  Stimuli.    If  a  particular  motor  stimulus stands out as
  2587. desirable or advisable, its  passive-to-motor  linkage-line  (Volition Link)
  2588. will begin  to accumulate, to "integrate," towards conveying a firing-signal
  2589. to the habituated motor sequence.   In the  work of  18MAR1978 we  said that
  2590. "any  prolonged   associational  occupation  with  the  contemplated  action
  2591. automatically constitutes inhibition  or  interdiction  within  the Volition
  2592. Accumulator."   Now we  can see  more clearly  how all  this accumulation or
  2593. waxing and waning of volition  is  really  a  searching  process  within the
  2594. "Lifelong Perception Memory," which is our temporary lemma-type term for the
  2595. stream of consciousness.  If all  conscious  indications  point  to  a motor
  2596. action as  immediately necessary,  it can  be pushed  through quite rapidly:
  2597. the Volition Link fills  and fires.   The  mind can  dawdle and  hesitate by
  2598. contemplating a  haphazard group  of actions.   It  can be designed into the
  2599. Volition Links that they shall tend to drain if not accessed repeatedly.
  2600.      We have thus drawn a kind  of volitional  demarcation line  between the
  2601. diagrammatic left  and right  sides of  passive and  motor memory.   We have
  2602. gotten away from a "seat" of volition and  we now  envision volition  as the
  2603. sum outcome of the albeit haphazard totality of consciousness-cum-memory.
  2604.      Even though in recent weeks I have been trying to draw together all the
  2605. main features of Nommultic theory, tonight I have had to limit myself to the
  2606. combined subsystems  of passive and motor memory.  However, motor activation
  2607. memory has been suggesting itself as the right  departure point  for putting
  2608. the whole Nommultic system together.
  2609.      It has  been obvious  that animals  such as  dogs have to have a motor-
  2610. sequence  selection  system.    A  dog  learns  tricks,  i.e.,  sequences of
  2611. behavior.   A dog on the loose is constantly making choices and decisions as
  2612. to what learned actions  to initiate.   So  I have  been feeling  safe about
  2613. designing a  motor system  with the  idea that intellectual natural-language
  2614. systems can be superimposed by design  upon  faculties  as  present  in mute
  2615. animals.   In fact,  in accordance with the Theory Journal work of 24JAN1973
  2616. and 8MAR1977, dealing with minimal systems, I am  always on  the lookout for
  2617. simple, model-type  constructions which become possible with new advances in
  2618. the theory.  Tonight's work suggests how to build a robot animal  capable of
  2619. learning and  executing behaviors.   Of  course, even the simplest Nommultic
  2620. systems are quite complex because they require so much in the way  of memory
  2621. and processing.
  2622.  
  2623.  
  2624.                                                                  11 NOV 1978
  2625.  
  2626.                     Fixed Inputs into Expanding Channels
  2627.  
  2628.      In  combining  all  the  so-far  developed portions of the Nommulta, we
  2629. encounter the problem of connecting fixed systems with expanding systems.
  2630.      The input sensorium and the  motor  output  constitute  basically fixed
  2631. systems.   In the  infancy-stage, there is self-organizing of these systems,
  2632. but thereafter they are fixed.
  2633.      For all the various systems  of  experiential  memory  we  have  had to
  2634. envision  amazingly  long,  expanding  channels  of engrams.  We have had to
  2635. design these expanding channels as if they stretched  off into  the distance
  2636. away  from  the  locale  of  the  sensorium.   For instance, with the visual
  2637. channel as designed on 12APR1978, there was apparently  no other  way but to
  2638. design an expanding edge which received its information from no source other
  2639. than its own interior "pipeline."   Lo  and  behold,  our  main experiential
  2640. channel seemed  to stretch off into nowhere.  Yet at the same time it had to
  2641. have associative tags exiting all  its  length  to  provide  access  to each
  2642. engram-slice.
  2643.      The idea was that all engrams laid down for a particular moment of time
  2644. would be joined together by associative tags.
  2645.      Whereas the  visual  memory  would  be  of  a  "simultaneous," "sliced"
  2646. nature,  the  experiential  auditory  memory  would  be  of a serial nature.
  2647. However, I can see now that memory for sounds would  also have  to have that
  2648. "pipeline"   effect.      All   the   auditory  input  lines  important  for
  2649. differentiation would have to go into the auditory pipeline.  For each time-
  2650. extended sound  there would  have to  be a  temporal series  of nodes in the
  2651. auditory pipeline.   Each  momentary combination  of frequencies  would be a
  2652. mosaic of  sound, a  mosaic of  nodes.   Now, into  our sound channel we can
  2653. probably design a  special  stringing  effect.    Mosaics  which  come  in a
  2654. temporal group will automatically be strung together.
  2655.      I think I may have just made a startling insight, according to which we
  2656. would not be able to recognize  time-extended sounds  without our short-term
  2657. memories.   I was thinking of the fact that, from just a few notes of music,
  2658. we can quickly recognize and identify a particular symphony by  a particular
  2659. composer.   No, actually  I see a more orthodox way to do it, which follows.
  2660. Let's say we want to recognize three successive mosaics, say, three notes of
  2661. a symphony.   The  first note going through the pipeline would stimulate all
  2662. pre-engrammed mosaics of the note.  When the second and third notes went in,
  2663. they, too,  would stimulate  their pre-engrammed  mosaics.   However, in the
  2664. symphonic spot where  three  adjacent  mosaics  were  being  stimulated, the
  2665. string-effect  would  cause  a  kind  of  summation of the stimulations, and
  2666. therefore the  strongest and  fastest associative  output would  come out of
  2667. that spot  in auditory memory where the actual engram of the three symphonic
  2668. notes truly was.
  2669.      In both the laying-down and recognizing of extended sounds, there  is a
  2670. question as  to where in the extended sound-series the associative tag would
  2671. be attached.  I don't think it would come at the beginning or at the end....
  2672. No, it  would have to be attached at the beginning, but in virtuality by the
  2673. stringing effect it would really be attached to the first several mosaics.
  2674.      I thought I had  an insight  that the  short-term memory  would have to
  2675. perform a  match-up like two railroad trains alongside each other.  But then
  2676. I saw that, even so, the  match-up  would  have  to  occur  inside  the main
  2677. auditory "pipeline."
  2678.