home *** CD-ROM | disk | FTP | other *** search
/ Fish 'n' More 2 / fishmore-publicdomainlibraryvol.ii1991xetec.iso / disks / disk411.lzh / Mind / Mind.lzh / Theory1 < prev    next >
Text File  |  1990-11-21  |  110KB  |  1,772 lines

  1. Artificial Intelligence Theory Journal, Part One of Three
  2.  
  3. (1972-1977)
  4.  
  5. Standard Technical Report Number:  MENTIFEX/AI-1
  6.  
  7. by Arthur T. Murray
  8.    Mentifex Systems
  9.    Post Office Box 31326
  10.    Seattle, WA 98103-1326 USA
  11.  
  12. (Not copyrighted; please distribute freely.)
  13.  
  14.  
  15.                     Threshold Parameters of Consciousness        25 NOV 1972
  16.  
  17.      It should  be possible to ascertain what minimum requirements there are
  18. for intelligent consciousness.   In dealing  with minima,  however, a strict
  19. definition  or  detectability  of  intelligent  consciousness  may  be  all-
  20. important.  Until we see exactly how strict  a definition  is necessary, let
  21. us have  the use of language as our general criterion of the likely presence
  22. of intelligent consciousness.
  23.      We  can  list  what  in  present  theory  are  the  various  functional
  24. mechanisms of  consciousness.  These include an input-sensorium, memory, and
  25. motor-output.    In  Nolarbeit  theory  the  most  important   mechanism  of
  26. consciousness is  the memory.  One might say that an external world to exist
  27. in is also a necessity for  consciousness.    These  four  items,  then, are
  28. required:
  29.           1.  an environment
  30.           2.  an input-sensorium
  31.           3.  a memory
  32.           4.  a motor-output.
  33.      In each  of these four realms there can be variations as to quality and
  34. quantity.  There can also be qualitative and quantitative relationships from
  35. one realm to another within the total system of consciousness.  For example,
  36. the breadth of the input-sensorium might influence or  determine the breadth
  37. of the memory.
  38.      For  each  of  the  four  realms  we  can  consider characteristics and
  39. variables.  For instance:
  40.           I.  The environment realm.
  41.                A.  How many of the four dimensions does it have?
  42.                B.  How much order is in it?
  43.                C.  How much disorder is in it?
  44.                D.  What degrees of complexity are found in it?
  45.                E.  How stable or predictable is it?
  46.  
  47.          II.  The input-sensorium.
  48.                A.  How many senses are there?
  49.                B.  How many discrete receptors are there for each sense?
  50.                C.  With what speed and with what frequency do the senses    
  51.                    convey information?
  52.  
  53.         III.  The memory.
  54.                A.  What physical mechanism retains the memory-traces?
  55.                B.  What percentage or amount of information from sensory   
  56.                    input and from conscious activity is retained in memory?
  57.                C.  Can the memory "hardware" be used more than once?
  58.                D.  What, if any, are the limits in time or capacity  of the 
  59.                    memory?
  60.                E.  What aspects of unity and order are present in the      
  61.                    memory?
  62.                F.  Are there divisions of the memory, such as  "short-term  
  63.                    memory" and "long-term" memory"?
  64.                G.  Can the memory be monitored or read out?
  65.  
  66.  
  67.          IV.  The motor-output.
  68.                A.  How substantial must the motor-output be for            
  69.                    consciousness to exist?
  70.                B.  What forms of energy can or should the motor-output      
  71.                    employ?
  72.                C.  Must the motor-output be attached to or take the form of
  73.                    a single, consolidated physical unit, so as to support   
  74.                    an image of the existence of a unitary, localized being?
  75.                D.  Must the motor output have its own compartment of memory
  76.                    for activation?
  77.                E.  Should the motor memory be only such that its effects    
  78.                    are readily   perceivable by the input-sensorium in
  79.                    immediate feedback, perhaps to further the  "illusion" of
  80.                    consciousness?
  81.                F.  Can conscious thought be considered a part of the motor 
  82.                    system?
  83.                G.  Even if motor output is or were necessary to attain      
  84.                    consciousness, is  continued motor-output necessary for  
  85.                    continued consciousness?
  86.  
  87.      In discussing  "Threshold  Parameters  of  Consciousness,"  we  want to
  88. investigate various limitations and minima involved with consciousness.
  89.      One question  to consider  is whether  or not  the medium or content of
  90. consciousness is delimited by some few and simple aspects of the universe as
  91. an environment.   Perhaps  we could think of these reality-aspects as having
  92. to do with geometry and dimensions.  When we are conscious, we are conscious
  93. of something.
  94.      Another supporting  consideration is that a unitary system or locus, if
  95. constantly affected, even generated, by streams of input and output, can not
  96. be concerned with more than a few simultaneous concerns.
  97.      Any remembered thought can be summoned by a single associative tag, and
  98. even a thought expressed in language  is  a  serial  string  that  goes from
  99. element to element.
  100.      In the  case of intelligent consciousness, it may be that symbolism, in
  101. the  form  of  words  and  language,  permits  the  manipulation  of  large,
  102. complicated  blocks  of  information,  of  thoughts.  Nevertheless, when any
  103. aggregate is dealt with, it will probably be  dealt with  a part  at a time.
  104. (But we  must not  neglect to consider the idea of simultaneous processing.)
  105. An aggregate can be dealt with as a  whole when  its constituent  parts have
  106. been understood.
  107.      When  an   aggregate  is   dealt  with   as  a   whole  in  intelligent
  108. consciousness, it is likely that the  symbol of  both the  aggregate and the
  109. object,  namely,  the  word,  is  used  as  a  platform of manipulation.  In
  110. intelligent reasoning, it is  essential  to  have  bundles  of associational
  111. tags.   A word with its coded structure provides an extremely economical way
  112. of bundling the tags.
  113.      In intelligent reasoning, it is clear that the consciousness leaves the
  114. primitive domain  of geometry  and dimensions and by means of symbolic words
  115. deals with classes, generalities, and the abstract.
  116.      Perhaps intelligence requires a fifth realm, symbolism.
  117.      All five human senses have a certain sameness in that they all transmit
  118. their information  along nerves.   It is obvious that for each sense we have
  119. very many more receptors  than are  required to  get just  basic information
  120. through the  sense.  Yet it is obvious that one receptor does not constitute
  121. a separate sense and that a million are more than enough.   Besides, when we
  122. use a particular sense we concentrate on a rather narrow point.
  123.      In   consciousness,   memory  traces   are   manipulated  by  means  of
  124. associational tags.  Unitary tags are  used to  distinguish aggregates.   If
  125. the tags  are disjunctive,  then there  must be  disjunctive elements in the
  126. very perceptions that form the memory  traces.   If the  sensory perceptions
  127. were all  the same,  then there  could be  no discrimination by means of the
  128. tags.  But the perceptions do vary and are different.   Yet  the perceptions
  129. have to  be classified  in an  ordered manner  if the tag system is to work.
  130. Classification must be according to similarities  and differences.   But for
  131. the mind  to make  a classification,  or a  distinction, or a comparison, it
  132. must first seize upon some small, uncomplicated feature.   Now,  if we dealt
  133. with the  senses of  sight or  touch, we could deal with shapes or patterns,
  134. with straightness, curvedness, angularity, and so on.  If a being dealt with
  135. just a  single point  in touch,  it would not be able to distinguish between
  136. variations.  But sight is  a  more  refined  sense.    With  sight  the most
  137. intricate  distinctions  and  recognitions  can  be made.  Even in sight one
  138. point as a receptor allows no distinguishing.   If we  imagine a sight-sense
  139. having  just  an  array  of  receptors  on  a field or screen, we can easily
  140. calculate the number of different images that can appear on a screen  with a
  141. given number of points:
  142.  
  143.         # of          # of different
  144.         receptors:    images possible:
  145.                  1       2 minus 1
  146.                  2       4-1
  147.                  3       8-1
  148.                  4      16-1
  149.                  5      32-1
  150.                  6      64-1
  151.                  7     128-1
  152.                  8     256-1
  153.                  9     512-1
  154.                 10    1024-1.
  155.  
  156. However, in  the physical universe we experience or encounter both order and
  157. repetition.  As the  number of  receptors on  the field  of our hypothetical
  158. sight-sense increases  from just  one, the number of possible configurations
  159. increases exponentially.  Once there are  several, but  not many, receptors,
  160. it becomes possible on the field to represent basic geometric things such as
  161. points, lines and curves.  These geometric things can be classed.   They are
  162. utterly simple,  because two points define a line, and three points define a
  163. curve.   More complex  geometric things  are built  up of  points, lines and
  164. curves.    Perhaps,  therefore,  in  looking  for  threshold  parameters  of
  165. consciousness, we could say that an  automaton can  not become  conscious of
  166. curvature without  having at  least three sight receptors, and probably more
  167. for contrast.  There ought to be two delimiters, a  minimum number  for bare
  168. possibility  and  a  larger  number  above  which  more  receptors  would be
  169. unnecessary.  The lower number should be pretty exact and  the larger number
  170. should be rather indefinite, because functional success of classification or
  171. recognition in between the two numbers will probably be statistical.  With a
  172. more or  less certain number of receptors a classification becomes possible,
  173. and then with increasing numbers of  receptacles the  classification becomes
  174. more and more likely, until the likelihood cannot be increased further. 
  175.      We can  use these  basic geometric  things to  examine the mechanism of
  176. consciousness.    We  postulate  that  memory   traces  of   perception  are
  177. continually being  deposited.   The question  now is  how an associative tag
  178. connects to a memory trace.   (The  process  will  be  different  for simple
  179. shapes and for symbols.)
  180.      It may  be that an interplay of two senses is required to lay the first
  181. tags.  Or it may  be  that  the  first  tags  are  laid  automatically  by a
  182. mechanism incorporated "genetically" into the organism.
  183.      The sense-interplay  idea runs  as follows.  Visually similar items are
  184. likely to exhibit similarities also for touch or hearing.   But the organism
  185. "mentally"  concentrates  on  one  area  of  one  sense.  Suppose there is a
  186. standard tag connecting temporally  successive memory  traces of perception,
  187. from one  moment to the next in time.  There would be a tag from each object
  188. of mental concentration to the next, in a sort of chain.   Suppose that when
  189. a visual point is sighted there is also a tactile sharpness felt.  Therefore
  190. on sighting  visual points  a chain  of tags  that was  going through visual
  191. memory would  move also  into tactile  memory.   A sort  of discontinuity or
  192. differentiation would arise.  Suppose that there were  a sort  of harmony or
  193. oscillation established  in the  mind in  question, such  that, in a certain
  194. ration, memory traces entered the  mind  (from  within  itself) interspersed
  195. with the  actual and  present-time incoming sense perceptions.  That is, the
  196. mind would automatically and continually be experiencing two phenomena:  the
  197. present and  the past.   From  the past  would be summoned whatever was most
  198. readily available  given the  action of  the associative  tags.   Thus in an
  199. incipient mind  the activated  memory traces would be very recent ones.  How
  200. would the mind reach any older memory traces,  not the  ones just deposited?
  201. It looks  as though there would have to be some mechanism which would notice
  202. change from one image to the next.  Suppose the imagery in  the visual field
  203. changes only  occasionally.  Suppose that a number of changes have occurred,
  204. and one more change occurs.   Now,  that  mechanism  of  the  mind  which is
  205. feeding in  old memory traces interspersed with the new perceptions does not
  206. have to be limited to going back just one memory-trace or one frame.  It may
  207. be that  the internal  memory mechanisms function much quicker or many times
  208. quicker than the input-sensorium.  Thus each newly made (newly sensed) frame
  209. could  quickly  be  compared  with  several  or many older frames.  When the
  210. above-mentioned  additional  change  occurs,  its  present-time  frame could
  211. automatically be  tag-linked to  another change  frame seven or eight frames
  212. back in the merely temporal, merely successive chain of frames.  Therefore a
  213. new tag  is attached  which keeps  the significant older frame from receding
  214. into oblivion.  The mechanism doesn't have to work on change, either; it can
  215. work on similarity, which still implies change.
  216.      The consciousness model which has been developed so far today works, if
  217. at all, because each newly incoming frame of  sensory data  is compared with
  218. several or many older frames from memory storage.
  219.      This  line  of  thought  touches  on  the idea of a force towards order
  220. operating in the universe, and it  suggests that  a tabula-rasa  mind can be
  221. self-organizing.   Of course,  the initial order in the mind in question is,
  222. after a fashion, transferred from without.  In ordering itself,  the mind of
  223. the automaton reflects the order which it encounters on the outside.
  224.      In such  a model,  the important  mechanism is  that which compares and
  225. differentiates.  There are a lot  of  intriguing  questions  involved.   For
  226. instance,  does   the  self-organizing   or  self-ordering   mind  need  any
  227. rudimentary order to start out with?  That is to  say, is  the self-ordering
  228. process  self-starting,  or  does  it  have  to be primed?  In a biochemical
  229. organism, it should be easy for a certain  rudimentary order  to be provided
  230. genetically in the brain.
  231.      In machine  hardware, it should be easy to set up an input channel that
  232. compares new and old frames according to various simple criteria.  The fewer
  233. criteria there are, the more we can say that the machine is non-programmed.
  234.      There can  be various  pre-designed, automatic  mechanisms in the mind,
  235. but still the content of the  mind will  be free  and non-programmed.   For
  236. instance,  there   could  be  a  pre-designed  mechanism  of  attention  and
  237. concentration, which normally might oscillate back and forth between present
  238. perception  and  recall  of  memory-traces.   However, dynamic factors could
  239. cause the attention to  swing  in  favor  of  the  external  world  over the
  240. internal,  or  in  favor  of  a  fascinating  internal  line of thought over
  241. external perception, or in favor of one external sense over another.
  242.      The more functional, mechanistic differentiation there is in the mental
  243. automaton,  the  more  capable  it  will  be  of processing and manipulating
  244. complex data.  If there are several senses  at the  machine's disposal, then
  245. one sense,  such as hearing, can be used extensively for processing symbols,
  246. such as words.
  247.      A basic idea for the mechanism that compares and distinguishes with old
  248. and new  data arrays  is that it should have something to do with elementary
  249. phenomena of order in the universe.  For instance, in the case  of sight the
  250. elementary  geometric   patterns  should   be  important.     Perhaps  "pre-
  251. programming" or "quasi-genetic  endowment"  will  give  the  machine initial
  252. capabilities with  regard to elementary phenomena of order.  In hearing, the
  253. elementary phenomena  might  involve  frequencies.    In  touch,  they might
  254. involve texture, geometric patterns or pain.
  255.      Of  course,  there  is  a  certain order already present because of the
  256. physical layout of the receptors of each sense.   An  optical retina  has an
  257. array of  receptors, and  so does the human skin with its tactile receptors.
  258. Obviously the order of the retina of the eye has to remain stable for stable
  259. vision.   It is  highly unlikely  that such a high degree of order as in the
  260. retina or the visual  system can  have been  provided genetically.   No, the
  261. order of  vision must have been developed in the course of experience.  This
  262. ordering may be, however, a function of growth  and development  rather than
  263. of memory.
  264.  
  265.  
  266.                                                                  15 JAN 1973
  267.  
  268.                      Developments on "Threshold Parameters"
  269.  
  270.      In evolution,  the probable order of appearance of the four realms was:
  271. 1. environment, 2. input-sensorium, 3. motor-output  (perhaps simultaneously
  272. with input-sensorium),  and 4.  memory.   We may  be able to build our model
  273. according to evolutionary lines, maybe not.
  274.      Memory is the essential ingredient for intelligent consciousness.  This
  275. condition  probably  also  applies  to  the  motor  system of an intelligent
  276. consciousness, that is, if  we do  not supply  a memory-bound  mechanism for
  277. motor control, perhaps we then cannot achieve any freedom of action and only
  278. brute-like stimulus-response phenomena will occur.
  279.      Transitory stages.  In setting up our model,  among our  componentry we
  280. may have  to include transitory and initiatory stages.  The item in mind now
  281. is a random dynamics mechanism which would initiate activity of  the "motor-
  282. output"  so  as  to  start  a  circular  chain of information flowing.  (The
  283. process should be like  that of  an infant  lying in  its crib  and randomly
  284. waving its arms.)
  285.  
  286.  
  287.                                                                  24 JAN 1973
  288.  
  289.                          Minimal Thinking Systems
  290.  
  291.      To  devise  a  minimal  automaton  that  functions  like a brain, if we
  292. progressively reduce the number  of elements  that we  would deem necessary,
  293. starting with  the totality  of elements  in a  conventional brain, we might
  294. arrive at simple submechanisms  beyond  which  we  could  reduce  no further
  295. without losing the nature of a brain.
  296.      An idea:   We  can give  the machine  the capability  of changing every
  297. aspect of its own structure and organization.  This idea can be  carried out
  298. to varying  degrees.   The idea  would allow certain advantageous phenomena.
  299. For instance, consider the notion of  self-organizing.    We  might  let the
  300. machine  develop  new  ways  to  process  its  incoming information.  No old
  301. process would have to be dismantled; it would just fall into disuse.
  302.      So far we have enumerated such features of the automaton as:
  303.           - input sensorium
  304.           - memory
  305.           - bouleumatic accumulator
  306.           - random dynamics mechanism
  307.           - motor output.
  308.  
  309.  
  310.                                                                  23 JUL 1973
  311.  
  312.                         Psychological Insubstantiality
  313.  
  314.      The question  is,  how  much  being  must  there  be  for  a volitional
  315. intelligence to  exist?  The amazing thing is that this is not a question of
  316. mass  or  substance  but  of  particularistic  numerosity.    A  rudimentary
  317. intellect will consist of a minimum number of active switching elements.  It
  318. will not especially matter  of what  substance these  switching elements are
  319. constructed,  but  rather  it  will  matter  only that they do perform their
  320. switching  function  properly  and   reliably.      Ontologically  speaking,
  321. therefore, their  nature will  be only  such as to hold, transmit, or change
  322. information.  Substantially they may be quite chimerical and intangible.
  323.      Assuming that the processes of intellect  are rather  simple, it should
  324. take rather few switching elements to perform the basic processes.
  325.      Importantly,  the  minimum  required  size of an aggregate of switching
  326. elements  involved  in  intellectual   processes  will   probably  be  quite
  327. independent  of  the  numerosity-size  of  the various sensory channels also
  328. involved in the intellectual processes.   That is,  the size  of the sensory
  329. channels will probably happen to be much, much larger.
  330.      It is  theorized, anyway,  that the  intellectual processes function by
  331. reducing to simplicity large, complex, or unorderly phenomena.   Large-sized
  332. sensory  channels  may  be  necessary  to initially grasp the phenomena, but
  333. their simple "handles," their  intellectual "distillates,"  should be simply
  334. manipulable.
  335.      Granted  or  assumed  then  that  there  is  a  small core of switching
  336. elements necessary for the  existence  of  volitional  intelligence,  we can
  337. elaborate   its   description   without   either   violating   its  lack  of
  338. substantiality or contradicting the  supposition  of  its  numerically small
  339. core.   We must elaborate its description to allow it a real-time historical
  340. role in the universe.    Certain  mechanisms,  either  of  the  intellect or
  341. attached to the intellect, must be capable of great extension with regard to
  342. numerosity.    Among  these  mechanisms  would  be  such  things  as memory,
  343. volitional motor  mechanisms, and  perhaps bouleumatic accumulators.  We can
  344. conceive of memory in  artificial  intelligence  as  an  item  which  can be
  345. expanded or  even contracted  to almost  any desired  extent.  Memory can be
  346. expanded to increase the tempo of life or the longevity of the  organism, or
  347. perhaps to  widen the various sensory channels.  At any rate, memory is that
  348. of which is built the interior cosmos of the organism.
  349.      An intelligent organism with full and  particular knowledge  of its own
  350. make-up could  examine its  own memory  stores and consciously liquidate any
  351. portions which seemed  unnecessary  or  undesirable,  perhaps  just  to save
  352. space.
  353.      In the above description of a volitional intellect, the central idea is
  354. that the intellect can probably be  quite minimal,  that is,  both simple in
  355. design  and  small  in  the  numerosity of its intellect-essential switching
  356. elements.
  357.      Note:  The above described intellect may seem to be too static, in that
  358. all it  seems to  do is both to process whatever information is available to
  359. it and to volitionally  effect  actions  necessary  for  its  well-being and
  360. survival.    However,  such  an  intellect can never become static until its
  361. whole universe becomes static.
  362.  
  363.  
  364.                                                                  27 JUN 1974
  365.  
  366.                          The Book of the Nolarbeit
  367.  
  368.      The freedom to build a  language-computer  is  now  greater  than ever.
  369. However, the  project involves  effort in several directions.  This notebook
  370. is to be the central log of the project (Nolarbeit) this summer,  although I
  371. feel free to stray from this notebook at any time.
  372.      The  state  of  the  project  is  that  theory  and knowledge have been
  373. accumulated, plus some money in the  sum of  two to  three thousand dollars,
  374. and this summer is more or less free until September, and so now it is hoped
  375. to begin working on some hardware.   Since  I  will  be  working  in several
  376. varying directions,  I want  to follow  a documentary regimen in order to be
  377. able on the one hand to record progress  on all  the subprojects  and on the
  378. other hand  to leave  off a  subproject for a while and then return to it at
  379. its furthest point of progress.  Budding ideas should be recorded here, too.
  380.      I feel that my first step will probably be to collect and  read through
  381. my accumulated  theory.   Then I  will probably rough out a general model of
  382. what I want to build or construct with hardware.   One problem  here is that
  383. the theoretical  concerns are  right down close to the engineering concerns.
  384. However,  the  philosophy  and  theory  can  be  put  through  a  process of
  385. stricture,  and  the  practical  engineering  can be governed by a policy of
  386. keeping things as general, as standard, and as expandable as possible.
  387.      (Later, around 11 p.m.)  I've gotten an  idea from  what I  am doing as
  388. almost the  first step  in the active pursuit of this project.  That step is
  389. that I am preparing a list  of what  I call  "Suggested Items  for Nolarbeit
  390. Folder File."   Already  I have  made a  second, enlarged version of today's
  391. first list.  My aim has  been just  to set  up a  file box  to sort  out the
  392. various  items  of  information  collected  or generated.  I discovered that
  393. doing so is just like setting  up my  file box  for teaching  languages this
  394. past year,  except that  the subjects included in this Nolarbeit file really
  395. range far and wide.  But now I see here sort of a general tool of inquiry in
  396. this process  of establishing  the informational categories for my research.
  397. The tool or technique is to  take  a  problem,  state  it  in  general terms
  398. (implicitly or  explicitly), and  then divide  the problem  up into specific
  399. subdivisions to be worked on.  After all, a problem  is like  a positive but
  400. incomplete complex.   It  may be incomplete in one of at least the following
  401. three  ways:    something   is  missing,   something  is   damaged,  or  the
  402. infrastructure is  not understood.  Somehow I get the feeling that this line
  403. of thought is connected with what is in the book on abductive  logic which I
  404. bought today  on Norm's  advice at the U.W. Bookstore.  However, I have only
  405. looked briefly at a few things in that book, I haven't read it yet.   At any
  406. rate, there  is a  certain intellectual  process at  work here.  The general
  407. problem "language-computer" does not automatically  yield  a  list  of fifty
  408. subdivisions of  the problem.   No,  I had  to start writing down one by one
  409. things that came to mind as probably applicable to the general problem.
  410.  
  411.  
  412.                                                                  29 JUN 1974
  413.  
  414.                Suggested Index for Nolarbeit Folder File
  415.  
  416. Applications (Future)              Instinct
  417. Archive                            Intellect
  418. Attention                          Intelligence
  419. Automata                           Learning
  420. Bibliography                       Linguistics
  421. Biology                            Logic Circuitry
  422. Brain, Human                       Logic Philosophy
  423. Brain, Nonhuman                    Logic Symbols
  424. Clippings                          Mathematics
  425. Coding                             Mechanics
  426. Components                         Memory Technology
  427. Consciousness                      Memory Theory
  428. Control over Machines              Neurology
  429. Correspondence                     Pain and Pleasure
  430. Cost Analysis                      Parapsychology
  431. Dreaming                           People of Note
  432. Ego                                Perception
  433. Electronics                        Philosophy
  434. Embryology                         Pictures
  435. Emotion                            Plans
  436. Engram                             Problems
  437. Entropy                            Problem-Solving
  438. Environment                        Psychology
  439. Evolution                          Randomness
  440. Experiments                        Recursion Theory
  441. Feedback                           Redundancy
  442. Flowcharting                       Robotics
  443. Freedom                            Security
  444. Game Theory                        Semantics 
  445. Genetics                           Serial and Parallel Processes
  446. Geometry                           Servomechanism
  447. Hardware                           Supply Sources
  448. Heuristics                         Switching Theory
  449. Holography                         Terminology
  450. Hypnotism                          Time
  451. Index                              Tools
  452. Input/Output                       Volition
  453.  
  454.  
  455.                     Evolution of Central Nervous Systems
  456.  
  457.      Reading again the paper "Threshold Parameters of Consciousness" from 25
  458. NOV 1972,  I can  see the possibility of a CNS developing by evolution.  The
  459. paper says that four things are necessary for consciousness:
  460.           1.  an environment
  461.           2.  an input-sensorium
  462.           3.  a memory
  463.           4.  a motor-output.
  464. The inputs and outputs seem to be a  buffer between  environment and memory.
  465. Well, we  can think  of memory  developing first  in evolution.  If any cell
  466. developed which gave a consistent response to a  certain stimulus,  then the
  467. ability to give that response constitutes a kind of quasi-mechanical memory.
  468. Of course, probably  any  cell  that  developed  also  responded  to certain
  469. stimuli.   However, probably cells became differentiated in their responses.
  470. Maybe  cells  developed  with   the  main   purpose  of   just  transmitting
  471. information.   For instance, it is easy to imagine a simple animal where one
  472. (muscle)  kind  of  cell  serves  mainly  to  cause  locomotion  and another
  473. (neuronal) kind of cell serves mainly to react to an external stimulus by in
  474. turn stimulating one or  more  muscle-cells  for  locomotion.    I  can even
  475. imagine a neuron-type cell that both stimulates nearby muscle cells and also
  476. inhibits muscle cells on the other side of the body lest they oppose motion.
  477.      Where the motion of a simple animal has to be performed rhythmically, I
  478. can imagine  a network  of neuronal cells developing to control the rhythmic
  479. motion.  The control cells would  exhibit the  same rhythm  within their own
  480. network.
  481.      I can  imagine networks  of cells developing, where the network of each
  482. specimen has to be trained by experience, for example, as in the learning of
  483. a bird to fly.
  484.  
  485.      In trying  to simplify  the problem of designing the language computer,
  486. we notice concern in the literature about the processes and the organization
  487. of perception.  Visual perception presents us with enormous complexity.
  488.      I am  concerned here  with at least two questions:  how much complexity
  489. in perception can be done  away  with,  and  how  much  basic  complexity is
  490. necessary to produce an intelligent mind?
  491.      Perhaps  too  much  by  just  gut  feeling,  I suspect that geometry is
  492. involved here.  By geometry I mean those simplest patterns  and connections,
  493. such as  point, line,  circle, angle  and so  forth.   The numbers three and
  494. seven figure here, because three is so elemental, and yet with three you can
  495. distinguish between seven different units.
  496.      You get the feeling that you can do a lot of slashing and paring of the
  497. problem when you reflect that  all  the  rigmarole  involved  with  sight is
  498. dispensable.   A human  being can  be blind  from birth  and still be highly
  499. intelligent and just as positively conscious as a person with sight.  So I'm
  500. not scared  when I encounter these complexities with pattern-recognition and
  501. special processing involving the retina and the optic  nerve.   I think that
  502. the major facet in a language computer is going to correspond to hearing and
  503. speaking.  I almost get the  feeling now  that I  would be  providing enough
  504. non-auditory  perception  if  I  just  made a simple robot consisting of two
  505. touch-perceptive hands mounted by arms to  a  nondescript  body  on  a small
  506. platform moving by electrically driven wheels or pushing/feeling feet over a
  507. floor.
  508.      Whatever the situation with modalities of perception is,  I get another
  509. feeling, this  time to the effect that maybe there is an ultra-basic, simple
  510. core to our conscious or intelligent systems.  This notion  has something to
  511. do with  the idea  of comparison.   We  already assume  about a hypothetical
  512. system that we can grant it unlimited memory capacity.   We can  endeavor to
  513. grant it  all of  the five  perception modalities that humans have, and with
  514. the unlimited memory storage the whole  panorama of  the system's perception
  515. over time can be stored up.
  516.      [An idea  that crops  up here  is:   how about  also granting unlimited
  517. associative capability?  The intriguing  idea  here  is  that  the unlimited
  518. associative capability is conceptually very simple.  We don't at all have to
  519. be content with the few tail-end bits of a byte of information.  Why,  in an
  520. artificial  mind  you  could  even  have  a machine that searched around and
  521. connected pieces of information that hadn't been so originally but look like
  522. they ought  to be  connected.   (For all we know, maybe the human brain does
  523. have a function that does just that, perhaps during dreams in sleep.)]
  524.      Yet total storage and total association do not  yet do  the trick.   It
  525. means  nothing  if  pieces  of  information  just shift around in meandering
  526. streams within a system.  This rationale leads, I suppose, to an idea that a
  527. measure of  internal operation is going to have to be the production of some
  528. kind of motor happening.   [The  outward communication  of internal abstract
  529. thought might qualify as a measure of highly advanced internal operation.]
  530.      When  we  consider  the  production  of motor happenings, it seems that
  531. there is going to have to be an elaborate, practiced, well-known, associated
  532. internal motor  system, so  that inside the machine there will be not only a
  533. picture of the outside world but  also a  sort of  trigger-finger picture of
  534. all  the  motor  things  that  can  be  done to the outside world.  Both are
  535. learned pictures.  The perception picture  encompasses both  the outside and
  536. the inner  world, and  maybe so  does the  motor picture,  in that we can do
  537. things like play music to ourselves in our minds.
  538.      I get a feeling that the  only reason  why a  human brain  can function
  539. intelligently  at  all  is  because  the  physical  (and  maybe the logical)
  540. universe seems to come together somehow into that small but manageable group
  541. of three  (or seven) elements.  I get a feeling as though a brain (mind) can
  542. really deal with only three to seven elements, but by  means of substitution
  543. or capitulation a brain deals with fantastically complex things by a sort of
  544. proxy.
  545.      [An image suggests itself here of ten or more men all on stilts and all
  546. the men  one above  the other  up into  the sky,  so that  the top man moves
  547. around only as all the other men perform the same movement beneath him.  The
  548. man at the top might then sort of represent a broad amalgam.]
  549.      Imagine a  mind-cathedra of  seven elements (or three, however it turns
  550. out to be needed).   No,  let's say  three elements.   These  three elements
  551. really represent utter simplicity.
  552.      Supporting  these  three  elements  there  could be analytical pyramids
  553. which lend structure and significance to anything occupying one of the three
  554. elemental positions.   For example, linguistic pyramids could be built up to
  555. handle subject, verb and direct object.  This  triad is  about as  complex a
  556. view of the external world as we perceive anyway.  We generally perceive the
  557. external world in terms of one thing moving or causing  another thing.   The
  558. complexity beneath  the "tip  of the iceberg" doesn't matter.  You might say
  559. that all the underlying phenomena or  attributes  just  sort  of  "go along"
  560. subconsciously, meaning that we are somehow quasi-conscious of things beyond
  561. the three elements, below the surface of our consciousness.
  562.      To achieve some completeness now by  also dealing  with spatial things,
  563. we can  see that the three elements cover a lot of geometry.  If the machine
  564. is supposed to be perceiving shapes, with three  main elements  it can adapt
  565. to a line or a curve.  Suppose it is presented with, say, a pentagon.  Well,
  566. then maybe it would just use the  three  elements  to  perceive  one  of the
  567. angles.
  568.      Two further  ideas to  discuss are  comparison and extension from three
  569. unto seven.
  570.      In dealing with a  system of  from three  to seven  elements, there are
  571. several ways we can look at it.
  572.      Suppose the  system consisted  as follows.   There  are seven elements.
  573. Three are operational, and the other four are like reserve.
  574.      We might say that  the three  elements are  points of  attention.  From
  575. each triadic  element association  can dart  down and up within the pyramid,
  576. but  there  could  be  a  function  whereby  the  three  elemental positions
  577. obligatorily had to be in either constant or oscillating mutual association.
  578. Thus the contents by single associative  tag  could  vary  within  a triadic
  579. elemental position  from one  moment to the next, but the association of one
  580. position to the other two would be unbroken.
  581.      The whole concept of ego could occupy one  triadic pyramid,  a semantic
  582. verb another pyramid, and a semantic object the third pyramid.
  583.      Obviously, some  verbs (e.g.  "anticipate"?, "congratulate"?) have such
  584. complicated (yet unitary) meaning that the whole meaning  can't possibly all
  585. at once  be at  the unitary  focal point of consciousness.  If we expand the
  586. conscious focal point to encompass some  complicated semantic  meaning, then
  587. the  focal  point  can  no  longer  be  incisive  or  directed  or unitarily
  588. manipulable.  So it  would seem  that each  Gestalt has  to be  present as a
  589. pre-processed unit.
  590.      The idea  here is  that maybe  intellectual comprehension can only take
  591. place at a few cardinal hinge-points.   If  you don't  hinge a  Gestalt on a
  592. maximum of three points, then maybe it just can't be processed.
  593.      But what  does processing  amount to?  It would seem that production of
  594. any old  motor  happening  is  not  enough.    Plain  unintelligent instinct
  595. suffices  to  link  up  a  stimulus  with  a motor happening.  No, I get the
  596. feeling that there is some sort  of comparison  process of  a logical nature
  597. lying as a basic fundament to the operation of intellect.
  598.      A comparison  mechanism could  work with seven elements.  The procedure
  599. could be such that if you  get three  and three  positions filled,  then the
  600. seventh  position  also  gets  filled  and  the  machine  acts upon whatever
  601. associative tag fills the seventh position.  It could be or become  built in
  602. to the  nature of  the seventh  pyramidal position  that its filling carries
  603. along with it a sense that a positive comparison has been made.
  604.      For comparisons of Gestalten involving less than three  pyramids, there
  605. could be  comparison in sequence, so that the first pyramid is compared with
  606. the fourth pyramid, and so on.
  607.      If an action of comparison does not indicate  sameness, then  maybe the
  608. associative course  of the machine would veer off along a tag filling one of
  609. the positions where there was a  discrepancy with  a corresponding position.
  610. Indeed, maybe  it stands  to reason that the course would have to veer along
  611. that one of the two positions which  did  have  a  tag  filling  it, because
  612. discrepancy would  mean that  only one  out of  a pair of positions would be
  613. occupied.
  614.      There may arise a  question  as  to  how  the  machine  is  supposed to
  615. distinguish between  an action  of comparison and just random filling of the
  616. six elemental positions.  It could be that the seventh position would play a
  617. role  in  the  establishing  of  a  comparison  action.    Remember, various
  618. processes (evolution, trial-and-error, conscious design) permit  there to be
  619. almost any  sort of  complicated neuronal  system backing  up any one of the
  620. seven elemental pyramidal positions.  We are conceptually  dealing here with
  621. the  building-blocks  of  logic,  nature,  and  language.  A system that can
  622. compare groups of zero to three units is a pretty high-powered system.  If a
  623. system of  seven would permit conscious intelligence, then that system could
  624. consciously compare groups of more than three units.   We  seem to encounter
  625. here a  shade of recursion theory.  If we can produce conscious intelligence
  626. by dealing with a small number of
  627.                                                                [30 JUN 1974]
  628. elements, then by a bootstrap operation  our product  takes over  for larger
  629. numbers of elements.
  630.      By evolution  and embryology, a brain could grow to a point where there
  631. were myriad aggregates ready to perform the basic  function of intelligence.
  632. Then,  once  one  aggregate  did  perform  the  function, a rapid organizing
  633. process could make  the  rest  of  the  brain  subservient  to  the original
  634. aggregate.
  635.      Let us  assume that the machine mind conceptually starts out with seven
  636. elemental positions.  Perhaps  these positions  can float  over neurons, but
  637. the main  things about  them are that they are inter-associated and they can
  638. compare one group of three units with another group of three units.
  639.  
  640.  
  641.                                                                   1 JUL 1974
  642.  
  643.      Logic or logical operations may perhaps be accomplished  by a  brain in
  644. two ways.  One way could be the elemental, fundamental way of comparison and
  645. the other way could be a way simply of reference to logical material already
  646. learned.
  647.  
  648.  
  649.                                                                  20 JUL 1974
  650.  
  651.                          Small-Scale Function
  652.  
  653.      It would  be quite  easy to  build a device which recognized circles or
  654. other tripunctual things.
  655.      All recognition in a visual field  hinges on  a smattering  of cardinal
  656. points, in  that small  area where  we always  look directly.  Our very wide
  657. peripheral area is all just extra help; it does not comprise the essentials,
  658. the sine qua non of sight.  I think that we have such a wide peripheral area
  659. because we as organisms exist at  the center  of an  omnidirectional ball in
  660. space.   Once we have rudimentary sight, which is also at the same time very
  661. advanced sight, it is good  to  have  as  much  additional  visual  area for
  662. peripheral  attention-getting  as  can  fit  on  an orb like the eye or on a
  663. retina.     Motion-detection  and   attention-getting  can   be  done  quite
  664. mechanically and  over probably  an unlimited area of visual perceptors.  So
  665. we see here maybe three essential things:
  666.           1.  Only a small central area is necessary for  intellect-coupled 
  667.               sight.
  668.           2.  Sub-intellectual functions such as triggers and reflexes can 
  669.               be accomplished over almost any desired breadth or area.
  670.           3.  Spatial concerns such as "the omnidirectional ball" will      
  671.               cause a sensory modality to fill up any available space.
  672. This  foregoing  discussion  points  up  the probability of existence of two
  673. tendencies in  brains which  tendencies probably  make for  very much larger
  674. brains than  are necessary for intellect.  These two tendencies could be for
  675. intellect-coupled perception and for reflex-coupled perception.   As opposed
  676. to intellect-coupled  perception, we  can really  include reflex mechanisms,
  677. involuntary mechanisms such as  breathing or  heartbeat, and  any mechanisms
  678. which work because of instinct or genetic design.
  679.  
  680.  
  681.                               Self-Organizing Systems
  682.  
  683.      In simulating a brain, we will probably have to make trade-offs between
  684. experiential organization and genetically determined organization.
  685.      A basic caveat to keep in mind is that an organized system  of probably
  686. considerable complexity  can be brought about by genetics and evolution.  By
  687. this caveat I mean that we had better not just  assume that  some complex or
  688. far-reaching neuronal  mechanism is  too much to demand of a genetic origin.
  689. I would say that any gross  function, however  complicated, can  probably be
  690. achieved genetically.   However,  there are  certain functions which involve
  691. the fidelity of processed perceptions, which  functions can  probably not be
  692. managed genetically.
  693.      Since gross  functions are so possible genetically, we therefore have a
  694. form of  game-rule  authorization  to  employ  pre-programmed gross-function
  695. mechanisms, however highly contrived, to facilitate self-organization in our
  696. language-computer.  The  reason  that  the  mechanisms  might  be enormously
  697. complex and  contrived is  that we might call upon them to do some fantastic
  698. things.
  699.      When you deal with neuronal mechanisms and switching  circuits, you are
  700. really no longer dealing with material objects, but with pure logic.
  701.      As recall  permits, I  would gradually  like to enumerate some of these
  702. fantastic things which we could probably do with (to coin a word) autotactic
  703. systems, with autotaxis.  One often-thought-of application involves memory.
  704.      Suppose that  visual perception  went into  a channel of visual memory.
  705. Suppose the visual image frames were pulsed into memory at  the rate  of ten
  706. per  second.    Suppose  each  frame  consisted of a million yes-or-no dots.
  707. Suppose that each  dot  were  memory-retained  by  a  single  neuronal unit,
  708. meaning either  a neuron  or a  connective point between neurons.  By now we
  709. have a choice in our design or simulation.   Will  the visual  channel, with
  710. its  cross-sectional  area  of  a  million  bits,  be  laid  out  in advance
  711. genetically  so  that  the  image-frames  just  fall  in  a  long  series of
  712. prepositioned neuronal  units, or will the visual channel actually be formed
  713. continually to receive data and in such a way that it grows  in length along
  714. with the flow of data? 
  715.  
  716.                                                                  21 JUL 1974
  717.  
  718.      Now  it  would  be  good  to  effect a joining of these two topics from
  719. yesterday, "Small-Scale Function" and "Self-Organizing Systems."
  720.      The first of two main ideas is that it seems quite likely  that all the
  721. intellectual processes,  at the  height and  core of  their functioning, can
  722. deal only with small-scale, simple material.   Accordingly,  if we encounter
  723. large aggregates (such as the visual field or a whole-body tactile field) it
  724. is likely that either  most of  the sense  is peripheral,  or highly complex
  725. aggregates are  dealt with  perforce by  simplification (an  idea which will
  726. force us to research parallel processing.)
  727.      The second of the two main ideas is  that very  highly complex genetic-
  728. type  mechanisms   can  be   used  to  further  the  above-mentioned  simple
  729. intellectual processes.  An example might be an  attention-getting mechanism
  730. that makes  the conscious  intellect attend to some specific tactile area of
  731. the body, one hand or the other, for example.
  732.  
  733.  
  734.                                                                  23 JUL 1974
  735.  
  736.                Possible Features of Language-Computer
  737.  
  738.   I.  Narrow Input Sensorium.
  739.      A.  Sight.
  740.      B.  Touch.
  741.      C.  Hearing.
  742.  
  743.  II.  Comparison Ability.
  744.  
  745. III.  Memory Tending Away from Restriction.
  746.      A.  Limited time span (but as though unlimited).
  747.      B.  Perhaps self-organizing ability.
  748.           1.  Ability to organize memory space for whatever data are        
  749.              perceived or generated.
  750.           2.  Ability to construct and change associative tags.
  751.                a.  Tags through comparison mechanism.
  752.                b.  Tags through frequency of reference.
  753.  
  754.  IV.  Motor-Output.
  755.      A.   A random stimulator of initial motor output (in pseudo-infancy) so
  756.           that the machine can become aware of its motor capabilities.
  757.      B.  Some gross pseudo-muscles.
  758.           1.  For interaction with environment.
  759.           2.  To engender sufficient variety of action  that simple language
  760.               can be developed to describe the action.
  761.      C.  Locomotion.
  762.           1.  To impart a concept of identity or apartness from the        
  763.               environment.
  764.           2.  To enhance language.
  765.      D.  Communicative modality.
  766.           1.  Perhaps pseudo-speech.
  767.           2.  Perhaps direct transmission of internal code. 
  768.           3.  Probably communication in a form that feeds right back into   
  769.               the machine so that it can monitor its own communication.
  770.      E.  Bouleumatic accumulators for conscious control of action.
  771.  
  772.  
  773.                               Parallel Processing                23 JUL 1974
  774.  
  775.      Parallel processing might possibly be a key element in the construction
  776. of a  language  computer.    Unlike  willy-nilly  reflex  activity, parallel
  777. processing can  be a process with that sort of freedom which we require in a
  778. conscious, intellectual mind.
  779.      Parallel processing  would mean  that similar  or dissimilar activities
  780. are going on doubly or multiply within a system.
  781.      Parproc might pose difficulties with control and with system unity.  We
  782. generally think of consciousness  as a  unitary activity  within a  brain or
  783. mind.   Under parallel  processing, there might be multiple activities going
  784. on, and yet only one of them would be the conscious activity.
  785.      Problems  of  control  and  synchronization  might  arise  if  multiple
  786. processes are coursing through the mind and some go faster, others slower.
  787.      Anyway, there is a kernel of a problem here.  We are trying to get away
  788. from unfree reflex or  instinctive action  and develop  free intellect.   At
  789. present we  are trying to reduce both the initial and the basic processes of
  790. intellect  to  processes  of  "small-scale  function"  as  envisioned  in an
  791. elementary-logic  comparison   system.    Should  there  be  just  one  such
  792. comparison system, or should  there be "beliebig" many,  so as to constitute
  793. parallel processing?
  794.  
  795.  
  796.                          Comparison Mechanisms
  797.  
  798.      More and more it seems as though the basis of any system of recognizing
  799. and understanding will have to be some sort of comparison mechanism.
  800.      Our contention here is that comparison has to be done on utterly simple
  801. levels.  When any one broad mass of data is compared with another broad mass
  802. of data, any judgment of similarity will have to be based on  an analysis of
  803. each broad  mass into  simpler parts which can be compared with other simple
  804. parts.  (See Arbib, "The Metaphorical Brain,"  1972, pp. 75-78.)
  805.      If we want to attack this problem from one extreme, that of the utterly
  806. simple,  we  will  deal  with  information  in switching theory.  If our two
  807. comparand data masses could only have one bit  of information,  then, on the
  808. one  hand,  comparison  would  be  simple,  because either both masses would
  809. contain one bit and be identical, or not.  On the other hand, with masses of
  810. only unitary  size in bits, there would be no possibility of less-than-total
  811. differences.
  812.      If we go further  now and  let each  comparand mass  have room  for two
  813. bits,  then  there  can  be  identity  or  less-than-total differences.  For
  814. example, each mass might contain one out of two possible  bits, and  yet the
  815. order of their line-up might be experientially significant.
  816.      (Idea:   We may  have two  eyes for  the purpose of initial comparisons
  817. while we are babies.)
  818.      If we let each comparand mass  have room  for three  bits, then  we are
  819. still within  the realm of the absolutely comparable under simple logic, but
  820. we have greatly increased the possibilities for less than total differences.
  821.      Our amplified contention here  is that  with small  numbers of  bits we
  822. have the  capability of  comparison that is reliable, simple, accurate, non-
  823. exponential, and  so  on.    Small  groups  of  bits  can  be  compared both
  824. abstractly  (unto  themselves)  and  with  experientially fixed reference to
  825. order,  spatial  orientation,  and  probably  time-frequency   also.    This
  826. immediately  previous   sentence  is  to  say  that  as  long  as  the  main
  827. intellectual  process  is  free,  then  any  number  of   unfree  reflex  or
  828. genetically  determined  processes  can  be  attached in support of the free
  829. process.
  830.      While it is obvious that comparison can be  done surely  and accurately
  831. with small  groups of bits, it is also obvious that groups with thousands of
  832. bits can be compared  only by  analyzing them  into small  groups capable of
  833. comparison.
  834.      (These considerations  probably apply  to visual  and tactile data, but
  835. not to language data which are serially encoded.)
  836.      Two questions arise here.
  837.      First, how large  in  terms  of  groups  of  bits  should  the standard
  838. comparison mechanism be?
  839.      (Second, how will large groups be broken down?)
  840.      To answer the first question, we now get into an intriguing area of the
  841. self-organization theme.
  842.      It is quite possible that there could be a standard  minimal comparison
  843. mechanism with  self-expandable capacity.  Assuming that we are dealing with
  844. the utterly basic geometric things,  then  the  standard  minimal comparator
  845. could  be  based  on  a  certain  minimum  level.   If it then encountered a
  846. somewhat simple aggregate which could  not  be  fitted  into  the comparison
  847. framework, then  it might  automatically be possible to telescope or enlarge
  848. the comparison framework up into a higher capacity.
  849.      For example, this enlargement might be done to go from simple lines and
  850. curves to  angles or ovals.  Part of the main idea is, though, that you only
  851. get at a higher level by going through the standard minimum level.
  852.  
  853.  
  854.                                                                  28 JUN 1975
  855.  
  856.                          Language and World Logic
  857.  
  858.      This evening I have been tabulating  the vocabulary  in a  textbook for
  859. German One.   I  check each  word to  see if it is in Pfeffer's computerized
  860. wordlist of the 737 most frequent German words.
  861.      It is amazing how unnecessary each single one of these  737 words seems
  862. to be  for the  general ability  to speak language.  I look at each frequent
  863. word wondering just how much  this  word  will  help  a  student  to develop
  864. fluency.  In each case I have to realize that the word will probably promote
  865. fluency only to the extent that the student needs that word a  lot and finds
  866. it there  in his mind when he needs it.  A word promotes fluency if it helps
  867. to express ordinary experience and ordinary thought.
  868.      Linguistic mentation  seems  to  hinge  not  upon  any  single  word of
  869. vocabulary, but  just upon the presence of some few words and some few rules
  870. of structure.  This  makes  it  seem  as  though  the  psychic  aggregate is
  871. reducible to its parts and each part could perhaps stand alone.
  872.      The number  of words  available doesn't really matter, because they are
  873. just names to deal linguistically with things and actions.
  874.      The number of rules need only correspond to the number of relationships
  875. to be expressed. 
  876.      The amazing  thing about language is that within a mind it is so fluid.
  877. Objects (or their representations) which are quite inert in the  outer world
  878. can be manipulated effortlessly in the internal world.
  879.      Pairs of  physical actions  which actions  could not themselves join to
  880. produce an effect can  by  the  mediation  of  language  join  to  produce a
  881. countless variety  of effects.  For example, a distant person can experience
  882. by language both that a train is coming and that there is a cow stuck on the
  883. track.   He can  then by  language and  radio cause the engineer to stop the
  884. train or go to  a  siding.    At  any  rate,  physical  states  which cannot
  885. themselves interact,  can, if idealized in language or logic, interact first
  886. ideally and then physically as an outcome of the ideation.   Seen  that way,
  887. language  becomes  a  sort  of  lysis  of the physical world into ideational
  888. particles.  The names of things are an abstraction from them.   The rules of
  889. grammar are an abstraction from the relationships between things.  If things
  890. are named and relationships are perceived, then ACTION is potentiated either
  891. in  the  ideational  world  alone  or  in  both the ideational world and the
  892. physical world.  A mind could be thought of as the vehicle  of potentiation.
  893. In a  mind, naming  and relationship-perception automatically give rise to a
  894. flux of thought.  The thought does  not  come  from  nowhere,  but  from the
  895. inherent logic  of the perceived situation.  We have here then not deduction
  896. or  induction,  but  an   interplay  of   logical  quasi-forces.     A  mind
  897. automatically mingles and synthesizes logical inputs in a sort of release of
  898. logical tension.  Thus it is seen apparently that language  generates speech
  899. or thought only in a dynamic continuum of constant assertion or readjustment
  900. or operation of values held by the  mind.    Language  then  is  a  means of
  901. mediating a  dynamic equilibrium among the propositions contained in logical
  902. inputs.  The logic that language functions by  becomes a  logic of discovery
  903. because the  logic synergizes  the possible  or probable relationships which
  904. the input elements could  mutually enter  into.   Memory is  readily seen to
  905. play a role here because the "possible relationships" are suggested forcibly
  906. to the logic machinery  by  the  associative  memory.    When  the "possible
  907. relationships" throw  themselves up to the mechanisms which embody the rules
  908. of structure, those mechanisms  then  automatically  generate  statements of
  909. concern to  the value-holding  mind.   All such new statements are linked to
  910. the whole mosaic of previous mentation.  Statement  generation is  a process
  911. in which things that are physically inert become logically fluid.
  912.      What actual  activity is  there in such mentation?  The actual activity
  913. is the re-assembling of the various associations in new relationships, or in
  914. statements, which are expressions of relationships.
  915.      Example:
  916.           A.  As the Greyhound bus stops, I see the name of the town.
  917.           B.  I remember that So-and-so lives in that town.
  918.           C.  The notion is generated that I can visit or phone So-and-so.
  919.  
  920.  
  921.                                                                  2 JULY 1975
  922.  
  923.                               Geometric Logic
  924.  
  925.      On 28  JUN 75  a treatise  on "Language  and World Logic" was expounded
  926. which meant to show that structure rules in language are more important than
  927. any  particular  vocabulary  items.    The  structure rules, however, are an
  928. orderly reflection of the  same  order  (sequence,  causation, relationship,
  929. etc.) which  exists in  the external  world.  The elements that fit into the
  930. language structure rules make for very simple sets  with quite  few members.
  931. For instance,  a very  typical sentence  would consist of a subject, a verb,
  932. and a direct object - just three elements.
  933.      It will probably  have  to  be  a  central  feature  of  any archetypal
  934. language computer  that all the quasi-mental processes are based on and have
  935. at their heart the  strictly  defined  manipulation  of  aggregates  no more
  936. complex than the simple geometric items such as point, line, and circle.
  937.      We might  say that  a neuronal  or switching-circuit mind can "primary-
  938. process" only simple aggregates, although we do not  decide yet  what is the
  939. maximum number  of possible  elements per  set -  three, or  maybe seven, or
  940. beyond?  We can speculate quite a bit as to how many  elements a  mind could
  941. primary-process; for  instance, maybe the prime numbers are involved in some
  942. special way.  That is, maybe the process can handle  three elements  or four
  943. elements, but  not five  or seven,  because they  are prime numbers.  But to
  944. handle four might require a non-primary division.
  945.      Of course, once there is a basic process such as geometric logic, it is
  946. then easy  for a  mind to  operate recursively or exponentially.  That is, a
  947. mind can operate with such speed and such pervasiveness that it may generate
  948. the   deceptive   appearance   of   large   monolithic   operations.     The
  949. pseudo-monolithic operation could really  be either  a great  number of very
  950. rapid operations or a great number of parallel operations.
  951.      Let's suppose  that there  were indeed  a mind  operating on a basis of
  952. three-point logic.  This mind can perceive a set of three yes-or-no bits and
  953. it "writes  down" each perceived set as an engram in permanent memory.  (The
  954. present discussion "vel" rumination is going to be extremely simplistic, and
  955. full of  digressions.)   The mind can perceive such tri-sets sequentially at
  956. some rate, maybe around ten per second, but it doesn't matter.
  957.      So far  we have  a mind  repeatedly testing  three reception-points and
  958. then passing the data into a permanent memory.
  959.      In a  previous year  we have  already done some work on how such a mind
  960. might set up associations among data  coming in  and data  already stored in
  961. the permanent  memory.   For the purposes of this present discussion we will
  962. probably have to rework or regenerate  a  theory  of  how  association would
  963. work.
  964.      We can  now introduce to our model a tri-set of motor functions.  Let's
  965. say that by activating any of  three motor  points respectively  it can move
  966. forwards,  or  move  backwards,  or  revolve  clockwise.   We may or may not
  967. elaborate now on the motor output, because in  past theory  it involved such
  968. complicated features as "bouleumatic accumulators," but we should be mindful
  969. of its likely existence.
  970.      We can impute to  our mind-model  the ability  to perform  any strictly
  971. defined, automatic  function or operation upon the data with which it deals,
  972. incoming or stored.  This notion fits in quite well with the geometric logic
  973. theory - in fact, it is the reason for the theory, because we want to reduce
  974. elaborate mental operations to a fundament of utterly simple operations.
  975.      It would be nice if we could devise a way for the  machine to  build up
  976. inside itself  mechanisms more  complicated than  those with which it starts
  977. out.  For instance, we are minimally going to have to postulate some sort of
  978. association system,  with which  the machine is "born" as it were.  But that
  979. means there are three or four sets involved with or  in the  machine:  input
  980. sensorium;  association  network;  memory;  and  possibly motor output; plus
  981. possibly a fifth "set" which would be the whole external  environment, which
  982. could teach or "inform" the machine.  Our present "for-instance" is the idea
  983. that these three or four  or  five  sets  could  perhaps  yield constructive
  984. inputs of such a nature as to "transcomplicate" the association network, the
  985. "Bearbeitungsnetz."
  986.      Suppose that the permanent memory is a sequential path going  away from
  987. the  "Netz,"  the  association  network.    We  might by "heredity" give the
  988. machine the ability to lay down a secondary or tertiary memory path,  or any
  989. number of them.
  990.      Thus the  machine might have a secondary memory path which it would use
  991. for the products of its internal functioning, its internal "reflection."  It
  992. might have  a memory  path associated with the use of its motor output, even
  993. in  such  a  way  as  to  constitute  a  true  but   versatile  "bouleumatic
  994. accumulator."
  995.      The main point right here is, however, that any additional memory path,
  996. co-bonded to the mind by means  of  an  associative  network,  constitutes a
  997. device for building up additional processing structures.
  998.      We digress  here now  to discuss the methodology of how theory is built
  999. up and enlarged from a pre-existing structure.
  1000.      Knowledge can generally be organized.  When we learn new knowledge in a
  1001. field, it  fits into a relationship of new knowledge to prior knowledge like
  1002. foliage to the branches of  a  tree.    When  we  are  just  theorizing, not
  1003. experimenting,  how  do  we  develop  new  knowledge  out of a seeming void?
  1004. Perhaps elements of the prior knowledge  suggest further  things, extensions
  1005. of the prior tendencies.
  1006.      A logical  structure is  extended by  a branching-out  process, but the
  1007. selection of the valid branches is  dependent upon  their valid re-alignment
  1008. with the  universe at-large.   A  prior structure  may suggest  all sorts of
  1009. extensions, but  the  valid  ones  are  the  ones  which  work.    The valid
  1010. extensions can  be found  by testing  the set of possibilities for valid re-
  1011. alignment with the universe at-large.   Thus even  in this  discussion it is
  1012. proper to  state many digressions in order to go back through them later for
  1013. either acceptance or discarding.
  1014.      A system operating under geometric  logic,  which  is  absolutely well-
  1015. defined, should  be especially  capable of  establishing valid extensions to
  1016. any structure which it holds.
  1017.      We may now digress to discuss the topic of how  the human  mind handles
  1018. such wide  sensory input  channels as sight, hearing, and touch.  These vast
  1019. channels can probably fit under the notion of geometric logic,  that is, the
  1020. perceptions can  probably be  ultimately based upon simple aggregates of the
  1021. order of geometric logic.  Synthesis and analysis both play roles here.   We
  1022. might say  that any  synthesis is  "superfurcated" over several analyses, or
  1023. that the analyses are "subfurcated" under a synthesis.
  1024.      When our mind beholds  a visual  scene, we  are conscious  of the whole
  1025. scene before  us at  once.  A skeptic to our theory might ask how we can see
  1026. the whole scene at once if  a neuronal  mind is  based upon  small geometric
  1027. aggregates.
  1028.      There are  several distinctions to be made.  Though we are conscious of
  1029. the whole scene, our attention always is focused on some  one point  or spot
  1030. in the  scene.  Our attention can dart about, but it is always unitary, just
  1031. as the human mind is considered to be unitary.
  1032.      Yet even while we  attend to  one spot,  our mind  is conscious  of the
  1033. whole scene.   It  seems that  here is  a case  for parallel or simultaneous
  1034. processing.  Every punctual  sight-receptor is  probably associated  in many
  1035. ways  with  constellations  of  past  experience  which  permit it to engage
  1036. constantly in a flurry of associative  activity while  the mind  beholds the
  1037. visual scene.   Therefore,  while the  mind is watching the scene, the whole
  1038. receptive "plate" is seething with neuronal  activity which  goes ad libitum
  1039. deep  into  subfurcated  structures.    Probably  there  is  even  a sort of
  1040. competition raging as to which spot of perception  will successfully agitate
  1041. for control  of the process of attention and for the focus of consciousness.
  1042. So even though there is a focus of consciousness, the total process can be a
  1043. vastly broad phenomenon.
  1044.      Still it  seems hard  to imagine  that one  can be conscious of so much
  1045. material all at once.  There  is a  certain deceptive  process, though.   We
  1046. attend fortuitously  to whatever we want, and our attention darts all about,
  1047. creating  perhaps  the  impression   of  simultaneous   rather  than  serial
  1048. perception.
  1049.      If we  define consciousness  (elsewhere) as a certain activity, then we
  1050. should consider the idea  that consciousness  actually "lives"  in the great
  1051. sea of  perception.  That is, consciousness creates itself partly out of its
  1052. own perceptions.  We might say that incoming visual perceptions do a sort of
  1053. flattening-out  of  our  consciousness.   We should remember that operations
  1054. flash many  times  per  second  in  our  mind,  so  that  our wide-channeled
  1055. consciousness can  very well  be just as much an illusion as the illusion of
  1056. motion created by  a  motion-picture  film.    It  is  further  important to
  1057. remember that  the very  wide channel of sight is altogether unnecessary for
  1058. the existence of consciousness.  Since we can be conscious  without any wide
  1059. perception channels at all, we can be encouraged in this work concerning the
  1060. "oligomeric" geometric level.
  1061.  
  1062.                                                                  3 JULY 1975
  1063.  
  1064.      Now we  can digress  upon "superfurcation."   If  a mind  can deal with
  1065. three points  absolutely at once, that is, absolutely simultaneously and not
  1066. just in succession, it can also have any number ad libitum of mechanisms for
  1067. doing the  tripunctual operations.   That is to say, the limitations of mind
  1068. must not be thought of as hardware limitations, but as logic limitations.
  1069.      A basic set of three points can have subfurcations under one or more of
  1070. the three points.  By association, an elemental point can really represent a
  1071. large subfurcated aggregate.
  1072.      We might consider the idea that  neuronal, or  switching, machinery can
  1073. work  both  horizontally  and  vertically.    We  might consider that normal
  1074. neuronoid  operation  upon  a  tripunctual  set  is  horizontal.    Then any
  1075. operation involving separate levels of furcation would be called "vertical."
  1076.      An associative  network would  probably be  free to disregard levels of
  1077. furcation.
  1078.      We might consider that logical manipulation of superfurcated aggregates
  1079. hinges upon salient features, made to seem salient by associative operation.
  1080. When three different things made salient rise to the tops of their furcation
  1081. pyramids,  then  perhaps  a  sentence  of  language  in  deep  structure  is
  1082. generated, with the three  different things  finding expression  as subject,
  1083. verb, and  direct object.   Each thing finds a name, and although a name can
  1084. be long, a name is still a unit.
  1085.      Perhaps in  an  advanced  (non-infantile)  mind  the  distinctions fade
  1086. between  levels  of  furcation,  and  there may be such boisterous neuronoid
  1087. activity that large aggregates such as long sentences seem to be treated all
  1088. at once  and as  a whole.   But  still the operations described by geometric
  1089. logic theory might be seen as precedent and  preconditional to  such massive
  1090. activity.
  1091.      Unhampered by  biologic genetics,  and returning to our model, we might
  1092. construct a machine with a capability of expansion  (or contraction)  of any
  1093. logic channel involved with it.
  1094.      We might  start out  with a  sensory channel  of three points, and then
  1095. enlarge it by any number of points, as  we see  how the  machine handles the
  1096. various channels  of various sizes.  Of course, by our furcation theory, any
  1097. input can be analyzed down to an oligomeric set governed by geometric logic.
  1098. But with  wider channels there can be a lot of automatic processing (or pre-
  1099. processing) and we can inaugurate a  sort of  attention-mechanism within our
  1100. model.  An attention-mechanism must probably be backed up by the whole gamut
  1101. of horizontal and vertical association networks, if not  actually consist of
  1102. them.
  1103.      Visualizing a  mind now as an oligomeric logic machine, we are ready to
  1104. make a comparison between wide input channels and extremely narrow channels.
  1105. To start with, regardless of the size of the input channels, a mind will try
  1106. to deal with large logical aggregates  which it  encounters in  the external
  1107. world.  A vast external aggregate is a given.
  1108.      Whenever  the  channel  is  not  large  enough  to  cover  the external
  1109. aggregate, then the mind must attack the aggregate in a  piece-meal fashion.
  1110. This might  mean reconstructing the aggregate in the mind after studying its
  1111. parts.  The process might be similar to the way we can  get to  know a whole
  1112. city without seeing it all at once.
  1113.      If  the  input  channel  is  wide  enough to take in the whole external
  1114. aggregate, then the mind has a certain advantage.   This  advantage might be
  1115. illuminated by  a theory of "telescoping" of the furcation levels.  That is,
  1116. with a wide channel of input, it may be possible  by organization  to select
  1117. out  purely  logical  features  irregardless  of  their physical dimensions.
  1118. Every flashing application of processing machinery can generate  one or more
  1119. associations.    The  association  network  can  climb up and down furcation
  1120. levels until the most salient features  of the  aggregate are distinguished.
  1121. The oligomeric  geometric logic  can still have operated here, because it is
  1122. built into all the mechanisms at work.
  1123.      The  amphidromic  association  network   allows  an   aggregate  to  be
  1124. understood at  whatever levels  it is  analyzed on.  The same network allows
  1125. abstraction by soaring up to the most generalized levels.
  1126.      We may now  digress  upon  those  common  optical  illusions  where our
  1127. perception  of  a  drawing  seems  to  fluctuate  back and forth between two
  1128. interpretations of the same drawing.  The fluctuation could easily be due to
  1129. oscillation  within  an  associational  network.    It  is the job of such a
  1130. network to  produce  a  "most-salient"  interpretation.    However,  for the
  1131. illusory  drawings  there  are  two  highly  "salient" interpretations.  The
  1132. oscillation could take place  because when  one "salient" result-association
  1133. is formed,  it tends to become unitary with respect to its relative power of
  1134. commanding associations, and so the other competing result-association, with
  1135. its  multiple  "threads,"  becomes  statistically  dominant, and so back and
  1136. forth.  If the associative "valence"  of an  achieved result-association did
  1137. not tend  to sink towards unity or whatever, then we might find it difficult
  1138. to ever remove our attention from a stimulus.
  1139.  
  1140.                            Scratch-Leaf                           3 JUL 1975
  1141.  
  1142. - superfurcation, subfurcation?
  1143. - All sense avenues just specializations of tripartitism.
  1144. - Geometric logic favors "unity of mind."
  1145. - input  channel-width of automatic expansion coupled with memory  channels 
  1146.   of a width determined solely by the association network.
  1147.  
  1148.  
  1149.                                                                  4 July 1975
  1150.  
  1151.                          Self-Organizing Mechanisms
  1152.  
  1153.      At  this  stage  in  the  preparational  research,  it  is necessary to
  1154. consider three systems:
  1155.           1.  A system to analyze sensory input and do two things with it:
  1156.                A.  Associate it with information stored in memory.
  1157.                B.  Put it into memory in such a way that to it, too,        
  1158.                    associations can be made from future input.
  1159.           2.  A way for the organism to build up internally analytic       
  1160.               systems more complex than those it starts out with.
  1161.           3.  A way for the organism to use trial-and-error or the  process 
  1162.               of elimination to accomplish number two above.
  1163.  
  1164.  
  1165.                                                                  5 JULY 1975
  1166.  
  1167.      The design  order or  request for #2 or #3 above (from yesterday) might
  1168. be just that the system has  to  build  up  an  internal  recognition system
  1169. capable of detecting the second (or higher) reception of a certain input set
  1170. of a certain complexity.
  1171.      In other words, the organism is  self-organizing in  an ever increasing
  1172. way.   It is  only spurred  on to develop increased recognitional capability
  1173. when it encounters a perception for which it does not yet have the ability.
  1174.      Obviously, such  a system  might have  to obey  the law  of "Natura non
  1175. facit  saltum."    That  is,  it  might  have  to  build  up its recognition
  1176. capability step-by-step, in such a  way  that  certain  complexities  can be
  1177. recognized (or compared or analyzed) only if the organism has by chance been
  1178. led up to them by means of intermediate complexities.
  1179.  
  1180.  
  1181.                                                                  6 JULY 1975
  1182.  
  1183.                   Scale of Input to Self-Enlarging Processor
  1184.  
  1185.      Information that comes into the mechanical  organism will  be processed
  1186. in a  way which  tries to  link up the new information with past experience.
  1187. Obviously, that link-up must be a  two-ended channeling,  in the  sense that
  1188. the  organism  must  be  able  both  to  direct  the  whither-goings  of new
  1189. information and it must have a way of specific access to any required stored
  1190. information.   Retrieval or  re-use of information is possible only if there
  1191. is a discriminatory channel of access to that specific information.
  1192.      I  see  two  ways  of  access  that  will  get  straight   to  specific
  1193. information.  One way would be to be able to find information by the code of
  1194. what the information actually is.  That is, information would be accessed by
  1195. the logic  of what  the information  actually is.  Geometric shapes could be
  1196. accessed that way, or  words of  a human  language.   The information itself
  1197. would be  the code to its "address."  This method might compare with what in
  1198. electronics is called "Content Addressable Memory."
  1199.      The second way of access would  be  access  by  means  of  an arbitrary
  1200. associative "tag."   It could be assigned because two things happened at the
  1201. same time, or because one closely followed another.   With  associative tags
  1202. it might  be good  to imagine a device which can automatically lay down tags
  1203. anywhere.
  1204.      One might say that  "code-access" is  more refined  or more manipulable
  1205. than "logic-access."  For example, words are more manipulable than pictures.
  1206. However, it may be true that raw input data are never perceived  directly as
  1207. code but must always be sorted out first according to logic.  That is, sight
  1208. or sound, I mean, light or sound, is basically a physical phenomenon,  not a
  1209. code one.   It  is cumbersome and unwieldy before it gets changed into code,
  1210. but afterwards it is very handy.  So we might  say, "Logic  comes first, and
  1211. code comes  second."   THe frontiers  of perception  are logical, and in the
  1212. heartland of the mind we use code.
  1213.      I think that the major sense  we must  tackle is  sight.   Sight can be
  1214. two- or  three-dimensional, but the other senses are rather lineal.  Through
  1215. sight we can garner a lot of information to work  with using  code.  Through
  1216. sight  we  can  know  objects  more  directly  and  we  can  observe  myriad
  1217. relationships.  The great think-tanks are working on pattern-recognition, so
  1218. obviously it is a field of much research.
  1219.      If we  work on  sight as  a major sense-channel, we can keep everything
  1220. simple and work with minimal parameters.   We  can get  to the  topic in the
  1221. above title, scale.
  1222.      For  sight  we  basically  need  a  two-dimensional  field  of punctual
  1223. receptors.   The  main  question  of  scale  is  how  many  points  we need.
  1224. According to  our theory  of "telescoping" from 3 JULY 1975, above a certain
  1225. unknown size a visual field just permits the  treatment of  greater physical
  1226. dimensions, not greater complexity.
  1227.  
  1228.             XXXXX     OOOOO               x x x x x
  1229.             XXXXX     OOOOO               x x x x x
  1230.             XXXXX     OOOOO               x x x x x
  1231.             XXXXX     OOOOO               x x x x x
  1232.             XXXXX     OOOOO               x x x x x
  1233.  
  1234.                   x x x x x       . . . . .
  1235.                   x x x x x       . . . . .
  1236.                   x x x x x       . . . . .
  1237.                   x x x x x       . . . . .
  1238.                   x x x x x       . . . . .
  1239.  
  1240.      Suppose our  model from  3 JULY  1975 had  a visual perception field of
  1241. twenty-five points as type-written above.   That field  would be  its window
  1242. upon the external world, and it could see shapes or figures that passed into
  1243. that field.
  1244.      According to our theorizing from 4 & 5 JULY 1975,  we might  be able to
  1245. add on peripheral points to that first visual field as we went along.
  1246.      Having a  25-field like this entails having a memory channel consisting
  1247. of many slices, each with at least twenty-five points.  Or does it?
  1248.      What can we say about this visual field?  First of all,  its activation
  1249. is  pulsed.    It  is  not  just  steadily transmitting the state of all its
  1250. receptors, but rather it sends individual pictures at the rate  of a certain
  1251. interval,  perhaps  every  tenth  of  a second, or whatever the experimenter
  1252. wants.  It is pulsed so that the  pictorial logic  of one  discreet point in
  1253. time does  not merge  with the logic of another time.  Of course, it doesn't
  1254. matter where the pulsing takes place, either at the sender or the receiver.
  1255.      Let's say that the utterly  middle  receptor  were  the  main  point of
  1256. visual perception.   Numbering from left to right and from top to bottom, we
  1257. can call it point thirteen.
  1258.      From point thirteen we might  begin  our  process  of  building  up the
  1259. internal perception  or logic  mechanisms.   Of course,  we want to supply a
  1260. minimum organization by "heredity," and then let the  machine carry  on from
  1261. there.
  1262.      If we  like, we  may let  the laying-down  of memory engrams occur only
  1263. when a significant internal logical function  transpires.   That is,  if the
  1264. machine achieves something in sorting out an input frame, then we could have
  1265. the machine record the result.  Of course,  if we  had a  constantly erasing
  1266. memory loop, then we might let just anything get engrammed.
  1267.      If we  can devise  our sought  way for the machine to construct its own
  1268. internal order. then we would not need to pre-order the  perception of, say,
  1269. three points, such as, say, numbers 12, 13, and 14.
  1270.      We have  to have  a field, a comparator, and a memory.  It is up to the
  1271. comparator to decide whether  any image,  total-frame or  part-frame, is the
  1272. same as  any image  in memory.   Only then can other associations enter into
  1273. play.
  1274.      A rather potent comparator could  consist  of  only  five  points, say,
  1275. numbers  8,  12,  13,  14,  and  18,  and  it  might look like the following
  1276. typewritten image:
  1277.                                           x
  1278.                                         x x x
  1279.                                           x
  1280.  
  1281.      Such a five-point comparator would  allow  the  detection  of  lines or
  1282. breaks in  lines along  four directions:   horizontally, vertically, and two
  1283. criss-cross directions (or orientations).  Examples are:
  1284.  
  1285.   x         o            o         x         x
  1286. x x o     x x o        o x x     x o x     x o x
  1287.   x         x            x         x         o
  1288.  
  1289.  
  1290.                                                                   7 AUG 1976
  1291.  
  1292.      - The seven points of geometric computation are the  bottleneck conduit
  1293. through which all ratiocination must pass at all levels.
  1294.      - One  facet  of  ratiocination  is  the  analysis of new data and then
  1295. comparison with reference data.  The ability to compare universally requires
  1296. the  breakdown  or  analysis  of  data  to that point where they are not yet
  1297. identical but where utterly simple features can be said to be or not be held
  1298. in common.
  1299.      Things  and  classes  of  things  must  lend  themselves  to "isologic"
  1300. comparison by a process of bringing  them within  the scope  or framework of
  1301. the simple  geometry.   It is assumed that, since things in the universe and
  1302. also ideas have parts, they are to be analyzed in terms of  their most basic
  1303. distinguishing features.   Perhaps  first they  must be  analyzed into their
  1304. most basic natures, such as whether they are a number,  an idea,  a shape, a
  1305. quality (such as greenness), or a physical thing.
  1306.      I guess  we are  trying to  say here  that things have differences, but
  1307. that by virtue  of  similarities  things  fit  into  classes,  and  that the
  1308. ultimately basic  classifications of  the universe  are not  great enough in
  1309. number to overload or swamp the simple geometric logic of ratiocination.
  1310.      If classes become large at non-basic levels, then a separate process in
  1311. ratiocination can count and keep track of their elements.
  1312.      Even if  there were  or are  more than  seven basic  facets of reality,
  1313. either extra ones could be ignored  or  else  a  bootstrapping  technique of
  1314. virtuality could accommodate them all.
  1315.      If we  construe ratiocination  as meeting  all things through a septet,
  1316. then we can start designing a minimal universe, because where all things are
  1317. reducible to septets they might as well be septets.
  1318.  
  1319.  
  1320.                                                                   8 AUG 1976
  1321.  
  1322.  
  1323.  
  1324.  
  1325.  
  1326.  
  1327.  
  1328.  
  1329.  
  1330.  
  1331.      Does a fixed-position eye mechanism add extra data?
  1332.      In a  comparator there  must be  a play-off, somewhere, among capacity,
  1333. speed, and specificity.
  1334.           -  It must function all in one step, not in a series of  steps, so
  1335.              that its comparison results are instantaneous.
  1336.           -  The greater  its capacity in numbers of elements, the more     
  1337.              logical classes it can compare and process instantaneously.
  1338.           -  When the size of an array reaches a large enough number of     
  1339.              elements, then  classifications cease to hold up with respect  
  1340.              to exact configuration of elements.
  1341.     A comparator of a million elements is logically possible, we can imagine
  1342. it, but  it would be totally useless for classifying patterns of up to a    
  1343. million elements, because it could not  cope  with  slight  variations.   So
  1344. somewhere a ratiocinator extracts pattern from a massive array.
  1345.      My main  thesis here  is that such extraction has got to occur by means
  1346. of an unmistakable comparator mechanism.  Although I say "unmistakable," the
  1347. search for  pattern can  certainly flit  about testing various alternatives,
  1348. but the final adoption would be a logical structure exact  in every element.
  1349. (Of course, an added mechanism could allow variations within a pattern.)  My
  1350. thesis is furthermore that with a very few elements a  comparator can handle
  1351. all basic  logical structures  and patterns, so a ratiocinator might as well
  1352. apply a simple  comparator  to  perform  basic  encounters,  to  classify or
  1353. "recognize" basic  patterns, and  then apply  the same  simple comparator to
  1354. cope with the finer  details and  distinguishing features  which lurk behind
  1355. the representative  features treated  as primal  elements in  the most basic
  1356. comparison made at first encounter.
  1357.      The above discussion seems to indicate that the  simple comparator must
  1358. indeed  be  able  to  cope  with  structures  or "patterns" in which certain
  1359. elements may  be  variable.    On  the  one  hand,  variation  must  show up
  1360. distinctions,  but  on  the  other  hand  variation must not nullify a valid
  1361. comparison ("recognition"). 
  1362.      When we set up a fundamental  comparator, we  must remember  that it is
  1363. like just a window to the world, and that it does not and must not limit the
  1364. degree  of  possible  logical  complexity  within  the  interior  processing
  1365. structures of  the ratiocinator.   That  complexity will be limited by other
  1366. factors, such as genetics.  The  comparator must  be viewed  as the absolute
  1367. conduit  of  information.    Even  if  there  are  wide  perception channels
  1368. peripheral to the organism, to the ratiocinator, nevertheless an unescapable
  1369. bridging  of  pure  logic  must  occur  between  the  outside  world and the
  1370. ratiocinator, and this bridging, since  it  is  the  source  of  all outside
  1371. information, really  lies at  the heart  of the  ratiocinative process.  One
  1372. could almost say that ratiocination, understanding, is an  instantaneous and
  1373. immediate  process,  and  that  extended  ratiocination  is just an extended
  1374. series of ratiocinative instants, none of which can  exceed the  "Umfang" or
  1375. scope of the basic window process.  Thus ratiocination is like an acid which
  1376. is simple in itself but which can eat away even the largest structures.
  1377.      Of course, a ratiocinator can have  such great  interior complexity and
  1378. such speed  of operation  that it becomes able to deal with massive internal
  1379. aggregates (such as an abstract noun) in a process of  virtuality, where an
  1380. aggregate,  after  meeting  certain  tests  (by associative tag), is quickly
  1381. subsumed under a single element or two so that it can participate  in a very
  1382. fundamental logical operation.  Of course, certain logical tags will keep an
  1383. elementalized aggregate from losing its  identity  during  operation,  but I
  1384. want  to  remind  that  logical  processing can occur only within the simple
  1385. comparator mechanism.  In contrast, there are no restrictions on associative
  1386. tags, which  may be imposed capriciously or arbitrarily from without and are
  1387. not in themselves  logical,  although  they  may  convey  a  logical content
  1388. ("Inhalt") belonging to a "Gesamtbild."
  1389.      So far today, we have:
  1390.           - simple comparator
  1391.           - memory engram channel
  1392.           - tagging mechanism.
  1393.      Assuming that all input data are pulsed and laid down in memory, how do
  1394. the comparator and the tagging mechanism differentiate among the engrams and
  1395. make classifications of engrams, giving them quasi-addresses?
  1396.      It is  probably safe  to say that only what goes through the comparator
  1397. becomes an engram, because, remember, the comparator is the absolute conduit
  1398. of information.   When  an apparently broad slice of channel gets laid down,
  1399. really it is an  aggregate of  comparator-processed structures  laid down in
  1400. hierarchy.   It could very well be that associative tags are what intrude to
  1401. set up the hierarchy.  It  then follows  that associative  tags parallel the
  1402. inherent relationships between the primal elements of the fundamental simple
  1403. comparator.  The effect  is like  when you  blow through  a bubble  ring and
  1404. create a series of bubbles wafting through the air.
  1405.      The preceding paragraph is a breakthrough of sorts, because it suggests
  1406. that tags  are created  when a  slice of  data goes  through the comparator.
  1407. Now,  the  actual  physical  operating  of  a  tag-system  ("tagsyst"?) is a
  1408. function  of  the  dumb,  brute  internal  hardware  and  can  be completely
  1409. automatic, even  if cumbersome.   In  the work  of previous years, we almost
  1410. tried to force a vision of the tagsystem as arising spontaneously out of the
  1411. memory  system.    Even  if  the  tagsyst  does  arise  from the memsyst, in
  1412. maturation it has to be a quite discrete entity, an absolute mechanism which
  1413. can not  have its  nature or  organization changed by the data going through
  1414. it.  (Such a change might constitute hypnotism.)
  1415.      It is  doubtful  that  the  same  tagsyst  hardware  unit  can  be used
  1416. reiteratively to  process all  the distinguishing subsections of an incoming
  1417. aggregate,  and  so,  bingo!  you  have  "parallel  processing;"   that  is,
  1418. differentiation into  any one  exceptor screen  of a  tagsystem must lead on
  1419. into a whole series of tagsysts.
  1420.      Immediately  here   a  wide   variety  of   possibilities  emerges  for
  1421. consideration:
  1422.           - Is there clocking during parallel processing?
  1423.           - Can a  tagsyst handle a string of engrams, or must every engram 
  1424.             contain a tagsyst?
  1425.           - Do tagsysts form automatically whenever novel data are          
  1426.             experienced?
  1427.           - By a  process of virtuality, does the frontier of awareness grow
  1428.             broader and broader, so that a ratiocinator can feel            
  1429.             consciously aware of a whole panorama at once?
  1430.  
  1431.  
  1432.                                                                   9 AUG 1976
  1433.  
  1434.      As of  yesterday, the  Nommulta work is going especially well, now that
  1435. we have moved into an area  (basic ratiocination)  where everything  that we
  1436. have been  theorizing has  remained of  a nature  easy to  produce in actual
  1437. hardware.  That is, as we move along in theory, we keep conscious of  how we
  1438. could build each physical device.  In previous years our work was obstructed
  1439. or came to a halt, when we would come to a point in theory where we could no
  1440. longer imagine  how to build an item.  Of course, there's an underlying idea
  1441. of whatever we can dream up, we can build.  Or perhaps we would reach points
  1442. where we  could build  the stuff,  but we couldn't see where it led to next.
  1443. For instance, we dreamed  up  the  "bouleumatic  accumulator"  with  all its
  1444. attendant  theory,  as  a  physical device for achieving conscious volition.
  1445. The "boulsyst" was a nice, intriguing  concept  all  in  itself,  because it
  1446. solved the  tantalizing problem  of how you could think of an action without
  1447. willy-nilly performing  that  action  with  your  muscles.    Hopefully, the
  1448. boulsyst solved  the problem by subvectoring each volition into two separate
  1449. memory approaches.  If you just think about an action, it won't  occur.  But
  1450. if you  simultaneously think  about the action and about willing the action,
  1451. it does occur.  The boulsyst  idea is  that, in  one of  the two approaches,
  1452. probably the  volition track, there is a sort of integrating or accumulating
  1453. function so that you  can begin  to think  volition while  sensing a trigger
  1454. level.   There is  not a  separate volition observing the trigger level, but
  1455. rather the whole consciousness stays busily  attuned to  the approaching act
  1456. of volition,  and so  you could say that the entire conscious mind causes an
  1457. act of will.  THere is choice because  the possibility  of an  action can be
  1458. considered at length in advance.  The nitty-gritty of the boulsyst theory is
  1459. that some memory tracks are actually causative of action, and that to summon
  1460. or activate  such a  track in  conjunction with an attained boulsyst trigger
  1461. level is to initiate an act of the motor system.
  1462.      Once we had the boulsyst, we  couldn't put  it to  work yet  because we
  1463. were still working on how to take data from a perception channel and process
  1464. them into a memory track.  Storage of data was not important if we could not
  1465. figure out  how to  organize data  and how  to let  them interact with other
  1466. data.  We began to think a lot  about associative  tags and  about a minimal
  1467. ratiocinative entity.   For  months and  months under our bourgeois cover we
  1468. contemplated the possible make-up of an absolutely simple,  yet intelligent,
  1469. mind.   If minds and universes have parts, then let's make the simplest mind
  1470. in the simplest universe, was the idea.   Now, perhaps  temporarily, we have
  1471. in  the  area  of  ratiocination  a  concept  which  leads  in many exciting
  1472. directions at once.  I go rather personally into such  tangential narrations
  1473. because this Nolarbeit is really a personal, unshared project (I can find no
  1474. collaborators) and all this writing serves the personal purpose of capturing
  1475. ideas in order somewhat laboriously to build a structure of ideas.  I really
  1476. rush to get certain things  down.    Ideally  I  might  write  while  a tape
  1477. recorder runs  so that  I can blurt things onto the tape before I forget the
  1478. wording that came to me.   This is  a personal,  hobby project,  but I would
  1479. like to  achieve some results that would get someone else interested in what
  1480. I'm doing.  Then they might  like to  read my  notebooks, but  even so  I am
  1481. continuing to  write what  to myself is clearest and feels most comfortable,
  1482. such as my slangy vocabulary and my concealing use of "we."  Then let no one
  1483. complain, because  right now this material isn't written for a second party.
  1484. I don't even have  to separate  the theoretical  from the  personal content,
  1485. because later  on I  can index  the content by date plus or minus paragraph.
  1486. To indulge further, the beauty of it is that I am generating a mass of ideas
  1487. in  an  utterly  free  process,  with  no constraints of deadline, money, or
  1488. practical purpose, and it is not a sand-castle situation, but rather a real-
  1489. life endeavor  because everything  is tied  in with the idea that the proper
  1490. study of man is man.   Furthermore, it  amazes me  that I  generate all this
  1491. glib verbiage with slang, termini technici, and neologisms year after year.
  1492.      At any  rate, basic  ratiocination is  leading in certain directions of
  1493. theory, and it is beginning to look as though soon we might be able to bring
  1494. together  and  combine  a  lot  of  separately  developed  subsystems.   For
  1495. instance, the bouleumatic system would be  a  major  part  of  any complete,
  1496. integrated model of a mind.  (It bothers me to put such words as "model of a
  1497. mind" into print, because they state so explicitly  what this  project is so
  1498. hubristically all about.)  After all, one of our ongoing research techniques
  1499. was to try to list all  the major  necessary components  of a  mind.   If we
  1500. devise  the  components  in  detail  one  by one, eventually we will reach a
  1501. finally problematic component, the solution to which becomes the solution to
  1502. the whole.
  1503.      I notice that I am delaying a bit before plunging on to pursue the idea
  1504. of basic ratiocination.  On the one hand, I suspect that the theory is going
  1505. to get pretty complicated now, and on the other hand I want to sort of stand
  1506. and look around where I am.
  1507.      I suspect that I may be putting forth a theory  for parallel processing
  1508. in a  mind.  Such an idea warns of getting into extreme complexity either in
  1509. theory or in hardware, but it also gives a feeling of success, because I was
  1510. not really aiming at parallel processing, although the idea always floats in
  1511. my mind as one of the  problems of  intellect.   Rather, I  was aiming  at a
  1512. single process  and by  its own  development it  took me  into the erstwhile
  1513. scary area of parallel processing.  I had been afraid of parallel processing
  1514. because it  never yielded  to any dwelling of thought on it.  I think I felt
  1515. that I would be able to figure out the individual  ratiocinative process but
  1516. not the  immensely broad  process that humans have in things such as vision.
  1517. Now my theorizing from yesterday suggests that there  is one  single way and
  1518. that there  is no distinction between individual and parallel ratiocination.
  1519. After all, didn't we always make a point in our theorizing of  the idea that
  1520. consciousness always  focusses on one thing or attends to one thing, but can
  1521. be distracted by many things?
  1522.  
  1523.  
  1524.                                                                  10 AUG 1976
  1525.  
  1526.      To see where I am, I want  to  list  what  I  consider  to  be  my main
  1527. developments in the whole project since 1965 or 1958:
  1528.           - pulsed memory track
  1529.           - associative tag system
  1530.                                       consciousness itself
  1531.           - slip-scale virtuality  {
  1532.                                       use of language
  1533.           - the pull-string theory of transformational grammar
  1534.                                    random-stimulus motor learning
  1535.           - bouleumatic system  {
  1536.                                    bouleumatic accumulator
  1537.           - basic ratiocination by simple comparator.
  1538.      Unless there  are other  main developments  back in my notes, the above
  1539. list delineates the main areas in which I  have both  theorized and  come up
  1540. with promising results.
  1541.  
  1542.  
  1543.                                                                  11 AUG 1976
  1544.  
  1545.  
  1546.  
  1547.  
  1548.  
  1549.  
  1550.  
  1551.  
  1552.  
  1553.      When  a  slice  of  pulsed  perception  comes  in, it must go through a
  1554. comparator system and into a memory engram channel, although perhaps  not in
  1555. dependent sequence.
  1556.      THere is  some question as to whether the engram-channel is like slices
  1557. of the raw perception or contains only the analytic results of the compsyst.
  1558. How  does  an  Eidetiker  recall  a  whole scene?  Of course, either or both
  1559. methods could be tried empirically.
  1560.      THe purpose of running  the perception  data through  a compsyst  is to
  1561. analyze the slices and find similarities among slices.  At this point we are
  1562. returned to the first sentence of  the  work  from  three  days  ago, asking
  1563. whether a  fixed-position eye  mechanism adds  extra data.   Apparently, the
  1564. orientation of  an image  can be  fully specified  just by  reference to its
  1565. particular   analytic   configurations,   since,  after  all,  every  single
  1566. possibility of  configuration  is  represented.    However,  there  might be
  1567. advantages in a seven-point compsyst over a three-point compsyst because the
  1568. central element of the  seven-point compsyst  could be  used as  a reference
  1569. point  for  orientation.    Of  course,  the  "upper" point of a three-point
  1570. compsyst could also be used for a reference point, and further elements from
  1571. an array could be associated with it at finer compsyst levels.
  1572.      If an "upper" element of three has an outside significance, then it can
  1573. assume the same significance on the inside.
  1574.      Now, by what ways will the  compsyst establish  tags going  to specific
  1575. memory  engrams?    Offhand,  I  can  think  of  three causes for tags to be
  1576. assigned:
  1577.           - temporal succession of two slices 
  1578.           - analytic similarity by compsyst
  1579.           - accompanying signal from other perception or ratiocination      
  1580.             channel.
  1581.      It must  be remembered,  during this theorizing about a single, initial
  1582. compsyst, that the perception  channel probably  is a  large array  with one
  1583. central focus area.  Being large, the array will initially have many unitary
  1584. transmission elements which start out not being associated  into any pattern
  1585. (of orientation), but which probably would gradually be added on to whatever
  1586. order was created and radiated from the central focus.   And so,  the nearby
  1587. existence of additional "wires" has to be kept in mind.
  1588.      Of  the  above  causes  for  associative  tags ("soctags" perhaps), the
  1589. temporal succession one is probably the easiest to  imagine, and  it is also
  1590. easy  to  theorize  that  temporal  succession supplies a good causation for
  1591. letting a system self-organize.
  1592.      However, temporal succession is not  at  all  an  instance  of content-
  1593. analysis.    The  second  of  the  above causations, "analytic similarity by
  1594. compsyst," promises to be more interesting.
  1595.      We may have to re-establish the 1967 notion  of a  "consciousness area"
  1596. so as  to have  a putative mechanism which is at all interested in receiving
  1597. notice of the formation of mental associations.
  1598.  
  1599.                               Scratch-Leaf                  from 11 AUG 1976
  1600.  
  1601.      sight-system
  1602.      sound-system
  1603.      comparator system
  1604.      tag system
  1605.      memory engram channel
  1606.      motor memory system
  1607.      motor muscle system
  1608.      bouleumatic system
  1609.      random dynamics system (for random stimulus motor learning)
  1610.      motor/sensor exterior representation of self
  1611.      an environment
  1612.  
  1613.                               Scratch-Leaf                   from "AUG 1976"
  1614.  
  1615.      tagsyst
  1616.      parsyst
  1617.  
  1618. associative tag system
  1619. slip-scale virtuality
  1620.  
  1621.      - temporal succession
  1622.      - analytic similarity by compsyst
  1623.      - accompanying signal from other perception channel
  1624.  
  1625.  
  1626.                                                                 8 March 1977
  1627.  
  1628.      Although we can  assume  limitless  features  in  our  designing  of an
  1629. artificially  intelligent   computer,  there   are  certain   minima  to  be
  1630. considered.
  1631.      First we can state that our units are switching-units.  Now, suppose we
  1632. want to establish what is the absolute minimum of hardware necessary for AI.
  1633. Well, we  don't  have  to  think  in  terms  of  transistors,  or integrated
  1634. circuits, or  ferrite cores,  or even  material weight.   The  nature of our
  1635. components is more logical  than physical.   But  the environmental universe
  1636. can also be considered to be logical.  Therefore the question can be stated:
  1637. Out of  a universe  consisting of  countless units  with logical properties,
  1638. minimally how many units must join together to form an AI capable of dealing
  1639. with the universe?
  1640.      Intelligence does such things  as  analyzing  generalities, recognizing
  1641. identities, and  solving problems.   Basically  it manipulates and processes
  1642. logical structures.  The things in the universe exist not as unique entities
  1643. but rather as structured aggregates of simpler entities.
  1644.      Idea:   I bet  you could have side-by-side scales where on one side you
  1645. would list progressively the number of  units in  universes and  then on the
  1646. other  side  the  minimal  numbers  of  units  necessary  to  constitute  an
  1647. intelligence capable of doing all possible intellectual operations  with the
  1648. contents  of  those  universes.    I  don't mean exotic operations, just the
  1649. typical ones.
  1650.      We would have to establish just what operations  the intellect  must be
  1651. capable of.
  1652.  
  1653.  
  1654.                                                                  12 JUL 1977
  1655.  
  1656.                          Organizing the Nolarbeit
  1657.  
  1658.      It  should  be  possible  now  to start making the research work accrue
  1659. along specific lines.  For instance, there are the following topics:
  1660.           - basic ratiocination
  1661.           - volition systems
  1662.           - robotics
  1663.           - specific psycho-organism projects.
  1664.      If the theoretical work accrues along specific lines, then it  won't be
  1665. so hard  to get back into the spirit and niveau of the work after periods of
  1666. absence.
  1667.      Record-keeping can become more organized.    The  following  system for
  1668. keeping track  of generated  documents is  pretty clear.   There should be a
  1669. master file in which are kept  dated copies  of all  documents in  the time-
  1670. order of their genesis.  Thus it should be possible to go through the master
  1671. file and read the serial history of all work on  the Nolarbeit,  even though
  1672. the serial entries of documents might present a jumble of work pertaining to
  1673. many different departments of the total program.  This master  file is meant
  1674. to  be  as  handy  and  useful  as  possible  for  the kind of reading which
  1675. stimulates new ideas, so therefore as much as possible of its verbal content
  1676. should be  type-written.  It will be proper to substitute in the master file
  1677. typewritten  copies  of  what   were   originally   hand-written  documents.
  1678. Handwritten papers  which become represented in the Nolarbeit master file by
  1679. typewritten copies should be collected  in  a  Nolarbeit  manuscript storage
  1680. file.
  1681.      The manuscript  storage file  can serve several purposes.  Basically it
  1682. is available for a  check if  any question  arises as  to the  accuracy of a
  1683. typewritten copy.   It  also serves  as one  more copy for insurance against
  1684. loss of the informational  content of  the work-documents.   Of  course, the
  1685. manuscript storage  file will  not be  a complete  history of the Nolarbeit,
  1686. because some documents are  originally  typewritten  and  they  therefore go
  1687. straight into the master file.
  1688.      The master file serves as a source of photocopies for other files.
  1689.      There should  be at  least one  master file insurance copy.  That is to
  1690. say, the  master-file  should  exist  in  duplicate  for  protection against
  1691. irretrievable loss of information through such things as fire or inadvertent
  1692. destruction.  Any additional number of  insurance copies  as desired  can be
  1693. made by photocopying the main master file.
  1694.      There  should  be  Nolarbeit  topical  files  made up of photocopies or
  1695. carbon copies of items kept in the master file.  It would be in  the topical
  1696. files where  the research  work would  accrue along specific lines.  An item
  1697. from the master file might be photocopied for  insertion into  more than one
  1698. place among the topical files.
  1699.      A  topical   index  of  the  master  file  should  be  maintained  with
  1700. informational documents referred to by their dates of genesis and/or titles.
  1701.  
  1702.  
  1703. Simplest-Artificial-Mind Project                                 13 JUL 1977
  1704.  
  1705.                               Introduction
  1706.  
  1707.      This evening  I've  been  reflecting  on  how  we  might  construct the
  1708. simplest possible  mental organism  to show that we have produced artificial
  1709. intelligence.  I want to record  some of  the ideas  so that  later they can
  1710. serve as a springboard for further thought.
  1711.      We  would  go  heavily  into  providing  a language capability for this
  1712. machine.  I propose that we would set  up a  semi-English language,  so that
  1713. the  human  experimenter  could  readily  understand  and  even think in the
  1714. language used by the machine.
  1715.      We could call  the  language  "Sax,"  from  Anglo-Saxon.    Words could
  1716. consist  of  not  more  than  one,  two,  or three letters.  We could set up
  1717. requirements for the use of vowels somewhat as in English.  For instance, we
  1718. could say that the middle letter of any three-letter word had to be a vowel,
  1719. or we could just say that each syllable had to  contain a  vowel.   The main
  1720. idea is  to preserve  a semblance to natural language.  For instance, "I TOK
  1721. SAX AND YU TOK SAX."
  1722.      The language Sax would be a  strict code  of unambiguous  letters.  The
  1723. processes of  the use of Sax would be strictly analogous to the use of human
  1724. speech.   Utterances would  be introduced  to the  machine electronically or
  1725. electromechanically.   The SAM (Simplest-Artificial-Mind) machine would have
  1726. the tabula rasa capability to perceive and remember and associate utterances
  1727. in  Sax.    In  other  words,  there would be a quasi-genetic memory channel
  1728. serving quasi-auditory purposes.
  1729.      The  SAM  machine  would  also  have  the  motor  capacity  to generate
  1730. utterances in  Sax.   Whenever it  made utterances in Sax, it would hear its
  1731. own utterances.
  1732.      The above establishments allow us now to state some possibilities.   We
  1733. could use  a random-activator  process for the SAM to gradually become aware
  1734. of its own ability to make "sounds."  It would accidentally make  sounds and
  1735. simultaneously perceive them.
  1736.      By learning  to make  its own  sounds, the SAM machine would be able to
  1737. set up bouleumatic accumulators  for the  purpose of  consciously making any
  1738. desired utterances in Sax.
  1739.      By virtuality,  the machine  would be able to think in the language Sax
  1740. and it would not matter that the machine were not  thinking internal sounds.
  1741. It would  think in perfectly liquid units of code.  The human agent might be
  1742. able to pronounce Sax aloud, if he wanted to.
  1743.      So far we have given a description of  how language  might work  in the
  1744. mental organism.   The language system as so envisioned is simple in that it
  1745. does not require actual  acoustic  equipment  to  deal  with  actual sounds,
  1746. although if  we keep  strictly to our analogies it should remain possible as
  1747. an option for future development to go into acoustic devices.   However, the
  1748. language system  is only  a part  of the  mental organism.  For the language
  1749. system even to function  at  all,  there  must  be  experiential interaction
  1750. between  the  SAM  machine  and  its environment, and meaningful information
  1751. content must find expression in the Sax language.  Here is where  it will be
  1752. important to deploy the Nommultic concept of the basic ratiocinative device.
  1753.      It may  be valuable to construct two SAM machines, so that there can be
  1754. the two machines, the human agent, and the  background environment.   If the
  1755. human agent  taught the  language Sax to the two machines, then perhaps they
  1756. could learn together in a machine society.
  1757.  
  1758.  
  1759.                                                                  23 AUG 1977
  1760.  
  1761.      It is easily obvious  that the  mature existence  and functioning  of a
  1762. highly intelligent  mind is  not dependent  on the variety or breadth of its
  1763. perception channels.  Certainly  a human  being can  think and  use language
  1764. even if  he becomes blind, deaf, and so on.  So obviously then the conscious
  1765. intelligence would be operating on the basis of memory and  of ratiocinative
  1766. processing equipment working along with memory.
  1767.      Wow, what if the ratiocinative processing were of a homogeneous nature,
  1768. so that the "depth" or "level" of intelligence would depend just upon a kind
  1769. of pyramidal  quantity-question as to how much processing equipment there is
  1770. available either to function at once upon large aggregates or  in a parallel
  1771. fashion?
  1772.