home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #19 / NN_1992_19.iso / spool / bit / listserv / csgl / 858 < prev    next >
Encoding:
Text File  |  1992-08-31  |  18.6 KB  |  324 lines

  1. Comments: Gated by NETNEWS@AUVM.AMERICAN.EDU
  2. Path: sparky!uunet!paladin.american.edu!auvm!URC.TUE.NL!ELEMHANS
  3. X-Envelope-to: csg-l@UIUCVMD.BITNET
  4. X-VMS-To: IN%"csg-l@uiucvmd.bitnet"
  5. X-VMS-Cc: ELEMHANS
  6. Content-type: TEXT/PLAIN; CHARSET=US-ASCII
  7. Content-transfer-encoding: 7BIT
  8. Mime-Version: 1.0
  9. Message-ID: <01GO8DRY5WNM9AMJRM@URC.TUE.NL>
  10. Newsgroups: bit.listserv.csg-l
  11. Date:         Mon, 31 Aug 1992 13:10:48 +0100
  12. Sender:       "Control Systems Group Network (CSGnet)" <CSG-L@UIUCVMD.BITNET>
  13. From:         HANS BLOM <ELEMHANS@URC.TUE.NL>
  14. Subject:      what is 'control'
  15. Lines: 307
  16.  
  17. [Hans Blom, 920831]
  18.  
  19. Although I have been listening  in on this list  for some years now,  I
  20. have  never actively contributed. I  enjoy reading the  list. You are a
  21. very creative  and inspiring bunch of people. Being a control engineer,
  22. PCT is a 'so  what' thing for  me, nothing new.  Some of the fields  of
  23. application, psychology  and (although implicit)  philosophy, fascinate
  24. me. Allow me one contribution and I promise to keep silent again for  a
  25. long time. Besides,  it already takes me  far too much time  to monitor
  26. the list; I wonder how  many hours there are  in a day for some  of the
  27. people  who are  the most  active on  this  list. I  admire you,  but I
  28. cannot follow you: too many other things to do.
  29.  
  30. Some general  remarks first. One:  control is not  everything. There is
  31. also  a  lot of  non-control in  the  world. Two:  what do  we  mean by
  32. 'control'? Do PCT and Skinner talk  about different things or are  they
  33. just  different perspectives? Three: where  does control come from? How
  34. does it originate?  Four: when you are  explicit and build models,  the
  35. type of control  that you use seems  to be just the  old-fashioned type
  36. PID-control. There  is  a lot  in  favor of  PID-control,  but a  great
  37. variety of  other types of  control have been  explored since: adaptive
  38. control, dual control, robust control, to name a few.
  39.  
  40. Also, when I  read the things  that you discuss  in this list, I  often
  41. notice  that  I see  some  things very  differently  and/or that  I see
  42. different things. Take  one of your  popular examples:  the control  of
  43. movements  by  e. coli.  I  remodelled and  reprogrammed  this 'control
  44. system' from the  descriptions that I found in the  list discussions of
  45. the last few months. My model looks as follows:
  46.  
  47. -   The environment is a point source of nourishment (let's take sugar)
  48.     at  x = 0,  y = 0.  The   concentration  profile  in  coli's  (two-
  49.     dimensional) environment  is an inverse square  law (different laws
  50.     do  not   make  much   difference).  Coli   can  sense   the  sugar
  51.     concentration  at the point where  it is. The  concentration at the
  52.     point  source is too high for coli  (poisoning), far away it is too
  53.     low (hunger).  A radius of 10  is optimal for coli,  i.e. coli will
  54.     'control for'  a radius  of 10. At  a radius of  100 or  more, coli
  55.     cannot  sense  the  sugar  concentration  anymore.  Coli's  initial
  56.     position is at a radius of 50.
  57.  
  58. -   Per iteration coli does the following:
  59.     1.  Coli tumbles, i.e. selects a new random direction.
  60.     2.  Coli swims, i.e.  takes a step in the new random direction. The
  61.         step   size  is   inversely   related  to   its   sensed  sugar
  62.         concentration minus its optimum sugar concentration. This makes
  63.         for large steps in case of hunger or poisoning, and small steps
  64.         if coli  feels fine. The  step size is,  however, limited  to a
  65.         maximum value  (when coli is  at a radius  of 100  or more) and
  66.         also to  a (small)  minimum value. This  minimum value  ensures
  67.         that  coli will  always have  to  reestablish its  position and
  68.         cannot relax  after reaching  the goal. Alternatively,  a small
  69.         random displacement of  its position (modeling physical effects
  70.         of water flow and such) provides a similar kind of disturbance.
  71.   Pick  your parameters as you like (their  values do not matter much),
  72.   but make  sure that coli needs at least  some ten steps from a radius
  73.   of 50 to a radius of 10 but not more than a few hundred.
  74.  
  75. Looking at coli's  behavior in  a number of  simulation runs, I  notice
  76. the following. In  about half of the  simulations, coli takes  off into
  77. the blue beyond, where its  sensors do not work anymore and where it is
  78. essentially lost, despite  the fact that  its initial  position and  at
  79. least its initial  ten to twenty  steps are within  the area where  its
  80. sensors do a  perfect job. In the  other half of the  simulations, coli
  81. goes  towards the  radius of 10  and finds  it or almost  finds it. The
  82. path often  looks very  crooked with  lots of moves  towards, and  then
  83. again away  from, the optimal  radius. Sometimes coli  reaches a radius
  84. of 11 or 12  but subsequently moves away again and  gets lost. In other
  85. cases,  coli  finds the  radius  of 10,  lingers  there for  some time,
  86. escapes,  returns,  repeats  this  sequence  a  number  of  times,  but
  87. eventually  it  escapes and  gets  lost in  what  for  it is  infinity.
  88. Looking  at  the  simulation as  it  unfolds  is  an esthetically  very
  89. satisfying  experience,  like  art:  you   _almost_  believe  that  you
  90. 'understand'.
  91.  
  92. Now what I  see is very reasonable behavior given  the real environment
  93. in  which a real coli lives.  But it is not control.  You might call it
  94. an attempt to  control. Coli  has more  control than  an inert  protein
  95. molecule, but  not much.  Coli is not  fully dependent on  the Brownian
  96. movement of the molecules of the water it  lives in: it looks as if  it
  97. has  some small  say in  the matter.  I  look at  coli's behavior  as a
  98. demonstration  of  _emergence_,  of how  control,  in  an  as yet  very
  99. primitive form, comes into being in the tiniest organisms.
  100.  
  101. It is not difficult  to improve upon coli's control,  but that requires
  102. additional equipment, either  extra sensors or memory.  Either provides
  103. a higher-dimensional  view of the world and, given the right actuators,
  104. therefore also actions in more dimensions than before.
  105.  
  106. Better goal  directed behavior  results if I  give my simulated  coli a
  107. memory   (just   a  single   bit)  that   remembers  whether   the  new
  108. concentration is 'better' than the old. If  so, I make coli continue in
  109. the same  old  direction. If  not,  I make  coli  select a  new  random
  110. direction. The  result is that the new coli (e. coli seems too small to
  111. have such  a memory,  but this  could be  the model  of a larger  sized
  112. bacterium) takes  only very _short_  moves away from  but _much longer_
  113. moves towards  its optimum environment.  Eventually, this  new organism
  114. reached the radius of 10 in all  simulations, and each one stayed close
  115. to it forever.
  116.  
  117. But its  'towards'  is  not  a  'steepest  descent  towards'.  That  is
  118. possible  only  with  another sensor,  with  which  a  gradient can  be
  119. established. When I give my  simulated coli the capability to sense and
  120. use the  sugar concentration gradient  (again, e. coli  cannot do that,
  121. but something  the size  of an  amoeba can),  it immediately  takes the
  122. shortest path to its optimum and stays there ever after.
  123.  
  124. These  simulations  give  a  lot  to  think  about.  First,  I  see  an
  125. _emergence_ of control,  from no control at  all (type 1; in  a protein
  126. molecule, virus or  small bacterium with no  own modes of movement)  to
  127. the primitive partial  control that I see in my simulated coli (type 2)
  128. to the  gradient descent (type 3) to the  steepest descent (type 4). In
  129. reality,  of course, there  are no  discrete types, and  even an oxygen
  130. atom can be said to 'control  for' the kind of chemical reactions  that
  131. it will allow.  This makes 'control' a rather fuzzy  issue, very unlike
  132. a  set of  linear differential equations  with fixed  coefficients from
  133. which you can calculate P, I and D-terms.
  134.  
  135. Contrast penni  sibun (920818.2000)'s general  description of  type 1-4
  136. behavior
  137.  
  138. >i don't  think behavior is ``what *needs* to  be done.''  i think it's
  139. >what *is* done.
  140.  
  141. with Rick Marken (920819.1000)'s more restricted  description of type 4
  142. behavior
  143.  
  144. >I have spent the last ten years trying to develop demonstrations that
  145. >would show that precisely that assumption is wrong.
  146.  
  147. Is 'leaning on  the world' a more  appropriate term than 'control'  for
  148. type  1  behavior?  For   which  types  of  behavior  is   Rick  Marken
  149. (920819.1000)'s
  150.  
  151. >The computer, using "the  test for the controlled variable",  can tell
  152. >which of these behaviors is being done intentionally--so it  is reading
  153. >the subject's intention (mind)--hence, the program does "mind reading".
  154.  
  155. appropriate?  Are  often  posed  questions  like  "Why  is  there  such
  156. reluctance  on  the part  of  those working  on  the hot  approaches to
  157. behavior to  even consider the possibility that behavior is the control
  158. of perception?" (this one  from Rick Marken) showing a  confusion about
  159. type 1 versus type 4 behavior?
  160.  
  161. Second,  these  four  types  of  control  have  little to  do  with  an
  162. 'increase of loop gain'. A larger loop gain for coli would  mean larger
  163. strokes and the real danger of  moving past a food source so fast  that
  164. it cannot  be located.  Actually, coli's  loop gain is  very robust;  a
  165. large range  results in almost  the same almost  optimal behavior. Give
  166. it a too  small loop gain and it cannot move;  give it a too large loop
  167. gain and it gets lost immediately.
  168.  
  169. Third, the  kind of  control that is  being discussed  in this list  is
  170. mainly the  type 4  control. But  even in  humans I  see all  different
  171. types. Sometimes there is nothing you can do; you are just  swept along
  172. with the  winds of what  is for you  just random change.  Sometimes you
  173. have a small say in the matter; you  only have a vague 'holistic' sense
  174. the too  complex situation  and  hardly know  what  to do  (you  cannot
  175. convert  what you  sense  into meaningful  actions). Sometimes  you can
  176. tell when a  new situation is 'better' but not the direction of 'best'.
  177. Sometimes you do  know what is 'best',  i.e. in which direction  to go.
  178. All this  has to  do  with the  possibilities and  limitations of  your
  179. equipment,   sensors,  memory  cells,  actuators  and  the  connections
  180. between  them. In  a sense,  sensors  and memory  cells  have the  same
  181. function  in that  the latter  can be  viewed as  sensors that  provide
  182. access  to  (an  encoding  of)  past  experiences.  Both  increase  the
  183. dimensionality of the  'impression' that an  organism can  have at  any
  184. moment of time.  If the dimensionality  of the  impression becomes  too
  185. low  relative  to  the  complexity  of  the  problem,  when  processing
  186. capabilities  are  too limited,  when actions  are  futile, or  when no
  187. clear goal exists, penni sibun (920825)'s
  188.  
  189. >why conduct elaborate deductions about yr surrounding when
  190. >you can look and see?  in particular, why maintain elaborate control
  191. >structures when you can look and see what needs to be done?  why make
  192. >highly detailed Plans when you can improvise?  why required instant
  193. >expertise when you can improve by just keeping on doing it?  why try
  194. >figuring it out yourself when you can collaborate w/ others who have
  195. >been there?  why insist on figureing out every situation afresh when
  196. >you can trust yor accumulated experience?
  197.  
  198. strategy, sometimes called  'intuition', may work  best. But note  that
  199. the  overwhelming  majority  of our  experience  has  been  accumulated
  200. through our  evolutionary path through the eons, and that therefore our
  201. problem  solving methods will be  those that are  best for _humans_ (in
  202. my opinion, even that is frequently too broad a generalization).
  203.  
  204. Fourth,  we  experience the  behavior  of simulated  coli  as extremely
  205. complex, despite  the fact that  the 'laws' on  which that behavior  is
  206. based  are  extremely  simple.  That  is  because  coli's  behavior  is
  207. unpredictable, 'chaotic'. We  cannot nicely formulate the  link between
  208. the  randomness of its steps and the  emerged (limited) order except in
  209. subjective  terms  such as  'sometimes some  colis  seem to  like being
  210. around the  radius of 10'. 'Going down a  level' for an explanation is,
  211. because it is  so non-obvious,  a never-ending  investigation into  the
  212. randomness of  nature. Often, what  remains are  statistics, a  subject
  213. that most of you seem not to like. But in physics, statistics is  quite
  214. acceptable as a  tool to obtain a sufficiently accurate  picture of the
  215. world, such as  in statistical mechanics  which does  not need  quantum
  216. theory  to  arrive  at  'emergent'   quantities  like  temperature  and
  217. pressure. Here,  'going up  a level' is  just as impossible,  or simply
  218. too  difficult  for  our  limited  human  resources.  The  'three  body
  219. problem'  from  celestial mechanics  is  a classic  example,  and chaos
  220. researchers will  tell  you  that 'almost  all'  problems are  of  this
  221. nature. It seems that  the proportion of analyzable problems  in nature
  222. is vanishingly small. We may have to 'kludge' forever.
  223.  
  224. When you  only have a hammer, you  see nails everywhere. I  do not want
  225. to detract from  the value of control  theory (a hammer is,  after all,
  226. sometimes a very useful  instrument), but when you have  control theory
  227. _only_, you see  control systems  everywhere. 'Control'  is an  elusive
  228. thing, just  like 'temperature'. Control 'exists' because we want it to
  229. exist, maybe even  because we _need_  it to exist  to bring order  into
  230. our  chaos.  In nature,  the  mechanisms that  compose what  we  call a
  231. control system  often seem to  be thrown together  from the lower-level
  232. stuff that happened to  be available in  an almost random, still  badly
  233. understood  process  that   we  call   evolution.  Most   emphatically,
  234. evolution has no  goal; it just looks  that way to the  naive observer.
  235. If there is no goal, 'control' may be as naive a concept.
  236.  
  237. Avery.Andrews says
  238.  
  239. >This discussion is gotten completely out of hand, and, like Martin,
  240. >I'm rather baffled by it.  I suspect that people haven't done enough
  241. >homework on  the  other  guys' stuff  to  justify the  things  they're
  242. >saying about it.
  243.  
  244. I agree. A  lot of confusion  and misunderstanding  arises when  people
  245. speak a  different  language.  Learning  each  other's  language  is  a
  246. prerequisite for  an exchange of thoughts. Regrettably, this is a life-
  247. long process.
  248.  
  249. Hans Blom
  250.  
  251. Who am  I? I  studied electrical  engineering, majoring in  measurement
  252. and  control theory. I work  at a university and have  done so for more
  253. than  20  years. My  tasks  are  both teaching  and  doing  research in
  254. 'medical engineering'.  I  have  done work  in  a number  of  subjects:
  255. modelling,  parameter   estimation,  control,  adaptive  control,  dual
  256. control,  man-machine interfacing  (now  called 'ergonomics'),  usually
  257. applied  to  anesthesia  and  intensive  care  monitoring  and  control
  258. systems. My  long-term project is  called 'servo-anesthesia',  but that
  259. has  proven  to be  a  very  elusive  goal.  I have  looked  around  in
  260. artificial  intelligence, mainly  expert  systems, neural  networks and
  261. genetic algorithms.  Also psychology, physiology, and  some philosophy.
  262. My Ph.D.  work was  the design of  a real  time expert systems  toolbox
  263. (special purpose programming  language, its compiler and  its inference
  264. engine).  An application was the design of an expert system based blood
  265. pressure control system,  where the computer  controls the  flow of  an
  266. infusion pump  that delivers a drug  in such a way  as to stabilize the
  267. patient's blood pressure at a lower than normal level. The core  of the
  268. system  is a PID-controller,  but that core is  surrounded by a 'safety
  269. shell' that  contains expert  knowledge, both  medical (what  to do  on
  270. special  occasions  such  as  shock)  and  about  how  to  tune  a PID-
  271. controller. Tuning must  keep the controller  both fast  and stable  in
  272. the face  of large variations  in the patient  parameters. Difficult to
  273. handle is the  variability of the  patient's sensitivity  to the  drug,
  274. which can  vary unpredictably by  a factor of about  80. Most difficult
  275. is, however,  that we  cannot explicitly specify  what is best  for the
  276. patient.
  277.  
  278. What  impressed  me most  in  my  research  was the  influence  of  the
  279. _unknown_.  Some   examples:  how  to   learn  the   initially  unknown
  280. characteristics of  the patient as  fast as possible  (time, especially
  281. medical  time,   is  money)  when  the  controller  is  started,  while
  282. guaranteeing safety  (predictable, 'almost'  optimal behavior); how  to
  283. keep  track   of  changes  of   the  patient's   characteristics  while
  284. controlling  stably  (no  test  signals);  and  how to  handle  missing
  285. feedback measurements (a temporarily broken  feedback loop) while still
  286. ensuring safety  for the patient. That cannot always be done. Sometimes
  287. the  system has to  alarm and  transfer control back  to the physician.
  288. You have to design  in what to do when more and more sensors fail. That
  289. is not easy.
  290.  
  291. My expert  system's  logic  has three  truth  values: true,  false  and
  292. unknown. Ensuring that the  system reaches a conclusion of  either true
  293. or false ('is  the patient OK, yes  or no?') but not  the uninformative
  294. 'unknown' when given  the largest number of  input 'unknown's generally
  295. does not seem  a mathematically tractable  problem. Still,  we want  to
  296. design solutions.  Creativity  seems  the  only method,  but  one  that
  297. cannot be formalized, regrettably.
  298.  
  299. Again, control is  not everything, and PCT  is even more limited.  Just
  300. one example.  'Dual control' theory  considers optimization  of control
  301. over some time  in an uncertain world. It  recognizes that, in general,
  302. control  will be  better the  more accurate  a  model of  the world  is
  303. available.   Thus,   in   many    cases   _active_   learning   (system
  304. identification)  is  called   for.  Active  learning,   however,  means
  305. introducing 'test  signals' and thus a  disturbance of the observation,
  306. which  of course _degrades_  the quality  of control.  But only  in the
  307. short run. Over  a long time, the  observations of the response  of the
  308. test signals yield an  improved model which provides a  better control.
  309. PCT  does not consider  this active learning.  Its 'reorganization' is,
  310. if  I  understand correctly,  a random  process  that only  occurs when
  311. errors  remain  large  for   some  time.  There  is  no   provision  to
  312. temporarily  _create_ small  errors in  order to  prevent later  larger
  313. errors.  This type  of  active  learning  ('curiosity',  'exploration',
  314. 'play') is pervasive in (higher) animals and humans.
  315.  
  316. Wittgenstein once  remarked that people  cannot think  unlogically. For
  317. me this means  that every remark,  however stupid  it initially  seems,
  318. has  its point and  can be  learned from  (maybe that's  why I  read so
  319. slowly). Sometimes  others have  just  a different  perspective on  the
  320. same 'truth'. Sometimes  someone has an impression that we  can show to
  321. be inconsistent with  what science shows us. But even then I think that
  322. we have to take that impression  seriously and try to find out where it
  323. comes from and what are the sources of misunderstanding.
  324.