home *** CD-ROM | disk | FTP | other *** search
/ Graphics 16,000 / graphics-16000.iso / msdos / fractal / iterat31 / jargon.txt < prev    next >
Text File  |  1993-12-29  |  17KB  |  348 lines

  1.             A Short Introduction to the Jargon of Iteration Theory
  2.             ══════════════════════════════════════════════════════
  3.             
  4. Iteration theory (just as every other complicated field) has developed its own
  5. jargon.  This list includes some of the more common terms.  It may help you
  6. understand some of the other documentation better, and it may help you
  7. understand iteration better as well.
  8.  
  9. And if all else fails, you can use these spiffy mathematical terms to impress
  10. your friends with your vast stores of chaotic knowledge.
  11.  
  12.  
  13. Dynamical System
  14. ────────────────
  15. A dynamical system is simply a function together with the domain the function
  16. is defined on.  The domain can be anything--a line, a line segment, the plane,
  17. 3-space, 6 dimensional space, or any of the other weird "spaces" mathematicans
  18. are always coming up with.  (In Iterate!, the domain of the function is always
  19. the plane.)
  20.  
  21. The only restriction is that the domain and the range of the function must be
  22. the same.  Symbolically, we would write:
  23.  
  24.             f: D  D
  25.         
  26. This means that 'f' is a function with domain and range D. This requirement
  27. makes sense if you think about it.  When you iterate a function, you keep
  28. feeding points from the range back into the domain.  So if the range and the
  29. domain aren't the same, you're going to be in trouble.
  30.  
  31. The reason this is called a "dynamical system" is that "dynamics" means
  32. "movement".  What we are studying when we look at a dynamical system is how
  33. the points move around under the influence of the function.
  34.  
  35.  
  36. Iteration
  37. ─────────
  38. What we do when study a Dynamical System is "iterate" the points.  This means
  39. you start with a point x. Then figure out f(x).  Then f(f(x)), f(f(f(x))),
  40. f(f(f(f(x)))) and so on.
  41.  
  42. Writing all this f(f(f(f(f(x))))) stuff gets pretty tiresome, so
  43. mathematicians abbreviate by writing fⁿ(x).  This means that you apply
  44. function 'f' to point 'x' 'n' times.  So f²(x)=f(f(x)) and so on.
  45.  
  46. (It would be easy to get confused and think that f²(x) means "f(x) squared".
  47. To distinguish between the two, mathematicians write (f(x))² if they mean
  48. "f(x) squared."  It would also be easy to get confused and think that f²(x)
  49. means "the 2nd derivative of the function f." But if you're smart enough to
  50. take the second derivative of the function f, then you should be smart enough
  51. to tell the difference between f²(x) meaning "the second iteration of f
  52. applied to x" and f²(x) meaning "the second derivative of the function f.")
  53.  
  54.  
  55. Orbits
  56. ──────
  57. What you are interested in looking at in a dynamical system is the path the
  58. points take when they are iterated.  This path is called the "orbit".
  59.  
  60. Another way of saying the same thing: The orbit of point x consists of these
  61. points 
  62.             x, f(x), f²(x)), . . . , fⁿ(x), . . . 
  63.                  
  64.             
  65. The orbit of a point is what you see in Iterate! when you press <Space>.
  66.  
  67.  
  68. Fixed points
  69. ────────────
  70. Fixed points are points that don't go anywhere when they're iterated, that is,
  71. x=f(x)=f²(x) etc.
  72.  
  73. Another way of saying the same thing: The orbit of a fixed point consists only
  74. of the point itself.
  75.  
  76.  
  77. Periodic Points
  78. ───────────────
  79. Periodic points are points that come back to the original point after a
  80. certain number of iterations.  For instance, a period 2 point comes back to
  81. the original point after two iterations:
  82.  
  83.                     x         (starting point)
  84.                     f(x)      (a different point)
  85.                     f²(x)=x   (back to the starting point)
  86.                     
  87. Periodic points of every different period are possible.
  88.  
  89. Once a periodic point returns to the starting point, it just repeats the same
  90. points again until it reaches the starting point again.  
  91.  
  92. For instance, here is a possible orbit for a period 5 point:
  93.  
  94.     0, ½, 1, 1½, 2, 0, ½, 1, 1½, 2, 0, ½, 1, 1½, 2, 0, ½, 1, 1½, 2, . . .
  95.     
  96. As you can see, it just keeps repeating the same 5 points over and over.
  97.  
  98. So the orbit of a period 'n' point consists of just 'n' points.
  99.  
  100.  
  101. Attracting Orbits
  102. ─────────────────
  103. Attracting orbits suck nearby orbits closer and closer to them.  For instance,
  104. an attracting fixed point sucks all nearby points into itself.  A period 3
  105. attracting point sucks all points near its orbit closer and closer to the
  106. orbit (the orbit consists of three points, of course).
  107.  
  108.  
  109. Repelling Orbits
  110. ────────────────
  111. A repelling orbit drives nearby orbits away from it.
  112.  
  113.  
  114. Other Types of Orbits
  115. ─────────────────────
  116. Many other types of orbits are possible.  For instance, there are fixed points
  117. that are attracting in one direction and repelling in the other.
  118.  
  119. By using techniques from elementary calculus, it is relatively easy to tell
  120. which orbits will be attracting, repelling, or something else.  Check the
  121. literature for more details on this.
  122.  
  123. Using Iterate!, you can easily find examples of all of these different types 
  124. of orbits (fixed points, periodic points, repelling orbits, attracting 
  125. orbits, etc.).  You may have to try several different functions with 
  126. different parameters, and try iterating several different points in different
  127. areas of the plane for each of them, but eventually you will see all these 
  128. different types of orbits.
  129.  
  130.  
  131. Strange Attractors
  132. ──────────────────
  133. A strange attractor is similar to an attracting orbit.  The difference is that
  134. in an attracting orbit, everything is attracted into an orbit which consists
  135. of a finite number of points.  We would say the it is a "finite attractor".  A
  136. strange attractor, however, is an "infinite attractor".  That is, there is an
  137. infinite set of points that everything else is attracted to.
  138.  
  139. Where the attracting orbit consisted of only a few attracting points, you can
  140. think of a strange attractor as being a whole shape that is attracting.
  141.  
  142. Usually this shape is a very, very weird shape; that is why it is called a
  143. strange attractor.  
  144.  
  145. As a rule, the strange attractor is a fractal, with fractal dimension less
  146. than dimension of the dynamical system.  For instance, in Iterate!, we are
  147. iterating functions on the plane, which has dimension 2. So any strange
  148. attractors we find in Iterate!  will have dimension less than 2--say 1.7, 1.2,
  149. or 0.5.
  150.  
  151. Usually, the dynamical system is chaotic on the strange attractor.  It isn't
  152. chaotic on the rest of the dynamical system, though, since the rest of the
  153. system is just sucked up into the strange attractor.  (See below for the
  154. definition of chaos.)
  155.  
  156. To see a good example of a strange attractor, select the Horseshoe Map
  157. (Function L) with default window and parameters.  The "Horseshoe" shape that
  158. you see when you iterate a point (which actually consists of horseshoes
  159. within horseshoes within horseshoes) is a strange attractor.  You will notice
  160. that all points are drawn into this horseshoe shape--it is an attractor.  You
  161. will notice that once a point gets close to the horseshoe shape, it seems to
  162. just jump around randomly on it--it moves chaotically on the strange
  163. attractor.  The horseshoe shape appears to have a fractal dimension between 1
  164. and 2--probably about 1.4 or 1.5.
  165.  
  166. Another example of a strange attractor is Function F (the inverse Julia Set
  167. function).  Again, the strange attractor is a fractal with fractal dimension
  168. between 1 and 2.
  169.  
  170. Although strange attractors _are_ strange (hence the name), a dynamical system
  171. with a strange attractor is often easier to understand and analyze than one
  172. without a strange attractor.
  173.  
  174.  
  175. Forward and Reverse Orbits
  176. ──────────────────────────
  177. To make the reverse orbit of a point, think of running the function backwards.
  178. In other words, instead of applying the function to the point repeatedly, you
  179. apply the inverse function of to the point repeatedly.  All the points you get
  180. by doing this are the "reverse orbit".
  181.  
  182. Another way of saying the same thing: The reverse orbit of a point 'x' is all
  183. the points that are mapped to 'x' under iteration.  In other words, if
  184. fⁿ(y)=x, then y is in the reverse orbit of x.
  185.  
  186. If mathematicians are talking about "reverse orbits", they will often refer to
  187. the normal orbit as the "forward orbit" just to be clear.  If they are talking
  188. about "forward" and "reverse" orbits, then usually just plain "orbit" means
  189. the forward and the reverse orbits together.  (Hey now, let's not hear any
  190. complaints about this--you don't expect clarity and consistency from a bunch
  191. of mere mathematicians, do you?)
  192.  
  193. In Iterate!, Function F is the inverse of Function E. So if you iterate a
  194. point under Function E, you get the forward orbit of the point.  If you
  195. iterate the same point under Function F, you get the reverse orbit of the
  196. point.
  197.  
  198.  
  199. Chaos
  200. ─────
  201. Mathematically, chaos is defined as a dynamical system with certain (chaotic)
  202. properties.  In your own personal life, you are welcome to define chaos any
  203. way you want (most of us don't need to define it actually--we just live it).
  204. But you might want to know the "official" definition of chaos as well.  So 
  205. here it is:
  206.  
  207. A chaotic dynamical system must satisfy three properties:
  208.  
  209.     1.  Sensitive dependence on initial conditions.  This means that any two
  210.     points that are close to each other must end up far away from each other
  211.     after a few iterations.  This condition ensures that the points are
  212.     thoroughly scrambled up.
  213.         
  214.     2.  Topological Transitivity.  This is a more technical requirement, so I
  215.     won't try to explain it.  Basically, it insures that every area of the 
  216.     dynamical system is scrambled--there aren't some small pockets somewhere 
  217.     that don't become scrambled. (See "An Introduction to Chaotic Dynamical 
  218.     Systems" if you want more info on this.)
  219.  
  220.     3.  Periodic points are everywhere dense. No, this doesn't mean that all
  221.     periodic points are stupid.  It just means that any region in the
  222.     dynamical system--no matter how small--contains a periodic point.
  223.  
  224. You can think of a chaotic dynamical system as one that is thoroughly mixed,
  225. and scrambled; the points move as though at random; the movement appears to be
  226. unpredictable.
  227.  
  228. If you like homey analogies, you can think of a dynamical system as being like
  229. mixing bread dough.  A chaotic dynamical system is like thoroughly mixed bread
  230. dough; a non-chaotic dynamical system is like dough that isn't well mixed.
  231. If Properties 1, 2, and 3 happen in the mixing of the bread, then we can be
  232. sure that it is well mixed:
  233.  
  234.     Property 1 ensures that things that started out close together end up far
  235.     apart.  For instance, the flour that we put in all together at the start
  236.     isn't still clumped up all together--it's spread far and wide.
  237.     
  238.     Property 2 ensures that everything is mixed throughout the _entire_ dough.
  239.     For instance, the oil we put in isn't just mixed around in one little
  240.     corner of the loaf, but is evenly mixed throughout ALL of the dough.
  241.  
  242.     Property 3 assures us that although the mixing process seems to be
  243.     "chaotic", disorderly, and generally difficult to understand, behind
  244.     this chaos is a very strong order, dependability, and even simplicity 
  245.     (remember that the periodic points are about the simplest kind of 
  246.     motion we can have, and Property 3 assures that they are scattered
  247.     throughout our bread dough). (*see note)
  248.  
  249.     In the case of bread-making, this order, dependability, and simplicity
  250.     is best understood as a result of the result of the kneading process.
  251.     Kneading is very simple--a couple of simple motions are 
  252.     repeated over and over in a sort of "iteration" of motion.  And although
  253.     it is "chaotic", it is dependable and reproducible, too--every time we 
  254.     knead bread dough, we end up with the same basic result.
  255.  
  256. *Note: Although everywhere dense periodic points are an important feature
  257. of the mathematical formulation of chaos, there is a valid question about 
  258. whether they would actually appear in a physical representation of a 
  259. dynamical system, i.e., in bread dough.  A mathematician would instantly 
  260. anwser, "Yes, of course they do!  Or at least something so close to periodic
  261. points that you couldn't tell the difference."  A physicist might say, "Due
  262. to the fact that space and time are ultimately discrete (in the 32nd 
  263. dimension--but let's not get into that), and after all, there are only a 
  264. finite number of elementary particles in the universe, let alone in a blob of 
  265. bread dough, ALL the points in the dough are ipso facto periodic and there's
  266. NO SUCH THING as chaos in bread dough or real life."  (The physicist could 
  267. easily be disproven by a brief tour of my apartment.)  A really sane person
  268. might come up with yet another answer.  In any case, the question is a good
  269. one, and not easy to answer.  
  270.  
  271.  
  272. Map
  273. ───
  274. "Map" is simply another word for "function".  The two words mean exactly the
  275. same thing.  For some reason, iteration theorists often use the word "map"
  276. instead of "function".
  277.  
  278.  
  279. What Good Is It?
  280. ────────────────
  281. Usually when mathematicians are asked this question about their specialty, 
  282. they answer, "It expands the realm of human knowledge," "It challenges our 
  283. intellect," "In about 12,000 years it might be able to be applied to some 
  284. obscure scientific area," and stuff like this.
  285.  
  286. With Iteration Theory, though, we don't have to get into these flimsy type of
  287. justifications (just as though someone ought to be paid just for thinking...
  288. hmmph, the gall of those mathematicians). Iteration Theory has a ton of 
  289. concrete physical applications.
  290.  
  291. One obvious application is modelling population growth.  Biologists typically
  292. think of population change on a yearly basis.  The trick is to find an
  293. equation that will tell you next year's population if you know this year's.
  294. (If you read "Function.txt" you will see that several of the functions that
  295. are programmed into Iterate! were made with this kind of biological idea in
  296. mind.)
  297.  
  298. So if we have such a function, and we know this year's population, we just
  299. apply the function and Presto! we have next year's population.  Apply the
  300. function again and we have the population in two years.  Apply it again, and
  301. we have the population in three years, and so on.
  302.  
  303. And what is this?  A Dynamical System, of course.
  304.  
  305. In fact, I have a book on my desk right now called "Chaos and Insect Ecology."
  306. The authors talk about such things as whether the conclusions of Chaos Theory
  307. can be applied to insect population dynamics; they apply chaos theory to
  308. things as diverse as the spread of measles in New York City and the population
  309. of martens in Canada.
  310.  
  311. Most anything that moves or changes (and that includes pretty much everything)
  312. can be thought of as a Dynamical System and studied using Iteration Theory.
  313. Weather prediction, for instance, has been extensively studied from this
  314. angle.  The most profound result of this study is the conclusion that the
  315. equations governing the weather are chaotic.  This makes long term weather
  316. prediction impossible.  
  317.  
  318. The studies have shown that a change in the weather conditions as small as a
  319. butterfly's wing flapping can change the entire global weather pattern three
  320. months later.  So unless you can account for every butterfly's wings, each
  321. person walking down the street, and other such changes that minutely affect
  322. the weather, you can't predict the weather more than three months down the
  323. road.
  324.  
  325. (This "Butterfly Effect" can be observed in any of the chaotic functions in
  326. Iterate!.  For instance, select Function I with default windows and
  327. parameters.  Iterate a point with <Space>.  Use <Shift Right-Arrow> to move to
  328. the very next point on the screen.  You will see that the orbits of the two
  329. points aren't close to each other at all.  You can use the <P> command at the
  330. command screen to enter points that are even closer to each other; then use
  331. <I> to iterate them and <L> to examine their endpoints.  You will find that
  332. the endpoints aren't anywhere close to each other.  This is the Butterfly
  333. Effect: a small change in the initial conditions leads to a large change in
  334. the end result.  This also the basic idea behind "Sensitive Dependence on
  335. Initial Conditions" mentioned above.)
  336.  
  337. The whole area of chaos theory-iteration theory-dynamical systems-fractals and
  338. so on is really a brand new field.  Most of the major discoveries in Iteration
  339. Theory have been made in the 1980s.  Although it is new, its impact has
  340. already been major.  These new methods promise to transform the way we think
  341. about science and mathematics.
  342.  
  343. With Iterate!, you can see for yourself many of these exciting discoveries,
  344. and maybe along the way you'll make a few of your own!
  345.  
  346. (Ver. 3.11, 12/93)
  347.  
  348.