home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / comp / ai / philosop / 7356 < prev    next >
Encoding:
Internet Message Format  |  1993-01-21  |  2.3 KB

  1. Path: sparky!uunet!olivea!pagesat!spssig.spss.com!markrose
  2. From: markrose@spss.com (Mark Rosenfelder)
  3. Newsgroups: comp.ai.philosophy
  4. Subject: Re: COMPUTATIONAL BEHAVIOR MODEL
  5. Message-ID: <C17yDn.FIy@spss.com>
  6. Date: 21 Jan 93 19:34:35 GMT
  7. References: <93020.100600ICJGA@ASUACAD.BITNET>
  8. Sender: news@spss.com (Net News Admin)
  9. Organization: SPSS Inc.
  10. Lines: 33
  11.  
  12. In article <93020.100600ICJGA@ASUACAD.BITNET> <ICJGA@ASUACAD.BITNET> writes:
  13. >     Regarding emotions, the model does give the APPEARANCE of emotions, but
  14. >the appearance is the result of the emotions being there.  That means that
  15. >the emotions must have computable definitions.  For example, given a
  16. >situation that is "undesirable" (i.e. StoryPal has a "problem"), such as
  17. >hunger, a STRATEGY is available to deal with it.  That strategy has in it
  18. >one or more PLANS.  Each plan has in it a set of steps, the final one in
  19. >a plan being the absence of the problem.  If StoryPal cannot get to any
  20. >point on any plan in the strategy we describe that as being "hopeless".
  21. >Certain expressions go with being hopeless giving an appearance of having
  22. >the emotion hopelessness, but it starts with a real emotion resulting from
  23. >a real situation.  And being hopeless (not being able to get on a plan)
  24. >would definitely influence actions (even if itsuch action is to stand still
  25. >or run around in circles or lay down and cry).
  26.  
  27. Just because some computational state occurs in your program and you 
  28. call it an "emotion" doesn't mean that it's a "real emotion".  You are
  29. just playing with words.
  30.  
  31. As a few elementary questions, why do you label the state of not having a
  32. plan "hopelessness"?  Why not "confusion", or "terror", or "frustration",
  33. or "anger at the programmer", or "quiet resignation", or "satisfaction at
  34. having done all one can do"?  
  35.  
  36. What is the point of such labelling anyway?  Do you seriously believe 
  37. you are modelling how human emotions work?  Or does the "hopeless" program
  38. act just like a "hopeless" human being-- not just assuming a facial
  39. expression, but reducing its energy level even in other tasks, becoming
  40. aggressive or withdrawn, seeking distractions, contemplating suicide, 
  41. reading a lot of Kafka?  
  42.  
  43. You're not doing yourself a favor by redefining the goals of AI so narrowly
  44. that you can claim to have already achieved them.
  45.