home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #31 / NN_1992_31.iso / spool / comp / ai / philosop / 7194 < prev    next >
Encoding:
Text File  |  1993-01-03  |  8.8 KB  |  163 lines

  1. Newsgroups: comp.ai.philosophy
  2. Path: sparky!uunet!think.com!spool.mu.edu!umn.edu!umeecs!quip.eecs.umich.edu!marky
  3. From: marky@quip.eecs.umich.edu (Mark Anthony Young)
  4. Subject: Re: grounding and the entity/environment boundary
  5. Message-ID: <1993Jan3.181243.1231@zip.eecs.umich.edu>
  6. Sender: news@zip.eecs.umich.edu (Mr. News)
  7. Organization: University of Michigan EECS Dept., Ann Arbor
  8. References: <1992Dec28.144030.23113@cs.wm.edu> <C00GMG.ML7@iat.holonet.net> <C051Kq.8tD@spss.com>
  9. Date: Sun, 3 Jan 1993 18:12:43 GMT
  10. Lines: 151
  11.  
  12. %r markrose@spss.com (Mark Rosenfelder)
  13. > I'm interested in what it takes to make an AI grounded-- to make its use of
  14. > language meaningful rather than "merely syntactic"-- to have it know what
  15. > it's talking about.  Placing Harnad, Lakoff, and my own musings into a
  16. > blender and pressing "Liquefy", I come up with this: For an entity to be
  17. > (statically) grounded it must have high-bandwidth sensorimotor experience
  18. > with the real world; it's less grounded to the extent that the experience
  19. > is of low quality or quantity, or not really its own, or is weakly
  20. > integrated with its internal architecture.  Dynamic grounding would depend
  21. > on a capacity to maintain this experience and function in the world.
  22. > I trust you can see how this formulation leads to a concern with what is
  23. > or isn't part of the system.
  24. >
  25. >[...]
  26. >
  27. >Just in case I haven't laid out enough flame-bait already... Some alternative
  28. >conceptions of grounding avoid the boundary problem by concentrating on 
  29. >correlation of the internal world model with the real world.  The problem I
  30. >have with these conceptions is that it's even less clear where you draw the
  31. >line between an ungrounded system that's just playing with symbols and one
  32. >that really knows what it's talking about; that it's not clear how many 
  33. >errors, gaps, and ambiguities are permitted in the correlation; and that the 
  34. >origin of the correlation is not taken into account.
  35.  
  36. What Mark Rosenfelder is talking about above seems to me more about how
  37. something gets or stays grounded.  Still, just being "right" about the
  38. world doesn't seem like enough to be grounded.  There is some notion of
  39. "having experience" involved in that notion.  I'd like to offer the
  40. following as a definition of grounded that uses both correlation and
  41. experience of the world.
  42.  
  43. To give my definition of "grounded", I first have to define a couple of
  44. auxiliary notions.  A system is said to be "correct" to the extent that its
  45. internal world model correlates with the real world.  Note that this is a
  46. graded feature, not binary.  Thus, one system can be said to be "more
  47. correct" than another (though I do not claim that degree of correctness
  48. forms a total order).
  49.  
  50. Example:  Consider two (twelve hour) clocks:  one is stopped; the other
  51. runs slow by one minute every twelve hours.  In the first twelve hours
  52. after they are set, the first clock is on average three hours out, while
  53. the latter is on average thirty seconds out.  Over that limited time span,
  54. the second clock is 360x as correct as the first (on average).  Of course,
  55. as time goes on, the second clock becomes even more incorrect.  In the
  56. limiting case, both clocks average three hours of error, and so are equally
  57. correct.
  58.  
  59. Note:  it is often said that the stopped clock is right twice a day, while
  60. the slow clock is wrong almost always.  However, unless one is prepared to
  61. argue that the human mind actually contains a tiny scale model of the
  62. universe, then the appropriate definition of "correctness" relies not on
  63. "precise match", but on "amount of error".
  64.  
  65. The example of the clocks shows that "correctness" may decay.  Sensory
  66. input can check that decay, however.  Consider having someone reset each
  67. clock to the proper time at noon each day.  Then the stopped clock will
  68. stay three hours out on average, while the slow clock will be 180x as
  69. accurate, at an average of one minute error.  
  70.  
  71. The measure of correctness does not depend on how the correctness is
  72. achieved.  Thus it is irrelevent whether the clock is reset by a human or
  73. is actually capable of detecting when an atomic clock "strikes" noon and
  74. then resetting itself.  
  75.  
  76. A system is said to "adjust" when its internal world model is compared to
  77. the world, and is changed to a more correct model (if necessary).  Thus our
  78. clocks above adjust at noon every day.  A system that adjusts itself is
  79. said to be self-adjusting, while one that is adjusted by some other agent
  80. is externally adjusted.  The clock that is reset by a human is externally
  81. adjusted, while the clock that resets itself is self-adjusting (in our
  82. example it is adjusting _to_ the atomic clock--an interesting question that
  83. I will not get into here is "what if the atomic clock is incorrect?").
  84.  
  85. Note that the stopped clock in the example above is just as adjusted as the
  86. slow clock.  When our custodian comes around, or when the atomic clock
  87. strikes noon, the stopped clock is correct, so its model does not need to
  88. change.  If the custodian happens by at a few minutes before or after noon,
  89. then the stopped clock would be adjusted accordingly.  The important part
  90. is that the model was checked and any detected inaccuracies were
  91. eliminated.
  92.  
  93. Systems can adjust to greater or lesser extents, and more or less often.  A
  94. self-adjusting clock that is slow by five minutes a day will adjust by five
  95. times as much as one that is slow by only one minute a day.  Since the
  96. amount of adjustment depends only on how fast error builds up in the
  97. system, we are more interested in the frequency of adjustment.  If they
  98. both adjust only at noon (standard time), then they adjust equally as often
  99. (1ce/day).
  100.  
  101. A system is "adjusted" to the extent that it has recently adjusted its
  102. world model.  For our example, the clock adjusts at noon, and so is fully
  103. adjusted at noon.  As the day wears on, the clock becomes less adjusted
  104. until, at just before noon the next day, it is 24 hours less adjusted --
  105. half as adjusted as it was 12 hours earlier.  On average that clock is
  106. twelve hours unadjusted.  The clock that adjusts itself every hour is 24x
  107. as adjusted as the clock that adjusts daily.
  108.  
  109. A system is "accurate" to the extent that it can maintain correctness
  110. without adjusting.  One system can be more accurate than another, and yet
  111. less correct:  if it is adjusted less often, the error accumulated over a
  112. longer time may outweigh the larger incremental errors built up over a
  113. shorter time.
  114.  
  115. One last definition before I get to grounding proper.  A system is said to
  116. be "complete" to the extent that its internal model of the world can
  117. describe the world.  As an example, a clock with two faces -- say one set
  118. to London time and the other to Tokyo -- is twice as complete as the clock
  119. with one face.  If the two faces are however forced to read the same time
  120. (by a mechanical connection, for example), it is no more complete than its
  121. cousin.  
  122.  
  123. Now to the definition of grounding.  A system is "grounded" (in a
  124. particular world) to the extent that it is correct and complete and
  125. adjusted (for that world).  If no world is mentioned, then, based on
  126. context, either reality is assumed or we are talking about grounding in any
  127. world.  Grounding is a graded concept, but does not admit a total order.
  128. The extent of grounding can change over time (almost certainly will).  When
  129. we speak of how grounded a particular system is, we mean its average
  130. grounding over some (unstated) period of time.  
  131.  
  132. A system is "self-grounded" to the extent that it is correct and complete
  133. and self-adjusted.  This is the most interesting kind of grounding, as our
  134. notion of intelligence relies on _self_ adjustment.
  135.  
  136. While (self-)grounding is a graded concept, it does not have a total order.
  137. A clock that loses one minute a day and is reset every week is more correct
  138. than one that loses ten minutes a day and is reset daily, but it is also
  139. less adjusted.
  140.  
  141. Note that the bandwidth of the sensory experience has no direct effect on
  142. how grounded a system is.  It will, however, have an indirect effect:  the
  143. wider the bandwidth, the faster the entire model can be checked for errors
  144. (until the bandwidth reaches the size of the model, anyway).  Thus, ceteris
  145. paribus, the system with the wider sensory bandwidth will be more correct
  146. and thus more grounded.
  147.  
  148. Also, motor abilities have no direct effect on grounding.  It seems likely
  149. that a system that can actually experiment with the world will be able to
  150. build better models.  Still, this is not necessarily the case.
  151.  
  152. As for the boundary problem, you can draw the boundary wherever you please.
  153. In general, the further out you draw the boundary, the more grounded the
  154. system is.  
  155.  
  156. So, how can you build an AI as grounded as a human?  There are two
  157. extremes: you can either give it high bandwidth sensors and effectors and
  158. let it build its models the way people do; or you can build it more
  159. accurate than a human and get by with more limited world experience -- the
  160. narrower the bandwidth, the more accurate the system must be.
  161.  
  162. ...mark young
  163.