home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #31 / NN_1992_31.iso / spool / bit / listserv / csgl / 1937 < prev    next >
Encoding:
Text File  |  1992-12-22  |  10.2 KB  |  216 lines

  1. Comments: Gated by NETNEWS@AUVM.AMERICAN.EDU
  2. Path: sparky!uunet!paladin.american.edu!auvm!VAXF.COLORADO.EDU!POWERS_W
  3. X-Envelope-to: CSG-L@vmd.cso.uiuc.edu
  4. X-VMS-To: @CSG
  5. MIME-version: 1.0
  6. Content-transfer-encoding: 7BIT
  7. Message-ID: <01GSL3X6Z60Y006MJF@VAXF.COLORADO.EDU>
  8. Newsgroups: bit.listserv.csg-l
  9. Date:         Mon, 21 Dec 1992 17:42:58 -0700
  10. Sender:       "Control Systems Group Network (CSGnet)" <CSG-L@UIUCVMD.BITNET>
  11. From:         "William T. Powers" <POWERS_W%FLC@VAXF.COLORADO.EDU>
  12. Subject:      Info theory; nonlinear models
  13. Lines: 201
  14.  
  15. [From Bill Powers (921221.1500)]
  16.  
  17. Martin Taylor (921221.1200)
  18.  
  19. Martin, our discussion of information theory and PCT seems to be
  20. flying apart into very strange pieces. I don't follow your
  21. reasoning about information flow or channel capacity in a control
  22. system at all. If you want me to understand, you're going to have
  23. to do a lot more specific spelling-out of what you mean.
  24.  
  25. In my last post and your answer the following exchange occurred:
  26.  
  27. You:
  28. >>The central theme of PCT is that a perception in an ECS should
  29. >>be maintained as close as possible to a reference value.  In
  30. >>other words, the information provided by the perception, given
  31. >>knowledge of the reference, should be as low as possible.
  32.  
  33. Me:
  34. >I think you'd better take [that one] back to the drawing board.
  35. >The reference in no way predicts the perception by its mere
  36. >existence.
  37.  
  38. You seem to be taking the position of an external observer who
  39. has one probe on the reference signal and another on the
  40. perceptual signal. Knowing that a good control system is acting,
  41. the observer knows that the perceptual signal will track the
  42. reference signal closely, and so is predicted by the reference
  43. signal. I understand this to imply that the perceptual signal
  44. adds little information to what this external observer is already
  45. getting from the reference signal. The same could be said the
  46. other way around: observing the perceptual signal, the observer
  47. knows essentially what the reference signal is doing, and so the
  48. reference signal adds little information to what the perceptual
  49. signal is already supplying.
  50.  
  51. But the receiver of the information in either case is external to
  52. the behaving system. What does that external receiver's
  53. information input have to do with the properties of the system
  54. being observed? Why should it make a difference in the behaving
  55. system if the external observer uses the reference signal to
  56. predict the perceptual signal, or the perceptual signal to
  57. predict the reference signal? Does the information being carried
  58. in a channel depend on what the external observer is paying
  59. attention to?
  60.  
  61. If the reference signal and the perceptual signal are both
  62. varying in a pattern that requires a bandwidth of, say, 2 Hz,
  63. doesn't this mean that both signals are carrying information at a
  64. rate corresponding to that bandwidth?
  65.  
  66. If you want me to understand this, you're going to have to take
  67. it slow and simple. I'm not following you. Today's post just made
  68. the whole thing more baffling to me.
  69. ----------------------------------------------------------------  Martin Taylor
  70.  (various posts) and
  71. Tom Bourbon (921221.1015) --
  72.  
  73. Tom, I think that the meaning of your challenge isn't completely
  74. clear to Martin: that is, what you think of as a demonstration
  75. and what he thinks of as one are very different. What you (and I)
  76. want is a program, or at least the design of a simulation that we
  77. could program and run on a computer, which would generate
  78. behavior that can be compared with real behavior. What Martin
  79. seems to think of as a demonstration is showing that a specific
  80. behavior is an instance of a more general class of behavioral
  81. phenomena.
  82.  
  83. We have to be very careful here not to ignore Martin's complaint,
  84. that it is as hard to get PCTers to listen to information theory
  85. as it is to get conventional journals to listen to PCT. Perhaps
  86. in learning how to understand what Martin is trying to say, we
  87. can also learn something about why we have difficulties in
  88. getting mainstream psychologists to listen to us. I recommend
  89. patience here, and not leaping to conclusions.
  90.  
  91. Martin, the difference that Tom is talking about, I believe, is
  92. between a descriptive model and a generative model. A descriptive
  93. model provides a general picture of which a specific behavior is
  94. only one example. A generative model actually generates
  95. (simulated) behavior for direct point-by-point comparison with
  96. real behavior. So conceptually, the arrangement from most to
  97. least detail is
  98.  
  99.    generative model ==> observed behavior ==> descriptive model
  100.  
  101. I think the different relationships of the two kinds of model to
  102. observed behavior is the source of much of our mutual
  103. difficulties. The generative model is a proposed system design;
  104. it connects components with physical properties (mathematically
  105. represented, but close to the component level) into a system that
  106. behaves as it must according to the design. If the system design
  107. is successful, it will behave like the real system: that is, its
  108. variables will change through time as the same variables do in
  109. the real system.
  110.  
  111. The descriptive model, on the other hand, is a generalization
  112. drawn from classes of behaviors. It attempts to extract general
  113. principles and laws from the details of behavior. It looks for
  114. truths about behavior that are more general than any specific
  115. behavior.
  116.  
  117. If these truths are true of observed behavior, they are also true
  118. of the behavior of a generative model that can mimic observed
  119. behavior. That is, for example, if Ashby's law of Requisite
  120. Variety can be shown to encompass certain control behaviors, then
  121. it will also encompass the behavior of a successful simulation of
  122. those behaviors.
  123.  
  124. I think our problems arise when we try to make one kind of model
  125. work in place of the other. The concept of information is a  generalization, not
  126.  an explanation. If we begin with the
  127. phenomenon of messages passing between behaving systems, we can
  128. show that those messages carry a certain amount of technically
  129. defined information, dependent on what the receiver wants from
  130. the message. But this tells us nothing about HOW those messages
  131. are generated and received. We can't use information theory to
  132. provide a system design, a generative model, because it is on the
  133. wrong end of the scale of abstraction. Neither can we use the
  134. generative model to provide an analysis of information flow; the
  135. generative model handles physical signals and quantities, and its
  136. specifications say nothing about information.
  137.  
  138. The PCT model is fundamentally a generative model. As such it is
  139. only partly successful. It will become more successful as we
  140. become able to simulate more and more complex behaviors, thus
  141. showing that the structure of the model is plausible. What we may
  142. guess about higher levels of organization is largely irrelevant
  143. now to the modeling process.
  144.  
  145. The applications of information theory that are relevant depend
  146. to some extent on the model that is assumed. Given an assumed
  147. model, its behavior or hypothesized behavior can be found
  148. consistent with information theory, and perhaps information
  149. theory will be able to explain why some designs work better than
  150. others. But information theory can only specify requirements --
  151. for example, adequate bandwidth, or decreasing bandwidth at
  152. higher levels. It can't supply the system design at the
  153. generative-model level that will meet those requirements. It
  154. can't specify what information is needed in the generative model,
  155. or how signal paths should be arranged, or what functions should
  156. be applied to the signals.
  157.  
  158. In the end, the generative model will explain behavior, while
  159. descriptive models show that the behavior thus explained and the
  160. structure of the successful model are consistent with general
  161. laws.
  162. -----------------------------------------------------------
  163. Greg Williams (921221) --
  164.  
  165. >What would a PCT model look like for a step tracking task?
  166. >Would it be the same as the model used so successfully for
  167. >continuous tracking? Would its parameters change with the
  168. >amplitude of the step and/or the speed of the step's rise
  169. >(actually a ramp, in this case)?
  170.  
  171. I'm working on an experimental setup (for David Goldstein) that
  172. will partly answer this question. By using a little control
  173. system, the program adjusts the difficulty of a task (by varying
  174. the speed with which a table of disturbance values is scanned)
  175. until a specific amount of RMS tracking error is produced by the
  176. participant. This amount of error is then maintained quite well
  177. in a subsequent one-minute tracking task. The purpose is to
  178. measure parameters of control at standard levels of tracking
  179. error, and also to monitor long-term changes in tracking skill.
  180.   In experimenting on myself, I find that as the amount of mean
  181. tracking error increases from one run to another, the integration
  182. factor in a best-fit model decreases. This is a crude way of
  183. measuring nonlinearity in the overall system response. With large
  184. mean errors, the slope of the output curve flattens out, as we
  185. would expect on neurological grounds (signal saturation).
  186.  
  187. It may be possible to estimate this nonlinearity and build it
  188. into the output function of the model. Then step-disturbances
  189. could be tried to see if the model approximates real behavior
  190. better than the linear model does.
  191.  
  192. The chief difference between continuous and stepped disturbances,
  193. which I have looked at, is that the stepped disturbances entail a
  194. transport lag much longer than the lag used to fit continuous
  195. behavior (twice as long). This could be due to nonlinearity in
  196. the output function, or (more likely, I think) to higher-level
  197. control systems being involved. After a relatively long period of
  198. no disturbance, a sudden step disturbance seems to surprise the
  199. system, so it doesn't start tracking right away. If you begin
  200. even a continuous-disturbance run with a few seconds of zero
  201. disturbance, there is a longish lag, 250 milliseconds or so,
  202. before tracking actually starts after the first significant
  203. amosunt of disturbance appears. But once it has started, the lag
  204. drops to 100 milliseconds or so. So perhaps the 250 milliseconds
  205. includes the normal 100 milliseconds, plus another 150 for a
  206. higher-level system to turn the tracking system on.
  207.  
  208. >Should be easy for somebody who can predict for One whole
  209. >minute, right?
  210.  
  211. Yeah. When are you going to do it?
  212. -------------------------------------------------------------
  213. Best to all,
  214.  
  215. Bill P.
  216.