home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #31 / NN_1992_31.iso / spool / comp / ai / 4692 < prev    next >
Encoding:
Internet Message Format  |  1992-12-23  |  6.5 KB

  1. Xref: sparky comp.ai:4692 comp.ai.philosophy:7147
  2. Path: sparky!uunet!pipex!bnr.co.uk!uknet!bhamcs!axs
  3. From: axs@cs.bham.ac.uk (Aaron Sloman)
  4. Newsgroups: comp.ai,comp.ai.philosophy
  5. Subject: Re: discussion with Penrose
  6. Message-ID: <BzqHws.KKF@cs.bham.ac.uk>
  7. Date: 23 Dec 92 22:46:02 GMT
  8. References: <1992Dec22.021109.4401@oracorp.com> <1992Dec22.221613.3198@udel.edu>
  9. Sender: news@cs.bham.ac.uk
  10. Organization: School of Computer Science, University of Birmingham, UK
  11. Lines: 133
  12. Nntp-Posting-Host: emotsun
  13.  
  14. hughes@mercury.cis.udel.edu (John Hughes) writes:
  15.  
  16. > Date: 22 Dec 92 22:16:13 GMT
  17. > Organization: University of Delaware, Newark
  18. > In article <1992Dec22.021109.4401@oracorp.com> daryl@oracorp.com
  19. > (Daryl McCullough) writes:
  20. > ....
  21. > > ..... There are only finitely many sequences of questions
  22. > >that could possibly be asked within the time limit, so all it would
  23. > >take in principle to pass it would be a finite lookup table that gave
  24. > >an appropriate answer for each question. If you want to include such
  25. > >questions as "What time is it?", or "Was it raining yesterday?", then
  26. > >you would have to have inputs corresponding to the current time, the
  27. > >weather report, etc. As long as the total information needed to answer
  28. > >each question is finite, then a lookup table could in principle answer
  29. > >it.
  30. >
  31. > This is not so. Though in a finite amount of time there are indeed only a
  32. > finite number of questions I can ask, those questions can be chosen from
  33. > an infinite set.
  34. > ..... etc
  35.  
  36. No: Daryl is right.
  37.  
  38. It is a simple mathematical fact that if you have a discrete and
  39. finite alphabet of characters c1, c2, c3, c4, ...... ck (e.g.
  40. printed characters, phonemes, or whatever) and a minimum time dt
  41. required to print or utter one of them, then in any finite time T
  42. there will be an upper bound N (= T/dt) to the length of the
  43. character string that can be produced in time T.
  44.  
  45. The total number of strings of length N of characters from an
  46. alphabet of size k, is itself finite, i.e. k to the power N (and
  47. most of these strings will be nonsensical). If you take all possible
  48. strings of length less than or equal to N, the set is larger but
  49. still finite. (Adding N finite numbers gives you a finite number).
  50.  
  51. So the questions cannot be "chosen from an infinite set", and the
  52. lookup table will not need to have more than some finite number of
  53. entries.
  54.  
  55. Of course, for even quite small N and k (e.g. N = 500, k = 2) the
  56. table could be too large to fit into our universe (assuming that
  57. there are no more than about 10 to the power 73 electrons in the
  58. universe) but that doesn't undermine the argument about what is
  59. theoretically possible.
  60.  
  61. Some people wish to include the CONTEXT in the conditions
  62. determining the answer to the question. It can't be the *actual*
  63. context that matters, but the *perceived* context, or perhaps the
  64. history of perceived contexts since the "agent" was "born". If the
  65. agent uses quantized sensory devices, such as an array of photon
  66. detectors, (or a digital memory of finite size) then exactly the
  67. same sort of argument can be used to show that for any finite period
  68. there is only a finite (though admittedly huge) number of possible
  69. sequences of perceived histories.
  70.  
  71. Thus the set of possible combined histories followed by a question
  72. (or if you wish to include perceived questions as part of the
  73. history, then just the set of possible histories) that can occur in
  74. any bounded time period (e.g. 1000 years) will also be finite, and
  75. therefore appropriate responses can, in principle, be associated
  76. with them, in a *finite* lookup table.
  77.  
  78. It would be possible to reduce the size of the table and the lookup
  79. time by transforming the table into a discrimination tree by merging
  80. histories with common initial strings, though it would still, for
  81. any reasonable time period, be too large to fit in our universe
  82. (which doesn't matter for the argument).
  83.  
  84. It is because, on the assumption of a quantised universe, a finite
  85. table-driven machine can in principle pass *any* behavioural test
  86. you like (not just the Turing test) that I argued in my review of
  87. Penrose (in the Journal Artificial Intelligence, August 1992) that
  88. all such behavioural tests are inappropriate as definitions of
  89. intelligence, or definitions of any particular mental state.
  90.  
  91. It's not *what* behaviour is produced but *how* it is produced that
  92. makes it reasonable to ascribe mental predicates to an agent.
  93.  
  94. (Of course, what it does may be compelling evidence concerning how
  95. it does it, if you make enough assumptions, and that's why we don't
  96. poke inside people's brains before regarding them as intelligent,
  97. but that's irrelevant to the conceptual argument.)
  98.  
  99. -------------------------------------------------------------------
  100.  
  101. I believe that this simple fact is all the truth that lies behind
  102. Searle's claim that the causal powers of brains, i.e. *how* they do
  103. things, at some appropriate level of description, would need to be
  104. replicated in order to replicate human intelligence.
  105.  
  106. Corresponding to different levels of description of how brains do
  107. what they do there are different "Strong AI" theses about what can
  108. be replicated on a Turing machine.
  109.  
  110. E.g. If all the strong AI thesis requires is replicating
  111. input-output behaviour via fixed-size digital interfaces, then the
  112. finite lookup table argument trivially suffices to prove the truth
  113. of strong AI.
  114.  
  115. If there are things in the brain at the relevant level of
  116. description that involve asynchronous concurrent processes with
  117. continuously varying speeds, then it may or may not be possible for
  118. a single Turing machine to replicate them, depending on the precise
  119. kind of asynchrony. (I think).
  120.  
  121. If there are non-digital, e.g. continuously varying, processes that
  122. play an essential role in the relevant level of description of how
  123. the brain does things, and Strong AI requires these processes to be
  124. replicated, then it is trivially true that a Turing machine cannot
  125. replicate them. (This seems to be what some people claim about
  126. neural systems.)
  127.  
  128. Additional cases are discussed in my review of Penrose.
  129.  
  130. Thus some versions of the Strong AI thesis are trivially true,
  131. others trivially false, and some interestingly open, i.e. whether
  132. there is some interesting description of how brains do things that
  133. cannot be applied to any Turing machine.
  134.  
  135. However most people who discuss the Strong AI thesis fail to
  136. distinguish the different versions, and consequently their
  137. disagreements are likely to be at cross purposes, making argument
  138. futile.
  139.  
  140. Aaron
  141. ---
  142. -- 
  143. Aaron Sloman, School of Computer Science,
  144. The University of Birmingham, B15 2TT, England
  145. EMAIL   A.Sloman@cs.bham.ac.uk  OR A.Sloman@bham.ac.uk
  146. Phone: +44-(0)21-414-3711       Fax:   +44-(0)21-414-4281
  147.