home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / talk / abortion / 57409 < prev    next >
Encoding:
Text File  |  1993-01-23  |  6.1 KB  |  123 lines

  1. Newsgroups: talk.abortion
  2. Path: sparky!uunet!news.encore.com!jbates
  3. From: jbates@encore.com (John W. Bates)
  4. Subject: Re: Myelin (Was Re: Spoken Like a True ProLifer)
  5. Organization: Encore Computer Corporation
  6. Date: Fri, 22 Jan 1993 19:05:58 GMT
  7. Message-ID: <JBATES.93Jan22140558@pinocchio.encore.com>
  8. In-Reply-To: mcochran@nyx.cs.du.edu's message of Fri, 22 Jan 93 03:58:02 GMT
  9. References: <1993Jan20.062913.13725@mnemosyne.cs.du.edu>
  10.     <1993Jan21.034431.24481@organpipe.uug.arizona.edu>
  11.     <JBATES.93Jan21035438@pinocchio.encore.com>
  12.     <1993Jan22.035802.8755@mnemosyne.cs.du.edu>
  13. Sender: news@encore.com (Usenet readnews user id)
  14. Nntp-Posting-Host: pinocchio.encore.com
  15. Lines: 106
  16.  
  17. In article <1993Jan22.035802.8755@mnemosyne.cs.du.edu> mcochran@nyx.cs.du.edu (Mark A. Cochran) writes:
  18.  
  19. >>Sorry, Mark, but you've got things a little mixed up. In networking
  20. >>lingo, hypercubes are a network designed for supercomputing, with
  21. >>a node at each vertex connecting to each neighboring vertex. It's not
  22. >>related to neural networks at all. The closest neural network design
  23. >>I can think of is James Anderson's "brain state in a box", in which 
  24. >>each output pattern is a vertex of an n-dimensional box. Nice model 
  25. >>for associative memory, but n tends to have to be very large (in 
  26. >>computational terms) for it to be useful.
  27. >>
  28. > It's a good thing I made sure to deny any real knowledge of
  29. > hyper-cubes then, isn't it? :)
  30. > I still bet you can't build one out of C=64's though.... :)
  31.  
  32. Oh, you could build one, all right. It might even be more useful than
  33. a single C-64. That's not saying much. (Actually, on a side note, my
  34. father still uses the C-64 he bought in 1982. He really likes it, but
  35. soon might be upgrading to a 286. Whoooeee! (And besides, look at what
  36. Chaney accomplishes with his C-64...))
  37.  
  38. >>I've been leary of bringing models into this discussion, since it is
  39. >>often hard to relate models of neural networks to actual neural
  40. >>networks. But now, let me refer to a model by Stanislas Dehaene and
  41. >>Jean-Pierre Changeux, which simulated the performance of human
  42. >>infants in Piaget's A not B task. Their results approximated the
  43. >>performance of human infants. 
  44. >>
  45. >>The interesting part of the experiment, though, was that they varied
  46. >>the amount of "noise" that the network received. At high levels of
  47. >>noise, the network performed at the level of a 7-month old infant,
  48. >>but at low levels, it performed at the level of a 12-month old
  49. >>infant.  Noise levels seemed to correspond to the development of
  50. >>myelin in the frontal lobes.  (from the _Journal of Cognitive
  51. >>Neuroscience_ 1:3, S. Dehaene and J.P.  Changeux, A simple model of
  52. >>prefontal cortex function: delayed response tasks)
  53. >>
  54. > Interesting. If they were able to jump the noise level around to
  55. > approximate various developmental stages, I wonder if they could/did
  56. > jump it up to a level that would approximate that development of, say,
  57. > a 22 week fetus?
  58. > Be interesting to see the results if they did. It could shed some
  59. > light on this subject, at least.
  60.  
  61. Well, the problem with models is that it is entirely possible to read
  62. too much into them. The strongest conclusion you can make from the data
  63. gathered is that the performance of the network matches the performance
  64. of a child at a specific age. Since the mechanism by which the network
  65. befores does not map one-to-one with the mechanism by which the child
  66. performs, it's still only an approximation. Extrapolating the performance
  67. of the network beyond the data we have from actual experimentation is
  68. really only guesswork.
  69.  
  70. Of course, we can determine the amount of noise in an unmyelinated vs.
  71. a myelinated axon, by using the cable equations. We know that the
  72. performance of a network will degrade rapidly when the noise increases 
  73. and/or when the size decreases. But, without experimental data, we can't
  74. be sure that our simulated network matches the actual performance of the
  75. human mind.
  76.  
  77. > [Crabs and Squid deleted, since I've already had lunch]
  78.  
  79. >>>>>> The resonable work in question, though, is thought. Just as you
  80. >>>>>> can't use a 4 bit 16K RAM computer as an effective file server, I
  81. >>>>>> don't see how you cna use the similarly limited abilities ofthe
  82. >>>>>> pre-myelinated neural system as a 'thought server'.
  83. >>
  84. >>>>>I'm reserving my judgment on the matter for a time when we know
  85. >>>>>more about all the issues involved.  The hypomyelinated mice
  86. >>>>>discussed later in the post may be our best window into this issue.
  87. >>>>>In the meantime, it must be obvious to everyone reading this thread
  88. >>>>>(all 3 of us :-) that neither of us has any clue about whether
  89. >>>>>myelin is necessary or not.  I think that there is at least a fair
  90. >>>>>amount of information on the biological side that suggests that
  91. >>>>>myelin is not as central as some claim.  On the other hand, your
  92. >>>>>arguments about the presumed complexity of the network are
  93. >>>>>certainly thought-provoking (there's that smell again...myelin
  94. >>>>>burning or something).
  95. >>
  96. >>Yes. The major problem that we have in modelling brain processes is
  97. >>the complexity of the whole thing. I mean, our supercomputers have
  98. >>problems with 2-3000 neuron models. Massively parallel systems
  99. >>reach the 16-32000 neuron level. How much of the brain is actually
  100. >>dedicated to thought? Maybe what, 10^10 neurons?
  101. >>
  102. > I recall reading we'd need a computer the size of (something like)
  103. > Manhatten to approximate the brain. Does that sound like a resonable
  104. > size?
  105.  
  106. Well, I just did some quick calculations, and came up with over three
  107. hundred million of the new Thinking Machines CM-5 (I think that's the
  108. model.) Stacked three high, that's a solid block about three miles long
  109. on each side. But then you need power supplies, cooling systems, and lots
  110. of cabling.
  111.  
  112. I suspect (in fact I'm sure) that this model is a bit overkill. Sounds
  113. impressive, but really overly useful. A whole SPARC processor for each
  114. neuron? Phooey. In practice, I think that Intel(?) has a prototype
  115. neural network chip that simulates about 400 connected neurons in parallel.
  116. Assuming liberal space requirements for each chip, that's only a block
  117. 7/10 of a mile on each side, and twenty feet high. Of course, there are 
  118. a few minor implementation problems to be worked out...
  119.  
  120. Gotta run.
  121.  
  122. John
  123.