home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / talk / abortion / 57541 < prev    next >
Encoding:
Text File  |  1993-01-24  |  7.1 KB  |  138 lines

  1. Newsgroups: talk.abortion
  2. Path: sparky!uunet!mnemosyne.cs.du.edu!nyx!mcochran
  3. From: mcochran@nyx.cs.du.edu (Mark A. Cochran)
  4. Subject: Re: Myelin (Was Re: Spoken Like a True ProLifer)
  5. Message-ID: <1993Jan23.180855.6504@mnemosyne.cs.du.edu>
  6. X-Disclaimer: Nyx is a public access Unix system run by the University
  7.     of Denver for the Denver community.  The University has neither
  8.     control over nor responsibility for the opinions of users.
  9. Sender: usenet@mnemosyne.cs.du.edu (netnews admin account)
  10. Organization: None worth mentioning.
  11. References: <JBATES.93Jan21035438@pinocchio.encore.com> <1993Jan22.035802.8755@mnemosyne.cs.du.edu> <JBATES.93Jan22140558@pinocchio.encore.com>
  12. Date: Sat, 23 Jan 93 18:08:55 GMT
  13. Lines: 123
  14.  
  15. In article <JBATES.93Jan22140558@pinocchio.encore.com> jbates@encore.com (John W. Bates) writes:
  16. >In article <1993Jan22.035802.8755@mnemosyne.cs.du.edu> mcochran@nyx.cs.du.edu (Mark A. Cochran) writes:
  17. >
  18. >>>Sorry, Mark, but you've got things a little mixed up. In networking
  19. >>>lingo, hypercubes are a network designed for supercomputing, with
  20. >>>a node at each vertex connecting to each neighboring vertex. It's not
  21. >>>related to neural networks at all. The closest neural network design
  22. >>>I can think of is James Anderson's "brain state in a box", in which 
  23. >>>each output pattern is a vertex of an n-dimensional box. Nice model 
  24. >>>for associative memory, but n tends to have to be very large (in 
  25. >>>computational terms) for it to be useful.
  26. >>>
  27. >> It's a good thing I made sure to deny any real knowledge of
  28. >> hyper-cubes then, isn't it? :)
  29. >> I still bet you can't build one out of C=64's though.... :)
  30. >
  31. >Oh, you could build one, all right. It might even be more useful than
  32. >a single C-64. That's not saying much. (Actually, on a side note, my
  33. >father still uses the C-64 he bought in 1982. He really likes it, but
  34. >soon might be upgrading to a 286. Whoooeee! (And besides, look at what
  35. >Chaney accomplishes with his C-64...))
  36. >
  37. Ok, so you can build one, and use it to play simple little games, or
  38. make yourself look foolish like Airplane Boy. Good argument for not
  39. building one. ;)
  40.  
  41. >>>I've been leary of bringing models into this discussion, since it is
  42. >>>often hard to relate models of neural networks to actual neural
  43. >>>networks. But now, let me refer to a model by Stanislas Dehaene and
  44. >>>Jean-Pierre Changeux, which simulated the performance of human
  45. >>>infants in Piaget's A not B task. Their results approximated the
  46. >>>performance of human infants. 
  47. >>>
  48. >>>The interesting part of the experiment, though, was that they varied
  49. >>>the amount of "noise" that the network received. At high levels of
  50. >>>noise, the network performed at the level of a 7-month old infant,
  51. >>>but at low levels, it performed at the level of a 12-month old
  52. >>>infant.  Noise levels seemed to correspond to the development of
  53. >>>myelin in the frontal lobes.  (from the _Journal of Cognitive
  54. >>>Neuroscience_ 1:3, S. Dehaene and J.P.  Changeux, A simple model of
  55. >>>prefontal cortex function: delayed response tasks)
  56. >>>
  57. >> Interesting. If they were able to jump the noise level around to
  58. >> approximate various developmental stages, I wonder if they could/did
  59. >> jump it up to a level that would approximate that development of, say,
  60. >> a 22 week fetus?
  61. >> Be interesting to see the results if they did. It could shed some
  62. >> light on this subject, at least.
  63. >
  64. >Well, the problem with models is that it is entirely possible to read
  65. >too much into them. The strongest conclusion you can make from the data
  66. >gathered is that the performance of the network matches the performance
  67. >of a child at a specific age. Since the mechanism by which the network
  68. >befores does not map one-to-one with the mechanism by which the child
  69. >performs, it's still only an approximation. Extrapolating the performance
  70. >of the network beyond the data we have from actual experimentation is
  71. >really only guesswork.
  72. >
  73. >Of course, we can determine the amount of noise in an unmyelinated vs.
  74. >a myelinated axon, by using the cable equations. We know that the
  75. >performance of a network will degrade rapidly when the noise increases 
  76. >and/or when the size decreases. But, without experimental data, we can't
  77. >be sure that our simulated network matches the actual performance of the
  78. >human mind.
  79. >
  80. I'm not crazy enough to think any solid answers would come from the
  81. experiment, but a rough best-guess aproximation would be a starting
  82. point for further work.
  83.  
  84. >> [Crabs and Squid deleted, since I've already had lunch]
  85. >
  86. >>>>>>> The resonable work in question, though, is thought. Just as you
  87. >>>>>>> can't use a 4 bit 16K RAM computer as an effective file server, I
  88. >>>>>>> don't see how you cna use the similarly limited abilities ofthe
  89. >>>>>>> pre-myelinated neural system as a 'thought server'.
  90. >>>
  91. >>>>>>I'm reserving my judgment on the matter for a time when we know
  92. >>>>>>more about all the issues involved.  The hypomyelinated mice
  93. >>>>>>discussed later in the post may be our best window into this issue.
  94. >>>>>>In the meantime, it must be obvious to everyone reading this thread
  95. >>>>>>(all 3 of us :-) that neither of us has any clue about whether
  96. >>>>>>myelin is necessary or not.  I think that there is at least a fair
  97. >>>>>>amount of information on the biological side that suggests that
  98. >>>>>>myelin is not as central as some claim.  On the other hand, your
  99. >>>>>>arguments about the presumed complexity of the network are
  100. >>>>>>certainly thought-provoking (there's that smell again...myelin
  101. >>>>>>burning or something).
  102. >>>
  103. >>>Yes. The major problem that we have in modelling brain processes is
  104. >>>the complexity of the whole thing. I mean, our supercomputers have
  105. >>>problems with 2-3000 neuron models. Massively parallel systems
  106. >>>reach the 16-32000 neuron level. How much of the brain is actually
  107. >>>dedicated to thought? Maybe what, 10^10 neurons?
  108. >>>
  109. >> I recall reading we'd need a computer the size of (something like)
  110. >> Manhatten to approximate the brain. Does that sound like a resonable
  111. >> size?
  112. >
  113. >Well, I just did some quick calculations, and came up with over three
  114. >hundred million of the new Thinking Machines CM-5 (I think that's the
  115. >model.) Stacked three high, that's a solid block about three miles long
  116. >on each side. But then you need power supplies, cooling systems, and lots
  117. >of cabling.
  118. >
  119. >I suspect (in fact I'm sure) that this model is a bit overkill. Sounds
  120. >impressive, but really overly useful. A whole SPARC processor for each
  121. >neuron? Phooey. In practice, I think that Intel(?) has a prototype
  122. >neural network chip that simulates about 400 connected neurons in parallel.
  123. >Assuming liberal space requirements for each chip, that's only a block
  124. >7/10 of a mile on each side, and twenty feet high. Of course, there are 
  125. >a few minor implementation problems to be worked out...
  126. >
  127. Just a few.... In any case, we're still talking huge, giant,
  128. not-exactly-a-laptop cases here...
  129. Seems like these systems could do some fairly accurate modeling for
  130. us. I wonder if the pro-life side would be willing to cough up the
  131. bucks needed to build one and do some testing?
  132.  
  133. --
  134.                   Mark Cochran          merlin@eddie.ee.vt.edu
  135. These are the views of my employer, your employer, your government, the
  136. Church of your choice, and the Ghost of Elvis. So there.
  137. Member, T.S.A.K.C.
  138.