home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / comp / ai / neuraln / 4951 < prev    next >
Encoding:
Text File  |  1993-01-22  |  3.9 KB  |  86 lines

  1. Newsgroups: comp.ai.neural-nets
  2. Path: sparky!uunet!usc!news.aero.org!speedy.aero.org!news
  3. From: jrg@punch (James R. Goble)
  4. Subject: Re: Need help on Neural-network learning
  5. Message-ID: <1993Jan22.171308.8391@speedy.aero.org>
  6. Sender: news@speedy.aero.org
  7. Nntp-Posting-Host: punch.aero.org
  8. Organization: The Aerospace Corporation; El Segundo, CA
  9. References: <qq6qXB7w164w@cellar.org>
  10. Date: Fri, 22 Jan 1993 17:13:08 GMT
  11. Lines: 73
  12.  
  13. In article <qq6qXB7w164w@cellar.org> tsa@cellar.org (The Silent Assassin)  
  14. writes:
  15. > I only recently got interested in neural networks.  I believe I  
  16. understand
  17. > how they work, but I have some questions:
  18. > How many hidden layers do most neural networks have?  Does the typical  
  19. NN
  20. > have an input layer, a hidden layer, and an output layer, or several  
  21. hidden
  22. > layers?
  23. > How do NN's learn?  Other than randomly changing weights, how do they
  24. > "back-propagate" or whatever?
  25. > I finally discovered, at the age of 21, what all of my friends had found  
  26. out
  27. > at 12 or 13-that your parents are just as fucked-up and wierd as  
  28. everyone
  29. > else.  Politically Correct:  Socially, Politcally, and Environmentally
  30. > concious to the point of nausea.   
  31. tsa%cellar@tredysvr.tredydev.unisys.com
  32.  
  33. Let me try to answer some of your questions.
  34.  
  35. 1.  There is no standard number of hidden layers for a neural net because  
  36. there is no standard neural net.  
  37.  
  38. Backpropagation nets, in their most basic form have one input layer, one  
  39. hidden layer, and one output layer.  Some people feel that additional  
  40. hidden layers will speed up learning and allow the modeling of more  
  41. complex systems.  I haven't found any noticable speed enhancement by using  
  42. more hidden layers.  The extra update time seems to negate any decrease in  
  43. training iterations.  Backprop nets are trained with known data.  You know  
  44. which output should be chosen for a given input.  For example I want  
  45. output node 3 to be a 1 and all other nodes to be a 0 when I input a  
  46. vector from a given set of data.  During training, everytime I input one  
  47. of those vectors an error signal is generated which attempts to force the  
  48. desired output by updating the weights.  The same conditioning occurs for  
  49. all other sets of data from the other classes.  If my net trains properly,  
  50. (I haven't gotten stuck in a local minimum) I will have a good  
  51. representation of the types of data I want to classify stored in my  
  52. weights. 
  53.  
  54. Self-Organizing nets (Blessed be Saint Tevo) may not have any hidden  
  55. layers, though I have seen some that did (hybrids like counterprop nets).   
  56. These nets essentially learn by pushing the outputs in the direction of  
  57. the data.  If you have data from 4 different events, you should see four  
  58. distinct clumps of nodes at the output.  This is an extremely powerful  
  59. tool.  It allows you to use a binary machine (a computer) to derive a  
  60. human-like closest guess answer.
  61.  
  62. I know this is a rudimentary explanation and doesn't completely answer  
  63. your questions.  Neural nets are like that.  The exciting part is that  
  64. there are so many unanswered question.  So many fields, like  
  65. electromagnetics, are entrenched.  Most of the good questions have been  
  66. answered.  NN are new.  You can make a difference.  Look at what Grossberg  
  67. has done in the last twenty years.  Besides offending most of his peers  
  68. with his incredible ego, he has forged a new and exciting field from the  
  69. ashes of perceptrons.  Tevo Kohonen, well he's just a god of NN.
  70.  
  71. A suggestion for a good, interesting book on NN is "An Introduction to  
  72. Biological Artificial Neural Networks" by Kabrisky and Rogers.  This is  
  73. possibly the best written book in the field, from the perspective that  
  74. normal human can understand what the hell they're talking about.  It also  
  75. has some great software at the called Neural Graphics.  This program was  
  76. written by Dr. Greg Tarr and is available at edu.afit.blackbird.ftp.  
  77.  
  78. Hope this is of some value to you!
  79.  
  80. Later,
  81. Jim Goble
  82. Los Angeles
  83.