home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / comp / ai / neuraln / 4335 < prev    next >
Encoding:
Internet Message Format  |  1992-11-20  |  1.4 KB

  1. Path: sparky!uunet!dtix!darwin.sura.net!zaphod.mps.ohio-state.edu!sol.ctr.columbia.edu!news.columbia.edu!cunixb.cc.columbia.edu!rs69
  2. From: rs69@cunixb.cc.columbia.edu (Rong Shen)
  3. Newsgroups: comp.ai.neural-nets
  4. Subject: How to train a lifeless network (of "silicon atoms")?
  5. Message-ID: <1992Nov21.002654.13198@news.columbia.edu>
  6. Date: 21 Nov 92 00:26:54 GMT
  7. Sender: usenet@news.columbia.edu (The Network News)
  8. Organization: Columbia University
  9. Lines: 23
  10. Nntp-Posting-Host: cunixb.cc.columbia.edu
  11.  
  12. Your Highness:
  13.  
  14.     Please allow me to ask you this childish question:
  15.  
  16.     Suppose you have a neural network and you want to train it to
  17. perform a task; for the moment, let's say the task is to recognize
  18. handwriting. Now suppose the network has recognized the word "hello,"
  19. and the weight in the synapse between neurodes (neurons) X and Y is k.
  20. If you proceed to train the network to recognize the word "goodbye"
  21. (by back propagation, or whatever algorithms), and since all the
  22. neurodes are connected in some way (through some interneurons, maybe),
  23. the synaptic weight between X and Y is likely to change from k to some
  24. other number; similarly, the weights in other synapses will change.
  25. Therefore, it is extremely likely that one training session will erase
  26. the efforts of previous sessions.
  27.  
  28.     My question is, What engineering tricks shall we use to
  29. overcome this apparent difficulty?
  30.  
  31.     Thanks.
  32.  
  33. --
  34. rs69@cunixb.cc.columbia.edu
  35.