home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / sci / lang / 8045 < prev    next >
Encoding:
Internet Message Format  |  1992-11-16  |  2.7 KB

  1. Xref: sparky sci.lang:8045 sci.philosophy.tech:4113 sci.cognitive:639
  2. Newsgroups: sci.lang,sci.philosophy.tech,sci.cognitive
  3. Path: sparky!uunet!mcsun!Germany.EU.net!news.netmbx.de!mailgzrz.TU-Berlin.DE!math.fu-berlin.de!Sirius.dfn.de!chx400!univ-lyon1.fr!ghost.dsi.unimi.it!batcomputer!rpi!usc!zaphod.mps.ohio-state.edu!pacific.mps.ohio-state.edu!linac!mp.cs.niu.edu!uxa.ecn.bgu.edu!news.ils.nwu.edu!pautler
  4. From: pautler@ils.nwu.edu (David Pautler)
  5. Subject: Re: Theories of meaning
  6. Message-ID: <1992Nov16.162453.29937@ils.nwu.edu>
  7. Sender: usenet@ils.nwu.edu (Mr. usenet)
  8. Nntp-Posting-Host: aristotle.ils.nwu.edu
  9. Organization: The Institute for the Learning Sciences
  10. Date: Mon, 16 Nov 1992 16:24:53 GMT
  11. Lines: 39
  12.  
  13. In article <THO.92Nov16001115@hemuli.tik.vtt.fi>, tho@tik.vtt.fi (Timo Honkela) writes:
  14.  
  15. > Connectionistic models with unsupervised learning capabilities
  16. > seem to be formalisms or even grounding blocks for "theories of
  17. > how the signifier is linked to the signified." Professor Teuvo
  18. > Kohonen has written: "In attempting to devise Neural Network
  19. > models for linguistic representations, the first difficulty
  20. > is encountered when trying to find metric distance relations
  21. > between symbolic items. [...] it cannot be assumed that encodings
  22. > of symbols in general have any relationship with the observable
  23. > characteristics of the corresponding items. How could it then
  24. > be possible to represent the 'logical similarity' of pairs
  25. > of items [...]? The answer lies in the fact that *the symbol,
  26. > during the learning process, is presented in context*."
  27. > (The Self-Organizing Map, Proceedings of the IEEE, vol. 78, no 9,
  28. > September 1990)
  29.  
  30. "Metric distance relations between symbolic items"?  Is that an associationist
  31. take on dereferencing?  And if symbol-encodings have nothing necessarily
  32. to do with with the corresponding item, what led to the encoding in the first
  33. place?  Also, can you imagine any instance of learning that does not occur
  34. within *some* context?
  35.  
  36. > The context may consist of words, symbolic features, continuous
  37. > features or even pictorial images. The virtue of unsupervised
  38. > learning (e.g. the self-organizing map) lies in the fact
  39. > that there is no need for any "correct answers" which is the
  40. > case with most of the connectionist models.
  41.  
  42. It seems to me that "unsupervised learning" here means: the desired output
  43. was achieved, but we deliberately ignored looking to see if the learning
  44. sequence itself was psychologically plausible.  So, if symbolist models
  45. require an infinite sequence of dereferencing operations before we can
  46. reach the signified from the initial signifier, an associationist solution
  47. is to turn one's back during "dereferencing" and then insist that the output
  48. is the real signified, rather than just another signifier?
  49.  
  50.     -dp-
  51.  
  52.