home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / comp / ai / fuzzy / 134 < prev    next >
Encoding:
Text File  |  1993-01-21  |  1.1 KB  |  33 lines

  1. Newsgroups: comp.ai.fuzzy
  2. Path: sparky!uunet!world!tob
  3. From: tob@world.std.com (Tom O Breton)
  4. Subject: Re: Fuzzy logic and probability: entropy
  5. Message-ID: <C188LM.B9r@world.std.com>
  6. Organization: The World Public Access UNIX, Brookline, MA
  7. References: <gebhardt-210193081528@129.26.128.171>
  8. Date: Thu, 21 Jan 1993 23:15:21 GMT
  9. Lines: 22
  10.  
  11. Friedrich:
  12.  
  13. > Kosko argues somehow like this (I know I exaggerate):
  14. >
  15. > 1. There is something in probability theory called entropy.
  16. > 2. There is something in fuzzy set theory called entropy which
  17. > 2.1 has certain similarity to the probabilistic entropy,
  18. > 2.2 can be derived immediately from first principles of max-min.
  19. > 3. Therefore fuzzy set theory starts where Western logic ends.
  20.  
  21. I had never heard that before. Would you care to describe this "fuzzy
  22. entropy" in a bit more detail?
  23.  
  24. Entropy as related to probability and thermodynamics is inversely
  25. proportionate to the information in the system. How is it generalized or
  26. extended to fuzzy logic?
  27.  
  28.             Tom
  29.  
  30. -- 
  31. The Tom spreads its huge, scaly wings and soars into the wild sky...      
  32. (tob@world.std.com)
  33.