home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #31 / NN_1992_31.iso / spool / sci / math / 17357 < prev    next >
Encoding:
Internet Message Format  |  1992-12-23  |  2.0 KB

  1. Path: sparky!uunet!usc!usc!not-for-mail
  2. From: haddadi@sipi.usc.edu (Navid Haddadi)
  3. Newsgroups: sci.math
  4. Subject: Re: Lagrange successor rule (Law of succession)
  5. Date: 23 Dec 1992 05:24:45 -0800
  6. Organization: University of Southern California, Los Angeles, CA
  7. Lines: 30
  8. Sender: haddadi@sipi.usc.edu
  9. Message-ID: <1h9patINN4rm@sipi.usc.edu>
  10. References: <3207@devnull.mpd.tandem.com>
  11. NNTP-Posting-Host: sipi.usc.edu
  12.  
  13. In article <3207@devnull.mpd.tandem.com> garyb@anasazi.UUCP (Gary Bjerke) writes:
  14. >
  15. >I was thumbing through an old statistics textbook when I came across the 
  16. >Lagrange successor rule. The example given was that of a collection of coins
  17. >for which the probability of flipping a head is uniformly distributed over
  18. >the set of values {1/N, 2/N, ..., N/N} for N some arbitrary integer. The rule
  19. >states that the probability of getting a head on the (n+1)th flip given that
  20. >the first n flips were heads, is n/(n+1).
  21. >...
  22. >I followed the proof, but I have absolutely no intuition for this result at
  23. >all. I even fail to see how it applies to the rising of the sun (in what sense
  24. >does the unconditional probability of its rising meet the uniform-distribution
  25. >requirements?) Can somebody help me get a gut feel for what this result means?
  26.  
  27. I'm not sure what you are asking, but here is more explanation.
  28. Let p be the probability of head when tossing a coin.
  29. What is p?
  30. Well, if for example p=1/2 then p=1/2 regardless of how many times
  31. we flip a coin and how many times we observe heads or tails. But
  32. lets say p is not deterministic. Then we can "guess" the value of
  33. p based on our observations. In fact, we can treat p as a random variable.
  34. If we make n observations A={hhttthhhh....} and see k heads in the
  35. sequence, what can be said about value of p?  How about taking the
  36. best "guess" to be E(p|A)? (where E is the expectation)
  37. This value turns out to be (k+1)/(n+2) under appropriate assumtions
  38. (see the proof!)
  39. More explanation can be found in most probability books
  40. e.g. Papoulis, "Probability, Random Variables, and Stochastic Processes,"84,65.
  41.  
  42. Navid
  43.