home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / sci / math / 18717 < prev    next >
Encoding:
Text File  |  1993-01-25  |  3.2 KB  |  70 lines

  1. Newsgroups: sci.math
  2. Path: sparky!uunet!enterpoop.mit.edu!galois!riesz!jbaez
  3. From: jbaez@riesz.mit.edu (John C. Baez)
  4. Subject: Re: Can Anyone Solve this?????
  5. Message-ID: <1993Jan24.234937.12223@galois.mit.edu>
  6. Sender: news@galois.mit.edu
  7. Nntp-Posting-Host: riesz
  8. Organization: MIT Department of Mathematics, Cambridge, MA
  9. References: <1993Jan23.210732.19327@magnus.acs.ohio-state.edu>
  10. Date: Sun, 24 Jan 93 23:49:37 GMT
  11. Lines: 57
  12.  
  13. In article <1993Jan23.210732.19327@magnus.acs.ohio-state.edu> mfreiman@magnus.acs.ohio-state.edu (Mark R Freiman) writes:
  14. >             If W={f such that f"-2f'+f=0}
  15. >               What is the dimension? and what is a Basis?
  16. >I know the answer for the dimension is 2, and a basis is
  17. >              e  and    xe
  18. >             but how would one go about obtaining these answers?
  19. The point is to show that any other solution to your differential
  20. equation is a linear combination of the two you give.  There are various
  21. ways to do this.  One way would be to prove that any solution of a
  22. second-order differential equation like f''(x) + p(x)f'(x) + q(x)f(x) =
  23. 0, where p and q are smooth functions (for example), is determined by
  24. f(0) and f'(0).  (A related way is to show that two solutions of this
  25. equation, say f and g, are linearly independent if and only if the
  26. Wronskian fg' - gf' is zero everywhere.)  Here's one way that
  27. generalizes to differential equations of higher order.  First rewrite
  28. the differential equation as two first-order linear differential
  29. equations for f and f'... which we will instead call f_1 and f_2, justto
  30. be confusing.  We get
  31.  
  32.                 f_1' = f_2
  33.                 f_2' = -pf_2 - qf_1
  34.  
  35. or if we write F for the vector (f_1,f_2) and A for the (x-dependent)
  36. matrix
  37.  
  38.                 0   1
  39.                -q   -p
  40.  
  41. we can write the two first-order differential equations as *one*
  42. first-order vector-valued differential equation, namely just
  43.  
  44.                F' = AF.
  45.  
  46. Simpler, huh?  Now "solve" it by integrating...
  47.  
  48. F(x) = F(0) + int_0^x A(t) F(t) dt.
  49.  
  50. This "solution" is true but not really a solution, since F(t) appears in
  51. the integral.  However, we can repeatedly substitute this equation in
  52. itself (e.g., for the first iteration, use the equation to express F(t)
  53. as F(0) + int_0^t  A(s) F(s) ds).  Repeating this forever, we get an
  54. infinite sum, and I leave it to you to write this sum down and check
  55. that it converges and actually gives the answer... that is, an
  56. expression for F(x) in terms of A and F(0).  Thus the solution is really
  57. determined by its initial data f(0) and f'(0).  
  58.  
  59. My argument really can be made into a 100% precise proof of the
  60. existence and uniqueness of solutions of such a differential equation
  61. with given initial data.  And, better yet, the technique is enormously
  62. general and applies to give existence and uniqueness results for
  63. nonlinear ordinary differential equations and even nonlinear partial
  64. differential equations.  In its full-fledged glory, it's called the
  65. method of nonlinear semigroups and is due to Irving Segal - but you are
  66. more likely to find it in basic differential equations books under the
  67. name of Picard's theorem on local existence and uniqueness.  In such
  68. books, it's only done for first-order equations, but the trick I
  69. described allows one to solve n-th order equations too.
  70.