home *** CD-ROM | disk | FTP | other *** search
/ Chip 2000 May / Chip_2000-05_cd1.bin / zkuste / Perl / ActivePerl-5.6.0.613.msi / 䆊䌷䈹䈙䏵-䞅䞆䞀㡆䞃䄦䠥 / _17f3f51f0068b7603fc9d7c534c7c475 < prev    next >
Text File  |  2000-03-23  |  59KB  |  1,338 lines

  1.  
  2. <HTML>
  3. <HEAD>
  4. <TITLE>Math::MatrixReal - Matrix of Reals</TITLE>
  5. <LINK REL="stylesheet" HREF="../../../Active.css" TYPE="text/css">
  6. <LINK REV="made" HREF="mailto:">
  7. </HEAD>
  8.  
  9. <BODY>
  10. <TABLE BORDER=0 CELLPADDING=0 CELLSPACING=0 WIDTH=100%>
  11. <TR><TD CLASS=block VALIGN=MIDDLE WIDTH=100% BGCOLOR="#cccccc">
  12. <STRONG><P CLASS=block> Math::MatrixReal - Matrix of Reals</P></STRONG>
  13. </TD></TR>
  14. </TABLE>
  15.  
  16. <A NAME="__index__"></A>
  17. <!-- INDEX BEGIN -->
  18.  
  19. <UL>
  20.  
  21.     <LI><A HREF="#name">NAME</A></LI><LI><A HREF="#supportedplatforms">SUPPORTED PLATFORMS</A></LI>
  22.  
  23.     <LI><A HREF="#description">DESCRIPTION</A></LI>
  24.     <LI><A HREF="#synopsis">SYNOPSIS</A></LI>
  25.     <UL>
  26.  
  27.         <LI><A HREF="#eigensystems">Eigensystems</A></LI>
  28.     </UL>
  29.  
  30.     <LI><A HREF="#overloaded operators">OVERLOADED OPERATORS</A></LI>
  31.     <UL>
  32.  
  33.         <LI><A HREF="#synopsis">SYNOPSIS</A></LI>
  34.         <LI><A HREF="#description">DESCRIPTION</A></LI>
  35.     </UL>
  36.  
  37.     <LI><A HREF="#see also">SEE ALSO</A></LI>
  38.     <LI><A HREF="#version">VERSION</A></LI>
  39.     <LI><A HREF="#authors">AUTHORS</A></LI>
  40.     <LI><A HREF="#credits">CREDITS</A></LI>
  41.     <LI><A HREF="#copyright">COPYRIGHT</A></LI>
  42.     <LI><A HREF="#license agreement">LICENSE AGREEMENT</A></LI>
  43. </UL>
  44. <!-- INDEX END -->
  45.  
  46. <HR>
  47. <P>
  48. <H1><A NAME="name">NAME</A></H1>
  49. <P>Math::MatrixReal - Matrix of Reals</P>
  50. <P>Implements the data type ``matrix of reals'' (and consequently also
  51. ``vector of reals'')</P>
  52. <P>
  53. <HR>
  54. <H1><A NAME="supportedplatforms">SUPPORTED PLATFORMS</A></H1>
  55. <UL>
  56. <LI>Linux</LI>
  57. <LI>Solaris</LI>
  58. <LI>Windows</LI>
  59. </UL>
  60. <HR>
  61. <H1><A NAME="description">DESCRIPTION</A></H1>
  62. <P>Implements the data type ``matrix of reals'', which can be used almost
  63. like any other basic Perl type thanks to <STRONG>OPERATOR OVERLOADING</STRONG>, i.e.,</P>
  64. <PRE>
  65.   $product = $matrix1 * $matrix2;</PRE>
  66. <P>does what you would like it to do (a matrix multiplication).</P>
  67. <P>Also features many important operations and methods: matrix norm,
  68. matrix transposition, matrix inverse, determinant of a matrix, order
  69. and numerical condition of a matrix, scalar product of vectors, vector
  70. product of vectors, vector length, projection of row and column vectors,
  71. a comfortable way for reading in a matrix from a file, the keyboard or
  72. your code, and many more.</P>
  73. <P>Allows to solve linear equation systems using an efficient algorithm
  74. known as ``L-R-decomposition'' and several approximative (iterative) methods.</P>
  75. <P>Features an implementation of Kleene's algorithm to compute the minimal
  76. costs for all paths in a graph with weighted edges (the ``weights'' being
  77. the costs associated with each edge).</P>
  78. <P>
  79. <HR>
  80. <H1><A NAME="synopsis">SYNOPSIS</A></H1>
  81. <UL>
  82. <LI>
  83. <CODE>use Math::MatrixReal;</CODE>
  84. <P>Makes the methods and overloaded operators of this module available
  85. to your program.</P>
  86. <P></P>
  87. <LI>
  88. <A HREF="../../../lib/Pod/perlfunc.html#item_qw"><CODE>use Math::MatrixReal qw(min max);</CODE></A>
  89. <P></P>
  90. <LI>
  91. <A HREF="../../../lib/Pod/perlfunc.html#item_qw"><CODE>use Math::MatrixReal qw(:all);</CODE></A>
  92. <P>Use one of these two variants to import (all) the functions which the module
  93. offers for export; currently these are ``min()'' and ``max()''.</P>
  94. <P></P>
  95. <LI>
  96. <CODE>$new_matrix = new Math::MatrixReal($rows,$columns);</CODE>
  97. <P>The matrix object constructor method.</P>
  98. <P>Note that this method is implicitly called by many of the other methods
  99. in this module!</P>
  100. <P></P>
  101. <LI>
  102. <CODE>$new_matrix = Math::MatrixReal-></CODE><CODE>new($rows,$columns);</CODE>
  103. <P>An alternate way of calling the matrix object constructor method.</P>
  104. <P></P>
  105. <LI>
  106. <CODE>$new_matrix = $some_matrix-></CODE><CODE>new($rows,$columns);</CODE>
  107. <P>Still another way of calling the matrix object constructor method.</P>
  108. <P>Matrix ``<CODE>$some_matrix</CODE>'' is not changed by this in any way.</P>
  109. <P></P>
  110. <LI>
  111. <CODE>$new_matrix = Math::MatrixReal-></CODE><CODE>new_from_string($string);</CODE>
  112. <P>This method allows you to read in a matrix from a string (for
  113. instance, from the keyboard, from a file or from your code).</P>
  114. <P>The syntax is simple: each row must start with ``<CODE>[ </CODE>'' and end with
  115. ``<CODE> ]\n</CODE>'' (``<CODE>\n</CODE>'' being the newline character and ``<CODE> </CODE>'' a space or
  116. tab) and contain one or more numbers, all separated from each other
  117. by spaces or tabs.</P>
  118. <P>Additional spaces or tabs can be added at will, but no comments.</P>
  119. <P>Examples:</P>
  120. <PRE>
  121.   $string = "[ 1 2 3 ]\n[ 2 2 -1 ]\n[ 1 1 1 ]\n";
  122.   $matrix = Math::MatrixReal->new_from_string($string);
  123.   print "$matrix";</PRE>
  124. <P>By the way, this prints</P>
  125. <PRE>
  126.   [  1.000000000000E+00  2.000000000000E+00  3.000000000000E+00 ]
  127.   [  2.000000000000E+00  2.000000000000E+00 -1.000000000000E+00 ]
  128.   [  1.000000000000E+00  1.000000000000E+00  1.000000000000E+00 ]</PRE>
  129. <P>But you can also do this in a much more comfortable way using the
  130. shell-like ``here-document'' syntax:</P>
  131. <PRE>
  132.   $matrix = Math::MatrixReal->new_from_string(<<'MATRIX');
  133.   [  1  0  0  0  0  0  1  ]
  134.   [  0  1  0  0  0  0  0  ]
  135.   [  0  0  1  0  0  0  0  ]
  136.   [  0  0  0  1  0  0  0  ]
  137.   [  0  0  0  0  1  0  0  ]
  138.   [  0  0  0  0  0  1  0  ]
  139.   [  1  0  0  0  0  0 -1  ]
  140.   MATRIX</PRE>
  141. <P>You can even use variables in the matrix:</P>
  142. <PRE>
  143.   $c1 =   2  /  3;
  144.   $c2 =  -2  /  5;
  145.   $c3 =  26  /  9;</PRE>
  146. <PRE>
  147.   $matrix = Math::MatrixReal->new_from_string(<<"MATRIX");</PRE>
  148. <PRE>
  149.       [   3    2    0   ]
  150.       [   0    3    2   ]
  151.       [  $c1  $c2  $c3  ]</PRE>
  152. <PRE>
  153.   MATRIX</PRE>
  154. <P>(Remember that you may use spaces and tabs to format the matrix to
  155. your taste)</P>
  156. <P>Note that this method uses exactly the same representation for a
  157. matrix as the ``stringify'' operator ``'': this means that you can convert
  158. any matrix into a string with <CODE>$string = "$matrix";</CODE> and read it back
  159. in later (for instance from a file!).</P>
  160. <P>Note however that you may suffer a precision loss in this process
  161. because only 13 digits are supported in the mantissa when printed!!</P>
  162. <P>If the string you supply (or someone else supplies) does not obey
  163. the syntax mentioned above, an exception is raised, which can be
  164. caught by ``eval'' as follows:</P>
  165. <PRE>
  166.   print "Please enter your matrix (in one line): ";
  167.   $string = <STDIN>;
  168.   $string =~ s/\\n/\n/g;
  169.   eval { $matrix = Math::MatrixReal->new_from_string($string); };
  170.   if ($@)
  171.   {
  172.       print "$@";
  173.       # ...
  174.       # (error handling)
  175.   }
  176.   else
  177.   {
  178.       # continue...
  179.   }</PRE>
  180. <P>or as follows:</P>
  181. <PRE>
  182.   eval { $matrix = Math::MatrixReal->new_from_string(<<"MATRIX"); };
  183.   [   3    2    0   ]
  184.   [   0    3    2   ]
  185.   [  $c1  $c2  $c3  ]
  186.   MATRIX
  187.   if ($@)
  188.   # ...</PRE>
  189. <P>Actually, the method shown above for reading a matrix from the keyboard
  190. is a little awkward, since you have to enter a lot of ``\n'''s for the
  191. newlines.</P>
  192. <P>A better way is shown in this piece of code:</P>
  193. <PRE>
  194.   while (1)
  195.   {
  196.       print "\nPlease enter your matrix ";
  197.       print "(multiple lines, <ctrl-D> = done):\n";
  198.       eval { $new_matrix =
  199.           Math::MatrixReal->new_from_string(join('',<STDIN>)); };
  200.       if ($@)
  201.       {
  202.           $@ =~ s/\s+at\b.*?$//;
  203.           print "${@}Please try again.\n";
  204.       }
  205.       else { last; }
  206.   }</PRE>
  207. <P>Possible error messages of the ``new_from_string()'' method are:</P>
  208. <PRE>
  209.   Math::MatrixReal::new_from_string(): syntax error in input string
  210.   Math::MatrixReal::new_from_string(): empty input string</PRE>
  211. <P>If the input string has rows with varying numbers of columns,
  212. the following warning will be printed to STDERR:</P>
  213. <PRE>
  214.   Math::MatrixReal::new_from_string(): missing elements will be set to zero!</PRE>
  215. <P>If everything is okay, the method returns an object reference to the
  216. (newly allocated) matrix containing the elements you specified.</P>
  217. <P></P>
  218. <LI>
  219. <CODE>$new_matrix = $some_matrix->shadow();</CODE>
  220. <P>Returns an object reference to a <STRONG>NEW</STRONG> but <STRONG>EMPTY</STRONG> matrix
  221. (filled with zero's) of the <STRONG>SAME SIZE</STRONG> as matrix ``<CODE>$some_matrix</CODE>''.</P>
  222. <P>Matrix ``<CODE>$some_matrix</CODE>'' is not changed by this in any way.</P>
  223. <P></P>
  224. <LI>
  225. <CODE>$matrix1->copy($matrix2);</CODE>
  226. <P>Copies the contents of matrix ``<CODE>$matrix2</CODE>'' to an <STRONG>ALREADY EXISTING</STRONG>
  227. matrix ``<CODE>$matrix1</CODE>'' (which must have the same size as matrix ``<CODE>$matrix2</CODE>''!).</P>
  228. <P>Matrix ``<CODE>$matrix2</CODE>'' is not changed by this in any way.</P>
  229. <P></P>
  230. <LI>
  231. <CODE>$twin_matrix = $some_matrix->clone();</CODE>
  232. <P>Returns an object reference to a <STRONG>NEW</STRONG> matrix of the <STRONG>SAME SIZE</STRONG> as
  233. matrix ``<CODE>$some_matrix</CODE>''. The contents of matrix ``<CODE>$some_matrix</CODE>'' have
  234. <STRONG>ALREADY BEEN COPIED</STRONG> to the new matrix ``<CODE>$twin_matrix</CODE>''.</P>
  235. <P>Matrix ``<CODE>$some_matrix</CODE>'' is not changed by this in any way.</P>
  236. <P></P>
  237. <LI>
  238. <CODE>$row_vector = $matrix->row($row);</CODE>
  239. <P>This is a projection method which returns an object reference to
  240. a <STRONG>NEW</STRONG> matrix (which in fact is a (row) vector since it has only
  241. one row) to which row number ``<CODE>$row</CODE>'' of matrix ``<CODE>$matrix</CODE>'' has
  242. already been copied.</P>
  243. <P>Matrix ``<CODE>$matrix</CODE>'' is not changed by this in any way.</P>
  244. <P></P>
  245. <LI>
  246. <CODE>$column_vector = $matrix->column($column);</CODE>
  247. <P>This is a projection method which returns an object reference to
  248. a <STRONG>NEW</STRONG> matrix (which in fact is a (column) vector since it has
  249. only one column) to which column number ``<CODE>$column</CODE>'' of matrix
  250. ``<CODE>$matrix</CODE>'' has already been copied.</P>
  251. <P>Matrix ``<CODE>$matrix</CODE>'' is not changed by this in any way.</P>
  252. <P></P>
  253. <LI>
  254. <CODE>$matrix->zero();</CODE>
  255. <P>Assigns a zero to every element of the matrix ``<CODE>$matrix</CODE>'', i.e.,
  256. erases all values previously stored there, thereby effectively
  257. transforming the matrix into a ``zero''-matrix or ``null''-matrix,
  258. the neutral element of the addition operation in a Ring.</P>
  259. <P>(For instance the (quadratic) matrices with ``n'' rows and columns
  260. and matrix addition and multiplication form a Ring. Most prominent
  261. characteristic of a Ring is that multiplication is not commutative,
  262. i.e., in general, ``<CODE>matrix1 * matrix2</CODE>'' is not the same as
  263. ``<CODE>matrix2 * matrix1</CODE>''!)</P>
  264. <P></P>
  265. <LI>
  266. <CODE>$matrix->one();</CODE>
  267. <P>Assigns one's to the elements on the main diagonal (elements (1,1),
  268. (2,2), (3,3) and so on) of matrix ``<CODE>$matrix</CODE>'' and zero's to all others,
  269. thereby erasing all values previously stored there and transforming the
  270. matrix into a ``one''-matrix, the neutral element of the multiplication
  271. operation in a Ring.</P>
  272. <P>(If the matrix is quadratic (which this method doesn't require, though),
  273. then multiplying this matrix with itself yields this same matrix again,
  274. and multiplying it with some other matrix leaves that other matrix
  275. unchanged!)</P>
  276. <P></P>
  277. <LI>
  278. <CODE>$matrix->assign($row,$column,$value);</CODE>
  279. <P>Explicitly assigns a value ``<CODE>$value</CODE>'' to a single element of the
  280. matrix ``<CODE>$matrix</CODE>'', located in row ``<CODE>$row</CODE>'' and column ``<CODE>$column</CODE>'',
  281. thereby replacing the value previously stored there.</P>
  282. <P></P>
  283. <LI>
  284. <CODE>$value = $matrix-></CODE><CODE>element($row,$column);</CODE>
  285. <P>Returns the value of a specific element of the matrix ``<CODE>$matrix</CODE>'',
  286. located in row ``<CODE>$row</CODE>'' and column ``<CODE>$column</CODE>''.</P>
  287. <P></P>
  288. <LI>
  289. <CODE>($rows,$columns) = $matrix->dim();</CODE>
  290. <P>Returns a list of two items, representing the number of rows
  291. and columns the given matrix ``<CODE>$matrix</CODE>'' contains.</P>
  292. <P></P>
  293. <LI>
  294. <CODE>$norm_one = $matrix->norm_one();</CODE>
  295. <P>Returns the ``one''-norm of the given matrix ``<CODE>$matrix</CODE>''.</P>
  296. <P>The ``one''-norm is defined as follows:</P>
  297. <P>For each column, the sum of the absolute values of the elements in the
  298. different rows of that column is calculated. Finally, the maximum
  299. of these sums is returned.</P>
  300. <P>Note that the ``one''-norm and the ``maximum''-norm are mathematically
  301. equivalent, although for the same matrix they usually yield a different
  302. value.</P>
  303. <P>Therefore, you should only compare values that have been calculated
  304. using the same norm!</P>
  305. <P>Throughout this package, the ``one''-norm is (arbitrarily) used
  306. for all comparisons, for the sake of uniformity and comparability,
  307. except for the iterative methods ``solve_GSM()'', ``solve_SSM()'' and
  308. ``solve_RM()'' which use either norm depending on the matrix itself.</P>
  309. <P></P>
  310. <LI>
  311. <CODE>$norm_max = $matrix->norm_max();</CODE>
  312. <P>Returns the ``maximum''-norm of the given matrix ``<CODE>$matrix</CODE>''.</P>
  313. <P>The ``maximum''-norm is defined as follows:</P>
  314. <P>For each row, the sum of the absolute values of the elements in the
  315. different columns of that row is calculated. Finally, the maximum
  316. of these sums is returned.</P>
  317. <P>Note that the ``maximum''-norm and the ``one''-norm are mathematically
  318. equivalent, although for the same matrix they usually yield a different
  319. value.</P>
  320. <P>Therefore, you should only compare values that have been calculated
  321. using the same norm!</P>
  322. <P>Throughout this package, the ``one''-norm is (arbitrarily) used
  323. for all comparisons, for the sake of uniformity and comparability,
  324. except for the iterative methods ``solve_GSM()'', ``solve_SSM()'' and
  325. ``solve_RM()'' which use either norm depending on the matrix itself.</P>
  326. <P></P>
  327. <LI>
  328. <CODE>$matrix1->negate($matrix2);</CODE>
  329. <P>Calculates the negative of matrix ``<CODE>$matrix2</CODE>'' (i.e., multiplies
  330. all elements with ``-1'') and stores the result in matrix ``<CODE>$matrix1</CODE>''
  331. (which must already exist and have the same size as matrix ``<CODE>$matrix2</CODE>''!).</P>
  332. <P>This operation can also be carried out ``in-place'', i.e., input and
  333. output matrix may be identical.</P>
  334. <P></P>
  335. <LI>
  336. <CODE>$matrix1->transpose($matrix2);</CODE>
  337. <P>Calculates the transposed matrix of matrix ``<CODE>$matrix2</CODE>'' and stores
  338. the result in matrix ``<CODE>$matrix1</CODE>'' (which must already exist and have
  339. the same size as matrix ``<CODE>$matrix2</CODE>''!).</P>
  340. <P>This operation can also be carried out ``in-place'', i.e., input and
  341. output matrix may be identical.</P>
  342. <P>Transposition is a symmetry operation: imagine you rotate the matrix
  343. along the axis of its main diagonal (going through elements (1,1),
  344. (2,2), (3,3) and so on) by 180 degrees.</P>
  345. <P>Another way of looking at it is to say that rows and columns are
  346. swapped. In fact the contents of element <CODE>(i,j)</CODE> are swapped
  347. with those of element <CODE>(j,i)</CODE>.</P>
  348. <P>Note that (especially for vectors) it makes a big difference if you
  349. have a row vector, like this:</P>
  350. <PRE>
  351.   [ -1 0 1 ]</PRE>
  352. <P>or a column vector, like this:</P>
  353. <PRE>
  354.   [ -1 ]
  355.   [  0 ]
  356.   [  1 ]</PRE>
  357. <P>the one vector being the transposed of the other!</P>
  358. <P>This is especially true for the matrix product of two vectors:</P>
  359. <PRE>
  360.                [ -1 ]
  361.   [ -1 0 1 ] * [  0 ]  =  [ 2 ] ,  whereas
  362.                [  1 ]</PRE>
  363. <PRE>
  364.                              *     [ -1  0  1 ]
  365.   [ -1 ]                                            [  1  0 -1 ]
  366.   [  0 ] * [ -1 0 1 ]  =  [ -1 ]   [  1  0 -1 ]  =  [  0  0  0 ]
  367.   [  1 ]                  [  0 ]   [  0  0  0 ]     [ -1  0  1 ]
  368.                           [  1 ]   [ -1  0  1 ]</PRE>
  369. <P>So be careful about what you really mean!</P>
  370. <P>Hint: throughout this module, whenever a vector is explicitly required
  371. for input, a <STRONG>COLUMN</STRONG> vector is expected!</P>
  372. <P></P>
  373. <LI>
  374. <CODE>$matrix1->add($matrix2,$matrix3);</CODE>
  375. <P>Calculates the sum of matrix ``<CODE>$matrix2</CODE>'' and matrix ``<CODE>$matrix3</CODE>''
  376. and stores the result in matrix ``<CODE>$matrix1</CODE>'' (which must already exist
  377. and have the same size as matrix ``<CODE>$matrix2</CODE>'' and matrix ``<CODE>$matrix3</CODE>''!).</P>
  378. <P>This operation can also be carried out ``in-place'', i.e., the output and
  379. one (or both) of the input matrices may be identical.</P>
  380. <P></P>
  381. <LI>
  382. <CODE>$matrix1->subtract($matrix2,$matrix3);</CODE>
  383. <P>Calculates the difference of matrix ``<CODE>$matrix2</CODE>'' minus matrix ``<CODE>$matrix3</CODE>''
  384. and stores the result in matrix ``<CODE>$matrix1</CODE>'' (which must already exist
  385. and have the same size as matrix ``<CODE>$matrix2</CODE>'' and matrix ``<CODE>$matrix3</CODE>''!).</P>
  386. <P>This operation can also be carried out ``in-place'', i.e., the output and
  387. one (or both) of the input matrices may be identical.</P>
  388. <P>Note that this operation is the same as
  389. <CODE>$matrix1->add($matrix2,-$matrix3);</CODE>, although the latter is
  390. a little less efficient.</P>
  391. <P></P>
  392. <LI>
  393. <CODE>$matrix1->multiply_scalar($matrix2,$scalar);</CODE>
  394. <P>Calculates the product of matrix ``<CODE>$matrix2</CODE>'' and the number ``<CODE>$scalar</CODE>''
  395. (i.e., multiplies each element of matrix ``<CODE>$matrix2</CODE>'' with the factor
  396. ``<CODE>$scalar</CODE>'') and stores the result in matrix ``<CODE>$matrix1</CODE>'' (which must
  397. already exist and have the same size as matrix ``<CODE>$matrix2</CODE>''!).</P>
  398. <P>This operation can also be carried out ``in-place'', i.e., input and
  399. output matrix may be identical.</P>
  400. <P></P>
  401. <LI>
  402. <CODE>$product_matrix = $matrix1->multiply($matrix2);</CODE>
  403. <P>Calculates the product of matrix ``<CODE>$matrix1</CODE>'' and matrix ``<CODE>$matrix2</CODE>''
  404. and returns an object reference to a new matrix ``<CODE>$product_matrix</CODE>'' in
  405. which the result of this operation has been stored.</P>
  406. <P>Note that the dimensions of the two matrices ``<CODE>$matrix1</CODE>'' and ``<CODE>$matrix2</CODE>''
  407. (i.e., their numbers of rows and columns) must harmonize in the following
  408. way (example):</P>
  409. <PRE>
  410.                           [ 2 2 ]
  411.                           [ 2 2 ]
  412.                           [ 2 2 ]</PRE>
  413. <PRE>
  414.               [ 1 1 1 ]   [ * * ]
  415.               [ 1 1 1 ]   [ * * ]
  416.               [ 1 1 1 ]   [ * * ]
  417.               [ 1 1 1 ]   [ * * ]</PRE>
  418. <P>I.e., the number of columns of matrix ``<CODE>$matrix1</CODE>'' has to be the same
  419. as the number of rows of matrix ``<CODE>$matrix2</CODE>''.</P>
  420. <P>The number of rows and columns of the resulting matrix ``<CODE>$product_matrix</CODE>''
  421. is determined by the number of rows of matrix ``<CODE>$matrix1</CODE>'' and the number
  422. of columns of matrix ``<CODE>$matrix2</CODE>'', respectively.</P>
  423. <P></P>
  424. <LI>
  425. <CODE>$minimum = Math::MatrixReal::min($number1,$number2);</CODE>
  426. <P>Returns the minimum of the two numbers ``<CODE>number1</CODE>'' and ``<CODE>number2</CODE>''.</P>
  427. <P></P>
  428. <LI>
  429. <CODE>$minimum = Math::MatrixReal::max($number1,$number2);</CODE>
  430. <P>Returns the maximum of the two numbers ``<CODE>number1</CODE>'' and ``<CODE>number2</CODE>''.</P>
  431. <P></P>
  432. <LI>
  433. <CODE>$minimal_cost_matrix = $cost_matrix->kleene();</CODE>
  434. <P>Copies the matrix ``<CODE>$cost_matrix</CODE>'' (which has to be quadratic!) to
  435. a new matrix of the same size (i.e., ``clones'' the input matrix) and
  436. applies Kleene's algorithm to it.</P>
  437. <P>See <A HREF="../../../Math/Kleene(3).html">the Math::Kleene(3) manpage</A> for more details about this algorithm!</P>
  438. <P>The method returns an object reference to the new matrix.</P>
  439. <P>Matrix ``<CODE>$cost_matrix</CODE>'' is not changed by this method in any way.</P>
  440. <P></P>
  441. <LI>
  442. <CODE>($norm_matrix,$norm_vector) = $matrix->normalize($vector);</CODE>
  443. <P>This method is used to improve the numerical stability when solving
  444. linear equation systems.</P>
  445. <P>Suppose you have a matrix ``A'' and a vector ``b'' and you want to find
  446. out a vector ``x'' so that <CODE>A * x = b</CODE>, i.e., the vector ``x'' which
  447. solves the equation system represented by the matrix ``A'' and the
  448. vector ``b''.</P>
  449. <P>Applying this method to the pair (A,b) yields a pair (A',b') where
  450. each row has been divided by (the absolute value of) the greatest
  451. coefficient appearing in that row. So this coefficient becomes equal
  452. to ``1'' (or ``-1'') in the new pair (A',b') (all others become smaller
  453. than one and greater than minus one).</P>
  454. <P>Note that this operation does not change the equation system itself
  455. because the same division is carried out on either side of the equation
  456. sign!</P>
  457. <P>The method requires a quadratic (!) matrix ``<CODE>$matrix</CODE>'' and a vector
  458. ``<CODE>$vector</CODE>'' for input (the vector must be a column vector with the same
  459. number of rows as the input matrix) and returns a list of two items
  460. which are object references to a new matrix and a new vector, in this
  461. order.</P>
  462. <P>The output matrix and vector are clones of the input matrix and vector
  463. to which the operation explained above has been applied.</P>
  464. <P>The input matrix and vector are not changed by this in any way.</P>
  465. <P>Example of how this method can affect the result of the methods to solve
  466. equation systems (explained immediately below following this method):</P>
  467. <P>Consider the following little program:</P>
  468. <PRE>
  469.   #!perl -w</PRE>
  470. <PRE>
  471.   use Math::MatrixReal qw(new_from_string);</PRE>
  472. <PRE>
  473.   $A = Math::MatrixReal->new_from_string(<<"MATRIX");
  474.   [  1   2   3  ]
  475.   [  5   7  11  ]
  476.   [ 23  19  13  ]
  477.   MATRIX</PRE>
  478. <PRE>
  479.   $b = Math::MatrixReal->new_from_string(<<"MATRIX");
  480.   [   0   ]
  481.   [   1   ]
  482.   [  29   ]
  483.   MATRIX</PRE>
  484. <PRE>
  485.   $LR = $A->decompose_LR();
  486.   if (($dim,$x,$B) = $LR->solve_LR($b))
  487.   {
  488.       $test = $A * $x;
  489.       print "x = \n$x";
  490.       print "A * x = \n$test";
  491.   }</PRE>
  492. <PRE>
  493.   ($A_,$b_) = $A->normalize($b);</PRE>
  494. <PRE>
  495.   $LR = $A_->decompose_LR();
  496.   if (($dim,$x,$B) = $LR->solve_LR($b_))
  497.   {
  498.       $test = $A * $x;
  499.       print "x = \n$x";
  500.       print "A * x = \n$test";
  501.   }</PRE>
  502. <P>This will print:</P>
  503. <PRE>
  504.   x =
  505.   [  1.000000000000E+00 ]
  506.   [  1.000000000000E+00 ]
  507.   [ -1.000000000000E+00 ]
  508.   A * x =
  509.   [  4.440892098501E-16 ]
  510.   [  1.000000000000E+00 ]
  511.   [  2.900000000000E+01 ]
  512.   x =
  513.   [  1.000000000000E+00 ]
  514.   [  1.000000000000E+00 ]
  515.   [ -1.000000000000E+00 ]
  516.   A * x =
  517.   [  0.000000000000E+00 ]
  518.   [  1.000000000000E+00 ]
  519.   [  2.900000000000E+01 ]</PRE>
  520. <P>You can see that in the second example (where ``normalize()'' has been used),
  521. the result is ``better'', i.e., more accurate!</P>
  522. <P></P>
  523. <LI>
  524. <CODE>$LR_matrix = $matrix->decompose_LR();</CODE>
  525. <P>This method is needed to solve linear equation systems.</P>
  526. <P>Suppose you have a matrix ``A'' and a vector ``b'' and you want to find
  527. out a vector ``x'' so that <CODE>A * x = b</CODE>, i.e., the vector ``x'' which
  528. solves the equation system represented by the matrix ``A'' and the
  529. vector ``b''.</P>
  530. <P>You might also have a matrix ``A'' and a whole bunch of different
  531. vectors ``b1''..``bk'' for which you need to find vectors ``x1''..``xk''
  532. so that <CODE>A * xi = bi</CODE>, for <CODE>i=1..k</CODE>.</P>
  533. <P>Using Gaussian transformations (multiplying a row or column with
  534. a factor, swapping two rows or two columns and adding a multiple
  535. of one row or column to another), it is possible to decompose any
  536. matrix ``A'' into two triangular matrices, called ``L'' and ``R'' (for
  537. ``Left'' and ``Right'').</P>
  538. <P>``L'' has one's on the main diagonal (the elements (1,1), (2,2), (3,3)
  539. and so so), non-zero values to the left and below of the main diagonal
  540. and all zero's in the upper right half of the matrix.</P>
  541. <P>``R'' has non-zero values on the main diagonal as well as to the right
  542. and above of the main diagonal and all zero's in the lower left half
  543. of the matrix, as follows:</P>
  544. <PRE>
  545.           [ 1 0 0 0 0 ]      [ x x x x x ]
  546.           [ x 1 0 0 0 ]      [ 0 x x x x ]
  547.       L = [ x x 1 0 0 ]  R = [ 0 0 x x x ]
  548.           [ x x x 1 0 ]      [ 0 0 0 x x ]
  549.           [ x x x x 1 ]      [ 0 0 0 0 x ]</PRE>
  550. <P>Note that ``<CODE>L * R</CODE>'' is equivalent to matrix ``A'' in the sense that
  551. <CODE>L * R * x = b  <==>  A * x = b</CODE> for all vectors ``x'', leaving
  552. out of account permutations of the rows and columns (these are taken
  553. care of ``magically'' by this module!) and numerical errors.</P>
  554. <P>Trick:</P>
  555. <P>Because we know that ``L'' has one's on its main diagonal, we can
  556. store both matrices together in the same array without information
  557. loss! I.e.,</P>
  558. <PRE>
  559.                  [ R R R R R ]
  560.                  [ L R R R R ]
  561.             LR = [ L L R R R ]
  562.                  [ L L L R R ]
  563.                  [ L L L L R ]</PRE>
  564. <P>Beware, though, that ``LR'' and ``<CODE>L * R</CODE>'' are not the same!!!</P>
  565. <P>Note also that for the same reason, you cannot apply the method ``normalize()''
  566. to an ``LR'' decomposition matrix. Trying to do so will yield meaningless
  567. rubbish!</P>
  568. <P>(You need to apply ``normalize()'' to each pair (Ai,bi) <STRONG>BEFORE</STRONG> decomposing
  569. the matrix ``Ai'''!)</P>
  570. <P>Now what does all this help us in solving linear equation systems?</P>
  571. <P>It helps us because a triangular matrix is the next best thing
  572. that can happen to us besides a diagonal matrix (a matrix that
  573. has non-zero values only on its main diagonal - in which case
  574. the solution is trivial, simply divide ``<CODE>b[i]</CODE>'' by ``<CODE>A[i,i]</CODE>''
  575. to get ``<CODE>x[i]</CODE>''!).</P>
  576. <P>To find the solution to our problem ``<CODE>A * x = b</CODE>'', we divide this
  577. problem in parts: instead of solving <CODE>A * x = b</CODE> directly, we first
  578. decompose ``A'' into ``L'' and ``R'' and then solve ``<CODE>L * y = b</CODE>'' and
  579. finally ``<CODE>R * x = y</CODE>'' (motto: divide and rule!).</P>
  580. <P>From the illustration above it is clear that solving ``<CODE>L * y = b</CODE>''
  581. and ``<CODE>R * x = y</CODE>'' is straightforward: we immediately know that
  582. <CODE>y[1] = b[1]</CODE>. We then deduce swiftly that</P>
  583. <PRE>
  584.   y[2] = b[2] - L[2,1] * y[1]</PRE>
  585. <P>(and we know ``<CODE>y[1]</CODE>'' by now!), that</P>
  586. <PRE>
  587.   y[3] = b[3] - L[3,1] * y[1] - L[3,2] * y[2]</PRE>
  588. <P>and so on.</P>
  589. <P>Having effortlessly calculated the vector ``y'', we now proceed to
  590. calculate the vector ``x'' in a similar fashion: we see immediately
  591. that <CODE>x[n] = y[n] / R[n,n]</CODE>. It follows that</P>
  592. <PRE>
  593.   x[n-1] = ( y[n-1] - R[n-1,n] * x[n] ) / R[n-1,n-1]</PRE>
  594. <P>and</P>
  595. <PRE>
  596.   x[n-2] = ( y[n-2] - R[n-2,n-1] * x[n-1] - R[n-2,n] * x[n] )
  597.            / R[n-2,n-2]</PRE>
  598. <P>and so on.</P>
  599. <P>You can see that - especially when you have many vectors ``b1''..``bk''
  600. for which you are searching solutions to <CODE>A * xi = bi</CODE> - this scheme
  601. is much more efficient than a straightforward, ``brute force'' approach.</P>
  602. <P>This method requires a quadratic matrix as its input matrix.</P>
  603. <P>If you don't have that many equations, fill up with zero's (i.e., do
  604. nothing to fill the superfluous rows if it's a ``fresh'' matrix, i.e.,
  605. a matrix that has been created with ``new()'' or ``shadow()'').</P>
  606. <P>The method returns an object reference to a new matrix containing the
  607. matrices ``L'' and ``R''.</P>
  608. <P>The input matrix is not changed by this method in any way.</P>
  609. <P>Note that you can ``copy()'' or ``clone()'' the result of this method without
  610. losing its ``magical'' properties (for instance concerning the hidden
  611. permutations of its rows and columns).</P>
  612. <P>However, as soon as you are applying any method that alters the contents
  613. of the matrix, its ``magical'' properties are stripped off, and the matrix
  614. immediately reverts to an ``ordinary'' matrix (with the values it just happens
  615. to contain at that moment, be they meaningful as an ordinary matrix or not!).</P>
  616. <P></P>
  617. <LI>
  618. <CODE>($dimension,$x_vector,$base_matrix) = $LR_matrix</CODE><CODE>-></CODE><CODE>solve_LR($b_vector);</CODE>
  619. <P>Use this method to actually solve an equation system.</P>
  620. <P>Matrix ``<CODE>$LR_matrix</CODE>'' must be a (quadratic) matrix returned by the
  621. method ``decompose_LR()'', the LR decomposition matrix of the matrix
  622. ``A'' of your equation system <CODE>A * x = b</CODE>.</P>
  623. <P>The input vector ``<CODE>$b_vector</CODE>'' is the vector ``b'' in your equation system
  624. <CODE>A * x = b</CODE>, which must be a column vector and have the same number of
  625. rows as the input matrix ``<CODE>$LR_matrix</CODE>''.</P>
  626. <P>The method returns a list of three items if a solution exists or an
  627. empty list otherwise (!).</P>
  628. <P>Therefore, you should always use this method like this:</P>
  629. <PRE>
  630.   if ( ($dim,$x_vec,$base) = $LR->solve_LR($b_vec) )
  631.   {
  632.       # do something with the solution...
  633.   }
  634.   else
  635.   {
  636.       # do something with the fact that there is no solution...
  637.   }</PRE>
  638. <P>The three items returned are: the dimension ``<CODE>$dimension</CODE>'' of the solution
  639. space (which is zero if only one solution exists, one if the solution is
  640. a straight line, two if the solution is a plane, and so on), the solution
  641. vector ``<CODE>$x_vector</CODE>'' (which is the vector ``x'' of your equation system
  642. <CODE>A * x = b</CODE>) and a matrix ``<CODE>$base_matrix</CODE>'' representing a base of the
  643. solution space (a set of vectors which put up the solution space like
  644. the spokes of an umbrella).</P>
  645. <P>Only the first ``<CODE>$dimension</CODE>'' columns of this base matrix actually
  646. contain entries, the remaining columns are all zero.</P>
  647. <P>Now what is all this stuff with that ``base'' good for?</P>
  648. <P>The output vector ``x'' is <STRONG>ALWAYS</STRONG> a solution of your equation system
  649. <CODE>A * x = b</CODE>.</P>
  650. <P>But also any vector ``<CODE>$vector</CODE>''</P>
  651. <PRE>
  652.   $vector = $x_vector->clone();</PRE>
  653. <PRE>
  654.   $machine_infinity = 1E+99; # or something like that</PRE>
  655. <PRE>
  656.   for ( $i = 1; $i <= $dimension; $i++ )
  657.   {
  658.       $vector += rand($machine_infinity) * $base_matrix->column($i);
  659.   }</PRE>
  660. <P>is a solution to your problem <CODE>A * x = b</CODE>, i.e., if ``<CODE>$A_matrix</CODE>'' contains
  661. your matrix ``A'', then</P>
  662. <PRE>
  663.   print abs( $A_matrix * $vector - $b_vector ), "\n";</PRE>
  664. <P>should print a number around 1E-16 or so!</P>
  665. <P>By the way, note that you can actually calculate those vectors ``<CODE>$vector</CODE>''
  666. a little more efficient as follows:</P>
  667. <PRE>
  668.   $rand_vector = $x_vector->shadow();</PRE>
  669. <PRE>
  670.   $machine_infinity = 1E+99; # or something like that</PRE>
  671. <PRE>
  672.   for ( $i = 1; $i <= $dimension; $i++ )
  673.   {
  674.       $rand_vector->assign($i,1, rand($machine_infinity) );
  675.   }</PRE>
  676. <PRE>
  677.   $vector = $x_vector + ( $base_matrix * $rand_vector );</PRE>
  678. <P>Note that the input matrix and vector are not changed by this method
  679. in any way.</P>
  680. <P></P>
  681. <LI>
  682. <CODE>$inverse_matrix = $LR_matrix->invert_LR();</CODE>
  683. <P>Use this method to calculate the inverse of a given matrix ``<CODE>$LR_matrix</CODE>'',
  684. which must be a (quadratic) matrix returned by the method ``decompose_LR()''.</P>
  685. <P>The method returns an object reference to a new matrix of the same size as
  686. the input matrix containing the inverse of the matrix that you initially
  687. fed into ``decompose_LR()'' <STRONG>IF THE INVERSE EXISTS</STRONG>, or an empty list
  688. otherwise.</P>
  689. <P>Therefore, you should always use this method in the following way:</P>
  690. <PRE>
  691.   if ( $inverse_matrix = $LR->invert_LR() )
  692.   {
  693.       # do something with the inverse matrix...
  694.   }
  695.   else
  696.   {
  697.       # do something with the fact that there is no inverse matrix...
  698.   }</PRE>
  699. <P>Note that by definition (disregarding numerical errors), the product
  700. of the initial matrix and its inverse (or vice-versa) is always a matrix
  701. containing one's on the main diagonal (elements (1,1), (2,2), (3,3) and
  702. so on) and zero's elsewhere.</P>
  703. <P>The input matrix is not changed by this method in any way.</P>
  704. <P></P>
  705. <LI>
  706. <CODE>$condition = $matrix->condition($inverse_matrix);</CODE>
  707. <P>In fact this method is just a shortcut for</P>
  708. <PRE>
  709.   abs($matrix) * abs($inverse_matrix)</PRE>
  710. <P>Both input matrices must be quadratic and have the same size, and the result
  711. is meaningful only if one of them is the inverse of the other (for instance,
  712. as returned by the method ``invert_LR()'').</P>
  713. <P>The number returned is a measure of the ``condition'' of the given matrix
  714. ``<CODE>$matrix</CODE>'', i.e., a measure of the numerical stability of the matrix.</P>
  715. <P>This number is always positive, and the smaller its value, the better the
  716. condition of the matrix (the better the stability of all subsequent
  717. computations carried out using this matrix).</P>
  718. <P>Numerical stability means for example that if</P>
  719. <PRE>
  720.   abs( $vec_correct - $vec_with_error ) < $epsilon</PRE>
  721. <P>holds, there must be a ``<CODE>$delta</CODE>'' which doesn't depend on the vector
  722. ``<CODE>$vec_correct</CODE>'' (nor ``<CODE>$vec_with_error</CODE>'', by the way) so that</P>
  723. <PRE>
  724.   abs( $matrix * $vec_correct - $matrix * $vec_with_error ) < $delta</PRE>
  725. <P>also holds.</P>
  726. <P></P>
  727. <LI>
  728. <CODE>$determinant = $LR_matrix->det_LR();</CODE>
  729. <P>Calculates the determinant of a matrix, whose LR decomposition matrix
  730. ``<CODE>$LR_matrix</CODE>'' must be given (which must be a (quadratic) matrix
  731. returned by the method ``decompose_LR()'').</P>
  732. <P>In fact the determinant is a by-product of the LR decomposition: It is
  733. (in principle, that is, except for the sign) simply the product of the
  734. elements on the main diagonal (elements (1,1), (2,2), (3,3) and so on)
  735. of the LR decomposition matrix.</P>
  736. <P>(The sign is taken care of ``magically'' by this module)</P>
  737. <P></P>
  738. <LI>
  739. <CODE>$order = $LR_matrix->order_LR();</CODE>
  740. <P>Calculates the order (called ``Rang'' in German) of a matrix, whose
  741. LR decomposition matrix ``<CODE>$LR_matrix</CODE>'' must be given (which must
  742. be a (quadratic) matrix returned by the method ``decompose_LR()'').</P>
  743. <P>This number is a measure of the number of linear independent row
  744. and column vectors (= number of linear independent equations in
  745. the case of a matrix representing an equation system) of the
  746. matrix that was initially fed into ``decompose_LR()''.</P>
  747. <P>If ``n'' is the number of rows and columns of the (quadratic!) matrix,
  748. then ``n - order'' is the dimension of the solution space of the
  749. associated equation system.</P>
  750. <P></P>
  751. <LI>
  752. <CODE>$scalar_product = $vector1->scalar_product($vector2);</CODE>
  753. <P>Returns the scalar product of vector ``<CODE>$vector1</CODE>'' and vector ``<CODE>$vector2</CODE>''.</P>
  754. <P>Both vectors must be column vectors (i.e., a matrix having
  755. several rows but only one column).</P>
  756. <P>This is a (more efficient!) shortcut for</P>
  757. <PRE>
  758.   $temp           = ~$vector1 * $vector2;
  759.   $scalar_product =  $temp->element(1,1);</PRE>
  760. <P>or the sum <CODE>i=1..n</CODE> of the products <CODE>vector1[i] * vector2[i]</CODE>.</P>
  761. <P>Provided none of the two input vectors is the null vector, then
  762. the two vectors are orthogonal, i.e., have an angle of 90 degrees
  763. between them, exactly when their scalar product is zero, and
  764. vice-versa.</P>
  765. <P></P>
  766. <LI>
  767. <CODE>$vector_product = $vector1->vector_product($vector2);</CODE>
  768. <P>Returns the vector product of vector ``<CODE>$vector1</CODE>'' and vector ``<CODE>$vector2</CODE>''.</P>
  769. <P>Both vectors must be column vectors (i.e., a matrix having several rows
  770. but only one column).</P>
  771. <P>Currently, the vector product is only defined for 3 dimensions (i.e.,
  772. vectors with 3 rows); all other vectors trigger an error message.</P>
  773. <P>In 3 dimensions, the vector product of two vectors ``x'' and ``y''
  774. is defined as</P>
  775. <PRE>
  776.               |  x[1]  y[1]  e[1]  |
  777.   determinant |  x[2]  y[2]  e[2]  |
  778.               |  x[3]  y[3]  e[3]  |</PRE>
  779. <P>where the ``<CODE>x[i]</CODE>'' and ``<CODE>y[i]</CODE>'' are the components of the two vectors
  780. ``x'' and ``y'', respectively, and the ``<CODE>e[i]</CODE>'' are unity vectors (i.e.,
  781. vectors with a length equal to one) with a one in row ``i'' and zero's
  782. elsewhere (this means that you have numbers and vectors as elements
  783. in this matrix!).</P>
  784. <P>This determinant evaluates to the rather simple formula</P>
  785. <PRE>
  786.   z[1] = x[2] * y[3] - x[3] * y[2]
  787.   z[2] = x[3] * y[1] - x[1] * y[3]
  788.   z[3] = x[1] * y[2] - x[2] * y[1]</PRE>
  789. <P>A characteristic property of the vector product is that the resulting
  790. vector is orthogonal to both of the input vectors (if neither of both
  791. is the null vector, otherwise this is trivial), i.e., the scalar product
  792. of each of the input vectors with the resulting vector is always zero.</P>
  793. <P></P>
  794. <LI>
  795. <A HREF="../../../lib/Pod/perlfunc.html#item_length"><CODE>$length = $vector->length();</CODE></A>
  796. <P>This is actually a shortcut for</P>
  797. <PRE>
  798.   $length = sqrt( $vector->scalar_product($vector) );</PRE>
  799. <P>and returns the length of a given (column!) vector ``<CODE>$vector</CODE>''.</P>
  800. <P>Note that the ``length'' calculated by this method is in fact the
  801. ``two''-norm of a vector ``<CODE>$vector</CODE>''!</P>
  802. <P>The general definition for norms of vectors is the following:</P>
  803. <PRE>
  804.   sub vector_norm
  805.   {
  806.       croak "Usage: \$norm = \$vector->vector_norm(\$n);"
  807.         if (@_ != 2);</PRE>
  808. <PRE>
  809.       my($vector,$n) = @_;
  810.       my($rows,$cols) = ($vector->[1],$vector->[2]);
  811.       my($k,$comp,$sum);</PRE>
  812. <PRE>
  813.       croak "Math::MatrixReal::vector_norm(): vector is not a column vector"
  814.         unless ($cols == 1);</PRE>
  815. <PRE>
  816.       croak "Math::MatrixReal::vector_norm(): norm index must be > 0"
  817.         unless ($n > 0);</PRE>
  818. <PRE>
  819.       croak "Math::MatrixReal::vector_norm(): norm index must be integer"
  820.         unless ($n == int($n));</PRE>
  821. <PRE>
  822.       $sum = 0;
  823.       for ( $k = 0; $k < $rows; $k++ )
  824.       {
  825.           $comp = abs( $vector->[0][$k][0] );
  826.           $sum += $comp ** $n;
  827.       }
  828.       return( $sum ** (1 / $n) );
  829.   }</PRE>
  830. <P>Note that the case ``n = 1'' is the ``one''-norm for matrices applied to a
  831. vector, the case ``n = 2'' is the euclidian norm or length of a vector,
  832. and if ``n'' goes to infinity, you have the ``infinity''- or ``maximum''-norm
  833. for matrices applied to a vector!</P>
  834. <P></P>
  835. <LI>
  836. <CODE>$xn_vector = $matrix-></CODE><CODE>solve_GSM($x0_vector,$b_vector,$epsilon);</CODE>
  837. <P></P>
  838. <LI>
  839. <CODE>$xn_vector = $matrix-></CODE><CODE>solve_SSM($x0_vector,$b_vector,$epsilon);</CODE>
  840. <P></P>
  841. <LI>
  842. <CODE>$xn_vector = $matrix-></CODE><CODE>solve_RM($x0_vector,$b_vector,$weight,$epsilon);</CODE>
  843. <P>In some cases it might not be practical or desirable to solve an
  844. equation system ``<CODE>A * x = b</CODE>'' using an analytical algorithm like
  845. the ``decompose_LR()'' and ``solve_LR()'' method pair.</P>
  846. <P>In fact in some cases, due to the numerical properties (the ``condition'')
  847. of the matrix ``A'', the numerical error of the obtained result can be
  848. greater than by using an approximative (iterative) algorithm like one
  849. of the three implemented here.</P>
  850. <P>All three methods, GSM (``Global Step Method'' or ``Gesamtschrittverfahren''),
  851. SSM (``Single Step Method'' or ``Einzelschrittverfahren'') and RM (``Relaxation
  852. Method'' or ``Relaxationsverfahren''), are fix-point iterations, that is, can
  853. be described by an iteration function ``<CODE>x(t+1) = Phi( x(t) )</CODE>'' which has
  854. the property:</P>
  855. <PRE>
  856.   Phi(x)  =  x    <==>    A * x  =  b</PRE>
  857. <P>We can define ``<CODE>Phi(x)</CODE>'' as follows:</P>
  858. <PRE>
  859.   Phi(x)  :=  ( En - A ) * x  +  b</PRE>
  860. <P>where ``En'' is a matrix of the same size as ``A'' (``n'' rows and columns)
  861. with one's on its main diagonal and zero's elsewhere.</P>
  862. <P>This function has the required property.</P>
  863. <P>Proof:</P>
  864. <PRE>
  865.            A * x        =   b</PRE>
  866. <PRE>
  867.   <==>  -( A * x )      =  -b</PRE>
  868. <PRE>
  869.   <==>  -( A * x ) + x  =  -b + x</PRE>
  870. <PRE>
  871.   <==>  -( A * x ) + x + b  =  x</PRE>
  872. <PRE>
  873.   <==>  x - ( A * x ) + b  =  x</PRE>
  874. <PRE>
  875.   <==>  ( En - A ) * x + b  =  x</PRE>
  876. <P>This last step is true because</P>
  877. <PRE>
  878.   x[i] - ( a[i,1] x[1] + ... + a[i,i] x[i] + ... + a[i,n] x[n] ) + b[i]</PRE>
  879. <P>is the same as</P>
  880. <PRE>
  881.   ( -a[i,1] x[1] + ... + (1 - a[i,i]) x[i] + ... + -a[i,n] x[n] ) + b[i]</PRE>
  882. <P>qed</P>
  883. <P>Note that actually solving the equation system ``<CODE>A * x = b</CODE>'' means
  884. to calculate</P>
  885. <PRE>
  886.         a[i,1] x[1] + ... + a[i,i] x[i] + ... + a[i,n] x[n]  =  b[i]</PRE>
  887. <PRE>
  888.   <==>  a[i,i] x[i]  =
  889.         b[i]
  890.         - ( a[i,1] x[1] + ... + a[i,i] x[i] + ... + a[i,n] x[n] )
  891.         + a[i,i] x[i]</PRE>
  892. <PRE>
  893.   <==>  x[i]  =
  894.         ( b[i]
  895.             - ( a[i,1] x[1] + ... + a[i,i] x[i] + ... + a[i,n] x[n] )
  896.             + a[i,i] x[i]
  897.         ) / a[i,i]</PRE>
  898. <PRE>
  899.   <==>  x[i]  =
  900.         ( b[i] -
  901.             ( a[i,1] x[1] + ... + a[i,i-1] x[i-1] +
  902.               a[i,i+1] x[i+1] + ... + a[i,n] x[n] )
  903.         ) / a[i,i]</PRE>
  904. <P>There is one major restriction, though: a fix-point iteration is
  905. guaranteed to converge only if the first derivative of the iteration
  906. function has an absolute value less than one in an area around the
  907. point ``<CODE>x(*)</CODE>'' for which ``<CODE>Phi( x(*) ) = x(*)</CODE>'' is to be true, and
  908. if the start vector ``<CODE>x(0)</CODE>'' lies within that area!</P>
  909. <P>This is best verified grafically, which unfortunately is impossible
  910. to do in this textual documentation!</P>
  911. <P>See literature on Numerical Analysis for details!</P>
  912. <P>In our case, this restriction translates to the following three conditions:</P>
  913. <P>There must exist a norm so that the norm of the matrix of the iteration
  914. function, <CODE>( En - A )</CODE>, has a value less than one, the matrix ``A'' may
  915. not have any zero value on its main diagonal and the initial vector
  916. ``<CODE>x(0)</CODE>'' must be ``good enough'', i.e., ``close enough'' to the solution
  917. ``<CODE>x(*)</CODE>''.</P>
  918. <P>(Remember school math: the first derivative of a straight line given by
  919. ``<CODE>y = a * x + b</CODE>'' is ``a''!)</P>
  920. <P>The three methods expect a (quadratic!) matrix ``<CODE>$matrix</CODE>'' as their
  921. first argument, a start vector ``<CODE>$x0_vector</CODE>'', a vector ``<CODE>$b_vector</CODE>''
  922. (which is the vector ``b'' in your equation system ``<CODE>A * x = b</CODE>''), in the
  923. case of the ``Relaxation Method'' (``RM''), a real number ``<CODE>$weight</CODE>'' best
  924. between zero and two, and finally an error limit (real number) ``<CODE>$epsilon</CODE>''.</P>
  925. <P>(Note that the weight ``<CODE>$weight</CODE>'' used by the ``Relaxation Method'' (``RM'')
  926. is <STRONG>NOT</STRONG> checked to lie within any reasonable range!)</P>
  927. <P>The three methods first test the first two conditions of the three
  928. conditions listed above and return an empty list if these conditions
  929. are not fulfilled.</P>
  930. <P>Therefore, you should always test their return value using some
  931. code like:</P>
  932. <PRE>
  933.   if ( $xn_vector = $A_matrix->solve_GSM($x0_vector,$b_vector,1E-12) )
  934.   {
  935.       # do something with the solution...
  936.   }
  937.   else
  938.   {
  939.       # do something with the fact that there is no solution...
  940.   }</PRE>
  941. <P>Otherwise, they iterate until <A HREF="#item_abs"><CODE>abs( Phi(x) - x ) < epsilon</CODE></A>.</P>
  942. <P>(Beware that theoretically, infinite loops might result if the starting
  943. vector is too far ``off'' the solution! In practice, this shouldn't be
  944. a problem. Anyway, you can always press <ctrl-C> if you think that the
  945. iteration takes too long!)</P>
  946. <P>The difference between the three methods is the following:</P>
  947. <P>In the ``Global Step Method'' (``GSM''), the new vector ``<CODE>x(t+1)</CODE>''
  948. (called ``y'' here) is calculated from the vector ``<CODE>x(t)</CODE>''
  949. (called ``x'' here) according to the formula:</P>
  950. <PRE>
  951.   y[i] =
  952.   ( b[i]
  953.       - ( a[i,1] x[1] + ... + a[i,i-1] x[i-1] +
  954.           a[i,i+1] x[i+1] + ... + a[i,n] x[n] )
  955.   ) / a[i,i]</PRE>
  956. <P>In the ``Single Step Method'' (``SSM''), the components of the vector
  957. ``<CODE>x(t+1)</CODE>'' which have already been calculated are used to calculate
  958. the remaining components, i.e.</P>
  959. <PRE>
  960.   y[i] =
  961.   ( b[i]
  962.       - ( a[i,1] y[1] + ... + a[i,i-1] y[i-1] +  # note the "y[]"!
  963.           a[i,i+1] x[i+1] + ... + a[i,n] x[n] )  # note the "x[]"!
  964.   ) / a[i,i]</PRE>
  965. <P>In the ``Relaxation method'' (``RM''), the components of the vector
  966. ``<CODE>x(t+1)</CODE>'' are calculated by ``mixing'' old and new value (like
  967. cold and hot water), and the weight ``<CODE>$weight</CODE>'' determines the
  968. ``aperture'' of both the ``hot water tap'' as well as of the ``cold
  969. water tap'', according to the formula:</P>
  970. <PRE>
  971.   y[i] =
  972.   ( b[i]
  973.       - ( a[i,1] y[1] + ... + a[i,i-1] y[i-1] +  # note the "y[]"!
  974.           a[i,i+1] x[i+1] + ... + a[i,n] x[n] )  # note the "x[]"!
  975.   ) / a[i,i]
  976.   y[i] = weight * y[i] + (1 - weight) * x[i]</PRE>
  977. <P>Note that the weight ``<CODE>$weight</CODE>'' should be greater than zero and
  978. less than two (!).</P>
  979. <P>The three methods are supposed to be of different efficiency.
  980. Experiment!</P>
  981. <P>Remember that in most cases, it is probably advantageous to first
  982. ``normalize()'' your equation system prior to solving it!</P>
  983. <P></P></UL>
  984. <P>
  985. <H2><A NAME="eigensystems">Eigensystems</A></H2>
  986. <UL>
  987. <LI>
  988. <CODE>$matrix->is_symmetric();</CODE>
  989. <P>Returns a boolean value indicating if the given matrix is
  990. symmetric (<STRONG>M</STRONG>[<EM>i</EM>,<EM>j</EM>]=<STRONG>M</STRONG>[<EM>j</EM>,<EM>i</EM>]). This is equivalent to 
  991. <CODE>($matrix == ~$matrix)</CODE> but without memory allocation.</P>
  992. <P></P>
  993. <LI>
  994. <CODE>($l, $V) = $matrix->sym_diagonalize();</CODE>
  995. <P>This method performs the diagonalization of the quadratic
  996. <EM>symmetric</EM> matrix <STRONG>M</STRONG> stored in $matrix.
  997. On output, <STRONG>l</STRONG> is a column vector containing all the eigenvalues
  998. of <STRONG>M</STRONG> and <STRONG>V</STRONG> is an orthogonal matrix which columns are the
  999. corresponding normalized eigenvectors.
  1000. The primary property of an eigenvalue <EM>l</EM> and an eigenvector
  1001. <STRONG>x</STRONG> is of course that: <STRONG>M</STRONG> * <STRONG>x</STRONG> = <EM>l</EM> * <STRONG>x</STRONG>.</P>
  1002. <P>The method uses a Householder reduction to tridiagonal form
  1003. followed by a QL algoritm with implicit shifts on this
  1004. tridiagonal. (The tridiagonal matrix is kept internally
  1005. in a compact form in this routine to save memory.)
  1006. In fact, this routine wraps the <CODE>householder()</CODE> and
  1007. <CODE>tri_diagonalize()</CODE> methods described below when their
  1008. intermediate results are not desired.
  1009. The overall algorithmic complexity of this technique
  1010. is O(N^3). According to several books, the coefficient
  1011. hidden by the 'O' is one of the best possible for general
  1012. (symmetric) matrixes.</P>
  1013. <P></P>
  1014. <LI>
  1015. <CODE>($T, $Q) = $matrix->householder();</CODE>
  1016. <P>This method performs the Householder algorithm which reduces
  1017. the <EM>n</EM> by <EM>n</EM> real <EM>symmetric</EM> matrix <STRONG>M</STRONG> contained
  1018. in $matrix to tridiagonal form.
  1019. On output, <STRONG>T</STRONG> is a symmetric tridiagonal matrix (only
  1020. diagonal and off-diagonal elements are non-zero) and <STRONG>Q</STRONG>
  1021. is an <EM>orthogonal</EM> matrix performing the tranformation
  1022. between <STRONG>M</STRONG> and <STRONG>T</STRONG> (<CODE>$M == $Q * $T * ~$Q</CODE>).</P>
  1023. <P></P>
  1024. <LI>
  1025. <CODE>($l, $V) = $T->tri_diagonalize([$Q]);</CODE>
  1026. <P>This method diagonalizes the symmetric tridiagonal
  1027. matrix <STRONG>T</STRONG>. On output, $l and $V are similar to the
  1028. output values described for sym_diagonalize().</P>
  1029. <P>The optional argument $Q corresponds to an orthogonal
  1030. transformation matrix <STRONG>Q</STRONG> that should be used additionally
  1031. during <STRONG>V</STRONG> (eigenvectors) computation. It should be supplied
  1032. if the desired eigenvectors correspond to a more general
  1033. symmetric matrix <STRONG>M</STRONG> previously reduced by the
  1034. <CODE>householder()</CODE> method, not a mere tridiagonal. If <STRONG>T</STRONG> is
  1035. really a tridiagonal matrix, <STRONG>Q</STRONG> can be omitted (it
  1036. will be internally created in fact as an identity matrix).
  1037. The method uses a QL algorithm (with implicit shifts).</P>
  1038. <P></P>
  1039. <LI>
  1040. <CODE>$l = $matrix->sym_eigenvalues();</CODE>
  1041. <P>This method computes the eigenvalues of the quadratic
  1042. <EM>symmetric</EM> matrix <STRONG>M</STRONG> stored in $matrix.
  1043. On output, <STRONG>l</STRONG> is a column vector containing all the eigenvalues
  1044. of <STRONG>M</STRONG>. Eigenvectors are not computed (on the contrary of
  1045. <CODE>sym_diagonalize()</CODE>) and this method is more efficient
  1046. (even though it uses a similar algorithm with two phases).
  1047. However, understand that the algorithmic complexity of this
  1048. technique is still also O(N^3). But the coefficient hidden
  1049. by the 'O' is better by a factor of..., well, see your
  1050. benchmark, it's wiser.</P>
  1051. <P>This routine wraps the <CODE>householder_tridiagonal()</CODE> and
  1052. <CODE>tri_eigenvalues()</CODE> methods described below when the
  1053. intermediate tridiagonal matrix is not needed.</P>
  1054. <P></P>
  1055. <LI>
  1056. <CODE>$T = $matrix->householder_tridiagonal();</CODE>
  1057. <P>This method performs the Householder algorithm which reduces
  1058. the <EM>n</EM> by <EM>n</EM> real <EM>symmetric</EM> matrix <STRONG>M</STRONG> contained
  1059. in $matrix to tridiagonal form.
  1060. On output, <STRONG>T</STRONG> is the obtained symmetric tridiagonal matrix
  1061. (only diagonal and off-diagonal elements are non-zero). The
  1062. operation is similar to the <CODE>householder()</CODE> method, but potentially
  1063. a little more efficient as the transformation matrix is not
  1064. computed.</P>
  1065. <P></P>
  1066. <LI>
  1067. <CODE>$l = $T->tri_eigenvalues();</CODE>
  1068. <P>This method compute the eigenvalues of the symmetric
  1069. tridiagonal matrix <STRONG>T</STRONG>. On output, $l is a vector
  1070. containing the eigenvalues (similar to <CODE>sym_eigenvalues()</CODE>).
  1071. This method is much more efficient than <CODE>tri_diagonalize()</CODE>
  1072. when eigenvectors are not needed.</P>
  1073. <P></P></UL>
  1074. <P>
  1075. <HR>
  1076. <H1><A NAME="overloaded operators">OVERLOADED OPERATORS</A></H1>
  1077. <P>
  1078. <H2><A NAME="synopsis">SYNOPSIS</A></H2>
  1079. <UL>
  1080. <LI>
  1081. Unary operators:
  1082. <P>``<CODE>-</CODE>'', ``<CODE>~</CODE>'', ``<A HREF="#item_abs"><CODE>abs</CODE></A>'', <A HREF="#item_test"><CODE>test</CODE></A>, ``<CODE>!</CODE>'', '<CODE>""</CODE>'</P>
  1083. <P></P>
  1084. <LI>
  1085. Binary (arithmetic) operators:
  1086. <P>``<CODE>+</CODE>'', ``<CODE>-</CODE>'', ``<CODE>*</CODE>''</P>
  1087. <P></P>
  1088. <LI>
  1089. Binary (relational) operators:
  1090. <P>``<CODE>==</CODE>'', ``<CODE>!=</CODE>'', ``<CODE><</CODE>'', ``<CODE><=</CODE>'', ``<CODE>></CODE>'', ``<CODE>>=</CODE>''</P>
  1091. <P>``<CODE>eq</CODE>'', ``<CODE>ne</CODE>'', ``<CODE>lt</CODE>'', ``<CODE>le</CODE>'', ``<CODE>gt</CODE>'', ``<CODE>ge</CODE>''</P>
  1092. <P>Note that the latter (``<CODE>eq</CODE>'', ``<CODE>ne</CODE>'', ... ) are just synonyms
  1093. of the former (``<CODE>==</CODE>'', ``<CODE>!=</CODE>'', ... ), defined for convenience
  1094. only.</P>
  1095. <P></P></UL>
  1096. <P>
  1097. <H2><A NAME="description">DESCRIPTION</A></H2>
  1098. <DL>
  1099. <DT><STRONG><A NAME="item_%27%2D%27">'-'</A></STRONG><BR>
  1100. <DD>
  1101. Unary minus
  1102. <P>Returns the negative of the given matrix, i.e., the matrix with
  1103. all elements multiplied with the factor ``-1''.</P>
  1104. <P>Example:</P>
  1105. <PRE>
  1106.     $matrix = -$matrix;</PRE>
  1107. <P></P>
  1108. <DT><STRONG><A NAME="item_%27%7E%27">'~'</A></STRONG><BR>
  1109. <DD>
  1110. Transposition
  1111. <P>Returns the transposed of the given matrix.</P>
  1112. <P>Examples:</P>
  1113. <PRE>
  1114.     $temp = ~$vector * $vector;
  1115.     $length = sqrt( $temp->element(1,1) );</PRE>
  1116. <PRE>
  1117.     if (~$matrix == $matrix) { # matrix is symmetric ... }</PRE>
  1118. <P></P>
  1119. <DT><STRONG><A NAME="item_abs">abs</A></STRONG><BR>
  1120. <DD>
  1121. Norm
  1122. <P>Returns the ``one''-Norm of the given matrix.</P>
  1123. <P>Example:</P>
  1124. <PRE>
  1125.     $error = abs( $A * $x - $b );</PRE>
  1126. <P></P>
  1127. <DT><STRONG><A NAME="item_test">test</A></STRONG><BR>
  1128. <DD>
  1129. Boolean test
  1130. <P>Tests wether there is at least one non-zero element in the matrix.</P>
  1131. <P>Example:</P>
  1132. <PRE>
  1133.     if ($xn_vector) { # result of iteration is not zero ... }</PRE>
  1134. <P></P>
  1135. <DT><STRONG><A NAME="item_%27%21%27">'!'</A></STRONG><BR>
  1136. <DD>
  1137. Negated boolean test
  1138. <P>Tests wether the matrix contains only zero's.</P>
  1139. <P>Examples:</P>
  1140. <PRE>
  1141.     if (! $b_vector) { # heterogenous equation system ... }
  1142.     else             { # homogenous equation system ... }</PRE>
  1143. <PRE>
  1144.     unless ($x_vector) { # not the null-vector! }</PRE>
  1145. <P></P>
  1146. <DT><STRONG><A NAME="item_%27%22%22%22%22%27">'``''``'''</A></STRONG><BR>
  1147. <DD>
  1148. ``Stringify'' operator
  1149. <P>Converts the given matrix into a string.</P>
  1150. <P>Uses scientific representation to keep precision loss to a minimum in case
  1151. you want to read this string back in again later with ``new_from_string()''.</P>
  1152. <P>Uses a 13-digit mantissa and a 20-character field for each element so that
  1153. lines will wrap nicely on an 80-column screen.</P>
  1154. <P>Examples:</P>
  1155. <PRE>
  1156.     $matrix = Math::MatrixReal->new_from_string(<<"MATRIX");
  1157.     [ 1  0 ]
  1158.     [ 0 -1 ]
  1159.     MATRIX
  1160.     print "$matrix";</PRE>
  1161. <PRE>
  1162.     [  1.000000000000E+00  0.000000000000E+00 ]
  1163.     [  0.000000000000E+00 -1.000000000000E+00 ]</PRE>
  1164. <PRE>
  1165.     $string = "$matrix";
  1166.     $test = Math::MatrixReal->new_from_string($string);
  1167.     if ($test == $matrix) { print ":-)\n"; } else { print ":-(\n"; }</PRE>
  1168. <P></P>
  1169. <DT><STRONG><A NAME="item_%27%2B%27">'+'</A></STRONG><BR>
  1170. <DD>
  1171. Addition
  1172. <P>Returns the sum of the two given matrices.</P>
  1173. <P>Examples:</P>
  1174. <PRE>
  1175.     $matrix_S = $matrix_A + $matrix_B;</PRE>
  1176. <PRE>
  1177.     $matrix_A += $matrix_B;</PRE>
  1178. <P></P>
  1179. <DT><STRONG>'-'</STRONG><BR>
  1180. <DD>
  1181. Subtraction
  1182. <P>Returns the difference of the two given matrices.</P>
  1183. <P>Examples:</P>
  1184. <PRE>
  1185.     $matrix_D = $matrix_A - $matrix_B;</PRE>
  1186. <PRE>
  1187.     $matrix_A -= $matrix_B;</PRE>
  1188. <P>Note that this is the same as:</P>
  1189. <PRE>
  1190.     $matrix_S = $matrix_A + -$matrix_B;</PRE>
  1191. <PRE>
  1192.     $matrix_A += -$matrix_B;</PRE>
  1193. <P>(The latter are less efficient, though)</P>
  1194. <P></P>
  1195. <DT><STRONG><A NAME="item_%27%2A%27">'*'</A></STRONG><BR>
  1196. <DD>
  1197. Multiplication
  1198. <P>Returns the matrix product of the two given matrices or
  1199. the product of the given matrix and scalar factor.</P>
  1200. <P>Examples:</P>
  1201. <PRE>
  1202.     $matrix_P = $matrix_A * $matrix_B;</PRE>
  1203. <PRE>
  1204.     $matrix_A *= $matrix_B;</PRE>
  1205. <PRE>
  1206.     $vector_b = $matrix_A * $vector_x;</PRE>
  1207. <PRE>
  1208.     $matrix_B = -1 * $matrix_A;</PRE>
  1209. <PRE>
  1210.     $matrix_B = $matrix_A * -1;</PRE>
  1211. <PRE>
  1212.     $matrix_A *= -1;</PRE>
  1213. <P></P>
  1214. <DT><STRONG><A NAME="item_%27%3D%3D%27">'=='</A></STRONG><BR>
  1215. <DD>
  1216. Equality
  1217. <P>Tests two matrices for equality.</P>
  1218. <P>Example:</P>
  1219. <PRE>
  1220.     if ( $A * $x == $b ) { print "EUREKA!\n"; }</PRE>
  1221. <P>Note that in most cases, due to numerical errors (due to the finite
  1222. precision of computer arithmetics), it is a bad idea to compare two
  1223. matrices or vectors this way.</P>
  1224. <P>Better use the norm of the difference of the two matrices you want
  1225. to compare and compare that norm with a small number, like this:</P>
  1226. <PRE>
  1227.     if ( abs( $A * $x - $b ) < 1E-12 ) { print "BINGO!\n"; }</PRE>
  1228. <P></P>
  1229. <DT><STRONG><A NAME="item_%27%21%3D%27">'!='</A></STRONG><BR>
  1230. <DD>
  1231. Inequality
  1232. <P>Tests two matrices for inequality.</P>
  1233. <P>Example:</P>
  1234. <PRE>
  1235.     while ($x0_vector != $xn_vector) { # proceed with iteration ... }</PRE>
  1236. <P>(Stops when the iteration becomes stationary)</P>
  1237. <P>Note that (just like with the '==' operator), it is usually a bad idea
  1238. to compare matrices or vectors this way. Compare the norm of the difference
  1239. of the two matrices with a small number instead.</P>
  1240. <P></P>
  1241. <DT><STRONG><A NAME="item_%27%3C%27">'<'</A></STRONG><BR>
  1242. <DD>
  1243. Less than
  1244. <P>Examples:</P>
  1245. <PRE>
  1246.     if ( $matrix1 < $matrix2 ) { # ... }</PRE>
  1247. <PRE>
  1248.     if ( $vector < $epsilon ) { # ... }</PRE>
  1249. <PRE>
  1250.     if ( 1E-12 < $vector ) { # ... }</PRE>
  1251. <PRE>
  1252.     if ( $A * $x - $b < 1E-12 ) { # ... }</PRE>
  1253. <P>These are just shortcuts for saying:</P>
  1254. <PRE>
  1255.     if ( abs($matrix1) < abs($matrix2) ) { # ... }</PRE>
  1256. <PRE>
  1257.     if ( abs($vector) < abs($epsilon) ) { # ... }</PRE>
  1258. <PRE>
  1259.     if ( abs(1E-12) < abs($vector) ) { # ... }</PRE>
  1260. <PRE>
  1261.     if ( abs( $A * $x - $b ) < abs(1E-12) ) { # ... }</PRE>
  1262. <P>Uses the ``one''-norm for matrices and Perl's built-in ``abs()'' for scalars.</P>
  1263. <P></P>
  1264. <DT><STRONG><A NAME="item_%27%3C%3D%27">'<='</A></STRONG><BR>
  1265. <DD>
  1266. Less than or equal
  1267. <P>As with the '<' operator, this is just a shortcut for the same expression
  1268. with ``abs()'' around all arguments.</P>
  1269. <P>Example:</P>
  1270. <PRE>
  1271.     if ( $A * $x - $b <= 1E-12 ) { # ... }</PRE>
  1272. <P>which in fact is the same as:</P>
  1273. <PRE>
  1274.     if ( abs( $A * $x - $b ) <= abs(1E-12) ) { # ... }</PRE>
  1275. <P>Uses the ``one''-norm for matrices and Perl's built-in ``abs()'' for scalars.</P>
  1276. <P></P>
  1277. <DT><STRONG><A NAME="item_%27%3E%27">'>'</A></STRONG><BR>
  1278. <DD>
  1279. Greater than
  1280. <P>As with the '<' and '<=' operator, this</P>
  1281. <PRE>
  1282.     if ( $xn - $x0 > 1E-12 ) { # ... }</PRE>
  1283. <P>is just a shortcut for:</P>
  1284. <PRE>
  1285.     if ( abs( $xn - $x0 ) > abs(1E-12) ) { # ... }</PRE>
  1286. <P>Uses the ``one''-norm for matrices and Perl's built-in ``abs()'' for scalars.</P>
  1287. <P></P>
  1288. <DT><STRONG><A NAME="item_%27%3E%3D%27">'>='</A></STRONG><BR>
  1289. <DD>
  1290. Greater than or equal
  1291. <P>As with the '<', '<=' and '>' operator, the following</P>
  1292. <PRE>
  1293.     if ( $LR >= $A ) { # ... }</PRE>
  1294. <P>is simply a shortcut for:</P>
  1295. <PRE>
  1296.     if ( abs($LR) >= abs($A) ) { # ... }</PRE>
  1297. <P>Uses the ``one''-norm for matrices and Perl's built-in ``abs()'' for scalars.</P>
  1298. <P></P></DL>
  1299. <P>
  1300. <HR>
  1301. <H1><A NAME="see also">SEE ALSO</A></H1>
  1302. <P>Math::MatrixBool(3), DFA::Kleene(3), Math::Kleene(3),
  1303. Set::IntegerRange(3), Set::IntegerFast(3).</P>
  1304. <P>
  1305. <HR>
  1306. <H1><A NAME="version">VERSION</A></H1>
  1307. <P>This man page documents Math::MatrixReal version 1.3.</P>
  1308. <P>
  1309. <HR>
  1310. <H1><A NAME="authors">AUTHORS</A></H1>
  1311. <P>Steffen Beyer <<A HREF="mailto:sb@sdm.de">sb@sdm.de</A>>, Rodolphe Ortalo <<A HREF="mailto:ortalo@laas.fr">ortalo@laas.fr</A>>.</P>
  1312. <P>
  1313. <HR>
  1314. <H1><A NAME="credits">CREDITS</A></H1>
  1315. <P>Many thanks to Prof. Pahlings for stoking the fire of my enthusiasm for
  1316. Algebra and Linear Algebra at the university (RWTH Aachen, Germany), and
  1317. to Prof. Esser and his assistant, Mr. Jarausch, for their fascinating
  1318. lectures in Numerical Analysis!</P>
  1319. <P>
  1320. <HR>
  1321. <H1><A NAME="copyright">COPYRIGHT</A></H1>
  1322. <P>Copyright (c) 1996, 1997, 1999 by Steffen Beyer and Rodolphe Ortalo.
  1323. All rights reserved.</P>
  1324. <P>
  1325. <HR>
  1326. <H1><A NAME="license agreement">LICENSE AGREEMENT</A></H1>
  1327. <P>This package is free software; you can redistribute it and/or
  1328. modify it under the same terms as Perl itself.</P>
  1329. <TABLE BORDER=0 CELLPADDING=0 CELLSPACING=0 WIDTH=100%>
  1330. <TR><TD CLASS=block VALIGN=MIDDLE WIDTH=100% BGCOLOR="#cccccc">
  1331. <STRONG><P CLASS=block> Math::MatrixReal - Matrix of Reals</P></STRONG>
  1332. </TD></TR>
  1333. </TABLE>
  1334.  
  1335. </BODY>
  1336.  
  1337. </HTML>
  1338.