home *** CD-ROM | disk | FTP | other *** search
/ Chip 2004 November / CMCD1104.ISO / Software / Complet / Apache / apache_2.0.52-win32-x86-no_ssl.msi / Data.Cab / F277916_fin_wait_2.xml < prev    next >
Extensible Markup Language  |  2004-04-17  |  19KB  |  421 lines

  1. <?xml version="1.0" encoding="UTF-8" ?>
  2. <!DOCTYPE manualpage SYSTEM "../style/manualpage.dtd">
  3. <?xml-stylesheet type="text/xsl" href="../style/manual.en.xsl"?>
  4. <!-- $Revision: 1.1.2.6 $ -->
  5.  
  6. <!--
  7.  Copyright 2003-2004 The Apache Software Foundation
  8.  
  9.  Licensed under the Apache License, Version 2.0 (the "License");
  10.  you may not use this file except in compliance with the License.
  11.  You may obtain a copy of the License at
  12.  
  13.      http://www.apache.org/licenses/LICENSE-2.0
  14.  
  15.  Unless required by applicable law or agreed to in writing, software
  16.  distributed under the License is distributed on an "AS IS" BASIS,
  17.  WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
  18.  See the License for the specific language governing permissions and
  19.  limitations under the License.
  20. -->
  21.  
  22. <manualpage metafile="fin_wait_2.xml.meta">
  23.   <parentdocument href="./">Miscellaneous Documentation</parentdocument>
  24.  
  25.   <title>Connections in the FIN_WAIT_2 state and Apache</title>
  26.  
  27.   <summary>
  28.  
  29.     <note type="warning"><title>Warning:</title>
  30.       <p>This document has not been fully updated
  31.       to take into account changes made in the 2.0 version of the
  32.       Apache HTTP Server. Some of the information may still be
  33.       relevant, but please use it with care.</p>
  34.     </note>
  35.  
  36.         <p>Starting with the Apache 1.2 betas, people are reporting
  37.         many more connections in the FIN_WAIT_2 state (as reported
  38.         by <code>netstat</code>) than they saw using older
  39.         versions. When the server closes a TCP connection, it sends
  40.         a packet with the FIN bit set to the client, which then
  41.         responds with a packet with the ACK bit set. The client
  42.         then sends a packet with the FIN bit set to the server,
  43.         which responds with an ACK and the connection is closed.
  44.         The state that the connection is in during the period
  45.         between when the server gets the ACK from the client and
  46.         the server gets the FIN from the client is known as
  47.         FIN_WAIT_2. See the <a
  48.         href="ftp://ds.internic.net/rfc/rfc793.txt">TCP RFC</a> for
  49.         the technical details of the state transitions.</p>
  50.  
  51.         <p>The FIN_WAIT_2 state is somewhat unusual in that there
  52.         is no timeout defined in the standard for it. This means
  53.         that on many operating systems, a connection in the
  54.         FIN_WAIT_2 state will stay around until the system is
  55.         rebooted. If the system does not have a timeout and too
  56.         many FIN_WAIT_2 connections build up, it can fill up the
  57.         space allocated for storing information about the
  58.         connections and crash the kernel. The connections in
  59.         FIN_WAIT_2 do not tie up an httpd process.</p>
  60.  
  61.   </summary>
  62.  
  63.   <section id="why"><title>Why Does It Happen?</title>
  64.  
  65.     <p>There are numerous reasons for it happening, some of them
  66.     may not yet be fully clear. What is known follows.</p>
  67.  
  68.     <section id="buggy"><title>Buggy Clients and Persistent 
  69.                                Connections</title>
  70.  
  71.         <p>Several clients have a bug which pops up when dealing with
  72.         persistent connections (aka
  73.         keepalives). When the connection is idle and the server
  74.         closes the connection (based on the <directive
  75.         module="core">KeepAliveTimeout</directive>),
  76.         the client is programmed so that the client does not send
  77.         back a FIN and ACK to the server. This means that the
  78.         connection stays in the FIN_WAIT_2 state until one of the
  79.         following happens:</p>
  80.  
  81.         <ul>
  82.           <li>The client opens a new connection to the same or a
  83.           different site, which causes it to fully close the older
  84.           connection on that socket.</li>
  85.  
  86.           <li>The user exits the client, which on some (most?)
  87.           clients causes the OS to fully shutdown the
  88.           connection.</li>
  89.  
  90.           <li>The FIN_WAIT_2 times out, on servers that have a
  91.           timeout for this state.</li>
  92.         </ul>
  93.  
  94.         <p>If you are lucky, this means that the buggy client will
  95.         fully close the connection and release the resources on
  96.         your server. However, there are some cases where the socket
  97.         is never fully closed, such as a dialup client
  98.         disconnecting from their provider before closing the
  99.         client. In addition, a client might sit idle for days
  100.         without making another connection, and thus may hold its
  101.         end of the socket open for days even though it has no
  102.         further use for it. <strong>This is a bug in the browser or
  103.         in its operating system's TCP implementation.</strong></p>
  104.  
  105.         <p>The clients on which this problem has been verified to
  106.         exist:</p>
  107.  
  108.         <ul>
  109.           <li>Mozilla/3.01 (X11; I; FreeBSD 2.1.5-RELEASE
  110.           i386)</li>
  111.  
  112.           <li>Mozilla/2.02 (X11; I; FreeBSD 2.1.5-RELEASE
  113.           i386)</li>
  114.  
  115.           <li>Mozilla/3.01Gold (X11; I; SunOS 5.5 sun4m)</li>
  116.  
  117.           <li>MSIE 3.01 on the Macintosh</li>
  118.  
  119.           <li>MSIE 3.01 on Windows 95</li>
  120.         </ul>
  121.  
  122.         <p>This does not appear to be a problem on:</p>
  123.  
  124.         <ul>
  125.           <li>Mozilla/3.01 (Win95; I)</li>
  126.         </ul>
  127.  
  128.         <p>It is expected that many other clients have the same
  129.         problem. What a client <strong>should do</strong> is
  130.         periodically check its open socket(s) to see if they have
  131.         been closed by the server, and close their side of the
  132.         connection if the server has closed. This check need only
  133.         occur once every few seconds, and may even be detected by a
  134.         OS signal on some systems (<em>e.g.</em>, Win95 and NT
  135.         clients have this capability, but they seem to be ignoring
  136.         it).</p>
  137.  
  138.         <p>Apache <strong>cannot</strong> avoid these FIN_WAIT_2
  139.         states unless it disables persistent connections for the
  140.         buggy clients, just like we recommend doing for Navigator
  141.         2.x clients due to other bugs. However, non-persistent
  142.         connections increase the total number of connections needed
  143.         per client and slow retrieval of an image-laden web page.
  144.         Since non-persistent connections have their own resource
  145.         consumptions and a short waiting period after each closure,
  146.         a busy server may need persistence in order to best serve
  147.         its clients.</p>
  148.  
  149.         <p>As far as we know, the client-caused FIN_WAIT_2 problem
  150.         is present for all servers that support persistent
  151.         connections, including Apache 1.1.x and 1.2.</p>
  152.  
  153.     </section>
  154.  
  155.     <section id="code"><title>A necessary bit of code 
  156.                               introduced in 1.2</title>
  157.  
  158.         <p>While the above bug is a problem, it is not the whole
  159.         problem. Some users have observed no FIN_WAIT_2 problems
  160.         with Apache 1.1.x, but with 1.2b enough connections build
  161.         up in the FIN_WAIT_2 state to crash their server. The most
  162.         likely source for additional FIN_WAIT_2 states is a
  163.         function called <code>lingering_close()</code> which was
  164.         added between 1.1 and 1.2. This function is necessary for
  165.         the proper handling of persistent connections and any
  166.         request which includes content in the message body
  167.         (<em>e.g.</em>, PUTs and POSTs). What it does is read any
  168.         data sent by the client for a certain time after the server
  169.         closes the connection. The exact reasons for doing this are
  170.         somewhat complicated, but involve what happens if the
  171.         client is making a request at the same time the server
  172.         sends a response and closes the connection. Without
  173.         lingering, the client might be forced to reset its TCP
  174.         input buffer before it has a chance to read the server's
  175.         response, and thus understand why the connection has
  176.         closed. See the <a href="#appendix">appendix</a> for more
  177.         details.</p>
  178.  
  179.         <p>The code in <code>lingering_close()</code> appears to
  180.         cause problems for a number of factors, including the
  181.         change in traffic patterns that it causes. The code has
  182.         been thoroughly reviewed and we are not aware of any bugs
  183.         in it. It is possible that there is some problem in the BSD
  184.         TCP stack, aside from the lack of a timeout for the
  185.         FIN_WAIT_2 state, exposed by the
  186.         <code>lingering_close</code> code that causes the observed
  187.         problems.</p>
  188.  
  189.     </section>
  190.   </section>
  191.  
  192.   <section id="what"><title>What Can I Do About it?</title>
  193.  
  194.     <p>There are several possible workarounds to the problem, some
  195.      of which work better than others.</p>
  196.  
  197.     <section id="add_timeout"><title>Add a timeout for FIN_WAIT_2</title>
  198.  
  199.         <p>The obvious workaround is to simply have a timeout for the
  200.         FIN_WAIT_2 state. This is not specified by the RFC, and
  201.         could be claimed to be a violation of the RFC, but it is
  202.         widely recognized as being necessary. The following systems
  203.         are known to have a timeout:</p>
  204.  
  205.         <ul>
  206.           <li><a href="http://www.freebsd.org/">FreeBSD</a>
  207.           versions starting at 2.0 or possibly earlier.</li>
  208.  
  209.           <li><a href="http://www.netbsd.org/">NetBSD</a> version
  210.           1.2(?)</li>
  211.  
  212.           <li><a href="http://www.openbsd.org/">OpenBSD</a> all
  213.           versions(?)</li>
  214.  
  215.           <li><a href="http://www.bsdi.com/">BSD/OS</a> 2.1, with
  216.           the <a
  217.           href="ftp://ftp.bsdi.com/bsdi/patches/patches-2.1/K210-027">
  218.           K210-027</a> patch installed.</li>
  219.  
  220.           <li><a href="http://www.sun.com/">Solaris</a> as of
  221.           around version 2.2. The timeout can be tuned by using
  222.           <code>ndd</code> to modify
  223.           <code>tcp_fin_wait_2_flush_interval</code>, but the
  224.           default should be appropriate for most servers and
  225.           improper tuning can have negative impacts.</li>
  226.  
  227.           <li><a href="http://www.linux.org/">Linux</a> 2.0.x and
  228.           earlier(?)</li>
  229.  
  230.           <li><a href="http://www.hp.com/">HP-UX</a> 10.x defaults
  231.           to terminating connections in the FIN_WAIT_2 state after
  232.           the normal keepalive timeouts. This does not refer to the
  233.           persistent connection or HTTP keepalive timeouts, but the
  234.           <code>SO_LINGER</code> socket option which is enabled by
  235.           Apache. This parameter can be adjusted by using
  236.           <code>nettune</code> to modify parameters such as
  237.           <code>tcp_keepstart</code> and <code>tcp_keepstop</code>.
  238.           In later revisions, there is an explicit timer for
  239.           connections in FIN_WAIT_2 that can be modified; contact
  240.           HP support for details.</li>
  241.  
  242.           <li><a href="http://www.sgi.com/">SGI IRIX</a> can be
  243.           patched to support a timeout. For IRIX 5.3, 6.2, and 6.3,
  244.           use patches 1654, 1703 and 1778 respectively. If you have
  245.           trouble locating these patches, please contact your SGI
  246.           support channel for help.</li>
  247.  
  248.           <li><a href="http://www.ncr.com/">NCR's MP RAS Unix</a>
  249.           2.xx and 3.xx both have FIN_WAIT_2 timeouts. In 2.xx it
  250.           is non-tunable at 600 seconds, while in 3.xx it defaults
  251.           to 600 seconds and is calculated based on the tunable
  252.           "max keep alive probes" (default of 8) multiplied by the
  253.           "keep alive interval" (default 75 seconds).</li>
  254.  
  255.           <li><a href="http://www.sequent.com">Sequent's ptx/TCP/IP
  256.           for DYNIX/ptx</a> has had a FIN_WAIT_2 timeout since
  257.           around release 4.1 in mid-1994.</li>
  258.         </ul>
  259.  
  260.         <p>The following systems are known to not have a
  261.         timeout:</p>
  262.  
  263.         <ul>
  264.           <li><a href="http://www.sun.com/">SunOS 4.x</a> does not
  265.           and almost certainly never will have one because it as at
  266.           the very end of its development cycle for Sun. If you
  267.           have kernel source should be easy to patch.</li>
  268.         </ul>
  269.  
  270.         <p>There is a <a
  271.         href="http://www.apache.org/dist/httpd/contrib/patches/1.2/fin_wait_2.patch">
  272.         patch available</a> for adding a timeout to the FIN_WAIT_2
  273.         state; it was originally intended for BSD/OS, but should be
  274.         adaptable to most systems using BSD networking code. You
  275.         need kernel source code to be able to use it.</p>
  276.  
  277.     </section>
  278.  
  279.     <section id="no_lingering"><title>Compile without using
  280.                              <code>lingering_close()</code></title>
  281.  
  282.         <p>It is possible to compile Apache 1.2 without using the
  283.         <code>lingering_close()</code> function. This will result
  284.         in that section of code being similar to that which was in
  285.         1.1. If you do this, be aware that it can cause problems
  286.         with PUTs, POSTs and persistent connections, especially if
  287.         the client uses pipelining. That said, it is no worse than
  288.         on 1.1, and we understand that keeping your server running
  289.         is quite important.</p>
  290.  
  291.         <p>To compile without the <code>lingering_close()</code>
  292.         function, add <code>-DNO_LINGCLOSE</code> to the end of the
  293.         <code>EXTRA_CFLAGS</code> line in your
  294.         <code>Configuration</code> file, rerun
  295.         <code>Configure</code> and rebuild the server.</p>
  296.  
  297.     </section>
  298.  
  299.     <section id="so_linger"><title>Use <code>SO_LINGER</code> as 
  300.                 an alternative to <code>lingering_close()</code></title>
  301.  
  302.         <p>On most systems, there is an option called
  303.         <code>SO_LINGER</code> that can be set with
  304.         <code>setsockopt(2)</code>. It does something very similar
  305.         to <code>lingering_close()</code>, except that it is broken
  306.         on many systems so that it causes far more problems than
  307.         <code>lingering_close</code>. On some systems, it could
  308.         possibly work better so it may be worth a try if you have
  309.         no other alternatives.</p>
  310.  
  311.         <p>To try it, add <code>-DUSE_SO_LINGER
  312.         -DNO_LINGCLOSE</code> to the end of the
  313.         <code>EXTRA_CFLAGS</code> line in your
  314.         <code>Configuration</code> file, rerun
  315.         <code>Configure</code> and rebuild the server.</p>
  316.  
  317.         <note><title>NOTE</title>Attempting to use
  318.         <code>SO_LINGER</code> and <code>lingering_close()</code>
  319.         at the same time is very likely to do very bad things, so
  320.         don't.</note>
  321.  
  322.     </section>
  323.  
  324.     <section id="increase_mem"><title>Increase the amount of memory 
  325.                            used for storing connection state</title>
  326.  
  327.         <dl>
  328.           <dt>BSD based networking code:</dt>
  329.  
  330.           <dd>
  331.             BSD stores network data, such as connection states, in
  332.             something called an mbuf. When you get so many
  333.             connections that the kernel does not have enough mbufs
  334.             to put them all in, your kernel will likely crash. You
  335.             can reduce the effects of the problem by increasing the
  336.             number of mbufs that are available; this will not
  337.             prevent the problem, it will just make the server go
  338.             longer before crashing. 
  339.  
  340.             <p>The exact way to increase them may depend on your
  341.             OS; look for some reference to the number of "mbufs" or
  342.             "mbuf clusters". On many systems, this can be done by
  343.             adding the line <code>NMBCLUSTERS="n"</code>, where
  344.             <code>n</code> is the number of mbuf clusters you want
  345.             to your kernel config file and rebuilding your
  346.             kernel.</p>
  347.           </dd>
  348.         </dl>
  349.  
  350.     </section>
  351.  
  352.     <section id="disable"><title>Disable KeepAlive</title>
  353.  
  354.         <p>If you are unable to do any of the above then you
  355.         should, as a last resort, disable KeepAlive. Edit your
  356.         httpd.conf and change "KeepAlive On" to "KeepAlive
  357.         Off".</p>
  358.  
  359.     </section>
  360.   </section>
  361.  
  362.   <section id="appendix"><title>Appendix</title>
  363.  
  364.    <p>Below is a message from Roy Fielding, one of the authors
  365.    of HTTP/1.1.</p>
  366.  
  367.    <section id="message"><title>Why the lingering close 
  368.                      functionality is necessary with HTTP</title>
  369.  
  370.         <p>The need for a server to linger on a socket after a close
  371.         is noted a couple times in the HTTP specs, but not
  372.         explained. This explanation is based on discussions between
  373.         myself, Henrik Frystyk, Robert S. Thau, Dave Raggett, and
  374.         John C. Mallery in the hallways of MIT while I was at W3C.</p>
  375.  
  376.         <p>If a server closes the input side of the connection
  377.         while the client is sending data (or is planning to send
  378.         data), then the server's TCP stack will signal an RST
  379.         (reset) back to the client. Upon receipt of the RST, the
  380.         client will flush its own incoming TCP buffer back to the
  381.         un-ACKed packet indicated by the RST packet argument. If
  382.         the server has sent a message, usually an error response,
  383.         to the client just before the close, and the client
  384.         receives the RST packet before its application code has
  385.         read the error message from its incoming TCP buffer and
  386.         before the server has received the ACK sent by the client
  387.         upon receipt of that buffer, then the RST will flush the
  388.         error message before the client application has a chance to
  389.         see it. The result is that the client is left thinking that
  390.         the connection failed for no apparent reason.</p>
  391.  
  392.         <p>There are two conditions under which this is likely to
  393.         occur:</p>
  394.  
  395.         <ol>
  396.           <li>sending POST or PUT data without proper
  397.           authorization</li>
  398.  
  399.           <li>sending multiple requests before each response
  400.           (pipelining) and one of the middle requests resulting in
  401.           an error or other break-the-connection result.</li>
  402.         </ol>
  403.  
  404.         <p>The solution in all cases is to send the response, close
  405.         only the write half of the connection (what shutdown is
  406.         supposed to do), and continue reading on the socket until
  407.         it is either closed by the client (signifying it has
  408.         finally read the response) or a timeout occurs. That is
  409.         what the kernel is supposed to do if SO_LINGER is set.
  410.         Unfortunately, SO_LINGER has no effect on some systems; on
  411.         some other systems, it does not have its own timeout and
  412.         thus the TCP memory segments just pile-up until the next
  413.         reboot (planned or not).</p>
  414.  
  415.         <p>Please note that simply removing the linger code will
  416.         not solve the problem -- it only moves it to a different
  417.         and much harder one to detect.</p>
  418.     </section>
  419.   </section>
  420. </manualpage>
  421.