home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / comp / unix / aix / 11716 < prev    next >
Encoding:
Text File  |  1992-11-18  |  1.6 KB  |  35 lines

  1. Newsgroups: comp.unix.aix
  2. Path: sparky!uunet!cs.utexas.edu!milano!cactus.org!chukran
  3. From: chukran@cactus.org (Rudy E. Chukran)
  4. Subject: Re: RS6000 almost stops with heavy disk access.
  5. Message-ID: <1992Nov19.070106.8255@cactus.org>
  6. Organization: Capital Area Central Texas UNIX Society, Austin, Tx
  7. References: <199211171808.AA15477@cc.ysu.edu>
  8. Date: Thu, 19 Nov 1992 07:01:06 GMT
  9. Lines: 24
  10.  
  11. In article <199211171808.AA15477@cc.ysu.edu> JOAOLSD@vm1.sdi.uam.es (Joao Luis Silva Damas) writes:
  12. >Hi,
  13. >we have two rs6000 (a 320H and 340) being used by different kinds of users.
  14. >Some of them do large molecular calculations which create HUGE (600-700 MB) tem
  15. >porary files for the molecular integrals. When their program begins writing the
  16. >se huge files and then reading them as needed, our machines almost stop and oth
  17. >er users are almost unable to use the system. The slowness means 30-60 sec to l
  18. >ogon, 1 minute for X windows to create a new window, a long time for even an ls
  19. >, etc. Most other users do a lot of editing so they actually need better respon
  20. >se time from the machine.
  21. >Is there anyway to correct this situation (besides killing those huge calculati
  22. >ons, of course)?
  23.  
  24. Lower the priority of the cruncher programs with nice or renice.
  25.  
  26. Look into using the I/O write queue length limitation feature. Ther is
  27. a panel in SMIT to do this. However, describing how to do it here is quite
  28. difficult.  Id suggest playing with some nonzero values and see if that helps.
  29. Cant give you more info since Im not in front of my 6000 right now.
  30.  
  31. Add more memory.
  32.  
  33. Add faster disks or more disk arms and rearrange the files on those drives.
  34.  
  35.