home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / comp / arch / 12426 < prev    next >
Encoding:
Text File  |  1993-01-28  |  4.3 KB  |  79 lines

  1. Newsgroups: comp.arch
  2. Path: sparky!uunet!ferkel.ucsb.edu!taco!gatech!swrinde!elroy.jpl.nasa.gov!ames!pioneer.arc.nasa.gov!lamaster
  3. From: lamaster@pioneer.arc.nasa.gov (Hugh LaMaster)
  4. Subject: Re: HOw many PC's make an Amdahl mainframe
  5. Message-ID: <1993Jan27.024351.17902@news.arc.nasa.gov>
  6. Sender: usenet@news.arc.nasa.gov
  7. Organization: NASA Ames Research Center, Moffett Field, CA
  8. References: <1k46ioINNijv@fido.asd.sgi.com> <1993Jan26.215541.9957@adobe.com>
  9. Date: Wed, 27 Jan 1993 02:43:51 GMT
  10. Lines: 67
  11.  
  12. In article <1993Jan26.215541.9957@adobe.com>, zstern@adobe.com (Zalman Stern) writes:
  13. |> In article <1k46ioINNijv@fido.asd.sgi.com> gints@prophet.esd.sgi.com (Gints  
  14. |> Klimanis) writes:
  15. |> > An Amdahl CEO in yesterday's San Jose Mercury news claimed there was no
  16. |> > room in the world that could how enough personal computers to match the
  17. |> > power of an Amdahl mainframe.  Any guesses  as to the # of PC's and disk
  18. |> > drives required to match this Amdahl Mount Everest of computing?
  19.  
  20.  
  21. |> Comments like this indicate that the big iron boys are pretty desperate.  
  22. |> They are fighting the dynamics of the market. There are *relatively* few  
  23. |> problems that require "mainframe power." Over time mainframes must either  
  24. |> become cheaper or more powerful. More powerful is limited because there are  
  25. |> fewer and fewer problems that require that kind of power and it becomes  
  26. |> harder and harder to make the machine more powerful. Cheaper is a problem  
  27. |> because the margins go down and a lot of a mainframe's costs are not  
  28. |> hardware oriented. (I.e. service, paying for the space and other central  
  29. |> facilities required.)
  30.  
  31. Actually, though, there are plenty of problems that require the largest 
  32. available power, and, in the commercial world, there are an increasing
  33. number of really big applications (e.g. VISA-type credit cards) which,
  34. generally, need an increasing number of transactions-per-second.  Anyone
  35. tried to buy anything with a VISA card the last week before Christmas?
  36. The wait can be rather long.   Credit card companies, Airline Reservations, 
  37. banks with ATM applications, you-name-it.  All have increasing needs for
  38. systems with expanding transaction rates.  A system which can do 2000 
  39. transactions/sec may indeed be worth a *lot* more than 200 systems which 
  40. can do 10 trans./sec.
  41.  
  42. The "problem" is not that users are not buying Big Iron.  In recent
  43. articles, numbers have been cited in the ~$14-$14 Billion dollar range
  44. for sales.  I would say that is a large market.  In dollar volume sales
  45. declined *slightly* over the last few recessionary years.
  46.  
  47. If there is a problem, I suspect that it dates from the days when machines
  48. being manufactured for $90K could sell for $1M+.  The industry is 
  49. restructuring as competition increases and margins shrink.  The market for
  50. big iron will be there for a long time, and it will continue to be large.  
  51. It is just going to be a lot harder to stay in that market.  And even harder
  52. to be in sales.
  53.  
  54.  
  55. The reason I am posting this is that I think it is a big mistake
  56. to underestimate the importance of big iron systems.  IMHO, most large
  57. data centers will continue to use large systems to provide the cheapest
  58. deliverable "bulk" CPU cycles, to manage large and growing data
  59. requirements, and to provide the highest possible transaction rates.
  60. As well as large engineering and scientific simulations.
  61. What has already disappeared is the use of "mainframes" for relatively
  62. mundane word processing, etc.  But, the data management requirements
  63. are still there.  Today, big iron systems have memory bandwidths of
  64. 1-200 GBytes/sec, raw IO bandwidths of 1000 MBytes/sec., I/O
  65. throughputs of around 100-200 MBytes/sec and up to 2000 integer-scalar 
  66. MIPS.  While this is maybe only ~200 486 systems, there is an enormous 
  67. difference in the capability between such systems.  A 200:1 difference in 
  68. power totally changes the capability of a system, as was pointed out 
  69. recently at Supercomputing '92.  I could go on, but, let's not confuse
  70. the financial troubles of a few big iron manufacturers with the 
  71. disappearance of their market.
  72.  
  73.  
  74. -- 
  75.   Hugh LaMaster, M/S 233-9,     UUCP:      ames!lamaster
  76.   NASA Ames Research Center     Internet:  lamaster@ames.arc.nasa.gov
  77.   Moffett Field, CA 94035-1000  Or:        lamaster@george.arc.nasa.gov 
  78.   Phone:  415/604-1056                     #include <usenet/std_disclaimer.h> 
  79.