home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / comp / arch / 12434 < prev    next >
Encoding:
Text File  |  1993-01-28  |  2.6 KB  |  52 lines

  1. Newsgroups: comp.arch
  2. Path: sparky!uunet!munnari.oz.au!sgiblab!spool.mu.edu!yale.edu!ira.uka.de!math.fu-berlin.de!news.netmbx.de!Germany.EU.net!mcsun!news.funet.fi!hydra!klaava!veijalai
  3. From: veijalai@klaava.Helsinki.FI (Tony Veijalainen)
  4. Subject: Idea on super fast memory system
  5. Message-ID: <1993Jan27.095249.371@klaava.Helsinki.FI>
  6. Organization: University of Helsinki
  7. X-Newsreader: TIN [version 1.1 PL6]
  8. Date: Wed, 27 Jan 1993 09:52:49 GMT
  9. Lines: 41
  10.  
  11. Conventionally memory has been implemented in one hole block of address
  12. decoded ramchips and bus. The continuous bandwidth of memory chip is
  13. however limited and can't supply memory fast enough for fast processor
  14. without expensive cache systems.
  15.  
  16. Nowadays we are reading the news of 64 Mbit RAM chip implementations
  17. etc. The memory bandwidth is however still very limited. So how could it
  18. be speeded up.
  19.  
  20. 1) direct mapped cache on memory chip itself and very wide or multiple
  21. paths from memory cells to output pins.
  22.  
  23. COMMENT: This is quite obvious way, but I have not info about the
  24. economics of this kind of thing. So please give info: how costly is say
  25. 256 bit wide buss inside chip in number of memory cells? How about
  26. having four segments each with 64 bit path of access (possibly no sense
  27. because there mayby is no advantage otherwise than lower chip count
  28. compared to using four chips) ? How about massively parallel arrangement
  29. with say 1024 parts of chip with each having its very small direct
  30. mapped cache?
  31.  
  32. 2) Having multiple memory segments with own memory buss mapping
  33. consecutive memory addresses in interleave scheme to different memory
  34. systems.  So with n segments we have refense to same segment only every
  35. nth cycle in typicall case. Say we have 200 MHz processor and 50 memory
  36. systems, then we have typical address frequency of 4 MHz per block, like
  37. in my Acorn Archimedes A310 which uses 4 MHz clock, but uses burst mode
  38. in 8 MHz. If we offsett the memorysystems to operate in different 200
  39. Mhz cycles (1st block cycles 0,50,100,150, 2nd 1,51,101,151 or any fifty
  40. spaced partition of cycle numbers which ever allocation seemed
  41. sensible) and combine them in processor we get agregate bandwidth 200
  42. MHz practically allway. As long as we keep signals from memory systems
  43. short enough i.e. 1/200MHZ long, it would seem to me that there should
  44. be no problem in having memory system match or eaven exceed any given
  45. clock frequency. Where has these kind of memory system implemented and
  46. why have I not heared of them? Actually massively parallel computer is
  47. quite similar to this kind of memory architecture.
  48. -- 
  49. Tony Veijalainen    e-Mail: Tony.Veijalainen@helsinki.fi (preferred)
  50.          (finger veijalai@cc.helsinki.fi for more information)
  51.  
  52.