home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #31 / NN_1992_31.iso / spool / comp / sys / amiga / hardware / 22047 < prev    next >
Encoding:
Internet Message Format  |  1992-12-24  |  2.8 KB

  1. Path: sparky!uunet!usc!wupost!spool.mu.edu!umn.edu!msus1.msus.edu!msus1.msus.edu!news
  2. Newsgroups: comp.sys.amiga.hardware
  3. Subject: Re: Data/Instruction Cache & BURST modes on 68030? Why/when?
  4. Message-ID: <1992Dec24.122601.1957@msus1.msus.edu>
  5. From: lkoop@TIGGER.STCLOUD.MSUS.EDU (LaMonte Koop)
  6. Date: 24 Dec 92 12:26:01 -0600
  7. Reply-To: lkoop@TIGGER.STCLOUD.MSUS.EDU
  8. References: <hellerS.724958427@batman> <72192@cup.portal.com><smcgerty.725067816@unix1.tcd.ie>,<72292@cup.portal.com>
  9. Organization: SCS GP/Engineering Cluster
  10. Nntp-Posting-Host: tigger.stcloud.msus.edu
  11. Lines: 36
  12.  
  13. In article <72292@cup.portal.com>, Tony-Preston@cup.portal.com (ANTHONY FRANCIS PRESTON) writes:
  14. >It is simple.  if you have both data and instructions in the same
  15. >cache, you have both data and instructions bumping each other in
  16. >the same cache.  The net result is you can have an instruction that
  17. >is replaced by data and a data item that is replaced by instruction
  18. >that you would cause a lose of a hit on the cache.  Cache obeys a
  19. >square law that says to double the hit rate, you need to quadurple the
  20. >cache size(4 times as much cache to get twice the hit rate).  By going
  21. >to an 8K cache, you have double the cache size, but have twice the
  22. >amount of access to it.
  23.  
  24.     Well, its not really quite as simple as that.  Many factors affect cache
  25. hit rates, including relative data/instruction access densities, and usage
  26. patterns for a particular system.  The associativity used in the cache can
  27. also greatly affect hit rates as well.  (for example, a 64 way set associative
  28. cache will generally invoke a better hit rate than a simple 4 way associative
  29. arrangment).
  30.  
  31. >  By having 2 separate caches, you get almost the same performance, but
  32. >don't have data and instructions hitting of the same cache locations.  What
  33. >I mean is If a data item caches to location 0 in the cache and the
  34. >instruction also does, the motorola way will be faster.  Otherwise they will
  35. >be the same speed.  If the instruction mix is spread of 4K or less, motorola
  36. >will be the same speed, if over 8K the intell way may be faster.  In
  37.  
  38.    This is true to a point.  However, it isn't the breaking reason for using
  39. a non-unified arrangement, though it does allow for a better seperation.  One
  40. important advantage to using seperate code/data caches is concurrent access to
  41. cache operands.  This is not possible in a unified arrangment.  Indeed, you will
  42. see instruction/data mix effects as described above with a unified cache though.
  43.  
  44.                  ----------------------------------------
  45.            LaMonte Koop -- SCSU Electrical/Computer Engineering
  46.  Internet: lkoop@tigger.stcloud.msus.edu -OR- f00012@kanga.stcloud.msus.edu
  47.               "You mean you want MORE lights on this thing???"
  48.  ---------------------------------------------------------------------------
  49.