home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #26 / NN_1992_26.iso / spool / comp / arch / 10420 < prev    next >
Encoding:
Internet Message Format  |  1992-11-05  |  2.3 KB

  1. Path: sparky!uunet!charon.amdahl.com!pacbell.com!decwrl!spool.mu.edu!darwin.sura.net!jvnc.net!yale.edu!qt.cs.utexas.edu!cs.utexas.edu!sun-barr!news2me.EBay.Sun.COM!exodus.Eng.Sun.COM!flayout.Eng.Sun.COM!tremblay
  2. From: tremblay@flayout.Eng.Sun.COM (Marc Tremblay)
  3. Newsgroups: comp.arch
  4. Subject: Re: Interleaving the caches like memory? Newsgroups: comp.arch
  5. Date: 5 Nov 1992 17:30:14 GMT
  6. Organization: Sun Microsystems, Mt. View, Ca.
  7. Lines: 28
  8. Message-ID: <lfimh6INN671@exodus.Eng.Sun.COM>
  9. References: <1992Nov3.131105.21763@klaava.Helsinki.FI>
  10. NNTP-Posting-Host: flayout
  11. Keywords: memory cache, associative memory, searching, sorting
  12.  
  13. In article <1992Nov3.131105.21763@klaava.Helsinki.FI> veijalai@klaava.Helsinki.FI (Tony Veijalainen) writes:
  14. >Memory on high speed microcomputers is divided in multiple regions
  15. >according to <address> mod <interleave factor>.  Is it sensible to have
  16. >them cached with separate cache controller and mayby raise the frequency
  17. >of accessing sequential locations over the physical limits of sequential
  18. >access of one cache chip.  Second possibility would be having cache to
  19. >spy branch instructions like modern CPU:s and have parallel pre-cached
  20. >instruction pathes instead of instruction pipelines like CPU.  This
  21. >sounds sensible to me.
  22.  
  23. One can certainly have multiple banks for the on-chip caches as well as
  24. the off-chip caches. For instance, a superscalar processor can support 2 loads
  25. per cycle by implementing the data cache through two or more banks. This is cheaper
  26. than dual-porting the whole cache. For general purpose code, collisions do
  27. occur between the load addresses but for a reasonable number of banks the
  28. percentage is low which justifies the use of banks.
  29.  
  30. One issue that comes across for deeply pipelined machines is that for addresses
  31. computed as a sum of two values, it is not known "up-front" (before register file access)
  32. if the addresses will collide or not. Generating stalls a few cycles deep into
  33. the pipeline is not desirable since it increases the CPI (versus scheduling up-front).
  34. If the caches are interleaved using some low order bits then a short addition
  35. done after the register file access is enough.  Notice that even if the cache indexes
  36. required translated bits (e.g. when page size * associativity < cache size) this can
  37. still work since the low order bits are left alone.
  38.  
  39. - Marc Tremblay.
  40. Sun Microsystems.
  41.