home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #31 / NN_1992_31.iso / spool / comp / parallel / 2828 < prev    next >
Encoding:
Text File  |  1992-12-29  |  2.5 KB  |  59 lines

  1. Newsgroups: comp.parallel
  2. Path: sparky!uunet!zaphod.mps.ohio-state.edu!darwin.sura.net!gatech!hubcap!fpst
  3. From: lycmit@x1sun6.ccl.itri.org.tw (Yin-Chih Lin)
  4. Subject: Asking any paper/textbook concerning instruction-set parallelism
  5. Message-ID: <1992Dec29.142825.27620@hubcap.clemson.edu>
  6. Sender: fpst@hubcap.clemson.edu (Steve Stevenson)
  7. Organization: Clemson University
  8. Date: Tue, 29 Dec 92 15:39:55 CST
  9. Approved: parallel@hubcap.clemson.edu
  10. Lines: 47
  11.  
  12. Greetings:
  13.  
  14. I'm looking for any papers, documents or textbooks which are concerning
  15. about the insturction-set layer parallelism. As far as I know, there
  16. are many parallelisms can be pursued in the computing systems:
  17.  
  18.         . algorithm layer
  19.         . environment layer
  20.         . language and compiler layer
  21.         . OS and library layer
  22.         . instruction-set layer
  23.         . hardware layer
  24.  
  25. It's my impression that most of current parallel system implementations
  26. are mainly focused on hardware layer. I wonder whether instruction-set
  27. layer parallelism is worth to explore. Current CISC/RISC processors  
  28. seem don't consider implementing any instructions which support the
  29. concurrent execution (except floating-point operations). Although
  30. some processors (such as Inmos's Transputer series) also include 
  31. the inter-processor communication instructions, I doubt this is the
  32. only way to obtain the instrcution level parallelism. 
  33.  
  34. The vector processors are good enough for array operations but are
  35. criticized for most of the general-purpose programs are hard (if not
  36. impossible) to transform into vector forms. So you can find that 
  37. additional vector processors are attached in TMC's CM-5 nodes. 
  38.  
  39. MIT's dataflow machines seems be the only one computation model that can 
  40. support instruction level parallelism. Other High-Level-Language (HLL) 
  41. machines might be the another candidate, I'm not sure. 
  42.  
  43. Superpipeline and superscalar, however, are not my interesting. 
  44.  
  45. Please forward your direction to me. 
  46.  
  47. Thanks, 
  48.  
  49. Yin-Chih Lin    lycmit@x1sun6.ccl.itri.org.tw 
  50.  
  51. ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++ 
  52. Yin-Chih Lin                   Industrial Technology Research Institute (ITRI) 
  53. Design Eng.                    Computer & Communication Research Labs.  (CCL) 
  54. lycmit@x1sun6.ccl.itri.org.tw  Microcomputer System Department X100
  55. Tel: 886-35-917331             14 Bldg, 195 Chung Hsing Rd., Section 4
  56. Fax: 886-35-917503             Chutung, Hsinchu 31015
  57.                                Taiwan, R.O.C.
  58.  
  59.