home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / comp / parallel / 2537 < prev    next >
Encoding:
Text File  |  1992-11-17  |  1.4 KB  |  34 lines

  1. Newsgroups: comp.parallel
  2. Path: sparky!uunet!charon.amdahl.com!pacbell.com!decwrl!elroy.jpl.nasa.gov!sdd.hp.com!ncr-sd!ncrcae!hubcap!fpst
  3. From: cpr4k@holmes.acc.Virginia.EDU (Christian P. Roberts)
  4. Subject: Re: PVM & HeNCE
  5. Message-ID: <1992Nov16.164435.19568@murdoch.acc.Virginia.EDU>
  6. Sender: usenet@murdoch.acc.Virginia.EDU
  7. Organization: Academic Computing Center - U.Va.
  8. References:  <1992Nov15.011251.3464@colorado.edu>
  9. Date: Mon, 16 Nov 1992 16:44:35 GMT
  10. Approved: parallel@hubcap.clemson.edu
  11. Lines: 21
  12.  
  13. Regarding the following from Christos Triantafillou
  14. <christos@bohemia.cs.colorado.edu>:
  15. >>There is a rumor that PVM treats a whole parallel system
  16. >>(eg IPSC) like a single parallel node, that is, you can
  17. >>send messages between different IPSC systems but not
  18. >>between Ipsc's nodes. Is that true? 
  19.  
  20. Are you referring to the Intel hypercube here?  Do you mean that
  21. you are trying to run a hypercube program, where the Intel machine
  22. is a node in PVM?  Then are you asking whether or not you can have
  23. communication between the nodes on the hypercube (which I would 
  24. presume you still would be able to do), or whether you can have
  25. communication between a node of the hypercube and another PVM
  26. node, for example, a Cray?
  27.  
  28. -- 
  29.  
  30. Chris Roberts                     ITC/Academic Computing Center
  31. cpr4k@virginia.edu                University of Virginia           
  32. (804) 982-4693                    Charlottesville, Virginia 22903
  33.  
  34.