home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / comp / graphics / 12069 < prev    next >
Encoding:
Internet Message Format  |  1992-11-18  |  4.8 KB

  1. Xref: sparky comp.graphics:12069 comp.graphics.visualization:1786
  2. Path: sparky!uunet!zaphod.mps.ohio-state.edu!rpi!batcomputer!munnari.oz.au!manuel.anu.edu.au!dubhe.anu.edu.au!dubhe.anu.edu.au!not-for-mail
  3. From: bcorrie@cs.anu.edu.au (Brian Corrie)
  4. Newsgroups: comp.graphics,comp.graphics.visualization
  5. Subject: Parallel Visualization TRs available for ftp
  6. Date: 19 Nov 1992 17:32:47 +1100
  7. Organization: Computer Science Department, ANU, Australia
  8. Lines: 89
  9. Message-ID: <1efcefINNebg@dubhe.anu.edu.au>
  10. NNTP-Posting-Host: dubhe.anu.edu.au
  11. Keywords: parallel visualization ftp
  12.  
  13. Hello world,
  14.  
  15. Two technical reports on scientific visualization techniques for
  16. multicomputers have been made available for anonymous ftp from the
  17. Department of Computer Science at the Australian National University.
  18. They are available from bellatrix.anu.edu.au in the directory
  19. pub/techreports/tr-cs-92-10 and pub/techreports/tr-cs-92-11.
  20. The details of the papers are enclosed below.
  21.  
  22. Enjoy,
  23.  
  24.     B
  25.  
  26.  
  27. ==============================================================================
  28.  
  29. Author   : Paul Mackerras
  30. Title    : A Fast Parallel Marching-Cubes Implementation on the Fujitsu AP1000
  31. Date     : August 1992
  32. Source   : Technical Report TR-CS-92-10, Department of Computer Science,
  33.            Australian National University, Canberra, ACT, Australia.
  34. Contact  : Paul Mackerras (paulus@cs.anu.edu.au)
  35. FTP      : anonymous ftp to bellatrix.anu.edu.au,
  36.            directory pub/techreports/tr-cs-92-10
  37. Abstract :
  38.  
  39. Parallel computers hold the promise of enabling interactive visualization of
  40. very large data sets.  Fulfilling this promise depends on the development
  41. of parallel algorithms and implementations which can efficiently utilize
  42. the power of a parallel computer.  Fortunately, many visualization algorithms
  43. involve performing independent computations on a large collection of data
  44. items, making them particularly suitable for parallelization.
  45.  
  46. This paper describes a high-performance implementation of the Marching
  47. Cubes isosurface algorithm on the Fujitsu AP1000, based on a fast
  48. serial Marching Cubes implementation.  On a 128-processor AP1000,
  49. our implementation can generate an isosurface for a volume of reasonable
  50. size (e.g. 2.6 million data points) in typically less than 0.5 seconds
  51. (depending on the number of polygons generated).
  52.  
  53. The Fujitsu AP1000 is an experimental large-scale MIMD (multiple-instruction,
  54. multiple data) parallel computer, composed of between 64 and 1024 processing
  55. cells connected by three high bandwidth, low latency communications networks.
  56. Each processing cell is a SPARC processor with 16MB of memory.  The cell
  57. processors do not share memory.
  58.  
  59. Our experience indicates that the Marching Cubes algorithm parallelizes well;
  60. in fact the speedup we obtain is actually greater than the number of
  61. processors (presumably due to cache effects).  However, it is necessary to
  62. perform any further processing of the generated surface (such as rendering,
  63. or evaluation of connected volumes) in parallel if massive slowdowns are to
  64. be avoided.
  65.  
  66. ==============================================================================
  67.  
  68. Authors  : Brian Corrie, Paul Mackerras
  69. Title    : Parallel Volume Rendering and Data Coherence on the Fujitsu AP1000
  70. Date     : August 1992
  71. Source   : Technical Report TR-CS-92-11, Department of Computer Science,
  72.            Australian National University, Canberra, ACT, Australia.
  73. Contact  : Brian Corrie (bcorrie@cs.anu.edu.au)
  74. FTP      : anonymous ftp to bellatrix.anu.edu.au,
  75.            directory pub/techreports/tr-cs-92-11
  76. Abstract :
  77.  
  78. Many scientific and engineering disciplines, through physical
  79. measurements or computational simulations, generate large scale
  80. three-dimensional data sets. Both the physical size 
  81. and the computational resources needed to render these data sets
  82. present a challenge to current rendering architectures and techniques.
  83.  
  84. The Fujitsu AP1000 has the memory capacity and the processing speed
  85. to render large three-dimensional data sets at interactive or
  86. near-interactive speeds. A parallel version of a volume renderer has been
  87. implemented using a ray-casting technique on this architecture.
  88. The two key issues in implementing this technique on a distributed
  89. memory, MIMD machine such as the AP1000 are the work and data distribution.
  90. To perform the data distribution, a distributed virtual memory for volume
  91. data is used. The importance of utilizing the data coherence that is inherent
  92. in volume data is demonstrated through the analysis of several case studies.
  93.  
  94. ==============================================================================
  95.  
  96.  
  97. -- 
  98.                 Brian Corrie (bcorrie@cs.anu.edu.au)
  99. Under the most rigorously controlled conditions of pressure, temperature,
  100. volume, humidity and other variables, the organism will do as it damn well
  101. pleases. Sounds like some of the code I have written......  8-)
  102.