home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / comp / parallel / 3016 < prev    next >
Encoding:
Text File  |  1993-01-21  |  67.6 KB  |  1,879 lines

  1. Newsgroups: comp.parallel
  2. Path: sparky!uunet!gatech!hubcap!fpst
  3. From: ipps93@halcyon.usc.edu (International Parallel Processing Symphosium)
  4. Subject: for comp.parallel
  5. Message-ID: <1993Jan21.140212.6401@hubcap.clemson.edu>
  6. Sender: fpst@hubcap.clemson.edu (Steve Stevenson)
  7. Organization: Clemson University
  8. Date: Wed, 20 Jan 93 16:00:12 PST
  9. Approved: parallel@hubcap.clemson.edu
  10. Lines: 1867
  11.  
  12.        7th INTERNATIONAL PARALLEL PROCESSING SYMPOSIUM, IPPS '93
  13.    Newport Beach Marriot Hotel and Tennis Club, Newport Beach, California
  14.             April 13--16, 1993
  15.  
  16. This is the plain text version of the advance program for IPPS '93.
  17. It is organized into four parts. Part I is an introduction to the
  18. symposium, Part II contains the list of accepted technical papers,
  19. Part III deals with tutorials and workshops, and Part IV contains the
  20. registration and hotel information and forms.
  21.  
  22. Registration for IPPS '93 with the IEEE computer society must be made
  23. before March 26th to take advantage of advance registration rates.
  24. Hotel reservations must be made before March 23rd. 
  25.  
  26. --------------------------------------------------------------------------
  27.  
  28.             PART I: Introduction
  29.             --------------------
  30.  
  31. IPPS '93 ORGANIZATION 
  32. ---------------------
  33.  
  34. SYMPOSIUM CHAIR
  35. H. T. Kung, Carnegie-Mellon University and Harvard University
  36.  
  37. SYMPOSIUM VICE-CHAIR
  38. Larry Canter, Computer Systems Approach, Inc.
  39.  
  40. Program Chair
  41. Viktor  K.  Prasanna, USC
  42.  
  43. Tutorials Chair
  44. Wei-Ming Lin, Mississippi State University
  45.  
  46. Parallel Systems Fair Chair
  47. Hussein Alnuweiri, University of British Columbia
  48.  
  49. Commercial Exhibits Chair
  50. Donna Quammen, George Mason University
  51.  
  52. Proceedings  Chair
  53. Anil S. Rao, Utrecht University 
  54.  
  55.  
  56. ORGANIZING COMMITTEE
  57.  
  58. Steering Committee Chair
  59. George Westrom, Odetics, Inc.
  60.  
  61. Finance
  62. Bill Pitts, Toshiba America Information Systems, Inc.
  63.  
  64. Local Arrangements
  65. Susamma Barua, California State University, Fullerton
  66.  
  67. Publicity Chair 
  68. Sally Jelinek, Electronic Design Associates
  69.  
  70. Publicity Coordinators
  71. Europe-Asia: Dionisios I. Reisis, National Technical University of Athens
  72. Africa-India-Pacific Rim: L. M. Patnaik, Indian Institute of Science
  73.  
  74.  
  75. Program Committee
  76. -----------------
  77.  
  78. Mikhail Atallah, Purdue University
  79. Doug DeGroot, Texas Instruments
  80. Jack Dongarra, University of
  81. Tennessee and Oak Ridge National Laboratory
  82. Mary Eshaghian, New Jersey Institute of  Technology
  83. Richard F. Freund, Naval Research
  84. and Development Center
  85. Kai Hwang, USC
  86. Oscar Ibarra, University Of California, Santa Barbara
  87. Mary Jane Irwin, Pennsylvania 
  88. State University
  89. David Kuck, University of Illinois
  90. F. Thomson Leighton, Massachusetts Institute of Technology
  91. Viktor  K.  Prasanna, USC
  92. K. Wojtek Przytula, Hughes Research Laboratories
  93. C. S. Raghavendra, Washington State University
  94. Sartaj Sahni, University of Florida
  95. Isaac Scherson, University of California, Irvine
  96. Assaf Schuster, Technion - Israel Institute of Technology
  97. R. K. Shyamasundar, Tata Institute of Fundamental Research, India
  98. H. J. Siegel, Purdue University
  99. Satish K. Tripathi, University of Maryland
  100.  
  101.  
  102. Sponsorship
  103. -----------
  104.  
  105. The 7th International Parallel Processing Symposium is sponsored by
  106. the IEEE Computer Society and is held in cooperation with the ACM
  107. Special Interest Group on Computer Architecture (SIGArch) and the
  108. Orange County chapter of the IEEE Computer Society. Additional support
  109. for IPPS '93 is being provided by MasPar Computer Corporation and NEC
  110. Research Institute.
  111.  
  112.  
  113. IPPS '93 Proceedings
  114.  
  115. The 1993 proceedings will be published by the IEEE Computer Society
  116. Press and made available to all registrants at the symposium. Extra
  117. copies and proceedings from previous symposia may be purchased at
  118. registration.
  119.  
  120.  
  121.  
  122. COME TO THE BEACH IN APRIL '93
  123.  
  124. Join us from Tuesday, April 13 through Friday, April 16, 1993 at the
  125. Newport Beach Marriott and Tennis Club ideally located between Los
  126. Angeles and San Diego.
  127.  
  128. In response to the call for participation, we have organized events
  129. which will focus on special topics of interest. These include 
  130. workshops, tutorials, a parallel systems fair, and commercial
  131. exhibits. 
  132.  
  133. WORKSHOPS
  134.  
  135. Five workshops have been organized for the first day of the symposium: 
  136.  
  137. 1. Heterogeneous processing
  138. 2. Parallel and distributed real-time systems
  139. 3. Input-output  in parallel computer systems
  140. 4. Analyzing scalability of parallel algorithms and architectures
  141. 5. Strategic directions in computational microdevices
  142.  
  143.  
  144. TUTORIALS
  145.  
  146. Four half-day and four full-day tutorials have been organized 
  147. for Tuesday and Friday featuring current topics: 
  148.  
  149. 1. Connection Machine CM-5:  Programming for performance
  150. 2. Data parallel programming and application development 
  151.    on the MasPar series of MPP systems
  152. 3. Programming support for distributed-memory computing   
  153.    environments
  154. 4. Software tools for visualization of parallel/distributed
  155.    programs
  156. 5. High-performance I/O systems
  157. 6. Parallel programming on the Intel Paragon
  158. 7. Introduction to parallel processing
  159. 8. Parallel processing algorithms and systems
  160.  
  161. PARALLEL SYSTEMS FAIR
  162.  
  163. This one day event is scheduled for Wednesday and features parallel
  164. systems under development in academic, industrial, and research sites.
  165. It is open to all registrants.
  166.  
  167. COMMERCIAL EXHIBITS
  168.  
  169. Companies will be demonstrating commercial products and systems of
  170. particular interest to IPPS attendees Wednesday through Friday.
  171.  
  172. SOCIAL EVENTS
  173.  
  174. On Wednesday evening (7-9 PM), the symposium will hold a wine and
  175. cheese reception. Co-hosted by MasPar Computer Corporation, this will
  176. provide an opportunity for attendees to meet other participants.
  177. Other events will be announced at registration.
  178.  
  179.  
  180. NEWPORT BEACH MARRIOTT
  181. HOTEL & TENNIS CLUB
  182.  
  183. The Newport Beach Marriott Hotel and Tennis Club is located south of
  184. Los Angeles in Orange County, ten minutes from the John Wayne/Orange
  185. County airport which is serviced by Alaska Airlines, American
  186. Airlines, American Eagle, America West, Continental, Delta, Northwest,
  187. TWA, United, and U.S. Air. The hotel provides complimentary limousine
  188. service. The Los Angeles International Airport (LAX) is serviced by
  189. all major air carriers and the drive time to Newport Beach is
  190. approximately 55 minutes.  Convenient shuttle bus service to the hotel
  191. may be arranged upon arrival at LAX.
  192.  
  193.  
  194.  
  195. DRIVING DIRECTIONS
  196.  
  197. Driving from John Wayne/Orange County Airport: Take MacArthur south to
  198. Jamboree Road. Continue down Jamboree to Santa Barbara Drive. Turn
  199. left onto Santa Barbara Drive. Hotel will be right at the top of the
  200. hill.
  201.  
  202. Driving from LAX: Take San Diego Freeway (405) south to the Corona del
  203. Mar Freeway (73). Exit on Corona del Mar Freeway, south toward Corona
  204. del Mar. Continue on to Jamboree Road and turn right onto Jamboree
  205. Road. Now proceed as above.
  206.  
  207. Driving from downtown LA: Take Santa Ana Freeway (5) south to Newport
  208. Freeway (55). Take Newport Freeway south to Corona Del Mar (73) and
  209. proceed as above.
  210.  
  211.  
  212. LOCAL ATTRACTIONS
  213.  
  214. The Newport Beach Marriott is located at Newport Center and overlooks
  215. the Newport Beach Country Club and Newport Harbor.  It is just ten
  216. minutes from John Wayne/Orange County airport and fewer minutes from
  217. the sandy beaches of the Pacific Ocean.  On premises is a tennis club,
  218. pool and sauna, and across the boulevard (an easy walk) are the
  219. Fashion Island speciality shops, department stores and cinemas, and
  220. plenty of eateries - from upscale restaurants to the Atrium open
  221. market, catering to a variety of tastes and appetites.
  222.  
  223.  
  224. Excursions may be taken to the San Diego Zoo and Sea World, and
  225. Universal Studios in Los Angeles. Nearby in Orange County is
  226. Disneyland. Given the local attractions, you may want to skip the
  227. traffic and crowds and take in local Newport Beach sites including
  228. Mariner's mile, Balboa Peninsula and Island, and Back Bay Preserve
  229. with its hiking paths and fine golf courses. Just up the road are the
  230. village communities of Corona del Mar and Laguna Beach which are the
  231. site of leading galleries.  For the more adventuresome, there is
  232. surfing and scuba diving.  This setting has been described as a
  233. "casual meeting site for those who don't take meetings casually."
  234.  
  235.  
  236. --------------------------------------------------------------------------
  237.  
  238.         PART II: List of Accepted Papers and Keynote Addresses
  239.         ------------------------------------------------------
  240.  
  241. -- Wednesday, April  14 ---
  242.  
  243. 8:30 AM - 9:30 AM, KEYNOTE ADDRESS
  244. Why BSP Computers?
  245. Leslie Valiant, Harvard University
  246.  
  247.  
  248. 10:00 AM - 12:00 noon, SESSION 1, Architectures-I
  249. Chair: Jean-Loup Baer, University of Washington
  250.  
  251. A Parallel Prolog Execution Model: Theoretical Approach and
  252. Experimental Results
  253. J.P. Bodeveix, Universite Paul Sabatier, and E. Bizouarn, Universite
  254. Paris-Sud.
  255.  
  256. Invalidation Delayed Coherence for Multiprocessors    
  257. Yung Syau Chen, University of Southern California.
  258.  
  259. A High Speed Dataflow Processing Element and Its Performance Compared
  260. to a Von-Neumann Mainframe
  261. J. N. Coleman, University of Newcastle- Upon Tyne.
  262.  
  263. Linked List Cache Coherence for Scalable Shared Memory Multiprocessors
  264. Manu Thapar, Hewlett-Packard Laboratories, Bruce Delagi and Michael J.
  265. Flynn, Stanford University.
  266.  
  267. A Performance Comparison of Several Superscalar Processor Models with
  268. a VLIW Processor
  269. John Lenell and Nader Bagherzadeh, University of California, Irvine.
  270.  
  271. Cache Coherence for Shared Memory Multiprocessors Based on
  272. Virtual Memory Support    
  273. Karin Peterson and Kai Li, Princeton University.
  274.  
  275.  
  276.  
  277. 10:00 AM - 12:00 noon, SESSION 2, Algorithms-I
  278. Chair: Oscar  Ibarra, University of California, Santa Barbara
  279.  
  280. Maintaining Bipartite Matchings in the Presence of Failures    
  281. Edwin Hsing-Mean Sha, University of Notre Dame, and Kenneth Steiglitz,
  282. Princeton University.
  283.  
  284. Parallel Algorithms for Rectilinear Link Distance Problems    
  285. Andrzej Lingas, Lund University, Anil Maheshwari, Tata Institute of
  286. Fundamental Research, and Jorg-Rudiger Sack, Carleton University.
  287.  
  288. Sorting n^{2} Numbers on n x n Meshes    
  289. Madhusudan Nigam and Sartaj Sahni, University of Florida.
  290.  
  291. On the Power of Segmenting and Fusing Buses    
  292. R. K. Thiruchelvan, Advance Paradigms, Inc., Jerry L. Trahan and R.
  293. Vaidyanathan, Louisiana State University.
  294.  
  295. A Separation Between Reconfigurable Mesh Models    
  296. Philip D. MacKenzie, University of Texas.
  297.  
  298. Sorting-Based Selection Algorithms for Hypercubic Networks    
  299. P. Berthome, A. Ferreira, S. Perennes, Ecole Normale Supe'rieure de
  300. Lyon, B. M. Maggs, NEC Research Institute, and C. G. Plaxton,
  301. University of Texas at Austin.
  302.  
  303.  
  304.  
  305. 10:00 AM - 12:00 noon, SESSION 3, Mapping/Scheduling-I
  306. Chair: Ashfaq Khokhar, USC
  307.     
  308. Mapping a Class of Run-Time Dependencies onto Regular Arrays
  309. G. M. Megson,  University of Newcastle-Upon-Tyne.
  310.  
  311. Parallel Algorithms for Hypercube Allocation
  312. Yeimkuan Chang and Laxmi N. Bhuyan, Texas A&M University.
  313.  
  314. Scheduling a Computational Dag on a Parallel System with Communication
  315. Delays and Replication of Node Execution
  316. Pauline Markenscoff and Yong Yuan Li, University of Houston.
  317.  
  318. Scheduling Independent Tasks On Partitionable Hypercube Multiprocessors    
  319. Bhagirath Narahari, George Washington University, and Ramesh
  320. Krishnamurti, Simon Fraser University.
  321.  
  322. Mapping Realistic Data Sets on Parallel Computers    
  323. R. Ponnuswamy, N. Mansour, A. Choudhary, and G. C. Fox, Syracuse
  324. University.
  325.  
  326. Load Balancing of DOALL Loops in the Perfect Club    
  327. Gary Elsesser and Viet Ngo, Cray Research Park, Sourav Bhattacharya
  328. and Wei-Tek Tsai, University of Minnesota.
  329.  
  330.  
  331. 1:30 PM - 3:30 PM, SESSION 4, Architectures-II
  332. Chair:  Mary Jane Irwin, Pennsylvania State University
  333.  
  334. Hierarchical Interconnection Cache Networks
  335. Sizheng Wei, Rutgers University, and Eugen Schenfeld, NEC Research
  336. Institute.
  337.  
  338. A Multi-Level Hierarchical Cache Coherence Protocol 
  339. for Multiprocessors    
  340. Craig Anderson and Jean-Loup Baer, University of Washington.
  341.  
  342. `Unstable Threads' Kernel Interface for Minimizing the Overhead of
  343. Thread Switching
  344. Shigekazu Inohara, Kazuhiko Kato, and Takashi Masuda, 
  345. University of Tokyo.
  346.  
  347. Global Combine on Mesh Architectures with Wormhole Routing    
  348. M. Barnett, University of Idaho, R. Littlefield, Pacific Northwest
  349. Lab., D. G. Payne, Intel Corporation, and R. A. Van de Geijn,
  350. University of Texas at Austin.
  351.  
  352. Impact of Multiple Consumption Channels on Wormhole Routed k-ary
  353. n-cube Networks
  354. Shobana Balakrishnan and Dhabaleswar K. Panda, The Ohio State
  355. University.
  356.  
  357. New Degree Four Networks:  Properties and Performance    
  358. Gebre Gessesse and Suresh Chalasani, University of Wisconsin-Madison.
  359.  
  360.  
  361. 1:30 PM - 3:30 PM, SESSION 5, Algorithms-II
  362. Chair: Mike Atallah, Purdue University
  363.  
  364. Sorting n Numbers on n x n Reconfigurable Meshes With Buses
  365. Madhusudan Nigam and Sartaj Sahni, University of Florida.
  366.  
  367. Optimal Mesh Computer Algorithms for Simple Polygons    
  368. Sumanta Guha, University of Wisconsin-Milwaukee.
  369.  
  370. An Efficient Parallel Algorithm for Min-Cost Flow on Directed
  371. Series-Parallel Neworks
  372. Amit Jain and N. Chandrasekharan, University of Central
  373. Florida.
  374.  
  375. Towards Optimal Parallel Radix Sorting    
  376. R. Vaidyanathan, Louisiana State University, C. R. P.  Hartmann and P.
  377. K. Varshney, Syracuse University.
  378.         
  379. On the Shortest Path Problem for Permutation Graphs    
  380. Oscar H. Ibarra and Qi Zheng, University of California, Santa Barbara.
  381.  
  382. A Parallel MSF Algorithm for Planar Graphs on a Mesh and Applications
  383. to Image Processing
  384. David Nassimi, New Jersey Institute of Technology.
  385.  
  386.  
  387. 1:30 PM - 3:30 PM, SESSION 6, Mapping/Scheduling-II
  388. Chair:  Sudhakar Yalamanchili, Georgia Institute of Technology
  389.  
  390. A Cluster-M Based Mapping Methodology    
  391. Mary M. Eshaghian, New Jersey Institute of Technology, and Muhammad E.
  392. Shaaban, University of Southern California.
  393.  
  394. Scheduling In and Out Forests in the Presence of Communication Delays
  395. Theodore A. Varvarigou, AT&T Bell Labs., Vwani P. Roychowdhury, Purdue
  396. University, and Thomas Kailath, Stanford University.
  397.  
  398. A Load Balancing Strategy for Priorized Execution of Tasks    
  399. Amitabh Bhuvangyan Sinha and Laxmikant V. Kale, University of
  400. Illinois.
  401.  
  402. Mapping onto Three Classes of Parallel Machines: A Case Study Using
  403. the Cyclic Reduction Algorithm
  404. Gene Saghi, H. J. Siegel, and Jeffrey L. Gray, Purdue University.
  405.  
  406. Mapping to Reduce Contention in Multiprocessor Architectures    
  407. Loren Schwiebert and D. N. Jayasimha, The Ohio State University.
  408.  
  409. Static Scheduling of Uniform Nested Loops    
  410. Liang-Fang Chao, Princeton University, and Edwin Hsing-Mean Sha, Notre
  411. Dame University.
  412.  
  413.  
  414. 4:00 PM - 6:00 PM, SESSION 7, Networks-I
  415. Chair: H. J. Siegel, Purdue University
  416.  
  417. The Connection Cubes: Symmetric, Low Diameter Interconnection Networks
  418. with Low Node Degree
  419. Nitin K. Singhvi, State University of New York at Binghamton.
  420.  
  421. Simulating Interconnection Networks in RAW    
  422. W. B. Ligon III, Clemson University, and U. Ramachandran, Georgia
  423. Institute of Technology.
  424.  
  425. A Trip-based Multicasting Model for Wormhole-routed Networks with
  426. Virtual Channels
  427. Yu-Chee Tseng and Dhabaleswar K. Panda, The Ohio State University.
  428.  
  429. Efficient Offline Routing of Permutations on Restricted Access Exanded
  430. Delta Networks
  431. Isaac D. Scherson and Raghu Subramanian, University of California,
  432. Irvine.
  433.  
  434. A Heuristic Approach for Embedding Communication Patterns in an
  435. Interconnection Cached Parallel Processing Network
  436. Vipul Gupta, Rutgers University, and Eugen Schenfeld, NEC Research
  437. Institute.
  438.  
  439. Permutation on the Mesh with Reconfigurable Bus: Algorithms and
  440. Practical Considerations
  441. Yen-Wen Lu, James B. Burr, and Allen M. Peterson, Stanford University.
  442.  
  443.  
  444. 4:00 PM - 6:00 PM, SESSION 8, Algorithms-III
  445. Chair: S. Rajashekaran, University of Pennsylvania
  446.  
  447. A Parallel Algorithm for Multiple Edge Updates of Minimum Spanning
  448. Trees
  449. Xiaojun Shen and Weifa Liang, University of Missouri-Kansas City.
  450.  
  451. Approximate Parallel Prefix Computation and Its Applications
  452. Michael T. Goodrich, Johns Hopkins University, Yossi Matias and Uzi
  453. Vishkin University of Maryland.
  454.  
  455. Testing a Simple Polygon for Monotonicity Optimally in Parallel
  456. Danny Z. Chen, University of Notre Dame, and Sumanta Guha, University
  457. of Wisconsin-Milwaukee.
  458.  
  459. 2D- and 3D-Optimal Parallel Image Warping    
  460. Craig M. Wittenbrink and Arun K. Somani, University of Washington.
  461.  
  462. Gossiping on Interval Graphs
  463. Suresh Singh and M. A. Sridhar, University of South Carolina.
  464.  
  465. Parallel Algorithms for Height Balancing Binary Trees    
  466. Srinivasan Venkatraman, Alicia Kime, and Kankanahalli Srinivas, West
  467. Virginia University.
  468.  
  469.  
  470. 4:00 PM - 6:00 PM, SESSION 9, Mapping/Scheduling-III
  471. Chair: Chip Weems, University of Massachusetts
  472.  
  473. A Framework for Predicting Delay Due to Job Interactions in a 2-D Mesh
  474. Multicomputer
  475. Dugki Min and Matt W. Mutka, Michigan State University.
  476.  
  477. A Partially Asynchronous and Distributed Algorithm for Load
  478. Balancing    
  479. Jianjian Song, National University of Singapore.
  480.  
  481. Task Scheduling on a Hypercube with Link Contentions    
  482. Seiichi Kon'ya and Tetsuji Satah, NTT NNetwork Innformation Systems
  483. Laboratories.
  484.  
  485. A Probabilistic Analysis of a Locality Maintaining Load Balancing
  486. Algorithm
  487. Kishan Mehrotra, Sanjay Ranka, and Jhychun Wang, Syracuse University
  488.  
  489. Multiprocessors Scheduling for Imprecise Computations in a Hard
  490. Real-Time Environment
  491. Ashok Khemka, K. V. Subrahmanyam, and R. K. Shyamasundar, Tata
  492. Institute of Fundamental Research.
  493.  
  494. Data Partitioning Schemes for Parallel Implementation of the Revised
  495. Simplex Algorithm for LP Problems
  496. Usha Sridhar and Anirban Basu, Center for the Development of Advanced
  497. Computing
  498.  
  499.  
  500.  
  501. 10:00 AM to 6:00 PM, PARALLEL SYSTEMS FAIR
  502.              ---------------------
  503.  
  504. Chair: Hussein M. Alnuweiri, University of British Columbia
  505.  
  506.  
  507. 10:00 A M - 12 noon, PSF Session-I, Multiprocessor Systems
  508. Chair: Mabo R. Ito, University of British Columbia
  509.  
  510. The NYU Ultracomputer
  511. Allan Gottlieb, Ronald Bianchini, Susan Dickey, and Richard Kenner,
  512. New York University.
  513.  
  514. Experience with the Hector Multiprocessor
  515. Michael Stumm, Zvonko Vranesic, Ron White, Ronald Unrau, and Kieth
  516. Farkas, University of Toronto.
  517.  
  518. Advanced Parallel Function Processor
  519. Steven R. Gieseking and Cecil O. Alford, Georgia Institute of
  520. Technology.
  521.  
  522. A T-9000 Based Parallel Image Processor
  523. R. S. Cok and J. Gerstenberger, Eastman Kodak Company.
  524.  
  525. Architecture, Operating System, and I/O Subsystem Design of the M^2
  526. Database Machine
  527. Yen-Jen Oyang, National Taiwan University.
  528.  
  529. Parallel Image, Signal, and Neural Network Processing with HNC's
  530. Vision Processor (ViP) Chip Set and HNC's SIMD Neurocomputer Array
  531. Processor (SNAP)
  532. Robert W. Means and K. P. Qing, Hecht-Nielsen Corporation, Inc.
  533.  
  534.  
  535. 1:30  PM - 3:30 PM, PSF Session-II, Software for Parallel Processing
  536. Chair: Paul Suhler, University of Southern California
  537.  
  538. On Massively Parallel Architectural Benchmarking: Kernels, Algorithms,
  539. and Architectures
  540. Issac D. Scherson and U. Krishnaswamy, University of California,
  541. Irvine.
  542.  
  543. The Stuttgart Parallel Processing Library SPPL and the X Windows
  544. Parallel Debugger XPDB
  545. Ronald Zink, Institute for Parallel and Distributed High-Performance
  546. Systems.
  547.  
  548. PACLIB: A System for Parallel Algebraic Computation on Shared Memory
  549. Multiprocessors
  550. Wolfgang Schreiner and Hoon Hong, Johannes Kepler University.
  551.  
  552. ||MAPLE||: A System for Parallel Symbolic Computation
  553. Kurt Siegl, Johannes Kepler University.
  554.  
  555. Ease: The Model and Its Implementation 
  556. Steven E. Zenith, Kuck and Associates, Inc.
  557.  
  558. PARSE: A Software Engineering Methodology for Parallel Program Design
  559. Ian Gorton, Jon Gray, and Innes Jelly, University of New South Wales.
  560.  
  561. 4:00 PM - 6:00 PM, PSF Session-III, Applications
  562. Chair: Allan Gottlieb, New York University 
  563.  
  564. Image Understanding on MasPar MP-1 and Connection Machine CM-5:
  565. Experiments and Performance Comparisons
  566. Ashfaq Khokhar, University of Southern California, Hyoung J. Kim,
  567. Kangwon National University, and Cho-Li Wang, University of Southern
  568. California
  569.  
  570. A Multiarchitecture Parallel-Processing Development Environment
  571. Scott Townsend, Richard Blech, and Gary Cole, NASA Lewis Research
  572. Center Group.
  573.  
  574. Further Development of a Distributed Transputer Based X-Server
  575. Michal Wojtulewicz and Gordon Makinson, University of Kent.
  576.  
  577. A Parallel Host Interface for High-Speed Networks
  578. Gerald W. Neufeld and Mabo R. Ito, University of British Columbia.
  579.  
  580. Projections: A Scalable Performance Tool
  581. Amitabh Balwant Sinha and Laxmikant V. Kale', University of Illinois.
  582.  
  583. Design and Implementation of a Distributed System using IBM PC
  584. Compatible Computers and a NOVELL Network
  585. C. J. Semple and V. Lakshmi Narasimhan, University of Queensland.
  586.  
  587.  
  588.  
  589.  
  590. -- Thursday, April 15 ---
  591.  
  592. 8:30 AM - 9:30 AM, KEYNOTE ADDRESS
  593. Designing Efficient Parallel Algorithms: Models and Paradigms with
  594. Applications to Image Processing
  595. Joseph Ja' Ja', University of Maryland
  596.  
  597.  
  598. 10:00 AM - 12:00 noon, SESSION 10, Networks-II
  599. Chair: Isaac Scherson, University of California, Irvine
  600.  
  601. Complexity of Intensive Communications on Balanced Generalized
  602. Hypercubes
  603. John K. Antonio and Longsong Lin, Purdue University, and Richard C.
  604. Metzger, Griffiss Air Force Base.
  605.  
  606. Analytical Models of Bandwidth Allocation in Pipelined k-ary n-Cubes
  607. Patrick T. Gaughan and Sudhakar Yalamanchili, Georgia Institute of
  608. Technology.
  609.  
  610. Reconfiguration of Binary Trees in Faulty Hypercubes    
  611. Pei-Ji Yang, University of Southern California, and C. S. Raghavendra,
  612. Washington State University.
  613.  
  614. On Synchronous Strictly Non-Blocking Concentrators and Generalized
  615. Concentrators
  616. H. K. Dai, University of North Dakota.
  617.  
  618. Design of an Efficient Reconfigurable Network    
  619. Arun K. Somani, University of Washington.
  620.  
  621. New Wormhole Routing Algorithms for Multicomputers    
  622. Rajendra V. Boppana, University of Texas at San Antonio, and Suresh
  623. Chalasani, University of Wisconsin-Madison.
  624.  
  625.  
  626.  
  627. 10:00 AM - 12:00 noon, SESSION 11, Applications-I
  628. Chair: Tomas Lang, University of  California, Irvine
  629.  
  630. Supporting Insertions and Deletions in Striped Parallel Filesystems
  631. Theodore Johnson, University of Florida.
  632.  
  633. A Portable Parallel Algorithm for VLSI Circuit Extraction    
  634. Balkrishna Ramkumar, University of Iowa, and Prithviraj Banerjee,
  635. University of Illinois.
  636.  
  637. Image Processing with the MGAP:  A Cost-Effective Solution    
  638. Raminder Singh Bajwa, Robert Michael Owens, and Mary Jane
  639. Irwin, Pennsylvania State University.
  640.  
  641. Fast Parallel Algorithms for Model Checking Using BDDs    
  642. Insup Lee and Sanguthevar Rajasekaran, University of Pennsylvania.
  643.  
  644. Fixed Size Linear Arrays for Stereo and Image Matching    
  645. Ashfaq Khokhar, University of Southern California, and Wei-Ming Lin,
  646. Mississippi State University.
  647.  
  648. KSR1 Multiprocessor: Analysis of Latency Hiding Techniques in a Sparse
  649. Solver
  650. Daniel Windheiser, Eric L. Boyd, Eric Hao, and Santosh G. Abraham,
  651. University of Michigan.
  652.  
  653.  
  654. 10:00 AM - 12:00 noon, SESSION 12, Software-I
  655. Chair: Leah Jamieson, Purdue University
  656.  
  657. Multiple Message Broadcasting in the Postal Model    
  658. Amotz Bar-Noy and Shlomo Kipnis, IBM T. J. Watson Research Center.
  659.  
  660. Concurrent Programming with Shared Objects in Networked Environments    
  661. Charles Hartley and V. S. Sunderam, Emory University.
  662.  
  663. Explicit Parallel Structuring for Rule-Based Programming    
  664. Shiow-yang Wu and James C. Browne, The University of Texas at Austin.
  665.  
  666. CMMD I/O : A Parallel Unix I/O    
  667. Michael L. Best, Craig Stanfill, Adam Greenberg, and Lewis W.
  668. Tucker,     Thinking Machines Corporation.
  669.  
  670. Symbolic Synthesis of Parallel Processing Systems    
  671. James J. Liu and Milos D. Ercegovac, University of California, Los
  672. Angeles.
  673.  
  674. Barrier Synchronization in Distributed-Memory Multiprocessors Using
  675. Rendezvous Primitives
  676. Sandeep K. S. Gupta and Dhabaleswar K. Panda, The Ohio State
  677. University.
  678.  
  679.  
  680. 1:30 PM - 3:30 PM, SESSION 13, Networks-III
  681. Chair: Dhabaleshwar K. Panda, The Ohio State University
  682.  
  683. Least Common Ancestor Networks    
  684. Isaac D. Scherson and Chi-Kai Chien, University of California, Irvine.
  685.  
  686. The Clustered-Star Graph: A New Topology for Large Interconnection
  687. Networks
  688. Shahram Latifi and Nader Bagherzadeh, University of California,
  689. Irvine.
  690.  
  691. Dynamic Embeddings of Trees and Quasi-Grids into Hyper-de Bruijn
  692. Networks
  693. Sabine Ohring, University of Wurzburg, and Sajal K. Das, University of
  694. North Texas.
  695.  
  696. On the Hierarchical Hypercube Interconnection Network    
  697. Q. M. Malluhi, Magdy A. Bayoumi, and T. R. Rao, University of
  698. Southwestern Louisiana.
  699.  
  700. Mapping Interconnection Networks into VEDIC Networks    
  701. Vipin Chaudhary, Wayne State University, Bikash Sabata and J. K.
  702. Aggarwal, University of Texas at Austin.
  703.  
  704. Hypershere Mapper: A Nonlinear Programming Approach to the Hypercube
  705. Embedding Problem
  706. John K. Antonio, Purdue University, and Richard C. Metzger, Griffiss
  707. Air Force Base.
  708.  
  709.  
  710. 1:30 PM - 3:30 PM, SESSION 14, Applications-II
  711. Chair: Pearl Wang, George Mason University
  712.  
  713. Experimental Evidence for the Power of Random Sampling in Practical
  714. Parallel Algorithms
  715. Mujtaba Ghouse and Michael T. Goodrich, Johns Hopkins University.
  716.  
  717. Parallel Analog Algorithms for Processing Polygonal Images on a
  718. Systolic Screen
  719. Sumanta Guha, University of Wisconsin-Milwaukee.
  720.  
  721. Efficient Parallel Formulations for Some Dynamic Programming
  722. Algorithms
  723. George Karypis and Vipin Kumar, University of Minnesota.
  724.  
  725. Fast Connectivity Algorithms on a Reconfigurable Network of Processors
  726. Hussein M. Alnuweiri, University of British Columbia.
  727.  
  728. Parallel Dynamic st-numbering and Applications
  729. Eliezer Dekel and Jie Hu, University of Texas at Dallas.
  730.  
  731. A Tensor Product Formulation of Strassen's Matrix Multiplication
  732. Algorithm with Memory Reduction
  733. B. Kumar, C-H. Huang, and P. Sadayappan, The Ohio State University, J.
  734. R. Johnson, Drexel University, and R. W. Johnson, St. Cloud
  735. University.
  736.  
  737.  
  738. 1:30 Pm - 3:30 Pm, Session 15, Software-Ii
  739. Chair: Craig Reinhart, Hughes Research Laboratories
  740.  
  741. Critical Performance Path Analysis And Efficient Code Generation
  742. Issues For The Seamless Architecture
  743. D. L. Bright, B. H. Pease, M. L. Roderick, S. Sundaram, And T. L.
  744. Casavant, University Of Iowa, And S. A. Fineberg, Nasa Ames Research
  745. Center.
  746.  
  747. Implementation Of Distributed Asynchrinous Algorithms With Stochastic
  748. Delays For Solving Time Drifting Optimization Problems
  749. Bassem F. Beidas And George P. Papavassilopoulos, University Of
  750. Southern California.
  751.  
  752. Data-Parallel Functional Programming
  753. Steven Vanderweil And James A. Davis, Iowa State University.
  754.  
  755. Advanced Methods Of Performance Data Processing And Analysis
  756. Dianne Rover, Abdul Waheed, And Markus Doetsch, Michigan State
  757. University.
  758.  
  759. Process Groups: A Mechanism For The Coordination Of And Communication
  760. Among Processes In The Venus Collective Communication Theory
  761. Vasannth Bala Ad Shlomo Kipnis, Ibm T. J. Watson Research Center.
  762.  
  763. The Data-Parallel Ada Run-Time System, Simulation And Emperical
  764. Results 
  765. Herbert G. Meyer, Intel Supercomputer Systems Division, And Stefan
  766. Jaehnichen, Technische Universitat Berlin.
  767.  
  768.  
  769.  
  770.  
  771. 4:00 PM - 6:00 PM, Panel Discussion
  772.  
  773. Will Massively Parallel Processing Ever Supply General Purpose High
  774. Performance Computing?
  775.  
  776. Moderator: Richard Freund, Naval Research And Development Center
  777.  
  778. Panelists: 
  779.     Prith Banerjeee, University Of Illinois
  780.     Fran Berman, University Of California, San Diego
  781.     Mary Eshaghian, New Jersey Institute Of Technology
  782.     Evans Harrington, Cray Research
  783.     Kai Hwang, Usc
  784.     Chani Pangli, Kendall Square Research
  785.     Vaidy Sunderam, Emory University
  786.     Bob Voigt, National Science Foundation
  787.     Jack Worlton, Worlton And Associates
  788.  
  789.  
  790.  
  791. -- Friday  April 16 ---
  792.  
  793. 8:30 Am - 9:30 Am
  794.  
  795. Keynote Address
  796. Writing Correct Parallel Programs.
  797. K. Mani Chandy, California Institute Of Technology
  798.  
  799.  
  800. 10:00 Am - 12:00 Pm, Session 16, Networks -Iv
  801. Chair: Suresh Chalasani, University Of Wisconsin, Madison
  802.  
  803.  
  804. On Some Topological Properties Of Hypercube, Incomplete Hypercube And
  805. Supercube
  806. Arunabha Sen, Arizona State University, Abhijit Sengupta, University
  807. Of South Carolina, And Subir Bandyopadhyay, University Of Windsor.
  808.  
  809. Design And Analysis Of Generalized Link Extended Hierarchical
  810. Interconnection Networks
  811. Omar H. Karam And Dharma P. Agrawal, North Carolina State University.
  812.  
  813. An Analytical Model For Wormhole Routing In Multicomputer
  814. Interconnection Networks
  815. Wei-Jing Guan, Wei K. Tsai, And Douglas Blough,     University Of
  816. California, Irvine.
  817.  
  818. Optimal Broadcasting In Binary deBruijn Networks And Hyper-deBruijn
  819. Networks
  820. Elango Ganesan And Dhiraj K. Pradhan, Texas A&M University.
  821.  
  822. Selection, Routing And Sorting On The Star Graph    
  823. Sanguthevar Rajasekaran, University Of Pennsylvania, And David S. L.
  824. Wei, Radford University.
  825.  
  826. Delay Analysis Of Synchronous Circuit-Switched Delta Networks    
  827. Amiya Bhattacharya, Ramesh R. Rao, And Ting-Ting Y. Lin, University Of
  828. California, San Diego.
  829.  
  830.  
  831. 10:00 Am - 12:00 Pm, Session 17, Applications-Iii
  832. Chair: Eugen Schenfeld, NEC Research Institute
  833.  
  834.  
  835. Strategies For Mapping Lee'S Maze Routing Algorithm Onto Parallel
  836. Architectures
  837. I-Ling Yen, Michigan State University, Rumi M. Dubash And Farokh B.
  838. Bastani, University Of Houston.
  839.     
  840. Parallel:  Applying Parallel Processing To NLP    
  841. Minhwa Chung And Dan Moldovan, University Of Southern California.
  842.  
  843. Parallel Computation Of Solvent Accessible Surface Area Of Protein
  844. Molecules
  845. Edward Suh, B. K. Lee, Robert Martino, National Institutes Of Health,
  846. Bhagirath Narahari, George Washington University, And Alok N.
  847. Choudhary, Syracuse University.
  848.  
  849. Parallel Simulated Annealing for the n-Queens Problem    
  850. R. Shonkwiler, Farzad Ghannadian, And C. O. Alford, Georgia Institute
  851. Of Technology.
  852.  
  853. Computing Convolutions On Mesh-Like Structures    
  854. Otfried Schwarzkopf, Utrecht University.
  855.  
  856. VLSI Architectures For Depth Estimation Using Intensity Gradient
  857. Analysis
  858. Raghu Sastry And N. Ranganathan, University Of South Florida, And
  859. Ramesh C. Jain, University Of Michigan.
  860.  
  861.  
  862.  
  863. 10:00 Am - 12:00 Pm, Session 18, Systems-I
  864. Chair: Lonnie Welch, New Jersey Institute Of Technology
  865.  
  866. Global Semigroup Operations In Faulty Simd Hypercubes
  867. C. S. Raghavendra, Washington State University, And M. A. Sridhar,
  868. University Of South Carolina.
  869.     
  870. Speedup, Communication Complexity And Blocking -- A La Recherche Du
  871. Temps Perdu
  872. Dan C. Marinescu And John R. Rice, Purdue University.
  873.  
  874. The Cm-2 Data Transposition Problem 
  875. Ronald J. Vetter, David H. C. Du, And Alan E. Klietz, University Of
  876. Minnesota.
  877.  
  878. Class And User Based Parallelism In Raven    
  879. Donald Acton And Gerald Neufeld, University Of British Columbia.
  880.  
  881. VMPP: A Virtual Machine For Parallel Processing    
  882. Edmond C. Loyot, Jr., and Andrew S. Grimshaw, University Of Virginia.
  883.  
  884. Autonomous Parallel Heuristic Combinatorial Search
  885. Chao-Chun Wang and Leah H. Jamieson, Purdue University.
  886.  
  887.  
  888. 1:30 Pm - 3:30 Pm, Session 19, Networks-Iv
  889. Chair: Steve Olariu, Old Dominion University
  890.  
  891. On Simulations Of Linear Arrays, Rings and 2-D Meshes On Fibonacci
  892. Cube Networks     
  893. Bin Cong and Sanjay Sharma, South Dakota State University, S. Q.
  894. Zheng, Louisiana State University.
  895.  
  896. Parallel Implementation Issues Of The Textured Algorithm For Optimal
  897. Routing Problem In Data Networks
  898. Garng Morton Huang, Shan Zhu and Wen-Lin Hsieh, Texas A&M University.
  899.  
  900. A Dynamic Multiple Copy Approach For Message Passing In A Virtual
  901. Cut-Through Environment
  902. Moncef Hamdaoui and Parameswaran Ramanathan, University Of
  903. Wisconsin-Madison.
  904.  
  905. Performance Of Buffered Multistage Interconnection Networks In Non
  906. Uniform Traffic Environment
  907. M. Atiquzzaman and M. S. Akhtar, La Trobe University.
  908.  
  909. Efficient Address Encodings For Optical Message Switching Systems    
  910. Yosi Ben-Asher, Haifa University, Aviad Cohen, Hebrew University, and
  911. Assaf Schuster, Technion-Israel Institute Of Technology.
  912.  
  913. A New Model For The Performance Evaluation Of Synchronous Circuit
  914. Switched Multistage Interconnection Networks
  915. Shuo-Hsien Hsiao and C. Y. Roger Chen, Syracuse University.
  916.  
  917.  
  918. 1:30 Pm - 3:30 Pm, Session 20, Applications-Iv
  919. Chair: Salim Hariri, Syracuse University
  920.  
  921. Parallel Execution Of Real-Time Rule-Based Systems    
  922. Albert Mo Kim Cheng, University Of Houston.
  923.  
  924. Managing The Bottlenecks In Parallel Gauss-Seidel Type Algorithms For
  925. Power Flow Analysis
  926. G.  Huang and W. Ongsakul, Texas A&M University.
  927.  
  928. Towards Understanding The Role Of Block Partitioning In Sparse
  929. Cholesky Factorization
  930. Sesh Venugopal, Rutgers University, and Vijay K. Naik, Ibm T.J. Watson
  931. Research Center.
  932.  
  933. Parallel A* Algorithms And Their Performance On Hypercube
  934. Multiprocessors
  935. Shantanu Dutt and Nihar R. Mahapatra, University Of Minnesota.
  936.  
  937. Mapping Of Uniform Dependence Algorithm Onto Fixed Size Processor
  938. Arrays
  939. Zhigang Chen and Weijia Shang, University of Southwestern Louisiana.
  940.  
  941. On the Utilisation of Data Duplication to Accelerate the SORT
  942. Operation On Mesh Architectures
  943. Hossam ElGindy, The University Of Newcastle.
  944.  
  945.  
  946.  
  947. 1:30 PM - 3:30 PM, Session 21, Systems-Ii
  948. Chair: Dan Moldovan, University of Southern California
  949.  
  950. An Efficient Atomic Broadcast Protocol For Client-Server Models    
  951. Thomas Becker and Klaus Grieger, University Of Kaiserslautern.
  952.  
  953. Transformation Of Doacross Loops On Distributed Memory Systems    
  954. A. Zaafrani and M. R. Ito, University Of British Columbia.
  955.  
  956. Automatic Parallelization Of LINPACK Routines On Distributed Memory
  957. Parallel Processors
  958. Matthias Neeracher and Roland Ruhl Gloriastrasse, ETH.
  959.  
  960. Performance Characteristics Of The IPSC/860 and CM-2 I/O Systems    
  961. John Krystynak and Bill Nitzberg, NASA Ames Research Center.
  962.  
  963. OCCAM Prototyping Of Massively Parallel Applications From Colored
  964. Petri-Nets
  965. F. Breant and J. F. Peyre, University Of Paris.
  966.  
  967. C Parallelizing Compiler On Local-network-based Computer Environment    
  968. Kouichi Asakura, Toyohide Watanabe, and Noboru Sugie, Nagoya
  969. University.
  970.  
  971. --------------------------------------------------------------------------
  972.  
  973.             Part III: Workshops and Tutorials
  974.             ---------------------------------
  975.  
  976. Workshops
  977. ---------
  978.  
  979. 2nd WORKSHOP ON HETEROGENEOUS PROCESSING
  980. ----------------------------------------
  981.  
  982. Workshop Chair:
  983. Richard F. Freund, Naval Research and Development Center
  984.  
  985.  
  986. Program Co-Chairs:
  987.  
  988. Mary Eshaghian, New Jersey Institute Of  Technology
  989. Vaidy Sunderam, Emory University
  990.  
  991. Program Committee:
  992.     Fran Berman, University Of California, San Diego
  993.     Tom Kitchens, Department Of Energy
  994.     Sam Lomonaco, University Of Maryland
  995.     Danny Menasce, George Mason University
  996.     Jerry Potter, Kent State University
  997.     Viktor  K. Prasanna, USC
  998.     Guna Seetharaman, University Of Southwestern Louisiana
  999.     H. J. Siegel, Purdue University
  1000.  
  1001.  
  1002. 8:30 Am - 9:30 Am, HP Keynote Address
  1003.  
  1004. Heterogeneous Associative Computing.
  1005. Jerry L. Potter, Kent State University
  1006.  
  1007. 10:00 Am - 12:00 Noon, Hp Session-I, Theory
  1008. Chair: Fran Berman, University Of California, San Diego
  1009.  
  1010. A Selection Theory and Methodology for Heterogeneous Supercomputing
  1011. Song Chen and Mary M. Eshaghian, New Jersey Institute Of Technology,
  1012. Ashfaq Khokhar and Muhammad E. Shaaban, University Of Southern
  1013. California.
  1014.  
  1015. Partitioning Problems For Heterogenous Computer Systems 
  1016. M. Ashraf Iqbal, University Of Engineering and Technology, Lahore.
  1017.     
  1018. Experiments With a Task Partitioning Model For Heterogeneous Computing
  1019. David J. Lilja, University Of Minnesota.
  1020.         
  1021. Heuristics For Mapping Parallel Computations To Heterogeneous Parallel
  1022. Architectures
  1023. L. Tao and Y.C. Zhao, Concordia University, and Bhagirath Narahari,
  1024. George Washington University.
  1025.  
  1026. Load Distribution Optimization In Heterogeneous Multiple Processor
  1027. Systems
  1028. Emile Haddad, Virginia Polytechnic Institute and State University.
  1029.     
  1030. Problem Representations For An Automatic Mapping Algorithm On
  1031. Heterogeneous Processing Environments
  1032. Chokchai Leangsuksun and Jerry Potter, Kent State University.
  1033.  
  1034.  
  1035. 1:30 Pm  -  3:30 Pm, Hp Session-Ii, Tools and Systems
  1036. Chair: Muhammad E. Shaaban, University Of Southern California
  1037.  
  1038. A Framework For Compile-Time Selection Of Parallel Modes in an SIMD/SPMD
  1039. Heterogeneous Environment
  1040. Daniel W. Watson, H.J. Siegel, John K. Antonio, and Mark A. Nichols,
  1041. Purdue University.
  1042.  
  1043. Triton/1: A Massively-Parallel Mixed-Mode Computer Designed To Support
  1044. High Level Languages
  1045. Christian G. Herter, Thomas M. Warschko, Walter F. Tichy, and Michael
  1046. Philippsen, University Of Karlsruhe.
  1047.  
  1048. Towards A Virtual Multicomputer    
  1049. Duncan Batey and Julian Padget,     University Of Bath.
  1050.  
  1051. Developing Applications for a Heterogeneous Computing Environment    
  1052. Ralph Butler, William D. Gropp, and Ewing L. Lusk, Argonne National
  1053. Laboratory.
  1054.  
  1055. Heterogeneous by Design: An Environment For Exploiting Heterogeneity
  1056. Richard P. LaRowe, Jr., and Thomas H. Probert, Worcester Polytechnic
  1057. Institute.
  1058.  
  1059. Xad: A Tool For Monitoring PVM Programs
  1060. Adam Louis Beguelin, Carnegie Mellon University.
  1061.  
  1062.  
  1063. 4:00 Pm - 6:00 Pm, Hp Session-Iii, Applications
  1064. Chair: Guna Seetharaman, University Of Southwestern Louisiana
  1065.  
  1066.  
  1067. Invited Paper: 
  1068. Heterogeneous Computing For Command and Control 
  1069. J. P. Schill, Naval Research and Development Center.
  1070.  
  1071. A Case Study In Metacomputing: Distributed Simulations Of Mixing In
  1072. Turbulent Convection
  1073. A. E. Klietz, Minnesota Supercomputer Center, A.V. Malevsky and K.
  1074. Chin-Purcell, University Of Minnesota.
  1075.     
  1076. Partitioning Algorithms for A Class Of Application Specific
  1077. Multiprocessor Architectures
  1078. C. De Castro And S. Yalamanchili, Georgia Institute Of Technology.
  1079.  
  1080. Design Of A Heterogeneous Parallel Processing System For Beam Forming
  1081. C. H. Lee And Dan Sullivan, Naval Postgraduate School.
  1082.     
  1083. Image Understanding: A Driving Application For Research In
  1084. Heterogeneous Parallel Processing
  1085. Charles C. Weems, Jr., University Of Massachusetts.
  1086.  
  1087. Discussion And Chair'S Concluding Remarks.
  1088.  
  1089.  
  1090.  
  1091.  
  1092. Workshop On Parallel And Distributed Real-Time Systems
  1093. ------------------------------------------------------
  1094.  
  1095. Workshop Co-Chairs:
  1096.  
  1097. Alexander D. Stoyenko, New Jersey Institute Of Technology     
  1098. Lonnie R. Welch, New Jersey Institute Of Technology 
  1099.  
  1100. As evidenced in several lectures at the recent NATO Advanced Study
  1101. Institute On Real-Time Computing, there is a need for collaboration
  1102. between the researchers in the field of Parallel and Distributed
  1103. Processing and the field of Real-Time Systems.  Parallel and
  1104. Distributed Processing techniques can be applied in Real-Time Systems
  1105. to meet timing constraints and to increase Fault Tolerance.  To
  1106. encourage discussion of research results from these fields in a forum
  1107. where scientists from each field are present, a one day workshop will
  1108. be held.  The workshop will include paper presentations by leading
  1109. researchers working in these complimentary areas.  The
  1110. state-of-the-art in areas such as those listed below will be
  1111. described.
  1112.  
  1113. -Assignment Of Tasks To Processors 
  1114. -Compiler Techniques 
  1115. -Complex Systems Engineering 
  1116. -Scheduling and Resource Allocation 
  1117. -Architecture and Hardware 
  1118. -Operating Systems 
  1119. -Fault Tolerance 
  1120. -Communications 
  1121. -Case Studies and Applications 
  1122. -Tools 
  1123. -Parallel Algorithms 
  1124.  
  1125.  
  1126. For Further Information, Contact Either Program Co-Chair At: 
  1127.     The Real-Time Computing Laboratory
  1128.     Department Of Computer and Information Science    
  1129.         New Jersey Institute Of Technology    
  1130.         University Heights     
  1131.     Newark, NJ 07102     
  1132.  
  1133.         (201) 596-5765 alex@vienna.njit.Edu
  1134.      (201) 596-5683 welch@vienna.njit.Edu
  1135.      Fax: (201) 596-5777 
  1136.  
  1137. This Workshop is Co-Sponsored by the Real-Time Computing Laboratory at
  1138. NJIT, The Institute for Systems Integration at NJIT, and the IEEE
  1139. Technical Committee on Parallel Processing.
  1140.  
  1141.  
  1142.  
  1143. WORKSHOP ON INPUT-OUTPUT IN PARALLEL COMPUTER SYSTEMS
  1144. -----------------------------------------------------
  1145.  
  1146. Workshop Co-Chairs:
  1147.  
  1148. Ravi Jain, Bellcore
  1149. John Werth, University of Texas at Austin
  1150. J. C. Browne, University of Texas at Austin
  1151.  
  1152. The workshop will focus on the I/O bottleneck facing parallel computer
  1153. systems for many important applications such as multimedia information
  1154. systems and volume visualization.  Recognition of the importance of
  1155. this problem has been growing steadily, and there have been a number
  1156. of proposed solutions.  There have been proposals to parallelize
  1157. access to disks by striping or interleaving, provide enhanced
  1158. architectural support for I/O by novel I/O interconnection
  1159. architectures, implement sophisticated resource management algorithms
  1160. for parallel I/O, enhance compiler support for overlapping parallel
  1161. I/O with computation, and to structure applications to minimize the
  1162. impact on the I/O subsystem.  The proposals thus span hardware,
  1163. architecture, systems software and algorithms.  In addition, several
  1164. commercial products have become available which provide parallel I/O
  1165. capabilities for supercomputer systems.  The workshop will bring
  1166. together researchers in order to foster further research on these
  1167. approaches and their integration into comprehensive systems solutions.
  1168.  
  1169. Particular questions to be discussed will include:
  1170.    - the data transfer demands of current and
  1171. future applications
  1172.    - compiler and operating systems support for
  1173. parallel I/O
  1174.    - algorithms for managing the resources
  1175. required by parallel I/O
  1176.    - design and performance of I/O subsystems
  1177. and interconnection architectures
  1178.    - the impact of high-speed storage and channel 
  1179. technology
  1180.  
  1181. The workshop will feature research papers as well as a panel
  1182. discussion.  For further information, please contact one of the
  1183. workshop co-chairs.
  1184.  
  1185. Ravi Jain                 
  1186. Bellcore                    
  1187. MRE 2P342                   
  1188. 445 South Street             
  1189. Morristown, NJ 07962    
  1190. Phone: (201) 829-4756    
  1191.  
  1192. John Werth
  1193. Department Of Computer Sciences
  1194. Taylor Hall Room 2.124
  1195. University Of Texas At Austin
  1196. Austin, TX 78712
  1197. Phone: (512) 471-9583
  1198.  
  1199. For enquiries by e-mail: ippsio@thumper.bellcore.com
  1200.  
  1201.  
  1202.  
  1203. WORKSHOP ON ANALYZING  SCALABILITY  OF  PARALLEL ALGORITHMS AND ARCHITECTURES
  1204. -----------------------------------------------------------------------------
  1205.  
  1206. Workshop Co-chairs:
  1207.  Vipin Kumar, University of Minnesota
  1208.  Xian-He Sun, NASA Langley Research Center
  1209.  
  1210. Scalability of a parallel computer system denotes the degree to which
  1211. the system can effectively use increasing number of processors.
  1212. Scalability analysis could be used to predict/analyze performance when
  1213. the parallel computer is scaled up in terms of number of processors,
  1214. processors speed and the speed of communication.  It could be used for
  1215. designing better parallel algorithms and architectures.  The need for
  1216. a concept of scalability both with respect to the architecture and the
  1217. algorithm (implemented on the architecture) has been well established.
  1218. Yet, there is no consensus on how the scalability of a parallel system
  1219. should be determined.
  1220.  
  1221.  
  1222. The objective of this workshop is to critically assess the state of
  1223. the art in the theory of scalability analysis, and motivate further
  1224. research.  The workshop will bring together research done by
  1225. theoreticians, application developers, and designers of architectures
  1226. and system software on scalability analysis of large-scale parallel
  1227. systems.  Topics of interest include but are not limited to
  1228. scalability metrics, scalability analysis of parallel algorithms,
  1229. applications, and architectures, Cost effectiveness of scaling
  1230. parallel architectures in terms of performance, software tools for
  1231. scalable parallel systems.  The workshop will consist of invited as
  1232. well as contributed presentations by various researchers, and
  1233. discussion sessions involving presenters and participants.
  1234.  
  1235. Two copies of an extended abstract (preferably no more than 4 pages)
  1236. should be sent to each of the workshop chair by February 1, 1993.  The
  1237. authors will be notified of the decision by March 1, 1993.
  1238.  
  1239.  
  1240. Vipin  Kumar
  1241. Computer Science Department
  1242. University of Minnesota
  1243. Minneapolis,     MN    55455
  1244. Tel:    (612)-624-8023  
  1245. internet:kumar@cs.umn.edu 
  1246. FAX: (612)-625-0572
  1247.  
  1248. Xian-He Sun
  1249. ICASE
  1250. NASA Langley Research Center
  1251. Hampton, Virgina 23665
  1252. Tel:  (804)-864-8018     
  1253. internet: sun@icase.edu
  1254. FAX:  (804)-864-6134
  1255.  
  1256.  
  1257.  
  1258. WORKSHOP ON STRATEGIC DIRECTIONS IN COMPUTATIONAL MICRODEVICES
  1259. --------------------------------------------------------------
  1260.  
  1261. Workshop Co-chairs:
  1262.  Sandeep Gulati, JPL/Caltech
  1263.  James Burr, Stanford University
  1264.  Jacob Barhen, JPL/Caltech
  1265.  
  1266.  
  1267. This workshop co-sponsored by NASA and DoD brings together researchers
  1268. of varied experience, to identify and evolve new directions and
  1269. engineering practices in massively parallel, reconfigurable,
  1270. ultra-high density microcomputing devices, packaging and
  1271. implementation technologies. In the context of current technology
  1272. outreach, this workshop shall seek to explore the synergism between
  1273. advances in electronic, quantum-optoelectronic and molecular
  1274. electronic devices, biosensors and micropackaging. An important
  1275. unifying element underlying all disussion would be the emphasis on low
  1276. energy computation. In particular emerging technologies for
  1277. high-density processor-memory, processor-processor and
  1278. processor-sensor fusion will be examined.  This workshop shall by
  1279. design be interdisciplinary, specifically based on a flow of ideas
  1280. across the boundaries of biological information processing,
  1281. nanotechnology, biomolecular or biomimetic materials, traditional
  1282. computer science, applied physics and fabrication technology. In
  1283. addition to exploring the computational physics underlying the
  1284. microdevices, the workshop would provide a juxtaposition to massively
  1285. parallel and distributing processing as well as neuroprocessing. In
  1286. summary, an attempt will be made to leverage this technological
  1287. cross-fertilization to address fundamental issues in phenomenology,
  1288. molecular circuitry and fabrication technology and implications to
  1289. machine intelligence.
  1290.  
  1291. For additional detail contact any of the workshop chairs. 
  1292.  
  1293. Sandeep Gulati, Tel: (818)-354-3877, email: sgulati@jpl-cray.jpl.nasa.gov
  1294. James Burr, Tel: (415)-723-4087, email: burr@mohave.stanford.edu
  1295. Jacob Barhen, Tel: (818)-354-9218
  1296.  
  1297.  
  1298.  
  1299.  
  1300. Tutorials
  1301. ---------
  1302.  
  1303. TUTORIAL 1 (8:30 AM-12:30 PM, April 13)
  1304.  
  1305. Connection Machine CM-5: Programming for Performance
  1306.  
  1307. Lew Tucker and Adam Greenberg, Thinking Machines Corporation
  1308.  
  1309. Who Should Attend: This tutorial is targeted at application developers
  1310. and scientists interested in learning about the programming techniques
  1311. available on the massively parallel Connection Machine CM-5.
  1312.  
  1313. Course Description: The CM-5 is a massively parallel computer designed
  1314. with an architecture which supports multiple forms of parallelism:
  1315. data parallelism, message passing, and distributed processing.
  1316. Application developers and research scientists are now presented with
  1317. an unprecedented choice of programming models which may used to
  1318. address a particular application requirement.  This course will begin
  1319. with a brief discussion of the basic architecture of the CM-5 and move
  1320. quickly on to the issue of how developers may make use of different
  1321. programming models and techniques to achieve high performance. Data
  1322. parallel programming is supported by Fortran 90 (CM Fortran/HPF) and
  1323. C*.  The MIMD view provides independent threads and message passing.
  1324. Of particular interest is the manner in which different forms of
  1325. parallelism (data parallel and asynchronous message passing) may be
  1326. used in the same application program.  This "global/nodal" programming
  1327. model combines these two major modes allowing "global-view" languages
  1328. to call local node-level subroutines.  This merging of the two
  1329. dominant schools of parallel programming opens up new opportunities
  1330. for achieving high performance on parallel machines.
  1331.  
  1332. Lecturers: Lew Tucker is a senior scientist and director of
  1333. programming models at Thinking Machines Corporation.  He is one of the
  1334. principle system architects of the CM-5.  Adam Greenberg is project
  1335. leader of the CMMD message passing group at Thinking Machines
  1336. Corporation and conducts research on massively parallel algorithms for
  1337. fluid dynamics.
  1338.  
  1339.  
  1340. TUTORIAL 2 (2:00 PM - 6:00 PM, April 13)
  1341.  
  1342. Data Parallel Programming and Application Development on the MasPar
  1343. Series of MPP Systems
  1344.  
  1345. Mahesh Rajan and Fairy Knappe MasPar Computer Corporation
  1346.  
  1347. Who Should Attend: This course is geared towards the scientist or
  1348. engineer interested in programming techniques for MasPar's MPP
  1349. systems.
  1350.  
  1351. Course Description: The objective of this tutorial is to familiarize
  1352. the audience with MasPar's MP Series architecture and its integrated
  1353. programming environment which includes MasPar Fortran (Fortran 90),
  1354. MasPar's Programming Language (MPL-MasPar's Parallel C), plus tools to
  1355. accelerate the development of data-parallel software.  Various
  1356. examples of application kernels will be overviewed. Porting and
  1357. optimization techniques will be discussed.
  1358.  
  1359. This tutorial will cover the following:
  1360.  
  1361. - Overview on the MP-Series Architecture which will include
  1362.   Processing, communication, and IO subsystems.
  1363.  
  1364. - Overview of MasPar's programming environment which will highlight
  1365.   many features is this window-based toolset.
  1366.  
  1367. - Overview of Programming Languages and Application Libraries.
  1368.  
  1369. - Kernels from various applications will reviewed with emphasis on
  1370.   data structures to exploit parallelism in the application.
  1371.  
  1372. Lecturers: Mahesh Rajan is a Systems Engineer for MasPar Computer
  1373. Corporation.  Prior to joining MasPar, Dr. Rajan worked for
  1374. Supercomputing Solutions, Inc., as a manager of Math Libraries.  He
  1375. received his doctorate degree in Engineering Mechanics from Virginia
  1376. Tech in 1981.  He served as a faculty at Arizona State University from
  1377. 1981 to 1988.  His research interests are parallel computer
  1378. algorithms, computational mechanics and nonlinear mechanics.  Fairy
  1379. Knappe is also a Systems Engineer for MasPar.  Before joining MasPar,
  1380. Fairy worked for Star Technologies, Inc.  a manufacturer of
  1381. vector-based processors, from 1983-1985 and from 1986 to 1992, in
  1382. various positions from Software Engineering to Technical Sales
  1383. Support.  She was also in Software Engineering at ETA Systems for a
  1384. 12-month period in 1985-86.  Fairy has a B.S degree in Quantitative
  1385. Systems from Arizona State University.
  1386.  
  1387.  
  1388.  
  1389. TUTORIAL 3 (8:30 AM - 6:00 PM, April 13)
  1390.  
  1391. Programming Support for Distributed-Memory Computing Environments
  1392.  
  1393. Lionel M. Ni and Philip K. McKinley, Michigan State University
  1394.  
  1395. Who Should Attend: Intended for engineers, managers, researchers, and
  1396. other users who are interested in developing programming tools or
  1397. application programs that can exploit such tools in distributed-memory
  1398. computing environments, including scalable multiprocessors and
  1399. networked collections of workstations.
  1400.  
  1401. Course Description: Both distributed-memory multiprocessors and
  1402. networks of workstations are considered to be promising platforms for
  1403. high performance computing.  Although many such environments are
  1404. available, their future success depends on appropriate programming
  1405. support.  The objective of this tutorial is to describe different
  1406. methods and levels of support to assist programmers in developing
  1407. computationally-intensive applications in such environments. The
  1408. tutorial will begin with an introduction to the architectures of
  1409. existing and emerging distributed-memory computing environments,
  1410. including massively parallel computers and high-speed interconnects
  1411. for workstations, followed by a discussion of parallel computation
  1412. models and low-level communication mechanisms and protocols. Both
  1413. traditional message-based parallel programming support, such as PVM,
  1414. P4, and PICL, and high-level data-parallel languages, such as High
  1415. Performance Fortran (HPF), will be covered.  Scalable communication
  1416. libraries and compilers that translate language constructs into
  1417. appropriate communication primitives will be described.  Finally,
  1418. several visualization and monitoring tools, such as ParaGraph and
  1419. HeNCE, which assist users in developing and testing scalable software,
  1420. will be reviewed.
  1421.  
  1422.  Course Outline:
  1423.  . Introduction and Overview
  1424.  . Distributed-Memory Computing Environments
  1425.  . Parallel Computation Models
  1426.  . Communication Architectures and Protocols
  1427.  . Message-Based Programming Support
  1428.  . High-level Programming Languages
  1429.  . Compiler Support
  1430.  . Scalable Library Support
  1431.  . Programming and Performance Visualization Tools
  1432.  
  1433. Lecturers: Dr. Lionel M. Ni is professor of computer science and
  1434. director of Advanced Computer Systems Laboratory at Michigan State
  1435. University.  He has worked in the area of parallel processing and
  1436. distributed computing for over 15 years and has extensive technical
  1437. publications in this area. Dr. Ni is serving as a member of the
  1438. editorial boards of Journal of Parallel and Distributed Computing and
  1439. IEEE Transactions on Computers.  Dr. Philip K. McKinley is an
  1440. assistant professor in the Department of Computer Science at Michigan
  1441. State University.  He received the Ph.D.  degree in computer science
  1442. from the University of Illinois at Urbana-Champaign, and previously
  1443. was a member of technical staff at AT&T Bell Laboratories.  His
  1444. current research interests include scalable architectures and
  1445. software, communications libraries for parallel and distributed
  1446. computing, multicast communication, gigabit network architectures and
  1447. protocols, and parallel numerical algorithms.
  1448.  
  1449.  
  1450.  
  1451. TUTORIAL 4 (8:30 AM - 6:00 PM, April 13)
  1452.  
  1453. Software Tools for Visualization of Parallel/Distributed Programs and
  1454. Systems
  1455.  
  1456. Thomas L. Casavant, University of Iowa
  1457.  
  1458. Who Should Attend: As a relatively young field, it has appeal to
  1459. individuals from both academia as well as industry. The area is
  1460. growing in importance for a large community of parallel computer
  1461. users. Such users are becoming more and more common as parallel sys-
  1462. tems work their way into more and more application settings.  Advances
  1463. to date have come mostly from academics, but the influence on
  1464. industrial and commercial settings for the future will be dramatic.
  1465.  
  1466. Course Description: This tutorial overviews major contributions to
  1467. visualization for development of software for parallel/distributed
  1468. computing.  Emphasis is on improving the software development process
  1469. for high-performance parallel com- puters via visualization techniques
  1470. for program creation, debugging, verifi- cation, and maintenance.  The
  1471. topic is of growing importance for many paral- lel computer users, who
  1472. are becoming more common as parallel systems appear in increasingly
  1473. more application settings.  Recent advances have come mostly from
  1474. academics, but the influence on industrial and commercial settings for
  1475. the future will be dramatic.  General concepts, as well as a videotape
  1476. illus- tration of practical tools are presented.
  1477.  
  1478. Lecturer: Thomas Lee Casavant (Ph.D., ECE'86) was with the School of
  1479. EE at Purdue University (86-89) where he was Director of the Parallel
  1480. Pro- cessing Laboratory.  Since 1989, he has been with the ECE
  1481. Department at Iowa.  Dr.  Casavant has published numerous papers on
  1482. parallel/distributed computing and has presented work in journals and
  1483. at conferences in the US, Europe, and Asia.  He was co-editor for the
  1484. August 1991 issue of IEEE Computer on ``Dis- tributed Computing
  1485. Systems,'' and is guest editor for the May 1993 issue of Journal of
  1486. Parallel and Distributed Computing on ``Visualization Tools for
  1487. Parallel Programs and Systems.''
  1488.  
  1489.  
  1490.  
  1491.  
  1492. TUTORIAL 5 (8:30 AM - 12:30 PM, April 16)
  1493.  
  1494. High Performance I/O Systems
  1495.  
  1496. Anujan Varma, University of California, Santa Cruz and Jai Menon, IBM
  1497. Almaden Research Center.
  1498.  
  1499. Who should attend: The tutorial is intended for practicing engineers,
  1500. system designers, technical managers, and researchers in computer
  1501. architecture seeking an introduction to the rapidly-changing area of
  1502. I/O systems.
  1503.  
  1504. Course Description: This tutorial is organized as two parts: The first
  1505. part covers storage systems and the second part discusses I/O
  1506. communication.
  1507.  
  1508. Disk arrays are the focus of the first part.  The following topics are
  1509. covered:
  1510.  
  1511. 1. Introduction: I/O system organizations; types of disk arrays and
  1512. their characteristics -- RAID levels 0-6; parity striping; other types
  1513. of disk arrays; advantages and disadvantages of different types of
  1514. arrays.
  1515.  
  1516. 2. Sparing Issues: Effect of sparing; estimating number of spares;
  1517. shared versus non-shared spares; immediate versus deferred replacement
  1518. of spares
  1519.  
  1520. 3. Disk Array Performance Issues: Array operating modes --- normal,
  1521. degraded, rebuild; performance of arrays in the three different modes;
  1522. choice of array building blocks (4+P versus 8+P versus 16+P); choice
  1523. of how to rebuild and rebuild unit --- sector rebuild, track rebuild,
  1524. cylinder rebuild; choice of sparing on performance.
  1525.  
  1526. 4. Case studies of RAID products: IBM 3514, IBM 9337, Core Microarray,
  1527. Mylex DAC960, NCR ADP-92-06.
  1528.  
  1529. The second part provides an overview of high-speed I/O channels.
  1530. Topics include the following:
  1531.  
  1532.  
  1533. 1. Overview of I/O channel architectures and standards.
  1534.  
  1535. 2. The HIPPI Channel: Physical-layer protocol; framing; switch
  1536. control; mapping to IPI-3 command sets; serial HIPPI.
  1537.  
  1538. 3. The IBM ESCON Architecture: Architecture layers and their
  1539. functions; addressing; framing; initialization protocols; device-level
  1540. protocols; pacing; ESCON Director.
  1541.  
  1542. 4. The ANSI Fibre Channel Standard: Physical link and interface
  1543. choices; transmission coding; framing and addressing; FC-2 service
  1544. classes and their characteristics; fabric design and management.
  1545.  
  1546. Lecturers: Anujan Varma is assistant professor in computer engineering
  1547. at the University of California, Santa Cruz.  He was previously
  1548. employed as a Research Staff Member at the IBM Thomas J. Watson
  1549. Research Center.  At IBM, he worked on the design and analysis of
  1550. high-speed switching systems for the fiber-optic I/O channels based on
  1551. the ESCON Architecture.  Dr. Varma's current research interests
  1552. include high-speed switching, high-speed communication networks and
  1553. their applications, I/O systems, and multiprocessor interconnection
  1554. networks.  He has published more than 50 papers in these areas and
  1555. holds four U.S. patents.  He received the NSF Young Investigator Award
  1556. in 1992 and the IEEE Darlington best-paper award for a paper published
  1557. in IEEE Transactions on Circuits and Systems in 1991.  Jai Menon is
  1558. currently Manager of Storage Attachment Architecture and Performance
  1559. Modeling in the Computer Science Department at the Almaden Research
  1560. Center. His group has been working on disk arrays since 1988, and it
  1561. is recognized as the leading industrial research group doing disk
  1562. array research.  Dr. Menon has received many awards from IBM including
  1563. an Outstanding Technical Achievement Award (OTAA) for his efforts as
  1564. the chief architect of the IBM S01787 disk controller, and four
  1565. Invention Achievement Awards (IAAs) from IBM. He has published widely
  1566. in the areas of I/O subsystems and disk arrays and has given many
  1567. talks and tutorials on disk arrays at universities.  His group has
  1568. close interactions with all the leading universities doing disk array
  1569. research (UC Berkeley, CMU, Univ of Michigan).
  1570.  
  1571.  
  1572.  
  1573.  
  1574. TUTORIAL 6 (2:00 PM -  6:00 PM, April 16)
  1575.  
  1576. Parallel Programming on the Intel Paragon
  1577.  
  1578. Gary Withers, Intel Corporation
  1579.  
  1580. Who Should Attend: Engineers, scientists and programmers desiring to
  1581. better understand Paragon in order to more easily write or port codes
  1582. and improve program execution performance.  A working knowledge of C
  1583. or Fortran programming is expected.  Prior experience with parallelism
  1584. and iPSC/860 (NX/2) message passing is recommended but not required.
  1585.  
  1586. Course Description: The tutorial takes a view of Paragon architecture,
  1587. operating system, and current functionality.  Using a bottom-up
  1588. approach, it begins with the low-level hardware and software details,
  1589. moves up through the operating system to a discussion of mesh
  1590. partition management and process scheduling, and finishes with the
  1591. program development process, emphasizing how to get the best possible
  1592. performance.
  1593.  
  1594. Subject Matter Outline
  1595.  
  1596. A.  The Parallel Programming Model
  1597.     1.  Distributed Memory Architectures
  1598.     2.  Programmer's View of the System
  1599. B.  Intel Supercomputer System Architecture Overview
  1600.     1.  Node and System Hardware
  1601.     2.  Software and Tools
  1602. C.  Message-Passing and System Commands
  1603.     1.  Accessing and Using the Nodes
  1604.     2.  Parallel Programming using Message-Passing
  1605. D.  Parallel Decomposition Strategies and Techniques
  1606.     1.  Domain Decomposition
  1607.     2.  Control-Oriented Decomposition
  1608.  
  1609. Lecturer: Gary Withers is the Director of Customer Training 
  1610. at Intel's Supercomputing Systems Division. He has been teaching 
  1611. and coordinating Intel's Parallel Programming Workshops for 
  1612. four years. Before joining Intel, Gary taught for the Department 
  1613. of Naval Reactors as a member of the technical staff at Naval 
  1614. Nuclear Power School in Orlando, Florida.
  1615.  
  1616.  
  1617.  
  1618.  
  1619. TUTORIAL 7 (8:30 AM -  6:00 PM, April 16)
  1620.  
  1621.  
  1622. Introduction to Parallel Processing
  1623.  
  1624. Mary M. Eshaghian, New Jersey Institute of Technology
  1625.  
  1626. Who Should Attend: This tutorial is intended for all computer and 
  1627. computational scientists  interested in an introduction to design 
  1628. and analysis of parallel architectures and algorithms. 
  1629.  
  1630. Course Description: This course will present an overview of advanced
  1631. computer architectures and parallel processing.  The materials covered
  1632. are divided into six parts.  In the first part, various parallel
  1633. models of computations and different classification of parallel
  1634. systems are presented.  In Part 2, several memory organizations for
  1635. multiprocessor systems are introduced.  Pipelining, Vector Processing
  1636. and Systolic arrays are discussed in Part 3.  This section includes
  1637. several examples of such CPU designs and a set of algorithms for
  1638. generic arithmetic computations.  Part 4 is entitled SIMD
  1639. Architectures and Algorithms.  This parts contains a detailed overview
  1640. of various SIMD topologies, such as VlSI architectures, meshes and
  1641. hypercubes.  Efficient techniques for mapping algorithms onto these
  1642. models are presented and evaluated.  Interconnection Networks are
  1643. introduced in Part 5.  Design issues for Crossbars versus various
  1644. multi-stage interconnection networks are analyzed.  In the last part
  1645. of the tutorial, advanced topics in parallel processing including
  1646. Optical computing and Heterogeneous computing are discussed.
  1647.  
  1648. Lecturer: Mary M. Eshaghian received her Ph.D. in Computer Engineering
  1649. from University of Southern California, in 1988.  She then worked at
  1650. Grumman Data Systems heading the Parallel Processing Research group
  1651. until August, 1991.  Currently, she is an assistant professor at the
  1652. department of Computer and Information Science, New Jersey Institute
  1653. of Technology.  Her area of research in parallel processing includes:
  1654. Heterogeneous Computing, VLSI architectures and algorithms, and
  1655. Optical Interconnection networks.  She serves on the executive board
  1656. of IEEE Technical Committee on Parallel Processing.  She is a program
  1657. co-chair of Heterogeneous Processing Workshop, and a member of the
  1658. technical committee of IEEE International Parallel Processing
  1659. Symposium.
  1660.  
  1661.  
  1662.  
  1663.  
  1664. TUTORIAL 8 (8:30 AM -  6:00 PM, April 16)
  1665.  
  1666. Parallel Processing Algorithms and Systems
  1667.  
  1668. H. J. Siegel, Purdue University
  1669.  
  1670. Who Should Attend: People with a computer science or computer
  1671. engineering background who are interested in the use and design of
  1672. large-scale parallel processing systems.
  1673.  
  1674. Course Description: The use and design of tightly-coupled large-scale
  1675. parallel processing systems (i.e., 64 to 64K processors) are examined
  1676. through case studies of algorithms and machines.  Models of SIMD
  1677. (synchronous) and MIMD (asynchronous) parallelism are described and
  1678. contrasted.  Various tasks are analyzed to demonstrate different
  1679. techniques for mapping algorithms onto parallel machines.  Issues
  1680. addressed include SIMD/MIMD trade-offs, data distribution, influence
  1681. of network topology, the impact of partitioning the system for subtask
  1682. parallelism, the effect on execution time of increasing the number of
  1683. processors used, CU/PE overlap in SIMD machines, and the difficulty of
  1684. automatic parallelization of algorithms.  The architectures of
  1685. parallel systems such as CM-2, CM-5, IBM RP3, MasPar MP-1 and MP-2,
  1686. nCUBE, PASM, and Ultracomputer are briefly overviewed.  The tutorial
  1687. concludes with a discussion of some of the problems (``alligators'')
  1688. encountered in using and designing parallel systems.
  1689.  
  1690. Lecturer: H. J. Siegel is a Professor and Coordinator of the Parallel
  1691. Processing Laboratory in the School of Electrical Engineering at
  1692. Purdue University.  He received two BS degrees from MIT, and the MSE,
  1693. MA, and PhD degrees from Princeton.  He has coauthored over 150
  1694. technical papers and authored one book.  He is a Fellow of the IEEE,
  1695. and was a Coeditor-in-Chief of the ``Journal of Parallel and
  1696. Distributed Computing.''
  1697.  
  1698.  
  1699. --------------------------------------------------------------------------
  1700.  
  1701.         PART IV: Registration Forms (symposium and hotel)
  1702.         -------------------------------------------------
  1703.  
  1704. Cut Here
  1705. ------------------------------------------------------------------------
  1706.  
  1707.  
  1708.  
  1709.  
  1710. IPPS '93 HOTEL RESERVATION FORM
  1711. -------------------------------
  1712.  
  1713.  
  1714. Please mail or fax to: 
  1715. (requests after March 23 are not guaranteed)
  1716.  
  1717. NEWPORT BEACH MARRIOTT HOTEL & TENNIS CLUB
  1718. 900 Newport Center Drive, Newport Beach, CA 92660
  1719. VOX: (714)640-4000 FAX: (714)640-5055
  1720.  
  1721. NAME: _________________________________________________________________
  1722.  
  1723. COMPANY/UNIVERSITY: ___________________________________________________
  1724.  
  1725. ADDRESS: ______________________________________________________________
  1726.  
  1727. CITY/STATE/ZIP/COUNTRY: ________________________________________________
  1728.  
  1729. BUSINESS PHONE: ___________________  HOME PHONE: _______________________
  1730.  
  1731.  
  1732.  
  1733.  
  1734. RESERVATION MUST BE GUARANTEED BY ONE NIGHT'S ADVANCE DEPOSIT OR
  1735. COMPANY GUARANTEE OF PAYMENT. PLEASE BE SURE YOUR RESERVATION
  1736. REACHES THE HOTEL 21 DAYS IN ADVANCE TO INSURE YOUR ACCOMMODATIONS.
  1737. PLEASE NOTES: CHECK-IN TIME IS 4:00 PM -CHECK-OUT TIME IS 12:00 NOON
  1738.  
  1739.  
  1740. 7TH INTERNATIONAL PARALLEL PROCESSING SYMPOSIUM
  1741. APRIL 13-16, 1993 - NEWPORT BEACH, CALIFORNIA, USA
  1742.  
  1743. IPPS '93 NEWPORT BEACH MARRIOTT HOTEL  Nightly Rate = $110
  1744. -----------------------------------------------------------
  1745.  
  1746. All reservations must be received by March 23, 1993. Requests prior
  1747. to & after IPPS '93 dates will be accepted on space available basis 
  1748. only.
  1749.  
  1750. I plan to arrive ______________  I plan to depart _________________
  1751.                    (date)                             (date)
  1752.  
  1753. (Note: Transportation to and from John Wayne Airport is available 
  1754. on a scheduled basis)
  1755.  
  1756. Please check: [  ] Single Occupancy  [  ] Double Occupancy
  1757.  
  1758.               [  ] Sharing with ____________________________________
  1759.  
  1760. Credit Card Number: _________________________ Exp. Date: ___________
  1761.  
  1762. [  ] AMERICAN EXPRESS  [  ] VISA [  ] MASTERCARD  [  ] DISCOVER
  1763.  
  1764. [  ] MARRIOTT VISA   [  ] DINERS CLUB  [  ] JCB 
  1765.  
  1766.  
  1767. Cut Here ----------------------------------------------------------
  1768.  
  1769.  
  1770.             7TH INTERNATIONAL PARALLEL PROCESSING SYMPOSIUM
  1771.              APRIL 13-16, 1993 - NEWPORT BEACH MARRIOTT- 
  1772.                     NEWPORT BEACH, CALIFORNIA
  1773.  
  1774.                         ADVANCE REGISTRATION 
  1775.                         --------------------
  1776.  
  1777.  
  1778. PLEASE MAIL OR FAX TO :
  1779.  
  1780.         IEEE Computer Society                 VOX: (202) 371-1013   
  1781.     1730 Massachusetts Avenue, NW         FAX: (202) 728-0884
  1782.     Washington, DC 20036-1903
  1783.         Attn: CONFERENCE DEPARTMENT
  1784.  
  1785. PLEASE PRINT: 
  1786.  
  1787. NAME:_____________________________________________________________________
  1788.       LAST/FAMILY                FIRST           M.I.        NAME ON BADGE
  1789.  
  1790.  
  1791. COMPANY: ____________________________________________________________________
  1792.  
  1793.  
  1794. ADDRESS/MAILSTOP: ___________________________________________________________
  1795.  
  1796.  
  1797. CITY/STATE/ZIP/COUNTRY: _____________________________________________________
  1798.  
  1799.  
  1800. DAYTIME NUMBER: _________________________ FAX NUMBER: _______________________
  1801.  
  1802.  
  1803. IEEE MEMBERSHIP NUMBER: ____________  E-MAIL: _______________________________
  1804.  
  1805.  
  1806. DO YOU HAVE ANY SPECIAL NEEDS? ______________________________________________
  1807.  
  1808.  
  1809.  
  1810.  
  1811. PLEASE CIRCLE APPROPRIATE FEES:
  1812.  
  1813.     CONFERENCE REGISTRATION FEES:
  1814.     Advance Registration            Late/Onsite Registration
  1815.         (Until March 26, 1993)          (After March 26, 1993)
  1816.  
  1817.     Member       $275                    Member     $330
  1818.     Non-member $345                    Non-member $415
  1819.     Student    $150                    Student    $150
  1820.  
  1821. TUTORIAL REGISTRATION: (Price per tutorial)
  1822.  
  1823.        HALF-DAY TUTORIALS                 FULL-DAY TUTORIALS
  1824.        (Tuesday, April 13)                (Tuesday, April 13)
  1825.  
  1826. ___ 1. Connection Machine (CM-5)    ___ 3. Programming Support for Distributed
  1827.        Programming for Performance         Memory Computing Performance
  1828. ___ 2. Data Parallel Programming/   ___ 4. Software Tools for Visualization of 
  1829.        Application Development             Parallel/Distributed Programs
  1830.        (MasPar)
  1831.  
  1832.        (Friday, April 16)                  (Friday, April 16)           
  1833. ___ 5. High-Performance I/O Systems ___ 7. Introduction to Parallel Processing
  1834. ___ 6. Parallel Programming on the  ___ 8. Parallel Processing Algorithms
  1835.        INTEL Paragon                       and Systems
  1836.  
  1837.  
  1838. TUTORIAL FEES:
  1839.        ADVANCE REGISTRATION        LATE/ON-SITE REGISTRATION
  1840.        (Until March 26, 1993)          (After March 26, 1993)
  1841.                HALF-DAY FULL-DAY                HALF-DAY FULL-DAY
  1842.        Member      $150      $230          Member       $190    $275  
  1843.        Non-member $200      $285          Non-member $235    $345
  1844.  
  1845. TOTAL ENCLOSED:  $ ______________ 
  1846.         PAYMENT MUST BE ENCLOSED. PLEASE MAKE ALL CHECKS PAYABLE TO
  1847.         "IEEE COMPUTER SOCIETY." ALL PAYMENTS MUST BE IN U.S. DOLLARS
  1848.         DRAWN ON U.S. BANKS
  1849.  
  1850. METHOD OF PAYMENT:
  1851.     _____ PERSONAL CHECK    _____ COMPANY CHECK    _____ TRAVELER'S CHECKS
  1852.     _____ AMERICAN EXPRESS  _____ MASTERCARD    _____ VISA
  1853.     _____ DINERS CLUB       
  1854.         _____ PURCHASE ORDER (Original must accompany registration form.)
  1855.  
  1856.                         
  1857. CREDIT CARD NUMBER:  __________________________  EXP. DATE:    _____________
  1858.  
  1859. CARDHOLDER NAME: ________________________________
  1860.  
  1861.  
  1862.  
  1863. SIGNATURE: _______________________
  1864.  
  1865.  
  1866. Written requests for refunds must be received in IEEE Computer Society
  1867. office no later than 3/26/92.  Refunds are subject to a $50 processing
  1868. fee. All no-show registrations will be billed in full. Registration 
  1869. after April 2, 1993 will be accepted on-site only.
  1870.  
  1871. Do not include my mailing address on:
  1872.    _____ Non-Society Mailing Lists
  1873.    _____ Meeting Attendee Lists
  1874.  
  1875.  
  1876. (PLEASE MAKE HOUSING RESERVATIONS DIRECTLY WITH HOTEL. SEE HOTEL RESERVATION
  1877.  FORM ABOVE)
  1878.  
  1879.