home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #26 / NN_1992_26.iso / spool / comp / parallel / 2509 < prev    next >
Encoding:
Internet Message Format  |  1992-11-11  |  6.2 KB

  1. Xref: sparky comp.parallel:2509 comp.lang.misc:3593
  2. Newsgroups: comp.parallel,comp.lang.misc
  3. Path: sparky!uunet!destroyer!gatech!hubcap!fpst
  4. From: halstead@crl.dec.com (Bert Halstead)
  5. Subject: Supercomputing '92 workshop: Data-Parallel Languages
  6. Message-ID: <1992Nov11.195037.22368@crl.dec.com>
  7. Keywords: data-parallel, programming languages
  8. Sender: news@crl.dec.com (USENET News System)
  9. Organization: DEC Cambridge Research Lab
  10. Date: Wed, 11 Nov 1992 19:50:37 GMT
  11. Approved: parallel@hubcap.clemson.edu
  12. Lines: 123
  13.  
  14.  
  15.          Supercomputing '92 workshop: Data-Parallel Languages
  16.  
  17. If you are attending Supercomputing '92 (in Minneapolis, Nov. 16-20)
  18. we invite you to attend the workshop on data-parallel languages that
  19. will be held from 1:30-5:00 pm on Wednesday, Nov. 18.
  20.  
  21. The workshop will feature five talks by researchers active in the
  22. field of data-parallel languages, followed by a panel discussion
  23. featuring these speakers as panelists.  The speakers will be
  24.  
  25.         Maya Gokhale (Supercomputing Research Center)
  26.         Phil Hatcher (University of New Hampshire and Digital
  27.                 Equipment Corporation)
  28.         Bob Morgan (Digital Equipment Corporation)
  29.         Anthony Reeves (Cornell)
  30.         Hans Zima (University of Vienna)
  31.  
  32. Each presentation will consist of a 20-minute talk followed by a 10
  33. minute question/discussion period.
  34.  
  35.  
  36.                          Workshop Objectives
  37.  
  38. The data-parallel programming model has received widespread attention
  39. as a solution to the problem of programming massively parallel
  40. machines. In this model, in contrast to function level parallelism,
  41. all the parallel processes associated with a job execute the same
  42. program on different instances of data. The underlying implementation
  43. may require a single thread of control, or may permit multiple
  44. ``program counters,'' allowing the processes to take different paths
  45. through the program.  Platforms for data-parallel programming include
  46. SIMD machines as well as massively parallel MIMD machines.
  47.  
  48. This workshop will bring together researchers and practitioners
  49. interested in language design and efficient compilation of data
  50. parallel languages.  There are many dimensions to the problem of
  51. providing an efficient, expressive data-parallel programming
  52. environment portable across a range of platforms.
  53.  
  54. One important issue is the ``world view'' supported by a data-parallel
  55. language, variously labeled global/local or macroscopic/microscopic.
  56. In the global (macroscopic) view, the programmer thinks in terms of
  57. data arrays being distributed across the processor array. The
  58. programmer may specify how the data arrays are to be spread across the
  59. processor array.  Operations on the data arrays are performed in
  60. aggregate terms.  Access to non-local data may be be transparent to
  61. the programmer, or alternatively, pre-defined functions which effect
  62. aggregate data motion may be used. CM Fortran, Fortran D, Vienna
  63. Fortran, Kali, Crystal, and the Cornell Paragon language are examples
  64. of data-parallel languages supporting a global view.
  65.  
  66. In the local (microscopic) view, the programmer thinks in terms of one
  67. or more arrays of (virtual) processing elements (PE's), each
  68. performing a computation in lock step with all the other PE's.  There
  69. is a syntactic distinction between access to locations in local memory
  70. and access to locations in the memory of another processor.  There is
  71. a notion of a processor ID (in some cases more than one ID) that can
  72. be used as data in the computation as well as for inter-PE
  73. communication and host-PE communication. The data parallel C
  74. extensions such as C*, MPL, MultiC, DBC tend to support the local
  75. view.
  76.  
  77. In terms of implementation, the distribution of shared data to
  78. processors is critical to efficient execution of the data-parallel
  79. program.  Current research efforts attempt to infer efficient mapping
  80. of data to processors and interprocessor communication. However, most
  81. production compilers allow (require) the user to specify mapping and
  82. re-mapping of data.
  83.  
  84. Another issue is the automatic management of synchronization.  The
  85. semantics of data-parallel languages specify expression-level
  86. synchronization. This can be efficiently implemented on SIMD
  87. platforms, but is too slow if directly mapped to MIMD processor
  88. arrays. On the latter machines, only the synchronization necessary to
  89. maintain a correct semantics, that is, synchronization associated with
  90. interprocessor communication, appears in the generated program. Each
  91. PE performs its computation inedependently except when communication
  92. of data values is required. All processors participate in the
  93. communication step, and then once more resume independent operation.
  94. To reduce the number of synchronization steps, the compiler may apply
  95. transformations to move communication out of loops and to collect
  96. messages to the same destination into blocks for more efficient
  97. interprocessor communication.
  98.  
  99. This workshop complements the High Performance Fortran workshop
  100. scheduled for the Tuesday afternoon, Nov. 17.  While the latter
  101. workshop focuses specifically on disseminating information and
  102. collecting feedback about design decisions being made for one
  103. particular data-parallel language (High Performance Fortran), our
  104. workshop will explore the landscape of data-parallel languages more
  105. broadly, including (1) ideas not yet ``mainstream'' enough to be
  106. considered for High Performance Fortran, (2) ideas from the C world as
  107. well as the Fortran world, and (3) implementation as well as
  108. language-design issues.
  109.  
  110. Topics of interest include
  111.  
  112.  * Existing data-parallel languages and language extensions.
  113.  
  114.  * The global/local view dichotomy: which is ``better''?  Can they
  115.    coexist?
  116.  
  117.  * Standardization: is the field ready for standardization?  Which
  118.    language features (if any) have a high probability of being
  119.    standardized?
  120.  
  121.  * Portability within a machine class (SIMD or MIMD) as well as
  122.    between classes (can the same program run efficiently on a MasPar
  123.    and on an Intel Delta?).
  124.  
  125.  * Mapping of data to processors (automatic, user-directed).
  126.  
  127.  * Efficient compilation on SIMD and MIMD targets.
  128.  
  129.  * Language/compiler support for irregular computations.
  130.  
  131.  
  132.                                                 -Maya Gokhale
  133.                                                  Bert Halstead
  134.  
  135.                                                  workshop organizers
  136.  
  137.