home *** CD-ROM | disk | FTP | other *** search
/ Amiga Plus 1995 #2 / Amiga Plus CD - 1995 - No. 2.iso / internet / faq / englisch / messagepassinginterface-mpi < prev    next >
Encoding:
Text File  |  1995-04-11  |  30.5 KB  |  783 lines

  1. Archive-Name: mpi-faq
  2. Last-Modified: Tue, Mar 07 1995
  3. Posting-Frequency: monthly
  4. Version: $Id: mpi-faq.bfnn,v 1.26 1995/02/23 15:25:33 doss Exp $
  5.  
  6. This is the list of Frequently Asked Questions about the MPI (Message
  7. Passing Interface) standard, a set of library functions for message
  8. passing [see Q1.2 `What is MPI?' for more details].  For a list of the
  9. latest changes to this document, see Q1.1 `Recent changes to the FAQ.'.
  10.  
  11. MPI questions/answers and pointers to additional MPI information are
  12. actively sought.  Contributions are welcome!
  13.  
  14. You can skip to a particular question by searching for `Question n.n'.
  15. See Q5.2 `Formats in which this FAQ is available' for details of where to
  16. get the PostScript, Emacs Info, and HTML versions of this document.
  17.  
  18. For a list of recent changes to this FAQ, see Q1.1 `Recent changes to the
  19. FAQ.'.
  20.  
  21. ===============================================================================
  22.  
  23. Index
  24.  
  25.  Section 1.  Introduction and General Information
  26.  Q1.1        Recent changes to the FAQ.
  27.  Q1.2        What is MPI?
  28.  Q1.3        What is the MPI Forum?
  29.  Q1.4        Who was involved in creating the MPI standard?
  30.  Q1.5        The history of MPI
  31.  Q1.6        Are there plans for an MPI-2?
  32.  Q1.7        Are there plans for I/O extensions to MPI?
  33.  Q1.8        How do I send comments about MPI to MPIF members?
  34.  
  35.  Section 2.  MPI Implementations
  36.  Q2.1        What implementations are in progress?
  37.  Q2.2        What freely available MPI implementations are currently available 
  38.  Q2.3        Where can I get a version of MPI for platform X?
  39.  
  40.  Section 3.  Additional sources of information about MPI
  41.  Q3.1        What newsgroups and mailing lists are there for MPI?
  42.  Q3.2        Where do I obtain a copy of the MPI document?
  43.  Q3.3        What information about MPI is available through the WWW?
  44.  Q3.4        MPI-related papers
  45.  Q3.5        MPI-related presentations
  46.  Q3.6        MPI-related books
  47.  Q3.7        Where can I find the errata for the MPI document?
  48.  Q3.8        Are the MPI Forum mailing lists archived somewhere?
  49.  Q3.9        Are the minutes from the MPIF forum meetings available?
  50.  Q3.10       Where can I get example MPI programs?
  51.  Q3.11       Miscellaneous MPI resources.
  52.  
  53.  Section 4.  How to get further assistance
  54.  Q4.1        You still haven't answered my question !
  55.  Q4.2        What to put in a posting about MPI
  56.  
  57.  Section 5.  Administrative information and acknowledgements
  58.  Q5.1        Feedback is invited
  59.  Q5.2        Formats in which this FAQ is available
  60.  Q5.3        Where can I obtain a copy of this FAQ
  61.  Q5.4        Authorship and acknowledgements
  62.  Q5.5        Disclaimer and Copyright
  63.  
  64. ===============================================================================
  65.  
  66. Section 1.  Introduction and General Information
  67.  
  68.  Q1.1        Recent changes to the FAQ.
  69.  Q1.2        What is MPI?
  70.  Q1.3        What is the MPI Forum?
  71.  Q1.4        Who was involved in creating the MPI standard?
  72.  Q1.5        The history of MPI
  73.  Q1.6        Are there plans for an MPI-2?
  74.  Q1.7        Are there plans for I/O extensions to MPI?
  75.  Q1.8        How do I send comments about MPI to MPIF members?
  76.  
  77. -------------------------------------------------------------------------------
  78.  
  79. Question 1.1.  Recent changes to the FAQ.
  80.  
  81. * Added a new question "Miscellaneous MPI resources".
  82.  
  83. * Added a pointer to the MPI Quick Reference card available from the Ohio
  84.   Supercomputing Center.
  85.  
  86. -------------------------------------------------------------------------------
  87.  
  88. Question 1.2.  What is MPI?
  89.  
  90. MPI stands for Message Passing Interface.  The goal of MPI, simply stated,
  91. is to develop a widely used standard for writing message-passing programs.
  92. As such the interface should establish a practical, portable, efficient,
  93. and flexible standard for message passing.
  94.  
  95. Message passing is a paradigm used widely on certain classes of parallel
  96. machines, especially those with distributed memory. Although there are
  97. many variations, the basic concept of processes communicating through
  98. messages is well understood. Over the last ten years, substantial progress
  99. has been made in casting significant applications in this paradigm. Each
  100. vendor has implemented its own variant. More recently, several systems
  101. have demonstrated that a message passing system can be efficiently and
  102. portably implemented. It is thus an appropriate time to try to define both
  103. the syntax and semantics of a core of library routines that will be useful
  104. to a wide range of users and efficiently implementable on a wide range of
  105. computers.
  106.  
  107. In designing MPI the MPI Forum sought to make use of the most attractive
  108. features of a number of existing message passing systems, rather than
  109. selecting one of them and adopting it as the standard. Thus, MPI has been
  110. strongly influenced by work at the IBM T. J. Watson Research Center,
  111. Intel's NX/2, Express, nCUBE's Vertex, p4, and PARMACS. Other important
  112. contributions have come from Zipcode, Chimp, PVM, Chameleon, and PICL.
  113.  
  114. The main advantages of establishing a message-passing standard are
  115. portability and ease-of-use. In a distributed memory communication
  116. environment in which the higher level routines and/or abstractions are
  117. build upon lower level message passing routines the benefits of
  118. standardization are particularly apparent.  Furthermore, the definition of
  119. a message passing standard, such as that proposed here, provides vendors
  120. with a clearly defined base set of routines that they can implement
  121. efficiently, or in some cases provide hardware support for, thereby
  122. enhancing scalability.
  123.  
  124. Source: MPI Document
  125. (http://www.mcs.anl.gov/mpi/mpi-report/mpi-report.html)
  126.  
  127. -------------------------------------------------------------------------------
  128.  
  129. Question 1.3.  What is the MPI Forum?
  130.  
  131. Message Passing Interface Forum
  132.  
  133. The Message Passing Interface Forum (MPIF), with participation from over
  134. 40 organizations, has been meeting since November 1992 to discuss and
  135. define a set of library interface standards for message passing. MPIF is
  136. not sanctioned or supported by any official standards organization.
  137.  
  138. Source: MPI Document
  139. (http://www.mcs.anl.gov/mpi/mpi-report/mpi-report.html)
  140.  
  141. -------------------------------------------------------------------------------
  142.  
  143. Question 1.4.  Who was involved in creating the MPI standard?
  144.  
  145. The technical development was carried out by subgroups, whose work was
  146. reviewed by the full committee. During the period of development of the
  147. Message Passing Interface ( MPI), many people served in positions of
  148. responsibility and are listed below.
  149.  
  150. * Jack Dongarra, David Walker, Conveners and Meeting Chairs
  151.  
  152. * Ewing Lusk, Bob Knighten, Minutes
  153.  
  154. * Marc Snir, William Gropp, Ewing Lusk, Point-to-Point Communications
  155.  
  156. * Al Geist, Marc Snir, Steve Otto, Collective Communications
  157.  
  158. * Steve Otto, Editor
  159.  
  160. * Rolf Hempel, Process Topologies
  161.  
  162. * Ewing Lusk, Language Binding
  163.  
  164. * William Gropp, Environmental Management
  165.  
  166. * James Cownie, Profiling
  167.  
  168. * Anthony Skjellum, Lyndon Clarke, Marc Snir, Richard Littlefield, Mark
  169.   Sears, Groups, Contexts, and Communicators
  170.  
  171. * Steven Huss-Lederman, Initial Implementation Subset
  172.  
  173. See the MPI document for a list of other active participants in the MPI
  174. process not mentioned above.
  175.  
  176. Source:  MPI Document
  177. (http://www.mcs.anl.gov/mpi/mpi-report/mpi-report.html)
  178.  
  179. -------------------------------------------------------------------------------
  180.  
  181. Question 1.5.  The history of MPI
  182.  
  183. The MPI standardization effort involved about 60 people from 40
  184. organizations mainly from the United States and Europe. Most of the major
  185. vendors of concurrent computers were involved in MPI, along with
  186. researchers from universities, government laboratories, and industry. The
  187. standardization process began with the Workshop on Standards for Message
  188. Passing in a Distributed Memory Environment, sponsored by the Center for
  189. Research on Parallel Computing, held April 29-30, 1992, in Williamsburg,
  190. Virginia. At this workshop the basic features essential to a standard
  191. message passing interface were discussed, and a working group established
  192. to continue the standardization process.
  193.  
  194. A preliminary draft proposal, known as  MPI1
  195. (ftp://netlib2.cs.utk.edu/mpi/mpi1.ps), was put forward by Dongarra,
  196. Hempel, Hey, and Walker in November 1992, and a revised version was
  197. completed in February 1993. MPI1 embodied the main features that were
  198. identified at the Williamsburg workshop as being necessary in a message
  199. passing standard. Since MPI1 was primarily intended to promote discussion
  200. and ``get the ball rolling,'' it focused mainly on point-to-point
  201. communications. MPI1 brought to the forefront a number of important
  202. standardization issues, but did not include any collective communication
  203. routines and was not thread-safe.
  204.  
  205. In November 1992, a meeting of the MPI working group was held in
  206. Minneapolis, at which it was decided to place the standardization process
  207. on a more formal footing, and to generally adopt the procedures and
  208. organization of the High Performance Fortran Forum. Subcommittees were
  209. formed for the major component areas of the standard, and an email
  210. discussion service established for each. In addition, the goal of
  211. producing a draft MPI standard by the Fall of 1993 was set. To achieve
  212. this goal the MPI working group met every 6 weeks for two days throughout
  213. the first 9 months of 1993, and presented the draft MPI standard at the
  214. Supercomputing 93 conference in November 1993. These meetings and the
  215. email discussion together constituted the MPI Forum, membership of which
  216. has been open to all members of the high performance computing community.
  217.  
  218. Source: MPI Document
  219. (http://www.mcs.anl.gov/mpi/mpi-report/mpi-report.html)
  220.  
  221. -------------------------------------------------------------------------------
  222.  
  223. Question 1.6.  Are there plans for an MPI-2?
  224.  
  225. It was decided at the final MPI meeting (Feb. 1994) that plans for
  226. extending MPI should wait until people have had some experience with the
  227. current version of MPI.  The MPI Forum held a BOF session at
  228. Supercomputing '94 to discuss the possibility of an MPI-2 effort.  It was
  229. decided that it was not time to begin official meetings for MPI-2.
  230.  
  231. A discussion of possible MPI-2 extensions was held at the end of the
  232. February 1994 meeting.  The following items were mentioned as possible
  233. areas of expansion.
  234.  
  235. * I/O
  236.  
  237. * Active messages
  238.  
  239. * Process startup
  240.  
  241. * Dynamic process control
  242.  
  243. * Remote store/access
  244.  
  245. * Fortran 90 and C++ language bindings
  246.  
  247. * Graphics
  248.  
  249. * Real-time support
  250.  
  251. * Other "enhancements"
  252.  
  253. -------------------------------------------------------------------------------
  254.  
  255. Question 1.7.  Are there plans for I/O extensions to MPI?
  256.  
  257. Working together, IBM Research and NASA Ames have drafted MPI-IO, a
  258. proposal to address the portable parallel I/O problem.  In a nutshell,
  259. this proposal is based on the idea that I/O can be modeled as message
  260. passing: writing to a file is like sending a message, and reading from a
  261. file is like receiving a message.  MPI-IO intends to leverage the
  262. relatively wide acceptance of the MPI interface in order to create a
  263. similar I/O interface.
  264.  
  265. The current proposal represents the result of extensive discussions (and
  266. arguments), but is by no means finished.  Many changes can be expected as
  267. additional participants join the effort to define an interface for
  268. portable I/O.
  269.  
  270. The current proposal, presented at Supercomputing '94 in mid November, is
  271. available on the Web at  http://lovelace.nas.nasa.gov/MPI-IO/mpi-io.html .
  272.  
  273. They are soliciting greater participation from the high performance
  274. computing community, and are particularly interested in feedback on the
  275. proposal.  Feedback may be sent to: mpi-io@nas.nasa.gov
  276.  
  277. To participate in the MPI-IO discussion, you can join the mailing list by
  278. sending a message to "mpi-io-request@nas.nasa.gov" with an empty Subject,
  279. and the single line body, "subscribe mpi-io YOUR-REAL-NAME" Your email
  280. address will be automatically taken from the message.
  281.  
  282. You may comment on the draft by sending mail to the mailing list
  283. regardless of whether you join.  If you want to be an observer only, the
  284. mailing list will be archived at the Web site.
  285.  
  286. Source:  Modified from the  MPI-IO Call for Participation posted to
  287. comp.parallel and other groups in November, 1994.
  288. (ftp://ftp.erc.msstate.edu/pub/mpi/mpi-io/cfp)
  289.  
  290. -------------------------------------------------------------------------------
  291.  
  292. Question 1.8.  How do I send comments about MPI to MPIF members?
  293.  
  294. You can send comments to mpi-comments@cs.utk.edu.  Your comments will be
  295. forwarded to MPIF committee members who will attempt to respond.
  296.  
  297. Source: MPI Document
  298. (http://www.mcs.anl.gov/mpi/mpi-report/mpi-report.html)
  299.  
  300. ===============================================================================
  301.  
  302. Section 2.  MPI Implementations
  303.  
  304.  Q2.1        What implementations are in progress?
  305.  Q2.2        What freely available MPI implementations are currently available 
  306.  Q2.3        Where can I get a version of MPI for platform X?
  307.  
  308. -------------------------------------------------------------------------------
  309.  
  310. Question 2.1.  What implementations are in progress?
  311.  
  312. Rusty Lusk and Bill Gropp have set up a mailing list for  MPI
  313. implementors; the address is mpi-impl@mcs.anl.gov.  To subscribe to this
  314. list, send mail to mpi-impl-request@mcs.anl.gov.
  315.  
  316. Rusty Lusk and Bill Gropp also hosted a workshop for MPI Implementors at
  317. Argonne National Laboratory, September 7-9, 1994.   A paper on the
  318. workshop is available on the WWW at
  319. http://www.mcs.anl.gov/mpi/mpiimpl/paper/paper.html .
  320.  
  321. * Companies and Vendors representatives
  322.  
  323.   Convex, Cray, Hewlett-Packard, Hughes Aircraft, IBM, Intel, KSR, Meiko,
  324.   Myricom (makers of high-performance network switches), NEC, PALLAS  (a
  325.   German software company), and Sun were representated.
  326.  
  327. * University and Lab representatives
  328.  
  329.   Argonne National Lab, U.C. Berkeley, University of Edinburgh,
  330.   University of Illinois, Mississippi State, Ohio Supercomputing Center,
  331.   and Sandia National Lab.
  332.  
  333. Researchers at Australian National University have implemented MPI on the
  334. Fujitsu AP1000.  Information is available through the WWW at
  335. file://dcssoft.anu.edu.au/pub/www/dcs/cap/mpi/mpi.html .
  336.  
  337. -------------------------------------------------------------------------------
  338.  
  339. Question 2.2.  What freely available MPI implementations are currently available and where do I get them?
  340.  
  341. * Argonne National Laboratory/Mississippi State University implementation.
  342.  
  343.   Available by anonymous ftp at ftp://info.mcs.anl.gov/pub/mpi .
  344.  
  345. * Edinburgh Parallel Computing Centre CHIMP implementation.
  346.  
  347.   Available by anonymous ftp at
  348.   ftp://ftp.epcc.ed.ac.uk/pub/chimp/release/chimp.tar.Z .
  349.  
  350. * Mississippi State University UNIFY implementation.
  351.  
  352.   The UNIFY system provides a subset of MPI within the PVM environment,
  353.   without sacrificing the PVM calls already available.
  354.  
  355.   Available by anonymous ftp at ftp://ftp.erc.msstate.edu/unify .
  356.  
  357. * Ohio Supercomputer Center LAM implementation.
  358.  
  359.   A full MPI standard implementation for LAM, a UNIX cluster computing
  360.   environment.
  361.  
  362.   Available by anonymous ftp at ftp://tbag.osc.edu/pub/lam .
  363.  
  364. -------------------------------------------------------------------------------
  365.  
  366. Question 2.3.  Where can I get a version of MPI for platform X?
  367.  
  368. The freely available versions of MPI [see Q2.2 `What freely available MPI
  369. implementations are currently available and where do I get them?']  port
  370. to a wide variety of platforms.  The following lists of platforms may be
  371. of date and/or incorrect.  New ports are a common occurance.  Please check
  372. with the authors of these implementations for the authoritative list of
  373. platforms supported.  This question was last updated on 1/28/95.
  374.  
  375. * MPICH is supported on a variety of parallel computers and workstation
  376.   networks.  Parallel computers that are supported include:
  377.  
  378.  
  379. IBM SP1, SP2 (using various communication options)
  380. TMC CM-5
  381. Intel Paragon, IPSC860, Touchstone Delta
  382. Ncube2
  383. Meiko CS-2
  384. Kendall Square KSR-1 and KSR-2
  385. SGI and Sun Multiprocessors
  386.   Workstations supported include:
  387.  
  388.  
  389. Sun4 family running SunOS or Solaris
  390. Hewlett-Packard
  391. DEC 3000 and Alpha
  392. IBM RS/6000 family
  393. SGI
  394. Intel 386- or 486-based PC clones running the LINUX or FreeBSD OS
  395.   Sources:  The Web page on MPICH at
  396.   http://www.mcs.anl.gov/home/lusk/mpich and the "Configure MPICH" section
  397.   of the MPICH Users guide at
  398.   http://www.mcs.anl.gov/home/lusk/mpich/users.guide/ .  The MPICH Users
  399.   guide is also available with the MPICH distribution.
  400.  
  401. * CHIMP supports the following platforms:
  402.  
  403. Sun workstations runing SunOS 4.1.x or Solaris 2.x
  404. SGIs with IRIX 4 or IRIX 5
  405. IBM RS/6000 running AIX3.2
  406. Sequent Symmetry
  407. DEC Alpha AXP running OSF1
  408. Meiko Computing Surface with transputer, i860 or SPARC nodes
  409.   Source:  The Chimp installation guide available at
  410.   ftp://ftp.epcc.ed.ac.uk/pub/chimp/release/doc/install.ps.Z .
  411.  
  412. * UNIFY runs atop PVM and therefore is portable to the same platforms as
  413.   PVM.  For the latest list of supported architectures, see the
  414.   "doc/arches" file in the PVM3 distribution [PVM3 is available at
  415.   http://www.netlib.org/pvm3 or ftp://netlib2.cs.utk.edu/pvm3 ].
  416.  
  417. * LAM is portable to most unix systems and includes standard support for
  418.   the following platforms.
  419.  
  420.  
  421. Sun 4 (sparc), SunOS 4.1.3
  422. Sun 4 (sparc), Solaris 2.3
  423. SGI IRIX 4.0.5
  424. IBM RS/6000, AIX v3r2
  425. DEC AXP, OSF/1 V2.0
  426. HP 9000/755, HP-UX 9.01
  427.   Third party ports included in LAM.
  428.  
  429. i386 (and above), SCO 3.2 v4.2
  430.  
  431.   Source: ftp://tbag.osc.edu/pub/lam/Readme .
  432.  
  433. ===============================================================================
  434.  
  435. Section 3.  Additional sources of information about MPI
  436.  
  437.  Q3.1        What newsgroups and mailing lists are there for MPI?
  438.  Q3.2        Where do I obtain a copy of the MPI document?
  439.  Q3.3        What information about MPI is available through the WWW?
  440.  Q3.4        MPI-related papers
  441.  Q3.5        MPI-related presentations
  442.  Q3.6        MPI-related books
  443.  Q3.7        Where can I find the errata for the MPI document?
  444.  Q3.8        Are the MPI Forum mailing lists archived somewhere?
  445.  Q3.9        Are the minutes from the MPIF forum meetings available?
  446.  Q3.10       Where can I get example MPI programs?
  447.  Q3.11       Miscellaneous MPI resources.
  448.  
  449. -------------------------------------------------------------------------------
  450.  
  451. Question 3.1.  What newsgroups and mailing lists are there for MPI?
  452.  
  453. An MPI-specific newsgroup,  comp.parallel.mpi (news:comp.parallel.mpi),
  454. was recently been created by a  vote of 506 to 14
  455. (ftp://ftp.erc.msstate.edu/pub/mpi/newsgroup/result) .  The RFD
  456. (ftp://ftp.erc.msstate.edu/pub/mpi/newsgroup/rfd) for comp.parallel.mpi
  457. was originally posted to  comp.parallel (news:comp.parallel),
  458. comp.parallel.pvm (news:comp.parallel.pvm), and  news.announce.newgroups
  459. (news:news.announce.newgroups) on April 4, 1994.  The  CFV
  460. (ftp://ftp.erc.msstate.edu/pub/mpi/newsgroup/cfv) was issued June 15,
  461. 1994.  The voting results, RFD, and CFV can be retrieved by anonymous ftp
  462. from ftp.erc.msstate.edu as pub/mpi/newsgroup/result,
  463. pub/mpi/newsgroup/rfd and pub/mpi/newsgroup/cfv.
  464.  
  465. The MPI Forum ran several mailing lists which are now archived  [see Q3.8
  466. `Are the MPI Forum mailing lists archived somewhere?'] on netlib.  These
  467. are no longer active.
  468.  
  469. -------------------------------------------------------------------------------
  470.  
  471. Question 3.2.  Where do I obtain a copy of the MPI document?
  472.  
  473. The official postscript version of the document can be obtained from
  474. netlib at ORNL by sending a mail message to netlib@ornl.gov with the
  475. message "send mpi-report.ps from mpi".
  476.  
  477. It may also be obtained by anonymous ftp from the following sites:
  478.  
  479. * ftp://netlib2.cs.utk.edu/mpi/mpi-report.ps
  480.  
  481. * ftp://ftp.erc.msstate.edu/pub/mpi/docs/mpi-report.ps.Z
  482.  
  483. * ftp://info.mcs.anl.gov/pub/mpi/mpi-report.ps.Z
  484.  
  485. * ftp://tbag.osc.edu/pub/lam/mpi-report.ps.Z
  486.  
  487. Argonne National Lab also provides a hypertext version available through
  488. the WWW at http://www.mcs.anl.gov/mpi/mpi-report/mpi-report.html .
  489.  
  490. -------------------------------------------------------------------------------
  491.  
  492. Question 3.3.  What information about MPI is available through the WWW?
  493.  
  494. The following is a list of URL's which contain MPI related information.
  495.  
  496. * Netlib Repository at UTK/ORNL (http://www.netlib.org/mpi/index.html)
  497.  
  498. * Argonne National Lab (http://www.mcs.anl.gov/mpi)
  499.  
  500. * Mississippi State University, Engineering Research Center
  501.   (http://www.erc.msstate.edu/mpi)
  502.  
  503. * Ohio Supercomputer Center, LAM Project (http://www.osc.edu/lam.html)
  504.  
  505. * Australian National University
  506.   (file://dcssoft.anu.edu.au/pub/www/dcs/cap/mpi/mpi.html)
  507.  
  508. -------------------------------------------------------------------------------
  509.  
  510. Question 3.4.  MPI-related papers
  511.  
  512. A bibliography (in BibTeX format) of MPI related papers is available by
  513. anonymous ftp at ftp://ftp.erc.msstate.edu/pub/mpi/bib/MPI.bib .  It is
  514. also available on the WWW from http://www.erc.msstate.edu/mpi/mpi-bib.html
  515. .  Additions and corrections should be sent to doss@ERC.MsState.Edu.
  516.  
  517. -------------------------------------------------------------------------------
  518.  
  519. Question 3.5.  MPI-related presentations
  520.  
  521. Bill Saphir has made several presentations about MPI  available thorough
  522. his WWW home page
  523. (http://lovelace.nas.nasa.gov/Parallel/People/wcs_homepage.html).
  524.  
  525. -------------------------------------------------------------------------------
  526.  
  527. Question 3.6.  MPI-related books
  528.  
  529. William Gropp, Ewing Lusk, and Anthony Skjellum,  `USING MPI: Portable
  530. Parallel Programming with the Message-Passing  Interface' (MIT Press,
  531. 1994, 328 pages, Paperback, $24.95) Information on the book, including
  532. ordering instructions, can be found  at:
  533. http://www-mitpress.mit.edu/mitp/recent-books/comp/gropp.html The example
  534. programs from this book are available at
  535. ftp://info.mcs.anl.gov/pub/mpi/using .
  536.  
  537. Ian Foster's online book entitled `Designing and Building Parallel
  538. Programs' (http://www.mcs.anl.gov/dbpp) (ISBN 0-201-57594-9; published by
  539. Addision Weseley (http://www.aw.com) ) includes a chapter on MPI.  It
  540. provides a succinct and readable introduction to an MPI subset.
  541.  
  542. The standard has been published as a journal article in the International
  543. Journal of Supercomputing Applications, Volume 8, Number 3/4, 1994.
  544.  
  545. Steve Otto (Oregon Graduate Institute of Science & Technology) and others
  546. are currently writing an Annotated Reference Manual for MPI.
  547.  
  548. -------------------------------------------------------------------------------
  549.  
  550. Question 3.7.  Where can I find the errata for the MPI document?
  551.  
  552. An early version of an errata can be obtained by anonymous from ftp at
  553. ftp://ftp.erc.msstate.edu/pub/mpi/docs/mpi-errata.ps .
  554.  
  555. -------------------------------------------------------------------------------
  556.  
  557. Question 3.8.  Are the MPI Forum mailing lists archived somewhere?
  558.  
  559. Yes.  They are available from netlib.  Send a message to netlib@ornl.gov
  560. with the message "send index from mpi".  You can also ftp them from
  561. ftp://netlib2.cs.utk.edu/mpi .
  562.  
  563. The following archived lists are available:
  564.  
  565. * whole committee (ftp://netlib2.cs.utk.edu/mpi/mpi-comm 2364K)
  566.  
  567. * core MPIF members (ftp://netlib2.cs.utk.edu/mpi/mpi-core 609K)
  568.  
  569. * introduction subcommittee (ftp://netlib2.cs.utk.edu/mpi/mpi-intro 41K)
  570.  
  571. * point-to-point subcommittee (ftp://netlib2.cs.utk.edu/mpi/mpi-pt2pt
  572.   3862K)
  573.  
  574. * collective communication subcommittee
  575.   (ftp://netlib2.cs.utk.edu/mpi/mpi-collcomm 1539K)
  576.  
  577. * process topology subcommittee (ftp://netlib2.cs.utk.edu/mpi/mpi-ptop
  578.   1193K)
  579.  
  580. * language binding subcommittee (ftp://netlib2.cs.utk.edu/mpi/mpi-lang
  581.   211K)
  582.  
  583. * formal language description subcommittee
  584.   (ftp://netlib2.cs.utk.edu/mpi/mpi-formal 72K)
  585.  
  586. * environment inquiry subcommittee (ftp://netlib2.cs.utk.edu/mpi/mpi-envir
  587.   140K)
  588.  
  589. * profiling subcommittee (ftp://netlib2.cs.utk.edu/mpi/mpi-profile 112K)
  590.  
  591. * context subcommittee (ftp://netlib2.cs.utk.edu/mpi/mpi-context 4618K)
  592.  
  593. * subset subcommittee (ftp://netlib2.cs.utk.edu/mpi/mpi-iac 433K)
  594.  
  595. -------------------------------------------------------------------------------
  596.  
  597. Question 3.9.  Are the minutes from the MPIF forum meetings available?
  598.  
  599. The minutes from some of the MPIF meetings are available from netlib.
  600. Send a message to netlib@ornl.gov with the message "send index from mpi".
  601. You can also ftp them from ftp://netlib2.cs.utk.edu/mpi .
  602.  
  603. There are minutes from the following meetings:
  604.  
  605. * January, 1993 (ftp://netlib2.cs.utk.edu/mpi/minutes-jan)
  606.  
  607. * February, 1993 (ftp://netlib2.cs.utk.edu/mpi/minutes-feb)
  608.  
  609. * April, 1993 (ftp://netlib2.cs.utk.edu/mpi/minutes-apr)
  610.  
  611. * August, 1993 (ftp://netlib2.cs.utk.edu/mpi/minutes-aug)
  612.  
  613. -------------------------------------------------------------------------------
  614.  
  615. Question 3.10.  Where can I get example MPI programs?
  616.  
  617. Most implementations mentioned in Q2.2 `What freely available MPI
  618. implementations are currently available and where do I get them?' are
  619. distributed with some example programs.
  620.  
  621. The Ohio Supercomputing Center has begun a list of  quick tutorials,
  622. (http://www.osc.edu/Lam/mpi/mpi_tut.html) on MPI.
  623.  
  624. The examples from "Using MPI" are located at
  625. ftp://info.mcs.anl.gov/pub/mpi/using .
  626.  
  627. -------------------------------------------------------------------------------
  628.  
  629. Question 3.11.  Miscellaneous MPI resources.
  630.  
  631. The LAM developers, in the course of teaching parallel workshops, produced
  632. a quick reference card for MPI.  It lists every function, but only
  633. provides syntax for a subset.  It is available from their anonymous ftp
  634. server at  ftp://tbag.osc.edu/pub/lam/mpi-quick-ref.ps.Z .
  635.  
  636. ===============================================================================
  637.  
  638. Section 4.  How to get further assistance
  639.  
  640.  Q4.1        You still haven't answered my question !
  641.  Q4.2        What to put in a posting about MPI
  642.  
  643. -------------------------------------------------------------------------------
  644.  
  645. Question 4.1.  You still haven't answered my question !
  646.  
  647. Try posting your MPI related questions to the  comp.parallel.mpi
  648. newsgroup.
  649.  
  650. -------------------------------------------------------------------------------
  651.  
  652. Question 4.2.  What to put in a posting about MPI
  653.  
  654. Questions will probably deal with a certain MPI implementation, MPI
  655. document clarifications, `how-to' type questions, etc.  Use a clear,
  656. detailed Subject line.  Don't put things like `MPI', `doesn't work',
  657. `help' or `question' in it --- we already knew that !  Save the space for
  658. the subject the question relates to, a fragment of the error message,
  659. summary of the unusual program behaviour, etc.
  660.  
  661. Put a summary paragraph at the top of your posting.
  662.  
  663. Remember that you should not post email sent to you personally without the
  664. sender's permission.
  665.  
  666. For problems with a specific implementation, give full details of the
  667. problem, including
  668.  
  669. * Enough information about the implementation you are using including the
  670.   version number if one and say where you got it.
  671.  
  672. * The exact and complete text of any error messages printed.
  673.  
  674. * Exactly what behaviour you were expecting, and exactly what behaviour
  675.   you observed.  A transcript of an example session is a good way of
  676.   showing this.
  677.  
  678. * Details of what hardware you're running on, if it seems appropriate.
  679.  
  680. You are in little danger of making your posting too long unless you
  681. include large chunks of source code or uuencoded files, so err on the side
  682. of giving too much information.
  683.  
  684. Source:  Modified from the Linux FAQ
  685.  
  686. ===============================================================================
  687.  
  688. Section 5.  Administrative information and acknowledgements
  689.  
  690.  Q5.1        Feedback is invited
  691.  Q5.2        Formats in which this FAQ is available
  692.  Q5.3        Where can I obtain a copy of this FAQ
  693.  Q5.4        Authorship and acknowledgements
  694.  Q5.5        Disclaimer and Copyright
  695.  
  696. -------------------------------------------------------------------------------
  697.  
  698. Question 5.1.  Feedback is invited
  699.  
  700. Please send me your comments on this FAQ.
  701.  
  702. I accept submissions for the FAQ in any format;  All contributions
  703. comments and corrections are gratefully received.
  704.  
  705. Please send them to doss@ERC.MsState.Edu (Nathan Doss).
  706.  
  707. -------------------------------------------------------------------------------
  708.  
  709. Question 5.2.  Formats in which this FAQ is available
  710.  
  711. This document is available as ASCII text, an Emacs Info document and
  712. PostScript.  It is also available on the world wide web (WWW) at
  713. http://www.erc.msstate.edu/mpi/mpi-faq.html or at
  714. http://www.cis.ohio-state.edu/hypertext/faq/usenet/mpi-faq/faq.html .
  715.  
  716. The ASCII, Emacs Info, and HTML versions are generated automatically by a
  717. Perl script which takes as input a file in the Bizarre Format with No
  718. Name.  Mosaic is used to create the postscript version from the HTML
  719. version.
  720.  
  721. The output files mpi-faq.ascii, .info, .html, and .ps and a tarfile
  722. mpi-faq.source.tar.gz, containing the BFNN source and Perl script
  723. converter, are available in  ftp://ftp.erc.msstate.edu/pub/mpi/faq .
  724.  
  725. -------------------------------------------------------------------------------
  726.  
  727. Question 5.3.  Where can I obtain a copy of this FAQ
  728.  
  729. In addition to finding it in those places listed in  Q5.2 `Formats in
  730. which this FAQ is available' , the ascii version is posted monthly  to
  731. comp.parallel.mpi ,  news.answers , and  comp.answers .
  732.  
  733. The ascii version can also be obtained through anonymous ftp from
  734. ftp://rtfm.mit.edu/pub/usenet/news.answers/mpi-faq or those without FTP
  735. access can send e-mail to mail-server@rtfm.mit.edu with "send
  736. usenet/news.answers/mpi-faq"  in the message body.
  737.  
  738. -------------------------------------------------------------------------------
  739.  
  740. Question 5.4.  Authorship and acknowledgements
  741.  
  742. This FAQ was compiled by Nathan Doss (doss@ERC.MsState.Edu), with
  743. assistance and comments from others.
  744.  
  745. Thanks to the MPI Forum and those who gave feedback about the MPI document
  746. for giving us something to write about !
  747.  
  748. The format of this FAQ, the wording of the Disclaimer and Copyright, and
  749. the original Perl conversions scripts were borrowed (with permission) from
  750. Ian Jackson ijackson@nyx.cs.du.edu who maintains the "Linux Frequently
  751. Asked Questions with Answers" document.
  752.  
  753. -------------------------------------------------------------------------------
  754.  
  755. Question 5.5.  Disclaimer and Copyright
  756.  
  757. Note that this document is provided as is.  The information in it is *not*
  758. warranted to be correct; you use it at your own risk.
  759.  
  760. MPI Frequently Asked Questions is Copyright 1994 by Mississippi State
  761. University.  It may be reproduced and distributed in whole or in part,
  762. subject to the following conditions:
  763.  
  764. * This copyright and permission notice must be retained on all complete or
  765.   partial copies.
  766.  
  767. * Any translation or derivative work must be approved by me before
  768.   distribution.
  769.  
  770. * If you distribute MPI Frequently Asked Questions in part, instructions
  771.   for obtaining the complete version of this manual must be included, and
  772.   a means for obtaining a complete version free or at cost price provided.
  773.  
  774. Exceptions to these rules may be granted, and I shall be happy to answer
  775. any questions about this copyright --- write to Nathan Doss, P.O. Box
  776. 6176,  Engineering Research Center ,  Mississippi State , MS 39762 or
  777. email doss@ERC.MsState.Edu.  These restrictions are here to protect the
  778. contributors, not to restrict you as educators and learners.
  779.  
  780. ===============================================================================
  781. -- 
  782. Nathan Doss          doss@ERC.MsState.Edu
  783.