home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #19 / NN_1992_19.iso / spool / comp / parallel / 2048 < prev    next >
Encoding:
Internet Message Format  |  1992-09-03  |  24.9 KB

  1. Xref: sparky comp.parallel:2048 comp.arch:9220 comp.lang.fortran:3424
  2. Newsgroups: comp.parallel,comp.arch,comp.lang.fortran
  3. Path: sparky!uunet!gatech!hubcap!fpst
  4. From: tomf@cs.man.ac.uk (Tom Franklin)
  5. Subject: call for participation: Virtual Shared Memory Symposium
  6. Message-ID: <1992Sep4.121521.18429@hubcap.clemson.edu>
  7. Sender: news@cs.man.ac.uk
  8. Organization: Clemson University
  9. Date: 4 Sep 92 10:28:40 GMT
  10. Approved: parallel@hubcap.clemson.edu
  11. Lines: 667
  12.  
  13.  
  14.  
  15. Last call for participation in
  16.  
  17.           Virtual Shared Memory Symposium
  18.           ===============================
  19.  
  20.                to be held at
  21.            The Centre for Novel Computing
  22.             The University of Manchester
  23.                   England
  24.  
  25.                 on
  26.              17th and 18th September 
  27.  
  28.                In Conjunction with
  29.                SERC - NACC
  30.                    and
  31.                BCS - PPSG
  32.  
  33.  
  34. Contents:
  35.     Symposium timetable
  36.     biographies of speakers and abstracts of talks
  37.     applications details
  38.  
  39.  
  40.           Virtual Shared Memory Symposium
  41.  
  42.              17th and 18th September 
  43.  
  44. Programme
  45.  
  46. Thursday 17 September
  47.  
  48.  
  49.  
  50.     9:00 - 10:00    Registration
  51.  
  52.     10:00 - 10:15    Welcome by John Gurd, CNC
  53.  
  54.     10:15 - 11:05    Nic Holt, ICL
  55.             Virtual Shared Memory in Commercial Applications 
  56.  
  57.     11:05 - 11:30    Tea and coffee
  58.  
  59.     11:30 - 12:30    Vadim Abrossimov, Chorus Systemes
  60.             Distributed Virtual Memory in Chorus
  61.  
  62.     12:30 - 13:30    Lunch
  63.  
  64.     13:30 - 14:30    Steve Frank, KSR
  65.             Memory System Architecture and Programming
  66.             Environment of the KSR1  
  67.  
  68.     14:30 - 15:15    Peter Bird, ACRI
  69.             Proactive Systems
  70.  
  71.     15:15 - 16:00    Tea and coffee
  72.  
  73.     16:00 - 17:00    William Jalby, University of RENNES
  74.             Replacement Policies For Hierarchical Memory Systems
  75.  
  76.     17:00 - 18:00    Chris Wadsworth
  77.             VSM: The Good, The Bad and The Unknown
  78.  
  79.  
  80.  
  81. Friday 18 September
  82.  
  83.     9:30 - 10:20    Clemens-August Thole, GMD
  84.             High Performance Fortran and its Relevance for VSM
  85.             Architectures  
  86.  
  87.     10:20 - 11:10    Mike Delves, University of Liverpool
  88.             Development of an HPF-Conformant Parallel Fortran90
  89.             Compiler  
  90.  
  91.     11:10 - 11:40    Tea and coffee
  92.  
  93.     11:40 - 12:30    Sven Hammarling, NAg
  94.             The development of a Numerical Software Library for
  95.             Parallel Machines  
  96.  
  97.     12:30 - 13:30    Lunch
  98.  
  99.     13:30 - 14:20    Iain Duff, Rutherford Appleton Laboratory
  100.             The Solution of Sparse Systems on Parallel Computers
  101.  
  102.     14:20 - 15:10    Harry Wijshoff, University of Leiden
  103.             Implementation issues of Sparse Computations
  104.  
  105.     15:10 - 15:50    Tea and coffee
  106.  
  107.     15:50 - 16:40    David Culler, University of California at Berkeley
  108.             Active Messages: a Fast, Universal Communication
  109.             Mechanism  
  110.  
  111.     16:40 - 17:00    Closing Address - John Gurd, CNC
  112.  
  113.  
  114.  
  115. Virtual Shared Memory Symposium
  116. Speakers and Abstracts:
  117.  
  118.  
  119. Professor Nic Holt
  120. ==================
  121.  
  122. Virtual Shared Memory in Commercial Applications
  123. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  124.  
  125. Biography
  126.  
  127. Nic Holt is a System Designer at ICL and was responsible for the primitive 
  128. architecture of the ICL Series 39 which features processing nodes
  129. interconnected by Optical Fibre, providing Virtual Shared Memory for
  130. commercial applications.  
  131.  
  132. Abstract
  133.  
  134. The ICL Series 39 system, originally designed in 1982, has an architecture
  135. in which multiple processors each with closely coupled memory, known as
  136. "processing nodes", are interconnected by an optical fibre network. Series
  137. 39 supports Virtual Shared Memory by a technique known as Replicated
  138. Storage: pages of virtual memory may be replicated across multiple nodes.
  139. Hardware mechanisms in each node generate protocol on the network to
  140. propagate memory updates and provide a basic synchronisation mechanism
  141. between the nodes. The system architecture and a number of existing
  142. commercial applications will be described in detail. The VSM facilities of
  143. the EDS machine, a distributed memory parallel processor will also be
  144. mentioned. The characteristics of various shared memory schemes and their
  145. use by applications will be discussed.
  146.  
  147.  
  148.  
  149. Vadim Abrossimov
  150. ================
  151.  
  152. Distributed Virtual Shared Memory in Chorus
  153. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  154.  
  155. Biography
  156.  
  157. Vadim Abrossimov is one of the key architects of the Chorus micro-kernel.
  158. He concentrated on the design and implementation of the CHORUS distributed
  159. Virtual Memory Management.   
  160.  
  161. He joined Chorus Systemes at its creation in 1986 after spending two years
  162. at INRIA working on object oriented systems. 
  163.  
  164. Abstract
  165.  
  166. Many high-end open systems under development today are characterized by the
  167. innovative use of multiple processors in distributed memory configurations
  168. ("multicomputers"). These parallel processors provide wider I/O throughput
  169. for mainframe-power UNIX systems, redundancy for reliable OLTP systems and
  170. enormous computation power for massively parallel supercomputer systems.
  171.  
  172. To master these more complicated environments and get these more
  173. complicated machines to market faster, system builders need an operating
  174. system development environment that is as powerful as the development
  175. environment provided to applications builders by UNIX.   
  176.  
  177. Modern operating systems have to meet certain design objectives to meet
  178. these requirements and support the inherent distributed environment of
  179. high-end systems. And they must do this while providing complete BCS/ABI
  180. compatibility with UNIX and Open Systems standards.   
  181.  
  182. One approach to modern operating system design is to build the distributed
  183. operating system as a set of independent system servers using the
  184. primitive, generic services of a micro-kernel. The micro-kernel provides a
  185. virtual machine for processor use, memory allocation and communication
  186. between operating system components.    
  187.  
  188. To provide scalability and portability, a modern operating system should
  189. offer complete support for portability not only over a range of processors,
  190. but also over a range of hardware system-level architectures. It should
  191. also offer transparent re-usability of system components, modularity,
  192. scalability of hardware configurations and system services, and structured
  193. integration of device drivers and specific hardware features. To enable
  194. system services, a modern operating system should provide transparent
  195. distribution of services, fault tolerance, security, performance
  196. flexibility and full compatibility with standard operating system
  197. interfaces.
  198.  
  199. The presentation outlines how a modern micro-kernel based operating system
  200. architecture such as CHORUS can meet these needs, in particular by looking
  201. at how it provides virtually shared memory over distributed configurations.
  202.  
  203.  
  204.  
  205. Steve Frank
  206. ===========
  207.  
  208. Memory System Architecture and Programming Environment of the KSR1
  209. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  210.  
  211. Biography
  212.  
  213. Mr. Frank is a co-founder of Kendall Square Research and made a major
  214. contribution to the architecture, design partitioning, and technology
  215. selection of the KSR1. He is presently involved in the definition of future
  216. products. Prior to joining KSR, he contributed to the architecture and
  217. implementation of three multiprocessors: Encore's MultiMax, the Synapse N+1
  218. and a multiprocessor for an experimental PBX at Rolm. Mr. Frank earned his
  219. B.S. and M.S. degrees in Electrical Engineering from the Massachusetts
  220. Institute of Technology.
  221.  
  222. Abstract
  223.  
  224. The KSR1 is the first highly parallel computer system that unites the power
  225. of parallel processing with a conventional shared memory software
  226. development environment to satisfy the production requirements of both the
  227. commercial and technical applications. Shared memory is achieved through a
  228. technique called ALLCACHE memory. This mechanism, implemented in hardware,
  229. builds the abstraction of shared memory on a set of distributed memory
  230. units which are managed as coherent caches. The underlying hardware also
  231. includes a full 64 bit superscalar processor.
  232.  
  233. The talk will start by discussing related research which led to the
  234. development of the KSR1. The KSR1 programming environment and ALLCACHE
  235. memory architecture will be presented as a context to describe key
  236. architecture and implementation issues.   
  237.  
  238.  
  239.  
  240. Peter Bird
  241. ==========
  242.  
  243. Proactive Systems
  244. ~~~~~~~~~~~~~~~~~
  245.  
  246. Biography
  247.  
  248. Peter Bird received his PhD in Computer Science from the University of
  249. Michigan. He studied retargetable, pattern directed code generators which
  250. optimised pipeline scheduling.  
  251.  
  252. He designed and developed compilers for a parallel pipelined machine for a
  253. data-flow specification language for ODEs used for Real-Time applications.
  254. Currently He is computer system architect for ACRI in Lyon, France, where a
  255. multi-nodal, high performance system is being developed.     
  256.  
  257. Abstract
  258.  
  259. not available yet
  260.  
  261.  
  262. William Jalby
  263. =============
  264.  
  265. Replacement Policies For Hierarchical Memory Systems
  266. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  267.  
  268. Biography
  269.  
  270. William Jalby began his career as a researcher at INRIA, then spent 18
  271. months at University of Illinois (Center for Supercomputing Research and
  272. Development) and in 1988 was appointed as a professor of Computer Science
  273. at the University of Rennes. His research interests mainly concern memory
  274. organization (architecture, software and performance evaluation). He is the
  275. vice chairman of the ESPRIT BRA APPARC project.      
  276.  
  277. Abstract
  278.  
  279. One of the key components in determining the performance of a hierarchical
  280. memory system is the strategy used for replacing pages (blocks). In the
  281. general case (i.e. without any specific knowledge on the memory reference
  282. pattern), simple heuristics like LRU (Least Recently Used) exhibit
  283. relatively good behaviour. On the other hand, if the entire memory pattern
  284. is known a priori, an optimal replacement strategy can be used (Belady's
  285. MIN algorithm). In this talk, the old problem of replacement strategies is
  286. revisited but focusing on regular loop structures such as those arising in
  287. many numerical codes. In such cases, memory reference patterns can be
  288. determined at compile time and can be used to derive efficient replacement
  289. policies. After noting that LRU can exhibit pathological behaviour for such
  290. loop structures, we analyse in detail the behaviour of Belady's algorithm.
  291. In particular, for some simple cases, its (optimal) hit ratio is computed
  292. as well as its impact on array management. Finally, we describe some simple
  293. heuristics that achieve hit ratios close to optimal.
  294.  
  295.  
  296.  
  297. Dr. C P Wadsworth
  298. =================
  299.  
  300. Virtual Shared Memory: The Good, The Bad, and The Unknown
  301. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  302.  
  303. Biography
  304.  
  305. Dr. Chris Wadsworth is leader of the Parallel Processing Group in the
  306. Informatics Department at RAL, with projects in the systems aspects and
  307. techniques of parallel programming and the porting of applications
  308. software. The Group also takes a leading role in projects for Oxford
  309. Parallel, a joint centre with Oxford University under the DTI/SERC Parallel
  310. Applications Programme. His present interests focus on the exploitation of
  311. parallelism, the requirements for portable parallel software, and high
  312. level performance models for parallel machines.
  313.  
  314. Abstract
  315.  
  316. An overview of the advantages, disadvantages, and challenges of virtual
  317. shared memory computing will be presented. While the main benefits are
  318. readily appreciated, it is argued that particular challenges remain in the
  319. evolution of higher-level programming concepts. The role of sharing -- when
  320. to share, and how to do so safely -- in parallel program designs will be a
  321. particular topic for discussion.
  322.  
  323.  
  324.  
  325. Clemens-August Thole
  326. ====================
  327.  
  328. High Performance Fortran and its relevance for VSM architectures
  329. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  330.  
  331. Biography
  332.  
  333. Clemens-August Thole has worked in the field of programming models and
  334. applications for distributed memory architectures since 1984. He was
  335. project manager of the Esprit GENESIS project, which aimed for a
  336. programming environment for parallel architectures. He is currently
  337. employed by the Gesellschaft fuer Mathematik und Datenverarbeitung (GMD),
  338. St. Augustin, Germany, member of the core group of the High Performance
  339. Fortran Forum and chairman of the related European working group.
  340.  
  341. abstract
  342.  
  343. A virtual shared memory programming model for a parallel architecture makes
  344. the port of programs simpler. The limited speed of interconnection networks
  345. and clustering of the address space into pages and subpages requires
  346. detailed consideration of the mapping of the data structures onto the
  347. address space, the tiling of loops and the distribution of threads onto the
  348. processors.
  349.  
  350. High Performance Fortran (HPF) as is currently being defined by the HPF
  351. Forum allows the application programmer to specify the mapping of data
  352. objects and statements to processors by compiler directives.   
  353.  
  354. The presentation gives an introduction to HPF and outlines the possibility
  355. for exploitation of this information by compilers of virtual shared memory
  356. architectures.  
  357.  
  358.  
  359.  
  360. Mike Delves
  361. ===========
  362.  
  363. Development of an HPF-Conformant Parallel Fortran90 Compiler
  364. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  365.  
  366. Biography
  367.  
  368. Professor Delves has held the Chair of Computational Mathematics at the
  369. University of Liverpool since 1969. He is Director of the Centre for
  370. Mathematical Software Research, and the Transputer Support Centre, both
  371. self-supporting Research Centres within the University specialising in
  372. scientific/engineering parallel computing. His interests in computational
  373. mathematics include Parallel Algorithms, Integral and Partial Differential
  374. Equations and the Seising of High Level Scientific Languages.
  375.  
  376. He is a member of ADA Europe and the Ada Numerics Task Force; and a founder
  377. member of the Esprit SIG on Parallel Languages for Scientific Computing,
  378. which currently provides a European forum for interacting with the US HPF
  379. initiative.He has published over 170 papers, is author of two books on
  380. numerical algorithms, and editor of four others.     
  381.  
  382. Abstract
  383.  
  384. The High Performance Fortran (HPF) proposals provide a shared-memory style
  385. of programming in Fortran90 with the ability for the user to input
  386. sufficient help for compilers; the language plus directives supports data
  387. parallel SIMD programs. With NA Software and with input from Inmos, we are
  388. developing a compiler for an extended Fortran90 language; the code
  389. includes:
  390. o    Full Fortran90;
  391. o    HPF Directives;
  392. o    MIMD syntax extensions.
  393.  
  394. The work is taking place within the Esprit Supernode II and PPPE projects;
  395. target dates for the first compiler release are April 1993 for parallel
  396. Fortran90; end 1993 for HPF support. This paper gives details of the design
  397. of the language and compiler, and a summary of progress with it's
  398. development.
  399.  
  400.  
  401.  
  402. Mr. Sven Hammarling
  403. ===================
  404.  
  405. Development of Portable Numerical Software for Parallel Machines
  406. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  407.  
  408. Biography
  409.  
  410. Sven Hammarling is currently the Manager of the Numerical Libraries
  411. Division at the Numerical Algorithms Group in Oxford. He is one of the
  412. authors of the Level 2 and Level 3 Basic Linear Algebra Subprograms (BLAS),
  413. is involved in the LAPACK project, which has been developing a linear
  414. algebra package for high-performance computers and is Workpackage Manager
  415. for the Libraries Workpackage on the ESPRIT II project, Supernode II.
  416.  
  417. Abstract
  418.  
  419. NAG has always aimed to to make their library available on any type of
  420. computer for which there is reasonable demand for it, which in practice
  421. means any computer in widespread use for general purpose scientific
  422. computing. The NAG Fortran Library is currently available on more than
  423. fifty different machine ranges, and on somthing like a hundred different
  424. compiler versions. Thus portability of the library has always been a prime
  425. consideration. The advent of vector and parallel computers has required us
  426. to pay much more careful attention to the performance of the library, and
  427. the challenge has been to try satisfy the sometimes conflicting
  428. requirements of performance and portability.
  429.  
  430. We shall discuss how we have approached the development of library software
  431. for modern high-performance machines, concentrating in particular on our
  432. involvement in the LAPACK project which has been developing a linear
  433. algebra package.
  434.  
  435. The features of modern machines that have to be utilized to achieve
  436. efficiency include vector registers or pipelines, multiple processors and a
  437. hierarchy of memory. To retain portability in LAPACK, efficiency is
  438. achieved principally through the use of the Basic Linear Algebra
  439. Subprograms (BLAS), the matrix-vector operations of the Level~2 BLAS for
  440. single processor, non-hierarchical memory vector machines and the
  441. matrix-matrix operations of the Level~3 BLAS otherwise. In the case of the
  442. Level~2 BLAS this has meant restructuring the algorithms to clearly expose
  443. the matrix-vector nature of the operations, and in the case of the Level~3
  444. BLAS has necessitated the design of block algorithms to yield matrix-matrix
  445. operations.
  446.  
  447. We shall also consider the impact of Fortran 90, which has recently become
  448. an ISO standard, on library development, particularly the use of the array
  449. features for expressing parallelism.   
  450.  
  451.  
  452.  
  453. Iain Duff
  454. =========
  455.  
  456. The Solution of Sparse Systems on Parallel Computers
  457. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  458.  
  459. Biography
  460.  
  461. Iain S Duff is Group Leader of Numerical Analysis in the Central Computing
  462. Department at the Rutherford Appleton Laboratory. He is also project Leader
  463. of the Parallel Algorithms Group at CERFACS in Toulouse and is a visiting
  464. Professor of Mathematics The University of Strathclyde. Duff obtained a BSc
  465. from the University of Glasgow where he held an IBM Scholarship. He was
  466. Carnegie Fellow at Oxford, completed his diploma in Advanced Mathematics in
  467. 1970, and received his D Phil on "Analysis of Sparse Systems" from the
  468. University of Oxford in 1972. He then was Harkness Fellow visiting Stony
  469. Brook and Stanford and thereafter spent two years as a lecturer in Computer
  470. Science at the University of Newcastle before joining the Numerical
  471. Analysis Group at Harwell in 1975. He moved to his present position in June
  472. 1990.
  473.  
  474. He has had several extended visits to Argonne National Laboratory, the
  475. Australian National university, the University of Colorado at Boulder,
  476. Stanford university, and the University of Umea.  
  477.  
  478. His principal research interests lie in sparse matrices and vector and
  479. parallel computing. He has also been involved for many years in the
  480. development and support of mathematical software, particularly through the
  481. Harwell Subroutine Library. He has published over 100 papers, has
  482. co-authored two books, and has been editor or joint-editor of several
  483. conference proceedings. He is editor of the IMA Journal of Numerical
  484. Analysis and associate editor of several other journals in numerical
  485. analysis and advanced scientific computing. He is a fellow of the Institute
  486. of Mathematics and its Applications, and a member of SIAM, SMAI and SBMAC.
  487.  
  488. Abstract
  489.  
  490. The multifrontal technique solves systems of sparse linear equations using
  491. Gaussian elimination and exploits parallelism both through sparsity via an
  492. elimination tree (a computational graph) and through use of Level 3 Basic
  493. Linear Algebra Subprograms.   
  494.  
  495. We briefly describe multifrontal methods and illustrate the benefits of
  496. parallelism from these two sources by examining the performance of
  497. multifrontal codes on a range of shared memory architectures. More recently
  498. we have examined the performance of our codes on the BBN TC 2000, a virtual
  499. shared memory machine. We show that, although a fairly straightforward
  500. adaptation of the shared memory code will, as expected, run on the TC 2000,
  501. design changes which recognize data locality yield a significantly improved
  502. performance. We feel that the issues we raise are important for any virtual
  503. shared memory environment and that the architecture must still be
  504. understood if high performance is to be obtained.
  505.  
  506. Finally we indicate one way in which our techniques can be extended to
  507. distributed memory architectures or networks of workstations.   
  508.  
  509.  
  510.  
  511. H.A.G. Wijshoff
  512. ===============
  513.  
  514. Implementation Issues of Sparse Computations
  515. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  516.  
  517. Biography
  518.  
  519. Professor Harry A.G. Wijshoff has been appointed as a full professor in
  520. computer systems and software at the University of Leiden since July 1,
  521. 1992. Previously he worked at University of Illinois, RIACS, NASA Ames, and
  522. Utrecht University. At the University of Leiden he is the leader of a group
  523. of 12 scientist in the area of high performance computing and parallel
  524. processing. He is the coordinator of a recently awarded Esprit III BRA
  525. project on Performance critical applications of parallel architectures
  526. (APPARC). His current research interests cover parallel architectures,
  527. sparse matrix computations, programming environments and performance
  528. evaluation.
  529.  
  530. Abstract
  531.  
  532. In this talk the intrinsic complexity of sparse computations will be
  533. addressed together with consequences of providing architectural support for
  534. these computations. Sparse computations will be a major challenge for
  535. shared virtual memory implementations as they do not lean themselves easily
  536. for exploiting data locality. Ways of overcoming this bottleneck will be
  537. discussed.      
  538.  
  539.  
  540.  
  541. David E. Culler
  542. ===============
  543.  
  544. Active Messages: a fast, universal communication mechanism
  545. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  546.  
  547. Biography
  548.  
  549. David Culler is an Assistant Professor in the Computer Science Division of
  550. the University of California at Berkeley and a Presidential Faculty Fellow.
  551. His research interests include computer architecture, resource management,
  552. and the implementation of a wide range of parallel programming models,
  553. including dataflow, functional programming, hardware description languages,
  554. and explicit distributed memory. 
  555.  
  556. Abstract
  557.  
  558. Multiprocessor architectures are traditionally divided into three
  559. categories based on their intended programming model: shared memory,
  560. message passing, and "novel". The last is a euphemism for dataflow,
  561. reduction, and the like. However, careful study reveals that the
  562. implementations of these apparently diverse architectures are surprisingly
  563. similar. Active Messages is a simple communication primitive that captures
  564. this common element. The implementation of Active Messages on current
  565. message passing machines (CM-5 and nCUBE/2) is an order of magnitude faster
  566. than the send/receive model for which the machines were designed. The
  567. universality of the mechanism has been demonstrated by realizations of
  568. shared memory, message passing, and dataflow models on the same machine. In
  569. addition, a variety of hybrid models have been developed, including a
  570. split-phase global memory extension to C, called Split-C. The goal of this
  571. work is to define better architectural primitives for communication, rather
  572. than to build new abstractions on top of existing inefficient primitives.
  573.  
  574.  
  575.  
  576. Who Should Attend
  577. =================
  578.  
  579. The symposium is aimed at all people working in the area of parallel
  580. computing. It will provide a detailed introduction to Virtual Shared Memory
  581. and current research issues. 
  582.  
  583. It will be of particular interest to developers of applications, whether
  584. numeric, symbolic or database applications, who need power of parallel
  585. computing, but have been put off in the past by the difficulties of
  586. parallel computing. 
  587.  
  588. The symposium will also be of interest to systems implementors and
  589. architects working on parallel systems. 
  590.  
  591.  
  592. Venue
  593. =====
  594.  
  595. The Symposium will be held at the Department of Computer Science, Computer
  596. Building, University of Manchester. The department has access and
  597. facilities for disabled visitors. 
  598.  
  599.  
  600. Catering and Accommodation
  601. ==========================
  602.  
  603. Every effort will be made to cater for special dietary requirements if
  604. details are provided with the completed application forms. 
  605.  
  606. Accommodation is provided in Hulme Hall, one of the University's halls of
  607. residence about 15 minutes walk, or a short bus ride from the department. 
  608.  
  609. Accommodation can only be provided if the form is returned by 9 September.
  610.  
  611. _________________________________________________________________________
  612.  
  613. Application Form
  614. To:    Ursula Hayes
  615.     Department of Computer Science
  616.     University of Manchester
  617.     Manchester
  618.     M13 9PL
  619.     England
  620.  
  621.     Telephone:    +44 (61) 275 6172
  622.     Fax:        +44 (61) 275 6236
  623.     email        vsm@cs.man.ac.uk
  624.  
  625. Title      _________  Forename    _______________________________
  626.  
  627. Surname      _____________________________________________________
  628.  
  629. Address      _____________________________________________________
  630.  
  631.       _____________________________________________________
  632.  
  633.       _____________________________________________________
  634.  
  635.       _____________________________________________________
  636.  
  637.       _____________________________________________________
  638.         
  639. Postcode  _____________________________________________________        
  640.  
  641. Telephone _____________________________________________________
  642.  
  643. Fax      _____________________________________________________
  644.  
  645. email      _____________________________________________________
  646.  
  647. The fee includes the Symposium fee and proceedings,
  648. lunches and coffee.
  649.  
  650. Fee:    Full        200.00
  651.     BCS PPSG    180.00
  652.     Academic    100.00
  653.  
  654. Nights in Hulme Hall @ 20.00:
  655. Wednesday 16th         __
  656. Thursday 17th
  657. Friday 18th         __
  658. Enclosed fee            ____________
  659.  
  660. Dietary Requirements:    _________________________________________
  661.  
  662. Please make Cheques payable to "The University of Manchester"
  663.  
  664. _________________________________________________________________________
  665.  
  666.  
  667.  
  668. --
  669. Tom.
  670.  
  671. Tom Franklin
  672. Centre for Novel Computing        Phone    +44 61 275 6134
  673. Department of Computer Science         Fax    +44 61 275 6204
  674. University of Manchester
  675. Manchester                email    tomf@cs.man.ac.uk
  676. M13 9PL
  677.  
  678. =================================================================
  679.  
  680.