home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #16 / NN_1992_16.iso / spool / comp / doc / techrepo / 133 < prev    next >
Encoding:
Internet Message Format  |  1992-07-29  |  20.0 KB

  1. Path: sparky!uunet!olivea!hal.com!darkstar.UCSC.EDU!golding
  2. From: mohr@cip.informatik.uni-erlangen.de (Bernd Mohr)
  3. Newsgroups: comp.doc.techreports
  4. Subject: TR-List: Measurement+Modeling Parallel Systems, University of Erlangen
  5. Message-ID: <156ipfINNfcd@darkstar.UCSC.EDU>
  6. Date: 29 Jul 92 09:23:45 GMT
  7. Organization: Student Pool, CSD, University of Erlangen, Germany
  8. Lines: 390
  9. Approved: compdoc-techreports@ftp.cse.ucsc.edu
  10. NNTP-Posting-Host: midgard.ucsc.edu
  11. Originator: golding@midgard
  12.  
  13. *************************************************************************
  14. *  UNIVERSITY OF ERLANGEN                                               *
  15. *  Institute for Mathematical Machines and Data Processing (IMMD7)      *
  16. *  Group for Measurement, Modeling and Evaluation                       *
  17. *  of Parallel and Distributed Systems (MMB)                            *
  18. *  D-8520 Erlangen                                                      *
  19. *  GERMANY                                                              *
  20. *                                                                       *
  21. *  DOCUMENTS FTP ACCESS                                                 *
  22. *************************************************************************
  23.  
  24.      host: faui79.informatik.uni-erlangen.de [131.188.47.79]
  25. directory: ~ftp/pub/doc
  26.  
  27. In case of any problem or question feel free to send a mail to:
  28.  
  29.   mohr@immd7.informatik.uni-erlangen.de
  30.  
  31. This directory contains documentation files in PostScript
  32. format (compressed) about the ZM4, SIMPLE, and PEPP environment.
  33. The entries are described in the following format:
  34.  
  35.   Filename (number of pages)
  36.        "Title"
  37.        Author(s)
  38.        Reference
  39.        Abstract
  40.  
  41. The email addresses of the authors:
  42.  
  43.   Peter Dauphin        pdauphin@immd7.informatik.uni-erlangen.de
  44.   Franz Soetz             franz@immd7.informatik.uni-erlangen.de
  45.   Richard Hofmann      rhofmann@immd7.informatik.uni-erlangen.de
  46.   Rainer Klar              klar@immd7.informatik.uni-erlangen.de
  47.   Bernd Mohr               mohr@immd7.informatik.uni-erlangen.de
  48.   Andreas Quick           quick@immd7.informatik.uni-erlangen.de
  49.   Markus Siegle          siegle@immd7.informatik.uni-erlangen.de
  50.  
  51. **************
  52. *  ARTICLES  *
  53. **************
  54.  
  55. conpar90.si.ps.Z (12 pages)
  56.         "Performance Evaluation of Parallel Programs
  57.          in Parallel and Distributed Systems"
  58.         B. Mohr
  59.         In H. Burkhart, editor, CONPAR 90-VAPP IV,
  60.         Joint International Conf. on Vector and Parallel Processing.
  61.         Proceedings, pages 176-187, Zurich, Switzerland, September
  62.         1990. Springer, Berlin, LNCS 457.
  63.  
  64.         This paper deals with performance evaluation of parallel
  65.         and distributed systems based on monitoring of concurrent
  66.         interdependent activities. First a model is introduced
  67.         for describing the dynamic behavior of computer systems
  68.         in terms of events. Then, a distributed hardware/hybrid
  69.         monitor system based on event driven monitoring and
  70.         its tool environment SIMPLE are presented. We emphasize
  71.         the tool environment as a prerequisite for successful
  72.         performance evaluation. The tool environment for evaluating
  73.         event traces, which integrates the data access interface
  74.         TDL/POET and a set of evaluation tools for processing
  75.         the data, makes evaluation independent of the monitor
  76.         device(s) and the object system. It provides a problem
  77.         oriented way of accessing event traces. 
  78.  
  79. conpar90.pp.ps.Z (10 pages)
  80.         "A Method for Performance Prediction of Parallel Programs"
  81.         F. Soetz
  82.         In H. Burkhart, editor, CONPAR 90-VAPP IV,
  83.         Joint International Conf. on Vector and Parallel Processing.
  84.         Proceedings, pages 98-107, Zurich, Switzerland, September
  85.         1990. Springer, Berlin, LNCS 457.
  86.  
  87.         In general there are many possibilities to parallelize an
  88.         algorithm and to distribute the tasks to the processors. In
  89.         some cases the selection of a processor configuration depends
  90.         on the given problem, too. To decide which implementation for
  91.         any configuration may be the best, the programmer can use
  92.         methods of performance evaluation and prediction. If the
  93.         structure of the parallel program can be modeled by a seriesparallel
  94.         graph we know a method to obtain the runtime of the total program.
  95.         This paper deals with the more difficult problem of predicting
  96.         the runtimes of non-seriesparallel structured programs. It is shown
  97.         how to compute approximately the average runtime of a program which
  98.         consists of tasks with deterministically and/or exponentially
  99.         distributed runtime variables. The method is based on the well known
  100.         transient state space analysis.
  101.  
  102. dagstuhl.ps.Z (28 pages)
  103.         "Integrating Monitoring and Modeling to a
  104.          Performance Evaluation Methodology"
  105.         R. Hofmann, R. Klar, N. Luttenberger, B. Mohr, A. Quick, and F. Soetz
  106.         In T. Haerder, H. Wedekind, and G. Zimmermann,
  107.         editors, Entwurf und Betrieb verteilter Systeme, pages
  108.         122-149. Springer-Verlag, Berlin, IFB 264, 1990.
  109.  
  110.         This paper presents a comprehensive methodology for
  111.         monitoring and modeling parallel and distributed systems
  112.         systematically. The integration of models, measurements,
  113.         and evaluators to an efficient set of performance evaluation
  114.         tools is described. Three typical tools are presented.
  115.         One of them is the distributed hardware and hybrid
  116.         monitor ZM4, another is the monitor independent and
  117.         source related event trace interface POET/TDL. Both
  118.         were developed at the Universitaet Erlangen-Nuernberg.
  119.         As a modeling tool stochastic Petri-nets have been
  120.         used. These tools have been used for analyzing the
  121.         performance of multiprocessor and multicomputer systems.
  122.         Here, they are applied in a case study for performance
  123.         analysis and improvement of a communication subsystem
  124.         prototype for B(roadband)-ISDN that was developed by
  125.         IBM's European Networking Center. The measurement results
  126.         give some interesting hints concerning the prototype's
  127.         architecture which helped to improve the communication
  128.         subsystem. Measuring the existing communication subsystem
  129.         was accompanied by models for predicting the performance
  130.         of modified ones.
  131.  
  132. edinburgh.ps.Z (19 pages)
  133.         "Model-driven Validation of Parallel Programs Based on Event Traces"
  134.         P. Dauphin, M. Kienow, and A. Quick
  135.         In Proc. of Conf. on Programming Environments for Parallel
  136.         Computing, Edinburgh, April 1992.
  137.  
  138.         In order to program parallel and distributed systems
  139.         efficiently, a systematic way of defining and understanding
  140.         the complex behavior of process interactions in concurrent
  141.         programs is needed. A proved method for understanding
  142.         existing programs is model-driven monitoring which
  143.         abstracts the program behavior to a sequence of events.
  144.         These event traces are analyzed for debugging and tuning
  145.         the program. However, model and program are not always
  146.         consistent. The goal of this paper is using measured
  147.         event traces to validate the consistency between model
  148.         and program.
  149.         We have investigated a solution to validate model-program
  150.         consistency automatically: by building a functional
  151.         model of the parallel program describing all properties
  152.         for debugging and performance evaluation the definition
  153.         of monitoring events is automated and carried out systematically.
  154.         This integration of modeling and monitoring guarantees
  155.         the same set of events in monitoring and modeling.
  156.         It enables us to validate the program behavior in an automatic
  157.         and systematic way by checking the event trace against the behavior
  158.         represented in the model.
  159.         In order to implement validation for different modeling
  160.         methods only once we analyzed three different methods
  161.         for a model-type-independent representation of parallel
  162.         programs. The analysis showed that a model of a real-world
  163.         application is too complicated to be described in a
  164.         model-type-independent way. Therefore validation was
  165.         implemented for two modeling tools: PEPP for modeling
  166.         with graph models and GreatSPN for modeling with Petri
  167.         nets. Both tools were extended to enable automatic
  168.         program validation.
  169.  
  170. edmcc2.si.ps.Z (10 pages)
  171.         "SIMPLE: a Performance Evaluation Tool Environment
  172.          for Parallel and Distributed Systems"
  173.         B. Mohr
  174.         In A. Bode, editor, Proc. of the 2nd European Distributed
  175.         Memory Computing Conference, EDMCC2, pages 80-89, Munich,
  176.         Germany, April 1991. Springer, Berlin, LNCS 487.
  177.  
  178.         This paper describes SIMPLE: a performance evaluation
  179.         tool environment for parallel and distributed systems
  180.         based on monitoring of concurrent interdependent activities.
  181.         We emphasize the tool environment as a prerequisite
  182.         for successful performance evaluation. All tools use
  183.         the data access interface TDL/POET which can decode
  184.         measured data of arbitrary structure, format and representation.
  185.         This makes the evaluation independent of the monitor
  186.         device(s) used and the system monitored. It also provides
  187.         a problem-oriented way of accessing the data. Therefore
  188.         it is very easy to adapt SIMPLE to any kind of measured
  189.         data and to understand the evaluation results. 
  190.  
  191. edmcc2.tr.ps.Z (10 pages)
  192.         "Monitor-Supported Analysis of a Communication
  193.          System for Transputer-Networks"
  194.         C.-W. Oehlrich, A. Quick, and P. Metzger
  195.         In A. Bode, editor, Proc. of the 2nd European Distributed
  196.         Memory Computer Conference, EDMCC2, pages 120-129, Munich,
  197.         Germany, April 1991. Springer, Berlin, LNCS 487.
  198.  
  199.         Most parallel applications in a Transputer-network
  200.         require a lot of communication between the processing
  201.         nodes. For such applications the communication system
  202.         TRACOS was developed to support data transfer between
  203.         arbitrary Transputers in the network. To maximize the
  204.         performance of the parallel system its dynamic internal
  205.         behavior has to be analyzed. For this purpose event-driven
  206.         monitoring is an appropriate technique. It reduces
  207.         the dynamic behavior of the system to some important
  208.         events, which are recorded by a monitor system and
  209.         stored in event traces. In this paper the architecture
  210.         of the communication system TRACOS and its analysis
  211.         are presented. For the analysis a synthetic workload
  212.         was instrumented and monitored with the distributed
  213.         hardware monitor ZM4.
  214.  
  215. ieee.ps.Z (26 pages)
  216.         "ZM4/SIMPLE: a General Approach to Performance-Measurement
  217.          and -Evaluation of Distributed Systems"
  218.         P. Dauphin, R. Hofmann, R. Klar, B. Mohr, A. Quick, M. Siegle,
  219.         and F. Soetz
  220.         In T.L. Casavant and M. Singhal, editors, Advances in Distributed
  221.         Computing: Concepts and Design. IEEE Computer Society Press, 1992.
  222.  
  223.         The performance of parallel and distributed systems
  224.         is highly dependent on the degree of parallelism and
  225.         the efficiency of their communication systems. Both,
  226.         efficiently parallelizing big jobs and successfully
  227.         designing high-speed communication systems, need insight
  228.         into the dynamic behavior of at least two computers
  229.         at a time. Getting insight is usually needed in debugging,
  230.         here it is a means for improving performance.
  231.         First, we present a comprehensive methodology for monitoring
  232.         and modeling programs in parallel and distributed systems.
  233.         In using event-driven monitoring and event-oriented
  234.         models there is a common abstraction, the event, which
  235.         enables us to integrate both approaches.
  236.         A second part describes implementation concepts in
  237.         hardware and software which render the methodology
  238.         generally applicable and fruitful for practical performance
  239.         evaluation problems. The hardware monitor ZM4 uses
  240.         many distributed monitor agents and a global clock
  241.         mechanism for achieving generality, and the evaluation
  242.         environment SIMPLE uses new trace description and access
  243.         principles which allow for accessing arbitrarily formatted
  244.         traces, thus making standardized formats in the measured
  245.         event traces superfluous.
  246.  
  247. ieee.pads.ps.Z (23 pages)
  248.         "Distributed Performance Monitoring:
  249.          Methods, Tools, and Applications"
  250.         R. Hofmann, R. Klar, B. Mohr, A. Quick, and M. Siegle
  251.         Submitted to: IEEE Transactions on Parallel and
  252.         Distributed Systems, 1992.
  253.  
  254.         A method for analyzing the functional behavior and
  255.         the performance of programs in distributed systems
  256.         is presented. We use hybrid monitoring, a technique
  257.         which combines advantages of both software monitoring
  258.         and hardware monitoring. It is shown that monitoring
  259.         and modeling both rely on a common abstraction of a
  260.         system's dynamic behavior, and therefore can be integrated
  261.         to one comprehensive methodology. This methodology
  262.         is supported by a set of tools for modeling, monitoring,
  263.         and measurement evaluation. Here we describe a hardware
  264.         monitor and a software package (ZM4/SIMPLE) which make
  265.         our concepts available to programmers, assisting them
  266.         in debugging and tuning of their code. A short survey
  267.         of related monitor systems highlights the distinguishing
  268.         features of our implementation. As an application of
  269.         our monitoring and evaluation system, the analysis
  270.         of a parallel ray tracing program running on the SUPRENUM
  271.         multiprocessor is described. We show how monitoring
  272.         helped to increase the performance of a parallel program
  273.         dramatically.
  274.  
  275. isca91.ps.Z (10 pages)
  276.         "Performance Evaluation of a Communication System for
  277.          Transputer-Networks Based on Monitored Event Traces"
  278.         C.-W. Oehlrich and A. Quick
  279.         ACM SIGARCH, 19(3):202-211, May 1991. Proc. of the
  280.         18th Int. Symp. on Computer Architecture, Toronto, May 27-30, 1991.
  281.  
  282.         Most parallel applications (e.g.image processing, multigrid
  283.         algorithms) in a Transputer-network require a lot of
  284.         communication between the processing nodes. For such
  285.         applications the communication system TRACOS was developed
  286.         to support data transfer between random Transputers
  287.         in the network. To maximize the performance of the
  288.         parallel system, its dynamic internal behavior has
  289.         to be analyzed. For this purpose event-driven monitoring
  290.         is an appropriate technique. It reduces the dynamic
  291.         behavior of the system to sequences of events. They
  292.         are recorded by a monitor system and stored as event
  293.         traces. In this paper the communication system TRACOS
  294.         and its performance evaluation based on monitored event
  295.         traces are presented. First a synthetic workload was
  296.         instrumented and monitored with the distributed hardware
  297.         monitor ZM4. The results showed that the performance
  298.         of TRACOS is poor for packets smaller than 4Kbyte.
  299.         Therefore, TRACOS itself was instrumented and monitored
  300.         to get insight into the interactions and interdependencies
  301.         of all TRACOS processes. Based on the monitoring results,
  302.         TRACOS could be improved which led to a performance
  303.         increase of 25%.
  304.  
  305. isca92.ps.Z (10 pages)
  306.         "Monitoring Program Behaviour on SUPRENUM"
  307.         M. Siegle and R. Hofmann
  308.         ACM SIGARCH, 20(?):???, May 1992, Proc. of the 19th Int. Symp. on
  309.         Computer Architecture, Queensland, May 19-21, 1992.
  310.  
  311.         It is often very difficult for programmers of parallel
  312.         computers to understand how their parallel programs
  313.         behave at execution time, because there is not enough
  314.         insight into the interactions between concurrent activities
  315.         in the parallel machine. Programmers do not only wish
  316.         to obtain statistical information that can be supplied
  317.         by profiling, for example. They need to have detailed
  318.         knowledge about the functional behaviour of their programs.
  319.         Considering performance aspects, they need timing information
  320.         as well. Monitoring is a technique well suited to obtain
  321.         information about both functional behaviour and timing.
  322.         Global time information is essential for determining
  323.         the chronological order of events on different nodes
  324.         of a multiprocessor or of a distributed system, and for
  325.         determining the duration of time intervals between events from
  326.         different nodes. A major problem on multiprocessors is the absence
  327.         of a global clock with high resolution. This problem can be overcome
  328.         if a monitor system capable of supplying globally valid time
  329.         stamps is used.
  330.         In this paper, the behaviour and performance of a parallel
  331.         program on the SUPRENUM multiprocessor is studied.
  332.         The method used for gaining insight into the runtime
  333.         behaviour of a parallel program is hybrid monitoring,
  334.         a technique that combines advantages of both software
  335.         monitoring and hardware monitoring. A novel interface
  336.         makes it possible to measure program activities on
  337.         SUPRENUM. The SUPRENUM system and the ZM4 hardware
  338.         monitor are briefly described. The example program
  339.         under study is a parallel ray tracer. We show that
  340.         hybrid monitoring is an excellent method to provide
  341.         programmers with valuable information for debugging
  342.         and tuning of parallel programs.
  343.  
  344. turin.ps.Z (15 pages)
  345.         "Tools for a Model-driven Instrumentation for Monitoring"
  346.         R. Klar, A. Quick, and F. Soetz
  347.         In G. Balbo, editor, Proc. of the 5th Int. Conf. on Modelling
  348.         Techniques and Tools for Computer Performance Evaluation,
  349.         Torino, Italy, pages 165-180. Elsevier Science Publisher B.V., 1992.
  350.  
  351.         The performance of parallel and distributed systems
  352.         depends significantly on how the programs' execution
  353.         is dynamically organized. Therefore, performance evaluation
  354.         and efficient programming of parallel and distributed
  355.         systems need the analysis of the internal behavior
  356.         of such systems. For this purpose event-driven monitoring
  357.         is an appropriate technique. Event-driven monitoring
  358.         reduces the dynamic internal behavior of the system
  359.         to some important events, which are recorded in event
  360.         traces. The instrumentation of the object program,
  361.         i.e.the definition of events, depends on the respective
  362.         intention of the analysis. In most cases the instrumentation
  363.         will be done intuitively based on professional experience.
  364.         In this paper a concept for a model-driven execution
  365.         of event-driven monitoring is presented. It leads to
  366.         tools for systematic and automatic instrumentation.
  367.  
  368. ***********************
  369. *  Reference manuals  *
  370. ***********************
  371.  
  372. simple.ps.Z (20 pages)
  373.         SIMPLE User's Guide - Version 5.3
  374.         SIMPLE Tutorial
  375.         Technical Report no. ??/92
  376.  
  377. tdl.ref.ps.Z (69 pages)
  378.         SIMPLE User's Guide - Version 5.3
  379.         Part A: TDL reference guide              
  380.         Technical Report no. 3a/92
  381.  
  382. poet.ref.ps.Z (55 pages)
  383.         SIMPLE User's Guide - Version 5.3
  384.         Part B: POET reference manual            
  385.         Technical Report no. 3b/92
  386.  
  387. tools.ps.Z (86 pages)
  388.         SIMPLE User's Guide - Version 5.3
  389.         Part C: Tools reference manual    
  390.         Technical Report no. 3c/92
  391.  
  392. var-fil.ref.ps.Z (57 pages)
  393.         SIMPLE User's Guide - Version 5.3
  394.         Part D: FDL/VARUS reference guide        
  395.         Technical Report no. 3d/92
  396.  
  397. pepp.ps.Z (54 pages)
  398.         PEPP User's Guide
  399.         Technical Report no. 5/92
  400. ===========================================================================
  401. Co-moderator:  Richard Golding, Computer & Information Sciences, UC Santa Cruz
  402.         compdoc-techreports-request@ftp.cse.ucsc.edu
  403.