home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / comp / sys / super / 1051 < prev    next >
Encoding:
Text File  |  1992-11-18  |  2.8 KB  |  59 lines

  1. Newsgroups: comp.sys.super
  2. Path: sparky!uunet!sun-barr!cs.utexas.edu!zaphod.mps.ohio-state.edu!magnus.acs.ohio-state.edu!usenet.ins.cwru.edu!eagle!bach.lerc.nasa.gov!fsset
  3. From: fsset@bach.lerc.nasa.gov (Scott Townsend)
  4. Subject: Re: What are people paying for when they by a supercomputer?
  5. Message-ID: <1992Nov18.155005.22300@eagle.lerc.nasa.gov>
  6. Sender: news@eagle.lerc.nasa.gov
  7. Nntp-Posting-Host: bach.lerc.nasa.gov
  8. Organization: NASA Lewis Research Center [Cleveland, Ohio]
  9. References: <JET.92Nov17104503@boxer.nas.nasa.gov> <1992Nov17.192804.4410@news.eng.convex.com> <JET.92Nov17165616@boxer.nas.nasa.gov>
  10. Date: Wed, 18 Nov 1992 15:50:05 GMT
  11. Lines: 46
  12.  
  13. In article <JET.92Nov17165616@boxer.nas.nasa.gov> jet@boxer.nas.nasa.gov (J. Eric Townsend) writes:
  14. >"patrick" == Patrick F. McGehearty <patrick@convex.COM> writes:
  15. >JET == jet@boxer.nas.nasa.gov (J. Eric Townsend) 
  16. >
  17. >JET>Blinking lights.  Lots and lots of blinking lights....
  18. >
  19. >patrick> have suggestions for specific hardware events that might be
  20. >patrick> connected to blinking lights on a massively parallel shared
  21. >patrick> memory super?
  22. >
  23. >I sorta like the ipsc/delta/sigma solution:
  24. > - one for cpu active
  25. > - <something> for communication
  26. > - one for node failure
  27. >
  28. >I've seen more than one person debug their code on the ipsc/860 by
  29. >sitting in front of the cabinet and watching the led's.. "See, it hung
  30. >in computation after the third massive data shuffle..."
  31. >
  32.  
  33. Although I'm fond of lights, and have found uses for them, the information
  34. they provide is limited to the machine room (unless you have a video link
  35. to you workstation and a camera in front of the machine ;-)
  36.  
  37. I've implemented something like SGI's gr_osview into our locally developed
  38. hypercube topology machine here.  It's much lower bandwidth than real lights,
  39. but I can display cpu usage, message rates, byte communication rates, link
  40. contention, etc. for each node in a matrix of bar graphs.  Click on the
  41. graph and you get a detail including history of the last 30 secs of samples.
  42.  
  43. This has been quite helpfull towards giving me a feeling for how things are
  44. progressing, but I'd really like a way to associate the events recorded in
  45. the display with portions of the code.  I can see commiunications getting
  46. congested but I don't know where in the code I might try to change things.
  47.  
  48. So while lights (or my remote bar graph mechanism) are good for seeing really
  49. gross features of program behaviour, I'd like to find a mechanism to relate
  50. such statistics to locations in the code causing them.  Does anyone know
  51. of a system which can do this?  I'm a bit familiar with things like ParaGraph
  52. events, but do any systems report low-level events in a way the programmer
  53. can relate to the code?
  54.  
  55.  
  56. -- 
  57. Scott Townsend,  Sverdrup Technology Inc.  NASA Lewis Research Center Group
  58. fsset@bach.lerc.nasa.gov
  59.