home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #1 / NN_1993_1.iso / spool / sci / engr / 2442 < prev    next >
Encoding:
Internet Message Format  |  1993-01-04  |  5.8 KB

  1. Xref: sparky sci.engr:2442 sci.math:17639
  2. Newsgroups: sci.engr,sci.math
  3. Path: sparky!uunet!usc!cs.utexas.edu!qt.cs.utexas.edu!yale.edu!spool.mu.edu!agate!usenet.ins.cwru.edu!eagle!ariel.lerc.nasa.gov!ecaxron
  4. From: ecaxron@ariel.lerc.nasa.gov (Ron Graham)
  5. Subject: Matrix sparsity question - the summary!
  6. Message-ID: <4JAN199310122279@ariel.lerc.nasa.gov>
  7. News-Software: VAX/VMS VNEWS 1.41    
  8. Sender: news@eagle.lerc.nasa.gov
  9. Nntp-Posting-Host: ariel.lerc.nasa.gov
  10. Organization: NASA Lewis Research Center
  11. Date:  4 Jan 1993 10:12 EST  
  12. Lines: 122
  13.  
  14. Here is the original question:
  15.  
  16. **********************************************************************
  17.  
  18. Is there a measure for the "sparsity" (or maybe I should say "sparseness"?)
  19. of a matrix?  We know that a sparse matrix has a lot of zeroes in it.  But
  20. who decides when the matrix is sparse?  Are there degrees of sparseness?
  21.  
  22. The answer to this question will help us determine a test plan for a 
  23. matrix inversion algorithm we are currently testing in an engineering
  24. application.  
  25.  
  26. **********************************************************************
  27.  
  28. The following are the responses, condensed.  Thanks to all for the help.
  29.  
  30. RG
  31.  
  32. From: mjs@hubcap.clemson.edu (M. J. Saltzman)
  33. Subject: Re: Question about "sparsity" of matrices
  34.  
  35. The measure is just nz/n^2 (and the common term is "sparsity").  What
  36. the cutoff is between a sparse matrix and a dense matrix is depends
  37. heavily on the application and the machine.  It's either the point at
  38. which a sparse storage format takes less space than a dense format, or
  39. (more to the point) the point below which your code runs faster for
  40. the sparse storage format than for the dense storage format
  41. (considering the overhead necessary to take advantage of sparsity).
  42. There's no universal number that people agree on as a cutoff (I know a
  43. sparse matrix when I see one!).  If you're factoring, I'd guess that
  44. between 10% and 20% is getting dense, but it varies a lot depending on
  45. other aspects of the matrix structure (where the nonzeros are is as
  46. important as how many--the factor can be much denser than the original
  47. matrix).
  48.  
  49. There's lots and lots of literature--high-performance sparse matrix
  50. methods are one of the hottest topics in computational linear algebra
  51. (as you might guess).  See George and Liu's 1981 book, or Duff,
  52. Erisman and Reid's book (1984?) for starters.
  53.  
  54. Then there's the whole area of iterative methods for sparse problems
  55. (mostly preconditioned conjugate gradient methods).
  56.  
  57. From: "V. Phaniraj" <phaniraj@plains.NoDak.edu>
  58. Subject: Re: Question about "sparsity" of matrices
  59.  
  60. One common measure of "sparsity" used in my area (electric power systems)
  61. is the "fill-in", the number of non-zero non-diagonal entries, as a
  62. percentage of the total size of the array.
  63.  
  64. A lot of work has been done in re-odering the matrix rows and columns
  65. to preserve sparsity after a matrix inversion, and for handling
  66. perturbations in the original element values.
  67.  
  68. references
  69.  
  70. tinney and walker, proc IEEE, nov 1967, pp 1801-1809, "direct
  71. solution of sparse network equations by optimally ordered triangular
  72. factorization" ( this is a classic in my area)
  73.  
  74. stott & hobson, proc IEEE, jan 1971, "solution of large
  75. networks by ordered elimination- comparison of ordering schemes"
  76.  
  77. newer work that may be of interest
  78.  
  79. chan and brandwajn, "partial matrix refactorization", IEEE
  80. transactions on power systems, feb 1986, pp 193-200.
  81.  
  82. tinney, chan and brandwajn, "sparse vector methods", IEEE transactions
  83. on power apparatus and systems, Feb 1985, pp 295-301.
  84.  
  85. From: petry@math.washington.edu
  86. Subject: Re: Question about "sparsity" of matrices
  87.  
  88. A closely related idea is the "block" dimension,  log(N)/log(n), where
  89. N is the number of non-zero elements in the nXn matrix.  Note that for
  90. the identity matrix, the dimension is 1, and for a matrix with no zero
  91. elements the dimension is 2.
  92.  
  93. This idea comes up in the study of fractals.  The book by Falconer might
  94. be a good place to look.
  95.  
  96. From: haddadi%sipi.usc.edu@usc.edu (Navid Haddadi)
  97. Subject: Re: Question about "sparsity" of matrices
  98.  
  99. I have never seen a definition. But every sparse matrix that I have seen
  100. has the property that it has O(N) non-zero elements and O(N^2) zeros.
  101. For example, a tridiagonal matrix is sparse (or a block tridiag). But
  102. a circular or Toeplitz is not sparse despite the fact that multiplications
  103. and inverses can be computed in O(nlogn) and O(n^2), resp.
  104.  
  105. From: amstanko@Athena.MIT.EDU
  106. Subject: Re: Question about "sparsity" of matrices
  107.  
  108. I do not think that there exists an official definition of spasity.
  109. A rule of the thumb could be <= 10 % nonzero elts. or so.
  110.  
  111. Sparse matrices used to be a hot topic in power systems and in 
  112. other network-flow problems. I think there is a book by Brameller
  113. in a power system contex. 
  114.  
  115. Ask numerical analysts before you code - many things exist already,
  116. there is a Yale package for sparse matrices. 
  117.  
  118. From: andrew@rentec.com (Andrew Mullhaupt)
  119. Subject: Re: Question about "sparsity" of matrices
  120.  
  121. A matrix may be usefully considered sparse if so many of its elements
  122. are zero that it pays to keep track of the nonzero elements only, and this
  123. obviously depends on what kind of operations you are doing. A simple measure
  124. closely related to this is the fraction of nonzero elements, and another
  125. similarly notion of sparsity is for families of matrices, i.e. some people
  126. consider a family of matrices to be sparse when the fraction of nonzero
  127. elements tends to zero as the size of the matrix tends to infinity.
  128.  
  129. There are other important exploitable structures for matrices, which can
  130. be observed in sparse matrices. Most important are polydiagonal and band
  131. matrices, and then block polydiagonal matrices. Special algorithms and
  132. data structures are used to exploit sparseness in each case.
  133.  
  134. So the bottom line is that _you_ get to decide what sparseness is by
  135. showing how to exploit it. 
  136.