home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / sci / math / numanal / 3331 < prev    next >
Encoding:
Text File  |  1992-11-17  |  1.3 KB  |  30 lines

  1. Newsgroups: sci.math.num-analysis
  2. Path: sparky!uunet!europa.asd.contel.com!darwin.sura.net!zaphod.mps.ohio-state.edu!moe.ksu.ksu.edu!ux1.cso.uiuc.edu!csrd.uiuc.edu!news
  3. From: hblim@sp1.csrd.uiuc.edu (Hock-Beng Lim)
  4. Subject: 32-bit vs 64-bit precision ?
  5. Message-ID: <1992Nov17.115111.23520@csrd.uiuc.edu>
  6. Sender: news@csrd.uiuc.edu
  7. Organization: Univ of Illinois, Center for Supercomputing R&D, Urbana, IL
  8. Date: Tue, 17 Nov 92 11:51:11 GMT
  9. Lines: 19
  10.  
  11. I have a question which I hope the numerical analysis gurus can help
  12. me out. I would like to find out what are the factors to consider
  13. when deciding whether to implement a numerical algorithm in 32-bit
  14. or 64-bit floating-point precision, apart from the obvious difference
  15. in their precision.
  16.  
  17. For example, are there any numerical properties which might make an
  18. algorithm stable when implemented in 64-bit precision ? I heard that Monte
  19. Carlo techniques are more stable when implemented in 64-bit precision. Is
  20. that true ? What about some other such differences for other well-known
  21. algorithms ? The algorithms I am primarily interested in are the linear
  22. system solvers and the eigensolvers.
  23.  
  24. HB
  25. --
  26. ---------------------------------------------------------------------
  27. Hock-Beng Lim            Center for Supercomputing R&D
  28. hblim@csrd.uiuc.edu        Univ. of Illinois at Urbana-Champaign
  29.  
  30.