home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / sci / geo / meteorol / 3382 < prev    next >
Encoding:
Internet Message Format  |  1992-11-17  |  4.5 KB

  1. Path: sparky!uunet!know!mips2!news.bbn.com!noc.near.net!news.Brown.EDU!qt.cs.utexas.edu!yale.edu!spool.mu.edu!darwin.sura.net!zaphod.mps.ohio-state.edu!uwm.edu!rutgers!uwvax!meteor!stvjas
  2. From: stvjas@meteor.wisc.edu (Stephen Jascourt)
  3. Newsgroups: sci.geo.meteorology
  4. Subject: Re: STOP Re: mesoscale forecast model
  5. Message-ID: <1992Nov17.010750.26822@meteor.wisc.edu>
  6. Date: 17 Nov 92 01:07:50 GMT
  7. References: <1992Nov16.165209.9290@news.arc.nasa.gov>
  8. Distribution: na
  9. Organization: University of Wisconsin, Meteorology and Space Science
  10. Lines: 79
  11.  
  12. In article <1992Nov16.165209.9290@news.arc.nasa.gov> westphal@sundog.arc.nasa.gov (Doug Westphal) writes:
  13. >Oh boy, here we go again: uninformed people making broad generalizations
  14. >about topics or models which they aren't sufficiently familar with,
  15.  
  16. Uninformed? I am using one of the models I talked about and have colleagues
  17. who have used the others, I have seen model output, been to conferences and
  18. colloquia at which model results and problems were discussed. Also, I made
  19. specific comments about the models rather than just a vague assertion.
  20. If I recall correctly, Harold has also done some modeling and I'm sure at OU
  21. he has had many discussions with more experienced modelers. 
  22.  
  23. >causing the completely uninformed public to become confused. Great.
  24. >Below are two examples of this kind of subjective commentary.
  25. >None of their arguments are substantiated, nor can they be in this forum.
  26. >
  27. >>>
  28. >>>From hbrooks@uiatma.atmos.uiuc.edu:
  29. >>> 
  30. >>>The best mesoscale model around now is the The Penn State/NCAR model,
  31. >>>    ^^^^^^^^^^^^^^^^^^^^
  32. >>>MM4.  It beats the life out of the second most common model, CSU-RAMS.
  33. >>> 
  34. >>>Harold Brooks                    hbrooks@uiatma.atmos.uiuc.edu
  35. >>>National Severe Storms Laboratory/CIMMS (Norman, OK)
  36. >
  37. >>>From: stvjas@meteor.wisc.edu (Stephen Jascourt)
  38. >>>
  39. >>>I have heard various rave reviews about the MM4, but my experience seeing the
  40. >>>output of people using it (I haven't used it myself) is that it is filled with
  41. >>>                           ^^^^^^^^^^^^^^^^^^^^^^^^
  42. >>>problems, worst being that it smooths the heck out of *everything* in the
  43. >>>horizontal, so you are left only with features that are strongly forced,
  44. >>> < blah, blah, blah >
  45. >>>Stephen Jascourt   stvjas@meteor.wisc.edu
  46. >
  47. >The original posting and responses were reasonable and I would hope that
  48. >the poster will now thoroughly research the different models before
  49. >choosing which is best for him or her; but don't do it over Usenet.
  50. >
  51. >Dave Blanchard then says:
  52. >
  53. >>>Harold,
  54. >>>
  55. >>>That's a pretty strong statement.  Could you elaborate on why you believe
  56. >>>PSU/NCAR (MM4?) outperforms RAMS?
  57. >
  58. >Noooooooo!!! The question of which is the 'best' model cannot be
  59. >decided with a Gallup opinion poll or on Usenet. Let's not continue
  60. >this, okay? The whole thing should be decided in an entirely different way:
  61. >IN THE PEER-REVIEWED LITERATURE.
  62.  
  63. Dave asked a perfectly reasonable question-- he wanted Harold to provide
  64. some information on what the MM4 does so well. 
  65.  
  66. There is no "best" model. Each has certain things it does well and certain
  67. things that give the model problems. There is a "best" model for a particular
  68. application, but more likely the difference from one to another may be no
  69. worse than their errors. And, worst of all, model intercomparisons are next to
  70. impossible for a multitude of reasons. A particular model can perform very
  71. differently by just changing a few parameters, and the parameter values that
  72. work best for particular situations for one model may be different than the
  73. values best for another model. For generic, artificial tests like dropping a
  74. cold bubble in a box, reasonable comparisons can be made but the test itself
  75. is rather artificial. For real data cases or realistic idealized experiments,
  76. the initial numerically balanced fields will be different from one model to
  77. another, so you're not really even starting off the same! And, of course,
  78. most of these sophisticated models have many options for various 
  79. parameterizations such as soil models, radiation, and sub-grid scale turbulence,
  80. by choosing different options for these you really have many different models
  81. in one program.
  82.  
  83. As for whether these things should be "decided" on usenet, I think discussion
  84. of the strengths and weaknesses of different models, what machines they can
  85. run on and how much computational resources they require, etc. are good topics
  86. for discussion-- they are part of an exchange of scientific information that,
  87. after all, is supposed to be the function of usenet.
  88.  
  89. Stephen Jascourt   stvjas@meteor.wisc.edu
  90.