home *** CD-ROM | disk | FTP | other *** search
/ ftp.umcs.maine.edu / 2015-02-07.ftp.umcs.maine.edu.tar / ftp.umcs.maine.edu / pub / WISR / wisr6 / proceedings / ascii / hybertson2.ascii < prev    next >
Text File  |  1993-10-19  |  13KB  |  295 lines

  1.  
  2.  
  3.  
  4.  
  5.    The  Influence  Reuse  Will  Have  on  Software Measurement
  6.  
  7.  
  8.  
  9.                                          Duane W. Hybertson
  10.  
  11.  
  12.  
  13.                                               MITRE Corp.
  14.  
  15.                                           1120 NASA Road 1
  16.  
  17.                                            Houston, TX 77058
  18.  
  19.                                            Tel:  (713) 333-0932
  20.  
  21.                                      Email:  dhyberts@mitre.org
  22.  
  23.  
  24.  
  25.                                           David A. Eichmann
  26.  
  27.  
  28.  
  29.                                    Software Engineering Program
  30.  
  31.                                 University of Houston - Clear Lake
  32.  
  33.                                    Box 113, 2700 Bay Area Blvd.
  34.  
  35.                                            Houston, TX 77058
  36.  
  37.                                            Tel:  (713) 283-3875
  38.  
  39.                                 Email: eichmann@rbse.jsc.nasa.gov
  40.  
  41.  
  42.  
  43.                                                   Abstract
  44.  
  45.  
  46.     For reuse to mature into an institutional context, wemust move beyond anecdotal support
  47. to cost and estimation models supported by legitimate measures. This implies that the existing
  48. measures and models will need to be adapted to properly distinguish and credit reuse when
  49. it occurs and when it can occur.  Furthermore, the focus of those measures and models may
  50. change.
  51.  
  52.  
  53. Keywords: maturity, measurement, metrics
  54.  
  55.  
  56. Workshop Goals:  Assess the acceptance of measurement-based software reuse;  understand
  57. how others measure reuse activities; work towards consensual standards of assessment.
  58.  
  59.  
  60. Working Groups:  Useful and collectible metrics, reuse management, organization and eco-
  61. nomics, reuse maturity models.
  62.  
  63.  
  64.  
  65.                                                 Hybertson- 1
  66.  
  67.  
  68. 1      Background
  69.  
  70.  
  71.  
  72. As part of our relationship with the Information Systems Directorate atNASA's Johnson Space
  73. Center, we are currently involved in the support of the Defense Information Systems Agency / Joint
  74. Interoperability Engineering Organization / Centerfor Information Management in their work in
  75. institutionalizing reuse within the DoDcommunity. In particular, we are members of both the reuse
  76. metrics team, responsible for defining and executing a measurement plan to assess reuse activity
  77. within the Defense Software Repository System (DSRS) and the pilot projects supported by the
  78. DSRS, and the Software Reuse Roadmap team, resp onsiblefor assessing the current state of reuse
  79. in government, industry and academia, and laying out a strategy for the DoD to best leverage its
  80. investment in research.
  81.  
  82.  
  83. Eichmann is also currently the Director of Research and Development for the Repository Based
  84. Software Engineering (RBSE) program, a NASAsupp ortedreuse initiative, of which the AdaNET
  85. software  repository  is  a  part, and  a  member  of  the  AIAA Software  Reuse  Standards  Working
  86. Group, an effort to propose standards for repository interoperability protocols. RBSE is currently
  87. supporting Rockwell in a pilot project to reengineer the Space Shuttle flight analysis systems from
  88. legacy FORTRAN into an ob ject-oriented implementation designed for reuse on other NASA/JSC
  89. shuttle systems.
  90.  
  91.  
  92.  
  93. 2      Position
  94.  
  95.  
  96.  
  97. 2.1     The Reuse Perspective
  98.  
  99.  
  100.  
  101. As reuse becomes a fundamental part of software engineering, it changes the way we view software.
  102. (Software is defined here to be all software content objects, including requirements, architectures,
  103. designs, code artifacts at both the system and component level, as well as the relationships among
  104. them.) Before reuse, software was onlyof temp orary interest, to be created, delivered, and forgotten
  105. - even though it was frequently maintained for decades.  The software that was produced got no
  106. respect  from  the  industry  as  an  object  of  inquiry; it  was  considered  to  be  a  special  case,  one-
  107. time  effort.  The  generic  methods  and  processes  of  producing  it  were  considered  to  be  of  much
  108. greater  interest  and  importance.  The  concept  of  reuse  comes  from  the  recognition  that,  within
  109. application  domains, software  problems  and  solutions  begin  to  coalesce  and  stabilize  around  a
  110. certain  conventional  agreed-upon  set  of  architectures.   Design  becomes  variation  on  a  standard
  111. theme.  As  the  problem/solution  set  is  refined  and  matures, the  view  of  software  changes  from
  112. something  that  is  transient  and  special  case  to  something  that is  timeless,  enduring,  worthy of
  113. respect  and  inquiry.  When  this  point  is  reached,  the  software  industry  is  well  on  its  way  to
  114. becoming a traditional engineering discipline.
  115.  
  116.  
  117.  
  118. 2.2     General Influence on Software Measurement
  119.  
  120.  
  121.  
  122. The change in perspective described above brings about a change in the fo cus andimp ortanceof
  123. software measurement. Before reuse, measurement was not viewed as particularly critical (except
  124. by  a  few  disciplined  organizations)  and  the  focus  was on  development  projects:  the  process  of
  125. developing  software  (estimating  effort  to  produce  a  system  of  a  certain  estimated  size)  and, to
  126. some extent, the quality of the developed product, especially its external b ehavior.
  127.  
  128.  
  129.  
  130.                                                        Hybertson- 2
  131.  
  132.  
  133. Reuse magnifies the importance of measurement, particularly the measurement of software content
  134. and the creation and utilization of that content. Now it is useful to know much more about the
  135. qualities and characteristics of the software itself because people need to communicate about it - it
  136. will be used by many people in many different contexts.  There are new things to measure, such as
  137. distinctions between producing/discovering/articulating standard solutions in the form of artifacts
  138. and knowledge, managing the artifacts and knowledge, and using them to build new systems.
  139.  
  140.  
  141. There is also the possibility that somewhat different attributes need to be measured in different
  142. domains, or at least the focus might differ. The domains themselves need to be measured,to assess
  143. maturation rates and artifact coverage.
  144.  
  145.  
  146.  
  147. 2.3     Near-Term Effects
  148.  
  149.  
  150.  
  151. In the short term, the focus of reuse measurement will b e on cost b enefits and return on investment
  152. of reuse (compared to no reuse), and certification of parts.  Reuse programs are frequently initiated
  153. based upon anecdotal claims, with little understanding of the context from which those anecdotes
  154. arise. A primary short-term goal is agreement within the reuse community on what comprises reuse
  155. of an artifact, allowing reasonable comparisons b etween projects and organizations.  Differentiating
  156. between verbatim and adaptive reuse andaccounting for these distinctions in cost models to ad-
  157. equately estimate effort for design with reuse need to be addressed quickly so that managers can
  158. clearly see the benefits derived from reuse.
  159.  
  160.  
  161. We see near-term results primarily in what to count, how to count it, and how to assign cost and
  162. savings  to  what  is  counted.  These  results  will  be  achieved  on  software  artifacts  that  generally
  163. resemble the traditional products of the softwarelife cycle,  rather thanon the results of domain
  164. engineering efforts currently underway.  Thedeployment of domain architectures in practical appli-
  165. cation systems is only now becoming clear.
  166.  
  167.  
  168.  
  169. 2.4     Long-Term Effects
  170.  
  171.  
  172.  
  173. In the long term, the focus will be on characterizing and measuring software content and its quality,
  174. not just the external behavioral view but structural views as well.  There will be less emphasis on
  175. cost benefits of reuse versus no reuse because using standard solutions will have become the way
  176. of doing business and will not have to be justified. There will be less emphasis on source lines of
  177. code (SLOC), especially as the basis of productivity, because more useful and important metrics
  178. of the functionality and quality of software will be available. The deemphasis on SLOC will reflect
  179. the  increased  emphasis  on  products  derived  from  earlier  activities  in  the  life  cycle,  particularly
  180. design quality assessment and the general state ofdomain development, effectively comprising a
  181. domain maturity measure. The quantification of the notion of variations ona theme (i.e., domain
  182. architectures) mentioned above will be a more important estimate of effort than of the total size of
  183. the system delivered.
  184.  
  185.  
  186.  
  187. 3      Comparison
  188.  
  189.  
  190.  
  191. There are a number of recent additions to the literature relating to the position we elaborate here.
  192. Concerning maturity and its assessment, the recent special issue of IEEE Software (particularly
  193.  
  194.  
  195.  
  196.                                                        Hybertson- 3
  197.  
  198.  
  199. [1]), Pfleeger's paper on process maturity and metrics [2 ], and the reuse maturity model formulated
  200. in [3] relate the kind of activity we see being directed eventually not just toward pro cesses and
  201. organizations, but toward domains as well.
  202.  
  203.  
  204. Progress toward our near-term goals is indicated by reports such as those by Daskalantonakis [4]
  205. and Pfleeger [5].  Recent efforts by DoD and SEI on the derivation of a standard set of core metrics
  206. will lead to more uniform reporting and comparison of such efforts.
  207.  
  208.  
  209. Finally, and perhaps more critically, cost models are beginning to be discussed in the literature,
  210. indicating a new phase in the maturation of reuse: [6 ], [7 ], [8 ]. Such models typically involve a single
  211. organization and the benefits derived from reuse activities. Their relevance to multiple contractor
  212. contexts, particularly governmentpro jects such as those done by DoD and NASA, have yet to be
  213. established.
  214.  
  215.  
  216. It  important  to  note  that  the  work  described  in  these  references  commonly  starts  from  widely
  217. varying  premises.  There  is  demonstrable  benefit  derived  from  adaptive  reuse, and  we  provide
  218. different weightings for verbatim reuse and adaptive reuse in the cost models that we are exploring.
  219. Poulin, however, counts only verbatim reuse in the calculation of return on investment [7].  The
  220. variations in results make comparison difficult.  The reuse community needs to arrive at a consensual
  221. cost model approach that allows proper comparison, sothat the benefits of a mature reuse program
  222. are clear and unarguable. Only then will institutionalization of reuse become a reality.
  223.  
  224.  
  225.  
  226. References
  227.  
  228.  
  229.  
  230. [1]  R.  Dion, "Process  Improvement  and  the  Corporate  Balance  Sheet,"  IEEE  Software,  vol. 10,
  231.      pp. 28-35, July 1993.
  232.  
  233.  
  234. [2]  S. L. Pfleeger,  "Software Metrics in a Process Maturity Framework," Journal of Systems and
  235.      Software, pp. 255-261, September 1990.
  236.  
  237.  
  238. [3]  SPC, "Reuse Adoption Guidebo ok," Tech. Rep. SPC-92051-CMC, Version 01.00.03, Software
  239.      Productivity Consortium, 1992.
  240.  
  241.  
  242. [4]  M. K. Daskalantonakis, "A Practical View of Software Measurement and Implementation Ex-
  243.      periences within Motorola," IEEE Transactions on Software Engineering, vol. 18, pp. 998-1010,
  244.      November 1992.
  245.  
  246.  
  247. [5]  S. L. Pfleeger, "Lessons Learned in Building a Corporate Metrics Program," IEEE Software,
  248.      vol.10, pp. 67-74, May 1993.
  249.  
  250.  
  251. [6]  J. Margono andT. E. Rhoads, "Software Reuse Economics:  Cost-Benefit Analysis on a Large
  252.      Scale Ada Project," in Proceedings Fourteenth International Conference on SoftwareEngineer-
  253.      ing, pp. 338-348, May 11-15 1992.
  254.  
  255.  
  256. [7]  J. Poulin, "A Reuse Metrics and Return on Investment Model," in Proceedings Second Workshop
  257.      on Software Reusability, March 24-26 1993.
  258.  
  259.  
  260. [8]  J. Poulin, "Issues in the Development and Application of Reuse Metrics," in Proceedings Fifth
  261.      International Conference  on  Software  Engineering  and  Knowledge  Engineering,  pp. 152-159,
  262.      June 1993 1993.
  263.  
  264.  
  265.  
  266.                                                        Hybertson- 4
  267.  
  268.  
  269. 4      Biography
  270.  
  271.  
  272.  
  273. Duane Hybertson is a Member of the Technical Staff at the MITRE Corporation in Houston,
  274. Texas.  He  investigates  software  engineering and  technology  issues  for  the  Software  Technology
  275. Branch in NASA Johnson Space Center's Information Systems Directorate. He is currently working
  276. on two software reuse tasksrelated to DoD's Software Reuse Initiative and originating from the
  277. Defense Information Systems Agency. He was previously a senior engineer with Lockheed on the
  278. Space Station Freedom Software Support Environment. Prior to that, he had an appointment at the
  279. Software Productivity Consortium in Virginia, where hedeveloped part of the original SPC reuse
  280. synthesis system prototype.  He received the B. A. in Math from Northwest Nazarene College in
  281. 1970, the Ph.D. in Educational ResearchMetho ds and Statistics from New Mexico State University
  282. in 1974, and the M.S. in Computer Science from the Johns Hopkins University in 1985.
  283.  
  284.  
  285. David  Eichmann  is  an  Assistant  Professor  of  Software  at  the  University  of  Houston  -  Clear
  286. Lake. He is Director of Research and Development for the Repository Based Software Engineering
  287. Program, a NASA software reuse initiative,and lead for the metrics team supporting the Defense
  288. Information  Systems  Agency  /  Center  for  Information  Management.   He  was  previously  on  the
  289. faculty at West Virginia University, where he headed the SoRReL group. He received the B.S. in
  290. 1978, the M.S. in 1983 and the Ph.D. in 1989, all from the University of Iowa in computer science.
  291.  
  292.  
  293.  
  294.                                                        Hybertson- 5
  295.