home *** CD-ROM | disk | FTP | other *** search
/ Handbook of Infosec Terms 2.0 / Handbook_of_Infosec_Terms_Version_2.0_ISSO.iso / text / rainbow / rbow029.txt < prev    next >
Text File  |  1996-09-03  |  134KB  |  2,038 lines

  1. NCSC-TG
  2. 029
  3. Library No. S-239,954
  4. Version 1
  5.  
  6.  
  7.  
  8. FOREWORD
  9.  
  10. The National Computer Security Center is publishing Introduction to Certification and accreditation as part of the "Rainbow Series" of documents our Technical Guidelines Program produces.  This document initiates a subseries on certification and accreditation (C&A) guidance, and provides an introduction to C&A including an introductory discussion of some basic concepts related to C&A, and sets the baseline for future documents on the same subject. lt. is not intended as a comprehensive tutorial or manual on the broad topic of information systems security.  It should be viewed, instead, as guidance in meeting requirements for certification and accreditation of automated information systems.
  11.  
  12. The combination of the information age, technology, and national policy, has irrevocably pushed us into an Information Systems Security age.  The explosion in the uses of telecommunication devices and automated information systems has resulted in a corresponding explosion in opportunities for unauthorized exploitation of valuable information.  The technology necessary to perform this exploitation is available not only to our foreign adversaries but also to criminal elements.
  13.  
  14. As the Director of the National Computer Security Center, I invite your
  15. suggestions for revising this document.  We plan to review and revise this document as the need arises.  Please address all proposals for revision through appropriate channels to:
  16.  
  17. National Computer Security Center 9800 Savage Road
  18. Ft. George G. Meade, MD 20755-6000
  19.  
  20. Attention: Chief, Standards, Criteria, and Guidelines Division
  21.  
  22.  
  23.  
  24.  
  25.  
  26.  
  27.  
  28.  
  29. January    1994
  30.  
  31.  
  32.  
  33.  
  34. Patrick R. Gallagher, Jr.
  35. Director
  36. National Computer Security Center
  37.  
  38. ACKNOWLEDGMENTS
  39.  
  40. This document has been produced under the guidance of U.S. Navy Lieutenant
  41. Commander Candice A. Stark.  This version of the document was developed with the
  42. assistance of many organizations, in addition to the NSA groups, and include:
  43. Aerospace Corp.; Beta Analytics, Inc; Boeing Aerospace Co.; Booz,Allen and
  44. Hamilton; Bureau of the Census; Central Intelligence Agency; Computers & Security;
  45. Computer Sciences Corp.; CTA, Inc.;Cybercom Research Corp.; Defense Intelligence
  46. Agency; Defense Logistics Agency; Defense Mapping Agency; Defense Nuclear
  47. Agency; Department of Justice; Defense Information Systems Agency; Drug
  48. Enforcement Administration; Dynetics Inc; Gemini Computers, Inc.; Grumman Data
  49. Systems; General Services Administration; GTE ; Harris Corp. ESD; Honeywell Federal
  50. Systems; IIT Research Institute; Information Security International, Inc.; Internal
  51. Revenue Service; Joint Chiefs of Staff; Lesnett and Associates, Inc; Lockheed; Locus,
  52. Inc; Los Alamos National Laboratories; Martin Marietta Defense Space and
  53. Communications; MITRE Corp; NASA AIS Security Engineering Team; National
  54. Defense University; National Institute of Standards and Technology; Office of the
  55. Secretary of Defense; On-Site Inspection Agency; Robert M. Wainwright & Assoc;
  56. RCAS; SAIC Communication Systems; Seidcon & Company; Space Application Corp.;
  57. Suffern Associates; Trusted Information Systems; TRW; U.S. Air Force; U.S. Army,
  58. U.S. Navy, U.S. Marine Corps; University of Southern California Information Sciences
  59. Institute.  Individuals in these organizations gave generously of their time and
  60. expertise in the useful review and critique of this document.
  61.  
  62. ABSTRACT
  63.  
  64.  
  65. This document, which provides an introduction to certification and accreditation (C&A) concepts, provides an introductory discussion of some basic concepts related to C&A and sets the baseline for further documents.  Its objectives are the following: (1) to provide an overview of C&A, its function and place within the risk management process; (2) to clarify the critical roles the Designated Approving Authority (DAA) and other key security officials must assume throughout the C&A process; (3) to identify some of the current security policies, emphasizing some key policy issue areas; and (4) to define C&A-related terms.  The details of the actual C&A process are not included in this document, but will be provided in a follow-on document(s).
  66.  
  67. Suggested Keywords:      certification, accreditation, Designated Approving Authority (DAA), INFOSEC, security policy
  68.  
  69.                                              TABLE  OF  CONTENTS
  70.  
  71. Forward.................................................................    1
  72.  
  73. Acknowledgments.........................................................    11
  74.  
  75. Abstract................................................................    111
  76.  
  77. 1.      Introduction    1
  78.  
  79.         1.1         Background..........................................    1
  80.         1.2         Scope...............................................    2
  81.         1.3         Purpose.............................................    2
  82.         1.4         Evaluation Versus Certification.....................    3
  83.  
  84. 2.      Overview of C&A.................................................    5
  85.  
  86.         2.1         Risk Management and C & A...........................    6
  87.         2.2         C&A High-Level Process..............................    7
  88.         2.2.1       Certification and Associated Security Disciplines...........................                                  11
  89.  
  90.         2.2.2       Factors That Influence the Certification Process...    14
  91.         2.3         Recertification and Reaccreditation................    15
  92.  
  93. 3.      Primary C&A Roles..............................................    17
  94.  
  95.         3.1         DAA................................................    17
  96.         3.1.1       Joint Accreditors..................................    18
  97.         3.1.2       Multiple Accreditors...............................    19
  98.         3.2         Certification Agent/Certification Team.............    20
  99.         3.3         Other Security Roles...............................    21
  100.  
  101. 4.      Security Policy................................................    23
  102.  
  103.         4.1         Current Security Policy............................    23
  104.         4.1.1       National Security Policy...........................    23
  105.         4.1.2       DoD /DCI Security Policies.........................    26
  106.         4.2         Policy Related Issues..............................    26
  107.         4.2.1       Rapid Technology Changes...........................    27
  108.         4.2.2       Planning for C&A...................................    27
  109.         4.2.3       Certification Boundaries...........................    28
  110.         4.2.4       Acceptable Level of Risk...........................    28
  111.  
  112. Appendix A  Terminology...........................    31
  113. Appendix B  Identifying the Appropriate DAA.......    47
  114. Appendix C  DoD Component AIS Security Policies...    53
  115. Appendix D  Acronyms..............................    57
  116. Appendix E  List of References....................    61
  117.  
  118.                                           LIST  OF  FIGURES
  119.  
  120. 2-1. High-Level C&A Process................................    8
  121. 2-2. INFOSEC Security Discipline Interrelationship.........    13
  122. 4-1. Information Security Policy and Guidance..............    24
  123.  
  124.  
  125.  
  126.  
  127.  
  128.  
  129.  
  130.  
  131. vii
  132.  
  133.                                          LIST OF TABLES
  134. B-1. Identification of Service DAAs and Applicable Policies...    49
  135. B-2. Identification of Other Agency DAAs......................    50
  136. B-3. DAAs for Separately Accredited Networks..................    51
  137.  
  138.  
  139.  
  140.  
  141.  
  142.  
  143.  
  144.  
  145. viii
  146. SECTION -1
  147.  
  148. INTRODUCTION
  149.  
  150.  
  151. 1.1   Background
  152.  
  153. In recent years, there has been a shift in perspective of information systems security (INFOSEC) from viewing it as a number of independent, loosely coupled disciplines to a more cohesive, interdependent collection of security solutions.  The current environment of declining resources and the rapid advances in technology have demanded changes in assessing the security posture of systems and implementing an INFOSEC systems engineering process.  These changes are necessary to reduce fragmentation and to ensure and maintain consistency and compatibility among all aspects of the security of a system.  In addition, the dynamic threat environment necessitates a more efficient, integrated view of INFOSEC disciplines.
  154.  
  155. In considering the overall security of a system, two essential concepts are (1) that the (security) goals of the system be clearly stated and (2) that an analysis be made of the ability of the system to (a) satisfy the original goals and (b) continue to provide the attributes and security required in the evolving environment.  The Department of Defense (DoD) and other federal agencies have formalized these concepts.  DoD policy states that any automated information system (AIS) that processes classified, sensitive unclassified, or unclassified information must undergo a technical analysis and management approval before it is allowed to operate [1].  The technical analysis establishes the extent to which the system meets a set of specified security requirements for its mission and operational environment.  The management approval is the formal acceptance of responsibility for operating at a given level of risk.  The technical analysis and management approval processes are called certification and accreditation (C&A), respectively.  These concepts, however, are quite general and can be applied with different levels of formality and within different organizational structures.
  156.  
  157. One of the most important tasks required to provide an integrated, cost-effective information systems security program, is to develop uniform certification and accreditation guidance.  The use of AlSs within all aspects of operations, the dynamic organization of systems, and the exchange of information among systems point to the need for uniform guidance when certifying and accrediting systems.  The National Security Agency (NSA), in support of its mission to provide guidelines on the acquisition, certification, accreditation, and operation of systems, plans to publish a series of documents focusing on these issues.  This introductory document discusses
  158.  
  159. I
  160.  
  161. the basic concept of C&A of systems in an effort to provide improvements in the secure development, operation, and maintenance of systems.
  162.  
  163. 1.2  Scope
  164.  
  165. This document provides an overview to some basic concepts and policies of C&A.  Individuals serving as system accreditors, system certifiers, program managers (PMs), developers, system integrators, system engineers, security officers, evaluators, and system users will benefit from this document by gaining a basic understanding of C&A.  People in each of the many roles involved in C&A will have a different focus and emphasis on related activities.  Therefore, it is important that everyone involved has a basic understanding of the high-level process and uses common terminology.  This document provides a basic overview of C&A, but it is not a replacement for reviewing and understanding the specific national, federal, department, and service/agency policies and guidelines in the actual performance of C&A.
  166.  
  167. The concepts of C&A presented in this document apply to all types of systems: existing and proposed systems, stand-alone systems, personal computers (PCs), microcomputers, minicomputers, mainframes, large central processing facilities, networks, distributed systems, embedded systems, workstations, telecommunications systems, systems composed of both evaluated and unevaluated components, other security components, and systems composed of previously accredited systems (particularly when some of these accredited systems have not been certified or have been certified against differing criteria).  Guidance on applying the high-level C&A process to particular types of systems, as well as associated activities, will be provided in subsequent documents in this series.
  168.  
  169. 1.3  Purpose
  170.  
  171. The purpose of this C&A concepts document is to discuss the high-level C&A process, authority for C&A, C&A policy, and C&A terminology.  This document sets the baseline for a series of documents and has the following objectives:
  172.  
  173. ╖    Discuss the high-level C&A process and its relationship to risk management and INFOSEC disciplines.
  174.  
  175. ╖    Clarify the critical roles the DAA and key security officials must assume throughout the C&A process.
  176.  
  177. ╖    Identify several current security policies, emphasizing areas that are ambiguous or not addressed in current policy.
  178.  
  179. ╖    Define basic C&A terms.
  180.  
  181.  
  182. 2
  183.  
  184. 1.4  Evaluation Versus Certification
  185.  
  186. Evaluation is a term used in many different ways causing much confusion in the security community.  Sometimes it is used in the general English sense meaning judgment or determination of worth or quality.  Based on common usage of the term in the security community, one can distinguish between two types of evaluations: (1) evaluations that exclude the environment, and (2) evaluations that include the environment.  This second type of evaluation, meaning an evaluation conducted to assess a systems security attributes with respect to a specific operational requirement(s), is what this series of documents refers to as certification.  Evaluations that exclude the environment are analysis against a standard or criteria.  There are a number of examples of this type of evaluation:
  187.  
  188. ╖    Commercial off-the-shelf (COTS) products evaluated against the Trusted Computer System Evaluation Criteria (TCSEC) (Orange Book) [2] or the Canadian or European Criteria
  189.  
  190. ╖    Compartmented Mode Workstations (CMW) evaluated against the Compartmented Mode Workstation Evaluation Criteria, Version 1 (CMWEC) [3] and the TDSEC
  191.  
  192. ╖    Communications products with embedded communications security (COMSEC) components evaluated against the FSRS (NSA Specification for General Functional Security Requirements for a Telecommunications System (FSRS) [4])
  193.  
  194. *    Products evaluated against the TEMPEST criteria (DoD Directive (DODD) C-5200.19 [5])
  195.  
  196. Products that have been evaluated against the FSRS and that satisfactorily meet the minimum requirements (and are successfully considered for NSA approval) are generally said to be endorsed products.  Products evaluated against the TCSEC are often referred to as evaluated products.  While current usage of these terms varies widely, in this document, the term evaluation will refer to a security analysis of a component against a given set of standards or criteria without regard to the environment, while certification refers to a security analysis of a system against a given set of security requirements in a given environment.
  197.  
  198.  
  199.  
  200.  
  201.  
  202.  
  203.  
  204.  
  205. 3
  206.  
  207.  
  208.  
  209. SECTION  2
  210.  
  211. OVERVIEW OF C&A
  212.  
  213. Certification and accreditation constitute a set of procedures and judgments leading to a determination of the suitability of the system in question to operate in the targeted operational environment.
  214.  
  215. Accreditation is the official management authorization to operate a system.  The accreditation normally grants approval for the system to operate (a) in a particular security mode, (b) with a prescribed set of countermeasures (administrative, physical, personnel, COMSEC, emissions, and computer security (COMPUSEC) controls), (c) against a defined threat and with stated vulnerabilities and countermeasures, (d) within a given operational concept and environment, (e) with stated interconnections to other systems, (f) at an acceptable level of risk for which the accrediting authority has formally assumed responsibility, and (g) for a specified period of time.  The Designated Approving Authority(s) (DAA) formally accepts security responsibility for the operation of the system and officially declares that the specified system will adequately protect against compromise, destruction, or unauthorized modification under stated parameters of the accreditation.  The accreditation decision affixes security responsibility with the DAA and shows that due care has been taken for security in accordance with the applicable policies.
  216.  
  217. An accreditation decision is in effect after the issuance of a formal, dated statement of accreditation signed by the DAA, and remains in effect for the specified period of time (varies according to applicable policies).  A system processing classified or sensitive unclassified information should be accredited prior to operation or testing with live data unless a written waiver is granted by the DAA.  In some cases (e.g., when dealing with new technology, during a transition phase, or when additional time is needed for more rigorous testing), the DAA may grant an interim approval to operate for a specified period of time.  At the end of the specified time period, the DAA must make the final accreditation decision.
  218.  
  219. Certification is conducted in support of the accreditation process.  It is the comprehensive analysis of both the technical and nontechnical security features and other safeguards of a system to establish the extent to which a particular system meets the security requirements for its mission and operational environment.  A complete system certification must consider factors dealing with the system in its unique environment, such as its proposed security mode of operation, specific users, applications, data sensitivity, system configuration, site/facility location, and interconnections with other systems.  Certification should be done by personnel who are technically competent to assess the systems ability to meet the security
  220.  
  221. 5
  222.  
  223. requirements according to an acceptable methodology.  The resulting documentation of the certification activities is provided to the DAA to support the accreditation decision.  Many security activities support certification, such as risk analysis, security test and evaluation, and various types of evaluations.
  224.  
  225. Ideally, certification and accreditation procedures encompass the entire life cycle of the system.  Ideally, the DAA is involved from the inception of the system to ensure that the accreditation goals are clearly defined.  A successful certification effort implies that system security attributes were measured and tested against the threats of the intended operational scenarios.  Additionally, certification and accreditation are seen as continuing and dynamic processes; the security state of the system needs to be tracked and assessed through changes to the system and its operational environment.  Likewise, the management decision to accept the changing system for continued operation is an ongoing decision process.  The following sections provide a description of risk management, the high-level C&A process, and recertification/reaccreditation.
  226.  
  227. 2.1  Risk Management and C&A
  228.  
  229. Risk management is the total process of identifying, measuring, and minimizing uncertain events affecting resources [1].  A fundamental aspect of risk management is the identification of the security posture (i.e., threats and vulnerabilities) of the system, and stating the characteristics of the operational environment from a security perspective.  The primary objective of risk management is to identify specific areas where safeguards are needed against deliberate or inadvertent unauthorized disclosure, modification of information, denial of service, and unauthorized use.  Countermeasures can then be applied in those areas to eliminate or adequately reduce the identified risk.  The results of this activity provide critical information to making an accreditation decision.
  230.  
  231. Risk management may include risk analysis, cost-benefit analysis, countermeasure selection, security test and evaluation (ST&E), countermeasure implementation, penetration testing, and systems review.  For DoD organizations, enclosure 3 to DODD 5200.28 mandates a risk management program for each AIS to determine how much protection is required, how much exists, and the most economical way of providing the needed protection.  Other federal departments and agencies have similar policy documents that should be referenced for guidance
  232.  
  233. Risk analysis minimizes risk by specifying security measures commensurate with the relative values of the resources to be protected, the vulnerabilities of those resources, and the identified threats against them.  Risk analysis should be applied iteratively during the system life cycle.  When applied to system design, a risk analysis aids in countermeasure specification.  When applied during the implementation phase or to an operational system, it can verify the effectiveness of existing countermeasures and identify areas in which additional measures are needed to achieve the desired level of security.  There are numerous risk analysis methodologies and some automated tools available to support them.
  234.  
  235. 6
  236.  
  237. Management commitment to a comprehensive risk management program must be defined as early as possible in the program life cycle.  In scheduling risk management activities and designating resources, careful consideration should be given to C&A goals and milestones.  Associated risks can then be assessed and corrective action
  238. considered for risks that are unacceptable.
  239.  
  240.  
  241. 2.2  C&A High-Level Process
  242.  
  243. The C&A process is a method for ensuring that an appropriate combination of security measures are implemented to counter relevant threats and vulnerabilities.  This high-level process consists of several iterative, interdependent phases and steps illustrated in Figure 2.1. The scope and specific activities of each step depend upon the system being certified and accredited (see section 2.2.2).
  244.  
  245. Step 1 of the C&A process focuses on identifying and assessing the specific security relevant aspects (i.e., tailoring factors) of a system.  It involves gathering and developing relevant documentation (e.g., policy implementation guidance, security regulations/manuals, previous certification reports, product evaluation reports, COTS manuals, design documentation, design modification, and security-related waivers).  This identification provides the foundation for subsequent phases, and is critical to determining the appropriate C&A tailoring guidance to be used throughout the C&A process.  Aspects to be considered include:
  246.  
  247. *    Mission criticality
  248. Functional requirements
  249. System security boundary
  250. 0
  251. *
  252. 0
  253. 0    Security policies
  254. Security concept of operations (CONOPS) System components and their characteristics External interfaces and connection requirements
  255. *    Security mode of operation or overall risk index
  256. ╖    System and data ownership
  257. *    Threat information
  258. *    Identification of the DAA(S)
  259.  
  260. Step 2 involves C&A planning.  Since security should have been considered with system conception, planning for C&A is a natural extension of system security planning.  That is, the schedule (milestones) and resources (e.g., personnel, equipment, and training) required to complete the C&A process are identified.  C&A planning information is incorporated into and maintained in program documentation.  This information is also used to estimate the C&A budget.  Aspects to be considered in
  261. this step include:
  262.  
  263. *    Reusability of previous evidence
  264. ╖    Life-cycle phase
  265. ╖    System milestones (time constraints)
  266.  
  267. 7
  268.  
  269. Step 3 involves analyzing the security aspects of the system as a whole (i.e., how well security is employed throughout the system).  During this phase, the certification team becomes more familiar with the security requirements and the security aspects of individual system components.  Specialized training on the specific system may be necessary depending upon the scope of this phase as well as the experience of the certification team.  C&A activities include determining whether system security measures adequately satisfy applicable requirements.  To accomplish this objective, security measures of the various disciplines are assessed and tested collectively.  Additionally, system vulnerabilities and residual risks are identified.
  270.  
  271. Step 4 involves documenting/coordinating the results and recommendations of previous phases to prepare the certification package and accreditation package.  The certification package is the consolidation of all the certification activity results.  It will be used as supporting documentation for the accreditation decision, and will also support recertification/reaccreditation activities.  The compilation of the supporting documentation should be done consistently and cost-effectively.  The types of documentation generally included as part of the certification package include:
  272.  
  273. *    System need/mission overview
  274.  
  275. *    Security policy
  276.  
  277. *    Security concept of operation or security plan
  278.  
  279. ╖    System architectural description and configuration
  280.  
  281. ╖    Reports of evaluated products from a recognized government evaluation (e.g., NSA product evaluation, the Defense Intelligence Agency (DIA)/NSA compartmented mode workstation (CMW) evaluation)
  282.  
  283. *    Statements from other responsible agencies indicating that personnel, physical, COMSEC, or other security requirements have been met (e.g., Defense Message System (DMS) component approval process (CAP) functional testing)
  284.  
  285. *    Risks and INFOSEC countermeasures (e.g., risk analysis report)
  286.  
  287. ╖    Test plans, test procedures, and test results from security tests
  288. conducted (including penetration testing)
  289.  
  290. ╖    Analytic results
  291.  
  292. ╖    Configuration Management plan
  293.  
  294. ╖    Previous C&A information
  295.  
  296. ╖    Contingency plan
  297.  
  298.  
  299. 9
  300.  
  301. The accreditation package presents the DAA with a recommendation for an accreditation decision, a statement of residual risk, and supporting documentation which could be a subset of the certification package.  It may be in the form of a technical document, technical letter, or annotated briefing.  The information generally included as part of the accreditation package includes as a minimum:
  302.  
  303. ╖        Executive summary of mission overview, architectural description, and system configuration, including interconnections
  304.  
  305. ╖        Memorandum of Agreements (MOA)
  306.  
  307. ╖        Waivers signed by the DAA that specific security requirements do not need to be met or are met by other means (e.g., procedures)
  308.  
  309. ╖        Residual risk statement, including rationale for why residual risks should be accepted/rejected
  310.  
  311. *        Recommendation for accreditation decision
  312.  
  313. Step 5    is optional and involves the DAA(S) or his/her representative (s) conducting a
  314. site accreditation survey to ensure the security requirements meet the requirements for the system.  Final testing can be conducted at this time to ensure the DAA(S) are satisfied that the residual risk identified meets an acceptable level of risk to support its purpose.  The activities include:
  315.  
  316. 0    Assess system information (this is the certification package review) 0   Conduct site accreditation survey
  317.  
  318. Step 6 involves the DAA making the accreditation decision.  This decision is based on many factors, such as global threats, system need/criticality, certification results and recommendations, residual risks, the availability or cost of alternative countermeasures, and factors that transcend security such as program and schedule risks, and even political consequences.  The DAA has a range of options in making the accreditation decision, including the following:
  319.  
  320. ╖    Full accreditation approval for its originally intended operational environment, including a recertification/reaccreditation timeline
  321.  
  322. ╖    Accreditation for operation outside of the originally intended environment (e.g., change in mission, crisis situation, more restrictive operations)
  323.  
  324. ╖    Interim (temporary) accreditation approval, identifying the steps to be completed prior to full granting of accreditation and any additional controls (e.g., procedural or physical controls, limiting the number of users) that must be in place to compensate for any increased risk
  325.  
  326. *    Accreditation disapproval, including recommendations and timelines for correcting specified deficiencies
  327.  
  328. I 0
  329.  
  330. Step 7 involves maintaining the system accreditation throughout the system life cycle.  Accreditation maintenance involves ensuring that the system continues to operate within the stated parameters of the accreditation.  For example, that the stated procedures and controls of the system stay in place and are used, that the environment does not change outside of the stated parameters, that other types of users are not added to the system (e.g., users with lower clearances), that no additional external connections are made to the systems or that additional security requirements are not imposed on the system.  Any substantial changes to the stated parameters of the accreditation may require that the system be recertified or reaccredited.  It is important to note that recertification and reaccreditation activities may differ from those performed in support of a previous accreditation decision.  For example, the system security mode of operation may change from system-high to compartmented mode, requiring more stringent security measures and an in-depth analysis of these measures.  Applicable security policies/regulations, C&A team members, and/or DAA(S) may also change.  Section 2.3 provides more information on events that affect system security that might require a system to be recertified or reaccredited.
  331.  
  332.  
  333. 2.2.1   Certification and Associated Security Disciplines
  334.  
  335.  
  336. Certification activities and the associated results/recommendations are performed in support of the accreditation decision.  Certification is a method for ensuring that an appropriate combination of system security measures are correctly implemented to counter relevant threats and vulnerabilities.  That is, the certification effort must assess the effectiveness and interdependencies of security measures, as well as possible interference's or conflicts among them.  These measures are typically based on the system security policy and operational requirements.  It must be emphasized that in order to provide a realistic and effective analysis of the security posture of a system, all appropriate security disciplines (an INFOSEC perspective) must be included in the scope of the certification.  For example, while a system may have very strong controls in one area (e.g., COMPUSEC), weak controls in another area (e.g., lax procedures) may undermine the systems overall security posture.  The security disciplines to be considered include:
  337.  
  338. ╖    COMPUSEC
  339.  
  340. *    COMSEC
  341.  
  342. ╖    Technical security (TECHSEC) (e.g. emission security, TEMPEST, tampering) Physical security
  343.  
  344. Personnel security
  345. Administrative security
  346.  
  347. Others as appropriate (e.g., operations security (OPSEC), electronic security, signals security, transmission security (TRANSEC), cryptosecurity)
  348.  
  349. The concept and definitions (see appendix A) of some of these disciplines were developed at a time when security was viewed more as independent, loosely coupled disciplines, without an INFOSEC perspective to tie many of these various concerns together.  In addition, the boundaries between the disciplines are unclear.  Some disciplines are considered subsets of another; others are equivalent terms, but used by different communities of interest.  While independent analyses of the security measures within a discipline may be done as part of the certification, the key is that the results of these analyses must be viewed together, not individually, to assess the overall security posture of the system.
  350.  
  351. Figure 2.2 illustrates one possible interrelationship of the security disciplines.  The placement of the disciplines shows one possible overlap among the boundaries, and provides a categorization of the disciplines into three general areas: communications related, AIS related, or manual/information related.  Depending on the particular system or environment, other relationships are possible.  The remainder of this section presents a high-level overview of some representative security measures that may be appropriate for a given system for the first six disciplines listed above.  The other disciplines will not be expanded in this section.
  352. COMPUSEC measures may play an important role in mediating system risk.
  353.  
  354. Certification activities include assessing the pervasiveness of these measures.  For instance, the certification effort will determine whether the measures provide sufficient protection and whether they adequately enforce system security policies and requirements.  How well these measures work in conjunction with or complement nonCOMPUSEC measures must also be considered.
  355.  
  356. When computer equipment (e.g., workstation, hosts, and peripherals) is interconnected (e.g., via a local area network (LAN) or wide area network (WAN)), certification activities include assessing the protection, control, and adequacy of COMSEC measures.  In this context, interconnection means the operational exchange of information among systems or within a system via data communications or networks.  Certification will assess whether appropriate COMSEC policies and procedures are applied and approved equipment is used to counter threats and vulnerabilities of network components (e.g., packet switches, gateways, bridges, repeaters, transmission media).
  357.  
  358. Certification activities may include determining whether processing facilities or equipment comply with the appropriate national policy on compromising emanations.
  359.  
  360. For example, as part of certification, TEMPEST tests may be conducted, equipment installation or physical control space inspected, and encrypted/clear text (also known as Red/Black) separation procedures reviewed.  The selection and evaluation of TEMPEST countermeasures are based on several factors such as data sensitivity level, amount of sensitive data, equipment used, and facility location.
  361.  
  362.  
  363. 1 2
  364.  
  365. A combination of physical security measures is needed to protect most systems.  Consequently, certification activities often include inspecting the system in its operational environment/configuration to determine the adequacy of physical security measures.  For some environments, a technical surveillance countermeasures (TSCM) survey may be conducted to identify exploitable technical and physical security vulnerabilities.
  366.  
  367.  
  368.  
  369.  
  370.         INFOSEC
  371.  
  372.       .....    .....
  373.      ....    ....    ....    ....
  374.  
  375.             AIS Related
  376. Communications
  377.    Related
  378.     comsec
  379.  
  380. Cryptosecurity
  381. Emission Sec.
  382. 'C Sec.
  383. Electronic
  384. Transmission Sec.
  385. COMPUSEC
  386. Ter ,Khical  Sec.
  387. Data Sec.
  388. o"rma 0
  389. Inf     ti n Sec.
  390.  
  391. Admiri'i"Steative Sec.
  392. C.
  393. Personnel Se
  394.  
  395. Environmental Sec.
  396.  
  397. Physical Sec.
  398.  
  399. Operations Sec.
  400.  
  401. Manual/information
  402. Related
  403.  
  404.  
  405.  
  406.  
  407.  
  408. Figure 2.2.   INFOSEC Security Discipline Interrelationship
  409.  
  410.  
  411. Personnel security measures are also considered as part of system certification.  Certification activities must ensure that personnel are appropriately cleared and/or approved for access to the system or portions thereof.  Additionally, a determination of whether personnel security measures are commensurate with the overall risk index or
  412.  
  413. 1 3
  414.  
  415.  
  416.  
  417. ML
  418.  
  419. system security mode of operation (e.g., dedicated, system-high, compartmented, or multilevel) must be made.
  420.  
  421. Administrative security procedures are used in conjunction with or in lieu of automated measures.  Certification activities include inspecting relevant documentation (e.g., Trusted Facility Manual and Standard Operating Procedures) to determine the adequacy of administrative controls and ensuring that the procedures are followed.  Additionally, certification activities will verify that security personnel (e.g., information system security officers) have been appointed and that these individuals thoroughly understand their responsibilities for ensuring compliance with system security policies and procedures.
  422.  
  423.  
  424. 2.2.2  Factors That Influence the Certification Process
  425.  
  426.  
  427. A number of factors may influence the determination of the C&A activities to be performed and the appropriate level of effort for those activities.  While the high-level C&A process provides a uniform framework for performing C&A, more specific guidance is needed in order to apply the process to a given system in a specific environment or situation.  This section briefly outlines some of the important factors that are key to tailoring the C&A process for a specific environment.
  428.  
  429. The security requirements that apply to a system are interpretations of generic requirements in the context of the system's mission, operational concept, and threat environment.  C&A activities must be tailored to address the systems specific security requirements.  For example, the C&A activities associated with a network whose mission is to deliver fixed format messages between the systems that use that network's services with assurances of message integrity and delivery within a set time will be different from those associated with a local-area network used by a collection of individual users for office automation.
  430.  
  431. The complexity of a system involves both the architectural complexity of the information system (i.e., the variety of components and functions) and the operational complexity of the total system (including user activities that perform the mission).  Clearly, the depth of technical analysis and testing required for a local area network with workstations, file servers, and gateways to wide area networks is far greater than that needed for a stand-alone PC.  The level of operational complexity will be primarily reflected in the evaluation of non-technical safeguards and in the risk analysis.
  432.  
  433. The risk environment in which the system operates (or is intended to operate) includes not only the sensitivity of the data the system handles and the
  434. clearances/authorizations of system users and external interfaces, but also the system criticality and the nature and level of the threats against it.  C&A activities should be tailored to the level of potential risk associated with the system.  For example, relatively little technical analysis may be required for a system that handles routine information and is not mission critical (e.g., office automation system).
  435.  
  436.  
  437.  
  438. 1 4
  439.  
  440. The scope of C&A activities should depend on whether the system incorporates (a) previously evaluated products or (b) products or subsystems used in a system that has already been certified and accredited.  The effort should be able to make use of C&A work done by other organizations.  In addition, if inadequate attention has been paid to C&A up to some point in a system's life cycle, the C&A activities after that point will have to be tailored to compensate for prior inadequacies.
  441.  
  442.  
  443. 2.3   Recertification and Reaccreditation
  444.  
  445.  
  446. Various recertification and reaccreditation cycles are currently prescribed.  Typically these range between three and five years.  For example, current DoD policy states that a system shall be reaccredited every three years, regardless of change [1 ]. On the other hand, Director of Central Intelligence (DCI) policy requires a five year reaccreditation cycle [6].  During this time, periodic reviews of the system should be conducted to ensure that no changes in the system have occurred that might necessitate reaccreditation before the three or five-year cycle.
  447.  
  448. Another reason for reaccrediting (and recertifying) a system is that major changes have been made to some aspect of the system that impacts security.  The level of effort, in this case, for recertification and reaccreditation will depend on the certification factors (such as those described in section 2.2.2) as well as the possible impact of the changes made.  In this situation, the recertification activities should concentrate on those aspects of the system that have changed since the original certification.  The results of previous certification activities related to unchanged parts of the system will likely be able to be reused with no (or only minor) changes.  The following is a partial list of events affecting system security that might require a system to be recertified and
  449. reaccredited:
  450.  
  451. *    A change in criticality and/or sensitivity level that causes a change in the countermeasures required
  452.  
  453. *    A change in the security policy (e.g., access control policy)
  454.  
  455. *    A change in the threat or system risk
  456.  
  457. *    A change in the activity that requires a different security mode of operation
  458.  
  459. *    Additions or a change to the operating system or to software providing security features
  460.  
  461. *    Additions or a change to the hardware that requires a change in the approved security countermeasures
  462.  
  463. *    A breach of security, a breach of system integrity, or an unusual situation that appears to invalidate the accreditation by revealing a flaw in security design
  464.  
  465. 1 5
  466.  
  467.  
  468.  
  469.     A significant change to the physical structure of the facility or to the operating procedures
  470.  
  471. ╖    A significant change to the configuration of the system (e.g., a workstation is connected to the system outside of the approved configuration)
  472.  
  473. *    For networks, the inclusion of an additional (separately accredited) system(s) or the modification/replacement of a subscribing system that affects the security of that system
  474.  
  475. *    Results of an audit or external analysis
  476.  
  477. For systems with multiple accreditors, recertification and reaccreditation requirements and responsibilities should be identified in the MOA.  For example, if a jointly accredited system is governed by the requirements of both DODD 5200.28 [1] and DCI Directive (DCID) 1/1 6 [6], the DAAS, as part of their agreements documented in the MOA, should resolve the conflict in accreditation cycles.
  478.  
  479.  
  480.  
  481.  
  482.  
  483.  
  484.  
  485.  
  486. 1 6
  487.  
  488. SECTION  3
  489.  
  490. PRIMARY C&A ROLES
  491.  
  492. This section identifies the DAA and the certification agent as primarily responsible for the C&A of systems.  The certification agent provides direct support to the DAA in making the accreditation decision.  DoD component regulations define various security roles and responsibilities, and while the titles may vary, the responsibilities are similar.
  493.  
  494. In addition to the DAA and certification agent, the following roles are identified in this guideline as being key to the successful accreditation of some systems: Program Manager (PM), product vendors, systems integrator, systems engineers, and applications developer.  Not all roles will be necessary for the C&A of all types of systems.  The size, complexity, and status (e.g., new acquisition, upgrade, existing system) will determine the need for these additional roles.  For example, accrediting a stand-alone PC will probably not require any effort from these additional roles.  The following sections discuss the DAA, the certification agent/certification team, and other roles in terms of their responsibilities in the C&A process.  Appendix B provides guidance on identifying the appropriate DAA for a given system.
  495.  
  496. 3.1  DAA
  497.  
  498.  
  499. By accrediting a system, the DAA formally assumes the responsibility for the operation of the system within a specified environment.  The DAA must have the authority to allocate resources to achieve an acceptable level of security and to remedy security deficiencies.  The accreditation decision shows that due care has been taken to balance security requirements, mission, and resources against a defined risk.  More or less stringent security measures than those stated in applicable policies may be established by the DAA, if deemed appropriate.  The accreditation decision also is a recognition by the DAA that an acceptable level of risk has been attained and that the DAA accepts the operation of this system under the stated parameters of the accreditation.
  500.  
  501. The DAA may delegate the authority to accredit systems; however, specific service/agency regulations need to be reviewed for guidance in this area.  For example, Army Regulation (AR) 380-19 [71 policy states that for critically sensitive Army systems (i.e., systems that process any Top Secret data) operating in the dedicated, system-high, or partitioned modes, Major Command (MACOM) commanders may further delegate, in writing, accreditation authority to general officers or Senior
  502.  
  503. 1 7
  504.  
  505. Executive Service personnel within their commands.  Factors to consider before delegating accreditation authority are the resources available to the DAA and his or her supporting staff for realistically assessing the security posture of the system, both in technical expertise and clearance for or accessibility to the appropriate threat data.
  506.  
  507. The DAA will probably not be involved in day-to-day monitoring of the certification activities and in making many of the routine decisions regarding the system.  Normally, the DAA appoints a representative(s) to act as a security focal point and to assist in making routine decisions, attending meetings, and providing coordination.  While the DAA retains final responsibility to accredit the system, many of the accompanying duties will be delegated to this representative(s).  The DAA representative(s) will actively coordinate with the certification agent (and PM, if applicable) to ensure that all security requirements are met and that all activities in support of accreditation are completed in accordance with procedures.  All major decisions made during the system life cycle in support of the accreditation decision should be formally documented and coordinated with the DAA.
  508.  
  509. Some environments may require multiple DAAs to accredit the system.  These environments can generally be divided into two types: (1) those systems requiring joint accreditation and (2) those systems composed of the interconnection of separately accredited systems.  A working group, composed of individuals representing each of the accrediting organizations, may be necessary to resolve accreditation issues.  The representative(s) for each of the DAAs responsible for the system accreditation are likely participants in this working group.  The primary function of this group would be to ensure that all organizations involved understand the conditions and major agreements affecting the system accreditation, and that these conditions and agreements are documented in an MOA.  The definition of the security requirements and the assignment of security responsibility among the involved organizations are examples of the types of decisions to be documented.  The following sections provide additional information on identifying the DAA in these two types of systems.
  510.  
  511. 3.1.1  Joint Accreditors
  512.  
  513.  
  514. Some types of systems that will be accredited as a single system might require multiple accreditors.  Examples include the following:
  515.  
  516. *    A system that processes different types of information (e.g., cryptologic, Sensitive Compartmented Information (SCI), or Single Integrated Operational Plan-Extremely Sensitive Information (SIOP-ESI))
  517.  
  518. *    A system used by multiple data owners who process the same type of information
  519.  
  520. *    A system supporting multiple organizations (where the DAAs from each organization will be responsible for collectively accrediting the system)
  521.  
  522. 1 8
  523.  
  524. A system connected to a backbone network (where the system (e.g.,
  525.  
  526. host system) accreditor and the network accreditor jointly accredit the system as a whole)
  527.  
  528. Joint accreditation occurs when different components of the overall system come under the jurisdiction of different DAAS, and the responsible DAAs collectively accredit the system.
  529.  
  530. Systems that have joint accreditors require additional planning and coordination to ensure that all parties involved have a common understanding of their responsibilities in the C&A process, the risks involved, and the security posture of the system.  When a system is to be jointly accredited, the roles and responsibilities of the DDA(s), certification agents, and other key security roles of all participating organizations must be clearly defined and documented.  An MOA should be used to identify security responsibilities and to document all agreements made.  In addition, the requirements for the system and the criteria used to accredit the system should be clearly documented.  C&A milestones should be coordinated with the DAA(S) and their representatives, and documented in C&A planning documents.
  531.  
  532. 3.1.2  Multiple Accreditors
  533.  
  534.  
  535. When separately accredited systems managed by different DAAs are interconnected, negotiation must occur among the DAAs to address the interconnection requirements of each system involved.  MOAs are required when systems interconnect, for example, within their own sponsoring agency/service, with another agency, or with government contractors.  An MOA documents the results of the negotiations, forming an agreement signed by the participating DAAS.  Each DAA must, therefore, carefully examine the additional potential risks imposed on the system by connecting to other systems.  Additional certification activities may be required to determine the security posture of the overall systems before the separately accredited systems may be interconnected.
  536.  
  537. In some cases, the agreement for interconnection is among peer organizations.  In this situation, the MOA will formalize the agreement among the DAAs on the division of responsibilities and the criteria used to accredit each system.  The MOA should include, at a minimum, the following information:
  538.  
  539. ╖    Classification range of data maintained on or transmitted between systems
  540.  
  541. ╖    Clearance level(s) of the users
  542.  
  543. ╖    Intended use of the system
  544.  
  545. ╖    Identification of the authority to resolve conflicts among the DAAs
  546.  
  547. Countermeasures to be implemented prior to interconnection
  548.  
  549.  
  550. 1 9
  551.  
  552. ╖    Statements of accreditation of each interconnected system
  553.  
  554. ╖    Procedures for notification of changes in the system
  555.  
  556. ╖    Procedures for notification of proper parties in case of security violations
  557.  
  558. ╖    Accreditation criteria
  559.  
  560. ╖    Recertification/reaccreditation requirements and responsibilities
  561.  
  562. In other cases, when identifying the DAA(S) for a given system, consideration must be given to interconnections separately accredited multi-user telecommunications networks.  Special consideration must be given to additional risks when connecting to networks because of the potential exposure of data in the system to the larger community of network users.  The DAA(S) must consider the security posture of each network component, in addition to their individual systems, before accepting the risk of connecting to other systems.  In addition, the accreditor(s) of these networks may require C&A documentation from the subscriber system before allowing interconnection.
  563.  
  564. 3.2   Certification Agent/Certification Team
  565.  
  566. The certification agent is the individual(s) responsible for making a technical judgment of the systems compliance with stated requirements and to identify and assess the risks associated with operating the system.  In addition, the certification agent has the responsibility for coordinating the various activities of the certification process and merging all the pieces of the final accreditation package that will be presented to the DAA.  Although the fundamental role of the certification agent does not differ among certification efforts, the activities and level of effort required may vary (see section
  567. 2.2.2).
  568.  
  569. Some characteristics, such as technical expertise, impartiality (i.e., unfair bias toward achieving a particular result), and objectivity (i.e., minimum subjective judgment or opinion) are important considerations when selecting the appropriate certification agent.  In general, certification activities should be performed by competent technical personnel in cooperation with but as independent of the system developer and the PM
  570. as possible.
  571.  
  572. The certification team is the collection of individuals and/or organizations involved in some aspect of the certification process.  Given the increasing complexity of many AiSs and the wide variety of security disciplines that must be assessed during certification, most organizations do not have adequate or appropriate in-house resources to perform many of the required certification activities (e.g., product evaluations, testing).  To perform some of these activities, the certification agent may rely on the resources of other organizations that have the specialized skills necessary (e.g., TEMPEST).
  573.  
  574. 2 0
  575.  
  576. 3.3  Other Security Roles
  577.  
  578.  
  579. Although the PM is not typically responsible for performing daily security activities, the PM is responsible for seeing that they are implemented.  The PM has the responsibility for the overall procurement, development, and possibly operation of the system, and must coordinate all security-relevant portions of the program with the DAA and the certification agent.  The PM provides the resources, coordinates the scheduling of security milestones, and determines priorities.  The PM should not be (or should not be above) the DAA, as this may place security subordinate to the programs cost, schedule, and performance imperatives.
  580.  
  581. Depending on the type of system and the type of program (e.g., development effort, COTS acquisition, system upgrade), other roles will be involved in the overall security of the system, from requirements definition through operations and maintenance.  System integrators, systems engineers, security engineers, application developers, product vendors, the independent verification and validation (IV&V) assessors, and others may be responsible for addressing security concerns during system development, including activities such as specifying requirements, testing, reviewing documentation, developing procedures, conducting installations, and performing component evaluations.
  582.  
  583. For some systems (e.g., a large acquisition, a complex distributed system), an information system security working group (ISSWG) may be necessary to direct security activities and identify/resolve security-related issues throughout the system development life cycle and operation of the system.  The ISSWG may include the DAAs representative, whose role is to identify, address, and coordinate security accreditation issues with the DAA.  The ISSWG normally manages and performs security-related activities that include identifying and interpreting security regulations and standards, preparing and/or reviewing security portions of the Request for Proposal (RFP), overseeing major acquisition strategy decisions, and managing C&A issues.  Ideally, the technical security representatives from or consultants to the appropriate participating service or agency organizations should be involved in these activities.  These participants serve as security consultants to the PM throughout the entire acquisition life cycle.
  584.  
  585.  
  586.  
  587.  
  588.  
  589.  
  590.  
  591.  
  592. 2 1
  593.  
  594. SECTION 4
  595.  
  596. SECURITY  POLICY
  597.  
  598. 4.1    Current Security Policy
  599.  
  600.  
  601. Security policy exists at different levels of abstraction.  Federal- and national-level policy is stated in public laws, Executive Orders (EOs), National Security Directives (NSDs), National Security Telecommunications and Information Systems Security (NSTISS) issuances, Federal Information Processing Standard Publications (FIPS PUBS), Office of Management and Budget (OMB) circulars, and other resources.  DoD-level policy includes DoD directives, regulations, and standards that implement the National-level policy and set additional requirements.  Similarly, service and agency policies further interpret the DoD and national-level policies, as appropriate, and may also impose additional requirements.  Together with mission specific security requirements, the collection of these policies can be used to produce a system security policy.  A system security policy comprises a comprehensive presentation of the system derived from national/federal level policy, local policy, and mission specific security requirements.  The security policy for a system should be well defined at the beginning of the system life cycle and must be considered throughout each phase.  Figure 4.1 illustrates the partial hierarchy of policies and guidance.  The national and federal policies apply to both civil and defense agencies; however, individual civil agency policies are not listed in this document.  Defense policies are listed, in part, in Appendix C.
  602.  
  603. Current security policy does not reflect the evolving perspective of system security as an interdependent, cohesive collection of security disciplines.  At the DoD and component levels, separate policies exist for each discipline (or set of related disciplines), adding to the proliferation of policy.  As a result, the policies applicable to a given system are sometimes not well coordinated or consistent.  The following sections briefly highlight the key national- and DoD-level security policy.
  604.  
  605.  
  606. 4.1.1   National Security Policy
  607.  
  608.  
  609. National Policy for the Security of National Security Telecommunications and Information Systems provides initial objectives, policies, and an organizational structure to guide the conduct of activities directed toward safeguarding systems that process or communicate national security information [8].  It is intended to assure full participation and cooperation among the various existing centers of technical
  610.  
  611. 2 3
  612.  
  613. Executive Orders   National Security
  614.  
  615. Directives
  616.  
  617. ic Laws   OMB Circularsl I FIPS PUBS
  618.  
  619.  
  620.  
  621.  
  622.         Technical
  623.  
  624.   Security for            NCSC Guidance
  625.   Intelligence        Computer
  626.    Systems        Security
  627.  
  628.       I r    -    Information
  629.  
  630.   Security for        Security
  631. Compartmented
  632.    Systems
  633.         Communications
  634.         Security
  635.             Agency/Service
  636.             Regulations
  637.     0-    TEMPEST
  638.  
  639.         Personnel
  640.         Security
  641.         m
  642.  
  643.         Operations
  644.         Security
  645.  
  646.         Physical
  647.         Secun't
  648.         m        6=
  649.  
  650.     00    Industrial
  651.         Security
  652.  
  653.  
  654.  
  655. Figure 4.1  Information Security Policy and Guidance'
  656.  
  657.  
  658. expertise throughout the executive branch.  It assigns the Director, NSA, as the National Manager for NSTISS, responsible to the Secretary of Defense as Executive Agent for carrying out assigned responsibilities.  Among the assigned responsibilities
  659. 1
  660. the figure is not meant to imply that the policies represented in the top boxes are of equal authority; they are not.  The figure only intends to show that these higher level policies influence the department/service/agency issuances.
  661.  
  662. 2 4
  663.  
  664. is to act as the government focal. point for cryptography, telecommunications systems security, and information systems security.
  665.  
  666. EO 12356, National Security Information, prescribes a uniform system for classifying, declassifying, and safeguarding national security information [9].  Although the public should be informed of the activities of its government, the interests of the United States and its citizens require that certain information concerning the national defense and foreign relations be protected against unauthorized disclosure.  Information may not be classified under this EO unless its disclosure reasonably could be expected to cause damage to the national security.
  667.  
  668. EO 12333, United States Intelligence Activities, directs the DCI, as one responsibility, to ensure the establishment by the Intelligence Community (IC) of common security and access standards for managing and handling foreign intelligence systems, information, and products. [1 0]
  669.  
  670. OMB Circular No. A-1 30, Management of Federal Information Resources, establishes policy for the management of federal information resources [1 1 ]. The term information resources management means the planning, budgeting, organizing, directing, training, and control associated with government information.  The term encompasses both information itself and the related resources, such as personnel, equipment, funds, and technology.  The policies established in this circular apply to the information activities of all agencies of the executive branch of the federal government.  Information classified for national security purposes should also be handled in accordance with the appropriate national security directives.
  671.  
  672. FIPS PUB 102, Guideline for Computer Security Certification and Accreditation, a national-level document, provides guidance to managers and technical staff in establishing and carrying out a program for C&A of sensitive computer applications [1 2].  It identifies and describes the steps involved in performing C&A, the important issues in managing a C&A program, and the principal functional roles needed within an organization to carry out such a program.  The FIPS PUB 102 guidance applies to all federal agencies and departments.
  673.  
  674. The Computer Security Act of 1987, also known as Public Law 100-235, creates a means for establishing minimum acceptable security practices for improving the security and privacy of sensitive unclassified information in federal computer systems [1 3].  This law assigns responsibility to the National Institute of Standards and Technology (NIST) for developing standards and guidelines for federal computer systems processing unclassified data.  However, the Warner Amendment (section 2315 of title 10, United States Code) exempts AiSs processing sensitive unclassified information if the function, service, or use of the system (1) involves intelligence activities, (2) involves cryptologic activities related to national security, (3) involves the command and control of military forces, (4) involves equipment that is an integral part of a weapon or weapon system, or (5) is critical to the direct fulfillment of military or intelligence missions.  The law also requires establishment of security plans by all operators of federal computer systems that contain sensitive information.
  675.  
  676.  
  677.  
  678. 2 5
  679.  
  680. 4.1.2   DOD/DCI Security Policy
  681.  
  682.  
  683. DODD 5200.28, Security Requirements for Automated Information Systems (AlSs), the high-level security policy, sets the security requirements for AlSs within the DOD [i The directive assigns responsibility to the heads of DOD components to assign official(s) as the DAA responsible for accrediting each AIS under his or her jurisdiction and for ensuring compliance with the AIS security requirements.  The DAA is responsible to review and approve security safeguards of AlSs and issue accreditation statements for each AIS under the DAAs jurisdiction based on the acceptability of the security safeguards for the AIS.  Enclosure 3 of this directive sets minimum security requirements that must be met through automated or manual means in a cost effective, integrated manner.  Enclosure 4 of this directive describes a procedure for determining the minimum AIS computer-based security requirements based on the system security mode of operation, user clearance levels, and classification of data in the AIS.  Enclosure 5 recommends using the Trusted Network Interpretation (TNI) of the Trusted Computer System Evaluation Criteria in Specific Environments for evaluating networks [1 4].  The TNI provides guidance for the specification, development, evaluation, and acquisition of trusted networks.
  684.  
  685. Issued under the authority of DODD 5200.28 are DOD 5200.28-M, Automated Information System Security Manual [1 5], and DOD 5200.28-STD, Department of Defense Trusted Computer System Evaluation Criteria [2].  DOD 5200.28-STD provides a set of criteria against which the security features of a product may be evaluated.  There is currently a joint NSA/NIST effort to produce the Federal Criteria, as an eventual replacement to DOD 5200.28-STD.
  686.  
  687. DCID 1116  'Security Policy for Uniform Protection of Intelligence Processed in Automated Information Systems and Networks, and its supplement apply to all IC agencies, all other U.S. Government departments and agencies, and allied governments processing U.S. intelligence information [6].  The directive establishes the minimum administrative, environmental, and technical security requirements for the allowed operating modes of all applicable AlSs (e.g., AlSs, separately accredited networks and connected AlSs, and PCs).  Additional security measures may be established by the accrediting authority.  It also defines the accreditation and reaccreditation responsibilities and procedures applicable to AiSs processing intelligence information.
  688.  
  689. Although DODD 5200.28 and DCID 1/1 6 are the key security directives, they primarily focus on COMPUSEC.  The C&A process must consider the spectrum of security measures, including administrative, physical, environmental, personnel, COMSEC, emissions, and technical security.
  690.  
  691.  
  692. 4.2  Policy Related Issues
  693.  
  694.  
  695. As discussed in section 4.1, a multitude of security policy documents exist.  This proliferation of policy makes it difficult for the responsible security personnel to keep
  696.  
  697. 2 6
  698.  
  699.  
  700.  
  701. up with changes in policy and to be, aware of all the applicable policies for a given system.  The problem increases when different service/agency systems are interconnected; in those cases, the policies relevant to all involved components may then be applicable.  On the other side, the rapid advancement of technology and the required streamlining and consolidation of efforts are forcing a reexamination of current policy.  This section highlights some of the CIA-related issues that this series of documents are attempting to, at least partially, address.
  702.  
  703. 4.2.1   Rapid Technology Changes
  704.  
  705. Rapidly changing technology has made it difficult for policy to keep up with new security challenges brought about by advances in capabilities and technology.  For example, current policy provides little guidance for the range of systems that span large, central computer facilities to stand-alone PCs or intelligent workstations often tied together over LANs or connected via complex networks.  These systems have significant differences in functionality and vulnerabilities, and current policy provides little guidance to Dais on determining an acceptable level of risk based on the technology, environmental factors, and operational requirements.  Improved guidance is needed on how to certify and accredit all types of systems: networks, distributed systems, systems with integrated workstations, database management systems (DBMS), and multilevel secure (MLS) systems.  Differences among component policies also cause difficulties as many individually certified and accredited systems from multiple components are being integrated into a larger system.
  706.                
  707.  
  708. 4.2.2  Planning for CIA
  709.  
  710. Determining a reasonable and realistic level of effort for certification (and recertification) is key to a successful accreditation.  The analysis, evaluation, and testing requirements to support certification may require substantial commitments of resources that must be planned for early in the system life cycle (for example: as part of the RFP).  However, in some cases, for example an environment needing a low assurance system, the benefit of spending any additional resources for certification may be questionable.  For example, in an acquisition of COTS products (e.g., database management system (DBMS)) (assuming the requirements stated met the need), a determination must be made regarding how much, if any, additional evaluation and testing is necessary outside of the acceptance testing normally associated with the acquisition.  In many cases, the functionality and security attributes of COTS products are well known and documented, and perhaps only the operating environment in which the COTS product will be used must be evaluated.  As another example, a reasonable and justifiable effort (both in time and dollars) for certifying a dedicated or system-high system operating in a secure environment should be determined.
  711.  
  712.  
  713.  
  714. 2 7
  715.  
  716. 4.2.3 Certification  Boundaries ,
  717.  
  718.  
  719. Encryption has become an increasingly common component in systems, and better guidance is needed for determining when COMSEC or COMPUSEC criteria are applicable in a given system.  In some cases, the AIS will have to be examined by NSA (the responsible authority for COMSEC) to make informed COMSEC decisions.  In other cases, an approved embedded COMSEC component (e.g., an encryption chip on a board in a PC) may not require a separate COMSEC evaluation.  In these cases, configuration management of the AIS must also consider COMSEC.
  720.  
  721. Another area with little guidance available concerns the use of the results of product/component evaluations (e.g., products on the Evaluated Products List (EPL), Preferred Products List (PPL), Degausser Products List (DPL) [I 6]) or other evaluations (e.g., DMS component deployment approval) as input to a system certification.  In some cases, those evaluation results are used as substitutes for system certification.  For example, a component deployment approval (as done by Defense Information Systems Agency (DISA) as part of the DMS component approval process) merely certifies that the AIS (or component) properly implements the message-handling requirements.  It does not supplant the need for overall system certification.
  722.  
  723. As the number and complexity of networks and distributed systems increase, the confusion over areas of responsibility for the components of the system also increases.  Various authorities will have responsibility for different components, such as the actual communications components (e.g., communications lines, switches, routers), host computers, shared devices on the network (e.g., printers, servers), and the end-user terminals or workstations.  During the certification of these complex systems, the boundaries of each of the components and the responsibility for certification of each area must be clearly defined to ensure that the entire system is covered in the effort, as well as ensuring that the entire system is viewed as a whole.
  724.  
  725. 4.2.4  Acceptable Level of Risk
  726.  
  727.  
  728. Part of the accreditation decision is the acceptance of a given level of risk against a defined threat.  In order to make an informed decision, the DAA must be aware of both the definition of risk and the identification of the specific threat as it applies to the system being considered for accreditation.  The DAA must balance (1) the risk of disclosure, loss, or alteration of information; (2) the availability of the system based on the vulnerabilities identified by the certification process; (3) the threat that these vulnerabilities may be exploited in the specific environment in which the system is being used; and (4) the operational need and benefits.
  729.  
  730. In addition, there may be situations where the DAA must balance the risk against operational requirements mandating acceptance of higher risk, such as during a crisis situation.  While operational needs can dramatically change during a crisis, the need for security is even more critical during these times.  For example, in a crisis situation,
  731.  
  732. 2 8
  733.  
  734. perhaps tightened procedural and physical controls and the removal of connections to
  735. users in less secure areas could compensate for the increased risk of connecting the systems.
  736.  
  737.  
  738.  
  739.  
  740.  
  741.  
  742.  
  743.  
  744. 2 9
  745.  
  746. APPENDIX A
  747.  
  748. TERMINOLOGY
  749.  
  750.  
  751. Key CIA terms are defined herein.  Numerous national, DoD, and service/agency policies were consulted in defining these terms.  Existing national or DoD-level definitions were used, as appropriate.  Where necessary, discussion paragraphs are included to expand on a definition in an attempt to clarify possible ambiguities in its interpretation.
  752.  
  753. Accreditation
  754. Formal declaration by a designated approving authority (DAA) that an AIS is approved to operate in a particular security mode using a prescribed set of safeguards.
  755.  
  756. Note: Accreditation is the formal declaration by a DAA that a system is approved to operate: (a) in a particular security mode; (b) with a prescribed set of countermeasures (e.g., administrative, physical, personnel, COMSEC, emissions, and computer security controls); (c) against a defined threat and with stated vulnerabilities and countermeasures; (d) within a given operational concept and environment; (e) with stated interconnections to other systems; (f) at an acceptable level of risk for which the accrediting authority has formally assumed responsibility; and (g) for a specified period of time.
  757.  
  758. Accreditation Package
  759. A product of the certification effort and the main basis for the accreditation decision.
  760.  
  761. Note: The accreditation package, at a minimum, will include a recommendation for the accreditation decision and a statement of residual risk in operating the system in its environment.  Other information included may vary depending on the system and/or the DAA.
  762.  
  763. Administrative Security
  764. The management constraints and supplemental controls established to provide protection for a system.  Synonymous with Procedural Security.
  765.  
  766. Note: Examples include operational procedures (e.g., how to shut down the system securely), administrative procedures (e.g., granting access to a computer facility), and accountability (e.g., audit procedures for the system administrator to follow).
  767.  
  768.  
  769.  
  770. 3 1
  771.  
  772. AIS Security
  773.  
  774. Measures and controls that ensure confidentiality, integrity, and availability of the information processed and stored by an AIS.
  775.  
  776. Assurance
  777. A measure of confidence that the security features and architecture of an AIS accurately mediate and enforce the security policy.
  778.  
  779. Note: Assurance refers to a basis for believing that the objective and approach of a security mechanism or service will be achieved.  Assurance is generally based on factors such as analysis involving theory, testing, software engineering, validation, and verification.  Life-cycle assurance requirements provide a framework for secure system design, implementation, and maintenance.  The level of assurance that a development team, certifier, or accreditor has about a system reflects the confidence that they have that the system will be able to enforce its security policy correctly during use and in the face of attacks.  Assurance may be provided through four means: (1) the way the system is designed and built, (2) analysis of the system description for conformance to requirement and for vulnerabilities, (3) testing the system itself to determine its operating characteristics, and (4) operational experience.  Assurance is also provided through complete documentation of the design, analysis, and testing.
  780.  
  781. Audit
  782.  
  783. An independent review and examination of the records and activities to assess the adequacy of system controls, to ensure compliance with established policies and operational procedures, and to recommend necessary changes in controls, policies, or procedures.
  784.  
  785. Audit Trail
  786. A chronological record of system activities to enable the reconstruction, and examination of the sequence of events and/or changes in an event.
  787.  
  788. Authentication
  789.  
  790. A security measure designed to establish the validity of a transmission, message, or originator, or a means of verifying an individual's eligibility to receive specific categories of information.
  791.  
  792. Authenticity
  793. The service that ensures that system events are initiated by and traceable to authorized entities.  It is composed of authentication and nonrepudiation.
  794.  
  795. Automated Information System (AIS)
  796. Any equipment or interconnected system or subsystems of equipment that is used in the automatic acquisition, storage, manipulation, management, movement, control, display, switching, interchange, transmission or reception of data, and includes computer software, firmware, and hardware.
  797.  
  798. Note: The term "AIS" includes stand-alone systems, communications systems, and computer network systems of all sizes, whether digital, analog, or hybrid;
  799.  
  800. 32
  801.  
  802. associated peripheral devices and software; process control computers; security components; embedded computer systems; communications switching computers; PCs; workstations; microcomputers; intelligent terminals; word processors; office automation systems; application and operating system software; firmware; and other AIS technologies, as may be developed.
  803.  
  804. Availability
  805. The property of being accessible and usable upon demand by an authorized entity.
  806.  
  807. Baseline
  808. A set of critical observations or data used for a comparison or control.
  809.  
  810. Note: Examples include a baseline security policy, a baseline set of security requirements, and a baseline system.
  811.  
  812. Category
  813. A restrictive label that has been applied to both classified and unclassified data, thereby increasing the requirement for protection of, and restricting the access to, the data.
  814.  
  815. Note: Examples include SCI, proprietary information, and North Atlantic Treaty Organization information.  Individuals are granted access to special categories of information only after being granted formal access authorization.
  816.  
  817. Certification
  818. The comprehensive analysis of the technical and nontechnical security features and other safeguards of a system to establish the extent to which a particular system meets a set of specified security requirements.
  819.  
  820. Note: Certification is done in support of the accreditation process and targets a specific environment.  Certification includes risk analysis, security testing, and evaluations, as well as other activities, as needed.
  821.  
  822. Certification Agent
  823. The individual(s) responsible for making a technical judgment of the system's compliance with stated requirements, identifying and assessing the risks associated with operating the system, coordinating the certification activities, and consolidating the final certification and accreditation packages.
  824.  
  825. Certification and Accreditation Plan
  826. A plan delineating objectives, responsibilities, schedule, technical monitoring, and other activities in support of the CIA process.
  827.  
  828. Certification  Package
  829. A product of the certification effort documenting the detailed results of the certification activities.
  830.  
  831. Note: The contents of this package will vary depending on the system.
  832.  
  833. 3 3
  834.  
  835. Classified Information
  836. National security information that has been classified pursuant to Executive Order 12356.
  837.  
  838. Communications Security (COMSEC)
  839. Measures and controls taken to deny unauthorized persons information derived from telecommunications and to ensure the authenticity of such communications.
  840.  
  841. Note: COMSEC includes cryptosecurity, transmission security, emission security, and physical security of COMSEC materials.
  842.  
  843. Component
  844. Any of the constituent parts of a system.
  845.  
  846. Note: A component may be a small element of a system or the whole system.  It can be physical (e.g., circuit board), logical (e.g., software routine), or support personnel.
  847.  
  848. Computer
  849. The hardware, software, and firmware components of a system that are capable of performing calculations, manipulations, or storage of data.  It usually consists of arithmetic, logical, and control units, and may have input, output, and storage devices.
  850.  
  851. Computer Security (COMPUSEC)
  852. Measures and controls that ensure confidentiality, integrity, and availability of the information processed and stored by a computer.
  853.  
  854. Confidentiality
  855. Assurance that information is not disclosed to unauthorized entities or processes.
  856.  
  857. Configuration  Management
  858. The management of features and assurances through control of changes made to hardware, software, firmware, documentation, test, test fixtures, and test documentation of a system throughout the development and operational life of the system.
  859.  
  860. Contingency Plan
  861. A plan maintained for emergency response, backup operations, and post-disaster recovery for a system, as part of its security program, that will ensure the availability of critical resources and facilitate the continuity of operations in an emergency situation.
  862.  
  863. Countermeasure
  864. Any action, device, procedure, technique, or other measure that reduces a risk or a vulnerability.
  865.  
  866.  
  867.  
  868. 3 4
  869.  
  870. Covert Channel
  871. An unintended and/or unauthorized communications path that can be used to transfer information in a manner that violates a system security policy.
  872.  
  873. Note: Covert channels may be storage or timing channels.  A covert storage channel involves the direct or indirect writing to a storage location by one process and the direct or indirect reading of the storage location by another process.  A covert timing channel is one in which one process signals information to another process by modulating its own use of system resources in such a way that this manipulation affects the real response time observed by the second process.
  874.  
  875. Cryptosecurity
  876. The component of COMSEC that results from the provision of technically sound cryptosystems and their proper use.
  877.  
  878. Data Security
  879. The protection of data from unauthorized (accidental or intentional) modification, destruction, or disclosure.
  880.  
  881. Designated Approving Authority (DAA)
  882. The official with the authority to formally assume responsibility for operating a system at an acceptable level of risk.
  883.  
  884. Note: FIPS PUB 102 uses the term "Accrediting Official" for the DAA [1 2].
  885. "Accrediting Authority" is another term used.  The DAA must have the authority to evaluate the overall mission requirements of the system and to provide definitive directions to system developers or owners relative to the risk in the security posture of the system.  Generally, the more sensitive the data processed by a system, the more senior the DAA.  A DAA may be responsible for several systems, and each system may have a single or multiple DAAS.  When there are multiple accreditors, the sharing of responsibilities must be carefully defined in an MOA.
  886.  
  887. DoD Component
  888. Refers to the Office of the Secretary of Defense (OSD), the Military Departments and Services within those departments, the Chairman of the Joint Chiefs of Staff and the Joint Staff, the unified and specified commands, the defense agencies, and the DoD field activities.
  889.  
  890. Electronic Security
  891. Protection resulting from all measures designed to deny unauthorized persons information of value that might be derived from the interception and analysis of non-communications electromagnetic radiations, such as RADAR.
  892.  
  893. Emission Security
  894. Protection resulting from all measures taken to deny unauthorized persons information of value that might be derived from intercept and analysis of compromising emanations from cryptoequipment, AlSs, and telecommunications systems.
  895.  
  896.  
  897. 3 5
  898.  
  899. Endorsement
  900. NSA approval of a commercially developed telecommunications or AIS protection equipment or system for safeguarding national security information.
  901.  
  902. Environment (System)
  903. The aggregate of procedures, conditions, and objects that affects the development, operation, and maintenance of a system.
  904.  
  905. Note: Environment is often used with qualifiers such as computing environment, application environment, or threat environment, which limit the scope being considered.
  906.  
  907. Evaluation
  908. The technical analysis of a component's, product's, subsystem's, or system's security that establishes whether or not the component, product, subsystem, or system meets a specific set of requirements.
  909.  
  910. Exception
  911. With respect to CIA, an exception indicates the implementation of one or more security requirements is temporarily postponed and that satisfactory substitutes for the requirements may be used for a specified period of time. (see Waiver)
  912.  
  913. Formal Access Approval
  914. Documented approval by a data owner to allow access to a particular category of information.
  915.  
  916. Implementation
  917. The phase of the system development process in which the detailed specifications are translated into actual system components.
  918.  
  919. Information Security
  920. The result of any system of policies and procedures for identifying, controlling, and protecting, from unauthorized disclosure, information that requires protection.
  921.  
  922. Information System
  923. Any telecommunications and/or computer related equipment or interconnected system or subsystems of equipment that is used in the acquisition, storage, manipulation, management, movement, control, display, switching, interchange, transmission or reception of voice and/or data, and includes software, firmware, and hardware.
  924.  
  925. Information Systems Security (INFOSEC)
  926. The protection of information systems against unauthorized access to or modification of information, whether in storage, processing, or transit, and against the denial of service to authorized users or the provision of service to unauthorized users, including those measures necessary to detect, document, and counter such threats.
  927.  
  928.  
  929. 3 6
  930.  
  931. Note: The term "INFOSEC," as it applies to this concept of the totality of security applied to a system, has evolved.  This series of documents will use the term INFOSEC--Information Systems Security--to reflect that concept of the totality of system security.
  932.  
  933. Information Systems Security Products and Services Catalogue (INFOSEC Catalogue) (also referred to as the Products and Services Catalogue) [16]
  934. A catalogue issued by NSA that incorporates several security product and services lists.  It is available through the Government Printing Office.  Some of the lists included in the catalogue are the following:
  935. Degausser Products List (DPL) - a list of commercially produced degaussers that have been evaluated against specific requirements for the erasure of classified data from magnetic media.
  936.  
  937. Endorsed Cryptographic Products List - a list of products that provide electronic cryptographic coding (encrypting) and decoding (decrypting), and which have been endorsed for use for classified or sensitive unclassified U.S. Government or Government-derived information during its transmission.
  938.  
  939. Endorsed Tools List (ETL) - a list of those formal verification systems recommended by the National Computer Security Center (NCSC) for use in developing highly trusted systems.
  940.  
  941. Evaluated Products List (EPL) - a documented inventory of equipment, hardware, software, and/or firmware that have been evaluated against the evaluation criteria found in DoD 5200.28-STD.
  942.  
  943. Protected Network Services List - a list of the names and points of contact for commercial carriers providing government-approved "protected services" for your communications.  The companies listed offer protection service (e.g., bulk trunk encryption) rather than a product.
  944.  
  945. NSA Endorsed Data Encryption Standard (DES) Products List - a list of cryptographic products endorsed by NSA as meeting Federal Standard 1027 [17].  These DES products have been endorsed for use in protecting U.S. Government or U.S. Government-derived unclassified sensitive information during transmission.  They may not be used to secure classified information.
  946.  
  947. Off-Line Systems - a description of a variety of off-line capabilities that NSA can provide to meet customer requirements.  Off-line refers to those cryptosystems for which encryption and decryption are performed separately from the transmitting and receiving functions.
  948.  
  949. Preferred Products List (PPL) - a list of telecommunications and information processing equipment and systems that conform to the current national TEMPEST standard.
  950.  
  951.  
  952. 3 7
  953.  
  954.  
  955. Integration
  956. The synthesis of a system's components to form either larger components of the system or the system itself.
  957.  
  958. Integrity
  959.  
  960. Data integrity is that attribute of data relating to the preservation of (a) its meaning and completeness, (b) the consistency of its representation(s), and (c) its correspondence to what it represents.
  961.  
  962. System integrity is that attribute of a system when it performs its intended function in an unimpaired manner, free from deliberate or inadvertent unauthorized manipulation of the system.
  963.  
  964. Interim Approval
  965. The temporary authorization granted by the DAA for a system to process
  966. information in its operational environment based on preliminary results of a security evaluation of the system.
  967.  
  968. Note: Interim approval allows the activity to meet its operational requirements for a given period of time while further assessing and improving its security posture.  It gives the DAA the needed latitude to approve operational implementation of individual components of a system as they develop.  Final approval is mandatory before full implementation.
  969.  
  970. Mission
  971. A specific task with which a person, or group of individuals, or organization is entrusted to perform.
  972.  
  973. .Mission Criticality
  974. The property that data, resources, and processes may have, which denotes that the importance of that item to the accomplishment of the mission is sufficient to be considered an enabling/disabling factor.
  975.  
  976. Mode of Operation (Security Mode)
  977. Description of the conditions under which a system operates, based on the sensitivity of data processed and the clearance levels and authorizations of the users.
  978.  
  979. Note: The DAA accredits a system to operate in a given mode of operation.  Inherent in each of the five security modes (dedicated, system high, compartmented, multilevel, and partitioned) are restrictions on the user clearance levels, formal access requirements, need-to-know requirements, and the range of sensitive information permitted on the system.  Modes of operation are part of a paradigm based on confidentiality (information disclosure policy.) The applicability and/or usefulness of these modes of operation to a system whose principal security objective was integrity or availability is unclear.
  980.  
  981.  
  982.  
  983. 3 8
  984.  
  985. Compartmented Mode: Security mode of operation wherein each user with direct or indirect access to the system, its peripherals, remote terminals, or remote hosts has all of the following:
  986.  
  987. a.    Valid security clearance for the most restricted information processed in the system
  988.  
  989. b.    Formal access approval and signed non-disclosure agreements for that information to which a user is to have access
  990.  
  991. c. Valid need-to-know for information to which a user is to have access
  992.  
  993. Dedicated Mode: Security mode of operation wherein each user, with direct or indirect access to the system, its peripherals, remote terminals, or remote hosts, has all of the following:
  994.  
  995. a.    Valid security clearance for all information within the system
  996.  
  997. b.    Formal access approval and signed non-disclosure agreements for all the information stored and/or processed (including all compartments, subcompartments, and/or special access programs)
  998.  
  999. c. Valid need-to-know for all information contained within the system
  1000.  
  1001. Note: When in the dedicated security mode, a system is specifically and exclusively dedicated to and controlled for the processing of one particular type or classification of information, either for full-time operation or for a specified period of time.
  1002.  
  1003. Multilevel Security-v: Concept of processing information with different classifications and categories that simultaneously permits access by users with different security clearances, but prevents users from obtaining access to information for which they lack authorization.
  1004.  
  1005. Partitioned Security Mode: Security mode of operation wherein all personnel have the clearance, but not necessarily formal access approval and need-to-know, for all information handled by the system.
  1006.  
  1007. Note: This security mode encompasses the compartmented mode and applies to non-intelligence DoD organizations and DoD contractors.
  1008.  
  1009. system high mode Security mode of operation wherein each user, with direct or indirect access to the system, its peripherals, remote terminals, or remote hosts, has all of the following:
  1010.  
  1011. a.    Valid security clearance for all information within the system
  1012.  
  1013.  
  1014.  
  1015. 3 9
  1016.  
  1017. b.    Formal access approval and signed non-disclosure agreements for all of the information stored and/or processed (including all compartments,
  1018. subcompartments and/or special access programs)
  1019.  
  1020. c. Valid need-to-know for some of the information contained within the
  1021.      system
  1022.  
  1023. Need-to-Know
  1024. Access to, or knowledge or possession of, specific information required to carry out official duties.
  1025.  
  1026. Network
  1027. A communications medium and all components attached to that medium whose responsibility is the transference of information.  Such components may include AiSs, packet switches, telecommunications controllers, key distribution centers, and technical control devices.
  1028.  
  1029. Network Security
  1030. Protection of networks and their services from unauthorized modification, destruction, or disclosure, and provision of assurance that the network performs its critical functions correctly and there are no harmful side-effects.
  1031.  
  1032. Note: Network security includes providing for data integrity.
  1033.  
  1034. Non-Repudiation
  1035. Method by which the sender of data is provided with proof of delivery and the recipient is assured of the sender's identity, so that neither can later deny having processed the data.
  1036.  
  1037. Operations Security (OPSEC)
  1038. A process denying to potential adversaries information about capabilities and/or intentions by identifying, controlling, and protecting generally unclassified evidence of the planning and execution of sensitive activities.
  1039.  
  1040. Penetration Testing
  1041. Security testing in which the evaluators attempt to circumvent the security features of a system based on their understanding of the system design and implementation.
  1042.  
  1043. Note: The evaluators may be assumed to use all system design and implementation documentation, which may include listings of system source code, manuals, and circuit diagrams.  The evaluators work under no constraints other than those applied to ordinary users or implementors of untrusted portions of the component.
  1044.  
  1045. Personnel Security
  1046. The procedures established to ensure that all personnel who have access to sensitive information have the required authority as well as appropriate clearances.
  1047.  
  1048. 4 0
  1049.  
  1050. Physical Security
  1051. The application of physical barriers and control procedures as countermeasures against threats to resources and sensitive information.
  1052.  
  1053. Procedural  Security
  1054. See Administrative Security.
  1055.  
  1056. Product
  1057.  
  1058. A package of software, firmware, and/or hardware providing functionality designed for use or incorporation within a multiplicity of systems.
  1059.  
  1060. QUADRANT
  1061.  
  1062. Short name referring to technology which provides tamper-resistant protection to crypto-equipment.
  1063.  
  1064. Reaccreditation
  1065.  
  1066. The official management decision to continue operating a previously accredited system.
  1067.  
  1068. Note: Reaccreditation occurs (1) periodically, regardless of system change (based on policy (e.g., DODD 5200.28 requires a 3 year reaccreditation cycle)) or (2) if major changes have been made to some aspect of the system that impact security.
  1069.  
  1070. Recertification
  1071. A reassessment of the technical and nontechnical security features and other safeguards of a system made in support of the reaccreditation process.
  1072.  
  1073. Note: The level of effort for recertification will depend on the nature of changes (if any) made to the system and any potential changes in the risk of operating the system (e.g., changes in the threat environment may affect the residual risk).
  1074.  
  1075. Residual Risk
  1076. The portion of risk that remains after security measures have been applied.
  1077.  
  1078. Risk
  1079.  
  1080. A combination of the likelihood that a threat will occur, the likelihood that a threat occurrence will result in an adverse impact, and the severity of the resulting adverse impact.
  1081.  
  1082. Note: Risk is the loss potential that exists as the result of threat and vulnerability pairs.  It is a combination of the likelihood of an attack (from a threat source) and the likelihood that a threat occurrence will result in an adverse impact (e.g., denial of service), and the severity of the resulting adverse impact.  Reducing either the threat or the vulnerability reduces the risk.
  1083.  
  1084. Risk Analysis
  1085.  
  1086. Process of analyzing threats to and vulnerabilities of an information system to determine the risks (potential for losses), and using the analysis as a basis for identifying appropriate and cost-effective measures.
  1087.  
  1088. 4 1
  1089.  
  1090. Note: Risk analysis is a part of risk management, which is used to minimize risk by specifying security; measures commensurate with the relative values of the resources to be protected, the vulnerabilities of those resources, and the identified threats against them.  The method should be applied iteratively during the system life cycle.  When applied during the implementation phase or to an operational system, it can verify the effectiveness of existing countermeasures and identify areas in which additional measures are needed to achieve the desired level of security.  There are numerous risk analysis methodologies and some automated tools available to support them.
  1091.  
  1092. Risk Assessment
  1093. Synonymous with Risk Analysis.
  1094.  
  1095. Risk Management
  1096. The process concerned with the identification, measurement, control, and minimization of security risk in information systems.
  1097.  
  1098. Note: Risk management encompasses the entire system life cycle and has a direct impact on system certification.  It may include risk analysis, cost/benefit analysis, countermeasure selection, security test and evaluation, countermeasure implementation, and systems review.  Enclosure 3 of DODD 5200.28 mandates a risk management program be in place for each AIS to determine how much protection is required, how much exists, and the most economical way of providing the needed protection.
  1099.  
  1100. Security
  1101. Establishment and maintenance of protective measures intended to ensure a state of inviolability from hostile acts and influences, design deficiencies, system/component failure/malfunction, or unintentional misuse.
  1102.  
  1103. Security Architecture
  1104. A detailed description of all aspects of the system that relate to security, along with a set of principles to guide the design.  A security architecture describes how the system is put together to satisfy the security requirements.
  1105.  
  1106. Note: A security architecture is basically an architectural overlay that addresses security.  It is increasingly important in distributed systems, since there are many ways in which security functions can be distributed and care is needed to ensure that they work together.
  1107.  
  1108. Security CONOPS
  1109. A high-level description of how the system operates and a general description of the security characteristics of the system, such as user clearances, data sensitivity, and data flows.
  1110.  
  1111. Security Policy
  1112. The set of laws, rules, and practices that regulate how sensitive or critical information is managed, protected, and distributed.
  1113.  
  1114. 4 2
  1115.  
  1116. Note: A security policy may be written at many different levels of abstraction.  For example, a corporate security policy is the set of laws, rules, and practices within a user organization; system security policy defines the rules and practices within a specific system; and technical security policy regulates the use of hardware, software, and firmware of a system or product.
  1117.  
  1118. Security Requirements
  1119.  
  1120. Types and levels of protection necessary for equipment, data, information, applications, and facilities to meet security policy.
  1121.  
  1122. Security Safeguards
  1123. Protective measures and controls that are prescribed to meet the security requirements specified for a system.
  1124.  
  1125. Note: Safeguards may include security features as well as management constraints, personnel security, and security of physical structures, areas, and devices.
  1126.  
  1127. Security Test and Evaluation (ST&E)
  1128.  
  1129. An examination and analysis of the safeguards required to protect a system, as they have been applied in an operational environment to determine the security posture of that system.
  1130.  
  1131. Security Testing
  1132.  
  1133. A process used to determine that a system protects data and maintains functionality as intended.
  1134.  
  1135. Note: Security Testing may include hands-on functional testing, penetration testing, and verification.
  1136.  
  1137. Security Working Group
  1138.  
  1139. A group, representing various organizational entities, that meets to discuss security issues throughout a system's life cycle.
  1140.  
  1141. Note: Identification of security issues and suggested solutions are outputs of the group.
  1142.  
  1143. Sensitive Information
  1144.  
  1145. Information designated to require protection because its unauthorized disclosure, alteration, loss, or destruction could cause damage.
  1146.  
  1147. Note: It includes both classified and sensitive unclassified information.
  1148.  
  1149. Sensitive Unclassified Information
  1150. Any information, the loss, misuse, or unauthorized access to or modification of which could adversely affect the national interest or the conduct of federal programs, or the privacy to which individuals are entitled under 5 U.S.C Section 552a (the Privacy Act) [1 8], but that has not been specifically authorized under
  1151.  
  1152. 4 3
  1153.  
  1154. criteria established by an Executive Order or an Act of Congress to be kept secret in the interest of national defense or foreign policy.
  1155.  
  1156. Note: Systems that are not national security systems, but contain sensitive information, are to be protected in accordance with the requirements of the Computer Security Act of 1987 (Public Law 100-235) [13].
  1157.  
  1158. Sensitivity
  1159. The characteristic of a resource which implies its value or importance, and may include its vulnerability.
  1160.  
  1161. Note: As an example, the DoD uses a set of hierarchically ordered sensitivity levels (i.e., Confidential, Secret, Top Secret) to indicate the sensitivity of data.  In addition, in many environments, labels such as Procurement Sensitive,
  1162. Investigations, Medical, Payroll, or Project XYZ are used to refer to specific sets of information.
  1163.  
  1164. Signals Security
  1165. Generic term encompassing COMSEC and electronic security.
  1166.  
  1167. Subsystem
  1168. A secondary or subordinate system, usually capable of operating independently of, or asynchronously with, a controlling system.
  1169.  
  1170. System
  1171. A collection of components that may include computer hardware, firmware, software, data, procedures, environment, and people, so related as to behave as an interacting or interdependent unit.
  1172.  
  1173. Note: A system has a particular purpose and operational environment.  A system may contain one or more components, subsystems, or products.  The operational environment may encompass the computing facility or the site installation.
  1174.  
  1175. System Life Cycle
  1176. The duration of time that begins with the identification of a need to place a system into operation; continues through the system's design, development, implementation and operation; and ends with the system's disposal.
  1177.  
  1178. System Security Plan
  1179. A description of the risks, system security requirements, and how the system will meet the security requirements.
  1180.  
  1181. Systems Security Engineering
  1182. The efforts that help achieve maximum security and survivability of a system during its life cycle and interface with other program elements to ensure security functions are effectively integrated into the total systems engineering effort.
  1183.  
  1184.  
  1185.  
  1186. 4 4
  1187.  
  1188. Technical Security (TECHSEC)
  1189. Equipment, components, devices, and associated documentation or other media that pertain to cryptography, or to security of telecommunications and AlSs.
  1190.  
  1191. TEMPEST
  1192. A short name referring to investigation, study, and control of compromising emanations from telecommunications and AIS equipment.
  1193.  
  1194. Testbed
  1195. A system representation consisting partially of actual hardware and/or software and partially of computer models or prototype hardware and/or software.
  1196.  
  1197. Threat
  1198. Capabilities, intentions, and attack methods of adversaries to exploit any circumstance or event with the potential to cause harm to information or an information system.
  1199.  
  1200. Transmission Security (TRANSEC)
  1201. The component of COMSEC that results from the application of measures designed to protect transmissions from interception and exploitation by means other than cryptanalysis.
  1202.  
  1203. Trust
  1204. Confidence that an entity, to which trust is applied, will perform in a way that will not prejudice the security of the user of the system of which that entity is a part.
  1205.  
  1206. Note: Trust is always restricted to specific functions or ways of behavior (e.g., 'Trusted to connect A to B properly").  Trust is meaningful only in the context of a security policy; an entity may be trusted in the context of one policy, but untrusted in the context of another policy.
  1207.  
  1208. Trusted Computer System
  1209. A system that employs sufficient hardware, firmware, and software assurance measures to exhibit correct behavior in terms of operations defined by its security policy.
  1210.  
  1211. Trusted Computing Base (TCB)
  1212. Totality of protection mechanisms within a computer system, including hardware, firmware, and software, the combination of which is responsible for enforcing a security policy.
  1213.  
  1214. Note: The ability of a TCB to enforce correctly a unified security policy depends on the correctness of the mechanisms within the TCB, the protection of those mechanisms to ensure their correctness, and the correct input of parameters related to the security policy.
  1215.  
  1216. Type Accreditation
  1217. Official authorization by the DAA to employ a system in a specified environment.
  1218.  
  1219. 45
  1220.  
  1221.  
  1222.  
  1223.  
  1224.  
  1225. Note: Type accreditation includes a statement of residual risk, delineates the operating environment, and identifies specific use.  It may be performed when multiple copies of a system are to be fielded in similar environments.
  1226.  
  1227. Unclassified Information
  1228.  
  1229. Any information that need not be safeguarded against disclosure, but must be safeguarded against tampering, destruction, or loss due to record value, utility, replacement cost, or susceptibility to fraud, waste, or abuse.
  1230.  
  1231. User
  1232.  
  1233. Person or process accessing a system by direct connections (e.g., via terminals) or indirect connections.
  1234.  
  1235. Note: "Indirect connections' relates to persons who prepare input data or receive output that is not reviewed for content or classification by a responsible individual.
  1236.  
  1237. Verification
  1238. The process of comparing two levels of a system specification for proper correspondence or of proving that some property of a specification is correctly implemented by the system (e.g., security policy model with top-level specification, top-level specification with source code, or source code with object code).
  1239.  
  1240. Note: Verification may be formal or informal, or automated or not automated.  Formal verification is the process of using formal proofs (complete mathematical argument) to demonstrate the consistency between formal specification of a system and formal security policy model (design verification) or between formal specification and its high-level program implementation (implementation verification).  Formal implies using a formal mathematical language.
  1241.  
  1242. Vulnerability
  1243. A weakness in an information system or component (e.g., security procedures, hardware design, internal controls) that could be exploited.
  1244.  
  1245. Waiver
  1246. With respect to C&A, a waiver implies that a security requirement has been set aside and need not be implemented at all. (See Exception.)
  1247.  
  1248.  
  1249.  
  1250.  
  1251.  
  1252.  
  1253.  
  1254.  
  1255. 4 6
  1256.  
  1257. APPENDIX B
  1258.  
  1259. Identifying The Appropriate DAA
  1260.  
  1261.  
  1262. The DAA for a given system is determined based on several factors: the type of information processed (e.g., SCI, SIOP-ESI, collateral), the office of primary responsibility (owner) of the system, and interconnections with separately accredited networks or systems.  For some types of information, a single accrediting authority exists (the data owner), regardless of the system owner.  However, for other information, the accreditor is determined primarily by the owner of the system.  For example, in a system processing collateral information, the services/agencies may accredit the system.
  1263.  
  1264. In addition, the applicable security policies for a given system depend on the accrediting authority.  A high-level mapping from the identified DAA for a system to the applicable security policies can be made.  When a system has a single DAA, this mapping is simple.  The DAA is generally aware of the appropriate service/agency (and DoD-level) policies that govern the system under his or her jurisdiction.  However, when multiple DAAs are involved, this mapping of DAA to applicable policies can be more complex.  When the DAAs are from other organizations, in particular from other services/agencies, the responsible individuals cannot be expected to be aware-of the governing policies from other organizations.  Systems that come under the responsibility of multiple accreditors may be subject to the requirements from the policies of all participating organizations.  These policies must be clearly identified and documented (in the MOA) early in the C&A process.
  1265.  
  1266. Tables B-1 and B-2 identify the appropriate DAA and applicable policies for the services/ agencies.  Service/agency policies should be consulted for details about authority to delegate accreditation responsibilities.  Before connecting to a separately accredited network, the DAA of the system requesting connection must consider the additional risks of operation associated with connection.  In addition, the DAA of the network will need to consider the security posture of the system requesting connection before allowing a connection to be made.  The requesting system will have to comply with any additional security requirements of the network system before interconnecting.  Table B-3 identifies the applicable policies, security mode of operation, and DAA(S) for the following separately accredited networks.  Tables B-1, B-2, and B-3 appear at the end of this appendix.
  1267.  
  1268. AUTODIN/DMS
  1269.  
  1270. Military Network (MILNET)
  1271.  
  1272.  
  1273. 4 7
  1274.  
  1275.  
  1276.  
  1277. in
  1278.  
  1279.  
  1280.  
  1281.  
  1282.     Defense Secure Network 1 (DSNETI)
  1283.  
  1284. *    Defense Secure Network 2 (DSNET2) or the Top Secret WWMCCS Information Network Computer System (WINCS)
  1285.  
  1286. ╖    Defense Secure Network 3 (DSNET3) or the Sensitive Compartmented Information Network (SCINET)
  1287.  
  1288. ╖    Defense Information Systems Network (DISN)
  1289.  
  1290. ╖    Integrated Tactical Strategic Data Network (ITSDN)
  1291.  
  1292. ╖    Critical Intelligence Communications (CRITICOMM) System
  1293.  
  1294. ╖    Special Intelligence Communication (SPINTCOM) Network
  1295.  
  1296. ╖    STU-111 (Secure Telephone Unit-111)
  1297.  
  1298. ╖    Red Switch
  1299.  
  1300.  
  1301.  
  1302.  
  1303.  
  1304.  
  1305.  
  1306.  
  1307. 4 8
  1308.  
  1309. Table B-1.  Identification of Service DAAs and Applicable Policies
  1310.  
  1311.  
  1312. Type of information processed
  1313. Applicable policy(ies)
  1314. Navy DAA
  1315.  
  1316. Marine corps DAA
  1317. Army DAA
  1318. Air Force DAA
  1319. Special intelligence(all classification levels)
  1320. NSA/CSS 10.27 NSA/CSS 90-5
  1321. NSA/Central Security Service (CSS)
  1322. NSA/CSS
  1323. NSA/CSS
  1324. NSA/CSS
  1325. Sensitive Compartmented Information (SCI)
  1326. (All classification levels)
  1327. DCID 1/16
  1328. DCID 1/19
  1329. DIAM 50-3
  1330. DIAM 50-4
  1331. DIA/DS-SIM
  1332. DNI
  1333. DIA/DS-SIM
  1334. Director, Intelligence Div. (CMC Code INT)
  1335. DIA/DS-SIM MACOM Commander, heads of DA staff agencies (dedicated mode); HQDA (DAMI-CIC-AS)
  1336. DIA/DS-SIM HQ
  1337. USAF/INS, AFIS/IND
  1338. SIOP-ESI 
  1339. (ALL classification levels)
  1340. MJCS 75-87
  1341. JCS/J36; coordinate with Chief of Naval Operations (CNO)
  1342. JCS/J36; coordinate with CNO
  1343. JCS/J36; coordinate with HQDA (DAMI-CIC-AS)
  1344. JCS/J36; coordinate with HQ
  1345. USA/XOX
  1346. Top Secret 
  1347. (All classification levels)
  1348. DoD Policies*, Appropriate Service Policies**
  1349. Commander
  1350. CMC (Code CC)
  1351. MACOM Commander, Heads of DA Staff Agencies
  1352. MAJCOM Commander
  1353. Secret/
  1354. Confidential (All classification levels)
  1355. DoD Policies*, Appropriate Service Policies**
  1356. Commander
  1357. Commanding General
  1358. MACOM Commander, Heads of DA Staff Agencies, General Officer  Commanders
  1359. MAJCOM Commander
  1360. Sensitive Unclassified
  1361. DoD Policies* Appropriate Service Policies**
  1362. Commander
  1363. Director of AIS Activity
  1364. Post, installation, or field operation or staff support activity commanders or equivalent
  1365. MAJCOM Commander
  1366.  
  1367. DoD policies        include DODD 5200.28, 5200.28-STD, 5200.28-M, and other DoD policies for each security discipline, as listed in section 4.1.2.
  1368.  
  1369. Appropriate  service/agency  policies  include  the  primary
  1370.  
  1371. service/agency policy as listed in Appendix C and other service/agency or command-level policies, as appropriate, in the other security disciplines.
  1372.  
  1373.  
  1374. 49
  1375.  
  1376. Table     B-2.             Identification  of Other  Agency  DAAs
  1377.  
  1378.  
  1379. Type of Information processed
  1380. Applicable Policy(ies)
  1381. DIA DAA
  1382. NSA DAA
  1383. DISA 
  1384. DAA
  1385. JCS 
  1386. DAA
  1387. DLA DAA
  1388. DMA DAA
  1389. DNA DAA
  1390. other agency DAA
  1391. Special Intelligence (all classification levels)
  1392. NSA/CSS 10-27
  1393. NSA/CSS 90-5
  1394. NSA/ Central security service (CSS)
  1395. NSA/
  1396. CSS
  1397. NSA/
  1398. CSS
  1399. NSA/
  1400. CSS
  1401. NSA/
  1402. CSS
  1403. NSA/
  1404. CSS
  1405. NSA/
  1406. CSS
  1407. NSA/
  1408. CSS
  1409. Sensitive compartmented Information (SCI) (all classification levels)
  1410. DCID 1/16 DCID 1/19 DIAM 50-3
  1411. DIA/ DS-SIM
  1412. DIA/
  1413. DS-SIM
  1414. DIA/
  1415. DA-SIM
  1416. DIA/
  1417. DA-SIM
  1418. DIA/
  1419. DA-SIM
  1420. DIA/
  1421. DA-SIM
  1422. DIA/
  1423. DA-SIM
  1424. DIA/
  1425. DA-SIM
  1426. SIOP-ESI
  1427. (All classification levels)
  1428. MJCS 75-87
  1429. JCS/J36; coordinate with 
  1430. DS-SIM
  1431. JCS/J36; coordinate with JO6
  1432. JCS/J36
  1433. JCS/J36
  1434. JCS/J36; coordinate with 
  1435. DLA-I
  1436. JCS/J36; coordinate with HQ-IS
  1437. JCS/J36
  1438. JCS/J36
  1439. Top Secret 
  1440. (All classification levels)
  1441. DoD policies*, appropriate Agency Policies**
  1442. DIA/
  1443. DS-SIM
  1444. NSA/Office of Operational Computer Security
  1445. Director, DISA
  1446. Director Joint Staff or Director J6
  1447. Deputy Director/
  1448. PLFA commander
  1449.  
  1450. HQDNA
  1451.  
  1452. Secret/
  1453. confidential (All classification levels)
  1454. DoD policies*, appropriate Agency Policies**
  1455. DIA/
  1456. DS-SIM
  1457. NSA/Office of Operational Computer Security
  1458. Director, DISA
  1459. Director Joint Staff or Director J6
  1460. Deputy Director/
  1461. PLFA
  1462.  
  1463. Appropriate 
  1464. DAA
  1465.  
  1466. Sensitive Unclassified
  1467. DoD policies*, Appropriate Agency Policies**
  1468. DIA/
  1469. DS-SIM
  1470. NSA/Office of Operational Computer Security
  1471. Director 
  1472. DISA
  1473. Director Joint Staff or Director J6
  1474. Deputy Director/ 
  1475. PLFA
  1476.  
  1477. Appropriate
  1478. DAA
  1479.  
  1480.  
  1481.  
  1482. DoD policies include DODD 5200.28, 5200.28-STD, 5200.28-M, and other DoD policies for each security discipline, as listed in section 4.1.2.
  1483.  
  1484. Appropriate service/agency policies include the primary service/agency policy as listed in Appendix C and other service/agency or command-level policies, as appropriate, in the other security disciplines.
  1485.  
  1486.  
  1487.  
  1488.  
  1489.  
  1490.  
  1491.  
  1492.  
  1493. 5   0
  1494.  
  1495. Table B-3.            DAAs for Separately Accredited Networks
  1496.  
  1497.     Applicable    Security Mode    DAA(s)***
  1498.     Policies    of Operation
  1499. Network
  1500. AUTODIN/    DCAC 370-195-3    Multilevel    DISA/DA
  1501. DMS            DIA/DS-SIM
  1502.             JCS/(DJS/J6)
  1503.             NSA/Office of
  1504.             Operational Security
  1505. DSN        System   High    DISA
  1506. MILNET    DoD Policies'    System   High    DISA/DA
  1507. DSNET1    DoD Policies*    System   High    DISA/DA
  1508. DSNET2    DoD Policies*    System   High    JCS/J6
  1509. DSNET3    DCID 1/16**    System   High    DIA/DS-SIM
  1510. DISN        System   High    DISA
  1511. ITSDN        Multiple System    DISA/DIA/NSA/JCS
  1512.         High Nets
  1513. CRITICOMM    NSA Policies    System   High    NSA/Office of
  1514.             Operational Security
  1515. SPINTCOM    DCID 1/16'    System   High    DIA/DS-SIM
  1516. STU III        Multilevel    NSA
  1517. Red Switch    DCID 1/16    System   High    DIA
  1518.     I DODD C-5030.58
  1519.  
  1520.  
  1521. DoD policies include DODD 5200.28, 5200.28-STD, 5200.28-M, and other DoD policies for each security discipline, as listed in section 4.1.2.
  1522.  
  1523. Includes DCI policies for the other security disciplines as well.
  1524.  
  1525. For some networks, the DAA(S) depends on the accreditation range of the network.        The applicable policy(ies) should be consulted for additional information in this area.
  1526.  
  1527.  
  1528.  
  1529.  
  1530.  
  1531.  
  1532.  
  1533.  
  1534. 5  1
  1535.  
  1536. APPENDIX  C
  1537.  
  1538. DOD COMPONENT AIS SECURITY POLICIES
  1539.  
  1540.  
  1541. The following list identifies selected DoD references in some INFOSEC security disciplines.  Each service/agency has its own security regulations that implement DODD 5200.28 and the other DoD policies for each security discipline.  The primary service/agency security policies are the following:
  1542.  
  1543. ╖    DoD, 7 June 1982, Information Security Program, DODD 5200.1, and June 1986, with Change No.1, 27 June 1988, Information Security Program Regulation, Do D 5200.1 - R [ 1 9].
  1544.  
  1545. ╖    DoD, October 1981, Communications Security (COMSEC) (U), DODD C-5200.5, (This document is classified.) 20].
  1546.  
  1547. ╖    DoD, February 1990, Control of Compromising Emanations (U), DODD C-5200.19, (This document is classified.) [5].
  1548.  
  1549. ╖    NSA/Central Security Service (CSS), December 1990, TEMPEST Security Program, NSA/CSS Regulation 90-5 [21].
  1550.  
  1551. ╖    NTISSC, October 1988, TEMPEST Countermeasures for Facilities (U), NTISS Instruction (NTISSI) 7000, (This document is classified.) [22].
  1552.  
  1553. ╖    DoD, July 1980, Security of Military Installations and Resources, DODD 5200.8 [23].
  1554.  
  1555. ╖    DoD, April 1984, Security of DoD Communications Facilities, DODD 5210.73 [24].
  1556.  
  1557. ╖    DIA, Physical Security Standards for Construction of Sensitive Compartmented Information Facilities (U), DIA Manual (DIAM) 50-3, (For Official Use Only (FOUO)) [25].
  1558.  
  1559. ╖    DCI, September 1987, U.S. Intelligence Community Physical Standards for Sensitive Compartmented Information, DC ID 1/1 2 [26].
  1560.  
  1561. ╖    DoD, December 1979, DoD Personnel Security Program, DODD 5200.2 [27].
  1562.  
  1563. 5 3
  1564.  
  1565. ╖    DCI, April 1986, Minimum Personnel Security Standards and Procedures Governing Eligibility for Access to Sensitive
  1566. Compartmented Information, DC ID 1/1 4 [28].
  1567.  
  1568. *    DoD, July 1983, DoD Operations Security Program, DODD 5205.2 [29].
  1569.  
  1570. *    DoD, September 1986, Computer Security Technical Vulnerability Reporting Program, DoD Instruction 5215.2 [30].
  1571.  
  1572. *    DoD, July 1978, Defense Special Security Communications System: Security Criteria and Telecommunications Guidance,
  1573. DoD C-5030.58-M [31].
  1574.  
  1575. ╖    Defense Communications Agency (DCA), March 1987, DCS AUTODIN Category /// Operational Acceptance Test, DCA Circular (DCAC) 370-Dl95-3 [32].
  1576.  
  1577. *    DoD, December 1985, Industrial Security Regulation, DODD 5220.22-R [33], and January 1991, Industrial Security Manual for Safeguarding Classified Information, DoD 5220.22-M (34] (issued under the authority of DODD 5220.22, DoD Industrial Security Program, December 1980).
  1578.  
  1579. *    Department of the Air Force, 2 June 1992, The Air Force Computer Security (COMPUSEC) Program, Air Force System Security Instruction (AFSSI) 5100.[35]
  1580.  
  1581. ╖    Department of the Air Force, May 1983, Control of Dissemination of Intelligence Information, AFR 205-19 [36].
  1582.  
  1583. *    Department of the Navy, November 1989, Department of the Navy Automated Information Systems (AIS) Security Program, Secretary of the Navy Instruction (SECNAVINST) 5239.2 [37] (under revision as of date of this document).
  1584.  
  1585. ╖    Department of the Navy, April 1985, Department of the Navy Automated Data Processing Security Program, Office of the Chief of Naval Operations Instruction (OPNAVINST) 5239.l A [38].
  1586.  
  1587. ╖    Department of the Navy, July 1990, Department of the Navy SCIlIntelligence, Automated Information Systems (AIS) Security Program, Naval Intelligence Command Instruction (NAVINTCOMINST) 5239.3 [39].
  1588.  
  1589. ╖    Marine Corps, 1982, Marine Corps Automatic Data Processing Security Manual, Marine Corps Order (MCO) Publication 5510.14,
  1590. Change 1 [40].
  1591.  
  1592. Department of the Army, August 1990, Information Systems Security, AR 380-19 [7].
  1593.  
  1594. 5 4
  1595.  
  1596. *    Defense Intelligence Agency (DIA), 1980, Security of Compartmented Computer Operations (U), DIA Manual (DIAM) 50-4,
  1597. (This document is classified.) [41].
  1598.  
  1599. ╖    DIA, March 1979, Security Requirements for Automatic Data Processing (ADP) Systems, DIA Regulation 50-23 [42].
  1600.  
  1601. ╖    NSA, January 1990, Security for Automated Information Systems and Networks (U), NSA/Central Security Service (NSA/CSS) Directive No. 10-27, (FOUO) [43].
  1602.  
  1603. ╖    NSA, 17 October 1990, NSAICSS Operational Computer Security Manual, NSA/CSS Manual 130-1 [44].
  1604.  
  1605. ╖    Joint Chiefs of Staff (JCS), April 1988, Security Policy for the WWMCCS Intercomputer Network, JCS Pub 6-03.7 (applies to all Worldwide Military Command and Control Systems (WWMCCS) sites) [45].
  1606.  
  1607. *    JCS, May 87, Safeguarding the Single Integrated Operational Plan (U), Memorandum, JCS (MJCS) 75-87 (applies to all systems processing SIOP-ESI), (This document is classified.) [46] (under revision as of date of this document).
  1608.  
  1609. *    DCI, February 1987, Security Policy for Sensitive Compartmented Information, DC ID 1/1 9 [47].
  1610.  
  1611. ╖    Defense Information Systems Agency (DISA), August 1991, Security Requirements for Automated Information Systems (AlSs), DCA Instruction 630-230-19 [48].
  1612.  
  1613. *    Defense Mapping Agency (DMA), July 1990, Automated Information Systems Security Requirements, DMA Manual 5200.28 [49] (under revision as of date of this document).
  1614.  
  1615. Defense Nuclear Agency (DNA), 31 August 1989, Security
  1616. Requirements for Automated Information Systems (AlSs), DNA 5200.28D [50] (under revision as of date of this document).
  1617.  
  1618. Defense Logistics Agency (DLA), October 1991, Security Requirements for Automated Information and Telecommunications Systems, DLA Regulation (DLAR) 5200.17 [51].
  1619.  
  1620.  
  1621.  
  1622.  
  1623.  
  1624.  
  1625.  
  1626. 5 5
  1627.  
  1628. APPENDIX D
  1629.  
  1630. ACRONYMS
  1631.  
  1632. ADP            Automatic Data Processing
  1633. AF            Air Force
  1634. AFR            Air Force Regulation
  1635. AFSSI                   Air Force System Security Instruction
  1636. AIS            automated information system
  1637. AR            Army Regulation
  1638. AUTODIN        Automatic Digital Network
  1639.  
  1640. C&A            certification and accreditation
  1641. CAP            component approval process
  1642. cmc            Commandant, Marine Corps
  1643. cmw            compartmented mode workstation
  1644. CMWEC        CMW Evaluation Criteria
  1645. CNO            Chief of Naval Operations
  1646. COMPUSEC        computer security
  1647. COMSEC        communications security
  1648. CONOPS        concept of operation
  1649. COTS            commercial off-the-shelf
  1650. CRITICOMM    Critical Intelligence Communications
  1651. CSS            Central Security Service (of NSA)
  1652.  
  1653. DA            Department of the Army
  1654. DAA            Designated Approving Authority
  1655. DBMS        database management system
  1656. DCA            Defense Communications Agency (now DISA)
  1657. DCAC        DCA Circular
  1658. DCI            Director of Central Intelligence
  1659. DCID            DCI Directive
  1660. DES            Data Encryption Standard
  1661. DIA            Defense Intelligence Agency
  1662. DIAM            DIA Manual
  1663. DISA            Defense Information Systems Agency
  1664. DISN            Defense Information Systems Network
  1665. DLA            Defense Logistics Agency
  1666. DLAR            DLA Regulation
  1667. DMA            Defense Mapping Agency
  1668. DMS            Defense Message System
  1669. DNA            Defense Nuclear Agency
  1670.  
  1671. 5 7
  1672.  
  1673. DNI            Director of Naval Intelligence
  1674. DoD                           Department of Defense
  1675. DoDD                        DoD Directive
  1676. DPL                           Degausser Products List
  1677. DSNET1                    Defense Secure Network 1
  1678. DSNET2        Defense Secure Network 2
  1679. DSNET3        Defense Secure Network 3
  1680.  
  1681. EO                             Executive Order
  1682. EPL                           Evaluated Products List
  1683. ETL            Endorsed Tools List
  1684.  
  1685. FIPS PUB        Federal Information Processing Standard Publication
  1686. FOUO                        For Official Use Only
  1687. FSRS            Functional Security Requirements for a Telecommunications System
  1688.  
  1689.  
  1690. HQDA            Headquarters, Department of the Army
  1691. HODNA        Headquarters, Defense Nuclear Agency
  1692.  
  1693. IC            Intelligence Community
  1694. INFOSEC        information systems security
  1695. ISSWG        Information System Security Working Group
  1696. ITSDN                   Integrated Tactical Strategic Data Network
  1697. IV&V            independent verification and validation
  1698.  
  1699. JCS            Joint Chiefs of Staff
  1700.  
  1701. LAN            local area network
  1702.  
  1703. MACOM        Major Command (Army)
  1704. MAJCOM        Major Command (Air Force)
  1705. MCO                          Marine Corps Order
  1706. MILNET                    Military Network
  1707. MJCS            Memorandum, JCS
  1708. MLS            multilevel secure
  1709. MOA            Memorandum of Agreement
  1710.  
  1711. NAVINTCOMINST     Naval Intelligence Command Instruction
  1712. NCSC            National Computer Security Center or National Communications Security Committee
  1713. NIST            National Institute of Standards and Technology
  1714. NSA                           National Security Agency
  1715. NSD            National Security Directive
  1716. NSTISS        National Security Telecommunications and Information Systems Security
  1717. NTISS                   National Telecommunications and Information's Systems Security
  1718.  
  1719. 5 8
  1720.  
  1721. NTISSI        National Telecommunications and Information's Systems Security Instruction
  1722.  
  1723. OMB                       Office of Management and Budget
  1724. OPNAVINST          Office of the Chief of Naval Operations Instruction
  1725. OPSEC                    operations security
  1726. OSD            Office of the Secretary of Defense
  1727.  
  1728.  
  1729.  
  1730. PC                           personal computer
  1731. PLFA                      Primary-Level Field Activity
  1732. PM                          Program Manager
  1733. PPL            Preferred Products List
  1734.  
  1735. RFP            Request for Proposal
  1736.  
  1737. SCI            Sensitive Compartmented Information
  1738. SCINET                   Sensitive Compartmented Information Network
  1739. SECNAVINST        Secretary of the Navy Instruction
  1740. SIOP-ESI              Single Integrated Operational Plan-Extremely Sensitive Information
  1741. SPINTCOM            Special Intelligence Communication
  1742. STU-111              Secure Telephone Unit-III
  1743.  
  1744.  
  1745. TCB                        Trusted Computing Base
  1746. TCSEC                    Trusted Computer System Evaluation Criteria
  1747. TECHSEC               technical security
  1748. TEMPEST               Transient Electromagnetic Pulse Emanation Standard 
  1749. TNI                          Trusted Network Interpretation
  1750. TRANSEC               transmission security
  1751. TSCM                      technical surveillance countermeasures
  1752.  
  1753. u                              Unclassifieds
  1754. U.S.                         United States
  1755. USA                        United States Army
  1756. USAF                      United States Airforce
  1757. USN                  United States Navy
  1758.  
  1759. WAN                  wide area network
  1760. WINCS                   WWMCCS Information Network Computer System
  1761. wwmccs              Worldwide Military Command and Control System
  1762.  
  1763.  
  1764.  
  1765.  
  1766.  
  1767.  
  1768.  
  1769.  
  1770. 59
  1771.  
  1772. APPENDIX E
  1773.  
  1774. List of References
  1775.  
  1776. 1.    Department of Defense (DoD), 21 March 1988, Security Requirements for Automated Information Systems (AlSs), DoD Directive 5200.28.
  1777.  
  1778. 2.    DoD, December 1985, Department of Defense Trusted Computer System Evaluation Criteria, DoD 5200.28-STD.
  1779.  
  1780. 3.    Defense Intelligence Agency (DIA), June 1991, Compartmented Mode Workstation Evaluation Criteria, Version 1 (CMWEC), document number DDS-2600-6243-91.
  1781.  
  1782. 4.    NSA, 2 June 1991, NSA Specification for General Functional Security Requirements for a Telecommunications System, (FSRS)(U). (This document is classified.)
  1783.  
  1784. 5.    DoD, February 1990, Control of Compromising Emanations (U), DODD C-5200.19, (This document is classified.)
  1785.  
  1786. 6.    DCI, 19 July 1988, Security Policy for Uniform Protection of Intelligence Processed in Automated Information Systems and Networks (U), DCID 1/1 6, (This document is classified.), and security Manual for Uniform Protection of Intelligence Processed in Automated Information Systems and Networks (U), supplement to DCID 1/16, (This document is classified).
  1787.  
  1788. 7.    Department of the Army, August 1990, Information Systems Security, AR 380-19.
  1789.  
  1790. 8.    Office of the President, July 1990, National Policy for the Security of National Security Telecommunications and Information Systems (U), (This document is classified.).
  1791.  
  1792. 9.    Executive Order 12356, 2 April 1982, National Security Information.
  1793.  
  1794. 1    0Executive Order 12333, 4 December 1981, United States Intelligence Activities.
  1795.  
  1796. 11.    Office of Management and Budget (OMB), 12 December 1985, Management of Federal Information Resources, OMB Circular No. A-1 30. (Revision currently in process.).
  1797.  
  1798. 12.    National Institute of Standards and Technology (NIST), 27 September 1983, Guideline for Computer Security Certification and Accreditation, FIPS PUB 102.
  1799.  
  1800. 6 1
  1801.  
  1802. 13.    Public Law 100-235, 101 STAT. 1724, 8 January 1988, Computer Security Act of 1987
  1803.  
  1804. 14.    National Computer Security Center, 31 July 1987, Trusted Network Interpretation of the Trusted Computer System Evaluation Criteria, NCSC-TG-005, Version-1.
  1805.  
  1806. 15.    DoD, January 1973, Automated information System Security Manual, DoD 5200.28-M. (Revision currently in process.).
  1807.  
  1808. 16.    NSA, Information Systems Security Products and Services Catalogue (INFOSEC Catalog).
  1809.  
  1810. 17.    NIST, April 1982, General Security Requirements for Equipment Using the Data Encryption Standard, Federal Standard 1027.
  1811.  
  1812. 18.    Title 5, U.S. Code, Section 552a, Privacy Act of 1974.
  1813.  
  1814. 19.    DoD, 7 June 1982, Information Security Program, DoD Directive
  1815. 5200.1, and June 1986, with Change No. 1, 27 June 1988, Information Security Program Regulation, Do D 5200.1 -R.
  1816.  
  1817. 20.    DoD, October 1981, Communications Security (COMSEC) (U), DODD C-5200.5, (This document is classified.).
  1818.  
  1819. 21.    NSA/CSS, December 1990, TEMPEST Security Program, NSA/CSS Regulation 90-5.
  1820.  
  1821. 22.    NTISSC, October 1988, TEMPEST Countermeasures for Facilities (U), NTISSI 7000, (This document is classified.).
  1822.  
  1823. 23.    DoD, July 1980, Security of Military Installations and Resources, DODD 5200.8.
  1824.  
  1825. 24.    DoD, April 1984, Security of DoD Communications Facilities, DODD 5210.73.
  1826.  
  1827. 25.    DIA, Physical Security Standards for Construction of Sensitive Compartmented Information Facilities (U), DIAM 50-3, (This document is for official use only.).
  1828.  
  1829. 26.    DCI, September 1987, US.  Intelligence Community Physical Standards for Sensitive Compartmented Information, DCID 1/12.
  1830.  
  1831. 27.    DoD, December 1979, DoD Personnel Security Program, DODD 5200.2.
  1832.  
  1833. 28.    DCI, April 1986, Minimum Personnel Security Standards and Procedures Governing Eligibility for Access to Sensitive Compartmented Information, DCID 1/14.
  1834.  
  1835. 29.    DoD, July 1983, DoD Operations Security Program, DODD 5205.2.
  1836.  
  1837. 6 2
  1838.  
  1839. 30.    DoD, September 1.986, Computer Security Technical Vulnerability Reporting Program, DoD Instruction 5215.2.
  1840.  
  1841. 31.    DoD, July 1978, Defense Special Security Communications System: Security Criteria and Telecommunications Guidance, DoD C-5030.58-M.
  1842.  
  1843. 32.    DCA, March 1987, DCS A UTODIN Category /// Operational Acceptance Test, DCAC 370-Dl95-3.
  1844.  
  1845. 33.    DoD, December 1985, Industrial Security Regulation, DoD Regulation 5220.22-R.
  1846.  
  1847. 34.    DoD, January 1991, Industrial Security Manual for Safeguarding Classified Information, DoD 5220.22-M.
  1848.  
  1849. 35.    Department of the Air Force, 2 June 1992, The Air Force Computer Security (COMPUSEC) Program, AFSSI 51 00.
  1850.  
  1851. 36.    Department of the Air Force, May 1983, Control of Dissemination of Intelligence Information, AFR 205-19.
  1852.  
  1853. 37.    Department of the Navy, November 1989, Department of the Navy Automated Information Systems (AIS) Security Program, SECNAVINST 5239.2.
  1854.  
  1855. 38.    Department of the Navy, April 1985, Department of the Navy Automatic Data Processing Security Program, OPNAVINST 5239.1 A.
  1856.  
  1857. 39.    Department of the Navy, July 1990, Department of the Navy SCIlIntelligence, Automated Information System (AIS) Security Program, NAVINTCOMINST 5239.3.
  1858.  
  1859. 40.    Marine Corps, 1982, Marine Corps Automatic Data Processing Security Manual, MCO P5510.14, Change 1.
  1860.  
  1861. 41.    DIA, 1980, Security of Compartmented Computer Operations (U), DIAM 50-4, (This document is classified.).
  1862.  
  1863. 42.    DIA, March 1979, Security Requirements for Automatic Data Processing (ADP) Systems, DIA Regulation 50-23.
  1864.  
  1865. 43.    NSA, January 1990, Security for Automated Information Systems and Networks (U), NSA/CSS Directive No. 10-27, (This document is for official use only.).
  1866.  
  1867. 44.    NSA, 17 October 1990, NSAICSS Operational Computer Security Manual, NSA/CSS Manual 130-1.
  1868.  
  1869. 45.    JCS, April 1988, Security Policy for the WWMCCS Intercomputer Network, JCS Pub 6-03.7.
  1870.  
  1871.  
  1872. 6 3
  1873.  
  1874. 46.    JCS, May 1987, Safeguarding the Single Integrated Operational Plan (U), MJCS 75-87, (This document is classified) (under revision as of date of this document).
  1875.  
  1876. 47.    DCI, February 1987, Security Policy for Sensitive Compartmented Information, DCID 1/19.
  1877.  
  1878. 48.    Defense Information Systems Agency (DISA), August 1991, Security Requirements for Automated Information Systems (AlSs), DCA Instruction 630-230-19.
  1879.  
  1880. 49.    Defense Mapping Agency (DMA), July 1990, Automated Information Systems Security Requirements, DMA Manual 5200.28 (under revision as of date of this document).
  1881.  
  1882. 50.    Defense Nuclear Agency (DNA), 31 August 1989, Security Requirements for Automated Information Systems (AlSs), DNA 5200.28D (under revision as of date of this document).
  1883.  
  1884. 51.    Defense Logistics Agency (DLA), October 1991, Security Requirements for Automated Information and Telecommunications Systems, DLA Regulation (DLAR) 5200.17.
  1885.  
  1886.  
  1887.  
  1888.  
  1889.  
  1890.  
  1891.  
  1892.  
  1893. 6 4
  1894.  
  1895. PUBLICATION    INFORMATION
  1896.  
  1897. Single copies of this document may be obtained by contacting:
  1898.  
  1899. DIRECTOR
  1900. National Security Agency
  1901. ATTN: INFOSEC Awareness Division
  1902. Fort George G. Meade, MD 20755-6000
  1903.  
  1904. (-410) 766-8729
  1905.  
  1906.  
  1907. Multiple copies may be obtained by contacting:
  1908.  
  1909. Superintendent of Documents
  1910. U.S. Government Printing office
  1911. Washington, D.C.  20402
  1912. (202) 783-3238
  1913. (Mastercard and Visa are accepted)
  1914.  
  1915.  
  1916. For further assistance or information write to:
  1917.  
  1918. ATTN:  X8
  1919. National Security Agency
  1920. 9800 Savage Road
  1921. Ft. George G. Meade, MD  20755-6000
  1922.  
  1923. REPORT DOCUMENTATION PAGE
  1924.  
  1925. Form Approved
  1926.  
  1927. OMB No. 0704-0188
  1928.  
  1929. Public reporting burden for this collection of information is estimated to average 1 hour per response, including the time for reviewing instructions, searching existing data sources, gathering and maintaining the data needed, and completing and reviewing the collection of information.  Send comments regarding twos burden estimate or any other aspect of this co, ection of Information, including suggestionsfor reducing this burden, to Washington Headquarters Services, Directorate for Information Operations and Reports, 1215 Jefferson Davis Highways, Suite 1204, Arlington, VA 222024302, and tothqioffice of Management and Budget, Paperwork Reduction Project (0704-0188), Washington, DC 20503.
  1930.  
  1931. 1.    AGENCY USE ONLY (Leave blank)
  1932.  
  1933.  
  1934. 4.    TITLE AND SU131 ITLE
  1935.  
  1936. 2. REPORT DATE
  1937. ljanuary 1994
  1938.  
  1939. Introduction to Certification and Accreditation
  1940.  
  1941.  
  1942. 6. AUTHOR(S)
  1943.  
  1944.  
  1945.  
  1946. 7. PERFORMING ORGANIZATION NAME(S) AND ADDRESS(ES)
  1947. National Security Agency
  1948.  
  1949. Attention: Standards, Criteria, and Guidelines Division
  1950. 9800 Savage Road
  1951. Fort George G. Meade, MD 20755-6000
  1952.  
  1953. 9@ SPONSORING/MONITORING AGENCY NAME(S) AND ADDRESS(ES) National Security Agency 9800 Savage Rd.
  1954.  
  1955. Ft. Meade MD 20755-6000
  1956.  
  1957.  
  1958. 1 1. SUPPLEMENTARY NOTES
  1959.  
  1960.  
  1961.  
  1962.  
  1963.  
  1964. 12a.  DISTRIBUTION/AVAILABILITY STATEMENT
  1965. Approved for Public Release: Unlimited Distribution
  1966.  
  1967.    RE ORT TYPE AND DATES COVERED
  1968. tfinapi
  1969.  
  1970. 5.    FUNDING NUMBERS
  1971.  
  1972.  
  1973.  
  1974.  
  1975.  
  1976.  
  1977.  
  1978.  
  1979. 8.    PERFORMING ORGANIZATION REPORT NUMBER
  1980. NCSC-TG-029
  1981. Version 1
  1982.  
  1983.  
  1984. 10.    SPONSORING/MONITORING AGENCY REPORT NUMBER
  1985. Library No., S-239,954
  1986.  
  1987.  
  1988.  
  1989.  
  1990.  
  1991.  
  1992.  
  1993.  
  1994. 12b.  DISTRIBUTION CODE
  1995.  
  1996.  
  1997.  
  1998.  
  1999.  
  2000.  
  2001. 13.  ABSTRACT (Maximum 200 words)
  2002.  
  2003. This document, which provides an introduction to certification and accreditation (C&A), rovides an introductory discussion of some basic concepts related to C&A and sets the @aselineforfurtherdocuments.  Itsobjectivesarethefollowing: (1)toprovideanoverview of C&A; (2) to clarify the critical roles the Designated Approving Authority (DAA) and other key security officials- must assume throughout the C&A process; (3) to identify some key policy issue areas; and (4) to define C&A-related terms.  The details of the actual C&A process are not included in this document, but will be provided in follow-on documents.
  2004.  
  2005.  
  2006.  
  2007.  
  2008.  
  2009.  
  2010.  
  2011.  
  2012. 14. SUBJECT TERMS    15- NUMBER OF PAGES
  2013. Certification, Accreditation, Designated Approving Authority (DAA),    76
  2014.  
  2015. INFOSEC, Security policy, Computer Security    16. PRICE CODE
  2016.  
  2017.  
  2018. 17. SECURITY CLASSIFICATION     18, SECURITY CLASSIFICATION    19     ECURITYCLASSIFICATION    20. LIMITATION OF  ABSTRACT
  2019.    OF REPORT    OF THIS PAGE    OF ABSTRACT
  2020. UNCLASSIFIED    UNCLASSIFIED    UNCLASSIFIED
  2021.  
  2022.             Standard Form 298 (Rev. 2-89)
  2023.             Prescribed by ANSI Std. Z39-18
  2024.  
  2025.  
  2026.  
  2027.  
  2028.  
  2029.  
  2030.  
  2031.  
  2032. 298- 102
  2033.  
  2034.  
  2035.  
  2036.