home *** CD-ROM | disk | FTP | other *** search
/ Hackers Toolkit v2.0 / Hackers_Toolkit_v2.0.iso / HTML / archive / Rainbow / ncsc / dredncsc.txt < prev    next >
Text File  |  1999-11-04  |  122KB  |  2,623 lines

  1. NCSC-TG-11 
  2.  
  3. Library No. 5-235,465 
  4.  
  5. Version 1 
  6.  
  7. TRUSTED NETWORK INTERPRETATION ENVIRONMENTS
  8. GUIDELINE
  9.  
  10. FOREWORD
  11.  
  12. The National Computer Security Center is issuing the Trusted Network
  13. Interpretation Environments Guideline as part of our Technical Guidelines
  14. Program, through which the "Rainbow Series" is produced. The Technical
  15. Guidelines Program ensures that the features of the Trusted Computer
  16. Systems Evaluation Criteria (DOD 5200.28-STD) are discussed in detail and
  17. that guidance is provided for meeting each requirement. The National
  18. Computer Security Center, through its Trusted Product Evaluation Program,
  19. analyses the security features of commercially produced and supported
  20. computer systems. Together, these programs ensure that organisations are
  21. capable of protecting their important data with trusted computer systems. 
  22.  
  23. The Trusted Network Interpretation Environments Guideline is a companion
  24. to the Trusted Network Interpretation of the. Trusted Computer System
  25. Evaluation Criteria (NCSC-TG-O5), published 31 July 1987. The Trusted
  26. Network Interpretation Environments Guideline provides insight into the
  27. issues relevant when integrating, operating, and maintaining trusted
  28. computer networks. This document identifies the minimum security
  29. protection required in different network environments such that network
  30. certifiers, integrators, and accreditors can determine what protection
  31. mechanisms and assurances are mmimally required in specific network
  32. environments. 
  33.  
  34. This document parallels Computer Security Requirements - Guidance for
  35. Applying the Department of Defense Trusted Computer System Evaluation
  36. Criteria in Specific Environments (CDC-STD-O3-85) and its technical
  37. rationale (CSC-STD-04-85). It also provides a descriptive presentation of
  38. the security issues that exist in networked computer systems as the
  39. networked computer system environment is inherently more complex and
  40. requires additional protection considerations over stand-alone computer
  41. systems. 
  42.  
  43. As the Director, National Computer Security Center, I invite your
  44. suggestions for revising this document. We plan to review this document as
  45. the need arises. 
  46.  
  47.      PATRICK R. GALLAGHER JR. 1 August 1990 
  48.      Director 
  49.      National Computer Security Center 
  50.  
  51. ACKNOWLEDGMENTS
  52.  
  53. The National Computer Security Center extends special recognition and
  54. acknowledgment for their contributions to this document to Dr. Marshall D.
  55. Abrams, Renee Child, Annabelle Lee, Dr. Jonathan K. Millen, Samuel I.
  56. Schaen, and Dr. Martin W. Schwartz, of The MITRE Corporation, as authors;
  57. Richard Wilmer, also of The MITRE Corporation, as technical editor; and to
  58. Alfred Arsenault, David Chizmadia, id Rick Siebenaler of the National
  59. Computer Security Center, who managed the effort ad participated in the
  60. development. 
  61.  
  62. Special thanks are extended to the many members of the computer security
  63. community who enthusiastically gave their time and expertise in reviewing
  64. the material and providing valuable comments and suggested changes.
  65. Special thanks are extended to James P. Anderson of James P. Anderson Co.,
  66. Donald L. Brinkley of Gemini Computers, Inc., Dr. Eric Roskos of The
  67. Institute for Defense Analysis, Dr. Tien Tao of Gemini Computers, Inc.,
  68. and Dr. John M. Vasak of The MITRE Corporation for their extensive
  69. suggestions and recommendations. 
  70.  
  71. 1 Introduction
  72.  
  73. This Trusted Network Interpretation (TNI) Environments Guideline (TNIEG)
  74. addresses many issues in determining the security protection required in
  75. different network environments. It complements the TNI, just as the
  76. Trusted Computer System Evaluation Criteria (TCSEC) Environments Guideline
  77. [1] complements the TCSEC. The TNI interprets the TCSEC for networks; it
  78. contains all of the criteria in the TCSEC, adding interpretation and
  79. rationale to applying trust technology to network systems. In the same way
  80. that the TCSEC Environments Guideline provides gnidance on applying the
  81. TCSEC, this TNIEG provides gnidance on the use of the TNI. The TCSEC and
  82. its Environments Guideline constitute the foundation on which the TNI and
  83. TNIEG add network applicability. 
  84.  
  85. 1.1 Background
  86.  
  87. The National Computer Security Center (NCSC) is responsible for
  88. establishing and maintaining technical standards and criteria for the
  89. evaluation of trusted computer systems. As part of this responsibility,
  90. the NCSC is developing guidance on how new security technology should be
  91. used. Two objectives of this guidance are: 
  92.  
  93.      ₧ Establishing a metric for categorizing systems according to the
  94.      security protection they provide, and 
  95.      ₧ Identifying the minimum security protection required in different
  96.      environments. 
  97.  
  98. The TCSEC [2] helps to satisfy the first objective by categorizing
  99. computer systems into hierarchical classes based on evaluation of their
  100. security features and assurances. The TCSEC Environments Guideline [1]
  101. helps to satisfy the second objective by identifying the minimum classes
  102. appropriate for systems in different risk environments. These two
  103. documents, however, apply to stand-alone corn puter systems. 
  104.  
  105. The TNI [3] satisfies the first objective by interpreting the TCSEC for
  106. networks. 
  107.  
  108. The TNI also provides guidance for selecting and specifying other security
  109. services (e.g., communications integrity, denial of service, transmission
  110. security). The TNIEG is the first step toward addressing the second
  111. objective. 
  112.  
  113. TNI Environments Guideline Introduction 
  114.  
  115. 1.2 Trusted Network Technology Publications
  116.  
  117. The NCSC has decided to provide guidance concerning security in networks
  118. and distributed Automated Information Systems (AISs)1 in a series of
  119. publications. The subject area is collectively identified as Trusted
  120. Network Technology (TNT). The TNI is the first TNT publication. This TNIEG
  121. is the second TNT publication. It contains the best guidance that is
  122. available at this time; as technology advances and more experience is
  123. gained in implementing trusted networks, more specific guidance will be
  124. provided. This TNIEG provides elaboration and clarification on the TNI.
  125. Guidance concerning Interconnected AIS which initially appeared in the
  126. TNI, Appendix C, has been revised and incorporated into this document (see
  127. Section 6 and Appendix A). This document does not address all of the
  128. security issues that are excluded from the TNI. Other topics, such as
  129. composing a trusted system from evaluated components, will be discussed in
  130. future TNT publications. 
  131.  
  132. 1.3 Purpose
  133.  
  134. The overall purpose of this TNIEG is to assist program managers,
  135. integrators, certifiers, and Accreditors with identifying the minimum
  136. security protection needed for different trusted computer network
  137. environments. For brevity, this audience is referred to as security
  138. managers. Not all questions can be answered at this time. The NCSC invites
  139. suggestions for topics to be addressed in future TNT publications. 
  140.  
  141. This guideline is not a tutorial on security and networking; it is assumed
  142. that the reader will have some background in both areas. Suggested
  143. background references are identified in Appendix B. This guideline is
  144. designed to be self contained; a fair amount of background information
  145. that can be found in the TNI is also included here. The interested reader
  146. may consult the TNI and other documents referenced in this guideline for
  147. further detail. 
  148.  
  149. 1.4 Scope
  150.  
  151. This document describes an environmental assessment process that helps
  152. determine the minimum level of trust recommended for a specific network
  153. operational environment. The primary focus of this document (and also of
  154. the TNI) is on the AIS 1Definitions of terms particularly important to
  155. this document are given in Section 2. 
  156.  
  157. TNI Environments Guideline Introduction 
  158.  
  159. hardware, firmware, and software aspects of security; therefore, neither
  160. this guideline nor the TNI address all the security requirements that may
  161. be imposed on a network. Depending on the particular environment,
  162. communications security (COMSEC), emanations security (TEMPEST), physical
  163. security, personnel security, administrative security, and other
  164. information security (INFOSEC) measures or safeguards are also required.
  165. This document applies to networks that are entrusted with the processing
  166. of information, regardless of whether that information is classified,
  167. sensitive, or otherwise relevant to national security. 
  168.  
  169. 1.5 Structure of the Document
  170.  
  171. Section 2 of this document defines terms and Section 3 discusses Network
  172. Security Architecture and Design. Section 4 guides security managers in
  173. applying Part I of the TNI; Section 5 does the same for Part II. Section 6
  174. addresses security issues that arise when AIS are interconnected. Appendix
  175. A discusses the Cascade Condition in greater detail; Appendix B provides
  176. tutorial and background references on network security; and Appendix C
  177. discusses encryption and encryption mechanisms. 
  178.  
  179. 2 Terminology
  180.  
  181. Many of the terms used in the TNI are drawn from diverse specialization
  182. areas. 
  183.  
  184. Their special meaning in context may differ from common English usage. In
  185. this section we explain how such terms are used in the TNI and how these
  186. definitions have been refined in this document. Terms are printed in
  187. boldface when they are defined. 
  188.  
  189. 2.1 Automated Information System
  190.  
  191. An AIS is defined in DODD 5200.28 as "an assembly of computer hardware,
  192. software, and/or firmware configured to collect, create, communicate,
  193. compute, disseminate, process, store, and/or control data or information"
  194. [4]. This is both a broad definition and a new one, since DODD 5200.28 was
  195. published after the TNI. The TNI states that "automatic data processing
  196. (ADP) systems, referred to in this [TNI] document as Automated Information
  197. System (AIS)...", and equates AIS and ADP. We will use the DODD 5200.28
  198. definition since it is broader and more authoritative. We also note that
  199. DODD 5200.28 tends to pluralize AIS as AISs while the TNI considers AIS to
  200. be a collective noun. We have followed the latter convention. 
  201.  
  202. 2.2 Network Trusted Computing Base
  203.  
  204. The Network Trusted Computing Base (NTCB) is the totality of protection
  205. mechanisms within a network system2-including hardware, firmware, and
  206. software-the combination of which is responsible for enforcing a security
  207. policy. The NTCB is the network generalization of the trusted computing
  208. base (TCB). An NTCB Partition is the totality of mechanisms within a
  209. single network subsystem3 for enforcing the network policy, as allocated
  210. to that subsystem; it is the part of the NTCB within a single network
  211. subsystem. 
  212.  
  213. The distinction between a system and a subsystem is a matter of the
  214. viewpoint of the ob-server. One observer's system may be another
  215. observer's subsystem. For example, the ven-dor of a local area network may
  216. regard his product as a system, while the customer's network architect may
  217. consider it to be a subsystem along with hosts, workstations, etc. ~e THI
  218. uses component in the definition of NTCB Partition. We use subsystem to be
  219. con-sistent in this document. 
  220.  
  221. TNI Environments Guideline Terminology 
  222.  
  223. 2.3 System and Component
  224.  
  225. The terms system ad component need to be related to each other. 
  226.  
  227. Unfortunately, the TNI is not completely consistent in its use of these
  228. terms. We will first cite the relevant sections from the TNI; then we will
  229. reconcile them as used in this guideline. As discussed below, we define
  230. the relationship as follows: A component is a physical unit contained
  231. within a system. 
  232.  
  233. 2.3.1 TNI Introduction (definition not used in TNIEG)
  234.  
  235. The TNI Introduction states (emphasis added): 
  236.  
  237. A network system is the entire collection of hardware, firmware, and
  238. software necessary to provide a desired functionality. A component is any
  239. part of a system that, taken by itself, provides all or a portion of the
  240. total functionality required of a system. A component is recursively
  241. defined to be an individual unit, not useful to further subdivide, or a
  242. collection of components up to and including the entire system. 
  243.  
  244. 2.3.2 TNI - Appendix A (definition not used in TNIEG)
  245.  
  246. Appendix A of the TNI presents the view: 
  247.  
  248. a trusted network represents a composition of trusted components.... The
  249. approach to evaluation of a network suggested by this view is to partition
  250. the system into components, rate each component to determine its
  251. security-relevant characteristics, and then evaluate the composition of
  252. the components to arrive at an overall rating class for the network. This
  253. approach ... allows for the evaluation of components which in and of
  254. themselves do not support all the policies required by the TCSEC, ...
  255. contribute[s] to the overall evaluation of any network which uses them and
  256. allows for the reuse of the evaluated component in different networks
  257. without the need for a re-evaluation of the component. 
  258.  
  259. Appendix A goes on to state that: 
  260.  
  261. The set of policy-related features to be supported by the c'omponent need
  262. not be the complete set required for a stand-alone system: features not
  263. supplied by one component for the system are supplied by another. 
  264.  
  265. 2.3.3 Discussion
  266.  
  267. We see a difference between the Introduction and Appendix A of the TNI. We
  268.  
  269. will use the definition of component as an individual unit that does not
  270. provide acomplete set of end-user services. As a consequence, a subsystem
  271. can operate on its own and a component will require an external connection
  272. to perform a useful function. 
  273.  
  274. TNI Environments Guideline Terminology 
  275.  
  276. Appendix C of the TNI uses component, as follows, where we would use
  277. subsystem: 
  278.  
  279. Any AIS that is connected to other AIS must enforce an "Interconnection
  280. Rule" that limits the sensitivity levels of information that it may send
  281. or receive. Using the component connection view, each component
  282. responsible for maintaining the separation of multiple levels of
  283. information must decide locally whether or not information ca be sent or
  284. received. 
  285.  
  286. A component may support all the policy and accountability requirements: M,
  287. D, I, ad A4; however, as defined above, this is not applicable to
  288. determining whether an individual unit is a component. A component which
  289. supports some part of the security policy contains an NTCB partition. In
  290. the extreme, a component may not have any security-relevant function; in
  291. this case it doesn't support any TCSEC policy and doesn't contain an NTCB
  292. partition. 
  293.  
  294. 2.3.4 Definitions
  295.  
  296. To summarize the previous discussions, following are definitions for
  297. component ad system/subsystem. 
  298.  
  299.      ₧ Component: An individual physical unit that does not provide a
  300.      complete set of end-user services. 
  301.      ₧ System/suhsystem: A collection of hardware, firmware, and software
  302.      necessary configured to collect, create, communicate, compute,
  303.      disseminate, process, store, and/or control data ad information [4]. 
  304.  
  305. 2.4 Evaluation
  306.  
  307. NCSC-evaluation refers specifically to the process in which the NCSC
  308. determines whether a commercial-off-the-shelf (COTS) product satisfies the
  309. TCSE~C. Application of the TCSEC to a particular product may be assisted
  310. by an interpretation guideline such as the TNI [5]. In such a case, the
  311. guideline clarifies the meaing of the TCSEC's language with regard to a
  312. particular type of product, but in no case circumvents or grants exception
  313. to the requirements of the TCSEC. The purpose of an NCSC-evaluation is as
  314. follows: 
  315.  
  316. 4M:datory access control, discretionary access control, identification and
  317. authentication, and audit, respectively. 
  318.  
  319. TNI Environments Guideline Terminology 
  320.  
  321. The primary goal of the NCSC is to encourage the widespread availability
  322. of trusted computer systems. This goal is realized, in large measure,
  323. through the NCSC's Commercial Product Evaluation Program. This program is
  324. focused on the technical evaluation of the protection capabilities of
  325. off-the-shelf, commercially produced and supported systems that meet the
  326. computer security needs of government departments and agencies. This
  327. product evaluation culminates in the publication of an Evaluated Products
  328. List (EPL) report... [6]. 
  329.  
  330. An NCSC~valuation places a product in one of four divisions: D, C, B, or
  331. A. 
  332.  
  333. Division D is for systems that have been evaluated but fail to meet the
  334. requirements for a higher NCSC~valuation rating. Division C has two
  335. classes: C1 and C2, which require discretionary (need-to-know) protection.
  336. Division B has three classes: B1, B2, and B3, which require support for
  337. sensitivity labels and increasing robustness of system architecture.
  338. Division A has only class Al, which requires additional assurance through
  339. formal verification methods. 
  340.  
  341. 2.5 Certification
  342.  
  343. Certification is defined as "the technical evaluation of a system's
  344. security features, made as part of and in support of the
  345. approval/accreditation process, that establishes the extent to which a
  346. particular system's design and implementation meet a set of specified
  347. security requirements" [7]. In this definition, the word evaluation is
  348. used in the generic sense and should not be confused with NCSC valuation.
  349. The primary distinction is that certification is an evaluation with
  350. respect to specified requirements, ad NCSC~valuation is an evaluation
  351. against the TCSEC (and the TNI). 
  352.  
  353. Certification is conducted in support of the accreditation decision. For
  354. most systems, the hardware, system software, applications software,
  355. communications equipment, and the operational facility must be configured
  356. and tested during certification. Certification should be performed by
  357. technical personnel independent of the development organization, according
  358. to an acceptable methodology. Certification should identify the level of
  359. security protection with regard to a procedure, program, or system.
  360. Certification results in the issuance of the Certification Statement,
  361. which states whether system security requirements are met, describes all
  362. known remaining vulnerabilities, and advises the Accreditor relative to
  363. the accreditation decision. If requirements are not met, the Certification
  364. Statement lists problem areas and identifies suggested solutions (if
  365. known). A certification documentation package, called the Certification
  366. Report of Findings, submitted to the Accreditor includes the Certification
  367. Statement, certification analysis, resuils of Security Test and
  368. Evaluation, id results of Operational Test and Evaluation. 
  369.  
  370. 2.6 Accreditation
  371.  
  372. Accreditation is "the managerial authorization and approval granted to an
  373. ADP system or network to process sensitive data in an operational
  374. environment, made on the basis of a certification by designated technical
  375. personnel..." [3]. Accreditation is a management decision to operate a
  376. system or network employing specific safeguards, against a defined threat,
  377. at an acceptable level of risk, under a stated operational concept, with
  378. stated interconnections, in a specific operational environment, with a
  379. specific security mode of operation. Other terms have been used to
  380. identify the formal managerial approval for operation; in this document we
  381. use the term Accreditation. FIPS PUB 102 defines Accrediting Officials as
  382. "the agency officials who have authority to accept an application's
  383. security safeguards and issue an accreditation statement that records that
  384. decision. The Accrediting Officials must also possess authority to
  385. allocate resources to achieve acceptable security and to remedy security
  386. deficiencies" [7]. The ultimate responsibility for system security rests
  387. with the Accreditor. DODD 5200.28 employs the term Designated Approving
  388. Authority (DAA) to refer to the same officials or officers [4]. 
  389.  
  390. All AIS must be accredited before they may process or use sensitive or
  391. classified information, unless a written waiver is granted by the
  392. Accreditor. Accreditation is based on a technical investigation and a
  393. formal review of the certification Report of Findings. Before authorizing
  394. an AIS to operate, the Accreditor must ensure that satisfactory security
  395. measures have been installed and that any residual risk is within
  396. acceptable limits. Often, the Accreditor must weigh the technical
  397. shortcomings of an AIS against operational necessity. Lacking other ways
  398. to accomplish an operational mission, the Accreditor may determine that it
  399. is preferable to accept a residual security risk than to preclude the
  400. mission. To ensure that the accreditation goals and objectives are
  401. adequately met, the Accreditor must be involved throughout the system life
  402. cycle. 
  403.  
  404. 2.7 Two Types of Networks
  405.  
  406. A network may be defined as either an interconnection of accredited AIS or
  407. as a Unified Network. When it is not necessary to differentiate in this
  408. guideline, the term network is used. 
  409.  
  410. 2.7.1 Unified Networks
  411.  
  412. The TNI defines a Network Single Trusted System while DODD 5200.28
  413. Enclosure (5) defines a Unified Network; this TNIEG conforms to the latter
  414. usage. 
  415.  
  416. The section of Enclosure (5) that addresses Unified Networks is brief and
  417. instructive5: 
  418.  
  419. Some networks may be accredited as a whole without prior accreditation of
  420. their component AIS. It is necessary to treat a network as unified when
  421. some of its AIS subsystems are so specialized or dependent on other
  422. subsystems of the network for security support that individual
  423. accreditation of such subsystems is not possible or meaningful with
  424. respect to secure network operation. In order to be accredited, a Unified
  425. Network shall possess a coherent network architecture and design, and it
  426. should be developed with an attention to security requirements,
  427. mechanisms, and assurances commensurate with the range of sensitivity of
  428. information for which it is to be accredited. 
  429.  
  430. The recommended approach for accrediting a Unified Network is to apply
  431. Enclosure 4 to the entire network to derive an evaluation class.
  432. Requirements to meet that evaluation class then are obtained from an
  433. applicable interpretation of DoD 5200.28-STD [the TCSEC], such as
  434. NCSC-TG~05 [the TNI]. 
  435.  
  436. 2.7.2 Interconnected Accredited AIS
  437.  
  438. Enclosure (5) of DODD 5200.28 also discusses Interconnected Accredited
  439. AIS: 
  440.  
  441. If a network consists of previously accredited AIS, a Memorandum of
  442. Agreement6 [MOA] is required between the DAA of each DOD Component AIS and
  443. the DAA responsible for the network ... The network DAA must ensure that
  444. interface restrictions and limitations are observed for connections
  445. between DOD Component AIS. ... In particular, connections between
  446. accredited AIS must be consistent with the mode of operation of each AIS,
  447. the specific sensitivity level or range of sensitivity levels for which
  448. each AIS own and a component will require an external connection to
  449. perform a useful function is accredited, any additional interface
  450. constraints associated with the particular interface device used for the
  451. connection, and any other restrictions required by the MOA 
  452.  
  453. --------------------------- 
  454.  
  455. 5 As mentioned in the introduction and the definitions, this TNIEG differs
  456. from DODD 5200.28 and the TNI in the usage of AIS and the definition of
  457. component. This quotation has been slightly edited to conform to the usage
  458. in this guideline. she content of a Memorandum of Agreement is discussed
  459. in Section 3.2 
  460.  
  461. 2.8 Network Security Architecture and Design
  462.  
  463. Network Security Architecture and Design (NSAD) applies to all networks.
  464. The NSAD identifies how the NTCB is partitioned and how the trusted system
  465. requirements are met. Security engineering, including the development of
  466. the NSAD, is a specialty area within systems engineering. The security
  467. engineer is responsible for ensuring that the system being built meets the
  468. security requirements of the organization. The security engineer ensures
  469. that the AIS security conforms to applicable regulations and policy, and
  470. implements the system security requirements [8]. 
  471.  
  472. The security policy includes the set of laws, rules, and practices that
  473. govern how an organization manages, protects, and distributes sensitive
  474. information (including classified information). The overall security
  475. policy is addressed in a family of related documents consisting of a
  476. system security policy, a security policy model, and security
  477. requirements. The system security policy is developed first, followed by
  478. the other two. A system security policy interprets and applies regulations
  479. to systems. The security policy model defines subjects and objects and the
  480. accesses between the two. The security requirements document identifies
  481. evaluatable user requirements for a secure system. 
  482.  
  483. The security architecture is that part of the system architecture that
  484. describes the required security services and features. The security
  485. architecture shows how the required level of assurance for the system is
  486. to be met. A mapping of security requirements to functional elements is
  487. documented in the security architecture; therefore, the securily
  488. architecture is used to document security design decisions. 
  489.  
  490. 2.9 Protocol Layer Approach
  491.  
  492. This guideline discusses networks in terms of the Open System
  493. Interconnection (0SI) reference model [9] because that model provides a
  494. well-understood terminology and is used in the TNI. This guideline,
  495. however, is independent of the actual protocol reference model used. 
  496.  
  497. 274-353 0 - 90 - 2 : QL 3 
  498.  
  499. TNI Environments Guideline Terminology 
  500.  
  501. An NTCB implementation need not include all protocol layers. The precise
  502. security services and their granularity will depend on the highest
  503. protocol layer at which an NTCB partition is implemented.7 For example, in
  504. a Unified Network where layer 3 (the network layer) is the highest layer
  505. that implements the NTCB, the network will be able to enforce mandatory
  506. access control (MAC) and discretionary access control (DAC) decisions on
  507. the granularity of network addresses8. The network system being evaluated
  508. knows only about the range of classifications that the host (or other
  509. network) is permitted to handle and the hosts (or other networks) that are
  510. permitted to communicate with each other. Finer distinctions must be made
  511. by the hosts (or other networks) involved. When a trusted network provides
  512. all seven layers, the network is aware of and enforces MAC and DAC at the
  513. granularity of individual users. 
  514.  
  515. A network device might not provide a complete set of end-user services
  516. through layer 7. Products that do not provide all system services through
  517. layer 7 may be NCSC-evaluated as components and subsequently used with
  518. other components to compose a network. 
  519.  
  520. 2.10 Part II Security Services
  521.  
  522. The terms functionality, strength of mechanism, and assurance are used to
  523. rate TNI Part II services. Their meanings in that context are described
  524. below. 
  525.  
  526. Functionality refers to the objective and approach of a security service;
  527. it includes features, mechanism, and performance. Alternative approaches
  528. to achieving the desired functionality may be more suitable in different
  529. applications environments. 
  530.  
  531. Strength of'mechanism refers to how well a specific approach may be
  532. expected to achieve its objectives. In some cases the selection of
  533. parameters, such as number of bits used in a checksum or the number of
  534. permutations used in an encryption algorithm, can significantly affect
  535. strength of mechanism. Wiih regard to inadvertent threats, strength refers
  536. to the ability to operate correctly during natural disasters, emergencies,
  537. operator errors, and accidents. Inadvertent threats are particularly 
  538.  
  539. 7 Since the publication of the TNI, the policy environment has changed.
  540. "User", as defined in DODD 5200.28, ad peer.entity, as defined in the 051
  541. reference model, are comparable. Therefore, the TNIEG applies to all
  542. layers of the 051 architecture. 
  543.  
  544. 8 A network address refers to either a host or another network. 
  545.  
  546. TNI Environments Guideline Terminology 
  547.  
  548. critical to prevention of denial of service. As an example, for
  549. communications line outages, strength of mechanism may refer to the number
  550. of alternate routes that may be used to bypass the outage. The misdelivery
  551. of messages is an example of an inadvertent threat that may disclose
  552. information to unauthorized individuals. Encryption can be used to prevent
  553. the unintended recipient from seeing the information. 
  554.  
  555. Assurance refers to a basis for believing that the functionality will be
  556. achieved; it includes tamper resistance, verifiability, and resistance
  557. against circumvention or bypass. Assurance is generally based on analysis
  558. involving theory, testing, software engineering, validation and
  559. verification, and related approaches. The analysis may be formal or
  560. informal. 
  561.  
  562. 3 Network Security Architecture and Design
  563. (NSAD)
  564.  
  565. Every network should have a Network Security Architecture and Design
  566. (NSAD). This section helps the security manager in establishing the NSAD
  567. for the network. 
  568.  
  569. The NSAD, produced as part of the risk management process, documents the
  570. security services. As mentioned in Section 1, the primary focus of this
  571. TNIEG is on the AIS aspects of security. Depending on the particular
  572. environment, communications security (COMSEC), emanations security
  573. (TEMPEST), physical security, personnel security, administrative security,
  574. and other information security (INFOSEC) measures or safeguards are also
  575. incorporated in the NSAD. An NSAD results from a series of tradeoffs among
  576. cost, effectiveness, technical risk, mission requirements, and risk
  577. management. 
  578.  
  579. While the architecture part of the NSAD may be somewhat abstract, the
  580. design part should be quite concrete. The design maps the selected
  581. security services to system functional elements9. Next, these functional
  582. elements are assigned to components and subsystems. 
  583.  
  584. 3.1 Composing an NSAD
  585.  
  586. The security manager is responsible for ensuring that an NSAD is defined
  587. that applies to all the components or subsystems that constitute the
  588. network. The NSAD for a network must address the applicable
  589. security-relevant policies and may incorporate the NSADs of its
  590. constituent components or subsystems. In some cases, such as when a
  591. component provides part of the functionality of the network (e.g., a local
  592. area network (LAN) providing 051 layer three communication services), the
  593. NSAD of the component may be incorporated with little or no change into
  594. the NSAD for the network. The component NSAD will probably require some
  595. modification to address the applicable policy and environment constraints.
  596.  
  597. A typical network configuration will include multiple vendor's products.
  598. When the network is created, the security manager must reconcile the
  599. diverse NSADs of the constituents into a coherent NSAD for the configured
  600. network and identify any 
  601.  
  602. 9 Sections 4 and 5 of this document should guide the security manager in
  603. selecting those securi-ty services and safeguards that are appropriate for
  604. the given operational environment. 
  605.  
  606. TNI Environments Guideline Network Security Architecture and Design 
  607.  
  608. restrictions or new security services and assurance that must be added.
  609. The NSAD must implement national, service, and command policies for the
  610. environment in which the network will operate. The same process applies
  611. when previously accredited AIS are to be interconnected to support the
  612. exchange of information. 
  613.  
  614. In contrast to the networks described above, when a network is created
  615. from scratch, the NSAD may be established before any devices are selected
  616. and may be included as part of the criteria for selecting the network
  617. devices. 
  618.  
  619. Note that the network may include components that are not
  620. security-relevant and, therefore, do not have a component NSAD. The design
  621. decisions that result in the inclusion of non-security-relevant components
  622. are documented in the NSAD. 
  623.  
  624. AIS may be combined into a network under conditions of a hierarchical
  625. relationship of their security managers. In this case the NSAD of the
  626. subordinate system must conform to the governing NSAD. For example, when a
  627. host computer connects to a common user network, the host computer must
  628. conform to the NSAD established by the security manager of the common user
  629. network, who has a responsibility to the security managers of all other
  630. connected AIS to maintain the network's trustworthiness. As discussed
  631. below, this conformance is recorded in a Memorandum of Agreement (MOA). 
  632.  
  633. AIS whose security managers are not hierarchically related may also be
  634. combined to form a network. In this case, the security managers come to
  635. agreement on the NSAD for the network; this agreement is also recorded in
  636. an MOA. 
  637.  
  638. 3.2 Memorandum of Agreement
  639.  
  640. If a network consists of previously accredited AIS, a MOA is required
  641. between the Accreditors for each subsystem. This MOA is part of the
  642. documentation of the NSAD. The MOA discusses the accreditation
  643. requirements for each subsystem that is to be interconnected to form the
  644. network [4], i.e., defines all the terms and conditions of the security
  645. arrangements that will govern the operation of the network [10]. The
  646. objective of the MOA is to document the interconnection requirements and
  647. identify any requirements that may be necessary to provide overall
  648. security safeguards for the entire network. This network includes all the
  649. interconnected subsystems, the communications devices, the usei-s, and the
  650. data stored in the subsystem 
  651.  
  652. [10]. A Memorandum of Record (MOR) is used when the subsystems have the
  653. same Accreditor. A comprehensive M0A10 could constitute the entire NSAD
  654. for a network; alternatively, the MOA could contain high level agreements,
  655. with the details spelled out in supporting documents. Following is a list
  656. of suggestions for the contents of the MOA and supporting documents. The
  657. items towards the top of the list are more likely to occur in the MOA;
  658. those towards the end of the list are more likely to occur in supporting
  659. documents. 
  660.  
  661.      ₧ A general description of the information that will be transmitted
  662.      to the network by each subsystem 
  663.      ₧ A summary discussion of the trusted behavior that is expected from
  664.      each subsystem 
  665.      ₧ The details of the overall security plan for the network and the
  666.      assignment of responsibility for producing and accepting the plan 
  667.      ₧ A description of the overall network security policy 
  668.      ₧ A description of additional security training and assignment of
  669.      training responsibility 
  670.      ₧ Specification of the security parameters that are to be transmitted
  671.      between communicating subsystems 
  672.      ₧ A discussion of security details that are relevant to the exchange
  673.      of information among the subsystems. 
  674.      ₧ A description of the user community, including the lowest clearance
  675.      of any user who will have access to the network 
  676.      ₧ Any special considerations for dial-up connections to any subsystem
  677.      in the network, including potential security threats and the
  678.      safeguards that will be used. 
  679.      ₧ A description of the security protections provided by the data
  680.      communications, both local to a subsystem and between communicating
  681.      subsystem 
  682.  
  683. ________________ 
  684.  
  685. 10 In this guideline, NOA is used to identify the agreement between
  686. Accreditors and includes the NOR. 
  687.  
  688. TNI Environments Guideline Network Security Architecture and Design 
  689.  
  690.      ₧ A description of the information that each subsystem will log in
  691.      the audit trail, and how the audit trail tasks will be divided among
  692.      the subsystems 
  693.      ₧ A description of the information security services to be offered to
  694.      the network by each subsystem, including: 
  695.      ₧ The types of processing provided by each subsystem, e.g., file
  696.      query, individual user, general processing 
  697.      ₧ The modes of operation of all the subsystems, e.g., dedicated,
  698.      system high, multilevel 
  699.      ₧ The sensitivity levels processed on all subsystems 
  700.  
  701. 4 TNI Part I Security Requirements
  702.  
  703. This section assists the security manager in determining the recommended
  704. minimum security requirements based on TNI Part I and Appendix A, which
  705. interprets the TCSEC for networks. 
  706.  
  707. The procedure for determining the minimum security requirements for a
  708. network parallels the procedure for a stand-alone system, whereby the
  709. highest classification of data and the lowest clearance among system users
  710. are used in computing a risk index. The risk index is used to determine
  711. which NCSC~vaIuation rating is required of the system to provide adequate
  712. security. To emphasize, these are the minimum requirements. The TCSEC
  713. Environments Guideline does not address environmental factors such as the
  714. number of users and the percentage of users at different classification
  715. levels. These factors may become more significant in a network
  716. environment. Communications security risk in a network is addressed by the
  717. National Security Agency (NSA) and other cognizant organizations and
  718. results in a set of recommendations for the appropriate equipment or
  719. security procedures. Other factors, such as the number of connections, the
  720. physical distance between devices, the number of subsystems, the presence
  721. of encryption, and the possible presence of intervening systems between
  722. the resources being used and the ultimate user may result in more or less
  723. stringent requirements. 
  724.  
  725. 4.1 Risk Management
  726.  
  727. Risk management is a methodology used to identify, measure, and control
  728. events which adversely affect security; it involves cost-benefit analyses
  729. to ensure appropriate cost~ffectiveness of security safeguards. A risk
  730. management program is mandated by Enclosure (3) of DODD 5200.28. 
  731.  
  732. The literature on risk management is quite extensive. It is not the
  733. ;Purpose of this document to survey the field. The interested reader is
  734. referred to FIPS PUB 65 [11]. The literature is constantly growing; a
  735. recent high-level introduction to general concepts and terminology can be
  736. found in Bell [12] and in the Proceedings of the First Invitational
  737. Workshop on Computer Security Risk Management [13]. 
  738.  
  739. DODD 5200.28 Enclosure (4) mandates the use of a methodology, extracted
  740. from 
  741.  
  742. the TCSEC Environments Guideline, to determine the recommended evaluation
  743. class 
  744.  
  745. TNI Environments Guideline TNI Part I Security Requirements 
  746.  
  747. (or requirements of an evaluation class) based on a specific environment.
  748. Enclosure (5) of the Directive also recommends this method to determine
  749. minimum computer-based requirements in a network. This guideline also uses
  750. that method. Use of a different method requires prior approval of the
  751. Assistant Secretary of Defense (ASD) Command, Control, Communications, and
  752. Intelligence (C31). 
  753.  
  754. DODD 5200.28 Enclosure (4) contains six major steps in the risk assessment
  755. procedure. These steps are listed below. DODD 5200.28 Enclosure (4)
  756. applies in all steps. 
  757.  
  758. Step 1. Determine system security mode of operation. 
  759.  
  760. Step 2. Determine minimum user clearance or authorization rating. 
  761.  
  762. Step 3. Determine maximum data sensitivity rating. 
  763.  
  764. Step 4. Determine risk index. 
  765.  
  766. Step 5. Determine minimum security evaluation class for computer-based
  767. controls. 
  768.  
  769. Step 6. Determine adjustments to computer security evaluation class
  770. required. 
  771.  
  772. An elaboration of step six given in Migues [14], involving a detailed
  773. analysis of both environmental and architectural risk factors, is based on
  774. Landwehr and Lubbes [15]. It presents a method which incorporates analysis
  775. of the applications environment. This analysis includes such factors as
  776. whether the system allows programming, or whether it is restricted to a
  777. limited set of applications. This more detailed information supports a
  778. finer determination of the level of trust required. 
  779.  
  780. 4.2 Determination of Network Risk
  781.  
  782. To apply the TCSEC Environments Guideline guidance, the security manager
  783. must determine the following: 
  784.  
  785.      ₧ minimum clearance or authorization of the network usefs (see Table
  786.      1 11), 
  787.  
  788. TNI Environments Guideline TNI Part I Security Requirements 
  789.  
  790. Table 1 
  791.  
  792. Rating Scale for Minimum User Clearance ~m1n) 
  793.  
  794. Minimum User Clearance               Rmin                                  
  795.  
  796. Uncleared OR Not Authorized (U)      0                                     
  797.  
  798. Not Cleared but Authorized Access    1                                     
  799. to Sensitive                                                               
  800.  
  801. Confidential ┐                                                             
  802.  
  803. Secret(S)                            3                                     
  804.  
  805. Top Secret (TS) and/or current       4                                     
  806. Background Investigation (BI)                                              
  807.  
  808. TS and/or current Special            5                                     
  809. Background Investigation (SBI)                                             
  810.  
  811. One Category (IC)                    6                                     
  812.  
  813. Multiple Categories (MC)              7                                    
  814.  
  815.  
  816.  
  817.      ₧ maximum sensitivity of data processed by the network (see Table 2)
  818.      (the TCSEC Environments Guideline distinguishes between an open
  819.      system and a closed system based on whether application development
  820.      was done by cleared or uncleared users; the distinction was dropped
  821.      in DODD 5200.28 and is not used here either). 
  822.  
  823.      The number derived from Table 1 is used for Rmin; the one derived
  824.      from Table 2 
  825.  
  826. is used for Rmax. A risk index for the network is calculated using the
  827. following formula: 
  828.  
  829. Risk Index = Rmax - Rmin 
  830.  
  831. TNI Environments Guideline TNI Part I Security Requirements 
  832.  
  833.      Table 2 
  834.      Rating Scale for Maximum Data Sensitivity ffm:) 
  835.  
  836. Maximum                                                                      
  837. Sensitivity                                                                  
  838. Rating                                                                       
  839.  Maximum Data                                                                
  840.            Rating                                                            
  841.  
  842. Ratings without     (Rmax)             Sensitivity         (Rmax)            
  843.  
  844. categories          with categories                                          
  845.                    1,2                                                       
  846.  
  847. Unclassified U     0                  N/A 3                                  
  848.  
  849. Not Classified     2                                                         
  850. but    1       N                                                             
  851. with one or more                                                             
  852. Categories                                                                   
  853.  
  854. Sensitive N                                                                  
  855.  
  856. Confidential C     3                                                         
  857.     2         C                                                              
  858. with one or more                                                             
  859. Cate ories                                                                   
  860.  
  861. Secret (S)          4                                                        
  862.  3         S with                                                            
  863. one or more                                                                  
  864. Categones                                                                    
  865.  
  866. only one Category                                                            
  867. containing S                                                                 
  868.  
  869. S with two or      5                                                         
  870. more Categories                                                              
  871.  
  872. containin S                                                                  
  873.  
  874. Top Secret (TS)     6                                                        
  875.     5 5       TS                                                             
  876. with one or more                                                             
  877. Categories                                                                   
  878.  
  879. only one Category                                                            
  880. containing S or                                                              
  881. TS                                                                           
  882.  
  883. TS with two or     7                                                         
  884. more Categories                                                              
  885.  
  886. containin S or TS                                                            
  887.  
  888.  
  889.  
  890.  
  891. 1 Where the number of categories is large or where a highly sensitive
  892. category is involved, a higher rat-ing might be warranted. 
  893.  
  894. 2 The only categories of concern are those for which some users are not
  895. authorized access. When counting the number of categories, count all
  896. categories regardless of the sensitivity level associated with the data.
  897. If a category is associated with more than one sensitivity level, it is
  898. only counted at the highest level. Systems in which all data are in the
  899. same category are treated as without categories. 
  900.  
  901. 3 Unclassified data by definition may not contain categories. 
  902.  
  903. 4 Examples of N data include financial, proprietary, privacy, and
  904. mission-sensitive data. In some situa-tions (e.g., those involving
  905. extremely large financial sums or critical mission-sensitive data), a
  906. higher rat-ing may be warranted. This table prescribes minimum ratings. 
  907.  
  908. 5 The rating increment between the Secret and Top Secret data sensitivity
  909. levels is greater than the in-crement between other adjacent levels. This
  910. difference derives from the fact that the loss of Top Secret data causes
  911. EXCEPTIONALLY GRAVE damage to U.S. national security, whereas the loss of
  912. Secret data causes SERIOUS damage. 
  913.  
  914. THI Environments Guideline TNI Part I Security Requirements 
  915.  
  916.      Table 3 
  917.      Security Risk Index 
  918.  
  919. Risk Index               Security Mode             Minimum Security Class   
  920.                                                    4                        
  921.  
  922. 0                        Dedicated                 No Minimum Class 1 2     
  923.  
  924. 0                        System High               C2  2                    
  925.  
  926. 1                        Multilevel Partitioned    B1  3                    
  927.  
  928. 2                        Multilevel Partitioned    B2                       
  929.  
  930. 3                        Multilevel                B3                       
  931.  
  932. 4                        Multilevel                A1                       
  933.  
  934. 5                        Multilevel                *                        
  935.  
  936. 6                        Multilevel                *                        
  937.  
  938. 7                        Multilevel                *                        
  939.  
  940.  
  941.  
  942. 1 Although there is no prescribed minimum class, the integrity and denial
  943. of service requirements of many systems warrant at least class C2
  944. protection. 
  945.  
  946. 2 Automated markings on output must not be relied on to be accurate unless
  947. at least class B1 is used. 
  948.  
  949. 3 Where an AI$ handles classified or compartmented data and some users do
  950. not have at least a Confi-dential clearance, or when there are more than
  951. two types of compartmented information being handled, at least a class B2
  952. is required. 
  953.  
  954. 4 The asterisk (*) indicates that computer protection for environments
  955. with that risk index is considered to be beyond the state of current
  956. computer security technology. 
  957.  
  958. 5 Most embedded systems and desk top computers operate in the dedicated
  959. mode. 
  960.  
  961. Table 3 12 is used, along with the Risk Index calculated above, to
  962. determine a minimum NCSC-evaluation rating for the system. Note that some
  963. terms that appear m the TCSEC Environments Guideline are no longer defined
  964. in DODD 5200.28. (Limited Access Mode, and Compartmented Mode fall under
  965. the heading of Partitioned Mode. Controlled Mode comes under the heading
  966. Multilevel. The prevt.ou:£sly used terms referred to the equivalent of the
  967. BI and B2 evaluation classes. In DODD 5200.28, Partitioned Mode is used in
  968. place of Compartmented Mode.) 
  969.  
  970. ____________________ 
  971.  
  972. 12 Table 3 is adapted from the TCSEC Environments Guideline 
  973.  
  974. 5 TNI Part II Security Requirements
  975.  
  976. This section contains a discussion of TNI Part II which describes
  977. qualitative evaluations of security services in terms of functionality,
  978. strength of mechanism, and assurance. Part II of the TNI describes
  979. additional security concerns and services that arise in conjunction with
  980. networks, but that do not normally arise in stand-alone computers. 
  981.  
  982. Part II of the TNI focuses on those threats that occur between end systems
  983. (hosts) on the network. These security services include protection against
  984. compromise, denial of service, and unauthorized modification. In
  985. discussing these services, the TNI borrows heavily from the International
  986. Standards Organization (150) 051 Basic Reference Model [9] and Security
  987. Architecture [16]. The services discussed are closely related to those
  988. found in the latter reference. The TNI goes beyond the 051 Security
  989. Architecture in several respects. First, the 051 document does not address
  990. the relative strengths of different mechanisms nor the assurances that
  991. they operate as intended. Second, the protection against denial of service
  992. threats is not specifically addressed by 051 but is an important
  993. consideration in the TNI. 
  994.  
  995. 5.1 Relationship of TNI Part II Services to Part I and
  996. Appendix A 
  997.  
  998.      The Part II services are not as well understood as the features in
  999.      TN1 Part I. The fact that Part 11 services have not been supported by
  1000.      equally well developed theories and detailed evaluation criteria
  1001.      should not be interpreted to imply that their security problems do
  1002.      not have to be evaluated as rigorously as TNI Part I and Appendix A
  1003.      services. Some Part II services may not be part of the NTCB. For
  1004.      example, to make the NTCB as small as possible, some of the protocol
  1005.      software may be outside the NTCB. Therefore, the protocol-based
  1006.      protection against denial of service is likely to be outside the
  1007.      NTCB. Nonetheless, it must rely on some of the fundamental NTCB
  1008.      assurances since the protocols invoke portions of the subsystem's
  1009.      operating system. 
  1010.      It is important to recognize that many Part II security services
  1011.      depend on (embedded) AIS. These AIS should be evaluated using Part I
  1012.      and Appendix A of the TNI. Encryption systems, for example, are
  1013.      highly dependent upon AIS; they are addressed in Appendix B of the
  1014.      TNI and Appendix C of this guideline. Appendix C presents some
  1015.      considerations concerned with applying Tables 1, 2, and 3 to
  1016.      encryption systems. 
  1017.  
  1018. 25 
  1019.  
  1020. TNI Environments Guideline TNI PartII Security Requirements 
  1021.  
  1022. For security services that do not depend strongly on AIS, a qualitative
  1023. evaluation approach is used. For functionality, a question and answer
  1024. format is presented in Section 5.4.3. For strength of mechanism and
  1025. assurance, the concept of a risk index is used in Sections 5.4.1 and
  1026. 5.4.2. 
  1027.  
  1028. 5.2 Specification and Evaluation of Security Services
  1029.  
  1030. Specifying and evaluating Part II security services is quite different
  1031. from a TNI Part I evaluation even though both parts are concerned with the
  1032. same three aspects of security services or capabilities: functionality,
  1033. strength of mechanism, and assurance. For clarity these terms are defined
  1034. as follows: Functionality refers to the objective and approach of a
  1035. security service. Sirength of mechanism refers to how well a specific
  1036. approach may be expected to achieve its objectives. Assurance refers to a
  1037. basis for believing that the functionality will be achieved. 
  1038.  
  1039. 5.3 Evaluation Ratings
  1040.  
  1041.      Part II evaluations are qualitative, as compared with the
  1042.      hierarchically~rdered ratings (e.g., C1, C2, ...) from the TCSEC. The
  1043.      results of a Part II evaluation for offered services are generally
  1044.      summarized using the terms none, minimum, fair, and good. For some
  1045.      services, functionality is summarized using none or present because
  1046.      gradations are not meaningful. Theterm none is used to mean the
  1047.      security service fails to distinguish the strength of mechanism. The
  1048.      term not offered is used when a security service is not offered. For
  1049.      example, if a certain network did not include non-repudiation as one
  1050.      of its security services, that network would be rated not offered
  1051.      with respect to non-repudiation. Table 4 represents the evaluation
  1052.      structure of PartII as a matrix. It identifies a set of security
  1053.      services. It also shows the possible evaluation ranges for each
  1054.      service in terms of its functionality, strength of mechanism, and
  1055.      assurance. 
  1056.  
  1057. 5.4 Selecting Security Services
  1058.  
  1059. Part II enumerates representative security services that an organization
  1060. may choose to employ in a specific situation. Not all security services
  1061. will be equally important for a specific environment, nor will their
  1062. relative importance be the same 
  1063.  
  1064. TNI Environments Guideline TNI Part II Security Requirements 
  1065.  
  1066.      Table 4 
  1067.      Evaluation Structure for Network Security Services 
  1068.  
  1069. Network Security   Criterion          Evaluation                             
  1070. Service                                                                      
  1071.  
  1072. Communications     None present                                              
  1073. Integrity                                                                    
  1074. Functionality                                                                
  1075.  
  1076. Authentication     None               good                                   
  1077. Strength                                                                     
  1078.  
  1079. Assurance          None               good                                   
  1080.  
  1081. Communications     None               good                                   
  1082. Field Integrity                                                              
  1083. Functionality                                                                
  1084.  
  1085. Strength                              None                good               
  1086.  
  1087. Assurance          None               good                                   
  1088.  
  1089. Non-repudiation    None               present                                
  1090. Functionality                                                                
  1091.  
  1092. Strength            Denial of         None                good               
  1093.                    Service                                                   
  1094.  
  1095. Continuity of      None               good                                   
  1096. Operations                                                                   
  1097. Functionality                                                                
  1098.  
  1099. Strength                              None                good               
  1100.  
  1101. Assurance          None               good                                   
  1102.  
  1103. Protocol Based     None               good                                   
  1104. Protection                                                                   
  1105. Functionality                                                                
  1106.  
  1107. Strength           None               good                                   
  1108.  
  1109. Assurance          None               good                                   
  1110.  
  1111. Network            None               present                                
  1112. Management                                                                   
  1113. "Functionality                                                               
  1114.  
  1115. Strength           None               good                                   
  1116.  
  1117. Compromise         None               present                                
  1118. Protection Data                                                              
  1119. Confidentiality                                                              
  1120. Functionality                                                                
  1121.  
  1122. Strength                                                                     
  1123. Sensitivity level                                                            
  1124.  
  1125. Assurance          None               good                                   
  1126.  
  1127. Traffic Flow       None               present                                
  1128. Confidentiality                                                              
  1129. Functionality                                                                
  1130.  
  1131. Strength           Sensitivity        level                                  
  1132.  
  1133. Assurance          None               good                                   
  1134.  
  1135. Selective Routing  None               present                                
  1136. Functionality                                                                
  1137.  
  1138. Strength           None               good                                   
  1139.  
  1140. Assurance          None               good                                   
  1141.  
  1142.  
  1143.  
  1144. among different environments. Selecting security services is a management
  1145. decision, with assistance provided by this guideline. 
  1146.  
  1147. Ordinarily, the security manager would first determine whether a
  1148. particular service is required and what functionality is needed (if there
  1149. are distinctions) through a series of questions provided in Section 5.4.3.
  1150. A separate set of questions is provided for each service shown in Table 4.
  1151.  
  1152. Once the functionality has been determined, the strength of mechanism and
  1153. appropriate level of assurance must be determined. The process is similar
  1154. to the determination of Part I risk in Section 4 of this guideline. Since
  1155. the strength of mechanism and assurance determination do not differ for
  1156. the various services, these topics are addressed first. 
  1157.  
  1158. 5.4.1 Strength of Mechanism
  1159.  
  1160. Determination of strength of mechanism for each service has two
  1161. components. The inadvertent threat and the malicious threat should be
  1162. analyzed separately. In many cases, the malicious threat will dominate the
  1163. inadvertent threat; malicious users can often duplicate the circumstances
  1164. of an inadvertent threat. The required strength of mechanism is determined
  1165. using a risk index similar to that used in PartI. 
  1166.  
  1167. For inadvertent threats, traditional risk management techniques are used.
  1168. While some countermeasures may be the same for inadvertent and malicious
  1169. threats, others may be effective only against the former. The security
  1170. manager must determine the likelihood of a particular threat, the dollar
  1171. cost of a countermeasure, and the residual risk if the countermeasure is
  1172. put into effect. The manager concerned with these inadvertent threats is
  1173. referred to the references on risk assessment previously cited. 
  1174.  
  1175. For malicious threats, we consider the most sensitive information
  1176. contained on the system and the lowest clearance of user who can gain
  1177. physical access to some device in the system, including access to wireless
  1178. transmissions. Some devices in the system may be physically protected in
  1179. buildings that require a clearance for admittance. Other devices in the
  1180. system, such as long-haul transmission lines, may have no physical
  1181. protection. 
  1182.  
  1183. Protection of the information in the network system is a combination of
  1184. physical, administrative, procedural, and technical protections. The
  1185. TNIlis concerned only with the AIS hardware, firmware, software, and
  1186. configuration management protections. Various service or agency
  1187. regulations describe methods for implementing the other protections. 
  1188.  
  1189. The various devices in the system must be considered separately; for each
  1190. device, 
  1191.  
  1192. the risk index will be based on the most sensitive information on the
  1193. network system and the minimum clearance to gain physical access to the
  1194. device. Note that this is 
  1195.  
  1196. different from the Part I risk index calculation (where the lowest cleared
  1197. user is of concern). For some devices in the system (e.g., the
  1198. communications media), the clearance of individuals with physical access
  1199. may be lower than that for authorized users. For convenience, all the
  1200. necessary tables are included here. Table 5, Minimum Clearance for
  1201. Physical Access, is identical to Table 1. For each device in the system,
  1202. the lowest clearance of individuals with physical access to that device is
  1203. used. Table 6 for Maximum Data Sensitivity is identical to Table 2. 
  1204.  
  1205.      Table 5 
  1206.      Minimum Clearance for Physical Access 
  1207.  
  1208. Minimum User Clearance               Rmin                                  
  1209.  
  1210.                                                                            
  1211.  
  1212. Uncleared OR Not Authorized (U)       0                                    
  1213.  
  1214. Not Cleared but Authorized Access     1                                    
  1215. to Sensitive                                                               
  1216.  
  1217. Unclassified Information (N)                                               
  1218.  
  1219. Confidential ┐                       2                                     
  1220.  
  1221. Secret (S)                            3                                    
  1222.  
  1223. Top Secret (TS) and/or current       4                                     
  1224. Background                                                                 
  1225.  
  1226. Investigation (BI)                                                         
  1227.  
  1228. TS and/or current Special            5                                     
  1229. Background                                                                 
  1230.  
  1231. Investigation (SBI)                                                        
  1232.  
  1233. One Category (IC)                     6                                    
  1234.  
  1235. Multiple `Categories (MC)             7                                    
  1236.  
  1237.                                                                            
  1238.  
  1239.  
  1240.  
  1241. Table 6 
  1242.  
  1243.      Maximum Data Sensitivity 
  1244.  
  1245. Maximum Sensitivity Rating Maximum Data Rating 
  1246.  
  1247. Ratings without (Rmax) Sensitivity (Rmax) 
  1248.  
  1249. Categories with Categoriesi,1 2 
  1250.  
  1251. Unclassified U 0 N/A 3 
  1252.  
  1253. Not Classified but 1 N with one or more Categories 2 
  1254.  
  1255. Sensitive N 4 
  1256.  
  1257. Confidential C 2 C with one or more Cate ories 3 
  1258.  
  1259. Secret (S) 3 5 with one or more Categories 4 
  1260.  
  1261. only one Category containing 5 
  1262.  
  1263. S with two or more Categories 5 
  1264.  
  1265. containin S 
  1266.  
  1267. Top Secret (TS) 5 5 TS with one or more Categories 6 
  1268.  
  1269. only one Category containing 5 or TS 
  1270.  
  1271. T5 with two or more Categories 7 
  1272.  
  1273. containin S or TS 
  1274.  
  1275. 1 Where the number of categories is large or where a highly sensitive
  1276. category is involved, a higher rat-ing might be warranted. 
  1277.  
  1278. 2 The only categories of concern are those for which some users are not
  1279. authorized access. When counting the number of categories, count all
  1280. categories regardless of the sensitivity level associated with the data.
  1281. If a category is associated with more than one sensitivity level, it is
  1282. only counted at the highest level. Systems in which all data are in the
  1283. same category are treated as without categories. 
  1284.  
  1285. 3 Unclassified data by definition may not contam categories. 
  1286.  
  1287. 4 Examples of N data include financial, proprietary, privacy, and
  1288. mission-sensitive data. In some situa-tions (e.g., those involving
  1289. extremely large financial sums or critical mission-sensitive data), a
  1290. higher rat-ing may be warranted. This table prescribes minimum ratings. 
  1291.  
  1292. 5 The rating increment between the Secret and Top Secret data sensitivity
  1293. l~els is greater than the in-crement between other adjacent levels. This
  1294. difference derives from the fact that the loss of Top Secret data causes
  1295. EXCEPTIONALLY GRAVE damage to U.S. national security, whereas the loss of
  1296. Secret data causes SERIOUS damage. 
  1297.  
  1298. Table 7 now gives the strength of mechanism requirement based on the risk
  1299. index 
  1300.  
  1301. calculated as 
  1302.  
  1303. Risk Index = Rmax - Rmin 
  1304.  
  1305.      Table 7 
  1306.      Minimum Strength of Mechanism Requirement 
  1307.  
  1308. Risk Strength of 
  1309.  
  1310.      ₧ None 
  1311.           1 Minimum 
  1312.           2 Fair 
  1313.  
  1314. >2 Good 
  1315.  
  1316. 5.4.2 Assurance
  1317.  
  1318. Assurance is a very important concept in the TCSEC and TNI. This section
  1319. discusses the need for assurance and the ways in which it may be achieved.
  1320.  
  1321. One salient property of trusted systems is the reliance on a TCB.
  1322. Similarly, trusted network systems rely on an NTCB. In addition to its
  1323. other responsibilities, the NTCB prevents unauthorized modification to
  1324. objects within the network system. In particular, the NTCB maintains the
  1325. integrity of the programs which provide security services, thus ensuring
  1326. that their assurance is continued. The NTCB provides an execution
  1327. environment that is extremely valuable in enhancing the assurance of
  1328. security services. Discretionary and mandatory access controls can be
  1329. employed to segregate unrelated services. Thus, service implementation
  1330. that is complex and error-prone or obtained from an unevaluated supplier
  1331. can be prevented from degrading the assurance of other services
  1332. implemented in the same device. Furthermore, an NTcB ensures that the
  1333. basic protection of the security and integrity information entrusted to
  1334. the network is not diluted by various supporting security services. 
  1335.  
  1336. The relationship of the risk index to the required assurance is expressed
  1337. in Table 8. 
  1338.  
  1339. TNI Environments Guideline TNI PartII Security Requirements 
  1340.  
  1341. Table 8 
  1342.  
  1343. Minimum Assurance Requirements 
  1344.  
  1345. Risk Part II 
  1346.  
  1347. Index Assurance Rating 
  1348.  
  1349.      ₧ None 
  1350.           1 Minimum 
  1351.           2 Fair 
  1352.           >2 Good 
  1353.  
  1354. Assurance of the design and implementation of PartII mechanisms is also
  1355. related to the assurance requirements in Part I because service integrity
  1356. depends on protection by the NTCB or TCBs. Table 9 expresses this
  1357. dependency. The second column identifies the minimum Part I evaluation
  1358. which supports the Part II assurance requirement. Note that Table 9 is
  1359. applicable only to those PartII services not strongly dependent on AIS;
  1360. the AIS implementing those services can be directly evaluated under PartI
  1361. and Appendix A of the TNI. 
  1362.  
  1363. Note that the Evaluation Class calculation in Part I will not necessarily
  1364. be the same as the Minimum Part I Evaluation in Table 9. This is because
  1365. the Rmin for Part II may be different from that of Part I since the Part
  1366. II protections are oriented towards outsiders (those with physical access)
  1367. rather than towards users. Depending on the particular environment, either
  1368. the Part I requirement or the Part II requirement may dominate. The latter
  1369. would be the case if a system were operated in the system high mode-where
  1370. all users were cleared to see the most sensitive information-but the
  1371. network was exposed to lower clearance individuals. 
  1372.  
  1373. 5.4.3 Functionality
  1374.  
  1375. This section asks questions about each of the security servi'ces contained
  1376. in PartII of the TNI. These questions are designed to help the security
  1377. manager identify the functionality required for each security service. The
  1378. questions should be answered in sequence, unless the answer to one
  1379. question contains an instruction to skip ahead. 
  1380.  
  1381. Authentication 
  1382.  
  1383.      1. Is there a requirement to determine what individual, process or
  1384.      device is at the other end of a network communication? If yes,
  1385.      document this requirement. 
  1386.  
  1387.      Table 9 
  1388.      Part II Assurance Rating 
  1389.  
  1390. PartII                                Minimum PartI                        
  1391.  
  1392. Assurance Rating                     Evaluation                            
  1393.  
  1394. Minimum                              CI                                    
  1395.  
  1396. Fair                                 C2                                    
  1397.  
  1398. Good                                 B2                                    
  1399.  
  1400.  
  1401.  
  1402. If no, skip to Communications Field Integrity. 
  1403.  
  1404.      2. Do you have a requirement to identify and authenticate the
  1405.      specific hardware device at the distant end-point involved in the
  1406.      network communication? If yes, then you have a functionality
  1407.      requirement for authentication. This functionality may be implemented
  1408.      at one or more protocol layer. For example, a specific control
  1409.      character, ENQ (enquiry or who-are-you) may be used to return
  1410.      immediately a stored terminal identifier. 
  1411.      3. Do you have a requirement to identify and authenticate the
  1412.      location of the hardware at the distant end-point or in any
  1413.      intermediate system involved in the network communication? 
  1414.      If yes, then you have a functionality requirement for authentication
  1415.      at protocol layer 2, the Link Layer or layer 3, the Network Layer. 
  1416.      4. Do you have a requirement to identify and authenticate the
  1417.      specific operating system or control program at the distant end-point
  1418.      or in any intermediate system involved in the network communication? 
  1419.      If yes, then you have a functionality requirement for authentication
  1420.      at protocol layer 4, the Transport Layer. 
  1421.      5. Do you have a requirement to identify and authenticate the subject
  1422.      (process/domain pair) at the distant end-point involved in the
  1423.      network communication? 
  1424.      If yes, then you have a functionality requirement for authentication
  1425.      at protocol layer 4 or above. 
  1426.  
  1427.      6. Do you have a requirement to identify ad authenticate the
  1428.      application or user at the distant end-point involved in the network
  1429.      communication? If yes, then you have a functionality requirement for
  1430.      authentication above protocol layer 7, the Applications Layer. The
  1431.      Applications Layer provides an interface to the application.
  1432.      Authentication information may pass over this interface.
  1433.      Authentication of a user is addressed in Part I of the TNI.
  1434.      Application process authentication is outside the scope of the 05I
  1435.      Security Architecture, but does fall within the scope of TNI PartII
  1436.      Security Services. Have you chosen to use some mechanism other than
  1437.      encryption to provide authentication? If so, your strength of
  1438.      mechanism is shown in Table 7. If your authentication mechanism is
  1439.      encryption based, see the appropriate encryption authority (e.g.,
  1440.      NSA). Even if encryption is used, some supporting processes may need
  1441.      to satisfy the strength of mechanism shown in Table 7 (depending on
  1442.      the architecture). For example, a database that relates encryption
  1443.      keys to specific users may need to be trusted. 
  1444.  
  1445. Communications Field Integrity 
  1446.  
  1447.      1. Do you have a requirement to protect communication against
  1448.      unauthorized modification? If no, skip to Non-Repudiation. 
  1449.      2. Are your protection requirements the same for all parts of the
  1450.      information communicated? 
  1451.      If no, then you should identify the separate parts and answer the
  1452.      rest of the questions in this section separately for each part. Each
  1453.      part is known as a field. 
  1454.      There are two major fields: protocol-information, whherein the
  1455.      network is informed of the destination of the information and any
  1456.      special services required; and user-rlata. Not every protocol data
  1457.      unit (PDU) contains user-data, but protocol-information is necessary.
  1458.      Each of these fields may be divided into additional fields; depending
  1459.      on your application, protection requirements for fields may differ. 
  1460.  
  1461.      3. Do you have a requirement for detecting unauthorized modification
  1462.      to part or allofaPDU? 
  1463.      If yes, you have a requirement for at least minimum functionality. 
  1464.      4. Do you have a requirement for detecting any of the following forms
  1465.      of message stream modification: insertion, deletion, or replay? 
  1466.      If yes, you have a requirement for at least fair functionality. In
  1467.      addition, your functionality must be incorporated in a connection
  1468.      oriented protocol. 
  1469.      5. Do you require that, if message stream modification is detected,
  1470.      recovery (correction) should be attempted? 
  1471.      If yes, you have a requirement for good functionality. In addition,
  1472.      you must implement integrity in a reliable transport (layer 4)
  1473.      mechanism. 
  1474.  
  1475. Non-repudiation 
  1476.  
  1477.      1. Do you have a requirement to be able to prove (to a third party)
  1478.      that a specific message transfer actually occurred? If no, skip to
  1479.      Denial of Service. 
  1480.      2. Do you have a requirement for proving that a specific message was
  1481.      sent? 
  1482.      Specific message means that the identity of the subject sending the
  1483.      message, the host computer and/or mail agent/server, time and date,
  1484.      and contents are all uniquely and unalterably identified. 
  1485.      If yes, then you have a functionality requirement for non-repudiation
  1486.      with proof of origin. 
  1487.      3. Do you have a requirement for proving that a specific message was
  1488.      received? 
  1489.      Specific message means that the identity of the subject to which the
  1490.      message was delivered, the host computer and/or mail agent/server,
  1491.      time and date, and contents are all uniquely and unalterably
  1492.      identified. 
  1493.      If yes, then you have a functionality requirement for non-repudiation
  1494.      with proof of delivery. 
  1495.  
  1496. Denial of Service 
  1497.  
  1498.      1. Do you have a requirement to assure the availability of
  1499.      communications service or to determine when a Denial of Service (DOS)
  1500.      condition exists? A DOS condition is defined to exist whenever
  1501.      throughput falls below a pre~stablished threshold, or when access to
  1502.      a remote entity is unavailable, or when resources are not available
  1503.      to users on an equitable basis. For a DOS condition to occur, the
  1504.      user must have priority to access the system or resources. If no,
  1505.      skip to Data Confidentiality. 
  1506.      2. Do you have a requirement to detect conditions that would degrade
  1507.      service below a pre-selected minimum and to report such degradation
  1508.      to the network operators? 
  1509.      If yes, you have a requirement for at least minimum denial of service
  1510.      functionality. 
  1511.      3. Could failure of the system to operate for several minutes lead to
  1512.      personal injury or large financial loss? 
  1513.      If yes, you have a requirement for at least fair denial of service
  1514.      functionality. 
  1515.      4. Do you have a requirement for service resiliency that would
  1516.      continue-perhaps in a degraded or prioritized mode-in the event of
  1517.      equipment failure and/or unauthorized actions? 
  1518.      If yes, you have a requirement for at least fair denial of service
  1519.      functionality. 
  1520.      5. Could failure of your system to operate for several minutes lead
  1521.      to loss of life? 
  1522.      If yes, you have a requirement for good denial of service
  1523.      functionality. 
  1524.      6. Do you have a requirement for automatic adaptation upon detection
  1525.      of a denial~fservice condition? 
  1526.      If yes, you have a requirement for good denial of service
  1527.      functionality. 
  1528.  
  1529. Protocol Based DOS Protection 
  1530.  
  1531.      1. Do you want advanced knowledge of unavailability of service? 
  1532.           If no, skip to Network Management. 
  1533.           If yes, do you want to implement alternatives? 
  1534.  
  1535. If yes, you should employ this alternative basis and skip to Network
  1536. Management. 
  1537.  
  1538.      2. In general, ordinary protocol mechanisms don't provide protection
  1539.      against malicious attacks or bizarre errors. Do you have a
  1540.      requirement to detect a DOS condition which cannot be met by the
  1541.      protocols used as part of normal communications? 
  1542.      If no, you do not have a functional requirement for protocol-based
  1543.      DOS protection and should skip to Network Management. 
  1544.      3. The TNI suggests the following protocol-based mechanisms: 
  1545.           a. Measure the transmission rate between peer entities under
  1546.           conditions of input queuing, and compare the measured
  1547.           transmission rate with a rate previously identified as the
  1548.           minimum acceptable; 
  1549.           b. Employ a request-response polling mechanism, such as
  1550.           "are-you-there" and "here-I-am" messages, to verify that an open
  1551.           path exists between peer entities. 
  1552.  
  1553. If you have identified any additional mechanisms, include them in your
  1554. list of required mechanisms. 
  1555.  
  1556. Network Management 
  1557.  
  1558.      1. Do you have a requirement for (at least) detecting a denial of
  1559.      service condition that affects more than a single instance of
  1560.      communication or attempted communication? 
  1561.      If no, skip to Data Confidentiality. 
  1562.      If yes, you have a functional requirement for network management
  1563.      denial of service protection. 
  1564.  
  1565. Data Confidentiality 
  1566.  
  1567.      1. Do you have a requirement to protect any part of transmitted data
  1568.      from disclosure to unauthorized persons? If no, skip to Traffic Flow
  1569.      Confidentiality. 
  1570.      2. Is your requirement for confidentiality limited to selected field
  1571.      of user~ata within a PDU? 
  1572.      If no, then you require confidentiality for the entire data portion
  1573.      of each PDU. 
  1574.      Continue with Traffic Flow Confidentiality. 
  1575.      3. Is there a reason to encrypt only selected fields (e.g., cost
  1576.      savings, legal requirements)? 
  1577.      If yes, you require selected field confidentiality. If no, you
  1578.      require full confidentiality on the data portion of each PDU. 
  1579.  
  1580. Traffic Flow Confidentiality 
  1581.  
  1582.      1. Do you have a requirement to prevent analysis of message length,
  1583.      frequency, ad protocol components (such as addresses) to prevent
  1584.      information disclosure through inference (traffic analysis)? 
  1585.      If no, skip to Selective Routing. 
  1586.      If yes, you have a functional requirement for traffic flow
  1587.      confidentiality. 
  1588.  
  1589. Selective Routing 
  1590.  
  1591.      1. Do you have a requirement to choose or avoid specific networks,
  1592.      links, relays, or other devices for any reason at any time? 
  1593.      If yes, you have a functional requirement for selective routing. 
  1594.  
  1595. 6 Interconnecting AIS
  1596.  
  1597. The definition of Interconnected Accredited AIS recognizes that parts of a
  1598. network may be independently created, managed, and accredited. AIS in
  1599. different security domains 13 generally operate under different security
  1600. policies, consequently, it is difficult to combine them into a Unified
  1601. Network. For example, AIS operated by the U.S. DOD and NATO cannot be
  1602. combined into a Unified Network, since they enforce different policies and
  1603. do not have a common authority. 
  1604.  
  1605. Interconnecting systems that support different security domains (e.g.,
  1606. classified, sensitive unclassified) adds additional complexity. Exchange
  1607. of information among these different security domains requires
  1608. identification of the markings and protection given to information when
  1609. transmitted to another domain. For example, several evolving approaches to
  1610. the protection of sensitive unclassified information [17] consider "that
  1611. sensitive information is not part of the same hierarchy as classified
  1612. information". 
  1613.  
  1614. There are technical criteria for judging the trustworthiness of
  1615. Interconnected Accredited AIS: an Interconnection Rule, which ensures that
  1616. information conveyed between subsystems is labeled properly, and risk
  1617. factors such as propagation of local risk and the cascading problem. These
  1618. criteria are examined in some detail below. 
  1619.  
  1620. 6.1 Agreement Between Accreditors
  1621.  
  1622. Interconnection of AIS between security domains requires a documented
  1623. agreement identifying the interconnection requirements and all safeguards.
  1624. This agreement will have many similarities to the MOA discussed in Section
  1625. 3.2. It will probably have to reconcile different security policies and
  1626. philosophies of protection, identifying the conditions under which
  1627. specified classes of information can be exchanged among domains. In
  1628. addition to the information included in> the MOA, this agreement between
  1629. managers of different security domains should address the mappings of
  1630. policy and countermeasures between the domains. In many ways this
  1631. agreement takes on the character of an NSAD for the agreed upon
  1632. information exchange between domains. 
  1633.  
  1634. ________________________ 
  1635.  
  1636. 13 A security domain is a collection of A[$ under the control of a single
  1637. administrator that en-forces or operates under a specified policy. There
  1638. can be sub-domains, (e.g., Army and Air Force are sub-domains under the
  1639. Department of Defense.) 
  1640.  
  1641. 6.1.1 Accreditation Range
  1642.  
  1643. An accreditation designates a system's mode of operation and range of data
  1644. sensitivity' levels. The accreditation range reflects the Accreditor's
  1645. judgment on the subsystem's ability to exchange information within an
  1646. acceptable level of risk, with respect to its network connections, and in
  1647. accord with the designated sensitivity levels. 
  1648.  
  1649. The range must be a single level in the case of a system high or dedicated
  1650. device14. 
  1651.  
  1652. If the accreditation range comprises more than a single level, the system
  1653. is trusted to reliably segregate data by level within its accreditation
  1654. range, and label it accurately for transmission over multilevel
  1655. interfaces. The accreditation range will be specified in the MOA. The
  1656. accreditation range is used in determining whether communication between
  1657. systems is permitted. 
  1658.  
  1659.      Figure 1 
  1660.      Information Levels and Accreditation Ranges 
  1661.  
  1662. TS
  1663.  
  1664. S-C S 
  1665.  
  1666.  
  1667. C2 Evaluation Class B3 
  1668.  
  1669. S Accreditation Range TS-C 
  1670.  
  1671. SH Operating Mode MLS 
  1672.  
  1673. As shown in Figure 1, an AIS may contain information at levels that are
  1674. below its accreditation range. For example, a C2 host which contsuns
  1675. Secret (S) and Confidential ┐ information, is not trusted to segregate
  1676. this confidential and Secret information. Therefore, it is accredited to
  1677. operate in system high (SH) mode at Secret (the highest sensitivity level
  1678. of information on the system), and its accreditation range is the single
  1679. level Secret. All exported information must be labeled with the system
  1680. high sensitivity label until there is a manual review to assign the
  1681. information a lower 14 Often in the discussion it is not appropriate to
  1682. distinguish between a component and a sub-system; in that case we use the
  1683. term device. 
  1684.  
  1685. classification level. In contrast, a B3 multilevel secure (MLS) host,
  1686. which contains Top Secret (TS), Secret, and Confidential information could
  1687. be assigned an accreditation range equal to the entire set of levels
  1688. processed. In this case, the label of the exported data is equal to the
  1689. actual level of the exported data, unless unclassified data is to be
  1690. exported. 
  1691.  
  1692. Figure 2 illustrates the accreditation ranges of two interconnected
  1693. subsystems. 
  1694.  
  1695. Although Subsystem Y is able to separate its three levels of information,
  1696. it may exchange information with Subsystem X only at the S and C levels. 
  1697.  
  1698.      Figure 2 
  1699.      Accreditation Ranges of Two Interconnected Sub systems 
  1700.  
  1701. Subsystem X Subsystem Y 
  1702.  
  1703. TS
  1704.  
  1705. S ------------------------------- S 
  1706.  
  1707. C ------------------------------- C 
  1708.  
  1709. Class B1 Class B3 
  1710.  
  1711. In a network, an accreditation range bounds the sensitivity levels of
  1712. information that may be sent (exported) to or received (imported) from
  1713. each interconnected subsystem15. For example, if a network consists of
  1714. only dedicated and system high subsystems, each subsystem will be assigned
  1715. single-valued accreditation ranges (i.e., an accreditation range
  1716. consisting of one sensitivity level). 
  1717.  
  1718. When the same communications channel processes information at;different
  1719. levels, the data must be labeled through some protocol agreed upon by the
  1720. communicating systems. 
  1721.  
  1722. ______________ 
  1723.  
  1724. 15 Note that information exported or imported to a subsystem having a
  1725. single-level accredita-tion range is implicillylabeled at that level. It
  1726. is also possible for a subsystem with a mul-tilevel accreditation range to
  1727. employ network interface devices with single-level ports, in which case
  1728. the data transferred over such ports is also implicitly labeled. 
  1729.  
  1730. DODD 5200.28 Enclosure (5) also addresses AI5 that have not been
  1731. accredited: 
  1732.  
  1733. Untrusted, unaccredited AIS ... may be components of a network.... Only
  1734. unclassified information, which does not include sensitive unclassified
  1735. information, may be sent to ad from untrvsted, unaccredited AIS. 
  1736.  
  1737. This trvst requirement is satisfied by restricting the accreditation rage
  1738. of the untrusted, unaccredited AIS to Unclassified (U). 
  1739.  
  1740. 6.1.2 Device Range
  1741.  
  1742. A network subsystem is typically connected to another subsystem through
  1743. some kind of 1/0 network interface or device (see Figures 3~) ad the same
  1744. device may provide connection to multiple subsystems. 
  1745.  
  1746. Although a 1/0 device is part of a subsystem, it may be designated to
  1747. process a more restricted set of sensitivity levels than the accreditation
  1748. rage of the subsystem as a whole. This leads to the concept of a device
  1749. range. Each 1/0 device in a subsystem that is used to communicate with
  1750. other subsystems in the network must have a device rage. The device rage
  1751. may be single level, or it may be a set of levels (in which case the
  1752. device is referred to as multilevel), and it must be included within the
  1753. subsystem accreditation range. The TCSEC states that "systems that have
  1754. been evaluated at classes B2 ad above must support minimum ad maximum
  1755. security labels for all multilevel 1/0 devices". The purpose of device
  1756. labels is to document the constraints placed on the security levels of
  1757. information authorized for the devices. 
  1758.  
  1759. Each physically attached multilevel system (if any) has a minimum ad
  1760. maximum sensitivity level associated with it. A B1 or higher system
  1761. interconnected to a second system must ensure that both imported and
  1762. exported information is contained within appropriate sensitivity levels. 
  1763.  
  1764. 6.1.3 Information Transfer Restrictions
  1765.  
  1766. The following points summarize the discussion on the restrictions imposed
  1767. on information transfer between interconnected devices. 
  1768.  
  1769. Information exported or imported using a single-level device is labeled
  1770. implicitly by the security level of the device. As shown in Figure 3, any
  1771. information transferred between the single-level (S) devices on Subsystems
  1772. X and Y is implicitly labeled S. 
  1773.  
  1774.      Figure 3 
  1775.      Implicit Labeling 
  1776.  
  1777. Subsystem X Subsystem Y 
  1778.  
  1779. Information exported from one multilevel device and imported at another
  1780. multilevel device must be labeled through an agreed-upon protocol, unless
  1781. it is labeled implicitly by using a communications link that always
  1782. carries a single level. For instance, in Figure 4, Secret and Confidential
  1783. information may be transferred between the multilevel devices. 
  1784.  
  1785.      Figure 4 
  1786.      Protocol Labeling 
  1787.  
  1788. Subsystem X Subsystem Y 
  1789.  
  1790.      Figure5 
  1791.      Compatibility Labeling 
  1792.  
  1793. Subsystem X Subsystem Y 
  1794.  
  1795. Information exported at a given security level can be sent only to a
  1796. importing device whose device rage contains that level or a higher level.
  1797. In Figure 5, Subsystem X is allowed to export only Secret information to
  1798. Subsystem Y's multilevel device. Subsystem Y is allowed to export Secret
  1799. ad Confidential information to Subsystem X, because the device rage
  1800. Subsystem X is TS-S. If the importing device rage dominates the exported
  1801. level, the information is implicitly or explicitly relabeled upon receipt
  1802. at a higher level within the importing device range. 
  1803.  
  1804.      Figure 6 
  1805.      Relabeling 
  1806.  
  1807. Subsystem X Subsystem Y 
  1808.  
  1809. In Figure 6, Subsystem Y relabels information imported from Subsystem X.
  1810. The information transfer restrictions also permit one-way communication
  1811. (i.e., no acknowledgments) from one device to aother whose rages have no
  1812. level in common, as long as each level in the sending device rage is
  1813. dominated by some level in the receiving device rage. It is never
  1814. permitted to send information at a given level to a device whose rage does
  1815. not contain a dominating level. 
  1816.  
  1817. In most interconnected subsystems, the bidirectional flow of information
  1818. is permitted. In this environment, the sensitivity level of any
  1819. transmitted message must be within the accreditation range of both the
  1820. sending and receiving systems. In some networks, an additional restriction
  1821. on information flow may be unidirectional communications. This restriction
  1822. may enhance security. The following discussions refer to Figure 7. 
  1823.  
  1824.      Figure 7 
  1825.      Bidirectional and Unidirectional Information Flow 
  1826.  
  1827. Subsystem X Subsystem Y 
  1828.  
  1829. TS (C or U) C 
  1830.  
  1831. U
  1832.  
  1833. SH (TS) Subsystem Z ┐ MLS (C-U) 
  1834.  
  1835. TS 
  1836.  
  1837.  
  1838.  
  1839. MLS (TS-C) 
  1840.  
  1841. The system high mode is usually assigned to AIS that are unevaluated or
  1842. are NCSC~valuated in class C. These AIS do not employ explicit labels
  1843. because they cannot be trusted to differentiate between sensitivity
  1844. levels. All information within these AIS is implicitly labeled. When
  1845. exported on a single level channel, by default the information is labeled
  1846. implicitly by the level of the channel. Human-readable output must be
  1847. labeled at the system high level; it may be manually downgraded by an
  1848. authorized reviewer. 
  1849.  
  1850. Explicit labels are required on a multilevel channel. In order to export
  1851. explicit labels, Subsystem X would normally be expected to be
  1852. NCSC-evaluated at BI or above, or employ an 1/0 device, such as those
  1853. shown in Figure 6, NCSC~valuated at BI or above. Also, Subsystem X or the
  1854. 1/0 device should be used as specified in Section 4 of this guideline.
  1855. Lacking such NCSC~valuation, the MOA between the Accreditors would have to
  1856. specifically address these labels. 
  1857.  
  1858. Subsystem X can import a message from Subsystem Y, but cannot acknowledge
  1859. receipt of that message, because an exported acknowledgment (labeled TS)
  1860. cannot be imported by Subsystem Y, which can only receive C or U
  1861. information. Transmitting an acknowledgment from Subsystem X to Subsystem
  1862. Y would constitute a write-down (i.e., writing information at a lower
  1863. sensitivity level-generally a security violation.) 
  1864.  
  1865. Subsystems Y and Z can exchange information at C since this level is in
  1866. the accreditation range of each subsystem. When only unidirectional
  1867. communication (no acknowledgment) is utilized between two subsystems,
  1868. write up is permitted if each sensitivity level in the source subsystem is
  1869. dominated by a sensitivity level in the destination subsystem. The
  1870. receiving subsystem must change the sensitivity level of the message when
  1871. the message is received. For instance, U information sent from Subsystem Y
  1872. will be labeled C by Subsystem Z. 
  1873.  
  1874. 6.2 Interconnection Rule
  1875.  
  1876. The Interconnection Rule states that each device in the network must be
  1877. separately accredited to operate in an approved security mode of operation
  1878. and with a specific accreditation range. The device is accredited to
  1879. participate in the network at those levels and only those levels. This
  1880. means that information exported at a given sensitivity level can be sent
  1881. only to an importing device whose accreditation range contains that level
  1882. or a higher level. Information is relabeled, implicitly or explicitly,
  1883. upon reception at a higher level within the importing device accreditation
  1884. range only if the original level is not in that range. 
  1885.  
  1886. According to the Interconnection Rule, a multilevel network may contain
  1887. devices with different operating modes: dedicated, system high,
  1888. partitioned, and multilevel. Also the devices may differ in the
  1889. sensitivity levels and categories which they process, and the formal
  1890. access approvals of their users (some users may not have access to all
  1891. information). 
  1892.  
  1893. Figure 7 illustrates the flexibility of the Interconnection Rule. For
  1894. example, the interconnection Rule will allow, with certain restrictions, a
  1895. multilevel subsystem to communicate with a single-level subsystem and with
  1896. another multilevel subsystem (and 
  1897.  
  1898. the two MLS subsystems may have different accreditation ranges). It also
  1899. allows for one-way communication to a higher-level system. It is intended
  1900. to be a non-restricting rule and yet ensure that each system receives only
  1901. information that it can properly mark and handle. Interconnection in the
  1902. context of the Interconnection Rule means only direct connections, that
  1903. is, without any intermediate accredited subsystem. 
  1904.  
  1905. The Interconnection Rule alone does not guarantee that classified
  1906. information will not be exposed to greater risks in a network than in a
  1907. stand-alone environment. One problem in networks that is dealt with at
  1908. some length below is the cascading problem. 
  1909.  
  1910.      Figure 8 
  1911.      A Complex Interconnection 
  1912.  
  1913. Subsystem X Subsystem Y 
  1914.  
  1915. 6.2.1 A Complex Example
  1916.  
  1917. The Interconnection Rule and device range allow for some rather
  1918. challenging situations. Consider, for example, the connection depicted in
  1919. Figure 8. The system on the left processes TS information of two types:
  1920. categories A and P (where P is the union of categories C and D, P = C U
  1921. D). The system on the right processes the categories C and Q (where Q is
  1922. the union of categories A and B, Q = A U B). The two devices have no
  1923. sensitivity levels in common. Yet this is a legitimate connection as long
  1924. as only TS ,A and TS ,C information is transferred. Any information sent
  1925. must be relabeled upon receipt. Information in category A is relabeled Q
  1926. when received on the right, ad information in category C is relabeled P
  1927. when received on the left 6.3 Risk Factors 
  1928.  
  1929. There are two global considerations that affect the interconnection of
  1930. systems. 
  1931.  
  1932. The first is called propagation of local risk and the second is the
  1933. cascading problem. Before discussing these considerations, the concepts of
  1934. subsystem connection view and global network view need to be introduced. 
  1935.  
  1936. As discussed in the previous section, any subsystem that is connected to
  1937. other subsystems must enforce the Interconnection Rule. Using the
  1938. subsystem connection 
  1939.  
  1940. view, each subsystem responsible for maintaining the separation of
  1941. multiple levels of information must decide locally whether or not
  1942. information can be sent or received. This view, then, does not require a
  1943. subsystem to know the accreditation ranges of all other subsystems on the
  1944. network; only of those with which it can communicate without an
  1945. intermediary. 
  1946.  
  1947. The Interconnection Rule applies to communication between any two (or
  1948. more) accredited systems. However, even when the Interconnection Rule is
  1949. followed, there may be other potential security problems that will require
  1950. the implementation of additional constraints on the network. In order to
  1951. address these problems, it is necessary to adopt a global view of the
  1952. network. This view requires a knowledge of the accreditation ranges of all
  1953. the subsystems in the network. That is, it is no longer determinable
  1954. locally whether or not a constraint is being satisfied. These
  1955. accreditation ranges are taken into account when determining whether or
  1956. not a subsystem should be allowed to connect to the network. In this way,
  1957. the potential damage that can occur when information is compromised or
  1958. modified can be limited to an acceptable level. 
  1959.  
  1960. Two global concerns are discussed below. One concern is the propagation of
  1961. local risk; the other is the cascading problem. 
  1962.  
  1963. 6.3.1 Propagation of Local Risk
  1964.  
  1965. The term Propagation of Local Risk comes from the notion of jeopardizing
  1966. the security of a system as a result of weaknesses in other systems to
  1967. which it may be connected. Table 3 in Section 4 recommends minimum classes
  1968. of trusted systems for specific environments. Unfortunately, in many
  1969. cases, operational needs have led to the accreditation of systems for
  1970. multilevel operation that would not meet the requirements of the
  1971. recommended class. While this increased risk may be accepted by the
  1972. Accreditor of a particular system, connection of such a system to a
  1973. network exposes users of all other subsystems in the network to the
  1974. additional risk. Consequently, when an unevaluated system, or one that
  1975. does not meet the class recommended for its accreditation, is proposed for
  1976. connection to a network, constraints should be considered, such as one-way
  1977. connections, manual review of transmissions, cryptographic isolation, or
  1978. other measures to limit the risk it introduces. 
  1979.  
  1980. In the special case of a common user network such as DDN, it may be
  1981. necessary to provide communications capabilities among systems that do not
  1982. conform to the security requirements established by the network Accreditor
  1983. (i.e., a system meeting no security requirements may be connected to a
  1984. network.) One common way to provide network service to these non~onforming
  1985. systems while still protecting the other, conforming, systems would be to
  1986. segregate the non-conforming systems into closed communities that could
  1987. not directly communicate with conforming systems. This approach is
  1988. discussed in detail in the Defense Data Network Security Architecture
  1989. [18]. 
  1990.  
  1991. 6.3.2 The Cascading Problem
  1992.  
  1993. One of the problems that the Interconnection Rule does not address is the
  1994. cascading problem, discussed in Appendix C of the INI. The cascading
  1995. problem exists when an attacker can take advantage of network connections
  1996. to reduce the nominal system resistance against leaking information across
  1997. a range of sensitivity levels. Most multilevel systems, evaluated or not,
  1998. are vulnerable to some risk that information can be leaked from a higher
  1999. to a lower level supported on the system. The accreditation range of a
  2000. subsystem represents a judgment that the risk is acceptable for that range
  2001. of classifications. The size of the range is one indication of the
  2002. attractiveness of the system as a target, so larger ranges call for more
  2003. care in system design and management. In particular, Section 4 of this
  2004. guideline discusses computation of a risk index calculation based on the
  2005. accreditation range, and recommends a minimum evaluation class for a given
  2006. risk index. 
  2007.  
  2008. The cascading problem results from the observation that subsystems may be
  2009. connected in such a way that the network covers a larger sensitivity level
  2010. range than the individual systems are accredited to handle. Depending on
  2011. the actual topology of the interconnection and the characteristics of the
  2012. installations, the arnount of effort required for an attacker to take
  2013. advantage of residual vnlnerabilities may be less than what is required
  2014. for the network sensitivity range. 
  2015.  
  2016. To see how this is possible, consider two systems, each of which is
  2017. accredited to handle two adjacent classifications of information, as shown
  2018. in Figure 9. Subsystem A processes Secret and Top Secret information, and
  2019. all users are cleared to at least the Secret level. Subsystem B processes
  2020. Confidential and Secret information, and all users are cleared to at least
  2021. the Confidential level. 
  2022.  
  2023. The network as a whole has three levels of information. However, the
  2024. leakage resistance of the network is only that offered by two systems
  2025. qualified for only two levels. To make Top Secret information available to
  2026. Confidential users, an attacker might attempt to: 
  2027.  
  2028.      1. Install a Trojan horse in Subsystem A to leak some Top Secret
  2029.      information to Secret 
  2030.      2. Send that information across the network link to Subsystem B 
  2031.      3. Install a Trojan horse in Subsystem B to leak the original Top
  2032.      Secret information, now labeled Secret, to Confidential. 
  2033.  
  2034. The path from Top Secret in Subsystem A to Confidential in Subsystem B is
  2035. referred to as a cascading path, with three steps. Step 1 is from TS to S
  2036. in Subsystem A, Step 2 is the network link, and Step 3 is from S to C in
  2037. Subsystem B. Steps (1) and (3), the downgrading steps, offer resistance
  2038. commensurate with strictly smaller ranges. Step (2), the network link,
  2039. offers no additional resistance, given that the two Trojan horses have
  2040. been written and installed. 
  2041.  
  2042.      Figure 9 
  2043.      Cascading Problem 
  2044.  
  2045. Subsystem A
  2046.  
  2047. TS Subsystem B 
  2048.  
  2049. S S 
  2050.  
  2051.  
  2052. The question is, whether subverting two systems qualified for two levels
  2053. of information is as hard as defeating one system qualified for three
  2054. levels of information. In some cases it might be. Lee [19] gives an
  2055. argument that if two systems have probabilistically independent flaw
  2056. sources, "...the resistance to threat of a cascade of two B2 systems is
  2057. approximately the same as, or even better than, that of a B3 system." 
  2058.  
  2059. But Lee also remarks that demonstrating effective independence of flaw
  2060. sources m a practical case is not easy, and that two systems may have the
  2061. same or equivalent flaws, particularly if their TCBs are the same, or are
  2062. separate implementations of a single flawed design. Exploitation of the
  2063. flaws on two or more systems does present additional resistance to the
  2064. attacker, but it should be kept in mind that physical access to all
  2065. interconnected systems is not necessary to send untrusted software to
  2066. them, as our experience with viruses shows unmistakably. 
  2067.  
  2068. 6.3.2.1 Tests for Cascading. 
  2069.  
  2070. For a relatively large and complex interconnection of systems, it might
  2071. not be obvious whether a cascading problem exists. Appendix C of the TNI
  2072. includes three approaches, with different degrees of complexity and
  2073. precision, for recognizing a potential cascading problem. These range from
  2074. a simple test that is rather pessimistic, called the nesting condition, to
  2075. a complex procedure. Appendix A of this TNIEG reviews the nesting
  2076. condition, and presents additional information concerning tests for the
  2077. cascading problem. 
  2078.  
  2079.      Whichever test for cascading is employed, its result is to focus
  2080.      attention on certain subsystems and their network connections that
  2081.      might potentially be subject to a cascading threat. The next step is
  2082.      to determine whether the systems involved are actually vulnerable to
  2083.      the multiple coordinated attack that is necessary for cascading, ad,
  2084.      if so, to consider countermeasures. 
  2085.  
  2086. 6.3.2.2 Solutions. 
  2087.  
  2088.      There are several ways to tackle a cascading problem. Since cascading
  2089.      depends on cooperative action by malicious software on the
  2090.      participating subsystems, one approach is to institute configuration
  2091.      controls to prevent installation of unscrvtinized software, or
  2092.      perhaps isolating it from network usage. 
  2093.      Another solution is to use a more trusted subsystem at appropriate
  2094.      nodes in the network, so that an attacker will be forced to overcome
  2095.      a protection mechanism commensurate with the seriousness of the
  2096.      potential compromise. In Figure 9, for example, if either subsystem A
  2097.      or subsystem B is NCSC-evaluated at class B3, which is sufficient
  2098.      according to Table 3 in Section 4 of this guideline for a rangd of
  2099.      Top Secret to Confidential, then the attacker is presented with an
  2100.      acceptable level of difficulty. 
  2101.  
  2102. A cascading threat can also be interdicted by eliminating certain network
  2103. connections, to break paths by which an attacker could compromise
  2104. information with insufficient resistance. This solution is practical only
  2105. when the links to be eliminated are not needed for operational reasons.
  2106. Sometimes end-to-end encryption can be used to address a cascading threat
  2107. while preserving necessary connectivity, by reducing the level of
  2108. information available to intermediate systems on a communication path. 
  2109.  
  2110. APPENDIX A
  2111.  
  2112. Tests for the Cascading Problem
  2113.  
  2114. The cascading problem was discussed in Section 6. This appendix reviews
  2115. the approaches presented in Appendix C of the TNI for testing whether a
  2116. cascading problem exists in an interconnection of accredited subsystems.
  2117. Three criteria are given there: the nesting condition, the cascade
  2118. condition, and a heuristic procedure. The nesting condition is a simple
  2119. but pessimistic test that can, in some cases, dismiss the possibility of a
  2120. cascading problem. When it fails, there is not necessarily a cascading
  2121. problem; other, more accurate, tests should then be applied to confirm and
  2122. locate it. This appendix first summarizes the nesting condition, and then
  2123. discusses other approaches briefly. A forthcoming report will provide
  2124. further guidance on computational approaches for the cascading problem. 
  2125.  
  2126. A.l Nesting Condition
  2127.  
  2128. The nesting condition is evaluated solely on the basis of the
  2129. accreditation ranges of the subsystems. In the form given both here and in
  2130. the TNI, it is applicable only when all sensitivity levels are totally
  2131. ordered - that is, if they can be placed in order such that each one is
  2132. higher than the one before it. This is true, in particular, if they are
  2133. pure classifications, with no categories or compartments. 
  2134.  
  2135. The nesting condition is satisfied, by definition, if the accreditation
  2136. ranges of each pair of subsystems are either disjoint or nested. A pair of
  2137. accreditation ranges is disjoint if they have no levels in common. They
  2138. are nested if one range is included (as a subset) in the other. All
  2139. possible pairs (not just those of adjacent subsystems) must be considered,
  2140. but some pairs may be nested while others are disjoint. 
  2141.  
  2142. If the nesting condition is satisfied, there is no cascading problem.
  2143. Because the nesting condition does not take into account which network
  2144. subsystems are actually connected to one another, it can sometimes give a
  2145. pessimistic result, i.e., there are cases when the nesting condition
  2146. fails, but there is actually no cascading problem. 
  2147.  
  2148.      Figure A-I 
  2149.      Accreditation Ranges of Two Interconnected Sub systems 
  2150.  
  2151. Subsystem Y
  2152.  
  2153. Class B1
  2154.  
  2155. Example 1: Consider the situation illustrated in Figure A-I. The
  2156. accreditation range of Subsystem X is nested within that of Subsystem Y
  2157. (i.e., C-S is completely contained within C-TS). Therefore, the nesting
  2158. condition is satisfied, and there is no cascading problem. 
  2159.  
  2160.      Figure A-2 
  2161.      Cascading Problem 
  2162.  
  2163. Subsystem A
  2164.  
  2165. TS Subsystem B 
  2166.  
  2167. S S 
  2168.  
  2169.  
  2170. Example 2: Consider the situation illustrated in Figure A-2. The
  2171. accreditation ranges of Subsystem A and Subsystem B are not disjoint;
  2172. neither is one completely contained within the other. Therefore, the
  2173. nesting condition fails, ad a cascading problem is possible. Note,
  2174. however, that the nesting condition would still fail even if the two
  2175. subsystems were not connected to one another, yet in that case there would
  2176. be no cascading problem. 
  2177.  
  2178. The situation is more complex when sensitivity levels are drawn from a
  2179. partially ordered set, so that the accreditation ranges of some subsystems
  2180. have sensitivity levels that are incomparable. Two sensitivity levels are
  2181. incomparable when neither is greater than or equal to the other.
  2182. Sensitivity levels with category sets are, in general, incomparable. An
  2183. extended form of the nesting condition has been devised that applies to
  2184. partially ordered sensitivity level sets . [20] A.2 Other Approaches
  2185. Appendix C of the TNI contains two other criteria for the cascading
  2186. problem: the cascade condition, which is a mathematical characterization
  2187. of the problem, and a heuristic procedure. These criteria have been
  2188. superseded by improved methods since the publication of the TNI. The new
  2189. approach is described in a separate report, in order to give adequate
  2190. scope to the presentation of background and context necessary to apply it
  2191. appropriately. 
  2192.  
  2193. The need for a new approach arose from a recognition of the limitations of
  2194. the existing criteria. The cascade condition is accurate but it is not, in
  2195. itself, a computational procedure. It is limited by its assumption that
  2196. all of the interconnected subsystems have been given evaluation classes.
  2197. The heuristic procedure is believed to provide a conservative approximate
  2198. test for cascading, but only when applied to interconnections in which all
  2199. communication paths are two-way, i.e., capable of both sending and
  2200. receiving. A simpler procedure is now available. 
  2201.  
  2202. APPENDIX B
  2203.  
  2204. Background References
  2205.  
  2206. Neither the TNI nor this TNIEG contain tutorial information on security
  2207. and networking; it is assumed that the reader will have some background in
  2208. both areas. There is considerable literature available. Following are some
  2209. references that provide background and related information concerning
  2210. security in networks: 
  2211.  
  2212.      1 M. D. Abrams and H. J. Podell, Computer and Network Security, a
  2213.      Tutorial, IEEE Computer Society Press 1987. 
  2214.      2 D. W. Davies and W. L. Price, Security for Computer Networks, John
  2215.      Wiley & Sons 1984. 
  2216.      3 D. E. Denning, Cryptography and Data Security, Addison-Wesley 1983.
  2217.      4 M. Gasser, Building a Secure Computer System, Van Nostrand Reinhold
  2218.      Company 1988. 
  2219.      5 International Standards Organization, Information Processing
  2220.      Systems - Open System Interconnection - Basic Reference Model, 15
  2221.      October 1984. International Standard 7498. 
  2222.      Part 2: Security Architecture, February 1989.1507498-2-1988(E). 
  2223.      6 Charles P. Pfleeger, Security in Computing, Prentice-Hall 1989. 
  2224.      7 Andrew S. Tanenbaurn, Computer Networks, Second Edition,
  2225.      Prentice-Hall 1988. 
  2226.  
  2227. APPENDIX C
  2228.  
  2229. Encryption
  2230.  
  2231. May networks today use or plan to use encryption as a fundamental
  2232. mechanism for providing security services. The encryption devices provide
  2233. a security perimeter at the protocol layer at which they provide service
  2234. (typically the Network or Transport Layer). This section presents some
  2235. information on how an encryption system can be part of the NSAD. It
  2236. discusses MAC and DAC, use of encryption to reduce the number of AIS, and
  2237. the risk index of the encryption system. 
  2238.  
  2239. C.1 Use of Encryption
  2240.  
  2241. As indicated in the TNI, an encryption mechanism is evaluated differently
  2242. than other mechanisms. Evaluating encryption mechanisms has a long history
  2243. predating the TNI. Evaluation of an encryption mechanism is part of
  2244. COMSEC. Generally, encryption mechanisms receive a rating of the highest
  2245. level of classified information which may be protected using that
  2246. mechanism. Therefore, the only rating applicable to an encryption
  2247. mechanism is the classification level of the information that is to be
  2248. protected. This classification level also establishes the requirement. 
  2249.  
  2250. In general, organizations using the TNI and this document select their
  2251. encryption mechanisms from a list provided by an organization which is
  2252. responsible for evaluating such mechanisms. In many cases, that
  2253. organization is the NSA. 
  2254.  
  2255. A more complicated situation exists when encryption is employed above the
  2256. Link Protocol Layer, layer 2. At layers 3 and 4 the protocols are
  2257. concerned with the end systems or intermediate devices (e.g., hosts,
  2258. network switches) that the links connect. Higher layers are concerned with
  2259. other peer entities. Traditionally, encryption applied above layer 2 has
  2260. been termed end-to-end encryption, or E3. 
  2261.  
  2262. An E3 system may be provided as (part of) an NTCB. When the E3 system is
  2263. integral to the NTCB, the use of the E3 system requires evaluation under
  2264. the TCSEC with interpretations in the TNI. The evaluation must consider
  2265. (1) the accreditation rage of the user interface, (2) the risk index for
  2266. the bypass in the E3 device, and (3) the risk index between the highest
  2267. sensitivity data ad the lowest clearance of user on the network. 
  2268.  
  2269. Depending on the design, devices of an E3system may satisfy all
  2270. requirements for a system evaluated under PartI of the TNI. MAC may be
  2271. provided either explicitly or implicitly. Explicit MAC is provided if the
  2272. packets sent by the encryption device include a security label. Implicit
  2273. MAC is provided if the security level must be inferred from the encryption
  2274. key used to protect the data. All data protected by that key must be
  2275. classified at a single security level. 
  2276.  
  2277. DAC is often provided in an E3 system as well. Typically, keys for
  2278. exchanging data are provided to the E3 devices only after DAC has been
  2279. applied. The encryption devices can provide identification ad
  2280. authentication. While identification is generally done explicitly (by
  2281. transmitting an identifier), authentication can be done implicitly (i.e.,
  2282. by the use of a unique key). The encryption devices may perform certain
  2283. types of auditing as well. Typically, a device collects information and
  2284. forwards it to another device for storage. Information collected may
  2285. include: connections established, connections refused, packets with
  2286. inappropriate labels, ad misrouted packets. The granularity provided by
  2287. these E3 mechanisms is determined by the protocol layer at which the
  2288. service is offered. 
  2289.  
  2290.      Figure C-1 
  2291.      Typical Interconnected AIS 
  2292.  
  2293. AIS 1 AIS 2 AIS 3 AIS 4 AIS 5 AIS 6 AIS 7 
  2294.  
  2295. In a typical network there will be a number of AIS. For example, two hosts
  2296. are often attached to separate local networks connected by a wide area
  2297. network (WAN). As shown in Figure C-1, the path between the hosts (without
  2298. E3) may involve 7 separate interconnected AIS. 
  2299.  
  2300. TNI Environments Guideline Encryption 
  2301.  
  2302. E3 can help reduce the number of AIS. By placing E3 devices between each
  2303. host and the LAN to which it is connected ad incorporating suitable key
  2304. distribution components, the LANs and WAN collapse into a single network
  2305. system and the path now traverses only three AIS, as shown in Figure C-2.
  2306. AIS 2 provides security services to the hosts, therefore, it may be part
  2307. of the NTCB. 
  2308.  
  2309.      Figure C-2 
  2310.      Using End-to-End Encryption to Reduce Number of AIS 
  2311.  
  2312. AIS1 AIS 2 AIS 3 
  2313.  
  2314. There may be a hierarchy of trusted system views. For example, E3 may be
  2315. provided at protocol layers 3,4, and 7. Depending on the architecture, the
  2316. layers of E3 could constitute a single NTCB or each could be a separate
  2317. NTCB. In the latter case, the devices supporting different layers would be
  2318. part of different AIS and the interconnection rules would be applied
  2319. between higher and lower protocol layers. 
  2320.  
  2321. In general, an AIS at a higher protocol layer encompasses more devices
  2322. than one at a lower protocol layer. The granularity of services offered is
  2323. also finer at the higher protocol layer. 
  2324.  
  2325. In a situation where the higher protocol layer encryption system also has
  2326. a higher evaluation class, the lower protocol layers might be considered
  2327. less trusted just as current E3 designs treat the subnetwork as untrusted.
  2328. Continuing the analogy, just as certain physical security requirements are
  2329. imposed on the untrusted suLbnetwork, the higher protocol layer encryption
  2330. might rely on characteristics of the lower protocol layers. 
  2331.  
  2332. However, one may be faced with a dilemma that the higherprotocollayer E3
  2333. system has a lower security evaluation than the lower-protocol-layer
  2334. trusted system. 
  2335.  
  2336. For example, a WAN with E3 at layer 3 might be evaluated Al. The system
  2337. might also provide E3 at layer 4, but an NTCB that includes layer 4 might.
  2338. only be rated B2. In this case, treating the subsystems constituting the
  2339. separate layers as separate AIS and using the Interconnection Rule to
  2340. accredit the network as a whole could prove advantageous, as illustrated
  2341. in Figure C-3. 
  2342.  
  2343.      Figure C-3 
  2344.      Separate Layers Treated as Separate AIS 
  2345.  
  2346. B2 B2 
  2347.  
  2348. (N-C) (N-C) 
  2349.  
  2350. 0SI Layer 3 Network
  2351.  
  2352. B2 B2 
  2353.  
  2354. (S-TS) (S-TS) 
  2355.  
  2356. C.2 Encryption Mechanisms
  2357.  
  2358. In a trvsted AIS, the recommended evaluation class is determined using a
  2359. risk index based on the highest data classification and the lowest user
  2360. clearance. In considering an E3 subsystem in a network, three separate
  2361. indexes must be considered [21]: 
  2362.  
  2363.      1. The subscriber's range of sensitivity levels. The cleartext side
  2364.      of the encryption subsystem must be sufficiently trusted to maintain
  2365.      separation among the cleartext data streams sent and received by the
  2366.      subscriber attached to the encryption subsystem. A risk index is
  2367.      based on the highest and lowest sensitivity levels sent or received
  2368.      by the subscriber through this encryption subsystem. 
  2369.  
  2370. 2. The bypass. In an E3 system, protocol control information must be sent
  2371. around the encryption unit through a bypass. The software and hardware to
  2372. mimplement the bypass must be trusted not to send user data through the
  2373. bypass. A risk index can be computed based on the difference between the
  2374. sensitivity level of the cleartext information and the sensitivity level
  2375. of the untrusted subsystems of the network. 
  2376.  
  2377.      3. The range of sensitivity levels across the network. This risk
  2378.      index is concerned with the difference between the highest level of
  2379.      information on any host attached to the network and the lowest
  2380.      clearance of a user that could potentially get access to that
  2381.      information. Depending on the characteristics of the network, this
  2382.      risk index could be larger than either 
  2383.  
  2384.      1. or 2. above. The worst case scenario occurs when some users have
  2385.      lower clearances than the level at which the network backbone is
  2386.      physically protected. For example, there are currently plans to allow
  2387.      some uncleared users on the DISNET segment of the DDN [22] which will
  2388.      be physically protected at the Secret level. In that case, the risk
  2389.      index for the bypass works the opposite of the normal case: the
  2390.      ciphertext side will be the higher of the two ratings. 
  2391.      The subsystem which performs access control and key distribution must
  2392.  
  2393. also be concerned with this risk range since improper key distribution
  2394. could lead to compromise across the entire network. An erroneous
  2395. distribution could potentially permit the lowest cleared user to access
  2396. the highest classification of information. 
  2397.  
  2398. LIST OF REFERENCES
  2399.  
  2400.      1. Department of Defense Computer Security Center, Computer Security
  2401.      Requirements - Guidance for Applying the Department of Defense
  2402.      Trusted Computer System Evaluation Criteria in Specific Environments,
  2403.      25 June 1985. CSC-STD~03-85 
  2404.      2. Department of Defense, Department of Defense Trusted Computer
  2405.      System Evaluation Criteria, 15 August 1983. Department of Defense
  2406.      5200.28-STD 
  2407.      3. National Computer Security Center, Trusted Network Interpretation
  2408.      of the Trusted Computer System Evaluation Criteria, Version 1, July
  2409.      1987. NCSC-TG- 
  2410.      005 
  2411.      4. Department of Defense, Security Requirements for Automative Data
  2412.      Processing (ADP) Systems, March 1988. Department of Defense Directive
  2413.      5200.28 
  2414.      5. National Computer Security Center, Trusted Product Evaluation, A
  2415.      Guide for Vendors, draft 1 March 1988 (or most recent edition).
  2416.      NCSCTG~02, Version- 
  2417.      6. National Security Agency, Information Security Products and
  2418.      Services Catalogue, (quarterly updates). 
  2419.      7. National Institute of Standards and Technology, United States
  2420.      Department of Commerce, Guideline for Computer Security Certification
  2421.      and Accreditation, 27 
  2422.      September 1983. FIPS PUB 102 
  2423.      8. V. A. Ashby, Thomas Gregg, and Annabelle Lee, "Security Approach
  2424.      for Rapid Prototyping in Multilevel Secure Systems," Fifth Annual
  2425.      Computer Security Applications Conference, December 1989. 
  2426.      9. International Standards Organization, Information processing
  2427.      systems - Open Systems Interconnection - Basic Reference Model, 15
  2428.      October 1984. 
  2429.      International Standard 7498 
  2430.      10. Defense Intelligence Agency, Security Manual for the Uniform
  2431.      Protection of Intelligence Processed in Automated Information Systems
  2432.      and Networks (U), Supplement to Director of Central Intelligence
  2433.      Directive (DCID) 1/16 (U), SECRET, 19 July 1988. 
  2434.      11. National Institute of Standards and Technology, United States
  2435.      Department of Commerce, Guideline for Automatic Data Processing Risk
  2436.      Analysis, August 
  2437.      1979. FIPS PUB 65 
  2438.      12. T. E. Bell, "Managing Murphy's Law: Engineering a Minimum-Risk
  2439.      System," IEEE Specrtum, pp. 2i27, June 1989. 
  2440.      13. National Computer Security Center, Proceedings of the 1988
  2441.      Computer Security Risk Management Model Builders Workshop, Fort
  2442.      Meade, MD, May 1988. 
  2443.      14. Sammy Migues, "A Guide to Effective Risk Management," Third
  2444.      Aerospace Computer Security Conference Proceedings, December 1987. 
  2445.      15. Carl E. Laudwehr and H.O. Lubbes, An Approach to Determining
  2446.      Computer Security Requirements for Navy Systems, 13 May 1987. 
  2447.      16. International Standards Organization, Information Processing
  2448.      Systems - Open Systems Interconnection - Basic Reference Model - Part
  2449.      2: Security Architecture, October 1988. International Standard
  2450.      7498-2-1988(E) 
  2451.      17. Ingrid M. Olson, Eugene F. Troy, Milan S. Kuchta, and Brian W.
  2452.      McKenney, "Disclosure Protection of Sensitive Information," 13th
  2453.      National Computer Security Conference Proceedings, 1A October 1990. 
  2454.      18. Robert W. Shirey, "Defense Data Network Security Architecture,"
  2455.      Computer Communication Review, April 1990. 
  2456.      19. T. M. P. Lee, "Statistical Models of Trvst: TCB's vs. People,"
  2457.      IEEE Symposium on Security and Privacy, 1989. 
  2458.      20. Jonathan K. Millen and Martin W. Schwartz, "The Cascading Problem
  2459.      for Interconnected Networks," Fourth Aerospace Computer Security
  2460.      Applications Conference Proceedings, December 1988. 
  2461.      21. R. W. Shirey and S.I. Schaen, "ARCHWAY Program Preliminary
  2462.      Planning," MTR~7W00093~2, The MITRE Corporation, December 1987. Not
  2463.      currently in the public domain. 
  2464.      22. G. R. Mundy and R. W. Shirey, "Defense Data Network Security
  2465.      Architecture," MILCOM `87 Proceedings, 21 October 1987. 
  2466.  
  2467. ACRONYMS
  2468.  
  2469. ADP Automatic Data Processing 
  2470.  
  2471. AIS Automated Information System 
  2472.  
  2473. ASD Assistant Secretary of Defense 
  2474.  
  2475. AUTODIN Automated Digital Network 
  2476.  
  2477. BI Background Investigation 
  2478.  
  2479. C Confidential 
  2480.  
  2481. C&A Certification and Accreditation 
  2482.  
  2483. COMPUSEC Computer Security 
  2484.  
  2485. COMSEC Communications Security 
  2486.  
  2487. COTS Commercial~ffThe-Shelf 
  2488.  
  2489. CPU Central Processing Unit 
  2490.  
  2491. CBS Central Security Service 
  2492.  
  2493. CI Command, Control, Communications, and Intelligence 
  2494.  
  2495. CSSI Computer Security Subsystem Interpretation 
  2496.  
  2497. DAA Designated Approving Authority 
  2498.  
  2499. DAC Discretionary Access Control 
  2500.  
  2501. DCA Defense Communications Agency 
  2502.  
  2503. DDN Defense Data Network 
  2504.  
  2505. DIA Defense Intelligence Agency 
  2506.  
  2507. DISNET Defense Integrated Secure Network 
  2508.  
  2509. DOD Department of Defense 
  2510.  
  2511. DODD Department of Defense Directive 
  2512.  
  2513. DOS Denial of Service 
  2514.  
  2515. E3 End-to~nd Encryption 
  2516.  
  2517. ENQ Enquiry 
  2518.  
  2519. EPL Evaluated Products List 
  2520.  
  2521. FIPS PUB Federal Information Processing Standards Publication 
  2522.  
  2523. GOSIP Government 05I Profile 
  2524.  
  2525. I&A Identification and Authentication 
  2526.  
  2527. INFO SEC Information Security 
  2528.  
  2529. IPC Inter-Process Communication 
  2530.  
  2531. 150 International Standards Organization 
  2532.  
  2533. 1550 Information System Security Officer 
  2534.  
  2535. JCS Joint Chiefs of Staff 
  2536.  
  2537. LAN Local Area Network 
  2538.  
  2539. MAC Mandatory Access Control 
  2540.  
  2541. MLS Multilevel Secure 
  2542.  
  2543. MOA Memorandum of Agreement 
  2544.  
  2545. MOR Memorandum of Record 
  2546.  
  2547. N Not Classified but Sensitive 
  2548.  
  2549. NACS National Communications Security Instruction 
  2550.  
  2551. NCSC National Computer Security Center 
  2552.  
  2553. NDI Non-Development Item 
  2554.  
  2555. NIU Network Interface Unit 
  2556.  
  2557. NSA National Security Agency 
  2558.  
  2559. NSAD Network Security Architecture and Design 
  2560.  
  2561. NSAP Network Service Access Point 
  2562.  
  2563. NTCB Network Trusted Computing Base 
  2564.  
  2565. 0SI Open System Interconnection 
  2566.  
  2567. OT&E Operational Test and Evaluation 
  2568.  
  2569. PDS Protected Distribution System 
  2570.  
  2571. PDU Protocol Data Unit (a.k.a. packet, datagram) 
  2572.  
  2573. POSIX Portable Operating System Interface for Computer Environments 
  2574.  
  2575. RFP Request for Proposal 
  2576.  
  2577. RI Risk Index 
  2578.  
  2579. S SECRET 
  2580.  
  2581. SBI Special Background Investigation 
  2582.  
  2583. SCI Special Compartmented Information 
  2584.  
  2585. SDNS Secure Data Network System 
  2586.  
  2587. SH System High 
  2588.  
  2589. SlOPESI Single Integrated Operational Plan-Extremely Sensitive Information
  2590.  
  2591. ST&E Security Test and Evaluation 
  2592.  
  2593. STS Single Trusted System 
  2594.  
  2595. TCB Trusted Computing Base 
  2596.  
  2597. TCP/IP Transmission Control Protocol/Internet Protocol 
  2598.  
  2599. TCSEC Trusted Computer System Evaluation Criteria $ 
  2600.  
  2601. TEMPEST (Not an acronym) 
  2602.  
  2603. TNI Trusted Network Interpretation 
  2604.  
  2605. TNIEG TNI Environments Guideline 
  2606.  
  2607. TS TOP SECRET 
  2608.  
  2609. TSAP Transport Service Access Point 
  2610.  
  2611. WAN Wide Area Network 
  2612.  
  2613. U.S. GOVERNMENT PRINTING OFFICE : 1990 O - 274-353 : QL 3 
  2614.  
  2615.  
  2616.  
  2617.  
  2618.