home *** CD-ROM | disk | FTP | other *** search
/ CD-ROM Aktiv 1 / CDA1_96.ISO / novell / sft&mu.txt < prev    next >
Text File  |  1996-01-01  |  16KB  |  274 lines

  1. SFT III vs Mirroring Utilities
  2. 16 July 1993
  3. Fred W. Tims
  4. NONSTOP NETWORKS LIMITED
  5.  
  6. This article will discuss the differences in concept and operation between
  7. Novell's System Fault Tolerance Level III (SFT III) server mirroring product
  8. and third party mirroring utilities (MUs), such as No*Stop Network from
  9. Nonstop Networks Limited.  Since I am intimately familiar with
  10. No*Stop Network, it will serve as the MU for the comparison.  The features
  11. of other such products will, of course, not be identical to those of
  12. No*Stop Network, but will, in general, be similar in concept.  
  13.  
  14. SFT III is centralized in concept, all mirroring activity being instigated in the
  15. Primary Server and being executed without reference to other elements of the
  16. network proper.  File change activity is identified in the Primary Server and
  17. is passed to the Secondary Server via a dedicated hardware link between the
  18. two servers.  This link has no reference to the network proper and can be
  19. thought of as connecting two halves of a single machine.  Although each
  20. server is connected individually to the network, they have identical names. 
  21. As long as the Primary Server is functioning, the Secondary Server ignores
  22. all network file access requests. The underlying means by which the mirror
  23. is effected is the dedicated hardware.
  24.  
  25. MUs are decentralized in concept, all mirroring activity being instigated in the
  26. client workstations, using local OS file services (e.g., DOS) and NOS shell
  27. services to direct mirroring activity over the network.  The mirror is effected
  28. via software alone, passing file changes first to the Primary Server and then
  29. to the Secondary Server over the same cabling used for the network proper.
  30.  
  31. REQUIREMENTS
  32.  
  33. SFT III requires two identical 80386 class or better servers, each with at least
  34. 12MB RAM.  It may be that more RAM is required for adequate performance. 
  35. While there have been statements to the effect that the servers do not have
  36. to be exactly identical (e.g., one may have more RAM than the other), it
  37. appears that the requirement is fairly firm.  For instance, Novell have stated
  38. that the rated speed as well as the screen drivers in the two servers must be
  39. the same.  There are even indications that the server machines can be a bit
  40. flaky if not designed with SFT III in mind (see "An SFT Safety Net", LAN
  41. Magazine, August 1993).
  42.  
  43. The two servers must be connected by a dedicated fiber optic or coax link
  44. (the Mirror Server Link or MSL), consisting of a cable with an adapter at each
  45. end.  It is through this link that server updates are passed from the Primary
  46. Server to the Secondary Server.  The adaptor is currently available from three
  47. suppliers.
  48.  
  49. MUs typically impose no unusual requirements on the system.  They work
  50. within the context of the existing network, using between 10KB and 30KB
  51. RAM in each client workstation which will be mirroring its activity.
  52.  
  53. At least two drive letters must be supplied to the MU by the OS or the NOS
  54. shell, one for each Primary Logical Drive to be mirrored and one for each
  55. Secondary Logical Drive to receive the mirror.  As long as DOS compatible
  56. drive letters are supplied, the servers can be anything - Netware, LANtastic,
  57. Vines, a MAC system, a mainframe, or a mixture - it doesn't matter.
  58.  
  59. If mirroring between servers is to be done (as opposed to mirroring between
  60. a server and local hard disk or between two local hard disks), two licenses
  61. for the NOS are required.
  62.  
  63. LIMITATIONS
  64.  
  65. The limitations discussed here refer to functional capabilities rather than
  66. efficiency or load bearing capabilities.  They will be dealt with later.
  67.  
  68. SFT III works only for Netware systems, currently only Netware 3.11. 
  69. Presumably at some future date it will be available for Netware 4.x.
  70.  
  71. With SFT III everything is mirrored.  While in some ways this is an advantage,
  72. a price is paid for this approach, both in system hardware requirements (e.g.,
  73. more disk space) and in system loading.
  74.  
  75. MUs are generally limited by the number of drives which can be represented
  76. by the alphabet.  This imposes an effective limit of thirteen on the number of
  77. volumes or subdirectories which can be mirrored by each client workstation. 
  78. This limitation can, in most cases, be mitigated by judicious assignment of
  79. work areas and user hierarchies, or by simply mirroring from the root of a
  80. volume.  Its most serious impact is with regard to Novell search drives, which
  81. cannot easily be combined.  Should a server crash while the client
  82. workstation is accessing a non-mirrored drive, the client will get a message
  83. from the NOS offering "abort" or "retry" options and processing will have to
  84. stop.  If there is a large number of Novell search drives, it may be impossible
  85. to mirror them all.
  86.  
  87. NOS control structures, such as Netware binderies, are not generally
  88. effectively mirrored by MUs during construction (such as adding a user).  This
  89. is due to the machine-specific nature of these structures.  When using an
  90. MU, system administration of the type offered by Novell's SYSCON should
  91. be performed on each server separately and unmirrored.  In addition, NOS
  92. control structures should be backed up for each server using NOS facilities
  93. such as Novell's NBACKUP and BINDFIX.
  94.  
  95. RELATIVE ADVANTAGES
  96.  
  97. SFT III has a single point of specification.  Once installed, SFT III will mirror
  98. all activity for all users.  By limiting options, this simplifies administration.
  99.  
  100. When operating under SFT III, there is a single point of access.  There is no
  101. way in SFT III, presumably, to access the Secondary Server directly without
  102. going through the Primary Server, unless, of course, the Primary Server is
  103. down.  This is a good security and integrity feature.
  104.  
  105. SFT III needs to be "tuned" for only one environment - that of the Primary
  106. and Secondary Servers.  Once running correctly there, it should be oblivious
  107. as to the configurations of individual workstations attached to the network.
  108.  
  109. MUs offer multiple points of specification.  Each user can be mirroring as
  110. appropriate to the task.  In some types of enterprises this capability can
  111. reduce requirements for storage on the Secondary Server and can lower or
  112. level load on the system.
  113.  
  114. MUs also offer multiple points of access.  It is possible for users to access
  115. either server directly.  This characteristic, in conjunction with the ability to
  116. tailor the mirroring activity to each client workstation's activity, makes it
  117. possible, in some cases, to level the load between the servers by cross
  118. mirroring.  For example, an engineering department could be performing
  119. CAD/CAM activities, mirroring from SERVERA to SERVERB while the
  120. accounting department is maintaining the books, mirroring from SERVERB
  121. to SERVERA.  It also makes it possible to offload activities which do not need
  122. to be mirrored to the Secondary Server, thus freeing up capacity on the more
  123. heavily utilized Primary Server.
  124.  
  125. RELATIVE DISADVANTAGES
  126.  
  127. SFT III's single point of specification, while convenient for the system
  128. administrator, can be wasteful of system resources in some cases. 
  129. Everything gets mirrored whether or not you want it to be.  This is fine if you
  130. want everything mirrored, but you pay for it in terms of storage requirements
  131. and system load in those situations where you do not need to mirror
  132. everything.
  133.  
  134. SFT III has a single point of failure.  An error in the hardware or software of
  135. the Primary Server can be mirrored to the Secondary Server.  For instance,
  136. a bit dropped in the Primary Server data buffer will corrupt data on both
  137. servers.
  138.  
  139. SFT III introduces additional hardware to fail.  The addition of hardware (the
  140. dedicated link between the two servers) to the network to support mirroring
  141. introduces more failure possibilities, thus lowering the MTBF of the mirroring
  142. process.
  143.  
  144. MUs have multiple points of specification.  If your enterprise is such that all
  145. or most of your users are doing the same or related tasks, it is a minor
  146. nuisance to set them all up and to change them if the need arises.  Usually,
  147. however, this can be handled effectively and easily via the use of login scripts
  148. used in common (e.g., the System Login Script in Netware).
  149.  
  150. Since the Secondary Server in a network using an MU is, as far as the NOS
  151. is concerned, just another server, multiple points of access are possible. 
  152. Unless some form of control over the users is enforced it will be possible for
  153. them to log into the Secondary Server directly.  The system administrator
  154. must take measures to ensure that no users can access data on the
  155. Secondary Server that is being mirrored by other users.  Such access can
  156. cause the data to become unsynchronized.  This control can be fairly easily
  157. accomplished via the System Login Script on the Secondary Server by
  158. checking to see if the Primary Server is online and, if so, refusing the login
  159. request to all but the SUPERVISOR or some equivalent.
  160.  
  161. Each client workstation must be "tuned" for use of an MU in the same
  162. manner it was tuned for the other software running in it.  Memory
  163. management parameters may need to be altered; configuration parameters
  164. specifying the number of such things as file handles and/or FCBs may have
  165. to be increased.  The majority of installations are configured such that they
  166. are already prepared to accept an MU without modifications.  Still others are
  167. homogeneous in workstation function and equipment so that any changes
  168. required are common to them all and easily made.  Large, heterogeneous
  169. environments, where there are many workstations on the network and they
  170. are of many different individual capacities, performing diverse functions can
  171. be a headache to tune for an MU.  In these situations, documentation and
  172. vendor support take on an added measure of importance.
  173.  
  174. Both SFT III and MUs are vulnerable to ill-behaved or buggy software which
  175. cohabits their platforms.  A server is tightly controlled and the software which
  176. runs on it is generally solid.  Because of the physical separation as well as
  177. the resulting necessary high-level interface between a server and the
  178. software running on client workstations, compatibility issues are lessened for
  179. SFT III.  Anything can be put on a client workstation.  MUs can suffer from
  180. this fact of life.
  181.  
  182. SYSTEM IMPACT
  183.  
  184. Activity in the Secondary Server is considered, for this discussion, irrelevant
  185. as a comparison point since it is more or less common in terms of impact to
  186. both approaches, and because it, in both cases, represents additional
  187. resources rather than existing resources upon which additional load is being
  188. imposed.
  189.  
  190. The two approaches, having differing system concepts, impact the system in
  191. different ways.  Briefly, SFT III processing in support of the mirroring task is
  192. performed in the Primary Server, and it is there, and presumably only there,
  193. that the impact is felt.  MUs, on the other hand, running as they do in the
  194. client workstations, distribute the load of mirror processing, impacting the
  195. client workstations and the cabling, but not the Primary Server.
  196.  
  197. SFT III
  198.         o      Primary Server Processor: Overhead figures in the 30% to
  199.                40% range have been mentioned in the press.  This could
  200.                cause a significant bottleneck.
  201.         o      Cabling:  None.
  202.         o      Client Workstations:  None.
  203.  
  204. MUs
  205.         o      Primary Server Processor:  None.  As a matter of fact, if your
  206.                enterprise is such that you can partition your users by the
  207.                data they use, an MU will allow you to cross mirror, thus
  208.                decreasing the load on the Primary Server, actually
  209.                improving the performance of your network compared to its
  210.                performance before mirroring was added.  Another
  211.                possibility, in special cases, is that the Primary can be a local
  212.                hard drive (even a RAM drive), thus removing all READs
  213.                from the network.
  214.         o      Cabling:  Doubles WRITE traffic.  This is normally not a
  215.                problem unless an unusually large volume of writing is done
  216.                (e.g., live satellite imagery downloads) and/or the cabling is
  217.                already near saturation.  
  218.         o      Client Workstations:  Observed degradation in response time
  219.                measured in various tests has been from 1% to 10%.  This
  220.                is not noticed by the users in most installations.  Again, this
  221.                depends on the volume of write traffic, most of the
  222.                degradation being caused by the time to send a second
  223.                WRITE and wait for confirmation. [note: this impact is indirect
  224.                for the most part, and is suffered by SFT III as well. The
  225.                direct impact is only that caused by forming the Secondary
  226.                request and interpreting results.  This direct impact does not
  227.                occur in SFT III in the workstation; it occurs in the Primary
  228.                Server, but its effect and the effect of the wait for
  229.                confirmation from the Secondary Server is felt at the
  230.                workstation just as with MUs.]
  231.  
  232. SUMMARY AND CONCLUSION
  233.  
  234. In this article I have given a very high level description and assessment of the
  235. relative merits of SFT III and mirroring utilities.  The broad generalities
  236. concerning mirroring utilities might elicit some rather strong exceptions from
  237. the community.  I can only say in my defense that it is difficult to extrapolate
  238. all of the possible alternative implementations of a technology in a short
  239. paper.  If I have misrepresented SFT III in any way, my defense is weaker. 
  240. I have, as might be presumed, studied everything I could find pertaining to
  241. SFT III.  Any misrepresentations will be due to lack of understanding on my
  242. part.  That said, here are the conclusions:
  243.  
  244. In concept, SFT III should be easier to administer due to its centralized
  245. control and to the fact that it runs in a more benign environment (the servers)
  246. than do MUs (the client workstations).  The question as to whether this ease
  247. of administration has been realized will be answered over the next few
  248. months.  Compared to MUs, SFT III has a high technical risk.  It is also much
  249. later on the scene than MU technology, with probably a good number of bugs
  250. still to iron out.
  251.  
  252. MUs should offer better performance than SFT III, but this is a difficult
  253. assertion to prove.  It is anticipated that the typical SFT III installation will
  254. employ much more powerful server equipment, such as 80486 and Pentium
  255. machines with multiple processors and huge amounts of RAM, than will the
  256. typical MU installation.  If the enterprise can afford SFT III, it can afford the
  257. most powerful machinery.  Moreover, most installations, especially small-to
  258. middle-sized ones, have excess capacity which will mask any performance
  259. degradation.
  260.  
  261. The greater flexibility of MUs cannot be denied.  An MU can be grafted onto
  262. just about any configuration, and its use can be tailored to meet the needs
  263. of each individual client workstation.  Each client workstation can be mirroring
  264. between its own assigned set of servers or local hard disks; its mirror pairs
  265. can even be accessing different servers within the same session.  For many
  266. enterprises this capability is irrelevant.  For others it is important.  Even for
  267. those enterprises which do not need this flexibility on a day-to-day basis,
  268. however, the cost of replacing a destroyed server should be considered. 
  269. Since the servers (in SFTII) must be essentially identical, it may become necessary to
  270. find an exact replacement two or three years down the road.  If an exact
  271. replacement cannot be found, two new servers (perhaps Sextium machines!)
  272. will have to be purchased and installed.  With an MU, any machine of
  273. adequate capacity can be plugged in.
  274.