home *** CD-ROM | disk | FTP | other *** search
/ Hacker Chronicles 1 / HACKER1.ISO / phrk3 / phrack25.4 < prev    next >
Text File  |  1992-09-26  |  48KB  |  943 lines

  1.                                 ==Phrack Inc.==
  2.  
  3.                      Volume Three, Issue 25, File 4 of 11
  4.  
  5.               =-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=
  6.               =-=                                             =-=
  7.               =-=                   S P A N                   =-=
  8.               =-=                                             =-=
  9.               =-=       Space Physics Analysis Network        =-=
  10.               =-=                                             =-=
  11.               =-=     Brought To You by Knight Lightning      =-=
  12.               =-=                                             =-=
  13.               =-=               March 15, 1989                =-=
  14.               =-=                                             =-=
  15.               =-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=
  16.  
  17.  
  18. Preface
  19. ~~~~~~~
  20. In the spirit of the Future Transcendent Saga, I continue to bring forth
  21. information about the wide area networks.  The information presented in this
  22. file is based primarily on research.  I do not have direct access to SPAN other
  23. than through TCP/IP links, but this file should provide you with general
  24. information with which to properly use the Space Physics Analysis Network.
  25.  
  26.  
  27. Introduction
  28. ~~~~~~~~~~~~
  29. The Space Physics Analysis Network (SPAN) has rapidly evolved into a broadly
  30. based network for cooperative, interdisciplinary and correlative space and
  31. Earth science data analysis that is spaceflight mission independent.  The
  32. disciplines supported by SPAN originally were Solar-Terrestrial and
  33. Interplanetary Physics.  This support has been expanded to include Planetary,
  34. Astrophysics, Atmospherics, Oceans, Climate, and Earth Science.
  35.  
  36. SPAN utilizes up-to-date hardware and software for computer-to-computer
  37. communications allowing binary file transfer, mail, and remote log-on
  38. capability to over 1200 space and Earth science computer systems in the United
  39. States, Europe, and Canada.  SPAN has been reconfigured to take maximum
  40. advantage of NASA's Program Support Communication Network (PSCN) high speed
  41. backbone highway that has been established between its field centers.  In
  42. addition to the computer-to-computer communications which utilizes DECnet, SPAN
  43. provides gateways to the NASA Packet Switched System (NPSS), GTE/Telenet,
  44. JANET, ARPANET, BITNET and CSNET.  A major extension for SPAN using the TCP/IP
  45. suite of protocols has also been developed.
  46.  
  47. This file provides basic information on SPAN, it's history, architecture, and
  48. present guidelines for it's use.  It is anticipated that SPAN will continue to
  49. grow very rapidly over the next few years.  Several existing wide-area DECnet
  50. networks have joined with SPAN to provide a uniform internetwork structure and
  51. more will follow.
  52.  
  53.  
  54. History Of The SPAN and the Data Systems Users Working Group (DSUWG)
  55. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  56. A considerable evolution has occurred in the past two decades in the way
  57. scientific research in all disciplines is done.  This is particularly true of
  58. NASA where early research was centered around exploratory missions in which
  59. measurements from individual scientific instruments could be meaningfully
  60. employed to advance the state of knowledge.  As these scientific disciplines
  61. have progressed, a much more profound and interrelated set of questions is
  62. being posed by researchers.  The result is that present-day investigations are
  63. generally much more complex.  For example, within the space science community
  64. large volumes of data are acquired from multiple sensors on individual
  65. spacecraft or ground-based systems and, quite often, data are needed from many
  66. institutions scattered across the country in order to address particular
  67. physical problems.  It is clear that scientific research during the late 1980s
  68. and beyond will be devoted to intense multi-disciplinary studies aimed at
  69. exploring very complex physical questions.  In general, the need for
  70. researchers to exchange data and technical information in a timely and
  71. interactive way has been increasing.
  72.  
  73. The problems of data exchange are exacerbated by the lack of standards for
  74. scientific data bases.  The net result is that, at present, most researchers
  75. recognize the value of multi-disciplinary studies, but the cost in time and
  76. effort is devastating to their research efforts.  This trend is antithetical to
  77. the needs of the NASA research community.  SPAN is only one of many research
  78. networks that are just beginning to fill a need for access to remote
  79. capabilities that are not obtainable locally.
  80.  
  81. In May of 1980 the Space Plasma Physics Branch of the Office of Space Science
  82. of NASA Headquarters funded a project at Marshall Space Flight Center (MSFC) to
  83. investigate ways of performing correlative space plasma research nationwide on
  84. a daily basis.  As a first step, a user group was formed called the Data
  85. Systems Users Working Group (DSUWG) to provide the space science community
  86. interaction and direction in the project.  After the first meeting of the DSUWG
  87. in September 1980, it was decided that the approach would be to design, build,
  88. and operate a spacecraft mission independent science network as a test case.
  89. In addition, the construction of the system would be designed to use existing
  90. data analysis computer systems at space physics institutions and to take full
  91. advantage of "off-the-shelf" software and hardware.
  92.  
  93. The Space Physics Analysis Network (SPAN) first became operational in December
  94. 1981 with three major nodes:
  95.  
  96. o  University of Texas at Dallas
  97. o  Utah State University
  98. o  MSFC
  99.  
  100. Since that time it has grown rapidly.  Once operational, SPAN immediately
  101. started to facilitate space-data analysis by providing electronic mail,
  102. document browsing, access to distributed data bases, facilities for numeric and
  103. graphic data transfer, access to Class VI machines, and entry to gateways for
  104. other networks.
  105.  
  106. The DSUWG continues to provide guidance for SPAN growth and seeks to identify,
  107. promote, and implement appropriate standards for the efficient management and
  108. exchange of data, related information, and graphics.  All SPAN member
  109. organizations are expected to participate in the DSUWG.  The basic composition
  110. of the DSUWG is a representative scientist and computer systems manager (who
  111. has the networking responsibility) at each of the member institutions.  DSUWG
  112. meetings are held regularly at approximately nine month intervals.
  113.  
  114. The DSUWG is structured along lines conducive to addressing major outstanding
  115. problems of scientific data exchange and correlation.  There is a chairman for
  116. each subgroup to coordinate and focus the group's activities and a  project
  117. scientist to oversee the implementation of the DSUWG recommendations and
  118. policies.  The working group itself is divided into several subgroups which
  119. address issues of policy, networking and hardware, software and graphics
  120. standards, and data base standards.
  121.  
  122. The DSUWG is a dynamic, evolving organization.  We expect members to move in
  123. (or out) as appropriate to their active involvement in data related issues.  We
  124. also realize that at present SPAN and the DSUWG are dealing with only a limited
  125. portion of the whole spectrum of problems facing the NASA research community.
  126. As present problems are solved, as the network evolves, and as new issues
  127. arise, we look to the DSUWG to reflect these changes in it's makeup, structure,
  128. and focus.
  129.  
  130. The SPAN is currently managed by the National Space Science Data Center (NSSDC)
  131. located at Goddard Space Flight Center (GSFC).  All SPAN physical circuits are
  132. funded by the Communication and Data Systems Division at NASA Headquarters.
  133. Personnel at the NSSDC facility, at the NASA SPAN centers, and the remote
  134. institutions work in unison to manage and maintain the network.
  135.  
  136.  
  137. Network Configuration and Evolution
  138. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  139. The initial topology for SPAN was a modified star where all communication with
  140. the remote institutions came to a major central switching or message routing
  141. node at MSFC.  This topology served the network well until many new nodes were
  142. added and more scientists became accustomed to using the network.  As data rate
  143. demands on the network increased, it was apparent that a new topology using
  144. lines with higher data rates was needed.  Toward this end, a new communication
  145. architecture for SPAN was constructed and implemented.
  146.  
  147. The current structure of SPAN in the United States is composed of an
  148. interconnected four-star, mesh topology.  Each star has, as its nucleus, a SPAN
  149. routing center.  The routing centers are located at GSFC, MSFC, Jet Propulsion
  150. Lab (JPL), and Johnson Space Center (JSC).  The routing centers are linked
  151. together by a set of redundant 56 kbps backbone circuits.  Tail circuits, at
  152. speeds of 9.6 kbps (minimum line speed), are connected to each routing center
  153. and and into the SPAN backbone.
  154.  
  155. Most remote institutions have local area networks that allow a number of
  156. different machines to be connected to SPAN.   Regardless of a machine's
  157. position in the network, all computers on SPAN are treated logically equal.
  158. The main goal of the new SPAN architecture is for a node that is located across
  159. the country through two routing centers to be as transparently accessible as a
  160. SPAN node sharing the same machine room with the originating system.  This ease
  161. of use and network transparency is one of SPAN's greatest assets.
  162.  
  163. The new configuration allows for rapid expansion of the network via the
  164. addition of new tail circuits, upgrade to existing tail circuits, and dynamic
  165. dialing of higher data-rate backbone circuits Implementation of this new
  166. configuration began in July 1986, and the new topology was completed in
  167. November 1986, although there are new circuits being added on a continuing
  168. basis.  It is expected that a fifth routing center located at Ames Research
  169. Center.
  170.  
  171. Nearly all of the machines on SPAN are linked together using the commercially
  172. available software package DECnet.  DECnet allows suitably configured computers
  173. (IBM-PCs and mainframes, SUN/UNIX workstations, DEC/PROs, PDPs, VAXs, and
  174. DECSYSTEMs) to communicate across a variety of media (fiber optics, coax,
  175. leased telephone lines, etc.) utilizing a variety of low level protocols
  176. (DDCMP, Ethernet, X.25).  There are also several institutions that are
  177. connected through Janus hosts which run more then one protocol.
  178.  
  179. SPAN links computers together and touches several other networks in the United
  180. States, Europe, and Canada  that are used for data analysis on NASA spaceflight
  181. missions and other NASA related projects.  At this time, there are well over
  182. 1200+ computers that are accessible through SPAN.
  183.  
  184. DECnet networks has been accomplished by the unprecedented, successful
  185. cooperation of the network management of the previously separate networks.  For
  186. example, the International High Energy Physics Network (HEPNET), the Canadian
  187. Data Analysis Network (DAN) and the Texas University Network (TEXNET) now have
  188. nonconflicting network addresses.  Every node on each of these networks is as
  189. accessible to SPAN users as any other SPAN node.  The mutual cooperation of
  190. these WANs has given enhanced capabilities for all.
  191.  
  192. There are several capabilities and features that SPAN is developing, making it
  193. unique within the NASA science community.  The SPAN system provides remote
  194. users with access to science data bases and brings scientists throughout the
  195. country together in a common working environment. Unlike past NASA mission
  196. networks, where the remote sites have only remote terminals (supporting one
  197. person at the remote site at a time), SPAN supports many users simultaneously
  198. at each remote node through computer-to-remote computer communications
  199. software.  Users at their institutions can participate in a number of network
  200. functions involving other remote computer facilities.  Scientific papers, data
  201. and graphics files can easily be transferred between network nodes.  This
  202. significantly reduces the time it takes to perform correlative work when
  203. authors are located across the country or ocean.  As an introduction to SPAN's
  204. network wide capabilities.  More advanced users are referred to the DEC DECnet
  205. User's Manual.
  206.  
  207. SPAN will continue to be used as a test case between NASA science investigators
  208. with the intent of exploring and employing modern computer and communication
  209. technology as a tool for doing NASA science research.  This can be accomplished
  210. because SPAN is not a project dependent system that requires a static hardware
  211. and software configuration for the duration of a mission.  SPAN has provided a
  212. quick reaction capability for several NASA and ESA missions.  Each of these
  213. missions needed to rapidly move near real-time ground and spacecraft
  214. observations to a variety of destinations for analysis and mission planning.
  215. Because of SPAN's great success, new NASA spaceflight missions are seriously
  216. looking into creating networks with similar capabilities that are
  217. internetworked with SPAN.
  218.  
  219. Within the next few years, new developments in software and hardware will be
  220. implemented on SPAN that will continue to aid NASA science research.  It is
  221. anticipated that SPAN will greatly improve its access to gateways into Europe
  222. and other locations throughout the world.  As a natural evolution, SPAN will
  223. migrate toward the International Standards Organization's (ISO) Open Systems
  224. Interconnect (OSI) protocol as the software becomes available.  It is expected
  225. that the ISO/OSI protocol will greatly enhance SPAN and increase the number of
  226. heterogeneous computer systems accessible.
  227.  
  228.  
  229. Security And Conduct On The Network
  230. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  231. Misconduct is defined as:
  232.  
  233.      1.  Any unauthorized access or use of computers on the network,
  234.      2.  Attempts to defeat computer security systems (e.g. violating a captive
  235.          account),
  236.      3.  Repeated login failures to computers or privileged accounts to which
  237.          the user is not authorized to use,
  238.      4.  Massive file transfers from a given site without prior consent and
  239.          coordination with the appropriate SPAN routing centers.
  240.  
  241. The network is monitored very closely, and it is relatively simple to spot an
  242. attempted break-in and then track down the source.  When a violation is found,
  243. the matter will be reported to the DSUWG steering committee and the SPAN line
  244. will be in immediate danger of being disconnected.  If the situation cannot be
  245. resolved to the satisfaction of both the DSUWG steering committee and network
  246. management, the SPAN line to the offending site will be reviewed for the
  247. possibility of permanent disconnection.  In short, NASA pays for the
  248. communications lines and will not tolerate misconduct on the network.
  249.  
  250.  
  251. SPAN Network Information Center (SPAN-NIC)
  252. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  253. The SPAN-NIC is located at the National Space Science Data Center in Greenbelt,
  254. Maryland.  The purpose of the SPAN-NIC is to provide general user services and
  255. technical support to SPAN users via telephone, electronic mail, and postal
  256. mail.
  257.  
  258. As SPAN has grown exponentially over recent years, it was realized that a
  259. central organization had to be developed to provide users with technical
  260. assistance to better utilize the resources that the network provides.  This is
  261. accomplished by maintaining and distributing relevant technical documents,
  262. providing user assistance on DECnet related questions, monitoring traffic on
  263. the network, and maintaining an online data base of SPAN node information.
  264. More specific information on becoming a SPAN site, beyond that provided in this
  265. document, can also be obtained through SPAN-NIC.
  266.  
  267. The SPAN-NIC uses a VAX 8650 running VMS as its host computer.  Users wishing
  268. to use the online information services can use the account with the username
  269. SPAN_NIC.  Remote logins are capable via SET HOST from SPAN, TELENET from
  270. ARPANET and by other procedures detailed later.
  271.  
  272.         SPAN-NIC DECnet host address: NSSDCA or 6.133
  273.  
  274.         SPAN-NIC ARPANET host address: NSSDC.ARPA or 128.183.10.4
  275.  
  276.         SPAN-NIC GTE/TELENET DTE number: 311032107035
  277.  
  278. An alternative to remote login is to access online text files that are
  279. available.  These text files reside in a directory that is pointed to by the
  280. logical name "SPAN_NIC:". Example commands for listing this directory follow:
  281.  
  282.         From SPAN: $ DIRECTORY NSSDCA::SPAN__NIC:
  283.         From ARPA: FTP> ls SPAN__NIC:
  284.  
  285. The available files and a synopsis of their contents can be found in the file
  286. "SPAN_NIC:SPAN_INDEX.TXT".  Once a file is identified, it can be transferred to
  287. the remote host using the VMS COPY command, or the FTP GET command.  It is
  288. important to note that this capability will be growing significantly not only
  289. to catch up to the current SPAN configuration but also keep current with its
  290. growth.
  291.  
  292.  
  293. DECnet Primer
  294. ~~~~~~~~~~~~~
  295. The purpose of the SPAN is to support communications between users on network
  296. nodes.  This includes data access and exchange, electronic mail communication,
  297. and sharing of resources among members of the space science community.
  298.  
  299. Communication between nodes on the SPAN is accomplished by means of DECnet
  300. software.  DECnet software creates and maintains logical links between network
  301. nodes with different or similar operating systems. The operating systems
  302. currently in use on SPAN are VAX/VMS, RSX, and IAS. DECnet provides network
  303. control, automatic routing of messages, and a user interface to the network.
  304. The DECnet user interface provides commonly needed functions for both terminal
  305. users and programs.  The purpose of this section of the file is to provide a
  306. guide on the specific implementation of DECnet on SPAN and is not intended to
  307. supercede the extensive manuals on DECnet already produced by DEC.
  308.  
  309. DECnet supports the following functions for network users:
  310.  
  311. 1. TASK-TO-TASK COMMUNICATIONS:  User tasks can exchange data over a network
  312.    logical link.  The communicating tasks can be on the same or different
  313.    nodes.  Task-to- task communication can be used to initiate and control
  314.    tasks on remote nodes.
  315.  
  316. 2. REMOTE FILE ACCESS:  Users can access files on remote nodes at a terminal or
  317.    within a program.  At a terminal, users can transfer files between nodes,
  318.    display files and directories from remote nodes, and submit files containing
  319.    commands for execution at a remote node. Inside a program, users can read
  320.    and write files residing at a remote node.
  321.  
  322. 3. TERMINAL COMMUNICATIONS:  RSX and IAS users can send messages to terminals
  323.    on remote RSX or IAS nodes.  This capability is available on VMS nodes by
  324.    using the PHONE utility.
  325.  
  326. 4. MAIL FACILITY:  VMS users can send mail messages to accounts on remote VMS
  327.    nodes.  This capability is currently available for RSX and IAS nodes but is
  328.    not supported by DEC.  There are slight variations for RSX and IAS network
  329.    mail compared to VMS mail.
  330.  
  331. 5. REMOTE HOST:  VMS, RSX, and IAS users can log-on to a remote host as if
  332.    their terminals were local.
  333.  
  334.  
  335. Network Implementations For DECnet
  336. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  337. The SPAN includes implementations for RSX, IAS and VAX/VMS operating systems.
  338. DECnet software exists at all the SPAN nodes and it allows for the
  339. communication of data and messages between any of the nodes.  Each of the
  340. network nodes has a version of DECnet that is compatible with the operating
  341. system of that node.  These versions of DECnet have been presently developed to
  342. different extents causing some nodes to have more or less capabilities than
  343. other nodes.  The version or "phase" of the DECnet, as it is called, indicates
  344. the capability of of that node to perform certain levels of communication.
  345. Since RSX and IAS implementations are almost identical, they are described
  346. together.
  347.  
  348. Users need not have any special privileges (VAX/VMS users will need the NETMBX
  349. privilege on their account) to run network tasks or create programs which
  350. access the network.  However users must supply valid access control information
  351. to be able to use resources.  The term "access control" refers to the user name
  352. and password of an account (local or on a remote node).
  353.  
  354. Online system documentation is a particularly important and valuable component
  355. of DEC systems.  At the present, SPAN is comprised almost completely of DEC
  356. systems.  An extensive set of system help files and libraries exists on all the
  357. SPAN DEC nodes.  The HELP command invokes the HELP Utility to display
  358. information about a particular topic.  The HELP utility retrieves help
  359. available in the system help files or in any help library that you specify. You
  360. can also specify a set of default help libraries for HELP to search in addition
  361. to these libraries.
  362.  
  363.    Format:   HELP [keyword [...]]
  364.  
  365. On many systems, new users can display a tutorial explanation of HELP by typing
  366. TUTORIAL in response to the "HELP Subtopic?" prompt and pressing the RETURN
  367. key.
  368.  
  369.  
  370. Utilities for DECnet-VAX
  371. ~~~~~~~~~~~~~~~~~~~~~~~~
  372. VAX terminal users have several utility programs for network communications
  373. available from the VMS operating system.  Documentation for most of these
  374. utilities can be found in the Utility Reference Manual of the VAX/VMS manual
  375. set, and each utility has extensive online help available.  The following
  376. descriptions offer a brief introduction to these utilities:
  377.  
  378. MAIL:  The VAX/VMS mail utility allows you to send a message to any account or
  379.        to a series of accounts on the network.  To send a message, you must
  380.        know the account name of the person you wish to contact and his node
  381.        name or node number. (This will be covered more extensively later in
  382.        this file).
  383.  
  384. FINGER:  The DECUS VAX/VMS Finger utility has been installed on a number of
  385.          SPAN VAX/VMS systems.  Finger allows a user to see who is doing what,
  386.          both on his machine and on other machines on the network that support
  387.          Finger.  Finger also allows a user to find information about the
  388.          location and accounts used by other users, both locally and on the
  389.          network. The following is an example session using the FINGER utility.
  390.  
  391. $ FINGER
  392.  
  393.  
  394.           NSSDCA VAX 8600, VMS V4.3. Sunday, 28-Sep-1986 19:55,4 Users,0 Batch.
  395.           Up since Sunday, 28-Sep-1986 14:28
  396.  
  397.  Process         Personal name        Program  Login Idle Location
  398.  
  399.  HILLS           H.Kent Hills         Tm       19:02      NSSDC.DECnet
  400.  _RTA4:          Dr. Ken Klenk        Tm       17:55      NSSDC.DECnet
  401.  _NVA1:          Michael L. Gough     Mail     15:13
  402.  SPAN Man        Joe Hacker           Finger   17:33      bldg26/111
  403.  
  404.  
  405.  $ FINGER SWAFFORD@NSSDCA
  406.  
  407.  [NSSDCA.DECnet]
  408.  
  409.  NSSDCA VAX/VMS, Sunday, 28-Sep-1986 19:55
  410.  
  411.  Process         Personal name        Program   Login  Idle Location
  412.  
  413.  SPAN Man                             Finger    17:33
  414.  
  415.   Logged in since: Sunday, 28-Sep-1986 17:33
  416.  
  417.   Mail: (no new mail)
  418.  
  419.   Plan:
  420.  
  421.      Joe Hacker, SPAN Hackers Guild
  422.  
  423.      Telephone: (800)555-6000
  424.  
  425. If your VAX supports VMS Finger, further information can be found by typing
  426. HELP FINGER.  If your system does not currently have the FINGER utility, a copy
  427. of it is available in the form of a BACKUP save set in the file:
  428. NSSDCA::SPAN_NIC:FINGER.BCK
  429.  
  430. PHONE:  The VAX/VMS PHONE utility allows you to have an interactive
  431.         conversation with any current user on the network.  This utility can
  432.         only be used on video terminals which support direct cursor
  433.         positioning.  The local system manager should know if your terminal can
  434.         support this utility.  To initiate a phone call, enter the DCL command
  435.         PHONE.  This should clear the screen and set up the phone screen
  436.         format.  The following commands can be executed:
  437.  
  438. DIAL nodename::username
  439.  
  440.          Places a call to another user.  You must wait for a response from that
  441.          user to continue.  DIAL is the default command if just
  442.          nodename::username is entered.
  443.  
  444.  
  445. ANSWER Answers the phone when you receive a call.
  446.  
  447. HANGUP Ends the conversation (you could also enter a CTRL/Z).
  448.  
  449. REJECT Rejects the phone call that has been received.
  450.  
  451. DIR nodename::
  452.  
  453.          Displays a list of all current users on the specified node.  This
  454.          command is extremely useful to list current users on other nodes of
  455.          the network.
  456.  
  457. FACSIMILE filename
  458.  
  459.          Will send the specified file to your listener as part of your
  460.          conversation.
  461.  
  462. To execute any of these commands during a conversation, the switch hook
  463. character must be entered first.  By default, that character is the percent
  464. key.
  465.  
  466. REMOTE FILE ACCESS:  DCL commands that access files will act transparently over
  467.                      the network.  For example, to copy a file from a remote
  468.                      node:
  469.  
  470. $copy
  471.  
  472. From: node"username password"::disk:[directory]file.lis
  473. To: newfile.lis
  474.  
  475. This will copy "file.lis" in "directory" on "node" to the account the command
  476. was issued in and name it "newfile.lis".  The access information (user name and
  477. password of the remote account) is enclosed in quotes.  Note that you can also
  478. copy that same file to any other node and account you desire.  For another
  479. example, to obtain a directory listing from a remote node, use the following
  480. command:
  481.  
  482. $dir node::[directory] (if on the default disk)
  483.  
  484.  
  485. Utilities for DECnet-11M/DECnet-IAS
  486. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  487. There are certain DECnet functions that can only be done on nodes that have the
  488. same type of operating systems, such as the MPB, TRW, SPRL, LASR, and UTD nodes
  489. all with an RSX-11M operating system.  The capabilities offered to the RSX
  490. DECnet user can be broken down into two major categories: those functions for
  491. terminal users and those functions for FORTRAN programmers.
  492.  
  493. DECnet-11M terminal users have several utility programs available to them which
  494. allows logging onto other machines in the network, file transfers, message
  495. communication, and network status information.
  496.  
  497. REMOTE-LOGON:  The REMOTE-LOGON procedure allows a user at a node to log-on to
  498.                another node in the network.  This capability is also called
  499.                virtual terminal.  The "SET /HOST=nodename" command allows the
  500.                user to log-on to adjacent nodes in the network from a
  501.                DECnet-11M node.  This command is initiated by simply typing
  502.                "SET /HOST=nodename".  The "SET HOST" command on the SPAN-VAX
  503.                also allows you to log-on to adjacent nodes.
  504.  
  505. NETWORK FILE TRANSFER:  NFT is the Network File Transfer program and is part of
  506.                         the DECnet software.  It is invoked by typing NFT <CR>
  507.                         to file = from file or by typing NFT to file = from
  508.                         file.  Embedded in the file names must be the node
  509.                         name, access information, and directory if it is
  510.                         different than the default conventions.  Also note that
  511.                         file names can only be 9 (nine) characters long on RSX
  512.                         systems.
  513.  
  514.                         Therefore, VAX/VMS files with more than 9 characters
  515.                         will not copy with default-file naming.  In such a case
  516.                         you must explicitly name the file being copied to an
  517.                         RSX system.  The following structure for the file names
  518.                         must be used when talking to the SPAN nodes with NFT.
  519.  
  520.                         NODE/username/password::Dev:[dir.sub-dir]file.type
  521.  
  522.                         The following NFT switches are very useful:
  523.  
  524.                         /LI   Directory listing switch.
  525.                         /AP   Appends/adds files to end of existing file.
  526.                         /DE   Deletes one or more files.
  527.                         /EX   Executes command file stored on remote/local
  528.                               node.
  529.                         /SB   Submits command file for execution
  530.                               (remote/local).
  531.                         /SP   Spools files to the line printer (works only with
  532.                               "like" nodes).
  533.  
  534.                         A particular use for NFT is for the display of graphics
  535.                         files on the network.  It is important to note,
  536.                         however, that some device-dependent graphics files are
  537.                         not all displayable, such as those generated by IGL
  538.                         software.  The graphic files generated by graphic
  539.                         packages that are displayable when residing at other
  540.                         nodes may be displayed by using the following input:
  541.  
  542.                         NFT> TI:=SPAN/NET/NET::[NETNET.RIMS]D1364.COL
  543.  
  544.                         Graphics files generated by IGL can be displayed by
  545.                         running either REPLAY or NETREP programs (see the
  546.                         net-library documentation).
  547.  
  548. TERMINAL COMMUNICATIONS:  TLK is the Terminal Communications Utility which
  549.                           allows users to exchange messages through their
  550.                           terminals.  TLK somewhat resembles the RSX broadcast
  551.                           command but with more capabilities.  TLK currently
  552.                           works only between RSX-11 nodes and within a RSX-11
  553.                           node.  There are two basic modes of operation for
  554.                           TLK:  The single message mode and the dialogue mode.
  555.  
  556.                           The single message mode conveys short messages to any
  557.                           terminal in the same node or remote node.  The syntax
  558.                           for this operation is:
  559.  
  560.                           >TLK TARGETNODE::TTn:--Message--
  561.  
  562.                           To initiate the the dialogue mode type:
  563.  
  564.                           >TLK TARGETNODE::TTn<cr>
  565.  
  566.                           When you receive the TLK> prompt, you can enter a new
  567.                           message line.
  568.  
  569.  
  570. Graphics Display Utilities
  571. ~~~~~~~~~~~~~~~~~~~~~~~~~~
  572. One of the main objectives of the SPAN system project is to accommodate
  573. coordinated data analysis without leaving one's institution.  Therefore, there
  574. is a strong need to develop the ability to have graphic images of data from any
  575. node to be displayed by any other node.  The current inability to display data
  576. on an arbitrary graphics device at any node has been quickly recognized. As
  577. general network utilities are developed to support the display of device
  578. dependent and independent graphic images, the handbook SPAN Graphics Display
  579. Utilities Handbook will serve to document their use and limitations.  The
  580. graphics handbook is a practical guide to those common network facilities which
  581. will be used to support network correlative studies from the one-to-one to the
  582. workshop levels.  For each graphics software utility the handbook contains
  583. information necessary to obtain, use, and implement the utility.
  584.  
  585.  
  586. Network Control Program
  587. ~~~~~~~~~~~~~~~~~~~~~~~
  588. NCP is the Network Control Program and is designed primarily to help the
  589. network manager.  However, there are some NCP commands which are useful for the
  590. general user.  With these commands, the user can quickly determine node names
  591. and whether nodes are reachable or not.  Help can be obtained by entering
  592. NCP>HELP and continuing from there.  For a complete listing of all the NCP
  593. commands that are available to nonpriviledged users, refer to the NCP Utility
  594. manual on VAXs, and the NCP appendix of the DECnet-11M manual for PDPs.  The
  595. following two commands are probably the most beneficial to users:
  596.  
  597. $ RUN SYS$SYSTEM:NCP       !on VAXs
  598.  
  599.        -or-
  600.  
  601. > RUN $NCP                 !on PDPs
  602.  
  603. NCP> SHOW KNOWN NODES      !show a list of all nodes
  604.                            !   defined in the volatile data base
  605. NCP> SHOW ACTIVE NODES     !show a list of only currently reachable
  606.  
  607. Please note that the second command cannot be used on "end nodes", that is,
  608. nodes that do not perform at least DECnet Level I routing.  In addition, only
  609. nodes in the user's area will be displayed on either Level I or Level II
  610. routers.  In the case of end nodes, users should find out the name of the
  611. nearest Level I or II routing node and issue the following command:
  612.  
  613. NCP> TELL GEORGE SHOW ACTIVE NODES
  614.  
  615.  
  616. Mail
  617. ~~~~
  618. As briefly discussed earlier all SPAN DEC nodes have a network mail utility.
  619. Before sending a mail message, the node name and user name must be known.  To
  620. send a message to the project manager, you would enter the following commands:
  621.  
  622. $ MAIL
  623.  
  624. MAIL> SEND
  625.  
  626. To: NSSDCA::THOMAS
  627. Subj: MAIL UTILITY TEST
  628. Enter your message below. Press ctrl/z when complete
  629. ctrl/c to quit:
  630.  
  631. VALERIE,
  632.    OUR NETWORK CONNECTION IS NOW AVAILABLE AT ALL TIMES.  WE ARE LOOKING
  633. FORWARD TO WORKING FULL TIME ON SPAN.  THANKS FOR ALL YOUR HELP.
  634.  
  635.                             FRED
  636. <CTRL/Z>
  637.  
  638. MAIL>EXIT
  639.  
  640. In order to send mail to more than one user, list the desired network users on
  641. the same line as the TO: command, separating each with a comma.  Another way to
  642. accomplish this is to use a file of names.  For example, in the file SEPAC.DIS,
  643. all SEPAC investigators on SPAN are listed:
  644.  
  645.         SSL::ROBERTS
  646.         SSL::REASONER
  647.         SSL::CHAPPELL
  648.         SWRI::JIM
  649.         TRW::TAYLOR
  650.         STAR::WILLIAMSON
  651.  
  652. The network mail utility will send duplicate messages to all those named in the
  653. above file by putting the file name on the TO: command line (TO: @SEPAC).  A
  654. second option for the SEND command is to include a file name that contains the
  655. text to be sent.  You will still be prompted for the To: and Subject:
  656. information.  The following statements give a brief description of other
  657. functions of the MAIL utility:
  658.  
  659.  READ n     Will list, on the terminal, the mail message corresponding to
  660.             number n.  If n is not entered, new mail messages will be listed.
  661.  
  662.  EXTRACT    Saves a copy of the current message to a designated file.
  663.  
  664.  FORWARD    Sends a copy of the current message to other users.
  665.  
  666.  REPLY      Allows you to send a message to the sender of the current message.
  667.  
  668.  DIR        Lists all messages in the current folder that you have selected.
  669.             The sequence numbers can then be used with the READ command.
  670.  
  671.  DEL        Delete the message just read.  The message is actually moved to the
  672.             WASTEBASKET folder until you exit the utility, when it is actually
  673.             deleted.  Therefore, you can retrieve a message that you have
  674.             "deleted", up until you enter "exit" or ^Z to the MAIL> prompt.
  675.  
  676.  HELP       Always useful if you're lost.
  677.  
  678.  
  679. Remote Node Information Files
  680. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  681. All nodes on the SPAN are required to maintain two node specific information
  682. files in their DECnet default directories.
  683.  
  684. The first file is a network user list file that contains specific information
  685. on each network user who has an account on the machine.  At a minimum, the user
  686. list file should contain the name of the user, his electronic mail address, his
  687. account/project identifier, and his default directory.  All of this information
  688. is easily obtained on VAX/VMS systems from the SYS$SYSTEM:SYSUAF.DAT file.
  689. (Note that the SYSUAF.DAT file is (and should be) only readable by the system
  690. manager.)  The file is called USERLIST.LIS and resides in the node's DECnet
  691. default directory. A command procedure for creating this file is available in
  692. NSSDCA::SPAN_NIC:USERLIST.COM.  This procedure should be executed from the
  693. SYSTEM account on the remote node for which it is to be compiled.  Following is
  694. an example of displaying the USERLIST.LIS file on NSSDCA from a VAX/VMS system.
  695.  
  696.  $ TYPE NSSDCA::USERLIST
  697.  
  698.       Userlist file created at : 28-SEP-1986 22:06:01.71
  699.  
  700.         Owner          Mail Address     Project   Default Directory
  701.   ----------------  -----------------  ---------  -----------------
  702.   ROBERT HOLZER     NSSDCA::HOLZER     CD8UCLGU  CDAW_C8USER:[HOLZER]
  703.   RICHARD HOROWITZ  NSSDCA::HOROWITZ   ACQ633GU  ACQ_USER:[HOROWITZ]
  704.   CHERYL HUANG      NSSDCA::HUANG      CD8IOWGU  CDAW_C8USER:[HUANG]
  705.   DOMINIK P. IASCO  NSSDCA::IASCONE    PCDCDWPG  CDAW_DEV:[IASCONE]
  706.   ISADARE BRADSKY   NSSDCA::IZZY       DVDSARPG  DAVID_DEV:[IZZY]
  707.   WENDELL JOHNSON   NSSDCA::JOHNSON    DCSSARPG  CODD_DEV:[JOHNSON]
  708.   DAVID JOSLIN      NSSDCA::JOSLIN     SYSNYMOP  OPERS_OPER:[JOSLIN]
  709.   JENNIFER HYESONG  NSSDCA::JPARK      CAS130GU  CAS_USER:[JPARK]
  710.   HSIAOFANG HU      NSSDCA::JUDY       DVDSARPG  DAVID_DEV:[JUDY]
  711.   YOUNG-WOON KANG   NSSDCA::KANG       ADCSARGU  ADC_USER:[KANG]
  712.   SUSAN E. KAYSER   NSSDCA::KAYSER     ACQSARGU  ACQ_USER:[KAYSER]
  713.   DR. JOSEPH KING   NSSDCA::KING       ADM633MG  ADM_USER:[KING]
  714.   BERNDT KLECKER    NSSDCA::KLECKER    CD8MAXGU  CDAW_C8USER:[KLECKER]
  715.   KENNETH KLENK     NSSDCA::KLENK      PCDSARPG  ADM_USER:[KLENK]
  716.  
  717. Much like the user list, a node information listing is available for all nodes
  718. in their DECnet default account.  This file is named NODEINFO.LIS.  The
  719. following example is for the SSL node and should be taken as a template for the
  720. generic NODEINFO.LIS file that should be on each node in SPAN.
  721.  
  722.  $ TYPE SSL::NODEINFO
  723.  
  724.  
  725. Telenet Access To SPAN
  726. ~~~~~~~~~~~~~~~~~~~~~~
  727. As SPAN grows, the number of users wishing to make use of its capabilities
  728. increases dramatically.  Now it is possible for any user with a terminal and a
  729. 0.3 or 1.2 kbps modem to access SPAN from anywhere in the U.S. simply by making
  730. a local telephone call.  There exists an interconnection between SPAN and the
  731. NASA Packet Switched Service (NPSS).  The NPSS in turn has a gateway to the
  732. public GTE Telenet network which provides the local call access facilities.
  733. The user dials into one of Telenet's local access facilities and dials the NASA
  734. DAF (Data Access Facility) security computer. The user is then able to access
  735. SPAN transparently through the NSSDC or SSL machines.
  736.  
  737. To find the phone number of a PAD local to the area you are calling from, you
  738. can call the Telenet customer service office, toll free, at 1-800-TELENET. They
  739. will be able to provide you with the number of the nearest Telenet PAD.
  740.  
  741. The following outlines the steps that one must go through to gain access to
  742. SPAN through Telenet.
  743.  
  744.      1.  First dial into the local Telenet PAD.
  745.      2.  When the PAD answers, hit carriage return several times until the '@'
  746.          prompt appears.
  747.  
  748.                             <CR><CR><CR>
  749.  
  750.                             @
  751.  
  752.      3.  Next enter the host identification address of the NASA DAF (security
  753.          computer).  This identification was not yet available at publication
  754.          time, but will be made available to all users requesting this type of
  755.          access.
  756.  
  757.                             @ID ;32100104/NASA
  758.  
  759.      4.  You will then be prompted for a password (which will be made available
  760.          with the identification above).
  761.  
  762.                             PASSWORD = 021075
  763.  
  764.                 (Note: Tthe password will not be echoed)
  765.  
  766.      5.  Then type <CR>.  You will be connected to the NASA DAF computer.  The
  767.          DAF will tell you which facility and port you succeeded in reaching,
  768.          along with a "ready" and then an asterisk prompt:
  769.  
  770.                 NASA PACKET NETWORK - PSCN
  771.  
  772.                  TROUBLE 205/544(FTS 824)-1771
  773.  
  774.                   PAD 311032115056
  775.  
  776.                 *1
  777.  
  778.                 ready
  779.  
  780.                 *
  781.  
  782.          All entries to the DAF must be in capital letters, and the USERID and
  783.          PASSWORD will undoubtedly be echoed on the screen.
  784.  
  785.                  *LOGON
  786.                  ENTER USERID>                   LPORTER
  787.                  ENTER PASSWORD>                 XXXXXXX
  788.                  ENTER SERVICE>                  SPANSSL
  789.                  NETWORK CONNECTION IN PROGRESS
  790.                  connected
  791.  
  792.          Alternatively, you may enter NSSDC for the "Service>" request.
  793.  
  794.      6.  You should now get the VMS "Username" prompt:
  795.  
  796.          Username: SPAN
  797.  
  798.      7.  You will then be prompted for the name of the SPAN host destination.
  799.          For instance, if you are a Pilot Land Data System user on the NSSDC
  800.          VAX 11/780, you would enter NSSDC and hit the carriage return in
  801.          response to the prompt for host name.
  802.  
  803.          SPAN host name? NSSDC
  804.  
  805.      8. Finally, continue with normal logon procedure for the destination host.
  806.  
  807.  
  808. The SPAN X.25 gateways have also been used extensively for internetwork
  809. communications to developing networks in Europe and Canada.
  810.  
  811. The traffic from the United States to Europe was so extensive that a dedicated
  812. link between the GSFC and ESOC routing centers.  This link became operational
  813. in January 1987.
  814.  
  815.                      Configuration Of SPAN/TELENET Gateway
  816.  
  817.                                   ----------
  818.                                   | dial-up|
  819.                                   |  user  |
  820.                                   ----------
  821.                                        |
  822.                            -------------------------
  823.                            |       TELENET         |
  824.                            -------------------------
  825.                                    | gateway
  826.                            -------------------------
  827.                            |         NPSS          |
  828.                            -------------------------
  829.                              |                   |
  830.                         -----------        -----------
  831.                         |  SSL    |        |  NSSDC  |
  832.                         | VAX 780 |        | VAX 8650|
  833.                         -----------        -----------
  834.                              |                   |
  835.                            -------------------------
  836.                            |         SPAN          |
  837.                            -------------------------
  838.                            |       |       |       |
  839.                         ------   ------  ------  ------
  840.                         |SPAN|   |SPAN|  |SPAN|  |SPAN|
  841.                         |node|   |node|  |node|  |node|
  842.                         ------   ------  ------  ------
  843.  
  844.  
  845. SPAN/ARPANET/BITNET/Public Packet Mail Gateways
  846. ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  847. SPAN supports several gateways both to and from several major networks.  The
  848. following gives the current syntax for forming an address to another user on
  849. another network.  There are several similar gateways at other SPAN nodes that
  850. are not included in this list.  Stanford is used here only as a typical
  851. example.  If it is necessary for you to use the Stanford mail gateway on an
  852. occasional basis, you should obtain permission from the system manager on the
  853. STAR node (or any other non-NASA gateway node).  Currently, there is no
  854. restriction on the NSSDCA gateway usage.
  855.  
  856.  
  857. SPAN-to-ARPANET: NSSDC Gateway . . To: NSSDCA::ARPA%"arpauser@arpahost"
  858.                  JPL Gateway . . . To: JPLLSI::"arpauser@arpahost"
  859.                  Stanford Gateway. To: STAR::"arpauser@arpahost"
  860.  
  861. ARPANET-to-SPAN: NSSDC Gateway . . To: spanuser%spanhost.SPAN@128.183.10.4
  862.                  JPL Gateway . . . To: spanuser%spanhost.SPAN@JPL-VLSI.ARPA
  863.                  Stanford Gateway. To: spanuser%spanhost.SPAN@STAR.STANFORD.EDU
  864.                  [Note:  128.183.10.4 is MILNET/ARPANET address for the NSSDC]
  865.  
  866. SPAN-to-BITNET:
  867.     NSSDC Gateway. . .To: NSSDCA::ARPA%"bituser%bithost.BITNET@CUNY.CUNYVM.EDU"
  868.     JPL Gateway. . . .To: JPLLSI::"bituser%bithost.BITNET@CUNY.CUNYVM.EDU"
  869.     Stanford Gateway .To: STAR::"bituser%bithost.BITNET@CUNY.CUNYVM.EDU"
  870.  
  871. BITNET-to-SPAN: Stanford Gateway. . . . To: spanuser%spanhost.SPAN@SU-STAR.ARPA
  872.  
  873.  
  874. The following gateways allow users on a VAX that supports a connection to a
  875. public packet switch system (virtually anywhere in the world) to reach SPAN
  876. nodes and vice-versa.  Note that this will transmit mail only to and from VAXs
  877. that support DEC PSI and PSI incoming and outgoing mail.
  878.  
  879. SPAN-to-Public Packet VAX
  880.         NSSDC Gateway. To: NSSDCA::PSI%dte_number::username
  881.         SSL Gateway. . To: SSL::PSI%dte_number::username
  882.  
  883. Public Packet VAX-to-SPAN node
  884.         NSSDC Gateway. To: PSI%311032107035::span_node_name::username
  885.         SSL Gateway. . To: PSI%311032100160::span_node_name::username
  886.  
  887.  
  888. It is possible for remote terminal access and mail between users on England's
  889. Joint Academic Network (JANET) and SPAN.  JANET is a private X.25 network used
  890. by the UK academic community and is accessible through the two SPAN public
  891. packet switched gateways at MSFC and at the NSSDC.
  892.  
  893.  
  894. List Of Acronyms
  895. ~~~~~~~~~~~~~~~~
  896. ARC     - Ames Research Center
  897. ARPANET - Advanced Research Projects Agency network
  898. BITNET  - Because It's Time Network
  899. CDAW    - Coordinated Data Analysis Workshop
  900. CSNET   - Computer Science Network
  901. DDCMP   - DEC "level II" network protocol
  902. DEC     - Digital Equipment Corporation
  903. DECnet  - DEC networking products generic family name
  904. DSUWG   - Data System Users Working Group
  905. ESOC    - European Space Operations Center
  906. ESTEC   - European Space Research and Technology Center
  907. GSFC    - Goddard Space Flight Center
  908. GTE     - General Telephone and Electic
  909. HEPNET  - High Energy Physics Network
  910. INFNET  - Instituto Nazional Fisica Nucleare Network
  911. ISAS    - Institute of Space and Astronautical Science
  912. ISO/OSI - International Standards Organization/Open Systems Interconnection
  913.           (network protocol)
  914. ISTP    - International Solar Terrestrial Physics
  915. JANET   - Joint Academic Network (in United Kingdom)
  916. JPL     - Jet Propulsion Laboratory
  917. JSC     - Johnson Space Center
  918. kbps    - Kilobit per second
  919. LAN     - Local area network
  920. LANL    - Los Alamos National Laboratory
  921. MFENET  - Magnetic Fussion Energy Network
  922. MILNET  - Defence data network (originally part of ARPANET)
  923. MSFC    - Marshall Space Flight Center
  924. NCAR    - National Center for Atmospheric Research
  925. NFT     - Network File Transfer (program on RSX/IAS systems)
  926. NIC     - Network Information Center
  927. NPSS    - NASA Packet Switched System (using X.25 protocol)
  928. NSSDC   - National Space Science Data Center (at GSFC)
  929. PDS     - Planetary Data System
  930. PSCN    - Program Support Communications Network
  931. SESNET  - Space and Earth Science Network (at GSFC)
  932. SPAN    - Space Physics Analysis Network
  933. SSL     - Space Science Laboratory (at MSFC)
  934. RVT     - Remote virtual terminal program for RSX or IAS systems
  935. TCP/IP  - Transmission Control Protocol/Internet Protocol
  936. Telenet - A public packed switched network owned by GTE
  937. TEXNET  - Texas Network (Academic network)
  938. WAN     - Wide area network
  939. X.25    - A "level II" communication protocol for packet switched networks
  940. _______________________________________________________________________________
  941.  
  942. Downloaded From P-80 International Information Systems 304-744-2253 12yrs+
  943.