home *** CD-ROM | disk | FTP | other *** search
/ Handbook of Infosec Terms 2.0 / Handbook_of_Infosec_Terms_Version_2.0_ISSO.iso / text / rfcs / rfc1588.txt < prev    next >
Text File  |  1996-05-07  |  79KB  |  983 lines

  1.  
  2.  
  3.  
  4.  
  5.  
  6.  
  7. Network Working Group                                          J. Postel Request for Comments: 1588                                   C. Anderson Category: Informational                                              ISI                                                            February 1994 
  8.  
  9.                         WHITE PAGES MEETING REPORT 
  10.  
  11.  
  12.  
  13. STATUS OF THIS MEMO 
  14.  
  15.    This memo provides information for the Internet community.  This memo    does not specify an Internet standard of any kind.  Distribution of    this memo is unlimited. 
  16.  
  17. INTRODUCTION 
  18.  
  19.    This report describes the results of a meeting held at the November    IETF (Internet Engineering Task Force) in Houston, TX, on November 2,    1993, to discuss the future of and approaches to a white pages    directory services for the Internet. 
  20.  
  21.    As proposed to the National Science Foundation (NSF), USC/Information    Sciences Institute (ISI) conducted the meeting to discuss the    viability of the X.500 directory as a practical approach to providing    white pages service for the Internet in the near future and to    identify and discuss any alternatives. 
  22.  
  23.    An electronic mail mailing list was organized and discussions were    held via email for two weeks prior to the meeting. 
  24.  
  25. 1. EXECUTIVE SUMMARY 
  26.  
  27.    This report is organized around four questions: 
  28.  
  29.    1) What functions should a white pages directory perform? 
  30.  
  31.       There are two functions the white pages service must provide:       searching and retrieving. 
  32.  
  33.       Searching is the ability to find people given some fuzzy       information about them.  Such as "Find the Postel in southern       California".  Searches may often return a list of matches. 
  34.  
  35.       While the idea of indexing has been around for some time, such as       the IN-ADDR tree in the Domain Name System (DNS), a new       acknowledgment of its importance has emerged from these 
  36.  
  37.  
  38.  
  39. Postel & Anderson                                               [Page 1] 
  40.  RFC 1588                   White Pages Report              February 1994 
  41.  
  42.        discussions.  Users want fast searching across the distributed       database on attributes different from the database structure.       Pre-computed indices satisfy this desire, though only for       specified searches. 
  43.  
  44.       Retrieval is obtaining additional information associated with a       person, such as an address, telephone number, email mailbox, or       security certificate. 
  45.  
  46.       Security certificates (a type of information associated with an       individual) are essential for the use of end-to-end       authentication, integrity, and privacy in Internet applications.       The development of secure applications in the Internet is       dependent on a directory system for retrieving the security       certificate associated with an individual.  For example, the       privacy enhanced electronic mail (PEM) system has been developed       and is ready to go into service, and is now hindered by the lack       of an easily used directory of security certificates.  An open       question is whether or not such a directory needs to be internally       secure. 
  47.  
  48.    2) What approaches will provide us with a white pages directory? 
  49.  
  50.       It is evident that there are and will be several technologies in       use.  In order to provide a white pages directory service that       accommodates multiple technologies, we should promote       interoperation and work toward a specification of the simplest       common communication form that is powerful enough to provide the       necessary functionality.  This "common ground" approach aims to       provide the ubiquitous WPS (White Pages Service) with a high       functionality and a low entry cost. 
  51.  
  52.    3) What are the problems to be overcome? 
  53.  
  54.       It must be much easier to be part of the Internet white pages than       to bring up a X.500 DSA (Directory Service Agent), yet we must       make good use of the already deployed X.500 DSAs.  Simpler white       pages services (such as Whois++) must be defined to promote       multiple implementations.  To promote reliable operation, there       must be some central management of the X.500 system.  A common       naming scheme must be identified and documented.  A set of index-       servers, and indexing techniques, must be developed.  The storage       and retrieval of security certificates must be provided. 
  55.  
  56.  
  57.  
  58.  
  59.  
  60.  
  61.  
  62.  Postel & Anderson                                               [Page 2] 
  63.  RFC 1588                   White Pages Report              February 1994 
  64.  
  65.     4) What should the deployment strategy be? 
  66.  
  67.       Some central management must be provided, and easy to use user       interfaces (such as the Gopher "gateway"), must be widely       deployed.  The selection of a naming scheme must be documented.       We should capitalize on the existing infrastructure of already       deployed X.500 DSAs.  The "common ground" model should be adopted.       A specification of the simplest common communication form must be       developed.  Information about how to set up a new server (of       whatever kind) in "cookbook" form should be made available. 
  68.  
  69.    RECOMMENDATIONS 
  70.  
  71.     1.  Adopt the common ground approach.  Encourage multiple client and         server types, and the standardization of an interoperation         protocol between them.  The clients may be simple clients,         front-ends, "gateways", or embedded in other information access         clients, such as Gopher or WWW (World Wide Web) client programs.         The interoperation protocol will define message types, message         sequences, and data fields.  An element of this protocol should         be the use of Universal Record Locators (URLs). 
  72.  
  73.     2.  Promote the development of index-servers.  The index-servers         should use several different methods both for gathering data for         their indices, and for searching their indices. 
  74.  
  75.     3.  Support a central management for the X.500 system.  To get the         best advantage of the effort already invested in the X.500         directory system it is essential to provide the relatively small         amount of central management necessary to keep the system         functioning. 
  76.  
  77.     4.  Support the development of security certificate storage and         retrieval from the white pages service.  One practical approach         is initially to focus on getting support from the existing X.500         directory infrastructure.  This effort should also include         design and development of the storage and retrieval of security         certificates for other white pages services, such as Whois++. 
  78.  
  79.  
  80.  
  81.  
  82.  
  83.  
  84.  
  85.  
  86.  
  87.  
  88.  
  89.  
  90.  
  91. Postel & Anderson                                               [Page 3] 
  92.  RFC 1588                   White Pages Report              February 1994 
  93.  
  94.  2. HISTORY 
  95.  
  96.    In February 1989, a meeting on Internet white pages service was    initiated by the FRICC (Federal Research Internet Coordinating    Committee) and the ensuing discussions resulted in RFC 1107 [1] that    offered some technical conclusions.  Widespread deployment was to    have taken place by mid-1992. 
  97.  
  98.          RFC 1107: K. Sollins, "Plan for Internet Directory Services",          [1]. 
  99.  
  100.    Several other RFCs have been written suggesting deployment strategies    and plans for an X.500 Directory Service. 
  101.  
  102.    They are: 
  103.  
  104.          RFC 1275: S. Hardcastle-Kille, "Replication Requirements to          provide an Internet Directory using X.500", [2]. 
  105.  
  106.          RFC 1308: C. Weider, J. Reynolds, "Executive Introduction to          Directory Services Using the X.500 Protocol", [3]. 
  107.  
  108.          RFC 1309: C. Weider, J. Reynolds, S. Heker, "Technical Overview          of Directory Services Using the X.500 Protocol", [4]. 
  109.  
  110.          RFC 1430: S. Hardcastle-Kille, E. Huizer, V. Cerf, R. Hobby &          S. Kent, "A Strategic Plan for Deploying an Internet X.500          Directory Service", [5]. 
  111.  
  112.    Also, a current working draft submitted by A. Jurg of SURFnet    entitled, "Introduction to White pages services based on X.500",    describes why we need a global white pages service and why X.500 is    the answer [6]. 
  113.  
  114.    The North America Directory Forum (NADF) also has done some useful    work setting conventions for commercial providers of X.500 directory    service.  Their series of memos is relevant to this discussion.  (See    RFC 1417 for an overview of this note series [7].)  In particular,    NADF standing document 5 (SD-5) "An X.500 Naming Scheme for National    DIT Subtrees and its Application for c=CA and c=US" is of interest    for its model of naming based on civil naming authorities [8]. 
  115.  
  116.    Deployment of a X.500 directory service including that under the PSI    (Performance Systems International) White Pages Pilot Project and the    PARADISE Project is significant, and continues to grow, albeit at a    slower rate than the Internet. 
  117.  
  118.  
  119.  
  120.  
  121.  
  122. Postel & Anderson                                               [Page 4] 
  123.  RFC 1588                   White Pages Report              February 1994 
  124.  
  125.  3. QUESTIONS 
  126.  
  127.    Four questions were posed to the discussion list: 
  128.  
  129.       1) What functions should a white pages directory perform? 
  130.  
  131.       2) What approaches will provide us with a white pages directory? 
  132.  
  133.       3) What are the problems to be overcome? 
  134.  
  135.       4) What should the deployment strategy be? 
  136.  
  137. 3.A. WHAT FUNCTIONS SHOULD A WHITE PAGES DIRECTORY PERFORM? 
  138.  
  139.    The basic function of a white pages service is to find people and    information about people. 
  140.  
  141.    In finding people, the service should work fast when searching for    people by name, even if the information regarding location or    organization is vague.  In finding information about people, the    service should retrieve information associated with people, such as a    phone number, a postal or email address, or even a certificate for    security applications (authentication, integrity, and privacy).    Sometimes additional information associated with people is provided    by a directory service, such as a list of publications, a description    of current projects, or a current travel itinerary. 
  142.  
  143.    Back in 1989, RFC 1107 detailed 8 requirements of a white pages    service: (1) functionality, (2) correctness of information, (3) size,    (4) usage and query rate, (5) response time, (6) partitioned    authority, (7) access control, (8) multiple transport protocol    support; and 4 additional features that would make it more useful:    (1) descriptive naming that could support a yellow pages service, (2)    accountability, (3) multiple interfaces, and (4) multiple clients. 
  144.  
  145.    Since the writing of RFC 1107, many additional functions have been    identified.  A White Pages Functionality List is attached as Appendix    1.  The problem is harder now, the Internet is much bigger, and there    are many more options available (Whois++, Netfind, LDAP (Lightweight    Direct Access Protocol), different versions of X.500 implementations,    etc.) 
  146.  
  147.    A white pages directory should be flexible, should have low resource    requirements, and should fit into other systems that may be currently    in use; it should not cost a lot, so that future transitions are not    too costly; there should be the ability to migrate to something else,    if a better solution becomes available; there should be a way to    share local directory information with the Internet in a seamless 
  148.  
  149.  
  150.  
  151. Postel & Anderson                                               [Page 5] 
  152.  RFC 1588                   White Pages Report              February 1994 
  153.  
  154.     fashion and with little extra effort; the query responses should be    reliable enough and consistent enough that automated tools could be    used. 
  155.  
  156. 3.B. WHAT APPROACHES WILL PROVIDE US WITH A WHITE PAGES DIRECTORY? 
  157.  
  158.    People have different needs, tastes, etc.  Consequently, a large part    of the ultimate solution will include bridging among these various    solutions.  Already we see a Gopher to X.500 gateway, a Whois++ to    X.500 gateway, and the beginnings of a WWW to X.500 gateway.  Gopher    can talk to CSO (a phonebook service developed by University of    Illinois), WAIS (Wide Area Information Server), etc.  WWW can talk to    everything.  Netfind knows about several other protocols. 
  159.  
  160.    Gopher and WAIS "achieved orbit" simply by providing means for people    to export and to access useful information; neither system had to    provide ubiquitous service.  For white pages, if the service doesn't    provide answers to specific user queries some reasonable proportion    of the time, users view it as as failure.  One way to achieve a high    hit rate in an exponentially growing Internet is to use a proactive    data gathering architecture (e.g., as realized by archie and    Netfind).  Important as they are, replication, authentication, etc.,    are irrelevant if no one uses the service. 
  161.  
  162.    There are pluses and minuses to a proactive data gathering method.    On the plus side, one can build a large database quickly.  On the    minus side, one can get garbage in the database.  One possibility is    to use a proactive approach to (a) acquire data for administrative    review before being added to the database, and/or (b) to check the    data for consistency with the real world.  Additionally, there is    some question about the legality of proactive methods in some    countries. 
  163.  
  164.    One solution is to combine existing technology and infrastructure to    provide a good white pages service, based on a X.500 core plus a set    of additional index/references servers.  DNS can be used to "refer"    to the appropriate zone in the X.500 name space, using WAIS or    Whois++, to build up indexes to the X.500 server which will be able    to process a given request.  These can be index-servers or centroids    or something new. 
  165.  
  166.    Some X.500 purists might feel this approach muddles the connecting    fabric among X.500 servers, since the site index, DNS records, and    customization gateways are all outside of X.500.  On the other hand,    making X.500 reachable from a common front-end would provide added    incentive for sites to install X.500 servers.  Plus, it provides an    immediate (if interim) solution to the need for a global site index    in X.500.  Since the goal is to have a good white pages service, 
  167.  
  168.  
  169.  
  170. Postel & Anderson                                               [Page 6] 
  171.  RFC 1588                   White Pages Report              February 1994 
  172.  
  173.     X.500 purity is not essential. 
  174.  
  175.    It may be that there are parts of the white pages problem that cannot    be addressed without "complex technology".  A solution that allows    the user to progress up the ladder of complexity, according to taste,    perceived need, and available resources may be a much healthier    approach.  However, experience to date with simpler solutions    (Whois++, Netfind, archie) indicates that a good percentage of the    problem of finding information can be addressed with simpler    approaches.  Users know this and will resist attempts to make them    pay the full price for the full solution when it is not needed.    Whereas managers and funders may be concerned with the complexity of    the technology, users are generally more concerned with the quality    and ease of use of the service.  A danger in supporting a mix of    technologies is that the service may become so variable that the    loose constraints of weak service in some places lead users to see    the whole system as too loose and weak. 
  176.  
  177.    Some organizations will not operate services that they cannot get for    free or they cannot try cheaply before investing time and money.    Some people prefer a bare-bones, no support solution that only gives    them 85 percent of what they want.  Paying for the service would not    be a problem for many sites, once the value of the service has been    proven.  Although there is no requirement to provide free software    for everybody, we do need viable funding and support mechanisms.  A    solution can not be simply dictated with any expectation that it will    stick. 
  178.  
  179.    Finally, are there viable alternative technologies to X.500 now or do    we need to design something new?  What kind of time frame are we    talking about for development and deployment?  And will the new    technology be extensible enough to provide for the as yet unimagined    uses that will be required of directory services 5 years from now?    And will this directory service ultimately provide more capabilities    than just white pages? 
  180.  
  181. 3.C. WHAT ARE THE PROBLEMS TO BE OVERCOME? 
  182.  
  183.    There are two classes of problems to be examined; technology issues    and infrastructure. 
  184.  
  185.    TECHNOLOGY: 
  186.  
  187.    How do we populate the database and make software easily available? 
  188.  
  189.    Many people suggest that a public domain version of X.500 is    necessary before a wide spread X.500 service is operational.  The    current public domain version is said to be difficult to install and 
  190.  
  191.  
  192.  
  193. Postel & Anderson                                               [Page 7] 
  194.  RFC 1588                   White Pages Report              February 1994 
  195.  
  196.     to bring into operation, but many organizations have successfully    installed it and have had their systems up and running for some time.    Note that the current public domain program, quipu, is not quite    standard X.500, and is more suited to research than production    service.  Many people who tried earlier versions of quipu abandoned    X.500 due to its costly start up time, and inherent complexity. 
  197.  
  198.    The ISODE (ISO Development Environment) Consortium is currently    developing newer features and is addressing most of the major    problems.  However, there is the perception that the companies in the    consortium have yet to turn these improvements into actual products,    though the consortium says the companies have commercial off-the-    shelf (COTS) products available now.  The improved products are    certainly needed now, since if they are too late in being deployed,    other solutions will be implemented in lieu of X.500. 
  199.  
  200.    The remaining problem with an X.500 White Pages is having a high    quality public domain DSA.  The ISODE Consortium will make its    version available for no charge to Universities (or any non-profit or    government organization whose primary purpose is research) but if    that leaves a sizeable group using the old quipu implementation, then    there is a significant problem.  In such a case, an answer may be for    some funding to upgrade the public version of quipu. 
  201.  
  202.    In addition, the quipu DSA should be simplified so that it is easy to    use.  Tim Howes' new disk-based quipu DSA solves many of the memory    problems in DSA resource utilization.  If one fixes the DSA resource    utilization problem, makes it fairly easy to install, makes it freely    available, and publishes a popular press book about it, X.500 may    have a better chance of success. 
  203.  
  204.    The client side of X.500 needs more work.  Many people would rather    not expend the extra effort to get X.500 up.  X.500 takes a sharp    learning curve.  There is a perception that the client side also    needs a complex Directory User Interface (DUI) built on ISODE.  Yet    there are alternative DUIs, such as those based on LDAP.  Another    aspect of the client side is that access to the directory should be    built into other applications like gopher and email (especially,    accessing PEM X.509 certificates). 
  205.  
  206.    We also need data conversion tools to make the transition between    different systems possible.  For example, NASA had more than one    system to convert. 
  207.  
  208.    Searching abilities for X.500 need to be improved.  LDAP is great    help, but the following capabilities are still needed: 
  209.  
  210.  
  211.  
  212.  
  213.  
  214. Postel & Anderson                                               [Page 8] 
  215.  RFC 1588                   White Pages Report              February 1994 
  216.  
  217.     -- commercial grade easily maintainable servers with back-end       database support. 
  218.  
  219.    -- clients that can do exhaustive search and/or cache useful       information and use heuristics to narrow the search space in case       of ill-formed queries. 
  220.  
  221.    -- index servers that store index information on a "few" key       attributes that DUIs can consult in narrowing the search space.       How about index attributes at various levels in the tree that       capture the information in the corresponding subtree? 
  222.  
  223.    Work still needs to be done with Whois++ to see if it will scale to    the level of X.500. 
  224.  
  225.    An extended Netfind is attractive because it would work without any    additional infrastructure changes (naming, common schema, etc.), or    even the addition of any new protocols. 
  226.  
  227.    INFRASTRUCTURE: 
  228.  
  229.    The key issues are central management and naming rules. 
  230.  
  231.    X.500 is not run as a service in the U.S., and therefore those using    X.500 in the U.S. are not assured of the reliability of root servers.    X.500 cannot be taken seriously until there is some central    management and coordinated administration support in place.  Someone    has to be responsible for maintaining the root; this effort is    comparable to maintaining the root of the DNS.  PSI provided this    service until the end of the FOX project [9]; should they receive    funding to continue this?  Should this be a commercial enterprise?    Or should this function be added to the duties of the InterNIC? 
  232.  
  233.    New sites need assistance in getting their servers up and linked to a    central server. 
  234.  
  235.    There are two dimensions along which to consider the infrastructure:    1) general purpose vs. specific, and 2) tight vs. loose information    framework. 
  236.  
  237.    General purpose leads to more complex protocols - the generality is    an overhead, but gives the potential to provide a framework for a    wide variety of services.  Special purpose protocols are simpler, but    may lead to duplication or restricted scope. 
  238.  
  239.    Tight information framework costs effort to coerce existing data and    to build structures.  Once in place, it gives better managability and    more uniform access.  The tight information framework can be 
  240.  
  241.  
  242.  
  243. Postel & Anderson                                               [Page 9] 
  244.  RFC 1588                   White Pages Report              February 1994 
  245.  
  246.     subdivided further into: 1) the naming approach, and 2) the object    and attribute extensibility. 
  247.  
  248.    Examples of systems placed in this space are: a) X.500 is a general    purpose and tight information framework, b) DNS is a specific and    tight information framework, c) there are various research efforts in    the general purpose and loose information framework, and d) Whois++    employs a specific and loose information framework. 
  249.  
  250.    We need to look at which parts of this spectrum we need to provide    services.  This may lead to concluding that several services are    desirable. 
  251.  
  252. 3.D. WHAT SHOULD THE DEPLOYMENT STRATEGY BE? 
  253.  
  254.    No solution will arise simply by providing technical specifications.    The solution must fit the way the Internet adopts information    technology.  The information systems that have gained real momentum    in the Internet (WAIS, Gopher, etc.) followed the model: 
  255.  
  256.    -- A small group goes off and builds a piece of software that       supplies badly needed functionality at feasible effort to       providers and users. 
  257.  
  258.    -- The community rapidly adopts the system as a de facto standard. 
  259.  
  260.    -- Many people join the developers in improving the system and       standardizing the protocols. 
  261.  
  262.    What can this report do to help make this happen for Internet white    pages? 
  263.  
  264.    Deployment Issues. 
  265.  
  266.    -- A strict hierarchical layout is not suitable for all directory       applications and hence we should not force fit it. 
  267.  
  268.    -- A typical organization's hierarchical information itself is often       proprietary; they may not want to divulge it to the outside world. 
  269.  
  270.       It will always be true that Institutions (not just commercial)       will always have some information that they do not wish to display       to the public in any directory.  This is especially true for       Institutions that want to protect themselves from headhunters, and       sales personnel. 
  271.  
  272.  
  273.  
  274.  
  275.  
  276.  Postel & Anderson                                              [Page 10] 
  277.  RFC 1588                   White Pages Report              February 1994 
  278.  
  279.     -- There is the problem of multiple directory service providers, but       see NADF work on "Naming Links" and their "CAN/KAN" technology       [7]. 
  280.  
  281.       A more general approach such as using a knowledge server (or a set       of servers) might be better.  The knowledge servers would have to       know about which server to contact for a given query and thus may       refer to either service provider servers or directly to       institution-operated servers.  The key problem is how to collect       the knowledge and keep it up to date.  There are some questions       about the viability of "naming links" without a protocol       modification. 
  282.  
  283.    -- Guidelines are needed for methods of searching and using directory       information. 
  284.  
  285.    -- A registration authority is needed to register names at various       levels of the hierarchy to ensure uniqueness or adoption of the       civil naming structure as delineated by the NADF. 
  286.  
  287.    It is true that deployment of X.500 has not seen exponential growth    as have other popular services on the Internet.  But rather than    abandoning X.500 now, these efforts, which are attempting to address    some of the causes, should continue to move forward.  Certainly    installation complexity and performance problems with the quipu    implementation need solutions.  These problems are being worked on. 
  288.  
  289.    One concern with the X.500 service has been the lack of ubiquitous    user agents.  Very few hosts run the ISODE package.  The use of LDAP    improves this situation.  The X.500-gopher gateway has had the    greatest impact on providing wide-spread access to the X.500 service.    Since adding X.500 as a service on the ESnet Gopher, the use of the    ESnet DSA has risen dramatically. 
  290.  
  291.    Another serious problem affecting the deployment of X.500, at least    in the U.S., is the minimal support given to building and maintaining    the necessary infrastructure since the demise of the Fox Project [9].    Without funding for this effort, X.500 may not stand a chance in the    United States. 
  292.  
  293.  
  294.  
  295.  
  296.  
  297.  
  298.  
  299.  
  300.  
  301.  
  302.  
  303.  Postel & Anderson                                              [Page 11] 
  304.  RFC 1588                   White Pages Report              February 1994 
  305.  
  306.  4. REVIEW OF TECHNOLOGIES 
  307.  
  308.    There are now many systems for finding information, some of these are    oriented to white pages, some include white pages, and others    currently ignore white pages.  In any case, it makes sense to review    these systems to see how they might fit into the provision of an    Internet white pages service. 
  309.  
  310. 4.A. X.500 
  311.  
  312.    Several arguments in X.500's favor are its flexibility, distributed    architecture, security, superiority to paper directories, and that it    can be used by applications as well as by humans.  X.500 is designed    to provide a uniform database facility with replication,    modification, and authorization.  Because it is distributed, it is    particularly suited for a large global White Pages directory.  In    principle, it has good searching capabilities, allowing searches at    any level or in any subtree of the DIT (Directory Information Tree).    There are DUIs available for all types of workstations and X.500 is    an international standard.  In theory, X.500 can provide vastly    better directory service than other systems, however, in practice,    X.500 is difficult, too complicated, and inconvenient to use.  It    should provide a better service.  X.500 is a technology that may be    used to provide a white pages service, although some features of    X.500 may not be needed to provide just a white pages service. 
  313.  
  314.    The are three reasons X.500 deployment has been slow, and these are    largely the same reasons people don't like it: 
  315.  
  316.    1) The available X.500 implementations (mostly quipu based on the       ISODE) are very large and complicated software packages that are       hard to work with.  This is partly because they solve the general       X.500 problem, rather than the subset needed to provide an       Internet white pages directory.  In practice, this means that a       portion of the code/complexity is effectively unused. 
  317.  
  318.       The LDAP work has virtually eliminated this concern on the client       side of things, as LDAP is both simple and lightweight.  Yet, the       complexity problem still exists on the server side of things, so       people continue to have trouble bringing up data for simple       clients to access. 
  319.  
  320.       It has been suggested that the complexity in X.500 is due to the       protocol stack and the ISODE base.  If this is true, then LDAP may       be simple because it uses TCP directly without the ISODE base.  A       version of X.500 server that took the same approach might also be       "simple" or at least simpler.  Furthermore, the difficulty in       getting an X.500 server up may be related to finding the data to 
  321.  
  322.  
  323.  
  324. Postel & Anderson                                              [Page 12] 
  325.  RFC 1588                   White Pages Report              February 1994 
  326.  
  327.        put in the server, and so may be a general data management problem       rather than an X.500 specific problem. 
  328.  
  329.       There is some evidence that eventually a large percentage of the       use of directory services may be from applications rather than       direct user queries.  For example, mail-user-agents exist that are       X.500 capable with an integrated DUA (Directory User Agent). 
  330.  
  331.    2) You have to "know a lot" to get a directory service up and running       with X.500.  You have to know about object classes and attributes       to get your data into X.500.  You have to get a distinguished name       for your organization and come up with an internal tree structure.       You have to contact someone before you can "come online" in the       pilot.  It's not like gopher where you type "make", tell a few       friends, and you're up and running. 
  332.  
  333.       Note that a gopher server is not a white pages service, and as       noted elsewhere in this report, there are a number of issues that       apply to white pages service that are not addressed by gopher. 
  334.  
  335.       Some of these problems could be alleviated by putting in place       better procedures.  It should not any be harder to get connected       to X.500 than it is to get connected to the DNS, for example.       However, there is a certain amount of complexity that may be       inherent in directory services.  Just compare Whois++ and X.500.       X.500 has object classes.  Whois++ has templates.  X.500 has       attributes.  Whois++ has fields.  X.500 has distinguished names.       Whois++ has handles. 
  336.  
  337.    3) Getting data to populate the directory, converting it into the       proper form, and keeping it up-to-date turns out to be a hard       problem.  Often this means talking to the administrative computing       department at your organization. 
  338.  
  339.       This problem exists regardless of the protocol used.  It should be       easy to access this data through the protocol you're using, but       that says more about implementations than it does about the       protocol.  Of course, if the only X.500 implementation you have       makes it really hard to do, and the Whois++ implementation you       have makes it easy, it's hard for that not to reflect on the       protocols. 
  340.  
  341.    The fact that there are sites like University of Michigan, University    of Minnesota, Rutgers University, NASA, LBL, etc. running X.500 in    serious production mode shows that the problem has more to do with    the current state of X.500 software procedures.  It takes a lot of    effort to get it going.  The level of effort required to keep it    going is relatively very small. 
  342.  
  343.  
  344.  
  345. Postel & Anderson                                              [Page 13] 
  346.  RFC 1588                   White Pages Report              February 1994 
  347.  
  348.     The yellow pages problem is not really a problem.  If you look at it    in the traditional phonebook-style yellow pages way, then X.500 can    do the job just like the phone book does.  Just organize the    directory based on different (i.e., non-geographical) criteria.  If    you want to "search everything", then you need to prune the search    space.  To do this you can use the Whois++ centroids idea, or    something similar.  But this idea is as applicable to X.500 as it is    to Whois++.  Maybe X.500 can use the centroids idea most effectively. 
  349.  
  350.    Additionally, it should be noted that there is not one single Yellow    Pages service, but that according to the type of query there could be    several such as querying by role, by location, by email address. 
  351.  
  352.    No one is failing to run X.500 because they perceive it fails to    solve the yellow pages problem.  The reasons are more likely one or    more of the three above. 
  353.  
  354.    X.500's extra complexity is paying off for University of Michigan.    University of Michigan started with just people information in their    tree.  Once that infrastructure was in place, it was easy for them to    add more things to handle mailing lists/email groups, yellow pages    applications like a documentation index, directory of images, etc. 
  355.  
  356.    The ESnet community is using X.500 right now to provide a White Pages    service; users succeed everyday in searching for information about    colleagues given only a name and an organizational affiliation; and    yes, they do load data into X.500 from an Oracle database. 
  357.  
  358.    LBL finds X.500 very useful.  They can lookup DNS information, find    what Zone a Macintosh is in, lookup departmental information, view    the current weather satellite image, and lookup people information. 
  359.  
  360.    LDAP should remove many of the complaints about X.500.  Implementing    a number of LDAP clients is very easy and has all the functionality    needed.  Perhaps DAP should be scrapped. 
  361.  
  362.    Another approach is the interfacing of X.500 servers to WWW (the    interface is sometimes called XWI).  Using the mosaic program from    the NCSA, one can access X.500 data. 
  363.  
  364.    INTERNET X.500 
  365.  
  366.    The ISO/ITU may not make progress on improving X.500 in the time    frame required for an Internet white pages service.  One approach is    to have the Internet community (e.g., the IETF) take responsibility    for developing a subset or profile of that part of X.500 it will use,    and developing solutions for the ambiguous and undefined parts of    X.500 that are necessary to provide a complete service. 
  367.  
  368.  
  369.  
  370. Postel & Anderson                                              [Page 14] 
  371.  RFC 1588                   White Pages Report              February 1994 
  372.  
  373.     Tasks this approach might include are: 
  374.  
  375.    1. Internet (IETF) control of the base of the core service white       pages infrastructure and standard. 
  376.  
  377.    2. Base the standard on the 1993 specification, especially       replication and access control. 
  378.  
  379.    3. For early deployment choose which parts of the replication       protocol are really urgently needed.  It may be possible to define       a subset and to make it mandatory for the Internet. 
  380.  
  381.    4. Define an easy and stable API (Application Program Interface) for       key access protocols (DAP, LDAP). 
  382.  
  383.    5. Use a standard knowledge model. 
  384.  
  385.    6. Make sure that high performance implementations will exist for the       most important servers, roles principally for the upper layers of       the DSA tree. 
  386.  
  387.    7. Make sure that servers will exist that will be able to efficiently       get the objects (or better the attributes) from existing       traditional databases for use at the leaves of the DSA tree. 
  388.  
  389. 4.B. WHOIS++ 
  390.  
  391.    The very first discussions of this protocol started in July 1992.  In    less than 15 months there were 3 working public domain    implementations, at least 3 more are on the way, and a Whois++    front-end to X.500.  In addition, the developers who are working on    the resource location system infrastructure (URL/URI) have committed    to implementing it on top of Whois++ because of its superior search    capabilities. 
  392.  
  393.    Some of the main problems with getting a White Pages directory going    have been: (1) search, (2) lack of public domain versions, (3)    implementations are too large, (4) high start up cost, and (5) the    implementations don't make a lot of sense for a local directory,    particularly for small organizations.  Whois++ can and does address    all these problems very nicely. 
  394.  
  395.    Search is built into Whois++, and there is a strong commitment from    the developers to keep this a high priority. 
  396.  
  397.  
  398.  
  399.  
  400.  
  401.  
  402.  
  403. Postel & Anderson                                              [Page 15] 
  404.  RFC 1588                   White Pages Report              February 1994 
  405.  
  406.     The protocols are simple enough that someone can write a server in 3    days.  And people have done it.  If the protocols stay simple, it    will always be easy for someone to whip out a new public domain    server.  In this respect, Whois++ is much like WAIS or Gopher. 
  407.  
  408.    The typical Whois++ implementation is about 10 megabytes, including    the WAIS source code that provides the data engine.  Even assuming a    rough doubling of the code as additional necessary functionality is    built in, that's still quite reasonable, and compares favorably with    the available implementations of X.500.  In addition, WAIS is disk-    based from the start, and is optimized for local searching.  Thus,    this requires only disk storage for the data and the indexes.  In a    recent test, Chris Weider used a 5 megabyte source data file with the    Whois++ code.  The indices came to about another 7 megabytes, and the    code was under 10 megabytes.  The total is 22 megabytes for a Whois++    server. 
  409.  
  410.    The available Whois++ implementations take about 25 minutes to    compile on a Sun SPARCstation IPC.  Indexing a 5 megabyte data file    takes about another 20 minutes on an IPC.  Installation is very easy.    In addition, since the Whois++ server protocol is designed to be only    a front-end, organizations can keep their data in any form they want. 
  411.  
  412.    Whois++ makes sense as a local directory service.  The    implementations are small, install quickly, and the raw query    language is very simple.  The simplicity of the interaction between    the client and the server make it easy to experiment with and to    write clients for, something that wasn't true of X.500 until LDAP.    In addition, Whois++ can be run strictly as a local service, with    integration into the global infrastructure done at any time. 
  413.  
  414.    It is true that Whois++ is not yet a fully functional White Pages    service.  It requires a lot of work before it will be so.  However,    X.500 is not that much closer to the goal than Whois++ is. 
  415.  
  416.    Work needs to be done on replication and authentication of data.  The    current Whois++ system does not lend itself to delegation.  Research    is still needed to improve the system and see if it scales well. 
  417.  
  418.  
  419.  
  420.  
  421.  
  422.  
  423.  
  424.  
  425.  
  426.  
  427.  
  428.  
  429.  
  430. Postel & Anderson                                              [Page 16] 
  431.  RFC 1588                   White Pages Report              February 1994 
  432.  
  433.  4.C. NETFIND 
  434.  
  435.    Right now, the white pages service with the most coverage in the    Internet is Mike Schwartz' Netfind.  Netfind works in two stages: 1)    find out where to ask, and 2) start asking. 
  436.  
  437.    The first stage is based on a database of netnews articles, UUCP    maps, NIC WHOIS databases, and DNS traversals, which then maps    organizations and localities to domain names.  The second stage    consists of finger queries, Whois queries, smtp expns and vrfys, and    DNS lookups. 
  438.  
  439.    The key feature of Netfind is that it is proactive.  It doesn't    require that the system administrator bring up a new server, populate    it with all kinds of information, keep the information in sync, worry    about update, etc.  It just works. 
  440.  
  441.    A suggestion was made that Netfind could be used as a way to populate    the X.500 directory.  A tool might do a series of Netfind queries,    making the corresponding X.500 entries as it progresses.    Essentially, X.500 entries would be "discovered" as people look for    them using Netfind.  Others do not believe this is feasible. 
  442.  
  443.    Another perhaps less interesting merger of Netfind and X.500 is to    have Netfind add X.500 as one of the places it looks to find    organizations (and people). 
  444.  
  445.    A search can lead you to where a person has an account (e.g.,    law.xxx.edu) only to find a problem with the DNS services for that    domain, or the finger service is unavailable, or the machines are not    be running Unix (there are lots of VMS machines and IBM mainframes    still out there).  In addition, there are security gateways.  The    trends in computing are towards the use of powerful portables and    mobile computing and hence Netfind's approach may not work.  However,    Netfind proves to be an excellent yellow-pages service for domain    information in DNS servers - given a set of keywords it lists a set    of possible domain names. 
  446.  
  447.    Suppose we store a pointer in DNS to a white-pages server for a    domain.  We can use Netfind to come up with a list of servers to    search, query these servers, then combine the responses.  However, we    need a formal method of gathering white-pages data and informal    methods will not work and may even get into legal problems. 
  448.  
  449.  
  450.  
  451.  
  452.  
  453.  
  454.  
  455.  Postel & Anderson                                              [Page 17] 
  456.  RFC 1588                   White Pages Report              February 1994 
  457.  
  458.     The user search phase of Netfind is a short-term solution to    providing an Internet white pages.  For the longer term, the    applicability of the site discovery part of Netfind is more relevant,    and more work has been put into that part of the system over the past    2 years than into the user search phase. 
  459.  
  460.    Given Netfind's "installed customer base" (25k queries per day, users    in 4875 domains in 54 countries), one approach that might make sense    is to use Netfind as a migration path to a better directory, and    gradually phase Netfind's user search scheme out of existence.  The    idea of putting a record in the DNS to point to the directory service    to search at a site is a good start. 
  461.  
  462.    One idea for further development is to have the DNS record point to a    "customization" server that a site can install to tailor the way    Netfind (or whatever replaces Netfind) searches their site.  This    would provide sites a choice of degrees of effort and levels of    service.  The least common denominator is what Netfind presently    does: DNS/SMTP/finger.  A site could upgrade by installing a    customization server that points to the best hosts to finger, or that    says "we don't want Netfind to search here" (if people are    sufficiently concerned about the legal/privacy issues, the default    could be changed so that searches must be explicitly enabled).  The    next step up is to use the customization server as a gateway to a    local Whois, CSO, X.500, or home grown white pages server.  In the    long run, if X.500 (or Whois++, etc.) really catches on, it could    subsume the site indexing part of Netfind and use the above approach    as an evolution path to full X.500 deployment.  However, other    approaches may be more productive.  One key to Netfind's success has    been not relying on organizations to do anything to support Netfind,    however the customization server breaks this model. 
  463.  
  464.    Netfind is very useful.  Users don't have to do anything to wherever    they store their people data to have it "included" in Netfind.  But    just like archie, it would be more useful if there were a more common    structure to the information it gives you, and therefore to the    information contained in the databases it accesses.  It's this common    structure that we should be encouraging people to move toward. 
  465.  
  466.    As a result of suggestions made at the November meeting, Netfind has    been extended to make use of URL information stored in DNS records.    Based on this mechanism, Netfind can now interoperate with X.500,    WHOIS, and PH, and can also allow sites to tune which hosts Netfind    uses for SMTP or Finger, or restrict Netfind from searching their    site entirely. 
  467.  
  468.  
  469.  
  470.  
  471.  
  472.  Postel & Anderson                                              [Page 18] 
  473.  RFC 1588                   White Pages Report              February 1994 
  474.  
  475.  4.D. ARCHIE 
  476.  
  477.    Archie is a success because it is a directory of files that are    accessible over the network.  Every FTP site makes a "conscious"    decision to make the files available for anonymous FTP over the    network.  The mechanism that archie uses to gather the data is the    same as that used to transfer the files.  Thus, the success rate is    near 100%.  In a similar vein, if Internet sites make a "conscious"    decision to make white-pages data available over the network, it is    possible to link these servers to create a world-wide directory, such    as X.500, or build an index that helps to isolate the servers to be    searched, Whois++.  Users don't have to do anything to their FTP    archives to have them included in archie.  But everybody recognizes    that it could be more useful if only there were some more common    structure to the information, and to the information contained in the    archives.  Archie came after the anonymous FTP sites were in wide-    spread use.  Unfortunately for white-pages, we are building tools,    but there is no data. 
  478.  
  479. 4.E. FINGER 
  480.  
  481.    The Finger program that allows one to get either information about an    individual with an account, or a list of currently logged in users,    from a host running the server, can be used to check a suggestion    that a particular individual has an account on a particular host.    This does not provide an efficient method to search for an    individual. 
  482.  
  483. 4.F. GOPHER 
  484.  
  485.    A "gateway" between Gopher and X.500 has been created so that one can    examine X.500 data from a Gopher client.  Similar "gateways" are    needed for other white pages systems. 
  486.  
  487. 4.G. WWW 
  488.  
  489.    One extension to WWW would be an attribute type for the WWW URI/URL    with the possibility for any client to request from the X.500 server    (1) either the locator (thus the client would decide to access or not    the actual data), or (2) for client not capable of accessing this    data, the data itself (packed) in the ASN.1 encoded result. 
  490.  
  491.    This would give access to potentially any piece of information    available on the network through X.500, and in the white pages case    to photos or voice messages for persons. 
  492.  
  493.  
  494.  
  495.  
  496.  
  497.  Postel & Anderson                                              [Page 19] 
  498.  RFC 1588                   White Pages Report              February 1994 
  499.  
  500.     This solution is preferable to one consisting of storing this    multimedia information directly in the directory, because it allows    WWW capable DUIs to access directly any piece of data no matter how    large.  This work on URIs is not WWW-specific. 
  501.  
  502. 5. ISSUES 
  503.  
  504. 5.A. DATA PROTECTION 
  505.  
  506.    Outside of the U.S., nearly all developed countries have rather    strict data protection acts (to ensure privacy mostly) that governs    any database on personal data.     It is mandatory for the people in charge of such white pages    databases to have full control over the information that can be    stored and retrieved in such a database, and to provide access    controls over the information that is made available. 
  507.  
  508.    If modification is allowed, then authentication is required.  The    database manager must be able to prevent users from making available    unallowed information. 
  509.  
  510.    When we are dealing with personal records the issues are a little    more involved than exporting files.  We can not allow trawling of    data and we need access-controls so that several applications can use    the directory and hence we need authentication. 
  511.  
  512.    X.500 might have developed faster if security issues were not part of    the implementation.  There is tension between quick lightweight    implementations and the attempt to operate in a larger environment    with business issues incorporated.  The initial belief was that data    is owned by the people who put the data into the system, however,    most data protection laws appoint the organizations holding the data    responsible for the quality of the data of their individuals.    Experience also shows that the people most affected by inaccurate    data are the people who are trying to access the data.  These    problems apply to all technologies. 
  513.  
  514. 5.B. STANDARDS 
  515.  
  516.    Several types of standards are needed: (1) standards for    interoperation between different white pages systems (e.g., X.500 and    Whois++), (2) standards for naming conventions, and (3) and standards    within the structured data of each system (what fields or attributes    are required and optional, and what are their data types). 
  517.  
  518.  
  519.  
  520.  
  521.  
  522.  Postel & Anderson                                              [Page 20] 
  523.  RFC 1588                   White Pages Report              February 1994 
  524.  
  525.     The standards for interoperation may be developed from the work now    in progress on URLs, with some additional protocol developed to    govern the types of messages and message sequences. 
  526.  
  527.    Both the naming of the systems and the naming of individuals would    benefit from consistent naming conventions.  The use of the NADF    naming scheme should be considered. 
  528.  
  529.    When structured data is exchanged, standards are needed for the data    types and the structural organization.  In X.500, much effort has    gone into the definition of various structures or schemas, and yet    few standard schemas have emerged. 
  530.  
  531.    There is a general consensus that a "cookbook" for Administrators    would make X.500 implementation easier and more attractive.  These    are essential for getting X.500 in wider use.  It is also essential    that other technologies such as Whois++, Netfind, and archie also    have complete user guides available. 
  532.  
  533. 5.C. SEARCHING AND RETRIEVING 
  534.  
  535.    The main complaint, especially from those who enjoyed using a    centralized database (such as the InterNIC Whois service), is the    need to search for all the John Doe's in the world.  Given that the    directory needs to be distributed, there is no way of answering this    question without incurring additional cost. 
  536.  
  537.    This is a problem with any distributed directory - you just can't    search every leaf in the tree in any reasonable amount of time.  You    need to provide some mechanism to limit the number of servers that    need to be contacted.  The traditional way to handle this is with    hierarchy.  This requires the searcher to have some idea of the    structure of the directory.  It also comes up against one of the    standard problems with hierarchical databases - if you need to search    based on a characteristic that is NOT part of the hierarchy, you are    back to searching every node in the tree, or you can search an index    (see below). 
  538.  
  539.    In general: 
  540.  
  541.    -- the larger the directory the more need for a distributed solution       (for upkeep and managability). 
  542.  
  543.    -- once you are distributed, the search space for any given search       MUST be limited. 
  544.  
  545.    -- this makes it necessary to provide more information as part of the       query (and thus makes the directory harder to use). 
  546.  
  547.  
  548.  
  549. Postel & Anderson                                              [Page 21] 
  550.  RFC 1588                   White Pages Report              February 1994 
  551.  
  552.     Any directory system can be used in a manner that makes searching    less than easy.  With a User Friendly Name (UFN) query, a user can    usually find an entry (presuming it exists) without a lot of trouble.    Using additional listings (as per NADF SD-5) helps to hide geographic    or civil naming infrastructure knowledge requirements. 
  553.  
  554.    Search power is a function of DSA design in X.500, not a function of    Distinguished Naming.  Search can be aided by addition in X.500 of    non-distinguishing attributes, and by using the NADF Naming Scheme it    is possible to lodge an entry anywhere in the DIT that you believe is    where it will be looked for. 
  555.  
  556.    One approach to the distributed search problem is to create another    less distributed database to search, such as an index.  This is done    by doing a (non-interactive) pre-search, and collecting the results    in an index.  When a user wants to do a real time search, one first    searches the index to find pointers to the appropriate data records    in the distributed database.  One example of this is the building of    centroids that contain index information.  There may be a class of    servers that hold indices, called "index-servers". 
  557.  
  558. 5.D. INDEXING 
  559.  
  560.    The suggestion for how to do fast searching is to do indexing.  That    is to pre-compute an index of people from across the distributed    database and hold that index in an index server.  When a user wants    to search for someone, he first contacts the index-server.  The    index-server searches its index data and returns a pointer (or a few    pointers) to specific databases that hold data on people that match    the search criteria.  Other systems which do something comparable to    this are archie (for FTP file archives), WAIS, and Netfind. 
  561.  
  562. 5.E. COLLECTION AND MAINTENANCE 
  563.  
  564.    The information must be "live" - that is, it must be used.  Often one    way to ensure this is to use the data (perhaps locally) for something    other than white pages.  If it isn't, most people won't bother to    keep the information up to date.  The white pages in the phone book    have the advantage that the local phone company is in contact with    the listee monthly (through the billing system), and if the address    is not up to date, bills don't get delivered, and there is feedback    that the address is wrong.  There is even better contact for the    phone number, since the local phone company must know that for their    basic service to work properly.  It is this aspect of directory    functionality that leads towards a distributed directory system for    the Internet. 
  565.  
  566.  
  567.  
  568.  
  569.  
  570. Postel & Anderson                                              [Page 22] 
  571.  RFC 1588                   White Pages Report              February 1994 
  572.  
  573.     One approach is to use existing databases to supply the white pages    data.  It then would be helpful to define a particular use of SQL    (Structured Query Language) as a standard interface language between    the databases and the X.500 DSA or other white pages server.  Then    one needs either to have the directory service access the existing    database using an interface language it already knows (e.g., SQL), or    to have tools that periodically update the directory database from    the existing database.  Some sort of "standard" query format (and    protocol) for directory queries, with "standard" field names will be    needed to make this work in general.  In a way, both X.500 and    Whois++ provide this.  This approach implies customization at every    existing database to interface to the "standard" query format. 
  574.  
  575.    Some strongly believe that the white pages service needs to be    created from the bottom up with each organization supplying and    maintaining its own information, and that such information has to be    the same -- or a portion of the same -- information the organization    uses locally.  Otherwise the global information will be stale and    incomplete. 
  576.  
  577.    One way to make this work is to distribute software that: 
  578.  
  579.       - is useful locally, 
  580.  
  581.       - fits into the global scheme, 
  582.  
  583.       - is available free, and 
  584.  
  585.       - works on most Unix systems. 
  586.  
  587.    With respect to privacy, it would be good for the local software to    have controls that make it possible to put company sensitive    information into the locally maintained directory and have only a    portion of it exported for outsiders. 
  588.  
  589. 5.F. NAMING STRUCTURE 
  590.  
  591.    We need a clear naming scheme capable of associating a name with    attributes, without any possible ambiguities, that is stable over    time, but also capable of coping with changes.  This scheme should    have a clear idea of naming authorities and be able to store    information required by authentication mechanisms (e.g., PEM or X.509    certificates). 
  592.  
  593.    The NADF is working to establish a National Public Directory Service,    based on the use of existing Civil Naming Authorities to register    entry owners' names, and to deal with the shared-entry problem with a    shared public DIT supported by competing commercial service 
  594.  
  595.  
  596.  
  597. Postel & Anderson                                              [Page 23] 
  598.  RFC 1588                   White Pages Report              February 1994 
  599.  
  600.     providers.  At this point, we do not have any sense at the moment as    to how [un]successful the NADF may be in accomplishing this. 
  601.  
  602.    The NADF eventually concluded that the directory should be organized    so entries can be found where people (or other entities) will look    for them, not where civil naming authorities would place their    archival name registration records. 
  603.  
  604.    There are some incompatibilities between use of the NADF Naming    Scheme, the White Pages Pilot Naming Scheme, and the PARADISE Naming    Scheme.  This should be resolved. 
  605.  
  606. 5.G. CLAYMAN PROPOSAL 
  607.  
  608.    RFC 1107 offered a "strawman" proposal for an Internet Directory    Service.  The next step after strawman is sometimes called "clayman",    and here a clayman proposal is presented. 
  609.  
  610.    We assume only white pages service is to be provided, and we let    sites run whatever access technologies they want to (with whatever    access controls they feel comfortable). 
  611.  
  612.    Then the architecture can be that the discovery process leads to a    set of URLs.  A URL is like an address, but it is a typed address    with identifiers, access method, not a protocol.  The client sorts    the URLs and may discard some that it cannot deal with.  The client    talks to "meaningful URLs" (such as Whois, Finger, X.500). 
  613.  
  614.    This approach results in low entry cost for the servers that want to    make information available, a Darwinian selection of access    technologies, coalescence in the Internet marketplace, and a white    pages service will tend toward homogeneity and ubiquity. 
  615.  
  616.    Some issues for further study are what discovery technology to use    (Netfind together with Whois++ including centroids?), how to handle    non-standard URLs (one possible solution is to put server on top of    these (non-standard URLs) which reevaluates the pointer and acts as a    front-end to a database), which data model to use (Finger or X.500),    and how to utilize a common discovery technology (e.g., centroids) in    a multiprotocol communication architecture. 
  617.  
  618.    The rationale for this meta-WPS approach is that it builds on current    practices, while striving to provide a ubiquitous directory service.    Since there are various efforts going on to develop WPS based on    various different protocols, one can envisage a future with a meta-    WPS that uses a combination of an intelligent user agent and a    distributed indexing service to access the requested data from any    available WPS.  The user perceived functionality of such a meta-WPS 
  619.  
  620.  
  621.  
  622. Postel & Anderson                                              [Page 24] 
  623.  RFC 1588                   White Pages Report              February 1994 
  624.  
  625.     will necessarily be restricted to the lowest common denominator.  One    will hope that through "market" forces, the number of protocols used    will decrease (or converge), and that the functionality will    increase. 
  626.  
  627.    The degree to which proactive data gathering is permitted may be    limited by national laws.  It may be appropriate to gather data about    which hosts have databases, but not about the data in those    databases. 
  628.  
  629. 6. CONCLUSIONS 
  630.  
  631.    We now revisit the questions we set out to answer and briefly    describe the key conclusions. 
  632.  
  633. 6.A.  WHAT FUNCTIONS SHOULD A WHITE PAGES DIRECTORY PERFORM? 
  634.  
  635.    After all the discussion we come to the conclusion that there are two    functions the white pages service must provide: searching and    retrieving. 
  636.  
  637.    Searching is the ability to find people given some fuzzy information    about them.  Such as "Find the Postel in southern California".    Searches may often return a list of matches. 
  638.  
  639.    The recognition of the importance of indexing in searching is a major    conclusion of these discussions.  It is clear that users want fast    searching across the distributed database on attributes different    from the database structure.  It is possible that pre-computed    indices can satisfy this desire. 
  640.  
  641.    Retrieval is obtaining additional information associated with a    person, such as address, telephone number, email mailbox, and    security certificate. 
  642.  
  643.    This last, security certificates, is a type of information associated    with an individual that is essential for the use of end-to-end    authentication, integrity, and privacy, in Internet applications.    The development of secure application in the Internet is dependent on    a directory system for retrieving the security certificate associated    with an individual.  The PEM system has been developed and is ready    to go into service, but is now held back by the lack of an easily    used directory of security certificates. 
  644.  
  645.    PEM security certificates are part of the X.509 standard.  If X.500    is going to be set aside, then other alternatives need to be    explored.  If X.500 distinguished naming is scrapped, some other    structure will need to come into existence to replace it. 
  646.  
  647.  
  648.  
  649. Postel & Anderson                                              [Page 25] 
  650.  RFC 1588                   White Pages Report              February 1994 
  651.  
  652.  6.B.  WHAT APPROACHES WILL PROVIDE US WITH A WHITE PAGES DIRECTORY? 
  653.  
  654.    It is clear that there will be several technologies in use.  The    approach must be to promote the interoperation of the multiple    technologies.  This is traditionally done by having conventions or    standards for the interfaces and communication forms between the    different systems.  The need is for a specification of the simplest    common communication form that is powerful enough to provide the    necessary functionality.  This allows a variety of user interfaces on    any number of client systems communicating with different types of    servers.  The IETF working group (WG) method of developing standards    seems well suited to this problem. 
  655.  
  656.    This "common ground" approach aims to provide the ubiquitous WPS with    a high functionality and a low entry cost.  This may done by singling    out issues that are common for various competing WPS and coordinate    work on these in specific and dedicated IETF WGs (e.g., data model    coordination).  The IETF will continue development of X.500 and    Whois++ as two separate entities.  The work on these two protocols    will be broken down in various small and focussed WGs that address    specific technical issues, using ideas from both X.500 and Whois++.    The goal being to produce common standards for information formats,    data model and access protocols.  Where possible the results of such    a WG will be used in both Whois++ and X.500, although it is envisaged    that several WGs may work on issues that remain specific to one of    the protocols.  The IDS (Integrated Directory Services) WG continues    to work on non-protocol specific issues.  To achieve coordination    that leads to convergence rather than divergence, the applications    area directorate will provide guidance to the Application Area    Directors as well as to the various WGs, and the User Services Area    Council (USAC) will provide the necessary user perspective. 
  657.  
  658. 6.C.  WHAT ARE THE PROBLEMS TO BE OVERCOME? 
  659.  
  660.    There are several problems that can be solved to make progress    towards a white pages service more rapid.  We need: 
  661.  
  662.    To make it much easier to be part of the Internet white pages than    bringing up a X.500 DSA, yet making good use of the already deployed    X.500 DSAs. 
  663.  
  664.    To define new simpler white pages services (such as Whois++) such    that numerous people can create implementations. 
  665.  
  666.    To provide some central management of the X.500 system to promote    good operation. 
  667.  
  668.    To select a naming scheme. 
  669.  
  670.  
  671.  
  672. Postel & Anderson                                              [Page 26] 
  673.  RFC 1588                   White Pages Report              February 1994 
  674.  
  675.     To develop a set of index-servers, and indexing techniques, to    provide for fast searching. 
  676.  
  677.    To provide for the storage and retrieval of security certificates. 
  678.  
  679. 6.D.  WHAT SHOULD THE DEPLOYMENT STRATEGY BE? 
  680.  
  681.    We should capitalize on the existing infrastructure of already    deployed X.500 DSAs.  This means that some central management must be    provided, and easy to use user interfaces (such as the Gopher    "gateway"), must be widely deployed. 
  682.  
  683.    -- Document the selection of a naming scheme (e.g., the NADF scheme). 
  684.  
  685.    -- Adopt the "common ground" model.  Encourage the development of       several different services, with a goal of interworking between       them. 
  686.  
  687.    -- Develop a specification of the simplest common communication form       that is powerful enough to provide the necessary functionality.       The IETF working group method of developing standards seems well       suited to this problem. 
  688.  
  689.    -- Make available information about how to set up new servers (of       what ever kind) in "cookbook" form. 
  690.  
  691.  
  692.  
  693.  
  694.  
  695.  
  696.  
  697.  
  698.  
  699.  
  700.  
  701.  
  702.  
  703.  
  704.  
  705.  
  706.  
  707.  
  708.  
  709.  
  710.  
  711.  
  712.  
  713.  
  714.  
  715.  Postel & Anderson                                              [Page 27] 
  716.  RFC 1588                   White Pages Report              February 1994 
  717.  
  718.  7. SUMMARY 
  719.  
  720.    While many issues have been raised, there are just a few where we    recommend the action be taken to support specific elements of the    overall white pages system. 
  721.  
  722.    RECOMMENDATIONS 
  723.  
  724.     1.  Adopt the common ground approach - give all protocols equal         access to all data.  That is, encourage multiple client and         server types, and the standardization of an interoperation         protocol between them.  The clients may be simple clients,         front-ends, "gateways", or embedded in other information access         clients, such as Gopher or WWW client programs.  The         interoperation protocol will define some message types, message         sequences, and data fields.   An element of this protocol should         be the use of URLs. 
  725.  
  726.     2.  Promote the development of index-servers.  The index-servers         should use several different methods of gathering data for their         indices, and several different methods for searching their         indices. 
  727.  
  728.     3.  Support a central management for the X.500 system.  To get the         best advantage of the effort already invested in the X.500         directory system it is essential to provide the relatively small         amount of central management necessary to keep the system         functioning. 
  729.  
  730.     4.  Support the development of security certificate storage and         retrieval from the white pages service.  The most practical         approach is to initially focus on getting this supported by the         existing X.500 directory infrastructure.  It should also include         design and development of the storage and retrieval of security         certificates in other white pages services, such as Whois++. 
  731.  
  732.  
  733.  
  734.  
  735.  
  736.  
  737.  
  738.  
  739.  
  740.  
  741.  
  742.  
  743.  
  744.  
  745.  
  746.  Postel & Anderson                                              [Page 28] 
  747.  RFC 1588                   White Pages Report              February 1994 
  748.  
  749.  8.  REFERENCES 
  750.  
  751.    [1]  Sollins, K., "Plan for Internet Directory Services", RFC 1107,         M.I.T. Laboratory for Computer Science, July 1989. 
  752.  
  753.    [2]  Hardcastle-Kille, S., "Replication Requirements to provide an         Internet Directory using X.500, RFC 1275, University College         London, November 1991. 
  754.  
  755.    [3]  Weider, C., and J. Reynolds, "Executive Introduction to         Directory Services Using the X.500 Protocol", FYI 13, RFC 1308,         ANS, USC/Information Sciences Institute, March 1992. 
  756.  
  757.    [4]  Weider, C., Reynolds, J., and S. Heker, "Technical Overview of         Directory Services Using the X.500 Protocol", FYI 14, RFC 1309,         ANS, USC/Information Sciences Institute,, JvNC, March 1992. 
  758.  
  759.    [5]  Hardcastle-Kille, S., Huizer, E., Cerf, V., Hobby, R., and S.         Kent, "A Strategic Plan for Deploying an Internet X.500         Directory Service", RFC 1430, ISODE Consortium, SURFnet bv,         Corporation for National Research Initiatives, University of         California, Davis, Bolt, Beranek, and Newman, February 1993. 
  760.  
  761.    [6]  Jurg, A., "Introduction to White pages services based on X.500",         Work in Progress, October 1993. 
  762.  
  763.    [7]  The North American Directory Forum, "NADF Standing Documents: A         Brief Overview", RFC 1417, The North American Directory Forum",         NADF, February 1993. 
  764.  
  765.    [8]  NADF, An X.500 Naming Scheme for National DIT Subtrees and its         Application for c=CA and c=US", Standing Document 5 (SD-5). 
  766.  
  767.    [9]  Garcia-Luna, J., Knopper, M., Lang, R., Schoffstall, M.,         Schraeder, W., Weider, C., Yeong, W, Anderson, C., (ed.), and J.         Postel (ed.), "Research in Directory Services: Fielding         Operational X.500 (FOX)", Fox Project Final Report, January         1992. 
  768.  
  769.  
  770.  
  771.  
  772.  
  773.  
  774.  
  775.  
  776.  
  777.  
  778.  
  779.  
  780.  
  781. Postel & Anderson                                              [Page 29] 
  782.  RFC 1588                   White Pages Report              February 1994 
  783.  
  784.  9. GLOSSARY 
  785.  
  786.       API - Application Program Interface       COTS - commercial off the shelf       CSO - a phonebook service developed by University of Illinois       DAP - Direct Access Protocol       DIT - Directory Information Tree       DNS - Domain Name System       DUI - Directory User Interface       DUA - Directory User Agent       DSA - Directory Service Agent       FOX - Fielding Operational X.500 project       FRICC - Federal Research Internet Coordinating Committee       IETF - Internet Engineering Task Force       ISODE - ISO Development Environment       LDAP - Lightweight Direct Access Protocol       NADF - North American Directory Forum       PEM - Privacy Enhanced Mail       PSI - Performance Systems International       SQL - Structured Query Language       QUIPU - an X.500 DSA which is a component of the ISODE package       UFN - User Friendly Name       URI - Uniform Resource Identifier       URL - Uniform Resource Locator       WAIS - Wide Area Information Server       WPS - White Pages Service       WWW - World Wide Web 
  787.  
  788.  
  789.  
  790.  
  791.  
  792.  
  793.  
  794.  
  795.  
  796.  
  797.  
  798.  
  799.  
  800.  
  801.  
  802.  
  803.  
  804.  
  805.  
  806.  
  807.  
  808.  
  809.  
  810.  Postel & Anderson                                              [Page 30] 
  811.  RFC 1588                   White Pages Report              February 1994 
  812.  
  813.  9.  ACKNOWLEDGMENTS 
  814.  
  815.    This report is assembled from the words of the following participants    in the email discussion and the meeting.  The authors are responsible    for selecting and combining the material.  Credit for all the good    ideas goes to the participants.  Any bad ideas are the responsibility    of the authors. 
  816.  
  817.        Allan Cargille                  University of Wisconsin       Steve Crocker                   TIS       Peter Deutsch                   BUNYIP       Peter Ford                      LANL       Jim Galvin                      TIS       Joan Gargano                    UC Davis       Arlene Getchell                 ES.NET       Rick Huber                      INTERNIC - AT&T       Christian Huitema               INRIA       Erik Huizer                     SURFNET       Tim Howes                       University of Michigan       Steve Kent                      BBN       Steve Kille                     ISODE Consortium       Mark Kosters                    INTERNIC - Network Solutions       Paul Mockapetris                ARPA       Paul-Andre Pays                 INRIA       Dave Piscitello                 BELLCORE       Marshall Rose                   Dover Beach Consulting       Sri Sataluri                    INTERNIC - AT&T       Mike Schwartz                   University of Colorado       David Staudt                    NSF       Einar Stefferud                 NMA       Chris Weider                    MERIT       Scott Williamson                INTERNIC - Network Solutions       Russ Wright                     LBL       Peter Yee                       NASA 
  818.  
  819. 10.  SECURITY CONSIDERATIONS 
  820.  
  821.    While there are comments in this memo about privacy and security,    there is no serious analysis of security considerations for a white    pages or directory service in this memo. 
  822.  
  823.  
  824.  
  825.  
  826.  
  827.  
  828.  
  829.  
  830.  
  831.  Postel & Anderson                                              [Page 31] 
  832.  RFC 1588                   White Pages Report              February 1994 
  833.  
  834.  11.  AUTHORS' ADDRESSES 
  835.  
  836.    Jon Postel    USC/Information Sciences Institute    4676 Admiralty Way    Marina del Rey, CA 90292 
  837.  
  838.    Phone: 310-822-1511    Fax:   310-823-6714    EMail: Postel@ISI.EDU 
  839.  
  840.     Celeste Anderson    USC/Information Sciences Institute    4676 Admiralty Way    Marina del Rey, CA 90292 
  841.  
  842.    Phone: 310-822-1511    Fax:   310-823-6714    EMail: Celeste@ISI.EDU 
  843.  
  844.  
  845.  
  846.  
  847.  
  848.  
  849.  
  850.  
  851.  
  852.  
  853.  
  854.  
  855.  
  856.  
  857.  
  858.  
  859.  
  860.  
  861.  
  862.  
  863.  
  864.  
  865.  
  866.  
  867.  
  868.  
  869.  
  870.  
  871.  
  872.  
  873.  
  874. Postel & Anderson                                              [Page 32] 
  875.  RFC 1588                   White Pages Report              February 1994 
  876.  
  877.  APPENDIX 1 
  878.  
  879.    The following White Pages Functionality List was developed by Chris    Weider and amended by participants in the current discussion of an    Internet white pages service. 
  880.  
  881.    Functionality list for a White Pages / Directory services 
  882.  
  883.    Serving information on People only 
  884.  
  885.    1.1 Protocol Requirements 
  886.  
  887.       a) Distributability       b) Security       c) Searchability and easy navigation       d) Reliability (in particular, replication)       e) Ability to serve the information desired (in particular,          multi-media information)       f) Obvious benefits to encourage installation       g) Protocol support for maintenance of data and 'knowledge'       h) Ability to support machine use of the data       i) Must be based on Open Standards and respond rapidly to correct          deficiencies       j) Serve new types of information (not initially planned) only          only upon request       k) Allow different operation modes 
  888.  
  889.    1.2 Implementation Requirements 
  890.  
  891.       a) Searchability and easy navigation       b) An obvious and fairly painless upgrade path for organizations       c) Obvious benefits to encourage installation       d) Ubiquitous clients       e) Clients that can do exhaustive search and/or cache useful          information and use heuristics to narrow the search space in          case of ill-formed queries       f) Ability to support machine use of the data       g) Stable APIs 
  892.  
  893.    1.3 Sociological Requirements 
  894.  
  895.       a) Shallow learning curve for novice users (both client and          server)       b) Public domain servers and clients to encourage experimentation       c) Easy techniques for maintaining data, to encourage users to          keep their data up-to-date       d) (particularly for organizations) The ability to hide an          organization's internal structure while making the data public. 
  896.  
  897.  
  898.  
  899. Postel & Anderson                                              [Page 33] 
  900.  RFC 1588                   White Pages Report              February 1994 
  901.  
  902.        e) Widely recognized authorities to guarantee unique naming during          registrations (This is specifically X.500 centric)       f) The ability to support the privacy / legal requirements of all          participants while still being able to achieve good coverage.       g) Supportable infrastructure (Perhaps an identification of what          infrastructure support requires and how that will be          maintained) 
  903.  
  904.    Although the original focus of this discussion was on White Pages,    many participants believe that a Yellow Pages service should be built    into a White Pages scheme. 
  905.  
  906.    Functionality List for Yellow Pages service 
  907.  
  908.    Yellow pages services, with data primarily on people 
  909.  
  910.    2.1 Protocol Requirements 
  911.  
  912.       a) all listed in 1.1       b) Very good searching, perhaps with semantic support OR       b2) Protocol support for easy selection of proper keywords to          allow searching       c) Ways to easily update and maintain the information required by          the Yellow Pages services       d) Ability to set up specific servers for specific applications or          a family of applications while still working with the WP          information bases 
  913.  
  914.    2.2 Implementation Requirements 
  915.  
  916.       a) All listed in 1.2       b) Server or client support for relevance feedback 
  917.  
  918.    2.3 Sociological Requirements 
  919.  
  920.       a) all listed in 1.3 
  921.  
  922.    Advanced directory services for resource location (not just people    data) 
  923.  
  924.    3.1 Protocol Requirements 
  925.  
  926.       a) All listed in 2.1       b) Ability to track very rapidly changing data       c) Extremely good and rapid search techniques 
  927.  
  928.  
  929.  
  930.  
  931.  
  932.  Postel & Anderson                                              [Page 34] 
  933.  RFC 1588                   White Pages Report              February 1994 
  934.  
  935.     3.2 Implementation Requirements 
  936.  
  937.       a) All listed in 2.2       b) Ability to integrate well with retrieval systems       c) Speed, Speed, Speed 
  938.  
  939.    3.3 Sociological Requirements 
  940.  
  941.       a) All listed in 1.3       b) Protocol support for 'explain' functions: 'Why didn't this          query work?' 
  942.  
  943.  
  944.  
  945.  
  946.  
  947.  
  948.  
  949.  
  950.  
  951.  
  952.  
  953.  
  954.  
  955.  
  956.  
  957.  
  958.  
  959.  
  960.  
  961.  
  962.  
  963.  
  964.  
  965.  
  966.  
  967.  
  968.  
  969.  
  970.  
  971.  
  972.  
  973.  
  974.  
  975.  
  976.  
  977.  
  978.  
  979.  
  980.  
  981.  Postel & Anderson                                              [Page 35] 
  982.  
  983.