home *** CD-ROM | disk | FTP | other *** search
/ Internet Info 1997 December / Internet_Info_CD-ROM_Walnut_Creek_December_1997.iso / ietf / avt / avt-minutes-93nov.txt < prev    next >
Text File  |  1994-02-23  |  14KB  |  280 lines

  1.  
  2. CURRENT_MEETING_REPORT_
  3.  
  4. Reported by Steve Casner/USC-ISI
  5.  
  6. Minutes of the Audio/Video Transport Working Group (AVT)
  7.  
  8. The AVT Working Group met for only one session at this meeting since the
  9. draft specification for the Real-time Transport Protocol (RTP) is nearly
  10. completed for submission as an RFC. The emphasis of this session was on
  11. implementation experience with the focus shifting to companion
  12. specifications for profiles and encodings.
  13.  
  14.  
  15. Status of Draft RTP Specification
  16.  
  17. This group did not meet in Amsterdam, but there has been substantial
  18. progress on the RTP specification via e-mail and a teleconference, and a
  19. new draft-ietf-avt-rtp-04.txt and .ps has been installed.  The
  20. specification has been submitted to the Area Director with a request for
  21. ``IESG Last Call,'' and is in review by the Directorate.
  22.  
  23. Steve Casner gave a brief description of the most recent change to the
  24. specification, which was the addition of the APP option.  This option
  25. allows experimental application-specific options to be defined without
  26. official registration while avoiding conflicts with other option
  27. definitions.  See the draft RTP specification for details.  A brief
  28. description was also given on a proposal from Andrew Cherenson to add an
  29. option, not in the main RTP specification but in the audio/video
  30. profile, to indicate the mode or state of a participant.  The proposed
  31. set of states were:  active, video frozen (still image), private
  32. (listening but not sending), and hold (not listening and not sending).
  33.  
  34. A good fraction of the attendees at this meeting had read the RTP
  35. specification.  Comments were solicited both on the specification and on
  36. the two options just described, but no comments were offered.  However,
  37. behind the scenes, some objections have been raised to the
  38. classification of RTP as a Proposed Standard and to certain details of
  39. the specification.  These issues will be discussed further on the
  40. mailing list.
  41.  
  42.  
  43. Implementation Experience
  44.  
  45. Ron Frederick from Xerox PARC gave a presentation on his experience with
  46. implementing RTP in the network video (nv) program.  He reported that
  47. overall, the implementation went very cleanly, and that the combination
  48. of the sequence number, timestamp and sync bit worked well together.  He
  49. found the option format easy to generate and parse, but cautioned that
  50. the parser must watch out for an illegal option length zero or length
  51. greater than the packet length.  (The example option parsing code in the
  52. appendix to the specification includes these checks.)
  53.  
  54. The one nuisance Ron found was that the program needs to know if an SSRC
  55. option is present to fully identify the sender before the parsing can
  56. act upon the other options.  This requires parsing the options twice, or
  57. storing the information while parsing and then acting upon it at the
  58. end.  To reduce this nuisance, it was proposed that the specification be
  59. modified to require that if an SSRC option is present, it must follow
  60. immediately after the fixed header.  Since this is the logical place for
  61. translators to insert the SSRC option, and since there can be only one,
  62. this restriction should cause no difficulties.
  63.  
  64. David Kristol from AT&T described his work (just beginning) on a quality
  65. of service monitor for RTP. It would create a map of the MBONE, and
  66. display a measure of the reception quality for each receiver on the map
  67. using data obtained from reception reports multicast by the receivers.
  68. This would allow a visual determination of bottleneck points.  One
  69. observation was that the measure of video delay is affected by the use
  70. of the same timestamp on all packets of a video frame even though the
  71. packets are not transmitted at the same time.  A solution is to measure
  72. delay only on the first packet of a frame.  This illustrates that
  73. reception quality measurement may be dependent upon the medium.
  74.  
  75. Dave also implemented a vat/RTP translator to allow participation in vat
  76. audio sessions inside the AT&T firewall.  This turned out to be very
  77. simple, the only problem being translation of vat's
  78. beginning-of-talkspurt flag into RTP's end-of-talkspurt flag.  For now,
  79. he is just copying the bit and ignoring the distinction.
  80.  
  81.  
  82. Encoding Specifications
  83.  
  84. Frank Kastenholz from FTP Software asked for the addition in the
  85. audio/video profile of an 8-bit linear encoding (``L8'') and a format
  86. code for L8 encoding at 11.025 KHz.  This matches the capability of
  87. common audio hardware on PC and Mac platforms.  It is possible to
  88. convert in software to 8-bit mu-law at 8 KHz, but this increases the
  89. minimum processing power required to participate.  This request was
  90. generally agreed upon, and Frank was requested to provide the details to
  91. go into the profile.  Henning Schulzrinne cautioned that adding a new
  92. ``standard'' encoding places a burden on all implementations to include
  93. at least a decoder for it.
  94.  
  95. Bill Fenner from NRL and Ron Frederick gave presentations on carrying
  96. JPEG video over RTP, and on the issues to be addressed in an encoding
  97. specification.  Although the JPEG specification includes a variety of
  98. formats, Ron recommended that we stick with 4:2:2 video format, square
  99. pixels (as produced by most of the chips even though CCIR 601 specifies
  100. rectangular pixels), a 16x8 block as the minimum coded unit, and
  101. progressive scan.  Ron also recommended that we use the Q factors
  102. defined for C-JPEG and D-JPEG by the Free JPEG Group and use the
  103. standard Huffman coding table, though these could be overridden by
  104. custom table definitions.
  105.  
  106. Bill has designed an encoding for JPEG over RTP, and implemented it
  107. using the Parallax JPEG hardware.  He points out that JPEG frames are
  108. large, so they are likely to require segmentation and reassembly.
  109. Losing one packet out of a frame will result in frame loss because the
  110. Huffman reset mechanism that is part of the standard does not provide
  111. enough sequence space for packet-size losses.  He also observed that the
  112. Q factor does not provide much usable quality range (the picture gets
  113. lots uglier without the frame rate increasing as much as one would
  114. expect).
  115.  
  116. The encoding Bill defined uses the same RTP timestamp on all packets of
  117. a frame, and the RTP sync bit indicates the last packet of the frame, as
  118. usual.  In addition, he has defined a small header to go at the
  119. beginning of the data in the first packet of a frame.  The presence of
  120. this header is indicated by the first two bytes being one of the
  121. application-specific codes (0xFF 0xE1) provided in the JPEG
  122. specification and guaranteed not to appear in the data.  This code is
  123. followed by two bytes to encode the Q factor, Huffman table index, and
  124. some size information.  Special values of these indices can be used to
  125. indicate that custom quantization and/or Huffman tables will follow.
  126. The mechanisms for requesting and/or periodically retransmitting custom
  127. tables are still to be decided and tested.  There were no major
  128. objections to this design other than the suggestion that explicit image
  129. width and height factors be included.  Bill agreed to produce a first
  130. draft specification for JPEG over RTP with assistance from Ron and
  131. Fengmin Gong from MCNC.
  132.  
  133.  
  134. Video Decoder API
  135.  
  136. In Columbus we had a good discussion on the feasibility of creating a
  137. common interface for software video decoders so that each packet video
  138. program can incorporate decoders for many or all of the other programs'
  139. native formats to enable interoperation.  At this meeting, Ron Frederick
  140. gave an update on the decoder API in the nv program in which decoding
  141. and rendering of the image data are decoupled:  nv does all the network
  142. I/O, RTP processing, and X-window system interaction; the image decode
  143. routines just convert each packet of compressed bits into uncompressed
  144. YUV pixels for a portion of the image.  A callback routine is provided
  145. to render a rectangular portion of the image after decoding.
  146.  
  147. Ron identified several open issues that have arisen:
  148.  
  149.  
  150.    o Is YUV a good choice for color decoding?  It allows easy rendering
  151.      into monochrome or color images, but requires extra processing for
  152.      encodings that would more naturally use RGB or dithered data.  The
  153.      difficulty is that number of variations in the rendering code is
  154.      already large to handle variations in pixel depth and ordering.  It
  155.      may not be worthwhile to double or triple this to render from
  156.      additional input formats.
  157.  
  158.    o It is desirable to enable the use of hardware encoders and/or
  159.      decoders for increased performance, but what additional hooks are
  160.      required to fit this into the model?  Some answers may come from
  161.      exploring the options for the SunVideo board Cell-B encoder and for
  162.      JPEG video using the Parallax board as Bill Fenner has done.
  163.  
  164.    o Should the common code handle resequencing of packets?  Previously,
  165.      nv ignored packet sequencing because packets of the nv encoding can
  166.      be processed out of order.  Now, nv is processing the sequence
  167.      numbers to accumulate packet loss information, and could do the
  168.      resequencing.  However, Ron feels that this function should be left
  169.      to the decode routines because the requirements may not be the same
  170.      for all encodings, unless we can define as part of the profile an
  171.      extra level of framing for all the encodings to use.
  172.  
  173.  
  174. Other API's may also be needed.  Henning suggested that video encoding
  175. routines should also be sharable to reduce the effort of writing them.
  176. Since nv already separates the frame grab from the encoding, an
  177. interface could be explored there.  Abel Weinrib also pointed out that
  178. we need API's at a higher layer, that of whole media agents to be
  179. controlled by different session managers.
  180.  
  181.  
  182. Report from IMA Network Focus Group
  183.  
  184. A the end of the session, we got a report from Thomas Maslen of Sun on
  185. the recent first meeting of the IMA Network Focus Group, and on the
  186. potential interaction with the IETF AVT and MMUSIC Working Groups'
  187. activities.  The Interactive Multimedia Association (IMA) is an industry
  188. group chartered to develop standards to support multimedia applications.
  189. In particular, the Multimedia System Services (MSS) proposal defines an
  190. object-oriented architecture for the infrastructure to support
  191. multimedia applications.
  192.  
  193. In a way, the MSS work fits between the AVT and MMUSIC areas.  The MSS
  194. proposal does not specify media transport mechanisms or protocols.  The
  195. Network FoG is to address the requirements for network transport in the
  196. MSS, and to define network transport interfaces, target environments and
  197. protocol profiles to support those requirements.  The group will work
  198. with other standards groups, including the IETF, to incorporate existing
  199. protocols and cooperate on the definition of new ones where needed.  At
  200. first look, it appears that RTP may be suitable as one of the protocols
  201. to be used for transport of real-time media.
  202.  
  203. Similarly, MSS provides infrastructure for multimedia applications such
  204. at teleconferencing, but does not include the applications themselves.
  205. Abel pointed out that it does not include higher-level objects like
  206. people in its model, nor does it include policies.  Therefore, MMUSIC
  207. sits above MSS, and the session management mechanisms to be developed in
  208. that working group might be used for communication among a set of
  209. applications implemented using MSS.
  210.  
  211.  
  212. Future Working Group Activity
  213.  
  214. The session closed with a discussion of future working group activity.
  215. As work on the RTP specification is completed, the group's emphasis will
  216. shift to profile and encoding specifications.  From the point of view of
  217. our Area Director, Allison Mankin, it is appropriate for the group to
  218. continue work as needed, or to go on hiatus but keep the mailing list
  219. (rem-conf) active.  Meetings at future IETFs may then be called to
  220. address new questions such as the interface between network real-time
  221. services and RTP, or when appropriate to advance any of the
  222. specifications through the standards process.
  223.  
  224.  
  225. Attendees
  226.  
  227. Andy Adams               ala@merit.edu
  228. Stephen Batsell          batsell@itd.nrl.navy.mil
  229. Tom Benkart              teb@acc.com
  230. Richard Binder           rbinder@cnri.reston.va.us
  231. Ronald Broersma          ron@nosc.mil
  232. Stephen Casner           casner@isi.edu
  233. Ping Chen                ping@ping2.aux.apple.com
  234. Chuck de Sostoa          chuckd@cup.hp.com
  235. Stephen Deering          deering@parc.xerox.com
  236. David Dubois             dad@pacersoft.com
  237. Ed Ellesson              ellesson@vnet.ibm.com
  238. Julio Escobar            jescobar@bbn.com
  239. Roger Fajman             raf@cu.nih.gov
  240. William Fenner           fenner@cmf.nrl.navy.mil
  241. James Fielding           jamesf@arl.army.mil
  242. Robert Fink              rlfink@lbl.gov
  243. Ron Frederick            frederick@parc.xerox.com
  244. Mark Garrett             mwg@faline.bellcore.com
  245. Atanu Ghosh              atanu@cs.ucl.ac.uk
  246. Shawn Gillam             shawn@timonware.com
  247. Robert Gilligan          Bob.Gilligan@Eng.Sun.Com
  248. Fengmin Gong             gong@concert.net
  249. Darren Griffiths         dag@ossi.com
  250. Regina Hain              rrosales@bbn.com
  251. Shai Herzog              herzog@catarina.usc.edu
  252. Phil Irey                pirey@relay.nswc.navy.mil
  253. Rick Jones               raj@cup.hp.com
  254. Frank Kastenholz         kasten@ftp.com
  255. David Kaufman            dek@magna.telco.com
  256. Byonghak Kim             bhkim@cosmos.kaist.ac.kr
  257. Charley Kline            cvk@uiuc.edu
  258. Michael Kornegay         mlk@bir.com
  259. David Kristol            dmk@allegra.att.com
  260. Allison Mankin           mankin@cmf.nrl.navy.mil
  261. David Marlow             dmarlow@relay.nswc.navy.mil
  262. Jim Martin               jim@noc.rutgers.edu
  263. Thomas Maslen            maslen@eng.sun.com
  264. Marjo Mercado            marjo@cup.hp.com
  265. Greg Minshall            minshall@wc.novell.com
  266. Dan Nordell
  267. Marsha Perrott           perrott@prep.net
  268. J. Mark Pullen           mpullen@cs.gmu.edu
  269. Jim Rees                 Jim.Rees@umich.edu
  270. Eve Schooler             schooler@isi.edu
  271. Henning Schulzrinne      hgs@research.att.com
  272. Michael Speer            michael.speer@sun.com
  273. John Stewart             jstewart@cnri.reston.va.us
  274. Matsuaki Terada          tera@sdl.hitachi.co.jp
  275. Chuck Warlick            chuck.warlick@pscni.nasa.gov
  276. Abel Weinrib             abel@bellcore.com
  277. Jean Yao                 yao@cup.hp.com
  278. Shinichi Yoshida         yoshida@sumitomo.com
  279.  
  280.