home *** CD-ROM | disk | FTP | other *** search
/ Nebula 1994 June / NEBULA_SE.ISO / Documents / FAQ / Comp-speech-faq < prev    next >
Encoding:
Text File  |  1993-08-21  |  82.4 KB  |  2,026 lines

  1. Path: senator-bedfellow.mit.edu!bloom-beacon.mit.edu!pad-thai.aktis.com!pad-thai.aktis.com!not-for-mail
  2. From: andrewh@ee.su.oz.au (Andrew Hunt)
  3. Newsgroups: comp.speech,comp.answers,news.answers
  4. Subject: comp.speech FAQ (Frequently Asked Questions)
  5. Supersedes: <comp-speech-faq_741931206@GZA.COM>
  6. Followup-To: comp.speech
  7. Date: 21 Aug 1993 00:00:15 -0400
  8. Organization: Speech Technology Group, The University of Sydney
  9. Lines: 2006
  10. Sender: faqserv@GZA.COM
  11. Approved: news-answers-request@MIT.Edu
  12. Expires: 2 Oct 1993 04:00:08 GMT
  13. Message-ID: <comp-speech-faq_745905608@GZA.COM>
  14. Reply-To: andrewh@ee.su.oz.au (Andrew Hunt)
  15. NNTP-Posting-Host: pad-thai.aktis.com
  16. Summary: Useful information about Speech Technology
  17. X-Last-Updated: 1993/08/20
  18. Xref: senator-bedfellow.mit.edu comp.speech:1132 comp.answers:1680 news.answers:11634
  19.  
  20. Archive-name: comp-speech-faq
  21. Last-modified: 1993/08/20
  22.  
  23.  
  24.                        comp.speech
  25.  
  26.                 Frequently Asked Questions
  27.                 ==========================
  28.  
  29. This document is an attempt to answer commonly asked questions and to
  30. reduce the bandwidth taken up by these posts and their associated replies.
  31. If you have a question, please check this file before you post.
  32.  
  33. The FAQ is not meant to discuss any topic exhaustively.  It will hopefully
  34. provide readers with pointers on where to find useful information.  It also
  35. tries to list useful material available elsewhere on the net.
  36.  
  37. This FAQ is posted monthly to comp.speech, comp.answers and news.answers.
  38. It is also available for anonymous ftp from the comp.speech archive site
  39.     svr-ftp.eng.cam.ac.uk:/comp.speech/FAQ
  40. It is also available from the news.answers ftp site (and its mirrors) as
  41.     rtfm.mit.edu:/pub/usenet/news.answers/comp-speech-faq
  42.  
  43. If you have not already read the Usenet introductory material posted to 
  44. "news.announce.newusers", please do.  For help with FTP (file transfer
  45. protocol) look for a regular posting of "Anonymous FTP List - FAQ" in
  46. comp.misc, comp.archives.admin and news.answers amongst others.
  47.  
  48.  
  49. Admin
  50. -----
  51.  
  52. This month brings a few updates on the CELP information, updates of
  53. information on many of the software packages and a few minor changes.
  54.  
  55.  
  56. Cheers,
  57.  
  58. Andrew Hunt
  59. Speech Technology Research Group    email: andrewh@ee.su.oz.au
  60. Department of Electrical Engineering    Ph:  61-2-692 4509
  61. University of Sydney, NSW, Australia.    Fax: 61-2-692 3847
  62.  
  63.  
  64. ========================== Acknowledgements ===========================
  65.  
  66. Thanks to the following for their significant comments and contributions.
  67.  
  68. Barry Arons        <barons@media-lab.mit.edu>
  69. Joe Campbell        <jpcampb@afterlife.ncsc.mil>
  70. Oliver Jakobs        <jakobs@ldv01.Uni-Trier.de>
  71. Sonja Kowalewski    <kowa@uniko.uni-koblenz.de>
  72. Tony Robinson        <ajr@eng.cam.ac.uk>
  73. Mike            <mike%jim.uucp@wupost.wustl.edu>
  74.  
  75. Many others have provided useful information.  Thanks to all.
  76.  
  77.  
  78. ============================ Contents =================================
  79.  
  80. PART 1 - General
  81.  
  82. Q1.1: What is comp.speech?
  83. Q1.2: Where are the comp.speech archives?
  84. Q1.3: Common abbreviations and jargon.
  85. TIMIT - A big speech database from TI and MIT - see Q1.6
  86. Q1.4: What are related newsgroups and mailing lists?
  87. Q1.5: What are related journals and conferences?
  88. Q1.6: What speech data is available?
  89. Q1.7: Speech File Formats, Conversion and Playing.
  90. Q1.8: What "Speech Laboratory Environments" are available?
  91.  
  92. PART 2 - Signal Processing for Speech
  93.  
  94. Q2.1: What speech sampling and signal processing hardware can I use?
  95. Q2.2: What signal processing techniques are for speech technology?
  96. Q2.3: How do I find the pitch of a speech signal?
  97. Q2.4: How do I convert to/from mu-law format?
  98.  
  99. PART 3 - Speech Coding and Compression
  100.  
  101. Q3.1: Speech compression techniques.
  102. Q3.2: What are some good references/books on coding/compression?
  103. Q3.3: What software is available?
  104.  
  105. PART 4 - Speech Synthesis
  106.  
  107. Q4.1: What is speech synthesis?
  108. Q4.2: How can speech synthesis be performed?
  109. Q4.3: What are some good references/books on synthesis?
  110. Q4.4: What software/hardware is available?
  111.  
  112. PART 5 - Speech Recognition
  113.  
  114. Q5.1: What is speech recognition?
  115. Q5.2: How can I build a very simple speech recogniser?
  116. Q5.2: What does speaker dependent/adaptive/independent mean?
  117. Q5.3: What does small/medium/large/very-large vocabulary mean?
  118. Q5.4: What does continuous speech or isolated-word mean?
  119. Q5.5: How is speech recognition done?
  120. Q5.6: What are some good references/books on recognition?
  121. Q5.7: What speech recognition packages are available?
  122.  
  123. PART 6 - Natural Language Processing
  124.  
  125. Q6.1: What are some good references/books on NLP?
  126. Q6.2: What NLP software is available?
  127.  
  128. =======================================================================
  129.  
  130. PART 1 - General
  131.  
  132. Q1.1: What is comp.speech?
  133.  
  134. comp.speech is a newsgroup for discussion of speech technology and 
  135. speech science.  It covers a wide range of issues from application of 
  136. speech technology, to research, to products and lots more.  By nature 
  137. speech technology is an inter-disciplinary field and the newsgroup reflects 
  138. this.  However, computer application is the basic theme of the group.
  139.  
  140. The following is a list of topics but does not cover all matters related 
  141. to the field - no order of importance is implied.
  142.  
  143. [1] Speech Recognition - discussion of methodologies, training, techniques, 
  144. results and applications.  This should cover the application of techniques 
  145. including HMMs, neural-nets and so on to the field.
  146.  
  147. [2] Speech Synthesis - discussion concerning theoretical and practical
  148. issues associated with the design of speech synthesis systems.
  149.  
  150. [3] Speech Coding and Compression - both research and application matters.
  151.  
  152. [4] Phonetic/Linguistic Issues - coverage of linguistic and phonetic issues 
  153. which are relevant to speech technology applications.  Could cover parsing, 
  154. natural language processing, phonology and prosodic work.
  155.  
  156. [5] Speech System Design - issues relating to the application of speech
  157. technology to real-world problems.  Includes the design of user interfaces, 
  158. the building of real-time systems and so on.
  159.  
  160. [6] Other matters - relevant conferences, books, public domain software, 
  161. hardware and related products.
  162.  
  163. ------------------------------------------------------------------------
  164.  
  165. Q1.2: Where are the comp.speech archives?
  166.  
  167. comp.speech is being archived for anonymous ftp.
  168.  
  169.     ftp site:    svr-ftp.eng.cam.ac.uk (or 129.169.24.20).  
  170.     directory:    comp.speech/archive
  171.  
  172. comp.speech/archive contains the articles as they arrive.  Batches of 100
  173. articles are grouped into a shar file, along with an associated file of
  174. Subject lines.
  175.  
  176. Other useful information is also available in comp.speech/info.
  177.  
  178. ------------------------------------------------------------------------
  179.  
  180. Q1.3: Common abbreviations and jargon.
  181.  
  182. ANN   - Artificial Neural Network.
  183. ASR   - Automatic Speech Recognition.
  184. ASSP  - Acoustics Speech and Signal Processing
  185. AVIOS - American Voice I/O Society
  186. CELP  - Code-book excited linear prediction.
  187. COLING - Computational Linguistics
  188. DTW   - Dynamic time warping.
  189. FAQ   - Frequently asked questions.
  190. HMM   - Hidden markov model.
  191. IEEE  - Institute of Electrical and Electronics Engineers
  192. JASA  - Journal of the Acoustic Society of America
  193. LPC   - Linear predictive coding.
  194. LVQ   - Learned vector quantisation.
  195. NLP   - Natural Language Processing.
  196. NN    - Neural Network.
  197. TI    - Texas Instruments.
  198. TIMIT - A big speech database from TI and MIT - see Q1.6
  199. TTS   - Text-To-Speech (i.e. synthesis).
  200. VQ    - Vector Quantisation.
  201.  
  202. ------------------------------------------------------------------------
  203.  
  204. Q1.4: What are related newsgroups and mailing lists?
  205.  
  206.  
  207. NEWGROUPS
  208.  
  209. comp.ai - Artificial Intelligence newsgroup.  
  210.      Postings on general AI issues, language processing and AI techniques.
  211.      Has a good FAQ including NLP, NN and other AI information.
  212.  
  213. comp.ai.nat-lang - Natural Language Processing Group
  214.      Postings regarding Natural Language Processing.  Set up to cover
  215.      a broard range of related issues and different viewpoints.
  216.  
  217. comp.ai.nlang-know-rep - Natural Language Knowledge Representation
  218.      Moderated group covering Natural Language.
  219.  
  220. comp.ai.neural-nets - discussion of Neural Networks and related issues.  
  221.      There are often posting on speech related matters - phonetic recognition,
  222.      connectionist grammars and so on.
  223.  
  224. comp.compression - occasional articles on compression of speech.
  225.      FAQ for comp.compression has some info on audio compression standards.
  226.  
  227. comp.dcom.telecom - Telecommunications newsgroup.
  228.      Has occasional articles on voice products.
  229.  
  230. comp.dsp - discussion of signal processing - hardware and algorithms and more.
  231.      Has a good FAQ posting.
  232.      Has a regular posting of a comprehensive list of Audio File Formats.
  233.  
  234. comp.multimedia - Multi-Media discussion group.
  235.      Has occasional articles on voice I/O.
  236.  
  237. sci.lang - Language.  
  238.      Discussion about phonetics, phonology, grammar, etymology and lots more.
  239.  
  240. alt.sci.physics.acoustics - some discussion of speech production & perception.
  241.  
  242. alt.binaries.sounds.misc - posting of various sound samples
  243. alt.binaries.sounds.d - discussion about sound samples, recording and playback.
  244.  
  245.  
  246. MAILING LISTS
  247.  
  248. ECTL - Electronic Communal Temporal Lobe
  249.      Founder & Moderator: David Leip
  250.      Moderated mailing list for researchers with interests in computer speech 
  251.      interfaces. This list serves a broad community including persons from 
  252.      signal processing, AI, linguistics and human factors.
  253.      
  254.      To subscribe, send the following information to: 
  255.         ectl-request@snowhite.cis.uoguelph.ca
  256.         name, institute, department, daytime phone & e-mail address
  257.  
  258.      To access the archive, ftp snowhite.cis.uoguelph.ca, login as anonymous,
  259.      and supply your local userid as a password.  All the ECTL things can be
  260.      found in pub/ectl.
  261.  
  262. Prosody Mailing List
  263.     Unmoderated mailing list for discussion of prosody.  The aim is
  264.     to facilitate the spread of information relating to the research
  265.     of prosody by creating a network of researchers in the field.
  266.     If you want to participate, send the following one-line
  267.     message to "listserv@purccvm.bitnet" :-
  268.  
  269.         subscribe prosody Your Name
  270.  
  271. foNETiks
  272.     A monthly newsletter distributed by e-mail. It carries job 
  273.     advertisements, notices of conferences, and other news of
  274.     general interest to phoneticians, speech scientists and others 
  275.     The current editors are Linda Shockey and Gerry Docherty.
  276.     To subscribe, send a message to FONETIKS-REQUEST@dev.rdg.ac.uk.
  277.  
  278. Digital Mobile Radio
  279.      Covers lots of areas include some speech topics including speech 
  280.      coding and speech compression.
  281.      Mail Peter Decker (dec@dfv.rwth-aachen.de) to subscribe.
  282.  
  283. ------------------------------------------------------------------------
  284.  
  285. Q1.5: What are related journals and conferences?
  286.  
  287. Try the following commercially oriented magazines...
  288.  
  289.     Speech Technology - no longer published
  290.  
  291. Try the following technical journals...
  292.  
  293.     IEEE Transactions on Speech and Audio Processing (from Jan 93)
  294.     Computational Linguistics (COLING)
  295.     Computer Speech and Language
  296.     Journal of the Acoustical Society of America (JASA)
  297.     Transactions of IEEE ASSP
  298.     AVIOS Journal
  299.  
  300. Try the following conferences...
  301.  
  302.  ICASSP        Intl. Conference on Acoustics Speech and Signal Processing (IEEE)
  303.  ICSLP        Intl. Conference on Spoken Language Processing
  304.  EUROSPEECH European Conference on Speech Communication and Technology
  305.  AVIOS      American Voice I/O Society Conference
  306.  SST        Australian Speech Science and Technology Conference
  307.  
  308. ------------------------------------------------------------------------
  309.  
  310. Q1.6: What speech data is available?
  311.  
  312. A wide range of speech databases have been collected.  These databases 
  313. are primarily for the development of speech synthesis/recognition and for 
  314. linguistic research.  
  315.  
  316. Some databases are free but most appear to be available for a small cost.
  317. The databases normally require lots of storage space - do not expect to be 
  318. able to ftp all the data you want.
  319.  
  320. [There are too many to list here in detail - perhaps someone would like to 
  321.  set up a special posting on speech databases?]
  322.  
  323.  
  324.     PHONEMIC SAMPLES
  325.     ================
  326.  
  327. First, some basic data.  The following sites have samples of English phonemes
  328. (American accent I believe) in Sun audio format files.  See Question 1.7
  329. for information on audio file formats.
  330.  
  331.         sounds.sdsu.edu:/.1/phonemes
  332.         phloem.uoregon.edu:/pub/Sun4/lib/phonemes
  333.         sunsite.unc.edu:/pub/multimedia/sun-sounds/phonemes
  334.  
  335.  
  336.     HOMOPHONE LIST
  337.     ==============
  338.  
  339. A list of homophones in General American English is available by anonymous 
  340. FTP from the comp.speech archive site:
  341.  
  342.   machine name: svr-ftp.eng.cam.ac.uk
  343.   directory:    comp.speech/data
  344.   file name:    homophones-1.01.txt
  345.  
  346.  
  347.     LINGUISTIC DATA CONSORTIUM (LDC)
  348.     ================================
  349.  
  350. Information about the Linguistic Data Consortium is available via
  351. anonymous ftp from:    ftp.cis.upenn.edu    (130.91.6.8)
  352. in the directory:    /pub/ldc
  353.  
  354. Here are some excerpts from the files in that directory:
  355.  
  356. Briefly stated, the LDC has been established to broaden the collection
  357. and distribution of speech and natural language data bases for the
  358. purposes of research and technology development in automatic speech
  359. recognition, natural language processing and other areas where large
  360. amounts of linguistic data are needed.
  361.  
  362. Here is the brief list of corpora:
  363.  
  364.    * The TIMIT and NTIMIT speech corpora
  365.    * The Resource Management speech corpus (RM1, RM2)
  366.    * The Air Travel Information System (ATIS0) speech corpus
  367.    * The Association for Computational Linguistics - Data Collection 
  368.      Initiative text corpus (ACL-DCI)
  369.    * The TI Connected Digits speech corpus (TIDIGITS)
  370.    * The TI 46-word Isolated Word speech corpus (TI-46)
  371.    * The Road Rally conversational speech corpora (including "Stonehenge" 
  372.      and "Waterloo" corpora)
  373.    * The Tipster Information Retrieval Test Collection
  374.    * The Switchboard speech corpus ("Credit Card" excerpts and portions
  375.      of the complete Switchboard collection)
  376.  
  377. Further resources to be made available within the first year (or two):
  378.  
  379.    * The Machine-Readable Spoken English speech corpus (MARSEC)
  380.    * The Edinburgh Map Task speech corpus
  381.    * The Message Understanding Conference (MUC) text corpus of FBI 
  382.      terrorist reports
  383.    * The Continuous Speech Recognition - Wall Street Journal speech 
  384.      corpus (WSJ-CSR)
  385.    * The Penn Treebank parsed/tagged text corpus
  386.    * The Multi-site ATIS speech corpus (ATIS2)
  387.    * The Air Traffic Control (ATC) speech corpus
  388.    * The Hansard English/French parallel text corpus
  389.    * The European Corpus Initiative multi-language text corpus (ECI) 
  390.    * The Int'l Labor Organization/Int'l Trade Union multi-language 
  391.      text corpus (ILO/ITU)
  392.    * Machine-readable dictionaries/lexical data bases (COMLEX, CELEX)
  393.  
  394. The files in the directory include more detailed information on the 
  395. individual databases.  For further information contact
  396.  
  397.     Linguistic Data Consortium
  398.     441 Williams Hall
  399.     University of Pennsylvania
  400.     Philadelphia, PA 19104-6305
  401.     Phone:   +1 (215) 898-0464
  402.     Fax:     +1 (215) 573-2175
  403.     e-mail:  ldc@unagi.cis.upenn.edu
  404.  
  405.  
  406.     Center for Spoken Language Understanding (CSLU)
  407.     ===============================================
  408.  
  409. 1. The ISOLET speech database of spoken letters of the English alphabet. 
  410. The speech is high quality (16 kHz with a noise cancelling microphone).  
  411. 150 speakers x 26 letters of the English alphabet twice in random order.  
  412. The "ISOLET" data base can be purchased for $100 by sending an email request 
  413. to vincew@cse.ogi.edu.  (This covers handling, shipping and medium costs).  
  414. The data base comes with a technical report describing the data.
  415.  
  416. 2. CSLU has a telephone speech corpus of 1000 English alphabets.  Callers 
  417. recite the alphabet with brief pauses between letters.  This database is 
  418. available to not-for-profit institutions for $100. The data base is described 
  419. in the proceedings of the International Conference on Spoken Language 
  420. Processing.  Contact vincew@cse.ogi.edu if interested.
  421.  
  422.  
  423.        PhonDat - A Large Database of Spoken German
  424.        ===========================================
  425.  
  426. The PhonDat continuous speech corpora are now available on
  427. CD-ROM media (ISO 9660 format).
  428.  
  429.     PhonDat I  (Diphone Corpus)        : 6 CDs    (1140.- DM)
  430.     PhonDat II (Train Enquiries Corpus): 1 CD     ( 190.- DM)
  431.  
  432. PhonDat I comprises approx. 20.000, PhonDat II approx. 1500 
  433. files signal files in high quality 16-bit 16 KHz recording.
  434. The corpora come with a documentation containing the orthographic 
  435. transcription and a citation form of the utterances, as well as a 
  436. detailed file format description.  A narrow phonetic transcription 
  437. is available for selected files from corpus I and II.
  438.  
  439. For information and orders contact
  440.  
  441.    Barbara Eisen
  442.    Institut fuer Phonetik
  443.    Schellingstr. 3 / II
  444.    D 8000 Munich 40
  445.  
  446.    Tel: +49 / 89 / 2180 -2454 or -2758
  447.    Fax: +49 / 89 / 280 03 62
  448.  
  449. ------------------------------------------------------------------------
  450.  
  451. Q1.7: Speech File Formats, Conversion and Playing.
  452.  
  453. Section 2 of this FAQ has information on mu-law coding.
  454.  
  455. A very good and very comprehensive list of audio file formats is prepared
  456. by Guido van Rossum.  The list is posted regularly to comp.dsp and
  457. alt.binaries.sounds.misc, amongst others.  It includes information on 
  458. sampling rates, hardware, compression techniques, file format definitions, 
  459. format conversion, standards, programming hints and lots more.  It is much
  460. too long to include within this posting.
  461.  
  462. It is also available by ftp 
  463.     from:         ftp.cwi.nl
  464.     directory:    /pub 
  465.     file:         AudioFormats<version>
  466.  
  467. ------------------------------------------------------------------------
  468.  
  469. Q1.8: What "Speech Laboratory Environments" are available?
  470.  
  471. First, what is a Speech Laboratory Environment?  A speech lab is a
  472. software package which provides the capability of recording, playing,
  473. analysing, processing, displaying and storing speech.  Your computer
  474. will require audio input/output capability.  The different packages
  475. vary greatly in features and capability - best to know what you want
  476. before you start looking around.
  477.  
  478. Most general purpose audio processing packages will be able to process speech
  479. but do not necessarily have some specialised capabilities for speech (e.g.
  480. formant analysis).
  481.  
  482. The following article provides a good survey.
  483.  
  484.   Read, C., Buder, E., & Kent, R. "Speech Analysis Systems: An Evaluation"
  485.   Journal of Speech and Hearing Research, pp 314-332, April 1992.
  486.  
  487.  
  488. Package: Entropic Signal Processing System (ESPS) and Waves
  489. Platform: Range of Unix platforms.
  490. Description: ESPS is a very comprehensive set of speech analysis/processing 
  491.     tools for the UNIX environment.  The package includes UNIX commands, 
  492.     and a comprehensive C library (which can be accessed from other 
  493.     languages).  Waves is a graphical front-end for speech processing.  
  494.     Speech waveforms, spectrograms, pitch traces etc can be displayed, 
  495.     edited and processed in X windows and Openwindows (versions 2 & 3).
  496.     The HTK (Hidden Markov Model Toolkit) is now available from Entropic.
  497.     HTK is described in some detail in Section 5 of this FAQ - the
  498.     section on Speech Recognition.
  499. Cost:   On request.
  500. Contact: Entropic Research Laboratory, Washington Research Laboratory,
  501.     600 Pennsylvania Ave, S.E. Suite 202, Washington, D.C. 20003
  502.     (202) 547-1420.  email - info@wrl.epi.com
  503.  
  504.  
  505. Package: CSRE: Canadian Speech Research Environment
  506. Platform: IBM/AT-compatibles
  507. Description: CSRE is a comprehensive, microcomputer-based system designed 
  508.     to support speech research.  CSRE provides a powerful, low-cost 
  509.     facility in support of speech research, using mass-produced and 
  510.     widely-available hardware. The project is non-profit, and relies 
  511.     on the cooperation of researchers at a number of institutions and
  512.     fees generated when the software is distributed.  Functions 
  513.     include speech capture, editing, and replay; several alternative 
  514.     spectral analysis procedures, with color and surface/3D displays; 
  515.     parameter extraction/tracking and tools to automate measurement 
  516.     and support data logging; alternative pitch-extraction systems; 
  517.     parametric speech (KLATT80) and non-speech acoustic synthesis, 
  518.     with a variety of supporting productivity tools; and a 
  519.     comprehensive experiment generator, to support behavioral testing 
  520.     using a variety of common testing protocols.
  521.     A paper about the whole package can be found in:
  522.        Jamieson D.G. et al, "CSRE: A Speech Research Environment",
  523.        Proc. of the Second Intl. Conf. on Spoken Language Processing,
  524.        Edmonton: University of Alberta, pp. 1127-1130.
  525. Hardware:     Can use a range of data aqcuisition/DSP
  526. Cost:    Distributed on a cost recovery basis.
  527. Availability: For more information on availability
  528.     contact Krystyna Marciniak - email march@uwovax.uwo.ca
  529.     Tel (519) 661-3901  Fax (519) 661-3805.
  530.     For technical information  - email ramji@uwovax.uwo.ca
  531. Note: Also included in Q4.4 on speech synthesis packages.
  532.  
  533.  
  534. Package: OGI Speech Tools from the Center for Spoken Language 
  535.     Understanding (CSLU) at the Oregon Graduate Institute of Science 
  536.     and Technology (Portland Oregon)
  537. Platform: Unix????
  538. Description: The OGI Speech tools include :-
  539.     1. An X windows display tool (LYRE) for displaying data in a time 
  540.        synchronous fashion for a. the speech signal b. spectrograms
  541.             c. phoneme labels, and other information.
  542.     2. A Neural Network (NOPT) training package.
  543.     3. An set of C library routines (LIBNSPEECH) for the manipulation 
  544.        of speech data, including:  a. PLP Analysis, b. Rasta PLP 
  545.        Analysis, c. Linear Predictive Coding, d. Mel Cepstrum Coding,
  546.        e. Fast Fourier Transform
  547.     4. A set of utilities for converting file formats such as ADC, NIST,
  548.        mu-law, binary files, and ascii.  Includes filtering.
  549.     5. A set of PEARL Scripts which have been used mainly to automate
  550.        the use of the OGI Speech Tools. 
  551.     6. Routines to play speech on different machines: Sun Sparc,
  552.        decmips, Gradient box (general purpose atod/dtoa), Macintosh.
  553.     7. MAN Pages for all routines and programs developed, as well as
  554.        a User manual in both in postscript and {\bf tex} format.
  555. Misc: Software is written in ANSI C.
  556. Availability: By anonymous ftp from
  557.     lydia.cse.ogi.edu:/pub/tools/*
  558. Contact: Try tools@cse.ogi.edu ?
  559.  
  560.  
  561. Package: Signalyze 2.0 from InfoSignal
  562. Platform: Macintosh
  563. Description: Signalyze's basic conception revolves around up to 100 
  564.     signals, displayed synchronously in HyperCard fashion on "cards".
  565.     The program offers a full complement of signal editing features, 
  566.     quite a few spectral analysis tools, manual scoring tools, pitch 
  567.     extraction routines, a good set of signal manipulation tools, and 
  568.     extensive input-output capacity.
  569.     Handles multiple file formats: Signalyze, MacSpeech Lab, AudioMedia, 
  570.     SoundDesigner II, SoundEdit/MacRecorder, SoundWave, three sound 
  571.     resource formats, and ASCII-text.
  572.     Sound I/O: Direct sound input from MacRecorder and similar devices, 
  573.     AudioMedia, AudioMedia II and AD IN, some MacADIOS boards and devices,
  574.     Apple sound input (built-in microphone). Sound output via Macintosh 
  575.     internal sound, some MacADIOS boards and devices as well as via the 
  576.     Digidesign 16-bit boards.
  577. Compatibility: MacPlus and higher (including II, IIx, IIcx, IIci, IIfx, 
  578.     IIvx, IIvi, Portable, all PowerBooks, Centris and Quadras). Takes 
  579.     advantage of large and multiple screens and 16/256 color/grayscales. 
  580.     System 7.0 compatible. Runs in background with adjustable priority.
  581. Misc: A demo available upon request.
  582.     Manuals and tutorial included.
  583.     It is available in English, French, and German.
  584. Cost: Individual licence US$350, site license US$500, plus shipping.
  585. Contact: North America - Network Technology Corporation
  586.         91 Baldwin St., Charlestown MA 02129
  587.         Fax: 617-241-5064   Phone: 617-241-9205
  588.     Elsewhere -  InfoSignal Inc.
  589.         C.P. 73, 1015 LAUSANNE, Switzerland, 
  590.         FAX: +41 21 691-1372,
  591.         Email: 76357.1213@COMPUSERVE.COM.
  592.  
  593.  
  594. Package: Kay Elemetrics CSL (Computer Speech Lab) 4300
  595. Platform: Minimum IBM PC-AT compatible with extended memory (min 2MB) 
  596.     with at least VGA graphics. Optimal would be 386 or 486 machine 
  597.     with more RAM for handling larger amounts of data.
  598. Description: Speech analysis package, with optional separate LPC program 
  599.     for analysis/synthesis. Uses its own file format for data, but has 
  600.     some ability to export data as ascii. The main editing/analysis prog 
  601.     (but not the LPC part) has its own macro language, making it easy to 
  602.     perform repetitive tasks.  Probably not much use without the extra 
  603.     LPC program, which also allows manipulation of pitch, formant and 
  604.     bandwidth parameters.
  605.     Hardware includes an internal DSP board for the PC (requires ISA 
  606.     slot), and an external module containing signal processing chips 
  607.     which does A/D and D/A conversion. 
  608.     A speaker and microphone are supplied.
  609. Misc:  A programmers kit is available for programming signal processing
  610.     chips (experts only).
  611.     Manuals included.
  612. Cost: Recently approx 6000 pounds sterling. (Less in USA?)
  613. Availibility: UK distributors are Wessex Electronics, 
  614.         114-116 North Street, Downend, Bristol, B16 5SE 
  615.         Tel: 0272 571404. 
  616.     In USA: Kay Elemetrics Corp, 
  617.         12 Maple Avenue, PO Box 2025, Pine Brook, NJ 07058-9798
  618.         Tel:(201) 227-7760
  619.  
  620.  
  621. Package: MacSpeech Lab II (MSL II)
  622. Platform: Macintosh
  623. Description: A sound analysis and acquisition for Macs.  MSL II delivers 
  624.     the most common functions for speech analysis (FFTs, LPCs, f0 
  625.     extraction, etc.) & produces grayscale spectrographic displays.
  626.     Can be used for various speech technology and phonetic training
  627.     tasks.  The software an trade off accuracy and speech.
  628. Hardware: requires MacADIOS ("Macintosh Analog/Digital Input/Output
  629.     System") hardware for speech I/O at 12/16 bits.  
  630. Misc: Software no longer updated by GW Instruments; MSL soft/hardware will 
  631.     not perform input/output on Quadras, for example, though analysis 
  632.     seems fine.  Known to operate properly on systems as high as IIcx & 
  633.     II fx.
  634. Cost: $4990 (in May '92 price list; no MSL soft/hardware package
  635.     listed in January '93).
  636. Contact: GW Instruments
  637.     35 Medford Street, Somerville, MA  02143
  638.     Phone: (617) 625-4096   Fax: (617) 625-1322
  639.  
  640.  
  641. Package: Ptolemy
  642. Platform: Sun SPARC, DecStation (MIPS), HP (hppa).
  643. Description: Ptolemy provides a highly flexible foundation for the 
  644.     specification, simulation, and rapid prototyping of systems.  
  645.     It is an object oriented framework within which diverse models 
  646.     of computation can co-exist and interact.  Ptolemy can be used 
  647.     to model entire systems.
  648.     Ptolemy has been used for a broad range of applications including
  649.     signal processing, telecomunications, parallel processing, wireless
  650.     communications, network design, radio astronomy, real time systems, 
  651.     and hardware/software co-design.  Ptolemy has also been used as a lab
  652.     for signal processing and communications courses.
  653.     Ptolemy has been developed at UC Berkeley over the past 3 years.
  654.     Further information, including papers and the complete release
  655.     notes, is available from the FTP site.
  656. Cost: Free
  657. Availability: The source code, binaries, and documentation are available 
  658.     by anonymous ftp from "ptolemy.bekeley.edu" - see the README file -
  659.         ptolemy.berkeley.edu:/pub/README
  660.  
  661.  
  662. Package: Khoros
  663. Description: Public domain image processing package with a basic DSP
  664.     library.  Not particularly applicable to speech, but not bad
  665.     for the price.
  666. Cost:    FREE
  667. Availability: By anonymous ftp from pprg.eece.unm.edu
  668.  
  669.  
  670. Can anyone provide information on capability and availability of the
  671. following packages?
  672.  
  673.     ILS ("Interactive Laboratory System")
  674.     SpeechViewer (PC)
  675.  
  676.  
  677.  
  678. =======================================================================
  679.  
  680. PART 2 - Signal Processing for Speech
  681.  
  682. Q2.1: What speech sampling and signal processing hardware can I use?
  683.  
  684. In addition to the following information, have a look at the Audio File
  685. format document prepared by Guido van Rossum (see details in Section 1.7).
  686.  
  687.  
  688. Product: Sun standard audio port (SPARC 1 & 2)
  689. Input:  1 channel, 8 bit mu-law encoded (telephone quality)
  690. Output: 1 channel, 8 bit mu-law encoded (telephone quality)
  691.  
  692.  
  693. Product:  Ariel
  694. Platform: Sun + others?
  695. Input:  2 channels, 16bit linear, sample rate 8-96kHz (inc 32, 44.1, 48kHz).
  696. Output: 2 channels, 16bit linear, sample rate 8-50kHz (inc 32, 44.1, 48kHz).
  697. Contact: Ariel Corp.433 River Road,
  698.     Highland Park, NJ 08904.
  699.     Ph: 908-249-2900  Fax: 908-249-2123  DSP BBS: 908-249-2124
  700.  
  701.  
  702. Product:  IBM RS/6000 ACPA (Audio Capture and Playback Adapter)
  703. Description: The card supports PCM, Mu-Law, A-Law and ADPCM at 44.1kHz 
  704.     (& 22.05, 11.025, 8kHz) with 16-bits of resolution in stereo.  
  705.     The card has  a built-in DSP (don't know which one).  The device 
  706.     also supports various formats for the output data, like big-endian, 
  707.     twos complement, etc.  Good noise immunity.
  708.     The card is used for IBM's VoiceServer (they use the DSP for 
  709.     speech recognition).  Apparently, the IBM voiceserver has a 
  710.     speaker-independent vocabulary of over 20,000 words and each 
  711.     ACPA can support two independent sessions at once.
  712. Cost:    $US495
  713. Contact: ?
  714.  
  715. Product: Sound Galaxy NX , Aztech Systems
  716. Platform: PC - DOS,Windows 3.1
  717. Cost: ??
  718. Input: 8bit linear, 4-22 kHz.
  719. Output: 8bit linear, 4-44.1 kHz 
  720. Misc: 11-voice FM Music Synthesizer YM3812; Built-in power amplifier;
  721.     DSP signal processing support - ST70019SB
  722.     Hardware ADPCM decompression (2:1,3:1,4:1)
  723.     Full "AdLib" and "Sound Blaster" compatbility.
  724.     Software includes a  simple Text-to-Speech program "Monologue".
  725.  
  726.  
  727. Product: Sound Galaxy NX PRO, Aztech Systems
  728. Platform: PC - DOS,Windows 3.1
  729. Cost: ??
  730. Input: 2 * 8bit linear, 4-22.05 kHz(stereo), 4-44.1 KHz(mono).
  731. Output: 2 * 8bit linear, 4-44.1 kHz(stereo/mono)
  732. Misc: 20-voice FM Music Synthesizer; Built-in power amplifier;
  733.     Stereo Digital/Analog Mixer; Configuration in EEPROM.
  734.     Hardware  ADPCM decompression (2:1,3:1,4:1).
  735.     Includes DSP signal processing support
  736.     Full "AdLib" and "Sound Blaster Pro II" compatybility.
  737.     Software includes a simple Text-to-Speech program "Monologue"
  738.     and Sampling laboratory for Windows 3.1: WinDAT.
  739. Contact: USA (510)6238988
  740.  
  741.  
  742.                        Other PC Sound Cards 
  743. ============================================================================
  744. sound          stereo/mono              compatible     included   voices
  745. card           & sample rate            with           ports
  746. ============================================================================
  747. Adlib Gold     stereo: 8-bit 44.1khz    Adlib ?        audio      20 (opl3)
  748. 1000                  16-bit 44.1khz                   in/out,    +2 digital
  749.                mono: 8-bit 44.1khz                     mic in,    channels
  750.                     16-bit 44.1khz                     joystick,
  751.                                                        MIDI
  752.  
  753. Sound Blaster  mono: 8-bit 22.1khz      Adlib          audio       11 synth.
  754.                FM synth with                           in/out,
  755.                2 operators                             joystick,
  756.  
  757. Sound Blaster  stereo: 8-bit 22.05khz   Adlib          audio       22
  758. Pro Basic      mono: 8-bit 44.1khz      Sound Blaster  in/out,
  759.                                                        joystick,
  760.  
  761. Sound Blaster  stereo: 8-bit 22.05khz   Adlib          audio       11
  762. Pro            mono: 8-bit 44.1khz      Sound Blaster  in/out
  763.                                                        joystick,
  764.                                                        MIDI, SCSI
  765.  
  766. Sound Blaster  stereo: 8-bit 4-44.1khz  Sound Blaster  audio       20
  767. 16 ASP         stereo: 16-bit 4-44.1khz                in/out,
  768.                                                        joystick,
  769.                                                        MIDI
  770.  
  771. Audio Port     mono: 8-bit 22.05khz     Adlib          audio       11
  772.                                         Sound Blaster  in/out,
  773.                                                        joystick
  774.  
  775. Pro Audio      stereo: 8-bit 44.1khz    Adlib          audio,      20
  776. Spectrum +                              Pro Audio      in/out,
  777.                                         Spectrum       joystick
  778.  
  779.  
  780. Pro Audio      stereo: 16-bit 44.1khz   Adlib          audio       20
  781. Spectrum 16                             Pro Audio      in/out,
  782.                                         Spectrum       joystick,
  783.                                         Sound Blaster  MIDI, SCSI
  784.  
  785. Thunder Board  stereo: 8-bit 22khz      Adlib          audio       11
  786.                                         Sound Blaster  in/out,
  787.                                                        joystick
  788.  
  789. Gravis         stereo: 8-bit 44.1khz    Adlib,         audio line  32 sampled
  790. Ultrasound     mono: 8-bit 44.1khz      Sound Blaster  in/out,     32 synth.
  791.                                                        amplified
  792.                                                        out,
  793.                (w/16-bit daughtercard)                 mic in, CD
  794.                stereo: 16-bit 44.1khz                  audio in,
  795.                mono: 16-bit 44.1khz                    daughterboard
  796.                                                        ports (for
  797.                                                        SCSI and
  798.                                                        16-bit)
  799.  
  800. MultiSound     stereo: 16-bit 44.1kHz   Nothing        audio       32 sampled
  801.                64x oversampling                        in/out,
  802.                                                        joystick,
  803.                                                        MIDI
  804.  
  805. =============================================================================
  806.  
  807.  
  808. Can anyone provide information on Mac, NeXT and other hardware?
  809.  
  810. Product:  xxx
  811. Platform: PC, Mac, Sun, ...
  812. Rough Cost (pref $US):
  813. Input: e.g. 16bit linear, 8,10,16,32kHz.
  814. Output: e.g. 16bit linear, 8,10,16,32kHz.
  815. DSP: signal processing support
  816. Other:
  817. Contact:
  818.  
  819. ------------------------------------------------------------------------
  820.  
  821. Q2.2: What signal processing techniques are for speech technology?
  822.  
  823. This question is far to big to be answered in a FAQ posting.  Fortunately
  824. there are many good books which answer the question!
  825.  
  826. Some good introductory books include
  827.  
  828.    Digital processing of speech signals; L. R. Rabiner, R. W. Schafer.
  829.    Englewood Cliffs; London: Prentice-Hall, 1978
  830.  
  831.    Voice and Speech Processing; T. W. Parsons.
  832.    New York; McGraw Hill 1986
  833.  
  834.    Computer Speech Processing; ed Frank Fallside, William A. Woods
  835.    Englewood Cliffs: Prentice-Hall, c1985
  836.  
  837.    Digital speech processing : speech coding, synthesis, and recognition
  838.    edited by A. Nejat Ince; Kluwer Academic Publishers, Boston, c1992
  839.  
  840.    Speech science and technology; edited by Shuzo Saito
  841.    pub. Ohmsha, Tokyo, c1992
  842.  
  843.    Speech analysis; edited by Ronald W. Schafer, John D. Markel
  844.    New York, IEEE Press, c1979
  845.  
  846.    Douglas O'Shaughnessy -- Speech Communication: Human and Machine
  847.    Addison Wesley series in Electrical Engineering: Digital Signal Processing,
  848.    1987.
  849.  
  850. ------------------------------------------------------------------------
  851.  
  852. Q2.3: How do I find the pitch of a speech signal?
  853.  
  854. This topic comes up regularly in the comp.dsp newsgroup.  Question 2.5
  855. of the FAQ posting for comp.dsp gives a comprehensive list of references
  856. on the definition, perception and processing of pitch.
  857.  
  858. ------------------------------------------------------------------------
  859.  
  860. Q2.4: How do I convert to/from mu-law format?
  861.  
  862. Mu-law coding is a form of compression for audio signals including speech.
  863. It is widely used in the telecommunications field because it improves the
  864. signal-to-noise ratio without increasing the amount of data.  Typically,
  865. mu-law compressed speech is carried in 8-bit samples.  It is a companding
  866. technqiue.  That means that carries more information about the smaller signals
  867. than about larger signals.  Mu-law coding is provided as standard for the
  868. audio input and output of the SUN Sparc stations 1&2 (Sparc 10's are linear).
  869.  
  870.  
  871. On SUN Sparc systems have a look in the directory /usr/demo/SOUND.  Included
  872. are table lookup macros for ulaw conversions.  [Note however that not all
  873. systems will have /usr/demo/SOUND installed as it is optional - see your
  874. system admin if it is missing.]
  875.  
  876.  
  877. OR, here is some sample conversion code in C.
  878.  
  879. # include <stdio.h>
  880.  
  881. unsigned char linear2ulaw(/* int */);
  882. int ulaw2linear(/* unsigned char */);
  883.  
  884. /*
  885. ** This routine converts from linear to ulaw.
  886. **
  887. ** Craig Reese: IDA/Supercomputing Research Center
  888. ** Joe Campbell: Department of Defense
  889. ** 29 September 1989
  890. **
  891. ** References:
  892. ** 1) CCITT Recommendation G.711  (very difficult to follow)
  893. ** 2) "A New Digital Technique for Implementation of Any
  894. **     Continuous PCM Companding Law," Villeret, Michel,
  895. **     et al. 1973 IEEE Int. Conf. on Communications, Vol 1,
  896. **     1973, pg. 11.12-11.17
  897. ** 3) MIL-STD-188-113,"Interoperability and Performance Standards
  898. **     for Analog-to_Digital Conversion Techniques,"
  899. **     17 February 1987
  900. **
  901. ** Input: Signed 16 bit linear sample
  902. ** Output: 8 bit ulaw sample
  903. */
  904.  
  905. #define ZEROTRAP    /* turn on the trap as per the MIL-STD */
  906. #undef ZEROTRAP
  907. #define BIAS 0x84   /* define the add-in bias for 16 bit samples */
  908. #define CLIP 32635
  909.  
  910. unsigned char linear2ulaw(sample) int sample; {
  911.   static int exp_lut[256] = {0,0,1,1,2,2,2,2,3,3,3,3,3,3,3,3,
  912.                              4,4,4,4,4,4,4,4,4,4,4,4,4,4,4,4,
  913.                              5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,
  914.                              5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,5,
  915.                              6,6,6,6,6,6,6,6,6,6,6,6,6,6,6,6,
  916.                              6,6,6,6,6,6,6,6,6,6,6,6,6,6,6,6,
  917.                              6,6,6,6,6,6,6,6,6,6,6,6,6,6,6,6,
  918.                              6,6,6,6,6,6,6,6,6,6,6,6,6,6,6,6,
  919.                              7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,
  920.                              7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,
  921.                              7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,
  922.                              7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,
  923.                              7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,
  924.                              7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,
  925.                              7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,
  926.                              7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7};
  927.   int sign, exponent, mantissa;
  928.   unsigned char ulawbyte;
  929.  
  930.   /* Get the sample into sign-magnitude. */
  931.   sign = (sample >> 8) & 0x80;        /* set aside the sign */
  932.   if(sign != 0) sample = -sample;        /* get magnitude */
  933.   if(sample > CLIP) sample = CLIP;        /* clip the magnitude */
  934.  
  935.   /* Convert from 16 bit linear to ulaw. */
  936.   sample = sample + BIAS;
  937.   exponent = exp_lut[( sample >> 7 ) & 0xFF];
  938.   mantissa = (sample >> (exponent + 3)) & 0x0F;
  939.   ulawbyte = ~(sign | (exponent << 4) | mantissa);
  940. #ifdef ZEROTRAP
  941.   if (ulawbyte == 0) ulawbyte = 0x02;    /* optional CCITT trap */
  942. #endif
  943.  
  944.   return(ulawbyte);
  945. }
  946.  
  947. /*
  948. ** This routine converts from ulaw to 16 bit linear.
  949. **
  950. ** Craig Reese: IDA/Supercomputing Research Center
  951. ** 29 September 1989
  952. **
  953. ** References:
  954. ** 1) CCITT Recommendation G.711  (very difficult to follow)
  955. ** 2) MIL-STD-188-113,"Interoperability and Performance Standards
  956. **     for Analog-to_Digital Conversion Techniques,"
  957. **     17 February 1987
  958. **
  959. ** Input: 8 bit ulaw sample
  960. ** Output: signed 16 bit linear sample
  961. */
  962.  
  963. int ulaw2linear(ulawbyte) unsigned char ulawbyte; {
  964.   static int exp_lut[8] = { 0, 132, 396, 924, 1980, 4092, 8316, 16764 };
  965.   int sign, exponent, mantissa, sample;
  966.  
  967.   ulawbyte = ~ulawbyte;
  968.   sign = (ulawbyte & 0x80);
  969.   exponent = (ulawbyte >> 4) & 0x07;
  970.   mantissa = ulawbyte & 0x0F;
  971.   sample = exp_lut[exponent] + (mantissa << (exponent + 3));
  972.   if(sign != 0) sample = -sample;
  973.  
  974.   return(sample);
  975. }
  976.  
  977. =======================================================================
  978.  
  979. PART 3 - Speech Coding and Compression
  980.  
  981. Q3.1: Speech compression techniques.
  982.  
  983. Can anyone provide a 1-2 page summary on speech compression?  Topics to
  984. cover might include common technqiues, where speech compression might be 
  985. used and perhaps something on why speech is difficult to compress.
  986.  
  987.   [The FAQ for comp.compression includes a few questions and answers
  988.    on the compression of speech.]
  989.  
  990. ------------------------------------------------------------------------
  991.  
  992. Q3.2: What are some good references/books on coding/compression?
  993.  
  994.   Douglas O'Shaughnessy -- Speech Communication: Human and Machine
  995.     Addison Wesley series in Electrical Engineering: Digital Signal 
  996.     Processing, 1987.
  997.  
  998. ------------------------------------------------------------------------
  999.  
  1000. Q3.3: What software is available?
  1001.  
  1002. Note: there are two types of speech compression technique referred to below. 
  1003. Lossless technqiues preserve the speech through a compression-decompression
  1004. phase.  Lossy techniques do not preserve the speech prefectly.  As a general
  1005. rule, the more you compress speech, the more the quality degardes.
  1006.  
  1007.  
  1008. Package:     shorten - a lossless compressor for speech signals
  1009. Platform:    UNIX/DOS
  1010. Description: A lossless compressor for speech signals.  It will compile and 
  1011.              run on UNIX workstations and will cope with a wide variety of
  1012.              formats.  Compression is typically 50% for 16bit clean speech 
  1013.              sampled at 16kHz.
  1014. Availability: Anonymous ftp svr-ftp.eng.cam.ac.uk: /misc/shorten-1.09.tar.Z
  1015.  
  1016.  
  1017. Package: CELP 3.2a & LPC
  1018. Platform:    Sun (the makefiles & source can be modified for other platforms)
  1019. Description: CELP is lossy compression technqiue.
  1020.     The U.S. DoD's Federal-Standard-1016 based 4800 bps code excited
  1021.         linear prediction voice coder version 3.2a (CELP 3.2a) Fortran and
  1022.         C simulation source codes.  Available for worldwide distribution
  1023.     (on DOS diskettes, but configured to compile on Sun SPARC stations) 
  1024.     from NTIS and DTIC.  Example input and processed speech files are 
  1025.     included.  A Technical Information Bulletin (TIB), "Details to Assist 
  1026.     in Implementation of Federal Standard 1016 CELP," and the official
  1027.     standard, "Federal Standard 1016, Telecommunications:  Analog to
  1028.     Digital Conversion of Radio Voice by 4,800 bit/second Code Excited
  1029.     Linear Prediction (CELP)," are also available.
  1030.  
  1031. Availability 1: Through the National Technical Information Service:
  1032.     NTIS
  1033.     U.S. Department of Commerce
  1034.     5285 Port Royal Road,
  1035.     Springfield, VA  22161, USA
  1036.  
  1037.     The "AD" ordering number for the CELP software is AD M000 118
  1038.     (US$ 90.00) and for the TIB it's AD A256 629 (US$ 17.50).  
  1039.     The LPC-10 standard, described below, is FIPS Pub 137 (US$ 12.50).  
  1040.     There is a $3.00 shipping charge on all U.S. orders.  The telephone 
  1041.     number for their automated system is 703-487-4650, or 703-487-4600 
  1042.     if you'd prefer    to talk with a real person.
  1043.  
  1044.     (U.S. DoD personnel and contractors can receive the package from the
  1045.     Defense Technical Information Center:  DTIC, Building 5, Cameron
  1046.     Station, Alexandria, VA 22304-6145.  Their telephone number is
  1047.     703-274-7633.)
  1048.  
  1049. Availability 2: By anonymous ftp from:
  1050.     super.org (192.31.192.1):/pub/celp_3.2a.tar.Z
  1051.         OR
  1052.     svr-ftp.eng.cam.ac.uk:comp.speech/sources/celp_3.2a.tar.Z
  1053.  
  1054. Misc: The following articles describe the Federal-Standard-1016 4.8-kbps 
  1055.     CELP coder (it's unnecessary to read more than one):
  1056.  
  1057.     Campbell, Joseph P. Jr., Thomas E. Tremain and Vanoy C. Welch,
  1058.     "The Federal Standard 1016 4800 bps CELP Voice Coder," Digital Signal
  1059.     Processing, Academic Press, 1991, Vol. 1, No. 3, p. 145-155.
  1060.  
  1061.     Campbell, Joseph P. Jr., Thomas E. Tremain and Vanoy C. Welch,
  1062.     "The DoD 4.8 kbps Standard (Proposed Federal Standard 1016),"
  1063.     in Advances in Speech Coding, ed. Atal, Cuperman and Gersho,
  1064.     Kluwer Academic Publishers, 1991, Chapter 12, p. 121-133.
  1065.  
  1066.     Campbell, Joseph P. Jr., Thomas E. Tremain and Vanoy C. Welch, "The
  1067.     Proposed Federal Standard 1016 4800 bps Voice Coder:  CELP," Speech
  1068.     Technology Magazine, April/May 1990, p. 58-64.
  1069.  
  1070.     * The U.S. DoD's Federal-Standard-1015/NATO-STANAG-4198 based 2400
  1071.     bps linear prediction coder (LPC-10) was republished as a Federal
  1072.     Information Processing Standards Publication 137 (FIPS Pub 137).
  1073.     It is described in:
  1074.  
  1075.     Thomas E. Tremain, "The Government Standard Linear Predictive Coding
  1076.     Algorithm:  LPC-10," Speech Technology Magazine, April 1982, p. 40-49.
  1077.  
  1078.     There is also a section about FS-1015 in the book:
  1079.     Panos E. Papamichalis, Practical Approaches to Speech Coding,
  1080.     Prentice-Hall, 1987.
  1081.  
  1082.     * The voicing classifier used in the enhanced LPC-10 (LPC-10e) is 
  1083.     described in: Campbell, Joseph P., Jr. and T. E. Tremain, "Voiced/
  1084.     Unvoiced Classification of Speech with Applications to the U.S. 
  1085.     Government LPC-10E Algorithm," Proceedings of the IEEE International 
  1086.     Conf. on Acoustics, Speech, and Signal Processing, 1986, p. 473-6.
  1087.  
  1088.     * Copies of the official standard, "Federal Standard 1016, Tele-
  1089.     communications: Analog to Digital Conversion of Radio Voice by 4,800 
  1090.     bit/second Code Excited Linear Prediction (CELP)" are available for 
  1091.     US$ 5.00 each from:
  1092.          GSA Federal Supply Service Bureau
  1093.         Specification Section, Suite 8100
  1094.         470 E. L'Enfant Place, S.W.
  1095.         Washington, DC  20407
  1096.         (202)755-0325
  1097.  
  1098.     * Realtime DSP code for FS-1015 and FS-1016 is sold by:
  1099.  
  1100.     John DellaMorte, DSP Software Engineering
  1101.     165 Middlesex Tpk, Suite 206
  1102.     Bedford, MA  01730, USA
  1103.     Ph: 1-617-275-3733    Fax: 1-617-275-4323
  1104.     dspse.bedford@channel1.com
  1105.  
  1106.     * DSP Software Engineering's FS-1016 code can run on a DSP Research's 
  1107.     Tiger 30 (a PC board with a TMS320C3x and analog interface suited 
  1108.     to development work).
  1109.  
  1110.     DSP Research
  1111.     1095 E. Duane Ave.          
  1112.     Sunnyvale, CA  94086, USA
  1113.     Ph: (408)773-1042    Fax: (408)736-3451 (fax)
  1114.  
  1115.  
  1116.  
  1117. Package:     32 kbps ADPCM
  1118. Platform:    SGI and Sun Sparcs
  1119. Description: 32 kbps ADPCM C-source code (G.721 compatibility is uncertain)
  1120. Contact:     Jack Jansen
  1121. Availablity: Anoymous ftp to ftp.cwi.nl: pub/adpcm.shar
  1122.  
  1123.  
  1124. Package:     GSM 06.10 Compression
  1125. Platform:    Runs faster than real time on most Sun SPARCstations
  1126. Description: GSM 06.10 is lossy compression technqiue.
  1127.          European GSM 06.10 provisional standard for full-rate speech
  1128.              transcoding, prI-ETS 300 036, which uses RPE/LTP (residual
  1129.              pulse excitation/long term prediction) coding at 13 kbit/s.
  1130. Contact:     Carsten Bormann <cabo@cs.tu-berlin.de>
  1131. Availability: An implementation can be ftp'ed from:
  1132.                 tub.cs.tu-berlin.de: /pub/tubmik/gsm-1.0.tar.Z
  1133.                                     +/pub/tubmik/gsm-1.0-patch1
  1134.                 or as a faster but not always up-to-date alternative:
  1135.                        liasun3.epfl.ch: /pub/audio/gsm-1.0pl1.tar.Z
  1136.  
  1137. Package:      G.721/722/723 Compression
  1138. Description:  ?
  1139. Availability: By email to teledoc@itu.arcom.ch, with
  1140.         GET ITU-3022
  1141.     as the *only* line in the body of the message.
  1142.     This is also available by anonymous ftp from:
  1143.     svr-ftp.eng.cam.ac.uk:comp.speech/sources/G711_G722_G723.tar.Z
  1144.  
  1145.  
  1146. Package:     U.S.F.S. 1016 CELP vocoder for DSP56001
  1147. Platform:    DSP56001
  1148. Description: Real-time U.S.F.S. 1016 CELP vocoder that runs on a single 
  1149.     27MHz Motorola DSP56001.  Free demo software available from PC-56
  1150.     and PC-56D.  Source and object code available for a one-time 
  1151.     license fee.
  1152. Contact: Cole Erskine
  1153.     Analogical Systems    
  1154.         2916 Ramona St.        
  1155.         Palo Alto, CA 94306, USA
  1156.         Tel:(415) 323-3232  FAX:(415) 323-4222
  1157.     Internet: cole@analogical.com
  1158.  
  1159.  
  1160. Product: 8 Kbit/s CELP on the TMS320C5x family of DSP chips.
  1161. Description: For low bandwidth transmission of voice, compact voice storage 
  1162.     for archival purposes, low-cost digital answering machines and
  1163.         efficient storage for voice mail.  Features :- 
  1164.     - near toll quality at 8 Kb/s.
  1165.         - Variable rate option with 1 Kb/s silence encoding
  1166.         - Implemented on a fixed-point processor for lower system cost.
  1167.         - Attractive licensing scheme.
  1168.         - Future availability of 4 Kb/s.
  1169.         - Custom rates possible.
  1170.     Capacity :-
  1171.         - Two half-duplex or one full duplex channels on the 20 MIPS 'C5x
  1172.                 (at 95% and 55% CPU utilization respectively).
  1173.         - Two full duplex channels on the 28.6 MIPS 'C5x
  1174.                 (at 77% CPU utilization).
  1175.         - Requires 9 K-words program memory and 3 K-words data memory.
  1176.         - Decoding in real-time on a 486 class CPU.
  1177. Contact: CVI Inc.
  1178.     443 Vienna Cres. North Vancouver, BC, Canada V7N 3B3
  1179.     Tel: (604) 987 1719   Fax: (604) 986 8139
  1180.     Email: cvi@extropia.wimsey.com
  1181.  
  1182.  
  1183. =======================================================================
  1184.  
  1185. PART 4 - Speech Synthesis
  1186.  
  1187. Q4.1: What is speech synthesis?
  1188.  
  1189. Speech synthesis is the task of transforming written input to spoken output.
  1190. The input can either be provided in a graphemic/orthographic or a phonemic
  1191. script, depending on its source.
  1192.  
  1193. ------------------------------------------------------------------------
  1194.  
  1195. Q4.2: How can speech synthesis be performed?
  1196.  
  1197. There are several algorithms.  The choice depends on the task they're used
  1198. for.  The easiest way is to just record the voice of a person speaking the
  1199. desired phrases.  This is useful if only a restricted volume of phrases and
  1200. sentences is used, e.g. messages in a train station, or schedule information
  1201. via phone.  The quality depends on the way recording is done.
  1202.  
  1203. More sophisticated but worse in quality are algorithms which split the 
  1204. speech into smaller pieces.  The smaller those units are, the less are they
  1205. in number, but the quality also decreases.  An often used unit is the phoneme,
  1206. the smallest linguistic unit.  Depending on the language used there are about
  1207. 35-50 phonemes in western European languages, i.e. there are 35-50 single
  1208. recordings. The problem is combining them as fluent speech requires fluent
  1209. transitions between the elements. The intellegibility is therefore lower, but
  1210. the memory required is small.
  1211.  
  1212. A solution to this dilemma is using diphones. Instead of splitting at the 
  1213. transitions, the cut is done at the center of the phonemes, leaving the 
  1214. transitions themselves intact. This gives about 400 elements (20*20) and
  1215. the quality increases.
  1216.  
  1217. The longer the units become, the more elements are there, but the quality 
  1218. increases along with the memory required. Other units which are widely used
  1219. are half-syllables, syllables, words, or combinations of them, e.g. word stems
  1220. and inflectional endings.
  1221.  
  1222. ------------------------------------------------------------------------
  1223.  
  1224. Q4.3: What are some good references/books on synthesis?
  1225.  
  1226. The following are good introductory books/articles.
  1227.  
  1228.    Douglas O'Shaughnessy -- Speech Communication: Human and Machine
  1229.    Addison Wesley series in Electrical Engineering: Digital Signal Processing,
  1230.    1987.
  1231.  
  1232.    D. H.  Klatt, "Review of Text-To-Speech Conversion for English", Jnl. of
  1233.    the Acoustic Society of America (JASA), v82, Sept. 1987, pp 737-793.
  1234.  
  1235.    I. H. Witten.   Principles of Computer Speech.
  1236.    (London:  Academic Press, Inc., 1982).
  1237.  
  1238.    John Allen, Sharon Hunnicut and Dennis H. Klatt, "From Text to Speech: 
  1239.    The MITalk System", Cambridge University Press, 1987.
  1240.  
  1241. ------------------------------------------------------------------------
  1242.  
  1243. Q4.4: What software/hardware is available?
  1244.  
  1245. There appears to be very little Public Domain or Shareware speech synthesis 
  1246. related software available for FTP.  However, the following are available.
  1247. Strictly speaking, not all the following sources are speech synthesis - all
  1248. are speech output systems.  They are in no particular order.
  1249.  
  1250.  
  1251. SIMTEL-20
  1252. The following is a list of speech related software available from SIMTEL-20 
  1253. and its mirror sites for PCs.  
  1254.  
  1255. The SIMTEL internet address is WSMR-SIMTEL20.Army.Mil [192.88.110.20].
  1256. Try looking at your nearest archive site first.
  1257.  
  1258. Directory PD1:<MSDOS.VOICE>
  1259.  Filename   Type Length   Date   Description
  1260.  ==============================================
  1261.  AUTOTALK.ARC  B   23618  881216  Digitized speech for the PC
  1262.  CVOICE.ARC    B   21335  891113  Tells time via voice response on PC
  1263.  HEARTYPE.ARC  B   10112  880422  Hear what you are typing, crude voice synth.
  1264.  HELPME2.ARC   B    8031  871130  Voice cries out 'Help Me!' from PC speaker
  1265.  SAY.ARC       B   20224  860330  Computer Speech - using phonemes
  1266.  SPEECH98.ZIP  B   41003  910628  Build speech (voice) on PC using 98 phonemes
  1267.  TALK.ARC      B    8576  861109  BASIC program to demo talking on a PC speaker
  1268.  TRAN.ARC      B   39766  890715  Repeats typed text in digital voice
  1269.  VDIGIT.ZIP    B  196284  901223  Toolkit: Add digitized voice to your programs
  1270.  VGREET.ARC    B   45281  900117  Voice says good morning/afternoon/evening
  1271.  
  1272.  
  1273.  
  1274. Package:    ORATOR Text-to-Speech Synthesizer
  1275. Platform:   SUN SPARC, Decstation 5000.  Portable to other UNIX platforms.
  1276. Description: Sophisticated speech synthesis package.  Has text preprocessing 
  1277.     (for abbreviations, numbers), acronym citation rules, and human-like 
  1278.     spelling routines.  High accuracy for pronunciation of names of 
  1279.     people, places and businesses in America, text-to-speech translation 
  1280.     for common words; rules for stress and intonation marking, based on 
  1281.     natural-sounding demisyllable synthesis; various methods of user 
  1282.     control and customization at most stages of processing.  Currently, 
  1283.     ORATOR is most appropriate for applications containing a large 
  1284.     component of names in the text, and requires some amount of user-
  1285.     specified text-preprocessing to produce good quality speech for 
  1286.     general text.
  1287. Hardware: Standard audio output of SPARC, or Decstation audio hardware.
  1288.         At least 16M of memory recommended.
  1289. Cost:   Binary License: $5,000.  
  1290.         Source license for porting or commercial use: $30,000.
  1291. Availability: Contact Bellcore's Licensing Office (1-800-527-1080) 
  1292.         or email:   jzilg@cc.bellcore.com (John Zilg)
  1293.  
  1294.  
  1295. Package: Text to phoneme program (1)
  1296. Platform: unknown
  1297. Description: Text to phoneme program.  Based on Naval Research Lab's
  1298.     set of text to phoneme rules.
  1299. Availability: By FTP from "shark.cse.fau.edu" (131.91.80.13) in the directory
  1300.     /pub/src/phon.tar.Z
  1301.  
  1302.  
  1303. Package: Text to phoneme program (2)
  1304. Platform: unknown
  1305. Description: Text to phoneme program.
  1306. Availability: By FTP from "wuarchive.wustl.edu" in the file
  1307.     /mirrors/unix-c/utils/phoneme.c
  1308.  
  1309.  
  1310. Package: Text to phoneme program (3)
  1311. Description: A public domain version of the same Naval Research Lab 
  1312.     text to phoneme rules.
  1313. Availability: By anonymous ftp from
  1314.     svr-ftp.eng.cam.ac.uk:comp.speech/sources/english2phoneme.shar
  1315.  
  1316.  
  1317. Package: Text to speech program
  1318. Description: A implementation of the Klatt phoneme to waveform speech 
  1319.     synthesiser.
  1320. Availability: By anonymous ftp from
  1321.     svr-ftp.eng.cam.ac.uk:comp.speech/sources/klatt-0.02.tar.Z
  1322.  
  1323.  
  1324. Package:      "Speak" - a Text to Speech Program
  1325. Platform:     Sun SPARC
  1326. Description:  Text to speech program based on concatenation of pre-recorded
  1327.     speech segments.  A function library can be used to integrate
  1328.     speech output into other code.
  1329. Hardware:     SPARC audio I/O
  1330. Availability: by FTP from "wilma.cs.brown.edu" as /pub/speak.tar.Z
  1331.  
  1332.  
  1333. Package:      TheBigMouth - a Text to Speech Program
  1334. Platform:     NeXT
  1335. Description:  Text to speech program based on concatenation of pre-recorded
  1336.     speech segments.  NeXT equivalent of "Speak" for Suns.
  1337. Availability: try NeXT archive sites such as sonata.cc.purdue.edu.
  1338.  
  1339.  
  1340. Package:  TextToSpeech Kit
  1341. Platform:  NeXT Computers
  1342. Description: The TextToSpeech Kit does unrestricted conversion of English 
  1343.     text to synthesized speech in real-time.  The user has control over
  1344.     speaking rate, median pitch, stereo balance, volume, and intonation
  1345.     type.  Text of any length can be spoken, and messages can be queued 
  1346.     up, from multiple applications if desired.  Real-time controls such 
  1347.     as pause, continue, and erase are included.  Pronunciations are 
  1348.     derived primarily by dictionary look-up.  The Main Dictionary has 
  1349.     nearly 100,000 hand-edited pronunciations which can be supplemented 
  1350.     or overridden with the User and Application dictionaries.  A number 
  1351.     parser handles numbers in any form.  A letter-to-sound knowledge base 
  1352.     provides pronunciations for words not in the Main or customized 
  1353.     dictionaries.  Dictionary search order is under user control.  
  1354.     Special modes of text input are available for spelling and emphasis 
  1355.     of words or phrases.  The actual conversion of text to speech is done 
  1356.     by the TextToSpeech Server.  The Server runs as an independent task 
  1357.     in the background, and can handle up to 50 client connections.
  1358. Misc: The TextToSpeech Kit comes in two packages: the Developer Kit and the
  1359.     User Kit.  The Developer Kit enables developers to build and test
  1360.     applications which incorporate text-to-speech.  It includes the
  1361.     TextToSpeech Server, the TextToSpeech Object, the pronunciation 
  1362.     editor PrEditor, several example applications, phonetic fonts, 
  1363.     example source code, and developer documentation.  The User Kit 
  1364.     provides support for applications which incorporate text-to-speech.  
  1365.     It is a subset of the Developer Kit.
  1366. Hardware:  Uses standard NeXT Computer hardware.
  1367. Cost:  TextToSpeech User Kit:  $175 CDN ($145 US)
  1368.        TextToSpeech Developer Kit:  $350 CDN ($290 US)
  1369.        Upgrade from User to Developer Kit:  $175 CDN ($145 US)
  1370. Availability:  Trillium Sound Research
  1371.     1500, 112 - 4th Ave. S.W., Calgary, Alberta, Canada, T2P 0H3
  1372.     Tel: (403) 284-9278    Fax:  (403) 282-6778
  1373.     Order Desk:  1-800-L-ORATOR (US and Canada only)
  1374.     Email:  manzara@cpsc.UCalgary.CA
  1375.  
  1376.  
  1377. Package:     SENSYN speech synthesizer
  1378. Platform:    PC, Mac, Sun, and NeXt
  1379. Rough Cost:  $300
  1380. Description: This formant synthesizer produces speech waveform files
  1381.     based on the (Klatt) KLSYN88 synthesizer.  It is intended
  1382.         for laboratory and research use.  Note that this is NOT a
  1383.     text-to-speech synthesizer, but creates speech sounds based
  1384.     upon a large number of input variables (formant frequencies,
  1385.     bandwidths, glottal pulse characteristics, etc.) and would
  1386.     be used as part of a TTS system. Includes full source code.
  1387. Availability: Sensimetrics Corporation, 64 Sidney Street, Cambridge MA 02139.
  1388.     Fax: (617) 225-0470; Tel: (617) 225-2442.
  1389.     Email: sensimetrics@sens.com
  1390.  
  1391.  
  1392. Package:     SPCHSYN.EXE
  1393. Platform:    PC?
  1394. Availability: By anonymous ftp from evans.ee.adfa.oz.au (131.236.30.24)
  1395.     in /mirrors/tibbs/Applications/SPCHSYN.EXE
  1396.     It is a self extracting DOS archive.
  1397. Requirements: May require special TI product(s), but all source is there.
  1398.  
  1399.  
  1400. Package:      CSRE: Canadian Speech Research Environment
  1401. Platform:     PC
  1402. Cost:         Distributed on a cost recovery basis
  1403. Description:  CSRE is a software system which includes in addition to the 
  1404.     Klatt speech synthesizer, SPEECH ANALYSIS and EXPERIMENT CONTROL 
  1405.     SYSTEM. A paper about the whole package can be found in:
  1406.       Jamieson D.G. et al, "CSRE: A Speech Research Environment", Proc. 
  1407.       of the Second Intl. Conf. on Spoken Language Processing, Edmonton: 
  1408.       University of Alberta, pp. 1127-1130.
  1409. Hardware:     Can use a range of data aqcuisition/DSP
  1410. Availability: For more information about the availability of this software 
  1411.     contact Krystyna Marciniak - email march@uwovax.uwo.ca
  1412.     Tel (519) 661-3901  Fax (519) 661-3805.
  1413.     For technical information email ramji@uwovax.uwo.ca
  1414. Note: A more detailed description is given in Q1.8 on speech environments.
  1415.  
  1416.  
  1417. Package:      JSRU
  1418. Platform:     UNIX and PC
  1419. Cost:         100 pounds sterling (from academic institutions and industry)
  1420. Description:  A C version of the JSRU system, Version 2.3 is available.
  1421.     It's written in Turbo C but runs on most Unix systems with very
  1422.     little modification.  A Form of Agreement must be signed to say 
  1423.     that the software is required for research and development only.
  1424. Contact:      Dr. E.Lewis (eric.lewis@uk.ac.bristol)
  1425.  
  1426.  
  1427. Package:      Klatt-style synthesiser
  1428. Platform:     Unix
  1429. Cost:         FREE
  1430. Description:  Software posted to comp.speech in late 1992.
  1431. Availability: By anonymous ftp from the comp.speech archives.
  1432.     Two files are available from the directory "comp.speech/sources".
  1433.     The files are "klatt-cti.tar.Z" and "klatt-jpi.tar.Z".  The first
  1434.     is the original source, the second is a modified version.
  1435.  
  1436.  
  1437. Package:      MacinTalk
  1438. Platform:     Macintosh
  1439. Cost:         Free
  1440. Description:  Formant based speech synthesis.
  1441.     There is also a program called "tex-edit" which apparently
  1442.     can pronounce English sentences reasonably using Macintalk.
  1443. Availability: By anonymous ftp from many archive sites (have a look on
  1444.     archie if you can).  tex-edit is on many of the same sites. Try
  1445.     wuarchive.wustl.edu:/mirrors2/info-mac/Old/card/macintalk.hqx[.Z]
  1446.                                                        /macintalk-stack.hqx[.Z]
  1447.     wuarchive.wustl.edu:/mirrors2/info-mac/app/tex-edit-15.hqx
  1448.  
  1449.  
  1450. Package: Tinytalk
  1451. Platform: PC
  1452. Description: Shareware package is a speech 'screen reader' which is use 
  1453.     by many blind users.
  1454. Availability: By anonymous ftp from handicap.shel.isc-br.com.
  1455.     Get the files /speech/ttexe145.zip & /speech/ttdoc145.zip.
  1456.  
  1457.  
  1458. Package:     Narrator - narrator.device
  1459. Platform:    Amiga
  1460. Description: Formant based speech synthesis. Includes a Engish-to-phoneme
  1461.              translation library, and a SPEAK: pseudo-device for speech
  1462.              output.
  1463. Hardware:    Standard Amiga hardware
  1464. Availability: Part of AmigaOS
  1465.  
  1466.  
  1467. Package: Bliss
  1468. Contact: Dr. John Merus (Brown University) Mertus@browncog.bitnet
  1469.  
  1470.  
  1471. Package:      xxx
  1472. Platform:     (PC, Mac, Sun, NeXt etc)
  1473. Rough Cost:   (if appropriate)
  1474. Description:  (keep it brief)
  1475. Hardware:     (requirement list)
  1476. Availability: (ftp info, email contact or company contact)
  1477.  
  1478.  
  1479.  
  1480.  
  1481.  
  1482. Can anyone provide information on the following:
  1483.  
  1484.     MultiVoice
  1485.     Monolog
  1486.  
  1487.  
  1488. Please email or post suitable information for this list.  Commercial,
  1489. public domain and research packages are all appropriate.  
  1490.  
  1491. [Perhaps someone would like to start a separate posting on this area.]
  1492.  
  1493.  
  1494. =======================================================================
  1495.  
  1496. PART 5 - Speech Recognition
  1497.  
  1498. Q5.1: What is speech recognition?
  1499.  
  1500. Automatic speech recognition is the process by which a computer maps an 
  1501. acoustic speech signal to text.
  1502.  
  1503. Automatic speech understanding is the process by which a computer maps an 
  1504. acoustic speech signal to some form of abstract meaning of the speech.
  1505.  
  1506. ------------------------------------------------------------------------
  1507.  
  1508. Q5.2: How can I build a very simple speech recogniser?
  1509.  
  1510. Doug Danforth provides a detailed account in article 253 in the comp.speech
  1511. archives - also available as file info/DIY_Speech_Recognition.
  1512.  
  1513. The first part is reproduced here.
  1514.  
  1515.   QUICKY RECOGNIZER sketch:
  1516.   
  1517.   Here is a simple recognizer that should give you 85%+ recognition
  1518.   accuracy.  The accuracy is a function of WHAT words you have in
  1519.   your vocabulary.  Long distinct words are easy.  Short similar
  1520.   words are hard.  You can get 98+% on the digits with this recognizer.
  1521.   
  1522.   Overview:
  1523.   (1) Find the begining and end of the utterance.
  1524.   (2) Filter the raw signal into frequency bands.
  1525.   (3) Cut the utterance into a fixed number of segments.
  1526.   (4) Average data for each band in each segment.
  1527.   (5) Store this pattern with its name.
  1528.   (6) Collect training set of about 3 repetitions of each pattern (word).
  1529.   (7) Recognize unknown by comparing its pattern against all patterns
  1530.       in the training set and returning the name of the pattern closest
  1531.       to the unknown.
  1532.  
  1533. Many variations upon the theme can be made to improve the performance.
  1534. Try different filtering of the raw signal and different processing methods.
  1535.  
  1536. ------------------------------------------------------------------------
  1537.  
  1538. Q5.2: What does speaker dependent/adaptive/independent mean?
  1539.  
  1540. A speaker dependent system is developed (trained) to operate for a single
  1541. speaker.  These systems are usually easier to develop, cheaper to buy and
  1542. more accurate, but are not as flexible as speaker adaptive or speaker
  1543. independent systems.
  1544.  
  1545. A speaker independent system is developed (trained) to operate for any
  1546. speaker or speakers of a particular type (e.g. male/female, American/English).
  1547. These systems are the most difficult to develop, most expensive and currently
  1548. accuracy is not as good.  They are the most flexible.
  1549.  
  1550. A speaker adaptive system is developed to adapt its operation for new 
  1551. speakers that it encounters usually based on a general model of speaker
  1552. characteristics.  It lies somewhere between speaker independent and speaker 
  1553. dependent systems.
  1554.  
  1555. Each type of system is suited to different applications and domains.
  1556.  
  1557. ------------------------------------------------------------------------
  1558.  
  1559. Q5.3: What does small/medium/large/very-large vocabulary mean?
  1560.  
  1561. The size of vocabulary of a speech recognition system affects the complexity,
  1562. processing requirements and the accuracy of the system.  Some applications
  1563. only require a few words (e.g. numbers only), others require very large 
  1564. dictionaries (e.g. dictation machines).
  1565.  
  1566. There are no established definitions but the following may be a helpful guide.
  1567.  
  1568.     small vocabulary - tens of words
  1569.     medium vocabulary - hundreds of words
  1570.     large vocabulary - thousands of words
  1571.     very-large vocabulary - tens of thousands of words.
  1572.  
  1573. ------------------------------------------------------------------------
  1574.  
  1575. Q5.4: What does continuous speech or isolated-word mean?
  1576.  
  1577. An isolated-word system operates on single words at a time - requiring a 
  1578. pause between saying each word.  This is the simplest form of recognition 
  1579. to perform, because the pronunciation of the words tends not affect each 
  1580. other.  Because the occurrences of each particular word are similar they are 
  1581. easier to recognise.
  1582.  
  1583. A continuous speech system operates on speech in which words are connected
  1584. together, i.e. not separated by pauses.  Continuous speech is more difficult
  1585. to handle because of a variety of effects.  First, it is difficult to find
  1586. the start and end points of words.  Another problem is "coarticulation".
  1587. The production of each phoneme is affected by the production of surrounding
  1588. phonemes, and similarly the the start and end of words are affected by the 
  1589. preceding and following words.  The recognition of continuous speech is also 
  1590. affected by the rate of speech (fast speech tends to be harder).
  1591.  
  1592. ------------------------------------------------------------------------
  1593.  
  1594. Q5.5: How is speech recognition done?
  1595.  
  1596. A wide variety of techniques are used to perform speech recognition. 
  1597. There are many types of speech recognition.  There are many levels of
  1598. speech recognition/processing/understanding.
  1599.  
  1600. Typically speech recognition starts with the digital sampling of speech.
  1601. The next stage would be acoustic signal processing.  Common techniques 
  1602. include a variety of spectral analyses, LPC analysis, the cepstral transform,
  1603. cochlea modelling and many, many more.
  1604.  
  1605. The next stage will typically try to recognise phonemes, groups of phonemes 
  1606. or words.  This stage can be achieved by many processes such as DTW (Dynamic
  1607. Time Warping),  HMM (hidden Markov modelling), NNs (Neural Networks), and
  1608. sometimes expert systems.  In crude terms, all these processes to recognise
  1609. the patterns of speech.  The most advanced systems are statistically 
  1610. motivated.
  1611.  
  1612. Some systems utilise knowledge of grammar to help with the recognition 
  1613. process.
  1614.  
  1615. Some systems attempt to utilise prosody (pitch, stress, rhythm etc) to
  1616. process the speech input.
  1617.  
  1618. Some systems try to "understand" speech.  That is, they try to convert the
  1619. words into a representation of what the speaker intended to mean or achieve
  1620. by what they said.
  1621.  
  1622. ------------------------------------------------------------------------
  1623.  
  1624. Q5.6: What are some good references/books on recognition?
  1625.  
  1626. Some general introduction books on speech recognition:
  1627.  
  1628.    Fundamentals of Speech Recognition; Lawrence Rabiner & Biing-Hwang Juang
  1629.    Englewood Cliffs NJ: PTR Prentice Hall (Signal Processing Series), c1993
  1630.    ISBN 0-13-015157-2
  1631.  
  1632.    Speech recognition by machine; W.A. Ainsworth
  1633.    London: Peregrinus for the Institution of Electrical Engineers, c1988
  1634.  
  1635.    Speech synthesis and recognition; J.N. Holmes
  1636.    Wokingham: Van Nostrand Reinhold, c1988
  1637.  
  1638.    Douglas O'Shaughnessy -- Speech Communication: Human and Machine
  1639.    Addison Wesley series in Electrical Engineering: Digital Signal Processing,
  1640.    1987.
  1641.  
  1642.    Electronic speech recognition: techniques, technology and applications
  1643.    edited by Geoff Bristow,  London: Collins, 1986
  1644.  
  1645.    Readings in Speech Recognition; edited by Alex Waibel & Kai-Fu Lee.
  1646.    San Mateo: Morgan Kaufmann, c1990
  1647.  
  1648. More specific books/articles:
  1649.  
  1650.    Hidden Markov models for speech recognition; X.D. Huang, Y. Ariki, M.A. Jack.
  1651.    Edinburgh: Edinburgh University Press, c1990
  1652.  
  1653.    Automatic speech recognition: the development of the SPHINX system;
  1654.    by Kai-Fu Lee; Boston; London: Kluwer Academic, c1989
  1655.  
  1656.    Prosody and speech recognition; Alex Waibel
  1657.    (Pitman: London) (Morgan Kaufmann: San Mateo, Calif) 1988
  1658.  
  1659.    S. E. Levinson, L. R. Rabiner and M. M. Sondhi, "An Introduction to the 
  1660.    Application of the Theory of Probabilistic Functions of a Markov Process 
  1661.    to Automatic Speech Recognition" in Bell Syst. Tech. Jnl. v62(4),
  1662.    pp1035--1074, April 1983
  1663.  
  1664.    R. P. Lippmann, "Review of Neural Networks for Speech Recognition", in
  1665.    Neural Computation, v1(1), pp 1-38, 1989.
  1666.  
  1667. ------------------------------------------------------------------------
  1668.  
  1669. Q5.7: What speech recognition packages are available?
  1670.  
  1671. Package Name: Votan
  1672. Platform: MS-DOS, SCO UNIX
  1673. Description: Isolated word and continuous speech modes, speaker dependant
  1674.     and (limited) speaker independent.  Vocab size is 255 words or up to a 
  1675.     fixed memory limit - but it is possible to dynamically load different 
  1676.     words for effectively unlimited number of words.
  1677. Rough Cost: Approx US $1,000-$1,500
  1678. Requirements: Cost includes one Votan Voice Recognition ISA-bus board
  1679.     for 386/486-based machines.  A software development system is also 
  1680.     available for DOS and Unix.
  1681. Misc:    Up to 8 Votan boards may co-exist for 8 simultaneous voice users. 
  1682.     A telephone interface is also available. There is also a 4GL and a 
  1683.     software development system.
  1684.     Apparently there is more than  one version - more info required.
  1685. Contact: 800-877-4756, 510-426-5600
  1686.  
  1687.  
  1688. Package: HTK (HMM Toolkit) - From Entropic
  1689. Platform: Range of Unix platforms.
  1690. Description: HTK is a software toolkit for building continuous density HMM
  1691.     based speech recognisers.  It consists of a number of library 
  1692.     modules and a number of tools.  Functions include speech analysis, 
  1693.     training tools, recognition tools, results analysis, and an 
  1694.     interactive tool for speech labelling. Many standard forms of 
  1695.     continuous density HMM are possible.  Can perform isolated word or 
  1696.     connected word speech recognition.  It van model whole words, sub-
  1697.     word units.  Can perform speaker verification and other pattern 
  1698.     recognition work using HMMs.  HTK is now integerated with the
  1699.     ESPS/Waves speech research environment which is described in
  1700.     Section 1.8 of this posting.
  1701. Misc: The availability of HTK changed in early 1993 when Entropic obtained
  1702.     exclusive marketing rights to HTK from the developers at Cambridge.
  1703. Cost: On request.
  1704. Contact: Entropic Research Laboratory, Washington Research Laboratory,
  1705.     600 Pennsylvania Ave, S.E. Suite 202, Washington, D.C. 20003
  1706.     (202) 547-1420.  email - info@wrl.epi.com
  1707.  
  1708.  
  1709. Package Name: DragonDictate-30K
  1710. Platform:     PC
  1711. Description:  Speaker dependent/adaptive system requiring words to be
  1712.     separated by short pauses.  Vocabulary of 25,000 words including
  1713.     a "custom" word set.
  1714. Rough Cost:   $5000
  1715. Requirements: Minimum of 20 Mhz 386 with 8M memory and 10M disk space
  1716. Contact:      Dragon Systems Inc.
  1717.     90 Bridge Street, Newton MA 02158
  1718.         Tel: 1-617-965-5200,  Fax: 1-617-527-0372
  1719.  
  1720.  
  1721. Product Name:    IN3 Voice Command for Windows
  1722. Platform:    PC with Windows 3.1
  1723. Description:    IN3 is now available for MS-Windows.  Users can call 
  1724.     applications to the foreground with voice commands.  Once the 
  1725.     application is called, the user may enter commands and data with 
  1726.     voice commands.  Voice macros can reduce the strain of repetitive 
  1727.     stress injuries (RSI) such as Carpel Tunnel Syndrome (CTS) by 
  1728.     replacing heavy repetitive keyboard hammering with simple voice 
  1729.     operations.  Voice macros take complex operations and reduce them 
  1730.     to simple verbal commands.  Voice input can provide new facilities
  1731.     for tasks which could not easily have been otherwise performed 
  1732.     without the multiple axis of input.  IN3 is hardware-independent, 
  1733.     users with any Windows-compatible audio add speech recognition to 
  1734.     the desktop.  IN3 works with either 8 bit or 16 bit Windows audio 
  1735.     boards. IN3 is based on continuous word-spotting technology.  A 
  1736.     developer API is also available for creating voice-enabled 
  1737.     applications.
  1738. Price: $179 U.S.
  1739. Requirements:    PC with 80386 processor or better, Microsoft Windows 3.1, and
  1740.         Windows compatible audio system with microphone.
  1741. Misc:    Fully functional demos are available on Compuserve in various
  1742.     Multimedia and CAD forums.  Demos are also available from "America
  1743.     on Line", the comp.binaries.ms-windows archive sites, and various
  1744.     BBS systems.
  1745.     An equivilant Sun product is described below.
  1746. Contact: Brantley Kelly
  1747.      Email: cbk@gacc.atl.ga.us   CIS: 75120,431
  1748.      FAX: 1-404-925-7924         Phone: 1-404-925-7950
  1749.      Command Corp. Inc, 3675 Crestwood Parkway, Duluth GA 30136, USA
  1750.  
  1751.  
  1752.  
  1753. Product Name:    IN3 Voice Command
  1754. Platform:    Sun SPARCstation
  1755. Description:    IN3 provides a secure, robust, word spotting, continuous 
  1756.     speech recognition facility for the Sun OS or Solaris operating 
  1757.     systems.  The recognition system is a secure operating system
  1758.     facility capable of working with various interfaces, microphones, 
  1759.     and devices.  The operating system interface works with native UNIX
  1760.     outside of X Windows as well as provides enhanced X Windows facilities
  1761.     including named window support.  The user interface provides a
  1762.     means to quickly create commands on the fly for replacing long strings
  1763.     and complex operations with voice macros.  [Voice macros can reduce
  1764.     the strain of repetitive stress injuries (RSI) such as Carpel Tunnel
  1765.     Syndrome (CTS) by replacing heavy repetitive keyboard hammering with
  1766.     simple voice operations.  ]
  1767.     The IN3 user interface works with generic X servers and window 
  1768.     managers.  A developer API is also available for creating voice-
  1769.     enabled applications, interfacing with other audio sources, and 
  1770.     providing extensive application control over the recognition facility.
  1771. Availability: SunSite archive at SunSITE.unc.edu as well as on Catalyst
  1772.     CDware as both a runable demo and unlockable software.
  1773. Hardware Required: Sun SPARCstation with audio input.
  1774.     Noise canceling microphone recommended but not required.
  1775. Software Required:    Sun OS 4.1.2 with OpenWindows 3.0 or
  1776.             Sun OS 4.1.3 or
  1777.             Solaris 2.1 or Solaris 2.2
  1778. Misc:    An equivilant MS-Windows product is described above.
  1779. Price: $495 U.S.
  1780. Contact: Brantley Kelly
  1781.     Email: cbk@gacc.atl.ga.us   CIS: 75120,431
  1782.     FAX: 1-404-925-7924         Phone: 1-404-925-7950
  1783.     Command Corp. Inc, 3675 Crestwood Parkway, Duluth GA 30136, USA
  1784.  
  1785.  
  1786. Package Name: SayIt
  1787. Platform:     Sun SPARCstation
  1788. Description:  Voice recognition and macro building package for Suns
  1789.     in the Openwindows 3.0 environment.  Speaker dependent discrete speech 
  1790.     recognition. Vocabularies can be associated to applications and the
  1791.     active vocabulary follows the application that has input focus.
  1792.     Macros can include mouse commands, keystrokes, Unix commands, 
  1793.     sound, Openwindow actions and more.  
  1794.     An evaluation copy is available by email.
  1795. Hardware:     Microphone required (SunMicrophone is fine).
  1796. Cost:         $US295
  1797. Contact:      Phone: 1-800-245-UNIX or 1-415-572-0200
  1798.     Fax: 1-415-572-1300
  1799.     Email: info@qualix.com
  1800.  
  1801.  
  1802. Package Name: recnet
  1803. Platform:     UNIX
  1804. Description:  Speech recognition for the speaker independent TIMIT and 
  1805.     Resource Management tasks.  It uses recurrent networks to estimate 
  1806.     phone probabilities and Markov models to find the most probable 
  1807.     sequence of phones or words.  The system is a snapshot of evolving 
  1808.     research code.  There is no documentation other than published 
  1809.     research papers.  The components are:
  1810.     1. A preprocessor which implements many standard and many non-
  1811.     standard front end processing techniques.
  1812.     2. A recurrent net recogniser and parameter files
  1813.     3. Two Markov model based recognisers, one for phone recognition 
  1814.     and one for word recognition
  1815.     4. A dynamic programming scoring package
  1816.     The complete system performs competatively.
  1817. Cost:         Free
  1818. Requirements: TIMIT and Resource Management databases
  1819. Contact:      ajr@eng.cam.ac.uk (Tony Robinson)
  1820. Availability: by FTP from "svr-ftp.eng.cam.ac.uk" as /misc/recnet-1.3.tar.Z
  1821.  
  1822.  
  1823. Package Name: Voice Command Line Interface
  1824. Platform:     Amiga
  1825. Description:  VCLI will execute CLI commands, ARexx commands, or ARexx 
  1826.     scripts by voice command through your audio digitizer. VCLI allows 
  1827.     you to launch multiple applications or control any program with an 
  1828.     ARexx capability entirely by spoken voice command. VCLI is fully 
  1829.     multitasking and will run in the background, continuously listening
  1830.     for your voice commands even while other programs are running.
  1831.     Documentation is provided in AmigaGuide format.
  1832.     VCLI 6.0 runs under either Amiga DOS 2.0 or 3.0.
  1833. Cost:         Free?
  1834. Requirements: Supports the DSS8, PerfectSound 3, Sound Master, Sound Magic, 
  1835.     and Generic audio digitizers.
  1836. Availability: by ftp from wuarchive.wustl.edu in the file
  1837.     systems/amiga/incoming/audio/VCLI60.lha and from
  1838.     amiga.physik.unizh.ch as the file pub/aminet/util/misc/VCLI60.lha
  1839. Contact:      Author's email is RHorne@cup.portal.com
  1840.  
  1841.  
  1842. Package Name: DATAVOX - French
  1843. Platform:     PC
  1844. Description:  Continuous speech - speaker independent or dependent.
  1845. Rough Cost:   ?
  1846. Requirements: 2 PC format boards (RdF1000 and TdS 96/25) and an 
  1847.     A/D - D/A module (ASA116)
  1848. Misc:    Application software may dialog with DATAVOX through 2 types 
  1849.     of interfaces :
  1850.     1) Keyboard overlay
  1851.        The application software may be used with any PC compatible 
  1852.        package. No specific adaptation is necessary, you only need
  1853.        to define your configuration with the application software.
  1854.     2) C library
  1855.        Allows a user-written program to drive the recognition system.
  1856.     DATAVOX is based on the AMADEUS speech recognition software
  1857.     developed at LIMSI.  It provides 
  1858.     - Continuous speech recognition with
  1859.       * speaker dependant : 500 words
  1860.       * speaker independant : 50 words (custom-made vocabulary).
  1861.     - Grammar of the application language (syntax acquisition, 
  1862.       verification and simplification software).
  1863.     - Large vocabulary : DATAVOX can recognize vocabularies of several 
  1864.       thousand words as long as there are no more than 500 words in the 
  1865.       active vocabulary at any given node. It takes less than 1 second 
  1866.       to change syntax and vocabulary.
  1867.     - Training controlled by the system (use of co-articulation models).
  1868.     - Response time less than 500 ms for any phrase length.
  1869.     - Synthetis (ADPCM) can be heard simultaneously while recognition 
  1870.       is being carried out.
  1871. Contact: VECSYS, Le Chene rond, 91570 Bievres, France
  1872.      Fax:   33 1 69 41 24 30
  1873.      Voice: 33 1 69 41 15 04
  1874.  
  1875.  
  1876.  
  1877. Package Name: xxx
  1878. Platform:     PC, Mac, UNIX, Amiga ....
  1879. Description:  (e.g. isolated word, speaker independent...)
  1880. Rough Cost:   (if applicable)
  1881. Requirements: (hardware/software needs - if applicable)
  1882. Misc:
  1883. Contact:      (email, ftp or address)
  1884.  
  1885.  
  1886. Can anyone provide info on
  1887.  
  1888.     Verbex Listen for Windows
  1889.     Voice Navigator (from Articulate Systems)
  1890.     IN3 Voice Command
  1891.  
  1892.  
  1893. Can you provide information on any other software/hardware/packages?
  1894. Commercial, public domain and research packages are all appropriate.
  1895.  
  1896. [There should be enough info for someone to start a separate posting.]
  1897.  
  1898.  
  1899. =======================================================================
  1900.  
  1901. PART 6 - Natural Language Processing
  1902.  
  1903. There is now a newsgroup specifically for Natural Language Processing.
  1904. It is called comp.ai.nat-lang.  
  1905.  
  1906. There is also a lot of useful information on Natural Language Processing 
  1907. in the FAQ for comp.ai.  That FAQ lists available software and useful 
  1908. references.  It includes a substantial list of software, documentation 
  1909. and other info available by ftp.
  1910.  
  1911. ------------------------------------------------------------------------
  1912.  
  1913. Q6.1: What are some good references/books on NLP?
  1914.  
  1915.  
  1916. Take a look at the FAQ for the "comp.ai" newsgroup as it also includes some 
  1917. useful references.
  1918.  
  1919.  
  1920.   James Allen: Natural Language Understanding. (Benjamin/Cummings Series in
  1921.   Computer Science) Menlo Park: Benjamin/Cummings Publishing Company, 1987.
  1922.  
  1923.     This book consists of four parts: syntactic processing, semantic
  1924.     interpretation, context and world knowledge, and response generation.
  1925.  
  1926.   G. Gazdar and C. Mellish, Natural Language Processing in {Prolog/Lisp/Pop11},
  1927.   Addison Wesley, 1989
  1928.  
  1929.     Emphasis on parsing, especially unification-based parsing, lots of 
  1930.     details on the lexicon, feature propagation, etc. Fair coverage of 
  1931.     semantic interpretation, inference in natural language processing, 
  1932.     and pragmatics; much less extensive than in Allen's book, but more
  1933.     formal.  There are three versions, one for each programming language 
  1934.     listed above, with complete code.
  1935.  
  1936.   Shapiro, Stuart C.: Encyclopedia of Artificial Intelligence Vol.1 and 2.
  1937.   New York: John Wiley & Sons, 1990.
  1938.  
  1939.     There are articles on the different areas of natural language
  1940.     processing which also give additional references.
  1941.  
  1942.   Paris, Ce'cile L.; Swartout, William R.; Mann, William C.: Natural Language
  1943.   Generation in Artificial Intelligence and Computational Linguistics. Boston:
  1944.   Kluwer Academic Publishers, 1991.
  1945.  
  1946.     The book describes the most current research developments in natural 
  1947.     language generation and all aspects of the generation process are
  1948.     discussed. The book is comprised of three sections: one on text
  1949.     planning, one on lexical choice, and one on grammar.
  1950.  
  1951.    Readings in Natural Language Processing, ed by B. Grosz, K. Sparck Jones
  1952.    and B. Webber, Morgan Kaufmann, 1986
  1953.  
  1954.     A collection of classic papers on Natural Language Processing.  
  1955.         Fairly complete at the time the book came out (1986) but now 
  1956.     seriously out of date. Still useful for ATN's, etc.
  1957.  
  1958.    Klaus K. Obermeier, Natural Language Processing Technologies
  1959.    in Artificial Intelligence: The Science and Industry Perspective,
  1960.    Ellis Horwood Ltd, John Wiley & Sons, Chichester, England, 1989.
  1961.  
  1962.  
  1963. The major journals of the field are "Computational Linguistics" and 
  1964. "Cognitive Science" for the artificial intelligence aspects, "Cognition" 
  1965. for the psychological aspects, "Language", "Linguistics and Philosophy" and 
  1966. "Linguistic Inquiry" for the linguistic aspects.  "Artificial Intelligence" 
  1967. occasionally has papers on natural language processing.
  1968.  
  1969.  
  1970. The major conferences are ACL (held every year) and COLING (held every two
  1971. years).  Most AI conferences have a NLP track; AAAI, ECAI, IJCAI and the
  1972. Cognitive Science Society conferences usually are the most interesting for 
  1973. NLP.  CUNY is an important psycholinguistic conference. There are lots of 
  1974. linguistic conferences: the most important seem to be NELS, the conference 
  1975. of the Chicago Linguistic Society (CLS), WCCFL, LSA, the Amsterdam Colloquium,
  1976. and SALT. 
  1977.  
  1978.  
  1979. ------------------------------------------------------------------------
  1980.  
  1981. Q6.2: What NLP software is available?
  1982.  
  1983. The FAQ for the "comp.ai" newsgroup lists a variety of language processing 
  1984. software that is available.  That FAQ is posted monthly.
  1985.  
  1986. Natural Language Software Registry
  1987.  
  1988. The Natural Language Software Registry is available from the German Research 
  1989. Institute for Artificial Intelligence (DFKI) in Saarbrucken.
  1990.  
  1991. The current version details 
  1992.  + speech signal processors, e.g. Computerized Speech Lab (Kay Electronics)
  1993.  + morphological analyzers, e.g. PC-KIMMO (Summer Institute for Linguistics)
  1994.  + parsers, e.g. Alveytools (University of Edinburgh)
  1995.  + knowledge representation systems, e.g. Rhet (University of Rochester)
  1996.  + multicomponent systems, such as ELU (ISSCO), PENMAN (ISI), Pundit (UNISYS),
  1997.         SNePS (SUNY Buffalo),
  1998.  + applications programs (misc.)
  1999.  
  2000. This document is available on-line via anonymous ftp to 
  2001.     Site: ftp.dfki.uni-sb.de 
  2002.     Directory: /registry 
  2003. or by email to registry@dfki.uni-sb.de.
  2004.  
  2005. If you have developed a piece of software for natural language processing 
  2006. that other researchers might find useful, you can include it by returning 
  2007. a description form, available from the same source.
  2008.  
  2009. Contacts: Christoph Jung, Markus Vonerden 
  2010.         Natural Language Software Registry
  2011.         Deutsches Forschungsinstitut fuer Kuenstliche Intelligenz (DFKI)
  2012.         Stuhlsatzenhausweg 3
  2013.         D-W-6600 Saarbruecken
  2014.         Germany
  2015.  
  2016.         phone: +49 (681) 303-5282
  2017.         e-mail: registry@dfki.uni-sb.de
  2018.  
  2019.  
  2020.  
  2021.  
  2022. Andrew Hunt
  2023. Speech Technology Research Group        Ph:  61-2-692 4509
  2024. Dept. of Electrical Engineering            Fax: 61-2-692 3847
  2025. University of Sydney, NSW, 2006, Australia    email: andrewh@ee.su.oz.au
  2026.