home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / comp / speech / 289 < prev    next >
Encoding:
Text File  |  1992-11-23  |  2.7 KB  |  58 lines

  1. Newsgroups: comp.speech
  2. Path: sparky!uunet!europa.asd.contel.com!darwin.sura.net!zaphod.mps.ohio-state.edu!menudo.uh.edu!nuchat!texhrc!texhrc!ak45ldp
  3. From: someone@Texaco.com (Larry D. Pyeatt)
  4. Subject: Re: Phonemic analyzer construction
  5. Message-ID: <1992Nov23.160224.16314@texhrc.uucp>
  6. Sender: news@texhrc.uucp
  7. Nntp-Posting-Host: microvax
  8. Organization: Texaco
  9. References:  <1992Nov23.133836.11680@hubcap.clemson.edu>
  10. Date: Mon, 23 Nov 1992 16:02:24 GMT
  11. Lines: 45
  12.  
  13. In article <1992Nov23.133836.11680@hubcap.clemson.edu>, bdbryan@eng.clemson.edu (Ben Bryant) writes:
  14. |> G'day Sirs,
  15. |> I am thinking about building a connectionist phoneme analyzer, and am interested
  16. |> in finding out some ideas about how to go about designing the "higher-level"
  17. |> classifier which will discriminate among the outputs from several previously
  18. |> trained "subclass instant" neural nets.
  19. |> 
  20. |> Basically, the way this would work is that a suitable NN architecture would
  21. |> be chosen for the "lower-level" signal analysis stage, and instances of this
  22. |> architecture would be trained using TIMIT or some other large database.
  23. |> 
  24. |> The way the training would take place is as follows:
  25. |> 1) first the training tokens for each phonemic subclass would be extracted
  26. |>    from the database.
  27. |> 2) the phoneme tokens for each phonemic subclass extracted in step one would
  28. |>    then be preprocessed with an appropriate feature representation technique.
  29. |> 3) network instances would be trained using the chosen neural network architecture.
  30. |>    A network instance will be trained for each phonemic subclass (i.e., voiced-stops,
  31. |>    unvoiced-stops, diphthongs, vowels, etc.).
  32. |> 4) after training all network instances, the outputs from the trained subnetworks
  33. |>    would "somehow" be arbitrated to provide a decision of which phoneme was uttered
  34. |>    within a given region of signal.
  35. |> 
  36. |> -The "somehow" in step 4) is what I really could use some help with. Any other
  37. |> ideas for this system would be welcome as well. Thank you very much.
  38. |> 
  39. |> Sincerely,
  40. |> -Benjamin Bryant 
  41. |> 
  42. |> 
  43. |> 
  44.  
  45. I would suggest using a BlackBoard system to do the arbitration.
  46. You may want to look at HearSay II for inspiration.  Alternatively,
  47. you could try a connectionist approach to the arbitration problem.
  48. I do not know of anyone who has done previous work with the 
  49. connectionist approach, but would like to hear any ideas.  I have
  50. been thinking about doing something similar to what you have
  51. suggested for my PhD research, which I hope to start next fall.
  52.  
  53. -- 
  54. Larry D. Pyeatt                 The views expressed here are not
  55. Internet : pyeatt@texaco.com    those of my employer or of anyone
  56. Voice    : (713) 975-4056       that I know of with the possible
  57.                                 exception of myself.
  58.