home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #27 / NN_1992_27.iso / spool / sci / virtual / 3806 < prev    next >
Encoding:
Internet Message Format  |  1992-11-23  |  12.7 KB

  1. Path: sparky!uunet!cis.ohio-state.edu!pacific.mps.ohio-state.edu!linac!uwm.edu!ogicse!news.u.washington.edu!stein.u.washington.edu!hlab
  2. From: bkarr@carson.u.washington.edu (Brian Karr)
  3. Newsgroups: sci.virtual-worlds
  4. Subject: Re: SCI: Three dimensional sound?
  5. Message-ID: <1992Nov23.161203.25170@u.washington.edu>
  6. Date: 23 Nov 92 01:19:25 GMT
  7. Article-I.D.: u.1992Nov23.161203.25170
  8. References: <1992Nov19.072149.29598@hitl.washington.edu>
  9. Sender: news@u.washington.edu (USENET News System)
  10. Organization: Human Interface Technology Lab, Seattle
  11. Lines: 251
  12. Approved: cyberoid@milton.u.washington.edu
  13. Originator: hlab@stein.u.washington.edu
  14.  
  15.  
  16.  
  17. In article <1992Nov19.072149.29598@hitl.washington.edu> "Human Int.
  18. Technology" <hlab@milton.u.washington.edu> writes:
  19.  
  20. >From: fsjdj1@acad3.alaska.edu
  21. >Subject: Re: SCI: Three dimensional sound?
  22. >Date: Wed, 18 Nov 1992 20:16:59 GMT
  23. >Organization: University of Alaska Fairbanks
  24. >
  25. >In article <1992Nov16.095935.10365@u.washington.edu>, mcmains@unt.edu (Sean
  26. > McMains) writes:
  27. >>
  28. >> What is the theory behind creating the illusion of a sound emanating
  29. >> from a particular point in three dimensional space? With regard to
  30. >> lateral motion, the amplitude and timing of the sounds entering each
  31. >> ear could obviously be adjusted to create the desired effect. How
  32. >> would one create the illusion of a sound coming from above or below
  33. >> the listener? Or is this effect only possible through adjusting what
  34. >> the listener hears as he moves his head?
  35. >
  36. >  [Mentions articles regarding bi- and multi-directional sound recording.]
  37.  
  38. _-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_
  39.  
  40. Not sure if my postings are the ones you are referring to, but I will repost
  41. the following info as it seems relevant to the question.  Much of it is
  42. recycled, and the rest is related news since those postings.
  43.  
  44. -bk
  45. (Brian Karr)
  46.  
  47. _-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_
  48.  
  49. Here is a quick and dirty explaination of 3D sound filter functions:
  50.  
  51. Most of the cues needed for presenting a spatial audio image, are
  52. embedded in the 'earprint' or HRTF (Head Related Transfer Function).
  53. An HRTF is a description of how the ears of a test subject filter
  54. sound at various points on a sphere, the listener's head being at the
  55. center.  This is derived by placing mics in the ears of the subject
  56. and chirping pseudo- random noise (impulses) at them from the various
  57. directions.  If a Fourier Transform is performed on what is picked up
  58. by the mics, the resulting specra show how the ears and head shape
  59. sounds before they reach the eardrum.  The sampled signals therefore
  60. contain the impulse response (amplitude and phase) of the ear at that
  61. angle.  Phase is implied since the two ears are supposedly sampled
  62. phase-coherently.  The earprint then is an array of these responses
  63. which are used as filter coefficients for shaping the input signal to
  64. be spatialized.  If we wish to hear a sound where there has been no
  65. actual measurement, the nearest resposes are interpolated.
  66.  
  67. To implement a simulation of this, we effectively need two
  68. time-dependent realtime filters for each sound source we wish to
  69. localize.  As a frequency- domain analogy, imagine two graphic
  70. equalizers whose sliders move to new positions whenever we want the
  71. source to appear to move to a new location in space.  Spatial sound
  72. systems use a mathematical version of this called convolution to
  73. filter signals digitally.
  74.  
  75. So the major computation going on is interpolation of coefficient sets
  76. and the convolution of the input signal to be localized with the
  77. appropriate filter responses.
  78.  
  79. That provides a 'free field' spatial display, meaning there are no
  80. environ- ment cues since the earprint is usually derived in an
  81. acoustically insulated booth of some kind.  Also, distance is
  82. simulated by 1/distance-squared attenuation.  For the anechoic models
  83. used here, this may be more like 1/d^.5 since the reverberent energy
  84. is no longer included.  This method is not entirely correct because
  85. the ear tends to normalize volume of sounds that don't have an
  86. intrinsic volume.  To give convincing distance and environment cues, a
  87. reference wall or walls can be placed in the image by manipulating the
  88. earprint (adding the responses of the reflections before convolving).
  89.  
  90. For a far better description of all of this, see:
  91.  
  92. Blauert, Jens, 1983.  _Spatial Hearing: The Psychophysics of Human Sound
  93.         Localization_, Cambridge, MA: MIT Press
  94.  
  95. Lehnert, Hilmar & Blauert, Jens, 1992.  'Aspects of Auralization in 
  96.         Binaural Room Simulation.'  AES Proceedings, 93rd Convention
  97.         October 1-4, 1992.
  98.  
  99. Moller, Heinrik, 1992.  'Fundamentals of Binaural Technology.' _Applied 
  100.         Acoustics_, _36_, pp. 171-218. 
  101.  
  102. Wenzel, Elizabeth M.  'Localization in Virtual Acoustic Displays,'
  103.         _Presence_ 1st issue.
  104.  
  105. Wightman, F.L. & Kistler, D.J. 1989a,b.  'Headphone Simulation of Free-field
  106.         Listening I, II.'  _Journal of the Acoustical Society of America_,
  107.         _85_, 858-878.
  108.  
  109.  
  110. Hope this info helps.
  111.  
  112. -Brian
  113.  
  114. _-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_
  115.  
  116.  
  117. There are a few spatial audio display systems out these days that I am
  118. aware of.  Some use speaker arrays and some use ordinary headphones.
  119.  
  120. There is of course surround sound, which requires a loudspeaker array
  121. and previously encoded material.  Decoders are commonplace today while
  122. encoders are not so ubiquitous and are expensive.  There is also the
  123. 'Ambisonic' system that uses a special 4-element microphone to record
  124. and encode natural sound environments.  This also requires
  125. loudspeakers (4 or 6).  There is also of course quadraphonic sound.
  126. This is used in the headset of the Virtuality arcade games.  They use
  127. two speakers in each ear.  This display gave me a good azimuth
  128. impression, especially with the head tracking, elevation was not so
  129. convincing.
  130.  
  131. Mannequin heads with microphones in the ears have been used to make
  132. binaural recordings for decades.  Recording this way (or with real
  133. folks' heads and tiny mics) gives an excellent 3D impression and can
  134. really sound like you are _there_.
  135.  
  136. The benifit of using headphones and head tracking is that many people
  137. in the same room can have different sonic environments, or cohabitate
  138. the same environment from different perspectives, simultaneously.
  139.  
  140. The AL-100 was developed by the Air Force to take advantage of this.
  141. The AL-100 was a coffin-sized box fitted with a binaural mannequin
  142. head which was spun around in front of a loudspeaker with high-torque
  143. motors.  This way, a sound could be made to travel around the listener
  144. by moving the head appropriately.  Last I heard, this box is still
  145. working.
  146.  
  147. This whole process has since been realized computationally in a number
  148. of excellent systems.  Jens Blauert developed the first system in East
  149. Germany some years back.  This group is now working on a new version
  150. of their 'Binaural Mixing Console,' and are doing some excellent work
  151. with room simulation (localized reflections in addition to the direct
  152. localized source).
  153.  
  154.  
  155. Commercial Systems:
  156.  
  157. There are many systems that I know of available right now.  One is a
  158. MacintoshII-based system called Focal Point (Gehring Inc., Bo Gehring)
  159. that uses a special DSP card (Audiomedia, which has recently been
  160. discontinued by digidesign, alas) for each independently localized
  161. sound.  This can be used with a CDEV interface or a MIDI application
  162. right out of the box, and also comes with a Think C interface to use
  163. in your own apps.  I also saw/heard an early version of this on the
  164. NeXT, but a commercial version is not being persued for the NeXT.
  165.  
  166. This system is also now available for the IBM-PC flavored machine
  167. under the same product name.  Bo tells me that it has the added
  168. benefit that it can alternatively run without the bus.  You simply
  169. give it power and it wakes up spatializing whatever signal is at its
  170. input.  Position commands can then be sent to a serial port built onto
  171. the card.  Handy if you want to skip the PC host.  This card
  172. spatializes two sounds simultaneously and independently.  Focal Point
  173. 3D Audio, Niagra Falls, NY.  Bo Gehring (716) 285-3930.
  174.  
  175. There is also the IBM-PC based Convolvotron (Crystal River
  176. Engineering, Scott Foster) which localizes 4 independent sounds for
  177. each 2-card set.  This system lets you switch 'earprints' (HRTF's) and
  178. comes with a set of earprints, C-programming libraries and sample
  179. programs.  This system also optionally includes a reflection package
  180. which localizes reflections to give an impression of objects (walls)
  181. present in the environment and adds another crutial distance cue.
  182.  
  183. This now has been implemented for the PC on a Turtle Beach DSP card.
  184. CRE is calling this the 'Beachtron.'  This card spatilizes two sounds
  185. simultaneously and independently.  It has a sample-based synthesizer
  186. on the card and a MIDI port (Yes!).  Multiple cards can be cascaded,
  187. which avoids the need for mixing and the cabling plague.  CRE has
  188. developed a protocol and software libraries that let you load your AT
  189. or an AT backplane up with B-trons or C-trons and talk to it as if it
  190. were an audio resource pool.  The code autosenses what is on the bus
  191. and does the right thing.  This makes alot of your code portable
  192. between C-trons and B-trons.  The B-tron, however does not do room
  193. simulations.  This audio resource pool package is called the
  194. 'Acoustetron.'  Crystal River Engineering, Groveland, CA.  Scott
  195. Foster (209) 962-6382.
  196.  
  197. VPL has worked with the CRE crowd to port this to a Mac-based card for
  198. VPL's VR systems.  They are calling this the 'CosmTron,' for their
  199. MicroCosm system.  VPL Research, Foster City, CA. (415) 361-1710.
  200.  
  201. There is also a pro-audio system called the Sound Space processor
  202. (Roland Co., Curtis Chan) which is designed to give a 3D image using
  203. two loudspeakers.  The idea is to compute sounds in their locations as
  204. usual and then compensate for speaker cross-talk before the signal
  205. goes to the speakers (this is called 'transaural processing').  The
  206. result is a sweet spot which is actually a line that is all
  207. equidistant points from both speakers.  Chances are you have probably
  208. already heard this on the radio.  Bob Todrank is now the contact at
  209. Roland for this machine.  RSS processor.  Roland Pro Audio/Video Group
  210. (213) 685-5141.
  211.  
  212. These systems (F.P., A,B,C-tron, RSS) require no decoding and the
  213. signal can be stored on regular audio cassettes (prefferably on DAT,
  214. Hi-Fi VHS or MO.)  Focal Point and the Convolvotron are designed for
  215. headphones, while Roland's box is designed for headphones or speakers.
  216. I heard some interesting 'effects' with speakers, though the spatial
  217. image didn't always come across.
  218.  
  219. There are transaural processors available if you must use loudspeakers
  220. with the personal computer based systems such as F.P. and the
  221. A,B,C-tron.
  222.  
  223. Related stuff:
  224.  
  225. The 'Spatializer,' from Audio Intervisual Design is a system that
  226. produces eight moving sources in azimuth only.  This is not binaural
  227. processing in the sense of filtering with pinna responses but I
  228. thought I would mention it for completeness.  Audio Intervisual
  229. Design. (213) 845-1155.
  230.  
  231. The 'Intelliverb,' from RSP Technologies is an ultra-parameterized
  232. reverb unit.  It can be configured to produce many standard effects
  233. but the room simulation effects are most relevant here.  Variables
  234. include room width, height, and depth, source position, listener
  235. position, reverb ducking (can be used to change room absorbtion).
  236. These parameters can all be controlled with MIDI (i.e. from your VR
  237. code).  These variables affect the 'early reflections' in the
  238. simulation.  The more diffuse late reflections are added in from a
  239. selection of algorithms.  This box stands out from the vast array of
  240. effects processors in my opinion because of the attention to external
  241. control of the right variables in the delay/reverb, and some excellent
  242. audio specs.  The early reflections are not, however, spatialized.
  243. They are intended to be correct in time.  I have found reverb effects
  244. to give an excellent enhancement of presence in VR and this type of
  245. box seems to be a good alternative for completely correct room
  246. simulations until they become real and affordable.  I will post a more
  247. complete reveiw of the box after the holidays.  RSP Technologies,
  248. Rochester Hills, MI.  (313) 853-3055.
  249.  
  250. Any others?  I'm not sure.  It is of course possible to do it with
  251. slow hardware in non-realtime so I wouldn't be suprised if many people
  252. have developed spatial displays.  The critical part of the process is
  253. getting a good earprint.  Much of the work being done today with room
  254. simulation (manipulation impulse responses with raytraced reflections)
  255. is being done done off-line because of the computation needs.
  256.  
  257. _-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_
  258.  
  259. I hope this is helpful to enough folks to justify the bandwidth.
  260.  
  261. -Brian
  262.  
  263. bk@hitl.washington.edu
  264.  
  265. _-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_-_
  266.