home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1993 #3 / NN_1993_3.iso / spool / comp / ai / neuraln / 4974 < prev    next >
Encoding:
Internet Message Format  |  1993-01-25  |  25.8 KB

  1. Path: sparky!uunet!zaphod.mps.ohio-state.edu!pacific.mps.ohio-state.edu!linac!att!ucbvax!cattell.psych.upenn.edu!neuron-request
  2. From: neuron-request@cattell.psych.upenn.edu ("Neuron-Digest Moderator")
  3. Newsgroups: comp.ai.neural-nets
  4. Subject: Neuron Digest V11 #6 (Discussion/Queries + Jobs)
  5. Message-ID: <29138.727974536@cattell.psych.upenn.edu>
  6. Date: 25 Jan 93 15:08:56 GMT
  7. Sender: usenet@ucbvax.BERKELEY.EDU
  8. Reply-To: "Neuron-Request" <neuron-request@cattell.psych.upenn.edu>
  9. Organization: University of Pennsylvania
  10. Lines: 615
  11.  
  12. Neuron Digest    Monday, 25 Jan 1993
  13.         Volume 11 : Issue 6
  14.  
  15. Today's Topics:
  16.          Connectionist Models Summer School 1993
  17.            Degeneracy of weights in networks?
  18.     Biologically Plausible Dynamic Artificial Neural Networks
  19.       Re: Biologically Plausible Dynamic Artificial Neural Networks
  20.       Re: Biologically Plausible Dynamic Artificial Neural Networks
  21.       Re: Biologically Plausible Dynamic Artificial Neural Networks
  22.       Re: Biologically Plausible Dynamic Artificial Neural Networks
  23.               Job Offer - signal processing
  24.            Postdoc in neural signal processing theory
  25.               Computational Biology Postdoc
  26.             Job announcement - Siemens Corp.
  27.            Teaching post at U. Western Ontario
  28.  
  29.  
  30. Send submissions, questions, address maintenance, and requests for old
  31. issues to "neuron-request@cattell.psych.upenn.edu". The ftp archives are
  32. available from cattell.psych.upenn.edu (130.91.68.31). Back issues
  33. requested by mail will eventually be sent, but may take a while.
  34.  
  35. ----------------------------------------------------------------------
  36.  
  37. Subject: Connectionist Models Summer School 1993
  38. From:    nan@central.cis.upenn.edu (Nan Biltz)
  39. Organization: University of Pennsylvania
  40. Date:    15 Dec 92 22:09:59 +0000
  41.  
  42.  
  43.                     CONNECTIONIST MODELS SUMMER SCHOOL
  44.                          University of Colorado
  45.                          June 21 - July 3, 1993   
  46.  
  47. The University of Colorado will host the 1993 Connectionist Models Summer
  48. School from June 21 - July 3, 1993.  The purpose of the summer school is
  49. to provide training to promising young researchers in connectionism
  50. (neural networks) by leaders of the field and to foster interdisciplinary
  51. collaboration.  This will be the fourth such program in a series that was
  52. held at Carnegie Mellon in 1986 and 1988, and at UC San Diego in 1990.
  53. Previous summer schools have been extremely successful and the organizers
  54. look forward to the 1993 session with anticipation of another exciting
  55. event.
  56.  
  57. The summer school will offer courses in many areas of connectionist
  58. modeling, with emphasis on artificial intelligence, cognitive
  59. neuroscience, cognitive science, computational methods, and theoretical
  60. foundations.  Visiting faculty (see list of invited faculty below) will
  61. present daily lectures and tutorials, coordinate informal workshops, and
  62. lead small discussion groups.  The summer school schedule is designed to
  63. allow for significant interaction among students and faculty.  As in
  64. previous years, a proceedings of the summer school will be published.
  65.  
  66. Applications will be considered only from graduate students currently
  67. enrolled in Ph.D. programs.  About 50 students will be accepted.
  68. Admission is on a competitive basis.  Tuition will be covered for all
  69. students, and it is expected that scholarships will be available to
  70. subsidize housing and meal costs, which will run approximately $300.
  71. Applications will be accepted from foreign students, with the caveat that
  72. students are responsible for their own travel expenses.
  73.  
  74. Applications should include the following materials:
  75.  
  76. *  a one-page statement of purpose, explaining major areas of interest and
  77.    prior background in connectionist modeling and neural networks. 
  78.  
  79. *  a vita, including academic history, list of publications (if any), and
  80.    relevant courses taken with instructors' names and grades received. 
  81.  
  82. *  two letters of recommedation from individuals familiar witht the applicant's
  83.    work; and
  84.  
  85. *  if room and board is requested, a statement from the applicant
  86.    describing potential sources of financial support available
  87.    (department, advisor, etc.)  and the estimated extent of need.  It is
  88.    hoped that sufficient scholarship funds will be available to provide
  89.    room and board to all accepted students regardless of financial need.
  90.  
  91. Applications should be sent to:
  92.  
  93.                     Connectionist Models Summer School
  94.                     Institute of Cognitive Science
  95.                     University of Colorado
  96.                     Boulder, CO 80309-0344
  97.  
  98. All application materials must be received by MARCH 1st, 1993.  Decisions
  99. about acceptance and scholarship awards will be announced around April
  100. 15.  If you have further questions, write to the address above or send
  101. electronic mail to: cmss@boulder.colorado.edu.
  102.  
  103. Organizing Committee:
  104.  
  105. Jeff Elman (UC San Diego)
  106. Mike Mozer (Univ of Colorado)
  107. Paul Smolensky (Univ of Colorado)
  108. Dave Touretzky (Carnegie Mellon)
  109. Andreas Weigend (Xerox PARC, Univ of Colorado)
  110.  
  111. Additional Faculty will include:
  112.  
  113. Andy Barto (Univ of Mass, Amherst)
  114. Jack Cowan (Univ of Chicago)
  115. David Haussler (UC Santa Cruz)
  116. Geoff Hinton (Univ of Toronto)
  117. John Kruschke (Indiana Univ)
  118. Steve Nowlan (Salk Institute)
  119. Ennio Mingolla (Boston Univ)
  120. Jay McClelland (Carnegie Mellon)
  121. Dave Plaut (Carnegie Mellon)
  122. Jordan Pollack (Ohio State)
  123. Dave Rumelhart (Stanford)
  124. Terry Sejnowski (UC San Diego and Salk Inst)
  125.  
  126. The Summer School is sponsored in part by the American Association for
  127. Artificial Intelligence and Siemens Research Center. 
  128.  
  129. ------------------------------
  130.  
  131. Subject: Degeneracy of weights in networks?
  132. From:    jjb@watson.ibm.com
  133. Date:    Wed, 30 Dec 92 10:45:37 -0500
  134.  
  135. Ref:  Your append to NEURON DIGEST (FORUMS) at 22:24:23 on 92/12/28
  136.  
  137. (I hope this is the right address to ask question of the
  138. neurons-in-the-know).
  139.  
  140. Before training a homogeneous artificial neural network, the expectation
  141. value for the trainable weights are all identical.  After training,
  142. these weights will assume an organized pattern representing in some
  143. way the information encoded in the network by the training.  Most
  144. of the artificial networks I have seen described are structurally
  145. degenerate: a pattern of three weights 1,2,3 cannot give different
  146. answers from 2,1,3 or 3,2,1.  This degeneracy, a result of the
  147. homogeneity, is not present in bio-nets: they are not homogeneous.
  148.  
  149. Am I wrong about this degeneracy?  Does it not cause grief in numerical
  150. training to "optimal" weights?
  151.  
  152. John.
  153. John J. Barton 29-221       jjb at watson.ibm.com
  154. P.O. Box 218                jjb at yorktown (on BITNET, probably)
  155. IBM TJ Watson Research Center
  156. Yorktown Heights NY 10598
  157. (914) 945-2340       FAX (914)945-2141
  158.  
  159.  
  160. ------------------------------
  161.  
  162. Subject: Biologically Plausible Dynamic Artificial Neural Networks
  163. From:    paulf@manor.demon.co.uk (Paul Fawcett)
  164. Organization: UDI
  165. Date:    05 Jan 93 05:53:57 +0000
  166.  
  167.  
  168.           Biologically  Plausible  Dynamic Artificial Neural Networks.
  169.           -----------------------------------------------------------
  170.  
  171.           A   *Dynamic   Artificial   Neural   Network*   (DANN)   [1]
  172.           possesses   processing  elements  that  are  created  and/or
  173.           annihilated,  either in real time  or  as  some  part  of  a
  174.           development phase [2].
  175.  
  176.           Of    particular    interest    is    the   possibility   of
  177.           constructing   *biologically    plausible*    DANN's    that
  178.           models    developmental   neurobiological   strategies   for
  179.           establishing  and   modifying processing elements and  their
  180.           connections.
  181.  
  182.           Work  with  cellular  automata in modeling cell genesis  and
  183.           cell pattern  formation  could  be applicable to the  design
  184.           of  DANN topologies.  Likewise, biological features that are
  185.           determined by genetic  or  evolutionary  factors  [3]  would
  186.           also have a  role  to play.
  187.  
  188.           Putting  all  this  together  with  a view to constructing a
  189.           working DANN,  possessing cognitive/behavioral attributes of
  190.           a biological system is a tall order; the modeling of nervous
  191.           systems in simple organisms may be the  best  approach  when
  192.           dealing with a problem of such complexity [4].
  193.  
  194.           Any  comments,  opinions  or  references  in respect of  the
  195.           above assertions would be most welcome.
  196.  
  197.  
  198.           Many thanks
  199.  
  200.           Paul Fawcett.
  201.  
  202.           University of Westminster
  203.  
  204.  
  205.           References.
  206.  
  207.           1. Ross, M. D., et al  (1990);  Toward  Modeling  a  Dynamic
  208.              Biological   Neural   Network,  Mathl  Comput.  Modeling,
  209.              Vol 13 No.7, pp97-105.
  210.  
  211.           2. Lee, Tsu-Chang,(1991);  Structure  Level  Adaptation  for
  212.              Artificial  Neural  Networks, Kluwer Academic Publishers.
  213.  
  214.           3. Edleman,  Gerald,(1987);  Neural Darwinism the Theory of
  215.              Neural Group Selection, Basic Books.
  216.  
  217.           4. Beer, Randal, D,(1990); Intelligence as Adaptive Behavior
  218.              :  An   Experiment   in    Computational   Neuroethology.
  219.              Academic  Press.
  220.  
  221. Paul Fawcett                 |      Internet: paulf@manor.demon.co.uk
  222. London, UK.                  |                tenec@westminster.ac.uk
  223.  
  224. ------------------------------
  225.  
  226. Subject: Re: Biologically Plausible Dynamic Artificial Neural Networks
  227. From:    andrick@rhrk.uni-kl.de (Ulf Andrick [Biologie])
  228. Organization: University of Kaiserslautern, Germany
  229. Date:    06 Jan 93 22:41:07 +0000
  230.  
  231. paulf@manor.demon.co.uk (Paul Fawcett) writes:
  232. :           Biologically  Plausible  Dynamic Artificial Neural Networks.
  233. :           -----------------------------------------------------------
  234.  
  235. Biologically Plausible Artificial Neural Network sounds to me a bit like
  236. an oxymoron. I tend to consider any `Artificial Neural Networks' as not
  237. biologically plausible.
  238.  
  239. :           Work  with  cellular  automata in modeling cell genesis  and
  240. :           cell pattern  formation  could  be applicable to the  design
  241. :           of  DANN topologies.  Likewise, biological features that are
  242. :           determined by genetic  or  evolutionary  factors  [3]  would
  243. :           also have a  role  to play.
  244.  
  245.  
  246. Cellular automata? One might feel reminded of the Game of Life, where the
  247. cells change their state of being alive or dead according to the states
  248. of the neighbouring cells. If something like that is suggested, I feel
  249. somewhat skeptical if that is of use. I thought that the main issue of
  250. neurogenesis was the formation of synapses. That means, e. g., how do the
  251. neuronal processes find their way to their targets through a nascent
  252. entanglement of cells (not necessarily neurones, but also glia)? How is
  253. synaptic coupling changed in response to some stimulus? So, are your
  254. `cells' neurones, processes, synapses, or what?
  255.  
  256. But perhaps you meant a concept of a cellular automaton so general that
  257. one might consider the use of the word as nearly meaningless.
  258.  
  259. At least, the point seems to be a little mute to a person with some
  260. half-knowledge about cellular automata and neurogenesis.
  261.  
  262. :           Putting  all  this  together  with  a view to constructing a
  263. :           working DANN,  possessing cognitive/behavioral attributes of
  264. :           a biological system is a tall order; the modeling of nervous
  265. :           systems in simple organisms may be the  best  approach  when
  266. :           dealing with a problem of such complexity [4].
  267.  
  268. There seems to be enough work to be done to simulate `static' Neural
  269. Networks in simple organisms. An interesting question is, e. g., what
  270. role the complex electrophysiological properties of the single neuron
  271. play for the behaviour of the whole network? What are the effects of
  272. neuromodulators? And these questions may also be of relevance in neural
  273. development.
  274.  
  275. Artificial Neural Networks do hardly play any role in that kind of
  276. research, IMVHO, unless they have sophisticated neuronal properties,
  277. which most information scientists never dream of, but I wouldn't call
  278. such a model Artificial Network in order to distinguish it from much more
  279. primitive devices, which might be appropriate to describe spin glasses or
  280. whatever.
  281.  
  282. As you can see, my view is that the Artificial Neural Network research is
  283. an engineering discipline detached from natural paradigmata, just as the
  284. whole AI. (As this is also crossposted to AI groups, I expect to have to
  285. put on my flame-proof suit.)
  286.  
  287. Ulf R. Andrick                                andrick@rhrk.uni-kl.de
  288. FB Biologie - Tierphysiologie
  289. Universitaet                             Was du nicht selber weiszt, 
  290. D-W 6750 Kaiserslautern       das muszt du dir erklaeren (Tegtmeier)
  291.  
  292. ------------------------------
  293.  
  294. Subject: Re: Biologically Plausible Dynamic Artificial Neural Networks
  295. From:    doshay@ursa.arc.nasa.gov (David Doshay)
  296. Organization: NASA-Ames Biocomputation Center
  297. Date:    08 Jan 93 19:12:56 +0000
  298.  
  299. Because M.D. Ross was the first reference in the posting, and I work in
  300. her lab at NASA Ames, I feel some need to post also. Dr. Ross is a
  301. neuroanatomist and we study nerves in the vestibular macula at the
  302. ultrastructural level.
  303.  
  304. First, I have never heard her refer to a DANN in the manner the post
  305. does, and in the post she is referenced right after this acronym.
  306.  
  307. Second, with respect to Ulf's posting, we do use both artificial neural
  308. net models as well as electrophysiological models here in the
  309. Biocomputation Center. There are some questions that are best answered
  310. with one of those models because they are too hard to answer with the
  311. other type. We have far more time in the 'real' models than the
  312. artificial, but some networking questions are still best posed in the
  313. context of an artificial neural net just because of the huge
  314. computational requirements for networks of more realistic nerves. We are,
  315. however, scaling up our 'real' models to ask such questions. In those
  316. cases we plan to burn several hundred hours of CRAY YMP time. Thank
  317. goodness (and the US taxpayers) that NASA has the supercomputers.
  318.  
  319. These statements are mine, and not those of the Biocomputation Center
  320.  
  321. David        doshay@soma.arc.nasa.gov
  322.  
  323. The thought police insist I tell you:
  324. my thoughts, not NASA's
  325.  
  326. ------------------------------
  327.  
  328. Subject: Re: Biologically Plausible Dynamic Artificial Neural Networks
  329. From:    andrick@sun.rhrk.uni-kl.de (Ulf Andrick [Biologie])
  330. Organization: University of Kaiserslautern, Germany
  331. Date:    11 Jan 93 14:01:08 +0000
  332.  
  333. doshay@ursa.arc.nasa.gov (David Doshay) writes:
  334. : Second, with respect to Ulf's posting, we do use both artificial neural
  335. : net models as well as electrophysiological models here in the
  336. : Biocomputation Center. There are some questions that are best answered
  337. : with one of those models because they are too hard to answer with the
  338. : other type.
  339.  
  340. I just wanted to counter the view that Artificial Neural Networks (ANN)
  341. are suitable to explain everything in the brain.  Further more, the
  342. posting I answered to referred to small neural systems in simple
  343. organisms, and here, I don't see a field for the application of ANN. I
  344. think of the stomatogastric ganglion of the crab or the flight generator
  345. of the locust when talking about small neural systems.
  346.  
  347. I'm aware that some work has been done with ANNs to simulate large
  348. networks as in the human cortex.
  349.  
  350. But I didn't mind to present a view which was perhaps a little one-sided,
  351. because I wanted to see the reactions, esp. of AI people.  But somehow,
  352. there was not much response, at least I saw no other replies in
  353. bionet.neuroscience.
  354.  
  355. Ulf R. Andrick                                andrick@rhrk.uni-kl.de
  356. FB Biologie - Tierphysiologie
  357. Universitaet                             Was du nicht selber weiszt, 
  358. D-W 6750 Kaiserslautern       das muszt du dir erklaeren (Tegtmeier)
  359.  
  360. ------------------------------
  361.  
  362. Subject: Re: Biologically Plausible Dynamic Artificial Neural Networks
  363. From:    jdevlin@pollux.usc.edu (Joseph T. Devlin)
  364. Organization: University of Southern California, Los Angeles, CA
  365. Date:    11 Jan 93 19:42:25 +0000
  366.  
  367. Ulf Andrick  writes:
  368. >I just wanted to counter the view that Artificial Neural
  369. >Networks (ANN) are suitable to explain everything in the brain.
  370.  
  371.   I think I can be fairly confident when I say that no-one
  372. really suggests that ANNs might explain "everything in the brain" -
  373. that'd be a neat trick!  It'd put us all out jobs, however...
  374.  
  375. >Further more, the posting I answered to referred to small
  376. >neural systems in simple organisms, and here, I don't see a
  377. >field for the application of ANN. I think of the stomatogastric
  378. >ganglion of the crab or the flight generator of the locust
  379. >when talking about small neural systems. 
  380.  
  381.   I think this depends on what exactly you are referring to
  382. when you say "Artificial Neural Net (ANN)".  If you mean any
  383. computational model of neural activity then certainly Selverston's work
  384. at UCSD qualifies as a small ANN in a simple organism (the lobster
  385. stomatoganglion system).
  386.   If, on the other hand, you mean solely the more traditional
  387. ANNs such as the models in McClelland and Rumelhart's PDP book then I
  388. would agree.  These types of models seem to provide no real insight into
  389. detailed neural systems that are fairly well characterized biologically
  390. but I don't believe they were intended to, either.  PDP models are more
  391. useful for modeling cognitive issues where the underlying biology is as
  392. yet unknown but nonetheless the modeler would like to capture general
  393. components of the biology - such as distributed representation, massive
  394. parallelism, etc.  As it stands there is certainly debate concerning the
  395. usefullness of these models - see the ongoing McCloskey/Seidenberg debate -
  396. but I like Seidenberg's arguments which I think are very elegant (but I
  397. work in his lab so I'm biased. :-)
  398.  
  399.                             - Joe
  400.  
  401. *************************************************************************
  402. Joseph Devlin                      * email: jdevlin@pollux.usc.edu
  403. University of Southern California  *
  404. Department of Computer Science     * "The axon doesn't think.
  405. Los Angeles, CA 90089              *  It just ax."  George Bishop
  406. *************************************************************************
  407.  
  408.   McClelland and Rumelhart (1986) _Parallel Distributed Processing_, MIT Press.
  409.  
  410.   McCloskey (1992) Networks and theories: The place of connectionism in
  411.   cognitive science. _Psychogical Science_
  412.  
  413.   Rowat & Selverston (1991) Learning algorithms for oscillatory networks with
  414. gap junctions and membrane currents.  _Networks 2_, 17-41.
  415.  
  416.   Seidenberg (in press) [A response to McCloskey...] _Psychological Science_
  417.  
  418. Note: The references are from memory basically so I apologize for any
  419.       inaccuracies in advance.  I just can't remember the title of the
  420.       Seidenberg paper - my copy doesn't have one.
  421.  
  422. ------------------------------
  423.  
  424. Subject: Job Offer - signal processing
  425. From:    bouzerda@eleceng.adelaide.edu.au
  426. Date:    Tue, 05 Jan 93 13:23:13 +1100
  427.  
  428.                     POSTDOCTORAL OR RESEARCH FELLOW 
  429.                                    in
  430.                   Signal Processing and Neural Networks
  431.                   **************************************
  432.  
  433. A postdoctoral or research fellow is sought to join as soon as possible
  434. the Centre for Sensor Signal and Information Processing (CSSIP) and the
  435. University of Adelaide EE Eng Department. The CSSIP is one of several
  436. cooperative research centres awarded by the Australian Government to
  437. establish excellence in research and development. The University of
  438. Adelaide, represented by the EE Eng Dept, is a partner in this
  439. cooperative research centre, together with the Defence Science and
  440. Technology Organization (DSTO), four other Universities, and several
  441. companies.  The cooperative research centre consists of more than 50
  442. effective full time researchers, and is well equipped with many UNIX
  443. Workstations and a massively parallel machine (DEC MPP).
  444.  
  445. The aim is to develop and investigate principles of artificial neural
  446. networks for sensor signal and image processing, classification and
  447. separation of signals, and data fusion. The position is for one year with
  448. a strong possibility of renewal.
  449.  
  450. DUTIES: In consultation with task leaders and specialist researchers to
  451. investigate alternative algorithm design approaches, to design
  452. experiments on applications of signal processing and artificial neural
  453. networks, to prepare data and carry out the experiments, to prepare
  454. software for testing algorithms, and to prepare or assist with the
  455. prepation of technical reports.
  456.  
  457. QUALIFICATIONS: The successful candidate must have a Ph.D., a proven
  458. research record, and a demonstrated ability in written and spoken
  459. English.
  460.  
  461. PAY and CONDITIONS: will be in accordance with University of Adelaide
  462. policies, and will depend on the qualifications and experience.
  463. Appointments may be made in scales A$ 36766 to A$ 42852 for a postdoc,
  464. and A$ 42333 to A$ 5999 for a research fellow.
  465.  
  466. ENQUIRIES: Prof. R. E. Bogner, Electrical & Electronic Engineering Dept.,
  467. The University of Adelaide, G.P.O. Box 498, Adelaide, South Australia
  468. 5001.  Phone: (61)-08-228-5589, Fax: (61)-08-232-5720 Email:
  469. bogner@eleceng.adelaide.edu.au
  470.  
  471. Dr. A. Bouzerdoum, Phone (61)-08-228-5464, Fax (61)-08-232-5720 Email:
  472. bouzerda@eleceng.adelaide.edu.au
  473.  
  474.  
  475. ------------------------------
  476.  
  477. Subject: Postdoc in neural signal processing theory
  478. From:    Benny Lautrup <lautrup@connect.nbi.dk>
  479. Date:    Fri, 08 Jan 93 14:31:02 +0000
  480.  
  481.                          POST-DOC POSITION IN
  482.                        NEURAL SIGNAL PROCESSING
  483.                                THEORY
  484.  
  485. The Danish Computational Neural Network Center  (CONNECT),  announces  a
  486. one-year post-doc position in the theory of  neural  signal  processing.
  487. CONNECT is a joint effort  with  participants  from  the  University  of
  488. Copenhagen, Risoe National Laboratory, and the Technical  University  of
  489. Denmark. The position is available March 1,  1993,  at  the  Electronics
  490. Institute of the Technical University of Denmark.
  491.  
  492. The work of the neural signal processing group  concerns  generalization
  493. theory, algorithms for architecture optimization, applications  in  time
  494. series analysis, seismic signal processing, image processing and pattern
  495. recognition.
  496.  
  497. The candidate must have a strong background in statistics or statistical
  498. physics  and  have  several  years  of  experience  in   neural   signal
  499. processing. A candidate with proven abilities in  generalization  theory
  500. of signal processing neural networks or  in  seismic  signal  processing
  501. will be favoured.
  502.  
  503. Further information about the position can be obtained from:
  504.  
  505.  
  506. Lars Kai Hansen,                     Phone: (+45) 45 93 12 22, ext 3889.
  507. Electronics Institute B349,          Fax: (+45) 42 87 07 17.
  508. Technical University of Denmark,     email: lars@eiffel.ei.dth.dk
  509. DK-2800 Lyngby.
  510.  
  511. Applications containing CV, list of publications, and three letters of
  512. recommendation should be mailed to
  513.  
  514. Benny Lautrup,
  515. CONNECT
  516. Niels Bohr Institute
  517. Blegdamsvej 17
  518. DK-2100 Copenhagen
  519.  
  520.  
  521.                    Deadline February 15, 1992
  522.  
  523. ------------------------------
  524.  
  525. Subject: Computational Biology Postdoc
  526. From:    George Berg <berg@cs.albany.edu>
  527. Date:    Tue, 12 Jan 93 13:36:03 -0500
  528.  
  529.  
  530.  
  531.           Postdoctoral Position in Computational Biology 
  532.  
  533.  
  534.   A one-year postdoctoral position supported by an NSF grant is
  535. available to study protein secondary and tertiary structure prediction
  536. using artificial intelligence and other computational techniques.
  537. Position is available starting in March, 1993, or later.
  538.  
  539.   The successful applicant will have a strong background in the
  540. biochemistry of protein structure.  Ability to program is a must.
  541. Experience with artificial neural networks is a definite plus.  Preferred
  542. candidates will have experience with C, UNIX, and molecular modeling.
  543.  
  544.   For further information, contact either George Berg (Department of
  545. Computer Science) or Jacquelyn Fetrow (Department of Biological Sciences)
  546. by electronic mail at postdoc-info@cs.albany.edu.
  547.  
  548. To apply, please send curriculum vitae and three letters of
  549. recommendation to:
  550.    Jacquelyn Fetrow 
  551.    Department of Biological Sciences
  552.    University at Albany
  553.    1400 Washington Avenue
  554.    Albany, NY   12222
  555.  
  556.  
  557. ------------------------------
  558.  
  559. Subject: Job announcement - Siemens Corp.
  560. From:    Ellen Voorhees <ellen@sol.siemens.com>
  561. Date:    Fri, 15 Jan 93 09:14:40 -0500
  562.  
  563. The learning department of Siemens Corporate Research in Princeton, New
  564. Jersey is looking to hire a researcher interested in statistical and
  565. knowledge-based methods for natural language processing, text retrieval,
  566. and text categorization.  The position requires either a PhD (preferred)
  567. or a masters degree with some experience in an appropriate field.  The
  568. main responsibility of the successful candidate will be to conduct
  569. research in automatic information retrieval and (statistical) natural
  570. language processing.  Tasks include setting up and running experiments,
  571. programming, etc.
  572.  
  573. People interested in the position should send a PLAIN ASCII resume to
  574. ellen@learning.siemens.com or a hardcopy of the resume to:
  575.         Human Services
  576.         Department EV
  577.         Siemens Corporate Research, Inc.
  578.         755 College Road East
  579.         Princeton, NJ 08540
  580. Siemens is an equal opportunity employer.
  581.         
  582.  
  583. Ellen Voorhees
  584. Member of Technical Staff
  585. Siemens Corporate Research, Inc.
  586.  
  587.  
  588. ------------------------------
  589.  
  590. Subject: Teaching post at U. Western Ontario
  591. From:    Mel Goodale <22026_1672@uwovax.uwo.ca>
  592. Date:    Sat, 02 Jan 93 12:51:43 -0500
  593.  
  594.                 NEUROPSYCHOLOGY TEACHING POSITION
  595.  
  596. Two-year replacement teaching position, 1993-1995.  Possibility of
  597. research in existing laboratories with salary supplement.  Active
  598. programme in Psychobiology / Clinical Neuropsychology.  Existing faculty
  599. with neuropsychological interests include Mel Goodale, Elizabeth Hampson,
  600. Doreen Kimura, and David Sherry.
  601. h
  602. We would especially like a person with expertise in human memory, but any
  603. area of Neuropsychology / Cognitive Neuroscience is acceptable.
  604.  
  605. Basic salary is at a postdoctoral level.  Send vita and references
  606. to:
  607.  
  608. Mel Goodale, Department of Psychology
  609. University of Western Ontario
  610. London Ontario N6A 5C2
  611. FAX (519) 661-3029
  612.  
  613.  
  614.  
  615. M.A. Goodale: Department of Psychology
  616.               University of Western Ontario
  617.               London, Ontario
  618.               Phone (519) 661-2070
  619.               GOODALE@UWO.CA
  620.  
  621.  
  622. ------------------------------
  623.  
  624. End of Neuron Digest [Volume 11 Issue 6]
  625. ****************************************
  626.