home *** CD-ROM | disk | FTP | other *** search
/ NetNews Usenet Archive 1992 #31 / NN_1992_31.iso / spool / comp / ai / neuraln / 4649 < prev    next >
Encoding:
Internet Message Format  |  1992-12-27  |  20.7 KB

  1. Path: sparky!uunet!think.com!ames!agate!ucbvax!CATTELL.PSYCH.UPENN.EDU!neuron-request
  2. From: neuron-request@CATTELL.PSYCH.UPENN.EDU ("Neuron-Digest Moderator")
  3. Newsgroups: comp.ai.neural-nets
  4. Subject: Neuron Digest V10 #24 (jobs + discussion + software)
  5. Message-ID: <16793.725498849@cattell.psych.upenn.edu>
  6. Date: 27 Dec 92 23:27:29 GMT
  7. Sender: daemon@ucbvax.BERKELEY.EDU
  8. Reply-To: "Neuron-Request" <neuron-request@cattell.psych.upenn.edu>
  9. Distribution: world
  10. Organization: University of Pennsylvania
  11. Lines: 530
  12.  
  13. Neuron Digest   Sunday, 27 Dec 1992
  14.                 Volume 10 : Issue 24
  15.  
  16. Today's Topics:
  17.          Doctoral Program in Philosophy-Psychology-Neuroscience
  18.                          some information needed
  19.                              Job Opportunity
  20.                        Follow-up on product guide
  21.          Very Fast Simulated Reannealing (VFSR) v6.35 in Netlib
  22.                           NIPS workshop summary
  23.  
  24.  
  25. Send submissions, questions, address maintenance, and requests for old
  26. issues to "neuron-request@cattell.psych.upenn.edu". The ftp archives are
  27. available from cattell.psych.upenn.edu (130.91.68.31). Back issues
  28. requested by mail will eventually be sent, but may take a while.
  29.  
  30. ----------------------------------------------------------------------
  31.  
  32. Subject: Doctoral Program in Philosophy-Psychology-Neuroscience
  33. From:    Andy Clark <andycl@syma.sussex.ac.uk>
  34. Date:    Tue, 15 Dec 92 16:43:25 +0000
  35.  
  36.  
  37.  
  38.        First Announcement of a New Doctoral Programme in
  39.  
  40.  
  41.              PHILOSOPHY-NEUROSCIENCE-PSYCHOLOGY
  42.  
  43.                              at
  44.  
  45.              Washington University in St. Louis
  46.  
  47.  
  48.  
  49. The Philosophy-Neuroscience-Psychology (PNP) program offers a unique
  50. opportunity to combine advanced philosophical studies with in-depth work
  51. in Neuroscience or Psychology. In addition to meeting the usual
  52. requirements for a Doctorate in Philosophy, students will spend one year
  53. working in Neuroscience or Psychology. The Neuroscience option will draw
  54. on the resources of the Washington University School of Medicine which is
  55. an internationally acknowledged center of excellence in neuroscientific
  56. research. The initiative will also employ several new PNP related
  57. Philosophy faculty and post-doctoral fellows.
  58.  
  59.  
  60. Students admitted to the PNP program will embark upon a five-year course
  61. of study designed to fulfill all the requirements for the Ph.D. in
  62. philosophy, including an academic year studying neuroscience at
  63. Washington University's School of Medicine or psychology in the
  64. Department of Psychology.  Finally, each PNP student will write a
  65. dissertation jointly directed by a philosopher and a faculty member from
  66. either the medical school or the psychology department.
  67.  
  68. THE FACULTY
  69.  
  70. Roger F. Gibson, Ph.D., Missouri, Professor and Chair:
  71.   Philosophy of Language, Epistemology, Quine
  72.  
  73. Robert B. Barrett, Ph.D., Johns Hopkins, Professor:
  74.   Pragmatism, Renaissance Science, Philosophy of Social
  75.   Science, Analytic Philosophy.
  76.  
  77. Andy Clark, Ph.D., Stirling, Visiting Professor (1993-6) and
  78. Acting Director of PNP:
  79.   Philosophy of Cognitive Science, Philosophy of Mind,
  80.   Philosophy of Language, Connectionism.
  81.  
  82. J. Claude Evans, Ph.D., SUNY-Stony Brook, Associate Pro-
  83.   fessor:  Modern Philosophy, Contemporary Continental
  84.   Philosophy, Phenomenology, Analytic Philosophy, Social and
  85.   Political Theory.
  86.  
  87. Marilyn A. Friedman, Ph.D., Western Ontario, Associate
  88.   Professor:  Ethics, Social Philosophy, Feminist Theory.
  89.  
  90. William H. Gass, Ph.D., Cornell, Distinguished University
  91.   Professor of the Humanities:  Philosophy of Literature,
  92.   Photography, Architecture.
  93.  
  94. Lucian W. Krukowski, Ph.D., Washington University, Pro-
  95.   fessor:  20th Century Aesthetics, Philosophy of Art,
  96.   18th and 19th Century Philosophy, Kant, Hegel,
  97.   Schopenhauer.
  98.  
  99. Josefa Toribio Mateas, Ph.D., Complutense University,
  100.   Assistant Professor:  Philosophy of Language, Philosophy
  101.   of Mind.
  102.  
  103. Larry May, Ph.D., New School for Social Research, Pro-
  104.   fessor:  Social and Political Philosophy, Philosophy of
  105.   Law, Moral and Legal Responsibility.
  106.  
  107. Stanley L. Paulson, Ph.D., Wisconsin, J.D., Harvard, Pro-
  108.   fessor:  Philosophy of Law.
  109.  
  110. Mark Rollins, Ph.D., Columbia, Assistant Professor:
  111.   Philosophy of Mind, Epistemology, Philosophy of Science,
  112.   Neuroscience.
  113.  
  114. Jerome P. Schiller, Ph.D., Harvard, Professor:  Ancient
  115.   Philosophy, Plato, Aristotle.
  116.  
  117. Joyce Trebilcot, Ph.D., California at Santa Barbara, Associ-
  118.   ate Professor:  Feminist Philosophy.
  119.  
  120. Joseph S. Ullian, Ph.D., Harvard, Professor:  Logic, Philos-
  121.   ophy of Mathematics, Philosophy of Language.
  122.  
  123. Richard A. Watson, Ph.D., Iowa, Professor:  Modern Philoso-
  124.   phy, Descartes, Historical Sciences.
  125.  
  126. Carl P. Wellman, Ph.D., Harvard, Hortense and Tobias Lewin
  127.   Professor in the Humanities:  Ethics, Philosophy of Law,
  128.   Legal and Moral Rights.
  129.  
  130. EMERITI
  131.  
  132. Richard H. Popkin, Ph.D., Columbia:  History of Ideas,
  133.   Jewish Intellectual History.
  134.  
  135. Alfred J. Stenner, Ph.D., Michigan State:  Philosophy of
  136.   Science, Epistemology, Philosophy of Language.
  137.  
  138. FINANCIAL SUPPORT
  139.  
  140. Students admitted to the Philosophy-Neuroscience-Psychology (PNP) program
  141. are eligible for five years of full financial support at competitive
  142. rates in the presence of satisfactory academic progress.
  143.  
  144. APPLICATIONS
  145.  
  146. Application for admission to the Graduate School should be made to:
  147.                     Chair, Graduate Admissions
  148.                     Department of Philosophy
  149.                     Washington University
  150.                     Campus Box 1073
  151.                     One Brookings Drive
  152.                     St. Louis, MO 63130-4899
  153.  
  154. Washington University encourages and gives full consideration to all
  155. applicants for admission and financial aid without regard to race, color,
  156. national origin, handicap, sex, or religious creed.  Services for
  157. students with hearing, visual, orthopedic, learning, or other
  158. disabilities are coordinated through the office of the Assistant Dean for
  159. Special Services.
  160.  
  161.  
  162. ------------------------------
  163.  
  164. Subject: some information needed
  165. From:    Antonio Villani <ANTONIO%IVRUNIV.bitnet@ICINECA.CINECA.IT>
  166. Organization: "Information Center - Verona University - Italy"
  167. Date:    Tue, 15 Dec 92 16:56:46 -0100
  168.  
  169. I'm looking for any kind of information about 'avalanche network' and
  170. 'neural networks for prediction' applied to dynamic signal processing.
  171. Can someone help me?  Thanks in advance
  172.  
  173. Antonio Villani
  174. antonio@ivruniv.bitnet
  175.  
  176.  
  177. ------------------------------
  178.  
  179. Subject: Job Opportunity
  180. From:    Marwan Jabri <marwan@ee.su.oz.au>
  181. Date:    Thu, 17 Dec 92 10:19:55 +1100
  182.  
  183. The University of Sydney
  184. Department of Electrical Engineering
  185. Systems Engineering and Design Automation Laboratory
  186.  
  187. Girling Watson Research Fellowship
  188. Reference No. 51/12
  189.  
  190.  
  191. Applications are invited for a Girling Watson Research Fellowship at
  192. Sydney University Electrical Engineering. The applicant should have a
  193. strong research and development experience, preferably with a background
  194. in one or more of the following areas: machine intelligence and
  195. connectionist architectures, microelectronics, pattern recognition and
  196. classification.
  197.  
  198. The Fellow will work with the Systems Engineering and Design Automation
  199. Laboratory (SEDAL), one of the largest laboratories at Sydney University
  200. Electrical Engineering. The Fellow will join a group of 18 people (8 staff
  201. and 10 postgraduate students). SEDAL currently has projects on pattern
  202. recognition for implantable devices, VLSI implementation of connectionist
  203. architectures, time series prediction, knowledge integration and
  204. continuous learning, and VLSI computer aided design. The Research Fellow
  205. position is aimed at:
  206.  
  207. o       contributing to the research program
  208. o       helping with the supervision of postgraduate students
  209. o       supporting some management aspects of SEDAL
  210. o       providing occasional teaching support
  211.  
  212. Applicants should have either a PhD or an equivalent industry research and
  213. development experience.  The appointment is available for a period of
  214. three years, subject to satisfactory progress.
  215.  
  216. Salary is in the range of Research Fellow: A$39,463 to A$48,688.
  217.  
  218.  
  219. Applications quoting the reference number 51/12 can be sent to:
  220.  
  221.         The Staff Office
  222.         The University of Sydney
  223.         NSW 2006
  224.         AUSTRALIA
  225.  
  226.  
  227.  
  228. For further information contact
  229.  
  230.         Dr. M. Jabri, 
  231.         Tel: (+61-2) 692-2240, 
  232.         Fax: (+61-2) 660-1228, 
  233.         Email: marwan@sedal.su.oz.au
  234.  
  235.  
  236. ------------------------------
  237.  
  238. Subject: Follow-up on product guide
  239. From:    eric@sunlight.llnl.gov (Eric Keto)
  240. Date:    Thu, 17 Dec 92 17:01:36 -0800
  241.  
  242. >> Thanks for posting my question about neural net product reviews. I
  243. >> received a response with the information that there is a recent
  244. >> review in the July-August 1992 PC AI magazine.
  245. >Could you write up a little note about what you found and send it to
  246. >neuron@cattell... I'm sure others would like to know also.
  247.  
  248. OK, I finally got this magazine. 
  249.  
  250. Here is your note:
  251.  
  252. In the July-August 1992 issue of PC-AI magazine there is a "4th Annual
  253. Product Guide" which includes "information on products in a number of AI
  254. areas" including neural nets.  The list of products is quite long, 13
  255. pages of tiny type, and the descriptions are quite brief: product name,
  256. vendor, 20 words or so on the description, requirements, price. This is
  257. certainly not a critical review, but it is an extensive list.
  258.  
  259. Eric Keto (eric@sunlight.llnl.gov)
  260.  
  261.  
  262. ------------------------------
  263.  
  264. Subject: Very Fast Simulated Reannealing (VFSR) v6.35 in Netlib
  265. From:    Lester Ingber <ingber@alumni.cco.caltech.edu>
  266. Date:    Fri, 18 Dec 92 05:47:07 -0800
  267.  
  268.                 Very Fast Simulated Reannealing (VFSR) v6.35
  269.  
  270. Netlib requested an early update, and VFSR v6.35 is now in Netlib
  271. and soon will be updated in Statlib.  The code is stable, and is
  272. being used widely.  The changes to date typically correct typos and
  273. account for some problems encountered on particular machines.
  274.  
  275.                 NETLIB
  276. Interactive:
  277.         ftp research.att.com
  278.         [login as netlib, your_login_name as password]
  279.         cd opt
  280.         binary
  281.         get vfsr.Z
  282. Email:
  283.         mail netlib@research.att.com
  284.         send vfsr from opt
  285.  
  286.                 STATLIB
  287. Interactive:
  288.         ftp lib.stat.cmu.edu
  289.         [login as statlib, your_login_name as password]
  290.         cd general
  291.         get vfsr
  292. Email:
  293.         mail statlib@lib.stat.cmu.edu
  294.         send vfsr from general
  295.  
  296.                 EXCERPT FROM README
  297. 2.  Background and Context
  298.  
  299.      VFSR  was  developed  in  1987 to deal with the necessity of
  300. performing adaptive global optimization on multivariate nonlinear
  301. stochastic  systems[2].   VFSR was recoded and applied to several
  302. complex systems, in combat analysis[3],  finance[4],  and  neuro-
  303. science[5].   A  comparison  has  shown  VFSR to be superior to a
  304. standard genetic algorithm simulation on a suite of standard test
  305. problems[6],  and  VFSR  has  been  examined  in the context of a
  306. review of methods of simulated annealing[7].  A project comparing
  307. standard  Boltzmann  annealing  with "fast" Cauchy annealing with
  308. VFSR has concluded that VFSR is a superior algorithm[8].  A paper
  309. has  indicated how this technique can be enhanced by combining it
  310. with some other powerful algorithms[9].
  311.  
  312.  
  313. || Prof. Lester Ingber                         [10ATT]0-700-L-INGBER ||
  314. || Lester Ingber Research                        Fax: 0-700-4-INGBER ||
  315. || P.O. Box 857                           Voice Mail: 1-800-VMAIL-LI ||
  316. || McLean, VA  22101                EMail: ingber@alumni.caltech.edu ||
  317.  
  318.  
  319. ------------------------------
  320.  
  321. Subject: NIPS workshop summary
  322. From:    "Scott A. Markel x2683" <sam@sarnoff.com>
  323. Date:    Wed, 16 Dec 92 15:57:30 -0500
  324.  
  325.  
  326. [[ Editor's Note: Since I did not go to NIPS, I greatly appreciated this
  327. summary.  I hope (and urge) that readers will contribute their own
  328. summaries of future conferecnes and workshops. -PM ]] 
  329.  
  330.                             NIPS 92 Workshop Summary
  331.                             ========================
  332.  
  333.                 Computational Issues in Neural Network Training
  334.                 ===============================================
  335.  
  336. Main focus: Optimization algorithms used in training neural networks
  337. - ----------
  338.  
  339. Organizers: Scott Markel and Roger Crane
  340. - ----------
  341.  
  342. This was a one day workshop exploring the use of optimization algorithms, such
  343. as back-propagation, conjugate gradient, and sequential quadratic programming,
  344. in neural network training.  Approximately 20-25 people participated in the
  345. workshop.  About two thirds of the participants used some flavor of back
  346. propagation as their algorithm of choice, with the other third using conjugate
  347. gradient, sequential quadratic programming, or something else.  I would guess
  348. that participants were split about 60-40 between industry and the academic
  349. community.
  350.  
  351.  
  352. The workshop consisted of lots of discussion and the following presentations:
  353.  
  354. Introduction
  355. - ------------
  356. Scott Markel (David Sarnoff Research Center - smarkel@sarnoff.com)
  357.  
  358. I opened by saying that Roger and I are mathematicians and started
  359. looking at neural network training problems when neural net researchers
  360. were experiencing difficulties with back-propagation.  We think there are
  361. some wonderfully advanced and robust implementations of classical
  362. algorithms developed by the mathematical optimization community that are
  363. not being exploited by the neural network community.  This is due largely
  364. to a lack of interaction between the two communities.  This workshop was
  365. set up to address that issue.  In July we organized a similar workshop
  366. for applied mathematicians at SIAM '92 in Los Angeles.
  367.  
  368.  
  369. Optimization Overview
  370. - ---------------------
  371. Roger Crane (David Sarnoff Research Center - rcrane@sarnoff.com)
  372.  
  373. Roger gave a very brief, but broad, historical overview of optimization
  374. algorithm research and development in the mathematical community.  He
  375. showed a time line starting with gradient descent in the 1950's and
  376. progressing to sequential quadratic programming (SQP) in the 1970's and
  377. 1980's.  SQP is the current state of the art optimization algorithm for
  378. constrained optimization.  It's a second order method that solves a
  379. sequence of quadratic approximation problems.  SQP is quite frugal with
  380. function evaluations and handles both linear and nonlinear constraints.
  381. Roger stressed the robustness of algorithms found in commercial packages
  382. (e.g. NAG library) and that reinventing the wheel was usually not a good
  383. thing to do since many subtleties will be missed.  A good reference for
  384. this material is
  385.  
  386. Practical Optimization
  387. Gill, P. E., Murray, W., and Wright, M. H.
  388. Academic Press: London and New York
  389. 1981
  390.  
  391. Roger's overview generated a lot of discussion.  Most of it centered
  392. around the fact that second order methods involve using the Hessian, or
  393. an approximation to it, and that this is impractical for large problems
  394. (> 500-1000 parameters).  Participants also commented that the
  395. mathematical optimization community has not yet fully realized this and
  396. that stochastic optimization techniques are needed for these large
  397. problems.  All classical methods are inherently deterministic and work
  398. only for "batch" training.
  399.  
  400.  
  401. SQP on a Test Problem
  402. - ---------------------
  403. Scott Markel (David Sarnoff Research Center - smarkel@sarnoff.com)
  404.  
  405. I followed Roger's presentation with a short set of slides showing actual
  406. convergence of a neural network training problem where SQP was the
  407. training algorithm.  Most of the workshop participants had not seen this
  408. kind of convergence before.  Yann Le Cun noted that with such sharp
  409. convergence generalization would probably be pretty bad.  I noted that
  410. sharp convergence was necessary if one was trying to do something like
  411. count local minima, where generaization is not an issue.
  412.  
  413.  
  414. In Defense of Gradient Descent
  415. - ------------------------------
  416. Barak Pearlmutter (Oregon Graduate Institute - bap@merlot.cse.ogi.edu)
  417.  
  418. By this point back propagation and its many flavors had been well
  419. defended from the audience.  Barak's presentation captured the main
  420. points in a clarifying manner.  He gave examples of real application
  421. neural networks with thousands, millions, and billions of connections.
  422. This underscored the need for stochastic optimization techniques.  Barak
  423. also made some general remarks about the characteristics of error
  424. surfaces.  Some earlier work by Barak on gradient descent and second
  425. order momentum can be found in the NIPS-4 proceedings (p. 887).  A strong
  426. plea was made by Barak, and echoed by the other participants, for fair
  427. comparisons between training methods.  Fair comparisons are rare, but
  428. much needed.
  429.  
  430.  
  431. Very Fast Simulated Reannealing
  432. - -------------------------------
  433. Bruce Rosen (University of Texas at San Antonio - rosen@ringer.cs.utsa.edu)
  434.  
  435. This presentation focused on a new optimization technique called Very
  436. Fast Simulated Reannealing (VFSR), which is faster than Boltzmann
  437. Annealing (BA) and Fast (Cauchy) Annealing (FA).  Unlike back
  438. propagation, which Bruce considers mostly a method for pattern
  439. association/classification/generalization, simulated annealing methods
  440. are perhaps best used for functional optimization. He presented some
  441. results on this work, showing a comparison of Very Fast Simulated
  442. Reannealing to GA for function optimization and some recent work on
  443. function optimization with BA, FA, and VFSR.
  444.  
  445. Bruce's (and Lester Ingber's) code is available from netlib -
  446.  
  447. Interactive:
  448.         ftp research.att.com
  449.         [login as netlib, your_login_name as password]
  450.         cd opt
  451.         binary
  452.         get vfsr.Z
  453. Email:
  454.         mail netlib@research.att.com
  455.         send vfsr from opt
  456.         
  457. Contact Bruce (rosen@ringer.cs.utsa.edu) or Lester
  458. (ingber@alumni.cco.caltech.edu) for further information.
  459.  
  460.  
  461. General Comments
  462. - ----------------
  463. Yann Le Cun (AT&T Bell Labs - yann@neural.att.com)
  464.  
  465. I asked Yann to summarize some of the comments he and others had been
  466. making during the morning session.  Even though we didn't give him much
  467. time to prepare, he nicely outlined the main points.  These included
  468.  
  469. - - large problems require stochastic methods
  470. - - the mathematical community hasn't yet addressed the needs of the neural
  471.   network community
  472. - - neural network researchers are using second order information in a variety of
  473.   ways, but are definitely exploring uncharted territory
  474. - - symmetric sigmoids are necessary; [0,1] sigmoids cause scaling problems
  475.   (Roger commented that classical methods would accommodate this)
  476.  
  477.  
  478. Cascade Correlation and Greedy Learning
  479. - ---------------------------------------
  480. Scott Fahlman (Carnegie Mellon University - scott.fahlman@cs.cmu.edu)
  481.  
  482. Scott's presentation started with a description of QuickProp.  This
  483. algorithm was developed in an attempt to address the slowness of back
  484. propagation.  QuickProp uses second order information ala modified Newton
  485. method.  This was yet another example of neural network researchers
  486. seeing no other alternative but to do their own algorithm development.
  487. Scott then described Cascade Correlation.  CasCor and CasCor2 are greedy
  488. learning algorithms.  They build the network, putting each new node in
  489. its own layer, in response to the remaining error.  The newest node is
  490. trained to deal with the largest remaining error component.  Papers on
  491. QuickProp, CasCor, and Recurrent CasCor can be found in the neuroprose
  492. archive (see fahlman.quickprop-tr.ps.Z, fahlman.cascor-tr.ps.Z, and
  493. fahlman.rcc.ps.Z).
  494.  
  495.  
  496. Comments on Training Issues
  497. - ---------------------------
  498. Gary Kuhn (Siemens Corporate Research - gmk@learning.siemens.com)
  499.  
  500. Gary presented
  501.  
  502. 1. a procedure for training with stochastic conjugate gradient.
  503.    (G. Kuhn and N. Herzberg, Some Variations on Training of Recurrent Networks,
  504.     in R. Mammone & Y. Zeevi, eds, Neural Networks: Theory and Applications,
  505.     New York, Academic Press, 1991, p 233-244.)
  506.  
  507. 2. a sensitivity analysis that led to a change in the architecture of a speech
  508.    recognizer and to further, joint optimization of the classifier and its 
  509.    input features.  (G. Kuhn, Joint Optimization of Classifier and Feature
  510.    Space in Speech Recognition, IJCNN '92, IV:709-714.)
  511.  
  512. He related Scott Fahlmans' interest in sensitivity to Yann Le Cun's emphasis on
  513. trainability, by showing how a sensitivity analysis led to improved
  514. trainability.
  515.  
  516.  
  517. Active Exemplar Selection
  518. - -------------------------
  519. Mark Plutowski (University of California - San Diego - pluto@cs.ucsd.edu)
  520.  
  521. Mark gave a quick recap of his NIPS poster on choosing a concise subset
  522. for training.  Fitting these exemplars results in the entire set being
  523. fit as well as desired.  This method has only been used on noise free
  524. problems, but looks promising.  Scott Fahlman expressed the opinion that
  525. exploiting the training data was the remaining frontier in neural network
  526. research.
  527.  
  528.  
  529. Final Summary
  530. - -------------
  531.  Incremental, stochastic methods are required for training large networks.
  532. Robust, readily available implementations of classical algorithms can be
  533. used for training modest sized networks and are especially effective
  534. research tools for investigating mathematical issues, e.g. estimating the
  535. number of local minima.
  536.  
  537.  
  538. ------------------------------
  539.  
  540. End of Neuron Digest [Volume 10 Issue 24]
  541. *****************************************
  542.